【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning
高評価: 1,779件
再生: 49,109回
公開日: 2020年5月20日
CNN でおなじみの畳み込み層についての解説です。
幾何的に解釈してやると、かなり意味がわかりやすいと思います。GitHub はこちら↓
https://github.com/sugiyama34/AIciaSolidProject動画で用いた Google spreadsheet はこちら↓
https://docs.google.com/spreadsheets/d/1zABw_IwKEOu_4OjEkJAy7jnhEt0ZYRf-ez0A7Mc1RrI/edit?usp=drivesdk【関連プレイリスト】
Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCPご視聴ありがとうございました!
良い動画だなと思っていただけたら、高評価、チャンネル登録お願いします!
質問や感想など、気軽にコメントしてくださいね。【参考文献】
DL4US コンテンツ公開ページ | U-Tokyo Matsuo Lab
https://weblab.t.u-tokyo.ac.jp/en/dl4us/
GitHub に公開されているので、 clone してきて、 Google Colaboratory を利用して動かすと、ただで勉強開始できます。
clone, Google colaboratory の利用方法はググりましょう。 DL にはわからないことをググって進める能力も必須です。Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems
https://amzn.to/2XNOs6K
英語ですが、これは、基本的な統計から始めていて、基礎を網羅的に扱っている良い教科書だと思います。
(日本語版もあるという噂ですが、それは TF1.0 版らしく、おすすめできません。
どうせ DL やるなら英語読むことにはなるので、挑戦してみても良いかも。)深層学習 (アスキードワンゴ)
https://amzn.to/2AnK0nu
The 深層学習の教科書。松尾研の人々が訳したもの。ゼロから作るDeep Learning
https://amzn.to/3eDoRVd
DL の framework を自分で作っちゃう本。勉強したし、 DL のモデルは実装したけど、イメージわかない人におすすめ。深層学習 (機械学習プロフェッショナルシリーズ)
https://amzn.to/3eyxNuP
青いあの本。中級~上級者向け。ディープラーニングと物理学
https://amzn.to/2B9PlPt
理論的な深くて広い世界を探検したい人におすすめ=========
Twitter: https://twitter.com/AIcia_Solid/
Logo: TEICAさん https://twitter.com/T_E_I_C_A
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん https://twitter.com/W01fa
Editor: AIris Solid
#機械学習
説明文の続きを見る
Deep Learning の世界
- 【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】 #050 #VRアカデミア #DeepLearning
- 【深層学習】学習 - なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】 #052 #VRアカデミア #DeepLearning
- 【深層学習】関数 - なぜ「深さ」が AI を生み出しているのか?【ディープラーニングの世界 vol. 3 】 #054 #VRアカデミア #DeepLearning
- 【深層学習】全結合層 - それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】 #055 #VRアカデミア #DeepLearning
- 【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning
- 【深層学習】プーリング層 - シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】 #058 #VRアカデミア #DeepLearning
- 【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】 #059 #VRアカデミア #DeepLearning
- 【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】 #062 #VRアカデミア #DeepLearning
- 【深層学習】RNN の3通りの使い方 - RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】 #064 #VRアカデミア #DeepLearning
- 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
- 【深層学習】LSTM - RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】 #067 #VRアカデミア #DeepLearning
- 【深層学習】bi-LSTM - 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】 #070 #VRアカデミア #DeepLearning
- 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
- 【深層学習】CNN紹介 "AlexNet" 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】 #077 #VRアカデミア #DeepLearning
- 【深層学習】CNN紹介 "GoogLeNet" ILSVRC2014をInceptionで制したモデル【ディープラーニングの世界 vol. 15】#078 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "VGGNet" シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】#079 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】#080 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "Xception" 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】#081 #VRアカデミア #DeepLearning
- 【深層学習】SENet - 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】#082 #VRアカデミア #DeepLearning
- 【深層学習】RNNLM - 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】#087 #VRアカデミア #DeepLearning
- 【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning
- 【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning
- 【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】#093 #VRアカデミア #DeepLearning
- 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
- 【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning
- 【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning
- 【深層学習】SCDV - 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】#104 #VRアカデミア #DeepLearning
- 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
- 【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning
- 【深層学習】ELMo - 複数粒度の文脈情報を持つ単語ベクトルで広範囲のタスク性能改善【ディープラーニングの世界vol.30】#108 #VRアカデミア #DeepLearning
- 【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning
- 【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning
- 【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning
- 【深層学習】XLNet 前編 - BERT の事前学習を工夫して強くなりました【ディープラーニングの世界vol.34-1】#114 #VRアカデミア #DeepLearning
- 【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning
- 【深層学習】RoBERTa - データと学習方法だけで XLNet を超えたモデル【ディープラーニングの世界vol.35】#118 #VRアカデミア #DeepLearning
- 【深層学習】ALBERT - BERT の軽量版!Multi-Head Attention の新たな可能性【ディープラーニングの世界vol.36】#119 #VRアカデミア #DeepLearning
- 【深層学習】T5 - 入出力をテキストにする Transformer の新利用法【ディープラーニングの世界vol.37】#122 #VRアカデミア #DeepLearning
- 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】#123 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】#125 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ③ 社会的影響編 - AIを誤用しないために【ディープラーニングの世界vol.41】#127 #VRアカデミア #DeepLearning
アイシア動画
- 【†黒魔術†】 相関行列を計算するspreadsheet【お伝えします】 #003
- 【のんびり解説】統計多様体の超入門!【情報幾何】 #VRアカデミア #005
- 【微分幾何】多様体の内在的な定義【本編にドーナツは一切登場しません】 #VRアカデミア #008
- 【データの形とは?】Topological Data Analysis 入門【MathPower2018】 #VRアカデミア #009
- 【あなたはS?】logistic sigmoid function について語るよ!【関数語り】 #VRアカデミア #010
- 【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】 #VRアカデミア #011
- 【気分は南国♪】 Tropical Geometry の気持ちを紹介するよ!【Tropical x Mirror = ???】 #VRアカデミア #012
- 【あなただけに…】ブロックチェーンの仕組みだよ!【教えます…】 #VRアカデミア #blockchain #013
- 【ベイズ統計その①】条件付き確率と Bayes の定理【時間の流れを意識せよ!】 #VRアカデミア #014
- 【ベイズ統計その②】この推定、もっとももっともらしいってよ…!【最尤推定のお話だよ!】 #VRアカデミア #015
- 【ベイズ統計その③】宇宙一わかりやすいベイズ推定【本気の解説】 #VRアカデミア #016
- 【ベイズ統計④】ベイズ推定の気持ちと、指数型分布族と、共役事前分布【本気の解説】 #VRアカデミア #017
- 【ベイズ統計⑤】ベイズの定理とベイズ統計の気持ち【ベイズってるー?】 #VRアカデミア #020
- 【ベイズ統計⑥】最終回!階層ベイズとMCMC【してやんよ】 #VRアカデミア #021
- 【遺伝に負けるな!】遺伝が7割のほんとうの意味 ~決定係数~ 【バ美肉おじさん!】 #VRアカデミア #022
- 【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】 #VRアカデミア #023
- 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 #VRアカデミア #024
- 【東工大2019第1問】なんてきれいな不等式なんだ…!【Weitzenbockの不等式】 #VRアカデミア #025
- #.04 【 NeurIPS 2018 Best Paper 】Neural Ordinary Differential Equations【VRアカデミア論文解説リレー】 #VRアカデミア #029
- 【数学 in 日常】時計が必ず丸い理由【VRアカデミア一周年カウントダウンリレー】 #VRアカデミア #030
- 【書評動画?】宇宙と数学と IUT 理論【めざせ ABC 予想】 #VRアカデミア #031
- 【10分で】深谷圏とホモロジカルミラー対称性【 from ロマンティック数学ナイトプライム@圏論 】 #VRアカデミア #ロマ数プライム圏論 #032
- 【時系列分析③】ARMA過程と誤差項の意味【ついに時系列の始まり!】 #VRアカデミア #033
- 【試験対策!】ε-δ論法を使えるようになろう!【使ってみるのが大事】 #VRアカデミア #034
- 【非 deep 最強機械学習】Gradient Boosted Trees の仕組み【勾配決定木とも言うよ】 #VRアカデミア #035
- 【時系列分析④】VAR過程と因果について【Granger 因果検定】 #VRアカデミア #036
- 【分野横断】機械学習と統計的推論と微分幾何と関数解析と統計力学の関係性【 VTuber によるよくばりセット】 #VRアカデミア #037
- 【時系列分析⑤】インパルス応答関数を用いて時系列データの関係を定量的に求める #VRアカデミア #038
- 【ブラックショールズ方程式への道①】ランダムウォークとブラウン運動【確率微分方程式の基礎】 #VRアカデミア #039
- 【ブラックショールズ方程式への道②】確率微分方程式と微分方程式との本質的な差異【確率微分方程式の基礎】 #VRアカデミア #040
- 【ブラックショールズ方程式への道③】伊藤積分【確率微分方程式の基礎】 #VRアカデミア #041
- 【ブラックショールズ方程式への道④】伊藤の公式【確率微分方程式の基礎】 #VRアカデミア #042
- 【ブラックショールズ方程式への道⑤】ブラック=ショールズ方程式の導出【確率微分方程式の基礎】 #VRアカデミア #043
- 【ブラックショールズ方程式への道⑤-2】ブラック=ショールズ方程式の解法【確率微分方程式の基礎】 #VRアカデミア #044
- 【ブラックショールズ方程式への道⑥】伊藤の公式のこころを理解する【確率微分方程式の基礎】#VRアカデミア #045
- 【魔神に挑戦】固体量子さんと Akinator やってみた【果たして当たるのか、、、!?】#VRアカデミア #046
- 【ブラックショールズ方程式への道⑦】Dive into 伊藤積分【確率微分方程式の基礎】#VRアカデミア #047
- 【ブラックショールズ方程式への道⑦-2】さいごの伊藤積分【確率微分方程式の基礎】#VRアカデミア #048
- 【相関から構造を推定】因子分析の気持ちを理解する【いろんな分析 vol. 1 】#049 #VRアカデミア
- 【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】 #050 #VRアカデミア #DeepLearning
- 【相関で情報を圧縮】主成分分析の気持ちを理解する【いろんな分析 vol. 2 】 #051 #VRアカデミア
- 【深層学習】学習 - なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】 #052 #VRアカデミア #DeepLearning
- 【もう二度と迷わない】因子分析と主成分分析は何が違うの?【いろんな分析 vol. 3 】 #053 #VRアカデミア
- 【深層学習】全結合層 - それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】 #055 #VRアカデミア #DeepLearning
- 【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning
- 【深層学習】プーリング層 - シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】 #058 #VRアカデミア #DeepLearning
- 【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】 #059 #VRアカデミア #DeepLearning
- 【因果を利用した分析】ベイジアンネットワークで見る変数の因果関係【いろんな分析 vol. 5 】 #060 #VRアカデミア
- 【データサイエンスを学ぶあなたへ】100本ノック - 構造化データ処理編 - 最速レビュー動画!【データサイエンティスト協会】#061
- 【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】 #062 #VRアカデミア #DeepLearning
- 【潜在変数の関係を探る】構造方程式モデリング - 実応用の豊富な基礎分析なのです【いろんな分析 vol. 6 】 #063 #VRアカデミア
- 【深層学習】RNN の3通りの使い方 - RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】 #064 #VRアカデミア #DeepLearning
- 【雰囲気をつかむ】階層ベイズモデリング - 構造を仮定して本質を推定する【いろんな分析 vol. 7 】 #065 #VRアカデミア
- 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
- 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
- 【深層学習】LSTM - RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】 #067 #VRアカデミア #DeepLearning
- 【永遠の謎を解明】不偏分散の定義にて n-1 で割っている理由【自由度のお話①】#068 #VRアカデミア
- 【不偏分散で N-1 で割る本当の理由】自由度とはなにか【自由度のお話②】#069 #VRアカデミア
- 【深層学習】bi-LSTM - 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】 #070 #VRアカデミア #DeepLearning
- 【数量化理論】数量化I類とその数式 - カテゴリ変数を反応に合わせて数値化する【いろんな分析 vol. 8 】 #071 #VRアカデミア #またの名をカテゴリ変数の回帰分析
- 【SQL対決】DS歴10年の gepuro さんに SQL 勝負を挑んでみた!【初!物理世界コラボ!】#VRアカデミア #072
- 【数量化理論】数量化II類とその数式 - 判別分析を利用してカテゴリ変数をベクトル化する技術【いろんな分析 vol. 9 】 #073 #VRアカデミア
- 【数量化理論】数量化III類とその数式 - 反応データからカテゴリ変数をベクトル化する技術【いろんな分析 vol. 10 】 #074 #VRアカデミア
- 【数量化理論】数量化IV類とその数式 - 類似度データからベクトルデータを復元する技術【いろんな分析 vol. 11 】 #075 #VRアカデミア
- 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
- 【深層学習】CNN紹介 "AlexNet" 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】 #077 #VRアカデミア #DeepLearning
- 【深層学習】CNN紹介 "GoogLeNet" ILSVRC2014をInceptionで制したモデル【ディープラーニングの世界 vol. 15】#078 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "VGGNet" シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】#079 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】#080 #VRアカデミア #DeepLearning
- 【深層学習】 CNN 紹介 "Xception" 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】#081 #VRアカデミア #DeepLearning
- 【深層学習】SENet - 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】#082 #VRアカデミア #DeepLearning
- 【射影幾何】バラバラな3つの定義を統一! 射影幾何の面白さに入門しよう【2次曲線】 #083 #VRアカデミア
- 【自然言語処理】tf-idf 単語の情報量を加味した類似度分析【Elasticsearch への道①】#084 #VRアカデミア
- 【自然言語処理】BM25 - tf-idfの進化系の実践類似度分析【Elasticsearch への道②】#085 #VRアカデミア
- 【自然言語処理】Elasticsearch 徹底解説 - スコアリングのロジックについて【Elasticsearch への道③】#086 #VRアカデミア
- 【深層学習】RNNLM - 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】#087 #VRアカデミア #DeepLearning
- 【因子分析】因子の回転ってなんだ!?【新たな視点で因子をより深く理解する】 #088 #VRアカデミア
- 【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning
- 【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning
- 【因子分析】プロマックス回転 - 使い方から数式と原理まで解説【バリマックスを過激化させた斜交回転】 #092 #VRアカデミア
- 【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】#093 #VRアカデミア #DeepLearning
- 【ラグランジュの未定乗数法】あの計算の意味、説明できますか?【幾何的イメージも解説】#094 #VRアカデミア
- 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
- 【登壇するよ!】Developer eXperience Day 2021【無料!聞きに来て!】#096 #VRアカデミア
- 【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning
- 【わたしの博士課程】生活、進路、楽しみ、苦しみ、色々話したよ!【博士(数理科学 / 東京大学大学院)の場合】#098 #VRアカデミア
- 【数量化II類の数理①】データの行列表現と共分散計算【数量化理論 - 数理編 vol. 1】 #099 #VRアカデミア
- 【数量化II類の数理②】実践! Lagrange の未定乗数法と固有値・固有ベクトル【数量化理論 - 数理編 vol. 2】 #100 #VRアカデミア
- 【数量化II類の数理③】対称行列を直交行列で対角化する←どういう意味?【数量化理論 - 数理編 vol. 3】 #101 #VRアカデミア
- 【数量化II類の数理④】謎の固有値問題は正規化後の比率最大化なのだ【数量化理論 - 数理編 vol. 4】 #102 #VRアカデミア
- 【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning
- 【深層学習】SCDV - 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】#104 #VRアカデミア #DeepLearning
- 【自然言語処理】BLEU - 定義は?どういう意味?何で利用されてるの?【機械翻訳の評価指標】#105 #VRアカデミア
- 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
- 【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning
- 【深層学習】ELMo - 複数粒度の文脈情報を持つ単語ベクトルで広範囲のタスク性能改善【ディープラーニングの世界vol.30】#108 #VRアカデミア #DeepLearning
- 【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning
- 【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning
- 【検定が来た!】データサイエンティスト検定を紹介!【第1期合格を目指そう!】#111 #VRアカデミア #DS検定 #DS協会
- 【初学者向け】謎の概念も「背理法」でスッキリ!【統計的検定】 #112 #VRアカデミア
- 【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning
- 【深層学習】XLNet 前編 - BERT の事前学習を工夫して強くなりました【ディープラーニングの世界vol.34-1】#114 #VRアカデミア #DeepLearning
- 【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning
- 【数量化III類の数理①】相関係数を選好行列から計算する - 線形代数の演舞!【数量化理論 - 数理編 vol. 5】 #116 #VRアカデミア
- 【数量化III類の数理②】Lagrange の未定乗数法による最適化【数量化理論 - 数理編 vol. 6】 #117 #VRアカデミア
- 【深層学習】RoBERTa - データと学習方法だけで XLNet を超えたモデル【ディープラーニングの世界vol.35】#118 #VRアカデミア #DeepLearning
- 【深層学習】ALBERT - BERT の軽量版!Multi-Head Attention の新たな可能性【ディープラーニングの世界vol.36】#119 #VRアカデミア #DeepLearning
- 【数量化III類の数理③】特異値分解とはなにか【数量化理論 - 数理編 vol. 7】 #120 #VRアカデミア
- 【数量化III類の数理④】謎の固有値問題は特異値分解による往復移動なのだ【数量化理論 - 数理編 vol. 8】 #121 #VRアカデミア
- 【深層学習】T5 - 入出力をテキストにする Transformer の新利用法【ディープラーニングの世界vol.37】#122 #VRアカデミア #DeepLearning
- 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】#123 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】#125 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning
- 【深層学習】GPT-3 ③ 社会的影響編 - AIを誤用しないために【ディープラーニングの世界vol.41】#127 #VRアカデミア #DeepLearning
- 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
- 【お願い】プロの見解 & 素朴な疑問求む!【強いコメント欄へ】 #129 #VRアカデミア
- 【線形代数シリーズ開始!】行列の理解はまずここから!【行列①単位ベクトルの行き先】 #130 #VRアカデミア #線型代数入門
- 【Axって何だろう?】行列とベクトルの積は電車の乗り継ぎ【行列②行列とベクトルの積】 #131 #VRアカデミア #線型代数入門
- 【Axは内積なのだ】Deep Learning や数理統計の観点【行列③行列とベクトルの積と内積】 #132 #VRアカデミア #線型代数入門
- 【逆行列攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門
- 【線形代数入門】逆行列は成分抽出なのです【行列⑤逆行列の真髄】 #134 #VRアカデミア #線型代数入門
- 【対角化と和解せよ!】対角化は変換の表現技法なのです【行列⑥対角化】 #135 #VRアカデミア #線型代数入門
- 【対角化の計算規則】Aはpiをλi倍するのです - 哲学の次は計算を学ぼう【行列⑦対角化】 #136 #VRアカデミア #線型代数入門
- 【分析モデル入門】本を出します!【是非買ってね!】 #137 #VRアカデミア #分析モデル入門
- 【A=PΛP^{-1}】対角化は 成分抽出 → 拡大・縮小 → ベクトルへ戻す の流れだよ【行列⑧対角化】 #138 #VRアカデミア #線型代数入門
- 【分析頻出】関係性を行列で表す方法【行列⑨2次形式】 #139 #VRアカデミア #線型代数入門
- 【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター
- 【いよいよ実践!】分散・共分散行列を考えるとベクトルに意味が宿ります【行列⑩分散・共分散行列】 #141 #VRアカデミア #線型代数入門
- 【量子計算②】量子ゲートとアダマールゲートH【混ざったり分離したり、不思議な量子状態】 #142 #VRアカデミア #量子計算 #量子コンピューター
- 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
- 【量子計算③】2量子ビットと量子計算における関数【ユニタリでないと実現できない】 #144 #VRアカデミア #量子計算 #量子コンピューター
- 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
- 【共分散と幾何】共分散は内積で、相関はコサインなのです【行列13分散・共分散行列】 #145 #VRアカデミア #線型代数入門
人気のチャンネル
予備校のノリで学ぶ「大学の数学・物理」
予備校のノリで学ぶ「大学の数学・物理」のチャンネルでは主に ①大学講座:大学レベルの理系科目 ②高校講座:受験レベルの理系科目 の授業動画を...
1,050,000人
286本
68,317,350回
1,361,793件
【簿記系YouTuber?】ふくしままさゆき
おかげさまで簿記学習系ダントツ1位! ✅簿記3級講義すべて ✅簿記2級工業簿記講義すべて ✅簿記2級商業簿記講義45本中31本 を無料公開!...
397,000人
128本
31,592,000回
432,149件
PASSLABO in 東大医学部発「朝10分」の受験勉強cafe
令和元年5月1日から動画投稿を開始しました! PASSLABO in 東大医学部発「朝10分」の受験勉強cafe ~~~~~~~~~~~~...
325,000人
919本
81,325,741回
1,684,543件