Search image

【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning

Bt to youtube video

高評価: 146件

再生: 2,913回

公開日: 2021年9月17日

単語の順序入れ替えを行う Permutation Language Modeling を利用して BERT の事前学習を行い、性能を飛躍的に向上させた XLNet の紹介です。
勘違いしている方も多いかもしれませんが、モデルとしては BERT (+α) であって、推論時は並べ替えしません。事前学習のときだけ並び替えるのです。

▼関連動画
前編 → https://youtu.be/AhEb8kICwIQ

Transformer の動画はこちら! https://www.youtube.com/watch?v=50XvMaWhiTY
忙しい人向け → https://www.youtube.com/watch?v=FFoLqib6u-0
BERT → https://www.youtube.com/watch?v=IaTCGRL41_k

Deep Learning の世界 https://www.youtube.com/playlist?list=PLhDAH9aTfnxKXf__soUoAEOrbLAOnVHCP

自然言語処理シリーズ https://www.youtube.com/playlist?list=PLhDAH9aTfnxL4XdCRjUCC0_flR00A6tJR

▼参考文献
Yang, Zhilin, et al. "Xlnet: Generalized autoregressive pretraining for language understanding." Advances in neural information processing systems 32 (2019).
https://proceedings.neurips.cc/paper/2019/file/dc6a7e655d7e5840e66733e9ee67cc69-Paper.pdf
原論文!
私は、「事前学習とファインチューニングのモデルが別だよ!」ってことをわからずに読んでめっちゃ混乱したのですが、この動画の後読んだら結構すらすら内容が入るのではないかと思います。

zihangdai/xlnet: XLNet: Generalized Autoregressive Pretraining for Language Understanding
https://github.com/zihangdai/xlnet
著者による実装!
動画作成にあたってかなり実装を確認しました。この実装準拠です。

【2019年版】自然言語処理の代表的なモデル・アルゴリズム時系列まとめ - Qiita https://qiita.com/LeftLetter/items/14b8f10b0ee98aa181b7
いろいろこれを参考にして動画を作っています

▼終わりに
ご視聴ありがとうございました!
面白かったら高評価、チャンネル登録お願いします。
動画の質問、感想などは、コメント欄やTwitterにどうぞ!
お仕事、コラボのご依頼は、公式 WebPage や TwitterのDMからお願い致します。

AIcia Solid Project - Official Website - https://sites.google.com/view/aicia-official/top
動画生成:AIcia Solid (Twitter: https://twitter.com/AIcia_Solid/ )
動画編集:AIris Solid (妹) (Twitter: https://twitter.com/AIris_Solid/ )

=======

Logo: TEICAさん ( https://twitter.com/T_E_I_C_A )
Model: http://3d.nicovideo.jp/works/td44519
Model by: W01fa さん ( https://twitter.com/W01fa )

説明文の続きを見る

UnnamedAIcia Solid Project

Something自然言語処理シリーズ

  1. 【自然言語処理】tf-idf 単語の情報量を加味した類似度分析【Elasticsearch への道①】#084 #VRアカデミア
  2. 【自然言語処理】BM25 - tf-idfの進化系の実践類似度分析【Elasticsearch への道②】#085 #VRアカデミア
  3. 【自然言語処理】Elasticsearch 徹底解説 - スコアリングのロジックについて【Elasticsearch への道③】#086 #VRアカデミア
  4. 【深層学習】RNNLM - 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】#087 #VRアカデミア #DeepLearning
  5. 【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning
  6. 【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning
  7. 【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】#093 #VRアカデミア #DeepLearning
  8. 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
  9. 【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning
  10. 【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning
  11. 【深層学習】SCDV - 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】#104 #VRアカデミア #DeepLearning
  12. 【自然言語処理】BLEU - 定義は?どういう意味?何で利用されてるの?【機械翻訳の評価指標】#105 #VRアカデミア
  13. 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
  14. 【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning
  15. 【深層学習】ELMo - 複数粒度の文脈情報を持つ単語ベクトルで広範囲のタスク性能改善【ディープラーニングの世界vol.30】#108 #VRアカデミア #DeepLearning
  16. 【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning
  17. 【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning
  18. 【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning
  19. 【深層学習】XLNet 前編 - BERT の事前学習を工夫して強くなりました【ディープラーニングの世界vol.34-1】#114 #VRアカデミア #DeepLearning
  20. 【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning
  21. 【深層学習】RoBERTa - データと学習方法だけで XLNet を超えたモデル【ディープラーニングの世界vol.35】#118 #VRアカデミア #DeepLearning
  22. 【深層学習】ALBERT - BERT の軽量版!Multi-Head Attention の新たな可能性【ディープラーニングの世界vol.36】#119 #VRアカデミア #DeepLearning
  23. 【深層学習】T5 - 入出力をテキストにする Transformer の新利用法【ディープラーニングの世界vol.37】#122 #VRアカデミア #DeepLearning
  24. 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】#123 #VRアカデミア #DeepLearning
  25. 【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning
  26. 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】#125 #VRアカデミア #DeepLearning
  27. 【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning
  28. 【深層学習】GPT-3 ③ 社会的影響編 - AIを誤用しないために【ディープラーニングの世界vol.41】#127 #VRアカデミア #DeepLearning

UnnamedAIcia Solid Project

SomethingDeep Learning の世界

  1. 【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】 #050 #VRアカデミア #DeepLearning
  2. 【深層学習】学習 - なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】 #052 #VRアカデミア #DeepLearning
  3. 【深層学習】関数 - なぜ「深さ」が AI を生み出しているのか?【ディープラーニングの世界 vol. 3 】 #054 #VRアカデミア #DeepLearning
  4. 【深層学習】全結合層 - それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】 #055 #VRアカデミア #DeepLearning
  5. 【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning
  6. 【深層学習】プーリング層 - シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】 #058 #VRアカデミア #DeepLearning
  7. 【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】 #059 #VRアカデミア #DeepLearning
  8. 【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】 #062 #VRアカデミア #DeepLearning
  9. 【深層学習】RNN の3通りの使い方 - RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】 #064 #VRアカデミア #DeepLearning
  10. 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
  11. 【深層学習】LSTM - RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】 #067 #VRアカデミア #DeepLearning
  12. 【深層学習】bi-LSTM - 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】 #070 #VRアカデミア #DeepLearning
  13. 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
  14. 【深層学習】CNN紹介 "AlexNet" 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】 #077 #VRアカデミア #DeepLearning
  15. 【深層学習】CNN紹介 "GoogLeNet" ILSVRC2014をInceptionで制したモデル【ディープラーニングの世界 vol. 15】#078 #VRアカデミア #DeepLearning
  16. 【深層学習】 CNN 紹介 "VGGNet" シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】#079 #VRアカデミア #DeepLearning
  17. 【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】#080 #VRアカデミア #DeepLearning
  18. 【深層学習】 CNN 紹介 "Xception" 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】#081 #VRアカデミア #DeepLearning
  19. 【深層学習】SENet - 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】#082 #VRアカデミア #DeepLearning
  20. 【深層学習】RNNLM - 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】#087 #VRアカデミア #DeepLearning
  21. 【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning
  22. 【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning
  23. 【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】#093 #VRアカデミア #DeepLearning
  24. 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
  25. 【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning
  26. 【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning
  27. 【深層学習】SCDV - 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】#104 #VRアカデミア #DeepLearning
  28. 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
  29. 【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning
  30. 【深層学習】ELMo - 複数粒度の文脈情報を持つ単語ベクトルで広範囲のタスク性能改善【ディープラーニングの世界vol.30】#108 #VRアカデミア #DeepLearning
  31. 【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning
  32. 【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning
  33. 【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning
  34. 【深層学習】XLNet 前編 - BERT の事前学習を工夫して強くなりました【ディープラーニングの世界vol.34-1】#114 #VRアカデミア #DeepLearning
  35. 【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning
  36. 【深層学習】RoBERTa - データと学習方法だけで XLNet を超えたモデル【ディープラーニングの世界vol.35】#118 #VRアカデミア #DeepLearning
  37. 【深層学習】ALBERT - BERT の軽量版!Multi-Head Attention の新たな可能性【ディープラーニングの世界vol.36】#119 #VRアカデミア #DeepLearning
  38. 【深層学習】T5 - 入出力をテキストにする Transformer の新利用法【ディープラーニングの世界vol.37】#122 #VRアカデミア #DeepLearning
  39. 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】#123 #VRアカデミア #DeepLearning
  40. 【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning
  41. 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】#125 #VRアカデミア #DeepLearning
  42. 【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning
  43. 【深層学習】GPT-3 ③ 社会的影響編 - AIを誤用しないために【ディープラーニングの世界vol.41】#127 #VRアカデミア #DeepLearning

UnnamedAIcia Solid Project

Mqdefaultアイシア動画

  1. 【†黒魔術†】 相関行列を計算するspreadsheet【お伝えします】 #003
  2. 【のんびり解説】統計多様体の超入門!【情報幾何】 #VRアカデミア #005
  3. 【微分幾何】多様体の内在的な定義【本編にドーナツは一切登場しません】 #VRアカデミア #008
  4. 【データの形とは?】Topological Data Analysis 入門【MathPower2018】 #VRアカデミア #009
  5. 【あなたはS?】logistic sigmoid function について語るよ!【関数語り】 #VRアカデミア #010
  6. 【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】 #VRアカデミア #011
  7. 【気分は南国♪】 Tropical Geometry の気持ちを紹介するよ!【Tropical x Mirror = ???】 #VRアカデミア #012
  8. 【あなただけに…】ブロックチェーンの仕組みだよ!【教えます…】 #VRアカデミア #blockchain #013
  9. 【ベイズ統計その①】条件付き確率と Bayes の定理【時間の流れを意識せよ!】 #VRアカデミア #014
  10. 【ベイズ統計その②】この推定、もっとももっともらしいってよ…!【最尤推定のお話だよ!】 #VRアカデミア #015
  11. 【ベイズ統計その③】宇宙一わかりやすいベイズ推定【本気の解説】 #VRアカデミア #016
  12. 【ベイズ統計④】ベイズ推定の気持ちと、指数型分布族と、共役事前分布【本気の解説】 #VRアカデミア #017
  13. 【ベイズ統計⑤】ベイズの定理とベイズ統計の気持ち【ベイズってるー?】 #VRアカデミア #020
  14. 【ベイズ統計⑥】最終回!階層ベイズとMCMC【してやんよ】 #VRアカデミア #021
  15. 【遺伝に負けるな!】遺伝が7割のほんとうの意味 ~決定係数~ 【バ美肉おじさん!】 #VRアカデミア #022
  16. 【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】 #VRアカデミア #023
  17. 【時系列分析②】漸化式と線型代数その2 ~固有値、固有ベクトル、対角化を攻略!~【めざせ線型代数マスター!】 #VRアカデミア #024
  18. 【東工大2019第1問】なんてきれいな不等式なんだ…!【Weitzenbockの不等式】 #VRアカデミア #025
  19. #.04 【 NeurIPS 2018 Best Paper 】Neural Ordinary Differential Equations【VRアカデミア論文解説リレー】 #VRアカデミア #029
  20. 【数学 in 日常】時計が必ず丸い理由【VRアカデミア一周年カウントダウンリレー】 #VRアカデミア #030
  21. 【書評動画?】宇宙と数学と IUT 理論【めざせ ABC 予想】 #VRアカデミア #031
  22. 【10分で】深谷圏とホモロジカルミラー対称性【 from ロマンティック数学ナイトプライム@圏論 】 #VRアカデミア #ロマ数プライム圏論 #032
  23. 【時系列分析③】ARMA過程と誤差項の意味【ついに時系列の始まり!】 #VRアカデミア #033
  24. 【試験対策!】ε-δ論法を使えるようになろう!【使ってみるのが大事】 #VRアカデミア #034
  25. 【非 deep 最強機械学習】Gradient Boosted Trees の仕組み【勾配決定木とも言うよ】 #VRアカデミア #035
  26. 【時系列分析④】VAR過程と因果について【Granger 因果検定】 #VRアカデミア #036
  27. 【分野横断】機械学習と統計的推論と微分幾何と関数解析と統計力学の関係性【 VTuber によるよくばりセット】 #VRアカデミア #037
  28. 【時系列分析⑤】インパルス応答関数を用いて時系列データの関係を定量的に求める #VRアカデミア #038
  29. 【ブラックショールズ方程式への道①】ランダムウォークとブラウン運動【確率微分方程式の基礎】 #VRアカデミア #039
  30. 【ブラックショールズ方程式への道②】確率微分方程式と微分方程式との本質的な差異【確率微分方程式の基礎】 #VRアカデミア #040
  31. 【ブラックショールズ方程式への道③】伊藤積分【確率微分方程式の基礎】 #VRアカデミア #041
  32. 【ブラックショールズ方程式への道④】伊藤の公式【確率微分方程式の基礎】 #VRアカデミア #042
  33. 【ブラックショールズ方程式への道⑤】ブラック=ショールズ方程式の導出【確率微分方程式の基礎】 #VRアカデミア #043
  34. 【ブラックショールズ方程式への道⑤-2】ブラック=ショールズ方程式の解法【確率微分方程式の基礎】 #VRアカデミア #044
  35. 【ブラックショールズ方程式への道⑥】伊藤の公式のこころを理解する【確率微分方程式の基礎】#VRアカデミア #045
  36. 【魔神に挑戦】固体量子さんと Akinator やってみた【果たして当たるのか、、、!?】#VRアカデミア #046
  37. 【ブラックショールズ方程式への道⑦】Dive into 伊藤積分【確率微分方程式の基礎】#VRアカデミア #047
  38. 【ブラックショールズ方程式への道⑦-2】さいごの伊藤積分【確率微分方程式の基礎】#VRアカデミア #048
  39. 【相関から構造を推定】因子分析の気持ちを理解する【いろんな分析 vol. 1 】#049 #VRアカデミア
  40. 【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】 #050 #VRアカデミア #DeepLearning
  41. 【相関で情報を圧縮】主成分分析の気持ちを理解する【いろんな分析 vol. 2 】 #051 #VRアカデミア
  42. 【深層学習】学習 - なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】 #052 #VRアカデミア #DeepLearning
  43. 【もう二度と迷わない】因子分析と主成分分析は何が違うの?【いろんな分析 vol. 3 】 #053 #VRアカデミア
  44. 【深層学習】全結合層 - それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】 #055 #VRアカデミア #DeepLearning
  45. 【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】 #057 #VRアカデミア #DeepLearning
  46. 【深層学習】プーリング層 - シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】 #058 #VRアカデミア #DeepLearning
  47. 【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】 #059 #VRアカデミア #DeepLearning
  48. 【因果を利用した分析】ベイジアンネットワークで見る変数の因果関係【いろんな分析 vol. 5 】 #060 #VRアカデミア
  49. 【データサイエンスを学ぶあなたへ】100本ノック - 構造化データ処理編 - 最速レビュー動画!【データサイエンティスト協会】#061
  50. 【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】 #062 #VRアカデミア #DeepLearning
  51. 【潜在変数の関係を探る】構造方程式モデリング - 実応用の豊富な基礎分析なのです【いろんな分析 vol. 6 】 #063 #VRアカデミア
  52. 【深層学習】RNN の3通りの使い方 - RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】 #064 #VRアカデミア #DeepLearning
  53. 【雰囲気をつかむ】階層ベイズモデリング - 構造を仮定して本質を推定する【いろんな分析 vol. 7 】 #065 #VRアカデミア
  54. 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
  55. 【深層学習】GRU - RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】 #066 #VRアカデミア #DeepLearning #GatedRecurrentUnit
  56. 【深層学習】LSTM - RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】 #067 #VRアカデミア #DeepLearning
  57. 【永遠の謎を解明】不偏分散の定義にて n-1 で割っている理由【自由度のお話①】#068 #VRアカデミア
  58. 【不偏分散で N-1 で割る本当の理由】自由度とはなにか【自由度のお話②】#069 #VRアカデミア
  59. 【深層学習】bi-LSTM - 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】 #070 #VRアカデミア #DeepLearning
  60. 【数量化理論】数量化I類とその数式 - カテゴリ変数を反応に合わせて数値化する【いろんな分析 vol. 8 】 #071 #VRアカデミア #またの名をカテゴリ変数の回帰分析
  61. 【SQL対決】DS歴10年の gepuro さんに SQL 勝負を挑んでみた!【初!物理世界コラボ!】#VRアカデミア #072
  62. 【数量化理論】数量化II類とその数式 - 判別分析を利用してカテゴリ変数をベクトル化する技術【いろんな分析 vol. 9 】 #073 #VRアカデミア
  63. 【数量化理論】数量化III類とその数式 - 反応データからカテゴリ変数をベクトル化する技術【いろんな分析 vol. 10 】 #074 #VRアカデミア
  64. 【数量化理論】数量化IV類とその数式 - 類似度データからベクトルデータを復元する技術【いろんな分析 vol. 11 】 #075 #VRアカデミア
  65. 【深層学習】CNN紹介 "LeNet" 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】 #076 #VRアカデミア #DeepLearning
  66. 【深層学習】CNN紹介 "AlexNet" 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】 #077 #VRアカデミア #DeepLearning
  67. 【深層学習】CNN紹介 "GoogLeNet" ILSVRC2014をInceptionで制したモデル【ディープラーニングの世界 vol. 15】#078 #VRアカデミア #DeepLearning
  68. 【深層学習】 CNN 紹介 "VGGNet" シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】#079 #VRアカデミア #DeepLearning
  69. 【深層学習】 CNN 紹介 "ResNet" 言わずとしれた CNN の標準技術が登場!【ディープラーニングの世界 vol. 17】#080 #VRアカデミア #DeepLearning
  70. 【深層学習】 CNN 紹介 "Xception" 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】#081 #VRアカデミア #DeepLearning
  71. 【深層学習】SENet - 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】#082 #VRアカデミア #DeepLearning
  72. 【射影幾何】バラバラな3つの定義を統一! 射影幾何の面白さに入門しよう【2次曲線】 #083 #VRアカデミア
  73. 【自然言語処理】tf-idf 単語の情報量を加味した類似度分析【Elasticsearch への道①】#084 #VRアカデミア
  74. 【自然言語処理】BM25 - tf-idfの進化系の実践類似度分析【Elasticsearch への道②】#085 #VRアカデミア
  75. 【自然言語処理】Elasticsearch 徹底解説 - スコアリングのロジックについて【Elasticsearch への道③】#086 #VRアカデミア
  76. 【深層学習】RNNLM - 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】#087 #VRアカデミア #DeepLearning
  77. 【因子分析】因子の回転ってなんだ!?【新たな視点で因子をより深く理解する】 #088 #VRアカデミア
  78. 【深層学習】word2vec - 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】#089 #VRアカデミア #DeepLearning
  79. 【深層学習】word2vec の数理 - なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】#090 #VRアカデミア #DeepLearning
  80. 【因子分析】プロマックス回転 - 使い方から数式と原理まで解説【バリマックスを過激化させた斜交回転】 #092 #VRアカデミア
  81. 【深層学習】doc2vec - 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】#093 #VRアカデミア #DeepLearning
  82. 【ラグランジュの未定乗数法】あの計算の意味、説明できますか?【幾何的イメージも解説】#094 #VRアカデミア
  83. 【深層学習】Attention - 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】#095 #VRアカデミア #DeepLearning
  84. 【登壇するよ!】Developer eXperience Day 2021【無料!聞きに来て!】#096 #VRアカデミア
  85. 【深層学習】fasttext - 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】#097 #VRアカデミア #DeepLearning
  86. 【わたしの博士課程】生活、進路、楽しみ、苦しみ、色々話したよ!【博士(数理科学 / 東京大学大学院)の場合】#098 #VRアカデミア
  87. 【数量化II類の数理①】データの行列表現と共分散計算【数量化理論 - 数理編 vol. 1】 #099 #VRアカデミア
  88. 【数量化II類の数理②】実践! Lagrange の未定乗数法と固有値・固有ベクトル【数量化理論 - 数理編 vol. 2】 #100 #VRアカデミア
  89. 【数量化II類の数理③】対称行列を直交行列で対角化する←どういう意味?【数量化理論 - 数理編 vol. 3】 #101 #VRアカデミア
  90. 【数量化II類の数理④】謎の固有値問題は正規化後の比率最大化なのだ【数量化理論 - 数理編 vol. 4】 #102 #VRアカデミア
  91. 【深層学習】GNMT - Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】#103 #VRアカデミア #DeepLearning
  92. 【深層学習】SCDV - 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】#104 #VRアカデミア #DeepLearning
  93. 【自然言語処理】BLEU - 定義は?どういう意味?何で利用されてるの?【機械翻訳の評価指標】#105 #VRアカデミア
  94. 【深層学習】Transformer - Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】#106 #VRアカデミア #DeepLearning
  95. 【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】#107 #VRアカデミア #DeepLearning
  96. 【深層学習】ELMo - 複数粒度の文脈情報を持つ単語ベクトルで広範囲のタスク性能改善【ディープラーニングの世界vol.30】#108 #VRアカデミア #DeepLearning
  97. 【深層学習】GPT - 伝説の始まり。事前学習とファインチューニングによるパラダイムシフト【ディープラーニングの世界vol.31】#109 #VRアカデミア #DeepLearning
  98. 【深層学習】BERT - 実務家必修。実務で超応用されまくっている自然言語処理モデル【ディープラーニングの世界vol.32】#110 #VRアカデミア #DeepLearning
  99. 【検定が来た!】データサイエンティスト検定を紹介!【第1期合格を目指そう!】#111 #VRアカデミア #DS検定 #DS協会
  100. 【初学者向け】謎の概念も「背理法」でスッキリ!【統計的検定】 #112 #VRアカデミア
  101. 【深層学習】GPT-2 - 大規模言語モデルの可能性を見せ、社会もざわつかせたモデルの仕組み【ディープラーニングの世界vol.33】#113 #VRアカデミア #DeepLearning
  102. 【深層学習】XLNet 前編 - BERT の事前学習を工夫して強くなりました【ディープラーニングの世界vol.34-1】#114 #VRアカデミア #DeepLearning
  103. 【深層学習】XLNet 後編 - 事前学習と推論時のモデルの違いを押さえよう【ディープラーニングの世界vol.34-2】#115 #VRアカデミア #DeepLearning
  104. 【数量化III類の数理①】相関係数を選好行列から計算する - 線形代数の演舞!【数量化理論 - 数理編 vol. 5】 #116 #VRアカデミア
  105. 【数量化III類の数理②】Lagrange の未定乗数法による最適化【数量化理論 - 数理編 vol. 6】 #117 #VRアカデミア
  106. 【深層学習】RoBERTa - データと学習方法だけで XLNet を超えたモデル【ディープラーニングの世界vol.35】#118 #VRアカデミア #DeepLearning
  107. 【深層学習】ALBERT - BERT の軽量版!Multi-Head Attention の新たな可能性【ディープラーニングの世界vol.36】#119 #VRアカデミア #DeepLearning
  108. 【数量化III類の数理③】特異値分解とはなにか【数量化理論 - 数理編 vol. 7】 #120 #VRアカデミア
  109. 【数量化III類の数理④】謎の固有値問題は特異値分解による往復移動なのだ【数量化理論 - 数理編 vol. 8】 #121 #VRアカデミア
  110. 【深層学習】T5 - 入出力をテキストにする Transformer の新利用法【ディープラーニングの世界vol.37】#122 #VRアカデミア #DeepLearning
  111. 【深層学習】Scaling Law - 大きい Transformer は強い【ディープラーニングの世界vol.38】#123 #VRアカデミア #DeepLearning
  112. 【深層学習】GPT-3 ①-1 モデルと Sparse Transformer について【ディープラーニングの世界vol.39】#124 #VRアカデミア #DeepLearning
  113. 【深層学習】GPT-3 ①-2 追加学習なしでタスクに対応する仕組み【ディープラーニングの世界vol.39-2】#125 #VRアカデミア #DeepLearning
  114. 【深層学習】GPT-3 ② 限界と今後の研究テーマ【ディープラーニングの世界vol.40】#126 #VRアカデミア #DeepLearning
  115. 【深層学習】GPT-3 ③ 社会的影響編 - AIを誤用しないために【ディープラーニングの世界vol.41】#127 #VRアカデミア #DeepLearning
  116. 【数量化IV類の数理】対称行列を直交行列で対角化するだけです【数量化理論 - 数理編 vol. 9】 #128 #VRアカデミア
  117. 【お願い】プロの見解 & 素朴な疑問求む!【強いコメント欄へ】 #129 #VRアカデミア
  118. 【線形代数シリーズ開始!】行列の理解はまずここから!【行列①単位ベクトルの行き先】 #130 #VRアカデミア #線型代数入門
  119. 【Axって何だろう?】行列とベクトルの積は電車の乗り継ぎ【行列②行列とベクトルの積】 #131 #VRアカデミア #線型代数入門
  120. 【Axは内積なのだ】Deep Learning や数理統計の観点【行列③行列とベクトルの積と内積】 #132 #VRアカデミア #線型代数入門
  121. 【逆行列攻略!】逆行列は縦ベクトルを1に戻すんです【行列④逆行列の基本公式】 #133 #VRアカデミア #線型代数入門
  122. 【線形代数入門】逆行列は成分抽出なのです【行列⑤逆行列の真髄】 #134 #VRアカデミア #線型代数入門
  123. 【対角化と和解せよ!】対角化は変換の表現技法なのです【行列⑥対角化】 #135 #VRアカデミア #線型代数入門
  124. 【対角化の計算規則】Aはpiをλi倍するのです - 哲学の次は計算を学ぼう【行列⑦対角化】 #136 #VRアカデミア #線型代数入門
  125. 【分析モデル入門】本を出します!【是非買ってね!】 #137 #VRアカデミア #分析モデル入門
  126. 【A=PΛP^{-1}】対角化は 成分抽出 → 拡大・縮小 → ベクトルへ戻す の流れだよ【行列⑧対角化】 #138 #VRアカデミア #線型代数入門
  127. 【分析頻出】関係性を行列で表す方法【行列⑨2次形式】 #139 #VRアカデミア #線型代数入門
  128. 【量子計算】量子ビットと確率【重ね合わせの原理をちゃんと理解しよう!】 #140 #VRアカデミア #量子計算 #量子コンピューター
  129. 【いよいよ実践!】分散・共分散行列を考えるとベクトルに意味が宿ります【行列⑩分散・共分散行列】 #141 #VRアカデミア #線型代数入門
  130. 【量子計算②】量子ゲートとアダマールゲートH【混ざったり分離したり、不思議な量子状態】 #142 #VRアカデミア #量子計算 #量子コンピューター
  131. 【共分散行列の意味】共分散行列はベクトルに変数としての魂を与える【行列11分散・共分散行列】 #143 #VRアカデミア #線型代数入門
  132. 【量子計算③】2量子ビットと量子計算における関数【ユニタリでないと実現できない】 #144 #VRアカデミア #量子計算 #量子コンピューター
  133. 【共分散行列の代数】よく使う事実の背後には抽象数学の透明な美しさがあります【行列12分散・共分散行列】 #145 #VRアカデミア #線型代数入門
  134. 【共分散と幾何】共分散は内積で、相関はコサインなのです【行列13分散・共分散行列】 #145 #VRアカデミア #線型代数入門

Pickup iconPick upチャンネル

高校物理について解説しているVチューバーさんです。とにかく声がかわいい!癒やされる!そして内容も分かりやすい!もう一度いいます。とにかく声がかわいい!

Studytube icon 96ログイン

Interview header 360 Question header 360
Studytuber banner 300

Studytube icon 96チャンネル登録

教育系のYouTubeチャンネルを運営されている方はチャンネル情報の登録に是非ご協力ください。ログイン後、読み込みボタンをクリックすることでチャンネルデータが自動で読み込まれます。

Studytube icon 96ご意見・ご感想

※お返事が必要な場合はお問い合わせからお願いいたします。