Deep Learning入門:ニューラルネットワーク設計の基礎

Published 2019-02-25
この動画では、ニューラルネットワークを設計するにあたっての基礎を解説します。
ニューラルネットワークを構成する基本的な関数であるAffine、Convolution、活性化関数、Pooling、Loss関数についても解説します。

前回の動画(Deep Learningでできること)はこちらです。
   • Deep Learning入門:Deep Learningでできること  

Deep Learningとは
   • Deep Learning入門:Deep Learningとは?  

再生リスト「Deep Learning入門」
   • Deep Learning入門  

Neural Network Console
dl.sony.com/ja/

Neural Network Libraries
nnabla.org/ja/

All Comments (21)
  • @kamikaze114
    なにこの神解説動画。参考書で何時間も格闘してたことが一瞬で理解できた。
  • @ano7834
    すごくわかりやすいです。 このような動画を上げていただきありがとうございます。
  • @ihakatunori
    畳み込みではOutPutの各ニューロンは同じ重みを持つとありますが、全てのニューロンでバイアスも同じ値ですか? それとも、ニューロン毎に異なる値ですか?
  • 7:45 で6個のフィルタ(5x5)に言及されています。フィルタ係数(25個の実数)は学習開始前に乱数を使って決めるのでしょうか?書籍「ゼロから作るDeep Learning ❸」に記載のソースコード(57.2 conv2d関数の実装)にはその様なコードが書かれていました。 それともフィルタ係数も重み係数wijと同様に逆誤差伝搬法による学習の対象なのでしょうか?
  • @iamtherefore278
    僕小林さんよりはるかに頭悪くて1倍速だと早くて理解がついていかないから0.75倍速で再生して、必要な個所は何度も再生し、他の情報とMIXして自分の知識体系に取り込み作業してる。新しい発想と知識で楽しいです。
  • @user-rw2ko7qj4d
    Convolutionは、Neural Netwaork特有のものではなく、JPEGなどの画像圧縮のためで、NNの計算を簡易化させるためではないかと思ったのですけど、どうなんでしょう。また、tanhを使うのは、逆伝播の点で有利なんでしょうか。微分とか、プログラム言語ではやりにくいような気がしますが。
  • @soar5040
    ずっと鳴ってるカチカチした音はなんだろう?
  • @yuihayashi2789
    1つ目のaffineやtanhの出力の個数はどの様に決めるのかわかるひといらっしゃいますか?
  • @user-hl5ju7ff3p
    ニューラルネットワークの画像認識技術は、半導体チップのマスクをチェックするのに有効な手段だと思います。
  • 具体的な説明でよくわかりました(やっはり手を動かしている現場の人が解説しないとこのレベルのクオリティは達成できませんね。。)
  • @youtube_US
    12:14 のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか?
  • @yasudahisashi
    CNNでの二回目の畳み込みの時、12×12の画像6枚を5×5のフィルタ16つで畳み込むのですから、8×8の画像は計96枚(6×16)になると思ってしまうのです。 12×12の画像6枚を、あたかも1枚の画像のようにしてフィルタするのでしょうか。 みなさんどのように理解されているのか、構って頂ける方がいらっしゃれば。。。
  • @user-hl5ju7ff3p
    出力が0から1の確率で表現されるのがなかなか理解できませんでした。