Deep Learning入門:ニューラルネットワーク設計の基礎
167,717
Published 2019-02-25
ニューラルネットワークを構成する基本的な関数であるAffine、Convolution、活性化関数、Pooling、Loss関数についても解説します。
前回の動画(Deep Learningでできること)はこちらです。
• Deep Learning入門:Deep Learningでできること
Deep Learningとは
• Deep Learning入門:Deep Learningとは?
再生リスト「Deep Learning入門」
• Deep Learning入門
Neural Network Console
dl.sony.com/ja/
Neural Network Libraries
nnabla.org/ja/
All Comments (21)
-
なにこの神解説動画。参考書で何時間も格闘してたことが一瞬で理解できた。
-
すごくわかりやすいです。 このような動画を上げていただきありがとうございます。
-
わかりやすい!!
-
ありがとうございます!!
-
Good Job
-
畳み込みではOutPutの各ニューロンは同じ重みを持つとありますが、全てのニューロンでバイアスも同じ値ですか? それとも、ニューロン毎に異なる値ですか?
-
7:45 で6個のフィルタ(5x5)に言及されています。フィルタ係数(25個の実数)は学習開始前に乱数を使って決めるのでしょうか?書籍「ゼロから作るDeep Learning ❸」に記載のソースコード(57.2 conv2d関数の実装)にはその様なコードが書かれていました。 それともフィルタ係数も重み係数wijと同様に逆誤差伝搬法による学習の対象なのでしょうか?
-
神解説。
-
後ろの音いらない 聴きづらい
-
僕小林さんよりはるかに頭悪くて1倍速だと早くて理解がついていかないから0.75倍速で再生して、必要な個所は何度も再生し、他の情報とMIXして自分の知識体系に取り込み作業してる。新しい発想と知識で楽しいです。
-
Convolutionは、Neural Netwaork特有のものではなく、JPEGなどの画像圧縮のためで、NNの計算を簡易化させるためではないかと思ったのですけど、どうなんでしょう。また、tanhを使うのは、逆伝播の点で有利なんでしょうか。微分とか、プログラム言語ではやりにくいような気がしますが。
-
ずっと鳴ってるカチカチした音はなんだろう?
-
1つ目のaffineやtanhの出力の個数はどの様に決めるのかわかるひといらっしゃいますか?
-
ニューラルネットワークの画像認識技術は、半導体チップのマスクをチェックするのに有効な手段だと思います。
-
具体的な説明でよくわかりました(やっはり手を動かしている現場の人が解説しないとこのレベルのクオリティは達成できませんね。。)
-
12:14 のconvolutionのparametersが150となる理由がよくわかりません25個のparameterをスライドさせているだけなので合計25個ではないのでしょうか?
-
時間経過10:40時刻にある図のkernel5x5は4x4の誤りではないでしょうか
-
CNNでの二回目の畳み込みの時、12×12の画像6枚を5×5のフィルタ16つで畳み込むのですから、8×8の画像は計96枚(6×16)になると思ってしまうのです。 12×12の画像6枚を、あたかも1枚の画像のようにしてフィルタするのでしょうか。 みなさんどのように理解されているのか、構って頂ける方がいらっしゃれば。。。
-
-
出力が0から1の確率で表現されるのがなかなか理解できませんでした。