今日学んだこと

コピペから脱却して自由に Deep Learning するための TensorFlow 再入門

https://qiita.com/horiem/items/00ec6488b23895cc4fe2

train = tf.train.GradientDescentOptimizer(0.0001).minimize(loss) という行が出てきました。これは、ざっくり言うと、「誤差 (loss) を最小にせよ (minimize) 」という部分で、そのための方法として勾配降下法 (Gradient Descent) を用いているということです。さきほど、誤差関数 (= loss) は望みの状態のときに最小になるように設計したことを思い出してください。ここで loss を最小にすることで、望みの状態へとモデルを変化させていっているということを意味しています。

Inside of Deep Learning あるいは深層学習は何を変えるのか

https://qiita.com/jiny2001/items/85af7dd163a63b3a152a

ディープラーニング機械学習の違い (Vol.5)

https://products.sint.co.jp/aisia/blog/vol1-5