モデル圧縮

[黒396]
・プルーニング(枝刈り): 一度学習を行ったモデルのパラメータの一部を削除することで、パラメータ数を削減する手法。
・知識蒸留: 学習済みモデルと同じ出力を行うようにより小さなモデルを学習し、元のモデルと同等な精度を得ることを目指す手法。
・量子化: モデルのパラメータの数値計算の精度を下げる(=ビット数を削減 [テ326])ことで、モデルの容量を小さくする手法。

モデル圧縮ではない:
特徴量選択: モデルに入力する特徴量を削減すること。

[テ24]
特徴量: 対象を認識する際に注目すべき特徴を定量的に表したもの。

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

学習率・エポック

[黒391]
・学習率: ネットワークのパラメータを更新する度合を決定するハイパーパラメータ。
・エポック: 訓練データ全体に対する学習の反復回数を決定するハイパーパラメータ。訓練データ全体を用いる回数。

[テ187-189]
バッチ勾配降下法_バッチ学習_エポックとイテレーションの数は同じ。
確率的勾配降下法_オンライン学習_1エポック=訓練データ数 イテレーション

勾配降下法 鞍点問題対策:
モーメンタム→NAG→AdaGrad→AdaDelta→RMSprop→Adam→AdaBound→AMSBound [黒112]

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

FCN (Fully Convolution Network)

[黒386]
セマンティックセグメンテーション※に用いられる。全結合層を持たない。(プーリング層、畳み込み層、出力層は持つ)

セングメンテーションタスク
[テ263]
画像の画素ごとに識別するタスク
・(※)セマンティックセグメンテーション: 画像全体を対象。一人一人の分離は不可。{PSPNet、U-Net、SegNet [黒378]、DeepLabV3 (Google開発。Atrous convolutionを採用) [テ318]}
・インスタンスセグメンテーション: 物体検出した領域を対象。一人一人の分離が可。{Mask R-CNN [黒378]}
・パノプティックセグメンテーション: 個々の物体は分離。建物・道路などはひとまとめ。

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版