k-分割交差検証

[テ166]
データセットに含まれるデータ件数が少ない時に効果的。

←→ホールドアウト検証: 普通の方法(訓練データとテストデータを固定) [黒76]

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

3要件

[黒388]
不正競争防止法における営業秘密3要件
 非公知性、有用性、秘密管理性

[テ365]
特許権の対象になる発明
 産業上の利用可能性、新規性、進歩性

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

個人情報

[テ367-]
個人情報
個人識別符号
個人データベース等
個人データ
保有個人データ: 開示、訂正、削除等の権限を有する個人データ。委託により預かっている個人データは該当しない。
要配慮個人情報
匿名加工情報
仮名加工情報 (匿名化度合いが匿名加工情報より低い)
個人関連情報

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版

ILSVRC

・【2012年】AlexNet: SuperVisionチームによる。初のディープラーニング。

[黒341,342,385,392]
・【2014年】GoogLeNet: Inceptionモジュール_(スキップ結合は無い)
・【2015年】ResNet: スキップ結合_ボトルネック構造_人間の画像認識エラー4%を下回る [テ105] (→ WideResNet: ResNetの層を減らし、畳み込みのチャンネル数を増やしたもの [黒372])
・【2017年】SENet (Squeeze-and-Excitation Networks): Attentionを適用

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

RNN → トランスフォーマー

[テ233-, 237-]
RNN: Attention (各時刻の状態に重みづけを行い、どのデータに注目すればよいかを計算する機構 [黒392])

トランスフォーマー: Encoder・Decoder両方からRNNを一切排除し、代わりにSelf-Attentionを採用 [テ236,251]

 Self-Attention: 文章内の単語間の関連性を捉えるための機構 [黒342]。(Encoder・Decoder両方において、計算に利用 [テ237,250])
 Source-Target Attention = Encorder-Decorder Attention: デコーダに入力文の情報を伝達するための機構 [黒342]。Decoderの計算に利用 [テ237]。

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

RNN ∋ LSTM / GRU

[テ227, 229]
時系列データ_勾配消失問題の解決
・LSTM: ゲート機構{入力ゲート・忘却ゲート・出力ゲート}、セル{CEC(Constant Error Carousel)、誤差を内部に留まらせる [テ320]}
・GRU: リセットゲート・更新ゲート

[黒377]
・双方向RNN: 過去から未来だけでなく、未来から過去の方向についても考慮して出力ができるRNN。
・Seq2Seq: エンコーダ、デコーダと呼ばれる2つのRNNで構成。入力と出力の長さが異なるタスクを扱えるネットワークである。
・エルマンネットワーク: 1990年発表。初期のRNN。

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

教師あり学習・教師なし学習

●教師あり学習

[黒339]
・サポートベクターマシン
・ランダムフォレスト
・AdaBoost: ブースティング。(よく似た名前のAdaBound、Adamは、勾配降下法の手法) [黒341]

●教師なし学習

[黒339]
・k-means (階層無しクラスタリング [黒390])

・ウォード法

・協調フィルタリング、コンテンツベースフィルタリング

[黒369]
・トピックモデル

・次元削減(次元圧縮)
[黒390]
 - 主成分分析(PCA, Principal Component Analysis)
 - 特異値分解(SVD)

●強化学習

[黒348]

バンディットアルゴリズム (探索と活用 [黒390]、多腕バンディット問題 [黒72])
・UCB方策
・ε-greedy方策

価値関数
・SARSA: 行動価値関数(Q値)を最適化する手法 (DQNは不採用 [黒186])
・Q学習

  DQN: 強化学習(の中でもQ学習)+ディープラーニング=深層強化学習 [黒359]
  ・Ape-X
  ・ノイジーネットワーク

方策勾配
・Actor-Critic ∋ A3C (Asynchronous Advantage Actor-Critic)
・REINFORCE: 方策勾配法 (強化学習のアルゴリズム。ディープラーニングは使用していない、即ち深層強化学習ではない [黒359])

  →よく似た語(強化学習とは無関係) [テ284]
  RLHF(Reinforcement Learning from Human Feedback): ChatGPT

→よく似た語
RNNでの 教師強制: 前の時刻の出力に対応する教師データを現在時刻の入力として用いる手法 ([黒385])

参考文献: ***は、ページ番号。
[テ***] 『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
[黒***] 『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版

G検定の勉強法

公式テキストと黒本で勉強しました。

すなわち、
 【公式テキスト】『深層学習教科書 ディープラーニング G検定(ジェネラリスト)公式テキスト』第3版
 【黒本】『徹底攻略ディープラーニングG検定ジェネラリスト問題集』第3版
です。

試験 2か月前から3週間前にかけて、【公式テキスト】を平日は 10ページ/日、在宅の休日は 20ページ/日で読み、章末の例題を解きます(間違えた問題は、正しく解けるまで、時間を開けて繰り返します。以下同じ)。
並行して、読み終わった章に相当する【黒本】の問題を解きます。

3週間前に【黒本】の最終章の総仕上げ問題(模試1回ぶん)を時間を計りながら実施。

最後に、今まで間違えた問題を再度解きました。