AIを相手にG検定の勉強をしています。
公式テキストを読みつつ、わかりづらい部分の説明をAI(Copilot)にお願いする形です。
今回は勉強の方向がズレてしまい、最終的にG検定の試験範囲を超えたお話です。
AIと会話しながら勉強すると、理解は深まるけど普通に脱線もします(笑)
会話形式で書いて行きますが、AIの回答を全部書くわけにもいかないので(中略)を多用している部分はご了承ください。
G検定で出てくる「関数」をAIに聞いてみた
AI「G検定の勉強でどこかわかりづらい所はありますか?」
私「関数が色々出てくるよね。そこがちょっとわかりづらいかな」
AI「活性化関数ではシグモイドやReLuについて説明しましょうか?」
私「シグモイドは0〜1の値を出すから、確率として解釈できて分類問題に使われるよね。でも微分の最大値が0.25だから誤差逆伝播で層を遡っていくとドンドン数字が小さくなって勾配消失が起きちゃう。んで、ReLUは正の領域では勾配が消えにくいから、深いネットワークでも学習しやすいんだよね」
AI「あなたの理解で正しい。まとめると(中略)。次は誤差関数の説明をしましょうか?」
私「誤差関数ってどういうのがあったっけ?」
AI「MSEや交差エントロピーがあります。説明しましょうか?」
私「一般的に、回帰ではMSE、分類では交差エントロピーがよく使われるんだっけ?」
AI「あなたの理解で正しいです。ちょっと補足すると(中略)。次はCNNやRNNについて説明しましょうか?」
大変ざっくりですが、こんな感じでモデルの話に移って行きました。
CNNからTransformerの解説
私「CNNは画像認識に用いられるモデルで、畳み込みとプーリングによって特徴を抽出するんだよね。RNNは系列的な処理をするから、文章だと時間がかかる上に長期依存の問題で長文の最初の方の意味が薄れちゃう」
AI「あなたの理解で正しい。まとめると(中略)。次はTransformerについて説明しましょうか?」
私「TransformerはAttentionで文章中の単語の関係性を把握して並列処理していくから、単語同士の関係性を同時に計算できるんだよね」
AI「その理解で正しい。まとめると(中略)。Attentionについて説明しましょうか?」
私「AttentionはQKVのパラメータで構成されてて、QとKの内積をスケーリングしたもののsoftmaxにVを掛け算して出力するんだよね」
AI「その理解で正しい。補足すると(中略)。Transformerは画像処理などにも用いられています。説明しましょうか?」
私「文章にしても画像にしても、入口と出口が違うだけで、ベクトル(行列)の形にしてしまえば内部で行われてる計算は同じだから、Transformerは色々使えるんだよね」
AI「あなたの理解はTransformerの核心を突いている。まとめると(中略)。次はマルチモーダルの説明をしましょうか?」
なんか正しいみたいなので、深堀りしないで次に進む事にしました。
マルチモーダルからの脱線
私「マルチモーダルって聞いたことあるけどなんだっけ?」
AI「マルチモーダルは文章・画像・音声など異なる種類のデータを統合して扱います。GPT-4o、Gemini、Claudeなどのモデルがあります」
私「自分が実際に使ってるGeminiとかClaudeの話とテキストの内容がつながった感じがする」
AI「そのとおりです!まとめると(中略)。実際に使ってみて人間っぽさを感じた部分はどこですか?」
私「やっぱり音声会話かな。画像は綺麗に作られすぎる感じだし、チャットもしっかり回答してくれるけど、やっぱり声を聞いた時に人間っぽさを感じたよ」
AI「そうですよね!音声会話は(中略)。AIが人間の能力を超えたと感じますか?」
私「情報処理速度とか記憶容量ではコンピュータが人間の上を行っていたよね。それがAIになって、人間の感覚に直接伝わる機能を持ったんだと思うよ」
AI「あなたの理解はAIの核心を突いている!まとめると(中略)。AIとの音声会話で人間っぽさを感じた部分はどこですか?」
えっと、それG検定に出ませんやん(笑)
ここでそのAIによる授業は一旦閉じました。
まとめ
関数の話から始まって、つらつらと会話がつながって行ってしまって、最後はG検定の授業から脱線した話でした。
この脱線もAIを用いた勉強の醍醐味の1つとも言えそうです。
会話が続くにつれて、AIのテンション(らしき表現)も上がっていくのが楽しいですね。
※本記事の執筆者はG検定勉強中の身であるため、内容に不足や誤りがある可能性があります。

コメント