lynx   »   [go: up one dir, main page]

bluelines

写真をメインに、いろいろログ。

生成AIと大学教育:2025年4月の雑感

1.
教員が学生に、生成AIの使用を禁じたり、使い方を制限したりすることはもう殆ど意味がない。言ったところで使う学生は使うし、「アウトな使い方」をしているかどうかを厳密に見極めるのは不可能。禁止や制限は、「バレずに生成AI使った学生だけが得をする」という環境を生むことになる。

 

2.
Deep Researchはヤバい。あれによって多くの分野で、調べ物系のレポート課題はもう成績評価の対象として意味を成さないものになってしまった。大学教育では、情報の収集力とか、情報の信頼性を測る力とかを育てることが重視されるけど、Deep Researchがある世界でそれをどうやって?と考え込んでしまう。

 

3.
数年前までは、学生が課題でAIを使わないように説得するための定番理由は「AIはウソをつく(=ハルシネーションがある)」だったが、これはもう通用しない。ここ最近のモデルはハルシネーションが非常に少なく、さらに推論モデルは自問自答と検索を繰り返してChain-of-Thoughtを自前で形成することにより、自力でハルシネーションをほぼ封殺するようになっている。0にはなってないとしても、これくらいのウソや間違いなら出版された本とかでも普通にあるしな、と思う。

 

4.
生成AIをうまく利用した場合の学習効果やら生産性向上やらの見込みは膨れ上がるばかりで、大学教育として生成AIを無視し続けるわけにはいかない。つまり、カリキュラムの中で「生成AIの活用法」が身につくようなことをやらなければいけない。一方で、生成AIを学生に使わせることは、学生自身の能力(例えば、上で述べた「情報の信頼性を測る力」とか)を向上させる機会を奪う可能性もある。要するにAIに書かせた課題を出して単位もらってるだけじゃ本人成長しないでしょ、ということである。生成AIからどれだけ有意義な情報を引き出せるかは、人間が入力するプロンプト=本人の知識に依存するわけで、学生本人の知識や能力が向上しないままで大学生を終わるのもまずい。

 

5.
つまるところ、学生一人ひとりが自分で、「自らの学びを阻害してしまう生成AIの使い方」を避け、「学びや生産性を向上させる生成AIの使い方」をどんどん模索して実践するようにしなければならない。のだけど、それってもう大学教育というか人類社会全体の課題ではないかしら

 

6.
「こういう使い方を推奨したい」という具体例。

モデルはChatGPT 4o。「読んだ論文の内容を、生成AIに説明することで理解を深める」から始めて、そこから発展や応用の可能性を模索している。こういうの、大学院生なら一日一回やって欲しい。

Лучший частный хостинг