· 

No弐-810  デジタル化の影響2

 今日も、読売新聞の「情報偏食 ゆがむ認知」「第3部 揺れる教育現場」(5月29日~6月5日)からです。第2回(5月30日)に注目してみます。

 今回の見出しは「テスト作成 先生いらず」「宿題『無駄』 AIに丸投げ」「教科書開かず 5分終了」でした。衝撃的でしょ?

 

①チャットGPTでテスト問題を作成した高校(千葉県)の英語の先生(50代)の話

・年明けに、2年生の学年末テスト問題をチャットGPTを使って作成。その出来は想像を超え、思いのほか正確だった。

・学年末テストの問題には、教科書に載っていない英文を読み解くものを出す。

アメリカの短編集から引用した一節を打ち込み、〈あなたは英語教員です。英語中級者向けに、英文の内容理解をはかる4択問題を5つ作ってください〉〈4択問題のそれぞれの答えと解説を作ってください〉と指示。

・パソコンの画面上の問題と答えは、想定していたものと同等か、それ以上の出来。

・多少の言い換えをして、ほぼ丸々採用。問題検討会議でも異論なし。

・そのまま出題されたが、生徒からも意見はなく、正答率も予想通り。

・「無料ですぐに答えを示してくれるツールに頼りすぎてしまい、『思考停止』に陥らないか」

 

・教育現場での安易な生成AIの利用には、思考力の低下や偏った情報をうのみにする懸念がつきまとう。

・米エール大学の研究チームが2015年に発表した論文では、「人間の脳は、ネットで得た知識を自分の知識だと錯覚し、自分の能力を過信する傾向がある」という。

・オンライン上の偏った意見の投稿やニュースなどを大量に読めば、生成AI自体が一部の主義主張を色濃く帯びることも考えられる。

・利用者の評価をもとに応答内容を改良しており、原理的には、意図的な改変も可能。

 

★先日紹介した新井紀子教授(国立情報学研究所・数理論理学)の話 

・従来の検索サイトに比べ、チャットGPTは、「もっともらしい」答えを瞬時に示し、わかりやすいだけに依存しやすく、自分が知りたい情報だけを見るという傾向が加速する恐れがある。

・表示される内容に誤りも多い。子どもたちの使用には慎重になるべきで、教育に特化した生成AIを開発するなど適切な対策を模索する必要がある。

 

★坂口慶祐准教授(東北大・情報科学)の話

・目の前の文章が生成AIが作ったものかどうか見分けるのは難しく、我々の見えないところにまで誤った情報が溶け込み、気づかないうちに影響が出るかもしれない。

 

★栗原聡教授(慶応大・AI研究者)の話

・チャットGPTとSNSの「相性の良さ」に注目。今後、チャットGPTが作った文章をそのままSNS上に投稿するケースが増えると推測。

・手軽にSNS上で使い、それが拡散してしまえば情報の偏りが進む。デマやフェイクが氾濫する恐れがある。

 

 教育現場での安易な生成AIの利用は、先生の存在価値、宿題の意味さえも問われそうですね。