· 

No弐-845  チャットGPTを考える5

 前回「No弐-807・808(6月12日・13日)」では、朝日新聞(5月29日)の「チャットGPT 子どもに使わせるべき?」の問いに回答した新井紀子教授(国立情報研究所・数理論理学)のお考えに注目しました。

★チャットGPTをそのまま子どもに使わせたら

・作文を書いてもらう、調べ物の学習の答えを書かせる、楽なことをするに決まっている。

・そのせいで、時系列に物事を書く能力、つじつまが合うように何かをまとめる能力、本来、狙っていた教育効果が白紙になってしまう。

・作文コンクールで最優秀賞が決まった後にチャットGPTが作ったことが分かり、受賞取り消しが頻発に起こりえる。

・作文という文化が失われてしまう可能性だってある。

 

★幼児期的な体験

・二次元の世界には、においも舌触りも手触りもない。

・鉛筆を使う。消しゴムを使う。物差しをしっかり押さえて線を引く。こうした原始的な体験を積むことが大事、ということに戻るのではないか。

 

 今回は、昨日7月25日(火)の読売新聞にあった柳田邦男さん(ノンフィクション作家)と酒井邦嘉教授(東京大・言語脳科学)の対談に注目しました。

 テーマは「生成AIに対する『危機管理』とはー教育現場での活用の是非―」

 

★生成AIの安易な活用

◎酒井教授

・非常に強い危機感を持っている。

・科学的な研究の延長線上にこの技術があることは理解できるが、技術自体が独り歩きし、人間が本来持つ創造力や心のあり方に悪影響を及ぼす可能性がある。

・生成AIにできるのは言葉を並べて文章を作ったり、類似的な対話をしたりすることだけ。

・相手の気持ちや言葉の周りにある背景を解析することはできない。

・作られた文章や対話を勝手に解釈して、理解したような感覚に陥る。

・考えたり、想像したりする力がどんどん衰えるのではないかと危惧する。

 

◎柳田氏

・生成AI という新しい技術は、人間の知性・感性の根幹に触れる問題をはらんでいる。

・人間の知的活動の中で一番大事な言語機能、あるいは思考力に関わる。

・導入が一体どんな意味を持つのか哲学的に捉えないといけない。

・専門家の議論だけではなく、教育に関わる一人ひとりが深い造詣を身につけ、是非を考えるべき。

 

★生成AIへの依存の可能性

◎柳田氏

・テレビで、ある学校で生徒たちが課題について議論して答えを出した後、それをAIで確認し、合っていると全員がほっとした表情になった。

 AIが「神の声」のように絶対的に正しい答えを出してくれると思っているようだ。

・人間は依存に陥る可能性を持っている。

・麻薬やアルコールだけでなく、便利なもの、ちょっと面白いものに傾斜していく。

・AIに依存することで人間の主体性や創造的な考え方、自分が感じたことを言語化するという脳の働きが壊れていくのではないか。

 

◎酒井教授

・特に対話型AIへの依存は危険。

・自分の意見や考えに同意してくれたり、肯定してくれたりすると「自分の考えは正しい」「社会を変えられる」などと危険な思い込みに陥る可能性がある。

・自分の良いように対話が引き出されるという生成AIが持つ「自己欺瞞」性にこそ、恐ろしさがある。

・人と議論するよりAIに依存する方が居心地がよくて、四六時中手放せなくなる。

・もし小学校の頃から、AIに慣れてしまえば、「もう友達も親もいらない」となりはしないか。ペットのようにかわいいAIだけあればいい。 

・ベルギーではAIと対話しているうちに自殺に陥った例が報告されている。

 

明日に続く