「ChatGPT」など生成AIの学校現場での活用を巡り、文科省が参考資料の取りまとめを行う方針であることを踏まえ、コンピュータ・プログラミング教育支援を手掛けるNPO法人「みんなのコード」がこのほど、ガイドライン策定に向けた提言を取りまとめた。生成AIの登場により「思考力が育たなくなる」といった懸念の声が上がっていることに対し、高度な知的生産に寄与する可能性を指摘した上で、「コンピュータとの適切な対話」の仕方を知ること、思考力・判断力・表現力の在り方を問い直すことなどが必要だと提言した。同NPOは「今後も学校現場や研究者などとの議論を重ねながら、AI時代にふさわしい学校教育の在り方を示していきたい」としている。
同NPOの提言では、これまでの報道でもっぱら生成AIに対する懸念が取り上げられているとして、①AIを「人間が高度な知的生産をするためのもの」と認識すべきではないか②コンピュータと適切に対話する力も重視すべきではないか③思考力・判断力・表現力などに及ぼす影響について、議論すべきではないか――の3つの観点が不足していると指摘した。
とりわけ②の「コンピュータとの適切な対話」が軽視されていることに警鐘を鳴らし、「文脈に依存しない・行間を言語化」「人間であれば省略可能な情報も、明示する必要性」「機械学習モデルの学習や推論の仕組みを考慮した上での、適切な指示」といった、「コンピュータが分かりやすい言語に対する理解がなければ、高度な知的生産につながるアウトプットを得られない」と強調。その上で、AIを利用するだけでなく、実際にコンピュータに学習させ、コンピュータの性質を科学的に理解することが必要だとして、「学習」と「推論」のどちらも体験することの重要性を説いた。
さらに③の「思考力・判断力・表現力などに及ぼす影響」について、「自ら考えて文章を書かないことで思考力の育成を阻害する恐れがある」と懸念する声があることに対し、AI時代には「思考・判断・表現」の方法そのものが変わりつつあることに向き合う必要があると指摘。例えば、作りたいプログラムを言語化してAIに聞き、うまくいかない点をさらに聞く、といった人間とAIの対話により、「思考力が必要となる学習も可能」だとした。
同NPOの利根川裕太代表理事は「ChatGPTなどの大規模言語モデル(LLM)に対し、教育関係者の間では、課題を発見することや、出てきた答えから決断して責任を取ることは人間にしかできないと指摘されることがよくある。ただ、ここでは(課題発見と決断の間の)中間の議論が抜けている」と指摘する。
つまり「出てくる答えをより良くするためには、コンピュータとの適切な対話が必要。文脈に依存しないものを言語化しないといけない、といった仕組みを知らないと、高度な知的生産につながらない」という。さらに「AIを利用するだけではなく、学習モデルに触れることで『こういうデータを学習しているから、こういうアウトプットになる』と体感的に理解できるようになる」と語る。
学校現場でのChatGPTの活用に際して、教員が知っておかなくてはいけないことは「意外とシンプル」だとする利根川代表理事。「『インターネット上の膨大なテキスト情報を学習し、次にどのような言葉が続くかを予測している』という仕組みを理解すれば、その性質によって、できることに向き不向きがあることが分かる。まずは体感・体験してみる、むやみに禁止しないなど、新しい技術を恐れない意欲の方が、むしろ重要かもしれない」と語る。
「LLMの仕組みを踏まえると、前提を共有する・何度も対話する・何案も出してもらうといったことが必要だと分かる。また、インターネット上のテキスト情報が少ない固有名詞や数の処理、また最新の情報には不向きだが、調べ学習で一般的なトピックを調べる場合や、国語・英語・プログラミングなどの分野では、学習のパートナーになりやすい」と説明する。
教員自身が使う場面としては「お便りや事務連絡など、言語のコミュニケーションをスムーズにする場合には有能なアシスタントになるはずだ。伝えたいことをクリアにしてAIに投げ掛け、出てきたものはあくまでもドラフトとして、自分の責任で推敲(すいこう)する、というのが現実的な使い方の一つではないか」と語る。