(円卓)AIは持続可能な社会を阻むか

大阪府立大学教授 伊井 直比呂

昨年度、私はある中学校で開催された公開授業研究会に参加した。教科は「公民」で、内容は人権の授業をもとに現代社会の問題と未来社会に予測される問題を捉えて「自分たちで法律を作り、なぜその法律が必要で、何を守るのか」を発表する授業であった。

この授業を計画した先生の着想に敬意を持つと同時に、私は生徒の現代・未来社会への洞察力と問題点を抽出する力にも驚かされた。発表は、まさに中学生という年代から見える「社会」そのものが反映されており、大人が可視している社会とは異なる諸相が浮かび上がった。

その中に、やがて人工知能(AI技術)が人間知を駆逐する時代が到来する不安に基づく発表が複数あった。つまり、自分の存在や学ぶこと自体の無意味化、そして未来社会は自分たちを必要としなくなることを人権問題として捉えていた。

確かに、技術革新が社会的弱者への不利益を発生させる事例は過去に繰り返されてきた。例えば、技術革新による環境汚染の不利益は社会的劣位とされる集団に集中していたことは既知である。同様に未来社会においても人工知能によってより規模を拡大させた歴史の再来が、漠然とではあるが、彼らに存在不安をもたらしていた。

ところで、このことは大学生も同様である。人工知能が「万能」との信奉が世間で広がりつつある中、その人工知能が判定する何がしかの結果について、そもそもその判定の「公正さ」を問題にした学生がいた。

教育学専攻のこの学生は、他専攻の情報学の講義を受けて「基本」を学び、さらに情報系の研究室にも通った。そして、人間観に根差して、人が本性として持つ予断と偏見から人工知能が解放されているのか、ということを問うた。

結果、実際にアメリカ連邦裁判所で行われている「仮釈放」の可否を裁判官が判断する際、その根拠に人工知能が使用されていた事例を探しあて、その決定要因を構成する膨大な収集データそのものに偏り(データマイノリティー)が存在してしまう限界性に到達した。すなわち、不公平さから解放されないままの「人工知能」によって「人の人生」が左右される可能性を指摘した。

私たちは持続可能社会を阻む要因の一つとして人工知能を含めて考える必要があるかもしれない。