対話型の生成AI「ChatGPT」を巡り、欧州などで個人情報保護の懸念から規制の動きが強まる中、開発元の米新興企業オープンAIは4月10日までに、公式ブログで安全対策の強化を表明した。その中で、重要テーマの一つに子供の保護を挙げ、「AIツールの利用を18歳以上、または保護者の承認を得た13歳以上に限る」と改めて明記したほか、年齢確認の仕組みの導入を検討していると表明した。同社のサム・アルトマン最高経営責任者(CEO)は10日、岸田文雄首相と面会した後、自民党のデジタル社会推進本部・AIの進化と実装に関するプロジェクトチーム(PT)に出席した。
ChatGPTを巡っては、イタリア当局が個人情報保護の懸念から使用を一時禁止するなど、規制の動きが報じられている。こうした中で、オープンAIは今月4日に、公式ブログで安全対策の方針を公開し、その中に「子供の保護」を盛り込んだ。
そこでは、同社の利用規約にのっとり「AIツールの利用は18歳以上、または保護者の承認を得た13歳以上に限ることとし、年齢確認の仕組みも検討している」と表明。また「当社の技術をヘイト、嫌がらせ、暴力、アダルトなどのカテゴリーのコンテンツを生成するために使用することは許可しない。最新モデルのGPT-4では、(以前のモデルである)GPT-3.5と比べ、禁止されたコンテンツを生成するよう要求された場合に応える可能性が82%低く、不正使用を監視する強固なシステムを確立している」と説明している。
アルトマンCEOは10日、自民党PTの冒頭で「日本でAIテクノロジーがこんなに早く広がるというのは、まさに驚きだ。すでに100万人以上のユーザーが日本で使っていただいている。いろいろなリスクも指摘されているが、それをできるだけ低減し、メリットをさらに増加させていくという点で、日本の果たしうる役割は大きい。GPTの将来のバージョンも日本語、日本文化において、さらに能力的な向上が図れれば」とあいさつした。
会合後に報道陣の取材に応じた平井卓也本部長は「非常に有益な意見交換ができた。デジタル社会推進本部でいろいろと考えた上で、政府に対して提言を出していきたい。このまま使えばリスクがあることだけは間違いない。しかしリスクがあるからといって全然使わないということは、一般の人が使い始めている以上、不可能だと思う。政府としてはできるだけ早急に、国民が安心できるゾーンを作ることが重要ではないかと考えている」と述べた。