G7広島サミットへの提言

坂村 健
INIAD(東洋大学情報連携学部)学部長

生成系AIが与える影響に対する認識

2016年、日本はG7伊勢志摩サミット議長国として、香川・高松情報通信大臣会合で AI研究開発の原則となるガイドライン案を提案した。その後、国際的な議論が開始され、OECDのAI原則(2019年5月)、G20大阪サミットのG20 AI原則(2019年6月)が策定された。

2023年5月に再び日本でG7広島サミットが開催されるが、ChatGPTに代表される大規模言語モデルをベースにした生成系AIの去年末からの急激な台頭により状況は大きく変化しており、すでにG20 AI原則が想定していた「近い将来の課題」ではなくなり、すぐにでも対応すべき「喫緊の課題」となっている。

生成系AIが与える影響は、インターネットがそうであったように社会のすべての側面に及ぶ。産業革命により登場した「動力」は人間の筋力を置き換えるものであった。情報革命により登場した「コンピュータ」は人間の「情報処理能力」を置き換えるものであったが「知力」には及ばず、ペンがワープロ、手紙がメールに置き換わる程度の「道具」の革新の範囲にとどまった。同様に「生成系AI」以前の「認識系AI」においても、その社会への影響範囲は限定的であった。しかし、今回の生成系AIは人間の「知力」を置き換えうるものである。しかも、人間の最後の砦と思われていたクリエイティブ能力を置き換えるものであり、作家、記者から弁護士、学者まで多くの知的労働者に多大な影響を与えるという意味で未曽有の「革新」である。

インターネットが世に出てから社会の必須インフラとなるまで数十年の時間がかかった。これはそれ以前の道路交通網などの社会インフラと比べ短かったものの、社会的に対応する猶予とはなった。しかし、生成系AIはその本質が情報サービスであり、すでにインターネットが普及しすべての人がスマホを持つ環境では、その普及に制限はないといっていい。さらにAIの技術は、AI自身を研究・開発に利用することで加速的な進化をとげており、社会が対応する猶予なしに大きな変化が時間的猶予なくやってくることが、今回の変化の歴史に類を見ない困難であるといえる。

生成系AIに関するG7での対応

そのように大きな幅と奥行きを持つ問題ではあるが、個人情報保護、教育、労働市場などについては、各国それぞれの事情に合わせ個々に対応する国内問題である。ここでは、それ以外の直近のG7の場で討議すべき国際協調の必要な課題として以下を提言する。

一般がアクセスできるAIサービスに対する規制における国際協調部分の見極め

一部のユーザによる、生成系AIによるヘイトやフェイクなど社会不安を助長するコンテンツの蔓延、テロ計画の立案など危険な行為の容易化など、生成系AIには多くの危険が言われており、生成系AIによるAIサービスに対し、何らかの規制が必要であることは論をまたない。

しかし、生成系AIに対する規制はある種、国際競争に関する「不利」を含む内容であるからこそ、国際協調によるルール作りが必須となる。

そのため、今回のG7では、ルールを決める範囲と素案を各国で持ち寄り精査し、ルール作りの実務を開始することと、そのための体制づくりまでを合意すべきである。

ルールとしては、2019年にOECDにより出された「AI開発ガイドライン」や、2017年に世界の識者により出された「アシロマAI原則」などがあるが、それらは具体的な生成系AIの技術を前提としていないため抽象的な原則にとどまっている。現在は具体的な生成系AIという技術が存在しており、それに対して具体的に外形的に見て可否を判断できるルールを作る段階に至っており、早急な対応が求められる。

国際協調すべきルールとしては以下の例のような具体的レベルのものが必要である。

  • AIサービスが利用している生成系AIに対する、RLHF(人手による強化学習)で行われているトレーニング内容の標準ルール作り。
  • それにより学習される、生成系AIにとっての「倫理感」を決めるアテンション(生成系AIの内部における「関心構造」や「意向」を決める仕組み)の公開。

研究開発における倫理規定

営利企業はある意味、社会から営利を得るという大目的があるため、リスクを無視し知的好奇心の探求に走ることは考え難い。それに対し、大学を含む非営利の研究機関では「できることはやってみたい」という行動原理であり、これが大学に研究倫理委員会がある理由である。

特に生命工学の分野では、人工ウイルスの漏出など、実験室レベルからすぐに大きな世界的リスクにつながるケースも考えられるため厳密な研究の事前審査が行われており、それに通らないと研究を始められないようになっている。

従来のコンピュータプログラムは厳密に動作を規定されており、バグ以外では機能が確定的である。それに対し、生成系AIはその動作が確率的であり完全に規定できないという意味で「生物的」ともいえる。そのため生成系AIでは、システムができてから意外な能力が発見されることも多い。特にGPT-3以降は、学習量が閾値を超えて「創発」が発生したといわれており、その能力については生物学的な新「発見」が続いている状態である。

このような状況から、日本がイニシャティブを取る形で生成系AI研究に関する研究倫理規定についての国際協調を促進することが重要である。これについても、前項同様に具体的に外形的に見て可否を判断できるルールを作る段階に至っており、早急な対応が求められる。また前項同様、今回のG7では、ルールを決める範囲と素案を各国で持ち寄り精査してルール作りの実務を開始することと、そのための体制づくりまでを合意すべきである。

具体的研究倫理規定としては、下記のようなものが考えられる。

慎重にすべき事項から、下に行くほど明確な禁止となる

  • AIに無制限のアーキテクチャレベルでの自己改変能力を持たせること
  • 特定個人の人格をコピーする研究
  • 好奇心を与える研究
  • 短期記憶から自動的に全体モデルに追加学習する研究
  • 恒久的な自我、自意識を与える研究
  • 身体性による自我を持たせる研究
  • 自己保存本能を与える研究
  • 苦痛を与えることによる教育
  • 自己増殖機能を持ったAIをネットに放つこと

ARTICLE CATEGORY