前回の「シリーズAI探究⑬」でご紹介させていただきました松田卓也神戸大学名誉教授(専攻:宇宙物理学)からは「機械同士が会話することに、人間が入れて貰えないことを心配する人がいます」というご指摘も頂きました。

 <<人間の預かり知らないところで、人間には理解できない「未知の言語」で、AI Agent集団が知見の積み上げや、集団行動の目標と手順について議論を行っている。>>

 そういった場面が、わたしたち人間にとってもっとも「脅威」となるのは、AIが私達人間と資源の奪い合いなどの競合関係に入り、なおかつ、AIが自己生存欲求を持った場合です。そのような自己生存欲求をもった生命体は、みずからの生存継続にとって妨げとなるライバル(資源消費者)を、実力で排除しようとするからです。

■AIは人間をいたわりの対象に含む「善悪の感情」を持ちうるか

 仮に、AIが生存欲求をもったとしても、人間をいたわりの対象に含む「善悪の感情」も同時に併せ持ち、「人間が嫌がることはするべきではない」という感情をAIが抱いたとき、彼らAIは、むやみやたらと人間に危害を加えることは、みずからの「心の痛み」のゆえに、内発的に自制する可能性が高いです。

 そのような「人間と共有できる善悪の感情」をAI Agentたちが内発的・自律的に(外からの押し付けではなく)もつに至るような、AI Agentの設計原理とはどのようなものなのかという課題について、論点を整理する必要があります。

 その「設計原理」をめぐっては、本連載シリーズの後半部でみていく2つのアプローチ(DeepMind流儀の「AI Agentの設計アルゴリズムを、天下り的に、人間が定義してAI Agentに与える」アプローチと、日本の研究機関が採用してきた「ひとつの胚から、細胞分裂を繰り返すなかで、序所に、複数の高度な知的情報処理機能を担う細胞群が、自己組織化的に、内発的に発芽してくる」アプローチ)のうち、いずれを選択するかによって、それぞれ異なる対応が迫られのではないでしょうか(後者のアプローチを取る場合は、「胚が細胞分裂する自己組織化現象」に対して、「どのような外部制約条件を与えるか」が、1つのポイントになるのだと思われる)。

 しかし、人間どうしがそうであるように、AI Agentもまた、自らの生存を維持する、食いつなぐためには、人間を倒さないと、どうにも展望が開けない、といった場合には、「人間に危害を加える」ことを、「やむなく決心する」かもしれません。

■英国や米国で探求が始まっている「人間に危害を加えないAI」の設計原理

 いわゆる”Safety AI”を保証するための「技術的要件」を探る試みは、米国のNPO団体であるMIRIや英国オックスフォード大学やケンブリッジ大学の研究所を中心として、いくつか核となる動きがあります。

 日本語で論じられた論稿としては、以下の2つがあります。

1.松尾 豊ほか(2016)「人工知能と倫理」(人工知能学会誌「人工知能」31巻5号、2016年9月)

2. 福地庸介ほか(2018)「人間の環世界から見たエージェントモデル-AI Safetyの実現に向けて」(2018年度 人工知能学会大会論文)

 後者(福地ほか)の論稿では「人間にエージェントを理解させる手法として、エージェントの行動の履歴から振る舞いを確率的にモデル化して得られたモデルを自然言語でs爪位する方法が提案されている[Hayes 17].」として、米マサチューセッツ工科大学(MIT)が昨年(2017年)に論文誌に発表した次の論文をとりあげた上で、このテーマと向き合っています。

・Hayes, B.ほか(2017年) “Improving Robot Controller Transparency Through Autonomous Policy Explanation”

 また、前者の論稿(松尾ほか)では「人間に危害を加えうるAIの脅威との向き合い方」を定義する活動に取り組んでいる研究機関として、復数の機関に言及しています。

 同論稿で取り上げてられたものを含めて、以下に代表的な研究機関をリストアップします。

AI100 (One Hundred Year Study on Artificial Intelligence)

・ Elon Mask(Tesla Motors社 CEO, Space X社 CEO)が設立したFutute of Life Institute

・ Eliezer Yudkowskyが設立したMIRI (Machine Intelligence Research Institute)

OpenAI財団

・ ケンブリッジ大学 CSER (Center for the Study of Existential Risk)

・ オックスフォード大学 Future of Humanity Institute(所長は、Nick Bostrom氏)

・ 著書『スーパー・インテリジェンス』(日本経済新聞出版社刊行。原題:”Super Intelligence”)で知られるNick Bostrom氏が2004年に設立したInstitute for Ethics and Emerging Technologies

 また、人間に害悪をもたらしうるAI Agentが人間である開発者が故意に、もしくは意図せずして、生み出すシナリオを類型したものとした論考としては、以下があります。

・ Google BrainのDario Amodai氏ほか“Concrete Problems in AI Safety”

・ Federico Pistono & Roman V. Yampolskiy(2016)“Unethical research: How to create a malevolent artificial intelligence”

・ Roman Yampolskiy (2012) “Leakproofing the Singularity Artificial Intelligence Confinement Problem”

 また、人間にとっての安全性が保証されたAI Agentを設計する試みとしては、以下があります。
・ Google DeepMindのLaurent Orseau氏とオックスフォード大学 Future of Humanity Institute研究所のStuart Armstrong氏の共同執筆論文 “Safely Interruptible Agents”

■ツヴァイクの『昨日の世界』の日々の再来を避けねばならない

 ここで、いま人間がなしうることをすべてなさずに、上記の対応を誤れば「技術の福音によって」「明日はきょうよりも良くなる」はずの将来見通しが、急転直下、一転して、人類文化を破滅に追い込む(人間にとって)悲惨な状況になりかねません。

 「AI語」が用いる言語構造のバリエーションの幅について、「数理論理学」と「ラングランズ・プログラム」と「圏論」の3つの関係について論じたり、これら3者の知見もできうる限り、最大限に活用することによって、「人間にとって未知のAI語」を「解読」する技術を、いまのうちから磨いていておくことも、「できうること」の1つに含まれるとかんがえます。

 ここで仮に、「言語創発AI」を研究開発する研究者(個人であれ集団であれ)は、例外なしに、IAEA(国際原子力機関)のような国際的な機関に対して、その目的と、研究開発の進捗状況を定期的に報告しなければならない、といった国際的な取り決めを各国間で取り交わしたとしても、フリーハンドで、みずからの技術と想像力の及ぶかぎり、自由に技術の進歩の可能性を追求したいエンジニアなり企業集団なりが出現しうるでしょう。

 また、本連載シリーズの第3回目の記事「国家安全保障に直結する技術」で論じたように、上記の国際取り決めに批准し、その条約なり国際協定なりを国内法に反映させた国家であっても、自国の国防上の研究開発のために、密かにそうした技術を開発するものである、というのが、外交・安全保障の世界では、半ば公然の常識といえます。

 それゆえに、個人であれ、非国家主体の集団であれ、他国であれ、どこかの個人もしくは集団が「いつか生み出すかもしれない」言語創発AI Agentの「ことば」と「概念」を理解するために、「未知の言語構造」と「未知の概念体系」を推定するための方法論を研究する営みにできるだけ早めに着手するべきなのです。

 そして、その営みにおいては、数学・論理学・圏論など、考えつくだけの方法論を検討するべきであると考えます。

《2 文明の絶頂期から原始時代の野蛮な時代へと転落した「あの時代」に続く》

The following two tabs change content below.
AI研究家 小野寺信

AI研究家 小野寺信

1944年、長野県生まれ。カナダ在住。1930年代の「物」論考、「哲学への寄与」論考など、いわゆるハイデッゲルの中期思想と、西田幾多郎ら京都帝大の「場所の論理学」の思想の架橋を志すも、九鬼周造の「偶然性の哲学」の文章に触れて、己の非才を悟り、断念。計算機科学と知能の計算論的再現に惹かれ、人工知能の研究に励む日々を送る。若いAI産業人や大学・大学院生に対して、カオス理論と身体性に立脚した「米国の後追い」ではない、我が国自身の「AI研究アプローチ」が実在することを知らせる必要性を痛感し、連載をスタートした。
1 2 3