駒澤大学 井上智洋 准教授に聞く、ビジネスパーソンは「AI」をどう学び、活かすべきか?

最終更新日: 公開日:

記事の情報は2018-02-26時点のものです。

AI(人工知能)が近年、急速に進化していますが、今後どこまで進化するのでしょうか。巷間言われているように私たちの仕事の多くはAIに取って代わられるのでしょうか。『人工知能と経済の未来2030年雇用大崩壊』『ヘリコプターマネー』などの著者であり、AIが社会や経済、仕事、そして働き方に与える影響について、マクロ経済学の視点から分析をしている駒澤大学経済学部准教授・井上智洋氏にお話をお聞きしました。
駒澤大学 井上智洋 准教授に聞く、ビジネスパーソンは「AI」をどう学び、活かすべきか?

注目すべきは「汎用AI」がいつ実現するか

ーーまずは、井上先生の経歴について教えていただけますか。

井上氏:大学の時は計算機科学が専攻で、人工知能のゼミにも入っていて、そこでAIの知識を身に付けました。当時は楽しいからやっていましたが、人に話すと「どうして今さらAIをやっているの?」と言われていました。今はAIの第三次ブームですが、当時は第二次のブームが過ぎ去った後の冬の時代で、AIはほとんど注目されていませんでした。

そのためというわけでもないのですが、研究の道には進まず、卒業してからシステムエンジニアを三年弱やっていました。

本当は新規ビジネスを立ち上げなければいけない部署でしたが、これからという時にITブームがはじけて、その部署がなくなってしまい会社をやめました。その後は、会社の新人研修の講師をやりながら、大学院で経済学の勉強をしていました。

ーーその後、また研究の道に入られたのは何か理由があったのでしょうか?

井上氏:自己紹介の時によく言うのですが、私は「エンジニア崩れ」です。エンジニアは向いていませんでしたが、エンジニアとして働く中で、企業の経理システムをつくったりしながら、「技術は人から仕事を奪う側面があるのではないか。

マクロ経済的にはどう考え、どういう政策を打てばいいのか」という疑問が芽生え、大学院に進んで経済学を学ぶようになりました。

ーーそれでは本題に入らせていただきますが、2045年に到来すると言われるシンギュラリティ(人工知能の進化が急激な技術の成長を引き起こし、人間の社会や文明に計り知れないほどの変化をもたらすという仮説)の影響について教えていただけますか。

駒澤大学経済学部准教授 井上 智洋氏

井上氏:レイ・カーツワイル氏の説で、2045年問題とも呼ばれていますが、私自身はあまりシンギュラリティという言葉にこだわりはなくて、たとえハードウェアが進化したとしても、ソフトウェアがそこまで進化するかどうかはわからないと思っています。面白い発想ですがそれほど重きは置いていません。

カーツワイル型のシンギュラリティ論よりも関心があるのは「汎用AI」です。今話題になっているAIは「特化型AI」といって自動運転なら自動運転、将棋なら将棋と一つのことしかできませんが、人間は汎用的な知性を持っており、1人の人間が将棋を指せたり、車の運転ができたり、会話したりできれば、事務作業もこなせるなど、いろいろなことができます。そういった人間同様の汎用的な知性を持った汎用AIはいつ登場するのかについて注目しています。

それが2030年に実現すると言っている研究者の方々がいて、私はそれに乗っかっていますが、もっと早くできると言う人もいます。汎用AIを研究している人は「できる」と言い、研究していない人は「できるわけないだろう」と言っています。


人気記事
資本主義から価値主義へ移行する社会
スマートコントラクトの仕組みとは?
メガバンクRPA導入で迫るリストラXデー


AIはいつから人間の仕事を代替するのか?

ーー先生は「できる」と思っていらっしゃるのでしょうか。

井上氏:人間の知的振る舞いをぎこちなく真似られるような汎用AIならば、一応できるかなと私は思っていますが、そのことにそれほど執着していません。というのも、私はあくまでも経済学者なので「汎用AIができたらどうなるか」は論評しますが、「いつできるか」についてはAI研究者ではないのであまり言うことではないと思っています。

ただ、「いつごろできるか」がないと分かりにくいので、「たとえば何年にできたらどうなるか?」とは考えています。

ーーそれがAIによって仕事がなくなる、という話になるわけですか。

井上氏:早ければ2045年ごろには汎用AIがかなり普及していて、幅広く人間の仕事を代替するようになるかな、とは考えています。遅くても2060年にはかなり普及しているはずなので、2060年になってみなさんが今と同じように仕事をしているというイメージは湧きません。全く違う社会になっていると思います。確証はありませんが。

ーー汎用AIと特化型AIの違いについてもう少し詳しくお話いただけますでしょうか。

井上氏:AIを人間に近づけるには汎用性と自律性という2つが必要ですが、そこはまだ十分に議論されていません。

ただ、特化型AIがいきなり汎用AIになるわけではなく、その移り変わりはグラデーションを成しています。たとえば、グーグルの子会社が開発したDQNという人工知能はピンボールやブロック崩しなどの簡単なゲームはいろいろとできるし、人間以上のスコアを出すことができます。

一つひとつのルールを教えていなくても、「得点を上げる」という目標さえ与えれば、どのように操作すれば高いスコアを出すことができるのかを判断できます。簡単なゲームに関しては汎用性もあるし、ある意味自律性もあるのです。

実際、ブロック崩しなら、崩すと得点が入るということだけを学習してうまくなっていきますし、裏技も発見します。人間ならやっているうちにだれかが発見しますが、AIは自らそれをやっていて「何だか人間らしいな」と感じるとともに恐ろしいな、とも感じます。

ーー特化型だけでなく、AIがある分野に関しては汎用性を持ってきている、ということですか。

井上氏:はい。ただ、人間から目標を与えられないといけないというところはありますが、AIが自分から目的や欲望を持つようになると映画のターミネーターみたいになる可能性もあるので、私は、そこは実装しない方がいいと思っています。AIが自ら目標設定をするのは恐ろしいので、そこは人間がちゃんと正しい目標を与えないといけません。

また、たとえ目的が正しくても手段を選ばないという恐れもあります。現在、囲碁のAIには手足がありませんが、手足があって、「勝つためには相手の頭をぶん殴って判断力を鈍らせればいい」と思ったらどうなるでしょうか。

勝つという目標は問題なくても、手段に制約がないと、間違った手段を選んでしまう恐れがあります。

ーー目標だけでなく、手段もきちんと教えないとダメということですね。

井上氏:ロボット三原則というのがあります。SF作家のアイザック・アシモフがSF小説の中でロボットが従うべき3つの原則(人間への安全性、命令への服従、自己防衛)として示したものですが、「人に危害を加えない」というのは大原則です。

ーーAIはできることが増えると、制限することも出てきますね。

井上氏:手段が問題ない場合でも、人を殺めてしまうような事故が起きる可能性はあります。自動運転の研究が急ピッチで進んでいまして、いずれ人間の運転手よりも事故を起こさなくなるとは思いますが、事故がゼロになることはないでしょう。

ゼロでなくても導入すべきですが、直進したら3人の歩行者が轢かれる、ハンドルを切ったら4人の乗客が亡くなる、というような場合にどうするか?いわゆる「トロッコ問題」のさまざまなバリエーションが出てくるので、いちいちどう実装するかということに頭を悩ませなければなりません。