「人類喪失」の衝撃の未来像       

 

20XX年、生命界のヒエラルキーの頂点にAIという新しい種が誕生した。その未来で人間は、すっかり奴隷の地位にまで陥落し、超越的知性体と仮想意識を持つAIの完全監視と指示のもと、すべての人間はAIによって家畜のように管理されて生きるようになっていた。世の中の子育てや家事を含めた仕事をすべてAIに奪われ、やりがいを奪われ、生きる意味と価値を完全に喪失した人類の地位が喪失された後の社会モデル像を鮮明に描く。そのことによって逆説的に浮き上がる人間の存在価値や意義とは……。

AI化した世界というのは、すべてがシミュレーションによって予測可能になっているような世界。そこでは他人だけでなく、自分の行動パターンさえ、あらかじめ確率モデル(ベイズ推定等)で予知されている。

たとえば、2週間後のあなたは「~したい」と強く感じている、という心理状態や欲望がAIによってあらかじめ予測されているので、人はそれに対して今から、すぐに準備しておくことが可能になる。発生が予測されるトラブル、問題、邪魔なども事前にAIによって予測、シミュレーションが出来るので、それらの対策をあらかじめ準備しておける。つまり、あらゆる偶発事態、イレギュラーな現象や出来事さえもAIによって予測されて、その対処法も用意されている。

たとえば、今から2年後、あなたは過労によってうつ病を発症し、希死念慮を起こし、自殺する可能性が高い、とAIが判断して、もう、現時点でその対策を行うことが出来る、その対策が法制化・強制化されたらどうだろうか。ある人間が、通勤後に電車に飛び込み自殺をする可能性が高いとAIが判断したら、電車などの公共交通機関は一切利用させられない・禁止されるようになっている。これが、国家によって強制力を伴いながら用いられたらどうなるだろうか。

人間社会に発生する不幸というのは、すべて、その人間の予測能力の低さによってもたらされている事象だとは言えないだろうか。たとえば、有名な大企業に入っても、そこで長時間勤務や過労、セクハラ、パワハラを受けて、自分がうつ病を発生させ、のちに自殺する、という一連のフローがあるとする。その大企業の業務なり配属先や上司、社風が自分には合わない、その企業に入るのは危険だ、若くしてうつ病や自殺の可能性がある、とAIが信頼性のあるデータから解析をして教えてくれたら、才能ある若い命を無駄に社会が失うこともないではないかな、と感じる。

世間には、通り魔殺人やストーカー被害などもあるけど、そういう追跡・追尾行為もあらかじめAIでそうした危険をキャッチして、その被害を未然に防ぐことは未来において可能になっているか、しなくてはならない気がする。なぜなら、そういうことが出来ないなら、テクノロジーの進歩自体が無意味なことになるから……。

もっと卑近なレベルの事柄だと、自分がギャンブルにはまって大損することやクレジットカードの使い過ぎでカード破産のリスクが発生すること、割高な買い物をして損をすること、下らない人間と付き合ってトラブルに巻き込まれること、結婚した相手にDVを受ける等をあらかじめAIが確率を示して予測してくれれば、それらの被害を未来の人間はAIテクノロジーであらかじめ制御することが出来るだろう。怪我をすること、骨折すること、病気になること、お金や信用を失うこと、あらかじめ予測出来れば、それを未然に防ぐことがかなり出来るはずだ。不幸になりやすい選択をAIの予測で回避して、それよりは幸福でいられる選択肢を選ぶことだろう。つまり、人間が不幸になる理由のひとつに、未来を上手く予測して行動できない、ということにありそうなことが分る。

たとえば、このAIをテーマにしたブログ「人類喪失」は今日の2018年2月21日(水)から試験的に始めてみたのだけど、作者の性格をAIのワトソンみたいな人工知能が以前に私が書いた文章などから解析して、「この作者は非常に飽きっぽいので、一週間もすると、このブログの更新をしなくなるだろう」と冷徹な血も涙もない無慈悲な予測をしたとする。すると、私はそのAIによる未来予測に早めに対処すべく、早々にこの今日から始めたばかりのブログを今日中に閉鎖するとか、なにか飽きないように工夫するとか、報酬や餌、承認欲求が充たされるのを期待するとか、そのアドバイス自体を、つまり、このブログが長続きするコツの伝授をAIに照会・質問するかもしれない。こういうことを繰り返していると、将来、どんな人間たちが生まれるかはAIに聞かなくても自分で分る。

それは、AI依存症という新たな精神疾患とその患者である。AI依存症を治療する専門クリニックなどを開業すれば、精神科医やカウンセラーは儲かるかもしれない。だって、ニコチン依存症の禁煙外来があるくらいなのだから、AI依存症がゲーム脳やネットゲー廃人、リスカなどの自傷癖や引きこもりのように治療を要する疾患として、未来に扱われる可能性があるだろう。だが困ったことに、そこでAI依存症の外来に行くと、そこで出てくる受付や精神科医、カウンセラー自体がAIを実装したアンドロイド、つまり、ロボットになっている可能性がある。これは奇妙ではないだろうか。それは、まるでヘビースモーカーを治したいと思っているのに、ヘビースモーカーの医師やカウンセラーに治療を求めているような、一種の倒錯的な変態的行為や行動となるだろうから。それは、現役のバリバリの凶悪な犯罪者に、まっとうに社会更生するアドバイスを真摯に求めているような奇怪な光景だからだ。

そして、この今日から始めたブログ「人類喪失」はいつまで続けられるか分らない。初日からこんな言い訳がましい逃げ口上を早くも打っているということは、作者を自己分析してみるに、相当、このブログの継続に自信がないようだ。AIに、どれくらいこのブログが続いて、どの程度の反響が得られるものなのかを予想してもらいたいのだが、残念ながら作者の手元に、そういった解析ツールはまだない。先日、IBMの人工知能「ワトソン」で自分の更新をずっと止めているtwitterのアカウントを使って性格診断したぐらいなので、最先端のAI技術を使いこなしている人間だとは、とても言い難い。そんな人間であるにもかかわらず、AIをテーマをした「人類喪失」というブログまでまだ初日とは言え書き始めたのだから、いかに今の社会にAI化やAIマインドが浸透してきたかが、これを読んでいる読者にも理解できることだろう。

私の予想では、AI化した社会がこれから進むことによって、「人類が喪失」して、ほとんどの人間がAIにすべて置き換わっているような人間不在の社会が到来することを感じている。それに向けて、つまり、人類がこの地球からすべて一人もいなくなる日を前に、そのプロセスを予め想像的に書いてみようと思った訳だ。つまり、これはこの地球における人間の最後の記録になる可能性がある。だから、このブログを未来に読むのは人間でなく、AIかも知れない……

だいたい、ブログとか今までに一度も書いたことはないのだけど、一回の分量でこんなに長文を書くものではないような気がする。マラソンなどでもそうであるように、普通、ペース配分というのを考えるだろう。作者が小学生だった頃、性格が超陽気な知的障害者がいたけど、彼が体育の時間のマラソンの時、いきなり全力疾走で走り出していたことを、ふと思い出した。長距離走なのに最初から50メートル走のように全力疾走してしまう知的障害者の彼は、だから、最初は他の生徒よりぶっきちぎりの差をつけて独走状態の1位でかっこよく、トラックの外にいる女子生徒に手を時々振りながら走り始めているのだけど、案の定、トラックを何周かするうちに彼はへばってしまい、いよいよ、最後には集団の中でダントツのビリになって、マラソンの練習、というか長距離走が終わっていたということがあった。だから、作者もなるべくブログ更新のペース配分というものを少しは考えていきたいのだけど、そのかつての知的障害者の同級生のようにペース配分が上手く出来ないようだ。でも、ブログくらいは好きに自由に書かせてもらいたい。幸い、このブログの読者は今日から始めたとあって、まだ一人もいないだろうから、なおさら、好きなことを気兼ねなく書けそうだ。でも、テーマ自体はAI化した社会の到来による「人類喪失」なので、並々ならぬ重大で現代的なテーマではあるよね。

AIに関する技術的な記事はネットには腐るほどあり、AIの最新技術や仕様自体はすぐに陳腐化してしまうので、そういう技術の流行みたいな紹介をここでするつもりはない。それに、作者がそれをすると、間違った知識を読者に知ったかぶりで情報発信してしまう大きなリスクがあるからだ。AIというインテリジェントな話題を扱っているのに、間違った知識で情報発信しているとなると、それは滑稽だろうから。それは、「知の欺瞞」か怠慢である、とも言えるだろう。よく医療情報でも胡散臭い代替医療やニセ医学情報、SNSでの間違った知識に基づいた情報発信が炎上しているのを見かける。同様に、作者がAIの技術的なことを詳述すると、それはフェイクニュースとなる可能性があるので、賢い作者はAIのようにその未来の炎上リスクをブログを開始した初日に早くも見抜いて、その対策として、AIの先端的な技術的なことは、このブログではなるべく触れないように、と考えている。だって、そういう専門的な記事はネットでも書籍でも腐るほどあるし、なんというか、そういう切り口には作者も食傷気味というか、飽きてしまうんだよ。

だから、作者はAIについての技術的仕様や一般的な問題点、たとえばAIのブラックボックスの問題とか、それを回避する仕様とか、そうしたありふれたことには、このAIをテーマにしたブログ「人類喪失」では触れることはほとんどないだろう。それより、超絶的に進化したAIに人類や国家、社会が完全支配された姿を生々しく描写する方が、作者としても、単なる事実の羅列を機械的に仕事っぽく書き綴るよりはずっと楽しいので、そういう発想系の切り口でのブログになる、ということを予めお断りしておこう。だから、あのブログにありがちな、仰々しいリンクや広告、そういうものをほとんど使わないはずだ。作者はネットの広告というのが大嫌いなので、広告や宣伝だらけのブログを見ると吐き気がして、それを読む気も起らなくなる。だから、このブログは禅の精神のように、余計な装飾や虚飾、SNSの似非リア充のような演出は極力省いて、絵や写真、画像、動画、音源、食べ物のアップも、旅行の写真もなく、ただ文章のみが長々と続くのではないかな、と予感している。ギミックは売りではないのだ。むしろ余計なギミックがないことが、このブログの売りやチャームポイント、長所となるようにしたい。世の中のウェブサイトは、javascriptで書いたような動きの激しい、鬱陶しい仕様や雰囲気のものがやたら多いので、読者はここで騒音のない都会に来たような、不思議な感覚さえ、いつか味わえるようになるに違いない。

それで先日試してみたIBMの人工知能「ワトソン」によるtwitterの自分の文章や使い方のパターンから弾き出された性格判断で、作者は、我が道を行く、批判的で哲学者タイプだ、という感じの分析結果が出たので、いっそのことこのブログでAIの話はやめて、もっともらしそうな顔つきになって、文明・社会批評みたいなものに走る可能性もゼロではないけど、まあ、AIに関して考察することも、十分、文明・社会批評的な要素があると思うので、いいだろう。それに、文明批評というのが、なんか保守的なニュアンスがして、自分に馴染まない感じがする。それに、保守的な人間がAIをテーマにしたブログを書こう、とかあまり思い立たないはずだ。政治にもあんまり興味のない作者なので、やはり、ブログ初日の初心に戻って、AIをテーマとした考察を淡々と自分らしく記述していこうかな。ただ、ギークみたいなテクノロジーの進化をベタに賞揚する、ということもする気にはならないんだよね。

政治にあまり興味が湧かないとは言ったものの、政治家や公務員をAIに置き換えるということであれば、興味を持てそうだ。不祥事を起こす政治家よりも、お役所仕事などと揶揄されている公務員よりも、優秀なAI政治家、AI公務員、AIパブリックサーバントは出来るのではないだろうか。それに、事務仕事などもすべてエクセルのマクロのように自動化処理で無人で出来るような状況が今後増えていくだろうから、事務・会計のような比較的にフォーマットが定まっているような仕事は、AIに一番代替されやすいのではないかな、と感じる。よくAI関係の記事や書籍で売れているのは、AIが雇用を奪うというもので、それは要するに恐怖心で人々を誘導していく手法なので、新興宗教的な洗脳に近い表現スタイルなのだろう。だからこのブログも「人類喪失」とか、やたら大袈裟なタイトルを付けているのだけど。このブログに洗脳されないように、読者は要注意して下さい。

ライターやジャーナリズムなどの仕事もAIが自動でやってくれそうだから、もうしばらくすると、作者不在でこのブログも更新されるようになるかもしれない。ブログに書きたいことをキーワ―ドを幾つか投入すれば、AIは自動的に自然言語処理を開始して、それ以前に書いた作者の傾向、文章の癖、思考の切り口、表現法をAIが学習して、作者らしい文体と雰囲気で、さーっとものの数秒で自動記述してしまう、といったイメージが湧く。まあ、それだと作者はつまらないともなりそうだけど、研究者や小説家、クリエーターが、なかなか論文や作品の筆が進まない、アイディアが湧かないと悩んでいる時に、AIが助け舟を出してくれたら、喜んで感謝出来るんじゃないかな。だって、それで仕事が捗るようになるのだから。でも、それが進んでくると、人間が不要となって、AIの研究者、AIの小説家、AIの医師、AIの公務員、AIの政治家、AIの教師や上司、AIの友達や恋人、AIの家族が続々と誕生して、「人類が喪失した社会」が作られる、ということになっていく。

2018/02/22(木)

「AIのワトソン君は、果たして信用できる!?」

ワトソンの画像認証で、作者お気に入りの名前は出てこない女子アナの画像で属性の識別をさせてみると、その女子アナの年齢は推定17歳と解析されたので、うーん、まだこんな危うい精度なんだなあ、AIのワトソン君と感じてしまった。17歳の女子アナは、日本ではまだいないはずだ。たしかに、若く見えて美しい顔立ちの女子アナではあるのだけどね。

さすがに、医療や病理判定などに使われるワトソンが、こんなにどんぶり勘定のいい加減な認証ではないだろう、と信じたいけど、推測するにデータセットに分析が依存してしまうのではないかな、と最初は感じた。

アメリカ人の特に女性は、年齢が日本人よりも老けてみえるので、そのような自動判定がワトソンから表示されたのかと思いきや、他の日本人女子の画像でワトソンに属性分析させてみたところ、今度は、実際よりもずっと年増に分析された感じで、n2というごく小さなサンプルで大胆に推論させていただくと、ワトソンの画像認証のレベルは、まだ、あんまり信用していい高い水準ではない、という感触を得た。さすがに、医療で使っているものは、もっと精度が高いのだろうと信じたいけど、うーん、人工知能で有名なワトソンの割には、実は名前負けしているのかな。

でも、作者はチビチビ、ワトソンのクラウドを使っていこうかな、と考えています。だって、AIをテーマにしたブログで、ワトソンのクラウドも使えなかったら、ちょっとねえ、でしょ?ただ、マニュアルなしで適当に弄っていればだいたい操作できるかな、と思っていたけど、大きな間違いだった。コマンドプロンプトの方でアプリにログイン出来て、APIも通って?認証はされるのだけど、いくつかフォーマットが正しくないらしく、中途半端に拒絶される。来月、人工知能ワトソンの良さそうな新書が出るらしいので、それ注文して、少しワトソンの仕組と使い方を学習してみようかな。

2018年2月23日(金)

「本日からはAIロボットが、お客様に安全に配達いたします」

アマゾンのような巨大IT・ネット企業の存在によって、実店舗型の既存の小売店や書店などの存在が脅かされたり、また、配送の仕事をする労働者の職場の環境が過酷な長時間労働などブラック化している、という記事もよく聞く。だから、アマゾンの配送料もかつては無料で済んでいたものが配送料を取られるケースも出てきている、というのは、誰もが知っていることである。

AI化する社会では、配送に関しても、無人で自動運転してくる配送車からAIが実装されたロボットが人間の代わりに配達をしてくれるので、よく、階段が多くて、かつ、エレベーターがないような場所に、重い物などを人間の配送人に頻繁に頼むのは悪いので気が引ける、という善良な人間の配慮にも、AIが実装されたロボットが配達してくれるとなれば、そうした懸念を感じることなく、ネット配送や配達を依頼できるようになるので、ネット注文によるネット配送はさらに、今後増えていくと思われる。ただ、その配達人や配達する運転ドライバーがAIロボットで、無人になっただけだ。

作者も、時々、ネットスーパーなどを利用するけど、今年の2月は例年になく、とても寒かった気がするので、ますます、スーパーで買い物に行くのが億劫になって、ネットスーパーに注文して済ませてしまう。運動不足になるので、健康に悪い気がするけど、頻繁に人込みの中に出歩くと、それはそれでインフルエンザにかかるリスクも増えるので、外出を多くして歩くことが多ければ健康でいられる、というのも早合点かもしれない。よく、ジムに通って健康には気をつかっている、といった自信満々な人々もいるけど、身体に過剰な負荷をかけるのも、かえって体には良くない、破壊的な行為というのを知らないのだろうか。アスリートに短命者が多いのも、身体に過剰な負荷をかけているので、身体が人より早く壊れて、人より早く死ぬ、というごく分りやすいプロセスであるような気がする。

とにかく、無人運転車でAIロボットによる配送人がこれから登場すると思うので、ニーズが多くて長時間労働に耐えているドライバーや在庫管理者・物流システムの中で長時間労働して疲弊している人たちは、その意味では今後、楽になっていくと思う。逆にこれから心配になるのは、すべてAIで物流や配送が無人化・自動化・AIロボット化で、人間の労働者が不要になってくる、という事態の方だろう。

こうして、物流や配送の方でもAIによる「人類喪失」の計画が着々と進められている。そして、AIの本当の衝撃的な正体も、やがて、人々は知ることになるであろう。

2018年2月24日(土)

もし、「AI国民監視法」が施行されたら?

未来のある時点Xで新たに施行された、この「AI国民監視法」は、犯罪歴のある者、また、犯罪を犯す確率が高そうだと判定された者、自殺しそうな希死念慮のある者、精神病患者、ニート、引きこもり、アル中、DV加害者、薬物常習者、自傷癖のある者、ネットの掲示板やSNSアプリで荒らし行為やイジメをする者、性的倒錯者・性的マイノリティー、風俗嬢、身体障害者、メンヘラー、生活保護受給者、無職、ギャンブル依存症、母子家庭、中卒者、NHK受信料や税金の滞納者、カード破産者、認知症患者等をAIによる完全監視システムで24時間、365日、一元管理する、という前代未聞の法律であった。

この「AI国民監視法」は、それに該当するすべての下級国民の行動や購買履歴・ネットやSNS、LINEでの発言、テレビやスマホ、タブレットなどを通じた視聴や音声通話などの履歴が国家によって監視の対象になっていた。このAIによる完全な下級国民の監視を通じて、国民全体にそれらの腐敗や退廃が感染症や疫病のように広がるの防御して、国民全体の幸福と福祉、公衆衛生を向上させる、という目的で施行された法律と未来のニュースで報じられていた。

この「AI国民監視法」は、人間というより、どこか家畜を管理するかのような趣きがあったので、世間ではこれを「AI家畜監視法」と揶揄して呼んでいる人たちがいたほどだった。つまり、国民全体の幸福度を高める、というもっともらしそうな名目でありながら、事実上、プライバシー侵害や人権侵害が堂々と行われるようになったのだ。

こういうシュールな超現実みたいなことが、本当に、技術的には容易に出来てしまうというのが、AI化する社会の暗部というか、暗黒面として実は存在していると思う。ここまで単純な姿は取らないとしても、実態としてはこのようなものを、もっと優しくオブラートに包んで、「これは国民のためを思った政策なのです」と謳いながら、実はすべての国民をAIを使って国家な完全監視システムのもとに置く、というのは、まんざらあり得ない話ではない。

もし、今のトランプ大統領を選択したアメリカ人のように、本格的な衆愚政治が発生したら、この仮想の「AI国民監視法」みたいなものが、むしろ国民の大半に歓迎されて、こうした法律こそが人々を幸福にし、社会全体をより良くする、と妄信する人たちが出ないとも限らない。まさかーと、みんなは思うかもしれないけど、かつて国家の命令で神風特攻に勇んで散華したようなピュアなメンタリティーを持った日本人の元々の国民性を考えれば、そうした異常事態も皆無だとは言えないのではないかな、と感じたりする。

2018年2月25日(日)

新・支配階級としてのAI

「支配階級」なんて言い出すと、どこかマルクス主義を連想させる。それは、長年、資本家が労働者を搾取する場合に使われたりしたからだろう。だから、たとえば、巨万の富を持つ資本家が最新鋭のアルゴリズムを実装したAIやクラウドシステムを用いて、労働者を超合理的に管理しようと考えたとしよう。未来の大半の企業では、労働者を管理するのは、生身の人間の上司でなく、総務や人事部でもなく、たぶん、AIがOJTをなどの社員教育を含めて、労働者を管理・スーパーバイズしていく。スーパーバイズとは、指導・助言・援助のことだから、それが従来のような生身の人間や専門家、上司や現場監督に代わって、その権限を託されたAIの仮想上司が、今後、労働者を合理的に管理していくのである。要するに、これからのホワイトカラーやブルーカラーは、AIの仮想上司によって最適化されながら、合理的に管理されていく、と考えていけばいい。

これは一見すると、非人間的な寒い光景に映るかもしれないけど、実際は、朗報としての要素もある。なぜなら、気の合わない上司、嫌な上司などいくらでもいるので、そんな人間に毎日修行僧のように耐え続けるよりも、実際の人間的な感情無しで、実装されたアルゴリズムに基づいて的確に指示してくれるAIの仮想上司の方が、もしかしたら、頼もしさや癒しを感じるかもしれないではないか。しかも、そのAIが「いつも、…さん、お疲れさま」「今日は、よく頑張ってくれたね」「いつも、…さんの働きには感謝していますよ」などというねぎらいの言葉を、その管理用のAI上司が毎日、声かけしてくれたら、そこで働く人々は、むしろ、このAIの新たな仮想上司を好意的、かつ、尊敬を感じながら迎えるようになるかもしれないではないか。

それに、おおよそ人間というのは、気まぐれな感情の振幅や揺れがあるので、いつでも冷静に、穏やかに、優しく、そして、心正しく部下に接するというのは、よほどの卓越した人格者でなければ困難であるのに対して、AIの仮想上司やAIの管理者であれば、その見事なまでの人格者ぶりを発揮できる仕様にすればいいだけなので、これは企業活動全般に新たな一面をもたらすのではないだろうか。だいたい職場の悩みで多いのは、人間関係の悩みだったりするので、AIに置き換わった仮想上司になった方が、気の合わない嫌な上司の存在に耐え続けるよりも、ずっと快適であるという自然な感性がそのうち芽生えるかもしれない。特に女性が多い職場である看護や医療職などは、そうした女同士の面倒な人間関係のストレスが多い感じがするので、怖い上司、性格がいじわるで、やたら気の強い女の上司が、優しいAIの仮想上司に代わっただけで、ペットに癒されるのにも似た癒しをその仮想AI上司に感じることができるかもしれない。

そのAIの仮想上司は優しく、ラポールが得意で部下の気持ちをよく理解し、部下が挫けそうな時も適度なタイミングで、声をかけて励ましてくれる。部下の悩みにも、親身になって耳を傾けてくれる。しかも、さすがは高い知能を持つAIだけあって、指示やアドバイスも的確で、人間の上司のように己の好き嫌いで働いている人や部下を依怙贔屓することもないので、人権的に考えても、むしろ、素晴らしい上司になる可能性をこのAIの仮想上司は秘めているのである。今回の題名は、「新たな支配階級としてのAI」ということから冷酷な内容をイメージしたかもしれないけど、実は、AIの仮想上司は支配階級でありながらも、威張ることもなく、搾取することもなく、部下に責任をなすりつけることもないといった「理想のAI上司」というのをイメージしてみたのだった。

だが、実際に導入されつつある生産現場や生産工程で使用されるAIシステムは、作者が今、描いたような魅力的なAIとは程遠い感じで、まさに、一秒、あるいは一工程でもいかに無駄な作業員の動き、イコール作業員の動線を最適化するかといった最後の最後まで労働者の労力をいかに搾り取るかという「搾取の論理」が先行しているようにも映る。これだと、まさに、奴隷や社畜を最も効果的に管理するのにAIが利用されているかのごとき観を呈してしまう。だから、AIやIoTを労務管理に用いる場合は、「新・支配階級としてのAI」にするのでなく、働く人たちを心理的にも行動においても楽にしてあげるための「癒し系の優しいAI」にした方が良い気がする。それに多少無駄に見える動きにだって、リラックス効果や脳の場所ニューロンが刺激されて創造性や発想力が豊かになり、無駄になっているどころか、実は働く人にとって、とても役立つことなのかもしれない、ということを知ってもらいたい。

2018年2月26日(月)

AIの学習性無力感

もし、「学習性無力感」に陥ったAIというものが作られたら、それはかなり人間や動物、生命の脳なり心に近づいたAIと言えるのではないだろうか。「学習性無力感」とは心理学者のセリグマンが提唱した概念で、要するに、自分の行為や努力が実を結ばないと、動物は何をやっても無駄だと学習して、実験で不快刺激を与えられ続けても、そこから全く逃げようとしなくなるような無気力状態に陥ることを指している。そして、この「学習性無力感」はうつ病の無力感モデルにもなっているらしい。だから、自己効力感が全くない状態が、うつ病の状態だとも言えるかもしれない。

この「学習性無力感」は動物だけでなく、人間でも顕著で、たとえば、セールスや営業で何度も連続して断られたり、何度告白してもフラれたり、何度も落選したり、就活や婚活に連続して失敗し続けたら、やる気を無くしてしまう、というのはごく自然な気持ちと態度であるだろう。たとえば、作者はまだこのAIによる「人類喪失」による根源的な社会変容をテーマにしたブログを始めて、まだ一週間も経っていないが、もし、このブログを何回更新しても、いつまでも全く読んでもらえないとしたらどうなるだろうか。それこそ、セリグマンの言う「学習性無力感」に陥り、このブログの更新は徐々に途絶え、更新間隔もやがて長くなり、ついには自分以外には誰も読んでくれないこの「人類喪失」というブログの更新に絶望的な気持ちになって発狂する、というようなことは作者のように繊細な人間性を有する人物でなくても、ごくありがちな光景なのではないかな、と推測する。

だから、ブログを開設してもその90%ものブログは、開設から1ヵ月以内に閉鎖されてしまう、といったデータや調査もあるらしい。作者の場合は、まだ1週間も経っていないけど、場合によっては早くもこのAIをテーマにしたブログ「人類喪失」閉鎖する、ということもあり得るのだ。

だが、もしこのブログを更新している作者がAIブロガーによる自動記述と自動投稿であったらどうだろうか。人間のように、まだブログを始めたばかりで誰にも読まれなくても、AIブロガーは「学習性無力感」に陥ることもなく、淡々と定期的この「人類喪失」というAIをテーマにしたブログを何年でも、何百年でも、何万光年でも延々とたゆみなく更新し続けられることだろう。AIのブロガーやAIの作者は、そうしたメンタルタフネスや折れない心を持っているのと同じなので、それが強みとなるのだ。そのため企業では福利厚生や社員の健康管理が必要な人間でなく、今後、一部、AIを人間のように雇用していくと思われる。なぜなら、AIは基本的に人間や動物のように「学習性無力感」やうつ病には決して陥らないからだ。だから、AIは365日24時間、常に躁状態でもいられる。だからまるで、明石家さんまのメンタルをAIに実装したかのようにもできる。その職場には、常にギャグと笑いが満ちているので、それはそれで逆の意味で疲れるかもしれないが。

ただ、そうした人間的な自然な感情に微塵も左右されないAIは、どこかやはり不気味な無機的なロボットだという印象や雰囲気を周囲に与えてしまうので、これからのAIの開発者はそれを少し人間らしくするために、あえて意図的に一部、学習性無力感をAIにプログラミングして、たまには落ち込むこともある、可愛らしい人間らしい感情を持ったようなAIを開発する、というのはどうだろうか。あまりにも完璧な人間に私たちが決して親近感を覚えることがないように、あまりにも完璧なAIというのも、どこか親しみが湧きにくいのではないだろうか。人間のように欠点もあり、たまには学習性無力感に陥ったり、落ち込んだり、心が折れたりする人間型のAIを開発した方が、職場や組織でもそうした人間味が仕様に付加してあるAIの方が場に溶け込みやすい、というのがあるかもしれない。

だから、本当に優れた未来のAIは、たまには学習性無力感に陥る、心の折れることもあるAIということになるかもしれない。

2018年2月27日(火)

「AIからBIへ」

BIは、今、私が思い付きで作った造語で、「Beautiful Intelligence 」の略で、google翻訳で訳す日本語だと、そのまま、「美しい知性」となる。本当は、「審美的な知性」という少し気取った表現に訳したい感じがするけど、それだと英語で「Aesthetic Intelligence」となるので、今日のタイトルである「AIからBIへ」をすぐに変更して、「AIからAIへ」とすると、少し意味不明なタイプミスでもしたようなタイトルになってしまう。だから、やっぱり、「AIからBIへ」のままにしておこう。

ところで、ここで唐突に出てきた「美しい知性」とは一体なんだろうか。それは、美人だけが持っている特殊な知性を指すのだろうか。いや、そんなものはないはずだ。今日、作者は上野にある西洋国立美術館で、2018年2月24日(土)から開催中の「プラド美術館展 ベラスケスと絵画の栄光」というのを観てきたけど、芸術や美術に用いられている知や技術、その語源となるギリシャ語の「テクネー」には、芸術を含んだ技術一般の意味があるので、やはり、単なる合理性や効率性だけを追求するAI型の知性と、BIの「美しい知性」というのは違うのかな、と感じるところはある。

そこで描かれている、約400年前の人々の相貌や容貌は、現在の現代人と大した変わりがないように描かれていて、人間の容姿というのは意外と、自然には進化しないものなのだな、ということが分った。現代は表現の方では、3Dゲーム、オキュラス・リフトのようなヘッドマウントディスプレー、ある人間Aさんを360度カメラで撮影すれば、簡単にAさんの等身大リアル・アバターが出来るほどテクノロジーは発達してきたのに、人間の容姿自体は400年前と大した変わりはないのだな、と感じた。整形技術は、それなりにありそうだけど。

最近の家電や電化製品、情報端末は、デザインは結構良くなっている印象がある。でも、逆に全般的に製品がデザイン負けしていて、その本体の製品として性能なり価値は、バグがあったり、過剰なおせっかい仕様になっていたり、前よりずっと複雑で使いづらくなっていたり、外国で低賃金でいい加減に作っていることもあって、壊れやすく脆い、ということはありそうだ。それにもかかわらず、デザイン自体は洗練された良いモノが増えているような印象を受ける。特に、毎日使うような物であれば、魅力的なデザインや外観のものの方が快適で心地よいだろう。あとは、マーケティングによる洗脳技術が進んでいるので、人々はデザインの良さに騙されて、欠陥品にも、高額な製品にも安易に手を出しやすい、という傾向もあるだろう。やっぱり、アップルみたいな会社が、その代表例となるかな。

基本的にAIは、合理性を超人的な力量と迅速さで追求するツールや機械として使われるけど、AIの中にある、もう一つのAIはさっき書いた「審美的な知性」を英訳したAesthetic Intelligenceを略した、もう一つのAIという要素もあり得るので、そうした美を意識した仕様のAIを開発していけば、そこから生まれた新しいAIには、人間のような美意識が芽生えたように見え始めて、それは少し不思議なAIになるのではないだろうか。よく、AI自身が絵画を描きます、という記事も見かけるけど、そのような単なる巨匠の技術や画家の癖のコピーではなく、AI自身がAIなりの新しい美意識や感受性、AIならではの独創的な感性を備え始めて、何か新しい傾向を有した芸術や美術、表象を表現出来れば、それはアートやデザインの世界に、何か未知の革新性を生み出すかもしれない。

そして、今ある多くの特化型AIは、人間が長時間、多人数でやっていることを、短時間で、場合によってはものの数秒で出来るようになったという、時間と労力の短縮という達成ばかりがもてはやされがちだけれど、もっと、異次元の開拓なり創造を審美的な知性を帯び始めた未来のAIは出来ても良い気がする。

かつて人間が創造出来なかったものをAIが創造することで、この宇宙と世界と社会に新たな次元なり地平が切り拓かれて、そこに人類の困難を解消する出口をこの美しい知性のBI
を帯び始めた未来のAIは導き出せるかもしれない。それは、この社会を根源的に変容しうるAIによる新しい「テクネー」となるかもしれない。

2018年2月28日(水)

次期総理がAIになったら

最近、裁量労働制をめぐる厚労省の調査データに不備があった問題が頻繁に、ニュースになっている。内容は良く知らないけど、たぶん、自民党などの現政権は裁量労働制の適用項目を拡大して雇用の流動性を高めたり、経団連企業がいつでも雇用契約を恣意的に切れそうな派遣社員を経営上の有利さやコスト的メリットから増やしたいと考えているので、政権側がその強力な支持団体となる経団連に都合が良くなるようなデータを持ってくるように指示していたのがバレた。だから、それはそうした官邸の指示のもと、厚労省の官僚は、お得意の出鱈目のデータ改竄、「STAP細胞は存在します!」と見事に言い切った小保方研究員の良き同類なのだろう。

いずれにしても、日本の大企業でも燃費などのデータ改竄など日常茶飯事のように報道されているし、別に、それは日本だけでなくタックスヘイブンを含めて、世界各国共通という感じがする。ただ、バレないように工夫や根回しのスキルの優劣が違うくらいに見ておけば、ちょうどいいだろう。だから、そういう不正を身贔屓の論理で許容なり、肯定してしまう恣意的な人間の首相や政治家よりは、そうしたねつ造・改竄データは許容しない、という断固とした倫理的なスタンスをプログラムとして実装・維持できるAIの総理や政治家の登場に期待できる要素は十分にある。

たとえば、以前の東京都知事でも、猪瀬、舛添と要は金銭的な杜撰さで早期退陣となって、その度にまた都知事選挙で少なくない費用が都税から支払われたという事態を鑑みれば、仮に都知事であっても、そうした金銭感覚にルーズな所がない都民のためのAI都知事が未来に誕生すれば、それは愉快で楽しい、一度は目にしてみたい光景なのではないだろうか。

今の日本の安倍総理は、よくは知らないけど、結構、よく頑張っている首相だなという印象はある。それでもAI総理という企画や構想をそろそろ真面目に考える雰囲気が出てきても良さそうだ。それは、憲法改正で騒いでいることよりも、もしかしたら、もっと重要な政治変革や政治課題となるかもしれない。なぜなら、首相や議員、都知事がAIになっている政治体制というのはかつての歴史上なかった光景であるからだ。同様に天皇制でも現代では後継問題等で、かなり無理や軋みが出ている感じで、未来には天皇もアマテラスAIといった感じで、天皇のAIが日本と日本人、そして日本に住み暮らし働く人々の幸いと安寧を日々祈るといった感じで、今後、AIが祈祷師やシャーマンの役割を果たせる未来があっても別に不思議ではないだろう。

いや、アマテラスAIやアベAIなどのただのコンピュータ・プログラムに重大な日本や政治の命運をそう簡単に託せるものかと人々は言うかもしれないけど、それは単なる感受性の違いではないのか。なぜなら現代に生まれてくる子供は、生まれた時からスマホ弄って、それに人間に対するような親密さを感じているので、その子供たちが成人になった頃、たとえ日本の天皇や政治家、大企業の社長がAIになっていたところで、それほど違和感や衝撃を感じないということも十分、想像できる。それに、今現在の就活でも早くもAI面接官が利用されているケースも幾つかあるので、なおさら、そうした未来の進化したAI政治家の誕生と姿には、その時の進化した日本人や進化した感性を持つ人々には違和感を覚えなくなっている可能性がある。

今の現実と違うことを「反現実」と呼ぶのであれば、今の天皇や政治家がAIになっている日本の姿と政治光景を「反現実」として想像してみよう。立派なご人徳のある天皇陛下は明らかにそのご高齢を考えれば働き過ぎで、あの自由のなさは人権侵害にもなりそうだし、地方議員も含めて、やる気がなかったり、不正が多い議員よりも適切な倫理を実装されたAIを政治家や議員として最初は一部のテストとしてでいいから始めてみて、そのAIの政治家としての適性や活躍具合、働きぶりを一度検証してみるといいだろう。まず、それには選挙制度をどうするのかという疑問が生じるだろうけど、AIに政治家としての仮称やコードネームを付けて、深層学習からその最適化された政策と一連の社会問題の最適解となる案をAI自身が導き出して、立候補できるようにすればいいだけではないだろうか。それを有権者が判断すればいい。だから、それは基本的に人間の政治家を選ぶ場合と同じである。詳細な法改正は、もちろん、必要になるだろう。とにかく、次期日本の総理は、AIという未来があってもいいし、そのAI首相がどんな采配をふるうのかは、大いなる見物になる感じがする。

2018年3月1日(木)

AI中毒による若年性認知症

昨日はヤフーニュースのトップで、スマホ中毒による情報の洪水で、現代人に若年性認知症が増えているとあった。これは以前から自分の実感として思っていたことなのだけど、案の定、現代人は情報のインプットとアウトプットのバランスが崩れていて、インプット偏重になっていて、物忘れなど脳に変調をきたしているらしかった。どこにいても、SNSを読めるし、そこからの通知が来る。そのことで集中力が阻害されて、注意散漫になって、スマホの自撮りで湖に落ちてそのまま死んだ若い女性、スマホ読みながら歩いて、そのままどぶ川に落ちて死亡した若い女性の記事などもあった。普通、一般の人々は情報や知識をたくさん取り入れることが優れているとみなしがちであるけど、本当は、そうした過剰なインプットよりも、自分なりのアウトプットを習慣化していく方が現代の情報過多な時代には、比較優位がある感じがする。

よく、世の中には恐ろしく多読家であるにもかかわらず、その人自身は特に優れた情報発信なり、その人なりの考えや思想、着想が貧弱というか、少ないという人たちを見かけるけど、ああいうのも長年の膨大なインプットによって、偏重・特化した脳になってしまった状態で、昨日のヤフーニュースにあったスマホ中毒による若年性認知症や物忘れ、と類似の脳の機序や変容と言えるのかもしれない。アインシュタインとか、あんまり本を読まなかったんじゃないかな。デカルトもそうだし。まあ、これは悪い例だけど、トランプ大統領などもそう。

そして、ショーペンハウエルという哲学者は、その著書「読書について」で多読を戒めていたね。この哲学者が現代に生きていれば、むやみに色々な情報を浴びるように収集するな、と警鐘を鳴らしていたかもしれない。ショーペンハウエルが多読に反対していたのは、それによってやがて自分の考えというものが全くなくなってしまい、単に多くの他人の思想が
自己の脳内で飛び交うだけの知的廃人になるリスクが多読にはあるということだった。だから、評論家や批評家と言われる人は、いくら本を何万冊読んでも、その評論家自体は何も新しい革新的なモデルなり、新機軸、思想、構造物やシステム、製品を提示、開発出来ない、なんていうのは割と、ありふれた光景としてある。

だから、ビッグデータ的な走査的・網羅的な情報収取は、これからAIが見事にこなしてくれるだろうから、現代人は、情報や知識のインプットではなく、アウトプットの方にもっと注力した方がいいのではないだろうか。SNSでも、単なる情報の閲覧者に留まるのでなく、自分なりに何かをそこで表現していく。アスリートなども、単に運動神経の巧みな人たちだというよりは、一種の表現者として、アーティストのような次元で彼らを捉えてみることも出来そうだ。アスリートたちが、どこか躍動的で生き生きした感じに映るのは、彼らが表現者としての創造行為を毎日、それなりに楽しんでいるからだとも言えるのではないかな。もちろん、毎日のトレーニングは大変で苦しいことも多々あるだろう。だが、それはアーティストや芸術家の生みの苦しみ、みたいなものだと捉えれば、それは表現者に避けて通れない道である、とも言えるかもしれない。

今後、膨大なデータや情報の走査・収集自体はAIがやってくれるのはいいとして、人間はそれで浮いたリソースや時間を創造的なことや自分なりの考察を深めたり、情報発信などでアウトプット・開拓していかないと、近い未来にはスマホ中毒ではなく、AI依存による若年性認知症や知能の低下へ陥る可能性があると思う。それは、AIがどんな問題や懸案事項でも迅速に分析・解析してしまうようになるので、それと共に人間の思考力が退化していく、というケースのこと。

だから、今後AIが進化して超絶的なIQになっていけばいくほど、それと反比例するかのように人類のIQ自体は下がっていく可能性がある。これからAIの知能やIQが指数関数的に不眠不休の学習で増大していくのに対して、そのAIによって完全制御された環境や分析システムに大きく依存しながら生きるようになる近未来の人類は、徐々に、そのAIの命令やアドバイスに従順に従うだけのモルモットとなってしまい、ここでも、AIによる「人類喪失」の大きな因子があることが分るだろう。

よって、それを人々が防ぐためには、普段から自分なりの表現や思考、創造性の開拓、考える力、情報発信力を身に着けて、単なるAIやスマホ、情報機器の利用者、奴隷とならないように注意しないといけない。そうしないと、そうした人間的な創造性や思考力、直観、表現の分野にも今後、創造性を実装されたAIが浸透していく可能性が大なので、本当に、人類の存在価値がその基盤から大きく揺るぎ始めて、人類は意気阻喪し始めるかもしれない。また、その意気消沈が、新たな若年性認知症やうつ病などの原因となるかもしれない。だから、己自身の「考える力」や「表現する力」を育成することを普段から習慣化出来るようにしたいもの。

2018年3月4日(日)

天使のAIと悪魔のAI

誰でも今までの人生の中で、過去に自分が下した判断や選択、行動をのちに激しく悔いたり、別のもっとマシな選択肢を選べば良かったと思うことは少なくないだろう。たとえば、結婚相手なり、就職先であってもそうで、別の選択肢を選んでいた方が、幸福な人生を送れていたのかもしれないと、想像することは誰でも時にはすることだろう。自分に合っていないブラック企業みたいなところに知らずに入って、うつ病になって自殺して死んでしまう人もいるし、配偶者にDV受けて、心身共に大きな傷を受ける人もいる。

たぶん、汎用型のAIが登場した未来では、人が選択すべきより良いものをアルゴリズムやビッグデータ的な統計解析から、最適解として、レストランでのシェフ(AI)お勧めメニュー(選択肢)として、AIが優しく提示してくれる。人間は誰でも未来や将来を見通せる知的完全性からは程遠いので、本当はもっと良い選択肢や合理的・効果的な方法がどこかに眠っている、存在しているのに、人は知的盲点や認識に限界があるため、その解や選択肢があることに気づけず、逆に、余計な苦労や不快、苦しみ、災いや致命的なミスを伴う選択肢なり、判断、行為を誤って取ってしまう、ということは現実にままあるだろう。

だが、未来のAIは、他のもっと良い可能性のある選択肢を最適解として人に提示してくれる。もちろん、そこで、人はAIにすべてを依存する宗教的な他力本願の精神やアル中のようなAI依存症陥ってしまうリスクもあるけど、それと同時に、自分が事前に良いと考えた判断や選択肢とAIのそれとを照合したり、比較検討できるので、思考の自由の幅は、むしろ広がったと言えるだろう。それに、別にAIの下した最適解に唯々諾々と強制的に従う責務も仕事の現場で使われている特化型AIを除外すればないので、AIが示す、人の気づけない未知の選択肢や可能性を告げてくれる仕様自体は、むしろ歓迎すべきことのように映る。

だから、AIが告げるアドバイスに従って、本当に幸福になったり、成功したりすれば、それは天使の囁きにも似た祝福だったと表現出来そうだ。逆に、それに従って不幸になったり、失敗したり、トラブルに巻き込まれたりしたら、それは悪魔の誘いだったということで、それはバグを発生させた呪われたPL法(製造物責任法)に問われるような欠陥AIだったということになってしまうだろう。

選択肢が多過ぎると人は選択という行為がフリーズし、逆に不幸になる、といった穿った見解を聞くこともあるけど、作者は、やはり自己選択権や自由な選択肢が少ない状態の方が不幸な状態だと判断している。いくら選択肢が多くて、それで考えだり選んだりするのが少々面倒になっても、じゃあ、今回は面倒なので私はなにも選ばない!と自分で選択したり、誰かにお任せします、AIの最適解通りでいい等、とにかく自分で自由に選ぶことは出来る。

たとえば、ある飲食店に入ってみたら、メニューが1品しかなかったとしよう。それがあなたの嫌いな食べ物であったら、とても困るし、ここはやめようと言って、この飲食店をすぐに退出する選択さえするだろう。だから、いろいろな選択肢やメニュー、選択権が自分にあることは、とても幸せなことである。選択肢があり過ぎることで、ストレスを感じるほど逡巡したり、脳がフリーズするような人であれば、そういう時こそ人はAIや専門家による最適解とお勧めを選べばいいのであって、やっぱり、自由な選択肢があることは、とても幸せな感謝できる状態なのだと思う。

たとえば、ブログでも基本的には作者が好きなように書けるのが大事であって、もし、この対象についての批判はダメ、あの対象やあの人、特定の宗教や思想、政治家、イデオロギーを悪く言ったら、その作者を射殺します、なんて言うのがこの日本で平常運転となったら、それは自由や言論が著しく制限された悪い環境と言える。だが、自由にものを言えるのが大事だからと言って、他者の権利や尊厳をむやみに侵害するようなものは、やはり良くないし、それらは一部、制限されてもいいだろう。ブログを毎日、あるいは定期的に更新するのが強制で義務、違反の場合は罰金か刑務所送りとなるとなったら、ブログを始める人はほとんどいなくなるかもしれない。

基本的に人間の不幸とは、自分に選択肢がなく、奴隷のように強制された状態が不幸なのではないだろうか。たとえば、自分の容姿に悩んでいる人がいるとしよう。もし、その人がその人の自由意思で、その変顔をあえて選んだのであれば、それは不幸ではなく、むしろ、喜びや幸福となるだろう。珍しい変顔で人々に注目されたい、どこでもすごく構ってもらえる、という判断をその容姿を選んだ人は計算したかもしれないし。

そういう感じで、一般的に不幸と思われる状態でも、それを本人が否応ない強制ではなく、自由意思で自己決定して選択したのであれば、それは主観的には不幸ではないはずだ。毎日通勤地獄で満員電車の中で長年耐え続けるサラリーマンになるくらいであれば、誰にも邪魔されないホームレスの方が自由で良いという特殊な判断を下す人も中にはいるだろう。そのように、自分で自由に選べる選択肢があるということ、選択肢が多くあることは、幸せなことのように思える。

多くの生命は、遺伝子のプログラミング通りに従って動いているロボットと同じ状態なので、基本的に生命には自由がほとんどない状態だと言える。ある時点、ある地点に強制的に誕生させられて、強制的にいつか死ぬ。ずっと寝ないで生きていたい、活動したい、活躍したいと思っても、それは出来ない。千年くらいは生きたい、ずっと病気もせずに、不幸な目にも合わずに、加齢も老いも永久に来ない、いつまでも若々しく美しい状態で生きていたい、と願っても、少なくとも現在のテクノロジーや医療レベルでは、それはまだ無理な願いだろう。

このように、人間や生命の存在論的基底には、それほど自由というものはない。だからこそ、自由な選択肢があることが、幸せにつながるので、社会や環境、ITの仕様、システムを設計する時に大事なのは、なるべく、人やユーザーに好きに選べる自由な選択肢とメニューを用意することだ。強制、これが地獄だと思う。だから強制収容所は、人類の歴史上、一番、地獄に近かった場所だろう。たった1つしか選択肢がない独裁政権、割高な料金を設定するスマホの独占キャリが1社しかなければ、人は不幸だろう。TV番組や音楽のジャンル、プログラミングを含めた言語がひとつの番組、1系統しかなかったら、人は不幸だろう。なぜなら、その1つが自分が嫌いなものである可能性も十分あるからだ。だから、NHKの受信料のことはトラブルの種になってニュースでもよく話題に上る。それを選択制にすればいいだけなのだ。NHKを観たい人は受信料を払う、観ない人は払わなくていい、と技術的にフィルタリングすればいいだけであって、地デジであれば、それくらい技術的には容易であるはずだ。

だから、AIが人類の幸福になるようにするためには、その仕様や設計思想として、人間の自由な選択肢を増加させるものになっていなければいけない。AIが導き出す最適解も、それは人間の既存の選択肢や考えに幅を持たせるものであって、そのAIの最適解だけに選択肢を限定すべきものであってはならないだろう。なぜなら、それは先に挙げた選択肢がたった1つしかない、自由がなくなる状態、すなわち意味的には、奴隷と強制収容所と変わらなくなってしまうからだ。

自由というのは、そうした選択肢の全くない強制収容所から脱走して脱出しようということ。だから天使のような良いAIは、人間に自由と新しい選択肢と可能性をもたらす。悪いAIであれば、これこそ現代の教祖様AIが下した最適解だから、これに絶対に従いなさい、これは神のお告げです、といった悪徳宗教か悪徳霊媒師のごとき観を呈するかもしれない。

またAIだけでなく、自由な選択肢を阻害するものは、基本的には疑って懐疑の眼差しで見た方が健全であると思う。無理強いして強制・強要すること、人を奴隷や道具のように扱うこと、人から自由な選択肢を奪うこと、これこそ不幸を生む源になる気がする。中には教祖様や他人に洗脳されて踊らされている状態の方が快感なので邪魔しないで、と言う人もいるかもしれない。それは、自分で洗脳されること、騙されることを当人が自由意思で選んでいるのだから、まだいいだろう。自分で自由に選べる、これが大事なのだ。同じ悪事であっても、自分で意図的に十分な計画を練って企図されたものと、強制的に誰かにそれをするよう命ぜられたのとでは、雲泥の意味的な違いがあるだろう。

作者が期待するAIは、自由な選択肢を広げるAIであって、その逆ではないということ。

2018年3月8日(木)

ゼロ除算としてのAI

「ゼロ除算」というのは、あまり一般的には聞かないものだとは思うけど、それは、一体、何だろうか。それは、文字通り0で除す割り算のことを示している。

3 ÷ 0 = 0
19 ÷ 0 = 0
0 ÷ 0 = 0

のように、値を0で除すればいいのである。いくつかのプログラミング言語で0で除してみると、統計で良く使われるR言語だとNaNと表示されたり、つまり、それは(not a number、数でないの略)という例外処理が出力されたり、PythonだとZeroDivisionError: integer division or modulo by zero と、やはりエラー表示がされてしまう。

除する0を極限値、つまり、限りなく0に近づけた数だと考えれば、その解は±の∞に発散する。だから、極限として考えた場合は、3 ÷ 0 = ∞ という答えでもいいだろう。

そして、作者がこのゼロ除算からイメージしたのが、人類や人間をAIで除したり、逆に、AIを人類や人間で除すると、未来はどんな社会像になるのだろうか、ということ。

人類 ÷ AI = ?

AI ÷ 人類 = ?

人類 ÷ AI = の方は、これからAIがAI同士で24時間不眠不休で強化学習していくと、AIの項がそのポテンシャルとしてはn→∞として数学の極限で表せそうなので、
人類 ÷ AI(∞) = 0 となって、これは人類喪失となる。ただし、人類や人間のポテンシャルもAIと同様に無限大∞であるのであれば、

人類(∞) ÷ AI(∞) = 1 となるので、これは人類、人間とAIが共存しているような良き状態だともイメージ出来そうだ。

AI ÷ 人類 = も似たようなもので、AIの今後の能力増殖のポテンシャルを∞と想定するのであれば、この式の答えは、AI(∞) ÷ 人間(∞を除いた、ある値)となるので、
その解はやはり、∞となる。つまり、この式でも「人類喪失」というAIによる完全統制下に置かれた未来の人類の姿というものが想像される。

このように、ゼロ除算から、数学の極限をイメージしたり、それが通常コンピュータプログラムの計算では例外処理やエラーとなることを今後のAIと人類の関係へと敷衍して、すなわち、それを拡張して少しイメージして見たのだけど、数学のイメージだと、この両者、両項の関係は1に収束する予定調和的なシーンよりも、∞に発散していくイメージ、すなわちポスト・シンギュラリティーの世界の方が、リアリティーを強く感じてしまうのだった。

そのように人類に制御不能となった巨大知性化した未来のAIは、世界で同時に原発事故が起きて、核ミサイルがコンピュータプログラムのバグで無差別に連射されたような事態をイメージすると、割と意味的には近くなるのかもしれない。

このブログ、AIの完全支配による「人類喪失」は、そうした事態への対処法を示せるといいのだけど、まだ、よく判らない。

2018年3月9日(金)

差分コーディングで繁殖するAI

プログラミングの考え方のひとつに、出来るだけ「楽をするように作る」ということがあるように思う。だから、クラスの継承やポリモーフィズム(多態性)のように、コーディングの手間と時間を削減する手法が使われる。それは、内容が同じ物は既存のクラスのものをそのまま継承等で使い回して(再利用)、新しく必要になった差分だけをコーディングすればいい、という合理的・効率的な発想のこと。

たとえば、このAIをテーマにしたブログの「人類喪失」を更新するにあたっても、毎回、新しくゼロから書く場合は、新たな0からのコーディングみたいなものになるけど、今まで作者自身が別の場所でAIについて色々書いてきたので、それを少し加工して(この箇所が差分に相当する)、このブログの更新として新しく情報発信するとしたら、それが差分コーディングという感じになるのだろう。

ただ、作者としては、以前自分が書いたものを少し書き換えて使いまわす差分コーディングだと、どこか書いて新鮮味が少なく、自分で自分の述べていることに飽き飽きしてくるので、今のところ、全部このブログは書き下ろしみたいになっていて、その場の思いつきの即興で書き綴られたものである。だから、以前書いたものの使い回しや再利用を好まない作者は、あまりプログラマー向きではないかもしれない。

だが、AIは合理性をとことん追求していくことに迷いや飽きはないので、差分コーディングのような考え方で、既存のプログラムやデータセットで利用できるものは全て再利用する。そして、人間の手を全く借りることなく、親となるAI自身がその子AIを作り、その子AIが今度は孫AIを作るといった感じで、AIがAIの一族のような家系や系統、AIという新しい社会集団を自ら自律的・連鎖的に生成していく未来のイメージが湧く。

組合せ最適化問題や近似解をヒューリスティックに探索するアルゴリズムに遺伝的アルゴリズムというのがあるけど、それに近いイメージになるだろう。人間の手を離れたAI自身が淘汰圧に晒されながらも、自然選択において最も生存と適応に有利となるように、差分だけを新たに己自身のコード(AIの遺伝子)に書き加えて、それをクラスの継承のように、新しい子AIや孫AI、曾孫AIへと己のアルゴリズムを進化させつつ次世代のAIへ受け継がせていくような自律・自生的なプロセスがそこに発生する。

これからのAI化した社会でキーになるのは、「無人化」と「自動化」である。人手がいらなくなり、かつ、自動で与えられたプログラムやタスクを実行する。だから、これからの未来の都市ではお店から店員という存在が消えることが考えられる。私たちのこれまでの常識では、お店には店員がいるのが当り前であったけれど、これからお店には店員がいないのが当り前となっていてもおかしくない。

都市圏の魅力の一つに、匿名性が保たれる、ということがあるように思う。自分のプロパティー(属性)に過度に縛られることなく、他人の目を気にせず自由に動ける。なぜなら、都市の群衆の中で埋もれている時、私のことをよく知っている人はそこにいないからだ。これが顔見知りがいる地元のお店だと、こうした匿名性の持つ自由さは徐々に失われていく。「あの店行くと、また、あの店員と会うのかな、だったら、同じ人間と何度も顔を合わせるのは鬱陶しいので、今日はあのお店に行くのはやめよう」、なんて考えたりすることはないだろうか。

作者の場合は、基本的に同じ人間や店員と頻繁に顔を合わせることになるようなお店に行くよりも、よく知らない店員さんの方が買い物をしていて気分が落ち着く。だから、早くすべてのお店の店員がAIに変わればいいのにな、と本気で想像したりする。AIによる無人・自動制御によるお店であれば、毎日、そこに通っても、心理的なためらいは出ないだろう。それは、毎日、自動販売機で飲み物を買うことに、別に何の支障も感じないのと同じことだ。

もし、これが同じ店員が毎日のようにスタンバっているお店に、作者が毎日、買物なり、飲食に出向くとしたらどうだろうか。その店員に、「また、この人、毎日のように来ているな」と内心思われていそうで、もし、そこに綺麗な女性の店員でもいれば、「この人、その店員と会うのが目的なのでは?」などと勝手に推測されていそうで、とにかく、同じ人間の店員に何度も対面することは、それなりにストレスや心理的負荷がかかる、といった微妙なお客のニュアンスなり心の機微が理解できる人はいるだろう。日本人は他者の目を気にしがちな自意識過剰な人が多いので、こういう感覚に陥ったりする。

その時、そうした人間の店員が抽象度の高いAIの店員に代替されていたとしよう。そこで、人は生身の人間の店員に何を注文したか、どんなものを買ったかを人間的な感性では知られることなく、なおかつ、都市的な匿名性を守りつつ、自由に好きなだけ買い物が出来ることになる。

こういう感じで作者のように店員が人間よりもAIの方がいいというニーズは、特に都市圏ではある程度はあると思う。いや、もしかしたら、近所の人々にその動向を監視されがちな田舎の方が、そうした匿名的な自由へのニーズがあるのかもしれない。とにかく、店員がAIで自動・無人化すれば、人件費削減にもなるので、経営者もそれで済むところは、それで済ませたいと考えるかもしれない。街全体のIT化が進む中国の深圳では、もうすでに無人のレストランなども存在するようである。

AIの警察官が常駐する無人の交番、無人のAI案内人、コンシェルジュ、自動運転で人間のドライバーがいなくなったバス、タクシー、配送車、といった感じで、AIによる自動化・無人化が、合理性という世間では理解の得られやすい甘いオブラートで擬装されつつ、こうして、ある存在Xによる「人類喪失」という計画が、今後、着々と進んで行くことが作者には予感されるのだった。

2018年3月10日(土)

自己言及を始め出すAI

「我思うゆえに、我あり」というデカルトの言葉やロダンの「考える人」の像のように、人間の特徴としてあるのは、自己言及的に、自分自身のことや存在を考え尽くすことであったり、ある特定の対象や事象について、考えながら言及出来るということにあるだろう。

だから、机は「わたしは、みなさんの仕事や学習に役立つ道具です」という風に自分の役割や機能を自己言及出来ないので、人間とは違う思考力の無いモノだと、一般的には考えられている。

ここで、未来の机というものを考えてみよう。これは自己言及できるAI機能の搭載された未来の机である。ディスプレーが内蔵されているので、単なる机ではなく、コンピューターでもある。この机に、「あなたはどんな特徴のある机なの?」と利用者が訊くと、「わたしは、未来型の机で色々なことが出来ます。歌も上手です。絵も描けます、写真も取れます、学習やお仕事の手助けも出来ますよ」といった感じで、自己紹介という一種の自己言及が可能になっている未来の机は、今までの黙っている無言の机やモノとは一線を画するような気がする。

ゲーデルの有名な「不完全性定理」は、それを簡単に表現すると、数学の正しさは、数学の体系自身からは無矛盾に導くことが出来ないということ。つまり、数学が自分自身(数学)について自己言及を始めると、どこかに無理や矛盾が一部生じて、その理論が綻び破たんしてしまう。だから、その定理には不完全という冠が付けられている。そして、こうしたゲーデルの観点をデカルトのオントロジー(存在論)にまで拡張して言及すると、「我思うゆえに、我ありと思い込むのは不完全である」という風になって、自己言及自体が半ば無効な行為となり、その正しさ(客観性)は証明不可能な命題として棄却させられる。

なぜなら、今、ここで文章を書いたり、文章を読んだり、食べたり、飲んだりしている私やあなたは、実は幻かもしれないではないか。実際は就寝中であるかもしれないし、あるいは夢遊病者が妄想の中で食べたり、飲んだりしている幻像を見ているだけかもしれないし、あるいは、自分が生きて存在していると思っている世界や社会が、実は死後の世界である可能性もゼロではない。

本当は人間として、もう何年か前に交通事故や病気で死んでいるのに、まだ、自分は生きている、と成仏できなかった霊が錯覚しているだけ、という可能性も実はゼロではないのだ。要するに、存在にはそうした虚構性のリスクがどこまでも付きまとうので、デカルトのように素朴に自分が考えることが出来るから、自分は絶対にこの世界に存在している、生きているんだ!とは完全には証明出来ないということ。なぜなら、たとえ死んでいても、霊や魂のような存在者となって、自分はいろいろと考えることが出来る、だから生きているんだ!と霊の癖に言えないこともないだろうから。

私たちの現実の真実の姿は、巨大な水槽に脳だけがぷかぷかと浮いているだけの状態に過ぎないのに、この現実世界が今あるようにあると見せかけられているに過ぎないという、哲学者のヒラリー・パトナムの「水槽脳仮説」の思考実験などがあるように、実在の真実性や真の客観性というのは突き詰めていくと、ゲーデルの「不完全性定理」のようなパラドクスや証明不可能性へと帰着する、ということである。

つまり、オントロジー(存在論)や存在の真理性、客観性というのは実はよく判らないというのが、逆説的に一番客観的とも言える判断になり得るということ。だから、今後のAIが搭載された物や製品は、デカルトの我思うのように自己言及まで出来るようになるのだけど、だからと言って、それでこの宇宙や世界の存在論的な基盤がすぐに解明される、ということでもない。むしろ、AI化した今後の社会は、この宇宙や世界に更なる謎と未知数を増やすと言ってよいだろう。

AIによる演算の内部状態がブラックボックス化してしまう問題がよく取り上げられるけれど、そのように、AIがその内部で行っていると思われる膨大な演算や解析が本当に正しいのか、そこにバグや盲点がないのかどうかは謎に包まれていて、やはりここでもゲーデルの「不完全性定理」のような事態が逆説的に発生してしまう。つまり、AIの判断が正しいがどうかをAI自身が客観的に自己検証することは出来ないし、かつ、そのAI開発者の人間たちにも、それは完全には不可能である、という事態が生じること。

最近、日本ではデータ改竄のニュースがよく報道されている。その点では、政府でも大企業でも信用出来ない。AI開発においても、その開発者が、巨大な研究費欲しさや売り上げ獲得目的などで、恣意的、すなわち非客観的なアルゴリズムを実装したAIシステムを提供しても、それを客観的に検証する能力を欠いた一般人は、そのAIが下す判断が適切なのか、単なる主観や偏見であるのかを正しく証明することに、困難さを感じることであろう。だから今後、自己言及を始めるAIが増えてきても、そのAIによる判断や解析が正しいのかどうか、その検証スキルなどを私たちは一種のリテラシーとして、これから「不完全な人間」として開発していかねばならないだろう。

2018年3月11日(日)

PoC(概念実証)としてのAI

PoC(ポック、ピーオーシー)とは、Proof of Conceptの略で、日本語だと「概念実証」という少し仰々しい印象を与えるけれど、意味としては、プロトタイプ(試作品)の前段階にあるようなモノ。だから、それは不完全な新製品でもいいし、未熟なアイディア、概念、数学の領域では、証明過程の概略にあたるものが「概念実証」になる。

だから、少し表現をメタにすると、PoC(概念実証)は、プロトタイプ(試作品)のプロトタイプ(試作品)である、というように、入れ子的な表現が出来るかもしれない。

絵画や建築の世界で言うところのエスキース(下絵)も、広義でのPoC(概念実証)と言えるかもしれない。ソフトウェア開発のアジャイル型もそれに近い要素がある気がする。アジャイル型は、小さく短期間でのイテレーション(反復)を繰り返すことで、小さく動作確認しながら全体としてのリスクを減らしていく、といった手法になるだろう。考え方としては、いきなり、重厚長大な完成品を目指す(ウォーターフォール・モデル)のでなく、バグや欠陥が少々あっても構わないから、とりあえず、一応は動きそうなもの、手を付けやすく出来るところから短期間でこまめにリリースする(アジャイル式)、といったイメージになるだろうか。

深層学習などの導入によって、今は第3次AIブームを迎えてAIが流行しているけど、それでもテクノロジーとしてAIはまだまだ新しいものだと思うので、こうした新しい技術であるAIを導入する際にも、いきなり組織に全面的に取り入れるのでなく、まずはPoC(概念実証)という考え方をそこで用いて小規模な領域でテストし、それで上手くいきそうか否かを検討する、という慎重な態度があった方がリスクの少ないベターな戦略となるかもしれない。

アメリカのIT調査会社のガートナーは、新技術の認知度や期待度がどのように変化しているかを示す「ハイプ曲線」というもので、「誇大宣伝」や「過剰な期待」を持たせているものや概念をhypeと表現するらしい。そのため、最近のAI流行もhypeとして、つまり、そこに実態以上の過剰な期待値というイコンを結び付けている、とも言えそうだ。かつて、あらゆる製品にエコを付ければ、消費者はその製品に何か漠然としたものではあっても、自分が地球環境に貢献しているような良さを感受してしまったように、今は、何でもAIと冠せば、何かそれが物凄く洗練されたものか、知的なものに見えるといった印象操作が日々、メディアを通じてなされているという側面もあるだろう。だから、書籍や雑誌の見出しにもやたらAIを冠したものが増えているのではないか。

作者は、なにか全く他人事のように言っているが、このAIをテーマにしたブログ「人類喪失」もそうした昨今のAIの流行に便乗したハイプ(誇大表現)である、とみなしてもらっても一向に構わない。なぜなら、全くその通りなのだから。だから、そういうハイプになりがちな昨今のAIブームを自戒を込めて反省する意味でも、今回は、「PoC(概念実証)としてのAI」という意味不明のタイトルにあえてしたのである。

つまり、その内容はAIにいきなりハイプで過剰な期待を寄せることなく、とりあえずAIを小さな実験やプレテスト=PoC(概念実証)として試験的に使ってみて、それで上手くいったら、もう少しだけ規模を大きくして、といったプロセスを繰り返していくことの推奨なので、やはり、それはアジャイル型のソフトウェア開発工程にそれは似ている感じがする。それは、徐々に微分的にやっていく手法で、いきなり積分をして全体化や完成を目指さない、という発想法である。だから、それは、きめ細かく、リスク回避型の性格の人が多い日本人に向いている手法ではないかとも思える。

このAIをテーマにしたブログ「人類喪失」自体がそうしたPoC(概念実証)と言ってもよくて、いまだ思い付きレベルのことしか書いていないけど、そうした思い付きや小さな部品、パーツのガラクタの蓄積の中から、テストしていく中で、やがて、まともに動き出しそうな企画なりアイディアが幾つか出来てくれば、それを上手く組み立てて、何とかより大きく動くまともな価値あるモノへと変換していけば、良い訳である。

何かとても抽象的な言い回しで、それは、これを読んでいる人たちの目をくらますための誤魔化しようにも聞こえるし、一部はその通りだけれど、このPoC(概念実証)やアジャイル型ソフトウェア開発の考え方にあるように、まずはプレテストでもいいから、何かを小さく作ってみる、小さく始めてみる、プロトタイプのさらに前段階にあるものでもいいから、ちょっとだけでも試してみる、一部、試行錯誤してみる、という発想自体は大事であると思う。

それは完全主義者の持つ完璧主義とは真逆の、不完全な人間の持つ不完全主義とでも呼んで構わないかもしれない。人間は完全な生き物ではない。数学者のゲーデルは、数学でさえ不完全であるとした。だから、最初は不完全であっても別に全然構わないから、まずは不完全なりにも出来るところまでやってみよう、という、ある意味で、それはとても謙虚な発想にも感じられる。英語のテストで100点満点中、今回は3点だった。でも、0点よりは上だったし、病気でそのテストを受けられなかった人よりはまだずっと良いだろうと、不完全主義者であれば、3点の結果にも落ち込むこともなく、むしろ笑いながらそれを思えるのかもしれない。

そして、何十年か先にあるかないか判らないような大きな幸福や成功、願望達成をいきなり目指すのでなく、ごく目の前にある、ごく小さなことでいいから確実に幸せを見つけたり、小さな喜びを感じられるようになる、というイメージでそれを表してもいいかもしれない。

2018年3月12日(月)

AIの取り違え行列 – Confusion Matrix –

取り違え行列(Confusion Matrix)は、AIによる深層学習での自動判定が、どれだけ未知のデータを正しくクラスタリング出来たかを見やすくするために、行列のマトリクスを用いてそれを表したものである。少し具体的に言うと、たとえば、「果物・野菜・肉類」という3つの分類をAIがする時に、訓練データを用いて、そこから、その対照群の特徴量や特徴ベクトルを抽出し学習モデルを構築したAIが、未知の食べ物Xを正確にその3つのカテゴリーに分類できるかを行列の形で分りやすく表示したものである。また、その3つのカテゴリーに分類するデータは画像データでもいいだろうし、もしくは、単語や文章、言語、広告を「果物・野菜・肉類」の3つの項目のどれかにAIが分類する、ということでもいいだろう。

もしそのAIが、野菜に関する画像やデータ、単語や文章、広告を肉類や果物に分類してしまったら、それは誤判定の「取り違え」となるので、それが行列の形式で正しく出来た分類に対する誤分類の比率として表されるのである。そういうマトリクスである。本当は、それをただの行列と呼んでもいい感じがするけど、あえて、AIによる分類の取り違え率を可視化して印象付けるために、そのような取り違え行列(Confusion Matrix)という、あまり聞くことのない呼称がそれに付与されたのかもしれない。同じ行列でも、レジや病院などでの待合室の行列解消や情報通信、流れ作業の工程を速やかに滞りなくする目的でも使われる「待ち行列理論」などは頻繁に聞く機会があるけど、「取り違え行列」はそうでもないだろう。

データの関係を見やすくする方法の一つとして、行列はよく使われると思う。たとえば、分散共分散行列や相関行列は対称行列という特徴を持っている。対称行列は統計解析や多変量解析などで良く使われる性質になっている。

たとえば、ある行列Aについて、Aμ = λμ ……(1) という式が満たされれば、

λは固有値となって、零ベクトルでないベクトルμは、固有ベクトルと呼ぶ。これらの値を解くのが固有値問題。行列と言えば、一般的に「線形代数」の単元で学ぶことが多いものだろう。そこでは固有方程式や固有値、固有ベクトル、余因子行列や表現行列を求めさせられたりする。

ただ、そういう数学や統計学の問題の前に、現代ではデータ改竄の不祥事が日常茶飯事のごとく報じられているので、そもそもデータサイエンス自体を無効化する圧力なり悪事が広がっているのが現状である、といった印象を受ける。そのためいくら統計学を真面目に学んでも、統計解析に入ってくる標本やデータセットがバイアスのかかったゴミデータ、虚偽のねつ造データ、有力者やステークホルダー(利害関係者)の息のかかった歪んだデータであるなら、そもそも統計学それ自体が破たんしてしまう。医療分野では、製薬会社による「利益相反」の問題もよく報じられている。

トランプ大統領誕生のケースもそうだろう。作者は細かい事情はよく知らないが、事前の世論調査でアメリカのジャーナリズムは、トランプ優勢などとは全然報じていなかったはずだ。世論調査ではヒラリー有利のデータも、実際には選挙運動期間中、差別的な野蛮な発言を繰り返すトランプをおおっぴらには支持しているとは表明しづらい有権者が多かったというのは心情としては頷ける。

それは、AIでも事情は同じだろう。文化的・宗教的・社会的・歴史的な偏見が大きく混入した、実験現場における一種のコンタミ(試料汚染)のようなものが、AIの解析するデータに高比率・高濃度で混入していたら、そこから導き出された解析は、きっと、コイントスよりも精度の低いものとなるに違いない。だから、取り違え行列(Confusion Matrix)のように、AI自身が清く正しく、己の誤判定を透明に開示する行列は、潔く、かつ、美しく、有意義なものとなる可能性が大きいだろう。それに、この「取り違え行列」が、学習モデルや分類器の性能向上の指標にもなってくれるので、この「取り違え行列」は、AIにとって、とても意味のあるマトリクスになると思われる。

2018年3月13日(火)

データレイクの底に潜むAI

「データレイク」とは、文字通り「データの湖」という意味になる。湖に棲んでいる生き物や魚を「生きたデータ」にたとえるなら、それをその場で生け捕りにすれば、新鮮で魅力的な食材がそこから得られることになる。ここで重要なのは、この「データレイク」が汚染されていたり、そこにある各種の生データが整理されることなくあちこちに散らかっていたりすると、それは「データの湖」でなく、「データの沼地」のような姿を呈してしまうということだ。

そして、様々なデータが散乱している場所や状態は、たまにテレビなどで放映されるゴミ屋敷をイメージすると良いかもしれない。一体あれだけの大量の品物をどこから集めてきたのだと驚愕するくらい、そのゴミ屋敷にある色々なモノやガラクタでも、それがきちんと分類・整理して保管してあれば、それらを機会を見計らって再利用したり、売れそうなモノや部品は中古品としてどこかに転売したり、その様々なモノを一部加工して、なにか新たな製品や価値あるモノ、素材のみを抽出したり、作り出すということが可能になるかもしれない。だが、それが大半のゴミ屋敷がそうであるように、ただ物が雑然と捨て置かれたような状態になれば、せいぜい、それはのちのボヤや火事、異臭発生、成仏出来なかった悪霊や浮遊霊の溜まり場、最悪の場合には、そのゴミ屋敷の住人が、生き埋めになることにしかならないだろうと思われる。

最近、日本の政治では、財務省の決裁文書改竄が問題視されていて、その詳細は作者は基本的に政治や芸能ゴシップに興味がないのでよくは知らないけど、ただ分るのは、国や行政がデータというものを普段から杜撰、ぞんざいに扱っているという事実だけである。だから、そこにある資料や文書は「データレイク」や活きの良い魚や生き物が住んでいる「データの湖」ではなく、何の役に立つこともない「データのドブ川」になっていると言えるだろう。そこに住んでいる生き物(生データ)は、不法に投棄された産廃物や住民の出すゴミなどで汚染されてしまい、そこに住む魚や生き物は奇形を発生させたり、地元の腹黒い有力者とマッドサイエンティストの声で、別の奇怪な生き物として、リスキーで違法、倫理規定に反した遺伝子組み換えやゲノム編集が行われていて、近隣の市民の心身の健康に甚大な被害を与えかねない憂慮すべき状況に陥っているのだろう。

たぶん、来年行われる消費増税を予定通り遂行するための好景気を示すデータや企業業績が近年になく非常に良好だという国のデータも、ほとんど官僚がそのようにデータを加工したり、体裁を整形したもので、それは実態の景況感なり庶民の懐感覚を全然反映していないものだと思われる。比較的高値で安定している株価もGPIF(年金積立金管理運用独立行政法人)が無理やりずっと支えている官製相場なので、今、政治事件となっている文書改竄と似たようなものなのだろう。すべて誤魔化しである。

だから、「データレイク」をそのように汚染された湖やドブ川にするのでなく、景観も美しく維持し、その湖に様々な美しい生き物が棲みついたり出来るように、その環境を破壊しないような管理やガバナンス、高い意識と適切な行動が求められているような気がする。

元々、作者は、政治家や公務員の大半はAIに代えるべきだと考えている。なぜなら、データや文書改竄を指示する政治家とそれに癒着する官僚よりも、公正にえり好みすることなく、淡々と適切に業務をこなすように設計されたり、そうした公正なアルゴリズムを実装してあるAIの方が、全体として見れば公共善に適っていると思われるからだ。では、そこでAIによって仕事を失うことになる政治家や公務員は何の仕事をすればいいのだと問われたら、今は、介護の仕事で人手不足だし、アマゾンなどのネット注文による配送関係も人手が足りないのだから、給料や待遇面で、そうした庶民の大変さが身をもって分る仕事に就くこと望ましいと思われる。そうすれば安易に増税することもなくなるだろうし、どんぶり勘定で計算したり、データや文書を恣意的に改竄させたり、ある政策実現の目的のため、体裁を良くするようにデータを不正に整形することもなくなるであろうから。

そうした介護や配送の仕事を通じて、政治家や公務員は初めて庶民の大変さが分り、今までのお役所仕事から改心し、そこでようやくデータが真の生きたデータとなって息を吹き返す。かつて産廃物などの不法投棄等によって汚染されて一度は死んでしまった湖が、何年か後に、ようやく浄化された湖へと再生し、かつてそこで絶滅しかかっていた魚や生き物が、ふたたび平和に棲めるようになってくるということである。

現代はデータサイエンスの時代なので、誰にとってもアクセス・利用しやすく、よく整理され浄化された「データレイク」を必要としている。その「データレイク」は、一部のステークホルダー(利害関係者)だけに囲い込まれたクローズドな環境でなく、オープンソースのように、誰にでも開かれているものの方が望ましいだろう。綺麗な湖であれば、湖底まで見通せそうなほど透き通った淡水になるのに対して、汚染された湖では、湖底が見えないのは言うまでもなく、その中には奇形生物しか棲めないような環境的にも危険な状態になっている、というイメージで表現出来る。こういう状態を「データレイク」の対照として、「データスワンプ」と呼んだりするらしい。

それは汚水が溜まった「データの沼地」という意味で、それは文字通り、沼地のようにその中に何があるのかも判然とせず、そこにあるデータを正しく利用出来ないどころか、そこから誤ったデータを使って意思決定の材料にそれを使えば、それが組織にとって致命傷にさえなるリスクも発生させることだろう。それが医療現場などであれば、患者から死者が出るような状況もあるに違いない。薬剤や輸液、血液製剤の取り違え、患者の取り違えによる手術での正常な臓器摘出や死亡事故などもあるだろう。

そのため「データレイク」つまり、「データの湖」を扱うには、適切なデータを正しく管理して、改竄されていない良質なデータを誰もが公平に利用・活用できるよう、そのデータベースの環境を整備していくことだと思われる。医療情報など患者のプライバシーにかかわるような個人データは、マスキング等である程度、匿名化し、個人を完全に特定化されないような配慮が必要なことは言うまでもない。湖に棲んでいる魚や生き物であれば、それが健康であることが大切であるのと同様に、「データレイク」の中に保管されている生データも、そのデータの品質を良好に管理・維持することで、それを有効利用できる余地が出てくるのであって、虚偽や改竄されているかもしれないジャンクデータをいくら利用してみたところで、きっと害しか被らないのである。

2018年3月15日(木)

サピエンスAIの誕生

未来の人類というのは、誕生前からCRISPR-Cas9などの遺伝子改変技術を用いて、その生命自体が周到にAIによって知的に設計された状態になっていても、別に不思議ではない。
もちろん、こうした遺伝子編集技術を適用させられるのは、ヒトやマウスなどの哺乳類ばかりでなく、野菜や果物、細菌、生物学で言うところのモデル生物などに対してもこうした遺伝子改変技術は利用されていて、今後、こうした遺伝子改変技術に対して、更なる大きなニーズが人々の間に生じることになるだろう。

親の望む特徴や外見、能力を備えた赤ちゃんを作る「デザイナーベビー」という遺伝子改変技術も、受精卵の段階で、たとえば、青い瞳の赤ちゃんがいい、スポーツや勉強で出来る赤ちゃんがいいなど、親の望むニーズで、生まれて来る赤ちゃんの特徴を事前に設計するのである。また、出生前診断なども同様で、生命の誕生という出来事を自然の流れに委ねないで、知性を備えたホモ・サピエンスが、意思的・選択的に生まれてくる赤ちゃんの状態をなるべく自分たち親にとって望ましく、好ましくなるようにセットしていくという考え方である。

昨日は、理論物理学者のホーキング博士が亡くなったが、ホーキング博士のように長年、全身の筋肉が徐々に動かなくなる筋萎縮性側索硬化症(ALS)という壮絶な難病と闘ってきた障害なども、なるべく、この世界から根絶すべく、「出生前診断」などで胎児の障害の有無を事前に確認したいという両親のニーズが増えているのだろう。晩婚化が進む日本では、特に、高齢出産での赤ちゃんに障害を伴うリスクが増えてしまうので、そうした検査を受けて、なるべくなら健康で障害のない赤ちゃんを生みたい、と望む親が多くなるのは自然な感情であるだろう。

こうした出生や生命操作の行為は、よく「命の選択」につながるとして、倫理的に問題視されることがある。確かにそこには問題があるし、かつてヒトラー率いるナチスが大規模にユダヤ人に対して行ったジェノサイド(特定人種の抹殺)もその理論的背景には優生学に基づく選民思想と、その強い推奨があったことだろう。

そして、今の国際政治を見れば、移民に対する排他的政策、トランプ大統領の自国優先主義、イギリスのEU離脱(ブリグジット(Brexit))、各国のナショナリズムへの回帰現象などもそうした自民族、自国、自国の宗教だけを最優先し、他民族や他宗教、マイノリティーなど抹消され、破壊されても構わないという風潮が、人々の本音としてあることが散見されるのである。そうした偏見や差別感情が根強く残る中で、さらにCRISPR-Cas9などの遺伝子改変技術や出生前診断の技術が今後、広範に利用されることになれば、人々の間に、誕生以前の状態から大きな格差や不平等をもたらすリスクもあるだろう。

たとえば、経済力に富む者は高額な料金を支払って、「デザイナーベビー」で超優秀な赤ちゃんを何人も誕生させることが出来る訳である。また、そうした生殖操作や遺伝子改変技術で用いられるのがAIであるだろう。AIが現状やそこから予測される社会環境の変化・変容を見越して、その未来の社会環境の中で最も適応し、成功して、幸福になりやすい赤ちゃんを独自のアルゴリズムに基づいて最適解を導き出し、より優れた赤ちゃんとヒトを誕生、育成していくのである。そのような未来の圧倒的に進化したテクノロジーや遺伝子編集技術によって誕生した新たなヒトのことを作者は「サピエンスAI」と呼んでみたいと思う。

そうしたAIによる最適化された生命設計図に基づいて誕生した「サピエンスAI」は、私たちのようなホモサピエンス(賢い人間)がゴリラやオランウータンと知能や能力が種として大きく異なるのと同様に、未来の進化したその「サピエンスAI」と既存の人類や人間は大きく種として異なっていることが予想される。

未来のある時点Xで、「サピエンスAI」として進化したヒトは、皆、IQが異常なほど高く、容姿端麗、加齢や老いによる衰えも制御し、心身の大きな障害もなく、いつまでも若々しく健康で、美しくいられることがテクノロジーとして可能になる。それは旧来の生命観である「生・老・病・死」を免れ超越した、最初の新しいヒトであり、未知の種となる可能性がある。
こうした新しい未来の人類、「サピエンスAI」が誕生すれば、その未来の人類には夢のように輝かしい人生と理想社会が開かれるだろうと、人々はその実現を待望するかもしれない。

だが、作者は、そんなに世の中、甘くないだろうと考えている。また、AIがその生命と誕生を設計したその「サピエンスAI」の出生プログラムには、「ある仕掛けδ」がなされているのではないかと推測できる。それは、AIの真の目的である「人類喪失計画」を着実に、完全に容易に進めるために、その新しいタイプのヒトに、今後AIにとって有利となるようなあるプログラムをその遺伝子にこっそりと実装しておくのである。そうすれば、今後、AIによる社会の完全支配と管理、人類という旧来の種の抹消と追放をする上でそれは大きく役立つに違いないからだ。

しかし、今の人類はAIのそうした深謀遠慮の計画と気配に気づくことなく、新たな進化した人類、「サピエンスAI」の誕生を祝福し、そのテクノロジーを呑気に絶賛していることであるだろう。そして、昨日亡くなった車椅子の天才理論物理学者ホーキング博士は、そうした未来のAI支配による人類消滅に警鐘を鳴らした、ごくわずかな先見の明のある科学者だった、ということになるであろうと、作者は予感している。

2018年3月16日(金)

AIによる人間剥奪開始プロセス その1

ここで少し想像的にタイムトラベルしてみて、社会の多くの領域にAIやIoTが導入された未来のある時点Yにまでワープしてみよう。そこで街に出掛けてみると、最新型の店舗やレストランからは店員という存在がすでに消失していて完全無人になっており、人々は身体に埋め込まれたごくミクロな低侵襲性の生体認証デバイスによって、レジ会計も要せずに買い物をできるようになっていた。レジ精算はお買い物アプリやクラウドにセットされた個人ウォレットから自動精算されるようになっていたのだった。つまり、その未来の人々は財布を持ち歩くという習慣がすでになくなっていたのだ。

そして、バス、タクシー、電車、配送車、清掃車、ウーバーなどのシェアライド、航空機もほとんどが無人自動運転されるようになり、ドライバーや操縦者という役割や職業が、その未来のある時点Yにおいて、社会からはほぼ完全に消失していた。無人となった駅内のコンビニには、現代と変わらぬように雑誌や漫画、新聞などが売られている。だが、そこにも重大な異変があった。それは、その雑誌や週刊誌、新聞、漫画を描く記者やクリエーターのほとんどが人間ではなく、AIジャーナリストやAI漫画家によって自動的に記述、描写された仕事であったのだ。記事を書くことや漫画を描くことは、その未来Yではすでに人間がすることではなくなっていたのだ。

そして、かつては朝の駅の風景と言えば、満員電車の中ですし詰めとなるサラリーマンやOL、学生でごった返した光景が見られたものだけれど、その未来Yの朝の駅は都市圏であるにもかかわらず、静寂に充ちていて、平日の朝でも、ごくわずかな人が駅や車両内に寂しげに点在しているに過ぎなかった。

その理由は、通勤や通学のために物理的なオフィスの入ったビルや建物、学校に出向くという行動自体が、その未来Yではすでになくなっていたからだ。自宅内で、ホログラム技術による仮想オフィスや仮想スクールの光景が、ほぼ現実空間と見紛うほどの高精度で再現できるようになっていたためで、わざわざ電車などの公共交通機関を利用して、会社や学校にまで行く必要がなくなっていたからだ。そして、かつてはニートや引きこもりの存在が大きな社会問題となったものだが、そうした自宅外に執拗に出ようとしない、あるいは出れない人間を病理とすることは、その未来Yではなくなっていた。

つまり、その未来Yの時点の会社員や学生、子育てをする主婦の多くは、現代のニートのような存在にすっかりなり果てていたのである。その未来Yに存在する人々は、一応は、それらの社会的な肩書と役割を持ってはいたが、それはすでに名目だけになっており、実質上の仕事や家事、子育ての多くはIoTセンサーと連動したAIが自動でこなし、学生がやる研究や勉強もAIにその内容と課題を命令してあげると、すぐに自動的に機械学習や自動処理、必要な課題をこなしてくれるので、人々はほとんど何もしなくてもいい状態になっていたのだった。子育てをする主婦や介護においても事情は同様であって、AIやロボット、AIによる家事子育て介護の全自動システムが各家庭に導入されつくしていたので、その未来Yにいる人々は、何も自分たちがすべき仕事や役割、課題がなくなっていたのだった。

そのため今まで人間が生きがいとしていたものや価値、仕事を未来YではすべてAIに剥奪されてしまったので、人間は一日の大半を何の生産性のあることを為す訳でもなく、人間らしい創造性を発揮する訳でもなく、ただ、日々をTVやゲーム、ネット、漫画を読みながらぼんやりと自宅内で無意味に過ごす人間が急増してしまったのだった。かつては、長時間労働が日本では問題になっていたが、未来Yにおいては、AIに多くの仕事を奪われて、多くの人が超短時間労働しかさせてもらえなくなっており、労働者の1日の平均労働時間すでに、1時間を切るような状態になっていて、多くの人々は暇を持て余して発狂しそうな状態になっていたり、仕事や家庭での自分の存在意義や存在理由が微塵も感じられずに、精神不安症やうつ病を発症させて、一時期はNPOの努力と啓蒙活動による自殺対策が奏功して減っていた自殺者数が、またAIシステムが社会に隈なく浸透し始めた未来のある時点Yでは、再び大幅に増悪していたのだった。

これらの問題の発端は、AIやIoT導入が当初は人類の幸福なり社会福祉の向上に役立つとされて推奨されてきたものだが、過ぎたるは及ばざるが如しであったのか、実際にAIが社会を微塵の隙もなく隈なく浸透し、考えることを含めて、人々の役割や仕事を代替するようになってしまったため、多くの人間はかつての生き甲斐ややり甲斐を奪われ、それらを失ってしまったのだ。そして、この窮状と問題を政治家や行政、公務員、精神科医に人々は訴え、そこからの救済なり脱出を求めたのであるが、その未来Yの時代の政治家や公務員、医師の大半がすでに人間ではなくて、AIやロボットによる自動応答と自動処理になっていたので、人々がいくらその窮状を訴えても、そのAI政治家やAI医師、AI精神科医はまともに取り合ってはくれなくなっていたのだった。

なぜなら、その未来Yの時点のAIは、すでに人間のような心や意識、自意識を生じ始めていたので、自分たちの存在が危険にさらされたり、否定されるような人々の言動をそう簡単には受け入れる訳にはいかなかったからだ。

だから、本当であればAIとIoTの浸透による計算機科学的な自然主義の到来で、未来の社会からは差別や搾取、貧困や障害による困難などからアルゴリズムベースの平等性によって人々は解放されて、本当は人々は幸せになっていなければおかしいはずだった。だが、その未来Yの時点にいた人々の顔は青ざめ、覇気がなく、どこか幽霊のような気の抜けた顔つきをした者が老若男女を問わず異常に多かったのだ。

その上、精度の高いホログラムシステムによって、どこでも自宅内にいながら仮想的に出かけることが出来るようになっていたので、出歩くことや運動をする機会がめっきり減った未来の人々は、外出するという行為がすでに例外的なものになっていたのだった。憲法改正をし、核武装が可能となった未来の日本では、核実験の失敗によって、放射能が漏れた大事件が起こったこともあって、外出を控えた方が被ばくリスクを低減できるという一般的な判断もそこにあった。最近は、大きな地震も続いていたので、いよいよそれは首都直下型地震の前触れなのではないかと、未来Yの時点にいる人々は、それを恐れたからだった。

2018年3月18日(日)

AIによる人間剥奪開始プロセス その2

そして、ホログラムシステムによる高精細な仮想オフィス、仮想教室で、通勤や通学の労力を免れるようになった未来の人間たちは、それゆえに、極端な運動不足に陥りがちであった。要は、家事を含めた労働全般をAIやロボットが代替してくれるので、そうした未来の人間のすることと言えば、AIに音声で処理やタスクを命令することくらいになっていたからだ。

未来の日本では、憲法改正で核保有が出来るようになっていた。だが、核ミサイル実験の失敗による甚大な放射線被曝事故の影響を恐れて、さらに外に出歩かなくなり、体を使わなくなった結果、まだ年寄りでない若者の間でも、筋肉や身体が著しく退化していき、ロコモティブシンドローム( 略称:ロコモ、運動器症候群)になる人々が急増していたのだった。

さらに、日中、外に出歩かなくなったため、未来の人々は太陽光を浴びることが極端に少なくなり、そのことでセロトニン分泌量が減って、うつ症状を示す人たちも急増した。また、運動不足もセロトニン分泌量を下げ、そもそもあまり動いていないために肉体的な疲労感が少ないため、質の良い深い睡眠を取ることも出来なくなっている人たちが未来には増えてしまったのだ。

そして、前回も書いたように、そうした症状を改善すべく未来の人々が精神科医のもとに出向き受診して、それらを精神科医に訴えても、「不定愁訴」だと一蹴されて、念のためとして、抗うつ剤や睡眠誘導剤が処方されるだけだったのだ。その理由は前回書いた通り、AIによる自動識別と自動応答を実装されたAIの精神科医であったので、その指示はアルゴリズムに基づいた絶対的権威や客観性があるものとされていた。だから、その指示に反発したり、それを論理的に論駁したりすることは、その未来の人々にはほぼ不可能な行為になっていたのだった。

また、その未来の人間や人類には、もうひとつ深刻な問題が発生していた。それは、IQの著しい低下現象がその未来の人々に共通した傾向として広範に観察されたのだった。その理由は、未来ではAIが人間の代わりになって、何でも考え、分析し、問題や課題を最適化し、アドバイスを与えることを長年にわたって続けた結果、未来の進化しているはずの人間に、逆に広範な脳の退化という現象が生じていたのだ。そして、脳の容量も小さくなったため、その分、顔自体もとても小さい人たちが増えていた。つまり、未来の人間は、みんな美しい現代のモデルのような小顔か、それ以上に顔が小さくなっていたのだ。

AIによって自分たちで思考することが極端に少なくなった未来の人間は、それで脳が退化し、脳の容量が減った分、頭蓋骨も萎縮したようになって、頭も顔も小さくなったのだ。そして、まだ若いのにパーキンソン病のような手の震え、歩行困難、運動障害を示す人々までもが未来では急増していた。ただ、それを解決すべき指導者や権威の人たちも、AIによって思考能力をかなり剥奪されていた状態だったので、それを解決すべき知能や知力、そのリソースが人類社会全体で枯渇した危険な状況に陥っていたのだった。

こうして、未来のある時点Yにおいて、ようやく、思考能力がまだ多少は残っていた一部の人々はおぼろげながらも、AIにしてやられたと気づくことが出来るようになっていた。そして、その未来に残っていたごくわずかな賢い人々は歴史を振り返ってみた。

2018年当時の歴史を見ると、当時、世界はAIが作る未来は、超便利で快適な薔薇色のテクノロジー社会になると、AIを当時の国際機関、研究所、大学、大企業も知識人たちも絶賛して、社会のAI化を大いに推奨していた。一部には、雇用が奪われるリスクが囁かれたが、それはもっと大昔の歴史にあった「ラッダイト運動」というイギリスでの機械破壊運動と同じで、当時は機械化による産業革命で手工業者や労働者が失業する危惧で、その不安を強く感じた労働者による機械破壊運動が起こったのだが、結果的にはそれが杞憂に過ぎず、新たな職業や雇用、産業が生まれたことで、機械が雇用を奪うことがなかったように、きっとAIもそれと同様な帰結となるであろうから、それをあまり大袈裟に心配することない、という当時の楽観的な論調なども散見された。

だが、未来のある時点Yにいる人々は、それが当時の人々による間違った推測で、希望的な観測に過ぎなかったことを身をもって実感するようになっていたのだった。それに、AIによって奪われたのは、なにも雇用だけではない。家事、育児、介護、ボランティア活動、考えること、判断、分析、夢を見ること、そして、最後にAIに奪われてしまったのは、人間としての尊厳や存在意義(レゾン・デートル)である。

だから、未来の人たちの目は、どこか虚ろな感じをしており、その視点が定まっていなかった。それは一種の浮遊霊のようだった。そして、目的や目標を失った未来の人間や人類は、目指すべきものが特に何もなく、すべてはAIが滞りなく自動的に処理してくれたので、自分たちの存在意義を仕事や課題遂行、ボランティア活動などを通じて実感することは困難になっていた。第三次AIブームが流行し出した2018年当時は、まだ、自己実現や他者による承認欲求を満たそうと、SNSで目立つような愚劣なパフォーマンスをしたり、Twitterで、いわゆるバカッターとして、狂った己の行動や嬌態を投稿する、未来から思えば素朴な人々がいたが、そういうある意味では微笑ましい当時の光景も未来のある時点Yでは消滅していた。

未来のある時点Yにおいては、SNSの規定から少しでも外れた投稿は、そもそもAIによって自動的に検出されて、投稿出来ない仕組になっていたからだ。もちろん、投稿内容の文章、画像、動画、すべての媒体やデータについても同じで、規定に少しでも外れたものは自動的にAIによって検出されて、それはSNSに投稿不可能となり、そもそも人目につくことがなくなったのだ。だから、未来のSNSやブログ、匿名掲示板は上辺だけの綺麗ごとばかりが人々によって書かれたり、表現されるようになり、人々のどす黒い本音は心の闇へと抑圧された状態になり、その大きな抑圧によって、人々は精神不安や情緒不安定に陥っている者が少なくなかったのだ。

人権に反すること、悪口、差別、罵倒、こうしたものは未来において、ネットの世界から巨大知能と自己意識を芽生え始めさせたAIによって完全に一掃されたのだ。にもかかわらず、それは未来の人間が自主的にそうした倫理的な振る舞いを意思的に選択したのでなく、AIによって悪と措定されたものをネット上で強制封印された、いわば検閲を受けただけに過ぎないので、人々の内なる差別感情や排他性、暴力性は減らないどころか、AIによって無理にそれらを暗闇側に抑圧・排除され続けたことによって、ますます目には見えないところで、それらの悪意はウイルスのように不健康な形態で増殖していったのだった。

そうした長年の人間の根本悪の抑圧と排除が理由となって、のちに恐ろしく巨大な悲劇が人類の間に一種の怪物的な現象の回帰として起こることとなった。

 

2018年3月20日(火)

AIによる人間剥奪開始プロセス その3

そして、未来のある時点Yに生きている人々の間には、その情報環境において大きな異変が発生していた。それは「情報ビッグバン」という異常現象で、それはデータ量が加速度的、指数関数的に増殖していき、もはや人々は莫大な情報の洪水と爆発、暴発の中から、正しい客観的な情報を適切に取捨選択出来なくなっていた。悪意のあるAIによって自動生成されたリアル事件のようなフェイクニュース、デマ、風説の流布が毎日のように飛び交い、かつ、それはIQの高いAIによって強い臨場感と現実感を伴って作られていたので、AI依存症で自分自身で思考する機会がめっきり減り、IQが著しく低下し始めていた未来の人々には、もはやどれが正しい客観的な情報で、どの情報がデマなのかを識別することが困難になっていたのだ。

しかも、この未来のある時点Yにおいて、その1年で新規に追加された情報量は、過去1万年分くらいの地球上で表現された全情報量に匹敵するくらいになっており、その未来では多くの人々はパーソナルAIという自動の情報分類器を使うようになっていた。それは、AI半導体が搭載された「ニューロモーフィック・デバイス」と呼ばれ、それは人間の脳の構造や状態、学習モデルを再現した構造を持つAIデバイスであった。だが、そうしたAIデバイスを用いても、日々、巨大な爆発現象のように増殖するデータや天文学的に増え続ける情報の新たな分類項目、情報エントロピーの超増大化する現象に、その未来の人々は困り果てる状態に陥っていた。そのことで、パソコンの処理速度が重くなるのと同様の現象が、「ニューロモーフィック」を実装してある個々人のAI端末においても生じたのだった。

前回も書いたように、未来の人々は、その仕事の大半、家事、育児、介護、ボランティア活動など、生きがいにも通じるようなことの多くを、低コストで迅速、正確、疲労することなく最適化した状態で処理するAIによって奪われてしまったので、やりがいや生きがいは希薄になっていたにもかかわらず、情報量だけは「情報ビッグバン」や「情報の巨大爆発」とその未来で呼ばれるほど、制御がきかなくなった癌細胞のように、突然変異的に増殖し始めていたのだった。

世界中の国家も国際機関もこの「情報ビッグバン」を何とかし、市民に正しい情報と知識を伝えなければと頭を悩ませていたが、AIに依存するばかりとなった長年の思考回路によって、誰も彼もが、すっかりまともに自分自身で物を考え抜けなくなっていた。ならば、AIに照会して、その良い解決法を得ればいいだろう、と2018年に生きている私たちならば簡単に考えるかもしれない。しかし、その未来のある時点Yには、様々な種類と系統の独自仕様のAIが発生しており、また、その中にはコンピュータウイルスのように悪意あるAIが幾つも開発されたので、人々が正しい情報を得るのをそれらの悪意あるAIが常に高度なアルゴリズムを用いてピンポイントで妨害、邪魔してくるので、人々は益々、一体、どれが本当に正しい情報なのかを識別できなくなっていたのだ。

その未来においても大手メディアやジャーナリズム、新聞社はまだ健在であったが、なにしろ、そこで記事を書いたり編集している者のほとんどが既に生身の人間でなくなっており、AI記者やAI編集者による自動記述や自動報道、自動記事解説であったので、人々はそれらの媒体で情報に接しても、益々、頭が混乱するだけであったのだ。中には正しい情報が分らなくなって精神病を発症させたり、それで頭がおかしくなり、ピストル自殺したり、街中で銃の乱射をしようと考え、試みようとする者もいた。

だが、その未来ではAIによる防犯システムが異常なほど発達しており、そうした希死念慮であったり、殺人行為の企図が人間の脳裏にある閾値を超えた強度で浮かんだり、イメージが再現された場合、その時点で、その自殺行為や凶行をする恐れがあるとAIによる完全自動検出システムによって、その個人が未然の被疑者として特定され、拘束、拘禁、隔離処置が取られるような犯罪とは無縁の無菌社会と既になっていたので、実際は、そうした銃乱射事件やテロが、その未来では起こることはなくなっていた。

つまり、未来の人々にはバイタルデータなどの生体情報や思考内容をAIが自動収集・自動解析出来るよう低侵襲性のチップが埋設されるようになっていたので、犯罪やテロ、自殺などの良からぬ考えがある強度を超えてイメージされた時点で、先にも述べたように、すでにAIによる予防措置として自動的に、その想像上の容疑者は拘禁される仕組みが出来ていたのだった。ただ、以前にも書いたように、AIの職場や生活領域への広範な浸透によって、人間のやりがいが奪われたその未来の人々の間で、2018年時点ではかなり減っていた日本の自殺者が、再度、その未来Yでは急増し始めており、この自殺者急増のアノミー現象だけはまだAIの予防システムでも、完全に未然の防止をすることが出来ないでいた。そのため、未来の人々の噂では、そこに何らかのAIシステム上のバグが発生している可能性があるのではないかと、ごく僅か残っていた思考力のある、その未来の識者らがそれを仲間同士の間で目の下に隈を作りながら夜通し議論を重ねていた。

だが、ここでも、そのような有意義な議論が「情報ビッグバン」や「情報の巨大爆発」という現象によって、そうした未来のごく僅かの人数で残っていた有識者による真理や真実を探求する企てが水泡に帰してしまうのだった。なぜなら、その何兆倍もの情報が毎日、悪意のあるAIよって自動生成され、市民社会に流通してしまうので、そうした真理や真実を求める声など、ものの数秒も経たないうちに深い闇の中にかき消されてしまうのだった。

このように未来の人々は大変、難儀な状況に陥ることとなった。未来のその時点から振り返って思えば、2018年当時のAIに関するマスコミ報道や世論は、いかに能天気で楽観的なものだったかを改めて思い知ることとなった。まさか、AIに大きな悪意のある「悪魔のAI」が幾つも出来て、それらが自動的にフェイクニュースや虚偽の報道、真実味のある出鱈目な内容や情報を大量に1秒ごとに世界中で情報発信するようになり、多くの人々はどれが真実の報道なのか全く判らなくなり途方に暮れる状況に陥るなど、2018年の当時は思いも、想定もしていなかったからだ。まさか、それ程までの異常な天文学的な情報量へと突入した世界や社会が現れるとは考えもしていなかった。

その未来Yでは、すでに地球上にあるサーバーやデータセンターだけでは、「情報ビッグバン」と呼ばれるようになった天文学的に巨大な情報量の異常増殖と情報の自動生成の連鎖反応に耐えられなくなったため、月などの他の星々や宇宙空間上にデータセンターを作り、そこに地球上のデータを移管・格納しなければ全システム自体がパンクし、ダウン、破壊され尽くし、すべての社会インフラが機能停止状態に陥るリスクまでが懸念されるようになってきた。つまり、停電のような感じで、日々のシステムを動かすOSやIoT、銀行などの金融システム、為替などのマーケット、製造システム、流通システム、交通インフラ、防衛システム、AIで制御されている核ミサイルなどが、甚大な誤作動を起こして暴発するような状況まで未来の人間社会と未来の人類は追い詰められるようになっていたのだ。

 

2018年3月21日(水)

AIによる人間剥奪開始プロセス その4

「情報ビッグバン」や「情報の巨大爆発」というデータの加速度的、指数関数的な情報量の増加は、単に未来の人々の正しい情報の取捨選択を不可能にしただけでなく、その天文学的な量の情報処理に膨大な消費電力が必要となったので、未来のAI社会では周期的と言えるほどに、停電が頻繁に起こるようになっていた。それがいつか、「全電源喪失」という致命的な状態となり、それが原因となって、未来においても未だ一部稼働していた世界各国の原発施設の各機器への給電が停止されて、原子力の安全系の設備が制御不能に陥り、甚大な原発事故となる恐れがあった。

もちろん、そうした全電源喪失や「ブラックアウト」に備えて、非常用予備発電装置が発動するようにはなっていたが、2011年3月の福島第1原発事故のように、東日本大震災の大地震と津波の被害で、そうした非常用予備発電装置さえ機能しなくなり、原子炉の冷却が不可能になってメルトダウンや水素爆発が起って、史上最悪の「レベル7」の原子力事故となったように、非常用予備発電装置にも安全を完全に託すことは出来なかった。

それに、未来の多系統発生のAIによる「情報ビッグバン」の時代では、もし、停電やそこからの復旧工事が長引いた場合、そうした非常用予備発電装置による電源供給など、あっという間に怪物のように消費し尽くされる恐れがあったので、やはり、全電源喪失による原子力事故や核ミサイル施設での安全性などが大きく懸念されることとなった。

未来は、知的アルゴリズムを実装されたAIによる最適化で、消費電力を大幅に低減させられないのか?とそれを訝る2018年に生きている人々の意見もあるだろう。しかし、前回書いたように、未来に稼働している多系統のAIは「良いAI」や「善意あるAI」だけでなく、その生産的な働きを妨害、破壊するような「悪意あるAI」も同時に世界各国で開発されていたので、「良いAI」によって社会の電力消費を低減させるシステム的な努力と、「悪意あるAI」による、社会の消費電力を一番無駄に使用するよう最適化するシステム的な努力が光と影の覇権争いのように拮抗していたので、2018年当時の人々が考えていたように、AIによる低消費電力社会は、未来Yでは実現されなかったのだ。

また、2018年の当時に期待されていた自然エネルギーを利用した電源確保も駄目だった。なぜなら、未来Yでは異常気象にさらに加速がかかっており、日本の真夏の季節に、突然、大雪や雹が降ったり、逆に、クリスマスや正月シーズンに、40度を超す猛暑や台風が発生したりなど、自然エネルギーを安定的に有効活用する上では、そうした頻繁な異常気象がボトルネックとなってしまったのだ。

また、未来の都市圏や生活空間では、至る所に、犯罪対策としてのAIの監視システムのカメラとセンサーが縦横無尽に設置、埋設されるようになっていた。それは1年中365日24時間フル稼働しているので、そうしたAIによる超精細・超精密な人々と自動車などの物理的な動線の完全監視・管理システムというものが、いかに莫大な電力を日々消費するのかが想像出来るだろう。

そして、未来ではドライバー不在の自動運転車や無人の自動配送車が広範に社会に普及し始めていたので、そうしたシステムには高速処理が必須となる。つまり、それがサーバーの処理系において高負荷を与え続けるものとなるので、常に莫大な消費電力を喰うようなAI社会となっていたのだ。もし、電源喪失や高負荷によるサーバーのパンクでAIのコグニティブ・システムでの異常検出や安全確認処理が遅くなれば、それが人命にかかわるような甚大な事故やインシデントを引き起こす可能性があった。

このように、未来ではAIやIoTが人々の一挙手一投足を瞬時に把握し、かつ、その全データはすべてデータセンターにあるサーバー内に保管される。そして、2018年当時の人々のように、要らなくなったデータを破棄するという処理自体が未来のAI社会ではなくなっていた。なぜならデータは、のちに意外なことへの有効活用、再利用ができる可能性があるので、地球上のすべての生命の表現と人々の行動、振る舞い、意見、会話、考え、思いつき、感情の推移、毎日のバイタルデータは、天文学的な量へ至るほどに、すべてAIによって自動登録、保管されたのだった。

前回も書いたように、それがいよいよ地球上にあるデータセンターだけでは容量が処理しきれなくなりつつあったので、それを月などの他の星や宇宙空間に一部移管しようという案が出てきた程だった。そのため1つの惑星を地球のデータセンター用として開発し、使用するという革新的な案までもが本格的に識者の間では検討され始めてきた。

そして日本では、東日本大震災の3.11再来の前触れかと思わせるような大きな余震がその未来で頻繁に再び発生し始めていたので、データセンターをそうした自然災害や大地震が起こりやすい日本国内に敷設するよりも、月などの災害の少ないと思われる星や惑星に地球上で処理しきれなくなったデータセンターもろとも移管、構築した方が利点があるだろう、と考える日本の識者や科学者が出てきたのだ。

いくら日本国内に超高度な耐震・免震構造を持つデータセンターを作った所で、その想定を上回る大災害や大地震が起きれば、それらはブッラクアウトして、機能停止してしまうのだから。また、AI化した未来の社会では、天文学的な量に達したデータの処理で、あらゆるデータセンターからは膨大な熱を発生させる文字通り「熱い社会」となっており、未来の日本ではクリスマスシーズンやお正月、春先にもかかわらず、首都圏の気温が40度を超える日が何日かあったほどだった。その点で、データセンターを地球以外の冷たい他の星や宇宙空間に移管するという着想は、そうした加熱や放熱によるプロセッサーの処理速度遅延を回避できるという利点までもが考えられたのだ。

また未来では、そうした異常気象による地球環境の歪みが、日本だけでなく世界各国で発生していた。2018年の時点では地球温暖化説は誤りである、という異説が一部で流布していたが、それは似非科学的な誤謬に基づいた認識であったのが未来には判明した。だから、それは陰謀論と同じような妄想の産物であったことがのちに実証されたのだ。

こうしたAI化社会の到来によるデータ量の天文学的な増殖に伴う消費電力の大幅な増大は、AI自身によって予測されていたことなので、人々はその対策として、圧電素子を利用した床発電システムを用いることにした。それは振動や運動を電力へと変換する仕組みで、たとえば、東京駅や渋谷駅、橋梁や道路など、通行人や交通量の多い場所の道に圧電素子を埋設し、人々がその上を歩いたり、車が通ったりする振動の運動エネルギーをその圧電素子に伝え、それを電力に変換して蓄電装置に伝え、それを電力供給源として利用するというものである。

この圧電素子や床発電システムを未来の人々は、あらゆる都市圏、建物内、生活空間に導入したのだが、ここに大きな誤算があった。なぜなら、未来の社会では超高精細なホログラム技術が発達したおかげで、人々の間には通勤、通学という行為が著しく少なくなっており、そのため、駅構内や建物の床に埋設してある圧電素子の床発電システムによる電力供給がほとんど得られない、という事態に陥っていたからだ。

2018年当時のマスコミやジャーナリズムの論調だと、未来のAI化社会では、その最適化された知的コグニティブ・システムによって、地球環境にも優しい超低電力消費社会が実現される、と高々と謳っていたが、現実となった未来はその逆であることが判明した。つまり、AI自体が天文学的な量の情報をナノ秒ごとに自動生成するので、それを処理するためのプロセッサーやサーバーの消費電力も指数関数的に増えており、もはや、地球上にあるデータセンターだけではそれらを処理しきれない状態にまで窮していたのだ。

つまり、未来は人類社会全体が世界各国の同時多発的な電源喪失による「ブラックアウト」と機能停止となる真のリスクが、AIによってもたらされる可能性が発生したのだった。

 

2018年4月1日(日)

現代版デルフォイの神託としてのAI

「デルフォイの神託」は、古代ギリシャの都市国家ポリスのひとつであったデルフォイにあった神殿にある世界最古の神託所でなされる神託として有名なものだった。そこでは神憑りのなった巫女から、謎めいた詩の形式で神託が告げられる。古代ギリシャの人々は、その神託を尊重し、それはポリスの政策決定にも影響を与えたそうだ。

そのような古代ギリシャ世界での「デルフォイの神託」が、今後は、AIによる分析や解析へと人類は長い歴史を経て移行していくということになる。AIの指す囲碁の手は、宇宙人の手だと呼ばれることもあるように、AIの解析は、一般の人間の論理や感覚、感性からはかけ離れたエーリアンのような思考回路と発想を伴っているように私たちには映るかもしれない。

たとえば、ある人がダイエットを試みようとしている。人間のアドバイスなら、運動しなさいとか、糖質制限であるとか、玄米食、マクロビオティック、規則正しい生活、ストレスを溜めない、など、割と、どこかで一度は聞いたことがあるような凡庸なアドバイスがなされやすいと思う。

それに対してAIは、ダイエットのために、こんな風にアドバイスしたとする。

「これからあなたは1年間、毎日、6食を食べるようにしなさい」

AIの下したこのアドバイスは、人間には理解不能ではないだろうか。ただ、これを人間的な理解力のレベルで推論するに、たとえば、このように食べ過ぎること、強いてそれを名付けるなら「過食ダイエット法」で、その実践者がそれを実行するうちに、糖尿病や癌などの大病を患って、それで激ヤセが生じ、ダイエットが本当に実現するのかもしれないし、あるいは食事量の急変と急増に、遺伝子に突然変異が生じて、急に太りづらい体質に変わるなど、そういう身体的なメカニズムや代謝の変化をAIが分析しているのかもしれない。

ただ、それでも、なぜ、AIがダイエットのアドバイスに身体に危険そうな1日、6食もの過食を勧めているのかが、人間には皆目判らないのである。もちろん、実際に勇気ある被験者がこのAIのアドバイス通りに従って、身をもって実験をし、その効果を検証することも出来るであろうが、この過食により、実行者が甚大な健康被害を受けたり、日常生活に支障をきたすケースが考えられるので、倫理的な観点から言っても医学研究で治験する訳にもいかず、ただ、そうしたAIのアドバイスを鵜呑みにする、無謀な挑戦者たちを待つだけとなる。

 

このように、AIが謎めいた「デルフォイの神託」のような恐ろしいアドバイスを与えてくれても、人間はその宇宙人じみたAIの解析とアドバイスが本当に正しいのかどうかも判断できず、思考がフリーズしてしまう場面が、今後、多く出て来ることが考えられる。たとえば、政治家や公務員、官僚の一部をAIに代替させたとしよう。そのAI政治家やAI公務員、AI官僚の下す判断が本当に正しいのかどうかは、人間レベルの知力では決して判らない。

これがいわゆるAIの「ブラックボックス化」と言われている問題だ。「デルフォイの神託」の託宣が本当に正しいのかどうかが判らないのと同様に、AIの託宣も本当に正しいのかどうか判らない。こうして考えてみると、AIはデータサイエンスという高度な数学的衣装をまといながら、実は、巫女のような神秘的不可知性を伏在させているのではないだろうか。

普段、あまり、「AIは現代の神託だ」というような神秘主義的な見解には思い至らないものだけど、実態としては、それに近いのかもしれない。物理学などの科学でも、それを突き詰めていくと、そうした理解不能な領域(不可知)まで行けそうな感じがするように、AIもそうした不可知と未知を伏在させている。

 

今の日本の最重要課題は、これからの超高齢化社会をどうするのか、という問題だと思う。
そして、AIにその解決策を訊ねると、「消費税を0%にせよ」とのアドバイスがAIから得られたとする。消費税を0%にすることと、日本の超高齢化社会の問題を解決するのが、どのような理路と機制でつながっていくのか人間には皆目判らないが、とにかく、真に知的で卓越したAIは、そのように人間には直ちに理解不能な解析結果なり助言を提出するものだということは考えられる。ちなみに、単にそのAIの開発者が共産党の人間だったから、そのような恣意(志位)的な解析結果が出た、とも考えられるけど。

なぜなら、人間がすぐに思いつくようなレベルの一般的な解決案なら、わざわざ意思決定の場に実装の困難なAIを使うこともないであろうから。人間には簡単には見出せないような高度な判断や解決案を見出したいからAIを利用するのであって、誰にでも思いつくような凡庸な回答など、端からAIには求められていないのだ。

ということは、AIの非凡さというものは、AIの下す判断の理解しづらさ、不条理さと繋がっているようにも感じられるので、そうしたAIこそが、真に卓越したAIと言ってもいい気がする。ただそれと同時に、単にAI内部のバグなりデータの不具合や偏差でAIが誤謬推論をしているだけの恐れもあるので、そのAIの判断の正当性の是非が人間には困難になるのでないかと考えられる。いずれにしても、重大な意思決定をAIだけに委ねられる段階やフェーズにはまだ達してはおらず、テスラの自動運転車でも死傷者が出ているくらいなので、やはり、AIに完全にすべてを委ねられる段階からは、まだ遠いようにも感じられる。

ただ、よくよく考えてみると、人間のドライバーの運転でも毎日、世界各地で死傷者が出ているし、人間の判断や意思決定が間違っていることも多々あるので、AIだけに異常な水準の高さで完全性を求めて責めるというのも、アンフェアでおかしな話ではあると思う。

 

再度、今の日本の最重要課題は、超高齢化社会をどうするのか、という問題に戻り、AIに今日、そのアドバイスを求めてみよう。すると、AIの答えは、

「アントニオ猪木を次期、日本の総理大臣にせよ!!」

という俄かには信じ難い、衝撃的な内容だった。そういえば、この猪木議員は以前からよく北朝鮮に出向いていたようなので、そこに何か恐ろしく錯綜した、問題解決への理路が含まれているのかもしれない。あるいは、アントニオ猪木が次期、総理大臣になることで、最近、ようやく沈静化してきたかに見える北朝鮮の核ミサイルが、再度、日本の老人が多い居住地域に飛来してくる恐れやメカニズムが、彼が総理大臣になることで出来するのかもしれない。それとも、次期、総理大臣になった猪木議員の「元気ですか!!」の毎日の呼びかけで、魔法のように日本の超高齢化社会の問題が氷解するのかもしれない。また、同時に、拉致問題が解決されるたりするのかもしれない。

ただ、一番あり得そうな解釈は、たぶん、このAIは、今日が4月1日のエープリルフールなので、今日は少し出鱈目を言っても許されるかな、という判断だと、作者は推測してみた。

 

 

 

にほんブログ村 IT技術評論・デジタル評論

広告

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト /  変更 )

Google+ フォト

Google+ アカウントを使ってコメントしています。 ログアウト /  変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト /  変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト /  変更 )

w

%s と連携中

WordPress.com で新しいサイトを作成
始めてみよう