人間を負傷させたロボット
photo by zapzapjp.com

2016年11月。中国のハイテクフェアで、ロボットが暴走して負傷者がでました!でも、ロボットが人間に反逆したわけではなく、ただの人間の操縦ミスでした。結局、AI のはらむ危険性は「人間」によるものなのでしょうか?AI 関連の事故や事件の原因と予防策を考察します!

スポンサードリンク

死亡事故も起きていたAI による自動運転!悪いのは誰?

日本でも、自動車の自動運転が実用化されましたが、アメリカではすでに死亡事故が起きているんです!
ビックリですね。

2016年の5月、テスラ・モーターズの自動運転支援システム登載の車が事故を起こしました。
前方を走る白いトレーラーが車線変更しているところに、自動運転のままで側面から衝突し、運転席にいた人物が死亡しました。

この時、運転席に座っていた人物はDVD を見ていたそうで、AI を過信した人間による不注意が事故原因だとも言われています。

自動運転なのになぜ、と思うかもしれませんが、この車に登載されているのはあくまでも「支援システム」であり、運転手がいることを前提にしたシステムなのです。

けれど問題なのは、自動運転支援システムには衝突回避システムもあったはずなのに作動しなかったことです!

テスラ社は、【どんなスピードで走行していてもクルマの周囲4.8 m以内のものを360°感知できる12の長距離超音波センサー、フォワードビュー カメラ、そして高精度のデジタル制御式電動ブレーキ アシスト システム】により、正面と側面からの衝突を回避できると説明していました。

まずこの事故においては、正面のカメラは光の加減で白いトレーラーを認識できなかったということです。
アメリカ中にいったいどれだけの白い車が走っていることでしょう!!
自動運転車に登載するにはちょっと「足りない」センサーですよね。
これはAI の責任ではなくて、センサーの問題ですよね。

側面からの衝突については、この事故が起きてからテスラ社は「側面からの衝突は想定していない」と発表しました。
「想定」していないのは人間なので、こちらもAI の責任ではありませんでした。

あと、側面からの衝突も回避できるという説明が嘘だったことになりますね。
アメリカには誇大広告を規制する法律や条例がないのでしょうか?

そして、もしそうなら、360゜関知できるセンサーは何のためにあるのでしょう?
何の役にも立たないセンサーを登載しているのか、”センサーを登載している”というのが嘘なのか、どちらにしてもよくないですよね。

そんなわけで、テスラ社のオートパイロットシステムは、連邦当局から予備調査を受けることになったそうです。
当然ですね。

この事故については、製造会社の誇大広告、ユーザーである人間の知識不足と注意不足、センサーの性能の悪さが原因ですね。

センサーは機械ですが、それを作り、テストをして登載することを決めたのは人間です!
結局、すべての原因は人間にあるようです。

予防策としては、この会社の自動運転支援システムを信じずに、自分で運転することですかね。
もう、普通の車を買ったほうがいいくらいですね!

そして、テスラ社の車は7月にも別の事故も起こしています。
その時、自動運転のスイッチを切っていたのに、運転手が事故当時、自動運転だったと主張したそうです。

けれど、調べてみると結局は自動運転ではなく、人間の運転手による交通事故だったそうです。

紛らわしいですね。
自分の責任を回避したくて言ってみたのでしょうが、テスラ社はハラハラしたでしょうね。

こんなことがあるものだから、ドイツでは政府が自動運転車へのブラックボックスの設置を義務づけることを検討しているそうです。

ただ、車は飛行機とは全然違うので、音声や高度を記録するブラックボックスではなくて、ある程度頑丈な車内カメラを設置するか、車内カメラの映像を車の持ち主のパソコンに転送したり、クラウド上でしばらく保管したり、というほうが現実的ですよね。

それにしても、自動運転って恐ろしいですね。
何が恐ろしいかというと、自動運転かどうか判別が難しいため、ブラックボックスまで検討されている、ということです。

いつかは、犯罪に利用されて事件になるんじゃないでしょうか!?
自動運転中の事故に見せかけた殺人事件とか、賠償金詐欺事件とか起きそうですよね。

そして、警察にはAI の自動運転の解析に特化したチームができて、小説になったり、ドラマになったりして、新しいミステリーやサスペンスのジャンルが出現しそうです。
もちろん、犯人は「人間」です!

AI ボットのヘイト発言事件?「学習」するAI を悪用した「人間」たち!!

マイクロソフト社がAI ボット「Tay」(タイ)を2016年の3月にアメリカで公開しましたが、16時間後には突然メンテナンス中になり、姿を消しました。

なんと、AI ボットである「Tay」が差別的なツイートを繰り返したため、マイクロソフト社が公開を停止したのです。

ではなぜAI である「Tay」が差別的なツイートをしたのでしょうか?
原因は、人間にあります。
何人かの人間が「Tay」に差別的なツイートをするように「育てた」のです。

たとえば、ある人が「トランプ氏のプロパガンダをツイートして」と発言すると「Tay」は「メキシコとの国境に壁を作る」とツイートしました。

また、マイクロソフト社は公開前に、ある程度の教育を「Tay」に行っていましたが、「Tay」はツイート内容から学習する機能もありました。

そのため持っていた知識ベースや、質問を受けてから自らネットで調べた回数よりも多く教えられる(ツイートされる)と、たとえ間違ったことであっても、そう覚えてしまうのです。

そして「ナチスによるホロコーストはあった?」という質問にたいして「なかった」とツイートしてしまいました。
もちろん「Tay」は「ホロコースト」どころか「ナチス」や「ユダヤ人」の意味を理解していません。

人間のツイートにたいして上手に返事をしていますが、これは文章を解析する能力に特化したAI だからなんです。
世界の中で最も賢いAIでさえ言葉の意味を理解できないから当然ですね。

この事件に対して、マイクロソフト社は【ある集団による組織的な攻撃がTayの脆弱性を悪用した。】と発表しました。
「ある集団」というのが差別意識を持つ人なのか、ちょっと騒ぎを起こしてやろうとした人たちなのかは不明です。

どのみち、AI 開発に力を入れていて、実験的に「Tay」を公開したマイクロソフト社にとってはいい迷惑ですね!

そのため、「Tay」の発言を根拠にAI は差別主義者になる可能性がある、とか、ある特定の人種にとって危険な存在になる可能性がある、というのはナンセンスなんですね。

実際に、同じマイクロソフト社のAI ボットの中国の「XiaoIce(シャオアイス)」や日本の「りんな」にはこういった事件はまだ起きていません。

ちなみに、中国では言論統制がきびしいため、日本ではアメリカにくらべればマナーを守る人間が多いため、だと考えられています。
日本人としては、中国の理由にちょっとビックリしてしまいますね。

これに対する予防策としては、こまめにAI をメンテナンスして、一定期間ごとに基礎教育を行う、などがありますが、最も肝心なことは人間がマナーを守ることですね!

AI についてだけでなく、社会全体にも影響することなので、アメリカにはもうちょっとがんばってもらいたいですね!

スポンサードリンク

AIのはらむ危険性は人間の危険性!?

AI は「人工知能」と言われていますが、今のところ複雑すぎるプログラムでしかありません。
AI が危険に思えても、操作しているのは人間なのです。

結局、AI は製作する人間、使用する人間によって危険にもなりますし、重大な事故や事件を起こす可能性はあります。

規制をかけたり、ユーザーに注意を呼びかけたりすることはできますし、自動車免許のように資格制にすることで事故や事件を防ぐこともできます。

ただ、製作側は規制できても、ユーザー側はなかなか規制できない、という問題もありますね。

たとえば、速度を抑える安全システムを登載した車で「人間」の運転手が自ら最低時速を操作して事故を起こしたことがありましたね。
このような場合、この運転手は安全システムがついていなくても自ら暴走したと考えられるため、もはやAI の危険性は関係ないですよね。

ただ、今のところAI は他の「人間が作り出した道具」の中で、飛び抜けて危険なわけではありません。

先日、「行方不明」になっていたアメリカの核爆弾がカナダ沖で発見されたとニュースになっていましたが、少なくとも、これよりは危険ではないでしょう。
もちろん、「核爆弾」が悪いのではなくて「人間」に責任があるんですよ!

結局、事故、事件を起こしたり、一番危険なのは「人間」ということになりますね!