かのうちあやこの「NEXTECH」レポート

5月11~13日に東京ビッグサイトで開かれた Nex Tech Week 2020 に行ってきた。DXを推進するためのソリューションが一堂に集結した展示会で、「AI」「ブロックチェーン」「量子コンピュータ」「デジタル人材育成」の4分野からなる。

会場は南棟でそれほど大きくなかったが、「デジタル人材育成」分野がにぎわっていて、小説明会などそれぞれのブースで活発な動きがみられた。「ブロックチェーン」エリアにはところどころに人だかりがみられた。NFTの証明書「鑑定証明システム®」を紹介する会社、ブロックチェーン技術で原産地を証明する会社などが出展していた。

AIの分野で、FRONTEOブースを取材した。米国の訴訟支援が祖業で、メールなどを監視して証拠開示データを収集解析する会社だが、これにAIが活用されている。キーワードを指定してそれが含まれるかで見ているのではなく、FRONTEOの人工知能エンジン「KIBIT」はメール全体を総合的に見て怪しいと判断することができるのだそうだ。あいまいさ、というのはとても人間的でAIには難しいものだろうに、と思う。また、報告書などの言語データを地図に落とし込んだ、建築・製造現場での災害リスクの可視化・予測を行う「WordSonar for AccidentView」や、“お客さまの声”を分析する「WordSonar for VoiceView」、メール・チャット監査システム「KIBIT Communication Meter」、ビジネスデータ分析支援システム「Knowledge Probe 20」が紹介されていた。自由記述の言語のデータを解析して様々な分野に活かしていくという共通項がある。

すでに医療現場で使われている「Coroban」は電子カルテの中にある言葉で書かれた看護記録から、こういう場所でこんな時に転びやすいというのを予測して予防しようというシステムだ。「ころばん」=転ばない。今年、介護施設でも使えるようになったそうだ。
そして、最近需要が増えているのが安全保障の分野だそう。ロシアのウクライナ侵攻後、自社のサプライチェーンに関する企業からの問い合わせが急増。米中問題でもクローズアップされた問題だが、取引先がどんな地域的問題を抱えるのか知る必要が出てきた。同社では取引先の取引先、7次、8次といった関係性の薄いところまでリストアップすることができるという。
そのほかのブースも周りながら、すでに自分の知らないところで、あちこちにAIが入っているのは「普通」のことになっているんだなと感じた。

AIのロボット分野への活かし方について、早稲田大学次世代ロボット研究機構AIロボット研究所所長の尾形哲也氏の講演を聞いた。AIは機械学習、深層学習の進展によって圧倒的パフォーマンスをあげられるようになった。尾形氏はしかし実世界にはまだうまく応用できていないという。
国のムーンショット目標でも「2050年までに、AIとロボットの共進化により、自ら学習・行動し人と共生するロボットを実現」とうたい、人に寄り添うロボットが研究されている。産業用ではなく、私たちの身近で活動するロボットがこれからは課題の中心になるのかもしれない。

AIといえば、画像認識、そして言語解析をすぐに思い浮かべるが、それだけではなく触覚、動きを使うことも、ロボットへの応用では必要ではないかというお話だった。また、誤差をある程度スルーすることも大事らしい。
有名なAIによる「ネコ」の認識だが、通常膨大な量の「ネコの画像データを与えてAIに機械学習させる。しかし、まず膨大な量のデータが必要だというのが問題になる。また、ネコは実際には動く。

例えば地球儀を見たときに「知っているのと違う」と認識したとする。北米のほうから見ているのか、アフリカを見ているのかの違いだった場合、同じ「地球儀だ」と認識させるには、AIにデータを与えて学習させておくという方法がひとつ。ただしこれにはあらゆる方向から地球儀を見たデータを与えることが必要になり、手間とコストがかかる。もうひとつは、地球儀を動かして、知っているもの、持っているデータと同じだと認識する。また、だいたい似てるよね、と誤差をスルーして「地球儀」と認識する方法もあるそうだ。100%学習することはできないし、間違いは必ずあって、その時どうするかというのが機械分野では普通にする考え方で、AIを活用したロボットでもその視点が必要になるという。人間のようなある種のいい加減さがAIロボットの進化にも必要だというのはおもしろかった。

ひとつの例として、日立と共同研究された布バッグのジッパー開けが紹介された。ジッパーを開け閉めするのは、形状が変わってしまうのでロボットにとっては実は難しい。これを、人が複数回やってみせるだけでロボットが自分の視覚・触覚情報から予測し、動いた布に対応して動作することが可能になったそう。触覚情報、実際に動いてみることがカギらしい。触覚センサーは日本は良いものを造っており、活かしていきたいという。また、ハードを造ることは日本の強みだったが、知能の分野が強いスイス、英国、もとより米国がどんどん追い上げてきているとも語られていた。

AI、深層学習はロボットを変えているのだが、どんどん学習だけを深めていけば使えるロボットになるというものでもない。ロボットの関節が柔らかいというだけで可能性が広がるし、普通の機械のように誤差はあるものだという前提で対応を考えて開発することも大事。コスト意識も必要。社会の受容性に対してメッセージを発信することもますます重要になるとのお話だった。
ムーンショット計画では、人口減少を課題とし、人と一緒に成長するパートナーAIロボットを開発し、豊かな暮らしを実現することを目標としている。農林水産業、土木工事等における効率化、労働力の確保、災害時の人命救助から復旧までを自律的に行うAIロボットシステムなどもあげられている。
AIは私たちにとって怖いもの、人間を脅かすものではないかという話もあるが、どう活用していくかは人間次第なのだろう。


(フリーアナウンサー / 証券アナリスト かのうち あやこ)

※本稿は筆者の個人的な見解であり、カイカ証券の見解ではありません。本稿の内容は将来の投資成果を保証するものではありません。投資判断は自己責任でお願いします。