
サイバネティック・アバターという新たな身体性を通して、人々が自身の能力を最大限に発揮し、多彩な技能や経験を共有できる未来社会像を探求する「Cybernetic being Meetup」も、第11回目の開催を迎えました 。今回のテーマは「もう一つの身体を信頼できる?」 。アバターが日常に溶け込み、誰もが自在に活躍できる社会において、その「信頼」の土台をどう築くべきかを議論しました。
本プロジェクトのPMを務める南澤(慶應義塾大学)がモデレーターを務め、ゲストにはサイバーセキュリティの国際的な研究開発に取り組む津田さん(Turnt Up Technologies株式会社)、そして道路交通システムやモビリティのDXを起点とした情報設計、セキュリティ設計を専門とする課題推進者である佐藤さん(東海大学)が登壇。
イベントの冒頭、南澤PMよりプロジェクトのビジョンを提示し、もう一つの身体であるアバターを通じて、今までできなかったことが可能になることを目指す様々な研究が紹介されました。サイバネティック・アバターが描く、制約のない自由な未来。しかし、その「新たな身体」が日常のインフラとなったとき、私たちはそれをどう守り、どこまで信じることができるのでしょうか。
サイバネティック・アバターの信頼性とセキュリティ
「IT分野で広く使われる『情報セキュリティ』のゴールは情報資産を守ることです。機密性、完全性、可用性の3要素に加え、近年は真正性や責任追跡性なども重要視されるようになってきました。また、今年の脅威トレンドとして、生成AIへの機密情報入力といったリスクも挙げられます。では、これまでのようなサイバーセキュリティの観点のみで、サイバネティック・アバター(以下、CA)の安全性を語っていいのでしょうか」(津田)
基本概念を整理した上で、津田さんはサイバー空間と現実空間が交差するCAならではの特有の脅威について警鐘を鳴らしました。遠隔操作される身体が介在することで、被害の性質が大きく変わると指摘します。
「例えば、ネットワークを介して操作が乗っ取られた場合、バットを振るロボットが逆向きに暴れ出したり、職人の熟練データが盗まれたりするかもしれません。分身ロボットカフェで操作アカウントを盗まれて『なりすまし』をされれば、パイロットの社会的信用を失墜させます。サイバー攻撃の結果として、人に肉体的な危害が及ぶ、蓄えた知識が漏洩する、なりすましで評判を落とす事態が起こり得るのです。それだけでなく、ロボットに暴言を吐く、目隠しをする、フラッシュをたくといった物理的な攻撃までもが、セキュリティの守備範囲として想定する必要がでてくると考えています」(津田)
津田さん自身、大学の研究施設や万博のパビリオン等で実際にCAを体験し、攻撃者の視点からシステムを観察することで、そのアタックサーフェス(攻撃対象)の広がりを実感したと言います。
「インターネット上のインフラだけでなく、目の前にある『CA本体』、そしてCAを介してその向こう側にいる『人』も攻撃の対象になります。これまでの情報システムへの脅威と決定的に違うのは、ロボットがお金で買い直せる単なる『物』として壊れるだけでは済まないという点です。人間への影響、つまり命に関わるような取り返しのつかない事態が起こる可能性があります。ロボットの腕が自分に跳ね返ってくるかもしれないなど、そうした脆弱性をケアできる仕組みづくりが何より大事なのです」(津田)
人命と直結するからこそ、リスク評価のあり方を根本的に見直す必要があると語り、セッションをこう締めくくりました。
「CAのセキュリティはこれまでの考えの上に立つものですが、固有の脅威や脆弱性が必ず存在します。社会実装が始まっている今、それを特定し評価していくことが重要です。攻撃があった時に、肉体的、精神的、あるいは思想的な部分も含めて『人に影響がある』ということをケアする。それが、このサイバネティック・アバターのセキュリティに求められる一番重要なポイントだと思っています」(津田)
サイバネティック・アバターを社会基盤にするために
続いて、「サイバネティック・アバターをみんなの社会基盤にするために」と題し、東海大学観光学部准教授の佐藤さんが登壇しました。長年、自動車の情報化や通信技術の研究に携わってきた佐藤さんは、遠隔操縦の遅延をなくす技術開発の先に描く、CAの本来の目的について語りました。
「私たちの目的は単なる遠隔操縦を上手くさせることではありません。通信が速くなった分で稼いだ時間を使って、コンピューターやAIが人間の行動をアシストし、自分の身体では実現できないようなことを可能にすることです。正しい身体の使い方をインストールしたり、大まかな指示だけで意図通りに動いてくれたりする。つまり、CAは人間が動かしつつも、システムの強力なサポートを受けることが前提になっています」(佐藤)
CAが単なる「道具」ではなく「もう一つの身体」として社会に組み込まれるためには、操縦者だけでなく、周囲の一般市民にも受け入れられる必要があると指摘します。ここで、佐藤さんが長年研究してきた自動運転の知見が交差します。
「そもそも自動車は『人間が運転していないものは自動車ではない』というルールがありました。しかし2014年に改正され、一定条件のもとで自動運転も車として認められました。しかし、車はあくまで道具ですが、CAは人間の身体です。社会で使うためには、人間と同程度にリスペクトされ、守られ、信じられなければなりません。周りにいる人が『ちょっとロボットが来てるから避けよう』となるようでは使えないのです。CAが安全に機能していることを確かめられるシステムやルールが必要です」(佐藤)
さらに、新しい身体を手に入れることで生じる未知の脅威についても、多角的な視点から警鐘を鳴らします。
「例えば、AIのサポートによる予期せぬ動作で周りの人を傷つけたり、逆に自分の身体に過剰なフィードバックがきて怪我をしたりするかもしれません。通信途絶時のエマージェンシーモードで介護中の人を落としてしまったり、乗っ取られて乱暴されたり。さらには、人間の生身では体験しないような衝撃的な体験が精神に与えるストレスも問題になるでしょう。異文化での社会的摩擦、CAを使った人格詐称、CAへの攻撃によって中の生身の人間が傷つくリスクもあります」(佐藤)
このようなリスクが点在する中で、CAを社会基盤として定着させるために必要なのは、技術的な確認だけではなく、人類がCAを受け入れるための新しいリテラシーだと語ります。
「過剰に恐れるのではなく、『正しく恐れる』ことが重要です。『ロボットだから怖い』と遠ざけるのも、『システムだから絶対に安全だ』と盲信するのも危険です。どんなリスクがあるかを正しく認識し、それを超えるだけの価値や便利さがあるからこそ、対策をしながら使っていく。そういう体制を作ることが大事です。『Security is a process, not a product.』絶対に安全なセキュリティというプロダクトはこの世に存在しません。危険を認識し、起こった時にどう対応するか、事前にどう対策するかを常にみんなで考えていく。何かあった時に隠すのではなく、情報を共有して話し合っていく。そういうチームを作ることが、社会にこのシステムを根付かせる上で一番重要なポイントだと思っています」(佐藤)
信頼があるからこそ、人は自由になれる

インプットセッションに続いて行われたクロストークでは、南澤PMがモデレーターを務め、津田さん、佐藤さんとともに「CAの社会実装に向けた具体的な論点」について議論が交わされました。
「CAならではの深刻な脅威として、やはり『なりすまし』が一番の論点になると思います。例えば僕が佐藤さんになりすましてアバターで悪いことをすれば、佐藤さんの評判を落とせるわけです」(津田)
「人格性が宿っているからこそ、その人の人格そのものに対する攻撃になるというところが独特ですね。では、そうしたディストピア的なシナリオを防ぐためのプロセスはどう進めればいいのでしょうか」(南澤)
この問いに対し、佐藤さんはCAの本質であるコミュニケーションの観点から答えます。
「CAの特徴は人と人とのコミュニケーションが生まれることです。プライベートな情報がどう扱われているか、意図通りに伝わっているか『分からない』状態が一番怖いものです。生身のコミュニケーションで感じている視線や表情などの情報を補完して、お互いに分かり合えていることを相互に確認できることが重要だと思います」(佐藤)
議論は、AIと人間が融合することによる「責任の所在」へと深まっていきました。
「AIと人間が融合した新しい身体となると、どこまでが知能でどこからが知性に近いものなのか。操作ミスで事故が起きた時、PL法のようにメーカーが悪いとするのか、使っていた人が悪いとされそれを素直に認められるのか。責任主体が誰にあるかが大事です」(佐藤)
「翻訳AIの誤訳で予期せず暴言になってしまった、というような事例などもありましたが、最近のAIは、その予測機能によって『思って動く前にすでに動いている』というレベルになりつつあります。そのような状況の中で、予期せぬ失敗が起きた時のソーシャルなセキュリティ問題は非常に大きいです」(南澤)
「AIやロボットなどへの期待値が上がりすぎている分、失敗した時の反動も大きくなりますね。CAのセキュリティは情報通信だけでなく、人間社会をどうセキュアにするかという大きな話です」(津田)
また、社会実装を進める上でのルールやシステムのあり方についても、多角的な意見が交わされました。
「『サイバネティック・アバター三原則』のような最低限の安全装置やルールを実装していく必要があると思います。また、善きサマリア人の法のように、社会のためにやった行動に対するリスクを社会全体でどう共有・許容していくかという議論も必要です」(佐藤)
「セキュリティレベルを上げすぎると瞬発力や自由度が下がってしまいます。ドライブレコーダーのようにすべてをログに残す管理社会とのバランスはどう考えればいいでしょうか」(南澤)
「セキュリティとユーザビリティのバランスですね。『ユーザブルセキュリティ』という考え方を追っていくと、良い落とし所が見つかるかもしれません」(津田)
セッションの終盤では、CAとして活躍しているその中の人が亡くなった後もAIとして働き続けることが可能になる場合の「死後のCA」の倫理的課題までも提起されました。当事者本人の肉体が失われても、そのCAの働きぶりが評価され、身体を伴わない条件でワークできている場合、その社会システムのなかで、どう辻褄をあわせるべきか。また当人の遺族の想いも交錯する状況をどのように対応すべきかAIやロボティクスが社会の中で実際に活躍しつつある中で、すでに起こり始めている未来の複雑さが浮き彫りになりました。そして最後に、各登壇者が次のように締めくくりました。
「セキュリティは非常にバランスが難しく、常に考えていかなければなりません。皆さんもCAがある世界がどうなるのかを少し考えていただければと思います」(津田)
「絶対に安全なものを待っていたら永遠に使えません。日本はロボットをパートナーとして捉える文化的な土壌があるので、世界に先駆けてCAを使いながら『こうやって使えばいいんだよ』と発信していく役目があると思います。正しく恐れて使っていくことが大事です」(佐藤)
「セキュリティは常に状況とのすり合わせを更新していく『プロセス』だということを改めて感じました。これを考え続けることが私たちのチームの役割です」(南澤)
正しく恐れ、変化に対応しながら共に考え続けることの重要性を参加者全員で共有し、イベントは幕を閉じました。
当日のイベント内容を詳しく知りたい方は、下記のYouTubeのアーカイブから、配信の様子をご覧いただけます。