要旨
サイバネティック・アバター(Cybernetic Avatar: CA)に関する研究が、ムーンショット目標1において積極的に進められている。しかしながら、その倫理的・法的・社会的課題(Ethical, Legal, and Social Issues: ELSI)を直接的に取り扱う既往研究は少ない現状がある。そこで、本ワーキングペーパーでは、直近5年間の出版論文を主たる期間として、関連する幅広い技術領域を対象としたELSI関連論文のレビューを行うことで、CAをめぐるELSIに関わる論点を概観することを目指した
ここまでの文献調査から、セキュリティと安全性、データプライバシー、アイデンティティ・ジャック、アイデンティティの喪失、操作、知的所有権・著作権、依存症、親しみやすさのデザインとその懸念、サイバーいじめ、(医療など)特定サービス活用におけるリスク管理、社会/人間関係の希薄化、エネルギー問題/環境問題、表現の自由と攻撃的・有害コンテンツのバランス、規制ギャップ、人間中心デザイン(Human-Centered Design)の在り方とその限界、説明責任、透明性の確保、分配的正義、格差の拡大、Dual Useなどの論点が繰り返し指摘されていることを確認した。
謝辞
本ワーキングペーパーは、ムーンショット目標1「身体的共創を生み出すサイバネティック・アバター技術と社会基盤の開発」(PM:南澤孝太)における成果である。
1.はじめに
サイバネティック・アバター(Cybernetic Avatar: CA)は、ロボットや3D映像によるヴァーチャル身体を示すアバターに加えて、人の身体的能力、認知能力及び知覚能力を拡張するICT技術やロボット技術を含む概念である。Society 5.0時代のサイバー・フィジカル空間で自由自在に活躍するものとして開発が進められている。ムーンショット目標1では、2050年までに、複数の人が遠隔操作する多数のアバターとロボットを組み合わせることによって、大規模で複雑なタスクを実行するための技術を開発し、その運用等に必要な基盤を構築することが目指されている。
CAは、新しいコンセプトであるがゆえに、そのELSIを直接的に取り扱う既往研究は少数である(e.g. 新保 2021; Shimpo 2023; Moriuchi 2023; 水上 2025)。そこで、本ワーキングペーパーでは、関連する幅広い技術領域を対象としたELSIのレビューを行うことで、CAのELSIに関わる論点やキーワードを俯瞰的に整理・紹介することを目指した
本調査では、CAに関係の深い関連領域として、Cybernetic Avatar, Robotic Avatar, Virtual Avatar, Digital Body, Metaverse, VR (XR), Social Robot, Human-Robot Interaction, Telepresence, Telexistence, Cybernetics Embodied Technology, Exoskeletonといったテーマに注目した。これらのテーマに関わるELSIを対象として、特に直近5年間を中心とした文献調査を実施した。
今回の分析は、CAをめぐるELSIの論点を最低限概観するためのものである。そのため、必ずしも完全な網羅性を担保するものではなく、途中経過を箇条書き形式で列挙する形で報告しているに過ぎない。現在、更なる調査を鋭意進めているところである。
しかしながら、少なくとも本報告で挙げられているような視点や論点を無視した形でCAのELSIは議論できないだろう。また、似たような論点が繰り返し出てくることからも、それらの視点を抜きに議論することは難しいことを感じて頂けるものと考えている。本報告が、今後のCAをめぐるELSIやそのガバナンスをめぐる議論の一助となることを期待する。
以下では、第2章においてソーシャルロボットならびにヒューマン・ロボット・インタラクション、第3章においてメタバース/XR技術、第4章では外骨格技術(エグゾスケルトン)/身体化技術(embodied technology)をめぐるELSIを扱う。そして、第5章では、数は少ないものの、すでに公刊されているサイバネティック・アバターのELSIに関する文献を検討する。
1 2030年までに、1つのタスクに対して、1人で10体以上のアバターを、アバター1体の場合と同等の速度、精度で操作できる技術を開発し、その運用等に必要な基盤を構築することが目指されている。
2.ソーシャルロボットならびにヒューマン・ロボット・インタラクション(Human-Robot-Interaction: HRI)をめぐるELSI
ソーシャルロボットやヒューマン・ロボット・インタラクション(HRI)をめぐるELSIの議論は、A.アシモフのロボット三原則をスタート地点として語られることが多い。しかしながら、昨今の議論はそこにとどまらず、ロボットの位置づけや取り扱いをめぐる法的な不確実性、プライバシーとセキュリティの問題、社会正義、人の尊厳や自由に与える影響、人間関係に与える影響、(内部システムと機構の)透明性などに関わる課題が繰り返し指摘されている。
- ロボットの利用に関して、A.アシモフのロボット三原則が前提となることが多い。
第一原則「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない。」
第二原則「ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が、第一条に反する場合は、この限りでない。」
第三原則「ロボットは、前掲第一条および第二条に反するおそれのないかぎり、自己をまもらなければならない。」
- ソーシャルロボットへの人々の態度は、概してポジティブである。また不安や信頼などの要素、ロボット機能や使用文脈が態度に影響する(Naneva et al. 2020)。
- Torras (2024)は、個人と社会のレベルに分けてソーシャルロボットの倫理的懸念について整理をしている。
個人レベルの懸念(Individual-Level Concerns):
✔︎人の尊厳(Human Dignity):ロボットは、特に高齢者介護のような環境において、ユーザーを軽視したり、その自律性を損なうような行為をしてはならない。
✔︎自律性(Human Autonomy): デザインは、特に説得的な「ナッジ」を通じて、操作や過度の依存を避ける必要がある。
✔︎透明性(Robot Transparency): ロボットは、感情や知能を欺瞞的に模倣してはならず、ユーザーはその機械的な性質を理解すべきである。
✔︎感情的紐帯(Emotional Bonding):ロボットとの感情的な絆は社会的孤立や心理的な害を引き起こす可能性がある。
✔︎プライバシーと安全性(Privacy and Safety):データ濫用、監視、およびハッキングのリスクは、特に国内環境において適切に対処する必要がある。
社会レベルの懸念(Societal-Level Concerns):
✔︎正義(Justice):ロボットサービスの利用は公平でなければならない。デジタル格差やアルゴリズム・バイアスを回避する必要がある。
✔︎自由(Freedom): 監視、負の自由の喪失(例:強制)、および「リバタリアン的パターナリズム」などを考慮する必要がある。
✔︎責任(Responsibility):デザイナーと政策立案者は、持続可能かつ包摂的で透明性の高いロボットシステムを確保する責任を共有している。
- 2010年に英国においてEPSRCならびにAHRCによって実施されたワークショップでは、ロボット利用に関する5つの倫理原則と7つのメッセージが提示されている(Boden et al. 2017)
倫理原則
- ロボットは多目的ツールである。ロボットは、国家安全保障の利益を除き、人間を殺傷または危害を加えることを唯一の目的または主要な目的として設計されるべきではない。
- ロボットではなく、人間が責任の主体である。ロボットは、既存の法律、基本的人権および自由(プライバシーを含む)に可能な限り準拠するように設計され、運用されるべきである。
- ロボットは製品である。その安全性とセキュリティを保証するプロセスによって設計されるべきです。
- ロボットは造られた人工物である。脆弱なユーザーを搾取し、欺くような方法で設計されるべきではない。その機構と性質は透明であるべきである。
- ロボットの法的責任を負う者は明確に特定されるべきである。
7つのメッセージ
- 私たちは、ロボットが社会に大きなポジティブな影響を与える可能性を信じています。私たちは、責任あるロボット研究を促進したいと考えています。
- 悪い実践は私たち全員に害を及ぼします。
- 明らかな人々の懸念に対応することは、私たち全員が前進するための助けとなります。
- ロボティクス研究者として、私たちは最良の実践基準にコミットしていることを示すことが重要です。
- 私たちの研究の文脈と影響を理解するため、社会科学、法学、哲学、芸術など他の分野の専門家と協力すべきです。
- 透明性の倫理について検討すべきです。公開すべき情報の限界はあるのでしょうか?
- メディアで誤った報道を見かけた場合、私たちは報道記者に連絡を取る時間を確保することを約束します。
- ソーシャルロボットのELSIに対する対応指針のカテゴリーをめぐる議論の例がある。その論点をまとめたものが表1である(Fosch-Villaronga et al. 2020)。
- ヒューマン・ロボット・インタラクション(HRI)をめぐるELSI論点としては、例えば下記のものがある(Wullenkord and Eyssel 2020)。
▫︎ガバナンス:法的ギャップ、責任、プライバシー、(データ)セキュリティ、同意、自律性といった課題への対応
▫︎ユーザーとロボットの差別:ロボットが人の差別やバイアスを学習し、引き継いでしまう
▫︎ユーザーの非人間化:ロボットとの関係性が良くなるほど、その人は社会的コミュニティからの離脱するのでは?
▫︎ロボットによる虚偽の可能性をめぐる問題
▫︎人とロボットの関係性の脆弱性:脆弱性ミラーリング(Vulnerability mirroring)の効果
♦「弱いロボット」が持つポジティブな可能性
- ソーシャル・アシスティブ・ロボット(Social Assistive Robots: SAR)をめぐる議論では、その主要な倫理的課題について下記のような論点を多く登場する(Boada et al. 2021)。
ウェルビーイング(Well-being)に関わる論点
▫︎プライバシーとデータ管理:データの取得と調査がもつ個人の自律性を侵害するリスク(特に、社会的に脆弱な人々に対して)
▫︎欺瞞:ユーザーがロボットに共感や意識を持っていると誤解させるリスク。
▫︎自律性 (Autonomy):過剰な支援がユーザーの自立性を損なう可能性。操作や不適切な意思決定の助長
▫︎人間的接触の喪失:ロボットとの関係性が意味のある人間関係を減らす可能性
▫︎安全性:身体的かつ精神的な安全性の確保
▫︎尊厳:SARは使用者の選択可能性(capability)を増やしも減らしもしうる
▫︎感情的な絆:人間とロボットの相互作用が、複雑な人間的価値をもたらしている。
▫︎非真正的な相互主観性(Unauthentic Intersubjectivity):人間とロボットの関係の質と現実性について疑問が提起される。
▫︎自由:「消極的な自由(negative liberty)」をめぐる懸念
▫︎客体化:データ取得、尊厳の欠如とのつながり
▫︎人と人との関係性:機械との関係深化が人間関係を置き換え、人間理解を損ねる可能性
▫︎人のモラル能力:良識も悪徳も両方を強化する可能性
▫︎認知:誰の認識や選好が優先的に認知され、反映されるのか。またロボットとの関係性は権力関係を含むが、そのことが人間の相互作用における道徳的腐敗の源泉になるリスク。
▫︎アイデンティティ:SARによって自己のアイデンティティに対する快適さが侵害されるリスク、またSAR開発における潜在的な集団アイデンティティの表現をめぐるスティグマ化の問題。
ケア(Care)に関わる論点
▫︎正統性: SARは、適切かつ望ましいケアを提供するか?
▫︎ケア実践の質:ケアの非人間化に関する懸念
▫︎人間の道徳的実践:介護者の道徳的発達を損なうリスク
▫︎信頼:ケアにおいて不可欠な要素である信頼が、ロボットの誤用によりそこなう可能性
▫︎ケア概念に対するインパクト:SARの使用が従来のケア概念を変化させる可能性
▫︎役割の変化:ケアをめぐる役割の伝統的理解と分担に関する疑問
正義(Justice)に関わる論点
▫︎分配的正義:SAR技術への不平等なアクセスのリスク
▫︎SARの政治性:誰が問題や利益を定義するか?技術解決主義がもたらすリスク
▫︎責任:ロボットが引き起こした外に対する説明責任の曖昧さ
▫︎社会的平等:データのバイアスが特定の集団を周辺化するリスク
▫︎ロボットによる意思決定:機械倫理に関する懸念の勃興
▫︎環境持続可能性:環境倫理的課題は重要であるにもかかわらず、見過ごされてきた
- SARにおける懸念として更に下記のものも挙げることができる(Wullenkord and Eyssel 202)
▫︎信頼(性)をめぐる課題
▫︎ロボットの権利-人間中心(human centered)的な視点からの議論はされてきたが、robot-centeredな視点からの議論はされてこなかった
▫︎戦争、性産業、脆弱な人々へのケアなどの領域における課題
▫︎子どもや痴ほうの老人などのケース:変化しつづける「認知」への対応
- テレプレゼンスロボット/テレイグジスタンスロボット(Telepresence Robot/Telexistence Robot)のケア活用における議論も行われている。その論点を以下の表2にまとめた
3.メタバース/XR技術を巡るELSI
メタバースをめぐるELSIの議論の多くはAIをめぐる議論と共通していると考えられている。その前提の上で、バイアス・偏見・差別、誤情報やディープフェイクをめぐる課題、メタバース空間をめぐるガバナンスの課題などが指摘されている。また、使用者における依存性や中毒、心身に対するケアなどの課題も指摘されている。今後の課題としては、メタバース空間の安全性の確保、バイアスの克服、データ/プライバシーの適切な保護、環境負荷の少ない設計と運用などが特に指摘されている。
- メタバースをめぐるELSIの多くは、AIで議論されているものと共通していると考えられている。
- メタバースは、その技術開発動向や、ビジネスの展開可能性、サービスのあり方などを中心に語られてきた(Kim and Kim 2024)。
- メタバースをめぐるELSIとして以下の論点を挙げることができる(e.g. Lin and Latoschik 2022; Benjamins et al. 2023; Vig et al. 2024; Kourtesis 2024; Yasuda 2025)
▫︎バイアス・偏見・差別:AIは既存のバイアス・偏見・差別を学習してしまうことはよく指摘される。メタバースやXR利用についても同様の問題が生じうることが懸念されている。
▫︎誤情報・詐欺・ディープフェイクの問題:より精巧な誤情報やディープフェイクの作成が懸念されている
▫︎著作権・知的財産権:バーチャル所有権の盗難、教師データ収集における権利関係の問題
▫︎ガバナンスならびにセキュリティと安全性に関する懸念(Deng and Ruan 2009; Falchuk et al. 2018; Lemely and Volokh 2018; Lin and Latoschik 2022):
▪︎データプライバシー
✔︎メタバース上では様々な行動がログとして残りやすいという特徴がある
▪︎アバターの認知・認証/ユーザー認証
▪︎アクセス管理/アイデンティティ管理
▪︎アイデンティティ・プライバシー保護
▪︎プライバシーの暴露や、ハッキング、データ漏洩をめぐる課題
▪︎アバターへの侵害/アイデンティティへの侵害
▪︎説明責任への脅威:責任の主体が曖昧になることへの懸念
▪︎法的懸念:現行法が追い付いてない問題、規制ギャップ
▪︎テロリストによる勧誘やマネーロンダリングへの活用
▫︎心身への影響/ヘルスケア利用に関わる問題
2 AIをめぐるELSIについて、日本語で読める入門的な本として、『AI社会の歩き方』がある(江間 2019)。
3 メタバースを対象とした哲学的な視点からの最近の検討として、戸谷(2024)や呉羽ほか(2025)がある。
♦ヘルスケアにおけるVRやVirtual Avatar活用では、診断や治療において医療者不足を支援するなどのメリットが指摘されている
♦メタバースのヘルスケア利用における特に顕著なELSI論点(Rudschies and Schnerider 2024)。
✔︎治療における匿名性がもたらす主体の曖昧化
✔︎医者-患者の関係性・信頼・共感が毀損されるリスク
✔︎ケアの質への影響、誰にとってのベネフィットかという問い
✔︎治療の正確性・アウトカムのクオリティへの影響
✔︎専門家の役割の変化(治療における非人間化のリスク)
✔︎メタバースやVRへの中毒による拒食症・食欲不振・肥満、VR二日酔い等
♦現実への失望と悲嘆の増大
♦サイバーいじめの増加
♦子ども/若年層における没入型体験への脆弱性/リアリティの喪失(Usmani et al. 2022)。
- 社会の分極化:SNSにおけるエコーチャンバーと同様に、メタバース空間上でも社会的な分極化が生じる可能
- 自由に関わる課題:
♦表現の自由と攻撃的なコンテンツのバランス
♦メタバース内でのバーチャル攻撃は犯罪として考えるべきかという課題
♦XR技術の組み合わせと性能向上により、現実の一部が操作可能になる懸念
- 人と機械の関係性の変化、現実と仮想-二つの世界に関わる課題
♦現実世界で違法であることと、メタバース世界での法的取り扱いの差異。
✔︎誰が、どのように規制・制御するか(人の介入と適切なシステム自律性をめぐる課題)
♦社会関係の希薄化:メタバース空間での時間経過が長くなることで、現実世界での結果や反応に鈍感になる
✔︎BotがBotであることの提示することの必要性
- 平等に関わるチャレンジ
♦経済的格差(ハードウェアの性能と価格格差の問題)
♦作成者による攻撃的介入に対する対応
- エネルギー問題/環境問題への影響:カーボンフットプリント、水の大量消費、デジタル廃棄物をめぐる課題への対応
- デュアルユース的課題:悪用や軍事転用をめぐる倫理的・法的・社会的懸念
♦監視資本主義(surveillance capitalism)の問題(Yasuda 2025)
✔︎国家安全保障上のリスク
✔︎「操作」の問題
✔︎人のデータとしての「消費財化」
- メタバースをめぐるガバナンスにおいて下記の論点を倫理的原則に盛り込むことを提案する研究もある(Yasuda 2025)。
1)環境的視点
- 再生エネルギーの導入
- 持続可能なハードウェアの導入
- ユーザーの教育と啓蒙
2)社会的視点
- メタバースの安全性と多様性の保証
- バイアスの無いデータ実践の実装
- アクセシビリティの改善
- 自動化されたモジュレーションシステムと報告メカニズムの実装
- デジタルスキルを持つユーザーの教育
- メタバースへのアクセスの障壁低減
3)経済的視点
- 強力なデータ保護とプライバシー保護の保証
- 競争強化と寡占的支配の禁止
- 貢献者の保護
- 追跡調査/監視(surveillance)によるユーザーコンセントの獲得
コラム:AIをめぐるELSIの国際的な議論
メタバースをめぐるELSIの多くは、AIで議論されているものと共通していると考えられている。本報告ではAIそのものをめぐるELSI議論は対象としていないが、最近の議論動向について簡単に触れておくことは、読者が背景や文脈を理解する上で有用であると考えられる。
- AIをめぐるガバナンスにおいては、各国の議論に加え、UNESCOやOECDなどの国際機関でも積極的な議論が行われている。
◻︎EU AI規制法:2024年5月21日に成立。リスクベースドアプローチの採用(容認できないリスク、ハイリスク、限定的なリスク、最小限のリスクに分類)。生成AIも対象となっている。
◻︎EU (2019) Ethics guidelines for trustworthy AI:信頼に足るAIというコンセプトを強調している。特に以下の点が重要視されている。
♦法令順守:適用されるすべての法律および規制を遵守する
♦倫理的:倫理的な原則と価値観を尊重する
♦頑健性:技術的な観点ならびにその社会的環境も考慮する
✔︎「信頼に足るAI」を評価するためのアセスメントリスト報告Assessment List for Trustworthy Artificial Intelligence (ALTAI)の公表(EU 2020)
◻︎UNESCO (2022) Recommendation on the Ethics of Artificial Intelligence:人権や基本的自由の保護と促進、多様性と包摂などの価値を強調している。
◻︎OECD AI Principles:2019年発表(2024年に改訂)。5つの価値を強調。
♦包摂的成長・持続的発展・ウェルビーイング(Inclusive growth, sustainable development and well-being)
♦公平性とプライバシーを含む人権と民主主義的価値(Human rights and democratic values, including fairness and privacy)
♦透明性と説明可能性(Transparency and explainability)
♦頑健性・セキュリティ・安全性(Robustness, security and safety)
♦説明責任(Accountability)
◻︎日本:『人間中心のAI社会原則』(内閣府 2019)、『AI原則実践のためのガバナンス・ガイドライン ver. 1.1』(経済産業省 2022)などが公開されている。
4 https://artificialintelligenceact.eu/
5 https://www.oecd.org/en/topics/ai-principles.html
- AIをめぐるガバナンスにおける主要な課題として、以下のテーマが挙げられる(Jobin et al. 2019)。
◻︎5つの主要なテーマ
♦透明性(Transparency)
♦正義と公平性(Justice and Fairness)
♦非有害性(Non-maleficence- avoiding harm)
♦責任と説明責任(Responsibility and Accountability)
♦プライバシー(Privacy)
◻︎それ以外のテーマ
♦利益(Beneficence)
♦自由と自律性(Freedom and autonomy)
♦信頼(Trust)
♦持続可能性(Sustainability)
♦尊厳(Dignity)
♦連帯(Solidarity)
- 生成AIをめぐるELSIについては、2024年の俯瞰的なレビュー論文が発表され、19のテーマカテゴリと合計378の規範的問題が見出されている(Hargendorff 2024)。
4.外骨格技術(エグゾスケルトン)/身体化技術(embodied technology)をめぐるELSI
外骨格技術や身体化技術をめぐるELSIとしては、デュアルユース、技術アクセシビリティ、技術への依存、法的取扱いの在り方などが課題として指摘されている。そのうえで、これらの技術の社会受容において、義肢の装着の有無とその種類により評価が変わること、「サイボーグ」という呼称自体が持つネガティブなイメージの問題が指摘されている。技術をめぐるステレオタイプは、技術内容と言葉が持つイメージの両方の影響を受けることに留意が必要である。
- 外骨格技術をめぐるELSI(Greenbaum 2016)
▫︎デュアルユース(Dual Use)の問題:産業、軍事、スポーツにおける展開をめぐる課題
▫︎技術アクセスをめぐる問題、アクセスにおける差別的な取り扱いの懸念
▫︎技術依存と撤退:利用者が依存的な状況において、事業者が撤退した場合に起きる課題を考慮する必要がある
▫︎能力可能性(Ableness)と障害(Disability)をめぐる定義への影響
▫︎法律に関わる問題:刑法、不法行為法、生産物責任法、プライバシー、労働者災害補償、労働者の権利などへの影響
- 身体化技術の社会受容研究(Meyer and Asbrock 2018; Mandl et al. 2022):ローテク義肢装着者、ハイテク義肢装着者、健康体、産業ロボット、ソーシャルロボット、アンドロイドロボットについて、Warmth、Competence、Sociability, and Moralityについての観点から意識調査
▫︎バイオニック義肢を装着するものの能力は高く見積もられるが、健康体の人ほどではない。しかしバイオニック義肢は機能と暖かさをより認識されやすく、機能強化と同時に心理的利益をもたらす。
▫︎「サイボーグ」と呼ぶこと自体が、より「冷たい」ものとして脅威に対する認識を促す。
▫︎ステレオタイプはテクノロジーと言葉の両方の影響を受ける。包摂性・政策・公共の議論に影響を与えうる
▫︎高度な義肢装着者の受容は肯定的である
▫︎擬人的でないほど、more competentにとらえられている。擬人的なほど、社会的なものとして捉えられる傾向
▫︎擬人的なものほど法的・モラル的な性質を持つ可能性が高いと判断されるが、人々はロボットに法的地位や意思決定権を与えることを躊躇する傾向がみられる
▫︎パーソナリティ特性(例:共感、開放性)は、人々が人間をどのように認識するかには影響するが、ロボットをどのように認識するかには影響せず、人間とロボットの比較における心理的境界を示している
5. Cybernetic AvatarをめぐるELSI
CAをめぐるELSIを直接的に取り扱う文献の数は多くないものの、少しずつ研究が進みつつある。法学的見地からの検討では、現行法ではアバターは「物」としてか扱われず、法的主体にならないこと、CAによる行為が本人の行為と認められるためには顕名か代理権のような根拠が必要であることなどが指摘されている。またCAを用いた労働における労働者性の取り扱いなども検討課題として残されている。分身ロボットOriHimeを事例とした社会受容研究も登場しつつあるが、OriHimeが使用者やオーディエンスのコミュニケーションに与える影響の詳細についての研究は道半ばである。
- 現状、CAを直接的に言及し、主題としている研究例は少ない。しかしながら、いくつかの文献が登場しつつある。
- 法学的見地からの検討(e.g. 新保 2021; Shimpo 2023)
▫︎CAは「有体物」と「無体物」に分類される。これによって対象範囲が異なってくる。現行法ではアバターは「物」としてか扱われず、法的主体にならない。
▫︎CAによる行為が本人の行為と認められるためには、顕名か代理権のような根拠が必要である(顕名CAのモデルを提案)
♦匿名CAは連結可能か連結不可能かで更に分類される
♦CAの本人確認(存在証明)・認証に関わる課題
✔︎記憶認証(ID・PW)、物的認証(ICカード)、生体認証(顔・声・指紋など)、その他の個人識別符号(表2:個人情報の保護に関する法律施行令第1条1号)
▫︎IP情報漏れ、デュアルユース的な課題も
♦ELSI by Design
♦アバター法の制度設計が必要:GDPR、EUのAI Actなどの流れも見ながらの議論する必要性がある
- Cybernetic Beingプロジェクトでは、『アバターロボットを用いた働き方の導入ガイドライン 2024~労働者性と国際私法を中心に』を公表している。
▫︎労働者性に関わる法律例:労働基準法、労働契約法、労働組合法
▫︎アバターロボットは国境を越えた操作ができる=>国際私法の領域
▫︎課題の例:
♦アバターロボットを用いたフリーランスの労働者性の取り扱い
♦解雇・契約終了に関わる課題
♦どの国の法律に基づいた解雇なのか?といった問題
♦独立した事業者としての労働者性の評価
♦労働者としての立場の取り扱い
♦安全配慮義務
6 https://cybernetic-being.org/activities/avatarrobot_workdesign_guideline_2024/
- CAをめぐる哲学的見地からの検討(水上 2025)
▫︎アバターをめぐる認識の多様性が生む壁:「実質的」をめぐる基準の多様性
▫︎仮想空間が現実空間を超えた課題を提示する可能性
▫︎CA技術が新たに形づくる、「私たち」の実存のあり方と規範
♦メタバースの議論で見た、アイデンティティをめぐる課題との類似性
- OriHimeを用いたアバター・ロボット・カフェ(DAWN)を対象とした取材・調査では、OriHimeの中に人がいないと思い込んで暴言などが発せられる事例があることが報告されている(江間 2024)。
- ドイツならびに日本を事例としたアバターロボット(AV1ならびにOriHime)の学校における活用についてのインタビュー調査では、様々な理由で学校に行くことのできない自動が学校や社会と「繋がる」ことができるものとしてアバターロボットへの期待や肯定感は大きい事が伺える。しかし、導入のための予算措置や、個人情報保護をはじめとしてその活用のための制度的ハードルがあることが指摘されている(Spoden and Ema 2024)。
- ソーシャルマーケティングの観点から、CAが社会的包摂にどのように影響しうるかを検討した研究もある:OriHimeを活用したカフェ(DAWN)を念頭に、説明文書と動画を用いてアメリカ人からの回答票を取得している(Moriuchi 2023)。
▫︎Study1:11名の参加者を対象にCAカフェのビデオを視聴させ、感情反応を記録(Affdexを使用)。喜びに関する反応が主で、ネガティブ反応はまれ
▫︎Study2:347名の回答を得て、擬人化、態度、訪問意図をSEMで検討。「不気味の谷」効果が、CAカフェへの訪問意図に負の影響。態度が正の影響
▫︎Study3:334名(移動障がいあり/なしの2グループ)の回答を得て、社会的信念が、態度や訪問意向に与える影響を検討。 「不気味の谷」効果が与える効果は、両グループに共通。また包摂性が態度に与える影響は大きい。移動障がいがある人々において社会的影響信念が訪問意向に与える影響がより強い。
おわりに
CAに関する研究が積極的に進められている一方、そのELSIを直接的に取り扱う既往研究は少ない。そこで本ワーキングペーパーでは、CAに関係の深い関連領域として、ソーシャルロボット、ヒューマン・ロボット・インタラクション、メタバース(VRやXRを含む)、外骨格技術、身体化技術、テレプレゼンス技術などに注目し、これらのテーマに関わるELSIを対象とした文献調査を実施した。
ソーシャルロボットやヒューマン・ロボット・インタラクション(HRI)をめぐるELSIの議論は、A.アシモフのロボット三原則をスタート地点として語られることが多い。しかしながら、昨今の議論はそこにとどまらず、ロボットの位置づけや取り扱いをめぐる法的な不確実性、プライバシーとセキュリティの問題、社会正義、人の尊厳や自由に与える影響、人間関係に与える影響、(内部システムと機構の)透明性などに関わる課題が繰り返し指摘されている。
メタバースをめぐるELSIの議論の多くはAIをめぐる議論と共通していると考えられている。その前提の上で、バイアス・偏見・差別、誤情報やディープフェイクをめぐる課題、メタバース空間をめぐるガバナンスの課題などが指摘されている。また、使用者における依存性や中毒、心身に対するケアなどの課題も指摘されている。今後の課題としては、メタバース空間の安全性の確保、バイアスの克服、データ/プライバシーの適切な保護、環境負荷の少ない設計と運用などが特に指摘されている。
外骨格技術や身体化技術をめぐるELSIとしては、デュアルユース、技術アクセシビリティ、技術への依存、法的取扱いの在り方などが課題として指摘されている。そのうえで、これらの技術の社会受容において、義肢の装着の有無とその種類により評価が変わること、「サイボーグ」という呼称自体が持つネガティブなイメージの問題が指摘されている。技術をめぐるステレオタイプは、技術内容と言葉が持つイメージの両方の影響を受けることに留意が必要である。
CAをめぐるELSIを直接的に取り扱う文献の数は多くないものの、少しずつ研究が進みつつある。法学的見地からの検討では、現行法ではアバターは「物」としてか扱われず、法的主体にならないこと、CAによる行為が本人の行為と認められるためには顕名か代理権のような根拠が必要であることなどが指摘されている。またCAを用いた労働における労働者性の取り扱いなども検討課題として残されている。分身ロボットOrihimeを事例とした社会受容研究も登場しつつあるが、Orihimeが使用者やオーディエンスのコミュニケーションに与える影響の詳細についての研究は道半ばである。
各領域において、共通して登場するELSIの論点やキーワードも多くみられた。それは、例えば、セキュリティと安全性、データプライバシー、アイデンティティ・ジャック、アイデンティティの喪失、操作、知的所有権・著作権、依存症、親しみやすさのデザインとその懸念、サイバーいじめ、(医療など)特定サービス活用におけるリスク管理、社会/人間関係の希薄化、エネルギー問題/環境問題、表現の自由と攻撃的・有害コンテンツのバランス、規制ギャップ、人間中心デザインの在り方とその限界、説明責任、透明性の確保、分配的正義、格差の拡大、Dual Useなどの論点である。
これらの論点は、CAをめぐるELSIの議論においても避けては通ることができないものであると考えられる。
参考文献
英語文献
❏ Benjamin, R., Viñuela, YR., Alonso C. (2023) “Social and ethical challenges of the metaverse.” AI and Ethics, 3: 689-697. doi.org/10.1007/s43681-023-00278-5
❏ Boada, JP., Maestre, BR., Genís, CT. (2021) “The ethical issues of social assistive robotics: A critical literature review.” Technology in Society, 67: 101726. doi: 10.1016/j.techsoc.2021.101726.
❏ Boden, M., Bryson, J., Caldwell, D., Dautenhahn, K., Edwards, L., Kember, S., Newman, P., Parry, V., Pegman, G., Rodden, T., Sorrell, T., Wallis, M., Whitby, B., Winfield, A. (2017) “Principles of robotics: regulating robots in the real world.” Connection Science, 29(2): 124-129. doi: 10.1080/09540091.2016.1271400
❏ EU (2019) Ethics guidelines for trustworthy AI. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419
❏ EU (2020) Assessment List for Trustworthy Artificial Intelligence (ALTAI). https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=68342
❏ Falchuk, B., Loeb, S., Neff, R. (2018) “The Social Metaverse- Battle for Privacy.” IEEE Technology and Society Magazine, 37(2): 52-61. doi: 10.1109/MTS.2018.2826060.
❏ Fosch-Villaronga, E., Lutz, C., Tamò-Larrieux, A. (2020) “Gathering Expert Opinions for Social Robots’ Ethical, Legal, and Societal Concerns: Findings from Four International Workshops.” International Journal of Social Robotics, 12: 441–458. doi: 10.1007/s12369-019-00605-z
❏ Greenbaum, D. (2016) “Ethical, Legal and Social Concerns Relating to Exoskeletons.” ACM SIGCAS Computers & Society, 45(3): 234-239. doi: 10.1145/2874239.2874272
❏ Hagendorff, T. (2024) “Mapping the Ethics of Generative AI: A Comprehensive Scoping Review.” Minds and Machines, 34: 39. doi: 10.1007/s11023-024-09694-w
❏ Jobin, A., Ienca, M., Vayena, E. (2019) “The global landscape of AI ethics guidelines.” Nature Machine Intelligence, 1: 389–399. doi: 10.1038/s42256-019-0088-2
❏ Kim, Y., Kim, B. (2024) “How do the news media, academia, and the public view the metaverse? Evidence from South Korea.” Technological Forecasting and Social Change, 198: 122980. doi: 10.1016/j.techfore.2023.122980.
❏ Kourtesis, P. (2024) “A Comprehensive Review of Multimodal XR Applications, Risks, and Ethical Challenges in the Metaverse.” Multimodal Technology Interaction. 8: 98. doi: 10.3390/mti8110098
❏ Lemley, MA., Volokh, E. “Law, Virtual Reality, and Augmented Reality.” University of Pennsylvania Law Review, 166(5): 1051-1138.
❏ Lin, J., Latoschik, ME. (2022) “Digital body, identity and privacy in social virtual reality: A systematic review.” Frontiers in Virtual Reality, 3: 974652. doi: 10.3389/frvir.2022.974652
❏ Mandl, S., Bretschneider, M., Meyer, S., Gesmann-Nuissl, D., Asbrock, F., Meyer, B., Strobel, A. (2022) “Embodied Digital Technologies: First Insights in the Social and Legal Perception of Robots and Users of Prostheses.” Frontiers in Robotics and AI, 9: 787970. doi: 10.3389/frobt.2022.787970
❏ Meyer, B., Asbrock, F. (2018) “Disabled or Cyborg? How Bionics Affect Stereotypes Toward People With Physical Disabilities.” Frontiers in Psychology, 9: 2251. doi: 10.3389/fpsyg.2018.02251
❏ Moriuchi, E. (2023) “Bridging social marketing and technology in the disability field: an empirical study on the role of cybernetic avatar and social inclusion.” Journal of Social Marketing, 13(2): 218-240. doi: 10.1108/JSOCM-05-2022-0111
❏ Naneva, S., Sarda GM., Webb, TL., Prescott TJ. (2020) “A Systematic Review of Attitudes, Anxiety, Acceptance, and Trust Towards Social Robots.” International Journal of Social Robotics, 12: 1179–1201. doi: 10.1007/s12369-020-00659-4
❏ Niemelä, M., van Aerschot, L., Tammela, A. Aaltonen, L., Lammi, H. (2021) “Towards Ethical Guidelines of Using Telepresence Robots in Residential Care.” International Journal of Social Robotics, International Journal of Social Robotics, 13: 431–439. doi: 10.1007/s12369-019-00529-8
❏ Rudschies, C., Schneider, I. (2024) “Ethical, legal, and social implications (ELSI) of virtual agents and virtual reality in healthcare.” Social Science & Medicine, 340: 116483, doi: 10.1016/j.socscimed.2023.116483.
❏ Shimpo, F. (2023) “Authentication of Cybernetic Avatars and Legal System Challenges; With a View to the Trial Concept of New Dimensional Domain Jurisprudence (AI, Robot, and Avatar Law).” Japanese Society and Culture, 6: 25-33. doi: 10.52882/2434-1738-0603
❏ Spoden, C., Ema, A. (2024) “Staying connected: implementing avatar robots at schools in Germany and Japan.” Frontiers in Digital Health, 6: 1273415. doi: 10.3389/fdgth.2024.1273415
❏ Torras, C. (2024) “Ethics of Social Robotics: Individual and Societal Concerns and Opportunities.” Annual Reviews of Control, Robotics, and Autonomous Systems, 7: 1-18. doi: 10.1146/annurev-control-062023-082238
❏ UNESCO. (2022) Recommendation on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000381137
❏ Usmani, SS., Sharath, M., Mehendale, M. (2022) “Future of mental health in the metaverse.” General Psychiatry, 35: e100825. doi:10.1136/gpsych-2022-100825
❏ Yasuda A. (2025) “Metaverse ethics: exploring the social implications of the metaverse.” AI and Ethics, 5: 1639-1650. doi: 10.1007/s43681-024-00507-5
❏ Vig, S., Dwivedi, S., Reenu, K. (2024) “Navigating the Ethical, Social and Legal Implications of Metaverse.” 2024 15th International Conference on Computing Communication and Networking Technologies (ICCCNT), doi: 10.1109/ICCCNT61001.2024.10724741
❏ Wullenkord, R., Eyssel, F. (2020) “Societal and Ethical Issues in HRI.” Current Robotics Report, 1: 85–96. doi: 10.1007/s43154-020-00010-9
日本語文献
❏ 江間有沙. (2019)『AI社会の歩き方―人工知能とどう付き合う』化学同人.
❏ 江間有沙. (2024)『分身ロボットとのつきあい方』岩波書店.
❏ 呉羽真, 久木田水生, 藤川直也. (2025)「メタバースは解放をもらたすか?-改善論の立場から」『科学基礎論研究』52(1/2): 1-14.
❏ 経済産業省. (2022)『AI原則実践のためのガバナンス・ガイドライン ver1.1』https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20220128_1.pdf
❏ 新報史生. (2021)「サイバネティック・アバターの存在証明─ロボット・AI・サイバーフィジカル社会に向けたアバター法の幕開け─」『人工知能』36(5): 570-577.
❏ 戸谷洋志. (2024)『メタバースの哲学』講談社.
❏ 内閣府. (2019)『人間中心のAI社会原則』https://www8.cao.go.jp/cstp/ai/aigensoku.pdf
❏ 水上拓也. (2025)「サイバネティック・アバターのELSI-技術哲学からの検討」カテライ・アメリア, 鹿野祐介, 標葉隆馬(編)『ELSI入門-先端科学技術と社会の諸相』丸善出版: 170-186.