人工知能の倫理に関する勧告

人工知能の倫理に関する勧告(仮訳)

 

2021年11月23日 第41回ユネスコ総会採択

 

前文

 国際連合教育科学文化機関(以下「ユネスコ」という。)の総会は、二千二十一年十一月九日から二十四日までパリにおいてその第四十一回会期として会合し、
 人工知能(以下「AI」という。)の新たな方法による利用が人間の思考、相互作用及び意思決定に影響を与え、並びに教育、人文科学、社会科学及び自然科学、文化並びにコミュニケーション及び情報に影響を及ぼすため、社会、環境、生態系及び人間の生命(人間の精神を含む。)に重大かつ動的な、肯定的及び否定的な影響を与えることを認識し、
 ユネスコがユネスコ憲章に基づき、世界の諸国民に対して確認している正義、法の支配、人権及び基本的自由に対する普遍的な尊重を助長するために教育、科学、文化並びにコミュニケーション及び情報を通じて諸国民の間の協力を促進することによって、平和及び安全に貢献することに努めることを想起し、
 ここに提示する勧告が国際法に基づき、世界的規模の取組により作成された規範設定の文書として、人間の尊厳及び人権並びにジェンダー平等、社会的及び経済的な正義及び発展、身体的及び精神的な福祉、多様性、接続性、包摂性、環境保護及び生態系の保護に焦点を合わせたものとして、AI技術を責任ある方向へと導く指針となり得ることを確信し、
 国際連合憲章の目的及び原則に従い、
 AI技術が人類にとって重要なサービスになり得ること、及び全ての国がAI技術の利益を享受し得るだけでなく、基本的な倫理上の懸念(例えば、AI技術が内包し、及び悪化させる可能性がある偏見であって、結果的に差別、不平等、情報格差、排除並びに文化、社会及び生物の多様性への脅威並びに社会的又は経済的な格差を潜在的に生じさせるものに関する懸念)、アルゴリズムの動作及びその訓練に使用されたデータの透明性及び理解可能性が必要であること並びに潜在的な影響(人間の尊厳、人権及び基本的自由、ジェンダー平等、民主主義、社会的、経済的、政治的及び文化的な過程、科学的及び工学的実践、動物の福祉並びに環境及び生態系に対するものを含むが、これらに限定されない。)を引き起こし得ることを考慮し、
 また、AI技術が世界における、国内における及び国家間における既存の格差及び不平等を深める可能性があること並びに各国の異なる状況を認識し、及び全ての技術的な開発に参加しないという一部の人々の希望を尊重しつつ、AI技術に公正にアクセスし、当該アクセスの利益を享受すること又は当該アクセスの悪影響に対する保護を受けることにおいて、いかなる国も、及びいかなる者も取り残されることのないよう正義、信頼及び公正性が支持されなければならないことを認識し、
 全ての国が情報通信技術及びAI技術の使用の加速並びにメディア情報リテラシーの必要性の増大に直面しているという事実並びにデジタル経済が特に低中所得国(LMICs)(後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)を含むが、これらに限定されない。)に対して、持続可能なデジタル経済の発展のために、社会、経済及び環境に関する重要な課題及び利益を共有する機会であって、固有の文化、価値及び知識の承認、保護及び促進を要求するものを提示するという事実を意識し、
 さらに、AI技術が環境及び生態系にとって有益である潜在性があり、それらの利益が実現されるためには、環境及び生態系に損害及び悪影響を及ぼすおそれについては、無視されるべきではなく、むしろ、対処されるべきであることを認識し、
 リスク及び倫理上の懸念に対処することがイノベーション及び開発を妨げるものではなく、むしろ、新たな機会を提供し、並びに倫理的に行われる研究及びイノベーションであって、人権及び基本的自由、価値及び原則並びに道徳的及び倫理的な考察にAI技術を強く結び付けるものを促進するものであることに留意し、
 また、二千十九年十一月にユネスコの総会がその第四十回会期において、事務局長に対して、二千二十一年のユネスコの総会の第四十一回会期において提出されるべきものとしての「勧告の形式での人工知能(AI)の倫理に関する国際的な規範設定の文書を作成すること」を委任した決議三十七(第四十回会期)を採択したことを想起し、
 AI技術の開発がデータの相応の増加、メディア情報リテラシーの相応の向上及び独立した、多元的で信頼できる情報源へのアクセスの相応の向上(誤情報、偽情報及びヘイトスピーチ並びに個人情報の濫用によって引き起こされる損害に関するリスクを緩和するための努力の一環を含む。)を必要とすることを認識し、
 AI技術及びその社会的影響に関する規範的な枠組みが、共通の理解及び共有される目的に基づき、国際的な及び国内の法的枠組み、人権及び基本的自由、倫理、データ、情報及び知識へのアクセスの必要性、研究及びイノベーションの自由、人間の福祉並びに環境の及び生態系の福祉にその基礎を見いだすものであり、また、AI技術に関連する課題及び機会に倫理上の価値及び原則を結び付けるものであることを認め、
 また、倫理的な価値及び原則が技術開発の急速な進展を視野に入れた指針を提供することにより、権利に基づいた政策措置及び法的規範の作成及びその実施を支援し得ることを認識し、
 また、国際法(特に人権法)を十分に尊重し、世界的に認められたAI技術に関する倫理基準が全世界でAI関連の規範を策定する上で主要な役割を果たし得ることを確信し、
 千九百四十八年の世界人権宣言、千九百五十一年の難民の地位に関する条約、千九百五十八年の差別(雇用及び職業)条約、千九百六十五年のあらゆる形態の人種差別の撤廃に関する国際条約、千九百六十六年の市民的及び政治的権利に関する国際規約、千九百六十六年の経済的、社会的及び文化的権利に関する国際規約、千九百七十九年の女子に対するあらゆる形態の差別の撤廃に関する条約、千九百八十九年の児童の権利に関する条約及び二千六年の障害者の権利に関する条約を含む国際的な人権の枠組みに関する文書、千九百六十年の教育における差別の防止に関する条約、二千五年の文化的表現の多様性の保護及び促進に関する条約並びにその他関連する国際文書、勧告及び宣言に留意し、
 また、千九百八十六年の発展の権利に関する国際連合宣言、千九百九十七年の将来の世代に向けた現在の世代の責任に関する宣言、二千五年の生命倫理と人権に関する世界宣言、二千七年の先住民族の権利に関する国際連合宣言、二千十五年の世界情報社会サミットのレビューに関する国際連合総会決議(決議第百二十五号(第七十回会期))、二千十五年の我々の世界を変革する:持続可能な開発のための二千三十アジェンダに関する国際連合総会決議(決議第一号(第七十回会期))、二千十五年のデジタル形式を含む記録遺産の保護及びアクセスに関する勧告、二千十七年の気候変動に関する倫理原則の宣言、二千十七年の科学及び科学研究者に関する勧告、二千十八年にユネスコの国際コミュニケーション開発計画が承認したインターネットの普遍性指標(二千十五年にユネスコの総会が承認したROAM原則を含む。)、二千十九年の「デジタル時代におけるプライバシーの権利」に関する人権理事会決議(決議第十五号(第四十二回会期))及び二千十九年の「新しいデジタル技術と人権」に関する人権理事会決議(決議第十一号(第四十一回会期))に留意し、
 低中所得国(LMICs)(後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)を含むが、これらに限定されない。)が自国の能力を有するものの、AIの倫理に関する議論において少数しか代表されておらず、そのことは、現地の知識、文化多元主義、価値体系並びにAI技術に関する肯定的及び否定的な影響に対処する世界的な公平性の必要性が軽視されることについての懸念を提起することから、特別な注意が払われなければならないことを強調し、
 また、倫理及びAI技術の規制に関する多数の現行の各国の政策、国際連合関係機関、政府間機関(地域機関を含む。)並びに民間部門、専門的機関、非政府機関及び科学コミュニティにより実施された他の枠組み及び自発的活動を意識し、
 さらに、AI技術が重要な利益をもたらし得るが、それを実現することは、イノベーションを巡る緊張、知識及び技術への不均整なアクセス(AIに関連する事項に関与する公衆の能力を制限するデジタルリテラシー及び市民リテラシーの不足を含む。)並びに情報へのアクセスを妨げる障壁、能力、すなわち人的及び制度的能力における格差、技術革新へのアクセスを妨げる障壁並びに適切な物理的基盤及びデジタル基盤及び規制の枠組み(データに関連する基盤及び枠組みを含む。)の欠如を増幅させる可能性もあり、これらは全て対処される必要があることを確信し、
 AI技術への公正なアクセスを容易にし、並びにAI技術が文化及び倫理的体系の多様性及び相互接続性にもたらす課題に対処することで、潜在的な濫用の可能性を軽減し、AIがもたらし得る最大の可能性(特に、開発分野におけるもの)を実現し、並びに各国のAI戦略が倫理上の原則に従うことを確保するため、世界的な協力及び連帯の強化(多数国間外交を通じたものを含む。)が必要であることを強調し、
 AI技術の急速な発展がAI技術の倫理的な実施及び規律並びに文化の多様性の尊重及び保護に課題をもたらし、並びに地方及び地域の倫理的な基準及び価値に混乱をもたらす可能性を有することを十分に考慮して、
  1 この人工知能の倫理に関する勧告を二千二十一年十一月二十三日に採択する。
  2 加盟国が自国の管轄内においてこの勧告の原則及び規範を国際法(国際人権法を含む。)に従って実施するため、各国の憲法上の実践及び統治体制に従い適当な措置(立法措置又はその他の措置のいかんを問わず必要とされるものを含む。)をとることによって、この勧告の規定を任意に適用することを勧告する。
  3 また、加盟国が、全ての利害関係者(企業を含む。)がこの勧告の実施においてそれぞれの役割を果たすことを確保するよう関与し、並びにAI技術の開発及び使用が健全な科学研究並びに倫理的な分析及び評価の双方に従ったものとなるように、この勧告について、AI技術に関与する当局、団体、研究及び学術機関、公的、民間及び市民社会部門の団体及び組織に注意を喚起することを勧告する。

Ⅰ 適用範囲

 1 この勧告は、ユネスコの任務の範囲内で、人工知能の領域に関連する倫理的問題に対処する。この勧告は、相互に依存した価値、原則及び行動に関する全体的、包括的、多文化的及び発展的な枠組みに基づきAI技術が人間、社会並びに環境及び生態系に与える既知及び未知の影響について社会が責任を持って取り扱うための指針となり得る体系的かつ規範的な省察であり、社会に対してAI技術を受け入れ、又は拒否する根拠を提供する。この勧告は、倫理について、AI技術に関する規範的な評価及び指針のための動的な基礎であって、人間の尊厳、福祉及び損害の防止を方向性として参照し、並びに科学及び技術の倫理に根ざしたものであるとみなす。
 2 この勧告は、AIの定義が技術の開発に従い時間とともに変容するものであるため、AIの単一の定義を提供するという野心を有しない。この勧告の趣旨は、むしろ、倫理との中心的な関連性を有するAIシステムの特徴に取り組むことである。したがって、この勧告は、AIシステムを知的活動に類似した方法でデータ及び情報を処理する能力を備え、及び典型的には推論、学習、認識、予測、計画又は制御の側面を含むものとして取り組む。次の三つの要素がこの取組における中心的な位置を占めている。
  (a) AIシステムは、学習及び認識の作業を実行する能力を生み出すモデル及びアルゴリズムで実体環境及び仮想環境における予測及び意思決定等の結果をもたらすものを統合する情報処理技術である。AIシステムは、知識のモデル化及び表現並びにデータの利用及び相関関係の計算により、様々な程度の自律性をもって動作するよう設計されている。AIシステムには、いくつかの手法(次の手法等を含むが、これらに限定されない。)を含む。
   (i) 機械学習(深層学習及び強化学習を含む。)
   (ii) 機械推論(計画、決定、知識表現及び推論、検索、最適化を含む。)
AIシステムは、サイバー・フィジカルシステムにおいて使用が可能であり、これには、IoT、ロボットシステム、ソーシャルロボティクス並びに制御、知覚及びセンサーにより収集されたデータの処理に関与するヒューマン・コンピュータ・インターフェイス並びにAIシステムが動作する環境におけるアクチュエータの操作が含まれる。
  (b) AIシステムに関する倫理的問題は、AIシステムのライフサイクルの全ての段階(ここでは研究、設計及び開発から、導入並びに使用(保守、運転、営業、融資、監視及び評価、認証、使用停止、分解並びに終了を含む。)とする。)に関連する。さらに、AI関係者とは、AIシステムのライフサイクルの少なくとも一つの段階に関与する関係者と定義することができ、自然人及び法人(特に研究者、プログラマー、エンジニア、データ科学者、エンドユーザー、企業、大学並びに公的機関及び民間団体等)の両方をいう。
  (c) AIシステムは、新たな種類の倫理的問題を提起する。その倫理的問題には、意思決定、雇用及び労働、社会的な相互作用、保健医療、教育、メディア、情報へのアクセス、情報格差、個人情報及び消費者保護、環境、民主主義、法の支配、安全及び治安、二重使用並びに人権及び基本的自由(表現の自由、プライバシー及び無差別を含む。)に対する影響が含まれるが、これらに限定されない。さらに、AIアルゴリズムが既存の偏見を再現し、及び強化し、そのために既存の形態の差別、偏見及び定型化された概念を悪化させる可能性があることから、新たな倫理的課題が生じている。これらの問題の中には、以前は生物によってのみ行われ得た作業、場合によっては人間のみに限られていた作業を行うAIシステムの能力に関する問題もある。これらの特性によりAIシステムは、人間の実践及び社会において並びにAIシステムの環境及び生態系との関係において深遠な及び新たな役割を有し、児童及び若者が成長し、世界と自分自身についての理解を深め、メディア及び情報を批判的に理解し、決定することを学習するための新たな状況を創出している。AIシステムは、長期的には、経験と主体性という人が持つ特別な知性に対抗するようになり、特に人の自己理解、社会的、文化的及び環境的な相互作用、自律性、主体性、価値及び尊厳に関する追加的な懸念を生じさせる可能性がある。
 3 この勧告は、科学的知識と技術の倫理に関するユネスコの世界委員会(COMEST)による二千十九年のAIの倫理に関する予備調査で検討されたとおり、教育、科学、文化並びにコミュニケーション及び情報というユネスコの中心的領域に関連するAIシステムのより広範な倫理的影響に特別な注意を払う。
  (a) 教育
  労働市場、雇用の可能性及び市民参加に対するAI技術の影響を踏まえれば、デジタル化する社会における生活のためには、新たな教育の実践、倫理的な考察、批判的思考、責任ある設計の実践及び新たな技能が必要である。
  (b) 最も広義の科学(自然科学及び医科学から社会科学及び人文科学までの全ての学問分野を含む。)
  AI技術は、新たな研究能力及び取組方法をもたらすため、我々の科学的理解及び説明の概念に影響を及ぼし、並びに意思決定のための新たな基盤を構築する。
  (c) 文化的なアイデンティティ及び多様性
  AI技術は、文化及びクリエイティブ産業を豊かにすることができるが、また、文化的コンテンツ、データ、市場及び収入の供給を少数の関係者に一層集中させ、言語、メディア、文化的表現、参加及び平等に関する多様性及び多元主義に負の影響を及ぼす可能性がある。
  (d) コミュニケーション及び情報
  AI技術は、情報の処理、構造化及び提供においてますます重要な役割を果たしている。ジャーナリズムの自動化並びにニュースのアルゴリズムによる提供並びにソーシャルメディア及び検索エンジンのコンテンツの調整及び収集の問題は、情報へのアクセス、偽情報、誤情報、ヘイトスピーチ、新たな形態の社会的ナラティブの出現、差別、表現の自由、プライバシー及びメディア情報リテラシー等に関連して生ずる問題の代表例に過ぎない。
 4 この勧告は、AIの関係者としての加盟国並びにAIシステムのライフサイクル全体にわたる法的及び規制の枠組みを策定し、並びに企業の責任を促進する責任を有する当局としての加盟国に向けて発信される。また、この勧告は、AIシステムのライフサイクル全体にわたる倫理的影響評価のための基盤を提供することにより、全てのAI関係者(公的及び民間部門を含む。)に対して倫理的指針を提供する。

Ⅱ 目的

 5 この勧告は、AIシステムを人類、個人、社会並びに環境及び生態系のために機能させ、並びに損害を防止するための基盤を提供することを目的とする。この勧告は、また、AIシステムの平和的な利用の促進を目的とする。
 6 この勧告は、世界各地のAIに関する既存の倫理の枠組みに加えて、ジェンダー平等並びに環境及び生態系の保護という包摂の問題に重点を置いた世界規模で受け入れられる規範的文書であって、価値及び原則の明示だけでなく、具体的な政策的勧告を通じた価値及び原則の実際的な実現にも焦点を当てたものを提示することを目的とする。
 7 この勧告は、AIに係る倫理的問題の複雑性により国際的、地域的及び国内の社会における様々な段階及び分野にわたって複数の利害関係者の協力が必要となるため、各利害関係者が世界的な及び異文化間の対話に基づいて責任を共有できるようにすることを目的とする。
 8 この勧告の目的は、次のとおりとする。
  (a) 国際法に合致したAIに関する法令、政策その他の文書の作成において、各国の指針となる価値、原則及び行動についての普遍的な枠組みを提供すること。
  (b) AIシステムのライフサイクルの全ての段階において倫理を内包することを確保するため、個人、団体、社会、機関及び民間部門の企業の行動を導くこと。
  (c) 人権及び基本的自由、人間の尊厳及び平等(ジェンダー平等を含む。)を保護し、促進し、及び尊重すること、現在及び将来の世代の利益を保護すること、環境、生物の多様性及び生態系を保護すること並びにAIシステムのライフサイクルの全ての段階における文化の多様性を尊重すること。
  (d) AIシステムに関連する倫理的問題について、多面的な利害関係者による学際的な及び多元主義的な対話並びにコンセンサスの形成を促進すること。
  (e) 低中所得国(LMICs)(後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)を含む。)のニーズ及び貢献に特に注意を払いつつ、AI分野の発展及び知識への衡平なアクセス並びに利益の共有を促進すること。

Ⅲ 価値及び原則

 9 Ⅲ1及び同2に含まれる価値及び原則は、第一に、AIシステムのライフサイクルに関与する全ての関係者によって尊重されるべきであり、また、必要かつ適当な場合には、既存の法令、規則及び企業指針の改正並びに新規の作成を通じて促進されるべきである。これは、国際法(国際連合憲章及び加盟国の人権上の義務を含む。)に合致しなければならず、また、国際的に合意された社会的、政治的、環境的、教育的、科学的及び経済的な持続可能性のある目的(国際連合の持続可能な開発目標(SDGs)等)に従うべきである。
 10 価値は、政策的措置及び法的規範を形成する上で理想を動機付けるものとして強力な役割を果たす。Ⅲ1に規定する一連の価値は、望ましい行動を触発し、及び原則の基礎となるものであり、この原則とは、政策表明及び行動においてその価値をより容易に運用することができるようにそれが礎としている価値をより具体的に解明するものである。
 11 Ⅲ1及び同2に規定する全ての価値及び原則は、それ自体は望ましいものであるが、実際の状況においては、これらの価値の間及び原則の間に緊張が存在する可能性がある。いかなる状況の下においても、比例原則を考慮し、並びに人権及び基本的自由に従った上で、潜在的な緊張に対処するための具体的状況に応じた評価が行われる必要がある。いかなる場合においても、人権及び基本的自由に対するいかなる可能な制限は、法的根拠があること並びに合理性、必要性及び相当性があること並びに国際法に規定される各国の義務に適合するものでなければならない。このような手順を慎重に進めるためには、通常、社会的な対話並びに倫理的な審議、デューデリジェンス及び影響評価とを用いつつ、広範かつ適当な利害関係者の関与が必要となる。
 12 AIシステムのライフサイクルにおける信頼性及び健全性は、AI技術が人類、個人、社会並びに環境及び生態系のために機能し、並びにこの勧告に規定する価値及び原則を取り入れることを確保するために不可欠である。人々は、リスクを軽減するための適切な措置が講じられている間は、AIシステムが個人の利益及び共有する利益をもたらすことが可能であると信頼する正当な理由を有すべきである。信頼性のための必須の条件は、AIシステムがそのライフサイクル全体を通じて、適宜関連する利害関係者による充分な監視の対象となることである。信頼性は、この勧告に規定する原則を運用した成果であり、この勧告が提示する政策行動は、全て、AIシステムのライフサイクルの全ての段階における信頼性を向上させるように方向づけられている。
 
Ⅲ1 価値
人権及び基本的自由並びに人間の尊厳の尊重、保護及び促進
 13 全ての人間の不可侵及び固有の尊厳は、普遍的な、不可分の、不可侵の、相互依存の並びに相互に関連する人権及び基本的自由についての体系の基盤を構成する。したがって、AIシステムのライフサイクル全体を通じて、国際法(国際人権法を含む。)が定める人間の尊厳及び権利を尊重し、保護し、及び促進することが不可欠である。人間の尊厳は、人種、皮膚の色、世系、ジェンダー、年齢、言語、宗教、政治的意見、国民的出身、民族的出身、社会的出身、出生時の経済的又は社会的条件、障害その他の理由にかかわらず、個々の人間の固有のかつ平等な価値を承認することと関連する。
 14 人間又は人間社会は、AIシステムのライフサイクルのいずれの段階においても、物理的、経済的、社会的、政治的、文化的又は精神的なものであるかを問わず、害され、又は従属させられるべきではない。人間の生活の質は、AIシステムのライフサイクル全体を通じて高められるべきであり、一方で、「生活の質」の定義は、人権及び基本的自由又はこの定義の観点からの人間の尊厳に対する侵害若しくは濫用がない限り、個人若しくは集団に委ねられるべきである。
 15 人々は、AIシステムのライフサイクル全体を通じて、AIシステムと相互に作用し、AIシステムから支援(ぜい弱な又は影響を受けやすい状況にある人々(児童、高齢者、障害者、疾病者を含むが、これらに限定されない。)への手当て等)を受けることができる。人々は、このような相互作用の中で、決して物のように扱われるべきではなく、その他の方法によってその尊厳が損なわれ、又は人権及び基本的自由が侵害され、若しくは濫用されるべきではない。
 16 人権及び基本的自由は、AIシステムのライフサイクル全体を通じて尊重され、保護され、及び促進されなければならない。政府、民間部門、市民社会、国際機関、技術コミュニティ及び学界は、AIシステムのライフサイクルに係る過程への関与にあたり、人権に関する文書及び枠組みを尊重しなければならない。新たな技術は、人権を啓発し、擁護し、及び行使するための新たな手段を提供するものである必要があり、また、人権を侵害するものであってはならない。
 
環境及び生態系の繁栄
 17 環境及び生態系の繁栄は、AIシステムのライフサイクルにわたって確認され、保護され、及び促進されるべきである。また、環境及び生態系は、人類その他の生物がAIの進歩による利益を享受するために必要な存在である。
 18 AIシステムのライフサイクルに関与する全ての関係者は、適用される国際法並びに国内法令、基準及び慣行(環境及び生態系の保護及び回復並びに持続可能な開発のために定められた予防措置等)に従わなくてはならない。AIシステムのライフサイクルに関与する全ての関係者は、気候変動及び環境のリスク要因を最小限に抑制することを確保するため、AIシステムの環境への影響(AIシステムのカーボンフットプリントを含むが、これに限定されない。)を削減すべきであり、また、環境の悪化及び生態系の劣化の一因となる天然資源の持続可能でない開発、利用及び変換を防止すべきである。
 
多様性及び包摂性の確保
 19 多様性及び包摂性の尊重、保護及び促進は、国際法(人権法を含む。)に合致し、AIシステムのライフサイクル全体を通じて確保されるべきである。これは、人種、皮膚の色、世系、ジェンダー、年齢、言語、宗教、政治的意見、国民的出身、民族的出身、社会的出身、出生時の経済的又は社会的条件、障害その他いかなる理由にかかわらず、あらゆる個人又は団体の積極的な参加を促進することによって行うことができる。
 20 生活様式の選択の範囲、信念、意見、表現及び個人的な経験(AIシステムの選択的な使用及びこれらの共同設計を含む。)は、AIシステムのライフサイクルのいずれの段階においても制限されるべきではない。
 21 さらに、特に低中所得国(LMICs)、後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)において、社会に影響を与えている必要な技術的基盤、教育及び技能並びに法的枠組みの欠如を克服し、決してその欠如を利用しないよう、努力(国際協力を含む。)が払われるべきである。
 
平和な、公正な及び相互に接続した社会における生活
 22 AI関係者は、平和及び公正な社会であって、人権及び基本的自由に適合し、全ての人の利益のための相互に接続した未来に基づくものを確保するため、参加型の及び促進的役割を果たすべきである。平和及び公正な社会に生きることの価値は、AIシステムがそのライフサイクル全体を通じて全ての生物が他の生物と相互に及び自然環境と相互に接続することに寄与することができる可能性を示している。
 23 人が相互に接続するとは、全ての人間は、より大きな全体に属しており、その全ての構成部分の繁栄が可能となった場合に全体も繁栄するという認識に基づく。平和な、公正な及び相互に接続した社会で生きるためには、有機的な、即時的な、打算的でない連帯関係が必要であり、その特徴は、平和的な関係を恒久的に摸索し、最も広義での他者及び自然環境への配慮を志向することにある。
 24 この価値は、AIシステムのライフサイクルの各過程において、人間及びコミュニティが隔離され、若しくは物として扱われること若しくはその自由、自律的な意思決定及び安全が損なわれること、個人及び集団を分断及び対立させること又は人間、他の生物及び自然環境の間の共存を脅かすことのない限り、平和、包摂性及び正義、衡平性及び接続性をAIシステムのライフサイクル全体を通じて促進すべきことを求める。
 
Ⅲ2 原則
均衡及び損害を与えないこと
 25 AI技術は、それ自体が人間並びに環境及び生態系の繁栄を必ずしも保証するものではないと認識されるべきである。さらに、AIシステムのライフサイクルに関連するいずれの過程も、正当な目的の達成に必要な程度を超えることなく、その状況に応じた適当なものであるべきである。人間、人権及び基本的自由、共同体及び社会全体又は環境及び生態系に何らかの損害が発生する可能性がある場合は、そのような損害の発生を防止するため、リスク評価のための手続の実施及び措置の採用を確保すべきである。
 26 AIシステムの使用及びいずれのAIの手法を使用するかの選択は、次の方法により正当化されるべきである。(a)選択するAIの手法は、一定の正当な目的を達成するために適当かつ均衡がとれたものであるべきである。(b)選択するAIの手法は、この勧告に規定する基本的な価値を侵害(特に人権の侵害又は濫用)すべきではない。(c)AIの手法は、その状況に対して適当であるべきであり、また、正確な科学的基盤に基づくべきである。決定が不可逆的な若しくは取り消すことが困難な影響を及ぼすと考えられる場合又は生死に関わる決定を含む可能性がある場合には、最終的な決定は人間が行うべきである。特に、AIシステムは、社会的なスコアリング又は集団監視の目的に使用されるべきでない。
 
安全及び安全保障
 27 人間、環境及び生態系の安全及び安全保障を確保するため、望ましくない損害(安全上のリスク)及び攻撃に対するぜい弱性(安全保障上のリスク)は、AIシステムのライフサイクル全体を通じて回避されるべきであり、また、対処され、防止され、及び除去されるべきである。安全で安心なAIは、持続可能でプライバシーが保護されたデータアクセスの枠組みであって、質の高いデータを活用したAIモデルのより良い訓練及び認証を促進するものの開発によって可能となる。
 
公平性及び無差別
 28 AI関係者は、国際法に従い、社会正義を促進し、並びに公平性及びあらゆる種類の無差別を保障すべきである。これは、異なる年齢層、文化体系、異なる言語集団、障害者、女子並びに不利な立場に置かれ、疎外された及びぜい弱な人々又は影響を受けやすい状況にある人々の個別のニーズを考慮しつつ、AI技術の利益が全ての人々にとって利用可能かつアクセス可能であることを確保するために包摂的に取り組むことを意味する。加盟国は、地域に関連するコンテンツ及びサービスを備えたAIシステムであって、多言語主義及び文化の多様性を尊重したものへの全ての人(地域社会を含む。)による包摂的なアクセスを促進すべく努めるべきである。加盟国は、情報格差に取り組み、並びにAI開発における包摂的なアクセス及び参加を確保すべきである。加盟国は、国家的な段階では、地方部と都市部との間の、並びに人種、皮膚の色、世系、ジェンダー、年齢、言語、宗教、政治的意見、国民的出身、民族的出身、社会的出身、出生時の経済的又は社会的条件、障害その他いかなる理由にかかわらず、全ての人々の間の、AIシステムのライフサイクルへのアクセス及び参加という観点からの衡平性を促進すべきである。国際的な段階では、技術的に最も遅れている国家によるAIシステムのライフサイクルへのアクセス及び参加によって情報、通信、文化、教育、研究並びに社会経済的及び政治的安定の観点においてより公正な世界秩序に貢献するようにAI技術の利益が共有されることを確保するため、技術的に最も進んでいる国家は、最も技術的に遅れている国家と連帯する責任を有している。
 29 AI関係者は、AIシステムの公正性を確保するため、AIシステムのライフサイクル全体を通じて、差別的な又は偏った適用及び結果が強化され、又は永続化することを最小化し、及び回避するためのあらゆる合理的な努力を払うべきである。差別的な及び偏ったアルゴリズムによる決定に対しては、効果的な救済措置が利用可能であるべきである。
 30 さらに、各国国内及び国家間のデジタル格差及び知識格差(技術及びデータへのアクセス及びアクセスの質という観点並びに接続性、知識及び技能並びに影響が及ぶコミュニティの有意義な参加という観点からのものを含む。)には、関連する国内的、地域的及び国際的な法的枠組みに従い、全ての人が衡平に扱われるよう、AIシステムのライフサイクル全体を通じて取り組む必要がある。
 
持続可能性
 31 持続可能な社会の発展は、人間的、社会的、文化的、経済的及び環境的側面から成る連続体上の複雑な一連の目的の達成に依拠する。AI技術の出現は、開発段階が異なる国々に対してAI技術がどのように適用されるかによって、持続可能性目標に利益をもたらす可能性も、当該目標の実現を妨げる可能性もある。したがって、様々な側面にわたって絶えず発展する一連の目標(国際連合の持続可能な開発目標(SDGs)に現在規定されている目標等)としての持続可能性に対するAI技術の影響を十分認識した上で、AI技術の人間的、社会的、文化的、経済的及び環境的影響に対する継続的な評価が行われるべきである。
 
プライバシーの権利及びデータ保護
 32 人間の尊厳、人間の自律性及び人間の主体性の保護に不可欠な権利であるプライバシーは、AIシステムのライフサイクル全体を通じて尊重され、保護され、及び促進されなければならない。AIシステムのためのデータが関連する国内的、地域的及び国際的な法的枠組みを尊重しつつ、国際法に合致した、並びにこの勧告に規定する価値及び原則に従った方法で収集され、使用され、共有され、保管され及び削除されることが重要である。
 33 適切なデータ保護のための枠組み及びガバナンスの仕組みは国内的又は国際的な規模で多面的な利害関係者を巻き込む取組方法によって設立されるべきであり、当該枠組み及び仕組みは、司法制度により保護され、及びAIシステムのライフサイクル全体を通じて確保されるべきである。データ保護のための枠組み及び関連するあらゆる仕組みについては、個人情報の処理のための正当な目的及び有効な法的根拠(インフォームド・コンセントを含む。)を確保しつつ、個人情報の収集、使用及び開示並びにデータ主体による権利の行使に関する国際的なデータ保護の原則及び基準が参照されるべきである。
 34 アルゴリズムシステムは、プライバシーに対する適切な影響評価(アルゴリズムシステムの利用に関する社会的及び倫理的な考慮並びに設計段階におけるプライバシーの革新的な利用も含む。)を必要とする。AI関係者は、AIシステムのライフサイクル全体を通じて個人情報が保護されることを確保するよう自らがAIシステムの設計及び実装について責任を持つことを確保する必要がある。
 
人間による監視及び決定
 35 加盟国は、AIシステムのライフサイクルのあらゆる段階において及びAIシステムに関連した救済措置を講じる場合に、自然人又は既存の法人に倫理的及び法的責任を帰属させることが常にできるよう確保すべきである。したがって、人による監視は、個々の人的な監視のみならず、適当な場合には包摂的な公共の監視も指す。
 36 有効性という理由から、人間がAIシステムに頼ることを選択することはあり得るが、人間は意思決定及び行動についてAIシステムに頼ることはできるもののAIシステムは決して人間の最終的な責任及び説明責任を代替して負うことはできないため、限定的な状況において制御権限を委譲する決定は依然として人間が行う。原則として、生死に関わる決定は、AIシステムに委譲されるべきではない。
 
透明性及び説明可能性
 37 AIシステムの透明性及び説明可能性は、しばしば、人権、基本的自由及び倫理上の原則の尊重、保護及び促進を確保するための不可欠な前提条件である。透明性は、関連する国内的及び国際的な責任の制度が効果的に機能するために必要なものである。透明性の欠如は、AIシステムによって生み出される結果に基づく決定を効果的に批判する可能性を損なう可能性もあり、そのために公正な審理及び効果的な救済措置を受ける権利を侵害しかねず、また、AIシステムを合法的に使用することのできる領域を制限する。
 38 民主的ガバナンスを支援するため、AIシステムのライフサイクル全体を通じてAIシステム(領域外への影響を有するものを含む。)の透明性及び説明可能性を向上させるための努力が払われなければならない一方で、透明性及び説明可能性と他の原則(プライバシー、安全及び安全保障等)との間の均衡を保つことが必要となる可能性があるため、透明性及び説明可能性の水準は、常に状況及びその影響に対して適切であるべきである。人々は、決定がAIアルゴリズムによる情報に基づく場合又はAIアルゴリズムに基づいて決定がなされる場合(決定が人々の安全又は人権に影響を及ぼす場合を含む。)には、十分な情報が与えられるべきであり、また、そのような状況においては関連するAI関係者又は公的部門の機関に対して説明情報を要求する機会を有すべきである。さらに、個人は、自己の権利及び自由に影響を及ぼす決定の根拠にアクセスすることが可能であるべきであり、また、決定を見直し、及び訂正することができる民間部門の企業又は公的部門の機関の指定された職員に対して意見を提出する選択肢を有すべきである。製品又はサービスが直接AIシステムによって又はAIシステムの支援とともに提供される場合には、AI関係者は、適切及び適時に利用者に通知すべきである。
 39 より良い透明性は、社会技術的な観点からは、より平和的な、より公正な、より民主的な及びより包摂的な社会に寄与する。より良い透明性は、汚職及び差別を削減し得る公共の監視を可能とし、並びに人権に対する悪影響の発見及び防止にも役立ち得る。透明性は、受取人による理解を可能にし、及び信頼を促進することを可能とするために、それぞれの受取人に対して適当な情報を提供することを目的とする。AIシステムに特有のこととして、透明性は、AIシステムの置かれた状況及びその感度に応じてAIシステムの各段階がどのように設けられているかについての人々の理解を可能にする。透明性は、また、特定の予測又は決定に影響を及ぼす要因及び適当な保証(安全性又は公正性のための措置等)が設けられているか否かについての深い理解を含む場合がある。人権への悪影響という深刻な脅威が発生した場合には、透明性のためにコード又はデータセットの共有が必要となる場合もある。
 40 説明可能性とは、AIシステムの結果を分かりやすいものとし、及びAIシステムの結果についての深い理解を提供することを指す。AIシステムの説明可能性とは、また、各アルゴリズムの構成要素の入力、出力及び機能並びに各アルゴシステムがシステムの結果にいかに寄与するかについて理解可能であることを指す。このように、結果及び結果をもたらす補助的な過程は、理解可能かつ追跡可能なものであること及び状況に応じたものであることを目標とすべきであるため、説明可能性は、透明性と密接に関連する。AI関係者は、開発されたアルゴリズムが説明可能なものであることを確保することを約束すべきである。AIアプリケーションが一時的ではなく、復元が容易ではなく、又はその他リスクが低くない方法でエンドユーザーに影響を与える場合には、その結果が透明性を有するものと受け止められるために、とられた行動の原因となったあらゆる決定に関して意味のある説明が提供されることが確保されるべきである。
 41 透明性及び説明可能性は、適切な責任及び説明責任に関する措置並びにAIシステムの信頼性に密接に関連する。
 
責任及び説明責任
 42 AI関係者及び加盟国は、国内法及び国際法(特に加盟国の人権上の義務及びAIシステムのライフサイクル全体にわたる倫理的指針であって、各国の実効的な領域及び管轄内のAI関係者に関連するものを含む。)に従い、人権及び基本的自由を尊重し、保護し、及び促進すべきであり、また、各国それぞれの倫理的及び法的責任を引き受けつつ、環境及び生態系の保護をも促進すべきである。AIシステムに何らかの形で基づく決定及び行動の倫理的責任及び法的責任は、最終的には常にAIシステムのライフサイクルにおける役割に対応してAI関係者に帰属すべきである。
 43 AIシステムのライフサイクル全体にわたるAIシステム及びその影響についての説明責任を確保するため、適当な監視、影響評価、監査及びデューデリジェンスのための仕組み(内部告発者の保護を含む。)が開発されるべきである。技術的及び制度的設計のいずれも、特に人権規範及び基準との相反並びに環境及び生態系の健全性への脅威に対処するため、AIシステム(その動作)の監査可能性及びトレーサビリティを確保すべきである。
 
意識の向上及びリテラシー
 44 AI技術及びデータの価値に関する公衆の意識及び理解は、社会の全ての構成員がAIシステムの使用について情報に基づく決定を行うことができるように及び不当な影響から保護されるように効果的な市民参加を確保するため、既存の言語、社会及び文化の多様性を考慮して、並びに開かれた及びアクセス可能な教育、市民参加、デジタル技術及びAIの倫理に関する研修、メディア情報リテラシー並びに政府、政府間組織、市民社会、学界、メディア、コミュニティの指導者及び民間部門が共同で主導する研修を通じて、促進されるべきである。
 45 AIシステムの影響についての学習には、人権及び基本的自由についての、人権及び基本的自由を通じた並びに人権及び基本的自由のためのものを含むべきである。これは、AIシステムの取組方法及び理解は、人権及び権利へのアクセス並びに環境及び生態系に対するAIシステムへの影響力に基づくものであるべきことを意味する。
 
多面的な利害関係者を巻き込む適応型ガバナンス及び協力
 46 データの使用において、国際法及び国家の主権は尊重されなければならない。すなわち、各国は、国際法に従い、自国領域内で生成されるデータ又は自国領域を通過するデータを規制することができ、並びに国際法並びに他の人権規範及び基準に従って、プライバシーの権利の尊重を基礎としたデータの実効的な規制(データ保護を含む。)に向けた措置を講じることができることを意味する。
 47 AIシステムのライフサイクル全体にわたる異なる利害関係者の参加は、AIのガバナンスに向けた包摂的な取組方法のために必要であり、これにより、全ての人による利益の共有及び持続可能な開発への寄与が可能となる。利害関係者には、政府、政府間機関、技術コミュニティ、市民社会、研究者及び学界、メディア、教育界、政策立案者、民間部門の企業、人権機関及び平等のための機関、差別監視機関並びに若者及び児童のための団体を含むが、これらに限定されない。協力を促進するためのオープン標準及び相互運用性が採用されるべきである。技術の変動、新たな利害関係者の集団の登場を考慮に入れるため、並びに疎外されてきた集団、地域社会及び個人の有意義な参加を可能にし、並びに関連する場合、先住民族の場合には、彼らのデータのセルフガバナンスを尊重することを可能とするための措置が採用されるべきである。

Ⅳ 政策的行動の分野

 48 次の政策分野において規定される政策的行動は、この勧告に定める価値及び原則を運用化するものである。その主要な行動は、加盟国が効果的な措置(例えば、政策の枠組み又は仕組みを含む。)を並びに他の利害関係者(民間部門の企業、学術研究機関及び市民社会等)がそれらの措置を遵守することを確保することであり、特に、全ての利害関係者が国際連合のビジネスと人権に関する指導原則を含む指針に従い、人権、法の支配、民主主義並びに倫理的影響評価及びデューデリジェンスについての手段を策定することを奨励することによるものである。それらの政策又は仕組みを構築するための過程においては、全ての利害関係者を包摂し、並びに各加盟国の状況及び優先事項を考慮に入れるべきである。ユネスコは、パートナーとなり、政策の仕組みの開発並びに監視及び評価について加盟国を支援することができる。
 49 ユネスコは、加盟国が科学、技術、経済、教育、法律、規制、基盤、社会、文化及び他の領域に関して、この勧告の実施の準備について異なる段階にあり得ることを認識する。ここで「準備」とは、動的な状況であることに留意する。この勧告の効果的な実施のため、ユネスコは、次のことを行う。(1)関心を有する加盟国が、準備の一連の過程における特定の時点での自国の状態を確定することを支援するため、準備状況の評価の方法を策定すること並びに(2)AI技術に関する倫理的影響評価(EIA)のためのユネスコの方法論を開発すること、最良の方法、評価指針並びに他の仕組み及び分析作業を共有することにより、関心のある加盟国への支援を確保すること。
 
政策分野1 倫理的影響評価
 50 加盟国は、他の保証の枠組みの中でも、特にAIシステムの利益、懸念及びリスク並びに適当なリスクの予防、軽減及び監視のための措置を特定し、及び評価するため、影響評価(倫理的影響評価等)の枠組みを導入すべきである。当該影響評価は、人権及び基本的自由(特に、社会的に疎外されてきた及びぜい弱な人々又は影響を受けやすい状況にある人々の権利、労働者の権利、環境及び生態系、倫理的及び社会的な影響を含むが、これらに限定されない。)への影響を特定し、並びにこの勧告に規定する価値及び原則に従って市民参加を促進すべきである。
 51 加盟国及び民間部門の企業は、AIシステムが人権の尊重、法の支配及び包摂的な社会に与える影響を特定し、防止し、緩和し、及びこれらの影響にどのように対処するかについて説明するためのデューデリジェンス及び監視の仕組みを構築すべきである。加盟国は、AIシステムが貧困に与える社会経済的な影響の評価についても行うことができるべきであり、また、富裕層の人々と貧困層の人々との間における格差並びに国家間及び国内における情報格差が、AI技術の大規模な採用により現在及び将来において拡大することのないように確保すべきである。そのためには、特に情報(民間団体が保有する公益情報を含む。)へのアクセスに対応する強制力を伴う透明性についての実施要綱が施行されるべきである。加盟国、民間部門の企業及び市民社会は、AIに基づく提案が人間の意思決定の自律性に及ぼす社会学的及び心理学的な影響を調査すべきである。人権に対する潜在的なリスクを有するものとして特定されるAIシステムは、市場への導入に先立ち、倫理的影響評価の一環として、AI関係者によって広範にテスト(必要な場合には現実世界の条件におけるものを含む。)されるべきである。
 52 加盟国及び企業は、倫理的影響評価の一環として、特に公共サービスにおいて及びエンドユーザーとの直接的な接触が必要である場合には、AIシステムのライフサイクルの全ての段階(意思決定に用いられるアルゴリズムの機能、データ及び過程に関与するAI関係者を含む。)を監視する適当な措置を実施すべきである。加盟国の人権法上の義務は、AIシステム評価の倫理的側面の一部を成すべきである。
 53 政府は、特に公的機関に向けて、結果を予測し、リスクを緩和し、有害な結果を回避し、市民参加を促進し、及び社会的課題に対処するためのAIシステムの倫理的影響評価を実施するための手順を定めた規制の枠組みを採用すべきである。当該評価では、また、アルゴリズム、データ及び設計過程の評価を可能にするAIシステムの外部審査を含む適当な監視の仕組み(監査可能性、トレーサビリティ及び説明可能性を含む。)を確立すべきである。倫理的影響評価は、透明性があるべきであり、また、適当な場合には、一般に公開されるべきである。当該評価は、学際的な、多面的な利害関係者型の、多文化的な、多元的な及び包摂的なものであるべきである。公的機関は、適当な仕組み及び手段を導入することによって、これらの機関が実装し、又は導入するAIシステムを監視することが義務づけられるべきである。
 
政策分野2 倫理的ガバナンス及び管理
 54 加盟国は、AIガバナンスの仕組みが包摂的で透明性があり、学際的で、多数国間の(国境を越えた損害の軽減及び是正の可能性を含む。)及び多面的な利害関係者型のものであることを確保すべきである。特に、ガバナンスは、予期、効果的な保護、影響の監視、執行及び救済の側面を含むべきである。
 55 加盟国は、デジタル世界及び物理的世界において人権及び基本的自由並びに法の支配が尊重されることを確実にするため、強力な執行の枠組み及び救済措置を制定することにより、AIシステムを通じて引き起こされた損害が調査され、及び救済されることを確保すべきである。当該仕組み及び措置には、民間及び公的部門の企業によって提供される是正のための仕組みを含むべきである。このため、AIシステムの監査可能性及びトレーサビリティが促進されるべきである。さらに、加盟国は、この約束を実現するためにその制度上の能力を強化し、並びに研究者及び他の利害関係者と連携して、あらゆるAIシステムの潜在的に悪意のある使用を調査し、防止し、及び緩和すべきである。
 56 加盟国は、アプリケーションドメインの繊細さ並びに人権、環境及び生態系に対して予想される影響並びにこの勧告に規定する他の倫理的な検討事項に従い、国内及び地域のAI戦略を策定すること並びにソフトガバナンス(AIシステムの認証の仕組み及びその認証の相互承認等)の形式を考慮することが奨励される。このような仕組みには、システム、データ並びに倫理的指針及び倫理的側面を考慮した手続上の要件の遵守に対する様々な段階の監査が含まれ得る。同時に、このような仕組みは、イノベーションを妨げ、又は過剰な行政上の負担の結果として、中小企業又は新興企業、市民社会並びに研究及び科学機関に不利益をもたらすものであってはならない。また、これらの仕組みは、AIシステムのライフサイクル全体にわたるシステムの確固性及び継続的な健全性並びに倫理的指針の遵守を確保するための定期的な監視の要素を含み、必要に応じて再認証を求めるものとすべきである。
 57 加盟国及び公的機関は、既存の及び提案されているAIシステムについて透明性のある自己評価を実施すべきである。当該評価には、特にAIを採用することが適当であるかどうかの評価並びに適当である場合には、適当な手法は何かを決定するための更なる評価及びAIの採用が加盟国の人権法上の義務の違反又は濫用につながるか否かを判断する評価を含むべきである。当該違反又は濫用につながると判断された場合には、そのAIシステムの使用を禁止すべきである。
 58 加盟国は、公的機関、民間部門の企業及び市民社会組織が、それぞれのAIガバナンスに様々な利害関係者を関与させることを奨励し、並びに倫理的影響評価、監査及び継続監視の取組を監督し、AIシステムの倫理的指針を確保するための独立したAI倫理担当官の設置又はその他の仕組みの構築を考慮することを奨励すべきである。加盟国、民間部門の企業及び市民社会組織は、ユネスコの支援を得て、国内的、地域的及び国際的な規模でこの過程を支援するため、独立したAI倫理担当官のネットワークを構築することを奨励される。
 59 加盟国は、国際協力に貢献しつつ、国家的な段階でAIシステムの倫理的及び包摂的な開発(AIシステムのライフサイクルへのアクセスにおける格差に対処することを含む。)を進めるため、デジタルエコシステムの開発及びデジタルエコシステムへのアクセスを促進すべきである。当該デジタルエコシステムには、特にデジタル技術及びデジタル基盤並びに必要に応じてAI知識の共有のための仕組みを含む。
 60 加盟国は、国際機関、多国籍企業、学術機関及び市民社会と協力し、全ての加盟国(特に低中所得国(LMICs)とりわけ後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS))のAIガバナンスに関する国際的な議論への積極的な参加を確保する仕組みを設立すべきである。これは、資金の提供、地域の平等な参加の確保、または、その他の仕組みを通じて行うことができる。さらに、AIフォーラムの場の包摂性を確保するため、加盟国は、AI関係者のこれらの場への参加を目的とする自国の内外への移動(特に低中所得国(LMICs)とりわけ後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)からのもの)を促進すべきである。
 61 AIシステムに対処する既存の国内法令の改正又は新規の国内法令の策定は、加盟国の人権法上の義務に従ったものでなければならず、また、AIシステムのライフサイクル全体における人権及び基本的自由を促進するものでなければならない。また、その促進は、AI技術の進歩に伴いガバナンスについての自発的活動、AIシステムに関する協働的な実践の良い例並びに国内的及び国際的な技術及び方法論についての指針の形態をとるべきである。多様な部門(民間部門を含む。)は、AIシステムに関する実践にあたり、既存及び新規の文書をこの勧告と組み合わせて用いつつ、人権及び基本的自由を尊重し、保護し、及び促進しなければならない。
 62 人権に配慮して使用する事案(法執行、福祉、雇用、メディア及び情報提供者、保健医療及び独立司法機関制度等)においてAIシステムを導入する加盟国は、適当な監督当局(独立したデータ保護当局、監督責任を有する分野別監督及び公的機関を含む。)によって、当該システムの社会的及び経済的な影響を監視する仕組みを提供すべきである。
 63 加盟国は、人間による監視の原則が支持されることを確保しつつ、法の支配に従って並びに国際法及び国際的な基準に従って、AIシステムに関する決定(司法審議においてAIシステムを使用する場合のものを含む。)を下す司法機関の能力を強化すべきである。AIシステムが司法機関によって使用される場合には、特に基本的人権の保護、法の支配、司法の独立性及び人間による監視の原則を保証するため、また、司法機関におけるAIシステムの信頼性のある、公共の利益指向型の及び人間中心の開発及び使用を確保するため、十分な保障措置が必要である。
 64 加盟国は、AIシステムの安全及び安全保障の確保において、多面的な利害関係者が参加しつつ政府及び多数国間組織が主導的な役割を果たすことを確保すべきである。具体的には、加盟国、国際機関及び他の関連機関は、システムを客観的に評価し、及び遵守の程度を決定することができるよう、測定可能かつ試験可能な安全性及び透明性の水準を規定する国際的な基準を策定すべきである。さらに、加盟国及び企業は、AI技術の潜在的な安全及び安全保障のリスクに関する戦略的研究を継続的に支援すべきであり、また、異なる領域及び異なる段階(技術言語及び自然言語等)でより多くの資金を投入することで、透明性及び説明可能性、包摂性及びリテラシーの分野に関する研究を奨励すべきである。
 65 加盟国は、人権の優先性及び普遍性を十分に考慮した上で現在の文化的及び社会的多様性(地域の慣習及び宗教的伝統を含む。)に十分な考慮を払いつつ、AIシステムのライフサイクル全体を通じてAI関係者の行動が国際的な人権法、人権基準及び人権原則と合致することを確保するための政策を実施すべきである。
 66 加盟国は、AI関係者に対し、意図的であるか又は過失によるものであるかを問わず、AIシステムの結果及びデータにおけるあらゆる種類の類型化を開示し、及びこれに対処することを要請するための仕組みであって、AIシステム用の訓練データセットが文化的、経済的及び社会的不平等、偏見、偽情報及び誤情報の拡散並びに表現の自由及び情報へのアクセスの阻害を助長することがないよう確保するためのものを設けるべきである。データが不足している地域には特に注意を払うべきである。
 67 加盟国は、AIの開発チーム及び訓練データセットに自国の人口状況を反映させることでその多様性及び包摂性を促進し、及び向上させるための政策を実施すべきであり、また、特に疎外されてきた集団のため、農村部及び都市部の両方からのAI技術及びその利益への平等なアクセスを確保するための政策を実施すべきである。
 68 加盟国は、AIシステムのライフサイクルの様々な段階におけるAIシステムの内容及び結果に対する説明責任及び責任を遂行するための規制の枠組みを必要に応じて策定し、見直し、及び適応させるべきである。加盟国は、AIシステムの結果及び機能に対する説明責任の帰属を確保するため、必要に応じて責任についての枠組みを導入し、又は既存の枠組みの理解を明確化すべきである。さらに、規制についての枠組みを策定する場合、加盟国は、最終的な責任及び説明責任については常に自然人又は法人になければならないこと並びにAIシステム自体に法人格を付与すべきでないことを特に考慮すべきである。これを確保するため、この規制についての枠組みは、人間による監視の原則と適合し、並びにAIシステムのライフサイクルの異なる段階にわたり関与するAI関係者及び関係する技術工程に焦点を当てた包括的な取組方法を確立すべきである。
 69 加盟国は、規範が存在しない場合にそれらを確立するため又は既存の法的枠組みを適応させるため、全てのAI関係者(少なくとも、研究者、市民社会及び法執行機関の代表者、保険会社、投資家、製造業者、エンジニア、法律家及びユーザーを含む。)を関与させるべきである。規範は、最良の方法、法令及び規則へと成熟させることができる。加盟国は、さらに、新たな技術の急速な発展に従って、法令、規則及び政策(それらの定期的な見直しを含む。)の策定を加速するため、仕組み(政策のプロトタイプ及び規制のサンドボックス等)を用いること並びに法令及び規則が正式に採用される前に安全な環境でテストすることができることを確保することを奨励される。加盟国は、国内的及び国際的な法的枠組みに従った地域の政策、規則及び法令の策定において、地方政府を支援すべきである。
 70 加盟国は、AIシステムのライフサイクル全体の信頼性を確保することを支援するため、AIシステムの透明性及び説明可能性に関する明確な要件を設定すべきである。当該要件には、個々のAIシステムのアプリケーションドメインの性質、意図された用途、対象層及び個々のAIシステムの実現可能性を考慮し、影響力に関する仕組みの設計及び実装を含むべきである。
 
政策分野3 データ政策
 71 加盟国は、AIシステムの訓練データの質の継続した評価(データ収集及び選択過程の妥当性、適切なデータセキュリティ及び保護措置並びに誤りから学習し、全てのAI関係者間で最良の方法を共有するための情報還元の仕組みを含む。)を確保するデータガバナンス戦略の策定に取り組むべきである。
 72 加盟国は、国際法に従ってプライバシーの権利を保護するための適当な保障措置(監視等の懸念事項への対処を含む。)を設けるべきである。加盟国は、特に、国際法に従って、適当な保護を提供する立法の枠組みを採用し、又は実施すべきである。加盟国は、企業を含む全てのAI関係者が既存の国際基準に従うこと及び特に倫理的影響評価の一環として、意図されたデータ処理のより広範な社会経済面の影響を考慮し、適切なプライバシー影響評価を実施すること及びそれぞれのシステムに設計段階からプライバシーについて組み込むことを強く奨励すべきである。プライバシーは、AIシステムのライフサイクル全体を通じて尊重され、保護され、及び促進されるべきである。
 73 加盟国は、個人が自己の個人情報に関する権利を保持し、並びに個人情報が特に次の事項を見据えた枠組みによって保護されることを確保すべきである。すなわち、特に透明性、機密データの処理に対する適当な保護措置、適当な水準のデータ保護、効果的及び有意義な説明責任の制度及び仕組み、国際法に従った特定の状況を除き、AIシステム内の個人情報にアクセスし、及び消去するというデータの主体による権利及び能力の完全な享受、データが商業目的(マイクロターゲット広告の実現等)で使用され、国境を越えて転送される場合におけるデータ保護法令に完全に従った適当な水準の保護並びに個人が自己の個人情報の管理を維持し、及び情報の自由な流れ(データへのアクセスを含む。)の利点を国際的に促進するデータガバナンスの仕組みの一部としての実効的かつ独立した監視を見据えた枠組みによって保護されること。
 74 加盟国は、開示された場合に個人に対して甚大な損害、損傷又は苦難をもたらすおそれがある個人情報及び機密データについての完全な安全性を確保するため、データ政策若しくはこれに相当する枠組みを確立し、又は既存の政策若しくは枠組みを強化すべきである。これには、例えば、犯罪、刑事手続及び有罪判決に関するデータ並びに関連するセキュリティの措置、生体認証、遺伝及び健康データ並びに個人情報(人種、皮膚の色、世系、ジェンダー、年齢、言語、宗教、政治的意見、国民的出身、民族的出身、社会的出身、出生時の経済的若しくは社会的条件又は身体障害その他あらゆる特性に関するもの等)に関するデータが含まれる。
 75 加盟国は、政府のオープンデータを促進すべきである。この点に関して、加盟国は、AI固有の要件を反映するため、自己の政策及び規制の枠組み(情報及び開かれた政府へのアクセスに関するものを含む。)を見直すこと並びに特に安全な、公正な、合法的及び倫理的なデータの共有を支援するため、公的資金が投入された、又は公的機関が保有するデータ及びソースコードの公開されたリポジトリ並びにデータ信託等の仕組みを促進することを検討すべきである。
 76 加盟国は、AIシステムの訓練、開発及び使用のための質の高いかつ確固としたデータセットの使用を促進し、及び容易にし、並びにそれらの収集及び使用を監視する際には警戒を怠らないようにすべきである。これには、理論上可能であり、かつ、実現可能である場合には、多様なゴールドスタンダード・データセット(公開された及び信頼できるデータセットであって、多様で、有効な法的根拠(法令により要求されるときは、データ主体による同意を含む。)に基づいて構築されたものを含む。)の作成についての投資を含むことができる。データセットがどのように収集され、及びどのような特性を有するかを容易に判断することができるよう、データセットへの注釈の基準化(ジェンダー及びその他の基準でデータを細分化することを含む。)が奨励されるべきである。
 77 加盟国は、国際連合事務総長のデジタル協力に関するハイレベル・パネルの報告書においても提案されているように、国際連合及びユネスコの支援を得て、研究、イノベーション又は公共の利益のため、適当な場合にはデータにデジタル・コモンズの取組方法を採用し、ツール及びデータセット並びにデータをホストするシステムのインターフェースの間における相互運用性を高め、並びに民間部門の企業に対して、適当な場合には、集めたデータを全ての利害関係者と共有することを奨励すべきである。また、加盟国は、信頼できる及び安全なデータ空間において質の高いデータを共有する協働プラットフォームを構築する官民の努力を促進すべきである。
 
政策分野4 開発及び国際協力
 78 加盟国及び多国籍企業は、関連する国際的な、政府間の及び多面的な利害関係者の場にAIに関連する倫理的問題の議論を含めることにより、AIの倫理に優先順位を付けるべきである。
 79 加盟国は、開発分野(特に教育、科学、文化、コミュニケーション及び情報、保健医療、農業及び食糧供給、環境、天然資源及び基盤管理、経済計画及び成長等)におけるAIの使用において、この勧告に規定する価値及び原則を遵守することを確保すべきである。
 80 加盟国は、特に低中所得国(LMICs)とりわけ後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)のため、困難な開発問題に取り組むべく、開発のためのAIに関する国際協力のためのプラットフォーム(専門知識、資金、データ、ドメイン知識、基盤を提供すること及び多面的な利害関係者の協働を促進することを含む。)を提供するために国際機関を通じて活動すべきである。
 81 加盟国は、AIの研究及びイノベーションに関する国際協力(後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)を含む低中所得国(LMICs)並びに他の国々からの研究者の参加及び指導的役割の拡大を促進する研究及びイノベーションに関するセンター及びネットワークを含む。)を促進するために活動すべきである。
 82 加盟国は、国際機関及び研究機関並びに多国籍企業を関与させることにより、公的機関及び民間団体によるAIシステムの倫理的な使用の基礎とすることができるAIの倫理研究(特定の文化及び状況における個別の倫理的枠組みの適用可能性並びにこれらの枠組みに沿った技術的に実現可能な解決方法の開発の可能性についての研究を含む)を促進すべきである。
 83 加盟国は、技術の地政学上の境界線を乗り越えるため、AIの分野における国際協力及び協働を奨励すべきである。技術についての交流及び協議は、国際法を完全に尊重した上で加盟国とその国民との間において、公的部門と民間部門との間において及び技術的に最も進んでいる国と最も進んでいない国との間において行われるべきである。
 
政策分野5 環境及び生態系
 84 加盟国及び企業は、AIシステムのライフサイクル全体を通じて環境への直接的及び間接的な影響(カーボンフットプリント、エネルギー消費及びAI技術の製造を支援するための原料の採取による環境への影響を含むが、これらに限定されない。)を評価し、並びにAIシステム及びデータ基盤による環境への影響を軽減すべきである。加盟国は、全てのAI関係者が環境に関する法令、政策及び慣例に従うことを確保すべきである。
 85 加盟国は、必要かつ適当な場合には、権利に基づいた及び倫理的なAI搭載の解決方法であって災害リスクに対する強靱性、環境及び生態系の監視、保護及び再生並びに地球の保全のためのものの開発及び採用を確保するため、インセンティブを導入すべきである。これらのAIシステムは、そのライフサイクル全体を通じて地方及び地域固有の共同体の参加を得るべきであり、また、循環経済型の取組方法並びに持続可能な消費及び生産様式を支援すべきである。必要かつ適当な場合にAIシステムを使用する例としては、次のことを行う場合が挙げられる。
  (a) 天然資源の保護、監視及び管理を支援すること。
  (b) 気候に関連する問題の予測、予防、管理及び緩和を支援すること。
  (c) より効率的及び持続可能な食糧生態系を支援すること。
  (d) 持続可能なエネルギーの利用及び大規模採用の加速化を支援すること。
  (e) 持続可能な開発のため、持続可能な基盤、持続可能なビジネスモデル及び持続可能な金融を主流化することを可能にし、及び促進すること。
  (f) 汚染物質を検出し、又は汚染の程度を予測することにより、関連する利害関係者が汚染及び暴露を防止し、及び削減するための対象を特定した介入策を特定し、計画し、及び設けることを支援すること。
 86 加盟国は、AIの手法を選択する際には、その中のいくつかの方法がデータ集約的又は資源集約的なものである可能性及びそれぞれの環境に及ぼす影響に鑑み、AI関係者が比例原則に従いデータ効率、エネルギー効率及び資源効率の高いAIの手法を優先することを確保すべきである。AIアプリケーションが予見される効果を得ることを示す適当な証拠が入手可能であること又はAIアプリケーションに付随する保障措置が当該AIアプリケーションの使用の正当性を裏付けることができることを確保するための要件が策定されるべきである。これを行うことができない場合は、予防原則が優先されなければならず、また、環境に不釣り合いな悪影響を与える場合には、AIは使用されるべきではない。
 
政策分野6 ジェンダー
 87 加盟国は、デジタル技術及び人工知能がジェンダー平等の実現に寄与する潜在性を十分に最大化することを確保すべきであり、また、AIシステムのライフサイクルのいかなる段階においても女子の人権及び基本的自由並びに女子の安全及び人格が侵害されないことを確保しなければならない。さらに、倫理的影響評価は、横断的なジェンダーの視点を含むべきである。
 88 加盟国は、自己の公共予算からジェンダーに配慮した制度の資金調達と結び付く専用の基金を設け、国のデジタル政策にジェンダー行動計画が含まれることを確保し、及び女子がAIによるデジタル経済から取り残されることのないよう女子を支援することを対象とした関連する政策(例えば、労働教育に関する政策)を開発すべきである。科学、技術、工学及び数学(STEM)の領域(情報通信技術(ICT)分野を含む。)並びに女子の就業準備、雇用可能性、平等なキャリア開発並びに専門的成長における参加機会を増進するため、対象となる計画及びジェンダー特有の言語を提供するための特別な投資が検討され、並びに実施されるべきである。
 89 加盟国は、ジェンダー平等の達成を前進させるためのAIシステムの潜在性が確実に実現されるよう確保すべきである。加盟国は、これらの技術がアナログ世界のいくつかの分野において既に存在している広範なジェンダー格差を悪化させることなく、むしろそれらの格差を除去することを確保すべきである。これらの格差には、男女の賃金格差、特定の職業及び活動における不平等な代表性、最高幹部職、取締役会又はAI分野の研究チームにおける代表性の欠如、教育格差、デジタル及びAIのアクセス、採用、使用及び入手可能性における格差並びに我々の社会における無報酬労働並びに保護責任の不平等な分配を含む。
 90 加盟国は、ジェンダーの定型化及び差別的偏見がAIシステムに反映されることなく、むしろこれらを特定し、積極的に是正することを確保すべきである。ジェンダー平等を達成し、並びに女子及び代表度の低い集団に対するハラスメント、いじめ又は人身売買等の暴力(オンライン領域におけるものを含む。)を回避する際に、技術的格差による複合的な悪影響を回避するための努力が必要である。
 91 加盟国は、各種インセンティブ及び支援制度の中でも、特に、経済的及び規制的なインセンティブ並びにAI研究のコミュニティにおける均衡のとれた男女の参加、デジタル及びAI企業の最高幹部職、取締役会及び研究チームについて男女が衡平に代表されることを目指す政策を提供し、及び促進することにより、AIシステムのライフサイクルの全ての段階において女性の起業家精神、参加及び関与を奨励すべきである。加盟国は、公的資金(イノベーション、研究及び技術のためのもの)がジェンダーを明確に表現した包摂的な計画及び企業に振り分けられること、並びに民間資金についても積極的差別是正措置の原則を通じて同様に奨励されることを確保すべきである。AIシステムのライフサイクル全体を通じて多様性を促進する方法に関する最良の方法の浸透を奨励することとともに、ハラスメントのない環境に関する政策を開発し、及び施行すべきである。
 92 加盟国は、学会及び産業界のAI研究において、女子がこの分野に参入するためのインセンティブを提供し、AI研究共同体内におけるジェンダーの概念の定型化及びハラスメントと戦うための仕組みを設置し、並びに学会及び民間団体がジェンダーの多様性を高める方法に関する最良の方法を共有するよう奨励することにより、学界及び産業界でのAI研究の分野におけるジェンダーの多様性を促進すべきである。
 93 ユネスコは、AIシステムのライフサイクルの全ての段階において女子及び代表度の低い集団の参加を奨励するための最良の方法のリポジトリの作成を支援することができる。
 
政策分野7 文化
 94 加盟国は、適当な場合には、有形の、文書による及び無形の文化遺産(絶滅のおそれのある言語並びに先住民の言語及び知識を含む。)の保存、強化、理解、促進、管理及びアクセス管理においてAIシステムを取り入れること(例えば、適当な場合にはこれらの分野におけるAIシステムの適用に関連する教育計画の導入又は更新によって、並びに機関及び公衆を対象とした参加型の取組方法を確保することによって取り入れること)が奨励される。
 95 加盟国は、AIシステム(特に、自動翻訳及び音声アシスタント等の自然言語処理(NLP)アプリケーション)が人間の言語及び表現上のわずかな差異に与える文化的な影響を調査し、及び対処することを奨励する。このような評価は、文化的な格差を縮小すること及び人間の理解を増進すること並びに絶滅のおそれのある言語、地方の方言並びに人間の言語及び表現に関する音調及び文化的な差異の消滅をもたらすおそれのある使用の減少等の悪影響に対処することによって、これらのシステムの利益を最大にする戦略の設計及び実施のための情報を提供すべきである。
 96 加盟国は、文化遺産、多様性及び芸術の自由を保全することの重要性に留意しつつ、AI技術が多様な文化財及びサービスの創出、生産、配信、放送及び消費に使用されていることに伴い、芸術家及び創作を行う専門家が自らの職業において使用するAI技術の適合性を評価し、並びに適切なAI技術の設計及び実装に寄与するためのAI教育及びデジタル研修を促進すべきである。
 97 加盟国は、文化市場における集中化のリスクを回避するため、地域の文化産業及び文化分野で活動する中小企業の間でAIのツールに関する認識及び評価を促進すべきである。
 98 加盟国は、文化的表現の多様な供給及び文化的表現への多元的なアクセスを促進するため、特にアルゴリズムによる提案が地域のコンテンツの認知度及び発見力を高めることを確保するため、技術系企業及び他の利害関係者を関与させるべきである。
 99 加盟国は、AIと知的財産(IP)が交差する部分における新たな研究、例えば、AI技術により創作された著作物を知的財産権で保護するか否か、又はどのように保護するかを決定するための研究を促進すべきである。また、加盟国は、AIアプリケーションを研究、開発、訓練、又は実装するために使用される著作物の知的財産権を有する者の権利又は利益に対してAI技術がどのように影響を及ぼしているかを評価すべきである。
 100 加盟国は、国内における博物館、美術館、図書館及び公文書館がAIシステムを使用してその収集品を強調し、並びに図書館、データベース及びナレッジベースを強化し、並びにそれらの利用者にアクセスの機会を提供することを奨励すべきである。
 
政策分野8 教育及び研究
 101 加盟国は、人々に権限を与え、及びAIシステムの幅広い採用により生じるデジタル格差及びデジタルへのアクセスにおける不平等を軽減するよう、全ての国における全ての段階の国民に適切なAIリテラシー教育を提供するため、国際機関、教育機関並びに民間機関及び非政府機関と協力すべきである。
 102 加盟国は、特に、AI教育のための「前提とされる技能」の教育に著しい格差がある国及び地域又は国内の地方において、これらの技能(基本的なリテラシー、計算能力、コーディング及びデジタル技能並びにメディア情報リテラシー並びに批判的及び創造的思考、チームワーク、意思疎通、社会感情的及びAIの倫理に関する技能等)の習得を促進すべきである。
 103 加盟国は、AI開発に関する一般的な啓発計画(データ並びにAI技術によってもたらされる機会及び課題、AIシステムが人権(児童の権利を含む。)に及ぼす影響及びその意義を含む。)を促進すべきである。これらの計画は、技術的な集団と同様に非技術的な集団も利用することができるようにすべきである。
 104 加盟国は、特に教育、教員養成及びeラーニングの分野に関与する機会を促進し、並びに当該分野における課題及びリスクを緩和するため、当該分野におけるAI技術の責任ある及び倫理的な使用に関する自発的研究活動を奨励すべきである。この自発的活動は、AI技術の使用による教育の質並びにその使用が学生及び教員に及ぼす影響についての適切な評価を伴うべきである。加盟国は、また、教員と学生との間の関係性及び学生と学生との間の関係性において、その関係的側面及び社交的側面並びに伝統的な教育形態の価値は不可欠なものであり、教育におけるAI技術の採用について議論する場合にはこの点を考慮すべきであることに留意しつつ、AI技術が学生及び教員に力を与え、並びに彼らの経験を高めることを確保すべきである。学習で使用されるAIシステムは、学習者の監視、能力評価又は行動予測に使用する場合には、厳格な要件を満たすべきである。AIは、関連する個人情報の保護基準に従い、認知能力を低下させることなく、及び機密情報を抽出することなく、学習過程を支援すべきである。学習者とAIシステムとの相互作用の中で収集された知識を取得するために交付されたデータは、濫用、不正な取得又は犯罪利用(商業的目的を含む。)の対象となってはならない。
 105 加盟国は、全ての段階におけるAI教育課程において、女子、多様な民族及び文化、障害者、疎外されてきた及びぜい弱な人々又は影響を受けやすい状況にある人々、少数民族並びにデジタルな包摂性の利益を十分に享受していない全ての人々の参加及び指導的役割並びに他の加盟国とこの点に関する最良の方法のモニタリング及び共有を促進すべきである。
 106 加盟国は、自国の教育課程及び伝統に従い、全ての段階において、AIの倫理に関するカリキュラムを開発すべきであり、また、AI技能教育とAI教育の人道的、倫理的及び社会的側面との間における相互協力を促進すべきである。AIの倫理に関する教育のオンライン課程及びデジタル情報資源は、現地の言語(先住民の言語を含む。)で開発し、並びに環境の多様性を考慮し、特に、障害者のための様式の利用の容易性を確保すべきである。
 107 加盟国は、国際法及びこの勧告に規定する価値及び原則を促進するため、AIの研究がAI技術の更なる発展及び向上に大きく寄与することを認識しつつ、AIの研究、特に、AIの倫理に関する研究を促進し、及び支援すべきである(例えば、当該研究への投資又は公的及び民間部門がこの分野に投資するための奨励措置を設けることを通じて行うことを含む。)。また、加盟国は、倫理的な方法によってAIを開発する研究者及び企業の最良の方法及びそれらとの協力を公に促進すべきである。
 108 加盟国は、AI研究者が研究倫理の研修を受けることを確保し、並びにその設計、製品及び出版物、特に使用するデータセットの分析、注釈の付け方及び応用可能な結果の質及び範囲において倫理的考慮を含めるよう要求すべきである。
 109 加盟国は、特に低中所得国(LMICs)とりわけ後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)において、研究のため、科学コミュニティが民間部門の企業のデータにアクセスすることを容易にするようこれらの企業を奨励すべきである。このアクセスは、関連するプライバシー及びデータの保護基準に適合すべきである。
 110 加盟国は、AI研究の批判的評価及び潜在的な濫用又は悪影響に関する適切な監視を確保するため、AI技術に関する将来のあらゆる開発が正確な及び独立した科学研究に基づいて行われることを確保し、並びに科学、技術、工学及び数学(STEM)以外の分野(文化研究、教育学、倫理学、国際関係学、法学、言語学、哲学、政治学、社会学及び心理学等)を含めることによって学際的なAI研究を促進すべきである。
 111 加盟国は、AI技術が科学的知識及び実践の促進に役立つ大きな機会を特に伝統的なモデル駆動型の学問分野において提供することを認識しつつ、科学コミュニティがAI技術の使用の利益、限界及びリスクを認識するよう奨励すべきであり、これには、データ駆動式の取組方法、モデル及び処理から導かれる結論が確固とした、かつ、健全なものであるよう確保する試みを含む。さらに、加盟国は、政策に寄与すること並びにAI技術の長所及び短所について啓発することにおいて、科学コミュニティの役割を歓迎し、及び支援すべきである。
 
政策分野9 コミュニケーション及び情報
 112 加盟国は、情報及び知識へのアクセスを向上させるためにAIシステムを使用すべきである。これには、表現の自由、学問及び科学の自由、情報へのアクセス並びに公的データ及び情報の積極的な開示の増大を促進するための研究者、学界、報道関係者、一般公衆及び開発者に対する支援を含むことができる。
 113 加盟国は、自動化されたコンテンツの生成、調整及び収集に関して、AI関係者が表現の自由及び情報へのアクセスを尊重し、及び促進することを確保すべきである。適当な枠組み(規制を含む。)では、オンラインのコミュニケーション及び情報事業者が透明性を持つことを可能にし、並びに利用者が多様な視点にアクセスすること及びコンテンツの削除又はその他の処置の理由を迅速に利用者に通報するための過程及び利用者が救済を求めることができる異議申立ての仕組みを確保すべきである。
 114 加盟国は、偽情報、誤情報及びヘイトスピーチを緩和し、並びにこれらに反論するために、AIシステムの使用及びその影響を理解するために必要とされる批判的思考及び能力を強化するため、デジタル及びメディア情報リテラシー技能に投資し、及びこれを促進すべきである。提案システムの肯定的な効果及び潜在的に有害な影響の両方についてのより良い理解及び評価がこれらの取組の一部であるべきである。
 115 加盟国は、メディアがAIシステムの利益及び害悪について効果的に報道する権利及びその資源を有することを可能にする環境を構築し、また、メディアがその運用においてAIシステムを倫理的に使用するよう奨励すべきである。
 
政策分野10 経済及び労働
 116 加盟国は、全ての国において、特に経済が労働集約型である国に重点を置いて、AIシステムが労働市場に及ぼす影響及び教育上の要求にもたらす影響を評価し、かつ、対処すべきである。これには、現在の労働者及び新たな世代に対して、急速に変化している市場において求職する公正な機会を提供し、並びにそれらに対するAIシステムの倫理的側面の啓発を確保するために、全ての教育段階においてより幅広い「中核的」及び学際的な技能を導入することを含むことができる。技能(「学び方の学習」、意思疎通、批判的な思考、チームワーク、共感及び分野を超えて自己の知識を移転する能力等)は、専門的で技術的な技能及び高い技術を必要としない作業と併せて教授すべきである。どのような技能が求められているかに関する透明性を保持し、及びこれらに関するカリキュラムを更新していくことが重要である。
 117 加盟国は、技術要件の格差を是正し、訓練の計画及び戦略を未来の働き方の影響及び産業界(中小企業を含む。)のニーズと調和させるため、政府、学術機関、職業教育訓練機関、産業界、労働者機関及び市民社会の間の協力合意を支援すべきである。公的機関、民間部門の企業、大学及び研究所との間の連携を可能にするAIに関するプロジェクトベースの教育及び学習の取組方法が促進されるべきである。
 118 加盟国は、リスクにさらされている従業員の公正な移行を確保するため、民間部門の企業、市民社会組織及び他の利害関係者(労働者及び組合を含む。)と協力すべきである。これには、職業能力の向上及び職業能力の再教育計画を設けること、移行期間中に従業員を維持する効果的な仕組みを見つけること並びに再教育を受けることができない者のための「セーフティ・ネット」の計画を検討することを含む。加盟国は、特定された課題について研究し、及び対処するための計画(これには、職業能力の向上及び職業能力の再教育、社会的な保護の強化、積極的な産業政策及び介入、税制優遇、新しい課税形態等を含むことができる。)を開発し、及び実施すべきである。加盟国は、これらの計画を支援するため、十分な公的資金を確保すべきである。AIに基づく自動化によって生ずる失業の影響に対処するため、必要に応じ、関連する規制(税制度等)を慎重に検討し、及び変更すべきである。
 119 加盟国は、将来の傾向及び課題を予測するため、AIシステムの地域の労働環境に及ぼす影響について研究者が分析することを奨励し、及び支援すべきである。これらの研究は、職業能力の再教育及び再配置の最良の方法に関する助言を行うため、学際的な取組方法をとり、並びにAIシステムが経済的、社会的及び地理的分野並びに人間とロボットとの間の相互作用及び人間と人間との関係に及ぼす影響を調査すべきである。
 120 加盟国は、市場における支配的地位(独占企業を含む。)の濫用を防止するため、そのライフサイクル全体を通じたAIシステム(データ、研究、技術又は市場のいずれであるかを問わない。)に関して、国内的、地域的及び国際的な段階における可能な措置及び枠組みを考慮しつつ、競争的な市場及び消費者の保護を確保するための適当な措置をとるべきである。加盟国は、結果として生じる不平等を防止し、関連する市場を評価し、及び競争的な市場を促進すべきである。特に基盤、人的能力及び規制の欠如により、市場における支配的地位の濫用の可能性にさらされやすく、並びによりぜい弱な低中所得国(LMICs)とりわけ後発開発途上国(LDCs)、内陸開発途上国(LLDCs)及び島嶼(しよ)国(SIDS)に妥当な考慮が払われるべきである。AIに関する倫理基準を確立し、又は採用している国でAIシステムを開発しているAI関係者は、当該基準が存在しない可能性のある国においてこれらの製品を輸出し、AIシステムを開発し、又は適用する場合には、適用される国際法並びに当該国の国内の法令、基準及び慣行を尊重すべきである。
 
政策分野11 健康及び社会的福祉
 121 加盟国は、世界規模の健康リスク及び不確実性に取り組むため、国際的な連帯を構築し、及び維持しつつ、人の健康の改善及び生存権の保護(疾病の発生の軽減を含む。)のために効果的なAIシステムを採用するよう努めるべきであり、並びに医療におけるAIシステムの導入が国際法及び加盟国の人権法上の義務に適合するよう確保すべきである。加盟国は、医療のAIシステムに関与する関係者が患者とその家族との間及び医療従事者との間の関係の重要性を考慮するよう確保すべきである。
 122 加盟国は、児童及び若者に十分な注意を払いつつ、健康全般(特に精神の健康)に関連するAIシステムの開発及び導入が安全で、効果的で、効率的で、科学的及び医学的に証明されるよう並びに根拠に基づく革新及び医学の進歩を可能にするよう規制することを確保すべきである。さらに、加盟国は、医療へのデジタル介入という関連分野において、システム開発の全ての関連する段階に患者及びその代表者を積極的に関与させることが強く奨励される。
 123 加盟国は、AIアプリケーションにおける保健医療のための予測、検出及び治療の方法の規制を行うに当たり、次のことに関して特別な注意を払うべきである。
  (a) 偏見を最小化し、及び緩和するための監視を確保すること。
  (b) アルゴリズムを開発する際の全ての関連する段階において、医療専門家、患者、介護者又はサービス利用者が「分野の専門家」としてチームに含まれていることを確保すること。
  (c) 医学的に監視されることの潜在的な必要性から生じるプライバシーの問題に十分な注意を払い、及び関連する全ての国内的及び国際的なデータ保護の要件が満たされていることを確保すること。
  (d) その個人情報が分析されている人々が、保健医療へのアクセスを妨害されることなく、自己の個人情報の使用及び分析について認識し、及びインフォームド・コンセントを提供されることが可能である効果的な仕組みを確保すること。
  (e) AIシステムによる人間の業務の支援が可能であることも認めつつ、診断及び治療のヒューマンケア並びに最終決定は常に人間によって行われるよう確保すること。
  (f) 必要に応じて、臨床での使用前にAIシステムについて倫理調査委員会による審査を受けることを確保すること。
 124 加盟国は、AIシステムに関連する精神の健康への潜在的な害(特に強度のうつ病、不安、社会的孤立、中毒の発症、違法取引、過激化及び虚偽の情報等)の影響及び規制に関する研究を確立すべきである。
 125 加盟国は、人の精神的及び身体的健康に特別な注意を払いつつ、研究に基づき、及びロボットの将来の発展に向けて、人間とロボットとの間の相互作用及びそれが人間と人間との関係に及ぼす影響に関する指針を策定すべきである。保健医療並びに高齢者及び障害者の手当て、教育におけるロボットの使用、並びに児童向けロボット、玩具のロボット、チャットボット並びに児童及び成人向けのコンパニオンロボットには、特別の注意が払われるべきである。さらに、ロボットの安全性及び人間工学的な使用(人間とロボットとの作業環境を含む。)を向上させるためにAI技術の支援が適用されるべきである。人間の認知バイアスを操作し、及び濫用するためにAIが使用される可能性については、特別の注意を払うべきである。
 126 加盟国は、人間とロボットとの間の相互作用が他のあらゆるAIシステムに適用される価値及び原則と同一のもの(人権及び基本的自由、多様性の促進並びにぜい弱な人々又は影響を受けやすい状況にある人々の保護を含む。)に従うよう確保すべきである。人間の尊厳及び自律性を保持するため、ニューロテクノロジー及びブレイン・コンピューター・インターフェースのためのAI搭載システムに関する倫理的問題について検討されるべきである。
 127 加盟国は、利用者が自らが相互に作用している相手が生物であるか又は人若しくは動物の特徴を模倣したAIシステムであるかを容易に識別し得るよう、並びにそのような相互作用を効果的に拒否し、及び人間の介入を要求することができるよう確保すべきである。
 128 加盟国は、AI技術並びに人間の感情を認識し、及び模倣する技術の擬人化についての認識(それらの技術について言及する際に使用される言語を含む。)を高める政策を実施すべきであり、また、このような擬人化の発現、倫理的示唆及び存在し得る限界について、特にロボットと人間との相互作用の状況においてとりわけ児童が関与する場合には、評価を行うべきである。
 129 加盟国は、人々がAIシステムと長期的に相互作用することによる影響についての共同研究をAIシステムが児童及び若者に与え得る心理的及び認知的影響に特別な注意を払いつつ、奨励し、及び促進すべきである。この研究は、複数の規範、原則、協議、学問分野の取組方法並びに行動及び習慣の修正に関する評価並びに下流における文化的及び社会的影響に対する慎重な評価を使用して実施されるべきである。さらに、加盟国は、AI技術が保健制度の実績及び健康効果に及ぼす影響に関する研究を奨励すべきである。
 130 加盟国及び全ての利害関係者は、AIシステムが児童及び若者の生活及び将来に及ぼす影響に関する対話、討論及び意思決定において児童及び若者を有意義に関与させる仕組みを設けるべきである。

Ⅴ 監視及び評価

 131 加盟国は、各国の個別の事情、統治構造及び憲法上の規定に従い、定量的及び定性的な方法を組み合わせた方法を用いて、AIの倫理に関連する政策、計画及び仕組みを信頼性及び透明性のある方法で監視し、及び評価すべきである。加盟国を支援するため、ユネスコは次のことにより貢献し得る。
  (a) 厳密な科学的研究に基づく、及び国際人権法に根拠を有するAI技術に関する倫理的影響評価(EIA)のためのユネスコの方法論、AIシステムのライフサイクルの全ての段階におけるその実施のための指針及びEIAの方法論に関する政府関係者、政策立案者その他関連するAI関係者の訓練を行う加盟国の取組を支援するために能力開発の資料を策定すること。
  (b) 加盟国が、準備の一連の過程における特定の時点での自国の状態を確定することを支援するため、ユネスコの準備状況の評価の方法論を策定すること。
  (c) 定められた目的に照らしてAIの倫理に関する政策及びインセンティブの実効性及び効率性を事前及び事後に評価するためのユネスコの方法論を策定すること。
  (d) AIの倫理に関する政策に関して、研究及び証拠に基づく分析及び報告を強化すること。
  (e) 最良の方法の共有及び相互学習を支援するため並びにこの勧告の実施を推進するため、AIの倫理に関する政策の進捗、イノベーション、調査報告、科学出版物、データ及び統計(既存の自発的活動を通じたものを含む)を収集し、及び普及すること。
 132 監視及び評価の過程では、全ての利害関係者(ぜい弱な人々又は影響を受けやすい状況にある人々を含むが、これらに限定されない。)の幅広い参加を確保すべきである。学習過程を改善し、並びに知見、意思決定、透明性及び結果に対する説明責任との間のつながりを強化する観点から、社会的な、文化的な及びジェンダーの多様性が確保されるべきである。
 133 AIの倫理に関する最良の政策及び方法を促進するため、合意された基準、優先順位及び目標(不利な条件に置かれ、疎外されてきた人々及びぜい弱な人々又は影響を受けやすい状況にある人々を対象とする特定の目標を含む。)に対する政策及び方法の実効性及び効率性並びに個人及び社会的な段階におけるAIシステムの影響を評価するための適当な手段及び指標が策定されるべきである。AIシステム並びに関連するAIの倫理に関する政策及び方法の影響の監視及び評価は、関連するリスクに相応する体系的な方法で継続的に実行されるべきである。これは、国際的に合意された枠組みに基づいて行われるべきであり、また、公私の機関、プロバイダ及び計画に関する評価(自己評価並びにトレーサー研究及び一連の指標の策定を含む。)を伴うべきである。データの収集及び処理は、国際法、データ保護及びデータプライバシーに関する国内法令並びにこの勧告に規定する価値及び原則に従って実施されるべきである。
 134 特に、加盟国は、この勧告において言及した政策勧告の遵守を評価するため、監視及び評価のための可能な仕組み(倫理委員会、AIの倫理に関する監視機関、人権に準じた及び倫理的なAIシステムの開発又はユネスコの管轄分野における倫理上の原則の遵守に取り組むことによる既存の自発的活動への貢献を対象とするリポジトリ、経験を共有する仕組み並びにAI規制サンドボックス及び全てのAI関係者の評価指針等)を考慮することが望ましい。

Ⅵ 勧告の利用

 135 加盟国及びこの勧告が定めるその他全ての利害関係者は、この勧告において定めるAIに関する倫理的な価値、原則及び基準を尊重し、促進し、及び保護すべきであり、また、その政策的勧告を実施するための実行可能なあらゆる措置を講じるべきである。
 136 加盟国は、全ての関連する国内の及び国際的な政府機関及び非政府組織並びに多国籍企業及び科学機関であってその活動がこの勧告の範囲及び目的に含まれるものと協力することによって、この勧告に関連する自国の行動を拡大し、及び補完するよう努めるべきである。ユネスコの倫理的影響評価の方法論についての策定及びAIの倫理に関する国内委員会の設立は、このための重要な手段となり得る。

Ⅶ 勧告の促進

 137 ユネスコは、この勧告を促進し、及び普及させるための主要な国際連合機関としての使命を有しており、及びそれに応じて、その他の関連する国際連合機関とそれぞれの職務を尊重し、及び作業の重複を回避しつつ、連携する。
 138 ユネスコ(科学的知識と技術の倫理に関する世界委員会(COMEST)、国際生命倫理委員会(IBC)、政府間生命倫理委員会(IGBC)等の下部機関を含む。)は、また、他の国際的、地域的及び小地域的な政府機関及び非政府組織とも連携する。
 139 ユネスコ内部においては、この勧告の促進及び保護の任務は、政府及び政府間機関の権限とされているが、市民社会は、公的部門の利益を擁護する重要な関係者となるものであり、したがって、ユネスコはその正当性を確保し、及び推進する必要がある。

Ⅷ 最終規定

 140 この勧告は、全体として理解される必要があり、また、基本的な価値及び原則は、補完的及び相互に関連するものとして理解される必要がある。
 141 この勧告のいかなる内容も、国際法に基づく各国の義務又は権利を代替し、変更し又は侵害するものと解してはならず、また、いかなる国家、その他政治的、経済的若しくは社会的関係者又は集団若しくは個人が人権、基本的自由、人間の尊厳並びに環境及び生態系(生物か非生物であるかを問わない。)への配慮に反するいかなる活動又は行為に関与又は従事することへの承認として解してはならない。

お問合せ先

国際統括官付