中部弁護士会連合会


中弁連とは

中弁連からのお知らせ

リンク集

TOP

会員専用ページ

中弁連からのお知らせ

AI時代に全ての個人が自律的に意思決定できる

民主主義社会の実現を目指す宣言

1 現代社会におけるAIの利用実態

私達は、日常生活の様々な場面で、デジタル技術の恩恵にあずかり、デジタル技術に浸りきった生活を送っている。AIが社会の様々な分野に利用され、人間の仕事を代替するようになるなどAIの存在が高まった現代は、AI時代と呼ぶこともできる。

しかし、無批判にAIを含むデジタル技術の利活用を受け入れていくことは、いつしか私達の人格までもAIに支配されるようになってしまう危険性を孕んでいる。今の社会において、私達が人としての尊厳を維持し、自律的にAIを含むデジタル技術を利活用していくためには、デジタル技術、特にAIを、憲法上の理念、人権の観点から、批判的に見つめ直す必要がある。


2 AIの利活用に潜む危険性と憲法上の理念、人権

(1)「個人の尊厳」の原理

憲法は、人権の最も基本的な理念として、「個人の尊厳」の原理を謳っている。

この「個人の尊厳」の原理においては、全ての人に対する人間としての尊厳の考え方を前提に、身分制などの集団的拘束からの個人の解放、個人の自律、自己決定の尊重、そして社会による多様性の尊重という規範が導かれる。

(2)プライバシー権に対する危険

AIは、個人がインターネットを利用した履歴などのデジタルデータ等を大量に収集し、利用している。これは、個人が他人に知られたくない私生活上の情報を含む点で、プライバシー権を侵害する可能性がある。

(3)差別を助長する危険

AIが収集する情報は、偏りのない公平なものであるとは限らない。偏見やステレオタイピングされたデータによって学習をすれば、当然、そこから導かれる結果もバイアスのかかったものとなる。

このような偏った判断がなされたとき、私達は、AI(コンピュータ)が大量のデータに基づいてその判断を出したというだけで反論の術を失いかねない。AIによるバイアスに対処できない状況を放置することは、AIによる差別を助長することにつながる。

(4)誤った人物評価と、それが固定化する危険

AIは、個人のウェブサイトの閲覧履歴などのデータによって、その個人がどういう傾向を有する人物なのかを予測・分析し、「あなたはこういう人物です」という判断をする(プロファイリング)。

AIがプロファイリングにより出力する結果は、個人を属性に基づくグループ化、レッテル貼りを行うという点で、「個人の尊厳」の原理により集団的な拘束から解放されたはずの人間に対して、再び新たな拘束をすることになりかねない。

また、自己に関する情報が、人格と密接不可分のものであるなら、「個人の尊厳」の原理に基づいて、どのような自己情報が集められているかを知り、個人を属性に基づくグループ化から守り、自律を確保するために、自己情報をコントロールする権利が認められなければならない(自己情報コントロール権)。

(5)自己決定権、内心の自由に対する危険

AIによるプロファイリングは、インターネット上の情報を閲覧する個人の趣味趣向を判断し、それに沿った情報を取捨選択して提供している。これはいわば当該個人の認知過程を透明化した上で「こころ」をハッキングするものであり、個人の自律的な意思決定(自己決定権)を歪めることになりかねない。

(6)民主主義の崩壊につながる危険

個人の自己決定権の操作が各人の政治的意思決定の場でなされれば、近代立憲主義国家の基盤をなす民主主義、国民主権を害するおそれがある。とりわけ、昨今で発達が著しい生成AIを駆使して巧妙な偽情報(ディープフェイク)が作成されることになれば、その危険は大きく増すことになる。


3 AIに対する規制の世界的動向

上記のようなAIの危険性を踏まえ、AIの開発及び利用について、各国・地域において様々な規制が検討されている。

特に、EUでは、2016年に成立したGDPR(EU一般データ保護規則)において、プロファイリングに対して異議を述べる権利を規定するなどプロファイリングの制約を規定して、早い時期からAIの規制について意識を持って議論されてきたが、2024年3月13日、AI法が欧州議会によって承認された。

また、米国では、2023年10月にAIの安全な開発と利用に関する大統領令が発出され、AIがもたらす利益を享受するため、AIの無責任な使用によるリスクを軽減することが必要であるという立場が示されている。

国連においても、2024年3月21日、国連総会で人工知能(AI)の開発や利用などに関する決議案が採択され、AIシステムを、SDGsの達成に寄与させるためには、安全で、安心、信頼できるAIシステムに関する規制等が必要であるとしている。

そして、我が国でも、2024年4月19日に総務省、経済産業省が、AI開発・提供・利用にあたって必要な取組についての基本的な考え方を示すものとして、「AI事業者ガイドライン」(第1.0版)を公表した。同ガイドラインは、EUで掲げる人権への配慮を踏まえながら、米国の規制のように、AIの利活用を図るために安全性等を確保すべきであるとの観点も含まれているものと思われ、さらには、教育・リテラシーなどの側面にも言及している点が特徴といえる。しかし、このようなガイドラインによる対処に対しては、「AI利用に対しても立憲的統制を加えるには、ガイドラインではなく、AI規制の基本的枠組みを定める法律を制定し、その中に憲法や基本的人権との関係性をしっかり書き込むことで、AI法制に憲法具体化法としての明確な位置づけを与えるべきである。」(山本龍彦慶應義塾大学教授)などとして、法制化が図られるべきとする意見もある。


4 今、私たちに求められること

(1)AIについては、その有用性と今後の発達、浸透を否定できないのも事実である。政治の場面においてAIは、市民の細かな民意を集約し、統合するツールとして利用することで、「デジタル民主主義」というべき、市民皆が政治を自分事として捉え、政治に参加できるAI時代の新たな民主主義を実現し得る大きな可能性も秘めている。だからこそ私達は、AIの利活用を図りながらも、その脅威を十分に理解し、憲法上の理念や人権を脅かすことがないような規制を、技術面、制度面の両面から模索する必要がある。また、AIによる脅威を十分に理解しつつ、与えられる情報に対して適切な批判思考(リテラシー)を持ち、人権を投げ出さない市民を育成し、デジタル環境下において自律した市民からなる社会を構築することも必要である。

(2)弁護士に求められる視点
デジタル技術の急速な進展に伴い、新たな憲法上の危機が生じているといえる現在、豊かで健全なデジタル社会を築くために我々弁護士が積極的な意見表明をなし得る場面は多いはずである。我々弁護士は、AIを含むデジタル技術が、人権にどのような影響を与え得るのかという観点で、将来を見据えて批判的に目を光らせていなくてはならない。 忘れてならないのは、AIが大量に収集したデータに基づいて解析を行う、世の中の「多数」に親和的な技術であるという点である。基本的人権の擁護を使命とする我々としては、常に少数派の人権を保護するという視点で、AIに対する規制のあり方を検討しなくてはならない。

(3)市民教育の必要性
現在のデジタル社会の環境下では、快適にデジタル技術を駆使している市民は、気づかないうちに自らの人権が危機にさらされているともいえる。そのような市民に対し、そのような現状を正確に伝えていくこともまた、市民への法教育を担う我々弁護士の使命といえる。 我々弁護士は、学校現場への派遣授業や児童、生徒を対象としたオープン授業、消費者としての社会参画を促す消費者市民教育の実践などを通じ、また、市民集会やシンポジウムの主催等で問題提起と検討の場を提供することなどを通じて、適切なデジタルリテラシーを醸成する教育の場を提供していくべきである。


5 結語

以上より、中部弁護士会連合会は、今後、社会においてAIの利活用が推進されていくにあたり、現実社会のみならず、サイバー空間上においても憲法上の基本的人権が擁護されること、そして、AIのメリットを享受しながらも、全ての個人がAIによって意思決定を歪められることなく、自律的に自己決定をなすことができる民主主義社会を実現したいと考える。

このような社会を実現するため、当連合会は、以下の活動をすることを宣言する。

(1)AIの急速な発展、利用の場の拡大等、今後ますます進展していくデジタル環境において、AIの利活用を図りながらも、憲法上の理念や人権に対する脅威を十分に理解し、公表されたガイドラインその他の方策について人権の観点から検討し改善すべき点を指摘する等、AIに対する適切な規制の実現に向けた提言を続けること。

(2)AIを含むデジタル技術によってもたらされる現在及び将来の人権侵害、特に少数派に対する人権侵害に対して目を光らせ、その防止および救済のための活動に引き続き力を入れていくこと。

(3)避けられないデジタル社会の進展を踏まえ、市民に対してデジタル技術による危険も含めて正確な知識を伝え、偏って提供される情報や社会に散乱する偽情報に惑わされない自律した市民の育成に寄与する教育の推進に協力すること。


以上



2024年(令和6年)10月18日

中 部 弁 護 士 会 連 合 会



提 案 理 由


1 現代社会におけるAIの利用実態

私達は、日常生活の様々な場面で、デジタル技術の恩恵にあずかり、一方では、デジタル技術によって大量かつ容易に蓄積されるプライバシー情報に対して疑問も抱きながら、デジタル技術に浸りきった生活を送っている。AIが社会の様々な分野に利用され、AIが人間の仕事を代替するようになるなどAIの存在が高まった現代は、AI時代と呼ぶこともできる。

日本弁護士連合会では、2022年9月29日、第64回人権擁護大会において、「デジタル社会の光と陰〜便利さに隠されたプライバシー・民主主義の危機〜」というテーマで、シンポジウム(第2分科会)を開催した。そこでは、行動ターゲティング広告とプライバシーの問題、信用スコアの問題、人工知能によって個人のプライバシーや自己決定権に影響が与えられるという問題、犯罪予測システムの是非、顔認証技術の利活用に伴う問題などデジタル技術に関係する広汎な問題が指摘され、検討された。

その後今日まで、デジタル技術はますます進化しており、特に、ChatGPT(OpenAI社の商標)に代表される文章やイラストなどを自動的に生成する生成AIが身近なものになると、その利活用が急激に進み、その技術も著しく進歩した。また、そうした状況を踏まえて、各国・地域においてはAIの開発及び利用について様々な規制を施す動きが活発になってきている。

人工知能(AI:Artificial Intelligence)とは、総務省、経済産業省が2024年4月19日に公表したAI事業者ガイドラインによれば、一応、「機械学習をするソフトウェア若しくはプログラムを含む抽象的な概念」とされてはいるが、明確な定義はないのが現状である。しかし、いずれの定義においても、AIが「大量のデジタルデータを収集・蓄積」し、これに基づいて「学習」するものであるという特徴は共通しているように思われる(本宣言案においては、こうした特徴を有するシステムという意味で、AIという用語を用いるものとする。)。

第64回人権擁護大会においても指摘されていた問題ではあるが、AIは、個人がインターネットを利用した履歴などのデジタルデータを収集し、分析することによって、その個人の興味や嗜好、感情といった内面を推測し、また行動を予測することができるようになっている。それだけではなく、AIは、その個人に与える情報を操作することで思考に影響を及ぼし、一定の行動を誘発することまで可能になっている。AIは、私達の意思決定という意味での人格にまで影響を及ぼそうとしているのである。

私達が、無批判にAIを含むデジタル技術の利活用を受け入れていけば、いつしか私達の人格までもAIに支配されるようになってしまうのではなかろうか。今の社会において、私達が人としての尊厳を維持し、自律的にAIを含むデジタル技術を利活用していくためには、デジタル技術、特にAIを、憲法上の理念、人権の観点から、批判的に見つめ直す必要があるのではなかろうか。これが、当連合会の問題意識である。


2 AIの利活用に潜む危険性と憲法上の理念、人権

(1)「AI 危険」などのキーワードでインターネットの記事を検索すると、AIを兵器利用する危険や、AIによって人間の仕事が奪われる危険などの指摘も見つかるが、これらは、AIの使用方法に関係する危険であろうと思われる。これらの危険への対処も重要な問題ではあるが、ここでは、憲法上の価値、理念を守るという観点に立って、AIの利用にどのような危険性が潜んでいるのかを、従前指摘されている問題も含め、整理したい。

憲法は、人権の最も基本的な理念として、「個人の尊厳」の原理を謳っている。

第十三条 すべて国民は、個人として尊重される。生命、自由及び幸福追求に対する国民の権利については、公共の福祉に反しない限り、立法その他の国政の上で、最大の尊重を必要とする。

この「個人の尊厳」の原理においては、全ての人に対する人間としての尊厳の考え方を前提に、身分制などの集団的拘束からの個人の解放、個人の自律、自己決定の尊重、そして社会による多様性の尊重という規範が導かれる。

AIは機械であり、私達は人間である。今、AIという機械によって、私達人間の最も根源的な人権やそれに基づく憲法上の価値が脅かされようとしている。

(2)プライバシー権に対する危険

AIは学習の過程において、大量のデジタルデータを収集し、分析するのであるが、その中には、私達の知らないうちに収集されているデータがある。例えば、私達がインターネットで検索をしたり、ウェブサイトを閲覧したりすれば、その履歴は、クッキーを利用することで、いつの間にか、AIに収集されていることがある。しかも、本人が関連性を自覚していない複数のウェブサイトの閲覧履歴まで、紐付けて収集することも可能なのだ。AIは、「あなた」のインターネット上の行動を、あなた以上に知っているのである。

GAFA(Google、Apple、Facebook(Meta)、Amazon各社)に代表されるデジタルプラットフォーム(DPF)事業者は、こうしてウェブサイトの訪問履歴、EC(イーコマース、電子商取引)サイトでの購買履歴、広告閲覧履歴、検索エンジンでの検索履歴等、インターネット上での膨大なデジタルデータを収集し、寡占しており、その利活用により、莫大な利益と権力を得ている。

このように、AIは、個人がインターネットを利用した履歴などのデジタルデータ等を、大量に、本人の同意なく、時には本人があずかり知らないうちに収集する。当然これらのデジタルデータには個人が他人に知られたくない、私生活上の情報も含み得る。個人の情報は、個人の人格と一体不可分のものであり、それをこのように収集すること、また収集を是認することは、憲法13条に基づくプライバシー権を侵害する可能性がある。また、それのみならず、AIが収集したプライバシー情報は、以下のように、集団的な拘束から解放されたはずの人間に対して新たな拘束を課すことになりかねない用途に利用されている。

(3)差別を助長する危険

AIが収集するのは、個人の閲覧履歴等だけではない。インターネット上に溢れるありとあらゆるデータを収集している。しかし、大量にデータを収集するからといって、そのデータが、偏りのない公平なものであるとは限らない。偏見やステレオタイピングされたデータによって学習をすれば、当然、そこから導かれる結果も偏ったものとなる。

例えば、米国では黒人が白人よりも多く検挙されてきたという実績があるため、このような過去の犯罪データを用いてAIに学習をさせると、黒人を犯罪のリスクが高い人々という差別的な判断結果が出されるという危険性が従前から指摘されている。偏ったデータによる学習の弊害は、犯罪分野に限ったものではない。例えば、AIは、過去のデータに基づいて、「女性らしさ」、「男性らしさ」という価値観に関して偏った判断を出すこともある。

このような偏った判断がなされたとき、私達は、それを否定できるであろうか。大量のデータに基づいて、AI(コンピュータ)が出力したというだけで、私達は反論の意欲を失い、結果を無批判に受け入れる心境になりはしないか。反論しようにも、AIがどのようなデータを利用したのかも、どのようなロジックで結果を出したのかもブラックボックスであるため、当該結果に対して、バイアスの有無を調査、判断することはほぼ不可能である。AIによるバイアスに対処できない状況を放置することは、AIによる差別を助長することにつながる。

(4)誤った人物評価と、それが固定化する危険

AIによる分析手法は、「プロファイリング」とも呼ばれる。プロファイリングとは、AIが、個人のウェブサイトの閲覧履歴などのデータによって、その個人がどういう傾向を有する人物なのかを予測・分析することをいう。AIが、「あなたはこういう人物です」と判断してくれるのだ。

個人の趣味趣向に合った広告を表示させるターゲティング広告も、プロファイリングの結果としてもたらされるものの一つである。GAFAなどのDPF事業者が蓄積している大量のデータは、AIを用いて分析をすることにより、ユーザーの趣味、嗜好や関心、経済状態等を推測し、最適なタイミングで広告を表示させることなどに利用されている。

プロファイリングが個人の属性化に利用された一例として、2019年の「リクナビ事件」が挙げられる。学生が、就職活動に利用するサイトである「リクナビ」の運営社が、学生のウェブサイトの閲覧履歴などを収集して、AIでプロファイリングすることにより、内定を辞退しそうな学生を予測していたのである。しかも、その結果を採用方の企業に販売していたのだ。学生からすると、自己の人物像を尊重されることなく、「内定を辞退しそう」というレッテルをAIに勝手につけられていたことになる。

プロファイリングに関わる深刻な問題として、ソーシャルスコアの問題が指摘されている。ソーシャルスコアとは、AIが、個人の社会的な信用スコアを、様々な属性に基づいて格付けすることをいう。一旦、ソーシャルスコアが低く格付けされてしまうと、社会的・経済的な信用が得られず、結果として、いつまでも格付けが改善されないという蟻地獄に陥ってしまう(これはバーチャルスラムと呼ばれている。)。AIによるプロファイリングでは、AIによって勝手に格付けされるだけでなく、それが固定化してしまうという危険もあるのだ。

これは、AIが各個人のあずかり知らないうちに大量の情報を収集し、本人が望まない用途で利用しているともいえよう。そして、AIが出力する結果は、「個人」として尊重した評価ではなく、属性に基づくグループ化、レッテル貼りという点で、「個人の尊厳」の原理により集団的な拘束から解放されたはずの人間に対して、再び新たな拘束をすることになりかねない。

また、自己に関する情報が、人格と密接不可分のものであるなら、憲法13条に基づいて、どのような自己情報が集められているかを知り、不当に使われないよう関与する権利が認められるべきである。AIが本人の同意なく行うプロファイリングに対して、個人を属性に基づくグループ化から守り、個人の自律を確保するためには、自己情報に対するこのようなコントロールの権利(自己情報コントロール権)が認められる必要がある。しかし、わが国では現在まで、こうした自己情報コントロール権は公式には承認されていない。

(5)自己決定権、内心の自由に対する危険

プロファイリングは、個人の関心の予測に基づいて意思決定への介入をさせることも可能となっており、個人の意思決定に対して強烈な影響を与えることなどが懸念されている。

プロファイリングは、個人に与える情報操作にもつながる。即ち、AIは、プロファイリングによって、個人に対し、偏った情報を与えるのだ。そこに油を注ぐのがアテンションエコノミーである。

アテンションエコノミーとは、情報の正確さとは関係なく、利用者のアテンション(関心)を集める情報に重きが置かれることをいう。アテンションエコノミーの下では、注意をひきやすい刺激的な情報が社会に溢れるようになる。そして、個人がこうした情報を閲覧すると、AIが親切にも、その個人の趣味趣向を判断し、それに沿った情報を取捨選択して提供するようになる。そのように選んでもらった情報は、当然、本人にとって好みの情報であるから、その個人は、ついつい閲覧してしまう。すると、AIは、いっそうその趣味趣向に沿った情報のみを選択して提供するようになる。いつしか、その個人は、他の情報に触れることなく、自分にとって心地よい情報に封じ込められた状態に陥る。このような状態は、主にSNS上で起きる状況としてエコーチャンバー、主に検索エンジン上で起きる状況としてフィルターバブルと呼ばれる。

アテンションエコノミー自体は、今に始まったことではないが、個人に与えられる情報が偏るという影響は、AIが関与することで、格段に大きくなっているのである。そして、個人に与えられている情報に偏りが生じることは、その個人の思考(内心)を支配し、意思決定過程をも歪めてしまうことにつながる。

このように、AIは、インターネット上の情報を閲覧する個人の趣味趣向を判断し、それに沿った情報を取捨選択して提供している。これはいわば当該個人の認知過程を透明化した上で「こころ」をハッキングするものであり、個人の自律的な意思決定(自己決定権)を歪めることになりかねない。

個人の意思決定の過程、個人の内心の領域は、最も私的な領域であるにもかかわらず、AIはまさにそこをターゲットにしているという点に、我々は大きな危機感を抱かなければならない。

(6)そして、民主主義の崩壊につながる危険

個人への偏った情報提供とそれによる意思決定の操作は、政治的意思決定をする場でもなされる場合が当然想定される。

少し古い事件にはなるが、「ケンブリッジ・アナリティカ事件」は、AIによって、個人の意思決定が操作された例として知られている。この事件では、選挙コンサルタント会社であるケンブリッジ・アナリティカが、SNSのデータなどから個人をプロファイリングして、その性格などに応じた政治広告を出し分けることで、その意思決定を操作し、2016年に行われたアメリカ大統領選などに影響を与えたというものである。この事件では、意思決定を操作された人々は、脅迫を受けた訳でも、催眠術にかけられた訳でもない。ただ与えられる情報を操作されたことによって、自身の「真意」として、操作された意思決定を行っているのである。このような手法が是認されれば、民主主義は、根本から覆されてしまうおそれがある。

その危険は、とりわけ生成AIの発達に伴って深刻度を増す。投票結果を左右させたいと願う誰かが生成AIを悪用すれば、私達は、虚偽の情報に基づいて意思決定をさせられてしまうおそれもある。悪意をもって生成AIを利用すれば、悪質なプロパガンダを作成することも可能になるのかもしれない。

生成AIは、やはり大量のデータを学習し、それに基づいて文章、画像、動画などのコンテンツを自動的に生成する機能を有している。生成AIによって出力されるコンテンツの精度は向上しており、AIが生成したとはわからないものも出てきている。

生成AIは、偏ったデータに基づいて偏った出力をすることもある。また、常に正しい情報を出力するとは限らない。むしろ、誤った内容でも、真実のごとく出力するという言い方もできる。

最近、ニューヨーク州の弁護士が、担当する民事訴訟の資料を生成AIで作成したところ、存在しない判例を引用してしまったという問題が報じられた(COURTHOUSE NEWS SERVICE June 22, 2023参照)。この事件は、航空会社を訴えた訴訟であったが、当該弁護士が資料で、いくつかの航空会社が関連している6件の判例を引用したところ、それらは実在せず、生成AIがもっともらしく出力したものであったというのである。この事件は、生成AIが情報源としては信頼できないことを表している。そうはいっても、私達は、種々の場面で、生成AIが作成したコンテンツを疑うことは難しいように思われる。

AIを利用して虚偽のコンテンツを生成する技術は、「ディープフェイク」と呼ばれる。ディープフェイクの問題は、以前から存在したものであるが、生成AIが発達してきたことにより、誰でも低コストでディープフェイクを作成できるようになってきている点が一層、問題に拍車をかけている。最近では、SNSなどから個人の音声を収集し、それに基づいて、AIで偽音声を作成して親族らになりすまして金銭をだまし取るといった手口も知られている。この偽音声は、わずか3〜4秒程度の音声データがあれば生成可能といわれている。

このように生成AIによる偽のコンテンツが溢れ出すと、人々の情報自体に対する信用が揺らぎかねず、社会を不安定にするおそれがあるともいわれている。

民主主義は、個人の尊厳の上に成り立つものであり、個人が適正に自己決定できてこそ機能するものである。しかし、既にみてきたようにAIは、個人の尊厳に多方面から危険を及ぼし、ついには自己決定権まで支配しようとしているのである。もし個人の自己決定権の操作が各人の政治的意思決定の場でなされれば、近代立憲主義国家の基盤をなす民主主義、国民主権を害するおそれがあることはいうまでもない。とりわけ、生成AIが立候補者に関する巧妙なディープフェイクを作成することになれば、それを偽物だと見分けることが困難になることはもちろん、仮に偽物だと見分けられた人にとっても無意識下での当該候補者の印象を操作される可能性は否定できない。


3 AIに対する規制の世界的動向

上記のようなAIの危険性を踏まえ、AIの開発及び利用について、以下に示すとおり各国・地域において様々な規制が検討されている。

(1)EUの規制

EUでは、2016年に成立したGDPR:General Data Protection Regulation(EU一般データ保護規則)においてプロファイリングを含む完全自動意思決定に服さない権利、プロファイリングに対して異議を述べる権利を定め、プロファイリングの制約を規定して(同21条、22条)、早い時期からAIの規制について意識を持って議論されてきた。そして、2024年3月13日、AI法(Artificial Intelligence Act)が欧州議会によって承認された。今後、2030年12月31日までに段階的に施行されていく。

AI法は、リスクベース・アプローチを採るものとして知られている。即ち、AIによるリスクを、@許容できないリスク(unacceptable risk)、Aハイリスク(high-risk AI systems)、B特定の透明性が必要なリスク(limited risk AI systems, subject to lighter transparency obligations)、C最小リスク(minimal risk)という4段階に分け、それぞれリスクに分類されるシステムごとに禁止事項、要求事項などを決めるという方法である。

そして、「行動を歪めたり、情報に基づいた意思決定を損ね、重大な被害をもたらす」ものは許容できないリスクとされている。EUにおいては、AIが、こうした危険を及ぼすことがしっかりと認識されているのである。

また、「生体認証データセットから、機密性の高い属性(人種、政治的意見、労働組合への加入、宗教的または哲学的信念、性生活、または性的指向)を推測する」ことや、「社会的スコアリング」、「プロファイリングまたは性格特性のみに基づいて個人が犯罪を犯すリスクを評価すること」なども、許容できないリスクとされており、プロファイリングという観点からもAIの危険性を警戒していることが分かる。

では、こうした規制の根底にあるものは何か。

AI法が、第1条の目的において、「……EU基本権憲章に規定されている民主主義を含む基本的な権利……を、EU領域内において、AIシステムの有害な影響から高度に保護することを確保」と述べているとおり、AI法は、基本権を保護するための規制なのである。

山本龍彦教授は、AI法が成立した経緯や、その規定内容を踏まえ、AI法が採用するリスクベース・アプローチにおける「リスク」とは、「(EU)基本権憲章に規定された基本権に対するリスクである」と述べ、GDPR、AI法を含むEUのAI法制は、「基本権憲章が保障する基本権を実現するための憲法具体化法としての性格を有している」と述べている。

(2)米国の規制

米国は、2023年10月にAIの安全な開発と利用に関する大統領令を発出した。

大統領令は、目的の項において、「責任あるAIの使用は、私たちの世界をより豊かで、生産的で、革新的で、安全なものにしながら、差し迫った課題の解決に役立つ可能性を秘めている。同時に、無責任な使用は、詐欺、差別、偏見、偽情報などの社会的損害を悪化させる可能性がある。」と述べ、「AIを善のために活用し、その無数のメリットを実現するには、その大きなリスクを軽減する必要がある。」と述べている。

つまり、AIがもたらす利益を享受するため、AIの無責任な使用によるリスクを軽減することが必要であるという立場が示されているものと思われる。

大統領令に基づく施策では、商務省が中心的な役割を果たしている。同省は、AIモデルを開発する企業に対し、AIシステムから有害または差別的な出力などがなされないかという欠陥や脆弱性を見つけるためのテスト作業(「AIレッドティーミング(AI red-teaming)」と呼ばれる。)を行うことを求めている。

バイデン政権は、大統領令に沿った規制を実現していくための立法措置を検討し、議論しているが、現時点では未だ成立したものはないようである。

ただし、立法がされていないからといってAIの開発や利用が放置されている訳ではなく、消費者保護や競争政策を担う連邦取引委員会(FTC)は、既存の権限に基づき、AIの利用に関して、差別や偏見、誇大宣伝、ディープフェイクによる詐欺、不公正な競争、プライバシー侵害などの取り締まりに動いているようだ。

(3)国連の動き

国連総会は、2024年3月21日、人工知能(AI)の開発や利用などに関する決議案を採択した。

決議案は、SDGsの完全な実現に向けた進展を加速するために、安全、安心、信頼できる人工知能システムを促進するため、 「人権と基本的自由は、人工知能システムのライフサイクル全体を通じて尊重され、保護され、促進されるということを確認し、すべての加盟国および関係者に対して、国際人権法に準拠して運用することが不可能な人工知能システムの使用、または人権、特に脆弱な状況下にある人の人権、の享受に過度のリスクをもたらす人工知能システムの使用を自粛または停止するよう求める、特に 脆弱な状況にある人々は、人工知能のライフサイクル全体を含める。そして、オフライン環境で人々が有するのと同じ権利がオンライン環境でも保護される必要があることを再確認する。」と決議した。

この決議案は米国が主導したものであり、AIシステムを、SDGsの達成に寄与させるためには、安全で、安心、信頼できるAIシステムに関する規制等が必要であるというスタンスに立っているものと思われる。

(4)日本の現状

日本では、2024年4月19日に総務省、経済産業省が、AI開発・提供・利用にあたって必要な取組についての基本的な考え方を示すものとして、「AI事業者ガイドライン」(第1.0版)を公表した。

同ガイドラインは、AIの活用に伴って生じるリスクの大きさに対応して対策を施すリスクベース・アプローチを採用しており、事業者に、AIの安全安心な活用を図るための指針を与えるものであり、生成AIによってもたらされるリスクにも注意を払っている。

同ガイドラインは、基本理念として、「人間中心のAI社会原則」を掲げており、具体的には、
@ 人間の尊厳が尊重される社会
A 多様な背景を持つ人々が多様な幸せを追求できる社会
B 持続可能な社会
を3つの柱として示している。

「人間中心」という点について、同ガイドラインは、「少なくとも憲法が保障する又は国際的に認められた人権を侵すことがないようにすべきである」と述べるとともに、人間の尊厳及び個人の自律、AIによる意思決定・感情の操作等への留意、偽情報等への対策など6つのポイントを述べた上で、共通の指針として、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションなどを掲げる。

上記ガイドラインを見ると、EUで掲げる人権への配慮を踏まえながら、米国の規制のように、AIの利活用を図るために安全性等を確保すべきであるとの観点も含まれているものと思われる。さらには、教育・リテラシーなどの側面にも言及している点が特徴と言える。

日本のガイドラインに対して、山本龍彦教授は、「AI利用に対しても立憲的統制を加えるには、ガイドラインではなく、AI規制の基本的枠組みを定める法律を制定し、その中に憲法や基本的人権との関係性をしっかり書き込むことで、AI法制に憲法具体化法としての明確な位置づけを与えるべきである。」(「AIと法」自由と正義2024年6月より)と述べる。ガイドラインは、あくまでも指針であるため、山本教授の述べるよう、今後、法制化が図られるべきであろう。

(5)求められる規制の方向性

AIに対してなんらかの規制が必要であるというのは国際的に共通の方向性であると思われる。現在は、EU、米国などが個別にAIの規制を検討している状況であるが、インターネットがグローバルなものである以上、AIの規制も国際的なものとなるべきであろう。

では、なぜ、AIを規制するのか。やはりその根拠となるのは憲法上の理念、人権ではなかろうか。

EUが人権保障を前面に出しているのに対し、米国は、AIがもたらす利益を享受するため、AIの無責任な使用によるリスクを軽減するという姿勢を打ち出しているが、ここにおける「リスク」は、AIによる有害または差別的な出力の可能性を指しているから、やはり人権を考慮したものであるといえる。日本の規制においても、人間中心という基本姿勢において、人権への配慮をしている。

そして、規制の根拠が憲法に基づく人権であるのなら、やはりその規制は、法に基づいてなされるべきと思われる。AIの活用においてもたらされる様々なリスクは、先に検討したとおり、根幹は憲法13条の「個人の尊厳」に対する危険にあるように思われる。AIと対峙する我々は、AIによって「個人の尊厳」を脅かされないようにするための方策を考えていかなくてはならないであろう。


4 AIを活用した「デジタル民主主義」の可能性

ここまで、AIを、憲法上の理念、人権の観点から、批判的に見つめ直してきたが、一方で、AIを活用した「デジタル民主主義」も提唱されている。

2024年7月の東京都知事選に出馬したAIエンジニアの安野貴博氏は、この選挙戦において、支持者との議論を踏まえた「公約の更新」を試みた。インターネットで公約を公表した後、支持者の質問、コメントなどを分析し、公約に反映させるのである。何を反映させるかは、数だけで判断するのではない。鋭い提言であれば、少数であってもすかさず政策に反映させる。通常、選挙戦での公約は、候補者から支持者への一方通行となることが多いが、安野氏の場合は、支持者の声を吸収して公約が成長するのだ。

安野氏によるAIの活用は、新しい選挙運動というだけではない。公約に対して寄せられた支持者のコメントを、「民意」と捉えれば、そこで行われたことは、まさしく民意を収集し、公約という政策に反映させること、即ち民意の統合なのである。既にみてきたとおり、情報の収集はデジタルの得意分野である。そして、収集した情報の分析、統合もデジタルの得意分野である。「民意を行政にいかに反映させるか」という視点でAIを活用すれば、政策への関与は、政治家だけのものではなくなり、より多くの民意をキメ細かに反映した政策の立案をすることも可能となるであろう。また、一人一人の民意が政策に反映される可能性が高まれば、市民の政治参加への意欲を高めるという副次的効果も得られるかもしれない。東京大学の宇野重規教授(政治学)も、市民皆が政治を自分事として捉えることにより政治を変えられる可能性を秘めたものとして、安野氏の試みを高く評価している。

このようにAIの活用には、「デジタル民主主義」ともいうべき、新しい民主主義を健全に発展させる可能性も秘められているように思われる。AIは、種々の産業において有用なシステムとして活用されているが、それだけではなく、民主主義という観点においても大きな可能性を秘めたツールであると考えられる。

もっとも、今ではまだ、こうした活用が試み始められた段階に過ぎず、「デジタル民主主義」が直ちに実現されると考えるのは早計であろう。AIが政策に民意を反映させる一助になり得るとはいえ、AIが政策の立案主体となってしまっては、それを「民主主義」と呼んで良いものか疑問も生じる。こうならないよう最終的な決断は政治家又は市民が行うということにしても、AIが立案した政策に、政治家又は市民が、反論する根拠を持ち得るのかという問題も生じよう。


5 今、私たちに求められること

(1)AIへの対処の必要性

ここまでみてきたとおり、AIは、様々な憲法上の理念や人権に影響を与え、社会体制の基盤を揺るがせかねない危険性を孕んでいる一方、AIは、あまりにも深く私達の生活に根を下ろしており、もはや完全にAIを排除することは困難であるだけでなく、その有用性を考えると排除することが適切ともいえない。AIは、産業界はもちろん行政の分野においても、作業の効率化に資するツールとなり、とりわけ生成AIは様々な分野において業務効率化のために取り入れられつつあることは周知のとおりである。また、「デジタル民主主義」という市民皆が政治に参加できる新たな民主主義を実現し得る大きな可能性を秘めたものであることも先に紹介した。しかし、現在が、AIの社会的有用性が認知され、その完全な排除が不可能かつ不適切でもあるAI時代と呼べる時代であるからこそ、AIは、放置すれば、私達の日常生活のあらゆる身近な場面に浸透し、人権を脅かす危険がますます蔓延してくる状況となるのは間違いない。

この状況を看過する訳にはいかない。AIについては、利活用を図りながらも、その脅威を十分に理解し、憲法上の理念や人権を脅かさないための規制を、技術面、制度面の両面から模索する必要があるといえる。

また、AIによる脅威を十分に理解しつつ、与えられる情報に対して適切な批判思考(リテラシー)を持ち、人権を投げ出さない市民を育成し、デジタル環境下において自律した市民からなる社会を構築することも必要である。

(2)AIに関する規制のあり方

AIに関する技術面での対策としては、例えば、インターネット上の情報にその情報発信者の識別情報を付与してその情報に触れる者が情報の信頼性を確認しやすくする技術(オリジネーター・プロファイル)や、複数のアルゴリズムを持った多数のAIが並列的に存在し、人がそれぞれのAIを自律的に比較、選択できる環境を提供し、単一のAIがもたらす情報の偏りを是正しようとする構想(AIコンステレーション)などが提示されている。

規制としては、デジタル分野での技術進展の早さに迅速に対応できるガイドライン等におけるソフトな規制と、特に深刻な人権侵害、民主主義への危機の問題が懸念される分野等における立法措置によるハードな規制を使い分ける必要がある。また、DPF事業者等に、正確かつ偏りの少ない情報を提供するインセンティブを与えるという意味では、個人の自己情報コントロール権の公式な認知とその実質化のための立法措置や、著作権等の知的財産権の保護強化措置等も、AIとアテンションエコノミーが結びつくことによる暴走を食い止める担保として有効と考えられる。

一方で、AIをはじめとするデジタル技術の有用性やそれを利用する側の利益等も考慮し、行き過ぎた規制がなされないように配慮する必要があることはいうまでもない。

各場面においていかなる規制が適切かについては、上述した個人の人権、民主主義への危機を的確に理解し、デジタル技術を利用する側の利益にも目配せするバランス感覚を持った提言が必要である。

(3)弁護士に求められる視点

デジタル技術の急速な進展に伴い、新たな憲法上の危機が生じているといえる現在、豊かで健全なデジタル社会を築くために我々弁護士が積極的な意見表明をなし得る場面は多いはずである。

我々弁護士は、AIを含むデジタル技術が、人権にどのような影響を与え得るのかという観点で批判的に目を光らせていなくてはならない。特にデジタル技術は急速に進歩するから、技術が進歩した将来の姿も見据え、人権侵害が生じないよう、進歩の方向性をコントロールする働きかけも必要となろう。

また忘れてならないのは、AIが大量に収集したデータに基づいて解析を行うという点である。つまり、AIは、世の中の「多数」に親和的な技術なのである。基本的人権の擁護を使命とする我々としては、常に少数派の人権を保護するという視点で、AIに対する規制のあり方を検討しなくてはならない。

(4)市民教育の必要性

現在のデジタル社会の環境下では、快適にデジタル技術を駆使している市民は、気づかないうちに自らの人権が危機にさらされているともいえる。そのような市民に対し、そのような現状を正確に伝えていくこともまた、我々弁護士の使命といえる。

特に、アテンションエコノミーの下で、市民に提供される情報にいつのまにか偏りが生じていたり、生成AIによる本物らしいフェイク情報が蔓延したりしていることなどによって、正しい情報に接することができなくなってしまえば、市民の人権は、大きな危険にさらされることになる。

山本龍彦教授は、情報を摂取する行動を食事にたとえ、情報に触れる者が適度なバランスを意識し、多様な情報に接することで偽情報への耐性を養うプロジェクトとして「情報的健康」の概念を提唱されている。我々弁護士もまた、この「情報的健康」の概念に賛同し、偏って提供される情報や社会に散乱する偽情報に惑わされない自律した市民の育成に取り組んでいかなければならない。

特に、児童、生徒への教育も重要である。2019年12月に文部科学省が発表した教育改革案としてのGIGAスクール構想(Global and Innovation Gateway for All、「すべての児童・生徒にグローバルで革新的な扉を」)のもと、児童一人当たりに端末を付与してデジタル社会に応じた教育を行おうとしている今日においては、児童、生徒への適切なデジタルリテラシー教育は欠かせないと思われる。

デジタル社会における市民のリテラシー教育としては、数十年前から提唱されてきた「情報モラル教育」に加え、昨今では「デジタルシティズンシップ教育」という概念が提唱されるようになってきている。

その各概念については広狭があるものの、概ね、「危険な情報から遠ざける」という発想があったかつての教育から、「デジタル技術の正確な仕組みを伝えることにより、氾濫する多様な情報への選択能力、耐性等を身につけさせ、これからのデジタル社会における民主主義を担う自律した市民を育成する」という教育へシフトしているものと考えることができる。この「デジタルシティズンシップ教育」は、各種学術機関や教育機関等において実践されつつあり、今後ますます拡がりをみせることが予想される。

我々弁護士は、市民への法教育を担うものとして、学校現場への派遣授業や児童、生徒を対象としたオープン授業、消費者としての社会参画を促す消費者市民教育の実践などを通じ、また、市民集会やシンポジウムの主催等で問題提起と検討の場を提供することなどを通じて、上記の教育界における新たな知見も取り入れつつ、適切なデジタルリテラシーを醸成する教育の場を提供していくべきである。


6 結語

以上を踏まえ、中部弁護士会連合会は、今後、社会においてAIの利活用が推進されていくにあたり、現実社会のみならず、サイバー空間上においても憲法上の基本的人権が擁護されることを目指したいと考える。そして、AIのメリットを享受しながらも、全ての個人がAIによって意思決定を歪められることなく、自律的に自己決定をなすことができる民主主義社会を実現したいと考える。そのためには、AIに流されるのではなく、我々が、デジタル技術、特にAIを、人権の観点から批判的に見つめ、人として自律的にこれらを利活用していく必要があるのである。

このような社会を実現するため、当連合会は、以下の活動をすることを宣言する。

(1)AIの急速な発展、利用の場の拡大等、今後ますます進展していくデジタル環境において、AIの利活用を図りながらも、憲法上の理念や人権に対する脅威を十分に理解し、公表されたガイドラインその他の方策について人権の観点から検討し改善すべき点を指摘する等、AIに対する適切な規制の実現に向けた提言を続けること。

このような社会を実現するため、当連合会は、以下の活動をすることを宣言する。

(2)AIを含むデジタル技術によってもたらされる現在及び将来の人権侵害、特に少数派に対する人権侵害に対して目を光らせ、その防止および救済のための活動に引き続き力を入れていくこと。

(3)避けられないデジタル社会の進展を踏まえ、市民に対してデジタル技術による危険も含めて正確な知識を伝え、偏って提供される情報や社会に散乱する偽情報に惑わされない自律した市民の育成に寄与する教育の推進に協力すること。


以上





戻る




Copyright 2007-2010 CHUBU Federation of Bar Associations