図解
※記事などの内容は2019年4月29日掲載時のものです
人工知能(AI)が急速に普及する中、人間生活を脅かさないようAIの開発や活用に関する「倫理」指針づくりの動きが広がっている。AIを融資や採用の判断に使うことで、差別の助長やプライバシー侵害を招くとの懸念が背景にある。人とAIは共生できるのか、官民で模索が続く。
膨大なデータ分析から未来を予測するAIは、防災や医療、交通・物流の効率化に役立つ。一方、AIによる個人の信用評価などで、データの偏りから意図せず差別的な答えをはじき出すことがある。しかも判断理由が外部から見えず、修正も難しい。国際会計事務所デロイトトーマツグループは、AI導入の結果、職探しなどで不利益を被る「デジタル貧困」に、2030年までに主要国で最大5.4億人が陥る危険性があると試算する。
「AIを人の点数付けに使った場合、政治信条や民族性に基づく差別を助長するリスクもある」。4月上旬にAI倫理指針を発表した欧州連合(EU)の関係者はこう話す。指針は、人間による監視やデータの収集・処理の過程を追跡できる仕組みが必要だと訴える。
日本政府が3月に策定したAI社会原則も、EUと同じく「人間中心」を強く打ち出した。AIの利用で不当な差別を生じさせないよう、公平性・透明性と結果に対する説明責任を求めている。
民間では富士通が3月、AI倫理について取締役会に助言する外部委員会を設置する方針を発表。NECも「AIと人権に関するポリシー」を策定し、AIが基本的人権を侵害するリスクがないかチェックする仕組みを導入する。
一方、世界ではデジタル技術をめぐる米国と中国の覇権争いが激化。米国は2月に出したAI開発に関する大統領令で人権への配慮とともに「米国主導」を強く打ち出すなど波乱含みだ。
新着
会員限定