『カズレーザーと学ぶ。』今回のテーマは“人工知能AI”
“AIに評価される時代であなたは生き残れるか”
今回は「人工知能 AI」をテーマに
就職&恋愛、監視社会、法律の観点から
専門家が最新事情を語る
『そのときあなたは?突然AIから届く解雇通告…』
“AIテクノロジー”のスペシャリスト 第一生命経済研究所主席研究員・九州大学グローバルイノベーションセンター客員教授 柏村祐は、会社の人事においてAIによる従業員の賃下げや解雇通告が行われた事例を語る。AIに大量のデータを学習させ、その特徴を自動的に抽出する『ディープラーニング』の技術は、AIの急速な発展を支え、すでに我々の生活のあらゆる場面で活用されている。
AIのさらなる進化に伴い、10年~20年後には、日本の労働人口の約49%が、そのようなAIやロボットによって代替できるかもしれないという可能性について語った。
“AIテクノロジー”のスペシャリスト九州大学・客員教授の柏村祐氏
『全国民に点数をつけるAI監視員が日本上陸!?』
国内に2億台以上の監視カメラを設置し、14億人の国民1人1人のプロフィールや行動履歴、誰と会ったかまでをもAIが見張る、超監視国家の中国。千葉大学客員准教授 高口康太は、こうしたAI監視システムは、今後日本でも大規模に導入されていく可能性があると語った。
また中国では、「信用スコア」という学歴、職業、収入、交友関係など5つの要素に分けた膨大なデータから個人の信用力をAIが点数化。“スコア”と呼ばれる評価によって、生活の自由度が変わるシステムについて解説。信用スコアにより個々を格付けするなど、モラルの向上を促す仕組みも開発されているという。このシステムも日本にいずれ導入され、格差社会や外国人と共存していく上での、一つの経路となると予想する見解について語った。
千葉大学客員准教授でジャーナリストの高口康太氏
『AIが生み出した新たな差別 バーチャルスラム』
アメリカの一部の州で行われている裁判で被告人の個人情報、家族や友人の犯罪歴などからAIが再犯リスクを評価する「再犯予測プログラム」。再犯率が高い特定の人種のスコアのみが不当に評価されてしまう事案が発生しており、慶應義塾大学・大学院法務研究科教授 山本龍彦は、人種に基づく偏見が学習のアルゴリズムの中に組み込まれている結果であり、人種差別を再生産するといわれていると解説。
さらに差別の歴史の結果がビッグデータに蓄積され、そのデータを元に、未来を予測するAIも低評価を下してしまうという。この一度AIに下された不当な評価は、ネットを通じてあらゆる場所で共有され、人生のやり直しが出来なくなってしまう状態を「バーチャルスラム」といい、山本氏は、これを防ぐためAIの決定に対して人間が最終的に責任を負う必要があると語った。
慶應義塾大学・大学院法務研究科教授 山本龍彦氏