AIが個人を「判断」することの怖さとリスク
近年のAIアルゴリズムの急速な発展にしたがって、世の中の様々なサービスにAIが組み込まれるようになりました。これにより一般生活者の利便性が高くなる一方で、個人の権利を侵害するリスクも高くなっているように思います。テクノロジーの発展スピードに対して、社会のルール整備や、倫理観の醸成が追いついていないと言えるでしょう。
例えばAmazonで買い物をする場合、過去の購買履歴や行動記録から、利用者が興味を持ちそうな商品が「おすすめ」として自動表示されます。企業としてはマーケティング上便利なシステムですが、消費者としては自分の嗜好が「判断されている」と感じる瞬間でもあります。データ解析と謎めいたアルゴリズムによって、勝手に自分という人間がある種の型にはめられてしまい、そこに反論の余地もないため、恐怖感を憶える人もいると思います。これがショッピングに限ったことであれば、さほど大きな問題にはならないでしょう。しかし、就職や融資といった場面でも、謎めいたアルゴリズムにより「あなたはこういう人ですね」という一方的に決められた個人像が使われ始めているのです。最近、AIを使ったプロファイリングによって作られる個人像を「データ・ダブル(データ上の分身)」とか「データ上の幽霊」などと呼ぶことがありますが、こうした「幽霊」が本人の管理下を離れて、本人の人生にいたずらするようになり始めました。
より身近なところでは、ネットニュースの配信にも同じような問題が生じています。スマートフォンに流れ込んでくるニュースも、その人の趣味嗜好や政治的な傾向をAIが予測・判断し、それを基に選別されているのです。ニュースも個々人向けに「カスタマイズ」されるので、野球好きな人は野球のニュースばかりに、保守的な考えの人は保守的なオピニオンばかりが入ってくる。米国などでは、こうした状況を「フィルター・バブル」(AIプロファイリングに基づく選別的なニュース配信により、個人がフィルタリングのかかった小さな泡の中に閉じ込められるとの主張)と呼んで、その問題について盛んに議論がされています。同じコミュニティに住んでいるにも関わらず、個々の人間が全く違う「世界」を見ている。また、閉鎖的な「世界」に閉じ込められることで、考え方が凝り固まってくる。こうした状況は、社会の分断を生み、他者に対する寛容性を失わせるのではないか、と懸念されているわけです。私も憲法の研究家として、AIの導入によってますます高度化するフィルター・バブルは、公共空間の形成や民主主義の維持にとって一定のリスクになると感じています。