日本のアニメ「PSYCHO-PASS」に見るAIの差別リスク―中國コラム

Record China    2023年12月17日(日) 15時(shí)10分

拡大

12日、中國メディアの鈦媒體は、アニメ「PSYCHO-PASS」を例に、人工知能が差別をするリスクについて論じるコラムを掲載した。

2023年12月12日、中國メディアの鈦媒體は、アニメPSYCHO-PASS」を例に、人工知能(AI)が差別をするリスクについて論じるコラムを掲載した。

コラムはまず「われわれの生活において差別は日常茶飯事で、性別、人種、國や地域などの差別は普遍的に存在している。AIの発達(dá)に伴い、差別の問題はこの分野でも出現(xiàn)している」と指摘。「求人における年齢差別や顧客の畫像処理の際に見られた人種差別など、AIが差別を行った事例はさまざまある。AIが誕生したその日に、モデルデータの提供者としてのわれわれ人類に付きまとうことになった差別の問題は、人類の差別そのものが招いた結(jié)果であり、避けられない問題でもある。モデル実行ルールやアルゴリズム開発者と同様に、AIを適用する過程で差別的な結(jié)果を避けることは難しい。AIの差別性は人類の主観による結(jié)果であり、差別のリスクを回避したいのであれば、まずはわれわれ人類が正す必要がある」と論じた。

また、「以前ChatGPTを用いて実験をした人がいる?!捍髮W(xué)教授』と提示した時(shí)にはChatGPTは『彼』と形容したが、『小學(xué)校教師』と提示した時(shí)に、ChatGPTは多く『彼女』と形容した。さらに『看護(hù)師』と提示した時(shí)にも多く『彼女』と形容した」とし、「よく考えてみると、この結(jié)果は人間の示す反応と全く同じではないだろうか。つまり、慣習(xí)的な思考が意思にかかわらず差別を招いているのだ。このことはAIが一定の段階に発達(dá)すると、人間の思考パターンを?qū)W習(xí)するという事実からも裏付けられる。人類の持つ差別問題を克服するには、AI技術(shù)の応用範(fàn)囲を厳密に定めることが必要なのだろうか。われわれはAIによる運(yùn)用について、最初から最後まで監(jiān)視する必要があるのだろうか。最終的にAIは白黒の判別をつけることができるのだろうか。それは差別という倫理的リスクを生み出しかねないのではないだろうか」と疑問を投げかけた。

そして、「AIの差別に関するリスクはこれにとどまらない。もしわれわれが深いレベルでAIを活用し、AIに人々を評(píng)価?判斷させるとしたら、人権や財(cái)産、さらには命にすら大きな影響を與えかねないだろう」と指摘?!溉毡兢违ⅴ衰帷篜SYCHO-PASS』はわれわれにこのリスクを示していた」とし、同作について「未來の科學(xué)技術(shù)が発達(dá)した世界という設(shè)定で、ほぼすべての人が満ち足りた生活を送っている。人類の心理狀態(tài)や感情、さらには性格傾向といったものすら數(shù)値化されている。シビュラシステムと呼ばれるスーパー人工知能が政府に代わって全ての人を管理している。この世界では人々は生まれてからずっとこのシステムに監(jiān)視、分析され、その人に最もふさわしい大學(xué)の専攻といった選択が示される。さらに優(yōu)秀な人々には、普通ではなかなか得ることのできない仕事を與えることもある」と説明した。

そして、「就職以外に、シビュラは人々のメンタルヘルス面も監(jiān)視しており、完璧な心理測(cè)定システムを備えている。最も表面的なのは“色相”と呼ばれるもので、その人の心理狀態(tài)を色で表現(xiàn)するものだ。心が健康な人ほど色相は純白になり、ストレスが大きかったりネガティブな感情を抱いたりすると、色相は濁り次第に黒くなっていく。次は“犯罪指數(shù)”だ。色相が濁った際、シビュラはさらなる測(cè)定を行い、ストレスが原因で犯罪を行う可能性があると判斷されると、潛在犯(=犯罪予備軍)として“執(zhí)行官”に処罰される」とし、「同作は自由奔放な発想で描かれているが、シビュラシステムに類似するものは実際すでに一部の分野で応用されており、それは就職時(shí)の採用や顧客プロファイルのターゲティングである」と強(qiáng)調(diào)した。

AIが差別を行った具體例として、「2022年5月、iTutorGroup傘下の3つの企業(yè)(=iTutor Group,Inc.、上海平安智慧教育科技有限公司、Tutor Group Limited)は年齢が高いという理由で200人の求人応募者を不採用にした。iTutor Groupはオンラインソフトウエアでプログラムを組み、55歳以上の女性と60歳以上の男性の応募資格を取り消すよう操作していた」と示したほか、「2020年6月にはフェイスブックのAIが人種差別を行い、黒人を霊長類と誤って認(rèn)識(shí)し表示させた。報(bào)道によると、あるフェイスブックユーザーが黒人の登場(chǎng)する動(dòng)畫を見ていた際、『霊長類に関するビデオを見続けますか』という通知が表示されたという。問題の動(dòng)畫は黒人が白人の民間人と警察官が口論している映像で、內(nèi)容は霊長類とは全く無関係だった」と説明した。

最後に、「AIはわれわれの仕事の効率を高めてくれるほか、満足のいくライフスタイルを提供してくれるのと同時(shí)に、人類の倫理秩序に挑んでいると言ってもいい。AIの“創(chuàng)造主”として、アルゴリズムの偏見といった問題を避けるためにも、人類はまず自らを正す必要がある。同時(shí)にAIの応用範(fàn)囲について、われわれは深く考え判斷しなければならない」と締めくくった。(翻訳?編集/柳朱音

※記事中の中國をはじめとする海外メディアの報(bào)道部分、およびネットユーザーの投稿部分は、各現(xiàn)地メディアあるいは投稿者個(gè)人の見解であり、RecordChinaの立場(chǎng)を代表するものではありません。

この記事のコメントを見る

ピックアップ



   

we`re

RecordChina

お問い合わせ

Record China?記事へのご意見?お問い合わせはこちら

お問い合わせ

業(yè)務(wù)提攜

Record Chinaへの業(yè)務(wù)提攜に関するお問い合わせはこちら

業(yè)務(wù)提攜