人材採用・育成、組織開発のナレッジコミュニティ『日本の人事部』が運営する、HRテクノロジー(HR Tech、HRテック)総合情報サイト

日本の人事部 HRテクノロジー ロゴ

トレンドキーパーソンに聞く2021/03/31

AIの判定は、本当に客観的で公平か?
人材採用や評価にAIを活用するリスクと注意点

名古屋大学 大学院情報学研究科 准教授

久木田水生さん

AI統計的差別採用人事評価

  • facebook
  • X
  • note
  • LINE
  • メール
  • 印刷
久木田水生さん(名古屋大学 大学院情報学研究科 准教授)

私たちの生活のあらゆる場面で導入が進むAI(人工知能)。人事領域もその例外ではなく、エントリーシートの選考や面接、人事評価などにAIを取り入れる企業が増えています。AIの活用は、採用活動の効率化や評価の公平性につながると考えられている一方、採用や評価に不適切なバイアスが生まれる危険性や統計的差別を助長する可能性について問題視する声も聞かれます。人事はAIとどう向き合い、どのように活用していくべきなのでしょうか。名古屋大学 大学院情報学研究科 准教授の久木田水生先生にうかがいました。

プロフィール
久木田水生さん
久木田水生さん
名古屋大学 大学院情報学研究科 准教授

2005年、京都大学大学院文学研究科で博士号(文学)を取得。2017年より名古屋大学 大学院情報学研究科 准教授。専門は言語哲学、技術哲学、技術倫理、人文情報学(デジタル・ヒューマニティーズ)。テクノロジーと人間と社会の関係について研究し、近年はロボットや人工知能の社会への影響に焦点を当てている。共著に『ロボットからの倫理学入門』(名古屋大学出版会、2017年)、共訳書にアンディー・クラーク『生まれながらのサイボーグ』(春秋社、2015年)、ウェンデル・ウォラック&コリン・アレン『ロボットに倫理を教える』(名古屋大学出版会、2019年)、マーク・クーケルバーグ『AIの倫理学』(丸善出版、2020年)などがある。

数値化できないものまで数値化・定量化しようとしてきた近代の功罪

久木田先生は哲学や倫理学を専門とし、「情報技術・ロボット技術が社会に与える影響や、その倫理的な問題」について研究されています。近年、採用や評価など人事領域にテクノロジーやAIを活用する企業が増えていますが、この状況をどのようにご覧になっていますか。

いま、社会のいたるところで、テクノロジーを使って人を評価しようとする動きがあります。採用や評価といった人事領域でAIを活用することも、その一部でしょう。

この流れは元をたどれば、17世紀ごろ、近代的な科学が誕生したことに端を発します。その後ニュートンが登場し、近代科学が発達して、人々は「世の中のいろいろなことは数字で表せられる」と気づきます。数字こそが客観的であり、普遍的であり、正確であると。

こうして「数値化こそが是である」という考え方が広まっていきました。私は、この「なんでも定量化して評価しようとする風潮」は、近代を特徴づける大きな精神性の一つだと捉えています。

しかし本来は、数値化できる領域は極めて限られているはずです。社会や人間というものは、そう簡単に数字で計れません。

それでも人は、数値化できないものも、なんとか数値化しようと試みてきました。営業社員のパフォーマンスを評価するために、訪問社数や新規開拓数、売上額を計測することもその一例です。私たち大学教員も、何本の論文を書いたか、その論文はどれだけ引用されたか、どんな雑誌に掲載されたか、何人の学生に博士号をとらせたかなどが数値に置き換えられ、評価されています。

本来は数値化できないものを数値化しようとすることで、むしろ正確に評価できなかったり、偏りや不足が生まれたりすることもあるのではないでしょうか。

そうですね。気づかれていないだけで、実は偏りや抜け落ちているものが、たくさんあると思います。

いまは、人間の行動データを容易に収集できる時代です。ビッグデータと機械学習を掛けあわせて人を類型化し、行動を予測することも難しくありません。目の前にいる人が「どういう性格で、どんな欲求を持っているのか」「次に何を望み、どう行動するのか」ということまで、かなり正確にわかるようになっています。

ただ、AIは数値化できるものしか判断できません。定量化できないものや、計測してもすぐに変わってしまうものは、評価から抜け落ちてしまう。システム設計者が人の行動を数値に置き換えることで、客観的なエビデンスを得たように見えるかもしれませんが、実際にはまったく客観的でも公平でもない、ということがあり得るのです。

AIの判断は、本当に客観的で公平で正しいのか

人事領域においても、「人事担当者のこれまでの経験や勘に頼るより、AIを活用したほうが公平性や客観性を担保しやすい」という意見があります。ただ実際には、そうとも言いきれないということでしょうか。

好き嫌いのある人間よりも、感情のないAIのほうが公平に評価できると考える人は多いでしょう。しかし、AIのプログラムを設計するのは人間です。どのようなデータを用いるのか。そのデータをどう扱うのか。これらには、設計者の恣意的な判断が反映されます。「AIを活用すれば公平な判断になる」とは、とても言いきれません。

とくに採用の現場でAIを活用するときは、慎重を期す必要があります。なぜなら、そのAIのジャッジが正しかったかどうかを検証できないことが多いからです。もしかしたら、能力のある人を不合格にしているかもしれません。しかし不合格になった人が採用されていた未来については、検証のしようがないのです。

面接中に求職者がどれだけ笑顔で話していたのかを判定するAIのアプリケーションがあります。たしかにAIでその人が笑顔でいた時間をはかることは可能です。その笑顔がつくり笑いなのか、心からの笑顔なのかも、判定できるでしょう。

ただ、「面接中に心からの笑顔を出せること」と「その企業で活躍する能力を持っていること」は必ずしもイコールになるわけではありません。緊張して笑顔が出なかった候補者の中に、もしかすると、すばらしい活躍をしてくれる逸材がいたかもしれません。あとから検証できない分、少なくとも、優秀な人材を不採用にしてしまう可能性について、十分な検討があって然るべきです。

また、アルゴリズムの中身は案外、ブラックボックスになっていることが多いんです。「なぜ、その人を採用しなかったのか」の理由を説明できないシステムも多い。AIが判定しているからといって、必ずしも、説明責任を果たせるわけではないのです。

そのほかに、採用活動でAIを利用する際のリスクや注意点には、どのようなものがありますか。

AIが、現代社会や企業が持っている、是正すべき“不平等の構造”を、いつの間にか学習してしまっているケースがあります。

たとえばエントリーシートや面接の通過条件に、性別や年齢、人種などのデータを設定していなくても、過去の通過率から、女性や高齢者、外国人を低く評価するようなプログラミングになっていることがあるのです。

AIの判断は、本当に客観的で公平で正しいのか

この場合、企業の意図にかかわらず、社会にある不公平や差別を助長することになります。また、同様のシステムを使う企業が増えれば、どの企業に行っても、同じ属性の人が不採用になってしまいます。それでは、良い社会とはいえません。

採用面接に導入されているAIで、こんな機能を持つアプリケーションがあります。応募者の面接での話し方や身振りと、社内で活躍している優秀な社員の話し方や身振りを突き合わせ、合致率の高い順にランキングするというものです。

採用の可否を、このAIのみに委ねてしまえば、不公平や差別を助長しかねません。なぜなら言葉や身振りには、性別や出身地が顕著に現れるからです。たとえば、これまで白人男性を多く採用し、優遇してきた企業であれば、やはり同様の属性を持つ白人男性ばかりが採用される結果になってしまいます。

求められるのは、アルゴリズムの透明性と改善思考

AIの活用で学歴や性別、出身地などの「統計的差別」が生まれる可能性を課題視する声もあります。企業は、このような問題にどう対処していけばいいのでしょうか。

AIを使って判断した結果には、システムやアルゴリズムを設計した人の思惑が反映されています。まずはその設計が正しいのかどうか、懐疑的な視点で問うていく必要があります。一度決めたアルゴリズムに対しても、「本当にこの設定でいいのか?」と常に考え、状況をシステム設計者にフィードバックし、改善につなげていかなければなりません。

同時に、システムの中身をオープンにすることも重要です。そのシステムはどのようなパラメータを使っているのか。どんな学習データを使用しているのか。内実をきちんと説明できるようにしておかなければなりません。システムの透明性を担保することと、説明責任を果たすことは、企業が果たすべき役割の一つだと私は思います。

システム設計者は、アルゴリズムの仕様をオープンにすることで、社員の「ほんとうの姿」を見て、採用・評価できないというジレンマを抱えることにはなりませんか。

たしかにアルゴリズムの仕様をオープンにすれば、人はその仕様を意識し、良い評価を得られる行動をとりやすくなる、とはいえます。

海外にある病院が、医師を評価する際に「手術の成功率」を指標として用いたところ、その病院に勤める医師が、難易度の高い手術をやりたがらなくなったという事例があります。「この人は手術しても助からないだろう」と思われる患者が、たらい回しにされる状況を病院側はつくってしまったことになります。客観的な評価基準を定めて、人や組織を評価するのは、実は、とても難しいことなのです。

一方で、どんな基準で評価されているのかが、オープンではない状況もまた、社員の不信や疑心暗鬼を生みます。人事やシステム設計者に近い人材が有利になったり、不確実性の高い情報に翻弄される人が出てきたり。採用や評価にAIを導入するのであれば、やはりそのアルゴリズムの透明性は高いほうが望ましいでしょう。

加えて、これもテクノロジー活用の難しさなのですが、「AIが行った判断が引き金となって、AIが判断した通りの未来になること」があります。

たとえば、犯罪者の再犯可能性を予測するAIがあります。再犯可能性が高いと判断された人は、より長い刑期を宣告されるでしょう。しかし、一般的に刑期が長いほど、社会復帰は難しくなります。社会復帰の難しさが起因し、再び犯罪に手を染めてしまう人も出てくるでしょう。「この人は再犯可能性が高い」とAIが判断したことが原因となり、AIの予測どおりの結果が生まれてしまうわけです。

企業においても同様のことが起こる可能性はありますね。採用時に「リーダーシップがある」と判断された人のところに、リーダーの素養を必要とする仕事が集まり、結果的に、リーダーへの登用が早くなることは容易に想像できます。

AIから優秀だと判断されるような、もともと恵まれている人が機会を与えられ、能力を延ばしていく一方で、AIからマイナスの評価をされた人はなかなか機会に恵まれず、能力を発揮できない。そういうケースはあるでしょうね。ただし、これは人が判断した場合にも同じことが起こります。

「道徳」や「倫理観」を身につけたAIは登場するか

海外では、「道徳的に判断し、道徳的に振舞うことができる人工知能・ロボット」の研究開発が行われているそうですが、AIが道徳や倫理観を身につけることは可能なのでしょうか。

これはまだ答えが出ていない問いなのですが、まずは「道徳や倫理とは何か」という部分がとても難しいんですね。道徳や倫理にはルールがあって、AIがそのルール通りに状況を判断し、行動できれば、「道徳や倫理を身につけたAI」だと定義するのであれば、可能かもしれません。ただ、そんな簡単な話でもないんです。

アイザック・アシモフが『わたしはロボット』(創元SF文庫)で示した「ロボット工学三原則」を例に挙げてお話しします。ロボット工学三原則とは、次の通りです。

(1)人間に危害を与えてはならない。危害を与えられている人間を黙視してはならない。
(2)人間の命令に従わなくてはならない。ただし(1)に反する命令はその限りではない。
(3)ロボットは自分を守らなくてはならない。ただし(1)と(2)に違反しない場合に限る。

この三原則は、一見簡単なように見えて、いざ実践しようとすると現実では難しい。「危険区域から人間役のロボットを助けるロボット」と「危険区域を知らない、人間役のロボット2体」を同じ環境で動かした英国での実験があるのですが、ロボットは、ほかのロボット1体が危険区域に入ろうとすると、きちんと助けられました。しかし2体が同時に危険になると、身動きが取れなくなってしまうのです。1体だけ助けると「危険を黙視してはならない」という第一原則に反するからです。

「道徳」や「倫理観」を身につけたAIは登場するか

道徳や倫理に沿った行動をするためには「感情」や「直観」が大事になることが最近の研究で明らかになりつつあります。つまり、ロジカルなだけではダメなんです。人が道徳的に判断するときには「ロジカルに考える部分」と「感情で動く部分」の二つが必要なわけです。初期の人工知能研究者たちは、知能を論理的に考える力と定義して、数学者のようにロジカルに推論する力を洗練させていったわけですが、それだけでは、人間と同じ知能を持っているとはいえないでしょう。

私自身は、道徳という言葉をAIに対して使う必要はないのではないかと思っています。無理に道徳を身につけさせようとするよりも、「機械が人間の安全性を担保する」くらいの位置づけでいいのではないでしょうか。

会社の礎となる採用や評価に効率性を求めない

先ほど久木田先生は「客観的な評価基準を定めて人や組織を評価するのは、実は、とても難しい」とおっしゃいました。人事評価においても、数値化できないものをいかに拾いあげていくかが大切だと思われますか。

そう思います。どの組織にも、数値に現れにくいところで目立たない貢献をしてくれる人がいます。日本語では“縁の下の力持ち”、英語では“unsung hero”と言われる人たちです。

しかし、AIのようなもので彼らを評価するのは難しい。AIが普及すれば、「数値化できないものには価値がない」という風潮がますます強くなる可能性があります。結果として、AIから評価されない人は、組織から姿を消してしまう。

私にとって身近な学問の世界の話をすると、すばらしい成果の裾野には、顕著な数値に現れない無数の研究があります。目立たない研究を積み重ねるからこそ、すばらしい成果が出るとも言い換えられます。華々しい業績をあげている人だけに注目やお金が集まり、小さな研究成果を積み重ねている人が無下にされれば、学問は痩せてしまう。企業もそれと同じで、“unsung hero”の存在をなかったことにしていたら、組織は弱体化していくのではないでしょうか。

人事におけるAI活用はさらに進展することが予想されます。人事にはどのような姿勢が求められ、どういった点に注意すべきでしょうか。

私は、採用や評価などの人事領域は、やたらと効率性を求めないほうがいいのではないかと考えています。HRテクノロジーやDX化ということが、いま盛んに言われていますが、効率化できるものもあれば、効率化できないもの、あるいは効率化しないほうがいいものもあるはずです。

新しい人を採用する。社員を評価する。これらは会社の礎となるものです。多少非効率でも、大変でも、手を抜いてはならないものだと、私は捉えています。

人は高く評価されれば、期待に応えようとして力を発揮します。目の前にいる人に対して、「あなたは信用に足る人物である」と思うことが大切です。まずは信じて任せてみる。そうすることで、相手は成長し、期待された成果を出そうと努力します。こちらが相手を信じる前に、効率的に「見極めよう」「評価しよう」という姿勢でいたら、重厚な信頼関係や協力関係は結べないのではないでしょうか。

このような話をすると、私がAI活用に否定的であるかのように受け取られるかもしれませんが、決してそうではありません。もちろん効率化していい部分については、積極的に活用したほうがいいと思っています。

AIやシステムに任せていいところと、人の目を通すべきところをしっかりと分けること。効率化に向かない採用や評価にAIを導入するのであれば、システム設計は慎重に行い、AIの判断を過信しないこと。そして状況を見ながら、改善を繰り返していくことが、AIとの上手な付き合い方だと考えています。

(取材:2021年3月10日)

企画・編集:『日本の人事部』編集部

Webサイト『日本の人事部』の「インタビューコラム」「人事辞典「HRペディア」」「調査レポート」などの記事の企画・編集を手がけるほか、「HRカンファレンス」「HRアカデミー」「HRコンソーシアム」などの講演の企画を担当し、HRのオピニオンリーダーとのネットワークを構築している。


AI統計的差別採用人事評価

  • facebook
  • X
  • note
  • LINE
  • メール
  • 印刷

あわせて読みたい