日本最大のHRネットワーク『日本の人事部』が運営する、HRテクノロジー(HR Tech、HRテック)総合情報サイト

日本の人事部 HRテクノロジー ロゴ

トレンドキーパーソンに聞く2018/12/28

プロファイリングを過信せず、「個」に着目
人とテクノロジーの“ケンタウルス型”運用で
人材の可能性を広げる

慶應義塾大学法科大学院 教授

山本龍彦さん

基礎実践

  • このエントリーをはてなブックマークに追加
慶應義塾大学法科大学院 教授 山本龍彦さん

近年急速に発達する、HRテクノロジーや人事データ分析。活用を進める企業も増えています。憲法学者で「プライバシー権」に詳しい、慶應義塾大学法科大学院教授の山本龍彦先生は、ビッグデータ解析の価値や効用を認める一方で、「テクノロジーの光の部分だけでなく、影の部分も知っておく必要がある」と警告します。企業は、どのようなことに気をつけながらHRテクノロジーと向き合うべきでしょうか。事例を交えつつ、山本先生に解説していただきました。

プロフィール
山本龍彦さん
山本龍彦さん
慶應義塾大学法科大学院 教授

やまもと・たつひこ/1999年、慶應義塾大学法学部卒業。2001年、同大学院法学研究科修士課程修了。2005年、同大学院法学研究科博士課程単位取得退学。2007年、博士(法学)(慶應義塾大学)。桐蔭横浜大学法学部専任講師、同准教授を経て現在、慶應義塾大学法務研究科教授。2017年、ワシントン大学ロースクール客員教授、司法試験考査委員(2014年・2015年)。

知っておきたいプロファイリングの二つの問題

山本先生は、憲法学者でいらっしゃいます。ビッグデータ・AIと憲法とは、どのような結びつきがあるのでしょうか。

日本国憲法第13条は、「すべて国民は、個人として尊重される」と定め、生命、自由、幸福追求の権利を認めています。この条文の解釈から、「プライバシー権」が保障されると考えられています。プライバシー権とは、私生活や私事を他人にじろじろとのぞき込まれない権利として知られていますが、もう少し踏み込んで考えみると、それは、誰にどのような情報を見せるか、誰とどのような関係を築くのかを自分で決定できる「自己情報コントロール権」とも捉えられます。私たちは、つながるコミュニティーやネットワークによって、開示する情報の範囲を調整し、自己イメージを使い分けているわけですね。自分の情報を主体的に「出し引き」することで、自己像の形成についてイニシアチブをもつことができるのです。

ビッグデータ社会やAI社会では、プロファイリングの技術が向上し、自己像が勝手に予測されるようになる。例えば、自分がうつ状態にあることを家族にのみ開示しようと考えても、プロファイリングによっていつの間にか「うつだ」ということが他人に知られてしまっている。自己像の形成についての本人のイニシアチブが失われるリスクが高くなるわけです。

そして、そもそもAI社会は、より多くのデータを必要とする「moredata社会」ですから、根本的にプライバシー権と対立する可能性も秘めています。その意味で、ビッグデータ・AI社会は、プライバシーを土壇場に追い込むことになる。ここに、ビッグデータ・AIと憲法・プライバシーとのある種の緊張関係を見て取れます。両者の均衡点をどこに見出すのかが非常に重要な課題です。域内では憲法的な意味をもつEUの一般データ保護規則(General Data Protection Regulation:GDPR)が、データから個人の私的側面を自動予測するプロファイリングに対し一定の規律を設けたことも、両者の均衡点を考えるうえで重要です。

ビッグデータがプライバシー権の侵害にあたるのですか。

ビッグデータの定義によりますが、ビッグデータを収集・集積することは直ちにプライバシー侵害とはなりません。この段階では、そのデータが誰のものかは重要なものではないからです。ここでは「40代前半」「男性」「大学教授」「東京23区在住」といった共通の属性で切り分けられた「集団(セグメント)」が、一般的にどのような傾向・特性をもつのかがわかればよく、着目されているのはあくまでもセグメントであって、特定の個人ではありません。そのため、個人のプライバシーとは直接ぶつからないのです。

しかし、プロファイリングを進める過程で二つの問題が生じます。一つは、特定の個人を識別する情報を抜いて収集しても、属性がいくつも重ね合わされることでそれが誰のデータセットであるかがわかってしまう。例えば労務管理アルゴリズムを構築するために匿名化したかたちで労務データを集めても、細かい属性データまで収集すれば、それが誰のものかわかるリスクは高まります。ここでは、主にセキュリティー構造の堅牢性が重要なポイントになります。

二つめの問題は、プロファイリングによって個人の私的・内的な側面が高い確率で予測されてしまうことです。例えば、うつ病に罹患しているという情報は、個人情報保護法上は非常にセンシティブで要保護性の高い情報(要配慮個人情報)とされています。先ほどの自己情報コントロール権からいっても、うつ病にかかっていることを開示する対象は本人が慎重にコントロールできると考えるべきでしょう。

しかし、最近では、声のトーンやメールの文章パターンなどから、その人がうつ状態かどうかを高い確率で予測できてしまう。要配慮個人情報で、本来はその取得に本人の事前同意が厳格に求められるものが、プロファイリングによって迂回的に「取得」できてしまうわけですね。これはプライバシー権や自己情報コントロール権の観点から大きな問題をはらんでいるように思います。HRテクノロジーに引き付けて一言付け加えると、人事データを収集してどのようなプロファイリングを行っているかを、使用者側はしっかり従業員に説明する責任があると思います。

また、これはプライバシー権そのものから離れますが、憲法第13条の「個人の尊重」原理からは、セグメント解析を行って見えてきた傾向を、個人にそのまま当てはめてしまうことはできる限り避けるべきということになります。先ほどお話ししたように、プロファイリングは、共通の属性をもつセグメント(集団)の一般的傾向を測るものです。そのため、「あるセグメントに属する者は、一般に離職率が高い」としても、そのセグメントに属する者のすべてが、離職率が高いというわけではありません。日本人という集団の中にもいろいろな人がいるように、同じセグメントに属する者にも一定の多様性はあるはずです。そのため、「個の尊重」という観点からは、セグメントに基づくプロファイリングの結果をうのみにするべきではない、ということになります。

“ケンタウルス型”の活用がテクノロジーの強みを引き出す

山本先生は人事部門でのテクノロジー活用を、どのようにご覧になっていますか。

ここまでプロファイリングの負の側面を強調してきましたが、私自身はむしろ、ビッグデータやAIの活用を好意的に見ています。HRテクノロジーの発達も、人々に恩恵を与える要素が大きいはずです。AIやビッグデータを用いることで、多面的な解析ができるようになります。これまでなら学歴や年次といった限られた条件によりうもれてしまっていた人材が、多様なデータやAIを使うことによって発掘される場合もあるのです。その意味では、憲法第13条の個人の尊重や幸福追求を促進する側面もあります。従業員の業務履歴や試験のスコア、健康面の情報などをもとに、適当な配属先を提示するシステムを、配置検討の初期段階で導入することは、データの収集・利用・分析プロセスを従業員側にしっかり説明している限りで、AIの望ましい使い方だと思います。

慶應義塾大学法科大学院 教授 山本龍彦さん

採用活動でAIを使ってエントリーシート(ES)審査を行う際は、注意が必要です。先ほど申し上げた通り、プロファイリング結果はセグメントの一般的傾向・確率を表したものに過ぎませんから、個人の重要な能力や個性を見落としてしまう可能性があります。GDPRでも、プロファイリングの結果のみで、個人に重要な影響を与える決定を行うことを原則禁止しています。一部の企業では既にAIによるエントリーシートの審査を行っているようですが、AIがふるい落としたものは改めて人の目を通して確認するなど対策を講じています。AI導入による効率化を期待する企業は多いでしょうが、AI任せにするのは倫理的・コンプライアンス的にも考えものです。

AIやビッグデータを用いたプロファイリングは万能ではない、ということですね。

そのとおりです。例えばウェアラブル端末で従業員の行動データを収集し、解析することで組織活性化を支援するソリューションでは、従業員の行動をどこまで追うのかでよく議論になります。トイレや給湯室、喫煙室の会話内容も収集の対象にしてよいのか、といったように。最近は自宅やサテライトオフィスで勤務することも珍しくなくなりました。しかし、家の中はプライベート空間ですから、カメラの設置は難しいでしょう。

データ分析の立場から見れば、そうしたプライベート要素の高いシーンの情報も収集したいところでしょう。そのほうがAIの予測精度が高くなるという直感が働きます。しかし、いくらそれによって確度の高い分析が可能になるとしても、そこにはやはりプライバシー権による限界があるはずです。そうなると、コンプライアンス的に従業員の全行動を追跡することはできないということになり、結果として、その従業員のデータセットには必ず「データの裂け目」「データの穴」が存在することになります。

そして、こうした穴のあるデータセットを使う限り、AIの予測精度にも限界があることになります。また、先ほどお話ししたように、人事部門がプロファイリングを含んだ情報収集・分析を行う場合には、一定の透明性を確保すべきと考えられます。しかし、「ここでデータを取ってますよ」と告知すれば、そのことを意識して不自然な行動をとることも考えられます。そうすると、本来集めたい自然な行動データから外れることになるので、解析結果にも誤差が生じます。これを防ぐにはデータ収集や分析をブラックボックス化するという手段が考えられますが、それはそれでコンプライアンス的に問題があります。そうなると、やはり現時点では、ビッグデータ解析だけで人間のすべてがわかるわけではないと考えるのが適当でしょう。

AIをはじめとするテクノロジーの良さを生かすには、結局は“ケンタウルス型”の運用が望ましいといえます。上半身が人間、下半身が馬のケンタウルスのように、人の視点とテクノロジーをハイブリッドさせるのです。先のウェアラブル端末の例でいえば、行動データの集積では追えない個人の一面や特性を、きちんと人の目や経験が補ったうえで総合的に判断することが大事だと思います。

自動化バイアスの是正と運用の透明性がカギ

人事がテクノロジーと上手に付き合うコツを教えてください。

ひとつは、AIによる解析結果をうのみにせず、あえて疑って見るというマインドセットです。人間には自動化バイアスといって、AIのはじき出す結果に偏りがないと信じ込んでしまう傾向があります。特に日本人はその度合いが強いように思います。

人種による差別や偏見が根強いアメリカでは、自動化バイアスによる弊害に敏感です。一部の州の裁判所では、量刑判断の際に「COMPAS」と呼ばれる再犯リスク評価システムを採用しています。しかし、このCOMPASが、黒人の再犯リスクを白人の2倍に見積もることが明らかになりました。またあるポータルサイトでは、ユーザーの名前でAIが黒人か白人かを判断し、同じ検索ワードでも表示する内容を変えていました。これらの現象は、今大きな社会問題となっています。その背景には「人種というセグメントを見るのではなく、“私”を見て」という、個人主義の強い国民性が反映されているといえます。

これに対して日本は、アメリカほど個人主義の強い国ではありません。同調性を重んじて、統計的な評価を甘んじて受容するといった空気感すらありました。少し前に、医学部入試で男性受験者を優遇していた問題が世間をにぎわせましたが、これまでこうした統計的差別が表沙汰にならなかったのが不思議なぐらいです。これからは統計的差別にも批判的な視線が寄せられることになるでしょう。AIがはじき出した結果が統計的な差別を生まないように、AIのスコアを慎重に評価する姿勢が求められると思います。

データ収集においては、どのような配慮が求められますか。

運用の透明性を高めることがポイントになると思います。「労務管理のためにデータを集めています」という説明はあまりに漠然とし過ぎています。データ解析でできることは多岐にわたるので、収集目的や利用方法を具体的に伝え、従業員の理解を得られるようにすることが必要です。信頼関係を構築できないと、データ提供者である従業員が疑心暗鬼になります。トイレやカフェテリアなどリフレッシュできる場所でも警戒してしまい、不自然な行動をとるようになるだけでなく、パフォーマンスの低下にもつながりかねません。組織に対するエンゲージメントにも影響するので、注意すべきだと考えます。

最後に、読者に向けてメッセージをお願いします。

先ほど人間とテクノロジーの融合が大切だとお話ししましたが、囲碁の世界でもケンタウルス型が最強だといわれています。AIによる多面的なデータ解析は、本来は人の暮らしを豊かにするツールです。潜在的な要素を掘り起こしてマイノリティーを包摂し、個々の志向性にフィットしたケアができるようになるのは、憲法第13条の観点から見ても素晴らしいことです。人間の感情や知恵も生かしながら、うまくテクノロジーを活用してほしいと思います。

慶應義塾大学法科大学院 教授 山本龍彦さん

基礎実践

  • このエントリーをはてなブックマークに追加

あわせて読みたい