法人向けHRブログ workforce Biz

雇用と採用におけるAIの倫理

作成者: randstad|Jun 28, 2024 12:00:00 AM

ChatGPTが2022年11月に公開されて以降、高度な人工知能(AI)技術が誰もが無料で利用可能になったことで、社会的な議論が盛り上がっています。

AIに関連した雇用・採用を展開する際に考慮すべき重要な点はその倫理的リスクにあります。

採用にAIを使用することは本質的に非倫理的なことではありませんが、他の倫理的リスクの中でも特に意図しないバイアスにつながる可能性があることを認識する必要があります。採用におけるAIの主な倫理的懸念のひとつは、既存の社会的偏見を永続させ、増幅させる可能性があることです。

例えば、メルボルン大学の研究によると、「ジェンダーは、社会に深く根付いているため、AIや人間から履歴書をジェンダーブラインドにすることは不可能に近い」と述べています。

履歴書から人口統計学的情報を除外する努力にもかかわらず、この種のバイアスがアルゴリズムの意思決定に影響を与える可能性があることを意味します。データにバイアスが含まれていれば、AIシステムはそのバイアスを再現してしまう可能性があります。

研究者によるとAIの導入が成功するかどうかは、信頼に大きく依存することが示されています。このことを考慮に入れて、市場が雇用と採用におけるAIの使用に懸念を抱いていることを十分に認識する必要があります。

 

用途を超えたAIシステムへの信頼度

AI技術の利用についてどの程度懸念しているか(%)

 

AI(特定のアプリケーション)をどの程度信頼できますか?(%)

AIが社会に与える影響が不透明であると認識されているため、多くの人々がAIに関して外部からの独立した監視を期待していることは驚くべきことではありません。世界各国では、71%の人々がAI規制の必要性を感じています。AI規制が不要と考える人は5人に1人以下(17%)であり、残りの12%は意見が分かれています。

人々は、さまざまな形態の規制を幅広く支持しており、政府や既存の規制当局、AIを使用または開発する産業界、業界団体などがAIの規制に関与することを期待しています。

 

AIは何によって規制されるべきだと思いますか?(%)


データの収集、保存、利用に関する信頼性と適切な管理は、AIのさらなる普及のための不可欠な条件となります。倫理的なAIの導入を確実にするためには、業界や企業レベルで一連のガイドラインや原則を策定することが重要であり、これは適切でバランスの取れた規制の枠組みを整え、社会的信頼を構築するのに役立つと言えます。

 

本記事はランスタッド提言資料「労働市場とAI 恐れるべきか 受け入れるべきか?」の一部を再校正して掲載しています。全文はレポートをご覧ください。