AI活用を語る前に、組織のアカウンタビリティを問え──パーソルAI基本方針を読み解く

2025年7月、パーソルグループは「AI基本方針」を公表した。

「人間中心」「公平性」「説明責任」──掲げられた8つの原則は、いずれも現代的で、社会的責任に配慮したものに見える。

こうしたガイドラインを整備することは全く悪いことではない。しかしAI活用のためにもっとも重要なことは、まず人が責任を持って働く組織となることである。

AIは本来、判断の効率化や業務の最適化を支援するツールである。しかし、人間の側に説明責任や対話の姿勢がなければ、AIはむしろ“責任を隠すための黒幕”になりかねない。

「これはAIの判断なので」と言えば、誰が決めたかを曖昧にできる。透明性の名のもとに設計されたはずの仕組みが、逆に責任の所在をかき消す構造として利用される──そのようなリスクは、すでに他の業界でも現実化し始めている。

人間の説明責任が果たされないまま、AIだけが整備されていく。

そんな“逆立ちした進歩”が進めば、気がついたときには、責任の空洞だけが残る組織ができあがっているかもしれない。

この文書を読むとき、どうしても頭をよぎるのが、同社が近年直面したいくつかの現場の混乱だ。特に、フリーランス人材を活用するHiPro Tech事業において生じた一連の契約運用・説明責任のあり方を巡る問題は、組織としてのガバナンスや倫理観の現状を考えるうえで、示唆的な事例といえるだろう。

「AIに説明責任を求める」企業が、人の業務ではそれを果たしているか?

たとえば、AI基本方針の第7項では「アカウンタビリティ(説明責任)」を強調している。AI出力の誤りや事故に備え、関係者の責任を明確化し、文書化・説明を行うことが求められている。

7.アカウンタビリティ
AIの開発・提供・利用に関わる関係者間の責任を明確にし、わかりやすい形で説明や文書化を行います。また、AIの出力結果の誤りや事故などが生じた場合、ステークホルダーへの説明責任を果たします。

一方で、HiPro問題の舞台となったプロジェクトでは、

  • 担当者による資料の捏造、情報隠蔽
  • 口頭での合意を覆す「梯子外し」

といった、悪意に基づくとみられる説明責任の不履行ないし虚偽説明が複数なされている(パーソルキャリア タレントシェアリング事業部 東竜誠氏)。

また、上記の経緯を指摘されると、

  • 情報漏洩だという論点ずらし
  • 弁護士をだすという恫喝
  • 弁護士をだすと自ら言っておきながら、実際には出さないというハッタリ
  • 匿名のコンタクトセンターからの虚偽の案内、実在しない弁護士の名乗り
  • プロジェクトの途中での、責任者(HiPro Tech統括責任者の野村鉄平氏)の失踪

などの問題が発生した。

そして、上記の異常自体について、弁護士会に通報されても、ネットでリアルタイムで彼らの”失踪状況”が拡散されても、役員・経営陣の対応は不在であった。

このように、担当者・責任者の名前を明かせない、そして実在しない弁護士の語りを用いて人を恫喝するといった状況において、パーソルはAIの利活用を今後推進するとしている。この次にパーソルで起きる事故は、「AIに聞いたらこれでいいと言われました」という、責任隠しかもしれないという疑念も頭をよぎる。

「バイアスを避けるAI」より、「恣意性を説明できない人間系判断」の方がリスクでは?

AI基本方針第3項では「バイアスの排除」がうたわれている。

3.公平性
AIを活用したサービスの開発・提供・利用において、AIの出力結果や、それを用いた人間の意思決定が差別的または不当な影響を引き起こさないよう、バイアスに留意します。
そのために、多様な背景、文化、分野のステークホルダーとの対話を重ね、バイアスを認識しその解消に努めます。バイアスが解消できない場合は、多様な文化や人権を尊重する観点から許容可能かを判断します。

しかし、HiPro問題では、まずAI以前に、人間による恣意的判断が問題となってきた。

たとえば下記記事では、「HiPro Tech統括事業部の取り組みは、ビジネスモデルそのものが違法であり、組織的に、かつ大規模に違法行為(具体的には弁護士法72条違反)を繰り返してきたのではないか?と問い合わせた際のメールを、証拠として掲載している。

読んでいただければわかるように、こうした違法性の疑義は、責任者である野村鉄平氏にむけて行なった問い合わせだが、その回答は、匿名の「カスタマーセンター」「コンタクトセンター」からしか来ていない。したがって、弊社の認識では、まだパーソルは本件の問い合わせに回答していない認識だ。

しかもその回答は、

  • 対応者の名前も明かさずに「法務に確認した」というだけ
  • 法的根拠もなにも示さず「違法性なし」と結論を言い張るだけ

といった有様だった。そして、回答になっていないと弊社からまた連絡をすると、パーソルキャリアは全員失踪した。

この状況において避けるべきは、AIによるバイアス以前に、人間による恣意的な運用である。

プライバシー・セキュリティは、AI以前に、個人情報・機密情報といった言葉の定義を再度周知設定せよ

4.プライバシー保護
AIの活用においてもプライバシーを尊重し、皆さまからお預かりした情報を大切に保護します。
プライバシーの尊重及び保護については別途定めるパーソナルデータ指針に、個人情報の取り扱いについては別途定める個人情報保護方針に則ります。

5.セキュリティ確保
AIの活用においてもセキュリティを確保し、外部からの攻撃や不正操作によって意図せぬ変更や停止が生じることがないように適切な対策を講じます。
情報セキュリティへの対応は、別途定めるパーソルグループ情報セキュリティ基本方針に則ります。

ほかにもHiPro問題では「機密情報」「個人情報」といった法律用語・IT用語の恣意的な使用・濫用も確認している。

この状況では、AIのバイアスを除去することはおろか、「現場にとって都合のいい主張を補強する道具」としてAIが使われいくことのほうが懸念されると言わざるを得ないだろう。

まとめ

倫理的なAIを掲げるのは望ましいが、それを扱う組織の“地力”が伴っていなければ、結果的に「AIに責任転嫁する体制」になる点は、パーソルに限らず現代の多くの企業が直面する課題だ。今こそ、AI倫理より先に、「人の倫理」と「組織の説明責任」の土台を問い直すことが重要である。

本ガイドラインそのものには、特段批判すべき点はない。しかし、ガイドラインの制定を機に、パーソル自身が自らの業務のあり方を内省する契機とする姿勢の有無が、現在のパーソルには問われている。

とくにパーソルキャリアは現在、DoDaが四年連続で情報漏洩事故を起こし続けている。頻発するデータ管理をめぐる事故については、根本原因の分析と、構造的な是正にむけて、なにに取り組むのかも注目される。

先進的なAIの活用の前提として、まずは基本的な情報漏洩事故の再発防止にどう取り組むのか──実効性ある説明が求められている。

あわせて読みたい参考リンク

パーソルグループのその他の理念集について

パーソルグループの行動規範についての批判的考察は、下記記事にて行なっています。

パーソルグループのデータ活用・DXに関して

データ活用を推進するために必要な資質を、組織運営の観点から論じた記事は下記となります。

なお、パーソルキャリアのAI活用・DXの推進は、執行役員、CDO/CIOの柘植悠太氏です。

弊社──合同会社インクルーシブソリューションズについて

合同会社インクルーシブソリューションズは、データ・システムの力で、透明性・公共性・倫理を兼ね備えた組織運営を支援しています。

弊社のAI活用のポリシーについては、下記記事を参考にしてください。説明責任を果たし続ける体制の整備こそが、AI活用の要諦であると、弊社は考えています。

また、データガバナンスについての弊社のポリシーに関しては、その一端を下記記事にて紹介しています。

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です