「DX」「働き方改革」「業務改善」──
近年、ビジネスの現場で繰り返されてきたこれらのスローガンは、どれも“仕事のやり方を変える”ことへの期待を背負ってきた。
ツールを整備し、単純作業を減らし、属人化をなくしていく。そんな取り組みを、システム部門・管理部門・企画部門などで協力しながら──時に部門間で仕事を”押し付け合い”ながら、DXに奔走してきた人は多いだろう。2020年頃を境に、テレワークの普及と相まって、IT環境を整備することの重要性を多くの人が実感してきた。
そんな努力の延長線上に少し唐突にも見える形で、近年、生成AIのブームがやってきた。
AIは文書を要約し、資料を作り、議事録を整理し、ときに専門家も舌を巻くような洞察も披露してみせる。
プロンプトひとつで次々にアウトプットを返すAIは、まるで“新しい同僚”のようにも思えてくる。「この仕事はAIにやらせよう」などという台詞があちこちのオフィスから漏れ聞こえてくる。
AIを用いてさらなる業務改善・DXの推進を図ることは、2025年現在において、また新たなブームとなりつつある。
しかし、AIの登場は、これまでの“業務改善”や“自動化”と同じスキームで捉えられるものなのだろうか。
もっと根本的に、仕事の構造や責任のあり方に問いを突きつけているのではないか。
そんな違和感から、このテーマを考えてみたいと思う。
業務の設計は、「人」と「システム」の選択の連続
業務設計の実務は──少なくともAIの登場以前の古典的な話でいえば、
- どんな仕事が存在するのか
- その仕事は誰がやるのか
という二つの問いの連続で進む。1の仕事の存在を明らかにするフェーズでは、不要なステップがあればそれを省力化することも含む。また、必要なのに実施できていない手順があれば、それを新たに手順に盛り込むことなども含む。すなわち、最適な業務の手順・流れを整理することからはじまるのだ。
そして、1で整理した「理想的な仕事の進め方」を踏まえて、それを人がやるのか、システム(言い方を変えると、ツール・プログラム)に処理させるのかを決めるのが2のステップだ。1の結果を踏まえて、2の内容を詳細化するのが基本的な流れではあるが、2を突き詰めていく過程で、1の内容が変わることもある。新たなツールを導入する前提で、そのツールの操作法に合わせて、操作者の作業手順が設計されていくような場合がまさにそうだ。
したがって、1と2を循環しながら細部の検討へと進んでいくのが業務設計の実務である。
人間とシステムを、いかに”適材適所”に配置するかが業務設計の腕の見せ所であった
システムで処理できる部分は極力システムに任せ、人がやるべきことに集中させる──それが理想であることに、異論は少ないだろう。
だが現実は、その“線引き”は、意外と奥が深い。システム化には費用も時間もかかるし、ツールによっては社内に十分な知見がなく、定着に苦労するケースも多い。他方、人に任せれば柔軟に対応できる場面も多いが、人間ゆえの”うっかりミス”や、”引き継ぎ漏れ”・”属人化”といったリスクも、その業務に残される。
話を具体的にするためにひとつ卑近な例を挙げたい。たとえば、毎月のレポート集計。Excelで集計・加工・提出を繰り返す業務を、「いつか自動化しなければ」と思いながらも、結局は担当者の“手慣れた作業”としてそのまま続いている──よくある話だと思う。しかし、作業を減らすために、エクセルにプログラミングを施すると、プログラマーが退職したタイミングで、バグやエラーを修正する人もいなくなってしまうかもしれない。
だからこそ、業務設計とは単に理想を描くだけの作業ではないし、画一的な正解というものもない。現場の制約を踏まえたうえで、「どこまでシステム化できるか」「どこから人が介在すべきか」を絶えず見直していくプロセスが、業務設計なのである。
ここまでが、近年におけるAIの普及以前の話であり、業務設計における一般論である。
そこに現れた、AIという”三人目の”プレーヤー
しかし気づけば、オフィスのあちこちでAIという存在が”活躍”が目覚ましい時代となった。
曖昧な指示にも応えてくれて、まとめてほしい資料はまとめてくれ、ひとことお願いすれば、それなりに見栄えのする文章まで返してくる。
そんなAIは、ときに“新しい同僚”のようにすら見える。けれど、そのふるまいはどこかつかみどころがない。
人間のようにやりとりはできるけれど、感情があるわけではない。
決まったルールで動くプログラムにも似ているけれど、どう動くかはそのときの問い方次第。
仕様書もなければ、責任もない。けれど、こちらが何を求めているのかを、なんとなく察してくれることさえある。
人でも、システムでもない──その“あいだ”にいるようで、どちらとも違う。
このAIという第三のプレーヤーに、私たちはいったいどう接すればいいのか。便利だと感じながらも、どこかで戸惑っている人も多いのではないだろうか。
「単純作業だからAIに任せよう」と考えるとき、その人はAIをツールとして扱っている。
「こっちの言いたいことを汲んでくれる」と感じるときは、どこかで人間のようにも見ている。
そのたびに、AIは“人”になったり、“ツール”になったりと、捉え方は現状さまざまである。
しかしいずれの捉え方においても、AIという存在を、これまでの業務設計の枠の中に、無理やり押し込もうとしている点は共通かもしれない。
これは人か、機械か、それとも──
では実際、AIは“人”と“システム”のどちらに近いのだろうか──。
こうした“似ている”と“違う”を、少しだけ整理してみたい。
あくまで大まかな傾向にすぎないが、次の一覧が、AIという存在の輪郭をとらえるヒントになればと思う。
| 属性/主体 | 人間 | システム(プログラム) | AI(生成系) |
|---|---|---|---|
| 指示の受け方 | 曖昧な言葉を解釈 | 明示的な命令・仕様書に従う | 曖昧な言語にも対応可能 |
| 判断力 | 高い(経験・倫理に依存) | なし(条件分岐による処理) | 一定の推論が可能 |
| 創造性 | ある(直感や価値判断に基づく) | なし(手続き型) | あり(文章・アイデアの生成) |
| 安定性 | 不安定(感情・体調による) | 安定(仕様通り動作) | やや不安定(プロンプトやモデルに依存) |
| 説明責任 | 担える(法的・倫理的) | 担う(設計者や管理者が) | 担えない(責任の所在が曖昧) |
この表では、業務の“担い手”として想定される三者──人間・システム・AI──をいくつかの観点で並べてみた。
たとえば、「指示の受け方」や「判断力」は、AIが人間に近いふるまいを見せる部分だ。実際、あいまいな依頼にもそれなりのアウトプットを返してくれる点は、ツールというより“相棒”のようにも見える。
一方で、「安定性」や「説明責任」といった領域になると、AIはシステムとも人とも違う特異な位置に立っている。
成果物を出すことはできても、その結果に対して責任を負えるわけではないし、出力が同じ条件で再現されるとも限らない。
現代における医療現場や金融機関で、「AIに仕事を丸投げしていたら、AIが暴走して事故が起きました」という説明で納得する人はいない。
つまり、AIは“できること”の面では人と似ていても、“責任の構造”においては、人ともシステムとも違う、第三の存在として際立っている。
ここに、業務設計上の重要な問いが生まれる。この存在に「何を任せるか」だけでなく、どうやって責任を担保するか──すなわち、不測の事件・事故が発生した際に、起きた事象に対する説明責任を果たす人、是正の指揮をとる人の不在をいかにして防ぐのか、という問いである。
- 「AIが行った違法行為・コンプライアンス違反なので自分は知らない」という責任転嫁
- 「AIが書き散らかしてきたプログラムなので、意図・思想は誰も理解していないし、修正の仕方もわからない」というブラックボックス化
- 100回ともうまく行っていたはずのプロンプトが、101回目で事故を引き起こしたという、システムへの信用失墜
この先、AIの普及とともに、こんな問題も一緒に”普及”しそうだ。「なんでもやってくれる」「自動でやってくれる」「人のかわりに動いてくれる」存在として普及するAIは、本当に便利なのだろうか。その特性は、同時に”担当者の無責任”を普及させる危うさと表裏一体だ。
業務設計に「責任の所在」を盛り込むことの重要性
AIに仕事を“やらせる”という選択が当たり前になってきた今、私たちは改めて、ひとつの問いに直面している。
「その成果に、誰が責任を持つのか」という問いだ。
人間が業務を担当していた時代には、その人の判断や行動が問題を引き起こした場合、説明責任を求めるのはごく自然なことだった。「どうしてこうなったのか」と問われ、「こう考えて、こう行動した」と答える。そうした対話のなかで、根本原因の調査も進み、再発防止策も明確になっていくのが普通だった。
ここでの責任とは、必ずしも「絶対ミスをしないこと」「結果・成果をだすこと」などというシビアなものではない。そもそもミスをしない人間などいないからだ。しかし人間の場合は、たとえミスをしても、自分が行った作業、目で見た出来事、耳に聞いてきた話に対して、他人事でいることはできない。結果、説明の場に駆り出されることになる。企業の不祥事なら、取締役が開く記者会見などがまさにそうだし、職場の内部の話なら、担当者にもそうした姿勢が当然求められる。
そしてそれすらもしないなら、文字通り「無責任だ」という批判を免れない。すなわちここでの責任とは、”説明責任のことである。
では、生成AIはどうか。
- プロンプトから出力が生成されるまでのアルゴリズムが曖昧で、トラブル発生時に原因の説明も、是正の方法も不明となりやすい
- 何回動作に成功しても次もうまくいくという保証が得られず、品質の担保が困難になりやすい
といった課題もある。
人間さながらに、なんでもやってくれる”というAIの特性ゆえに、無計画にAIの活用範囲が広がっていくことは、DXや業務改善の視点においても、悪手となりえる。これからの業務設計において、単に「できること」を、を増やすのではなく、「説明責任の不在をつくらないこと」「意味明瞭な説明を可能とすること」を設計の中に組み込むことが求められる。
“なんとなく”、”一応それっぽく”で、AIに作業を代行させる取り組みだけでは、AIの特徴を活かし切ることはできないだろう。AIと人が調和するためには、意味明瞭な説明を可能とする組織の”体制”を維持し、発展させていく「人間」の側の努力も一層も求められるはずだ。
そのためには、既存の業務をただAIに肩代わりしてもらい、人間が楽をすることを考えるだけでは足りない。「人」が一層業務に強い責任感を持ち、業務の品質に妥協しない姿勢をもつことが、「人」と「AI」の協働を促し、業務設計に調和をもたらすはずだ。


