バナナでもわかる話

計量経済学・統計学が専門の大学院生です。統計学・経済学・投資理論・マーケティング等々に関する勉強・解説ブログ。ときどき趣味も。極力数式は使わずイメージで説明出来るよう心掛けていますが、時々暴走します。

AIの判断に対して企業に説明責任負わせるのは流石に無理筋

なんかこんなニュースが出たようで。
www.nikkei.com

スポンサーリンク


ここで言うところのAIは最近話題のディープラーニングを指して言っているのだろうから、そういう読み方をすることにします。

要はAIを使ってビジネスを行ったり、意思決定を行ったりするって話が増えてきたからルールを決めますよという話で、AI 7原則とやらが発表されましたということでした。

で、その7原則の内、私が特に気になったのが

AIを利用した企業に決定過程の説明責任

という項目。


この原則が設けられた背景には、例えばamazonさんが人事制度にAI技術を活用してみたら、過去のデータから学習したAIが性差別を始めたとかその辺の、AIのミス(?...いやいや人為的なミス)が生じた場合に、誰が責任を取るのか問題が噴出したってとこがあるのかなと思います。

ディープラーニングやニューラルネットやらの仕組みをちょっと見たことあればわかると思いますが、どういう仕組みで、何を根拠にAIが意思決定したのですか?と聞かれても、そんなもんわかりませんとしか言いようがありません。

というか、AIというと、何やら人間に近い何かみたいなイメージを持つ人が多いかもしれませんが、別に何か意思をもって、何かのロジックをもって物事を分類しているわけではないので、アレに説明責任を要求しても、、いや別に何のロジックも意思もないしとしか言いようがない

使った学習データからこじつけで何か言うことは出来るのかもしれないけど、
一々説明責任を要求するのは企業の開発を遅らせる要因になりかねないとしか言いようがありません。


いやいやそんなこと言ったって、AIのよくわからん意思決定によって意味も分からず右往左往する一般市民の身にもなってみろよ!!

という気持ちもまあわかるわけですけど、それは話としてちょっとズレていて、


そもそも、決定過程に関する説明責任を必要とする仕事をAIに任せちゃダメでしょ。

って話だと思っています。

例えば、ベルトコンベアにのって流れてくるジャガイモを画像認識して、変な形のやつとそうじゃないやつを学習して分ける機械を作りましたみたいなものを考えます。実績値として97%くらいはあたりますみたいな製品だったとして、企業が決定過程を説明するのは必要か?って話なわけです。

ジャガイモを識別するロジックがわからないと、いざジャガイモの識別を確率3%で間違えた時の責任の所在はどこにいくんだ!ってまあ普通ならないと思います。せいぜい、「これくらいの性能でうまくいって、これくらいの割合でミスが出るけど、結構便利でしょ。」で終わりかと。
こういう、とにかく予測や分類の点で性能が良ければ良いほど嬉しいみたいな話にAIを使うのはとても良いと思うのです。


で、決定過程に説明責任が伴う職業って何かというと、例えば公認会計士であったり、弁護士であったり医者であったりその辺の職業かなというわけですけど、この辺の職業はAIで代替出来る出来ない以前に、代替しちゃダメな職業でしょう
だって、仮にAI弁護士、AI検事、AI裁判官みたいなのが出来たとして、彼ら議論出来ないもの。
お互いにお互いのデータ照らし合わせて、ロジックはよくわからんけど、データから考えるにあなたは死刑とかあなたは懲役7年とか秒で言われておしまい。
「僕は無罪です。もっとしっかり説明してください」と言ったところでAI弁護士AI検事は知らんぷり。
AI裁判官は「なんかよくわかんないけど、データ突っ込んだら懲役7年になった」とか言うわけです。
納得できますかって話なわけです。


この辺の話は前にも記事にしていて

www.bananarian.net


正直言ってそもそも決定過程に関して説明責任が生じるような業務を、AIに代替させること自体がそもそもナンセンス。

まあ、ブームが続いてるうちは、そういう業務をAIにやらせようと画策する企業は出て来てもおかしくないけど、
上記の理由からうまくいかないはずなので、AIビジネスに決定過程の説明責任を求めるルールを立てる必要は全くないと思います。

まあ強いて言うのであれば "AIに責任転嫁することを目的としたビジネス"を規制するルールは決めておくべきかなとは思います。
どういうことかっていうと、そもそも何の根拠もない商品を「AIが判断します」とか言って売るとか、「AIが決めました」という笠に隠れて端から責任逃れしようとするビジネスが出てきたら、まあそれは問題だよねというような気はします。
でもそれはAIを活用するビジネスというよりはAIを謳った詐欺行為だし、別の次元の議論のような。


むしろ、AIとひとまとめにしてそういう説明責任ルールを設けてしまうと、先ほどのじゃがいもの例のような、別に説明責任を設ける必要がないような場面で業務を遅れさせたり、仕組みを煩雑にしたりする原因になりかねないし、なんなら説明責任を満たすために複雑なモデルを立てるのはやめとこうかなんて話にもなりかねません。


誤解してほしくないので、もう一つだけ。
AIビジネスを興した企業が、AIの決定に関する責任を持つ必要はあると思います。

今回の話は決定過程の説明責任を負う必要はないよねっていう話です。

スポンサーリンク


ちょっと、支離滅裂になってしまった。言いたいことをまとめると


・"AIの判断の決定過程に企業の説明責任を負わせる"ってのは無茶
・そもそもAIビジネスにおける説明責任とは?
・仮に説明責任が必要なAIビジネスが出てきたとしても、そのビジネス自体が無理筋なのでそんなビジネス長続きしない
・いらん説明責任項目を加えることで、AI使うのやめとくかとなり兼ねないし、使うにしても業務効率が落ちる

⇒いらない項目で徒に規制して、日本のビジネスを衰退させようとしているようにしか見えない

個人の感想でした。