AIベンチャーの雄が総務省の開発指針に反対する理由
ほんとそう。どうも、お役所もマスコミも含めて、AI(的なもの)に対する理解が浅すぎると思うんです。よく「AIを搭載しているのでさまざまな状況に対応可能!」みたいなふれこみの研究結果とかを見ますけど、それを見て、「AIが勝手に最適化のために人の権利を脅かすことがあるんじゃないか」みたいな議論が起こる。ばかばかしいというか、そもそも、今AIと呼ばれているものは、課題を設定する能力を持ってない。課題とあるべき姿を人間が設定して、その間をつなぐ最適に近い答えを導くのがAIの主な機能なんです。当然ながら、その仕事はAIの設計者ではなくAIの利用者です。課題と目標の設定をし学習させるのが一次利用者とするなら、その結果を使って生活に役立てる(たとえば自動車の自動ブレーキとか食材ごとの最適なあたため時間とか)のが二次利用者。あるいは、二次利用者がAIの導いた答えを使って製品を設計し提供することもあるでしょう(この場合は三次利用者が生じる)。汎用のAIを作りそのAIに空力だの過去の航空事故事例だのを学習させそれを使って最新旅客機を設計し航空会社がそれを運用して客を運ぶ。ここで事故が起こったときに最初のアルゴリズム設計者に責任が一端でもあるかどうか。ある、という結論となるなら、「じゃあ何に使われるかもわからん汎用AIの開発なんてやーめた」になるに決まっています。航空機の図面引きに使われるCADの開発者に事故の責任がある、と言っているのと同じです。AIを他の道具と区別して議論しようということがそもそもナンセンスだと思うんですけどねぇ。
TWEET