“「AIは刃であり、人間は柄である。どちらか一方だけでは危険だ。」”

毎日、AIを導入し人員削減を行う企業のヘッドラインを目にします。2026年だけで、 96,000役 自動化が加速するにつれて、主要なテクノロジー企業で(職務が)削減されました。.

それは、仕事への影響だけでなく、意思決定の将来について示唆することからも、落ち着かないものです。.

で 4アトモス・テクノロジーズ合同会社, 、私たちは別のことを学びました。AIなしでは ヒューマン・イン・ザ・ループ(H.I.L.T.) 進歩ではなく、リスクです。.

AIだけでは擁護できないとき

輸送—海上、鉄道、航空—は究極の試金石です。ここでの失敗は理論的なものではなく、物理的で、コストがかかり、時には壊滅的です。.

もし顧客がAIだけに頼って、重大な障害が発生した場合、~という弁明は….

“AIがするように言われました。”

…一瞬で崩壊する。.

規制当局はそれを受け入れないでしょう。裁判所もそれを受け入れないでしょう。運営者もそれを受け入れることはできません。.

アレックス・ベイツ 彼の著書で予言されている 拡張マインド AIは強力になるだろうが、それが真に価値を発揮するのは、人間の直感、文脈、そして監督と組み合わされた時だけである。.

彼は時代を先取りしていた。.

柄のない刃

AIデータは  鋭く、速く、複雑さを切り裂く能力がある。.

しかし、刃のない 柄と鍔 危険だ。喧嘩に勝てるかもしれないが、その過程で傷を負うだろう。.

人間の監視がない強力なモデルは、利点ではなく、むしろリスクである。.

H.I.L.T.なしで

その結果、強力だが安全ではないシステム。洞察力はあるが、回復力はない。.

H.I.L.T. が実際に可能にすること

人間が関与し続けると、AIは 有益な知能 実行可能で、文脈に沿っており、運用上健全である.

H.I.L.T. は、AI を強化するために以下のことを可能にします。

人間のフィードバックループはAIを遅くするのではなく、鋭くする。.

その剣はより bersih, lebih cepat, dan dengan tujuan.

反論 — そしてなぜそれが失敗するのか

AIは自律的に動作するのに十分な精度があります。“

反論 精度は責任ではない。99%の精度を持つモデルでも、1%の確率で失敗する。そして、交通においては、その1%は許容できない。.

2.「人間がプロセスを遅くする。」“

反論 H.I.L.T.なしで、AIがノイズを処理し、人間がシグナルを検証します。その結果は より迅速で、より安全で、より説明責任を果たせる意思決定.

3. 「完全自動化の方が安価である。」“

反論 そうなるまで。ひとつの破滅的な故障が、あらゆるコスト削減を無にします。H.I.L.T.は、自律システムが見通せない高額な間違いを防ぎます。.

4. 「ガバナンスフレームワークが人間の監視を置き換える」“

反論 ガバナンスは代替ではなく、構造である。フレームワークは行動を導き、人間がそれを実行する。.

未来:AIは刃、人間は柄

4Atmosでは、未来とはAIが人間を代替するのではなく、AIが 増幅 それら.

刃はかつてないほど鋭い。しかし、柄――すなわち人間――こそが、それを使いやすく、安全で、強力なものにしている。.

AIと人間の専門知識が協力するとき、その結果は人工知能ではありません。. それは有益な知性です。.

失敗が防止され、意思決定が迅速化され、結果が説明責任を負える未来。.

築く価値のある未来.



上記の投稿は、もともとLinkedInで公開されたものです – https://www.linkedin.com/pulse/blade-hilt-why-ai-still-needs-humans-loop-mike-jensen-rmprf

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です