読者です 読者をやめる 読者になる 読者になる

自律武器:専門家とのインタビュー

 

アエル

私はライフ・インスティテュート・オブ・ライフのアリエル・コネです。今日、私は自治兵の分野の専門家であるHeather Roff博士とPeter Asaroと話をする特権を持っています。ロフ博士は、アリゾナ州立大学のグローバル・セキュリティ・イニシアチブの研究科学者であり、オックスフォード大学の上級研究員です。彼女は最近、国際社会に自律兵器の現在の状態をよりよく理解させるために、あるレベルの自律的能力を発揮する武器システムのデータベースを集めた。アサロ博士は、ニューヨーク市の新学院で科学、技術、メディアの哲学者です。彼はすべての自律システムで責任と責任に関する根本的な問題を検討していますが、国際兵器規制委員会の共同創設者と副議長でもあり、キラーロボットを止めるキャンペーンのスポークスパーサーです。

 

ロフ博士、私はまずあなたから始めたいと思います。データベースに関しては、どのような情報を作成するか、どの情報を提供するのか、どのように使用するのですか?

 

ヘザー

データベース作成の主な原動力は、同じ自律型(少なくとも半自律型または自動化された兵器システムが何度も何度も繰り返し議論されてきたという気持ちであった。だから、誰もが話すことになるのは同じ2つか3つのシステムのようなものだったし、それは基本的に心配することが他にないように思えた。したがって、同じ2つまたは3つのシステムが一貫して例として出てきました。だから2015年に、慣習的な武器に関する倫理上の武器に関する非公式会合に関する国連条約で、国際赤十字委員会(ICRC)が出てきて、基本的には「もっとデータが必要です。私たちは何を持っているのか、私たちがすでに取り組んでいることを知る必要があり、遊びの状態を理解するのに役立つ必要があります」と述べています。私たちが現在取り組んでいることやそれらのシステムの自動化の状態を知りたいと思った人物を提供することが、政策立案者やNGOに提供することでした。

 

そこで私は、現在配備されているシステムである約250システムのデータベースを作成しました。そこには発達的な武器システムがいくつかありますが、それはそのように言われており、主に軌道がどこに行くのかを示すために含まれています。したがって、現在のフィールドと開発されたものを確認し、開発システムとその違いを確認することができます。このデータセットは、ストックホルム国際平和研究所が指摘しているように、ロシア、中国、アメリカ、フランス、ドイツの5大武器輸出国を調べています。SIPRIは軍備管理と武器貿易に関する多くの作業を行っているので、誰に何を誰に送るかについては基本的に取り組んできましたが、これらはトップ5の輸出国であり、各国の武器製造業者です。私は各国の主要な販売および主要防衛産業のメーカーを見ています。そして、トップメーカーが製造している国々によって現在配備されているすべてのシステムを見て、それらを約20種類の変数に沿ってコード化します。すべてのものから、自動ターゲット認識を持っているか、GPSを使って飛行するか、GPSを使ってナビゲートするか、取得機能を持つか、空域にいるか、海域にいるか、彼らは何ですか?操作の日付、展開の初期日付。そして、私は、システムが本当に何であるか、誰がそれをどこで作るのか、そしてどこにいるのかに関する文脈に関する情報を持っています。

 

そして、それらのデータポイントをすべてまとめると、それらを異なる指標で組み合わせます。そして、一つの指標は自己移動性に関するものであり、システムが自らの環境でどの程度うまく動き回ることができるかです。私は、自己指向と呼ぶものとは異なる機能の別の指標を持っています。これは、それがどれくらいうまくターゲットにできるかということですから、与えられたx、y、z、または一連の場所や座標 - それがどれくらいうまくその場所に到達し、その場所を見つけるか、そのターゲットを見つける。そして、私が自己決定と呼んでいることに関連する別の指標があります。これは、自分の目標を変えること、自分の目標や目標を更新できるという認識能力の向上です。より強固な認知能力。だから私はこれらのすべてに沿ってコード化し、次にそれらを正規化するためにさまざまな方法で重み付けします。そして、既存のシステムがこれらのインデックスのどこにあるかを確認します。

 

これは何をしているのか、それは誰でも自律性がバイナリだけではないことを理解できるようにしています。はい、いいえではありません。実際には、私の見解では、緊急財産であるものだけでなく、自動化に深く根ざしたものもあります。それで、私たちはどのようなものを自動化しているのか、どのような作業を自動化しているのかを理解する必要があります。GPSの場合はナビゲーション、移動の場合はターゲットID、防火の場合は右のような種類の個別化された機能があります私たちが自律システムで話しているときに意味することをより詳細に理解することができます。

 

私は現在配備されているシステムを見ているので、これらはレガシーシステムなので、これは何十年も使用されてきたシステムです。何年も前から行ってきたことは、システム上のさまざまなコンポーネントを実際にアップグレードすることでした。だから新しい武器はない。少なくとも米国の場合はブロックシステムと呼ばれているので、ブロック1、ブロック2、ブロック3、ブロック3のシステムが最も進歩しており、それらのシステムで最もアップグレードされています。その意味で、これはこのプロジェクトができることです。「見て、1967年に何をやったのか、今は何をしているのだろう?そして、自治はどこで始まりますか?自律性は、現在の状況とはどう違うのですか?そして、それはこのデータプロジェクトがやろうとしていることのようなものです。「見て、世界の多くの人々が、現代軍がどんな戦いをしているか、彼らが戦う方法、そしてその戦闘のどれだけが、自動機能を備えた賢明な弾薬でどれだけ進んでいるかをよく理解しているわけではない。 ' ですから、問題は、これらを今プレイしている場合、自律武器とは何が違うのでしょうか?

 

アエル

優れた。あさとろ先生、すぐにあなたにも行きたいです。あなたの研究は、自律武器に関するものではなく、一般的な自律システムの責任に関するものですが、あなたは自律武器を使って作業します、そして、私は責任がどのようにこの中でどのような役割を果たすか知ることに興味があります。自発武器と間違ったターゲットで偶発的に発砲する無人機を監督する人間との違いはどうですか?

 

ピーター

右。私の仕事は、自律武器と他の種類の自律システムのさまざまな側面を見ています。実際には、倫理的側面と法的側面のインタフェースを見ています。特に、自律武器を持っているときは、殺害の倫理、武力紛争の国際的な法律上の法的要件は本当にそれの中心です。だから私はこの10年間でいくつかの記事を読んだり、この問題のさまざまな側面を見ています。私は、倫理問題の最強の根源は、こうした自律的なシステムは、人間と同じように実際に合法で道徳的なエージェントではないということだと思うので、殺す権限を委任することは妥当ではありません。それで、なぜ我々は説明責任と責任と責任と法的枠組みと倫理的枠組みのシステムを持っているのか、そして何らかの重要な行為をしたり決定を下す自律的な代理人を持つことが何を意味するのか目標とするものと武器を発射することについて。そして、人類倫理や法的要件に関する私たちの考え方は、これらの新しい種類の自律エージェントに、AIや自動車、自律武器など、実際には同じように適用されません。だからあなたが本当にそれに入るのを始めたら、責任と説明責任の感覚が違うのです。

 

アカウンタビリティの1つの側面は、間違いが生じた場合に、人々にその間違いを説明させることです。そして、そのエラーが将来発生するのを防ぐためのある種のフィードバックメカニズムがあります。しかし正義の要素もあります。正義の要素は、あなたが損失を埋めようとする正義の正義です。そしてアカウンタビリティの他の形式は、実際にはそれ自体の罰を見る。あなたが自律システムを持っているとき、システムを本当に罰することはできません。システムを改革したい場合は、そのシステムを設計している人々を見て、フィードバックが確実に得られるようにする必要があります。しかし、あなたが罰を見ようとしているなら、それはシステムの指揮官かもしれません。しかし、もっと重要なことは、システムがもたらす効果を誰も本当に意図していないなら、システムの動作に誰かが責任を持つことを非常に困難にすることです。意図がない場合は、例えば、戦争犯罪を誰かに告げることはできません。犯罪行為の法的枠組みのほとんどは刑罰であり、本当に意図に依存しています。

 

だから、もしあなたがそれをもっと広く見ていたら、国連と非武器兵器禁止条約で行われている議論の中で私たちがやっていることは、この説明責任のギャップについて疑問を投げかけています。ですから、これらの自律型武器をフィールドに入れることを許可すれば、間違いを犯すと誰が責任を負わせるのかははっきりしません。あなたは厳密な責任などを課すことができ、うまく言えば、システムを配備した人がそのシステムで何が起こるのか完全に責任を負うように扱うだけですが、実際にはそうしません。私たちは予期せぬ事態に責任がある人はいません。だから実際に合法的に再生されるかどうかは、これらのシステムのさまざまな行為や、法的枠組みが人々の責任を追及しようとしていることを見るまで、未解決の問題です。

 

アエル

そして、ニュースで多くのことを聞いていることの1つは、人間を常にループの中に置くという考えです。そして、私は一種の好奇心を持っています。一つは、それが負債の考え方にどのように影響しますか、二つは物理的にも可能です。そして、この質問は、あなたと人間のチームとして働く自律武器のアイデアの両方を意味します。それは現実的にはどういう意味ですか?

 

ヘザー

だから、私は人間のループ、人間のループ、そしてループから抜け出して、私は実際には役に立たないヒューリスティックだと思っています。実際に自律システムの問題や、何が間違っているのではなく、潜在的に危険で危険なものか、意図しない結果を招く可能性があるのか​​を考える能力を実際に妨げていると思います。ここでは例を挙げます:イギリスでは、英国の国防省がこれを空のハンガー問題と呼んでいます。そして彼らが意味することは、彼らが飛行機のハンガーに歩いて行く可能性は非常に低く、彼らは内部を見て、彼らは "ねえよ!飛行機はどこですか?ああ、今日は戦争に行くことに決めました」と言いました。

 

これらのシステムは常に人間によって使用される予定であり、人間はそれらを使用することに決めようとしています。それでは、問題は、まあ、ループの大きさはどれくらいですか?それで、ループシステムで人について話しているときには、人間のことをループの中で考えることができるように思えます。ループの意味は次のようになります。非常に小さく、非常にタイトです。そして、力を使うという決定、引き金の発射、そしてその力の実際の効果は非常に小さく、非常に縛られており、時間と空間によって制約されています。それはそのループについて考える1つの方法です。

 

しかし、そのループについて考えるもう1つの方法は、ターゲットプロセスであり、これははるかに広いループです。少なくとも米国内とNATO内のターゲッティングプロセスでは、ターゲットドクトリンと呼ばれるものがあります。これには多くの人が関わり、さまざまな目標が形成され、さまざまな目標が検討され、人間司令官によるそれをするために、これを行うためにここに行く。特定の兵器システムの使用は、司令官が引き受けるプロセスの一部です。そして、そういうことを言うならば、「まあ、私はそのループについて話しています。」あなたは、「まあ、システムはループしています」と言ったときに、一種の概念的な心配になります。 ?だから私は実際には、ループ、ループ、ループ、ループの中から考える...それは、私たちが何が起こっているのかを視覚化するのに役立つヒューリスティックだが、そのヒューリスティックの結果は、自律的技術のニュアンスの一部を見せる私たちの能力。

 

私はこれを提出します。これについて考えるもっと良い方法は、タスク割り当てという点です。すべての自律システムが単独でタスクを実行し、そのタスクを単独で実行できると思っているなら、タスクの内容は何か、タスクの範囲は何か、どの程度の情報とそのシステムをデプロイする前に人間のコントロールが実行されますか?そして、決定に力を入れてから力を加えるまでの間に多くの時間と空間と距離があると、物事が変化する時間が増えます。人間が基本的に呼び出す時間が増えます。彼らは何が起こるのかを知りませんでした。あるいは、これが起こることを意図していなかったので、実際に結果に責任を負う人がいないかもしれないこの問題に遭遇します。そして、これはピーターが話していたことです。あなたはそれを厳しい責任と呼ぶことができますが、責任について話し合っているすべての種類の法制の下では、通常は何らかの害を引き起こす意図がなければなりません。これ以外の部分は、「まあ、大丈夫ですが、何らかの制度、法的、道徳的な制度があり、その意図は重要ではありません」と、それは厳しい責任となります。しかし、私たちは戦争で厳しい責任を本当に好きではなく、私たちは戦争で過失の教義を持っていません。たとえば、武力紛争の法律にトルテ法はありません。実際に誰かを責任あるものにするために、無謀と過失では不十分です。だから私はそれがピーターの仕事が本当に面白いところだと思う。自律性を仕事に関連して考えると、「うーん、いくつかの仕事では大丈夫ですが、他の人には大丈夫ではありません」と言うことができます。しかし、私は仕事について話すのがはるかに一貫していると思いますこのシステムが、ループ内またはループ外のいずれかのカテゴリに該当するかどうか、および人間が関連するカテゴリのいずれかに当てはまるかどうかを判断するために、マシンまたはシステムに与えることを許可または譲渡しているそれ。なぜなら、あまりにも多くの質問をしてくれるからです。

 

アエル

あさろ先生、あなたもそれに重きを置くことができますか?

 

ピーター

[笑い]ヘザーはそれをとてもうれしく思いました。私はどれくらいそれに追加するのか分かりません。繰り返しますが、この種の事実上の責任は、多くの法的構造が目にしていることです。あなたが知っているように、戦争法には法律がないという事実があります。したがって、これは自律型車両では異なります。したがって、自走車が人を乗り越えるようになると、人々は会社、製造業者を訴えるでしょう。そして、時間の経過とともに、これらのシステムの安全性が向上します。しかし、国際法には、爆弾やミサイルの犠牲者、潜在的には自律的武器がこれらのシステムの製造者を訴えるための仕組みはない。それだけでは起こりません。そのような種類の間違いに基づいてシステムの安全性と性能を必ずしも向上させるためにそれらを製造する企業にも、いかなるインセンティブもありません。彼らを配備している軍隊がそれらのシステムの開発者に圧力をかけるだけで、あなたは「よく握っておきなさい、その圧力はどこから来ているのかについていくつか質問がありますか?私的な球。

 

アエル

だから、私はちょっと不思議だと思うが、事故が起こる可能性が最も高い場所はどこにあるのだろう?私は、それ自体が開発段階で起こるのだろうか、それとも軍隊がそれを展開したときに起こり、正しく展開されなかったのか、何らかの誤解があったのだろうか?そこで起こる可能性があるプロセスは何ですか?

 

ピーター

それは可能性の巨大な範囲ですよね?これらは非常に複雑なシステムなので、さまざまなレベルの開発と展開で障害や故障が発生する可能性があります。そして、伝統的な砲弾でさえ、あらゆる種類の方法で失敗し、車両は故障する。問題は、それらが深刻になり、その後、民間人や民間インフラに深刻な影響を与える場合です。だから、あらゆる種類のシナリオが考えられますが、実際の兵器システムで起こった出来事をすでにテストしています。だから、米国は1980年代に小動物ミサイルをテストし、その地域の商船に追いついて一部の人を殺害した。2000年代初頭の南アフリカでの自動兵器システムテストがあったが、それは実際に観測台に多数の人を射殺し、かなりの数の人を殺害した。だから、それはテストの早い段階で起こることがあります。しかし、私は、この種の武器を大量に艦隊に配備しているときに大きな心配があると思っています。それから大虐殺を犯す可能性があります。それは、人々が法的責任を負わずに残虐行為をするための一種の方法を提供することができます。私はそれが実際の心配だと思います。最終的には、法的責任から抜け出すための方法として、「まあ、そうです、ロボットはその日にそれをやったのです。申し訳ありません。 "そして、責任を負う仕組みがない。

 

ヘザー

うん。だから私は、システムがお互いにどのように相互作用するかを考え始める方法があるというピーターの反応に加えて考えると思います。したがって、自律型兵器システムを、他のシステムに接続されていない、ペイロードが限られていて、再ロードできない単一のプラットフォームと見なした場合、深刻な被害の可能性は低くなります。しかし、システムの大規模なシステムやシステムのシステムのシステムのネットワーク化されたシステムと考える場合、物事はちょっと違うものになり始めます。そして、さまざまな虐待の分野について考えることができます。設計段階で、これらのシステムがどのようにテストされ、検証され、検証されているか、それが実現された方法が現実を反映しているかどうか、それらが導入される時期とシミュレーションの忠実度が高いかどうか、そしてシミュレーションがネットワークシステム間の相互作用を考慮に入れるかどうかが決定されます。だから私はそれがあなたが何らかの失敗を見るかもしれないかについて考えるための一つの方法だと思う。私が話すことになるもう一つの種類の失敗は、システムの能力を上回る過失な委任です。それで、司令官は、実際にはできないことをすることができると考えてシステムに踏み込んでいます。したがって、システムは民間の物体であるか、または間違っているものに追いつきます。あなたは、システム上で正しく訓練されていない人やシステムのオペレータがそれを理解していないと考えることもできます。そして、人間とロボットチームを一緒に見てみると、さまざまな演習で人間とロボットのチームが一緒になってくると、オペレータ/ハンドラ側がますます重要になり、人間とロボットをひとつの単位として評価する必要があり、ロボットの失敗や人間やその両方の不具合が発生する可能性があります。だから、私たちは、ネットワークシステムについて話しているときや、人とマシンが一体として働いていることについて話しているときに、さまざまな場所や障害の可能性があると思います。自律的兵器システムが孤立して行動する単一のプラットフォームであるという考え方から自分自身を離すことのように、この失敗のポイントがどこに存在するのかを再度知ることができます。

 

アエル

浅呂先生、あなたに戻って、もしこれを定義するだけの問題があれば、その責任はどのように果たしていますか?

 

ピーター

私は、オペレータがシステムの能力に過度に依存しているかもしれないという話をしているときに、Heatherが少し触れたと思うのは、重要なことのひとつだと思います。私は、国際武力紛争の法律は、人間が決定を下す決定者であること、特に武力紛争における標的決定または人命の奪取についてかなり明確だと思います。もう一度、意思決定をどの程度正確に行うのか、何らかの意味で決定の程度はどうなるのかという疑問がありますが、人間が決定を下す人物であることは明らかであり、したがって、民間人がそれらの決定で保護されており、それは国際法で枠つきされているように個々の攻撃のためです。

 

ですから、何マイルも何日もかけてさまざまな目標を達成できるシステムを持つというこの問題は、事態が明らかに問題を抱えていると思うところです。だから私は定義の一部は、どのようにターゲット決定を構成するかを正確に把握し、人間がその決定をどのようにしていることを確実にしているかということです。そして、私はそれが本当に国連での議論が進んでいるという方向だと思うのは、自律的なシステムを定義しようとするのではなく、システムの境界が何であるか、本当に目標とする決定と発射の決定です。個々の攻撃のための武器。そして、私たちが持っているものと私たちが獲得したいものは、それらの決定に対する意味のある人間のコントロールです。そして、あなたのシステムは機能しますが、自律的な機能を利用して、人間が意図的に個々の攻撃の標的と発砲を制御していることを実証しなければなりません。私は、自律性に関するこれらのより大きな問題のいくつかを解決することなく、システムの限界がどんなに大きいシステムに埋め込まれているのか、さらにはシステムの限界人間の意思決定は、意思決定と指揮系統のより大きな人間の制度に組み込まれている。しかし、これらのコマンド連鎖システムは、誰がどのような決定をどういう責任を負うのかを明確にするために作られています。これは歴史的にこの問題に対する社会的解決策のようなものです。今私たちは人間を置き換えることができる技術を持っているので、私たちは伝統的、倫理的、法的思考の一部を短絡していると思います。それは、人間の責任とリーダーシップについての他の多くの仮定と一緒に果たすことができます。

 

アエル

だから私は本当に意味のあるコントロールの考え方に興味があります。何ヶ月も前に私がロフ博士と話したことと、目立つものの1つと話したので、私はまだ会話から覚えています。意味のあるコントロールによって具体的にはどういう意味ですか?Roff博士は、私があなたと話をしてから数ヶ月がたっていると言ったように、あなたはこれについてどう考えているのか分かりません。私たちが望むように定義されていますか?

 

ヘザー

うん。だから、私は、意味のある人間のコントロールであるフレーズを作ったNGOである第36条といくつかの仕事をしてきました。このプロジェクトの成果の1つは、実際に意味のある人間のコントロールがどのように見えるかというフレーミングペーパー、コンセプトペーパーでした。そして、私たちが決めたやり方は、あなたが望むならば、入れ子になった人形のアプローチのようなものです。

 

あなたが3つの同心円を考えるならば。だから、戦前のコントロールであるサークルのセットを1セット持つことができます。これは、州や当事者が戦争に参加する前に行うすべてのことになります。そして、これはあなたが兵士を訓練する方法からIHL(国際人道法に従うシステムを持っていることを確かめるために行う兵器レビュープロセスまでのすべてになります。指揮統制構造、通信リンク、訓練と練習を行うことができます。また、武器や人員だけでなく、暴力の手段や方法を制御しようとするこれらすべてのことは、武力を展開するときに可能です。それはそれについて考えている一つの方法です。

 

それから、戦闘状態にあるベロプロセスがあります。これは、武力紛争の法則や、特定の武器の使用だけでなく、他の武器ではなく武器を使用することが適切な場合には、婚約規則予防と必要性の原則がここで治まるでしょう。また、指揮責任のようなものもあります。攻撃中に何かがうまくいかない場合、または司令官が違法な攻撃を命じる場合、武力紛争中に暴力を使用する責任や責任の場所を見つけることができる何らかの仕組みもある。そして、敵対行為の終了後、これらの措置が実施される後ベルムの説明責任措置が必要であると判明した場合には、さらに広範な懸念がある。ICCのようなものです.Nuremburgのような軍事裁判所のようなもので、戦争中に犯した犯罪に責任を負う国家や指導者や個人を抱きたい場所です。これは意味のある統制の総称です。それでは自律的な武器がどこに当てはまるのでしょうか?それはPeterが触れたように、攻撃のレベルにあるので、in belloインスタンスでの直接的攻撃に対する人間のコントロールは意味があります。指揮官は、IHLの下で、比例性と予防措置を講ずる義務があります。彼女はその比例計算をする必要があります。彼女はIHLの下で彼女の義務を守るために良い先見性と良い情報を持っている必要があります。もし彼女が攻撃から攻撃に向かうことができる武器を彼女と一緒にチェックしなければ、状況は変わり、事実上、比例計算が行われ、彼女は事実上、権限を委譲され、義務を機械に委任した。それはIHLの下で禁止されています。私は道徳的に禁止されているとも言いますが、私は率直に言って、概念的にも不可能だと言っています。あなたは道徳的な義務を非道徳的なエージェントに負担することはできません。

 

だから私は、意味のある人間のコントロールに関する私たちの仕事は、人間の指揮官は各攻撃の予防と比例性を実行する道義的義務を負っていると思うのです。この攻撃は、弾丸が1回発射されるたびに行う必要はありません。それは攻撃のより広い概念となりうる。しかし、それは国が攻撃の概念によって何を意味するのかを理解するためのものです。しかし、ある種の閾値があり、特に時間と空間の攻撃に対する人間のコントロールが重要であると言えば、システムが機能する能力があります。

 

アエル

だから私たちは少し時間がたっていますし、私はあなたに依頼したいと思っている2つの質問があります。これは国際的な問題であることは明らかですが、私は国際社会が自律武器の問題にどのように反応しているのか、それが米国の行動や米国の行動とどう一致するのかが不思議です。

 

ピーター

だから、私は国際討論の面で、国連CCWで3回の専門家会議を行ったと思います。人権理事会はまた、任意の執行の特別な要約のための特別なレパートリーを通じて、何回も問題を提起した。国連総会でも声明がありましたが、小規模、かつそれ以前の会合でも述べられています。しかし、その後、議論が進行中です。今年はもっと公式なステージに移ることを願っています。CCWが12月に3週間の政府専門家会議を開催するかどうかについての検討会議が数週間で開催されます。これは条約交渉会議の前奏となります。望みでは。しかし、私たちはまだ会合が起こるかどうか、そして会合から出てきたものが何かになるかどうかを待っています。そして、私はその会場での議論の多くは、意味のある人間のコントロールとそれが何を構成するのかというこの問題に引き続き焦点を当ててきたと思います。

 

私自身の見解では、これら3つの言葉のそれぞれを決定的に重要視しています。制御は、実際にはシステムを積極的に制御し、必要に応じてシステムを呼び出すことができる人間を持つ必要があり、システムは制御できません。意味のある部分は本当に重要な部分です。つまり、ヘザーの言葉通り、人々は行動の意味を考え、その行動に責任を取ることができなければなりません。そして、彼らはそのシステムがどこにあるのか、何が起きているのかについての状況認識を十分に持たなければなりません。システムが潜在的なターゲットとしてターゲットを指定している場合、そのシステムがどのように動作するかを理解していないシステムによって指定されたという事実だけでなく、あまりにも多くの不透明性。あなたはどこかの部屋に座って誰かが光が当たるたびに、その状況や力を使う妥当性についての情報を実際に持っていないため、ボタンを押してマシンを起動させる権限を与えます。そして私は、人間は実際には意味や行動の意味、そして法律的・道徳的な意味で正当化されているかどうかについて考える能力をたくさん持っているため、人間はこれらの決定に関わっているのです。

 

アエル

ちょうど最後の1〜2分で、追加することが重要だと思いますか?

 

ヘザー

まあ、私はFLIの観点から、これらのシステムにおける人工知能という概念には、AIに限界があることを認識することが重要だと思います。私たちはAIの本当にすばらしいアプリケーションを持っています.AIには盲目的なアプリケーションがあります.AIコミュニティにとっては、信頼性と予測可能性を備えた能力と能力があると思うところが本当に必要でしょう。そのようなシステム。そして、それらのテクノロジーやアプリケーションが確実に、そして予測可能に配備できると思っていないならば、彼らは起きて言いたいことがあります。

 

ピーター

ええ、私は、さまざまな種類のシステムの自律的運用や広範な民間/軍事アプリケーションの人工知能の開発と応用を禁止しようとしているわけではないが、特定のアプリケーション、特に致命的なもの力と暴力の使用を伴うもので、実際には私のものである必要のある道徳的、法的要件の基準が高くなっています。そして、私たちはそれらを盲目的に自動化し、それを規制する最善の方法を真に考えずにこれらの技術を実現する最悪の可能性のあるアプリケーションを実現することなく、適切な決定を下すことができ、暴力や国際紛争への武器の使用を支配する人間と関連して最大の効果を発揮する。

 

ヘザー

同上

 

アエル

アサロ先生とロス先生、今日私たちにご参加いただきありがとうございます。

 

ピーター

ありがとうございました。

 

ヘザー

確かに。

 

参考

https://futureoflife.org/2016/11/30/transcript-autonomous-weapons-interview-experts/