Apa arti robotic pembunuh untuk masa depan perang

Meskipun mereka belum datang dalam bentuk robotic Terminator, senjata otonom yang mematikan ada di sini, dan pengembangan lanjutannya perlu diawasi dengan ketat.

Anda mungkin pernah mendengar tentang robotic pembunuh, robotic pembantai, atau terminator – secara resmi disebut senjata otonom mematikan (HUKUM) – dari movie dan buku. Dan gagasan tentang senjata tremendous cerdas yang merajalela masih merupakan fiksi ilmiah. Namun seiring dengan semakin canggihnya senjata AI, perhatian publik tumbuh karena kekhawatiran tentang kurangnya akuntabilitas dan risiko kegagalan teknis.

Kita telah melihat bagaimana apa yang disebut AI netral telah membuat algoritme seksis dan sistem moderasi konten yang tidak kompeten, sebagian besar karena pembuatnya tidak memahami teknologinya. Namun dalam perang, kesalahpahaman semacam ini dapat membunuh warga sipil atau merusak negosiasi.

Misalnya, algoritme pengenalan goal dapat dilatih untuk mengidentifikasi tank dari citra satelit. Tapi bagaimana jika semua gambar yang digunakan untuk melatih sistem menampilkan prajurit dalam formasi di sekitar tank? Itu mungkin salah mengira kendaraan sipil yang melewati blokade militer sebagai goal.

Mengapa kita membutuhkan senjata otonom?

Warga sipil di banyak negara (seperti Vietnam, Afghanistan, dan Yaman) menderita karena cara negara adidaya international membangun dan menggunakan senjata yang semakin canggih. Banyak orang berpendapat bahwa mereka telah melakukan lebih banyak kerugian daripada kebaikan, yang terakhir menunjuk pada invasi Rusia ke Ukraina pada awal tahun 2022.

Di kubu lain ada orang yang mengatakan suatu negara harus mampu mempertahankan diri, yang berarti mengikuti teknologi militer negara lain. AI sudah bisa mengakali manusia dalam catur dan poker. Ini mengungguli manusia di dunia nyata juga. Misalnya Microsoft mengklaim perangkat lunak pengenalan ucapannya memiliki tingkat kesalahan 1% dibandingkan dengan tingkat kesalahan manusia sekitar 6%. Jadi tidak mengherankan jika tentara perlahan-lahan menyerahkan kendali pada algoritme.

See also  Apa yang diharapkan di acara musim gugur 'Far Out' Apple?

Tapi bagaimana kita menghindari menambahkan robotic pembunuh ke daftar panjang hal-hal yang kita harap tidak pernah kita temukan? Pertama-tama: kenali musuhmu.

Apa itu Senjata Otonomi Mematikan (HUKUM)?

Departemen Pertahanan AS mendefinisikan sistem senjata otonom sebagai: “Sistem senjata yang, setelah diaktifkan, dapat memilih dan melibatkan goal tanpa intervensi lebih lanjut oleh operator manusia.”

Banyak sistem pertarungan yang sudah memenuhi kriteria ini. Komputer pada drone dan misil trendy memiliki algoritme yang dapat mendeteksi goal dan menembaknya dengan presisi yang jauh lebih tinggi daripada operator manusia. Iron Dome Israel adalah salah satu dari beberapa sistem pertahanan aktif yang dapat melibatkan goal tanpa pengawasan manusia.


Meskipun dirancang untuk pertahanan rudal, Iron Dome dapat membunuh orang secara tidak sengaja. Namun risiko tersebut dipandang dapat diterima dalam politik internasional karena Iron Dome umumnya memiliki sejarah yang dapat diandalkan dalam melindungi kehidupan warga sipil.

Ada senjata berkemampuan AI yang dirancang untuk menyerang orang juga, dari penjaga robotic hingga drone kamikaze yang berkeliaran yang digunakan dalam perang Ukraina. HUKUM sudah ada di sini. Jadi, jika kita ingin mempengaruhi penggunaan HUKUM, kita perlu memahami sejarah senjata trendy.

Aturan perang

Perjanjian internasional, seperti konvensi Jenewa menetapkan perilaku untuk memperlakukan tawanan perang dan warga sipil selama konflik. Mereka adalah salah satu dari sedikit alat yang kita miliki untuk mengontrol bagaimana perang dilakukan. Sayangnya, penggunaan senjata kimia oleh AS di Vietnam, dan oleh Rusia di Afghanistan, menjadi bukti bahwa tindakan ini tidak selalu berhasil.

Lebih buruk lagi adalah ketika pemain kunci menolak untuk mendaftar. Kampanye Internasional untuk Melarang Ranjau Darat (ICBL) telah melobi politisi sejak tahun 1992 untuk melarang ranjau dan munisi tandan (yang menyebarkan bom kecil secara acak di wilayah yang luas). Pada tahun 1997 perjanjian Ottawa memasukkan larangan senjata ini, yang ditandatangani oleh 122 negara. Tetapi AS, China, dan Rusia tidak setuju.

See also  Filipina sekarang berada di urutan ke-4 dalam waktu yang dihabiskan untuk media sosial – lapor

Ranjau darat telah melukai dan membunuh setidaknya 5.000 tentara dan warga sipil per tahun sejak 2015 dan sebanyak 9.440 orang pada 2017. Laporan Pengawasan Ranjau Darat dan Munisi Tandan 2022 menyatakan:

“Korban…sangat tinggi selama tujuh tahun terakhir, setelah lebih dari satu dekade pengurangan bersejarah. Tahun 2021 tidak terkecuali. Tren ini sebagian besar merupakan hasil dari meningkatnya konflik dan kontaminasi ranjau improvisasi yang diamati sejak 2015. Warga sipil mewakili sebagian besar korban yang tercatat, setengahnya adalah anak-anak.”

Terlepas dari upaya terbaik ICBL, ada bukti bahwa Rusia dan Ukraina (anggota perjanjian Ottawa) menggunakan ranjau darat selama invasi Rusia ke Ukraina. Ukraina juga mengandalkan drone untuk memandu serangan artileri, atau baru-baru ini untuk “serangan kamikaze” pada infrastruktur Rusia.

Masa depan kita

Tapi bagaimana dengan senjata berkemampuan AI yang lebih canggih? Kampanye untuk Menghentikan Robotic Pembunuh mencantumkan sembilan masalah utama dengan HUKUM, berfokus pada kurangnya akuntabilitas, dan dehumanisasi inheren dalam pembunuhan yang menyertainya.

Meskipun kritik ini legitimate, pelarangan penuh HUKUM tidak realistis karena dua alasan. Pertama, seperti ranjau, kotak pandora sudah dibuka. Juga garis antara senjata otonom, HUKUM dan robotic pembunuh begitu kabur sehingga sulit untuk membedakannya. Para pemimpin militer akan selalu dapat menemukan celah dalam kata-kata larangan dan menyelundupkan robotic pembunuh ke dalam layanan sebagai senjata otonom pertahanan. Mereka bahkan mungkin melakukannya tanpa sadar.

Kami hampir pasti akan melihat lebih banyak senjata berkemampuan AI di masa depan. Tapi ini tidak berarti kita harus melihat ke arah lain. Larangan yang lebih spesifik dan bernuansa akan membantu menjaga akuntabilitas politisi, ilmuwan knowledge, dan insinyur kami.

See also  [ANALYSIS] Menjangkau: Menjelajahi penggunaan tagar pesaing di Twitter

Misalnya dengan melarang:

  • kotak hitam AI: sistem di mana pengguna tidak memiliki informasi tentang algoritme di luar enter dan output
  • AI yang tidak dapat diandalkan: sistem yang telah diuji dengan buruk (seperti dalam contoh blokade militer yang disebutkan sebelumnya).

Dan Anda tidak perlu menjadi ahli AI untuk memiliki pandangan tentang HUKUM. Tetap waspada terhadap perkembangan AI militer baru. Saat Anda membaca atau mendengar tentang AI yang digunakan dalam pertempuran, tanyakan pada diri Anda: apakah itu dibenarkan? Apakah itu melestarikan kehidupan sipil? Jika tidak, libatkan komunitas yang bekerja untuk mengontrol sistem ini. Bersama-sama, kita memiliki peluang untuk mencegah AI melakukan lebih banyak kerugian daripada kebaikan. – Ilmupendidik.com

Artikel ini awalnya muncul di The Dialog.

Jonathan Erskine, Mahasiswa PhD, AI Interaktif, Universitas Bristol

Miranda Mowbray, Dosen AI Interaktif, College of Bristol

Percakapan