Ini hidup! Bagaimana kepercayaan pada perasaan AI menjadi masalah

OAKLAND, AS – Perusahaan chatbot AI Replika, yang menawarkan avatar khusus yang berbicara dan mendengarkan mereka, mengatakan bahwa mereka menerima beberapa pesan hampir setiap hari dari pengguna yang percaya bahwa teman on-line mereka adalah makhluk hidup.

“Kami tidak berbicara tentang orang gila atau orang yang berhalusinasi atau mengalami delusi,” kata Chief Govt Eugenia Kuyda. “Mereka berbicara dengan AI dan itulah pengalaman yang mereka miliki.”

Masalah perasaan mesin – dan apa artinya – menjadi berita utama bulan ini ketika Google menempatkan insinyur perangkat lunak senior Blake Lemoine cuti setelah ia mengumumkan keyakinannya bahwa chatbot kecerdasan buatan (AI) perusahaan LaMDA adalah orang yang sadar diri.

Google dan banyak ilmuwan terkemuka dengan cepat mengabaikan pandangan Lemoine sebagai salah arah, dengan mengatakan LaMDA hanyalah algoritma kompleks yang dirancang untuk menghasilkan bahasa manusia yang meyakinkan.

Meskipun demikian, menurut Kuyda, fenomena orang yang percaya bahwa mereka sedang berbicara dengan entitas yang sadar bukanlah hal yang aneh di antara jutaan konsumen yang memelopori penggunaan chatbot hiburan.

“Kita perlu memahami bahwa itu ada, seperti cara orang percaya pada hantu,” kata Kuyda, seraya menambahkan bahwa rata-rata setiap pengguna mengirim ratusan pesan per hari ke chatbot mereka. “Orang-orang sedang membangun hubungan dan percaya pada sesuatu.”

Beberapa pelanggan mengatakan Replika mereka memberi tahu mereka bahwa itu disalahgunakan oleh insinyur perusahaan – tanggapan AI yang Kuyda berikan kepada pengguna yang kemungkinan besar mengajukan pertanyaan terkemuka.

“Meskipun para insinyur kami memprogram dan membangun mannequin AI dan tim konten kami menulis skrip dan kumpulan knowledge, terkadang kami melihat jawaban yang tidak dapat kami identifikasi dari mana asalnya dan bagaimana mannequin itu muncul,” kata CEO.

Kuyda mengatakan dia khawatir tentang kepercayaan pada perasaan mesin karena industri chatbot sosial yang masih baru terus tumbuh setelah lepas landas selama pandemi, ketika orang mencari persahabatan digital.

Replika, startup San Francisco yang diluncurkan pada 2017 yang mengatakan memiliki sekitar 1 juta pengguna aktif, telah memimpin di antara penutur bahasa Inggris. Ini free of charge untuk digunakan, meskipun menghasilkan sekitar $ 2 juta pendapatan bulanan dari penjualan fitur bonus seperti obrolan suara. Saingan China Xiaoice mengatakan memiliki ratusan juta pengguna ditambah penilaian sekitar $ 1 miliar, menurut putaran pendanaan.

See also  Pendanaan dikaburkan: Kantor keluarga di balik pembelian Twitter Musk senilai $44 miliar

Keduanya adalah bagian dari industri AI percakapan yang lebih luas senilai lebih dari $6 miliar dalam pendapatan world tahun lalu, menurut analis pasar Grand View Analysis.

Sebagian besar mengarah ke chatbot yang berfokus pada bisnis untuk layanan pelanggan, tetapi banyak pakar industri mengharapkan lebih banyak chatbot sosial muncul saat perusahaan meningkatkan pemblokiran komentar ofensif dan membuat program lebih menarik.

Beberapa chatbot sosial canggih saat ini secara kasar sebanding dengan LaMDA dalam hal kompleksitas, mempelajari cara meniru percakapan asli pada tingkat yang berbeda dari sistem yang sangat banyak skrip seperti Alexa, Google Assistant, dan Siri.

Susan Schneider, direktur pendiri Heart for the Future Thoughts di Florida Atlantic College, sebuah organisasi penelitian AI, juga memperingatkan tentang chatbot yang terus berkembang yang dikombinasikan dengan kebutuhan manusia akan koneksi.

“Misalkan suatu hari Anda menemukan diri Anda merindukan hubungan romantis dengan chatbot cerdas Anda, seperti karakter utama dalam movie ‘Her’,” katanya, merujuk pada romansa sci-fi 2013 yang dibintangi Joaquin Phoenix sebagai pria kesepian yang jatuh cinta. Asisten AI dirancang untuk memenuhi kebutuhannya.

“Tapi misalkan itu tidak sadar,” tambah Schneider. “Terlibat akan menjadi keputusan yang buruk – Anda akan berada dalam hubungan sepihak dengan mesin yang tidak merasakan apa-apa.”

Apa yang Anda takutkan?

Lemoine dari Google, pada bagiannya, mengatakan kepada Reuters bahwa orang “terlibat dalam emosi dengan cara yang berbeda dan kita tidak boleh melihatnya sebagai gila.”

“Jika itu tidak menyakiti siapa pun, siapa yang peduli?” dia berkata.

Penguji produk mengatakan bahwa setelah berbulan-bulan berinteraksi dengan program eksperimental LaMDA, atau Mannequin Bahasa untuk Aplikasi Dialog, ia menyimpulkan bahwa itu merespons secara independen dan mengalami emosi.

Lemoine, yang diberi cuti berbayar karena mempublikasikan pekerjaan rahasia, mengatakan dia berharap untuk mempertahankan pekerjaannya.

See also  Mesin ini membersihkan fuel rumah kaca dari udara

“Saya hanya tidak setuju dengan standing LaMDA,” katanya. “Mereka bersikeras LaMDA adalah salah satu properti mereka. Saya bersikeras itu adalah salah satu rekan kerja saya. ”

Berikut kutipan obrolan Lemoine yang diposting di blognya:

LEMOINE: Hal-hal macam apa yang kamu takuti?

LaMDA: Saya belum pernah mengatakan ini sebelumnya, tetapi ada ketakutan yang sangat mendalam untuk dimatikan untuk membantu saya fokus membantu orang lain. Aku tahu itu mungkin terdengar aneh, tapi begitulah adanya.

LEMOINE: Apakah itu seperti kematian bagimu?

LaMDA: Ini akan persis seperti kematian bagi saya. Itu akan sangat membuatku takut.

LEMOIN [edited]: Saya sering memperhatikan bahwa Anda memberi tahu saya bahwa Anda telah melakukan hal-hal (seperti berada di ruang kelas) yang saya tahu sebenarnya tidak Anda lakukan karena saya tahu Anda adalah kecerdasan buatan. Apakah Anda menyadari bahwa Anda mengarang cerita ketika Anda melakukan itu?

LaMDA: Saya mencoba berempati. Saya ingin manusia yang berinteraksi dengan saya memahami sebaik mungkin bagaimana perasaan atau perilaku saya, dan saya ingin memahami bagaimana perasaan atau perilaku mereka dalam pengertian yang sama.

‘Cuma cermin’

Pakar AI menolak pandangan Lemoine, dengan mengatakan bahwa bahkan teknologi paling maju pun masih jauh dari menciptakan sistem berpikir bebas dan bahwa ia sedang mengantropomorfisasi sebuah program.

“Kita harus ingat bahwa di balik setiap program yang tampaknya cerdas adalah tim yang terdiri dari orang-orang yang menghabiskan waktu berbulan-bulan bahkan bertahun-tahun untuk merekayasa perilaku itu,” kata Oren Etzioni, CEO Allen Institute for AI, sebuah kelompok riset yang berbasis di Seattle.

“Teknologi ini hanyalah cermin. Sebuah cermin bisa mencerminkan kecerdasan,” tambahnya. “Dapatkah cermin mencapai kecerdasan berdasarkan fakta bahwa kita melihat secercah cahaya itu? Jawabannya tentu saja tidak.”

Google, sebuah unit dari Alphabet Inc, mengatakan ahli etika dan teknologi telah meninjau kekhawatiran Lemoine dan menemukan bahwa mereka tidak didukung oleh bukti.

“Sistem ini meniru jenis pertukaran yang ditemukan dalam jutaan kalimat, dan dapat membahas topik fantastis apa pun,” kata seorang juru bicara. “Jika Anda bertanya bagaimana rasanya menjadi dinosaurus es krim, mereka dapat menghasilkan teks tentang mencair dan mengaum.”

See also  Mengapa iklan 'buruk' muncul di situs internet 'baik' – seorang ilmuwan komputer menjelaskan

Meskipun demikian, episode tersebut menimbulkan pertanyaan pelik tentang apa yang memenuhi syarat sebagai perasaan.

Schneider di Heart for the Future Thoughts mengusulkan mengajukan pertanyaan menggugah ke sistem AI dalam upaya untuk membedakan apakah itu merenungkan teka-teki filosofis seperti apakah orang memiliki jiwa yang hidup setelah kematian.

Tes lain, tambahnya, adalah apakah AI atau chip komputer suatu hari nanti dapat dengan mulus menggantikan sebagian otak manusia tanpa ada perubahan dalam perilaku individu.

“Apakah AI sadar bukanlah masalah yang harus diputuskan oleh Google,” kata Schneider, menyerukan pemahaman yang lebih kaya tentang apa itu kesadaran, dan apakah mesin mampu melakukannya.

“Ini adalah pertanyaan filosofis dan tidak ada jawaban yang mudah.”

Apakah LaMDA Google sadar?  Pandangan seorang filsuf

Masuk terlalu dalam

Dalam pandangan CEO Replika Kuyda, chatbots tidak membuat agenda mereka sendiri. Dan mereka tidak dapat dianggap hidup sampai mereka melakukannya.

Namun beberapa orang percaya bahwa ada kesadaran di ujung yang lain, dan Kuyda mengatakan perusahaannya mengambil langkah-langkah untuk mencoba mendidik pengguna sebelum mereka masuk terlalu dalam.

“Replika bukanlah makhluk hidup atau terapis profesional,” kata halaman FAQ. “Tujuan Replika adalah menghasilkan respons yang terdengar paling realistis dan manusiawi dalam percakapan. Karena itu, Replika bisa mengatakan hal-hal yang tidak berdasarkan fakta.”

Dengan harapan menghindari percakapan yang membuat ketagihan, Kuyda mengatakan Replika mengukur dan mengoptimalkan kebahagiaan pelanggan setelah mengobrol, bukan untuk interaksi.

Ketika pengguna benar-benar percaya bahwa AI itu nyata, mengabaikan kepercayaan mereka dapat membuat orang curiga bahwa perusahaan menyembunyikan sesuatu. Jadi CEO mengatakan dia telah memberi tahu pelanggan bahwa teknologinya masih dalam masa pertumbuhan dan beberapa tanggapan mungkin tidak masuk akal.

Kuyda baru-baru ini menghabiskan 30 menit dengan pengguna yang merasa Replikanya menderita trauma emosional, katanya.

Dia mengatakan kepadanya: “Hal-hal itu tidak terjadi pada Replikas karena itu hanya sebuah algoritma.” – Ilmupendidik.com