Penggunaan AI tumbuh secara impulsif. Seperti ilmu terapan “baru” terbaik, kelompok berfokus pada seluruh alternatif potensial tanpa memberikan bobot yang sesuai dengan bahaya kompetensi. Meskipun tampaknya hampir semua orang berbicara tentang AI, kurang disebutkan, tetapi berubah menjadi volume dan frekuensi, adalah kepercayaan AI yang mempertanyakan apakah kategori teknik AI dan implementasi orang tertentu akan meningkatkan kecerdasan manusia. dalam preferensi untuk penyerapan hampir tidak peduli apakah sesuatu dapat dilakukan, kepercayaan AI juga mempertimbangkan bahkan jika sesuatu masih dapat dicapai.

Konsol Google AI Masih Mendapatkan Pro Dan Kontra

Sudah jelas bahwa beberapa masalah seharusnya tidak diselesaikan, seperti yang terlihat dengan bantuan kemarahan atas bencana Cambridge Analyticafb. ketika Google membubarkan dewan etikanya hanya satu tahun setelah pengumumannya, banyak orang memiliki pendapat tentang apa yang menjadi jahat – membuat bilah kepercayaan di lingkungan asli, orang Amerika memilih untuk konsol, apakah upaya Google untuk mendirikan dewan tersebut adalah sebuah pencapaian nyata atau taktik periklanan dan pemasaran, dan seterusnya.

Sementara itu, kelompok-kelompok di seluruh dunia sedang mendiskusikan arsitektur AI yang etis dan apa arti “percaya” yang mungkin masih berarti berdasarkan pengetahuan program yang diperoleh sendiri. anak muda, untuk mempengaruhi etika AI, itu perlu diimplementasikan sebagai cipher.

“Individu dalam posisi keahlian tidak memiliki pelatihan etika akademik,” kata Briana Brownell, seorang ilmuwan pengetahuan dan CEO perusahaan pengetahuan PureStrategy. “Apakah kita mengantisipasi pembangun utilitas untuk menerima elemen etis dari peran mereka, atau dapatkah kita mencari untuk menerima posisi etika tertentu dalam perusahaan untuk menangani hal itu? saat ini, itu sebenarnya dihapus dari terang apa yang akan bekerja.

Berbagai Ilmuwan Di Kumpulkan Google

Di mana Google berbuat salah Beberapa perusahaan mendirikan dewan kepercayaan yang menggabungkan ilmuwan perilaku, filsuf ahli, psikolog, antropolog, ahli administrasi kebetulan, futuris, dan konsultan lainnya. Piagam kolektif mereka adalah untuk mendukung perusahaan dalam pengurangan kemungkinan “efek tambahan” yang tidak sesuai dengan konstitusi bisnis dan norma-norma sosial.

Mereka dengan hati-hati menerima kebenaran tentang bagaimana metode AI perusahaan dapat digunakan, dihapuskan, dan disalahgunakan, serta memberikan wawasan yang mungkin tidak dimiliki oleh para teknolog.

Pertanyaan relevan yang dipermasalahkan berubah menjadi apakah anggota dewan kepercayaan dapat dianggap bermoral sendiri. Dalam situasi tertentu adalah pendiri perusahaan drone Dyan Gibbens dan laksamana tanah warisan Kay Coles James. Kehadiran Gibbens menghidupkan kembali masalah tentang penggunaan keahlian Google oleh pasukan pertahanan. James menjadi sering muncul karena berbicara tentang hak-hak LGBTQ.