Center for AI Safety (CAIS) baru-baru ini mengeluarkan sebuah pernyataan ditandatangani oleh tokoh terkemuka dalam peringatan AI tentang potensi risiko yang ditimbulkan oleh teknologi terhadap umat manusia. “Mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir,” bunyi pernyataan tersebut. Penandatangan pernyataan tersebut termasuk peneliti terkenal dan pemenang Penghargaan Turing seperti Geoffery Hinton dan Yoshua Bengio, serta eksekutif dari OpenAI dan DeepMind, seperti Sam Altman, Ilya Sutskever, dan Demis Hassabis. Surat CAIS bertujuan untuk memicu diskusi tentang berbagai risiko mendesak yang terkait dengan AI dan telah menarik dukungan dan kritik di industri yang lebih luas. Diikuti surat terbuka lainnya ditandatangani oleh Elon Musk, Steve Wozniak, dan lebih dari 1.000 pakar lainnya yang menyerukan penghentian pengembangan AI yang "di luar kendali". Terlepas dari singkatnya, pernyataan terbaru tidak memberikan detail spesifik tentang definisi AI atau menawarkan strategi konkret untuk memitigasi risiko. Namun, CAIS mengklarifikasi dalam siaran pers bahwa tujuannya adalah untuk membangun perlindungan dan institusi untuk memastikan bahwa risiko AI dikelola secara efektif. CEO OpenAI Sam Altman telah secara aktif terlibat dengan para pemimpin global dan mengadvokasi regulasi AI. Selama penampilan Senat baru-baru ini, Altman berulang kali meminta anggota parlemen untuk mengatur industri secara ketat. Pernyataan CAIS sejalan dengan upayanya untuk meningkatkan kesadaran tentang bahaya AI. Sementara surat terbuka itu menarik perhatian, beberapa pakar etika AI telah menyampaikan kritik tentang tren mengeluarkan pernyataan seperti itu. Dr Sasha Luccioni, seorang ilmuwan penelitian pembelajaran mesin, menyarankan bahwa menyebutkan risiko hipotesis AI bersama dengan risiko nyata seperti pandemi dan perubahan iklim meningkatkan kredibilitasnya sambil mengalihkan perhatian dari masalah langsung seperti bias, tantangan hukum, dan persetujuan. Daniel Jeffries, seorang penulis dan futuris, berpendapat bahwa membahas risiko AI telah menjadi permainan status di mana individu ikut-ikutan tanpa mengeluarkan biaya nyata. Kritikus percaya bahwa menandatangani surat terbuka tentang ancaman di masa depan memungkinkan mereka yang bertanggung jawab atas bahaya AI saat ini untuk mengurangi rasa bersalah mereka sambil mengabaikan masalah etika yang terkait dengan teknologi AI yang sudah digunakan. Namun, CAIS – organisasi nirlaba yang berbasis di San Francisco – tetap berfokus pada pengurangan risiko skala sosial dari AI melalui riset teknis dan advokasi. Organisasi ini didirikan bersama oleh para ahli dengan latar belakang ilmu komputer dan sangat tertarik dengan keamanan AI. Sementara beberapa peneliti mengkhawatirkan munculnya AI superintelligence yang dapat melampaui kemampuan manusia dan menimbulkan ancaman eksistensial, yang lain berpendapat bahwa menandatangani surat terbuka tentang skenario kiamat hipotesis mengalihkan perhatian dari dilema etika yang ada seputar AI. Mereka menekankan kebutuhan untuk mengatasi masalah nyata yang ditimbulkan AI saat ini, seperti pengawasan, algoritma yang bias, dan pelanggaran hak asasi manusia. Menyeimbangkan kemajuan AI dengan implementasi dan regulasi yang bertanggung jawab tetap menjadi tugas penting bagi peneliti, pembuat kebijakan, dan pemimpin industri. (Foto oleh Fotografer Apolo pada Unsplash) Sumber : artificialintellegence-news.com Info PMB :https://pmb.stekom.ac.id Kerjasama/Penerimaan Mahasiswa Baru, WA 24 jam : 081 -777-5758 (081 jujuju maju mapan ) AKU G :@ universitassetekom TIK tok:@universitasstekom FP :https://www.facebook.com/stekom.ac.id/ TWITTER :https://twitter.com/unistekom YOUTUBE :https://www.youtube.com/UniversitasSTEKOM |