Salah Satu Pendiri OpenAI Memulai Perusahaan Kecerdasan Buatan Baru Superintelligence

21 Juni 2024 17:40

GenPI.co - Ilya Sutskever, salah satu pendiri OpenAI yang terlibat dalam upaya gagal untuk menyingkirkan CEO Sam Altman, mengatakan dia memulai perusahaan kecerdasan buatan yang berfokus pada keselamatan.

Dillansir AP News, Sutskever, seorang peneliti AI terkemuka yang meninggalkan pembuat ChatGPT bulan lalu, mengatakan dalam sebuah posting media sosial pada hari Rabu bahwa dia mendirikan Safe Superintelligence Inc. dengan dua pendiri.

Satu-satunya tujuan dan fokus perusahaan adalah mengembangkan “superintelligence” dengan aman, mengacu pada sistem AI yang lebih pintar dari manusia.

BACA JUGA:  3 Tips Mempunyai Anak Cerdas, Bikin Bangga Orang Tua!

Perusahaan berjanji untuk tidak terganggu oleh “biaya tambahan manajemen atau siklus produk."

Dan berdasarkan model bisnisnya, pekerjaan di bidang keselamatan dan keamanan akan “dilindungi dari tekanan komersial jangka pendek,” Sutskever dan rekan pendirinya Daniel Gross dan Daniel Levy mengatakan dalam pernyataan yang disiapkan.

BACA JUGA:  Para Pemimpin G7 Bahas Migrasi, Kecerdasan Buatan, dan Keamanan Ekonomi

Ketiganya mengatakan Safe Superintelligence adalah perusahaan Amerika yang berakar di Palo Alto, California, dan Tel Aviv, “di mana kami memiliki akar yang kuat dan kemampuan untuk merekrut talenta teknis terbaik.”

Sutskever adalah bagian dari kelompok yang gagal menggulingkan Altman tahun lalu.

BACA JUGA:  Paus Fransiskus Ungkap Kekhawatiran Mengenai Kecerdasan Buatan

Perombakan ruang rapat, yang kemudian disesalkan oleh Sutskever, juga menyebabkan periode kekacauan internal yang berpusat pada apakah para pemimpin di OpenAI memprioritaskan peluang bisnis daripada keselamatan AI.

Di OpenAI, Sutskever bersama-sama memimpin tim yang berfokus pada pengembangan AI yang lebih aman dari manusia yang dikenal sebagai kecerdasan umum buatan, atau AGI.

Ketika dia meninggalkan OpenAI , dia mengatakan bahwa dia memiliki rencana untuk proyek yang “sangat berarti secara pribadi”, tetapi tidak memberikan rinciannya.

Sutskever mengatakan bahwa itu adalah pilihannya untuk meninggalkan OpenAI.

Beberapa hari setelah kepergiannya, salah satu pemimpin timnya Jan Leike juga mengundurkan diri dan melontarkan kritik pada OpenAI karena membiarkan keselamatan “mengutamakan produk yang berkilau.”

OpenAI kemudian mengumumkan pembentukan komite keselamatan dan keamanan, tetapi komite tersebut sebagian besar diisi oleh orang dalam perusahaan. (*)

Silakan baca konten menarik lainnya dari GenPI.co di Google News

Redaktur: Irwina Istiqomah

BERITA TERPOPULER

BERITA TERKAIT

Copyright © 2024 by GenPI.co