GenPI.co - Bagaimana kamu mengetahui jika suatu sistem kecerdasan buatan (AI) begitu kuat sehingga menimbulkan bahaya keamanan dan tidak boleh dilepaskan tanpa pengawasan yang cermat?
Dilansir AP News, bagi regulator yang mencoba membatasi AI, sebagian besar masalahnya adalah aritmatika.
Secara khusus, model AI yang dilatih pada 10 hingga 26 operasi floating-point sekarang harus dilaporkan ke pemerintah AS dan dapat segera memicu persyaratan yang lebih ketat di California.
Bagaimana? Nah, jika kamu menghitung angka nol, itu berarti 100.000.000.000.000.000.000.000.000.000, atau 100 septiliun, kalkulasi untuk melatih sistem AI pada kumpulan data yang sangat besar.
Apa yang diisyaratkan kepada sejumlah pembuat undang-undang dan pendukung keamanan AI adalah tingkat daya komputasi yang mungkin memungkinkan teknologi AI yang berkembang pesat untuk membuat atau menyebarkan senjata pemusnah massal, atau melakukan serangan siber yang dahsyat.
Mereka yang telah menyusun regulasi semacam itu mengakui bahwa regulasi tersebut merupakan titik awal yang tidak sempurna untuk membedakan sistem AI generatif berkinerja tertinggi saat ini.
Sebagian besar dibuat oleh perusahaan berbasis di California seperti Anthropic, Google, Meta Platforms, dan pembuat ChatGPT OpenAI, dari generasi berikutnya yang mungkin bahkan lebih canggih.
Para kritikus mengecam ambang batas tersebut sebagai sesuatu yang sewenang-wenang, sebuah upaya pemerintah untuk mengatur matematika.
Yang menambah kebingungan adalah bahwa beberapa aturan menetapkan ambang batas komputasi berbasis kecepatan, berapa banyak operasi floating-point per detik, yang dikenal sebagai flop, sementara yang lain didasarkan pada jumlah kumulatif kalkulasi, tidak peduli berapa lama waktu yang dibutuhkan.
"Sepuluh banding 26 kegagalan," kata kapitalis ventura Ben Horowitz dalam sebuah podcast musim panas ini. "Bagaimana jika itu adalah ukuran model yang Anda butuhkan untuk, misalnya, menyembuhkan kanker?"
Perintah eksekutif yang ditandatangani oleh Presiden Joe Biden tahun lalu bergantung pada ambang batas 10 banding 26.
Begitu pula undang-undang keselamatan AI yang baru disahkan California, yang Gubernur Gavin Newsom punya waktu hingga 30 September untuk menandatanganinya menjadi undang-undang atau memvetonya.
California menambahkan metrik kedua ke dalam persamaan: model AI yang diatur juga harus menghabiskan biaya sedikitnya USD 100 juta untuk dibuat.
Peneliti AI masih memperdebatkan cara terbaik untuk mengevaluasi kemampuan teknologi AI generatif terbaru dan bagaimana teknologi tersebut dibandingkan dengan kecerdasan manusia.
Ada beberapa pengujian yang menilai AI berdasarkan kemampuan memecahkan teka-teki, penalaran logis, atau seberapa cepat dan akurat AI memprediksi teks apa yang akan menjawab pertanyaan chatbot seseorang.
Pengukuran tersebut membantu menilai kegunaan alat AI untuk tugas tertentu, tetapi tidak ada cara mudah untuk mengetahui alat mana yang sangat mampu sehingga membahayakan manusia. (*)
Silakan baca konten menarik lainnya dari GenPI.co di Google News