Full Story | Gedung Putih mengumpulkan 7 perusahaan AI untuk mengeluarkan komitmen sukarela terhadap kecerdasan buatan

Sumber artikel: Catatan Penelitian Kelinci Alfa

Pada tanggal 21 Juli 2023, menurut pengumuman Gedung Putih, Presiden AS Joe Biden mengadakan pertemuan dengan tujuh perusahaan kecerdasan buatan terkemuka di Gedung Putih pada tanggal 21 Juli—Amazon, Anthropic, Google, Inflection, Meta, Microsoft, dan OpenAI, dan mengumumkan bahwa perusahaan-perusahaan ini secara sukarela berkomitmen untuk membantu mewujudkan pengembangan teknologi kecerdasan buatan yang aman, andal, dan transparan. Artikel ini berasal dari situs web resmi OpenAI, dan konten utamanya konsisten dengan situs web Gedung Putih**. **

teks lengkap

Untuk memperkuat keselamatan, keamanan, dan kredibilitas teknologi dan layanan kecerdasan buatan, OpenAI dan laboratorium kecerdasan buatan terkemuka lainnya telah membuat komitmen sukarela. **Upaya ini, yang terutama dikoordinasikan oleh Gedung Putih, merupakan langkah penting dalam memajukan tata kelola AI yang bermakna dan efektif di Amerika Serikat dan di seluruh dunia. **

Dalam mengejar misinya untuk membangun AI yang aman dan bermanfaat, OpenAI akan terus menguji coba dan menyempurnakan praktik tata kelola khusus yang disesuaikan untuk model dasar berkemampuan produksi seperti OpenAI. Selain itu, OpenAI akan terus berinvestasi di bidang penelitian yang membantu menginformasikan regulasi, seperti mengembangkan teknologi untuk menilai potensi bahaya dari model kecerdasan buatan.

  • "Pembuat kebijakan di seluruh dunia sedang mempertimbangkan undang-undang baru yang menargetkan sistem AI berkemampuan tinggi. Komitmen kami hari ini berkontribusi pada praktik nyata untuk diskusi yang sedang berlangsung. Pengumuman ini adalah bagian dari kolaborasi berkelanjutan OpenAI dengan pemerintah, organisasi masyarakat sipil, dan lainnya di seluruh dunia untuk memajukan tata kelola AI." kata Anna Makanju, Wakil Presiden Urusan Global di OpenAI. *

Komitmen AI Sukarela

Daftar komitmen sukarela berikut awalnya dirilis oleh Gedung Putih:

Berikut ini adalah daftar komitmen yang dibuat oleh perusahaan untuk mempromosikan pengembangan dan penerapan teknologi kecerdasan buatan yang aman, andal, dan transparan Komitmen berikut konsisten dengan undang-undang dan peraturan yang ada, dan dirancang untuk mempromosikan kesehatan sistem hukum dan kebijakan kecerdasan buatan. Setiap perusahaan akan memenuhi komitmen sukarela berikut sampai undang-undang, peraturan dan sistem yang relevan mulai berlaku, dan beberapa perusahaan dapat membuat komitmen lain di luar komitmen ini.

Cakupan: Model spesifik yang disebutkan dalam komitmen ini hanya berlaku untuk model AI generatif yang lebih andal daripada batasan industri saat ini (misalnya, model yang lebih andal daripada model yang dirilis saat ini, termasuk GPT-4, Claude 2, PaLM 2, Titan, dan DALL-E 2 untuk pembuatan gambar).

Catatan: Keamanan terkait dengan ancaman yang disengaja (buatan manusia), dan Keamanan terkait dengan kerentanan atau konsekuensi tak terduga dari sistem AI itu sendiri; di sini, Keamanan AI terkait dengan keamanan fungsional, dan Keamanan AI terkait dengan keamanan informasi AI

Keselamatan (fokus pada keamanan fungsional)

**1) Komitmen untuk mengevaluasi kembali model dan sistem secara internal dan eksternal sehubungan dengan penyalahgunaan, risiko sosial, dan masalah keamanan nasional (misalnya domain keamanan biologis, dunia maya, dan lainnya). **

Perusahaan yang terlibat dalam membuat komitmen ini memahami bahwa pengujian tim merah yang kuat sangat penting untuk membangun produk jadi, memastikan kepercayaan publik terhadap AI, dan melindungi dari ancaman keamanan nasional yang signifikan. Penilaian keselamatan dan kemampuan model, termasuk pengujian tim merah, adalah area terbuka untuk eksplorasi ilmiah dan diperlukan lebih banyak pekerjaan. Perusahaan berkomitmen untuk memajukan penelitian di bidang ini dan untuk mengembangkan rezim pengujian tim merah yang beragam, terspesialisasi, dan terperinci untuk rilis publik utama dari semua model baru dalam ruang lingkup, termasuk, di sini, dengan masukan dari pakar domain independen. Saat mendesain sistem, pastikan bahwa prioritas tinggi diberikan kepada:

  • Risiko biologis, kimiawi, dan radiologis, seperti bagaimana sistem mengurangi hambatan masuk untuk pengembangan, desain, akuisisi, atau penggunaan senjata
  • Kemampuan keamanan siber, seperti cara sistem membantu menemukan, mengeksploitasi, atau beroperasi menggunakan kerentanan, perlu mempertimbangkan kemampuan model, mungkin juga memiliki kegunaan defensif yang berguna, dan cocok untuk disertakan dalam sistem
  • Pengaruh interaksi sistem dan penggunaan alat, termasuk kemampuan untuk mengontrol sistem fisik
  • Kemampuan model untuk mereplikasi dirinya sendiri atau "self-replicate"
  • Risiko sosial seperti prasangka dan diskriminasi

Untuk mendukung pekerjaan di atas, perusahaan yang berpartisipasi akan memajukan penelitian keamanan AI yang sedang berlangsung, termasuk proses pengambilan keputusan sistem AI yang dapat dijelaskan dan peningkatan ketahanan sistem AI terhadap penyalahgunaan. Demikian pula, perusahaan berkomitmen untuk mengungkapkan tim merah dan pengujian program keamanan secara publik dalam laporan transparansi.

2) Berkomitmen untuk berbagi informasi antara perusahaan dan pemerintah tentang kepercayaan dan risiko keselamatan, bahaya atau kemampuan AI yang muncul, dan upaya untuk menghindari perlindungan

Perusahaan yang berpartisipasi dalam komitmen ini perlu menyadari pentingnya berbagi informasi, standar umum, dan praktik terbaik untuk pengujian tim merah serta mempromosikan kepercayaan dan keamanan dalam AI. **Anda berkomitmen untuk membuat atau bergabung dengan forum atau mekanisme untuk berpartisipasi dalam pengembangan, peningkatan, dan penerapan standar bersama dan praktik terbaik tentang keamanan AI mutakhir, seperti Kerangka Kerja Manajemen Risiko NIST AI atau standar masa depan yang terkait dengan pengujian tim merah, keselamatan, dan risiko sosial. **Sebuah forum atau mekanisme yang memfasilitasi pembagian informasi tentang kemajuan kemampuan frontier dan risiko dan ancaman yang muncul, seperti upaya untuk mengakali pengamanan, dan memfasilitasi pengembangan kelompok kerja teknis di bidang prioritas yang menjadi perhatian. Dalam pekerjaan ini, Perusahaan akan bekerja sama dengan pemerintah, termasuk pemerintah A.S., masyarakat sipil, dan akademisi, sebagaimana mestinya.

Keamanan/Keamanan Jaringan (Keamanan, fokus pada keamanan informasi)

3) Berinvestasi dalam pertahanan keamanan siber dan perlindungan ancaman orang dalam untuk melindungi model berpemilik dan tidak dipublikasikan

Perusahaan yang berpartisipasi dalam komitmen perlu mempertimbangkan bobot model AI yang tidak dipublikasikan dari model dalam ruang lingkup sebagai kekayaan intelektual inti untuk bisnis mereka, terutama yang berkaitan dengan keamanan siber dan risiko ancaman orang dalam. Ini termasuk membatasi akses ke bobot model hanya untuk mereka yang fungsi pekerjaannya memerlukannya, dan membuat program deteksi ancaman orang dalam yang kuat yang konsisten dengan melindungi kekayaan intelektual dan rahasia dagang Anda yang paling berharga. Selain itu, bobot harus disimpan dan digunakan di lingkungan aman yang sesuai untuk mengurangi risiko distribusi yang tidak sah.

4) Mendorong pihak ketiga untuk menemukan dan melaporkan masalah dan kerentanan

Perusahaan yang membuat komitmen ini mengakui bahwa sistem AI mungkin masih rentan bahkan setelah "pengujian tim merah" yang kuat, dan perusahaan berkomitmen untuk menetapkan hadiah untuk sistem dalam lingkup sistem hadiah, kontes, atau hadiah untuk mendorong pengungkapan kelemahan yang bertanggung jawab, seperti perilaku tidak aman, atau untuk memasukkan sistem AI ke dalam program hadiah bug perusahaan yang ada.

Memercayai

**5) Untuk konten audio atau video yang dihasilkan oleh AI, mekanisme baru perlu dikembangkan dan diterapkan, terutama untuk memungkinkan pengguna memahami apakah konten audio atau video tersebut dihasilkan oleh AI, termasuk atribusi yang andal, watermarking, atau keduanya. **

Perusahaan yang terlibat dalam komitmen ini mengakui pentingnya memungkinkan orang mengetahui apakah konten audio atau video dihasilkan oleh kecerdasan buatan. Untuk mencapai hal ini, perusahaan setuju untuk mengembangkan mekanisme yang kuat, termasuk sejauh diperkenalkan, untuk menyediakan sistem atribusi dan/atau watermarking untuk konten audio atau video yang dibuat oleh salah satu sistem mereka yang tersedia untuk umum setelah pengembangannya selesai. Mereka juga akan mengembangkan alat atau API untuk menentukan apakah suatu konten tertentu dibuat oleh sistem mereka. Konten audiovisual yang mudah dibedakan dari kenyataan, atau yang dirancang agar mudah dikenali seperti yang dihasilkan oleh sistem kecerdasan buatan perusahaan (seperti suara default asisten kecerdasan buatan) tidak tercakup dalam komitmen ini.

Data watermark atau atribusi harus menyertakan pengidentifikasi layanan atau model yang membuat konten, tetapi tidak perlu menyertakan informasi yang dapat diidentifikasi pengguna. Secara lebih luas, perusahaan yang membuat ikrar ini berjanji untuk bekerja sama dengan rekan industri dan badan pembuat standar untuk mengembangkan kerangka kerja teknis yang akan membantu pengguna membedakan antara konten audio atau video buatan pengguna dan konten audio atau video buatan AI.

**6) Melaporkan kepada publik tentang kemampuan, keterbatasan, dan area penggunaan model atau sistem yang tepat dan tidak tepat, termasuk diskusi tentang risiko sosial seperti dampak terhadap keadilan dan bias. **

Perusahaan yang berpartisipasi dalam ikrar tersebut perlu mengakui bahwa pengguna harus mengetahui kemampuan dan batasan yang diketahui dari sistem AI yang mereka gunakan atau berinteraksi dengannya. Perusahaan diharuskan untuk mempublikasikan laporan rilis untuk semua model signifikan baru dalam cakupan. Laporan ini harus mencakup penilaian keamanan yang dilakukan (termasuk di area seperti kemampuan berbahaya, tetapi penilaian ini tunduk pada pengungkapan publik), batasan signifikan dalam kinerja yang memengaruhi area penggunaan yang sesuai, diskusi tentang dampak model terhadap risiko sosial seperti keadilan dan bias, dan hasil pengujian permusuhan yang dilakukan untuk menilai kesesuaian model untuk diterapkan.

**7) Prioritaskan penelitian tentang risiko sosial yang ditimbulkan oleh sistem AI, termasuk menghindari bias dan diskriminasi yang berbahaya, dan melindungi privasi. **

Perusahaan yang berpartisipasi dalam ikrar tersebut perlu menyadari pentingnya mencegah sistem AI menyebarkan bias dan diskriminasi yang berbahaya. Perusahaan pada umumnya berkomitmen untuk memberdayakan tim kepercayaan dan keamanan, memajukan penelitian keamanan AI, mempromosikan privasi, melindungi anak-anak, dan berusaha secara proaktif mengelola risiko AI untuk keuntungan tertinggi.

8) Kembangkan dan terapkan sistem AI mutakhir untuk membantu mengatasi tantangan terbesar masyarakat

Perusahaan yang berpartisipasi dalam ikrar tersebut harus setuju untuk mendukung penelitian dan pengembangan sistem kecerdasan buatan mutakhir untuk membantu mengatasi tantangan terbesar masyarakat, seperti mitigasi dan adaptasi perubahan iklim, deteksi dan pencegahan kanker dini, dan memerangi ancaman dunia maya. Perusahaan juga berjanji untuk mendukung inisiatif untuk memajukan pendidikan dan pelatihan siswa dan staf untuk mendapatkan manfaat dari manfaat AI, dan untuk membantu warga memahami sifat, kemampuan, keterbatasan, dan dampak teknologi AI.

Referensi: Memajukan tata kelola AI (openai.com)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)