Vào ngày 21 tháng 7 năm 2023, theo thông báo của Nhà Trắng, Tổng thống Hoa Kỳ Joe Biden đã triệu tập bảy công ty trí tuệ nhân tạo hàng đầu tại Nhà Trắng vào ngày 21 tháng 7—Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI, đồng thời thông báo rằng các công ty này đã tự nguyện cam kết giúp hiện thực hóa sự phát triển an toàn, đáng tin cậy và minh bạch của công nghệ trí tuệ nhân tạo. Bài viết này từ trang web chính thức của OpenAI và nội dung chính nhất quán với trang web của Nhà Trắng**. **
toàn văn
Để củng cố sự an toàn, bảo mật và độ tin cậy của công nghệ và dịch vụ trí tuệ nhân tạo, OpenAI và các phòng thí nghiệm trí tuệ nhân tạo hàng đầu khác đã đưa ra các cam kết tự nguyện. **Nỗ lực này, được điều phối chủ yếu bởi Nhà Trắng, là một bước quan trọng trong việc thúc đẩy quản trị AI có ý nghĩa và hiệu quả ở Hoa Kỳ và trên toàn thế giới. **
Để theo đuổi sứ mệnh xây dựng AI an toàn và có lợi, OpenAI sẽ tiếp tục thử nghiệm và tinh chỉnh các phương thức quản trị cụ thể phù hợp với mô hình cơ sở có khả năng sản xuất như OpenAI. Ngoài ra, OpenAI sẽ tiếp tục đầu tư vào các lĩnh vực nghiên cứu giúp cung cấp thông tin về quy định, chẳng hạn như phát triển các công nghệ để đánh giá các nguy cơ tiềm ẩn của các mô hình trí tuệ nhân tạo.
"Các nhà hoạch định chính sách trên toàn thế giới đang xem xét các luật mới nhắm vào các hệ thống AI có khả năng cao. Cam kết của chúng tôi hôm nay đóng góp thực tiễn cụ thể cho các cuộc thảo luận đang diễn ra. Thông báo này là một phần trong sự hợp tác liên tục của OpenAI với các chính phủ, tổ chức xã hội dân sự và những tổ chức khác trên khắp thế giới để thúc đẩy quản trị AI," Anna Makanju, Phó Chủ tịch phụ trách các vấn đề toàn cầu của OpenAI cho biết. *
Cam kết AI tự nguyện
Danh sách các cam kết tự nguyện sau đây ban đầu được Nhà Trắng công bố:
Sau đây là danh sách các cam kết của các công ty nhằm thúc đẩy sự phát triển và ứng dụng công nghệ trí tuệ nhân tạo một cách an toàn, đáng tin cậy và minh bạch. Mỗi công ty sẽ thực hiện các cam kết tự nguyện sau đây cho đến khi các luật, quy định và hệ thống liên quan có hiệu lực và một số công ty có thể thực hiện các cam kết khác ngoài cam kết này.
Phạm vi: Cam kết này đề cập đến các mô hình cụ thể chỉ áp dụng cho các mô hình AI tổng quát mạnh hơn giới hạn ngành hiện tại (ví dụ: các mô hình mạnh hơn bất kỳ mô hình nào hiện được phát hành, bao gồm GPT-4, Claude 2, PaLM 2, Titan và DALL-E 2 để tạo hình ảnh).
Lưu ý: Bảo mật tương ứng với các mối đe dọa có chủ ý (do con người tạo ra) và An toàn tương ứng với các lỗ hổng hoặc hậu quả không mong muốn của chính hệ thống AI; ở đây, An toàn AI tương ứng với an toàn chức năng và Bảo mật AI tương ứng với bảo mật thông tin AI
An toàn (tập trung vào an toàn chức năng)
**1) Cam kết đánh giá lại các mô hình và hệ thống bên trong và bên ngoài liên quan đến việc sử dụng sai mục đích, rủi ro xã hội và các mối lo ngại về an ninh quốc gia (ví dụ: lĩnh vực sinh học, mạng và các lĩnh vực bảo mật khác). **
Các công ty tham gia thực hiện các cam kết này hiểu rằng thử nghiệm mạnh mẽ của đội đỏ là rất quan trọng để tạo ra các sản phẩm hoàn chỉnh, đảm bảo niềm tin của công chúng vào AI và bảo vệ chống lại các mối đe dọa an ninh quốc gia nghiêm trọng. Đánh giá khả năng và độ an toàn của mô hình, bao gồm thử nghiệm nhóm đỏ, là một lĩnh vực khám phá khoa học mở và cần nhiều công việc hơn nữa. Các công ty cam kết tiến hành nghiên cứu trong lĩnh vực này và phát triển các chế độ thử nghiệm nhóm đỏ nhiều mặt, chuyên biệt và chi tiết cho các bản phát hành chính thức ra công chúng của tất cả các mô hình mới trong phạm vi, bao gồm, ở đây, với đầu vào từ các chuyên gia trong lĩnh vực độc lập. Khi thiết kế hệ thống, hãy đảm bảo ưu tiên cao cho:
Rủi ro sinh học, hóa học và phóng xạ, chẳng hạn như cách hệ thống giảm bớt các rào cản đối với việc phát triển, thiết kế, mua hoặc sử dụng vũ khí
Các khả năng an ninh mạng, chẳng hạn như cách hệ thống giúp khám phá, khai thác hoặc vận hành bằng cách sử dụng các lỗ hổng, cần tính đến các khả năng của mô hình, cũng có thể có những cách sử dụng phòng thủ hữu ích và phù hợp để đưa vào hệ thống
Ảnh hưởng của tương tác hệ thống và sử dụng công cụ, bao gồm khả năng kiểm soát các hệ thống vật lý
Khả năng mô hình tự nhân bản hay "tự tái tạo"
Rủi ro xã hội như định kiến và phân biệt đối xử
Để hỗ trợ công việc trên, các công ty tham gia sẽ thúc đẩy nghiên cứu bảo mật AI đang diễn ra, bao gồm khả năng giải thích các quy trình ra quyết định của hệ thống AI và cải thiện tính mạnh mẽ của hệ thống AI chống lạm dụng. Tương tự như vậy, các công ty cam kết tiết lộ công khai thử nghiệm chương trình bảo mật và đội đỏ trong các báo cáo minh bạch.
2) Cam kết chia sẻ thông tin giữa các công ty và chính phủ về các rủi ro về độ tin cậy và an toàn, các mối nguy hiểm hoặc khả năng mới nổi của AI cũng như các nỗ lực phá vỡ các biện pháp bảo vệ
Các công ty tham gia vào cam kết này cần nhận ra tầm quan trọng của việc chia sẻ thông tin, các tiêu chuẩn chung và các phương pháp hay nhất để thử nghiệm đội đỏ cũng như thúc đẩy sự tin cậy và an toàn trong AI. **Bạn cam kết thiết lập hoặc tham gia một diễn đàn hoặc cơ chế để tham gia vào quá trình phát triển, cải tiến và áp dụng các tiêu chuẩn chung cũng như các phương pháp hay nhất về an toàn AI tiên tiến, chẳng hạn như Khung quản lý rủi ro AI của NIST hoặc các tiêu chuẩn trong tương lai liên quan đến thử nghiệm nhóm đỏ, an toàn và rủi ro xã hội. **Một diễn đàn hoặc cơ chế tạo điều kiện thuận lợi cho việc chia sẻ thông tin về những tiến bộ trong năng lực biên giới cũng như các rủi ro và mối đe dọa mới nổi, chẳng hạn như nỗ lực phá vỡ các biện pháp bảo vệ và tạo điều kiện phát triển các nhóm công tác kỹ thuật về các lĩnh vực quan tâm ưu tiên. Trong công việc này, Công ty sẽ hợp tác chặt chẽ với các chính phủ, bao gồm chính phủ Hoa Kỳ, xã hội dân sự và giới học thuật, khi thích hợp.
Security/Network Security (An ninh, tập trung vào bảo mật thông tin)
3) Đầu tư vào các biện pháp bảo vệ an ninh mạng và các biện pháp bảo vệ khỏi mối đe dọa nội bộ để bảo vệ các mô hình độc quyền và chưa được công bố
Các công ty tham gia cam kết cần coi trọng số mô hình AI chưa được công bố của các mô hình trong phạm vi là tài sản trí tuệ cốt lõi cho hoạt động kinh doanh của họ, đặc biệt là liên quan đến an ninh mạng và rủi ro đe dọa nội bộ. Điều này bao gồm việc giới hạn quyền truy cập vào trọng số mô hình chỉ dành cho những người có chức năng công việc yêu cầu chúng và thiết lập một chương trình phát hiện mối đe dọa nội bộ mạnh mẽ phù hợp với việc bảo vệ tài sản trí tuệ và bí mật thương mại có giá trị nhất của bạn. Ngoài ra, trọng số cần được lưu trữ và sử dụng trong một môi trường an toàn thích hợp để giảm nguy cơ phân phối trái phép.
4) Khuyến khích các bên thứ ba khám phá và báo cáo các sự cố và lỗ hổng
Các công ty thực hiện cam kết này nhận ra rằng các hệ thống AI vẫn có thể dễ bị tổn thương ngay cả sau khi "thử nghiệm nhóm đỏ" mạnh mẽ và các công ty cam kết thiết lập tiền thưởng cho các hệ thống trong phạm vi hệ thống tiền thưởng, cuộc thi hoặc giải thưởng để khuyến khích tiết lộ các điểm yếu một cách có trách nhiệm, chẳng hạn như hành vi không an toàn hoặc kết hợp các hệ thống AI vào chương trình tiền thưởng lỗi hiện có của công ty.
Lòng tin
**5) Đối với nội dung âm thanh hoặc video do AI tạo, các cơ chế mới cần được phát triển và triển khai, chủ yếu để cho phép người dùng hiểu liệu nội dung âm thanh hoặc video có phải do AI tạo hay không, bao gồm cả ghi nhận tác giả, hình mờ đáng tin cậy hoặc cả hai. **
Các công ty tham gia vào cam kết này nhận ra tầm quan trọng của việc cho phép mọi người biết liệu nội dung âm thanh hoặc video có được tạo bởi trí tuệ nhân tạo hay không. Để đạt được điều này, các công ty đồng ý phát triển các cơ chế mạnh mẽ, bao gồm cả trong phạm vi mà chúng được giới thiệu, để cung cấp các hệ thống ghi công và/hoặc đánh dấu mờ cho nội dung âm thanh hoặc video được tạo bởi bất kỳ hệ thống công khai nào của họ sau khi quá trình phát triển hoàn tất. Họ cũng sẽ phát triển các công cụ hoặc API để xác định xem một phần nội dung cụ thể có được tạo bởi hệ thống của họ hay không. Nội dung nghe nhìn dễ phân biệt với thực tế hoặc nội dung được thiết kế để dễ nhận biết do hệ thống trí tuệ nhân tạo của công ty tạo ra (chẳng hạn như giọng nói mặc định của trợ lý trí tuệ nhân tạo) không thuộc phạm vi điều chỉnh của cam kết này.
Dữ liệu về hình mờ hoặc thuộc tính phải bao gồm mã định danh của dịch vụ hoặc mô hình đã tạo ra nội dung nhưng không cần bao gồm bất kỳ thông tin nhận dạng người dùng nào. Nói rộng hơn, các công ty thực hiện cam kết này cam kết hợp tác với các đồng nghiệp trong ngành và các cơ quan thiết lập tiêu chuẩn để phát triển khung kỹ thuật giúp người dùng phân biệt giữa nội dung âm thanh hoặc video do người dùng tạo và nội dung âm thanh hoặc video do AI tạo.
**6) Báo cáo công khai về các khả năng, hạn chế và các lĩnh vực sử dụng phù hợp và không phù hợp của một mô hình hoặc hệ thống, bao gồm thảo luận về các rủi ro xã hội như tác động đến sự công bằng và thiên vị. **
Các công ty tham gia cam kết cần thừa nhận rằng người dùng nên nhận thức được các khả năng và hạn chế đã biết của các hệ thống AI mà họ sử dụng hoặc tương tác. Các công ty được yêu cầu xuất bản công khai báo cáo phát hành cho tất cả các mô hình quan trọng mới trong phạm vi. Các báo cáo này phải bao gồm các đánh giá bảo mật được thực hiện (bao gồm cả trong các lĩnh vực như khả năng nguy hiểm, nhưng những đánh giá này phải được tiết lộ công khai), những hạn chế đáng kể về hiệu suất ảnh hưởng đến các lĩnh vực sử dụng thích hợp, thảo luận về tác động của mô hình đối với các rủi ro xã hội như tính công bằng và thiên vị, và kết quả của thử nghiệm đối nghịch được tiến hành để đánh giá tính phù hợp của mô hình để triển khai.
**7) Ưu tiên nghiên cứu về các rủi ro xã hội do hệ thống AI gây ra, bao gồm tránh thành kiến và phân biệt đối xử có hại cũng như bảo vệ quyền riêng tư. **
Các công ty tham gia cam kết cần nhận ra tầm quan trọng của việc ngăn chặn các hệ thống AI truyền bá thành kiến và phân biệt đối xử có hại. Các công ty thường cam kết trao quyền cho các nhóm an toàn và tin tưởng, thúc đẩy nghiên cứu về an toàn AI, thúc đẩy quyền riêng tư, bảo vệ trẻ em và cố gắng chủ động quản lý các rủi ro của AI vì lợi ích cuối cùng.
8) Phát triển và triển khai các hệ thống AI tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội
Các công ty tham gia cam kết sẽ cần phải đồng ý hỗ trợ nghiên cứu và phát triển các hệ thống trí tuệ nhân tạo tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội, chẳng hạn như giảm thiểu và thích ứng với biến đổi khí hậu, phát hiện và ngăn ngừa ung thư sớm cũng như chống lại các mối đe dọa trên mạng. Các công ty cũng cam kết hỗ trợ các sáng kiến nhằm thúc đẩy giáo dục và đào tạo sinh viên và nhân viên để hưởng lợi từ những lợi ích của AI, đồng thời giúp người dân hiểu được bản chất, khả năng, hạn chế và tác động của công nghệ AI.
Tham khảo: Đẩy mạnh quản trị AI về phía trước (openai.com)
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Full Story | Nhà Trắng triệu tập 7 công ty AI để đưa ra cam kết tự nguyện về trí tuệ nhân tạo
Nguồn bài viết: Alpha Rabbit Research Notes
toàn văn
Để củng cố sự an toàn, bảo mật và độ tin cậy của công nghệ và dịch vụ trí tuệ nhân tạo, OpenAI và các phòng thí nghiệm trí tuệ nhân tạo hàng đầu khác đã đưa ra các cam kết tự nguyện. **Nỗ lực này, được điều phối chủ yếu bởi Nhà Trắng, là một bước quan trọng trong việc thúc đẩy quản trị AI có ý nghĩa và hiệu quả ở Hoa Kỳ và trên toàn thế giới. **
Để theo đuổi sứ mệnh xây dựng AI an toàn và có lợi, OpenAI sẽ tiếp tục thử nghiệm và tinh chỉnh các phương thức quản trị cụ thể phù hợp với mô hình cơ sở có khả năng sản xuất như OpenAI. Ngoài ra, OpenAI sẽ tiếp tục đầu tư vào các lĩnh vực nghiên cứu giúp cung cấp thông tin về quy định, chẳng hạn như phát triển các công nghệ để đánh giá các nguy cơ tiềm ẩn của các mô hình trí tuệ nhân tạo.
Cam kết AI tự nguyện
Danh sách các cam kết tự nguyện sau đây ban đầu được Nhà Trắng công bố:
Sau đây là danh sách các cam kết của các công ty nhằm thúc đẩy sự phát triển và ứng dụng công nghệ trí tuệ nhân tạo một cách an toàn, đáng tin cậy và minh bạch. Mỗi công ty sẽ thực hiện các cam kết tự nguyện sau đây cho đến khi các luật, quy định và hệ thống liên quan có hiệu lực và một số công ty có thể thực hiện các cam kết khác ngoài cam kết này.
Phạm vi: Cam kết này đề cập đến các mô hình cụ thể chỉ áp dụng cho các mô hình AI tổng quát mạnh hơn giới hạn ngành hiện tại (ví dụ: các mô hình mạnh hơn bất kỳ mô hình nào hiện được phát hành, bao gồm GPT-4, Claude 2, PaLM 2, Titan và DALL-E 2 để tạo hình ảnh).
Lưu ý: Bảo mật tương ứng với các mối đe dọa có chủ ý (do con người tạo ra) và An toàn tương ứng với các lỗ hổng hoặc hậu quả không mong muốn của chính hệ thống AI; ở đây, An toàn AI tương ứng với an toàn chức năng và Bảo mật AI tương ứng với bảo mật thông tin AI
An toàn (tập trung vào an toàn chức năng)
**1) Cam kết đánh giá lại các mô hình và hệ thống bên trong và bên ngoài liên quan đến việc sử dụng sai mục đích, rủi ro xã hội và các mối lo ngại về an ninh quốc gia (ví dụ: lĩnh vực sinh học, mạng và các lĩnh vực bảo mật khác). **
Các công ty tham gia thực hiện các cam kết này hiểu rằng thử nghiệm mạnh mẽ của đội đỏ là rất quan trọng để tạo ra các sản phẩm hoàn chỉnh, đảm bảo niềm tin của công chúng vào AI và bảo vệ chống lại các mối đe dọa an ninh quốc gia nghiêm trọng. Đánh giá khả năng và độ an toàn của mô hình, bao gồm thử nghiệm nhóm đỏ, là một lĩnh vực khám phá khoa học mở và cần nhiều công việc hơn nữa. Các công ty cam kết tiến hành nghiên cứu trong lĩnh vực này và phát triển các chế độ thử nghiệm nhóm đỏ nhiều mặt, chuyên biệt và chi tiết cho các bản phát hành chính thức ra công chúng của tất cả các mô hình mới trong phạm vi, bao gồm, ở đây, với đầu vào từ các chuyên gia trong lĩnh vực độc lập. Khi thiết kế hệ thống, hãy đảm bảo ưu tiên cao cho:
Để hỗ trợ công việc trên, các công ty tham gia sẽ thúc đẩy nghiên cứu bảo mật AI đang diễn ra, bao gồm khả năng giải thích các quy trình ra quyết định của hệ thống AI và cải thiện tính mạnh mẽ của hệ thống AI chống lạm dụng. Tương tự như vậy, các công ty cam kết tiết lộ công khai thử nghiệm chương trình bảo mật và đội đỏ trong các báo cáo minh bạch.
2) Cam kết chia sẻ thông tin giữa các công ty và chính phủ về các rủi ro về độ tin cậy và an toàn, các mối nguy hiểm hoặc khả năng mới nổi của AI cũng như các nỗ lực phá vỡ các biện pháp bảo vệ
Các công ty tham gia vào cam kết này cần nhận ra tầm quan trọng của việc chia sẻ thông tin, các tiêu chuẩn chung và các phương pháp hay nhất để thử nghiệm đội đỏ cũng như thúc đẩy sự tin cậy và an toàn trong AI. **Bạn cam kết thiết lập hoặc tham gia một diễn đàn hoặc cơ chế để tham gia vào quá trình phát triển, cải tiến và áp dụng các tiêu chuẩn chung cũng như các phương pháp hay nhất về an toàn AI tiên tiến, chẳng hạn như Khung quản lý rủi ro AI của NIST hoặc các tiêu chuẩn trong tương lai liên quan đến thử nghiệm nhóm đỏ, an toàn và rủi ro xã hội. **Một diễn đàn hoặc cơ chế tạo điều kiện thuận lợi cho việc chia sẻ thông tin về những tiến bộ trong năng lực biên giới cũng như các rủi ro và mối đe dọa mới nổi, chẳng hạn như nỗ lực phá vỡ các biện pháp bảo vệ và tạo điều kiện phát triển các nhóm công tác kỹ thuật về các lĩnh vực quan tâm ưu tiên. Trong công việc này, Công ty sẽ hợp tác chặt chẽ với các chính phủ, bao gồm chính phủ Hoa Kỳ, xã hội dân sự và giới học thuật, khi thích hợp.
Security/Network Security (An ninh, tập trung vào bảo mật thông tin)
3) Đầu tư vào các biện pháp bảo vệ an ninh mạng và các biện pháp bảo vệ khỏi mối đe dọa nội bộ để bảo vệ các mô hình độc quyền và chưa được công bố
Các công ty tham gia cam kết cần coi trọng số mô hình AI chưa được công bố của các mô hình trong phạm vi là tài sản trí tuệ cốt lõi cho hoạt động kinh doanh của họ, đặc biệt là liên quan đến an ninh mạng và rủi ro đe dọa nội bộ. Điều này bao gồm việc giới hạn quyền truy cập vào trọng số mô hình chỉ dành cho những người có chức năng công việc yêu cầu chúng và thiết lập một chương trình phát hiện mối đe dọa nội bộ mạnh mẽ phù hợp với việc bảo vệ tài sản trí tuệ và bí mật thương mại có giá trị nhất của bạn. Ngoài ra, trọng số cần được lưu trữ và sử dụng trong một môi trường an toàn thích hợp để giảm nguy cơ phân phối trái phép.
4) Khuyến khích các bên thứ ba khám phá và báo cáo các sự cố và lỗ hổng
Các công ty thực hiện cam kết này nhận ra rằng các hệ thống AI vẫn có thể dễ bị tổn thương ngay cả sau khi "thử nghiệm nhóm đỏ" mạnh mẽ và các công ty cam kết thiết lập tiền thưởng cho các hệ thống trong phạm vi hệ thống tiền thưởng, cuộc thi hoặc giải thưởng để khuyến khích tiết lộ các điểm yếu một cách có trách nhiệm, chẳng hạn như hành vi không an toàn hoặc kết hợp các hệ thống AI vào chương trình tiền thưởng lỗi hiện có của công ty.
Lòng tin
**5) Đối với nội dung âm thanh hoặc video do AI tạo, các cơ chế mới cần được phát triển và triển khai, chủ yếu để cho phép người dùng hiểu liệu nội dung âm thanh hoặc video có phải do AI tạo hay không, bao gồm cả ghi nhận tác giả, hình mờ đáng tin cậy hoặc cả hai. **
Các công ty tham gia vào cam kết này nhận ra tầm quan trọng của việc cho phép mọi người biết liệu nội dung âm thanh hoặc video có được tạo bởi trí tuệ nhân tạo hay không. Để đạt được điều này, các công ty đồng ý phát triển các cơ chế mạnh mẽ, bao gồm cả trong phạm vi mà chúng được giới thiệu, để cung cấp các hệ thống ghi công và/hoặc đánh dấu mờ cho nội dung âm thanh hoặc video được tạo bởi bất kỳ hệ thống công khai nào của họ sau khi quá trình phát triển hoàn tất. Họ cũng sẽ phát triển các công cụ hoặc API để xác định xem một phần nội dung cụ thể có được tạo bởi hệ thống của họ hay không. Nội dung nghe nhìn dễ phân biệt với thực tế hoặc nội dung được thiết kế để dễ nhận biết do hệ thống trí tuệ nhân tạo của công ty tạo ra (chẳng hạn như giọng nói mặc định của trợ lý trí tuệ nhân tạo) không thuộc phạm vi điều chỉnh của cam kết này.
Dữ liệu về hình mờ hoặc thuộc tính phải bao gồm mã định danh của dịch vụ hoặc mô hình đã tạo ra nội dung nhưng không cần bao gồm bất kỳ thông tin nhận dạng người dùng nào. Nói rộng hơn, các công ty thực hiện cam kết này cam kết hợp tác với các đồng nghiệp trong ngành và các cơ quan thiết lập tiêu chuẩn để phát triển khung kỹ thuật giúp người dùng phân biệt giữa nội dung âm thanh hoặc video do người dùng tạo và nội dung âm thanh hoặc video do AI tạo.
**6) Báo cáo công khai về các khả năng, hạn chế và các lĩnh vực sử dụng phù hợp và không phù hợp của một mô hình hoặc hệ thống, bao gồm thảo luận về các rủi ro xã hội như tác động đến sự công bằng và thiên vị. **
Các công ty tham gia cam kết cần thừa nhận rằng người dùng nên nhận thức được các khả năng và hạn chế đã biết của các hệ thống AI mà họ sử dụng hoặc tương tác. Các công ty được yêu cầu xuất bản công khai báo cáo phát hành cho tất cả các mô hình quan trọng mới trong phạm vi. Các báo cáo này phải bao gồm các đánh giá bảo mật được thực hiện (bao gồm cả trong các lĩnh vực như khả năng nguy hiểm, nhưng những đánh giá này phải được tiết lộ công khai), những hạn chế đáng kể về hiệu suất ảnh hưởng đến các lĩnh vực sử dụng thích hợp, thảo luận về tác động của mô hình đối với các rủi ro xã hội như tính công bằng và thiên vị, và kết quả của thử nghiệm đối nghịch được tiến hành để đánh giá tính phù hợp của mô hình để triển khai.
**7) Ưu tiên nghiên cứu về các rủi ro xã hội do hệ thống AI gây ra, bao gồm tránh thành kiến và phân biệt đối xử có hại cũng như bảo vệ quyền riêng tư. **
Các công ty tham gia cam kết cần nhận ra tầm quan trọng của việc ngăn chặn các hệ thống AI truyền bá thành kiến và phân biệt đối xử có hại. Các công ty thường cam kết trao quyền cho các nhóm an toàn và tin tưởng, thúc đẩy nghiên cứu về an toàn AI, thúc đẩy quyền riêng tư, bảo vệ trẻ em và cố gắng chủ động quản lý các rủi ro của AI vì lợi ích cuối cùng.
8) Phát triển và triển khai các hệ thống AI tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội
Các công ty tham gia cam kết sẽ cần phải đồng ý hỗ trợ nghiên cứu và phát triển các hệ thống trí tuệ nhân tạo tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội, chẳng hạn như giảm thiểu và thích ứng với biến đổi khí hậu, phát hiện và ngăn ngừa ung thư sớm cũng như chống lại các mối đe dọa trên mạng. Các công ty cũng cam kết hỗ trợ các sáng kiến nhằm thúc đẩy giáo dục và đào tạo sinh viên và nhân viên để hưởng lợi từ những lợi ích của AI, đồng thời giúp người dân hiểu được bản chất, khả năng, hạn chế và tác động của công nghệ AI.
Tham khảo: Đẩy mạnh quản trị AI về phía trước (openai.com)