Các công ty AI đã hứa sẽ tự điều chỉnh một năm trước bây giờ ra sao?

  • Người khởi tạo Người khởi tạo kieutrongtu
  • Ngày bắt đầu Ngày bắt đầu

cac-cong-ty-ai-da-hua-se-tu-dieu-chinh-mot-nam-truoc-bay-gio-ra-sao


Những cam kết tự nguyện về AI của Nhà Trắng đã mang lại các phương pháp kiểm tra bảo mật tốt hơn và dấu hiệu nhận diện (watermarks), nhưng không có sự minh bạch hoặc trách nhiệm đáng kể nào.

Một năm trước, vào ngày 21 tháng 7 năm 2023, bảy công ty AI hàng đầu—Amazon, Anthropic, Google, Inflection, Meta, Microsoft và OpenAI—đã cam kết với Nhà Trắng về tám cam kết tự nguyện liên quan đến cách phát triển AI một cách an toàn và đáng tin cậy.

Những cam kết này bao gồm việc cải thiện việc kiểm tra và minh bạch xung quanh các hệ thống AI, và chia sẻ thông tin về những tác hại và rủi ro tiềm tàng.

Vào kỷ niệm một năm của các cam kết tự nguyện này, MIT Technology Review đã hỏi các công ty AI đã ký cam kết về chi tiết công việc của họ cho đến nay. Các câu trả lời của họ cho thấy ngành công nghệ đã có một số tiến bộ đáng hoan nghênh, dù vẫn còn nhiều hạn chế lớn.

Các cam kết tự nguyện được đưa ra vào thời điểm khi cơn sốt AI tạo sinh đang ở đỉnh cao, với các công ty đang chạy đua để ra mắt các mô hình của riêng họ và làm cho chúng lớn hơn và tốt hơn so với đối thủ cạnh tranh. Đồng thời, chúng ta bắt đầu thấy các phát triển như tranh chấp về bản quyền và deepfake. Một nhóm các nhân vật có ảnh hưởng trong ngành công nghệ, chẳng hạn như Geoffrey Hinton, cũng đã bày tỏ lo ngại rằng AI có thể gây ra nguy cơ tồn tại cho nhân loại. Đột nhiên, mọi người đều nói về sự cần thiết khẩn cấp phải làm cho AI trở nên an toàn, và các nhà quản lý ở khắp mọi nơi đang chịu áp lực phải làm điều gì đó về vấn đề này.

Cho đến rất gần đây, việc phát triển AI vẫn còn như miền Tây hoang dã. Truyền thống, Hoa Kỳ đã miễn cưỡng điều chỉnh các tập đoàn công nghệ lớn của mình, thay vào đó dựa vào họ để tự điều chỉnh. Các cam kết tự nguyện là một ví dụ điển hình: chúng là một trong những quy tắc quy định đầu tiên cho ngành AI ở Hoa Kỳ, nhưng chúng vẫn tự nguyện và không thể thi hành. Nhà Trắng kể từ đó đã ban hành một sắc lệnh hành pháp, mở rộng các cam kết và áp dụng cho các công ty công nghệ khác và các cơ quan chính phủ.

"Một năm sau, chúng tôi thấy một số thực hành tốt đối với sản phẩm của họ, nhưng [họ] còn rất xa so với những gì chúng tôi cần về quản trị tốt hay bảo vệ quyền rộng rãi," Merve Hickok, chủ tịch và giám đốc nghiên cứu của Trung tâm Chính sách AI và Kỹ thuật số, người đã xem xét các phản hồi của các công ty theo yêu cầu của MIT Technology Review, cho biết. Nhiều công ty này tiếp tục đưa ra những tuyên bố không có căn cứ về sản phẩm của họ, chẳng hạn như nói rằng chúng có thể vượt qua trí thông minh và khả năng của con người, Hickok cho biết thêm.

Một xu hướng nổi lên từ các câu trả lời của các công ty công nghệ là các công ty đang làm nhiều hơn để theo đuổi các giải pháp kỹ thuật như red-teaming (trong đó con người dò tìm các mô hình AI để phát hiện lỗi) và dấu nước cho nội dung do AI tạo ra.

Nhưng không rõ các cam kết đã thay đổi điều gì và liệu các công ty có thực hiện các biện pháp này nếu không có các cam kết hay không, Rishi Bommasani, lãnh đạo xã hội tại Trung tâm Nghiên cứu về Các mô hình nền tảng của Stanford, người cũng đã xem xét các phản hồi cho MIT Technology Review, cho biết.

Một năm là khoảng thời gian dài trong lĩnh vực AI. Kể từ khi các cam kết tự nguyện được ký kết, người sáng lập Inflection AI, Mustafa Suleyman, đã rời công ty và gia nhập Microsoft để dẫn đầu các nỗ lực AI của công ty. Inflection từ chối bình luận.

“Chúng tôi biết ơn về những tiến bộ mà các công ty hàng đầu đã đạt được trong việc thực hiện các cam kết tự nguyện của họ ngoài những gì được yêu cầu bởi sắc lệnh hành pháp,” Robyn Patterson, phát ngôn viên của Nhà Trắng, cho biết. Nhưng, Patterson nói thêm, tổng thống vẫn tiếp tục kêu gọi Quốc hội thông qua luật lưỡng đảng về AI.

Không có luật liên bang toàn diện, điều tốt nhất mà Hoa Kỳ có thể làm ngay bây giờ là yêu cầu các công ty thực hiện các cam kết tự nguyện này, Brandie Nonnecke, giám đốc Phòng thí nghiệm Chính sách CITRIS tại UC Berkeley, cho biết.

Nhưng cần lưu ý rằng "đây vẫn là những công ty về cơ bản tự viết bài kiểm tra mà họ được đánh giá," Nonnecke nói. "Vì vậy, chúng ta phải suy nghĩ cẩn thận về việc liệu họ có đang tự đánh giá mình một cách thực sự nghiêm ngặt hay không."

Đây là đánh giá của chúng tôi về tiến bộ mà các công ty AI đã đạt được trong năm qua.

Cam kết 1​


Các công ty cam kết thử nghiệm bảo mật nội bộ và bên ngoài cho các hệ thống AI của họ trước khi phát hành. Thử nghiệm này, một phần sẽ được thực hiện bởi các chuyên gia độc lập, bảo vệ chống lại một số nguồn rủi ro AI quan trọng nhất, chẳng hạn như an ninh sinh học và an ninh mạng, cũng như các tác động xã hội rộng lớn hơn của nó.

Tất cả các công ty (ngoại trừ Inflection, công ty đã chọn không bình luận) cho biết họ thực hiện các bài kiểm tra "red-teaming" bao gồm cả người thử nghiệm nội bộ và bên ngoài để tìm ra các lỗ hổng và rủi ro trong mô hình của họ. OpenAI cho biết họ có một đội chuẩn bị riêng biệt để kiểm tra các mô hình đối với các mối đe dọa về an ninh mạng, hóa học, sinh học, phóng xạ và hạt nhân và đối với các tình huống mà mô hình AI phức tạp có thể làm hoặc thuyết phục một người làm những điều có thể dẫn đến thiệt hại.

Anthropic và OpenAI cũng cho biết họ tiến hành các bài kiểm tra này với các chuyên gia bên ngoài trước khi ra mắt các mô hình mới của mình. Ví dụ, khi ra mắt mô hình mới nhất của Anthropic, Claude 3.5, công ty đã tiến hành thử nghiệm trước triển khai với các chuyên gia tại Viện An toàn AI của Vương quốc Anh. Anthropic cũng đã cho phép METR, một tổ chức nghiên cứu phi lợi nhuận, thực hiện một “khám phá ban đầu” về khả năng tự động hóa của Claude 3.5.

Google cho biết họ cũng thực hiện các bài kiểm tra "red-teaming" nội bộ để kiểm tra giới hạn của mô hình Gemini xung quanh nội dung liên quan đến bầu cử, rủi ro xã hội và các mối quan tâm an ninh quốc gia. Microsoft cho biết họ đã làm việc với các nhà đánh giá bên thứ ba tại NewsGuard, một tổ chức thúc đẩy tính toàn vẹn của báo chí, để đánh giá rủi ro và giảm thiểu rủi ro của deepfakes lạm dụng trong công cụ văn bản thành hình ảnh của Microsoft.

Ngoài các bài kiểm tra "red-teaming", Meta cho biết, họ đã đánh giá mô hình mới nhất của mình, Llama 3, để hiểu hiệu suất của nó trong một loạt các khu vực rủi ro như vũ khí, tấn công mạng và khai thác trẻ em.

Nhưng khi nói đến thử nghiệm, chỉ báo cáo rằng một công ty đang thực hiện hành động là không đủ, Bommasani nói. Ví dụ, Amazon và Anthropic cho biết họ đã làm việc với tổ chức phi lợi nhuận Thorn để chống lại các rủi ro đối với an toàn trẻ em do AI gây ra. Bommasani muốn thấy thêm chi tiết về cách các can thiệp mà các công ty đang thực hiện thực sự giảm thiểu những rủi ro đó.

“Chúng ta cần thấy rõ rằng không chỉ các công ty đang làm gì đó mà những hành động đó đang có hiệu quả mong muốn,” Bommasani nói.

KẾT QUẢ: Tốt. Sự thúc đẩy việc kiểm tra và thử nghiệm trên một loạt các rủi ro là một điều tốt và quan trọng. Tuy nhiên, Hickok muốn các nhà nghiên cứu độc lập có quyền truy cập rộng hơn vào các mô hình của các công ty.

Cam kết 2​


Các công ty cam kết chia sẻ thông tin trong toàn ngành và với chính phủ, xã hội dân sự và học viện về quản lý rủi ro AI. Điều này bao gồm các thực tiễn tốt nhất về an toàn, thông tin về các nỗ lực lách các biện pháp bảo vệ và hợp tác kỹ thuật.

Sau khi ký các cam kết, Anthropic, Google, Microsoft và OpenAI đã thành lập Diễn đàn Mô hình Biên giới (Frontier Model Forum), một tổ chức phi lợi nhuận nhằm tạo điều kiện cho các cuộc thảo luận và hành động về an toàn và trách nhiệm AI. Amazon và Meta cũng đã tham gia.

Việc tham gia với các tổ chức phi lợi nhuận do chính các công ty AI tài trợ có thể không phù hợp với tinh thần của các cam kết tự nguyện, Bommasani nói. Nhưng Diễn đàn Mô hình Biên giới có thể là cách để các công ty này hợp tác với nhau và truyền đạt thông tin về an toàn, điều mà họ thường không thể làm được khi là đối thủ cạnh tranh, ông bổ sung.

"Ngay cả khi họ không minh bạch với công chúng, điều bạn có thể mong muốn là họ ít nhất cùng nhau tìm ra các biện pháp giảm thiểu rủi ro," Bommasani nói.

Tất cả bảy bên ký kết cũng là thành viên của Hiệp hội An toàn Trí tuệ Nhân tạo (AISIC), được thành lập bởi Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST), cơ quan phát triển hướng dẫn và tiêu chuẩn cho chính sách AI và đánh giá hiệu suất AI. Đây là một hiệp hội lớn bao gồm sự tham gia của cả khu vực công và tư. Google, Microsoft và OpenAI cũng có đại diện tại Cơ quan Tư vấn Cấp cao của Liên Hợp Quốc về Trí tuệ Nhân tạo.

Nhiều phòng thí nghiệm cũng nhấn mạnh sự hợp tác nghiên cứu của họ với các học giả. Ví dụ, Google là thành viên của MLCommons, nơi họ làm việc với các học giả để xây dựng một tiêu chuẩn an toàn AI xuyên ngành. Google cũng nói rằng họ đang tích cực đóng góp các công cụ và tài nguyên, chẳng hạn như tín dụng máy tính, cho các dự án như Chương trình Thí điểm Tài nguyên Nghiên cứu AI Quốc gia của Quỹ Khoa học Quốc gia, nhằm mục đích dân chủ hóa nghiên cứu AI tại Mỹ.

Nhiều công ty cũng đã đóng góp vào hướng dẫn của Partnership on AI, một tổ chức phi lợi nhuận khác được thành lập bởi Amazon, Facebook, Google, DeepMind, Microsoft và IBM, về việc triển khai các mô hình nền tảng.

KẾT QUẢ: Cần phải làm nhiều hơn nữa. Việc chia sẻ thông tin nhiều hơn là một bước tiến đáng hoan nghênh khi ngành công nghiệp cố gắng cùng nhau làm cho các hệ thống AI an toàn và đáng tin cậy. Tuy nhiên, không rõ bao nhiêu nỗ lực được quảng cáo sẽ thực sự dẫn đến những thay đổi đáng kể và bao nhiêu chỉ là trang trí bề ngoài.

Cam kết 3​


Các công ty cam kết đầu tư vào an ninh mạng và các biện pháp bảo vệ trước mối đe dọa từ bên trong để bảo vệ các trọng số mô hình độc quyền và chưa phát hành. Những trọng số mô hình này là phần thiết yếu nhất của hệ thống AI, và các công ty đồng ý rằng việc phát hành trọng số mô hình chỉ nên thực hiện khi có mục đích và khi các rủi ro bảo mật được xem xét.

Nhiều công ty đã triển khai các biện pháp an ninh mạng mới trong năm qua. Ví dụ, Microsoft đã khởi động Sáng kiến Tương lai An toàn để đối phó với quy mô ngày càng gia tăng của các cuộc tấn công mạng. Công ty cho biết trọng số mô hình của họ được mã hóa để giảm thiểu nguy cơ tiềm tàng của việc đánh cắp mô hình, và áp dụng các kiểm soát danh tính và truy cập nghiêm ngặt khi triển khai các mô hình độc quyền có khả năng cao.

Google cũng đã khởi động Sáng kiến Phòng thủ AI. Vào tháng 5, OpenAI đã chia sẻ sáu biện pháp mới mà họ đang phát triển để bổ sung cho các thực tiễn an ninh mạng hiện tại của mình, chẳng hạn như mở rộng bảo vệ mã hóa cho phần cứng AI. Họ cũng có Chương trình Tài trợ An ninh mạng, giúp các nhà nghiên cứu tiếp cận các mô hình của họ để xây dựng các biện pháp phòng thủ mạng.

Amazon cho biết họ đã thực hiện các biện pháp cụ thể chống lại các cuộc tấn công đặc biệt nhằm vào trí tuệ nhân tạo sinh sinh, chẳng hạn như đầu độc dữ liệu và tiêm chích lệnh, trong đó ai đó sử dụng các lệnh hướng dẫn mô hình ngôn ngữ bỏ qua các hướng dẫn và biện pháp bảo vệ an toàn trước đó của nó.

Chỉ vài ngày sau khi ký cam kết, Anthropic đã công bố chi tiết về các biện pháp bảo vệ của mình, bao gồm các thực tiễn bảo mật mạng thông thường như kiểm soát ai có quyền truy cập vào các mô hình và tài sản nhạy cảm như trọng số của mô hình, và kiểm tra và kiểm soát chuỗi cung ứng bên thứ ba. Công ty cũng làm việc với các đánh giá viên độc lập để đánh giá xem các biện pháp kiểm soát mà họ thiết kế có đáp ứng nhu cầu bảo mật mạng của họ hay không.

KẾT QUẢ: Tốt. Tất cả các công ty đều nói rằng họ đã thực hiện các biện pháp bổ sung để bảo vệ các mô hình của mình, mặc dù dường như chưa có sự đồng thuận nhiều về cách tốt nhất để bảo vệ các mô hình trí tuệ nhân tạo.

Cam kết 4​


Các công ty cam kết tạo điều kiện cho việc phát hiện và báo cáo các lỗ hổng trong hệ thống AI của họ bởi các bên thứ ba. Một số vấn đề có thể tồn tại ngay cả sau khi hệ thống AI được phát hành, và một cơ chế báo cáo mạnh mẽ giúp phát hiện và sửa chữa chúng nhanh chóng.

Đối với cam kết này, một trong những phản hồi phổ biến nhất là triển khai các chương trình thưởng lỗi, trong đó khen thưởng những người phát hiện ra các lỗi trong hệ thống AI. Anthropic, Google, Microsoft, Meta và OpenAI đều có chương trình như vậy cho các hệ thống AI của họ. Anthropic và Amazon cũng cho biết họ có các biểu mẫu trên trang web của mình để các nhà nghiên cứu bảo mật có thể gửi báo cáo về các lỗ hổng.

Brandie Nonnecke cho biết: “Có lẽ chúng ta sẽ mất nhiều năm để tìm ra cách thực hiện kiểm toán bên thứ ba một cách hiệu quả. Đây không chỉ là một thách thức kỹ thuật. Đây là một thách thức xã hội-kỹ thuật. Và chúng ta phải mất nhiều năm để tìm ra không chỉ các tiêu chuẩn kỹ thuật của AI, mà còn cả các tiêu chuẩn xã hội-kỹ thuật, và điều đó rất phức tạp và khó khăn.”

Nonnecke lo ngại rằng những công ty đầu tiên thực hiện kiểm toán bên thứ ba có thể tạo ra những tiền lệ không tốt về cách suy nghĩ và giải quyết các rủi ro xã hội-kỹ thuật của AI. Ví dụ, các cuộc kiểm toán có thể xác định, đánh giá và giải quyết một số rủi ro nhưng bỏ qua những rủi ro khác.

KẾT QUẢ: Cần thêm nhiều công việc hơn nữa. Các chương trình thưởng lỗi (bug bounties) rất tốt, nhưng vẫn chưa đủ toàn diện. Các luật mới, chẳng hạn như Đạo luật AI của EU, sẽ yêu cầu các công ty công nghệ thực hiện kiểm toán, và sẽ rất tốt nếu thấy các công ty công nghệ chia sẻ các ví dụ thành công về các cuộc kiểm toán này.

Cam kết 5​


Các công ty cam kết phát triển các cơ chế kỹ thuật mạnh mẽ để đảm bảo rằng người dùng biết khi nào nội dung được tạo ra bởi AI, chẳng hạn như hệ thống đánh dấu bản quyền (watermarking). Hành động này cho phép sự sáng tạo với AI phát triển nhưng giảm thiểu nguy cơ gian lận và lừa đảo.

Nhiều công ty đã xây dựng hệ thống đánh dấu bản quyền cho nội dung do AI tạo ra. Ví dụ, Google đã ra mắt SynthID, một công cụ đánh dấu bản quyền cho hình ảnh, âm thanh, văn bản và video do Gemini tạo ra. Meta có công cụ gọi là Stable Signature cho hình ảnh và AudioSeal cho lời nói do AI tạo ra. Amazon hiện thêm một dấu vết vô hình vào tất cả các hình ảnh do trình tạo hình ảnh Titan của mình tạo ra. OpenAI cũng sử dụng hệ thống đánh dấu bản quyền trong Voice Engine, mô hình giọng nói tùy chỉnh của mình, và đã xây dựng một bộ phân loại phát hiện hình ảnh cho hình ảnh do DALL-E 3 tạo ra. Anthropic là công ty duy nhất chưa xây dựng công cụ đánh dấu bản quyền, vì các dấu vết chủ yếu được sử dụng trong hình ảnh, mà mô hình Claude của công ty không hỗ trợ.

Tất cả các công ty, ngoại trừ Inflection, Anthropic và Meta, đều là một phần của Liên minh về Nguồn gốc và Tính xác thực Nội dung (C2PA), một liên minh ngành công nghiệp nhúng thông tin về thời điểm nội dung được tạo ra và liệu nó có được tạo ra hoặc chỉnh sửa bởi AI vào siêu dữ liệu của hình ảnh. Microsoft và OpenAI tự động gắn siêu dữ liệu nguồn gốc của C2PA vào các hình ảnh được tạo ra bằng DALL-E 3 và video được tạo ra bằng Sora. Trong khi Meta không phải là thành viên, công ty này đã công bố rằng họ đang sử dụng tiêu chuẩn C2PA để xác định các hình ảnh được tạo ra bởi AI trên các nền tảng của mình.

Sáu công ty đã ký cam kết có "sở thích tự nhiên đối với các phương pháp kỹ thuật hơn để giải quyết rủi ro," Bommasani nói, "và chắc chắn rằng việc đóng dấu bản quyền đặc biệt có hương vị này."

"Câu hỏi tự nhiên là: Liệu [cách khắc phục kỹ thuật] có thực sự tiến bộ và giải quyết các mối quan tâm xã hội cơ bản khiến chúng ta muốn biết liệu nội dung có được tạo ra bởi máy móc hay không?" ông thêm vào.

KẾT QUẢ: Tốt. Đây là một kết quả đáng khích lệ nói chung. Mặc dù việc đóng dấu bản quyền vẫn đang ở giai đoạn thử nghiệm và vẫn không đáng tin cậy, nhưng vẫn tốt khi thấy nghiên cứu xung quanh nó và cam kết với tiêu chuẩn C2PA. Điều này vẫn tốt hơn là không có gì, đặc biệt là trong một năm bầu cử bận rộn.

Cam kết 6​


Các công ty cam kết công khai báo cáo về khả năng, hạn chế và các lĩnh vực sử dụng hợp lý và không hợp lý của hệ thống AI của họ. Báo cáo này sẽ đề cập đến cả các rủi ro bảo mật và rủi ro xã hội, chẳng hạn như ảnh hưởng đến công bằng và sự thiên lệch.

Các cam kết của Nhà Trắng để lại nhiều khoảng trống cho việc diễn giải. Ví dụ, các công ty có thể về mặt kỹ thuật thực hiện cam kết báo cáo công khai này với nhiều mức độ minh bạch khác nhau, miễn là họ làm gì đó theo hướng tổng thể đó.

Những giải pháp phổ biến nhất mà các công ty công nghệ đưa ra ở đây là các thẻ mô hình, hay còn gọi là model cards. Mỗi công ty gọi chúng bằng những cái tên hơi khác nhau, nhưng về bản chất, chúng hoạt động như một loại mô tả sản phẩm cho các mô hình AI. Chúng có thể đề cập đến bất kỳ điều gì từ khả năng và hạn chế của mô hình (bao gồm cả việc nó đo lường như thế nào so với các tiêu chuẩn về công bằng và khả năng giải thích) đến tính xác thực, độ bền, quản trị, quyền riêng tư và bảo mật. Anthropic cho biết họ cũng kiểm tra các mô hình để phát hiện các vấn đề về an toàn có thể phát sinh sau này.

Microsoft đã công bố Báo cáo Minh bạch AI Có trách nhiệm hàng năm, cung cấp cái nhìn về cách công ty xây dựng các ứng dụng sử dụng AI sinh tạo, ra quyết định và giám sát việc triển khai các ứng dụng đó. Công ty cũng cho biết họ cung cấp thông báo rõ ràng về nơi và cách AI được sử dụng trong các sản phẩm của mình.

KẾT QUẢ: Cần nhiều công việc hơn. Một lĩnh vực cần cải thiện đối với các công ty AI là tăng cường minh bạch về cấu trúc quản trị của họ và về các mối quan hệ tài chính giữa các công ty, Hickok nói. Cô cũng muốn thấy các công ty công khai hơn về nguồn gốc dữ liệu, quy trình đào tạo mô hình, sự cố an toàn và mức tiêu thụ năng lượng.

Cam kết 7​


Các công ty cam kết ưu tiên nghiên cứu về các rủi ro xã hội mà hệ thống AI có thể gây ra, bao gồm việc tránh sự thiên lệch và phân biệt đối xử có hại, cũng như bảo vệ quyền riêng tư. Hồ sơ hoạt động của AI cho thấy sự nguy hiểm và phổ biến của những mối nguy này, và các công ty cam kết triển khai AI nhằm giảm thiểu chúng.

Các công ty công nghệ đã bận rộn trên mặt trận nghiên cứu an toàn và đã tích hợp các phát hiện của họ vào sản phẩm. Amazon đã xây dựng các biện pháp bảo vệ cho Amazon Bedrock có thể phát hiện ảo giác và áp dụng các biện pháp bảo vệ an toàn, quyền riêng tư và tính trung thực. Anthropic cho biết họ có một nhóm các nhà nghiên cứu chuyên nghiên cứu các rủi ro xã hội và quyền riêng tư.

Trong năm qua, công ty đã phát triển nghiên cứu về sự lừa dối, việc phá khóa, các chiến lược giảm thiểu phân biệt đối xử và các khả năng mới nổi như khả năng của các mô hình để can thiệp vào mã nguồn của chính chúng hoặc tham gia vào việc thuyết phục. OpenAI cho biết họ đã đào tạo các mô hình của mình để tránh sản xuất nội dung thù địch và từ chối tạo ra đầu ra về nội dung thù địch hoặc cực đoan. Họ đã đào tạo GPT-4V để từ chối nhiều yêu cầu đòi hỏi phải dựa vào các khuôn mẫu để trả lời. Google DeepMind cũng đã công bố nghiên cứu để đánh giá các khả năng nguy hiểm, và công ty đã thực hiện một nghiên cứu về các lạm dụng của AI sinh tạo.

Tất cả họ đã đổ rất nhiều tiền vào lĩnh vực nghiên cứu này. Ví dụ, Google đã đầu tư hàng triệu đô la vào việc tạo ra Quỹ An toàn AI mới để thúc đẩy nghiên cứu trong lĩnh vực này thông qua Diễn đàn Mô hình Tiên phong. Microsoft cho biết họ đã cam kết 20 triệu đô la tín dụng máy tính để nghiên cứu các rủi ro xã hội thông qua Tài nguyên Nghiên cứu AI Quốc gia và bắt đầu chương trình tăng tốc nghiên cứu mô hình AI của riêng mình dành cho các học giả, gọi là Chương trình Tăng tốc Nghiên cứu Mô hình Cơ bản. Công ty cũng đã tuyển dụng 24 học giả nghiên cứu tập trung vào AI và xã hội.

KẾT QUẢ: Rất tốt. Đây là một cam kết dễ đạt được, vì các bên ký kết là một số phòng thí nghiệm nghiên cứu AI doanh nghiệp lớn và giàu có nhất trên thế giới. Mặc dù việc nghiên cứu thêm về cách làm cho các hệ thống AI an toàn là một bước đi đáng hoan nghênh, nhưng các nhà phê bình cho rằng việc tập trung vào nghiên cứu an toàn làm mất sự chú ý và tài nguyên từ nghiên cứu AI tập trung vào các tác hại ngay lập tức hơn, chẳng hạn như phân biệt đối xử và thiên lệch.

Cam kết 8​


Các công ty cam kết phát triển và triển khai các hệ thống AI tiên tiến để giúp giải quyết những thách thức lớn nhất của xã hội. Từ việc phòng ngừa ung thư đến giảm thiểu biến đổi khí hậu và nhiều vấn đề khác, AI—nếu được quản lý đúng cách—có thể đóng góp rất lớn vào sự thịnh vượng, bình đẳng và an ninh của tất cả mọi người.

Kể từ khi đưa ra cam kết này, các công ty công nghệ đã giải quyết nhiều vấn đề đa dạng. Ví dụ, Pfizer đã sử dụng Claude để đánh giá các xu hướng trong nghiên cứu điều trị ung thư sau khi thu thập dữ liệu và nội dung khoa học liên quan, và Gilead, một công ty dược phẩm sinh học của Mỹ, đã sử dụng AI sinh ra từ Amazon Web Services để thực hiện các đánh giá khả thi về các nghiên cứu lâm sàng và phân tích các tập dữ liệu.

Google DeepMind có một hồ sơ nổi bật trong việc phát triển các công cụ AI có thể giúp các nhà khoa học. Ví dụ, AlphaFold 3 có thể dự đoán cấu trúc và các tương tác của tất cả các phân tử sống. AlphaGeometry có thể giải quyết các bài toán hình học ở mức độ tương đương với những nhà toán học trung học phổ thông sáng giá nhất thế giới. Và GraphCast là một mô hình AI có khả năng dự đoán thời tiết trung hạn. Trong khi đó, Microsoft đã sử dụng hình ảnh vệ tinh và AI để cải thiện phản ứng đối với các đám cháy rừng ở Maui và lập bản đồ các nhóm dân cư dễ bị tổn thương bởi khí hậu, điều này giúp các nhà nghiên cứu phát hiện các rủi ro như mất an ninh thực phẩm, di cư cưỡng bức và bệnh tật.

OpenAI, trong khi đó, đã công bố các quan hệ đối tác và tài trợ cho nhiều dự án nghiên cứu, chẳng hạn như một dự án nghiên cứu cách các mô hình AI đa phương thức có thể được sử dụng an toàn bởi các nhà giáo dục và các nhà khoa học trong các phòng thí nghiệm. Họ cũng đã cung cấp tín dụng để giúp các nhà nghiên cứu sử dụng các nền tảng của mình trong các cuộc thi hackathon về phát triển năng lượng sạch.

KẾT QUẢ: Rất tốt. Một số công việc về việc sử dụng AI để thúc đẩy khám phá khoa học hoặc dự đoán các sự kiện thời tiết thực sự rất thú vị. Các công ty AI chưa sử dụng AI để phòng ngừa ung thư, nhưng đó là một tiêu chuẩn khá cao.

Tổng thể, đã có một số thay đổi tích cực trong cách AI được xây dựng, chẳng hạn như các thực hành đánh giá, dấu hiệu nhận diện và các cách mới để ngành công nghiệp chia sẻ những phương pháp tốt nhất. Tuy nhiên, đây chỉ là một vài giải pháp kỹ thuật tinh vi cho vấn đề xã hội-kỹ thuật rối rắm của sự tổn hại do AI gây ra, và cần rất nhiều công việc hơn nữa. Một năm trôi qua, cũng thật kỳ lạ khi thấy các cam kết nói về một loại an toàn AI rất cụ thể tập trung vào các rủi ro giả thuyết, chẳng hạn như vũ khí sinh học, và hoàn toàn không đề cập đến bảo vệ người tiêu dùng, deepfake không đồng thuận, dữ liệu và bản quyền, cũng như dấu chân môi trường của các mô hình AI. Những điều này hôm nay dường như là những thiếu sót kỳ lạ.

 
Sửa lần cuối:

Đăng ký nhận bản tin

File Google sheet đầy đủ kiến thức SEO
Đăng ký kênh Youtube. Đăng ký Google News.



Chúng tôi tôn trọng sự riêng tư của bạn. Hủy đăng ký bất cứ lúc nào. Xem Chính sách quyền riêng tư.

Back
Top Dưới