Customized local models and data pipelines
Doanh nghiệp trong năm 2024 có thể theo đuổi sự khác biệt thông qua phát triển mô hình tùy chỉnh, thay vì xây dựng các lớp bao quanh các dịch vụ đóng gói lại từ “Big AI.” Với dữ liệu phù hợp và khung phát triển, các mô hình AI mã nguồn mở hiện có và các công cụ có thể được tùy chỉnh cho hầu hết mọi kịch bản thực tế, từ hỗ trợ khách hàng đến quản lý chuỗi cung ứng và phân tích tài liệu phức tạp.
Các mô hình mã nguồn mở mang lại cho các tổ chức cơ hội phát triển các mô hình AI tùy chỉnh mạnh mẽ — được huấn luyện trên dữ liệu độc quyền của họ và tinh chỉnh cho nhu cầu cụ thể của họ — một cách nhanh chóng, mà không cần đầu tư cơ sở hạ tầng tốn kém. Điều này đặc biệt có ý nghĩa trong các lĩnh vực như pháp lý, chăm sóc sức khỏe hoặc tài chính, nơi mà từ vựng và khái niệm chuyên biệt có thể chưa được các mô hình nền tảng học trong quá trình huấn luyện ban đầu.
Pháp lý, tài chính và chăm sóc sức khỏe cũng là những ví dụ điển hình của các ngành có thể hưởng lợi từ các mô hình đủ nhỏ để chạy cục bộ trên phần cứng khiêm tốn. Việc giữ cho việc huấn luyện AI, suy luận và truy xuất thông tin tăng cường (RAG) diễn ra tại chỗ tránh được rủi ro dữ liệu độc quyền hoặc thông tin cá nhân nhạy cảm bị sử dụng để huấn luyện các mô hình nguồn đóng hoặc bị truyền qua tay các bên thứ ba. Và sử dụng RAG để truy cập thông tin liên quan thay vì lưu trữ tất cả kiến thức trực tiếp trong bản thân LLM giúp giảm kích thước mô hình, tăng tốc độ và giảm chi phí.
Khi năm 2024 tiếp tục làm phẳng sân chơi mô hình, lợi thế cạnh tranh sẽ ngày càng được thúc đẩy bởi các luồng dữ liệu độc quyền cho phép tinh chỉnh tốt nhất trong ngành.
More powerful virtual agents
Với các công cụ ngày càng tinh vi và hiệu quả hơn cùng với phản hồi từ thị trường trong suốt một năm, các doanh nghiệp đang sẵn sàng mở rộng các trường hợp sử dụng cho các tác nhân ảo hơn là chỉ đơn giản là các chatbot trải nghiệm khách hàng.Khi các hệ thống AI tăng tốc và tích hợp các luồng và định dạng thông tin mới, chúng mở ra những khả năng không chỉ trong giao tiếp và theo dõi hướng dẫn mà còn trong tự động hóa công việc. "Năm 2023 là năm có thể trò chuyện với AI. Nhiều công ty đã ra mắt điều gì đó, nhưng tương tác luôn luôn là bạn gõ vào và nó gõ lại," như Norvig của Stanford nói. "Vào năm 2024, chúng ta sẽ thấy khả năng của các tác nhân thực hiện các công việc cho bạn. Đặt chỗ, lên kế hoạch cho chuyến đi, kết nối với các dịch vụ khác."
Đặc biệt, AI đa dạng hình thức tăng cơ hội đáng kể cho sự tương tác mượt mà với các tác nhân ảo. Ví dụ, thay vì chỉ đơn giản yêu cầu một bot cho công thức nấu ăn, người dùng có thể chỉ máy ảnh vào tủ lạnh mở và yêu cầu các công thức có thể làm được với các nguyên liệu có sẵn. Be My Eyes, một ứng dụng di động kết nối người mù và người có thị lực yếu với các tình nguyện viên để giúp đỡ các công việc nhanh chóng, đang thử nghiệm các công cụ AI giúp người dùng tương tác trực tiếp với môi trường xung quanh thông qua AI đa dạng hình thức thay vì chờ đợi một tình nguyện viên con người.
Regulation, copyright and ethical AI concerns
Các khả năng đa phương tiện nâng cao và sự giảm ngưỡng cửa cũng mở ra cánh cửa mới cho những hành vi lạm dụng: deepfakes, vấn đề bảo mật, duy trì các định kiến và thậm chí là trốn tránh các biện pháp bảo vệ CAPTCHA có thể trở nên dễ dàng hơn đối với các nhân vật xấu. Vào tháng 1 năm 2024, một làn sóng deepfakes nổi tiếng ngôi sao đã xuất hiện trên mạng xã hội; nghiên cứu từ tháng 5 năm 2023 cho thấy đã có tới 8 lần nhiều hơn số lượng deepfakes giọng nói được đăng tải trực tuyến so với cùng kỳ năm 2022.[6]
Sự mơ hồ trong môi trường quy định có thể làm chậm sự áp dụng, hoặc ít nhất là thực hiện mạnh mẽ hơn trong cả ngắn và trung hạn. Có nguy cơ bẩm sinh đối với bất kỳ đầu tư lớn và không thể đảo ngược nào vào một công nghệ mới nổi hay thực hành có thể yêu cầu sửa đổi đáng kể—hoặc thậm chí trở thành hành vi bất hợp pháp—theo luật pháp mới hoặc thay đổi định hướng chính trị trong những năm tới.
Vào tháng 12 năm 2023, Liên minh châu Âu (EU) đã đạt được thỏa thuận tạm thời về Đạo luật Trí tuệ nhân tạo. Trong số các biện pháp khác, nó cấm việc thu thập không phân biệt hình ảnh để tạo cơ sở dữ liệu nhận diện khuôn mặt, các hệ thống phân loại sinh trắc với nguy cơ thiên vị, các hệ thống "điểm xã hội" và việc sử dụng AI để can thiệp xã hội hoặc kinh tế. Nó cũng cố gắng xác định một loại "hệ thống AI rủi ro cao" có tiềm năng đe dọa an toàn, quyền cơ bản hoặc pháp luật, sẽ phải chịu sự giám sát bổ sung. Tương tự, nó đặt yêu cầu minh bạch đối với những gì nó gọi là "hệ thống AI đa dụng (GPAI)"—các mô hình nền tảng—bao gồm tài liệu kỹ thuật và kiểm tra phản kháng hệ thống.
Tuy nhiên, trong khi một số đối thủ chính, như Mistral, đang ở trong EU, phần lớn sự phát triển AI đột phá đang diễn ra ở Mỹ, nơi lập pháp nghiêm túc về AI trong sector tư nhân sẽ đòi hỏi hành động từ Quốc hội—điều này có thể không thực hiện được trong năm bầu cử. Vào ngày 30 tháng 10, chính quyền Biden đã ban hành một sắc lệnh hành pháp toàn diện chi tiết 150 yêu cầu về việc sử dụng các công nghệ AI bởi các cơ quan liên bang; vài tháng trước đó, chính quyền đã đảm bảo các cam kết tự nguyện từ các nhà phát triển AI nổi bật để tuân thủ một số rào cản đối với sự tin cậy và an ninh. Đáng chú ý, cả California và Colorado đều đang tích cực theo đuổi pháp luật riêng của họ về quyền riêng tư dữ liệu cá nhân liên quan đến trí tuệ nhân tạo.
Trung Quốc đã tiến hành nhanh chóng hơn đối với các hạn chế chính thức về AI, cấm phân biệt giá bằng các thuật toán gợi ý trên phương tiện truyền thông xã hội và bắt buộc đánh dấu rõ ràng nội dung được tạo ra bởi AI. Các quy định tiềm năng về AI sinh sản cố gắng yêu cầu dữ liệu huấn luyện được sử dụng để huấn luyện LLMs và nội dung sau đó được tạo ra bởi các mô hình phải là "đúng và chính xác," mà các chuyên gia hiểu là các biện pháp để kiểm duyệt đầu ra LLM.
Trong khi đó, vai trò của tài liệu được bản quyền trong quá trình huấn luyện các mô hình AI được sử dụng để tạo nội dung, từ các mô hình ngôn ngữ đến các mô hình tạo hình ảnh và video, vẫn là một vấn đề được tranh cãi gay gắt. Kết quả của vụ kiện nổi tiếng được New York Times đệ đơn chống lại OpenAI có thể ảnh hưởng đáng kể đến hướng đi của pháp luật AI. Các công cụ phản kháng, như Glaze và Nightshade—được phát triển tại Đại học Chicago—đã nổi lên trong những gì có thể trở thành cuộc đua vũ khí giữa các nhà sáng tạo và các nhà phát triển mô hình.
Shadow AI (and corporate AI policies)
Doanh nghiệp, khả năng ngày càng gia tăng của các hệ consequencet trong pháp lý, kinh tế hoặc danh tiếng được bao gồm bởi sự phổ biến và dễ dàng tiếp cận của các công cụ AI sinh sản. Các tổ chức không chỉ cần có một chính sách doanh nghiệp cẩn thận, mạch lạc và rõ ràng về AI sinh sản mà còn phải cảnh giác với AI bóng tối: việc sử dụng AI cá nhân "phi chính thức" trong nơi làm việc bởi nhân viên.Còn được gọi là "IT bóng tối" hay "BYOAI", AI bóng tối nảy sinh khi nhân viên nôn nóng tìm kiếm giải pháp nhanh chóng (hoặc đơn giản là muốn khám phá công nghệ mới nhanh hơn so với chính sách thận trọng của công ty) triển khai AI sinh sản trong nơi làm việc mà không thông qua IT để được phê duyệt hoặc giám sát. Nhiều dịch vụ phục vụ người tiêu dùng, một số miễn phí, cho phép người không chuyên sử dụng công cụ AI sinh sản. Trong một nghiên cứu của Ernst & Young, 90% người tham gia nói họ sử dụng AI tại nơi làm việc.
Tinh thần khởi nghiệp đó có thể tuyệt vời, trong một không khí thuận lợi - nhưng nhân viên hăng hái có thể thiếu thông tin hoặc quan điểm liên quan đến bảo mật, quyền riêng tư hoặc tuân thủ. Điều này có thể ti expose doanh nghiệp nhiều rủi ro. Ví dụ, một nhân viên có thể không biết rằng mình đang cung cấp bí mật thương mại cho một mô hình AI phản ánh công khai liên tục huấn luyện dựa trên đầu vào người dùng, hoặc sử dụng tài liệu được bảo hộ bản quyền để huấn luyện một mô hình sáng chế cho việc tạo nội dung và tiếp xúc với công ty của mình.
Như nhiều phát triển đang diễn ra, điều này nhấn mạnh rằng các mối nguy của AI sinh sản tăng lên gần như tuyến tính với khả năng của nó. Với quyền lực lớn đến từ trách nhiệm lớn.