Mô hình mới nhất của Mistral AI, Mistral Large 2 (ML2), được cho là cạnh tranh với các mô hình lớn từ các nhà lãnh đạo ngành như OpenAI, Meta và Anthropic, mặc dù chỉ có kích thước nhỏ hơn nhiều.
Thời điểm phát hành này rất đáng chú ý, ra mắt cùng tuần với việc Meta tung ra mô hình khổng lồ Llama 3.1 với 405 tỷ tham số. Cả ML2 và Llama 3 đều có khả năng ấn tượng, bao gồm cửa sổ ngữ cảnh 128,000 token để tăng cường “bộ nhớ” và hỗ trợ nhiều ngôn ngữ.
Mistral AI từ lâu đã tự phân biệt mình qua việc tập trung vào sự đa dạng ngôn ngữ, và ML2 tiếp tục truyền thống này. Mô hình này hỗ trợ “hàng chục” ngôn ngữ và hơn 80 ngôn ngữ lập trình, khiến nó trở thành một công cụ linh hoạt cho các nhà phát triển và doanh nghiệp trên toàn thế giới.
Theo các điểm chuẩn của Mistral, ML2 thể hiện sự cạnh tranh với các mô hình hàng đầu như GPT-4o của OpenAI, Claude 3.5 Sonnet của Anthropic và Llama 3.1 405B của Meta trong các bài kiểm tra về ngôn ngữ, mã hóa và toán học.
Trong bài kiểm tra Massive Multitask Language Understanding (MMLU) được công nhận rộng rãi, ML2 đạt điểm 84%. Mặc dù hơi thấp hơn so với các đối thủ (GPT-4o là 88.7%, Claude 3.5 Sonnet là 88.3%, và Llama 3.1 405B là 88.6%), điều đáng lưu ý là các chuyên gia trong lĩnh vực ước tính đạt khoảng 89.8% trong bài kiểm tra này.
Hiệu quả: Một lợi thế chính
Điểm nổi bật của ML2 là khả năng đạt được hiệu suất cao với ít tài nguyên hơn đáng kể so với các đối thủ. Với 123 tỷ tham số, ML2 chỉ bằng chưa đến một phần ba kích thước của mô hình lớn nhất của Meta và khoảng một phần mười bốn kích thước của GPT-4. Sự hiệu quả này có những tác động lớn đến việc triển khai và các ứng dụng thương mại.
Với độ chính xác 16-bit đầy đủ, ML2 cần khoảng 246GB bộ nhớ. Mặc dù đây vẫn là quá lớn đối với một GPU duy nhất, nhưng có thể dễ dàng triển khai trên một máy chủ với bốn đến tám GPU mà không cần phải sử dụng phương pháp lượng tử hóa – một kỳ tích không nhất thiết đạt được với các mô hình lớn hơn như GPT-4 hoặc Llama 3.1 405B.
Mistral nhấn mạnh rằng dấu chân nhỏ hơn của ML2 dẫn đến thông lượng cao hơn, vì hiệu suất của các mô hình ngôn ngữ lớn chủ yếu được quyết định bởi băng thông bộ nhớ. Trên thực tế, điều này có nghĩa là ML2 có thể tạo ra các phản hồi nhanh hơn so với các mô hình lớn hơn trên cùng phần cứng.
Giải quyết các thách thức chính
Mistral đã ưu tiên giải quyết vấn đề ảo tưởng – một vấn đề phổ biến khi các mô hình AI tạo ra thông tin thuyết phục nhưng không chính xác. Công ty tuyên bố rằng ML2 đã được tinh chỉnh để trở nên “thận trọng và sáng suốt” hơn trong các phản hồi và tốt hơn trong việc nhận ra khi thiếu thông tin đủ để trả lời một truy vấn.
Ngoài ra, ML2 được thiết kế để xuất sắc trong việc theo dõi các hướng dẫn phức tạp, đặc biệt là trong các cuộc trò chuyện dài. Sự cải thiện này trong khả năng theo dõi lời nhắc có thể làm cho mô hình trở nên linh hoạt và thân thiện với người dùng hơn trong nhiều ứng dụng khác nhau.
Để giải quyết các mối quan tâm thực tế trong kinh doanh, Mistral đã tối ưu hóa ML2 để tạo ra các phản hồi ngắn gọn khi cần thiết. Trong khi các đầu ra dài dòng có thể dẫn đến điểm số chuẩn cao hơn, chúng thường dẫn đến tăng thời gian tính toán và chi phí hoạt động – một yếu tố có thể làm cho ML2 trở nên hấp dẫn hơn cho sử dụng thương mại.
Cấp phép và tính khả dụng
Mặc dù ML2 có sẵn miễn phí trên các kho lưu trữ phổ biến như Hugging Face, nhưng các điều khoản cấp phép của nó hạn chế hơn so với một số sản phẩm trước đây của Mistral.
Không giống như giấy phép nguồn mở Apache 2 được sử dụng cho mô hình Mistral-NeMo-12B, ML2 được phát hành dưới giấy phép Nghiên cứu Mistral. Giấy phép này cho phép sử dụng cho mục đích phi thương mại và nghiên cứu, nhưng yêu cầu một giấy phép thương mại riêng cho các ứng dụng kinh doanh.
Khi cuộc đua AI ngày càng nóng lên, ML2 của Mistral đại diện cho một bước tiến quan trọng trong việc cân bằng giữa sức mạnh, hiệu quả và tính thực tiễn. Liệu nó có thực sự thách thức được sự thống trị của các gã khổng lồ công nghệ hay không vẫn còn phải chờ xem, nhưng việc phát hành của nó chắc chắn là một bổ sung thú vị cho lĩnh vực các mô hình ngôn ngữ lớn.
Sửa lần cuối: