Trong làn sóng ứng dụng AI mạnh mẽ, kéo dài từ năm 2023, các tập đoàn công nghệ toàn cầu đã chi hàng tỷ USD để xây dựng mô hình ngôn ngữ lớn, cung cấp “đầu ra” cho các sản phẩm AI tạo sinh. OpenAI, Google và Meta, công ty mẹ của mạng xã hội Facebook và Twitter, đều đã công bố các ứng dụng AI mới. Trong đó, mẫu GPT-4o mới nhất của OpenAI và Gemini 1.5 Pro của Google, ước tính có hơn 1.000 tỷ tham số và Meta đang đào tạo phiên bản 400 tỷ tham số của mô hình Llama nguồn mở.
Tuy nhiên, việc thuyết phục khách hàng doanh nghiệp trả số tiền lớn cần thiết để chạy các sản phẩm AI tạo sinh trên mô hình ngôn ngữ lớn là rất khó khăn. Hơn nữa, cũng có những lo ngại về dữ liệu và trách nhiệm bản quyền đang cản trở việc áp dụng các ứng dụng này.
Điều đó đã khiến các công ty công nghệ như Meta và Google cân nhắc đưa ra các mô hình ngôn ngữ nhỏ, chỉ với vài tỷ tham số, dưới dạng các lựa chọn thay thế rẻ hơn, tiết kiệm năng lượng, có thể tùy chỉnh, cần ít năng lượng hơn để đào tạo và chạy, đồng thời cũng có thể ngăn chặn rò rỉ dữ liệu nhạy cảm.
Cả Apple, Microsoft, Meta và Google đều đã phát hành các mô hình AI mới với ít “tham số” hơn - số lượng các biến số (thuật ngữ máy học) được sử dụng để đào tạo hệ thống AI và định hình các mô hình AI tạo sinh -nhưng vẫn sở hữu năng lực rất mạnh mẽ.
Chatbot AI của Microsoft có thể soạn bài nhạc hoàn chỉnh chỉ với một câu nhắc đơn giản.
Động thái này là nỗ lực của các công ty công nghệ, nhằm khuyến khích các doanh nghiệp mở rộng ứng dụng AI, giúp họ giảm bớt những lo ngại về chi phí và sức mạnh tính toán cần thiết để có thể chạy các mô hình ngôn ngữ lớn - loại công nghệ nền tảng cần thiết cho các chatbot (hộp trò chuyện), ví dụ như ứng dụng ChatGPT của OpenAI.
Phó Chủ tịch của nền tảng AI Azure thuộc tập đoàn Microsoft, Eric Boyd, cho biết: “Bằng cách đạt được chất lượng cao với mức chi phí thấp hơn, bạn thực sự đã tạo ra nhiều ứng dụng hơn để khách hàng có thể truy cập và áp dụng thay gì lo ngại việc đầu tư quá lớn sẽ không đảm bảo chi phí và lợi tức kinh doanh khiến họ cân nhắc tới các sản phẩm đó”.
Ông Nick Clegg, chủ tịch phụ trách các vấn đề toàn cầu của Meta, cho biết mô hình tham số 8 tỷ mới của Llama 3 - sản phẩm AI tạo sinh mới của Meta - có thể so sánh với GPT-4. Ông nói: “Tôi nghĩ hầu hết mọi phép đo mà bạn có thể nghĩ ra đều cho thấy hiệu suất vượt trội”.
Trong khi đó, Microsoft chia sẻ mô hình Phi-3 nhỏ của hãng, với 7 tỷ tham số, hoạt động tốt hơn GPT-3.5, phiên bản cũ của mô hình ChatGPT thuộc OpenAI.
Các mô hình nhỏ có thể xử lý các nhiệm vụ cục bộ ngay trên thiết bị thay vì phải gửi thông tin lên đám mây. Điều này có thể thu hút những khách hàng quan tâm đến quyền riêng tư muốn đảm bảo thông tin được lưu giữ trong mạng nội bộ. Bà Charlotte Marshall, cộng tác viên quản lý Addleshaw Goddard, một công ty luật tư vấn cho các ngân hàng, nói các mô hình nhỏ hơn mang lại “cơ hội cho các doanh nghiệp vượt qua” những lo ngại về pháp lý và chi phí.
Mẫu “Gemini Nano” của Google được nhúng bên trong điện thoại Pixel mới nhất và điện thoại thông minh S24 mới nhất của Samsung. Apple đã ám chỉ rằng họ cũng đang phát triển các mô hình AI để chạy trên chiếc điện thoại iPhone bán chạy nhất của hãng. Tháng trước, "gã khổng lồ" Thung lũng Silicon đã phát hành mô hình OpenELM, một mô hình nhỏ được thiết kế để thực hiện các nội dung dựa trên văn bản mẫu. Nhà lãnh đạo Boyd của Microsoft nhấn mạnh các mô hình ngôn ngữ nhỏ hơn sẽ tạo ra “các ứng dụng thú vị, dành cho điện thoại và máy tính xách tay”.
Tháng 11/2023, Giám đốc OpenAI Sam Altman cho biết công ty khởi nghiệp có trụ sở tại San Francisco này đã cung cấp các mô hình AI có quy mô khác nhau cho khách hàng “phục vụ các mục đích riêng biệt” và họ sẽ tiếp tục xây dựng, cũng như bán các tùy chọn này. Ông nói thêm: “Có một số điều mà các mô hình nhỏ hơn sẽ hoạt động thực sự tốt”.
Tuy nhiên, “ông chủ” của OpenAI khẳng định vẫn tập trung vào việc xây dựng các mô hình AI lớn hơn với tính năng ngày càng hiện đại hơn, bao gồm khả năng suy luận, lập kế hoạch và thực hiện các nhiệm vụ và cuối cùng đạt được trí thông minh ở cấp độ con người.
Theo TTXVN