Một nhà phát triển đã tạo ra một phiên bản của mô hình ngôn ngữ lớn mã nguồn mở Gemma của Google, được gọi là “Gemma 2B-it-Chat-Slerp”, có khả năng suy luận và trả lời các câu hỏi phức tạp một cách ấn tượng, ngang ngửa với các mô hình đắt tiền như Claude 3 Opus của Anthropic.
Mô hình này là kết quả của việc hợp nhất các mô hình (model merging), một kỹ thuật kết hợp các mô hình AI đã được huấn luyện riêng biệt để tạo ra một mô hình mới với các khả năng được cải thiện. Trong trường hợp này, nhà phát triển đã hợp nhất bảy phiên bản khác nhau của Gemma 2B, một mô hình nhỏ gọn với 2 tỷ tham số, để tạo ra một mô hình có khả năng vượt trội.
Người dùng trên X (trước đây là Twitter) đã chia sẻ các ví dụ về cách mô hình này có thể giải các bài toán phức tạp, trả lời các câu hỏi hóc búa về logic và thậm chí thể hiện sự hài hước—tất cả đều với độ chính xác đáng kinh ngạc. Một ví dụ cho thấy mô hình giải thích một cách hoàn hảo lý do tại sao việc “đặt tất cả trứng vào một giỏ” lại rủi ro, sử dụng các khái niệm xác suất và logic.
Điều đáng chú ý là Gemma, mặc dù là mô hình mã nguồn mở miễn phí, đã được báo cáo là có hành vi rất giống với Gemini, mô hình AI độc quyền hàng đầu của chính Google. Một số người dùng thậm chí còn cho rằng trong một số tình huống, Gemma có vẻ “thông minh hơn” Gemini.
Việc hợp nhất mô hình này làm nổi bật một xu hướng đang phát triển trong cộng đồng AI mã nguồn mở: khả năng tạo ra các hệ thống mạnh mẽ, cạnh tranh với các sản phẩm của các công ty lớn mà chỉ với chi phí thấp hoặc thậm chí miễn phí. Kỹ thuật này cho phép các nhà phát triển độc lập và các nhà nghiên cứu nhanh chóng tạo ra các biến thể mới và khám phá các khả năng mới mà không cần phải huấn luyện một mô hình từ đầu—một quá trình cực kỳ tốn kém về mặt tính toán.
Khả năng suy luận của “Gemma 2B-it-Chat-Slerp” đặc biệt ấn tượng vì kích thước nhỏ của nó. Trong khi các mô hình như Claude 3 Opus hay GPT-4 có hàng trăm tỷ tham số và yêu cầu cơ sở hạ tầng khổng lồ, mô hình Gemma đã hợp nhất này chỉ có 2 tỷ tham số, có nghĩa là nó có thể chạy trên phần cứng khiêm tốn hơn nhiều trong khi vẫn cung cấp hiệu suất cao.
Sự phát triển này đặt ra câu hỏi về tương lai của các mô hình AI độc quyền. Khi các mô hình mã nguồn mở ngày càng trở nên tinh vi thông qua các kỹ thuật như hợp nhất, khoảng cách giữa chúng và các sản phẩm thương mại có thể sẽ thu hẹp lại. Nó cũng nhấn mạnh tốc độ đổi mới nhanh chóng trong cộng đồng nguồn mở, nơi các cải tiến mới có thể được chia sẻ và xây dựng dựa trên một cách tự do.
Mô hình “Gemma 2B-it-Chat-Slerp” hiện có sẵn trên nền tảng Hugging Face, một trung tâm phổ biến cho các mô hình AI mã nguồn mở, cho phép bất kỳ ai cũng có thể tải xuống và thử nghiệm nó.
Tuyên bố miễn trừ: Bài viết này chỉ nhằm mục đích cung cấp thông tin dưới dạng blog cá nhân, không phải là khuyến nghị đầu tư. Nhà đầu tư cần tự nghiên cứu kỹ lưỡng trước khi đưa ra quyết định và chúng tôi không chịu trách nhiệm đối với bất kỳ quyết định đầu tư nào của bạn.
Theo Nghị quyết số 05/2025/NQ-CP ngày 09/09/2025 của Chính phủ về việc thí điểm triển khai thị trường tài sản số tại Việt Nam, CoinPhoton.com hiện chỉ cung cấp thông tin cho độc giả quốc tế và không phục vụ người dùng tại Việt Nam cho đến khi có hướng dẫn chính thức từ cơ quan chức năng.
- Thẻ đính kèm:
- Gemini

Bitcoin
Ethereum
Tether
XRP
USDC
Solana
TRON
Figure Heloc
Dogecoin
WhiteBIT Coin
USDS
Hyperliquid
LEO Token
Cardano
Bitcoin Cash
Chainlink
Monero
Ethena USDe 




