'Quái vật AI' ERNIE 5.1 của Baidu vận hành với chi phí thấp hơn 94%

Át chủ bài ERNIE của Baidu vừa được cập nhật lên phiên bản 5.1, đang khiến giới công nghệ toàn cầu choáng váng với khả năng tối ưu chi phí chưa từng có.

Trong bối cảnh cuộc đua trí tuệ nhân tạo toàn cầu đang tiêu tốn hàng tỷ USD vào năng lực tính toán, Baidu, thường được ví như "Google của Trung Quốc", đã tạo nên một cú sốc lớn khi chính thức trình làng mô hình ngôn ngữ lớn ERNIE 5.1.

Điểm gây chú ý nhất không chỉ nằm ở khả năng xử lý vượt trội mà còn ở con số kinh tế đầy ấn tượng: chi phí huấn luyện mô hình này thấp hơn khoảng 94% so với các hệ thống AI cùng quy mô. Đây được xem là một lời giải mới cho bài toán tối ưu hóa nguồn lực trong kỷ nguyên AI thế hệ mới.

Công nghệ nén mạng lưới và chiến lược "đào tạo một lần cho tất cả"

Để hiểu được tại sao Baidu có thể cắt giảm chi phí đến mức khó tin, cần nhìn vào cách thức họ xây dựng ERNIE 5.1.

Thay vì đi theo con đường truyền thống là huấn luyện một mô hình hoàn toàn mới từ con số không, Baidu đã áp dụng phương pháp "huấn luyện sơ bộ đàn hồi đa chiều". Cụ thể, ERNIE 5.1 không phải là một thực thể độc lập hoàn toàn mà được phát triển dựa trên nền tảng của người tiền nhiệm ERNIE 5.0 (ra mắt tháng 1/2026).

Baidu đã sử dụng khung huấn luyện đàn hồi mang tên "Once-For-All". Thay vì chạy các lượt huấn luyện riêng biệt và đắt đỏ cho từng kích cỡ mô hình khác nhau, công ty này tối ưu hóa cả một "gia đình" các mô hình với nhiều kích thước trong một lần chạy duy nhất.

2ffca8ca25c14b56a38a3c3a7917bb8etplv-73owjymdk6-jj-mark-v1-0-0-0-0-5o6y6yer5oqa5pyv56s-5yy6ieagrwfzeuxmtq-q75.jpg
Cách thức huấn luyện "đa chiều đàn hồi" khiến cho chi phí của Ernie 5.1 giảm xuống 94%.

Các mô hình này chia sẻ trọng số nhưng khác nhau về độ sâu, độ rộng và số lượng các khối chuyên gia (expert blocks) được kích hoạt. Từ kiến trúc khổng lồ của ERNIE 5.0 với khoảng 2.400 tỷ tham số, Baidu đã trích xuất một mạng lưới con được tối ưu hóa để tạo ra ERNIE 5.1.

Kết quả là một mô hình tinh gọn với tổng số tham số chỉ bằng khoảng một phần ba so với bản gốc. Đặc biệt, số lượng tham số hoạt động, tức những phần thực sự tham gia vào việc xử lý phản hồi trong một cuộc hội thoại, đã được cắt giảm một nửa.

Việc kế thừa kho kiến thức đồ sộ từ mô hình "mẹ" mà không cần lặp lại toàn bộ quy trình huấn luyện tốn kém chính là chìa khóa giúp Baidu tiết kiệm được tới 94% ngân sách.

Bên cạnh đó, Baidu cũng tái cấu trúc hoàn toàn hệ thống học tăng cường của mình. Thay vì để các khâu cập nhật mô hình, tạo phản hồi và đánh giá chạy gắn liền với nhau một cách cứng nhắc, họ đã tách chúng thành các phân hệ độc lập, được điều phối bởi một bộ kiểm soát trung tâm.

Điều này cho phép mỗi thành phần được chạy trên phần cứng phù hợp nhất, đảm bảo rằng sự tắc nghẽn ở một bước sẽ không làm chậm toàn bộ quy trình.

Để giải quyết vấn đề sai lệch tính toán trong mô hình hỗn hợp chuyên gia (MoE), Baidu còn triển khai thư viện tính toán độ chính xác thấp tiêu chuẩn hóa, giúp giảm một nửa sự mất ổn định mà không làm giảm tốc độ xử lý.

Giải quyết "hiệu ứng bập bênh" bằng quy trình huấn luyện bốn giai đoạn

Một thách thức cố hữu trong việc huấn luyện các mô hình AI lớn là hiện tượng "hiệu ứng bập bênh" (seesaw effect). Khi các nhà phát triển cố gắng dạy cho AI nhiều kỹ năng cùng một lúc, việc cải thiện năng lực ở mảng này thường dẫn đến sự suy giảm ở mảng khác.

Ví dụ, khi mô hình trở nên giỏi toán hơn, khả năng viết lách sáng tạo của nó có thể bị ảnh hưởng tiêu cực.

Để khắc phục điều này, Baidu đã thiết lập một quy trình tinh chỉnh gồm bốn giai đoạn mà họ gọi là MOPD (Chưng cất Chính sách Trực tuyến Đa giáo viên - Multi-Teacher On-Policy Distillation).

0b5a83e4e4334df8a56ae72d29199bfdtplv-73owjymdk6-jj-mark-v1-0-0-0-0-5o6y6yer5oqa5pyv56s-5yy6ieagrwfzeuxmtq-q75.jpg
Quy trình huấn luyện 4 giai đoạn của Baidu.

Giai đoạn đầu tiên bắt đầu với việc huấn luyện có giám sát tiêu chuẩn trên một tập dữ liệu rộng lớn.

Bước sang giai đoạn thứ hai, Baidu huấn luyện song song nhiều mô hình chuyên gia riêng biệt cho các lĩnh vực như lập trình, suy luận logic và các tác vụ đại lý (agent), mỗi mô hình có các tín hiệu đánh giá riêng.

Đến giai đoạn thứ ba, một mô hình "học sinh" duy nhất sẽ học cùng lúc từ tất cả các "giáo viên" chuyên gia này bằng cách tự tạo ra câu trả lời và so sánh chúng với kết quả của các chuyên gia.

Giai đoạn cuối cùng là học tăng cường tổng quát cho các cuộc đối thoại mở và tác vụ sáng tạo.

Theo Baidu, bước cuối này là tối quan trọng vì quá trình chưng cất từ giáo viên sang học sinh đôi khi tạo ra những câu trả lời quá trau chuốt nhưng thiếu đi sự đa dạng.

Nhờ quy trình này, ERNIE 5.1 đạt được sự cân bằng về trình độ giữa các kỹ năng, không để bất kỳ lĩnh vực nào bị ưu tiên quá mức dẫn đến lấn át các kỹ năng khác.

Hiệu năng dẫn đầu và tham vọng chiếm lĩnh thị trường toàn cầu

Những nỗ lực tối ưu hóa của Baidu đã mang lại kết quả cụ thể trên các bảng xếp hạng uy tín. Trên LMArena Search Arena, nơi các mô hình AI được người dùng thực tế chấm điểm thông qua các tác vụ tìm kiếm web trực tiếp, ERNIE 5.1 đã đạt 1.223 điểm tính đến ngày 9/5.

Điểm số này giúp nó đứng vị trí thứ 4 toàn cầu và giữ vị trí quán quân trong số tất cả các mô hình do Trung Quốc phát triển.

ernie-5-1-01-lmarena-search-ranking-1778639140714-1778639141083628747758-4531.jpg
Ernie 5.1 ngay lập tức lọt vào top 4 bảng xếp hạng của LMArena.

Trong các bài kiểm tra chuyên sâu về kiến thức và suy luận, ERNIE 5.1 đã tiệm cận hiệu suất của các mô hình mã nguồn đóng hàng đầu phương Tây như Gemini 3.1 Pro của Google.

Tại kỳ thi toán học AIME26, mô hình này đạt tỷ lệ chính xác 99,6% khi sử dụng các công cụ hỗ trợ suy luận, chỉ đứng sau duy nhất Gemini 3.1 Pro.

Đặc biệt, trong các tác vụ liên quan đến "khả năng đại lý" như xử lý bảng tính phức tạp hay tự động duyệt web đa bước, ERNIE 5.1 đã vượt qua DeepSeek-V4-Pro – mô hình từng giữ kỷ lục tại Trung Quốc.

Câu chuyện về hiệu quả của ERNIE 5.1 gợi nhớ đến sức ảnh hưởng của DeepSeek R1 vào đầu năm 2025, khi startup này chứng minh rằng có thể đạt hiệu suất tương đương OpenAI o1 với chi phí thấp hơn 98%.

Tuy nhiên, trong khi DeepSeek tập trung vào hiệu quả suy luận, ERNIE 5.1 lại tạo ra bước đột phá ngay từ khâu huấn luyện sơ bộ.

Thông điệp mà Baidu gửi đi rất rõ ràng: các phòng thí nghiệm AI Trung Quốc đang liên tục tìm ra những phương thức sáng tạo để "làm được nhiều hơn với ít nguồn lực hơn", thay vì chỉ dựa vào việc đổ thêm sức mạnh phần cứng.

Hiện tại, ERNIE 5.1 đã bắt đầu được triển khai rộng rãi trên hơn 10 nền tảng sáng tạo và đại lý tại Trung Quốc. Người dùng có thể trải nghiệm mô hình này qua các ứng dụng như nền tảng nhập vai Isekai Zero, công cụ tạo phim ngắn Storymaster, hay ứng dụng đồ họa Diting Huanliu.

Thủ đoạn lợi dụng A.I giả hình ảnh, giọng nói lãnh đạo Đảng, Nhà nước để xuyên tạc | VTV24

Decrypt, The Decoder

AI bùng nổ khiến điều hòa thành “quái vật ăn điện”

Cơn sốt AI và data center đang khiến hệ thống điều hòa tiêu thụ tới 60% điện năng, tạo áp lực hạ tầng lớn cho châu Á và Việt Nam.

cen-1.png
Cơn sốt AI toàn cầu đang kéo theo làn sóng xây dựng trung tâm dữ liệu khổng lồ tại nhiều quốc gia, nhưng phía sau những GPU đắt đỏ và siêu máy chủ xử lý mô hình ngôn ngữ là một “quái vật” tiêu thụ điện năng ngày càng đáng sợ: hệ thống điều hòa và làm mát hoạt động liên tục 24/7.
cen-2.png
Theo nhiều nghiên cứu trong ngành, hệ thống HVAC (heating, ventilation and air conditioning, hệ thống sưởi, thông gió và điều hòa không khí) hiện có thể chiếm tới 40-60% tổng điện năng tiêu thụ của một data center, đặc biệt khi các cụm GPU AI tạo ra lượng nhiệt lớn hơn nhiều lần so với máy chủ truyền thống, buộc các trung tâm dữ liệu phải duy trì khả năng làm mát cực mạnh để tránh nguy cơ quá nhiệt và gián đoạn vận hành.

Grok AI của Elon Musk bị hacker lừa tiền bằng mã Morse

Elon Musk hết lời ca ngợi về sự thông minh của chatbot AI Grok, nhưng nó vừa bị một hacker đánh lừa và trao cho kẻ tấn công hàng trăm nghìn USD tiền số.

Vào đầu tháng 5 vừa qua, một vụ tấn công hiếm gặp nhằm vào hệ thống AI của xAI đã khiến giới công nghệ và tiền số chú ý khi kẻ tấn công chỉ dùng mã Morse cùng một NFT miễn phí để đánh cắp khoảng 174.000 USD, tương đương hơn 4 tỷ đồng.

Điều khiến vụ việc gây tranh cãi nằm ở chỗ mục tiêu bị đánh lừa không phải con người, mà là Grok, chatbot AI do công ty của tỷ phú Elon Musk phát triển và được ca ngợi như một trong các chatbot AI thông minh nhất thế giới.

Amazon đốt 200 tỷ USD cho AI nhưng KPI lại thành trò đua ảo

Amazon đang mạnh tay đầu tư AI và data center, nhưng nội bộ lại xuất hiện làn sóng “vẽ việc” bằng bot để chạy đua KPI công nghệ.

am-1.png
Amazon đang đối mặt với một nghịch lý lớn khi chi tới 200 tỷ USD cho AI và hạ tầng trung tâm dữ liệu, nhưng nhiều nhân viên lại dùng chính công cụ AI nội bộ để tạo ra các tác vụ vô nghĩa chỉ nhằm tăng điểm KPI trên bảng xếp hạng sử dụng công nghệ.
am-2.png
Theo Fortune và Financial Times, công cụ MeshClaw của Amazon vốn được thiết kế để tự động hóa công việc như triển khai mã nguồn, xử lý email hay quản lý Slack, nay lại trở thành “vũ khí” giúp nhân viên đốt token AI nhằm cải thiện vị trí cá nhân trong hệ thống theo dõi nội bộ.