G.I.C - GREEN INTERNATIONAL INFORMATION TECHNOLOGY SOLUTIONS COMPANY LIMITED
page-banner-shape-1
page-banner-shape-2

Làn sóng tẩy chay ChatGPT

  • Tháng 1 29, 2025

Mô hình AI do Trung Quốc phát triển lần đầu tiên vượt qua đối thủ Mỹ về mức sử dụng đơn vị dữ liệu token trên toàn cầu.

Sử dụng nhiều loại mô hình tôi nhận thấy một điều, đó là hỏi mấy câu thông dụng kiểu tra cứu thông tin thì mô hình nào cũng tốt, không cho thấy sự khác biệt. Chỉ khi vào việc chuyên môn sâu thì mới bộc lộ ra đặc trưng của nó, đó là họ nhà Claude Opus cực mạnh về code, tìm lỗi tiềm ẩn, sinh mã còn Gemini mạnh về các dự án học máy, thao tác trên dữ liệu, ChatGPT mạnh về tài chính định lượng và nói chung là có kiến thức sâu rộng về nhiều chủ đề. Tôi đã cho 3 mô hình Deepseek, Gemini, ChatGPT xử lý và tranh luận về một vấn đề gán nhãn dữ liệu để đào tạo mô hình ML, kết quả Deepseek nhầm lẫn về khái niệm cơ bản gọi là look ahead dẫn đến rò rỉ dữ liệu. Hầu hết các vấn đề chuyên môn sâu đều có kiểu tình trạng như vậy, không phải nhồi nhét vào một đống dữ liệu rồi nó tự khôn ra đâu, đào tạo mô hình là phải bỏ tiền ra thuê chuyên gia mỗi ngành tự training kiến thức nâng cao, trăm tỷ đô nó ở chỗ này chứ không phải tiền điện chạy GPU.
John Doe
Designer
blog_review

Cụ thể, mô hình M2.5 của startup Trung Quốc MiniMax dẫn đầu toàn cầu với khoảng 1,7 nghìn tỷ đơn vị dữ liệu token được xử lý mỗi tuần. Đại diện từ Mỹ, Gemini 3 Flash Preview của Google, đứng thứ hai với khoảng 997 tỷ token, tiếp đến lại là DeepSeek V3.2 của Trung Quốc với khoảng 798 tỷ token. Một số mô hình Trung Quốc khác, Kimi K2.5 của Moonshot AI và GLM-5 của Zhipu AI, cũng lọt vào top đầu thế giới, ghi nhận hơn 600 tỷ token được các nhà phát triển sử dụng.

blog_sing01
blog_sing02

Tổng cộng

Tổng cộng, tuần từ ngày 9-15/2, các mô hình Trung Quốc ghi nhận mức sử dụng 4,12 nghìn tỷ token, lần đầu tiên vượt qua Mỹ, vốn chỉ đạt 2,94 nghìn tỷ. Tuần tiếp theo (ngày 16-22/2), tổng lượng token của các mô hình Trung Quốc vọt lên 5,16 nghìn tỷ, trong khi các mô hình Mỹ giảm xuống còn 2,7 nghìn tỷ token.

01

Các nhà phân tích cho rằng nguyên nhân xuất phát từ hai yếu tố: sự tăng cường ứng dụng trí tuệ nhân tạo dịp Tết Nguyên đán và việc triển khai rộng rãi tác nhân AI, vốn làm tăng đáng kể mức tiêu thụ token cho mỗi tác vụ. OpenRouter xác nhận nhu cầu tạo văn bản dài tăng rõ rệt trong vài tuần qua, trong đó MiniMax M2.5 dẫn đầu ở nhóm sử dụng từ 100.000 đến một triệu token - mức tiêu thụ điển hình của các quy trình làm việc dựa trên tác nhân AI.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *