Meta, công ty mẹ của Facebook và Instagram, vừa chính thức triển khai sản xuất hàng loạt chip AI do chính công ty tự phát triển, đánh dấu bước tiến quan trọng trong chiến lược kiểm soát hạ tầng điện toán và đáp ứng nhu cầu AI đang bùng nổ.
Việc phát triển chip nội bộ không chỉ giúp Meta giảm sự phụ thuộc vào các nhà cung cấp bên ngoài như Nvidia, AMD hay Google, mà còn tối ưu hóa khả năng xử lý dữ liệu, tiết kiệm năng lượng và giảm chi phí vận hành trung tâm dữ liệu ở quy mô khổng lồ.
Theo Yee Jiun Song, Phó chủ tịch kỹ thuật Meta, nhu cầu suy luận AI đang tăng mạnh mẽ hàng ngày, đòi hỏi Meta phải có khả năng kiểm soát toàn bộ chuỗi cung ứng và tối ưu hóa phần cứng cho các mô hình và thuật toán nội bộ. Trên blog công ty ngày 12/3, ông nhấn mạnh: “Chúng tôi không chỉ xây dựng chip, mà còn tạo ra hệ sinh thái phần cứng – phần mềm linh hoạt, hỗ trợ mọi loại tác vụ AI mà Meta cần.”
Loạt chip AI nội bộ của Meta được phát triển trong khuôn khổ dự án Meta Training and Inference Accelerator (MTIA). Sau thành công của hai mẫu thử nghiệm MTIA 100 và MTIA 200, công ty đang triển khai bốn mẫu chip tiếp theo: MTIA 300, MTIA 400, MTIA 450 và MTIA 500. MTIA 300 hiện đã được đưa vào sản xuất hàng loạt, phục vụ chính cho huấn luyện các mô hình hỗ trợ nghiên cứu & phát triển (R&D) và thuật toán đề xuất nội dung cho hàng trăm triệu người dùng trên các nền tảng của Meta.

MTIA 400 là phiên bản nâng cấp của MTIA 300, mở rộng khả năng hỗ trợ AI tạo sinh đồng thời duy trì hiệu năng R&D. Với kiến trúc 72 bộ tăng tốc (accelerator), MTIA 400 cho phép xử lý đồng thời nhiều tác vụ AI phức tạp với hiệu suất cao, đủ sức cạnh tranh với các chip thương mại hàng đầu hiện nay.
Chip MTIA 450 được tối ưu đặc biệt cho suy luận AI tạo sinh, tăng gấp đôi băng thông bộ nhớ HBM so với MTIA 400, nhằm đảm bảo tốc độ xử lý dữ liệu lớn vượt trội. MTIA 500 tiếp tục nâng cấp băng thông HBM thêm 50% và cải tiến xử lý các kiểu dữ liệu độ chính xác thấp, dự kiến triển khai rộng rãi nửa cuối năm 2027.
Quá trình phát triển loạt chip mới của Meta được hỗ trợ bởi Broadcom, dựa trên kiến trúc RISC-V mã nguồn mở, trong khi TSMC đảm nhận khâu sản xuất. Đây là một bước đi hiếm có trong ngành công nghệ, khi một công ty cung cấp dịch vụ mạng xã hội quyết định tự phát triển phần cứng hạ tầng AI với tốc độ nhanh chưa từng thấy.
Lộ trình sản xuất của Meta được đánh giá là “bất thường và đầy tham vọng” so với chuẩn mực của ngành, bởi thông thường các công ty chỉ thuê ngoài hoặc phụ thuộc vào các đối tác chuyên sản xuất chip.
Meta xây dựng chiến lược phát triển chip theo mô hình lặp đi lặp lại: mỗi thế hệ MTIA được thiết kế dựa trên thế hệ trước, kết hợp các kiến thức mới về khối lượng công việc AI và công nghệ phần cứng tiên tiến nhất. Nhờ đó, công ty có thể nhanh chóng áp dụng các chip mới vào hệ thống trung tâm dữ liệu, từ nghiên cứu, huấn luyện mô hình, đến suy luận và đề xuất nội dung trên các nền tảng mạng xã hội.
Tuy nhiên, Meta cũng đối mặt nhiều thách thức kỹ thuật và chi phí. Sản xuất chip AI tùy chỉnh đòi hỏi vốn đầu tư lớn, đội ngũ kỹ sư chuyên sâu và kiểm tra nghiêm ngặt để đảm bảo chất lượng. Trước khi triển khai sản xuất nội bộ, công ty vẫn chi hàng chục tỷ USD để mua chip từ Nvidia, AMD và thuê chip của Google để duy trì hoạt động AI ổn định. Năm 2026, Meta dự kiến chi 115-135 tỷ USD, tập trung chủ yếu vào hạ tầng AI, trung tâm dữ liệu và phát triển các nền tảng AI nội bộ.
Việc Meta tự chủ chip AI đánh dấu bước ngoặt trong chiến lược công nghệ của công ty, giúp tăng cường hiệu quả vận hành, tối ưu chi phí, giảm phụ thuộc và tạo lợi thế cạnh tranh dài hạn trong lĩnh vực AI. Đồng thời, đây cũng là tín hiệu mạnh mẽ cho thấy các công ty dịch vụ mạng xã hội đang ngày càng quan tâm đến kiểm soát hạ tầng phần cứng để đáp ứng nhu cầu xử lý dữ liệu và AI khổng lồ của mình.
Nguồn: TinTucNews
