Chip là một trong những bộ phận then chốt với các hệ thống đào tạo, vận hành mô hình AI. Những năm gần đây, xu hướng AI tạo ra cuộc đua phần cứng giữa các công ty lớn, khiến giới phân tích dự báo tình trạng khan hiếm hiện diện trước mắt.
Khi giai đoạn đào tạo trôi qua, chuyên gia nhận định các công ty đang chuyển sang đầu tư hệ thống triển khai AI, còn gọi là suy luận (inference). Điều này tạo ra thách thức mới trong việc cung ứng và sản xuất chip, nhưng cũng mang đến cơ hội cho những doanh nghiệp AI nếu có chiến lược đầu tư phù hợp.
Vấn đề thực sự
Sự bùng nổ của AI là kết quả từ những tiến bộ về phần cứng. Tại Zalo AI Summit 2025, TS Phạm Hy Hiếu từ OpenAI nhấn mạnh sự xuất hiện của ChatGPT tạo ra cuộc cách mạng chip, đưa Nvidia tăng trưởng nhanh chóng trong thời gian ngắn.
Về mặt kỹ thuật, chip quan trọng với AI bởi 80% phép tính trong mô hình AI là phép nhân ma trận. Thị trường chip AI hiện chia thành 2 loại chính dựa trên mục đích sử dụng. Loại thứ nhất là chip huấn luyện (training), đòi hỏi khả năng thực hiện phép nhân ma trận lớn, số chiều đều đặn, băng thông mạnh để kết nối hàng nghìn chip cùng lúc.
Loại thứ 2 là chip phục vụ/suy luận (inference), yêu cầu khiêm tốn hơn về số lượng liên kết (khoảng 50-100 chip), tập trung vào bài toán ma trận nhỏ, kích thước không đều. Tuy nhiên, chip suy luận đòi hỏi tối ưu điện năng tốt để vận hành bền vững.
Nhìn lại lịch sử phát triển, nếu giai đoạn 2019-2023 là thời kỳ tập trung huấn luyện và nén dữ liệu cho các mô hình GPT, từ năm 2024 trở đi, trọng tâm đang chuyển sang khả năng lý luận. Sự chuyển dịch này kéo theo nhu cầu về chip suy luận (inference).
|
| TS Phạm Hy Hiếu. Ảnh: Phương Lâm. |
Trả lời Tri Thức - Znews, TS Phạm Hy Hiếu nhận định xu hướng này tạo ra thách thức mới cho lĩnh vực AI, khi chip chưa phát triển đủ nhanh để theo kịp tốc độ của các mô hình.
"Tại OpenAI, người ta thường đùa rằng bất kể kỹ sư tạo ra chip nhanh hơn bao nhiêu lần, giới nghiên cứu sẽ nghĩ ra cách dùng hết khả năng tính toán này", ông Hiếu cho biết.
Theo TS Hiếu, ngành công nghiệp đang thiếu băng thông truyền dữ liệu giữa bộ nhớ băng thông cao (HBM) và bộ nhớ trên chip (SRAM). Khi các mô hình chuyển từ học hỏi sang suy luận kiến thức, dữ liệu sẽ được lưu trữ trong HBM, sau đó truyền vào SRAM ở mỗi bước suy luận để tính toán, rồi truyền ngược lại ra HBM.
"Mô hình càng suy luận sâu thì số bước truyền dữ liệu ngày càng nhiều, dẫn đến tình trạng 'kẹt' băng thông giữa HBM và SRAM. Đây chính là sự khan hiếm đang xảy ra trong năm 2025, và được dự đoán sẽ tiếp tục trong 2026", TS Hiếu chia sẻ thêm.
Để khắc phục tình trạng này, đại diện OpenAI cho biết trong năm tới, các nhà sản xuất chip như Nvidia và AMD sẽ đầu tư băng thông HBM-SRAM. Tuy nhiên, chi phí sản xuất băng thông này rất đắt, các công ty có thể cắt giảm những khả năng khác trên chip để kiểm soát giá bán.
Kết quả, ngành công nghiệp có thể chứng kiến những chip với băng thông HBM-SRAM mạnh, nhưng một vài thông số khác có khả năng yếu đi.
Xu hướng khác từ góc độ phần mềm, các công ty AI như OpenAI, xAI, Anthropic... có thể tinh chỉnh mô hình để suy luận ít hơn, hoặc chỉ suy luận khi cần thiết.
"Nói nôm na, nếu coi ChatGPT là học sinh trung học khá/giỏi, khi bạn hỏi một bài toán dễ, công cụ chỉ nên suy luận trong 15 giây để trả lời. Nhưng với một bài toán cấp độ thi quốc tế, công cụ phải suy luận cả tiếng đồng hồ", TS Hiếu nói thêm.
Nhìn chung, 2 xu hướng trên có thể kết hợp nhằm giải quyết hiện tượng hẹp băng thông HBM-SRAM mà ngành công nghiệp AI đang đối mặt.
Cuộc chơi của các ông lớn
Cuộc đua chip AI không chỉ xoay quanh công nghệ mà còn từ kiểm soát nguồn cung. Tại thời điểm ChatGPT ra mắt, việc vận hành mô hình gần như phụ thuộc hoàn toàn vào chip Nvidia. Điều này tạo nên làn sóng mua phần cứng từ các ông lớn công nghệ như Anthropic hay Meta.
Tuy nhiên, cuộc chơi không chỉ dành cho Nvidia. Các đối thủ như AMD và Google cũng đang cung cấp giải pháp phần cứng tối ưu cho những đơn vị phát triển mô hình AI. Tuy vậy, đại diện OpenAI thừa nhận làm chip AI rất khó dù các công ty đã đầu tư hàng tỷ USD.
Theo TS Hiếu, Meta vẫn khá lận đận khi chip MTIA "chưa ai dùng được". Amazon đang phát triển 2 con chip gồm chip huấn luyện Trainium và chip phục vụ Inferentia, nhưng cũng gặp nhiều khó khăn tương tự Meta.
Google có phần thành công hơn khi các TPU (Tensor Processing Units) cho hiệu năng khá mạnh, giúp công ty thoát khỏi phụ thuộc vào Nvidia. Điều đó cũng giảm áp lực khan hiếm chip bởi Google không phải tranh giành để mua lượng chip lớn từ Nvidia.
Dù vậy, TS Hiếu cho rằng vấn đề của Google đến từ việc các TPU rất khó lập trình do sử dụng ngôn ngữ lập trình "quái dị".
"Sự quái dị này khiến việc lập trình TPU của Google khó một cách vô lý và không cần thiết. Do đó, trừ khi Google bán hoặc cho thuê TPU của họ với giá rẻ hơn rất nhiều so với GPU Nvidia, sẽ không ai sử dụng TPU của họ cả", TS Hiếu trả lời Tri Thức - Znews.
Dù vậy, Google và Amazon có chiến thuật thông minh khi đầu tư vào các startup AI như Anthropic hay SSI, điểm khác biệt là không đầu tư bằng tiền mặt mà cung cấp chip cho các startup. Đó là cách để 2 công ty tìm nguồn tiêu thụ chip, góp phần giảm tình trạng khan hiếm.
|
| Chia sẻ từ TS Phạm Hy Hiếu về phần cứng trong hạ tầng AI tại Zalo AI Summit 2025. Ảnh: Phương Lâm. |
Trước dự báo khan hiếm, các công ty lớn đang có xu hướng tích trữ chip AI nhờ tài chính dồi dào. Điều này tác động đến nhiều startup AI và doanh nghiệp nhỏ trong việc tiếp cận phần cứng.
TS Hiếu dự đoán 2 xu hướng. Đầu tiên, startup nhỏ sẽ phụ thuộc vào các công ty lớn thông qua dịch vụ API. Ví dụ, startup phát triển AI hỗ trợ lập trình sẽ phải sử dụng Claude của Anthropic hoặc Codex từ OpenAI.
"Sự phụ thuộc này sẽ 'làm giàu' cho các ông lớn, ít nhất đến khi startup phát triển đến mức đủ tiền mua chip.
Rất ít startup tồn tại được đến giai đoạn này, nhưng Cursor là trường hợp khác biệt trong năm 2025. Tuy vẫn phụ thuộc nhiều vào Anthropic, họ đã bắt đầu mua được chip để phát triển mô hình riêng", đại diện OpenAI chia sẻ.
Tiếp theo là sự xuất hiện của startup lớn, được thành lập bởi các tên tuổi trong ngành, có khả năng gọi nguồn vốn lớn để mua chip. Một số ví dụ như Thinking Machines gọi được 2 tỷ USD (sáng lập bởi Mira Murati, cựu Giám đốc Công nghệ OpenAI) hay SSI gọi được 1 tỷ USD (sáng lập bởi Ilya Sutskever, trước đó cũng là đồng sáng lập OpenAI).
Cơ hội cho doanh nghiệp Việt Nam
Dù cuộc đua AI đặt ra nhiều thách thức trên toàn cầu, TS Hiếu cho rằng các doanh nghiệp Việt Nam vẫn có cơ hội, cả về phát triển chip và đầu tư hạ tầng.
“Việt Nam chúng ta đóng vai trò gì trong cuộc chơi sản xuất chip?
Tuy chip là ngành công nghiệp nghìn tỷ USD, chúng ta không cần hàng chục tỷ USD để tham gia. Người Việt Nam có thể đóng góp cho bản đồ chip AI bằng nhiều cách”, ông Hiếu chia sẻ tại sự kiện Zalo AI Summit 2025.
Đại diện OpenAI đưa ra 2 hướng phát triển chính. Thay vì chạy đua sản xuất chip cho các mô hình ngôn ngữ lớn, Việt Nam có thể tập trung phát triển chip tiêu thụ năng lượng thấp trên xe hơi, smartphone hoặc thiết bị y tế cấy ghép. Đây là những mảng thị trường vẫn còn nhiều dư địa và chi phí đầu tư thấp hơn.
Thứ hai là tích hợp phần cứng và phần mềm. Những đóng góp như thuật toán Flash Attention 2 cho thấy sự kết hợp thông minh giữa lập trình và phần cứng có thể tạo ra đột phá mà không cần nguồn vốn quá lớn.
|
| TS Phạm Hy Hiếu giới thiệu về chip AI. Ảnh: Phương Lâm. |
Về việc đầu tư hạ tầng, TS Hiếu cho rằng không quá khó để đầu tư một số lượng chip tương đối nhỏ để nghiên cứu và phát triển.
"Tôi được biết gần đây rằng 8 chip H200 của Nvidia có giá 250.000 USD. Số lượng chip như vậy có thể phục vụ cho nhu cầu nghiên cứu và phát triển", ông Hiếu nói với Tri Thức - Znews.
Dù vậy, khi đã tìm ra công thức thích hợp cho sản phẩm AI, các công ty sẽ cần đầu tư hạ tầng lớn hơn. Gần đây, Nvidia tung ra giải pháp bán GPU mới, cho phép thuê theo thời gian dài, kèm điều khoản nâng cấp thay vì mua đứt lượng lớn GPU.
"Đây có thể là cách đầu tư hiệu quả hơn. Tuy nhiên hiện nay, làm AI hướng đến lượng người dùng lớn vẫn cần rất nhiều vốn. Quan trọng nhất là chúng ta có cái nhìn và đánh giá đúng về hiệu quả các khoản đầu tư của mình", TS Hiếu nhấn mạnh.
Những câu hỏi chúng ta phải đối mặt trong thế giới AI
Chúng ta có rất nhiều câu hỏi về thế giới AI, mà đó đều là những nghi hoặc không dễ có ngay đáp án.
Cuốn sách Thời đại AI - Và tương lai loài người chúng ta trình bày cách AI làm thay đổi mối quan hệ của chúng ta với tri thức, chính trị và xã hội. Mục tiêu tối thượng của cuốn sách này là giải thích về AI và cung cấp cho độc giả những câu hỏi mà chúng ta sẽ phải đối mặt trong những năm tới lẫn bộ công cụ để bắt đầu trả lời chúng.