Nói chung là mấy ông Mỹ và Phương Tây panic cmnl trong mấy ngày qua vì ông DeepSeek
AI Trung Quốc ????))))
Dĩ nhiên một số tiếng nói tỉnh táo nói ngược lại, điển hình là anh Alexandr Wang CEO gốc Trung của Scale AI, công ty chuyên làm dữ liệu huấn luyện thuê cho các cty train AI, khách của ảnh là OpenAI, Anthropic, Google và dĩ nhiên cả mấy cty TQ như Alibaba, Tencent, rồi cả … cty mẹ của DeepSeek là quỹ đầu tư High-Flyer (thuê Scale AI làm data cho mô hình AI tài chính). Anh này trong một buổi phỏng vấn có nói là (hình dưới còm): DeepSeek có tầm 50.000 con GPU NVIDIA H100 lận mà tụi nó không nói được do tụi nó sở hữu không chính thức vì bị Mỹ cấm vận mà.
Cá nhân mình trong vài tháng trước có chia sẻ cho mọi người rằng các cty AI Trung Quốc đã và đang thuê GPUs xịn từ các hạ tầng cho thuê GPUs cloud xịn xò ở các nước chung quanh. Ví dụ thuê GPUs của cty con GreenNode của VNG Việt Nam tại Thái Lan, thuê đám GPUs mà FPT nhập về kìa
????)))) dự kiến thuê đám GPUs mà NVIDIA cung cấp cho Trung Tâm Dữ Liệu và Trung Tâm Nghiên Cứu AI ở Việt Nam
????)) các thông tin này mai mình sẽ share full clip buổi nói chuyện cách đây vài tháng tại trường đầu tư Candela cho mọi người nghe thêm. Chuyện DeekSeek hôm nay thực ra giới làm AI đã dự đoán trước, chỉ là không biết nó sớm vậy thôi
????))))
Doanh số bán card năm 2024 của Nvidia tới 1/4 là tới các cty datacenter offshore cho TQ tại Singapore
????))))
Nên bảo Trung Quốc không có card xịn để train AI là câu chuyện gimmick marketing của mấy anh China kể để nghe nó kiểu Vượt-Nghèo-Học-Giỏi thôi trong khi mấy anh TQ có thiếu quái gì tiền, nghèo thì phải nói VN mới là nghèo kìa
????))))
Làm AI có 2 giai đoạn, giai đoạn Training và giai đoạn Inference (chạy model), thực tế về mặt khoa học và kỹ thuật thì giai đoạn Training hoàn toàn có thể sử dụng GPUs on Cloud tức là xài remote bất cứ đâu trên thế giới được, thuê tầm vài trăm ngàn con xài trong vài tháng để train rồi ngưng, chi phí trả 1 cục, không vấn đề, do mạng mẽo không cần phải mạnh phải liên tục.
Nhưng giai đoạn Inference tức là chạy model và cung cấp dịch vụ AI cho mọi người chat public thì mệt mỏi hơn, số card không thể dự đoán trước mà users tăng bao nhiêu thì số card thuê phải tăng bấy nhiêu, mạng mẽo phải liên tục, phải nhanh, chứ chậm vài giây users chửi liền. Do đó phần tốn tiền kinh khủng là phần Inference chứ không phải phần Training, chi phí Training nó có thể dự đoán trước. Nên việc thuê GPUs tại các cloud offshore là rất khó khăn trong việc planning chi phí cũng như resources. Đông Users cái là biết nhau ngay, một trong số lí do DeepSeek phải Open Source là bởi cty mẹ High-Flyer không nhiều tiền như Microsoft và OpenAI để cung cấp free mãi con AI này đâu. Vì chi phí thuê GPUs cho Inference quá cao nếu trong tình trạng bị cấm vận như TQ nên mới có cái deal anh Jasen Huang sếp Nvidia qua Việt Nam lập Trung Tâm Dữ Liệu AI và Trung tâm Nghiên Cứu AI đó
????))))) do mạng VN và Trung Quốc khác éo gì mạng Local đâu, mạng VN qua quốc tế thì ngon nhất ĐNÁ luôn, và ship card từ Đài Loan qua VN thì thôi rồi nó gần
????)))) Này nói thêm vì nó liên quan với vụ DeepSeek ra mắt thực ra có lợi cho VN hơn
????))))