"Xài ChatGPT tiếng Việt, mắc gì gõ prompt tiếng Anh"

Đăng lúc 22:16 25.08.2025

Hôm trước ở bài chia sẻ về một prompt tóm tắt sách, mình thấy một bạn có bình luận rất vui và thú vị rằng: "Mắc gì xài ChatGPT tiếng việt mà Prompt lại tiếng Anh?". Câu hỏi này rất hay và thực chất, trả lời câu hỏi này có thể giúp chúng ta hiểu hơn LLM được tạo ra, hoạt động như thế nào, hiểu hơn về các giới hạn của chatbot như ChatGPT hay Gemini và qua đó có thể tìm được cách khai thác hiệu quả hơn nó cho từng nhu cầu.



Chat với ChatGPT bằng tiếng Việt vẫn được mà!


Chính xác 100%! Hầu hết các chatbot hiện tại, từ ChatGPT tới Gemini, Grok, DeepSeek,... miễn phí hay trả phí, mã nguồn mở hay đóng, online hay offline đều có thể nhận được tiếng Việt và trả lời lại người dùng bằng tiếng Việt. Hầu hết tụi nó đều đã được tạo ra dưới dạng model đa ngôn ngữ, train bằng kiến thức phổ quát và hoàn toàn làm được chuyện đó. Tuy nhiên, trả lời được là một chuyện, trả lời có chất lượng như thế nào lại là chuyện khác.

Để nâng cao chất lượng phản hồi của chatbot AI, có 3 cách phổ biến nhất là:
  • Train / finetune lại cho model: cái này thường sẽ không dành cho số đông người bình thường ở hiện tại, mục đích là để biến một model "rộng" thành một "model hẹp", làm tốt những tác vụ ở một mảng nào đó mà người dùng muốn.
  • Sử dụng RAG: cách này có thể nôm na là ép model nó luôn đi đọc thêm các nguồn data mà chúng ta chỉ định để đưa ra câu trả lời, tránh lan man và đúng cái chúng ta muốn hơn.
  • Prompt engineering: Đây là cách tương tác với LLM để nó phản hồi yêu cầu của người dùng. Chúng ta đã biết tùy vào ý muốn, yêu cầu, đòi hỏi và mong muốn của người dùng mà sử dụng prompt hợp lý, AI sẽ trả về câu trả lời sát với mong muốn của chúng ta nhất. Prompt tạm chia ra thành System Prompt và User Prompt. User thì dễ rồi, là cái mà bạn gõ vô ô chatbot. System prompt là các mà các đơn vị làm dịch vụ Chatbot AI như OpenAI, Google hay anh Elon Musk soạn "ẩn" để quy định thái độ, phong cách, cách trả lời, cái gì được nói, cái gì không khi người dùng truy vấn. System prompt sẽ được gộp vào user prompt rồi đi query LLM để nó suy luận và trả về phản hồi.

Rõ ràng, khi xài ChatGPT hay Gemini, chúng ta không thể, cũng không có khả năng (ngoại trừ bạn có lượng phần cứng khổng lồ giống họ) để train lại model. Việc fine tune cũng không khả thi cho đại đa số người dùng ở hiện tại do vẫn còn quá nhiều bước phức tạp, đi clean dataset, rồi chọn phương pháp fine tune, code xíu, đánh giá rồi deploy nó. Khi xài Chatbot online như ChatGPT, chúng ta có thể upload tài liệu lên, việc này có thể xem như một kiểu RAG. Vấn đề là chả lẽ lúc nào xài task đó cũng upload tài liệu lên, vừa hao token để AI đọc không cần thiết, vừa rắc rối, đặc biệt là khi đống tài liệu đó nhiều. Vậy là khi xài chatbot, cách duy nhất mà chúng ta ai cũng có thể làm được là prompt engineering.

Bây giờ vấn đề sẽ nằm ở Prompt thế nào. Bên cạnh việc thay đổi, sắp xếp các prompt để AI nó hiểu rõ được chúng ta muốn gì, thì việc xài ngôn ngữ nào cũng là cái mà chúng ta sẽ đặt dấu hỏi khi nói chuyện với prompt. Tạ ơn Chúa là tiếng Việt chúng ta sử dụng ký tự Latin, vẫn đang là ngôn ngữ sống và vì vậy, chúng ta hưởng lợi lớn từ việc này khi sử dụng các chatbot AI, không gặp phải nhiều khó khăn như tiếng Nhật, Trung, Thái hay Ấn Độ.... Chúng ta đều biết, bất kể xài phần mềm bình thường, coi phim, đọc sách, chơi game hay xài AI, tiếng Việt vẫn cho người dùng Việt trải nghiệm đã nhất. Tuy nhiên đối với AI thì điều đó phức tạp hơn một chút.

so sanh ngon ngu.jpg
Thử so sánh cho dễ hiểu, đây là cùng 1 nội dung prompt bằng tiếng Anh và tiếng Bangladesh khi nhập trực tiếp, thử dịch nó ra bên phải mới thấy nó trật lất cỡ nào.

Có những tác vụ đơn giản, chỉ cần dùng một prompt đơn giản là 1 câu, 2-3 thành phần, AI lúc đó sẽ trả về các phản hồi hầu như giống nhau về mặt chất lượng thông tin, cách trả lời đối với tiếng Anh lẫn tiếng Việt. Nếu như bạn vẫn dùng Chatbot AI bằng cách gõ các keywords vào giống như search Google hồi xưa giờ thì cái bạn nhận được là như nhau, dù bạn nhập vào nó tiếng Anh hay tiếng Việt. Tuy nhiên đối với các tác vụ phức tạp hơn, đòi hỏi AI nó phải suy luận, phân tích, phản biện các suy luận của nó, thực tế chứng minh prompt tiếng Anh sẽ đưa ra câu trả lời có chất lượng nội dung cao hơn.

Bây giờ lấy luôn thí dụ về prompt đọc sách mà mình share hôm trước (link). Mình sẽ thử dùng cùng một chatbot, kêu nó đọc cùng một file sách với prompt tiếng Anh và tiếng Việt. Prompt ban đầu được viết bằng tiếng Anh, mình dịch nó ra thành tiếng Việt, cố giữ lại tốt nhất cùng một ngữ nghĩa của từng câu chữ. Mặc dù chắc chắn sẽ không thể nào 100% được do giới hạn về khả năng ngôn ngữ của bản thân mình lẫn yếu tố khách quan về khoảng cách giữa 2 ngôn ngữ Anh - Việt luôn tồn tại ở đó. Một cách xông xênh, đã là AI thì nó phải hiểu được và khắc phục được khoảng cách ngôn ngữ này đúng không nào? Ở góc độ kỹ thuật hơn, tác động của việc dịch prompt ở mức "khá" này không chiếm tỷ lệ tác động lớn bằng các nguyên nhân khác của LLM. Chúng ta sẽ tạm bỏ qua nó ở bước này.

so sanh eng viet.jpg
Bên trái là prompt toàn bộ tiếng Việt và bên phải là prompt toàn bộ tiếng Anh, chỉ cần chỉ thị nó “reply in Vietnamese”

Có thể thấy rõ ràng, chất lượng đầu ra của prompt gốc bằng tiếng Anh sẽ đầy đặn hơn, có màu sắc hơn, có hồn hơn, giá trị chất lượng lẫn những thí dụ đưa ra sát với cuốn sách hơn. Mình tạm coi dạng prompt này là một kiểu "prompt system thứ cấp". Nghĩa là nó khai thác chính cách hoạt động của LLM, ra lệnh bằng tiếng Anh. Câu hỏi đặt ra, tại sao vậy?

Có 2 nguyên nhân chính dẫn tới điều này: đó chính là tính bias diễn ra từ tập data training LLM và cách các tokenizer hoạt động khi người dùng truy vấn (nôm na là việc bẻ các chữ ra thành từng cụm, xong rồi chuyển thành vector để đi dò trong vector database của LLM). Hãy cùng điểm qua 2 điểm này.


Sự chênh lệch trong dữ liệu huấn luyện: 93% là tiếng Anh


Đây chính là nguyên nhân hàng đầu khiến cho prompt tiếng Anh hiệu quả hơn. Nếu như xưa giờ, hầu hết các tài nguyên tri thức, những gì viết ra bằng chữ, đều là tiếng Anh, thì điều đó cũng đúng đối với LLM. Các LLM hàng đầu được huấn luyện chủ yếu trên khối lượng văn bản tiếng Anh khổng lồ, trong khi dữ liệu tiếng Việt chỉ chiếm một tỷ lệ rất nhỏ. Thí dụ model GPT-3 được huấn luyện trên 119 ngôn ngữ nhưng chỉ 7% số token là ngôn ngữ không phải tiếng Anh. Điều này có nghĩa là 93% dữ liệu huấn luyện GPT-3 là tiếng Anh, còn lại 7% phải chia cho hàng trăm ngôn ngữ khác, trong đó tiếng Việt chỉ là một phần nhỏ. Tương tự, ngay cả các model có dữ liệu "đa ngôn ngữ" như Llama 3 thì cũng chỉ có 5% không phải tiếng Anh. Hệ quả là model hiểu biết tiếng Việt hạn chế hơn hẳn so với tiếng Anh, do ít được “đọc hiểu” tiếng Việt trong quá trình huấn luyện.

Screenshot 2025-08-24 214754.png

Tình trạng “ngôn ngữ ít tài nguyên” (low-resource) của tiếng Việt trên Internet càng làm trầm trọng thêm vấn đề. Mặc dù tiếng Việt có hơn 100 triệu người sử dụng, nội dung số bằng tiếng Việt chiếm tỷ lệ rất nhỏ so với tiếng Anh. OpenAI thu thập dữ liệu chủ yếu từ web và kho sách báo vốn là nơi tiếng Anh thống trị. Nghiên cứu chỉ ra rằng các ngôn ngữ ít dữ liệu số thường khiến chatbot tạo đáp án kém thông minh hoặc thậm chí vô nghĩa hơn so với các ngôn ngữ phổ biến.

ChatGPT từng được thử nghiệm với nhiều thứ tiếng và kết quả cho thấy: càng ít dữ liệu huấn luyện, hiệu năng model càng giảm. Ví dụ, với các ngôn ngữ như Bengali, Swahili, Urdu hay Thai (có số người nói lớn nhưng dữ liệu huấn luyện ít), ChatGPT thường mắc lỗi dịch thuật, trả lời phi logic hoặc bịa từ không có thật. Tiếng Việt nằm trong nhóm ngôn ngữ có tài nguyên hạn chế, nên không tránh khỏi tình trạng model hiểu sai hoặc thiếu kiến thức.

schema-9.0.png

Quan trọng hơn, giai đoạn fine-tune/học tăng cường (instruction tuning, RLHF), nôm na là huấn luyện để model biết làm theo chỉ dẫn, chủ yếu được thực hiện bằng tiếng Anh. Các câu lệnh hướng dẫn kiểu “Hãy giải thích X” hay “Viết đoạn văn Y” mà con người dạy cho model đa phần bằng tiếng Anh. Do đó, model học được cách làm theo prompt tiếng Anh một cách chuẩn xác và tự nhiên nhất. Ngược lại, với prompt tiếng Việt, model có thể ít tự tin hơn, đôi khi phản hồi ngắn hoặc kém chi tiết hơn. Một nghiên cứu về prompt engineering cho tiếng Việt đã chỉ ra rằng mẫu prompt bằng tiếng Anh thường cho kết quả tốt hơn mẫu tương đương bằng tiếng Việt trên nhiều tác vụ khác nhau. Điều này khẳng định model đã “quen” với việc nhận lệnh bằng tiếng Anh hơn.



Ở góc độ công bằng tiếp cận AI, sự thiên lệch về ngôn ngữ chắc chắn là vấn đề lớn. Nếu AI hỗ trợ tốt nhất cho người dùng tiếng Anh, người dùng tiếng Việt có thể bị bỏ lại phía sau. Các chuyên gia cảnh báo rằng chatbots chủ yếu “thành thạo” tiếng Anh sẽ khuếch đại ảnh hưởng của tiếng Anh, làm giảm tính đa dạng ngôn ngữ và văn hóa trong kỷ nguyên AI. Chính Sam Altman từng thừa nhận khoảng cách ngôn ngữ này và cho biết công ty đang tìm cách hợp tác thu thập thêm dữ liệu đa ngôn ngữ để nâng cao kỹ năng ngôn ngữ khác cho ChatGPT. Dĩ nhiên, điều đó chưa diễn ra, ít nhất là tính tới hiện tại.

Cơ chế token hóa: thêm một rào cản cho tiếng Việt


Screenshot 2025-08-24 214917.png

Token hóa (tokenization) là cách model cắt nhỏ văn bản thành các token. Điều này cũng ảnh hưởng đến hiệu quả xử lý tiếng Việt. Do bản chất khác biệt trong ngôn ngữ, tiếng Anh là một ngôn ngữ biến tố (fusional), sử dụng các hình vị (morpheme) để táp lại với nhau. Thí dụ như Walk > walked, cat > cats,... Trong khi đó tiếng Việt là ngôn ngữ dơn lập (isolating) hay phân tích tính. Do đó tiếng Việt dùng dấu cách giữa các âm tiết. Mỗi âm tiết tiếng Việt thường được viết rời, ví dụ “học sinh” gồm hai phần “học” và “sinh”. Các mối quan hệ ngữ pháp được truyền đạt thông qua trật tự từ và các hư từ riêng biệt, chứ không phải bằng cách thay đổi bản thân các từ như trong tiếng Anh.

[​IMG]

Với model sử dụng token hóa dạng Byte-Pair Encoding (BPE) hoặc SentencePiece, tiếng Việt thường bị tách thành nhiều token hơn so với một từ tiếng Anh tương đương. Điều này xảy ra do token hóa ban đầu chủ yếu được tối ưu cho tiếng Anh: các quy tắc tách ghép ký tự dựa nhiều vào khoảng trắng và chữ cái tiếng Anh. Với tiếng Việt, bộ tokenizer gốc của một số model không ghép được các âm tiết thành token ý nghĩa mà coi mỗi âm tiết như một từ độc lập.

Hơn nữa, tiếng Việt dùng bảng chữ cái Latin mở rộng với dấu, mỗi chữ cái có dấu như “ế”, “ớ”,... có thể mã hóa thành nhiều byte. Bộ BPE ở mức byte vô tình phạt các ngôn ngữ dùng ký tự ngoài ASCII – ký tự Latin có dấu thường chiếm 2-3 byte, trong khi chữ cái tiếng Anh chỉ 1 byte. Kết quả là độ dài chuỗi token tiếng Việt tăng, chiếm dung lượng ngữ cảnh và tiềm ẩn lỗi xử lý.

Trên thực tế, các nhà phát triển model tiếng Việt đã phải tùy biến lại tokenizer để khắc phục vấn đề này. Trong nghiên cứu VinaLLaMA, tạo một foundation LLM cho tiếng Việt dựa trên LLaMA-2, nhóm tác giả nhận xét tokenizer gốc của LLaMA-2 hoạt động kém ở tiếng Việt, do model có quá ít token liên quan đến tiếng Việt trong tập huấn luyện. Họ đã phải tạo một tokenizer chuyên biệt cho tiếng Việt, giúp gộp các âm tiết phổ biến thành token chung và xử lý tốt hơn bảng chữ cái có dấu. Việc này làm giảm số token cần thiết để biểu diễn một câu tiếng Việt, cải thiện hiệu quả model đáng kể.

Do đó có thể thấy, cơ chế token hóa mặc định (vốn tối ưu cho tiếng Anh) đã gây bất lợi cho tiếng Việt và cần hiệu chỉnh riêng để model hiểu tiếng Việt liền mạch hơn.

Bản chất cấu trúc model và xử lý đa ngôn ngữ


Có một thực tế kỹ thuật là hầu hết các LLM hiện nay có kiến trúc thống nhất cho mọi ngôn ngữ, không phân chia riêng ra. Sơ qua một chút, model sẽ sử dụng cùng một mạng Transformer và một không gian embedding chung cho từ vựng của tất cả các ngôn ngữ. Điều này sẽ dẫn tới sự cạnh tranh tài nguyên giữa các ngôn ngữ: các ngôn ngữ phổ biến như tiếng Anh sẽ chiếm phần lớn “dung lượng trí nhớ” của model, còn tiếng Việt với dữ liệu ít phải chen chân trong không gian còn lại. Dù kiến trúc model có khả năng học song song nhiều ngôn ngữ, nhưng nếu phân bố dữ liệu không đều, model sẽ thiên vị ngôn ngữ nhiều dữ liệu hơn.

Không chỉ vậy, sự khác biệt cấu trúc ngôn ngữ cũng ảnh hưởng đến hiệu năng. Nghiên cứu cho thấy ChatGPT gặp khó khăn đặc biệt với các ngôn ngữ có cấu trúc rất khác tiếng Anh. Tiếng Việt thuộc loại ngôn ngữ đơn lập, không biến hình từ, nhưng có cú pháp và cách diễn đạt khác (ví dụ trật tự từ linh hoạt, dùng từ vị để chỉ quan hệ ngữ pháp). Mô hình có thể không đại diện đầy đủ được cấu trúc câu tiếng Việt nếu chủ yếu học cú pháp tiếng Anh. Ví dụ, ChatGPT từng trả lời sai khi dịch câu phức tiếng Việt hoặc không phân giải được đại từ trong ngữ cảnh tiếng Việt phức tạp do kiến trúc không có thành phần chuyên trách cho từng ngôn ngữ để xử lý hiện tượng này.

Một điểm khác là vốn tri thức của model chủ yếu được ghi nhận bằng tiếng Anh. Các bạn có thể để ý khi hỏi một model bằng tiếng Việt (nếu bật quá trình "suy nghĩ" của model lên coi), model có thể phải ngầm dịch câu hỏi sang tiếng Anh nội bộ để tra cứu kiến thức rồi dịch ngược ra tiếng Việt. Mỗi bước dịch đó đều có thể suy giảm chất lượng trả lời. Nếu prompt bằng tiếng Anh, mô hình truy xuất kiến thức trực tiếp, tránh được "rơi rớt kiến thức và ngữ cảnh" khi chuyển ngữ. Do đó, prompt tiếng Anh thường cho câu trả lời chính xác và ít vòng vo hơn.

Screenshot 2025-08-24 213908.png

Tuy kiến trúc mô hình không thay đổi giữa các ngôn ngữ, giới nghiên cứu đang cố gắng điều chỉnh cách sử dụng mô hình để bù đắp chênh lệch. Một kỹ thuật phổ biến là dịch prompt tiếng Việt sang tiếng Anh trước khi đưa vào mô hình để tận dụng khả năng tiếng Anh vượt trội của LLM. Tuy nhiên, bản chất việc dịch toàn bộ prompt cũng có rủi ro do chính chủ quan hay khách quan cũng có thể làm mất mát sắc thái ngữ nghĩa gốc hoặc văn hóa đặc thù trong câu hỏi. Một hướng tiếp cận tinh tế hơn là pre-translate có chọn lọc, chỉ dịch một phần prompt, thí dụ giữ nguyên nội dung cần phân tích bằng tiếng Việt, chỉ dịch hướng dẫn sang tiếng Anh). Mục tiêu là kết hợp ưu thế tiếng Anh của mô hình với bối cảnh tiếng Việt khi cần.

Dù vậy, đây vẫn là giải pháp tình thế. Lý tưởng nhất vẫn là mô hình được huấn luyện đủ tốt để hiểu trực tiếp tiếng Việt, không cần qua khâu trung gian. Còn ở hiện tại, kiến trúc LLM bản chất vẫn chưa được tối ưu cho da ngôn ngữ và bởi thế, tiếng Việt vì các lý do trên vẫn chưa được model biểu diễn tốt.

Phong ba bão táp không bằng ngữ pháp Việt Nam


img-1155-2onpodj19rika-1502183405837-119-0-565-720-crop-1502183409933.webp

Đó là một thực tế tồn tại bao đời nay. Bản chất tiếng Việt là một ngôn ngữ khó để học. May mắn là chúng ta sinh ra ở Việt Nam, được học tiếng Việt từ nhỏ nên có thể thấy nó đơn giản. Nhưng nếu so với các ngôn ngữ gốc La tinh khác sẽ dễ dàng nhận thấy cấu trúc tiếng Việt là quá phức tạp. Có thể điểm qua như tiếng Việt có quá nhiều đại từ nhân xưng phức tạp, nếu như tiếng Anh chỉ xài you hay I thì tiếng Việt là bạn, anh, cậu tớ, cô dì chú bác, cháu,... Kế đến là có quá nhiều từ đa nghĩa và đồng âm, thí dụ như sinh trong học sinh hoàn toàn khác sinh tồn, khác luôn sinh con,... Lúc này LLM không thể phân giải nghĩa của từ bằng biến tố như tiếng Anh mà chỉ còn cách dựa hoàn toàn vào ngữ cảnh, dẫn tới dễ phân giải ngữ nghĩa mơ hồ.

Thêm điểm khác, hệ thống cú pháp của tiếng Việt rời rạc và linh động cực kỳ, khiến cho model có thể nhầm lẫn cấu trúc. Trong khi tiếng Anh bản chất đơn giản là SVO. Chưa dừng lại ở đó, lượng lớn thành ngữ, tục ngữ và cả các lối nối mang đậm bản sắc văn hóa càng khiến các model rối não khi xử lý tiếng Việt. Ngay cả mạnh như GPT-4 cũng từng thất bại nhiều lần trong việc tạo ra thơ theo luật VN. Bạn thử kêu nó làm thơ song thất lục bát thử sẽ dễ thấy nó không dễ tuân thủ đúng số lượng từ mỗi câu. Cái này không phải mình tự nói đâu, Stanford làm hẳn nghiên cứu này luôn rồi. Mà trớ trêu, do chính lượng kiến thức văn hóa và quy tắc tiếng Việt nằm trong model lúc train là quá ít nên khó có thể bắt nó hiểu được.

Mọi thứ ở tương lai


Tất nhiên bức tranh không phải hoàn toàn xám xịt, các hệ thống chatbot lớn hiện tại luôn tìm cách từng bước cải thiện khả năng hỗ trợ đa ngôn ngữ và trong đó có tiếng Việt. Các nhóm nghiên cứu ở VN cũng đã tùng ra nhiều LLM Việt như PhoBERT, viLLM, VietCUNA, hay gần đây là các phiên bản GPT-2/GPT-3 tiếng Việt. Dĩ nhiên, muốn xài các model này lại không phải đơn giản để ai cũng có thể tiếp cận sử dụng.

ChatGPT-Is-Cutting-Non-English-Languages-Business-1417723053.webp

Cần phải nhắc lại, chúng ta vẫn đang ở giai đoạn quá sơ khai trong sự phát triển của AI. Tốc độ của các nghiên cứu AI là cực kỳ nhanh, vài tuần là có nghiên cứu mới. Khoảng năm 2023–2025, chúng ta chứng kiến những cải tiến rõ rệt: GPT-4 đã thể hiện khả năng đa ngữ tốt hơn hẳn GPT-3.5, thu hẹp khoảng cách với tiếng Anh. Các mô hình mới như ChatGPT 5 hay Gemini 2.5 tiếp tục hướng đến tính đa ngôn ngữ, giảm dần sự phụ thuộc vào tiếng Anh. Dù GPT-5 chưa tạo bước ngoặt lớn, nó cũng duy trì hiệu năng cao cho tiếng Việt tương đương GPT-4. Đặc biệt, Google Gemini 2.5 nổi lên như một ví dụ về việc tập trung đầu tư vào đa ngữ, cho phép người dùng Việt tương tác tự nhiên hơn bao giờ hết.

Tuy nhiên, ở hiện tại thì các giới hạn về sử dụng tiếng Việt đối với các chatbot vẫn còn ở đó và chưa được giải quyết triệt để. Như thế, trước khi đợi các nhà phát triển lớn như OpenAI hay Google hoàn thiện bộ tokenizer và điều chỉnh model của họ, để tạm gác qua các giới hạn về ngôn ngữ hiện tại để khai thác khả năng của model hiệu quả nhất, việc sử dụng prompt tiếng Anh hoặc ít nhất là pha tiếng Anh là biện pháp khá dĩ nhất hiện tại. Bởi thế, chẳng thân thiện gì khi sử dụng một prompt tiếng Anh, nhưng chí ít, ở hiện tại thì nó vẫn là biện pháp dễ nhất để chúng ta xài chatbot AI hiệu quả hơn trong một số tác vụ, đặc biệt là những thứ yêu cầu chiều sâu của lượng thông tin và tính phức tạp trong lý luận cần thiết.

Rồi, quá trời dài dòng, hy vọng bài viết cung cấp cho các bạn cái nhìn về tình hình hiện tại của các model AI, bản chất nó được huấn luyện, vận hành và cả cách hiện tại để tận dụng nó hiệu quả. Chúc vui vẻ. À, các nguồn của các báo cáo nghiên cứu về ngôn ngữ trong hoạt động của LLM khá hay, mình để bên dưới, các bạn nào quan tâm có thể bấm coi ha, 8 nguồn đều khá chất lượng và có cái nhìn toàn cảnh, nhiều thông tin hay kỹ thuật hay lắm mà đưa vào bài này nó không hợp.



Tham khảo 1, 2, 3, 4, 5, 6, 7, 8

 
==***==

Khoá học: Quản trị Chiến lược Dành cho các Lãnh đạo Doanh nghiệp
Nhấn vào đây để bắt đầu khóa học

Khóa học: Trở thành chuyên gia Bảo mật và tấn công ANM- Hacker mũ trắng
Nhấn vào đây để bắt đầu khóa học

Chuyên gia phân tích, tự động hóa Web iMacros
Nhấn vào đây để bắt đầu khóa học

Xây dựng ứng dụng tự động hóa AutoIT
Nhấn vào đây để bắt đầu khóa học

Khóa đào tạo Hacker và Marketing Facebook từ A - Z
Nhấn vào đây để bắt đầu khóa học

Khóa học: Phân tích và trực quan hóa dữ liệu với Power BI
Nhấn vào đây để bắt đầu khóa học

Khóa học đào tạo Marketing Facebook thông minh
Nhấn vào đây để bắt đầu khóa học

Lập trình Visual Foxpro 9 - Dành cho nhà quản lý và kế toán
Nhấn vào đây để bắt đầu khóa học

Làm chủ xây dựng Game chuyên nghiệp
Nhấn vào đây để bắt đầu khóa học

Trở thành chuyên gia Marketing Facebook thông minh
Nhấn vào đây để bắt đầu khóa học

Kỹ sảo Điện ảnh đỉnh cao với khóa học After Effect
Nhấn vào đây để bắt đầu khóa học

Trở thành chuyên gia Vẽ Đẳng Cấp với khóa học AI
Nhấn vào đây để bắt đầu khóa học

Làm Chủ thiết kế ảnh với Photoshop CC
Nhấn vào đây để bắt đầu khóa học

Dựng Phim Siêu đẳng với Adobe Premiere
Nhấn vào đây để bắt đầu khóa học

Khóa dựng phần mềm quản lý dành cho nhà Quản lý và Kế toán bằng MS ACCESS
Nhấn vào đây để bắt đầu khóa học

Khóa học Machine Learning cơ bản-Khoa học dữ liệu - AI
Nhấn vào đây để bắt đầu khóa học

Khóa học Đào tạo sử dụng Excel Chuyên nghiệp & ứng dụng
Nhấn vào đây để bắt đầu khóa học

Khóa học sử dụng PowerPoint Chuyên nghiệp & ứng dụng
Nhấn vào đây để bắt đầu khóa học

Khóa học xây dựng và quản trị hệ thống đào tạo trực tuyến
Nhấn vào đây để bắt đầu khóa học

Đóng góp nội dung

Gửi ý kiến cho ban biên tập
Gửi thông tin

Thông tin

ĐĂNG KÝ/LIÊN HỆ: