Trước tiên, mình chúc các bạn một năm mới nhiều thành công, nhiều sức khỏe, và nhàn nhã như người đẹp này chúc.
Rồi, bây giờ mình đi vào nội dung chính hôm nay.
Giải thích ngắn gọn và hài hước về DeepSeek
Cho bạn nào rất bận rộn, thì mình thu lại những cái ngắn gọn từ giải thích của một kỹ sư Microsoft đã về hưu (bản full không che bên dưới, mình khuyến khích mọi người nên đọc, vô cùng rõ ràng và dễ hiểu):
Deep Seek là gì?
Deep Seek (R1) thực chất là một mô hình ngôn ngữ “distilled”. Cụ thể là:
Khi bạn huấn luyện một mô hình AI khổng lồ, nó có thể có đến hàng trăm tỉ hoặc thậm chí cả ngàn tỉ tham số, tiêu thụ dữ liệu khổng lồ và cần cả một trung tâm dữ liệu GPU chỉ để vận hành. Nhưng đôi khi, bạn không cần tất cả sức mạnh đó để xử lý những tác vụ thông thường — đó là lúc “distillation” xuất hiện.
Bạn dùng một mô hình lớn như GPT-4 (hoặc phiên bản khủng 671 tỉ tham số của Deep Seek) và dùng nó để “dạy” những mô hình nhỏ hơn.
Cách làm giống như một nghệ nhân bậc thầy truyền nghề cho một người học việc: bạn không cần người học việc phải nắm mọi thứ, chỉ cần họ đủ giỏi để làm tốt công việc.
Nó giống như dạy theo kiểu “học lỏm”: bạn có một mô hình lớn, biết hết về vật lý thiên văn, Shakespeare, và lập trình Python. Bằng cách cẩn thận chọn ví dụ và lặp lại quá trình huấn luyện, bạn có thể dạy mô hình nhỏ sinh ra những câu trả lời tương tự mà không cần chứa toàn bộ lượng thông tin khổng lồ bên trong. Nó giống như chép được lời giải, nhưng không mang theo cả thư viện.
2/ Hàm ý của việc này là gì?
Thứ nhất, nó hạ thấp đáng kể chi phí và rào cản tiếp cận AI. Phiên bản 32 tỉ tham số thì chạy “ngon” trên MacBook Pro của tôi.Tiếp theo, các phiên bản nhỏ hơn của Deep Seek thậm chí có thể chạy trên Orin Nano giá khoảng 249 đô la.
Việc Deep Seek R1 phát hành dưới dạng mã nguồn mở cũng “dân chủ hóa” quyền truy cập vào AI, cho phép các doanh nghiệp và chính phủ toàn cầu xây dựng dựa trên mô hình này, mà không phải lo về giấy phép hay những hạn chế do công ty Mỹ áp đặt.
Có lẽ không nên hoàn toàn tin Trung Quốc về con số chi phí thấp và phần cứng “hạng hai”.
Có thật DeepSeek chỉ tốn 6 triệu đôla? SemiAnalysis cho rằng phải tốn cả 1,3 tỷ đôla. Vậy là sao?
Về chuyện có thể con số 6 triệu đôla là một cú chém gió đỉnh cao, thì một version dễ hiểu và hài hước do bạn mình tóm tắt lại bài trên Interesting Engineering như bên dưới, mình “vuốt” lại cho mượt và điều chỉnh ví dụ tí cho dễ hiểu.
DeepSeek giống như tay chơi khởi nghiệp máu mặt giữa “đấu trường AI,” nhưng thay vì khoe mẽ thì họ lại khẳng định chỉ cần 6 triệu USD là làm ra được mô hình chatbot V3 ngon lành. Nghe cứ như bảo mở quán cơm mà vốn chỉ cần 6 cái chén!
SemiAnalysis không tin và khui ra sự thật rằng DeepSeek đã phải bỏ ra tận 1.3 tỷ USD – đủ để xây cả dãy phố quán ăn.
Phần lớn tiền này được đổ vào xây dựng và duy trì “bếp đám mây” với hàng chục ngàn GPU của Nvidia. Thay vì toàn dùng “bếp H100 xịn xò,” họ còn khéo léo tận dụng cả H800 và H20.
Nó giống như một quán ăn biết tận dụng đủ loại nồi niêu xoong chảo cũ kỹ để nấu thay vì phải đầu tư một cái bếp đám mây toàn nồi của Đức hàng hiệu, tráng hợp kim Thụy Sĩ và trang trí ở Pháp. Nhưng cái bếp đó vẫn ngốn tiền tỷ.
Dù chi phí khủng, DeepSeek vẫn ghi điểm nhờ công nghệ MLA, ví như đầu bếp tài năng nhớ chính xác sở thích của từng khách, giúp tiết kiệm đến 93.3% công sức nấu nướng.
Nhờ đó, họ vận hành chatbot với giá siêu cạnh tranh, khiến các đối thủ như Google Gemini Flash 2.0 cũng phải dè chừng.
Tuy nhiên, giống như quán ăn muốn trụ lại giữa chợ lớn, DeepSeek phải liên tục cải tiến để không bị khách hàng quay lưng.
Đã vậy, “ông tổ trưởng khu phố” Mỹ còn giơ biển cấm vận, gây không ít rào cản cho DeepSeek và các doanh nghiệp Trung Quốc.
Tổng kết lại, SemiAnalysis như nhà phê bình ẩm thực khẳng định rằng DeepSeek đang có một vị trí đáng nể trên bản đồ AI toàn cầu, nhưng hành trình phía trước vẫn đầy thử thách và đòi hỏi sự sáng tạo không ngừng.
Tác động lên các cổ phiếu Big Tech Mỹ ra sao?
Chart performance 1 tuần qua của Mỹ đã chỉ ra rõ ràng cái mà thị trường nghĩ. Rất rõ ràng, bất kể ai đúng, ai sai, thì sự độc quyền của các Big Tech Mỹ như bà con lên án là không đúng. Hiện tại là cạnh tranh toàn cầu, và không cần triển khai AI với chi phí cao, dùng chip xịn (xem phần giải thích ở trên).
Như vậy ông đã đổ tiền tấn vào làm chip xịn như Nvidia sẽ bị hit đầu tiên. Thứ hai là ông dự kiến sẽ ăn nhiều từ việc charge phí AI mắc như MSFT, nhưng tác động ít hơn vì income stream thật ra chưa có.
Kết quả là gì, là các tham số growth trong các mô hình định giá big tech sẽ phải điều chỉnh lại.
Tuy nhiên, nó cũng đặt ra một câu hỏi, đó là vì sao mà các ông Mỹ bỏ tiền tấn ra phát triển AI xong phải đi open ra cho mấy ông China “chưng cất” như vậy?
WSJ đã lên hẳn bài hôm nay tranh luận vấn đề này, cho rằng AI có thể phải là bí mật quốc phòng đem giấu đi. Điều này không dễ dàng. Vì bản thân AI không phải chỉ có Mỹ có mà là công nghệ mà nước nào cũng đang phát triển. Bản thân các nước Châu Âu thì ủng hộ idea là AI mở. Nếu China và các startup của Châu Âu bắt tay với nhau thì Mỹ cũng kẹt vì rất nhiều công nghệ và patent AI, chip của Mỹ hiện nay là mua từ Châu Âu về, bao gồm con ARM. Và một tay chơi chủ chốt trong chuỗi cung ứng là ASML là đồ Châu Âu.
Tất nhiên cụ Trump có thể kêu gọi anh em ngồi lại nói chuyện phải trái về chính sách AI. Nhưng khả năng “đóng” công nghệ AI theo mình đã không còn phù hợp nữa.
The Manhattan Project Was Secret. Should America’s AI Work Be Too?
Kỹ sư đã nghỉ hưu của Microsoft giải thích về Deepseek R1
Được cào về và dịch lại từ Dave's Garage
Hey, tôi là Dave, chào mừng bạn đến với cửa hàng của tôi. Tôi tên là Dave Plummer, một kỹ sư phần mềm đã nghỉ hưu tại Microsoft, làm việc từ thời MS-DOS và Windows 95. Hôm nay, chúng ta sẽ bàn về một cột mốc chấn động trong giới công nghệ: sự ra mắt của mô hình AI mã nguồn mở Deep Seek R1 của Trung Quốc.
Phát triển này được mô tả như một “Khoảnh khắc Sputnik” bởi Mark Andreessen, và điều đó không phải là nói quá. Cũng giống như việc phóng vệ tinh Sputnik từng thách thức sự tự tin về sức mạnh công nghệ của Mỹ trong thế kỷ 20, Deep Seek R1 đang buộc thế giới phải nhìn lại trong thế kỷ 21. Trước đây, nhiều người tin rằng cuộc đua giành vị trí dẫn đầu về AI nằm chắc trong tay những gã khổng lồ như OpenAI hay Anthropic. Nhưng với bước đột phá này, một đối thủ mới không chỉ xuất hiện mà còn vượt qua cả những kỳ vọng cao nhất.
Nếu bạn quan tâm đến tương lai của đổi mới AI và cuộc cạnh tranh công nghệ toàn cầu, bạn sẽ muốn hiểu Deep Seek R1 là gì, vì sao nó quan trọng, liệu có phải chỉ là trò lừa phóng đại, và nó ảnh hưởng thế giới ra sao.
Hãy đi sâu vào chi tiết.
Điểm khiến cả ngành công nghiệp bị chấn động và làm giá cổ phiếu của những công ty như Nvidia và Microsoft lao đao nằm ở chỗ: Deep Seek R1 không những ngang ngửa hoặc vượt qua hiệu năng của các mô hình AI hàng đầu của Mỹ như OpenAI 0.1, mà còn được phát triển với chi phí rất thấp, theo báo cáo là dưới 6 triệu đô la). Khi so sánh với hàng chục tỉ, nếu không muốn nói là nhiều hơn, đã được đầu tư để đạt được những kết quả tương tự (chưa kể đến khoản thảo luận 500 tỉ đô la liên quan đến dự án Stargate) thì đây rõ ràng là một lời cảnh báo.
Bởi Trung Quốc không chỉ khẳng định họ làm với chi phí rẻ, mà còn được cho là không cần đến các chip mới nhất của Nvidia. Nếu đúng, điều này chẳng khác nào việc bạn có thể chế tạo một chiếc Ferrari trong garage từ phụ tùng của Chevrolet. Và nếu bạn có thể tự lắp một chiếc Ferrari chẳng khác gì xe “chính hãng”, bạn nghĩ điều đó sẽ tác động thế nào đến giá Ferrari trên thị trường?
Deep Seek R1 là gì?
Đây là một mô hình ngôn ngữ mới được thiết kế để đạt hiệu suất “vượt tầm”, được huấn luyện ở quy mô nhỏ hơn nhưng vẫn có thể trả lời câu hỏi, sinh văn bản và nắm bắt bối cảnh. Điều làm nó nổi bật không chỉ là năng lực xử lý mà còn là cách nó được xây dựng — rẻ, hiệu quả, và đáng ngạc nhiên là rất linh hoạt. Deep Seek đã vận dụng các mô hình AI nền tảng quy mô lớn như OpenAI GPT-4 hay Meta LLaMA làm “khung sườn” (scaffolding) để tạo ra một thứ còn lớn hơn.
Hãy phân tích sâu hơn. Deep Seek R1 thực chất là một mô hình ngôn ngữ “distilled”. Khi bạn huấn luyện một mô hình AI khổng lồ, nó có thể có đến hàng trăm tỉ hoặc thậm chí cả ngàn tỉ tham số, tiêu thụ dữ liệu khổng lồ và cần cả một trung tâm dữ liệu GPU chỉ để vận hành. Nhưng đôi khi, bạn không cần tất cả sức mạnh đó để xử lý những tác vụ thông thường — đó là lúc “distillation” xuất hiện.
Bạn dùng một mô hình lớn như GPT-4 (hoặc phiên bản khủng 671 tỉ tham số của Deep Seek) và dùng nó để “dạy” những mô hình nhỏ hơn.
Cách làm giống như một nghệ nhân bậc thầy truyền nghề cho một người học việc: bạn không cần người học việc phải nắm mọi thứ, chỉ cần họ đủ giỏi để làm tốt công việc.
Deep Seek R1 đẩy cách tiếp cận này lên mức cao nhất bằng cách tận dụng những mô hình AI lớn hơn để dẫn dắt quá trình huấn luyện, nén gọn kiến thức và khả năng suy luận của những hệ thống đồ sộ thành một thứ nhỏ gọn và nhẹ hơn nhiều. Kết quả là bạn có một mô hình không đòi hỏi trung tâm dữ liệu khổng lồ để chạy — thậm chí có thể chạy trên CPU bình thường hoặc laptop, và đó là bước ngoặt lớn.
Vậy cụ thể nó hoạt động ra sao?
Nó giống như dạy theo kiểu “học lỏm”: bạn có một mô hình lớn, biết hết về vật lý thiên văn, Shakespeare, và lập trình Python. Thay vì cố tái tạo sức mạnh xử lý khủng đó, Deep Seek R1 tập trung bắt chước đầu ra (output) của mô hình lớn trong nhiều dạng câu hỏi và tình huống. Bằng cách cẩn thận chọn ví dụ và lặp lại quá trình huấn luyện, bạn có thể dạy mô hình nhỏ sinh ra những câu trả lời tương tự mà không cần chứa toàn bộ lượng thông tin khổng lồ bên trong. Nó giống như chép được lời giải, nhưng không mang theo cả thư viện.
Điều thú vị hơn nữa là Deep Seek không chỉ dựa vào một mô hình lớn mà dùng nhiều AI khác nhau, bao gồm cả mô hình mã nguồn mở như Meta LLaMA, để tạo ra các góc nhìn đa dạng trong quá trình huấn luyện — như thể tập hợp cả một hội đồng chuyên gia để đào tạo cho một học viên xuất sắc. Kết hợp góc nhìn từ nhiều kiến trúc và bộ dữ liệu khác nhau, Deep Seek R1 có độ linh hoạt và thích nghi hiếm thấy trong một mô hình nhỏ gọn. Còn quá sớm để đưa ra nhiều kết luận, nhưng vì mô hình này là mã nguồn mở, mọi thiên kiến (bias) hay bộ lọc tích hợp đều có thể được tìm thấy trong các tham số công khai. Nói cách khác, rất khó để che giấu những thứ đó khi mô hình được mở mã nguồn.
Trên thực tế, một trong những thử nghiệm đầu tiên của tôi là hỏi Deep Seek về bức ảnh nổi tiếng chụp một người đàn ông đứng chặn trước đoàn xe tăng. Mô hình trả lời chính xác: đó là sự kiện Thiên An Môn, giải thích ý nghĩa của tấm ảnh, tên nhiếp ảnh gia, và cả những vấn đề kiểm duyệt xung quanh nó. Tất nhiên, phiên bản Deep Seek trực tuyến ở Trung Quốc có thể khác, vì tôi đang chạy phiên bản offline. Nhưng bản công khai có thể tải xuống dường như rất đáng tin cậy.
Vì sao tất cả những điều này quan trọng?
Thứ nhất, nó hạ thấp đáng kể rào cản tiếp cận AI. Thay vì cần cơ sở hạ tầng khổng lồ hay nguồn năng lượng hạt nhân riêng để triển khai một mô hình ngôn ngữ lớn, giờ đây bạn có thể chỉ cần một hệ thống nhỏ hơn nhiều. Đó là tin tốt cho các công ty nhỏ, phòng thí nghiệm nghiên cứu, hoặc thậm chí những người đam mê AI muốn khám phá mà không tốn quá nhiều chi phí.
Thực tế là tôi đang chạy mô hình này trên AMD Threadripper, kèm với GPU Nvidia RTX 6000 48GB và có thể vận hành phiên bản lớn nhất 671 tỉ tham số với tốc độ sinh hơn 4 token mỗi giây. Phiên bản 32 tỉ tham số thì chạy “ngon” trên MacBook Pro của tôi. Tiếp theo, các phiên bản nhỏ hơn của Deep Seek thậm chí có thể chạy trên Orin Nano giá khoảng 249 đô la.
Nhưng cũng có một vài điểm cần lưu ý. Việc xây dựng một hệ thống với chi phí thấp luôn tiềm ẩn rủi ro. Trước tiên, mô hình nhỏ thường gặp khó khăn khi phải bao quát phạm vi kiến thức rộng như các mô hình lớn, dễ rơi vào tình trạng “ảo giác” (hallucinations), tức là đưa ra những câu trả lời nghe có vẻ rất tự tin nhưng lại sai. Chúng cũng có thể không hoạt động tối ưu với những câu hỏi đòi hỏi tính chuyên sâu hoặc phân tích tinh vi.
Ngoài ra, vì các mô hình nhỏ này dựa vào dữ liệu huấn luyện từ các mô hình lớn, chất lượng của chúng phụ thuộc rất nhiều vào “người thầy”. Nghĩa là nếu mô hình lớn có sai sót hay thiên kiến nào, thì mô hình nhỏ huấn luyện từ đó cũng sẽ “thừa hưởng” những vấn đề tương tự.
Còn về khả năng mở rộng, hiệu suất của Deep Seek rất ấn tượng, nhưng cũng cần nhớ rằng việc tập trung vào tối ưu chi phí và khả năng tiếp cận rộng rãi đồng nghĩa với việc Deep Seek R1 có thể sẽ không cạnh tranh trực tiếp với những mô hình AI khổng lồ về mặt khả năng tiên tiến nhất. Thay vào đó, nó tìm được vị trí riêng, đóng vai trò như một giải pháp AI thiết thực và tiết kiệm chi phí. Cách tiếp cận này gợi nhớ đến thời kỳ đầu của máy tính cá nhân (PC). Lúc ấy, ngành công nghiệp bị thống trị bởi các máy mainframe khổng lồ, rồi xuất hiện những chiếc PC nhỏ gọn, tuy không làm được mọi thứ nhưng “đủ tốt” cho rất nhiều tác vụ. Vài thập kỷ sau, PC đã làm thay đổi hoàn toàn lĩnh vực điện toán.
Deep Seek có thể chưa phải GPT-5, nhưng nó mở đường cho một bối cảnh AI “dân chủ hóa” hơn, nơi công nghệ cao cấp không chỉ gói gọn trong tay một số ít đại gia.
Hệ quả của điều này rất lớn. Hãy hình dung những mô hình AI được “may đo” riêng cho từng ngành, có thể chạy tại chỗ (on-premise) để đảm bảo tính riêng tư và quyền kiểm soát, hoặc thậm chí được cài đặt vào điện thoại thông minh hay thiết bị gia dụng. Ý tưởng về một trợ lý AI cá nhân—không nhất thiết dựa vào hạ tầng đám mây khổng lồ—trở nên khả thi hơn bao giờ hết.
Tất nhiên, con đường phía trước sẽ không ít thử thách. Deep Seek và các mô hình tương tự cần chứng minh chúng có thể xử lý tốt các tình huống thực tế, có khả năng mở rộng và tiếp tục đổi mới trong một lĩnh vực vốn đang bị những “ông lớn” thống trị.
Nhưng bài học từ lịch sử công nghệ cho thấy, không phải lúc nào đổi mới cũng đến từ những người khổng lồ. Đôi khi, chỉ cần một góc nhìn mới và sự quyết tâm—hay đôi khi là “buộc phải” làm khác đi—cũng đủ để tạo nên đột phá.
Deep Seek R1 cho thấy Trung Quốc không chỉ là người tham gia đơn thuần trong cuộc đua AI toàn cầu, mà là một đối thủ đáng gờm có khả năng tạo ra những mô hình nguồn mở tiên tiến. Đối với các công ty AI của Mỹ như OpenAI, Google DeepMind và Anthropic, điều này là thách thức kép: vừa phải duy trì vị thế dẫn đầu công nghệ, vừa phải lý giải vì sao mức giá (hay chi phí) cao của họ vẫn xứng đáng trong bối cảnh xuất hiện ngày càng nhiều giải pháp cạnh tranh hợp lý về chi phí.
Vậy tác động lên AI Mỹ là gì?
Các mô hình mở như Deep Seek R1 cho phép nhà phát triển trên toàn thế giới sáng tạo với chi phí thấp hơn, có thể làm giảm lợi thế cạnh tranh của các mô hình độc quyền, nhất là trong nghiên cứu và ứng dụng tại các doanh nghiệp vừa và nhỏ. Với các công ty Mỹ dựa vào doanh thu từ dịch vụ đăng ký (subscription) hoặc cung cấp API, áp lực cạnh tranh sẽ tăng lên, và không ít nhà đầu tư có thể bớt “nhiệt tình”.
Việc Deep Seek R1 phát hành dưới dạng mã nguồn mở cũng “dân chủ hóa” quyền truy cập vào AI, cho phép các doanh nghiệp và chính phủ toàn cầu xây dựng dựa trên mô hình này, mà không phải lo về giấy phép hay những hạn chế do công ty Mỹ áp đặt.
Điều đó thúc đẩy tốc độ ứng dụng AI trên khắp thế giới, nhưng cũng có thể làm giảm nhu cầu với những mô hình phát triển tại Mỹ, ảnh hưởng đến nguồn doanh thu của các hãng như OpenAI hoặc Google Cloud. Trên thị trường chứng khoán, những công ty phụ thuộc nhiều vào việc bán giấy phép công nghệ AI, hạ tầng đám mây, chip của Nvidia hoặc tích hợp API có thể sẽ bị ảnh hưởng khi nhà đầu tư điều chỉnh dự báo tăng trưởng.
Ngay phần đầu, tôi có nhắc đến giả thuyết “thuyết âm mưu” cho rằng có lẽ không nên hoàn toàn tin Trung Quốc về con số chi phí thấp và phần cứng “hạng hai”. Nếu thật sự có đầu tư lớn của nhà nước đứng sau, đây có thể là nỗ lực gây biến động thị trường Mỹ bằng cách tỏ ra làm AI “rẻ như cho” trong khi thực chất đã được bơm tiền khủng. Dù thế nào, cũng phải chờ thời gian trả lời.
Tóm lại, Deep Seek R1 là một mô hình AI nhỏ gọn nhưng “đấm” mạnh hơn trọng lượng của nó, được xây dựng với nhiều kỹ thuật thông minh nhằm đưa công nghệ AI tiên tiến đến gần hơn với nhiều người. Nó không hoàn hảo, cũng không cố gắng trở thành hoàn hảo, nhưng lại cho chúng ta cái nhìn thú vị về tương lai AI: nhẹ hơn, tiết kiệm hơn, hơi thô ráp, nhưng tiềm năng vô cùng lớn.
Cảm ơn bạn đã lắng nghe!
Bạn nào lười đọc có thể nghe
Vậy còn câu chuyện thương chiến thì sao?
Vẫn chưa có thông tin cụ thể về gói thuế quan cho từng mặt hàng, nhưng mà theo tin từ Nhà Trắng, cụ Trump sẽ áp thuế 25% lên Canada và Mexico, và 10% lên Trung Quốc, đồng thời ra lệnh review thương mại Mỹ-Trung. Cho nên 10% thuế suất lên Trung Quốc nhiều khả năng chỉ là bước dạo đầu. Khả năng nó tăng lên nhiều cho nhiều dòng sản phẩm sẽ cao hơn. Và có điều khoản tăng thuế quan nếu nước bị đánh thuế đáp trả.
Và trước mắt, số đông analyst/observer mình có nói chuyện thì tin rằng điều này có lợi cho ASEAN nói chung, và Việt Nam nói riêng.
Tuy nhiên, một phân tích ban đầu của chính phía TQ cho thấy sản xuất chuyển đi sẽ có sự khác biệt giữa nhiều ngành.
Southeast Asia’s share of China’s intermediate goods exports has risen sharply, from 13% in 2013 to nearly 18% in 2023, with Vietnam, Thailand, Malaysia and Indonesia becoming critical nodes in the global supply chain, driven by geographical advantages, competitive labor costs and trade liberalization.
The U.S.-China trade war has played an important role in this shift. Section 301 tariffs, introduced during Donald Trump’s first term, have cut China’s share of U.S. mechanical and electrical imports from 28% in 2018 to 17.1% in 2024.
To mitigate the effects of U.S. tariffs, Chinese companies have invested in manufacturing bases in Vietnam, Mexico and elsewhere.
Lower tariffs are also significant incentive for Chinese companies to set up local manufacturing in Southeast Asia. For example, components exported from there to the United States face duties as low as 10%, compared with 25% for goods made in China.
Sự dịch chuyển sản xuất sắp tới của các ngành sẽ khác nhau do tác động thuế quan và tối ưu chi phí khác nhau. Và anh em cả ASEAN sẽ cùng tranh nhau chiếc bánh này, chứ không phải chỉ có Việt Nam.
Fan Yimin, chief analyst for the machinery industry at Huachuang Securities Co. Ltd., said that industries such as electronics, automobiles, and photovoltaic lithium batteries were leading the shift to Southeast Asia, driven by cost optimization.
Sectors such as pharmaceuticals, semiconductors, home appliances and food manufacturing are relocating more slowly due to underdeveloped infrastructure, while traditional industries such as mining and metallurgy remain in their early stages due to limited local resources and policy support.
Luo from the China-ASEAN Research Institute said some photovoltaic companies have slowed investments or operations Vietnam, Thailand, Cambodia and Malaysia and are relocating to Indonesia, Laos or even South Asian countries. Companies that already have production capacity or investment plans in these four nations, might temporarily halt production or scale back investments, and perhaps resume operations later, he suggested.
Mình tin rằng sau Mexico và Canada, Mỹ sẽ quay sang China và EU, trong khi năm nay ASEAN vẫn sẽ hưởng lợi. Cho đến khi cụ Trump xử xong các đồng minh của mình và China, thì ổng mới rảnh nghĩ về ASEAN.
Trong tuần còn có nhiều câu chuyện về lãi suất toàn cầu đi theo xu hướng giảm ở nhiều nước (trừ ông Nhật), GDP Mỹ yếu hơn kỳ vọng, .v.v thì bạn đọc ở Facebook mình nha. Có nhiều bình luận, v.v. rồi, và khả năng sẽ trở lại hot trong các tuần sau. Tuần này digest các câu chuyện ở trên là mệt rồi.
PHIM HAY
Nếu bạn nào còn đang nghỉ tết và muốn cày phim, mình giới thiệu bộ này trên Netflix. Dễ coi, không quá triết lý, tình tiết nhanh. Mình bật lên coi trong lúc viết review paper, xong lọt hố luôn, cái paper đó thì mình recommend reject rồi :)
Bạn nào chưa đăng ký Đọc Chậm mà muốn qua năm mới có mấy bài như vầy để đọc cuối tuần thì có thể đăng ký ở bên dưới nha, hổng tốn tiền.