Theo Nathan Benaich, một nhà đầu tư, A100 đã trở thành “con ngựa đầu tàu” vào thời điểm hiện tại. Công ty sản xuất ra nó hiện chiếm tới 95% thị trường bộ xử lý đồ họa sử dụng cho máy học.
Với khả năng nạp ‘năng lượng’ cho các ứng dụng, một con chip trị giá khoảng 10.000 USD đang được coi là yếu tố quan trọng nhất nhì ngành trí tuệ nhân tạo: Nvidia A100.
Một phần mềm có thể viết luận văn, báo, hay vẽ tranh không kém cạnh các họa sĩ đã tạo ra ‘cơn sốt’ mới trong ngành công nghệ. Trong bối cảnh đó, các công ty như Microsoft và Google nỗ lực tích hợp AI tiên tiến vào công cụ tìm kiếm, trong khi các đối thủ trị giá hàng tỷ USD như OpenAI và Stable Diffusion chạy đua phát hành phần mềm.
Theo CNBC, A100 rất lý tưởng cho loại mô hình máy học hỗ trợ ChatGPT hoặc Bing AI. Việc nó có thể thực hiện đồng thời nhiều phép tính đơn giản được cho là có thể giúp ích cho việc đào tạo và sử dụng các mô hình mạng lưới thần kinh.
Ban đầu công nghệ của A100 được sử dụng để hiển thị đồ họa 3D phức tạp trong trò chơi. Nó thường được gọi là bộ xử lý đồ họa hoặc GPU, song ngày nay, A100 của Nvidia nhắm mục tiêu sang các tác vụ học máy và trung tâm dữ liệu chứ không đơn thuần chỉ là các PC trò chơi nữa. Các công ty lớn hoặc startup làm việc dựa trên chatbot và trình tạo hình ảnh sẽ cần hàng trăm hoặc hàng nghìn con chip trên của Nvidia.
“Một năm trước, chúng tôi có 32 con chip A100”, Giám đốc điều hành của Stability AI, Emad Mostaque viết trên Twitter. Được biết, Stability AI là công ty hỗ trợ phát triển Stable Diffusion - một công cụ tạo hình ảnh thu hút sự chú ý của công chúng vào mùa thu năm ngoái với mức định giá hơn 1 tỷ USD. Giờ đây, Stability AI có quyền truy cập vào hơn 5.400 GPU A100, theo ước tính của State of AI.
Theo các chuyên gia, cần hàng trăm GPU để huấn luyện các mô hình trí tuệ nhân tạo. Các con chip cũng cần đủ mạnh để có thể xử lý hàng terabyte dữ liệu một cách chính xác và nhanh chóng. Điều này đồng nghĩa với việc các công ty AI cần tiếp cận rất nhiều A100. Một số người còn coi số lượng A100 mà họ có quyền truy cập là chỉ dấu của sự tiến bộ.
CNBC cho rằng Nvidia sẽ được hưởng lợi từ cơn sốt AI. Trong báo cáo tài chính quý IV, bất chấp việc tổng doanh thu giảm 21%, giới đầu tư vẫn tin tưởng và đẩy giá cổ phiếu lên khoảng 14% trong phiên giao dịch ngày hôm qua. Động lực chủ yếu đến từ hoạt động kinh doanh chip AI của Nvidia, vốn đã tăng 11% lên hơn 3,6 tỷ USD.
Giám đốc điều hành Nvidia, Jensen Huang, không thể ngừng nói về AI trong cuộc trò chuyện với các nhà phân tích, đồng thời gợi ý rằng sự bùng nổ gần đây của trí tuệ nhân tạo chính là chiến lược của công ty.
“Hoạt động xoay quanh việc xây dựng cơ sở hạ tầng AI, sử dụng Hopper và Ampere nhằm tác động đến các mô hình ngôn ngữ lớn đã tăng vọt trong 60 ngày qua”, Huang nói. Được biết Ampere là tên mã dành cho thế hệ chip A100, còn Hopper là tên chip thế hệ mới H100.
Theo CNBC, các công ty khổng lồ về AI thường cần mua nhiều GPU để xử lý hoặc cải thiện mô hình. Những GPU này không hề rẻ. Ngoài một A100 duy nhất có thể cắm vào máy chủ hiện có, nhiều trung tâm dữ liệu còn sử dụng hệ thống cao cấp hơn bao gồm 8 GPU A100 hoạt động cùng nhau. Hệ thống này, DGX A100, có giá đề xuất gần 200.000 USD. Nvidia cho biết họ sẽ bán trực tiếp quyền truy cập đám mây cho các hệ thống DGX nhằm giảm chi phí đầu vào cho các nhà nghiên cứu.
Huang, Giám đốc điều hành của Nvidia, cho biết trong một cuộc phỏng vấn với phóng viên Katie Tarasov của tờ CNBC rằng các sản phẩm của công ty thực sự không đắt. Công ty thậm chí còn cho phép các công ty khởi nghiệp đào tạo mô hình với chi phí thấp hơn nhiều so với việc họ sử dụng bộ xử lý máy tính truyền thống.
“Bây giờ bạn có thể xây dựng thứ gì đó giống như mô hình ngôn ngữ lớn, chẳng hạn như GPT, với giá khoảng 10, 20 triệu USD”, Huang nói. “Điều đó thực sự, thực sự rẻ”.
Theo một ước tính từ New Street Research, mô hình ChatGPT dựa trên OpenAI có thể yêu cầu 8 GPU để đưa ra câu trả lời trong vòng chưa đầy 1 giây. Với tốc độ đó, Microsoft sẽ cần hơn 20.000 máy chủ 8 GPU chỉ để triển khai Bing, tức tiêu tốn tới 4 tỷ USD.
“Nếu bạn đến từ Microsoft và muốn mở rộng quy mô, 4 tỷ USD là con số bạn cần phải bỏ ra. Còn nếu bạn muốn mở rộng theo quy mô của Google, nơi phục vụ 8 hoặc 9 tỷ truy vấn mỗi ngày, bạn sẽ phải chi 80 tỷ USD cho DGX”, Antoine Chkaiban, một nhà phân tích công nghệ tại New Street Research cho biết. “Những con số chúng tôi đưa ra rất lớn, nhưng chúng chỉ đơn giản phản ánh thực tế”.
Nvidia không phải là công ty duy nhất sản xuất GPU để sử dụng trí tuệ nhân tạo. AMD, Intel và Google cũng đang phát triển dòng chip đặc biệt để phục vụ công cuộc AI mới.
Tuy nhiên, “phần cứng AI vẫn có mối liên hệ chặt chẽ với Nvidia”, theo một báo cáo được tờ CNBC trích dẫn. Tính đến tháng 12, hơn 21.000 bài báo nguồn mở về AI cho biết họ đã sử dụng chip Nvidia.
Hầu hết các nhà nghiên cứu đều sử dụng V100 - con chip Nvidia ra mắt vào năm 2017. Tuy nhiên, việc A100 tiên tiến đã và phát triển nhanh chóng đã biến đây trở thành con chip được ưu tiên sử dụng.
Theo Reuters, việc giá cổ phiếu Nvidia tăng lên trong phiên giao dịch vừa qua đã nâng giá trị thị trường của công ty thêm hơn 70 tỷ USD, đạt mức hơn 580 tỷ USD, tức gấp khoảng 5 lần so với một ông lớn cùng ngành khác là Intel.