Cuộc chạy đua về chip cho trí tuệ nhân tạo

bán card màn hình chuyên game hải phòng | bán card màn hình chuyên game tại hải phòng | bán card màn hình chuyên game ở hải phòng

bán card màn hình chuyên game hải phòng

Trong vài năm gần đây, những kỹ thuật tiến bộ về học máy (machine learning) đã giúp máy tính có thể nhận biết được vật thể trong ảnh chụp, hiểu được câu lệnh từ ngôn ngữ con người và dịch ngôn ngữ viết khá chính xác.

Nhưng trong khi các sản phẩm tiêu dùng như Siri của Apple hay Google Translate có thể hoạt động được theo thời gian thực thì việc thực sự tạo những mô hình toán học phức tạp cho các công cụ này vận hành trơn tru lại mới chỉ dựa vào kiến trúc máy tính truyền thống, cần rất nhiều thời gian, tài nguyên xử lý và điện năng. Kết quả là các nhà sản xuất chip như Intel, hãng sản xuất đồ hoạ Nvidia và hãng chip di động Qualcomm, cùng một số doanh nghiệp khởi nghiệp khác đang chạy đua phát triển phần cứng chuyên cho các hệ thống học sâu (deep learning) nhằm giảm chi phí cho các nền tảng trí tuệ nhân tạo, đồng thời giúp chúng vận hành nhanh và hiệu quả hơn.

Theo các nhà nghiên cứu AI, tầm quan trọng của những chip như vậy để phát triển và đào tạo những thuật toán AI mới cho thấy chúng cần phải được nhanh chóng phát triển. CEO của Nvidia, Jen-Hsun Huang, cho biết hồi tháng 11 vừa qua rằng: "Thay vì phải mất nhiều tháng trời, hệ thống AI chỉ cần mất vài ngày”.

Trong khi nhắc đến Nvidia, chúng ta thường nghĩ đến card màn hình, giúp game thủ chơi game bắn súng góc nhìn thứ nhất mượt mà hơn, có thể chạy ở độ phân giải màn hình cao nhất. Nhưng không chỉ có vậy, Nvidia cũng đang tập trung vào nghiên cứu, đưa chip xử lý đồ hoạ GPU của họ vào để chạy các tính toán khoa học và xử lý dữ liệu lớn trong các trung tâm dữ liệu.

Ian Buck, phó chủ tịch và giám đốc mảng điện toán của Nvidia, cho biết: “Trong vòng 10 năm qua, chúng tôi đã mang công nghệ GPU ra ngoài lĩnh vực đồ hoạ, đưa nó phục vụ cho nhiều ứng dụng hơn”.

Dựng hình video game và dựng ảnh theo thời gian thực dựa trên GPU là những tác vụ liên quan đến tính toán các phương trình toán học, như nhân hệ số ma trận, xử lý các tính toán cơ bản nhưng với số lượng lớn song song nhau. Các nhà nghiên cứu đã tìm thấy được những đặc điểm tương đồng như vậy không những trong dựng hình truyền thống, mà còn có thể áp dụng cho những ứng dụng khác, trong đó có chạy giả lập thời tiết và lập mô hình các cấu trúc tế bào sinh học phức tạp.

Và sau này, GPU đã thích ứng được với các hệ thống mạng thần kinh (neutral network) cho AI, các kiến trúc toán học được giả lập theo mô hình của não bộ con người để chạy marchine learning. Vì để chạy machine learning, các nhà nghiên cứu cũng dựa rất nhiều vào khả năng tính toán ma trận song song, lặp đi lặp lại nhiều lần.

Những tương đồng giữa tính toán xử lý dựng hình đồ hoạ và tính toán toán học, AI đã giúp Nvidia có được lợi thế không nhỏ trong thị trường này. Hãng cho biết doanh thu về trung tâm dữ liệu (data center) tăng gấp đôi mỗi năm trong báo cáo tài chính quý kết thúc ngày 21/10 vừa qua, đạt 240 triệu USD, mà phần lớn nhờ vào nhu cầu liên quan đến deep learning. Các nhà sản xuất GPU khác cũng rất phấn chấn về nhu cầu mới của thị trường, sau khi có những báo cáo doanh thu GPU trong toàn ngành công nghiệp máy tính cứ giảm dần theo năm vì thị trường máy tính bàn vài năm qua không mấy lạc quan. Hiện tại, Nvidia thống trị thị trường GPU với hơn 70% thị phần và giá cổ phiếu của hãng gần như tăng gấp 3 trong năm vừa qua vì GPU tìm được ứng dụng mới trong lĩnh vực AI.
Comments