Hà Nội 27oC Nhiều mây
  • An Giang
  • Bình Dương
  • Bình Phước
  • Bình Thuận
  • Bình Định
  • Bạc Liêu
  • Bắc Giang
  • Bắc Kạn
  • Bắc Ninh
  • Bến Tre
  • Cao Bằng
  • Cà Mau
  • Cần Thơ
  • Điện Biên
  • Đà Nẵng
  • Đà Lạt
  • Đắk Lắk
  • Đắk Nông
  • Đồng Nai
  • Đồng Tháp
  • Gia Lai
  • Hà Nội
  • Hồ Chí Minh
  • Hà Giang
  • Hà Nam
  • Hà Tĩnh
  • Hòa Bình
  • Hưng Yên
  • Hải Dương
  • Hải Phòng
  • Hậu Giang
  • Khánh Hòa
  • Kiên Giang
  • Kon Tum
  • Lai Châu
  • Long An
  • Lào Cai
  • Lâm Đồng
  • Lạng Sơn
  • Nam Định
  • Nghệ An
  • Ninh Bình
  • Ninh Thuận
  • Phú Thọ
  • Phú Yên
  • Quảng Bình
  • Quảng Nam
  • Quảng Ngãi
  • Quảng Ninh
  • Quảng Trị
  • Sóc Trăng
  • Sơn La
  • Thanh Hóa
  • Thái Bình
  • Thái Nguyên
  • Thừa Thiên Huế
  • Tiền Giang
  • Trà Vinh
  • Tuyên Quang
  • Tây Ninh
  • Vĩnh Long
  • Vĩnh Phúc
  • Vũng Tàu
  • Yên Bái

Amazon tung chip trí tuệ nhân tạo

Thu Thảo
nguyen.thuthao1188@gmail.com
29/11/2018 09:03 GMT+7

Amazon Web Services vừa công bố tung chip trí tuệ nhân tạo (AI) Inferentia từ năm sau.

Theo CNBC, Amazon Web Service thông báo tại hội nghị người dùng AWS Re:Invent diễn ra ở Las Vegas (Mỹ) rằng chip Inferentia mới sẽ cung cấp cho các nhà nghiên cứu AI “hiệu suất hoạt động cao với chi phí thấp”. Amazon Web Service là hãng dịch vụ điện toán đám mây lớn mới nhất xây dựng bộ xử lý thế hệ kế tiếp.
Với thông báo này, Amazon theo chân Google vào thị trường chip. Google công bố Tensor Processing Unit (TPU) đầu tiên vào năm 2016. Alibaba, hãng cung ứng dịch vụ điện toán đám mây phổ biến ở Trung Quốc, cũng sắp tung chip AI.
Đến nay, Amazon Web Services là doanh nghiệp đi đầu trong cơ sở hạ tầng đám mây công cộng, dịch vụ mà doanh nghiệp có thể dựa vào để chạy phần mềm và lưu trữ dữ liệu từ xa. Microsoft, IBM và Google đều đang cạnh tranh với Amazon Web Services trong bối cảnh giới doanh nghiệp di chuyển khối lượng công việc của họ từ trung tâm dữ liệu truyền thống sang đám mây.
Chip Inferentia ra thị trường vào cuối năm 2019. Như nhiều dịch vụ khác của Amazon Web Services, khách hàng có thể thanh toán dựa trên mức độ họ sử dụng.
Có hai giai đoạn phổ biến trong công nghệ AI: Đào tạo AI bằng cách đưa cho chúng nhiều dữ liệu, sau đó hiển thị cho AI dữ liệu mới mà nó có thể dùng để chạy dự đoán. Từ năm 2016, Google đã giới thiệu chip TPU cạnh tranh với Nvidia trong việc đào tạo mô hình AI. Inferentia hiện chỉ tập trung vào suy luận. Amazon cho rằng một số công việc suy luận đòi hỏi cả bộ xử lý đồ họa vốn rất đắt đỏ. “Giải quyết thử thách này với chi phí thấp đòi hỏi một chip suy luận chuyên dụng", Amazon cho hay.
Đầu tuần này, Amazon Web Services công bố chip dựa trên ARM, là sự thay thế cho bộ xử lý tính toán truyền thống từ các hãng sản xuất chip như Intel. Chip loại này tập trung vào khối lượng công việc tính toán tiết kiệm năng lượng, chi phí thấp.
Ngoài ra, CEO Amazon Web Services Andy Jassy cũng tiết lộ đến cuối năm sau, gần như toàn bộ cơ sở dữ liệu chạy trên Oracle của Amazon sẽ chạy trên cơ sở dữ liệu của chính công ty. “Chúng tôi gần như hoàn tất việc thoát khỏi Oracle về mặt cơ sở dữ liệu. Tôi nghĩ đến giữa hoặc cuối năm 2019, chúng tôi sẽ hoàn tất”, ông Jassy nói.
Amazon đã và đang giảm sự phụ thuộc nhu cầu dữ liệu vào Oracle để dùng dịch vụ của riêng mình. Ông Jassy cho hay 88% cơ sở dữ liệu Amazon hiện chạy trên Oracle sẽ chạy trên Amazon DynamoDB hoặc Amazon Aurora đến tháng 1.2019. 97% cơ sở dữ liệu quan trọng sẽ chạy trên DynamoDB hoặc Aurora đến cuối năm 2019.
Top