AWS non si accontenta di cedere alcuna parte di qualsiasi mercato a qualsiasi azienda. Quando si tratta di chip di apprendimento automatico, vengono in mente nomi come Nvidia o Google, ma oggi ad AWS re: Invent a Las Vegas, la società ha annunciato un nuovo chip dedicato per l'apprendimento automatico chiamato Inferentia.
"Inferentia sarà un processore molto conveniente, a bassa latenza, con prestazioni sostenute e molto conveniente", ha spiegato Andy Jassy, CEO di AWS durante l'annuncio.
Holger Mueller, analista di Constellation Research, afferma che mentre Amazon è molto indietro, questo è un buon passo per loro in quanto le aziende cercano di differenziare i loro approcci di apprendimento automatico in futuro.
"La velocità e il costo delle operazioni di machine learning in esecuzione - idealmente in deep learning - sono un fattore di differenziazione competitivo per le imprese. I vantaggi della velocità porteranno o romperanno il successo delle imprese (e delle nazioni quando si pensa alla guerra). Questa velocità può essere raggiunta solo con hardware personalizzato e Inferentia è il primo passo di AWS per entrare in questo gioco ", ha detto Mueller a TechCrunch. Come ha sottolineato, Google ha un inizio di 2-3 anni con la sua infrastruttura TPU.
Inferentia supporta framework popolari come INT8, FP16 e precisione mista. Inoltre, supporta diversi framework di machine learning, tra cui TensorFlow, Caffe2 e ONNX.
Ovviamente, essendo un prodotto Amazon, supporta anche i dati dei popolari prodotti AWS come EC2, SageMaker e il nuovo Elastic Inference Engine annunciato oggi.
Mentre il chip è stato annunciato oggi, il CEO di AWS, Andy Jassy, ha dichiarato che non sarà effettivamente disponibile fino al prossimo anno.