Amazon Web Services ha annunciato oggi Amazon Elastic Inference, un nuovo servizio che consente ai clienti di collegare l'accelerazione di inferenza basata su GPU a qualsiasi istanza Amazon EC2 e riduce i costi di apprendimento in profondità fino al 75%.
"Quello che vediamo in genere è che l'utilizzo medio di queste GPU di istanze P3 è compreso tra il 10 e il 30 percento, il che è piuttosto dispendioso con l'inferenza elastica. Non devi sprecare tutti quei costi e tutte quelle GPU ", ha detto Andy Jassy, amministratore delegato di AWS, sul palco della conferenza AWS re: Invent, che si tiene oggi. "[Amazon Elastic Inference] è un punto di svolta molto significativo nel riuscire a eseguire l'inferenza in modo molto più economico."Amazon Elastic Inference sarà disponibile anche per le istanze e gli endpoint di notebook Amazon SageMaker, "portando l'accelerazione agli algoritmi incorporati e agli ambienti di deep learning", ha scritto l'azienda in un post sul blog. Supporterà i framework di apprendimento automatico TensorFlow, Apache MXNet e ONNX.
È disponibile in tre dimensioni:
eia1.medium: 8 TeraFLOP di prestazioni a precisione mista.
eia1.large: 16 TeraFLOP di prestazioni a precisione mista.
eia1.xlarge: 32 TeraFLOP di prestazioni a precisione mista.
Immergiti nel nuovo servizio qui.
Rimani aggiornato seguici su Telegram
loading...