2

Google уже давно разрабатывает собственные чипы для алгоритмов машинного обучения (machine learning, обучение алгоритма на уже обработанных прецедентах — прим.ред). Сегодня компания опубликовала детальное описание работы чипов и рассказала о значительно большей их эффективности по сравнению со стандартными связками CPU+GPU.

Google впервые показала разработки новых Tensor Processing Unit​ (TPU) еще в мае прошлого года на конференции Google I/O, но не раскрыла никаких подробностей. Было сказано только, что эти устройства используются внутри фреймворка (программной платформы) TensorFlow. Сегодня Google опубликовала результаты сравнения TPU со стандартными рыночными решениями. В качестве эталона использовались процессоры Intel Haswell и видеочип Nvidia Tesla K80.

2017-04-05_1014

По словам компании (к которым стоит относиться с некоторым скептицизмом, ведь это статистика об их собственном продукте) их TPU в 15-30 раз производительнее при работе с задачами машинного обучения Google, и в 30-80 раз экономичнее (TeraOps/Watt).

2017-04-05_1011

В Google отметили, что первые работы по созданию новых чипов начались еще в 2006 году, и заметно активизировались в последнее время из-за широкого развития нейронных сетей. В компании также сказали, что новые TPU чипы не будут запущены в массовое производство из-за специфичности выполняемых задач. Вместо этого Google надеется, что другие компании воспользуются их наработками для создания собственных вычислительных решений для машинного обучения.

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: