vak: (Default)
[personal profile] vak
С сегодняшнего дня наша компания (Wave Computing) начинает поставлять заказчикам вычислители для искусственного интеллекта и машинного обучения.



Скорость на стандартных тестах примерно в 600 раз выше, чем у облачных решений и GPU.



Спецификация вычислителя: WaveComputing_ProductBrief_6.7.0.pdf

Date: 2018-06-26 22:08 (UTC)
ya_miranda: (Default)
From: [personal profile] ya_miranda
Мда, пока мы тут тюленим, некоторые делают вполне такое будущее)

Date: 2018-06-27 00:50 (UTC)
ufm: (Default)
From: [personal profile] ufm
А если вот с этим сравнивать и по их технологии?
https://www.tensorflow.org/performance/benchmarks

Date: 2018-06-27 02:25 (UTC)
oleg304: (Default)
From: [personal profile] oleg304
Там - это в смысле, что ваша железка показывает хорошие результаты?
Ряд вопросов:
- она показывает хорошие результаты только для TensorFlow?
- есть ли тесты для OpenCV и DLib?
- каков порядок стоимости вашего железа?
- ну и последний, просто интересно, на чем сделали: FPGA или уже ASIC?

А вообще, идея мне нравится. Привет Скайнет;)
Edited Date: 2018-06-27 02:27 (UTC)

Date: 2018-06-27 02:54 (UTC)
oleg304: (Default)
From: [personal profile] oleg304
Круто!
Маркетологам только скажите, что прирост в 10% на конфигурации с 1 GPU в таблице смотрится не очень реально. Должно быть больше.
Edited Date: 2018-06-27 02:59 (UTC)

Date: 2018-06-27 05:12 (UTC)
From: [personal profile] max_tx
Блин, я вот честно пытался прочитать PDF, но это поток сознания какой то, перемежающийся словами "революционный" и прочее((( нет ли другого PDF, который бы внятно объяснял как оно унутре устроено (и лучше бы в форме paper, как оно нынче принято)? Не корысти ради, и не пофлудить, а на самом деле интересно

Date: 2018-06-27 08:37 (UTC)
vit_r: default (Default)
From: [personal profile] vit_r
Круто будет, когда на этом сделают какую-нибудь реальную задачу. Из рекламки ничего не понятно.

Date: 2018-06-27 11:44 (UTC)
From: [personal profile] as_me
AI "сопроцессор" от Qualcomm-a -- что-то близкое или совсем не то?

Date: 2018-06-30 20:43 (UTC)
oleg304: (Default)
From: [personal profile] oleg304
https://devblogs.nvidia.com/inside-volta/

Tensor Cores
Tesla P100 delivered considerably higher performance for training neural networks compared to the prior generation NVIDIA Maxwell and Kepler architectures, but the complexity and size of neural networks have continued to grow. New networks that have thousands of layers and millions of neurons demand even higher performance and faster training times.

New Tensor Cores are the most important feature of the Volta GV100 architecture to help deliver the performance required to train large neural networks. Tesla V100’s Tensor Cores deliver up to 125 Tensor TFLOPS for training and inference applications. Tensor Cores provide up to 12x higher peak TFLOPS on Tesla V100 for deep learning training compared to P100 FP32 operations, and for deep learning inference, up to 6x higher peak TFLOPS compared to P100 FP16 operations. The Tesla V100 GPU contains 640 Tensor Cores: 8 per SM.

Matrix-Matrix multiplication (BLAS GEMM) operations are at the core of neural network training and inferencing, and are used to multiply large matrices of input data and weights in the connected layers of the network. As Figure 6 shows, Tensor Cores in the Tesla V100 GPU boost the performance of these operations by more than 9x compared to the Pascal-based GP100 GPU.