vak: (Default)
[personal profile] vak
Сегодня наша компания получила некоторую порцию внимания со стороны публики.

"SiMa.ai Raises $30 Million in Series A Investment Round Led by Dell Technologies Capital"

"SiMa.ai announces $30M Series A to build out lower-power edge chip solution"

"Reshaping the Machine Learning Landscape at the Embedded Edge"

"SiMa.ai - High Performance Machine Learning at the Edge"

Да, и мы нанимаем. Нужны специалисты по ML компиляторам, симуляторам, хардверу. Подробности здесь: https://sima.ai/careers/

Date: 2020-05-14 07:45 (UTC)
From: [personal profile] moneo1337
ну я предполагал что там GPU, даже inference на CPU по моему уже только для примеров размером с helloworld применяется

Date: 2020-05-14 15:49 (UTC)
From: [personal profile] olegmikul
Не совсем так, как раз CPU способны решать задачи бОльшего размера, максимальной памяти на сервере гораздо больше чем на карточке GPU. Но медленнее. Впрочем, это оффтопик.