Как Apple использовала помощь Google для обучения своих моделей искусственного интеллекта

280

На сцене на этой неделе генеральный директор Apple Тим Кук объявил о громком соглашении с OpenAI о включении его мощной модели искусственного интеллекта в качестве части своего голосового помощника, Siri.

Однако во внимательно прочитанном техническом документе, опубликованном Apple после мероприятия, компания четко указывает, что Google (дочерняя компания конгломерата Alphabet) стала еще одним победителем в стремлении компании из Купертино, штат Калифорния, догнать по развитию искусственного интеллекта.

Для построения базовых моделей искусственного интеллекта Apple, инженеры компании использовали собственное программное обеспечение с использованием широкого спектра аппаратных средств, в частности собственные графические процессоры (GPUs) и чипы, доступные только на облачной платформе Google – тензорные процессорные блоки (TPUs).

Google разрабатывает TPUs примерно 10 лет и публично обсуждал два варианта своих чипов пятого поколения, способных использоваться для обучения искусственного интеллекта; версия производительности пятого поколения предлагает производительность, сопоставимую с чипами AI Nvidia H100, сообщила Google.

На ежегодной конференции разработчиков Google объявили, что шестое поколение будет запущено в этом году.

Процессоры предназначены специально для работы с приложениями искусственного интеллекта и обучения моделей, и Google создал облачное аппаратное и программное обеспечение вокруг них.

Apple и Google не немедленно ответили на запросы о комментарии.

Apple не обсуждало насколько оно полагалось на чипы и программное обеспечение Google по сравнению с оборудованием от Nvidia или других поставщиков искусственного интеллекта.

Однако использование чипов Google обычно требует от клиента приобретения доступа к ним через свое облачное подразделение, аналогично тому, как заказчики покупают вычислительные мощности у AWS или Azure.
Оригинальная новость на сайте