Недавнее появление ChatGPT вызвало много шума в отраслях, связанных с облачными вычислениями и искусственным интеллектом. Технологические гиганты, такие как Microsoft, Google и Baidu, создали продукты и услуги, основанные на технологиях генеративного ИИ. Эта новая волна интереса принесёт пользу участникам цепочки поставок графических процессоров и чипов ИИ — таким компаниям, как NVIDIA, TSMC, Unimicron, AIChip.
Данные, вычислительная мощность и алгоритмы — три фактора, определяющих развитие генеративного ИИ. Хотя продукты и услуги на основе ИИ относительно легко создавать, оптимизировать их гораздо сложнее. В этом отношении крупные облачные компании находятся в более выгодном положении, так как обладают огромным количеством необходимых ресурсов. С точки зрения разработчиков этих продуктов, существующие чат-боты, такие как ChatGPT, способны не только общаться с пользователями на естественном языке, но и в некоторой степени удовлетворять потребность в «понимании» пользовательского ввода.
Использование поиска в интернете стало повседневной привычкой большинства людей, и самой неотложной задачей крупных облачных компаний является дальнейшая оптимизация поисковых систем. Google остаётся абсолютным лидером на мировом рынке поисковых систем с долей рынка более 90 %. Microsoft Bing имеет рыночную долю всего в 3 % и вряд ли будет представлять серьёзную угрозу в краткосрочной перспективе. Однако благодаря чат-боту у Bing появляется все больше пользователей, которые могут внести свой вклад в виде обратной связи для дальнейшего совершенствования и обучения ИИ.
Для обучения ИИ требуется обработать огромное количество данных, и использование большого количества высокопроизводительных графических процессоров помогает сократить время обучения. В случае ChatGPT, количество используемых параметров обучения выросло со 120 миллионов в 2018 году до 180 миллиардов в 2020 году и потребовало 20 000 графических процессоров для обработки данных. Для дальнейшего коммерческого использования ChatGPT количество графических процессоров понадобится увеличить минимум до 30 000 штук. В этих расчётах для оценки использовались чипы уровня NVIDIA A100.
NVIDIA, вероятно, выиграет от развития генеративного ИИ сильнее всех. A100 — универсальная система для рабочих нагрузок, связанных с ИИ. Чип обеспечивает производительность 5 петафлопс и на сегодняшний день является лучшим выбором для анализа больших данных и ускорения ИИ. AMD, в свою очередь, выпустила серверные чипы серий MI00, MI200 и MI300, которые тоже широко используются для приложений на базе ИИ. TSMC продолжит играть ключевую роль в связанной цепочке поставок, наряду с Nan Ya PCB, Kinsus и Unimicron, которые тоже смогут воспользоваться растущей волной спроса. Разработчики ИИ-чипов из Тайваня, такие, как GUC, AIchip, Faraday Technology и eMemory также выиграют от бума генеративного ИИ.
Помимо непосредственной разработки продуктов, отрасли, использующие ИИ, столкнутся с нормативными проблемами из-за обоснованных опасений общественности по поводу персональных данных и поддельного контента. Смогут ли компании, предлагающие продукты и услуги на основе ИИ, защитить конфиденциальность данных пользователей и гарантировать, что определённые типы контента, такие как новости, являются «точными» или «аутентичными»? Существует также вопрос соблюдения местных законов и правил. Что касается обучающих ресурсов, то эффективная оптимизация моделей ИИ зависит от качества сортировки, фильтрации и интеграции различных типов данных, которые затем передаются разработчикам моделей ИИ для обучения.
Читайте нас: