Рынок идет к тому, чтобы сделать общение с AI максимально похожим на человеческое. Для этого нужно делать упор на мультимодальность: увеличивать количество объектов, с которыми может взаимодействовать генеративный искусственный интеллект и бесшовно переключаться между ними. Например, между голосом, текстом, картинкой, видео и так далее. Об этом в интервью «Коммерсантъ. Деньги» рассказал старший вице-президент, CTO, руководитель блока «Технологии» Сбербанка Андрей Белевцев.
«Еще одно важное направление — это понимание AI-контекста взаимодействия. Проще говоря, ассистент должен понимать, какой тип ответа вам требуется в данный момент — общего плана или детальный. Для этого ассистенту необходимо обладать памятью: помнить, о чём вы спрашивали вчера или неделю назад, и на основе этих данных предоставлять вам наиболее релевантный ответ. С учётом того, как быстро развиваются технологии в этой области, развитие этих направлений мы увидим уже в 2024 году», — отметил старший вице-президент Сбера.
В мире обостряется гонка вычислительных мощностей среди бигтехов, которые проводят разработки в области генеративного AI, так как для обучения моделей задействуются все большие вычислительные кластеры. Создание прорывных продуктов в этой сфере требует от команд проведения экспериментов, связанных с новыми архитектурами, новыми версиями претрейна и так далее. Вычислительные мощности в этой области используются в трех направлениях: развитии существующего продукта, поисковых исследованиях и inference, то есть непосредственном применении модели.
Андрей Белевцев также рассказал о том, что искусственный интеллект будет задавать основной вектор трёхлетней стратегии Сбера, так как AI продолжит быстро интегрироваться и внедряться во все сферы бизнеса.
«В этом есть две причины. Во-первых, LLM-модели будут ускоренно получать новые возможности, применимые практически в любой отрасли. Вторая причина в том, что внедрение компаниями продуктов на основе генеративного AI куда проще, чем их разработка. Чтобы встроить такой продукт в рабочий процесс, не нужно обладать специальными знаниями, порог входа для пользователей минимален. Мы видим для себя три ключевых вектора работы по этому направлению: развитие LLM-моделей, расширение облачной инфраструктуры, благодаря которой наши партнёры смогут внедрять искусственный интеллект в свои процессы с помощью API, и третье — это упрощение непосредственно разработки приложений с использованием больших языковых моделей», — рассказал Андрей Белевцев.