Разработка и внедрение AI
Разработка приложения с нейросетью
Создание нейросети
Компьютерное зрение
Разработка приложения с искусственным интеллектом
ChatGPT внедрить в компанию
Создать прототип нейросети
MVP приложения с ChatGPT
10 главных трендов AI и ML на 2024 год

Пользовательские корпоративные модели, ИИ с открытым исходным кодом, мультимодальность - узнайте о главных трендах ИИ и машинного обучения в 2024 году и о том, как они обещают изменить отрасль.

После запуска ChatGPT в ноябре 2022 года, 2023 стал поворотным моментом в искусственном интеллекте. Прошлогодние достижения - от активного ландшафта открытых исходных кодов до сложных мультимодальных моделей - заложили основу для значительных прогрессов в области ИИ.

Но хотя генеративный ИИ продолжает завораживать мир технологий, отношение к нему становится более тонким и зрелым, поскольку организации смещают свое внимание с экспериментов на реальные инициативы. Тенденции этого года отражают углубляющуюся сложность и осторожность в стратегиях разработки и развертывания ИИ с учетом этики, безопасности и изменяющегося регулятивного окружения.

Вот топ-10 тенденций ИИ и машинного обучения, к которым следует подготовиться в 2024 году.

1. Мультимодальный ИИ
Мультимодальный ИИ выходит за рамки традиционной обработки данных одного типа, охватывая несколько видов входных данных, таких как текст, изображения и звук - шаг к имитации способности человека обрабатывать разнообразную сенсорную информацию.

"Интерфейсы мира мультимодальны", - сказал Марк Чен, руководитель исследований на передовом фронте в OpenAI, в ноябрьской презентации на конференции EmTech MIT 2023 года. "Мы хотим, чтобы наши модели видели то, что мы видим, и слышали то, что мы слышим, и мы хотим, чтобы они также создавали контент, который обращается к более чем одному из наших чувств."

Мультимодальные возможности в модели GPT-4 от OpenAI позволяют программному обеспечению реагировать на визуальный и звуковой ввод. В своем выступлении Чен привел пример снятия фотографий внутри холодильника и запроса у ChatGPT рецепта на основе ингредиентов на фотографии. Взаимодействие может включать даже звуковой элемент при использовании режима голоса ChatGPT для произнесения запроса вслух.

Хотя большинство инициатив по генеративному ИИ сегодня основаны на тексте, "настоящая сила этих возможностей проявится, когда можно будет соединить текст и разговор с изображениями и видео, скрестить все три и применить их к различным бизнес-процессам", - сказал Мэтт Баррингтон, руководитель подразделения в области новых технологий в EY.

Реальные приложения мультимодального ИИ разнообразны и расширяются. В области здравоохранения, например, мультимодальные модели могут анализировать медицинские изображения с учетом истории пациента и генетической информации для повышения точности диагностики. На уровне должностных обязанностей мультимодальные модели могут расширить возможности различных сотрудников, расширив базовые возможности дизайна и кодирования для лиц без формального образования в этих областях.

"Я не могу рисовать, чтобы спасти свою жизнь", - сказал Баррингтон. "Ну, теперь я могу. Я вполне умею общаться на языке, так что ... я могу использовать такую ​​возможность, как [генерация изображений], и некоторые из тех идей, которые были у меня в голове и которые я никогда не мог физически нарисовать, теперь может создать ИИ."

Более того, введение мультимодальных возможностей может усилить модели, предоставив им новые данные для обучения. "По мере того как наши модели становятся все более совершенными в моделировании языка и начинают достигать пределов того, что они могут узнать из языка, мы хотим предоставить моделям сырые данные из мира, чтобы они могли воспринимать мир самостоятельно и делать свои собственные выводы из вещей, таких как видео- или аудиоданные", - сказал Чен.
2. Агентный ИИ
Агентный ИИ представляет собой значительный сдвиг от реактивного к проактивному ИИ. ИИ-агенты - это передовые системы, которые обладают автономией, проактивностью и способностью действовать независимо. В отличие от традиционных ИИ-систем, которые в основном реагируют на ввод пользователя и следуют заранее заданному программированию, ИИ-агенты созданы для того, чтобы понимать своё окружение, ставить цели и действовать для их достижения без прямого вмешательства человека.

Например, в области экологического мониторинга ИИ-агент может быть обучен собирать данные, анализировать закономерности и инициировать профилактические действия в ответ на угрозы, такие как ранние признаки лесного пожара. Точно так же финансовый ИИ-агент может активно управлять инвестиционным портфелем, используя адаптивные стратегии, реагирующие на изменяющиеся условия рынка в реальном времени.

"2023 год был годом возможности общения с ИИ," написал компьютерный ученый Питер Норвиг, сотрудник Института человеко-центричного ИИ Стэнфордского университета, в недавнем блоге. "В 2024 году мы увидим возможность для агентов делать вещи за вас. Бронировать, планировать поездку, подключаться к другим услугам."

Кроме того, комбинирование агентного и мультимодального ИИ может открыть новые возможности. В вышеупомянутой презентации Чен привел пример приложения, предназначенного для определения содержимого загруженного изображения. Раньше человек, желающий создать такое приложение, должен был бы обучить собственную модель распознавания изображений и затем разобраться, как её задействовать. Но с мультимодальными, агентными моделями это можно было бы сделать с помощью естественной языковой подсказки.

"Я действительно считаю, что мультимодальные возможности вместе с GPT откроют возможности для создания компьютерных зрительных приложений без кода, точно так же, как подсказки открыли возможности для создания многих текстовых приложений без кода," - сказал Чен.

3. ИИ с открытым исходным кодом
Создание крупных языковых моделей и других мощных генеративных систем искусственного интеллекта - это дорогой процесс, который требует огромного количества вычислительной мощности и данных. Но использование моделей с открытым исходным кодом позволяет разработчикам строить на основе работы других, снижая затраты и расширяя доступ к ИИ. Открытый исходный код ИИ общедоступен, обычно бесплатен, что позволяет организациям и исследователям вносить свой вклад и развиваться на основе существующего кода.

Данные GitHub за последний год показывают выдающееся увеличение вовлеченности разработчиков в ИИ, особенно в генеративный ИИ. В 2023 году проекты по генеративному ИИ впервые вошли в десятку самых популярных проектов на платформе для хранения кода, такие как Stable Diffusion и AutoGPT, привлекли тысячи новых участников.

В начале года открытые генеративные модели были в ограниченном количестве, и их производительность часто отставала от проприетарных вариантов, таких как ChatGPT. Но в течение 2023 года ландшафт значительно расширился, появились мощные конкуренты с открытым исходным кодом, такие как Llama 2 от Meta и модели Mixtral от Mistral AI. Это может изменить динамику ландшафта ИИ в 2024 году, предоставив более мелким и менее обеспеченным субъектам доступ к сложным моделям ИИ и инструментам, которые ранее были недоступны.

"Это дает всем легкий, довольно демократизированный доступ, и это отлично для экспериментов и исследований", - сказал Баррингтон.

Подходы с открытым исходным кодом также могут способствовать прозрачности и этическому развитию, так как больше глаз на коде означает большую вероятность выявления предвзятостей, ошибок и уязвимостей безопасности. Но эксперты также выразили опасения относительно злоупотребления открытым исходным кодом ИИ для создания дезинформации и другого вредного контента. Кроме того, создание и поддержка открытого исходного кода сложны даже для традиционного программного обеспечения, не говоря уже о сложных и вычислительно интенсивных моделях ИИ.
4. Генерация с расширением поиска
Хотя инструменты генеративного искусственного интеллекта широко использовались в 2023 году, они по-прежнему сталкиваются с проблемой галлюцинаций: вероятные, но неверные ответы на запросы пользователей. Это ограничение становится преградой для принятия их предприятиями, где галлюцинации в критически важных для бизнеса или обслуживания клиентов сценариях могут быть катастрофическими. Методика увеличения объема генерации с использованием извлечения (RAG) появилась как техника для снижения галлюцинаций, с потенциально глубокими последствиями для принятия ИИ предприятиями.

RAG объединяет генерацию текста с информационным поиском для повышения точности и актуальности создаваемого ИИ контента. Это позволяет большим языковым моделям (LLM) получать доступ к внешней информации, помогая им создавать более точные и контекстно осознанные ответы. Обход необходимости хранить всю информацию напрямую в LLM также уменьшает размер модели, что увеличивает скорость и снижает затраты.

"Вы можете использовать RAG, чтобы собрать огромное количество неструктурированной информации, документов и т. д., подать ее в модель, не требуя тонкой настройки или кастомизации модели", - сказал Баррингтон.

Эти преимущества особенно привлекательны для предприятий, где актуальные фактические знания критичны. Например, бизнесы могут использовать RAG с основными моделями для создания более эффективных и информативных чат-ботов и виртуальных помощников.

5. Индивидуальные генеративные модели ИИ для предприятий
Большие, универсальные инструменты, такие как Midjourney и ChatGPT, привлекли больше всего внимания среди потребителей, которые изучают генеративный ИИ. Но для бизнеса более мелкие, специализированные модели могут оказаться наиболее устойчивыми, поддерживаемыми растущим спросом на ИИ-системы, которые могут удовлетворить узкие требования.

Хотя создание новой модели с нуля - это возможность, это затратное предприятие, которое будет недоступно для многих организаций. Для создания настраиваемого генеративного ИИ большинство организаций вместо этого модифицируют существующие модели ИИ - например, изменяют их архитектуру или доводят до совершенства на наборе данных, специфичном для определенной области. Это может быть дешевле, чем создание новой модели с нуля или использование API для обращения к общедоступной LLM.

"Запросы к GPT-4 как к API, просто в качестве примера, очень дорогие, как с точки зрения стоимости, так и с точки зрения задержки - как долго это может занять возвращение результата", - сказал Шейн Люк, вице-президент по ИИ и машинному обучению в Workday. "Мы много работаем ... над оптимизацией, чтобы у нас были те же возможности, но это очень целенаправленно и специфично. И поэтому может быть использована гораздо меньшая модель, которую проще управлять."

Основное преимущество настраиваемых моделей генеративного ИИ - их способность удовлетворять узкие рынки и потребности пользователей. Подходящие инструменты генеративного ИИ могут быть созданы для практически любого сценария, от поддержки клиентов до управления цепочкой поставок и проверки документов. Это особенно актуально для секторов с высокоспециализированными терминами и практикой, таких как здравоохранение, финансы и юриспруденция.

Во многих бизнес-сценариях использование самых мощных LLM излишне. Хотя ChatGPT может быть наилучшим решением для чат-ботов, предназначенных для взаимодействия с потребителями и решения любых вопросов, "для более мелких предприятий это не самое актуальное решение", - сказал Люк.

Баррингтон ожидает, что предприятия будут исследовать более широкий спектр моделей в следующем году, по мере того как способности разработчиков ИИ начнут сходиться. "Мы ожидаем, что в течение следующего года или двух модели будут иметь гораздо более высокий уровень равенства - и это хорошо," - сказал он.

На меньшем масштабе Люк видел подобную ситуацию в Workday, который предоставляет набор сервисов ИИ для внутреннего экспериментирования команд. Хотя сотрудники в начале использовали в основном услуги OpenAI, по словам Люка, он постепенно видел переход к смешанным моделям от различных поставщиков, включая Google и AWS.

Создание настраиваемой модели вместо использования общедоступного инструмента также часто повышает конфиденциальность и безопасность, поскольку это дает организациям больше контроля над их данными. Люк привел пример создания модели для задач Workday, связанных с обработкой чувствительных персональных данных, таких как статус инвалидности и медицинская история. "Это не то, что мы собираемся отправлять третьей стороне," - сказал он. "Наши клиенты в основном не будут комфортно чувствовать себя в такой ситуации."

В свете этих преимуществ в области конфиденциальности и безопасности строже регулирование ИИ в следующие годы может побудить организации сконцентрировать свои усилия на собственных моделях, пояснила Джиллиан Кроссан, руководитель отдела риск-консалтинга и лидер глобального сектора технологий в Deloitte.

"Это будет поощрять предприятия сконцентрироваться больше на частных моделях, которые являются собственностью компании и специфичны для области, а не на этих крупных языковых моделях, которые обучены данными со всего интернета и все, что с этим связано," - сказала она.
6. Потребность в талантах в области искусственного интеллекта и машинного обучения
Создание, обучение и тестирование модели машинного обучения - это сложная задача, особенно если речь идет о внедрении и поддержке её работы в сложной IT-среде организации. Неудивительно, что растущая потребность в специалистах по искусственному интеллекту и машинному обучению ожидается и в 2024 году и далее.

"На рынке по-прежнему очень высокий спрос на таланты," - сказал Люк. "Очень легко найти работу в этой области."

В частности, по мере того как искусственный интеллект и машинное обучение становятся более важными в бизнес-процессах, возрастает потребность в специалистах, способных связать теорию с практикой. Это требует умения внедрять, отслеживать и поддерживать системы искусственного интеллекта в реальных условиях - дисциплина, которая часто называется MLOps, сокращенно от операций машинного обучения.

В недавнем отчете O'Reilly респонденты назвали программирование искусственного интеллекта, анализ данных и статистику, а также операции по искусственному интеллекту и машинному обучению тремя главными навыками, которые им необходимы для проектов по генеративному искусственному интеллекту. Однако такие навыки востребованы, но их недостаточно. "Это будет одним из вызовов в области искусственного интеллекта - иметь готовых к использованию таланты," - сказала Кроссан.

В 2024 году организации будут искать талант с такими навыками - и не только крупные технологические компании. С тем, как IT и данные становятся практически обязательными для бизнеса, а инициативы в области искусственного интеллекта становятся популярнее, создание внутренних возможностей в области искусственного интеллекта и машинного обучения готовится стать следующим этапом цифровой трансформации.

Кроссан также подчеркивает важность разнообразия в инициативах по искусственному интеллекту на всех уровнях, от технических команд, создающих модели, до руководства. "Одна из основных проблем с искусственным интеллектом и публичными моделями - это количество предвзятости, которое существует в обучающих данных," - сказала она. "И если у вас нет разнообразной команды внутри вашей организации, которая анализирует результаты и вызывает то, что вы видите, вы можете оказаться в худшем положении, чем были до использования искусственного интеллекта."
7. Теневой ИИ
Как сотрудники разных отделов проявляют интерес к генеративному искусственному интеллекту, организации сталкиваются с проблемой теневого ИИ: использование ИИ внутри организации без явного одобрения или контроля со стороны отдела информационных технологий. Этот тренд становится все более распространенным по мере того, как доступность ИИ растет, позволяя даже непрограммистам использовать его независимо.

Теневой ИИ обычно возникает, когда сотрудникам нужны быстрые решения проблемы или они хотят изучить новую технологию быстрее, чем это разрешают официальные каналы. Это особенно распространено для простых в использовании чат-ботов на основе ИИ, которые сотрудники могут попробовать в своих веб-браузерах с минимальными трудностями - без прохождения процессов обзора и одобрения со стороны отдела информационных технологий.

С одной стороны, исследование способов использования этих новых технологий свидетельствует о преимуществе прогрессивного и инновационного подхода. Но это также несет риски, так как конечные пользователи часто не обладают достаточной информацией о безопасности, конфиденциальности данных и соблюдении правил. Например, пользователь может загрузить коммерческие секреты в общедоступную LLM, не понимая, что это раскрывает чувствительную информацию третьим лицам.

"Как только что-то попадает в эти общедоступные модели, вы не можете его вернуть," - сказал Баррингтон. "Так что существует некоторый страх и риск, который важно учитывать для большинства предприятий, независимо от сектора."

В 2024 году организации должны предпринять шаги по управлению теневым ИИ через системы управления, которые балансируют поддержку инноваций с защитой конфиденциальности и безопасности. Это может включать установку ясных политик использования ИИ и предоставление одобренных платформ, а также поощрение сотрудничества между IT-специалистами и бизнес-лидерами для понимания того, как различные отделы хотят использовать ИИ.

"Реальность в том, что все используют его," - сказал Баррингтон, ссылаясь на недавние исследования EY, в которых было установлено, что 90% респондентов используют ИИ на работе. "Понравится вам это или нет, ваши сотрудники уже используют его сегодня, так что вы должны разобраться, как совместить его использование с этичными и ответственными нормами."

8. Проверка реальности генеративного ИИ
По мере того, как организации переходят от первоначального волнения, связанного с генеративным искусственным интеллектом, к его реальному применению и интеграции, им предстоит реальная проверка в 2024 году - фаза, которую часто называют "пропастью разочарования" в Цикле Шумера Гартнера.

"Мы определенно наблюдаем быстрое движение от этапа экспериментов к вопросу: 'Как я могу запустить это в масштабах своего предприятия?'" - сказал Баррингтон.

По мере ослабления начального энтузиазма организации сталкиваются с ограничениями генеративного искусственного интеллекта, такими как качество вывода, проблемы безопасности и этики, а также трудности интеграции с существующими системами и рабочими процессами. Сложность внедрения и масштабирования искусственного интеллекта в бизнес-среде часто недооценивается, и задачи, такие как обеспечение качества данных, обучение моделей и поддержка искусственных интеллектуальных систем в производстве, могут быть более сложными, чем изначально предполагалось.

"На самом деле довольно сложно создать приложение на основе генеративного искусственного интеллекта и запустить его в производство в реальных условиях продукта," - сказал Люк.

Позитивной стороной является то, что эти трудности, хотя и неприятны на коротком сроке, могут привести к более здоровому, сбалансированному взгляду на долгосрочную перспективу. Преодоление этой фазы потребует установления реалистичных ожиданий от искусственного интеллекта и развития более глубокого понимания того, что он может и не может делать. Проекты по искусственному интеллекту должны четко соотноситься с бизнес-целями и практическими сценариями использования, с четким планом измерения результатов.

"Если у вас очень общие сценарии использования, которые не определены четко, это, вероятно, будет самым большим препятствием для вас," - сказала Кроссан.
9. Повышенное внимание к этике ИИ и рискам безопасности
Распространение "глубоких подделок" и сложного контента, созданного с помощью ИИ, вызывает тревогу из-за возможной дезинформации и манипуляции в сфере медиа и политики, а также из-за кражи личности и других видов мошенничества. ИИ также может усилить эффективность вымогательских программ и атак "фишинга", делая их более убедительными, адаптивными и труднодоступными для обнаружения.

Хотя существуют усилия по разработке технологий для обнаружения контента, созданного с помощью ИИ, это остается сложной задачей. Существующие методы водяных знаков для ИИ довольно легко обходятся, а существующее программное обеспечение для обнаружения ИИ может подвергаться ложным срабатываниям.

Увеличение распространенности систем ИИ также подчеркивает важность обеспечения их прозрачности и справедливости - например, тщательного анализа обучающих данных и алгоритмов на предмет предвзятости. Кроссан подчеркнула, что эти этические и нормативные аспекты должны быть внедрены на протяжении всего процесса разработки стратегии в области ИИ.

"Вам нужно думать о том, как предприятие ... внедряет ИИ, какие контрольные меры вам понадобятся?" - сказала она. "И это начинает помогать вам планировать немного для регулирования, чтобы вы это делали вместе. Вы не делаете всю эту экспериментальную работу с ИИ, а потом [понимаете], 'А теперь нам нужно думать о контролях.' Вы делаете это одновременно."

Безопасность и этика также могут быть еще одной причиной рассмотрения меньших, более узкоспециализированных моделей, отметил Люк. "Эти более маленькие, настроенные, узкоспециализированные модели просто менее способны, чем действительно крупные, - и это то, что нам нужно," - сказал он. "Они менее вероятно могут создать что-то, что вам не нужно, потому что они просто не способны к такому множеству вещей."
10. Развивающееся регулирование ИИ
Неудивительно, что в свете этих этических и безопасностных проблем 2024 год обещает стать решающим для регулирования искусственного интеллекта, с законами, политиками и индустриальными стандартами, которые стремительно развиваются в США и по всему миру. Организации должны будут оставаться информированными и гибкими в следующем году, так как изменение требований к соблюдению может иметь серьезные последствия для мировых операций и стратегий развития искусственного интеллекта.

Законодательство ЕС о искусственном интеллекте, о котором недавно достигли временного соглашения члены Европарламента и Совета ЕС, представляет собой первый в мире всесторонний закон о искусственном интеллекте. Если он будет принят, он запретит определенные использования искусственного интеллекта, наложит обязательства на разработчиков высокорисковых систем искусственного интеллекта и потребует прозрачности от компаний, использующих генеративный искусственный интеллект, с невыполнением требований, что может привести к многомиллионным штрафам. И это не только новое законодательство, которое может оказать влияние в 2024 году.

"Интересно, что регулятивная проблема, которую я вижу и которая может оказать наибольшее влияние, это GDPR - хорошо знакомый GDPR - из-за необходимости исправления и удаления, права быть забытым, с общедоступными большими языковыми моделями", - сказала Кроссан. "Как вы контролируете это, когда они учатся на огромных объемах данных, и как можете быть уверены, что о вас забыли?"

Вместе с GDPR Закон о ИИ может позиционировать ЕС как глобального регулятора ИИ, потенциально влияющего на стандарты использования и разработки ИИ по всему миру. "Они, безусловно, опережают нас в США с точки зрения регулирования ИИ", - сказала Кроссан.

В США пока еще нет всестороннего федерального законодательства, сравнимого с Законом о ИИ ЕС, но эксперты призывают организации не ждать, пока формальные требования не вступят в силу, чтобы думать о соблюдении. Например, в EY "мы взаимодействуем со своими клиентами, чтобы опережать события", - сказал Баррингтон. В противном случае бизнесы могут оказаться в роли тех, кто бегает за событиями, когда регулирование начнет действовать.

Помимо влияния европейской политики, недавние действия в исполнительной власти США также указывают на то, как может развиваться регулирование ИИ внутри страны. Подписанный Президентом Джо Байденом в октябре указ реализовал новые мандаты, такие как требование от разработчиков ИИ предоставлять результаты тестирования безопасности правительству США и введение ограничений для защиты от рисков ИИ в инженерии опасных биологических материалов. Различные федеральные агентства также выпустили руководство, нацеленное на определенные секторы, такие как Комплекс управления рисками ИИ НИСТ и заявление Федеральной торговой комиссии, предупреждающее компании о делании ложных заявлений о использовании ИИ в их продуктах.

Еще больше усложняет ситуацию то, что 2024 год - это год выборов в США, и нынешний список президентских кандидатов демонстрирует широкий спектр позиций по вопросам технологической политики. Новая администрация теоретически может изменить подход исполнительной власти к надзору за ИИ путем отмены или пересмотра указа Байдена и необязательного руководства агентств.
Получите оценку проекта
Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности
Оцените свой проект! Заполните форму ниже
Похожие статьи