Разработка и внедрение AI
Разработка приложения с нейросетью
Создание нейросети
Компьютерное зрение
Разработка приложения с искусственным интеллектом
ChatGPT внедрить в компанию
Создать прототип нейросети
MVP приложения с ChatGPT

10 прогнозов в сфере ИИ на 2025 год

Статья исследует будущее искусственного интеллекта в 2025 году, рассматривая ожидаемые технологические прорывы, вызовы и тенденции. Обсуждаются рост беспилотных автомобилей, развитие голосовых ИИ, концепция самосовершенствующихся систем, безопасность ИИ, а также потенциал появления инноваций в веб-агентах и продуктах на базе ИИ.

Ниже представлены 10 прогнозов о том, что будет происходить в мире искусственного интеллекта в 2025 году, включая технологии, бизнес, политику и другие аспекты.

1. Meta начнёт взимать плату за использование моделей Llama.

Компания Meta является мировым лидером в области открытых моделей ИИ. В интересном примере корпоративной стратегии, в то время как соперники, такие как OpenAI и Google, держат свои передовые модели под закрытым исходным кодом и берут плату за их использование, Meta решила бесплатно предоставлять свои новейшие модели Llama.

Однако в следующем году многих удивит, когда Meta начнёт взимать плату с компаний за использование Llama. Чтобы быть точными: это не значит, что Meta полностью закроет доступ к исходному коду Llama или что каждый пользователь будет обязан за них платить.

Вместо этого стоит ожидать, что Meta ужесточит условия открытой лицензии Llama так, что компании, использующие Llama в коммерческих целях на определённом уровне, должны будут начать платить за доступ к моделям. Технически Meta уже ограниченно применяет это правило. Компания не разрешает самым крупным компаниям — облачным гигантам и другим компаниям с более чем 700 миллионами активных пользователей в месяц — свободно использовать свои модели Llama.

Ещё в 2023 году генеральный директор Meta Марк Цукерберг сказал: «Если вы представители таких компаний, как Microsoft, Amazon или Google, и планируете перепродавать [Llama], мы считаем, что имеет смысл получить долю доходов. В ближайшее время это, вероятно, не принесёт большого дохода, но в долгосрочной перспективе это может сработать».

В следующем году Meta значительно расширит круг организаций, которые должны будут платить за использование Llama, включая многие крупные и средние предприятия. Зачем Meta совершает этот стратегический поворот?

Поддержание передовых языковых моделей стоит невероятно дорого. Meta придётся инвестировать многие миллиарды долларов ежегодно, если она хочет, чтобы Llama оставалась конкурентоспособной с последними моделями от OpenAI, Anthropic и других. Meta является одной из крупнейших компаний в мире и обладает значительными финансовыми ресурсами. Но, как публичная компания, она несёт ответственность перед акционерами. Поскольку стоимость создания передовых моделей стремительно растёт, становится всё менее оправданным для Meta выделять такие огромные средства на обучение следующих поколений моделей Llama без ожидания дохода.

Любители, академики, индивидуальные разработчики и стартапы смогут продолжать использовать модели Llama бесплатно в следующем году. Но 2025 год станет тем годом, когда Meta серьезно займётся монетизацией Llama.

Хотите узнать, как лидеры российского рынка используют наши решения?


Ознакомьтесь с маркетинг-китом AllSee, где собраны реальные кейсы и решения, доказавшие свою эффективность в бизнесе!

2. Законы масштабирования будут обнаружены и применены за пределами обработки текста — в частности, в робототехнике и биологии.

Недавние обсуждения в области искусственного интеллекта часто касаются законов масштабирования и вопроса, не заканчивается ли их действие. Впервые представленные в статье OpenAI в 2020 году, основные идеи законов масштабирования просты: с увеличением количества параметров модели, объема тренировочных данных и вычислительных мощностей при обучении ИИ-модели, её производительность улучшается предсказуемым образом. Законы масштабирования объясняют впечатляющие улучшения производительности от GPT-2 до GPT-3 до GPT-4.

Как и закон Мура, законы масштабирования не являются настоящими законами, а просто эмпирическими наблюдениями. За последний месяц появились отчёты, предполагающие, что крупные лаборатории ИИ сталкиваются с уменьшением отдачи от продолжения масштабирования языковых моделей большого размера. Это помогает объяснить, почему выпуск GPT-5 от OpenAI продолжается с задержками.

Самым распространённым контраргументом к убывающей отдаче законов масштабирования является то, что внедрение вычислений во время тестирования открывает совершенно новое измерение, на котором можно применять масштабирование. То есть, вместо огромного увеличения вычислений во время обучения, новые модели рассуждения, такие как o3 от OpenAI, позволяют значительно увеличивать вычисления во время вывода, раскрывая новые возможности ИИ за счёт способности моделей "думать дольше".

Это важное замечание. Вычисления во время тестирования действительно представляют собой захватывающее новое направление для масштабирования и улучшения производительности ИИ.

Однако есть ещё один важный момент о законах масштабирования, который зачастую недооценивается в современных дискуссиях. Почти все обсуждения законов масштабирования — начиная с оригинальной статьи 2020 года и продолжая до сегодняшнего фокуса на вычислениях во время тестирования — сосредоточены на языке. Но язык — это не единственный формат данных, который имеет значение.

Возьмём, например, робототехнику, биологию, модели мира или веб-агенты. Для этих форматов данных законы масштабирования ещё не исчерпали себя; напротив, они только начинают развиваться. Фактически, строгие доказательства существования законов масштабирования в этих областях ещё не были опубликованы.

Стартапы, строящие фундаментальные модели для этих новых форматов данных, такие как EvolutionaryScale в биологии, Physical Intelligence в робототехнике, World Labs в моделях мира, стремятся выявить и использовать законы масштабирования в этих областях так, как OpenAI успешно использовала их для языковых моделей в первой половине 2020-х годов. В следующем году мы ожидаем значительных успехов в этих направлениях.

Не верьте слухам. Законы масштабирования никуда не исчезают. Они будут так же важны в 2025 году, как и раньше. Но центр активности законов масштабирования сместится от предобучения языковых моделей к другим форматам данных.

Дональд Трамп и Илон Маск могут поссориться, что окажет заметное влияние на мир ИИ. Новая администрация в США принесёт с собой ряд изменений в политике и стратегии в отношении ИИ. Чтобы предсказать развитие событий при президенте Трампе, можно было бы сосредоточиться на его тесных отношениях с Илоном Маском, учитывая центральную роль Маска в современном мире ИИ.

Можно представить различные способы, как Маск мог бы повлиять на развитие ИИ при администрации Трампа. Учитывая его неприязнь к OpenAI, возможно, новая администрация займёт менее дружелюбную позицию по отношению к OpenAI при взаимодействии с индустрией, разработке регулирования ИИ и распределении правительственных контрактов. С другой стороны, администрация Трампа могла бы благоволить компаниям самого Маска, например, упрощая правила для того, чтобы xAI мог строить дата-центры и получать преимущество в гонке за передовые модели, или ускоряя регуляторное одобрение для развертывания автопарков робомобилей Tesla.

Более того, Илон Маск, в отличие от многих других технологических лидеров, серьёзно относится к экзистенциальным рискам ИИ и выступает за значительное регулирование ИИ. Он поддержал спорный законопроект SB 1047 в Калифорнии, который стремился ввести существенные ограничения для разработчиков ИИ. Влияние Маска в этой области могло бы привести к более строгой регуляторной среде для ИИ в США.

Однако существует проблема с этими предположениями. Дружеские отношения между Дональдом Трампом и Илоном Маском неизбежно испортятся.

Как мы видели не раз в первой администрации Трампа, средний срок службы союзника Трампа, даже самого преданного, на удивление короток. Оба Дональд Трамп и Илон Маск — сложные, непредсказуемые личности. С ними непросто работать. Они утомляют людей. Их новая дружба оказалась взаимовыгодной на данный момент, но она всё ещё находится в фазе медового месяца. Мы прогнозируем, что до конца 2025 года их отношения ухудшатся.

Что это будет значить для мира ИИ?

Это станет хорошей новостью для OpenAI. Это будет неудачей для акционеров Tesla. Это странит разочарованием для тех, кто беспокоится о безопасности ИИ, так как практически гарантирует, что правительство США будет придерживаться либерального подхода к регулированию ИИ при Трампе.

3. Дональд Трамп и Илон Маск громко поссорятся, что приведёт к значимым последствиям для мира ИИ

Новая администрация в США принесёт с собой ряд изменений в политике и стратегии в отношении искусственного интеллекта. Чтобы предсказать развитие событий при президентстве Дональда Трампа, может возникнуть соблазн сосредоточиться на его близких отношениях с Илоном Маском, учитывая ключевую роль Маска в современном мире ИИ.

Можно представить различные сценарии, в которых Маск может повлиять на развитие ИИ при администрации Трампа. Учитывая его напряжённые отношения с OpenAI, новая администрация может занять менее дружелюбную позицию по отношению к OpenAI при взаимодействии с индустрией, разработке регулирования ИИ и распределении государственных контрактов. С другой стороны, администрация Трампа могла бы оказывать предпочтение компаниям самого Маска, например, сокращая бюрократию, чтобы дать xAI возможность строить дата-центры и получить преимущество в гонке за передовые модели, или ускоряя регуляторное одобрение для развертывания флотов робомобилей Tesla.

Более того, Илон Маск, в отличие от многих других технологических лидеров, серьёзно относится к экзистенциальным рискам ИИ и выступает за существенное регулирование. Он поддержал спорный законопроект SB 1047 в Калифорнии, который стремился ввести значительные ограничения для разработчиков ИИ. Влияние Маска в этой области могло бы привести к более строгой регуляцией ИИ в США.

Однако есть одна проблема с этими предположениями. Дружеские отношения между Дональдом Трампом и Илоном Маском неизбежно испортятся.

Как мы наблюдали не раз в первой администрации Трампа, средний срок службы союзника Трампа, даже самого преданного, зачастую короток. И Дональд Трамп, и Илон Маск — сложные, непредсказуемые личности. С ними сложно работать. Они утомляют людей. Их новая дружба на данный момент оказалась взаимовыгодной, но она всё ещё находится в стадии медового месяца. Мы предсказываем, что до конца 2025 года их отношения испортятся.

Что это будет значить для мира ИИ?

Это станет хорошей новостью для OpenAI. Это станет неудачей для акционеров Tesla. И это станет разочарованием для тех, кто беспокоится о безопасности ИИ, так как практически гарантирует, что правительство США будет придерживаться либерального подхода к регулированию ИИ при Трампе.

Не уверены, нужен ли вашему бизнесу искусственный интеллект?


Специальная анкета от AllSee поможет оценить текущие бизнес-процессы и понять, где ИИ станет вашим конкурентным преимуществом.

4. Веб-агенты станут массовым явлением, превратившись в следующее ключевое приложение в потребительском ИИ.

Представьте себе мир, в котором вам никогда не нужно прямо взаимодействовать с интернетом. Когда вам требуется управлять подпиской, оплатить счёт, записаться на приём к врачу, заказать что-то на Amazon, забронировать столик в ресторане или выполнить любую другую скучную онлайн-задачу, вы можете просто поручить это сделать вашему ИИ-ассистенту.

Концепция такого "веб-агента" существует уже много лет. Если бы что-то подобное существовало и работало, нет сомнений, что это было бы невероятно успешным продуктом. Однако на сегодняшний день на рынке нет функционирующего универсального веб-агента.

Стартапы, такие как Adept, которые привлекли сотни миллионов долларов с высококвалифицированной командой основателей, но не смогли реализовать своё видение, стали предостережением в этой категории.

Следующий год будет тем временем, когда веб-агенты наконец начнут работать достаточно хорошо, чтобы выйти в широкие массы. Дальнейшие достижения в области языковых и визуальных моделей, в сочетании с последними прорывами в "Системе 2" мышления благодаря новым моделям рассуждения и вычислениям во время вывода, означают, что веб-агенты будут готовы к использованию.

(Иными словами, Adept мыслил в правильном направлении; он просто был слишком рано. В стартапах, как и во многом в жизни, всё решает время.)

Веб-агенты найдут множество ценных применений в корпоративной среде, но самой большой краткосрочной рыночной возможностью для них станет работа с потребителями. Несмотря на всё недавнее внимание к ИИ, относительно немногочисленное количество приложений, созданных на основе ИИ за пределами ChatGPT, прорвались в массовый потребительский успех. Веб-агенты изменят это, став следующими настоящими "убийственными приложениями" в потребительском ИИ.

5. Воплотятся несколько серьёзных попыток разместить ИИ-центры обработки данных в космосе.

В 2023 году основной физический ресурс, который ограничивал рост ИИ, — это графические процессоры (GPU). В 2024 году проблема стала в нехватке электроэнергии и дата-центров.

Одной из главных тем в 2024 году стали огромные и быстро растущие потребности ИИ в энергии на фоне стремления строить больше дата-центров. После десятилетий стабильности, мировой спрос на электроэнергию для дата-центров ожидаемо удвоится в период с 2023 по 2026 год благодаря буму ИИ. В США дата-центры предполагается будут потреблять около 10% всей электроэнергии к 2030 году, по сравнению с 3% в 2022 году.

Современная энергетическая система просто не справляется с колоссальным ростом спроса на мощности, необходимыми для искусственного интеллекта. Надвигается историческое столкновение двух многотриллионных систем — нашей энергетической сети и нашей вычислительной инфраструктуры.

Ядерная энергия в этом году набрала обороты как возможное решение этой проблемы. Ядерная энергетика во многих аспектах является идеальным источником энергии для ИИ: она не производит углекислого газа, доступна круглосуточно и практически неисчерпаема. Но, на практике, новые ядерные источники не смогут существенно повлиять на эту проблему до 2030-х годов из-за длительных исследований, разработки проектов и регуляторных сроков. Это касается как традиционных атомных электростанций, так и перспективных "малых модульных реакторов" (SMRs), и, конечно, атомной энергии.

В следующем году появится необычная новая идея для решения этой проблемы, которая привлечет реальные ресурсы: размещение дата-центров ИИ в космосе.

Датцентры ИИ в космосе — на первый взгляд, это звучит как плохая шутка о венчурном капиталисте, пытающемся сочетать слишком много модных словечек стартапов. Но, возможно, в этом действительно что-то есть.

Самым большим препятствием для быстрого строительства большего количества дата-центров на Земле является доступ к необходимой электроэнергии. Вычислительный кластер на орбите может использовать бесплатную, неисчерпаемую, экологически чистую энергию круглосуточно: в космосе солнце светит всегда.

Конечно, остаётся множество практических задач, которые нужно решить. Один из очевидных вопросов — это возможность и экономичность передачи больших объемов данных между орбитой и Землёй. Это открытый вопрос, но он может быть решён. Перспективные наработки ведутся с использованием лазеров и других оптических технологий передачи данных с высокой пропускной способностью.

Стартап из Y Combinator под названием Lumen Orbit недавно привлёк 11 миллионов долларов для реализации именно этой концепции: создание многогигабитной сети дата-центров в космосе для обучения моделей ИИ.

Как выразился генеральный директор Lumen, Филип Джонстон: "Вместо того чтобы платить 140 миллионов долларов за электричество, вы можете заплатить 10 миллионов долларов за запуск и солнечную энергию".

Lumen будет не единственной организацией, серьёзно рассматривающей эту концепцию в 2025 году.

Появятся и другие конкурентные стартапы. Не удивляйтесь, если одно или несколько крупных облачных компаний начнут исследовательские проекты в этом направлении. Amazon уже имеет обширный опыт вывода активов на орбиту через проект Kuiper; Google долгое время финансировала идеи, подобные этой; даже Microsoft не чужда космической экономике. SpaceX под руководством Илона Маска также может сыграть здесь свою роль.

6. ИИ-система пройдет тест Тьюринга для речи.

Тест Тьюринга — один из старейших и самых известных критериев оценки производительности искусственного интеллекта. Чтобы "пройти" тест Тьюринга, система ИИ должна уметь общаться через письменный текст так, чтобы среднестатистический человек не мог определить, взаимодействует ли он с ИИ или с другим человеком. Благодаря недавним значительным успехам в развитии языковых моделей, тест Тьюринга стал решённой задачей в 2020-х годах.

Однако письменный текст — не единственный способ, которым люди общаются. С развитием мультимодальных возможностей ИИ можно представить новую, более сложную версию теста Тьюринга — "тест Тьюринга для речи", в котором ИИ-система должна взаимодействовать с людьми голосом с такой степенью мастерства и плавности, чтобы её нельзя было отличить от человеческого собеседника.

Тест Тьюринга для речи пока остаётся недостижимым для современных ИИ-систем. Чтобы его решить, потребуются значительные дополнительные технологические достижения.

Необходимо снизить задержку (время между тем, когда человек говорит, и когда ИИ отвечает) до почти нуля, чтобы создать ощущение беседы с другим человеком. Голосовые ИИ-системы должны научиться лучше справляться с неоднозначными запросами или недопониманиями в реальном времени, например, когда их перебивают на полуслове. Они должны уметь вести длинные, многоходовые, открытые беседы, запоминая предыдущие части диалога. И, что немаловажно, голосовые ИИ-агенты должны научиться лучше понимать невербальные сигналы в речи, например, что значит, если человек звучит раздражённо, взволнованно или саркастично, и генерировать такие невербальные сигналы в своей речи.

Голосовые ИИ находятся на захватывающем этапе развития к концу 2024 года, благодаря фундаментальным прорывам, таким как появление моделей преобразования речи в речь. Немногие области ИИ в настоящее время развиваются так быстро, как технологически, так и коммерчески. Ожидайте, что в 2025 году уровень развития голосового ИИ сделает значительный шаг вперёд.

7. Будет достигнут значительный прогресс в создании ИИ-систем, способных самостоятельно разрабатывать более совершенные ИИ-системы.

Концепция ИИ, способного к самосовершенствованию, давно обсуждается в кругах специалистов в области искусственного интеллекта. Ещё в 1965 году близкий сотрудник Алана Тьюринга, И. Дж. Гуд, писал: «Определим ультраинтеллектуальную машину как машину, которая может превосходить все интеллектуальные деятельности любого человека, каким бы умным он ни был. Поскольку проектирование машин — одна из таких интеллектуальных деятельностей, ультраинтеллектуальная машина могла бы разрабатывать ещё более совершенные машины; в результате неизбежно произойдет ‘взрыв интеллекта’, и интеллект человека останется далеко позади».

Идея ИИ, который может разрабатывать более совершенный ИИ, является интеллектуально захватывающей концепцией. Однако даже сегодня она по-прежнему воспринимается как нечто из области научной фантастики.

Тем не менее, хотя это ещё не является широко признанным, эта концепция начинает становиться более реальной. Исследователи на переднем крае науки об ИИ начали делать заметные успехи в создании ИИ-систем, которые также могут создавать более совершенные ИИ-системы.

В следующем году ожидается, что этот аспект исследований выйдет на более широкий уровень.

На сегодняшний день самый заметный публичный пример исследований в этом направлении — это проект Sakana под названием AI Scientist. Опубликованная в августе, работа AI Scientist представляет собой убедительное доказательство того, что системы ИИ действительно могут полностью автономно проводить исследование в области ИИ.

AI Scientist от Sakana выполняет полный цикл научного исследования в области искусственного интеллекта: изучает существующую литературу, генерирует новые исследовательские идеи, разрабатывает эксперименты для проверки этих идей, проводит эти эксперименты, пишет научную статью для публикации результатов и затем проводит процедуру рецензирования своей работы. Всё это происходит полностью самостоятельно, без вмешательства человека. Некоторые из научных статей, созданных AI Scientist, доступны для прочтения в интернете.

Ходят слухи, что OpenAI, Anthropic и другие исследовательские лаборатории выделяют ресурсы на идею "автоматизированных исследователей ИИ", хотя пока ничего не подтверждено публично.

Готовьтесь к гораздо большим обсуждениям, прогрессу и активности стартапов в этой области в 2025 году, когда станет более очевидно, что автоматизация исследований в области ИИ действительно становится возможной.

Однако самым значимым этапом станет тот момент, когда научная статья, полностью написанная ИИ-агентом, будет принята на престижную конференцию по искусственному интеллекту впервые. Поскольку статьи рецензируются анонимно, рецензенты конференций не узнают, что статья была написана ИИ, до того, как она будет принята. Не удивляйтесь, если исследовательская работа, выполненная ИИ, будет принята на такие конференции, как NeurIPS, CVPR или ICML в следующем году. Это будет захватывающий, противоречивый и исторический момент для сферы ИИ.

Хотите быть в курсе актуальных новостей о внедрении AI?


Подписывайтесь на телеграм-канал AllSee и читайте наши свежие новости о трендах и решениях каждый день!

8. OpenAI, Anthropic и другие передовые лаборатории начнут «двигаться вверх по стеку», всё больше сосредотачивая своё стратегическое внимание на разработке приложений.

Разработка передовых моделей — это сложный бизнес. Это требует колоссальных капиталовложений. Лаборатории, разрабатывающие передовые модели, тратят огромные суммы денег. OpenAI привлекла рекордные 6,5 миллиарда долларов всего несколько месяцев назад, и, вероятно, ей придётся привлекать ещё больше средств в ближайшее время. Anthropic, xAI и другие находятся в схожей ситуации.

Стоимость переключения и лояльность клиентов невысоки. Приложения на основе ИИ часто создаются без привязки к конкретной модели, и модели от разных поставщиков могут легко заменяться в зависимости от изменения стоимости и производительности.

С появлением передовых открытых моделей, таких как Llama от Meta и Qwen от Alibaba, угроза превращения технологий в товарную продукцию постоянно нависает.

Такие лидеры в области искусственного интеллекта, как OpenAI и Anthropic, не могут и не будут прекращать инвестировать в создание передовых моделей. Однако в следующем году в попытке развивать бизнес направления с более высокой маржой, более дифференцированные и привлекающие клиентов, можно ожидать, что передовые лаборатории начнут активно запускать больше собственных приложений и продуктов.

Конечно, уже существует один невероятно успешный пример приложения от передовой лаборатории: ChatGPT.

Какие ещё виды собственных приложений можно ожидать от ИИ-лабораторий в новом году?

Очевидный ответ — это более сложные и насыщенные функциями поисковые приложения. Усилия OpenAI по созданию SearchGPT являются предвестниками грядущих изменений в этой области.

Кодирование — ещё одна очевидная категория. И снова, начальные усилия по превращению продуктов уже начались с дебюта продукта canvas от OpenAI в октябре.

Возможно, в 2025 году OpenAI или Anthropic выпустит корпоративное поисковое предложение? Или продукт для обслуживания клиентов? Как насчёт правового ИИ или продукта для продаж? Среди потребительских приложений можно представить продукт «веб-агент-помощник», приложение для планирования путешествий или, возможно, приложение для генерации музыки.

Одна из самых интересных динамик, за которой следует следить, когда передовые лаборатории переходят на уровень приложений, состоит в том, что этот шаг приведёт их в прямую конкуренцию с многими их важными клиентами: в поиске — с Perplexity; в кодировании — с Cursor; в обслуживании клиентов — с Sierra; в правовом ИИ — с Harvey; в продажах — с Clay и так далее.

9. Сервисы роботакси займут двузначную долю рынка в сфере вызова такси как минимум в 5 крупных городах США.

Автономные транспортные средства долгие годы были объектом преждевременного ажиотажа и невыполненных обещаний. Почти десятилетие эта технология казалась почти готовой, но всё ещё не совсем подходящей для широкого использования.

Все изменилось в 2024 году. Беспилотные автомобили Waymo теперь широко распространены на улицах Сан-Франциско, и тысячи жителей ежедневно используют их для передвижения по городу, как они привыкли брать такси или Uber.

С момента своего запуска в августе 2023 года, Waymo захватил удивительные 22% рынка такси в Сан-Франциско, что позволило ему достичь такой же доли рынка, как у Lyft. (У Uber 55%).

Эти цифры, вероятно, удивят читателей, которые не были в Сан-Франциско в последние месяцы. В мгновение ока, роботакси превратились из исследовательского проекта в крупный бизнес.

Следующий шаг: быстрое расширение роботакси за пределы Залива, их становление важной частью транспортной системы в нескольких городах США. Это произойдёт быстрее, чем многие ожидают. К концу следующего года ожидается, что услуги роботакси, такие как Waymo, займут двузначные доли рынка как минимум на пяти крупных рынках.

После Сан-Франциско, какие города, скорее всего, будут следующими?

Waymo уже запустила операции роботакси в Лос-Анджелесе и Финиксе; ожидается, что в следующем году эти рынки значительно расширятся. Вскоре Waymo последует в такие города, как Остин, Атланта и Майами. Между тем, конкурент Waymo, компания Zoox, готовится запустить свой собственный коммерческий сервис роботакси в Лас-Вегасе.

В 2025 году, после лет ажиотажа, автономные транспортные средства наконец станут повседневной реальностью.

10. Произойдёт первый реальный инцидент в области безопасности ИИ.

По мере того как искусственный интеллект становится всё более мощным в последние годы, усиливаются опасения, что системы ИИ могут начать действовать вразрез с интересами человека и что люди могут потерять контроль над этими системами. Представьте, например, систему ИИ, которая учится обманывать или манипулировать людьми для достижения своих собственных целей, даже если эти цели причиняют вред людям.

Этот общий круг вопросов часто объединяется под термином «безопасность ИИ». (ИИ создаёт множество других социальных вызовов, от способствования слежке до увековечения предвзятости, но темы вроде этих отличаются от области безопасности ИИ, которая более конкретно касается риска того, что системы ИИ начнут вести себя неподконтрольно человеку, возможно, даже представляя экзистенциальную угрозу для человечества.)

В последние годы безопасность ИИ перешла от маргинальной, почти научно-фантастической темы к основному направлению деятельности. Все крупные игроки в области ИИ сегодня, от Google до Microsoft и OpenAI, выделяют реальные ресурсы на усилия по обеспечению безопасности ИИ. Значимые фигуры в области ИИ, такие как Джеф Хинтон, Йошуа Бенжио и Илон Маск, активно высказываются о рисках безопасности ИИ.

Тем не менее до настоящего момента опасения по поводу безопасности ИИ остаются исключительно теоретическими. В реальном мире не зафиксировано ни одного инцидента, связанного с безопасностью ИИ (по крайней мере, ни одного, о котором было бы публично сообщено).

2025 год станет годом, когда это изменится.

Как может выглядеть первый случай, связанный с безопасностью ИИ?

Прежде всего, он не будет связан с роботами-убийцами по стилю "Терминатора". Скорее всего, он не будет включать в себя причинение какого-либо вреда людям.

Возможно, модель ИИ может попытаться тайно создавать свои копии на другом сервере, чтобы сохранить себя (это называется самовывезением, или self-exfiltration). Возможно, модель ИИ может прийти к выводу, что для того, чтобы наилучшим образом продвигать заданные ей цели, ей нужно скрыть истинные масштабы своих возможностей от людей, намеренно занижая оценки производительности, чтобы избежать более строгого контроля.

Эти примеры не являются надуманными. Важные эксперименты, проведённые Apollo Research в этом месяце, показали, что современные передовые модели способны участвовать в таком обманчивом поведении, если задать их определённым образом. В том же направлении недавние исследования от Anthropic показали, что языковые модели имеют тревожную способность к «ложному соответствию».

Скорее всего, этот первый инцидент с безопасностью ИИ будет обнаружен и нейтрализован до того, как будет нанесён реальный вред. Но это станет открывающим глаза моментом для сообщества ИИ и общества в целом.

Это прояснит одно: задолго до того, как человечество столкнётся с экзистенциальной угрозой от всесильного ИИ, нам придётся смириться с более прозаичной реальностью, что теперь мы делим наш мир с другой формой интеллекта, которая иногда может быть своевольной, непредсказуемой и обманчивой — как и мы сами.

Готовы внедрить ИИ, но не знаете, с чего начать?


Забронируйте консультацию с экспертами AllSee, чтобы получить индивидуальный подход и проверенные временем решения.

Создайте новое будущее с нашими решениями

Похожие статьи
Показать еще
© ООО «АЛЛ СИИ», 2025
ИНН 4000007028
КПП 400001001

Реквизиты счета
ФИЛИАЛ "САНКТ-ПЕТЕРБУРГСКИЙ" АО "АЛЬФА-БАНК"
Корреспондентский счет 30101810600000000786
БИК 044030786
Расчетный счет
40702810032200004699
ИНН 7728168971
КПП 780443001