Улучшенные мультимодальные возможности и сниженные барьеры для входа также открывают новые возможности для злоупотреблений: создание дипфейков, проблемы с конфиденциальностью, укрепление предвзятости и даже обход защиты CAPTCHA могут стать все доступнее для злоумышленников. В январе 2024 года в социальные сети попала волна порнографических дипфейков на знаменитостей; исследование мая 2023 года показало, что количество голосовых дипфейков в интернете увеличилось в восемь раз по сравнению с тем же периодом 2022 года.
Неопределенность в регулирующей среде может замедлить внедрение, или по крайней мере более агрессивную реализацию в краткосрочной и среднесрочной перспективе. Существует внутренний риск для любых крупных, необратимых инвестиций в новые технологии или практики, которые могут потребовать значительной перенастройки или даже стать незаконными после нового законодательства или изменения политической обстановки в ближайшие годы.
В декабре 2023 года Европейский союз достиг предварительного соглашения о Законе об искусственном интеллекте. Среди прочего, он запрещает бесконтрольное собирание изображений для создания баз данных распознавания лиц, системы биометрической категоризации с потенциалом дискриминационного уклона, системы «социального рейтинга» и использование ИИ для социальной или экономической манипуляции. Также закон пытается определить категорию «высокорисковых» систем ИИ, которые могут угрожать безопасности, основным правам или верховенству закона, и которые будут подлежать дополнительному надзору. Кроме того, устанавливаются требования к прозрачности для так называемых систем «ИИ общего назначения», включая техническую документацию и систематическое адверсивное тестирование.
Несмотря на то, что некоторые ключевые игроки, такие как Mistral, находятся в ЕС, большинство прорывных разработок в области ИИ происходит в Америке, где серьезное законодательное регулирование ИИ в частном секторе потребует действий от Конгресса, что маловероятно в год выборов. 30 октября администрация Байдена выпустила всесторонний исполнительный указ, содержащий 150 требований к использованию технологий ИИ федеральными агентствами; за несколько месяцев до этого администрация получила добровольные обязательства от известных разработчиков ИИ соблюдать определенные ограничения для доверия и безопасности. Отметим, что и Калифорния, и Колорадо активно стремятся к собственному законодательству относительно прав на конфиденциальность данных индивидуумов в отношении искусственного интеллекта.
Китай более активно движется к формальным ограничениям ИИ, запрещая дискриминацию по ценам алгоритмами рекомендаций в социальных сетях и требуя четкой маркировки контента, созданного ИИ. Предполагаемые регуляции генеративного ИИ стремятся требовать, чтобы данные, используемые для обучения LLM, и впоследствии генерируемый контент были «правдивыми и точными», что, как считают эксперты, указывает на меры по цензуре выходных данных LLM.
Тем временем роль авторских материалов в обучении ИИ моделей, используемых для генерации контента, от языковых моделей до генераторов изображений и видеомоделей, остается предметом острых дебатов. Исход громкого судебного дела, поданного New York Times против OpenAI, может существенно повлиять на траекторию законодательства в области ИИ. Адверсивные инструменты, такие как Glaze и Nightshade, разработанные в Университете Чикаго, возникли в том, что может стать своего рода гонкой вооружений между создателями и разработчиками моделей.