Хотя искусственный интеллект приносит значительные преимущества, с ним также связаны определённые риски, которые необходимо учитывать и снижать. Например, результаты опроса показывают, что 43% специалистов уже использовали такие инструменты, как ChatGPT, и почти 70% делали это без ведома руководства. Это означает, что компании могут подвергаться дополнительным рискам и нарушениям требований по безопасности данных, даже не подозревая об этом.
Согласно исследованиям, только 6% организаций имеют отдельную команду, которая занимается оценкой рисков, связанных с внедрением искусственного интеллекта, и разрабатывает меры по их снижению. Важно отметить, что риски при использовании искусственного интеллекта выходят за рамки повседневных задач и включают этические проблемы, такие как предвзятость, возникающая из-за данных, на которых обучается система.
Какие же риски существуют при внедрении искусственного интеллекта в электронной коммерции?
Риски при принятии решений на основе данных
Компании принимают решения, исходя из анализа данных, а при использовании искусственного интеллекта их качество и правильность напрямую зависят от того, насколько достоверны и полны эти данные.
Если данные оказываются неверными, предвзятыми или изменёнными на каком-либо этапе, это приводит к ошибкам в принятии решений, например, могут быть предложены некачественные товары. Это может обернуться серьёзными последствиями: потерей дохода, утечкой данных или штрафами за нарушение законодательства о защите информации.
Недостоверные данные могут попасть в систему разными способами, в том числе из-за так называемого "дрейфа данных" или вредоносных действий ("отравления данных"). Дрейф данных — это изменение входных данных со временем, из-за чего модель начинает хуже работать. Отравление данных — это злонамеренная атака, при которой злоумышленники специально вносят искажения или подложные данные в обучающую выборку.
Оба этих риска опасны, но по разным причинам. Дрейф данных приводит к снижению точности и надёжности выводов, а отравление данных — это прямая угроза безопасности и свидетельство уязвимости, которую необходимо срочно устранить. Итог в обоих случаях один — повышается вероятность появления предвзятости в модели искусственного интеллекта, что может привести к неудачным или неправильным решениям, убыткам и потере соответствия законодательным требованиям.
На одном из недавних международных саммитов по кибербезопасности было отмечено, что искусственный интеллект требует новых методов управления доверием, рисками и безопасностью, так как традиционные подходы не всегда подходят для современных систем. Такой подход позволяет значительно сократить количество ошибочных или неправомерных данных.
Компании должны признать наличие рисков, связанных с принятием решений на основе данных, и удостовериться, что используемая информация точна и качественна. Строя эффективный контроль над данными, обеспечивая их целостность и внедряя процедуры проверки, можно защитить бизнес от финансовых потерь и штрафов за несоблюдение норм безопасности данных.