Если вы создаете продукт на основе машинного обучения, независимо от того, является ли он продуктом анализа или автоматизации, есть несколько важных моментов, которые следует учитывать.
1. Пытается ли продукт делать "магию"?
Возвращаясь к началу нашей статьи, ясным признаком того, что продукты на основе машинного обучения ожидают сделать что-то, что мы не можем объяснить или описать. Обычный пример - когда ожидается, что продукты на основе машинного обучения "генерируют идеи", когда данные "передаются им", но никто не может объяснить, как выглядит отличная идея или что она раскроет.
Более тонкий пример "волшебства" связан с нереалистичными ожиданиями, например, если ожидается, что продукт будет на 100% точным, не совершит никаких ошибок или его результаты никогда не будут оспариваться. Точно так же, если ваши алгоритмы должны быть значительно лучше того, что есть на рынке сегодня, и у вас нет сотрудников, занимающихся исследованиями, это может быть серьезным случаем завышенных ожиданий.
2. Как продукт учится?
Искусственный интеллект и машинное обучение способны учиться со временем и улучшаться в результате. Ваш продукт должен иметь встроенные в него обратные связи, чтобы он мог совершенствоваться со временем. Если вы не можете указать, где это происходит в вашем продукте, то вы не используете собранные данные и, вероятно, не используете искусственный интеллект.
3. Какова стоимость ошибки?
В случае обнаружения мошенничества стоимость может быть достаточно высокой... Но достаточно низкой, чтобы мы доверяли алгоритмам. В случае медицинской диагностики стоимость ошибки достаточно высока, чтобы люди все еще должны были проверять окончательные решения или рекомендации. Знание стоимости ошибки критично для определения того, сколько вы готовы "передать" интеллектуальному алгоритму.
Также важно понимать, какие ошибки являются дорогостоящими, а какие нет. Например, ложноположительный результат (т.е. ошибка, при которой мы неправильно говорим "да") в медицинской диагностике может привести к дополнительным тестам, так что это может быть приемлемой ошибкой. Ложноотрицательный результат (т.е. когда мы неправильно говорим "нет") может означать, что человек с заболеванием классифицируется как здоровый, и болезнь остается незамеченной. В этом случае важнее избежать ошибки ложного отрицания, чем ошибки ложного положительного результата.
4. Каков минимальный алгоритмический результат?
Связано с вышеизложенным, важно знать, как этот структура затрат/выгоды влияет на вашу способность использовать или доверять алгоритму. Порог алгоритма для рекомендаций продуктов низкий (мы не покупаем большинство продуктов, которые нам рекомендуют!), но это потому, что стоимость ошибки также низка (почти ничего не стоит дать рекомендацию), поэтому автоматизировать это можно. Стоимость ошибки неприемлема для медицинской диагностики, поэтому у нас все еще нет хорошего способа полностью передавать это.
Проектируя свой продукт, управляемый машинным обучением, спросите себя, насколько хорошо должны работать ваши алгоритмы - и реально ли построить модель, которая будет работать так, как вам нужно.
Мы часто встречаемся с командами продукта, работающими над продуктами на основе машинного обучения, которым требуется такой уровень точности или производительности модели, что на самом деле невозможно делегировать опыт продукта алгоритмам искусственного интеллекта и машинного обучения. Вы хотите избежать этой ошибки любой ценой.
5. Как алгоритм сообщается конечному пользователю?
Хотя UX в искусственном интеллекте - это сложная подобласть, ключевой вопрос для любого менеджера продукта на основе машинного обучения - это то, как решения алгоритма передаются и нужно ли их объяснять пользователю.
Возьмем наши ранние примеры: модель обнаружения мошенничества обычно не нуждается в объяснении, поскольку у пользователя мало возможностей во время транзакции в любом случае; он все равно должен позвонить в банк или службу поддержки. То же самое относится к рекомендациям продуктов, где стоимость ошибки настолько низка, что пользователей это редко волнует.
В отличие от этого, в аналитическом продукте, где алгоритм сообщает вам, что пол и коррелирует с мошенничеством - теперь это должно быть объяснено, и пользователь не сможет многое сделать без объяснения и ясных иллюстраций того, почему алгоритм делает такие выводы.
Алгоритмические решения подвергаются контролю, от которого часто уклоняются человеческие решения. Пользователи, взаимодействующие с системой и получающие неожиданный или отрицательный результат, захотят знать, что произошло или почему. Менеджер по UX или менеджер продукта в команде должен обдумать, как эти результаты будут передаваться или поясняться пользователю.