Искусственный интеллект для бизнеса: проблема черного ящика
Компьютеры могут совершать ошибки и действительно их совершают. Искусственный интеллект хорош ровно настолько, насколько качественно проведено его обучение для получения необходимых навыков. Так что рискованно полагаться только на машинный интеллект для принятия критически важных для бизнеса решений.
Однако ИИ встречается в заголовках новостей с завидной регулярностью: от утверждений Илона Маска о том, что неконтролируемый рост искусственного интеллекта (ИИ) может породить «бессмертного диктатора», до новостей о том, что крупный банк начал использовать технологию обнаружения отмывания денег посредством ИИ.
Станет ли ИИ как научное направление и сфера проектирования разумных машин предвестником золотого века отдыха для человечества или же его печального конца еще неизвестно. Однако ясно, что предприятия во всем мире уже используют технологию ИИ для улучшения своей работы.
Возможности, предоставляемые ИИ, огромны, и существующие технологии его применения впечатляют: он может управлять автомобилями без водителя, он может считывать и извлекать ключевую информацию из тысяч юридических договоров за считанные минуты, он может просматривать снимки МРТ и выявлять злокачественные опухоли с большей точностью, чем люди-врачи.
Но ИИ не лишен своих рисков, будь то плохая производительность, неправильное применение или использование неверных данных. В конечном счете, компьютеры могут совершать ошибки, и решения, основанные на некорректных «нечеловеческих» советах, могут быть дорогостоящими для бизнеса.
Даже пилот Формулы-1 Льюис Хэмилтон убедился в этом, когда во время Гран-при Австралии программная ошибка и неверные компьютерные данные побудили его не увеличивать преимущество над соперником Себастьяном Феттелем, который впоследствии выиграл гонку. Опыт Льюиса поучителен: недоверие к ИИ и опасения, связанные с использованием неверных данных, являются двумя главными проблемами для бизнеса.
Доверие
Развитие ИИ сталкивается с проблемой «черного ящика»: многим его процессам не хватает прозрачности, и люди не могут легко их понять. Например, даже сами разработчики AlphaGo системы Google DeepMind не могли объяснить, почему их система сделала определенные сложные шаги, обыграв чемпиона мира по настольной игре Го.
Если мы не можем легко понять выводы ИИ, как мы можем быть уверены, что автоматизированные процессы ведут честную игру при принятии решений?
Конечно, это затрудняет точную оценку рисков, но предприятия по-прежнему должны учитывать среду, в которой используется технология: системы, работающие с критически важной инфраструктурой, такой как атомные электростанции, должны устанавливать самую высокую планку того, что может считаться безопасным.
Прежде чем внедрять ИИ компаниям придется убедить владельцев и представителей регулирующих органов в необходимости и безопасности этого шага. Возможно, это будет происходить с помощью программного обеспечения для мониторинга технологии - алгоритмических аудиторов, которые будут охотиться за необоснованным уклоном и дискриминацией. Это, вероятно, повлияет на производительность, так как система переключит вычислительную мощность на самоанализ, но это поможет определить, какая система должна быть отклонена, а какая – одобрена для ввода в эксплуатацию.
Некачественные данные
Результаты, достигнутые системой ИИ, будут всегда хороши ровно настолько, насколько качественными будут данные, на которых эти результаты основаны. Существует много переменных, определяющих качество вводимых данных: достаточно ли велики наборы данных, используются ли данные «реального мира», являются ли данные поврежденными, предвзятыми или дискриминационными?
При такой большой потенциальной неопределенности компании должны приложить все усилия, чтобы минимизировать риски. В тех случаях, когда данные поступают от третьей стороны, контракты должны требовать прозрачности в отношении происхождения, методов получения и допущений модели (как на начальном этапе, так и на постоянной основе, если набор данных является динамическим). Кроме того, должны быть предусмотрены обязательные процедуры по защите данных для предотвращения их утери, фальсификации и внедрения вредоносных программ. И все это должно быть подкреплено всеобъемлющими правами на аудит, поиск судебных запретов на использование и его прекращения.
Наконец, должен применяться здравый смысл - предприятия не должны слишком сильно полагаться на ограниченное количество точек данных и поддерживать анализ больших данных с помощью других инструментов принятия решений.
Следствием этих опасений является предоставление огромных полномочий тем, кто владеет большими хранилищами точных персональных данных, и поэтому ожидается, что в ближайшие годы этот вопрос станет важным направлением для работы по созданию нормативных документов и соглашений по защите информации.
Айзек Азимов, известный писатель-фантаст, однажды сформулировал ряд правил по защите человечества от ИИ. Возможно, бизнесу пришло время сделать то же самое. В конце концов, мы не можем узнать будущее, но мы можем подготовиться к нему. А с искусственным интеллектом будущее наступает сегодня.
Три четверти потребителей уже испытали на себе взаимодействие с бизнесом через ИИ
Опрос Capgemini, проведенный среди 10 000 потребителей товаров и услуг, показал, что 55% респондентов при взаимодействии с организациями предпочитают сочетание ИИ и живого общения.
Чуть менее половины (48%) заявили, что у них будет более сильная связь с компанией, если взаимодействие с ИИ будет более похожим на взаимодействие с человеком. Однако согласно результатам опроса – несмотря на то, что они хотят, чтобы ИИ мог понимать человеческие эмоции и говорить как человек, потребители не хотят, чтобы роботы выглядели как люди, потому что считают это жутким.
Согласно отчету, секрет завоевания сердец клиентов с помощью искусственного интеллекта – это добавление человеческого интеллекта. Организации, внедряющие ИИ, слишком озабочены затратами и потенциальной отдачей от инвестиций, чем заботой о клиентах.
В нем говорится, что, несмотря на то, что правильное взаимодействие будет стимулировать клиентов тратить деньги, организации не учитывают предпочтения потребителей и вместо этого сосредотачивают внимание на затратах и экономии.
В результате многие организации не учитывают болевые точки и предпочтения потребителей при применении технологии ИИ для повышения качества обслуживания клиентов, уделяя больше внимания традиционным показателям, таким как стоимость внедрения и ожидаемый возврат инвестиций.
Фактически, только 7% организаций заявили, что устранение известных бизнесу болевых точек потребителей было важным фактором в реализации системы ИИ. «Это явный недосмотр, учитывая, что потребители готовы тратить больше, когда опыт взаимодействия положительный», - говорится в отчете.
Марк Тейлор, главный специалист в области клиентского опыта Capgemini, сказал: «Несколько иронично, что обработка естественного языка и машинное обучение дают организациям возможность строить более глубокие, более человеческие отношения со своими клиентами».
Тейлор добавил, что, сосредоточив внимание в реализации ИИ на переосмыслении, рационализации и упрощении взаимодействия с клиентами, организации могут повысить расходы и лояльность клиентов. Чтобы увидеть наибольший прирост прибыли, фирмы должны создать как искусственный интеллект, так и сделать работу с клиентами стратегическим приоритетом.
Когда дело доходит до поддержки клиентов, предоставляемой ИИ, 63% потребителей, имевших опыт общения с роботами, говорят о положительном впечатлении, потому что автоматизированная система поддержки предлагает круглосуточную помощь. И почти половина (48%) заявили, что хотели бы делегировать задачи электронному цифровому помощнику.