Все эти новые приложения кажутся очень интересными, но есть много рисков, о которых стоит заранее побеспокоиться. Самым большим из них является то, что ИИ не может работать без «тренировочных данных». Иными словами, алгоритмы учатся на прошлых событиях. Если ваши текущие методы управления являются предвзятыми, дискриминационными, карательными или чрезмерно иерархическими, вы можете просто завершить институционализацию всех этих вещей. Нам нужен ИИ, который является прозрачным и «настраиваемым», чтобы мы могли проверять алгоритмы и убеждаться, что они делают правильные вещи. Так же, как ранние автомобили не всегда двигались прямо, нашим ранним алгоритмам понадобятся «бамперы» и «тюнинг-регуляторы», только так мы узнаем, как сделать их более точными.
Системы могут закрепить ошибки и предвзятость. Предположим, ваша компания никогда не нанимала женщин в технические подразделения и имела очень мало чернокожих инженеров. Система ИИ-рекрутинга естественным образом предположит, что женщины и черные инженеры с меньшей вероятностью будут переходить в управленческие роли. Этот тип искажений должен быть тщательно удален из алгоритмов, и для этого потребуется время.
Существует риск незащищенности данных и непреднамеренного неправильного использования. Рассмотрим частый случай использование аналитики, когда мы пытаемся предсказать вероятность увольнений высокоэффективных сотрудников из компании. Если мы говорим менеджерам, что «высока вероятность ухода этого человека», мы можем на самом деле создать неправильное поведение — менеджер может начать игнорировать этого сотрудника или относиться к нему по-другому. Мы должны научиться правильно применять поведенческую экономику. ИИ сегодня — это «инструмент» для предложений и улучшений, а не самостоятельная система принятия решений.
Актуальна необходимость создания «интерпретирующих» и «прозрачных» систем ИИ. Другими словами, всякий раз, когда система принимает решение, она должна сказать нам, почему она приняла это решение, чтобы мы, люди, могли решить, все ли критерии, которые она использует, точны и правильны. Это один из самых важных критериев для новых инструментов, но, к сожалению, сегодня большинство систем ИИ — это полный черный ящик.
Подумайте о том, что произойдет, когда автономный автомобиль попадёт в аварию. Мы потратим много времени на диагностику того, как это произошло, какие визуальные или алгоритмические системы не сработали, и какие условия могли привести к аварии. Что делать, если ИИ даст рекомендацию неправильному кандидату, или не ту корректировку зарплаты, или примет плохое управленческое решение? Узнаем ли мы об этом? Будем ли мы его диагностировать? И, даже, заметим ли мы это, пока не станет слишком поздно? Перед нами еще очень много работы, чтобы создать инструмент и научиться «обучать» наши управленческие системы ИИ так, чтобы они работали хорошо.