Технология находится на перепутье.
Мы видели это раньше: разрабатывается что-то новое, и есть спешка, чтобы это одобрить и использовать как можно скорее. Например, после того, как ДДТ был использован для борьбы с сыпным тифом и малярией во время Второй мировой войны, возникло стремление найти для него больше применений. В конце войны Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) одобрило его использование в качестве пестицида без тщательного тестирования и регулирования… и он вызвал рак у тысяч людей.
Точно так же, когда мы гонимся за разработкой приложений для ИИ и машинного обучения, у нас возникает этическая дилемма.
Как технический директор HG Insights, я потратил много времени на размышления о том, как данные используются в отрасли. Безопасность, особенно личной информации, является одной из многих проблем, связанных с растущим использованием данных. Вслед за HG достигает соответствия безопасности SOC 2 я не могу не думать о том, как мы используем его на более общем уровне, и о связанных с этим этических проблемах.
Поэтому, пока мы продолжаем разрабатывать новые технологии, я хотел бы начать разговор о том, как мы собираемся помнить об этих этических соображениях — не увязнуть в индивидуальных, индивидуальных рамках, а в более широком контексте, исследуя несколько примеров.
- У решений есть последствия: безопасность беспилотных автомобилей
ИИ хорош настолько, насколько хороши модели обучения и наборы данных, на которых он основан.
В ситуациях, когда принятие решений остается за машинами — решения, основанные на наборе данных, из которых они учатся, — кто несет ответственность, если что-то пойдет не так? А как насчет этических соображений, стоящих за решениями машины? Есть много движущихся частей — данные моделирования и обучения должны быть проанализированы, программное обеспечение, которое инструктирует, что делать, и действия, решение должно быть пересмотрено. Эта серая зона становится дилеммой даже для потребителей. Во многих случаях они совершенно не осознают, что решения принимаются за них. Это становится проблемой этики данных… например:
Гонка за ИИ — это гонка за данными… но не все мы гонщики. Итак, поскольку ИИ меняет способ вождения, что происходит, когда происходит авария на беспилотном автомобиле, своего рода проблема троллейбуса 21-го века? Если самоуправляемый автомобиль разбился, виноват ли в этом программист? Является ли автомобиль отдельным субъектом, который может нести ответственность?
Кто принимает такие решения? Хотя водитель несет техническую ответственность, как он мог повлиять на алгоритм машинного обучения, который инициировал принятие решения?
По мере того, как компании внедряют бета-версию программного обеспечения для полностью автономного вождения на дороги общего пользования, эта этическая дилемма становится все более важной для регулирующих органов. Передача ответственности водителю на самом деле лишь поверхностная часть более глубокого вопроса об ответственности.
И это лишь один из этических перекрестков, с которыми мы сталкиваемся.
2. Избегайте предвзятости: мы должны учиться на прошлом, а не повторять его
Это проблема, с которой мы боролись в течение некоторого времени, как мы видели в спорах о распознавании лиц.
Несмотря на то, что в ближайшие три года мы создадим больше данных, чем за предыдущие тридцать лет, большая их часть [правильно] охраняется и тщательно охраняется. Итак, нам все еще нужно больше данных для обучения алгоритмов. Эти данные создаются ИИ для ИИ, и они могут быть несовершенными по нескольким причинам.
Например, эти алгоритмы настолько хороши, насколько хороши данные, которые их информируют. Эти данные созданы для точного представления мира, хорошего и плохого. Например, если алгоритм получает данные об исторической информации о разрыве в заработной плате между полами, он извлечет уроки из этой истории и жестко запрограммирует эту системную проблему. Как отмечает Институт Тьюринга Алана, даже данные, которые никогда не преобразуются напрямую в информацию, могут использоваться для поддержки действий или формирования поведения.
Устранение предвзятости — чрезвычайно важная, сложная и противоречивая область науки о данных сегодня. Синтетические данные — это горячая область как для предоставления большего количества данных для машинного обучения, когда данные недоступны, так и для методов создания синтетических данных для преодоления предвзятости.
Одна из самых больших проблем в нашем политически и социально заряженном мире сегодня заключается в том, что предвзятые предсказания сознательно и преднамеренно распространяются, когда это помогает поддержать свою позицию или точку зрения. В этом последнем случае люди на самом деле усиливают эффекты предвзятости, которые подпитывают большее количество моделей ниже по течению, создавая усугубляющий негативный эффект.
Работа в направлении справедливого и подотчетного ИИ и таких организаций, как Лига алгоритмической справедливости, важнее, чем когда-либо.
3. Защита личных данных: баланс между конфиденциальностью и инновациями
Хотя это важные решения по мере того, как мы все глубже погружаемся в мир данных, для многих из нас они остаются за пределами повседневной жизни.
Когда мы добираемся до использования наших личных данных, эти вопросы становятся более актуальными. Мы наблюдаем некоторый прогресс в области личной безопасности, например, положения GDPR, CCPA и Закон о файлах cookie.
Это регулирование на ранней стадии является призывом к большему количеству законов о конфиденциальности во всем мире — некоторые даже призывают к Биллю о правах ИИ.
Аргумент в пользу конфиденциальности в отношении личной информации сейчас более заметен, чем когда-либо. Вы видите это каждый раз, когда посещаете веб-сайт и видите рекламу, используете Spotify, Netflix. Все, что вам предлагают, продиктовано вашим прошлым поведением.
Мне любопытно посмотреть, как мы можем идти в ногу с этим, чтобы помочь защитить себя и ограничить негативные последствия, продолжая улучшать мир вокруг нас. Как найти баланс между инновациями и конфиденциальностью? Мне интересно работать вместе с сообществом специалистов по данным, чтобы смягчить эти неблагоприятные последствия и сомнительное использование данных. Как куратор новых идей, я обязан действовать этично и считать себя образцовым гражданином в этой экосистеме данных.
В эпоху машинного обучения и стремления создавать новые технологии, чтобы сделать нашу жизнь лучше — и соответственно извлечь выгоду — мы должны всегда думать как о преимуществах, так и о последствиях наших инноваций и прорывов. Точно так же, как мы уже ощущаем положительные преимущества ИИ в нашей повседневной жизни, возникают и проблемы. Чем дальше развиваются наши технологии, тем более серьезными могут быть последствия их игнорирования.
Принимая во внимание эти этические соображения, мы все можем использовать данные, чтобы принести наибольшую пользу нашему обществу. Этика использования данных должна рассматриваться со многих точек зрения, а не только предпринимателями и исследователями данных. Чтобы этот разговор состоялся должным образом, мы все должны работать вместе.
Общество и раньше сталкивалось с огромными этическими проблемами. И по сравнению с эффектами ДДТ, вызывающего рак канцерогена, который проник в миллионы американцев, опасений по поводу ИИ значительно меньше.
О Роберте Фоксе
Роб обладает более чем двадцатипятилетним опытом разработки коммерческого программного обеспечения и разработки, сильными аналитическими способностями и обширными знаниями в области промышленности и бизнеса. Он руководил инженерными группами в ведущих отраслевых организациях, таких как MuleSoft (теперь Salesforce) и Liaison Technologies (теперь OpenText).
Обладая предпринимательским духом, новаторским видением и лидерством в отрасли, Роб специализируется на всех аспектах данных, включая: аналитику, науку о данных, интеграцию, управление, безопасность, управление API с опытом работы в области B2B, EAI, Cloud и др. Большие данные.