Например, предположим, что есть автономное транспортное средство без пассажиров, и оно вот-вот врежется в автомобиль, в котором находятся пять человек. Он может избежать столкновения, свернув с дороги, но тогда он ударит пешехода.
Большинство обсуждений этики в этом сценарии сосредоточено на том, должен ли ИИ автономного транспортного средства быть эгоистичным (защищать транспортное средство и его груз) или утилитарным (выбирать действие, которое причиняет наименьшее вреда наименьшему количеству людей). Но такой подход к этике или / или сам по себе может вызвать проблемы.
«Современные подходы к этике и автономным транспортным средствам – опасное упрощение – моральное суждение сложнее, чем это», – говорит Велько Дублевич, доцент программы «Наука, технологии и общество» (STS) в Государственном университете Северной Каролины и автор книги документ, описывающий эту проблему и возможный путь вперед. «Например, что, если пять человек в машине – террористы?? А что, если они намеренно используют программирование ИИ, чтобы убить ближайшего пешехода или причинить вред другим людям?? Тогда вы можете захотеть, чтобы беспилотный автомобиль врезался в автомобиль с пятью пассажирами.
«Другими словами, упрощенный подход, который в настоящее время используется для решения этических проблем в ИИ и автономных транспортных средствах, не учитывает злонамеренных намерений.
И это должно."
В качестве альтернативы Дублевич предлагает использовать так называемую модель «агент-действие-последствия» (ADC) в качестве основы, которую ИИ могли бы использовать для вынесения моральных суждений. Модель ADC оценивает мораль решения на основе трех переменных.
Во-первых, намерения агента хороши или плохи? Во-вторых, хорошо или плохо сам поступок или действие?? Наконец, хорошие или плохие исходы или последствия?
Такой подход позволяет учесть немалые нюансы.
Например, большинство людей согласятся, что проехать на красный свет – это плохо. Но что, если вы проехали на красный свет, чтобы не мешать мчащейся скорой помощи??
А что, если красный свет означает, что вы избежали столкновения с этой машиной скорой помощи??
«Модель ADC позволит нам приблизиться к гибкости и стабильности, которые мы видим в человеческих моральных суждениях, но которых еще нет в AI», – говорит Дублевич. "Вот что я имею в виду под стабильным и гибким. Человеческое моральное суждение стабильно, потому что большинство людей согласятся, что ложь – это плохо с моральной точки зрения. Но он гибкий, потому что большинство людей также согласятся, что люди, которые лгали нацистам, чтобы защитить евреев, делали что-то морально хорошее.
«Но хотя модель ADC указывает нам путь вперед, необходимы дополнительные исследования», – говорит Дублевич. "Я руководил экспериментальной работой над тем, как философы и непрофессионалы подходят к моральному суждению, и результаты оказались ценными. Однако эта работа дала людям информацию в письменной форме. Необходимы дополнительные исследования человеческого морального суждения, которые полагаются на более непосредственные средства коммуникации, такие как виртуальная реальность, если мы хотим подтвердить наши более ранние выводы и реализовать их в AV.
Кроме того, необходимо провести тщательное тестирование с использованием симуляторов вождения, прежде чем любые предполагаемые «этичные» AV-системы начнут регулярно делить дорогу с людьми. К сожалению, теракты на транспортных средствах стали более распространенными, и мы должны быть уверены, что AV-технологии не будут использоваться в гнусных целях."