Эксперты предлагают оснастить роботов «этическим черным ящиком»

Ученый Алан Уинфилд, профессор робоэтики Университета Западной Англии в Бристоле, и Мариана Джиротка, профессор антропоцентрического программирования Оксфордского университета, считают, что роботы должны быть оснащены так называемым «этическим черным ящиком». Он станет эквивалентом записывающего устройства, используемого в авиации для выяснения всех последовательных причин, заставляющих пилотов принимать те или иные действия в случае чрезвычайных ситуаций, что позволяет следователям проследить за этими действиями и выяснить причины катастрофы.

Эксперты предлагают оснастить роботов «этическим черным ящиком». Фото.

Так как роботы все чаще стали покидать индустриальные фабрики и лаборатории и все чаще начинают взаимодействовать с людьми, то и важность повышенных мер безопасности в данном случае может быть полностью оправдана.

Уинфилд и Джиротка считают, что компании, занимающиеся производством роботов, должны взять пример, предложенный авиационной индустрией, которая обязана своей безопасности не только технологиям и надежной сборке, но и строгому следованию протоколов безопасности, а также серьезному уровню расследований авиационных происшествий. Именно этой индустрией были предложены черные ящики и кабины пилота, оснащенные звукозаписывающими устройствами, которые в случае инцидентов позволяют людям, занимающимся исследованием авиакатастроф, найти истинную причину этих событий и вынести из этого жизненно важные уроки для повышения безопасности и предотвращения подобных случаев в будущем.

«Серьезные дела требуют серьезных расследований. Но что вы будете делать, если следователь обнаружит, что в момент инцидента с роботом никаких внутренних записей произошедших событий не велось? В таком случае сказать, что же произошло на самом деле, будет практически невозможно», — прокомментировала Уинфилд изданию The Guardian.

Используемые в контексте робототехники этические черные ящики будут записывать все решения, цепь причинно-следственных связей принятия этих решений, все движения и данные с датчиков своего носителя. Наличие черного ящика с записанной информацией также поможет роботам в объяснении их действий тем языком, который пользователи-люди смогут понять, что только сильнее укрепит уровень взаимодействия между человеком и машиной и улучшит этот пользовательский опыт.

Уинфилд и Джиротка не единственные эксперты, обеспокоенные этическими вопросами вокруг искусственного интеллекта (ИИ). Мисси Каммингс, специалист по беспилотным летательным аппаратам и директор Лаборатории по исследованию вопросов взаимодействия человека и автоматизационных систем при Университете Дьюка в Северной Каролине (США), отметила в мартовском интервью изданию BBC, что надзор за ИИ является одной из важнейших проблем, для которой до сих пор не найдено решения.

«К настоящему моменту у нас нет четко выведенных инструкций. А без введения индустриальных стандартов для разработки и испытания подобных систем будет сложно вывести эти технологии на широкий уровень», — прокомментировала Каммингс.

В сентябре 2016 года такие компании, как Amazon, Facebook, Google, IBM и Microsoft, образовали союз «Партнерство по искусственному интеллекту во благо людей и общества» (Partnership on Artificial Intelligence to Benefit People and Society). Основными задачами этой организации является контроль за тем, чтобы разработка ИИ велась честно, открыто и с учетом этических норм. В январе этого года к организации присоединилась компания Apple. После этого многие другие технологические компании тоже выразили такое желание и присоединились к союзу.

В то же время аутрич-благотворительная организация Future of Life Institute (FLI) создала Asilomar AI Principles – базовый свод законов и этических норм для робототехники, разработанный для того, чтобы быть уверенным в благонадежности ИИ перед будущим человечества. Основателями FLI выступили такие компании, организации и институты, как DeepMind и MIT (Массачусетский технологический институт), а в ее научный консультативный совет входят такие личности, как Стивен Хокинг, Фрэнк Вильчек, Илон Маск, Ник Бостром и даже Морган Фримен, знаменитый американский актер.

В общем, если согласиться с мнением, что упреждающие идеи в сочетании с усердной работой острейших умов индустрии являются лучшей защитой против любых вероятных проблем, связанных с ИИ в будущем, то можно сказать, что человечество уже находится под надежной защитой.

Новости партнеров
Четырёхлетний цикл Биткоина всё ещё актуален. Как он влияет на цену главной криптовалюты?
Четырёхлетний цикл Биткоина всё ещё актуален. Как он влияет на цену главной криптовалюты?
Новая фишка iPhone 18 Pro сделает его похожим на китайский бюджетник из 2020 года
Новая фишка iPhone 18 Pro сделает его похожим на китайский бюджетник из 2020 года
Пробую запустить игры с Xbox 360 на Android: обзор эмулятора aX360e
Пробую запустить игры с Xbox 360 на Android: обзор эмулятора aX360e