Став киборгами, сможем ли мы защитить наши мозги от взлома?

3 Июля 2017 в 10:30, Николай Хижняк 6 995 просмотров 21

Быстрое развитие сферы мозг-машинных интерфейсов и нейропротезирования постепенно подводит нас к революции в методах лечения и поддержке парализованных людей. В то же время эти технологии в будущем могут найти себе более универсальное применение и стать отправной точкой для дальнейшей эволюции человечества и его перехода в новый вид – киборгов. Но перед тем, как мы достигнем таких высот, нам необходимо убедиться в том, что подобные нейронные устройства совершенно надежны, безопасны и полностью защищены от внешнего влияния – хакерский атак, если проще.

С мечтами о нашем светлом кибернетическом будущем исследователи из женевского Центра био- и нейроинжиниринга Висса в Швейцарии (Wyss Center for Bio and Neuroengineering) опубликовали на портале Science свою работу «Help, hope, and hype: Ethical dimensions of neuroprosthetics». Задача ее авторов заключается не только в описании тех возможностей, которые перед нами откроет сфера нейротехнологий, но и в повышении общественного внимания к тем опасностям, которые могут подстерегать нас на пути к этому сверхвысокотехнологичному будущему. И немаловажным стоит отметить, что авторы разработали несколько путей, которые позволят смягчить потенциальные проблемы еще до их возникновения.

Не отметить быстрое развитие нейротехнологий становится невозможным уже сегодня. Инженерами и исследователями ведется активная разработка и совершенствование мозг-машинных интерфейсов, которые позволят парализованным людям восстановить контроль над своими конечностями, ампутантам – эффективно управлять роботизированными протезами, а пациентам с нарушением речевых функций восстановить способность за счет способности в передаче своих мыслей. Удивительно, но уже сейчас наблюдается большой прогресс в этом направлении. Ученые создали экзоскелет, позволяющий человеку с парализованными нижними конечностями бить по мячу. Парализованную лабораторную обезьяну научили управлять инвалидным креслом с помощью мыслей. Разрабатываемый интерфейс «мозг — мозг» позволил человеку управлять движениями конечностей других людей. Каждый такой технологический прорыв позволяет нам по чуть-чуть узнавать больше о мозге и о том, как он работает. Но еще более важно, что все эти технологии имеют потенциал возвращения ампутантам и парализованным людям самостоятельности и независимости.

Приходит время поздороваться с будущим: управляемые человеческим мозгом роботы, как на картинке выше, уже начинают входить в нашу повседневную жизнь


Но у всех этих технологий, к сожалению, есть и обратная сторона. Как отмечает директор Центра Висса Джон Донохью, вокруг этой области начинают появляться серьезные этические вопросы и поэтому самое время начать думать о том, каким образом нейропротезирование и сфера разработок мозг-машинных интерфейсов могут столкнуться со злоупотреблением в будущем, а также о том, как от этого защититься.

«Несмотря на то, что мы по-прежнему до конца не понимаем, как работает мозг, мы все ближе становимся к моменту, когда сможем адекватно декодировать определенные мозговые сигналы. Поэтому мы должны осознавать, какое влияние все это может оказать на общество», — комментирует Донохью.

«Мы должны внимательно разобрать вероятные последствия жизни бок о бок с полуинтеллектуальными машинами, управляемыми человеческим мозгом, и должны иметь готовые разработанные механизмы, которые смогут убедить нас в их безопасности и соответствии нашим морально-этическим нормам».

Центр Висса озабочен тем, что с более широкой интеграцией этих нейроустройств в нашу повседневную жизнь будут расширяться и возможности этих инструментов. Они будут становиться более универсальными. Уже сейчас мозг-машинные интерфейсы можно использовать для того, чтобы, управляя роботизированной рукой, схватить чашку или, смотря на экран компьютера, выбрать определенное слово в тексте. Но когда-нибудь такие устройства, только более продвинутые, будут использоваться как аварийным работником для ликвидации опасной утечки газа, так и мамой ребенка, у которой не хватает лишних рук, чтобы успокоить своего плачущего малыша.

Пойди что-то не так в этих случаях, например, полуавтоматическая роботизированная рука рабочего повернет не тот кран или мать случайно выронит с роботизированных рук своего ребенка, важно задать себе вопрос: где начинается и заканчивается зона ответственности и кто в таких случаях должен быть признан виновным? Юридической системе будущего придется определять, находится ли это в зоне ответственности производителя роботизированного изделия (в конструкции найден брак или программная ошибка) или пользователя (неправильное использование или внешнее неавторизованное воздействие на целостность конструкции изделия).

Чтобы минимизировать такие потенциальные проблемы, авторы обсуждаемой сегодня работы предлагают, чтобы любая полуавтономная система оснащалась функцией автоматической блокировки и в случае ненадлежащего или незапланированного использования активировалась в обход прямого канала взаимодействия «мозг — компьютер». Если искусственная конечность начнет выполнять действия, которые пользователь не подразумевал для выполнения, то такой «выключатель» сможет самостоятельно принять решение по мгновенной деактивации системы, предотвратив потенциальную беду.

Еще одним аспектом, беспокоящим исследователей, является безопасность частной жизни пользователя и необходимость в защите любой личной информации, которая будет записываться подобными системами. Весьма вероятно, что системы, базирующиеся на интерфейсе «мозг — компьютер», будут собирать самую различную информацию о неврологическом статусе пользователя, после чего она будет передаваться на компьютер. Естественно, что такая схема не может не вызывать некоторые опасения по поводу защиты конфиденциальных данных. По мнению исследователей Центра Висса, собираемая информация может быть украдена и использована ненадлежащим образом.

«Защита частной неврологической информации о людях, полностью парализованных и использующих интерфейсы «мозг — компьютер» в качестве единственного возможного средства для коммуникации с внешним миром является особенно важным», — говорит Нильс Бирбаумер, старший научный сотрудник Центра Висса.

«Успешная калибровка систем, работающих с интерфейсом «мозг — компьютер» будет, помимо всего, зависеть от того, как их мозг будет реагировать на личные вопросы, связанные с их семьей, например, имя, возраст и семейное положение детей и так далее. Для всех вовлеченных в данном случае людей должна обеспечиваться строгая система защиты личных данных, которые будут требоваться для корректной работы функций устройства. Речь идет как об информации, которая будет выясняться с помощью личных вопросов, так и неврологической информации пациента».

Еще сильнее исследователей из Центра Висса беспокоит возможность цифрового взлома подключенного к мозгу устройства злоумышленниками, что может фактически поставить под угрозу жизнь пользователя этого устройства. С помощью так называемого «взлома мозга» могут производиться злонамеренные манипуляции с мозговыми имплантатами. Хакеры смогут получить контроль над движениями роботизированных конечностей человека.

Возможное решение этой проблемы будет включать повышенный уровень шифровки информации, создание надежной сетевой безопасности и открытого коммуникационного канала между производителем изделия и его пользователем. Внедрение большинства из этих предполагаемых мер будет весьма непростой задачей, хотя бы в связи с вероятным отсутствием универсальных стандартов, которые будут применяться в системах безопасности. Исходя из этого, специалисты Центра Висса считают, что настает время уже сейчас начинать обдумывать те пути, которые позволят всем скоординироваться и выработать универсальные индустриальные стандарты по разработке и интеграции необходимых защитных мер.

«Некоторые виды опасений, на которые указывают авторы работы, могут однажды превратиться в реальные проблемы. Поэтому я согласен с тем, что разработка неких универсальных стандартов необходима уже сейчас, чтобы потом мы не оказались в ситуации, когда будет уже слишком поздно», — комментирует Адам Кейпер, старший научный сотрудник Центра по изучению этики и общественного мнения.

И все же Кейпер, не принимавший участие в написании обсуждаемой работы, частично скептически рассматривает вариант, при котором кто-то вообще захочет взламывать интерфейс «мозг — компьютер» полностью парализованного человека либо интерфейс, использующийся в качестве канала обратной нейронной связи между человеком и тренировочными системами, то есть программами, использующими неинвазивные методы мозгового сканирования, вроде аппаратов электроэнцефалографии, систем для тренировки своего поведения, снижения стресса, занятия медитацией и так далее.

«Какую выгоду из такого взлома сможет получить хакер? Да практически никакой. Безусловно, опасения по поводу безопасности и защите личной информации могут стать важным предметом в будущем. Но мне кажется, что это преждевременный разговор».

Кейпер добавляет, что повышенный градус опасений, связанных с внедрением интерфейсов «мозг — компьютер» и полуавтономных роботов можно сравнить с тем уровнем волнения, который возникает в обществе по поводу глобальной роботизации, обещающей стать следующим шагом развития нашей социальной жизни. И хоть Кейпер соглашается с некоторыми аспектами, по его мнению, в целом проблема, по крайней мере сейчас, кажется больше надуманной, чем реальной.

«Авторы работы считают, что мы не должны сильно повышать медицинскую грамотность населения и его осведомленность в особенностях функционирования нейрофизиологических систем, которые будут использоваться при подобных видах протезирования. Но это же бред», — считает Кейпер.

По его мнению, общество само вряд ли будет проявлять повышенный интерес в подобных узкоспециализированных темах. И все же специалист признает, что часто весьма сложно подобрать нужное время для начала общественного диалога по этическим и социальным вопросам по поводу массовой интеграции новых технологий в нашу повседневную жизнь.

«Всегда есть риск сделать подобные заявления слишком рано, когда мы еще сами толком не до конца будем понимать, действительно ли перед нами находится серьезная проблема. Такие прецеденты уже были. Взять хотя бы наноэтику, сторонники которой еще десятилетие назад, толком не разобравшись в вопросе, подняли шум, заявив, что продвинутые нанотехнологии появятся чуть ли не мгновенно, и даже попытались построить на этом настоящую академическую дисциплину. Но в итоге оказалось, что развитие нанотехнологий — это куда более гибкий и плавный процесс».

«Я думаю, что с этой точки зрения авторов обсуждаемой сегодня работы можно только похвалить. Похвалить за то, что свои опасения они выражают совсем не радикальными заявлениями, а вполне себе спокойными объяснениями», — комментирует Кейпер.

Безусловно, исследователи Центра Висса подняли весьма важную тему. Рано или поздно описываемые сегодня технологии найдут путь в нашу повседневную жизнь и будут служить в качестве поддержки не только недееспособным, но и вполне себе здоровым людям.

В перспективе неинвазивные интерфейсы «мозг — компьютер» можно будет использовать для создания своего рода телекинетической связи с окружающим миром, в котором мы своими мыслями сможем управлять освещением в доме или хотя бы просто переключать телеканалы. Другими словами, дальнейший прогресс будет способен превратить эти технологии в технологический вид телепатии. Что же касается исследователей из Центра Висса, то их ключевой посыл заключается в том, чтобы мы были готовы к этому и смогли предотвратить использование подобных технологий в злонамеренных целях.

Став киборгами, сможем ли мы защитить наши мозги от взлома?

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

21 комментарий

  1. Zondish

    Нет конечно, найдутся умельцы сделать из людей дебилов , хакеров никто не отменял .... (отправлено из приложения Hi-News.ru)

  2. Metranom

    Какие киборги вы о чем вообще.

  3. LowerMaryon

    Мне интересно, будут ли роботизированные части человека использовать какую-либо энергию? (отправлено из приложения Hi-News.ru)

  4. Xenon

    Всё будет зависеть от того как бубут взаимодействовать вживлённые системы с мозгом , если достигнется такой уровень (что реально возможно) , что оно будет как единое целое - то беда...
    Конечно возможности расширятся фантастически , но и плата за жто в случае проникновения извне ...
    Элита не будет себе ничего вживлять , но будет имень в окружении своём двух-трёх супермэнов-киборгов ...

  5. mahan

    Киборги уже есть!!! (отправлено из приложения Hi-News.ru)

  6. Hi_newsMan

    Нет конечно ! Как можно защититься когда ты находишься в мире специально кем-то придуманным, когда "хозяин" этого мира имеет полный контроль, а тебе отделяет только элементы которые он посчитает нужным выделить тебе?
    Киборг это уже значит что сознание будет внутри операционной системы.
    Кто придумает эту систему тот и будет ею управлять! )) Это не понятно разве?

  7. gazon

    Нам до интерфейсов ,,мозг — компьютер,, ещё очень далеко,не стоит попусту сотрясать воздух))

  8. Potato Man

    Да, создадут киборга..... Вскроют, а там все на "if"

  9. cats.can.fly

    Да все так же будет.
    Будут всякие "заплати биткойн чтобы расшифровать свои воспоминания", "гугл больше не будет отслеживать ваш центр наслаждения", "АНБ разработала софт для подмены мыслей".
    Все будет так же как и сейчас но с поправке на НКИ и прочий графен.

  10. uran

    2045.ru (отправлено из приложения Hi-News.ru)

  11. TK-231

    Вот уж что действительно - слишком смелые прогнозы, как будто Deus Ex вот уже со дня на день. Двигающийся протез, это конечно, прорыв, по сравнению с прошлым, но пока в здравом уме здоровыми конечностями не пожертвует.
    "Став киборгом", "Переход в новый вид" - да с чего вдруг утверждение, что это чуть ли неизбежно? Да, гаджеты уменьшаются, протезы совершенствуются, но не настолько чтобы в ближайшей перспективе впихнуть в себя деталь, которая постоянно ломается и которой требуются запчасти. Тело конечно, несовершенно, но пока что техника ломается куда как чаще, чем мы болеем.
    Да и для чего мы используем машины? Чтобы они что-то делали за нас, облегчали наш труд или досуг. Зачем самому становится машиной в чьих-то руках?

  12. Asmodeus55555

    Какие возможности открываются! Люди будут пахать за тарелку безвкусного супа - программа изменит восприятие на то, что ешь деликатес. Никакой оппозиции - программа представит кучку политиков отцами народов и великими кормчими еженощно пекущимися только о благе народа. Жён и мужей будут назначать - даже злой и тупой крокодил с изменённой программой предпочтений будет казаться образцом красоты, интеллектуальности и добродетели. Теперь даже не о каждом шаге, а о каждой странной - не вписывающейся в рамки средне-дозволенного мысли сразу будет узнавать Большой брат.... и.т.д. и т.п...... Возможности воистину безграничны.

    • uran

      Asmodeus55555, Вместо супа - атомный аккумулятор подойдёт (отправлено из приложения Hi-News.ru)

    • Ystyr

      Asmodeus55555, Ваша позиция совершенно произвольна. Зачем кому-то делать злых, тупых, крокодилов киборгов, а потом программировать их воспринимать друг друга образцом красоты, ума, добродетели? Не лучше ли сразу делать красивых, умных и добродетельных киборгов?
      Зачем "Большому брату" знать недозволенные мысли, если, с таким уровнем контроля, можно блокировать их на стадии возникновения?
      Оппозиция, кормчие. Вы исходите из того, что "кормчие" не будут модифицированы? То есть, они априори будут сравнительными идиотами, правящими сотнями миллионов гениев интегрированных в "телепатические" сети позволяющими быть мгновенно осведомлёнными обо всём необходимом (и которым, посему, не нужно ни правительство, ни оппозиция)? А если идиотами будут киборги, как они по-вашему, смогут обеспечивать экономический рост и конкурентоспособность страны, особенно на фоне глобальной автоматизации рутинного труда?
      Однако, насчет безвкусного супа, соглашусь. Смесь необходимых нутриентов даже не нужно есть, просто загрузить в специальный контейнер. А наслаждаться любыми мыслимыми деликатесами, желающие смогут в виртуальной реальности.

  13. realsomebody

    Исследование ради исследования. Было бы что взламывать, а умельцы найдутся. Не подключай мозги к сети - не будешь взломан.

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.