Microsoft: Успокойтесь, роботы нас не поработят. По крайней мере пока

7 375 просмотров
Об авторе

robots

Microsoft относится к тем корпорациям, которые изо всех сил стараются, чтобы развитие искусственного интеллекта и его применение в технологической среде по всему миру шло гораздо активнее, чем в настоящий момент.. И если верить выступлению компании на последней конференции разработчиков BUILD, софтверный гигант уже работает над тем, как ускорить эти процессы.

Если учесть, что в мире уже существуют машины, способные выполнять поставленные перед ними задачи лучше человека, некоторых людей беспокоит то, что этот мир очень скоро может оказаться под властью бездушных роботов, и поэтому необходима разработка методов, благодаря которым человек сможет быстро перехватить управление этими машинами, если потребуется.

Физик Стивен Хокинг и основатель компании Tesla Элон Маск являются двумя, пожалуй, самыми яркими фигурами в технологической среде, которые выражают свои опасения по поводу того, как массовая интеграция робототехники и ИИ может повлиять на наш мир в будущем.

«Развитие полноценного искусственного интеллекта может явиться началом конца всего человечества», — говорил в свое время профессор Хокинг и получил поддержку Маска, который добавил, что «инвестирование в разумные машины — это очень опасный путь развития».

Но если верить Крису Бишопу, директору подразделения Microsoft Research в Кэмбридже, инвестирование в робототехнику сейчас не несет никакой опасности, так как у человека по-прежнему остается контроль над всем тем, чем он занимается. В интервью изданию The Guardian он объяснил, что подобные комментарии являются лишь «чрезмерно драматизированными точками зрения» и пояснил, что подобные страхи лишь могут негативно повлиять на эволюции робототехники.

«Опасность в первую очередь может крыться в том, если мы будем слепо уделять слишком много внимания якобы «терминаторам», «Скайнету» и концу всего человечества. Конечно же, в таком ключе можно смотреть на развитие искусственного интеллекта только с негативной, эмоциональной и однобокой стороны. Но ведь это аналогично тому, что мы казним только что родившегося, но еще не сформировавшегося человека», — говорит Бишоп.

Крис поспешил объяснить, что роботы необязательно должны изначально нести некую угрозу человечеству, так как мы по-прежнему находимся еще в десятилетиях от того времени, когда «подобные комментарии и мнения на самом деле смогут иметь какой-то смысл для обсуждения».

Бишоп, тем не менее, признается, что слепое инвестирование огромных средств в развитие робототехники может все-таки повысить опасность, если только аналогичные инвестиции не будут вливаться в развитие технологий, которые позволят своевременно решать возникающие проблемы или даже заранее позволят их не создавать.

Более того, Крис соглашается с тем, что в ближайшем будущем роботы действительно смогут повысить уровень безработицы людей, как только крупные компании поймут, что автоматические системы будут способны выполнять постоянно увеличивающийся набор возможных задач быстрее и дешевле человека. Тем не менее, по мнению Бишопа, если все это будет грамотно контролироваться, то подобные вещи никогда не произойдут.

«Существует очень много вещей, с которыми роботы не смогут справляться так же естественно, как с этим справляется человеческий мозг, и поэтому говорить о машинах, наделенных всеми способностями, которые превосходят человеческие и о которых говорят большинство экспертов в этой сфере, очень преждевременно. Нас отделяют от такого полностью роботизированного будущего многие десятилетия», — подытоживает Бишоп.

Microsoft: Успокойтесь, роботы нас не поработят. По крайней мере пока

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

45 комментариев

  1. Negr

    Бишоп - так звали робота в Чужих. Он под человека маскировался.
    Чую подвох.

    • SERG__ZV

      Кстати тот робот из чужих хороший пример тому какими должны быть роботы. И какими они могут быть если мы постараемся их такими сделать. Он их ведь спас тех кто остался в живых рискуя собственной жизнью пока полз до пульта управления кораблём по трубе.

  2. VGRB

    ИИ может стать угрозой в том случае, если сможет осознать себя. (отправлено из приложения Hi-News.ru)

    • Favorite

      "ИИ может стать угрозой в том случае, если сможет осознать себя".
      Если объект не может осознать себя, т.е. не может увидеть себя со стороны или, что то же самое - не может увидеть себя в виде части окружающей среды, то это не интеллект. И в этом случае неважно, в какой форме этот объект существует - в виде "железа" или в виде "софта".
      Интеллект - это способность объекта:
      (1) выявлять и запоминать законы окружающего мира;
      (2) на основе законов окружающего мира моделировать наперед свои действия в окружающем мире (опережающее отражение);
      (3) на основе результатов моделирования действий в окружающем мире адаптировать свои реальные действий к условиям окружающего мира.
      Результат использования этой способности - гарантированное существование (дление, бытие, жизнь - если объект имеет биологическую основу).
      И как только объект приобретет эту способность, т.е. как только станет интеллектуальным, так одновреименно он обретет и (само)сознание. Одно без другого не бывает: есть интеллект, есть (само)сознание; нет интеллекта, нет (само)сознания.
      Переход к ИИ не отменить, это закон природы. Дети не только продолжают, но замещают родителей, и с этим приходится мириться. С ИИ немного сложнее, у него качественно другая основа, небиологическая. Но всё равно ИИ - это продолжение человечества. Биологическая жизнь на Земле существует около 4 млрд лет. Развитие способности биологической жизни гарантированно существовать (длиться, быть, жить) в форме человечества достигло предела (т.н. плато на S-образной кривой, 3-й этап развития). Раз человечество задумалось об ИИ - об этом говорит сегодняшний уровень развития науки и техники - значит пришла пора смены биологической основы на другую...

      • UFO

        Панике не поддавайтесь,организованно спасайтесь... сомневаюсь,что удастся донести до ЧугунногоГромилы,если вдруг в нём что то там не туда Коротнёт, вот этакие Ценности... ну в самом деле-вы же не не разу не руководствуетесь Хельсингской Декларацией рубя башку Курице или закалывая Порося...

        • Favorite

          Ценности у человека и у ИИ будут одни и те же - гарантированное существование (дление, бытие и т.п.). Именно стремление (даже неосознаваемое) эти ценности достичь привело материю к появлению в ней интеллекта. Если у ЕИ и ИИ стремление всё более и более надежно существовать (длиться, быть и т.п.) будет реализовываться на одном и том же ресурсе, то ЕИ ничего не светит, ИИ его вытеснит. Если на разных, то у ЕИ остается шанс.

          • UFO

            эт наврядли... ценности весьма разные даже у биологических единиц,ну ,скажем у Вас и у Кошки... а тут запрячь в Единую Повозку ... не, не Полетит...

            • Favorite

              Да, о ценностях, тем более для таких разных биообъектов, договориться трудно. Но всё-таки попробую пояснить, как это сделать...
              Ценности для человека - начните с описания любого действия, которым вы начинаете день, прямо с первой секунды. А дальше начните к каждому действию задавать один и тот же вопрос: "Зачем совершается это действие?" Ответ должен быть в форме: "Это действие совершается для того, чтобы ...". И т.д.
              Если трудно ответить на прямой вопрос, ответьте на такой: "Что произойдет (что случится), если это действие не совершать?". Попробуйте, это интересно. В конце концов, дойдете до ответа, к которому вопрос задать не получится. Вот это и будет ценность...
              А потом последите за поведением кошки и эту же цепочку вопросов-ответов прогоните для неё... Ну, и сравните результаты.
              Успехов!

      • PRO_FANt

        Тема понравилась. Отвечу тупо, но кратко: ИИ (роботов) бояться - в будущее не ходить!

  3. 0.5l

    согласен. а Хокинг слишком далеко заглядывает наперёд

    • UFO

      Хокинг уже давным давно наблюдает Жизнь из ПерсональнойКаталки и очень много куда просто не в состоянии заглянуть... нет, он конечно всё растолкует про ЧёрныеДыры и Сингулярность, но не удивлюсь,если окажется ,что он искренне уверен,что Булки растут на Дереве...

  4. gmail

    Прочитал , аж плохо стало. Если они превзойдут нас, то я как тот чувак из Революционной Франции буду крушить их топором. (отправлено из Android приложения Hi-News.ru)

    • UFO

      Были такие, только в ВБ, откликались на "Луддиты"... ничего то у них не вышло...

      • Favorite

        Ничего не вышло у луддитов. Это именно о том, что против закона природы воевать бесполезно. Костер уж на что был хорош - использовался сотнями тысяч лет, а микроволновка лучше...

        • UFO

          ну в общем то микроволновка мало имеет отношения к законам природы,скорее к Прогрессу, хотя с моей Кочки закономерности тут меньше чем нет совсем... так.. Стихия...

          • Favorite

            Так прогресс - это следование законам природы при изменении техники. Более совершенная техника, у которой отношение "польза/затраты" выше, вытесняет менее совершенную - в современной кухне много чаще встречаю микроволновку, а не костер. Это и есть проявление закона природы...

  5. Neo_triniti

    Ну ИИ я приветствую, а замену людей роботами в жизни и на рабочем месте не совсем.

  6. UFO

    А вот я как ни странно-Спокоен... пока МОЯ рука лежит на Рубильнике... хуже будет ,когда Железяки получат автономность,сравнимую с КусочкамиМяса... но и тогда нужно НА КАЖДОЙ Железяке предусмотреть очень заметную и,главное дело,всегда доступную кнопку "СТОП"...

    • Favorite

      Если Железяка будет обладать ИИ, а она будет, и этот ИИ будет несравнимо мощнее ЕИ, то никакой кнопки СТОП вы на этой Железяке не найдете. Так предки человека не нашли такую "кнопку" или её аналог на человеке. А ведь ой как хотели продлить своё существование.
      А оборудовав Железяку кнопкой СТОП заранее, развить ИИ в Железяке не получится. Развитие упрется в стенку... Развитие интеллекта (в полном смысле этого слова) требует его свободы в целеполагании и в инструментах достижения этой цели. В противном случае получится заводная игрушка...

      • UFO

        вот и я говорю... именно Стенка! причём высокая и покрепче, ну ежели не желаем поменяться Ролями... в смысле Кто на Ком Стоял...

  7. new-trino

    Полностью разделяю опасения Стивена Хокинга и Элона Маска. Они заглядывают в будущее "Стальных пещер" по Айзеку Азимову. А это - путь к самоуничтожению. Ибо Крис, бесспорно, являющийся талантливым человеком ( не роботом), ни кто -либо другой, не сможет гарантировать исполнение 1-го Закона робототехники, гласящего: '' Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред." Все наши проекты должны быть пронизаны любовью к человечеству. Главная ценность на Земле - человеческая жизнь. Важно, чтобы мы с вами не превращались в бездушные машины. Но мы можем поставить перед роботами задачи, решение которых пока сопряжено с большими рисками для нас. Например, миссия Марс. Пусть будут нашими глазами, ушами, руками. Да и в проекте Альфа Центавра можно найти им место. Давайте кумекать вместе. Крис, ты как на это смотришь?

    • UFO

      в Одиссее 2001 уже было отражено,как может набедокурить КоротнувшийКалькулятор.

      • Favorite

        Как бы вы ни любили паровоз, но его вытеснил тепловоз и электровоз. Как бы вы ни любили самолет братьев Райт, а его вытеснил Боинг. Как бы вы ни любили дизельные подлодки, но их вытеснили атомные... Это закон природы - менее эффективные системы вытесняются более эффективными. Поэтому как бы вы ни любили ЕИ (в форме человечества), он будет вытеснен ИИ.

        • UFO

          я вот лично если что-категорически против и буду сопротивляться... Калькулятору- калькуляторово...

  8. dawson.white

    Последнее время часто стали говорить, что не представляет угрозы. Видимо поняли, что не так то просто создать такой умный самосознающий ИИ . Если вообще возможно его создать. (отправлено из Android приложения Hi-News.ru)

    • Favorite

      "Последнее время часто стали говорить, что ИИ не представляет угрозы. Видимо поняли, что не так-то просто создать такой самосознающий ИИ. Если вообще можно его создать".
      Похоже, это отражение того, что знаний и технических возможностей пока не хватает, а не то, что самосознающий ИИ невозможно построить. Мол, "зелен виноград...".

  9. speed

    хотелось бы конечно чтобы его создали, но сомневаюсь что сильный ии создадут в ближайшее время(увы люди слишком тупые чтобы быстро его создать). Хокинг так тот вообще инопланетянин и живет в другой реальности, просидите в кресле столько сколько он и тоже будете такой же бред нести и думать про высшии материи)

    • Favorite

      Хотелось бы, конечно, чтобы его создали, но, сомневаюсь, что сильный ИИ создадут в ближайшее время (увы, люди слишком тупые, чтобы быстро его создать)".
      Ну, нельзя же на своих хотениях и сомнениях делать серьезные выводы...
      Наука и техника развиваются по экспоненте, т.е. с ускорением - следующие шаги совершаются с уже достигнутых высот. Вы же, надеюсь, верите в разгон многоступенчатой ракеты. То же самое происходит и со знаниями. И графики уже построены - см. Р.Курцвейл, закон ускоряющейся отдачи, https://s-media-cache-ak0.pinimg.com/736x/c9/c7/b9/c9c7b9ee9a69b0c8486c8cfea06bbd30.jpg
      Хотения и сомнения не работают, работает наука...

      • speed

        Курцвейл? Ну хорошо, по моему он уже делал свои предсказания на 2015 год, большинство из его предсказаний не сбылись и конечно он будет заявлять, он же почти всю свою жизнь им занимается. То что якобы ии обыграл человека в го и прочие якобы достижения не делают его умным и не сделают, по сути ии на той же ступени что и 50 лет назад!!!

        • Favorite

          "Курцвейл? Ну, хорошо, по-моему он уже делал свои предсказания на 2015 год..."
          Вы же участвуете в дискуссии о науке. Так почему вы приводите не аргументы, а слова: "хотелось бы", "сомневаюсь", "по-моему"? Так приведите предсказания Курцвейла и покажите, где он ошибался.

          • speed

            окей, могу даже написать про 109 предсказаний в книге Эра духовных машин. Что на это скажешь?)

            • Favorite

              ОК, писать не надо. Эта книга у меня полке. Ну, и в сети есть перевод на русский, https://www.proza.ru/2010/02/15/130 - почитайте здесь комментарий самого Курцвейла. Он серьезный исследователь, его книги широко известны, и он не стал бы врать или как-то юлить, пытаясь оправдаться. Его бы тут же обсмеяли журналисты и конкуренты - в Штатах подставиться очень просто.
              Так вот, Курцвейл прямо заявляет, что: "... если говорить в целом, из 108 предсказаний 89 были полностью верны в 2009 году. Ещё 13 я бы назвал верными по существу (что даёт общую сумму в 102 из 108)".

              • speed

                для меня авторитетный источник это википедия и в ней написаны основные его предсказания и заявления, которые либо не сбылись вообще, либо сбылись очень и очень отдаленно.
                По мнению Курцвейла, уже в 2014 году мощность суперкомпьютера сравняется с мощностью человеческого мозга. Компьютеры перестанут существовать, как отдельные объекты — они примут нетрадиционную форму и будут встроены в одежду и повседневные предметы. Виртуальная реальность будет вовлекать не только зрение и слух, а все органы чувств. Не сбылось.

                • speed

                  а отгадать или ошибиться на несколько десятков, а то и сотен лет и я могу(пересказав примитивно те же фильмы с фантастикой), да и еще если буду работать главным инженером в гугл.

                  • Favorite

                    «По мнению Курцвейла, уже в 2014 году мощность суперкомпьютера сравняется с мощностью человеческого мозга».
                    В книге «Век одухотворенных машин» нет такой цифры. А вот точная цитата: Суперкомпьютер достигнет мощность мозга человека в 20 млн млрд операций в секунду (20 петафлопс) примерно в 2010 году, на 10 лет раньше, чем персональный компьютер. См. p. 105 in «The Age of Spiritual Machines: When Computers Exceed Human Intelligence» by R. Ray Kurzweil, Penguin Books (1999), ISBN-13: 0-670-88217-8,
                    Развитие суперкомпьютеров:
                    - 1 тыс млрд операций в секунду (1 терафлопс) - 1996 г.
                    - 1 млн млрд операций в секунду (1 петафлопс, 0.05 мощности мозга) - 2008 г.
                    - 1 млрд млрд операций в секунду (1 экзафлопс, 5 мощностей мозга, работы ведутся несколькими странами) - 2020 г.
                    Новости из области суперкомпьютеров:
                    28 октября 2010 г. Китайцы создали самый мощный суперкомпьютер в мире
                    В Государственном суперкомпьютерном центре в Тяньцзине официально представлен суперкомпьютер Тяньхэ-1А с устойчивой вычислительной мощностью 2.5 млн млрд операций в секунду (2.5 петафлопс, 0.125 мощности мозга).
                    April 13, 2016. 100 PFLOPS: China’s Supercomputer Tianhe-2 delivers a peak performance 55 PFLOPS, and a sustained performance of 34 PFLOPS (1.7 мощности мозга).
                    What is little known is that Tianhe-2 is not a fully built supercomputer. In fact, Tianhe operated at a 50% capacity, as the original target for the system was 100 PFLOPS peak and 80 PFLOPS sustained.
                    Т.е. в этом году мощность суперкомпьютера уже перекрыла мощность мозга почти в 2 раза. В 2 раза, Карл! Если откатить по экспоненте назад к мощности мозга, то она была достигнута в прошлом году, в 2015. Т.е. Курцвейл выдал точный прогноз...

                    • speed

                      честно говоря удивлен что человек который держит этот сайт спорит с википедией, даже я с ней никогда не спорю, хотя и любитель поспорить. Можешь просто ввести в гугле Курцвейл и открыть вики!

                      • Favorite

                        Информация устаревает даже в Вики, поэтому не спорить с ней надо, а редактировать, вставляя последнюю информацию.

                    • speed

                      В книге «Век одухотворенных машин» нет такой цифры. А вот точная цитата: Суперкомпьютер достигнет мощность мозга человека в 20 млн млрд операций в секунду (20 петафлопс)

                      Чувак ты несешь полную хрень, тебя же люди читают которые верят написаному, даже тяньхэ2 слабее на много не говоря уж про 1.
                      Количество нейронов в головном мозге человека примерно равно 100000000000 (ста миллиардам). Данные в из разных источников немного различаются, но в целом картина схожа. Каждый из этих нейронов имеет от 7000 до 10000 синапсов. В среднем, через один синапс проходит 10 импульсов в секунду, т.е. мы имеем тактовую частоту 10 герц на одну синоптическую связь. А теперь занимательная математика: 100000000000 нейронов мы умножаем на 10000 их синоптических связей и умножаем все это на 10 герц. Мы получаем число с шестнадцатью нолями после единицы, а иначе 10^16.

                  • Favorite

                    "... отгадать или ошибиться на несколько десятков, а то и сотен лет и я могу (пересказав примитивно те же фильмы с фантастикой), да и еще если буду работать главным инженером в гугл".
                    Гадание или предсказания с ошибкой в сотни лет (на основе фант. кино) сегодня не прокатит. Сегодня как раз фант. кино, хорошее, разумеется, снимают, консультируясь с учеными. Хотя, и ошибки отдельные бывают...
                    Чтобы работать инженером в Гугл, надо сначала выдавать прогнозы без ошибок в десятки и сотни лет, а не наоборот :)

                    • speed

                      думаю работая главным инженером, он видит в каких направлениях ведутся разработки и несложно сделать предсказания на том что он видит, я об этом имел ввиду. Повторюсь что его попадения лишь частичные и отдаленные, а не полные. Читая твой сайт кажется что попадаешь в фантастику в мир киборгов и развитых технологий которые как были в фильмах так и остались)). Мне нравится твой сайт, дизайн, оформление и т.д, но увы фантастика остается фантастикой, бумага все стерпит))

                      • Favorite

                        Курцвейла пригласили в Гугл не потому, "... что он видит, в каких направлениях ведутся разработки и делает предсказания на том, что он видит", а потому, что он видит то, чего еще нет. И видит правильно, его прогнозы сбываются. Конечно, не на все 100% - все техничиеские тонкости невозможно описать, т.к. на развитие техники еще влияет и надсистема (общество), и наднадсистема (природа).

  10. Zarb

    Ага! Это майкрософт специально успокаивает нас, что бы усыпить бдительность! А сами разрабатывают ИСИ, который захватит мир для них. И тогда майкрософт будут править всем миром кремниевой диктаторской пятой! И windows 10 они для этого распространяют, что бы под видом очередного обновления залить ИСИ на все компы мира XD Ну и что бы следить за вами.

    • iZjyka

      Про винду10 прям в точку )))А вообще нас подготавливают у появлению ИИ в нашей жизни)это не отменить это нормальный шаг вперед,пусть и пугающий как и все что мы делали тысячелетия:боялись,но толкали прогресс вперед)И вообще скоро все равно уйдем в вирт.реальность,а роботы будут все делать! (отправлено из iOS приложения Hi-News.ru)

      • UFO

        " а роботы будут все делать!"
        так вот сразу и вспомнилось: " вы что же ,и есть за меня будете?" (це) "Вовка в 3/9 Царстве"... был такой правильный Мультик, еще Советский...

        • iZjyka

          Мультик действительно поучительный!просто большая часть человечества согласна сидеть и ничего не делать! (отправлено из iOS приложения Hi-News.ru)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.