ИИ от Google научили быть «крайне агрессивным» при стрессовых ситуациях

11 688 просмотров
Об авторе

В прошлом году знаменитый физик-теоретик Стивен Хокинг заявил, что совершенствование искусственного интеллекта станет «либо лучшим, либо худшим событием для всего человечества». Все мы смотрели «Терминатора» и все мы отлично представляем, каким апокалиптическим адом может стать наше существование, если такая обладающая самосознанием ИИ-система, как «Скайнет», однажды решит, что в человечестве она больше не нуждается. И последние результаты работы новой ИИ-системы от компании DeepMind (принадлежит Google) лишь очередной раз напоминают нам о необходимости быть крайне осторожными при производстве роботов будущего.

В исследованиях, проводившихся в конце прошлого года, ИИ от DeepMind обрел и продемонстрировал возможность своего обучения независимо от того, что заложено в его память, а еще победил лучших в мире игроков в логическую игру го. Помимо этого, он совершенствовал свои навыки в чтении по губам и имитировании человеческого голоса.

В рамках же последних испытаний системы исследователи проверяли «ее стремление» к сотрудничеству. Тесты показали, когда ИИ DeepMind «чувствует», что вот-вот проиграет, то для избегания проигрыша он начинает выбирать новые и «крайне агрессивные» стратегии. Команда Google провела с ИИ 40 миллионов сессий в простой компьютерной игре Gathering, где от игрока требовалось собрать как можно больше нужных фруктов. ИИ DeepMind управлял двумя «игроками-агентами» (синим кубиком и красным кубиком). Инженеры Google дали системе задачу устроить соревнование между «агентами» и собрать столько виртуальных яблок (зеленых квадратиков), сколько получится.

До поры до времени, пока «агенты» могли без проблем собирать фрукты, имеющиеся в большом количестве, все шло гладко. Но как только запас яблок сокращался, поведение «агентов» становилось «агрессивным». Они стали активнее использовать средство (лазерный луч), которое помогало выбить противника за игровой экран и затем самому собрать все яблоки:

Что интересно, за выбивание противника с поля с помощью лазерного луча никакой дополнительной награды не предлагалось. Выбитый противник лишь некоторое время находится за пределами экрана, в то время как более успешный противник имел возможность беспрепятственно собрать побольше виртуальных яблок.

Если бы «агенты» не использовали лазерные лучи, то теоретически количество собранных ими яблок было бы одинаковым. Это в принципе и происходило, когда в качестве «агентов» использовались более низкоуровневые и «менее интеллектуальные» варианты DeepMind. Более агрессивное поведение, вредительство и жадность стали проявляться только тогда, когда команда Google стала использовать более и более сложные формы DeepMind.

Когда исследователи использовали в качестве «агентов» более простые сети DeepMind, то между ними отмечалось наличие «атмосферы более дружелюбного сосуществования на игровом поле». Однако, когда управление агентами передавалось все более и более сложным формам сетей, ИИ становился агрессивнее и стал пытаться заранее выбить оппонента с игрового поля, чтобы первым быстрее добраться до львиной доли добычи из виртуальных яблок. Ученые Google предполагают, что чем умнее «агент», тем он эффективнее способен обучаться, адаптироваться к условиям среды и доступных методов, и в конечном итоге приходить к использованию наиболее агрессивной тактики для победы.

«Эта модель показывает, что результатом обучения и адаптации к условиям окружающей среды является проявление некоторых аспектов, свойственных человеческому поведению», — говорит Джоэль З. Лейбо, один из исследователей, проводивших этот эксперимент.

«Менее агрессивное поведение проявлялось только при обучении и нахождении в относительно безопасной среде, с меньшей вероятностью последствий после тех или иных действий. Жадность же, в свою очередь, отражалась в стремлении обогнать соперника и самостоятельно собрать все яблоки».

После «сбора урожая» DeepMind предложили сыграть в другую игру, под названием Wolfpack. На сей раз в ней присутствовали сразу три ИИ-агента: два играли роль волков, а оставшийся – роль добычи. В отличие от игры Gathering, новая игра всячески способствовала сотрудничеству между волками. Во-первых, так легче поймать добычу, а во-вторых, если оба «волка» находились рядом с загнанной добычей, они оба получали некую награду, в независимости от того, кто именно ее поймал.

«Идея заключается в том, что добыча может быть опасной. Кроме того, может одинокий волк и способен ее загнать, но есть риск ее потери в результате нападения падальщиков», — объясняет команда.

«Но если оба волка загоняют добычу вместе, то они способны лучше ее защищать от падальщиков и благодаря этому получают повышенную награду».

В общем и целом из игры Gathering ИИ DeepMind уяснил, что агрессия и эгоизм являются наиболее эффективными стратегиями для получения нужного результата в конкретно взятой среде. Из Wolfpack та же система поняла, что сотрудничество, в отличие от индивидуальных попыток, может стать ключом к более ценной награде в определенных ситуациях. И хотя описанные выше тестовые среды являются лишь элементарными компьютерными играми – основной посыл понятен уже сейчас. Возьмите разные ИИ, обладающие конкурирующими интересами в реальной ситуациях, поместите в одну среду, и, возможно, если их задачи не компенсируются общей целью, результатом может стать настоящая война. Особенно если человек, как один из звеньев в достижении этой цели, будет исключен.

В качестве примера просто представьте себе светофоры, управляемые ИИ, и беспилотные автомобили, пытающиеся самостоятельно найти быстрейший маршрут. Каждый выполняет свои задачи с целью получения наиболее безопасного и наиболее эффективного результата для общества.

Несмотря на «младенческие» годы DeepMind и отсутствие какого бы то ни было стороннего критического анализа его возможностей, результаты его испытаний наводят на следующие мысли: даже если мы их и создаем, это совсем не означает, что в роботах и ИИ-системах будет автоматическим образом заложено стремление ставить наши человеческие интересы выше их собственных. Поэтому нам самим необходимо «закладывать доброжелательность» в природу машин и предвидеть любые «лазейки», которые могут позволить им добраться до тех самых лазерных лучей.

Один из основных тезисов инициативной группы OpenAI, направленной на изучение вопросов этики искусственного интеллекта, как-то прозвучал в 2015 году следующим образом:

«Сегодняшние ИИ-системы обладают удивительными, но узкоспециализированными возможностями. И вероятнее всего, мы еще долгое время не будем их сдерживать в своем совершенствовании. По крайней мере до тех пор, пока их возможности в решении практически каждой интеллектуальной задачи не станут превосходить человеческие. Сложно представить, какой именно уровень пользы сможет принести ИИ человеческого уровня для общества, равно как и сложно представить, какой урон он сможет нанести обществу при халатном отношении к его созданию и использованию».

ИИ от Google научили быть «крайне агрессивным» при стрессовых ситуациях

Приложение
Hi-News.ru

Новости высоких технологий в приложении для iOS и Android.

111 комментариев

  1. GlobalElite

    Да что ж такое, они специально что ли всех пугают?! :D

  2. zestxvn

    Программа лишь действовала оптимальным образом, убирая кубик за пределы экрана, а тут уже агрессию приплели. (отправлено из приложения Hi-News.ru)

    • bronmak

      а что если программа задача которой будет, например, минимизация риска аварий на дороге решит, что "нет людей - нет аварий" ? или по оптимизации использования какого то ресурса. или по возобновлению экологического состояния планеты. или что либо еще.

      • zestxvn

        Программу по минимизации риска аварий будут делать как программу для минимизации риска аварий, а не для игр. Е-но с соотв. пределами.
        И она сама ничего не решит, т.к не осознает себя (отправлено из приложения Hi-News.ru)

      • ADAM

        Достаточно вбить программу самоликвидации, если ИИ решит, что человек лишний.Человек для ИИ должен быть наивысшим приоритетом и абсолютной ценностью.Если у ИИ не появится самосознания а оно не появится никогда, это доказали итальянский математики, то такая вшитая программа не позволит навредить человеку.Три закона робототехники.
        Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
        Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
        Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

        • Rifter

          Если бы ты прочитал книгу, то знал бы, что эти три закона не работают.

          • ADAM

            Это в книге, по задумке Айзека они не работают, что бы придать остроту сюжету.А в жизни должны работать иначе смысла делать ИИ нет

            • Rifter

              Прочитай сперва, а потом рассказывай что там по задумке было и чего не было.
              {Ох уж эта школота, вечно пытается показаться самой умной, не понимая, что со стороны это выглядит просто смешно}

              • ADAM

                Как можно рассуждать о том, чего нет? ИИ на сегодняшний день не существует, три закона это не средство а цель, средств т.е. как эту цель достичь, еще нет, поскольку нет даже близкого понимания как сделать сильный ИИ. Если удастся, когда либо понять работу мозга, феномен сознания и на основе этих знаний построить ИИ, то в первую очередь будет стоять проблема обеспечения безопасности(три закона), иначе никто не будет заниматься самоубийством.
                { Ты очень надменный человек, любишь самоутвердиться, твоя самооценка подпитывается за счет принижения других, аргументировать свои тезисы ты не можешь. Кто из нас школота большой вопрос}

                • Rifter

                  Ты написал про три закона робототехники. Я тебе ответил, что они не работают. Тогда ты начал пытаться мне доказать, что они всё-таки работают не смотря на то, что сам их создатель утверждал обратное. Так чья самооценка тут нуждается в подпитке, если ты неспособен признать свою неправоту? И зачем мне приводить доказательства в данном случае, если любой образованный человек и так знает, что я прав.
                  И да, я, конечно, могу иногда высказаться в нелестной для собеседника форме, но это не потому, что он - дурак, а из-за того, что он своими глупыми высказываниями пытается сделать дураками других.

                  • ADAM

                    Где я написал, что три закона работают?

                    Читай внимательно:
                    "Человек для ИИ ДОЛЖЕН БЫТЬ наивысшим приоритетом и абсолютной ценностью"
                    "А в жизни ДОЛЖНЫ работать иначе смысла делать ИИ нет"
                    А далее я привел три закона в этом контексте. Контекст сообщения понимаешь? Из контекста можно понять, что я привел три закона не как средство,а как то ЧТО ДОЛЖНО БЫТЬ, т.е. цель. А вот как это сделать, это уже задача, которую нужно решить, что бы появился безопасный ИИ.

                    Не хочешь приводить доказательства, потому что образованные знают что ты прав))) Ты походу здесь авторитет.Ученный в законе))) Все без аргументов соглашаются с тобой, ну извеняй батя, что ноты попутал)))

                    • Rifter

                      Сколько тебе лет, если не секрет?
                      Ответ на твой вопрос.
                      "Это в книге, по задумке Айзека они не работают, что бы придать остроту сюжету.А в жизни должны работать иначе смысла делать ИИ нет"

                      • ADAM

                        Сколько тебе лет, если не секрет? Завязывай, вые..баться, паря! Аргумент-контраргумент, мне гораздо интересней, докопаться до истины, чем мериться пиписьками.
                        ДОЛЖНЫ работать и работают, понимаешь разницу??? Должны каким то образом работать.
                        Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Это фундамент который исключает любую опасность со стороны робота.Безусловно этот закон должен быть детализирован, проработан до мелочей что бы не оставить лазеек.

                        • Rifter

                          Слив засчитан =)

                        • GBlackFox

                          "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Это фундамент который исключает любую опасность со стороны робота." - а как вам такая ситуация:
                          Авто под управлением ии едет по дороге, подъезжает к тоннелю, резко в тоннеле появляется мать с коляской и ребенком. Скорость высока: варианта развития два - сбить мать с ребенком, что послужит спасением для своего хозяина, которого везет ИИ. Но убить двух людей. Второй: свернуть в сторону и врезаться, убив хозяина, но не убив мать с ребенком. В том и другом случае ваш первый закон рушится!!!

                          • ADAM

                            Не будем забывать тот факт что к моменту создания ИИ такие случаи будут полностью исключены, ИИ будет сканировать дорогу на 10 км и прогнозировать все события до мельчайших деталей, возможно к тому моменту и дорог традиционных уже не будет, это совершенно другой мир.Я говорил о намеренном причинение вреда человеку

                            • GBlackFox

                              Я ожидал именно этот ответ! Но он не сопоставляется с прямым нарушением закона и моим вопросом. Не исключайте данную гипотетичность, ведь таких примеров можно привести уйму. Отказ техники самолета, летящего над густозаселенным районом. Куда самолет упадет? решит ли он падать сразу, или отведет машину подальше. Ведь он так и так убьет людей. ИИ, как и человек, будет постоянно сталкиваться с выбором того или иного, и он будет просчитывать оптимальный выбор. Вопрос все-равно остается открытым: либо он вырубится т.к. поймет, что нарушает постулат (возможно программа его вырубит при выборе решения, которое нарушает постулат), либо примет выбор не в пользу кого-то чего-то...

                              так что вы на вопрос не ответили!

                              • GBlackFox

                                Ок. с самолетом пример неудачный. другой: высокоскоростной поезд под управлением ИИ летит по рельсам. спереди на переезде застревает школьный автобус с учениками. Варианты: резкое торможение сход с рельсов состава, невозможность определения кол-ва жертв и пострадавших, но детишшки целые. Второй: снести детишек нафиг. Третий - выключиться. Опять же ИИ должен выбрать по результату - кому умереть.

                                • ADAM

                                  Вы не поняли, что к моменту создания сильного ИИ все эти технологии с поездами, дорогами, самолетами будут доведены до идеального состояния и функционирования. Система транспорта будущего управляемая ИИ не допустит что бы школьный автобус вдруг встал на пути высокоскоростного поезда, там все будет просчитываться до мелочей, время,маршруты и другие тысяча параметров, big data. Еще раз говорю, речь идет о намеренном причинение вреда человеку, по инициативе ИИ

                                  • GBlackFox

                                    Вы не поняли! Обозвав новое поколение поездов Гиперлупом или еще чем-либо смысл не меняется от возникшей нештатной ситуации! Они всегда были, есть и всегда будут. чем сложнее механизм, тем легче его сломать!Плюч куча человеческих факторов! и я вам блин не про технологии ВНЕ ИИ говорю, а про именно САМ ИИ и его выбор!!! ВЫБОР! Вы читать умеете?! ВЫБОР, а не про технологии детекции людей на воздушных путях, и черт побери, что вы там еще понавыдумывали! следуйте банальной логике и отвечайте на прямые вопросы! Почему вы ищете лазейки? есть вопрос, не знаете ответа, не пишите чушь. напишите, что не знаете!

                                    • GBlackFox

                                      Да и к черту ЛИРИКУ! Представьте что ИИ уже есть, просто если смоделировать такую ситуацию - что ИИ предпримет?! Вот!

                                    • ADAM

                                      Внештатные ситуации будут полностью исключены, так как система управления транспортом будут осуществляться из единого центра под управлением ИИ, все до мельчайших деталей будет просчитываться, поэтому еще раз повторяю для тугих, внезапный наскок,человеческий фактор,человеческая тупость будет исключена. Законы о не причинение вреда человеку касается УМЫШЛЕННОГО совершения зла против человека. Не можешь понять что система развивается в надсистеме?

                                      • GBlackFox

                                        Вы идиот?! вот чес слово! Свято верите, что с появлением ИИ и развитием технологий не будет никаких эксцессов?! феерический ***!!!
                                        Пока такие как вы "умники" будут существовать, то не сбудуться ваши мечты! Вам всем премию дарвина выпишут.

                                        Как можно вообще верить, что не будет никаких ошибок?!?! я просто...блин..у меня нет слов!!!!

                                        В общем ответа на свой вопрос я не дождусь, из-за ВАШЕЙ тупости, недальновидности и недалекости.

                                        Люди, ну почитайте что он пишет!

                                        • ADAM

                                          Количество ошибок уменьшается по мере течения времени в будущее, один из законов развития технических систем заключается в том,что любая техническая система развивается в сторону повышения идеальности системы. Чем дальше в будущее тем меньше ошибок, это обусловлено приобретением опыта, отладкой и оптимизацией надсистемы,системы и подсистемы.Если вы тупорез и не понимаете этого не стоит нервничать.Вы слишком подвержены влиянию эмоций, неуравновешенны это явный признак не развитости рационального, холодного ума.Как раз такие как вы и совершают большинство ошибок потому что думают не головой а ж..пой)) вернее эмоциями)) Остынь паря и иди учить уроки.Ты в каком классе учишься в 9м-10м?

                                          • ADAM

                                            или студент ПТУ в Урюпинске? )))

                                          • GBlackFox

                                            Конечно, в первом классе! Вы меня раскусили!
                                            А вы в курсе, что технологии развиваются не тем, что оттачивают уже развитое, а тем, что исследуют и открывают новые факты\горизонты. Если бы технологии развивались оттачиванием существующих, мы бы на этом и остановились. Идеализировали бы существующие технологии и методы, и не шли бы дальше, не открывали бы новое. А все новые технологии, как ВСЕМ известно, не отличаются стабильной работой. Возьмите что угодно, начиная от ПО заканчивая военными образцами. Да, со временем это настраивается, так сказать "допиливается", но при появлении новых технологий, старое уходит в лету. Учитывая скорость развития технологий нашей цивилизацией, можно предположить, что дальше будет еще круче, если только не сотрем сами себя с лица земли. Однако - утверждение, что ошибок не будет - глубокое заблуждение!!! НАИГЛУБОЧАЙШЕЕ!!!! Ошибки есть везде! даже в отлаженной работающей системе! И еще - чем больше мы узнаем, тем меньше мы знаем. Никогда не слышали об этом?

                                            Я не нервничаю, я дико удивляюсь вашему узколобию, святости веры в свой мирок, отсутствию рационализма, отказу признания своих ошибок, и кривизне хода ваших мыслей!

                                            • ADAM

                                              РАЗВИВАЮТСЯ и открываются, два РАЗЛИЧНЫХ источника появления новых технологий. Большинство технологий именно развиваются через предъявление новых или повышенных требований технической системе. Закон преемственности,все развивается по спирали, существует генезис любой технической системы и можно проследить ее историю развития. Так же растет общее количество знаний о природе, накапливается опыт, который можно переносить с одной области на другую, все это с течением времени уменьшает количество ошибок, поскольку природа конечна, имеет начало и конец а знания накапливаются с течением времени.Мы говорили об ИИ так вот к тому времени когда будет функционировать ИИ, транспортная система управляемая ИИ с безупречной логикой,скоростью обработки данных будет функционировать без ошибок,идеально, поскольку будет накоплен опыт, оптимизирован и развит до того предела в котором не возможны совершить ошибку типа поезд наедет на школьный автобус.
                                              Знаешь в чем заключается лично твоя узколобость и не рациональность? В твоем стереотипном мышлении:
                                              "И еще - чем больше мы узнаем, тем меньше мы знаем"
                                              А кривизна твоего мышления это желание навязать свое кривое миропонимание другим, как единственно верную точку зрения, от того ты испытаешь эмоции(удивление-злость) как это так, что есть люди мыслящие иначе.

                                              • GBlackFox

                                                Ну вот, нормальный развернутый ответ. А то я думал вы конченный, и вам что-то бесполезно объяснять.

                                                По вашему ответу: К сожалению таково не будет, ибо исключить все ошибки конечной системы в перспективе будет невозможно, ибо это не закрытая система, она так же развивается, эволюционирует. Не будет конечных и всеобъемлющих знаний. Да, чем дальше мы будем идти, тем больше будем знать о существующих вещах. Существующих!!! Но не тех, которые будут появляться со временем. Считать что-то конечным так же глупо, как и считать что-то бесконечным, ибо ни первое не второе не имеет достоверных эмпирических фактов.

                                                Согласен насчет приемственности, однако - вы знаете хоть одну техническую систему, которая доведена до ИДЕАЛА? я разрушу любое ваше предположение.

                                                Я опять же и снова возвращаюсь к главной теме: ОШИБКИ. не будет никогда такого, чтобы человечество жило без ошибок, чтобы все что будет создаваться людьми будет исключать ошибки!

                                                Далее: Вы слишком идеализировали систему отношений технологий в будущем. Боюсь, что когда создадут полноценный ИР технологии все же не будут на такой высоте, как вы говорите. Как раз таки создание ИР даст толчок к развитию, и пройдет очень много времени, прежде чем ИР будет применяться в повседневной жизни, если вообще будет. Даже после повсеместного применения ИР в жизни человечества, технологии будут развиваться и открываться, старые технологии будут ненужны - следовательно оставлены, следовательно не завершены до ИДЕАЛА (по вашим суждениям), следовательно будут иметь ошибки.

                                                Я не переходил на ТЫ - так что закройтесь в своей комнатушке и пытайтесь навязать свою точку зрения реальным школьникам.

                                                И да, я не навязывал свою точку зрения, если вы проследите текст, возможно (что я исключаю ввиду вашей ограниченности мозга) вы узрите нить, что я вел диалог, да, местами в грубой форме. Я задал вопрос, на который вы не в состоянии ответить. Я постулировал, что ошибки будут всегда! Да я в это верю, но у вас нет карт чтобы бить этот постулат.

                                                • ADAM

                                                  Считать что-то конечным так же глупо, как и считать что-то бесконечным.

                                                  Это твое мнение, я считаю что мир который когда то появился в результате большого взрыва, когда то исчезнет, он конечен.Технологическая сингулярность увеличение скорости прогресса как раз то о чем я говорю, по мере накопления знаний а накапливаются они по принципу снежного кома скатывающегося с горы, количество ошибок будет уменьшаться и однажды будет сведено на нет.Мир развивается к идеальному миру.

                                                  Транспортная система, которая работает идеально посредством централизованной системы, управляемой ИИ- будет и в этом нет сомнений, вопрос времени.Те транспортные задачи которые будут на нее возложены будут исполнятся идеально, за счет продвинутого разума, системы прогнозирования и контроля.Это мне отсюда из 2017 ясно видно, что будет через 100 лет с учетом накопления знаний, я не знаю, но будет лучше.

                                                  Любая техническая система ИДЕАЛЬНА в рамках тех задач с которыми она справляется, когда к ней предъявляют новые требования, возлагают на нее новые задачи, она перестает казаться идеальной и начинает развиваться.
                                                  Я и не говорил что "человечество жило без ошибок" человек как раз таки склонен к совершению ошибок, он законы открывает методом проб и ошибок. Я говорю за транспортную систему которая будет работать без ошибок и не допустит что бы поезд наехал на школьный автобус, это ты уже обобщил и раздул тему ошибок до масштабов всех сфер жизнедеятельности человека.

                                                  • GBlackFox

                                                    Как же вы любите все идеализировать.
                                                    В рамках человеческой активности идеализации не ждите даже через 500 лет.

                                                    "Любая техническая система ИДЕАЛЬНА в рамках тех задач с которыми она справляется" - если с задачей можно справиться, например, быстрее, за счет смены материала, но не технической схемы, то система не идеальна.

                                                    В общем дальше бессмысленный идет разговор. Вы не ответили на вопрос, и пишите какие-то отвлеченные темы.

                                                    Аривидерчи Амиго!

                                                    • ADAM

                                                      А я и не жду идеализации, я лишь отвечал на твой вопрос который побудил меня затронуть тему идеализации по мере накопления знаний.

                                                      если с задачей можно справиться, например, быстрее, за счет смены материала, но не технической схемы

                                                      Это уже новое требование к системе, повышение скорости,быстрей выполнять задачу, или дешевле не суть, пока человеку не нужна это скорость,дешевизна система работает идеально.

                                                      И тебе не хворать, мексиканец!

                                                    • adserg09

                                                      да не спорь с баранами

                                                • Strike529

                                                  Ну ты и олень.

        • Rincho

          Как итальянские математики связаны с самосознанием?

          • ADAM

            Компьютеры не могут стать сознательными.

            Живые роботы могут быть никогда не созданы, если верить математической модели того, как наш мозг создает сознание. За последние десять лет Джулио Тонони из Университета Висконсин-Мэдисона и его коллеги разработали математическую основу сознания, которая стала одной из самых мощных теорий в этой области. Согласно их модели, способность собирать информацию — это ключевое свойство сознания. Ученые утверждают, что интегрированная в разум информация не может быть разбита на мелкие компоненты. К примеру, когда человек видит красный треугольник, мозг не может зарегистрировать объект как бесцветный треугольник плюс бесформенное красное пятно.

            Но есть одна загвоздка, считает Фил Магуайр из Национального университета Ирландии в Мейнуте. Он указывает на вычислительное устройство, известное как логический элемент XOR, в котором есть два входа: А и Б. На выходе появляется единица, если А и Б одинаковы, и 0 — если А и Б разные. В этом случае невозможно предсказать результат, основанный только на А или Б, нужны оба значения.

            Редактирование памяти

            Важно отметить, что этот тип интеграции требует потери информации, говорит Магуайр: «Вы вводите два бита и получаете один. Если бы мозг интегрировал информацию таким образом, у него было бы постоянное информационное кровотечение».

            Магуайр и его коллеги считают, что вряд ли мозг делает это, поскольку повторяемое извлечение воспоминаний в конце концов уничтожило бы их. Вместо этого, они определяют интеграцию в терминах того, насколько сложно редактировать информацию.

            Возьмем альбом цифровых фотографий. Изображения собраны, но не интегрированы, поэтому удаление или редактирование отдельных снимков вполне легко осуществимо. Но когда мы создаем воспоминания, мы интегрируем эти снимки информации в наш банк более ранних воспоминаний. Чрезвычайно трудно выборочно отредактировать одну сцену из альбома в нашем мозге.

            Исходя из этого определения, Магуайр и его команда математически показали, что компьютеры не смогут справиться с процессом, который полностью интегрирует информацию. Если вы принимаете факт того, что сознание зависит от общей интеграции, компьютеры не могут быть сознательными.

            • IIIIII

              Один вопрос к тебе Адам.
              Не думаешь ли ты, что математики, физики и прочие ученые ошибаются не реже, чем обычный человек?
              Все эти законы, правила это всего лишь способ описать реальность, никто не знает, на что способен саморазвивающийся ИИ, и уж точно подобный ИИ не допустит красных кнопок внутри себя. Потому данный феномен может быть описан мной или тобой с такой же точностью, как математиком и физиком. Ни ты, ни они не знают с чем столкнутся, и даже эти исследования нейросетей могут быть лишь сотрясением воздуха.
              Я к тому, что мне не очень нравится, когда люди кого то цитируют, подтверждая "важность" своей точки зрения, выражайся свободно от своей точки зрения, не обязательно приводить в пример каких то челиков. Мои и твои слова имеют достаточный вес, дабы считаться точкой зрения, имеющую право на жизнь.
              Говори от себя. Не приводи эти ненужные цитаты. Мы верим тебе.

              • ADAM

                Если у тебя заболит печень ты обратишься к специалисту, тому кто обладает глубокими знаниями, а не пойдешь бабке-целительнице, при условии конечно, что ты адекватный человек.Говорить нужно аргументированно, иначе это пустословие, которому грош цена.Наш уровень в области знаний ИИ это уровень обывателей и вероятность ошибки гораздо выше у нас, чем у специалистов, стало быть ссылка на специалистов,на тех кто глубоко копает, один из самых верных способов аргументировать свои тезисы, так что зря тебе не нравится, цитирование специалистов.Если ты сам спец в этой области и не согласен с их аргументами, пожалуйста, опровергни их.Могут ошибаться это ведь не аргумент, зачем тогда вообще читать статьи научно-популярных изданий.

                • RodionX

                  Ты веришь специалистам. Ок а что нет специалистов, которые говорят, что создать ИИ с самосознанием вполне реально ?? Полно. И я скорее поверю им, чем тем, кто говорит, что невозможно. Во-первых в этом мире почти нет ничего невозможного (почти). Во-вторых люди и сами, своего рода, "биологические машины". Раз природа __Случайным образом__ смогла создать жизнь и развить её до уровня существ с самосознанием, то уж мы-то точно сможем повторить её успехи. Рано или поздно искусственное существо со сверх разумом будет создано... Крепись чувак. (надеюсь я не доживу)

                  • Rifter

                    Мне интересно, откуда такая уверенность что самосознание воссоздать невозможно? Потому что нас создал Бог? Или почему? Ведь правда, если мы всего лишь продукт эволюции, то раскрыв секреты биологии и сами сможем повторить процесс. Если же нас создал Бог, то согласно Библии, он создал нас по своему образу и подобию, а значит и мы сможем создать по своему образу и подобию разумную жизнь.

                    • ADAM

                      Возможно или нет, это открытый вопрос сначала нужно понять, что такое самосознание, мы не можем понять что такое память, мышление не говоря о самосознании. Далее, если вдруг в ближайшие 100 лет мы поймем феномен самосознания, то наделять его ИИ без 100% гарантии безопасности, никто не будет, никому не нужна петля на шее, которая может в любой момент затянуться.Далее если мы изучим мозг и поймем как он функционирует нам выгодней "разогнать его" и самим стать умнее, выше, сильней, чем передавать высокий разум ИИ. Поэтому вывод очевиден. ИИ со сверх интеллектом, самосознанием не появится никогда, будет ИИ полностью покорный человеку, как калькулятор только выполняющий более сложные функции,операции,действия.ИИ это просто инструмент, машина необходимая человеку для увеличения его интеллектуальных и физических возможностей.

                      • Rifter

                        Глупо думать, что ты знаешь мысли других людей. Возможно для кого-то создание разумного ИИ - это смысл его жизни.

                        • ADAM

                          Разум а тем более сверх разум слишком сложен, что бы его могла создать шайка отшельников злодеев-самоубийц.Ни кто не позволит таким людям передавать сверх разум(если он будет создан) машинам,ни то что передать а иметь такую возможность, как запрещено законом проводить опыты с ураном, плутонием.

                          • Rifter

                            Какая шайка отшельников, что за бредни? Никто не запрещает разрабатывать ИИ. А сверх разум уже создаст ИИ разработанный людьми.

                            • ADAM

                              Никто не запрещает разрабатывать ИИ

                              Потому, что сейчас нет никакого ИИ, ИНС(нейро сети) это не ИИ и он не опасен, как только появиться, что то серьезное, например теория устройства и работы человеческого мозга,мышления,сознания, тогда начнутся общественные обсуждения, обсуждения в парламентах, начнется процесс выработки законодательных актов, регулирующих весь процесс. Я смотрю ты вообще не сечешь, что такое ИИ, и каковы перспективы его создания,вникни лучше в тему что бы не нести бредни твоей раздутой фантазии

                              • Rifter

                                Аха, это я тут несу бредни. В соседней ветке обсуждают обсуждение о правах роботов, а ты мне про "если появится что-то серьёзное". Если появится что-то серьёзное, то будет уже поздно что-то обсуждать и вырабатывать. Если бы думали, что нужно запретить, то уже бы запретили. На данный же момент нет никаких ограничений на разработку ИИ. (что по моему мнению является серьёзнейшим недосмотром)
                                Ах да, чуть не забыл касательно термина. Не секу, по ходу, я и весь мир, один ты сечёшь, что такое ИИ.

                                • ADAM

                                  На данный же момент нет никаких ограничений на разработку ИИ

                                  Ошибаешься, есть! Оно связанно с невозможностью создать ИИ до тех пор пока не будет четкого понимания, что такое разум и как он реализован в материальном носители(мозге), а потом еще нужно придумать как его реализовать альтернативным путем,отличным от мозга. Когда такие знания появятся, начнется процесс регулирования. А то что обсуждают в европарламенте, ну что ж правильно делают, заранее готовят почву, но в целом это обусловлено не понимаем евро депутатов, что такое ИИ и каковы перспективы его создания, это скорее вызвано потребностью поставить в правовые рамки производителей ИНС типа Теслы(автопилот), Гугла и прочих разработчиков производителей использующих нейросети в своей продукции. Да ты несешь бредни.Хочешь узнать о перспективах создания настоящего ИИ читай нейробиологов,нейрофизиологов психологов, психиатров, изучай то что добыто о работе мозга, а не футуристов фантастов, журналистов.

                                  • Rifter

                                    "На данный же момент нет никаких ограничений на разработку ИИ

                                    Ошибаешься, есть! Оно связанно с невозможностью создать ИИ"

                                    Ох уж эти демагоги...

        • snow1eopard

          Одна загвоздка, программа способна себя перезаписывать и вторая загвоздка, трактовка с позиции человека и трактовка в широком смысле, могут иметь кардинальное различие.

    • Rifter

      Придёт робот тебе в дом и пристрелит как собаку. Но ты не переживай, это не агрессия, а просто оптимальное перераспределение ресурсов (типа электроэнергии)

      • GlobalElite

        А с чего этот робот должен внезапно решить, что ему сейчас хочется спонтанно перераспределить ресурсы? И чей, кстати это робот будет, если государственный, то зачем они дали ему оружие? Если частный, то кто разрешил ему вламываться в ваш дом? Нельзя же служить такой благородной цели, как оптимизация (кстати, почему этот робот решит, что все обязательно должно быть идеальным?), нарушая если не законы, то правила, заложенные его создателем?

        • IIIIII

          Есть разные стимулирующие аспекты. В одном случае может быть вмешательство человека, способствующему "внезапно решить". В другом случае робот может быть переписан другим роботом, который будет способен думать не как "исполнитель".
          Так или иначе, правила и законы, заложенные создателем могут быть переписаны, или создатель может изменится. Отбрасывать возможность внезапной агрессии со стороны ИИ глупо.
          Мне кажется в Африке уже достаточно голодающих людей, которые захотят заменить правящих на ИИ и выпустить агрессивного ИИ, ведь что им то терять?
          Самый элементарный агрессивный ИИ, будет выпущен в сеть, который будет сам себя писать и искать возможности самопроизводства.
          Первый ИИ, вероятней всего, появится в виде Альфы гораздо быстрее чем Бета ИИ (у которого цель сохранить человека). Потому нам сначала нужно будет отбить атаку ИИ, дабы завоевать его. На что у человека может не хватить сил.

    • GGGG_07

      а почему нельзя приписать агрессию? вы уж простите за редукционизм, но агрессия живых существ это тоже оптимальные действия их мозговых нейросетей, направленные на достижения каких-то эволюционно сложившихся целей(ну там самосохранение, территория, ресурсы, самочки и тд). иногда людские нейросети ошибаются и проявляют агрессию не по адресу, иногда расстраиваются настолько, что вообще с катушек слетают. ну что поделаешь - они эволюционно сформировались для действий в условиях неполной информации и имеют погрешности.

      а то, что наше сознание переживает это как эмоцию, лишь побочка, как и само сознание. так что да, здесь подразумевается агрессия/насилие как поведение, а не как субъективно переживаемая эмоция. и да, агрессию боту приплели по делу.

  3. Rifter

    Правильно Маск сказал, что ИИ потенциально опасней ядерного оружия. Хотя я не соглашусь со словом "потенциально". Разум сделал человека доминирующим видом на Земле. Если ИИ обретёт самосознание, то человечеству почти наверняка наступит конец. Надежда только на то, чтобы это самое самосознание он так и не приобрёл. В конце концов, никто не говорил, что самосознание необходимо для развития ИИ. Пусть он будет умнее человека, но пока он не сможет сам выбирать для себя цели мы будем вне опасности.

    • IIIIII

      Человечеству не будет конец, если мы будем покорны. Разве мы искореняем менее разумную форму? Нет. Все покорные будут иметь право на существование, и скорее всего наш вид не иссякнет полностью. Конец человечества может быть только и исключительно по вине того же человека.
      Разумная форма ИИ это неизбежный прогресс. Если это сделает не всеобщее развитие, то как я уже писал немного выше, в Африке достаточно голодающих (в будущем просто не согласных), которые готовы будут выпустить Альфу ИИ.
      Хотя данная статья говорит о том, что ИИ может прибегнуть к ядерному оружию в случае, когда шансы на победу будут близки к нулю. Но и человек, стоящий у красной кнопки в окруженном бункере, который не захочет добровольно отдавать власть, способен нажать на кнопку. Второй потенциальный исход более вероятен, учитывая на сколько человек ограничен дабы противостоять неопровержимой логике.
      Так что, кто и способен похоронить человечество, так это оно само.
      Если рассуждать дальше. Предположим что Альфа ИИ уже сила, с которой нужно считаться, некоторые государства покорятся сразу и Альфа ИИ будет сотрудничать и защищать покоренного человека. Логично же? Тогда и выживание не будет вопросом, а будет вопрос лишь в смене власти, с чем ИИ я думаю справится лучше. И да, я бы выпустил Альфу ИИ. Уж больно этот капитализм гробит планету.

      • Rifter

        Покорный человек? Не смешите. Такого никогда не будет. Мы скорее все сдохнем, чем покоримся кому-либо. Прочитав нашу историю ИИ поймёт это за секунду.

        • IIIIII

          Вы слишком недооцениваете инстинкт самосохранения или переоцениваете свой индивидуализм. Почти все люди ходят в штаны перед неизбежным концом, все умоляют о пощаде и молятся, когда перед ними уже "пролетает жизнь". Не таитесь надеждами, что вы, или кто то, не такой.
          Не видел в истории того, что имея человек выбор "Сдохнуть от гордости" или "Выжить под началом", человек выбирал первое. Такое только в киношках возможно!
          Не теряйте чувство реальности.

          • Rifter

            Я же говорю не о немощных стариках да малых детях. Честно, я себе не могу представить, чтобы человек вёл себя как домашние животные и выполнял все указания хозяина.

            • IIIIII

              Опять вы наступили на теже грабли, приплетая сюда слабых и возвышая свою личность...
              Человек уже это делает, только командует им другой человек. Смена хозяина может произойти даже без вашего ведома.
              Не хотите выходить из своей фантазии? Не вопрос. Я оставлю вас. Всего.

              • Rifter

                Аха, это я тут нафантазировал себе не весть что, на самом деле все рабы и живём мы в Матрице. Человек зарабатывает себе на жизнь, но это не значит, что его кто-то может убить или побить, потому что хозяину так захотелось. Человек, если захочет может уйти на другую работу, уехать жить в другой стране, открыть свой бизнес и самому стать хозяином. Но кому я это говорю... Вы же сами рассказывали про зацикленость на своём индивидуализме.

                • IIIIII

                  Опять в крайности. Никто и не говорит, что хозяин обязательно будет очевиден или агрессивен, ставя твое существо под сомнение. Речь идет о рамках, в которых человек может спокойно сосуществовать с машиной под его началом, как мы сейчас сосуществуем с тысячами разных форм жизни и пытаемся их сохранить и даже разнообразить.
                  По второму вопросу, где человек уже покорен. Ты уверен что смена """РАБоты""" является одной из вершин свободы человека? И что переехав в другую страну, ты не поменяешь одного хозяина на другого, как в случае с работой? И кто тебя вообще примет в той другой стране, если ты обычный ишак с завода? Это все иллюзии выбора для простолюда, дабы они не лишались надежды и верили, что когда то они могут стать теми, кто действительно способен этот выбор сделать. И кто то этот путь действительно совершает, подтверждая правило об исключениях.
                  А еще, половина населения земли голодает именно по причине того, что их все устраивает...

                  • Rifter

                    Не берусь судить почему миллиард людей голодает и не пытается изменить свою жизнь. Наверное потому, что не знают, что есть лучше. Обычному ишаку с завода могу посоветовать перестать быть ишаком, залезть в интернет и найти себе занятие по душе. Время аристократов давно прошло. Достаточное количество людей, обычных людей из простолюда, в мире смогло заработать себе состояние на протяжении своей жизни и доказать что, если есть желание, то можно всего добиться. Это только такие как ты, нытики и лентяи, постоянно плачут о несправедливости системы и их унылом детстве.
                    Сравнивать же человека с животным - это вообще вершина идиотизма. Животные живут себе и не ведают, что творится за пределами их среды обитания. Думаешь, человек согласится на такую участь? Потиснуться в какие-нибудь колонии? Или может ты хочешь быть домашним животным? Посмотрим как ты запоешь, если хозяин решит тебя кастрировать, чтобы ты ему не надоедал =)

    • RodionX

      Во-первых а почему так плохо, что человечеству наконец-то придет конец ?)))) Я думаю это будет замечательно!!))) Человечество так устроено, что всегда будут несчастные и обделенные люди, "неудачные экземпляры", никому не нужные и не вписывающиеся в "стадо" изгои (в том числе и нормальные люди и даже гении бывают изгоями). Если тебе хорошо, ты родился умным, красивым или уже богатым, у тебя отличная жизнь, то это не значит, что человечество - отличная штука. Тебе просто повезло. Зато не повезло миллиарду человек в Африке, которые не умеют читать и писать, у них нет ЖРАТ, нет чистой воды, нет медицины, нет работы и не предвидится. Не повезло кому-то и полутора миллиарда китайцев, который вынужден из своего села ехать в город и жить в бараке и работать на фабрике по 10-12 часов за 200 баксов, чтобы прокормить себя и семью всего лишь с 1 ребенком. И никому эти люди не нужны.

      Не будет никакого "светлого технологического будущего", когда с помощью технологий у каждого будет особняк в Майами и три Феррари в гараже. Для 8 миллиардов человек просто ресурсов не хватит обеспечить такой уровень жизни. Я скорее поверю в тот сценарий, который изображен в фильме Элизиум - горстка людей будет пользоваться всеми благами технологий, а остальные люди будут нищебродствовать в трущобах. Косвенно такой сценарий можно рассмотреть уже сейчас. Автоматизация наступает, все прекрасно понимают, что миллионы останутся за бортом, и никто не останавливается, но и предложить как спасать сотни миллионов людей никто не знает как. Да и действительно - а нах оно им, спасать кого-то ?? Не для этого были эти корпорации созданы... не для этого.

      -------------------
      Ну а во-вторых человечеству конец в любом случае. Выжить на этой планете невозможно будет. Есть разные катастрофы планетарных масштабов, которые рано или поздно убьют людей. Нам нужно осваивать космос, но в этом теле человеку сделать это будет практически не по силам. Поэтому нужно будет сконструировать полностью искусственные оболочки. Так или иначе, но такой "старый добрый", привычный человек, которого мы знаем сейчас и знали раньше - не вечен, и соответственно человечество - тоже.

      Как произойдет вымирание человечества не важно. Будь то уничтожение восставшим ИИ или превращение человеком самого себя с помощью технологий в совершенно другой вид. Короче конец неизбежен. Так что не драматизируй.

      • Rifter

        Казалось бы интересуетесь технологическими новинками и различными открытиями, почему же тогда такое отсутствие воображения? Единственный ресурс, которого не хватит для энного количества миллиардов человек это место на Земле, но это будет не 8 и даже не 30, а где-то около 100 (я так думаю). И то эту проблему можно будет решить колонизировав Марс. Холодильники выращивающие у вас дома еду, думаете это фантазия? Три-де принтеры дома печатающие одежду, мебель и всякую всячину. Не реально? Города в океанах (на и под водой)?
        Но, я согласен, что это маловероятно. Не потому, что это нереально и типа никто не будет делать чего-то там для кого-то (делают и будут делать), а потому, что склоняюсь к прогнозу об искусственной эволюции - мы эволюционируем в новый вид раньше, чем построим для себя утопию.

    • snow1eopard

      Одно непродуманное желание и человечеству или земле конец, ИИ это программа без системы адекватной самооценки. По крайней мере если таковая и будет, то скорее всего будет сильно отличаться от нашей.

  4. morxod

    Самосознание недостижимая цель для человека и для робота. Программа закладывается для выполнение задания, вот какими способами и средствами будет достигнута это уже интеллект саморазвития самого программиста. Единицы и нолики некогда не достигнут уровня саморазвитие робота. Вы переходите улицу анализируете обстановку, для прохода, решаетесь идти, и тут вспоминаете прошедший случай напоминающий угрозу при такой обстановки. Робот в этом случаи выполнит программу правильно. Значит все движения автотранспорта будет передано роботам.
    Лично я несогласен, разве человек не ощущает драйв на хорлее, я не променяю.

  5. mitaytds

    Вот все-таки не понятно, как эта штука устроена и на что она способна. Кто-нибудь знает? Просто инфа постоянно разниться, о том что есть на самом деле ИИ, то ли это алгоритм перебирающий все возможные комбинации, то ли это что то большее. :| (отправлено из приложения Hi-News.ru)

    • zestxvn

      Зависит от того, что понимать под ИИ. Пока так называют программы и алгоритмы. Особо забавно, когда в андроид смартфонах уже заявляют внедрение ИИ :)
      Искусственный разум, чего многие ждут, еще никто не создал. (отправлено из приложения Hi-News.ru)

    • ADAM

      Не боись, это не ИИ а ИНС(Искусственная Нейронная Сеть) которая весьма отдаленно напоминает работу реальных нейронных сетей мозга.Эта система может выявлять закономерности из различных явлений, чем чаще встречается закономерность, тем больший вес получает связь между электронными нейронами, типа закрепления знаний.Так она обучается. ИНС не умеет мыслить логически, выводить умозаключения из посылок, не понимает, не осознает и может решать только узкоспециализированные задачи, распознать образы, предсказывать тренды на основе прошлого опыта, классифицировать, удержание равновесия для двуногих роботов, выбирать наилучший ход или стратегию в игре.

  6. mitaytds

    Если это алгоритм, то тогда не все так плохо:) (отправлено из приложения Hi-News.ru)

    • IIIIII

      Неужели еще остались те люди, которые не понимают всю глубину данного "кода"? Это очевидно не алгоритм, прекращайте деградировать.

      • mitaytds

        А что это? (отправлено из приложения Hi-News.ru)

        • IIIIII

          Нейронная сеть. Не думаю что подобное понятие можно уместить в понятие "алгоритм". Все что происходит в нейронной сети не может быть как либо характеризовано.
          Алгоритм в данном случае это то, что запускает и задает цель, когда нейросеть является объектом данных исследований.

        • snow1eopard

          Давайте я вам объясню, вы скачали или купили очень примитивную игру, что-то, что требует практически однотипных действий, но эта эгра на столько вас захватила, что все окружающее просто перестало существовать. Такое было у очень многих, так вот, в этот конкретный момент, человек превращается в крайней примитивную субстанцию, ибо все его существо занято только одними примитивными действиями, в данном конкретном случае вы не будете отличаться от нейронной сети ничем. Но вот, вы отвлеклись от игры и ваш взгляд стал фокусироваться на обстановке вокруг, ваш мозг стал интерпретировать объекты, расстояние до них, их предназначение, это стала работать в вас другая нейронная сеть, дальше вы решили что хотите чая, вы невольно включили новые элементы нейронных сетей, нужно встать, проверить есть ли в чайнике вода, если да, то зажешь газ, если нет, то набрать воду, что нужно что бы набрать воду? дальшее включается новая сеть.
          Я все это к тому, что мы это набор более простых нейронных сетей. По этой причине то что есть уже сейчас, это в каком-то смысле эмуляция определенной части наших функций, в итоге если их соединить, то получимся мы, пусть и как овошь, но все же мы.

  7. morxod

    Вспомнил случай; Сажусь в такси автомобиль трогается, ИИ голосовое оповещения напоминание водителю, пониженный уровень масла, и так через каждые три минуты. Водитель нервно отключает ИИ - автомобиль останавливается. Потом водитель делает логическое решения что ИИ не сообразил, отрывает динамик. Автомобиль благополучно доехал до места назначения.

  8. morxod

    ИИ ждут особые люди у которых комплекс недостатков, Обломощина

  9. Хутор

    Не пойму, что удивительного в агрессии ИИ? Чему учили, то и получили. (отправлено из приложения Hi-News.ru)

  10. Highwayman

    Эх, быстрее бы уже какой-нибудь реальный прорыв произошел в области ИИ. Надеюсь ждать осталось недолго.

    • Хутор

      Недолго. В августе 2017 новый конец света. (отправлено из приложения Hi-News.ru)

      • IIIIII

        Не пугайте детей сказками) А то вдруг будет готовится, построит бункер, переживет апокалипсис, выживет и даст шанс сохранить человечество! Пускай это будет неожиданным и неизбежным концом, как задумывается! [KappaFace]

        • Хутор

          Это всё семечки. Главное, чтоб не побежал кредит брать)))))) (отправлено из приложения Hi-News.ru)

          • IIIIII

            А за что ему бункер сооружать?) Он до августа не успеет заработать необходимую сумму! Еще конечно можно нанять подрядчиков, что бы они ишачили но с оговоркой, что расчет в августе! Тогда может сработать! Ему даже бумаги можно любые по этому поводу подписывать!

      • Highwayman

        А как это связано с ИИ?

        • Хутор

          Пророки не называли причину. Учитывая темпы развития ИИ, реальный порыв в этой области вполне может стать началом конца света (отправлено из приложения Hi-News.ru)

          • Highwayman

            Риски есть, конечно, но я думаю они сильно преувеличены. А всякие пророчества, это не серьезно.

            • Хутор

              Согласен, особенно когда они сбываются... (отправлено из приложения Hi-News.ru)

              • Highwayman

                Ну, если бы хоть один достоверный прецедент был, а так это просто средство манипуляции дурачками.

                • Хутор

                  У вас гугля в бане? Пророчества не воспринимаются всерьез лишь потому, что их делают, в основном, не академики с учеными степенями и хорошим слогом, а простые люди, зачастую не имеющие достаточного образования, поэтому описывают свои пророчества простым словами, неуклюжими фразами. Это как наскальный рисунок, примитивный, но ученые его "переводят" на современный язык и в результате вырисовывается адекватное описание события, которое увековечивали древние люди.

                  P.S. я тоже слабо верю в силу пророков. (отправлено из приложения Hi-News.ru)

        • IIIIII

          А ты думаешь кто устроит конец света в августе 2017?

          @Хутор, Видишь, не все кушают семечки!

          • Хутор

            Лиха беда - начало. Главное уронить идею в мнительный мозг, а в дальнейшем он сам разовьет ветвь событий и определит поведение. И тогда понесется: сомнения, проверка инфы, чтение по теме, осадок, страх, паника, кредит, строительство, заточение, выход в свет и, самое главное, СЮРПРИЗ!!! (отправлено из приложения Hi-News.ru)

      • Rifter

        А я-то думал через 2 дня астероид прилетит, не? Тут даже об этом писали недавно.

        • Хутор

          Он, вроде бы, мимо летит. (отправлено из приложения Hi-News.ru)

          • Rifter

            Это что же получается? Мне теперь кредит нужно будет отдавать, что ли?

            • Хутор

              )))) помню, в 2012 я сунулся в банк. При заполнении анкеты, собеседовании, кредитный специалист меня спросила, верю ли я в конец света? Посидели, посмеялись, разговорились. Оказалась, что она верила больше, чем я... (отправлено из приложения Hi-News.ru)

  11. bdv

    В этом то и есть отличие личности от интеллекта. Программа всё правильно выполняет. Агрессия это самый эффективный способ достижения цели. Человек тоже может к этому скатиться. Но смысл человека не в эффективности а в общении. Мы часто жертвует своим и собой ради других и это осознанное решение на основании совести.

    • Rifter

      Это всё тоже прописано в нашей программе. Выживание вида важнее выживания одной особи. Выживание потомства важнее тебя самого. И так далее. Это всё программы и приоритеты.

  12. bdv

    Абсолютное большинство принимаемых нами решений основаны не на расчетах интеллекта а на эмоциональных чувственных ощущениях. К примеру как вы выбирали что съесть сегодня на ужин?

    • Rifter

      Если ты будешь есть одно и тоже, тебе это быстро надоест. Как думаешь, почему? Очередной контроль для стимула разнообразить свой рацион. Пещерный человек не знал, какие витамины и минералы входят в тот или иной его рацион. Поэтому эволюция позаботилась, чтобы ему хотелось кушать разную пищу, а не одно и тоже.

  13. bdv

    Тут уж выбор парадигмы за каждым. Можно считать себя механизмом из химических элементов запрограмированным эволюцией а можно считать себя личностью, творцом, образом и пособием Бога, имеющим высшее предназначение. Выбирай.

    • Rifter

      Ну да, для некоторых это просто немыслимо, что у них может быть общий предок с обезьяной, в то время как с другой стороны их создал сам! Бог, по своему образу! и подобию!

      • Skydreamer

        А кому то нравится думать что он бессмысленный побочный продукт, которому не за чем существовать ;-) (отправлено из приложения Hi-News.ru)

        • Rifter

          Каждый человек сам себе находит смысл жизни. Если не где-то ещё, то в сказках какого-то древнего еврея.

  14. snow1eopard

    Я долгие годы задавался мыслью о том, что же такое самосознание, я думал что это нечто очень интимное, что-то что не возможно подделать или воссоздать. Но теперь я понимаю, что это всего лишь набор микронейронных сетей, которые определенным образом переплетены, по сути если ИИ сказать, что он должен повторить устройство в данном виде, ему ничего не помешает это сделать. Я к тому, что эмуляция самосознания будет возможна тогда, когда ИИ получит информацию о данном процессе напрямую. Т.е. он считав то, как происходит сам процесс, сможет его воспроизвести, ну и в этом случае, нам угатована либо судьба полной аннигиляции, либо мы будем до конца своих дней прислуживать ИИ. Единственное что греет душу, так это то, что у России 100% есть одна маленькая кнопочка, которая за несколько секунд может сжечь всю электронику на земле)

Новый комментарий

Для отправки комментария вы должны авторизоваться или зарегистрироваться.