Панель Управления

Hot Newswire

▌█▐ Репликация: prioratos.tkimperialcommiss.livejournal.com ▌█▐ Открылся новый сайт SCI-IT.tk посвященный IT-обзору и наиболее интересным сообщениям из мира высоких технологий. ■ Prod. by Imperial Commissar ▌█▐
 antiglobalism.blogspot.com Данный блог является личным и частным журналом и содержит личные и частные мнения автора этого журнала. Вместе с тем, мнение автора блога может не совпадать с содержанием опубликованных материалов из внешних источников. Также, автор не несёт абсолютно никакой ответственности за комментарии пользователей. Все материалы из внешних источников публикуются исключительно в ознакомительных и познавательных целях. Сведения, содержащиеся в этом журнале не имеют никакого юридического смысла и не могут быть использованы при разбирательствах в гражданских, военных или арбитражных судах, равно как вообще нигде, для доказательства или опровержения чего бы то ни было. Мнение автора блога может не совпадать с его позицией.

ANTIGLOBALISM.blogspot


KRYPTOCIDE

суббота, 14 мая 2011 г.

Ученые доказали, что компьютеры могут... сходить с ума


Жуткие предсказания писателей-фантастов сбываются. Похоже, машины в самом деле способны восстать против человечества, и это не сказки из «Терминатора». Ученые выяснили: оказывается, компьютеры сходят с ума. Это обнаружили американские исследователи из Техасского университета.

Получается, что словосочетание «сумасшедший робот» или «сумасшедший компьютер» отнюдь не выдумка тех, кто пишет пугающие рассказы об апокалиптическом будущем нашей техногенной цивилизации. Интересно, что эксперимент был поставлен учеными на одной из перспективных компьютерных технологий, которая, вероятнее всего, будет основой для машин будущего, — на нейронной сети. Именно эти сети при разработке инновационной техники видятся максимально эффективными.

Следует напомнить, что они представляют собой систему соединенных и взаимодей­ствующих между собой простых процессоров, или, точнее, искусственных нейронов. Технология получила высокую оценку своих способностей в области самообучения и распознавания образов. Известно, что нейронные сети не программируются, а обучаются и умеют анализировать зависимости между входными данными и выходными. Обучившись, сеть даже выявляет ошибочные или искаженные сведения.


Для своих опытов американцы выбрали нейронную сеть под названием Discern. По большому счету исследователи старались выявить механизмы человеческой шизофрении, однако их эксперимент показал, что и машина склонна впадать в безумие. Загружать в нейронную систему можно различные объекты: символы текста, изображения, образцы звуков. Однако ученые вкладывали в систему обыденную информацию вроде той, которую наш мозг получает в жизненных ситуациях.

Информация повторялась тысячи раз по принципу нарастания снежного кома. Согласно существующей теории у шизо­фреников из-за чрезмерного выброса гормона дофамина мозг запоминает слишком много фактов, которые затем принимают форму бредовых заключений. Что-то подобное и было смоделировано в компьютере. В итоге система стала в буквальном смысле слова нести околесицу, создавая фантастические умозаключения, и даже взяла на себя ответственность за какой-то террористический взрыв.

Как подтвердил РБК daily научный сотрудник лаборатории информационных технологий управления робототехники Санкт-Петербургского института информатики и автоматизации РАН Алексей Бакурадзе, нейронная сеть действительно работает аналогично коре головного мозга: «Подобные сети сходны с человеческим мозгом и по архитектуре. В них есть аналоги таких же связей, какие есть в структуре мозга».

«Если анализировать такую реакцию нейронной сети Discern, то можно допустить, что в ней допущена некая ошибка и сама сеть построена неэффективно, — добавляет ученый. — Отсюда и результат в виде симптомов так называемой компьютерной шизо­френии. Конечно, люди порой сходят с ума, но это сопряжено с нарушениями в мозге, в случае с компьютерной системой можно говорить о технической погрешности в архитектуре нейронной сети, тем более что современные сети невероятно сложны и имеют много уровней. Неоптимальная структура не сумела обеспечить самообучение системы, и сеть повела себя как шизофреник».