Обсуждение On Intelligence

После шторма 25 апреля 2007 года

Модератор: Администраторы

Обсуждение On Intelligence

Сообщение Гость » Пн ноя 06, 2006 10:45:53

Считаю большой недоработкой, что указанная в названии книга до сих пор не обсуждалась на "Образце".
P.S. У кого есть ссылка на рускоязычный текст - в студию! :)
Гость
 

Сообщение Гость » Вт ноя 07, 2006 19:11:08

По книге было пару несистематических реплик в моей теме, пока библиотека Нейронуса была жива и книгу можно было прочитать. Альтернативный линк постараюсь дать позже.

В общем впечатление от книжки положительное. Но многое автор не учёл.
1. Философия материализма позволяет ему думать, что причиной образов являются внешние объективные объекты и их проекции на сетчатку, а не результаты эволюции мысли.
2. Автор ничего не говорит о том, как получаются целостные образы и что такое сознание.
3. Не объяснено редукционное свойство мысли (свойство упрощать и унифицировать).
4. Не учтено стремление человека выяснять не только "что будет после" но и "что было до". Контекст человека формируется в некотором временнОм промежутке "до" и "после" текущего момента, а не только "после".
5. Не объяснён феномен субъективного пространства, перекрывания и инвариантности образов.
6. Нет объяснений мотивации интеллекта. Смысла его жизни. Смысла всей нервной системы в целом, а не только неокортекса.

Плюсы:
+ Системное изложение материала
+ Хорошие объяснения смысла смысла, "Ага" и других феноменов
+ Упор на иерархию и неожиданное и полезное предположение о двух направлениях хода образов

Читать книжку обязательно!
Гость
 

Сообщение Гость » Вт ноя 07, 2006 19:31:45

Я бы посоветовал всем эту ознакомительную статью:
http://www.computerra.ru/focus/248818/
Методология Хокинса по своему интересна – прислушиваться и контролировать своё поведение – вспомните описанное им восприятие своей комнаты в темноте или подменённой двери.
Но это, конечно, ЧТО есть, и далеко не КАК есть.
И опять таки... Андрей, повторите пожалуйста ссылки на ещё не перекрытые закачки РУССКОГО перевода книги "Об Интеллекте".
Гость
 

Сообщение Гость » Ср ноя 08, 2006 18:31:17

А как вам момент о распознаваниив 100 нейронов? :) Я честно говоря - подофигел. Ведь действительно - ЧТО должно быть в башке для таких фокусов? Но Хокинс-то эту вещь так и не рассмотрел до конца. Даже в интервью он говорит, что на персональном компе (Атлон 2 ГГц, 512 ОЗУ) распознание идёт туго и долго (около 5 минут) даже при разрешении 32х32. А ведь как в книге пел, что компы те же 100 шагов сделают молниеносно!...
Есть несуразности. Пишите. Обсудим.
Гость
 

Сообщение Гость » Чт ноя 09, 2006 17:35:15

Хотел бы продолжить обсуждение Хокинса. В даном случае буду шмалять по статье "Временная Иерархическая Память". Указанную статью чуть позже размещу здесь же. Прошу простить за истерический тон. Начну.

Определение паттернов должно продолжаться. То есть, процесс обучения и рабочий процесс НЕЛЬЗЯ разрывать!
Выделение устойчивого паттерна возможно только с течением времени.
Далее поясню на примере перемешанного изображения (принцип "спутанных рецепторов")
Хокинс говорит
маловероятно, что один и тот же паттерн попадет в HTM дважды.
Не основана ли на этом какая-нибудь западлянка для него?
HTM показывает, что невозможно обнаружить причины, не имея непрерывно изменяющейся информации.
– Ага! Точно какой-то бок! Наверняка он не знает как распознаётся статическое изображение!
Кстати, если иерархия элементов кортекса по Хокинсу конечна, то конечен и предел абстрагирования. Бред.
Как убрать конфликт предустановленного движения и "выученного"?
В чём таки сила предсказательной способности НТМ и не путает ли Хокинс понятие предсказание с понятием предвычисление?
Узел работает так: паттерн увидел... и что – сразу же предсказал его причину? Ну ладно, обучился. Обучился тому, что вот такой паттерн имеет вот эту причину, а вот такой – вот эту???
каждый узел ... открывает причины своей входной информации.

Гипотеза – это внутреннее состояние каждого узла. Вы можете рассматривать ее как вектор чисел, каждое из которых представляет вероятность того, что причина активна.

Странность в описании базовых операций для узлов. Первая операция – связать входной паттерн с одной из точек квантования узла. ЭТО ЛИ НЕ РАСПОЗНАВАНИЕ???
Узел представляет каждую последовательность переменной.
Усё понятно – типа сжатие информации. Вот только описан ли так "красиво" алгоритм "раскодирования" этих переменных? Будем искать.
Ага. Вот:
По мере продвижения информации вниз по иерархии каждый узел принимает относительно стабильные паттерны от своих родителей и пытается обратить их в последовательности пространственных паттернов.

Каким же это образом он пытается??????
Вот одна из отмазок.
Дальнейшее обучение не может увеличить число точек квантования, но оно может изменить сами точки.

Да. Всё сходится. Эта НТМ не сможет находить закономерности в перемешанном изображении. Он, к примеру, говорит, что НТМ будет находить углы или прямые линии на сегментах 10х10. Но позвольте, а кто ему предоставит такую же компактно уложенную информацию по поводу биржевых курсов?.. Да пусть даже изображения! Ведь Хокинс доказывает, что НТМ будет находить ЗАКОНОМЕРНОСТИ во всём!... Н-да...
Ага. Вот оно:
Заметьте, что если бы вы произвольно перемешали пиксели с камеры, то визуальная система HTM не смогла бы больше работать. Она не смогла бы обнаруживать причины в мире, поскольку она не смогла бы находить сперва локальные корреляции в поступающей информации.

Одна из причин, по которой HTM эффективны при обнаружении новых причин и выдвижении гипотез, заключается в том, что структура мира иерархична.
Ну тут уже брякнул так брякнул... Это он так отмазался от того, что перемешанные паттерны (хоть в них и есть закономерность!) его система не распознает.
Таким образом, HTM работают потому что в мире есть пространственные и временные иерархически организованные корреляции.
Хокинсу хочется чтобы так было (имею ввиду корреляции). По большому счёту подозреваю, что корреляции на длительных участках времени и пространства такой (если не считать её мифической) системе не по зубам.
Например, если вы хотите, чтобы HTM понимала финансовый рынок, вы могли бы захотеть предоставлять такие данные HTM, где смежные сенсорные данные вероятнее всего были бы скоррелированы в пространстве и во времени. Возможно это означало бы первоначальное группирование биржевых курсов по категориям, и затем по индустриальным сегментам.
Ржушонимагу. Короче, опять "небольшое" участие человека – первичное выявление корреляций.
Вы могли бы построить аналогичную иерархию...
Все поняли? :)
И вот самый честный вопрос и ответ:
Интересный вопрос – могут ли HTM получать на входе информацию, не имеющую пространственной иерархии?... Мы еще не знаем ответа на этот вопрос, но мы подозреваем, что HTM могут работать с такой информацией.
Они подозревают! Я умираю!!!...Что за истерика?
Биологический мозг решает такую задачу, полагаю, HTM так же должны уметь.
С какой это радости???
Интуитивно кажется,...
... Ну вы в курсе, что нет более ошибочного мнения чем "интуитивно очевидное".

Важно и интересно одно: Хокинс протупил, или целенаправленно пускает дезу?

Многомерные HTM – это широкое поле для изучения.
Да ты, сирый, хотя бы с одномерной памятью разобрался...
...ключевые предпосылки при разработке систем, основанных на HTM:
1) Понять, имеет ли пространство задачи соответствующую пространственно-временную структуру.
Это должен сделать человек-оператор. Ага.
2) Убедиться, что сенсорные данные организованы так, чтоб в первую очередь обнаруживать локальные корреляции в пространстве задачи.
Оператор обнаруживает локальные корреляции... А на кой тогда система???
3) Разработать иерархию для наиболее эффективного использования иерархической структуры в пространстве задачи.
Это ещё что? Это похоже на такую ситуацию. Приходит человек. Ему дают задачу. Он смотрит КАК её решить, он думает ЧЕМ её решить, а потом думает как собрать ТО, что сможет её решить... Весело.
...если два узла соединены таблицей условных вероятностей...
Узел это 100 уровней квантования (как было сказано ранее), другой узел тоже. Комбинация соединений узлов (таблица условных вероятностей) это 100х100=10000 элементов на всего лишь 2 узла... А если их больше? А их намного больше! Вот и тут сказано
...память, требуемая HTM, растет экспоненциально с увеличением количества уровней.

Оказывается, что время также необходимо для самообучения сети, даже для таких задач, как распознавание статических изображений...
Вот ведь засада! Как он удивлён! Но уже второй раз читаем:
Необходимость введения времени будет объяснена детально позднее.
Что же. Подождём.
Для HTM были разработаны и протестированы методы переключения скрытого внимания.
Вот чисто ради интереса: переключать узлы тоже будет программист? Или даже целая толпа индусов? Радует то что кто-то указал Хокинсу на отсутствие описания феномена "фокусировки внимания" в "On Intelligence".
Вспомните, что «причина» - это всего лишь постоянная или повторяющаяся структура в мире.
Бешеная подмена понятий.
Предположим, у узла есть сотня входов, и два из этих входов, i1 и i2 стали активными одновременно. Если это происходит достаточно часто,... то мы можем предположить, что у i1 и i2 общая причина. Это просто здравый смысл.
Ну, в данном случае возможно. И там далее по тексту о том как определяются паттерны. По сути, по корреляции между их появлениями.
В принципе, движение изображения линии по "сенсору" 4х4 давало бы много устойчивых корреляций между элементами этого паттерна. Почему не использовать это? Ведь в таком случае корреляции будут даже в случае перекрученных и перепутанных проводов от сенсора!
...идея последовательности в HTM... Но для большинства причин в мире не ясно, когда начинается и заканчивается последовательность...
Самокритика на высоте.
Корпорация Numenta понимает, что нам необходимо расширить алгоритмы для будущего использования и другие исследователи захотят сделать то же самое. Они могут захотеть улучшить производительность, поэкспериментировать с вариациями и модифицировать алгоритмы для подстройки их к конкретным типам задач. Чтобы облегчить это, корпорация Numenta сделает доступными исходные коды этих алгоритмов. Программная платформа Numenta разработана так, чтобы облегчить вставки в новые алгоритмы.

Короче, длительные планы по запудриванию мозгов. Пока разберутся, а деньги уже тю-тю.
Обучение корректной категоризации, то есть обучение корректным причинам может быть выполнено гораздо быстрее и определеннее при использовании обучения с учителем.
Ну так и не морочил бы голову с этой иерархической памятью!
HTM нужен эквивалентный механизм для обнаружения и распознавания причин, которые требуют конкретной временной информации.
И ещё один малюсенький бок.
В традиционной Байесовской сети, если три дочерних узла проецируются на единый родительский узел, должно быть три отдельных CTP, каждая между своим дочерним узлом и родительским. Биология наводит на мысль, что мозг не использует такой способ.
Что правда, то правда.
Есть причины верить, что биологический метод лучше.
Адназначна.
Именно этот метод Numenta реализовала в своей теории HTM.
Прямо таки тот метод? Кто-то увидел схожесть методов?
В корпорации Numenta мы экспериментировали с обоими методами. Возможно, что оба могут работать.
А возможны и нет. Гы-гы!
Процесс обнаружения причин в мире – это изучение «постоянной» структуры мира, а не изучение конкретных паттернов, которые попадались только однажды.
Все согласны? Чисто ради интереса.
Дизайнеры HTM-систем могут делать запрос к HTM, чтобы увидеть, что было распознано
Интересно, сам запрос дизайнера будет входить в область "причин" НТМ-системы?
Предсказание сверху вниз может влиять на процесс выдвижения гипотез, путем склонения сети к выбору из предсказанных причин.
Похоже, что этот механизм Numenta не в силах раскусить.
Нам необходимо разработать полезные эвристики, чтобы знать, какая иерархия будет лучше соответствовать конкретной задаче
. Ну бредятина же! Заявляют, что сеть сама подстроится под проблему и тут же говорят о специальной "заточке" этой сети.

Хотя бы как парадигма каких-то вычислений эта НТМ катит? Кто скажет?
Последний раз редактировалось Гость Чт ноя 09, 2006 18:07:25, всего редактировалось 1 раз.
Гость
 

Сообщение Гость » Чт ноя 09, 2006 17:59:21

Вот и сама статья. Заметьте дату - 2006-ой год. Прошло 4 года и вот вам результат.
У вас нет необходимых прав для просмотра вложений в этом сообщении.
Гость
 

Сообщение Гость » Пт ноя 10, 2006 11:01:58

А вот и долгожданная ссылка: Джефф Хокинс "Об интеллекте"
Спасибо Dmitry_Milk'у за перевод и хостинг! Будем надеяться, что ему за это ничего не будет ;)
Гость
 

Сообщение Алхимик » Вс ноя 12, 2006 6:54:35

Андрею персональное спасибо за ссылку. Начал читать. Несколько слов о китайской комнате. Представте себе НИИ самого широкого профиля, оборудованный по последнему по последнему слову техники. Компьютеры цифровые и аналоговые, осцилографы, трансформаторы, магнитофоны, спектрографы, кинокамеры, установки для голографии, лазеры, мазеры, шмазеры... В подвале даже есть ускоритель. Короче, все есть, как в Греции. И опытнейший персонал - трудоголики и аккуратисты, чистые японцы. В задачу этого НИИ входит анализ данных, поступающих на некие датчики. Эти данные обрабатываются по неким полученным свыше или разработаным в самом НИИ (не важно). В результате получают какие-то новые сигналы и отправляют. А теперь представте - что НИИ - это мозг, входные датчики - это рецепторы, выходные - это эффекторы. На рецепторы подается изображение кошки, эффектары управляют мышцами речевого аппарата, произносящего фразу: "Это кошка". Вопрос: поймут ли сотрудники НИИ, что рассматривали кошку. Ответ аналогичный, как и в китайской комнате - нет. Значит не только в компьютере нет понимания, его нет и в человеческом мозгу. Возможны два вывода. Вывод для идеалистов - НИИ недоукомплектован и нужно специальное еще не изобретенное ( и возможно, в принципе не изобретаемое) оборудование для понимания. Вывод второй: мы просто не так определяем "понимание". Лично я считаю, что мерилом понимания есть адекватное поведение, это реакция другого интелекта на такое поведение. и ничего лучше теста Тьюринга в принципе не возможно.
Пошел читать дальше.
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Михайло » Вс ноя 12, 2006 13:01:36

Ну что ж, ладно, будем обсуждать.

Я выделю несколько весьма спорных утверждений, высказанных автором книги.
Дж.Хокинс писал(а):Вы можете удивиться, почему разработчик компьютеров пишет книгу о мозге. Или с другой стороны, если я увлекаюсь изучением устройства мозга, почему я не сделал карьеру в нейронауке или в области ИИ? Ответ: я пытался несколько раз, но я отверг те способы изучения, которыми пользовались другие до меня. Я верю, что лучший способ решить проблему – использовать более детальную биологию мозга как ограничение и как путеводитель, но продолжая думать об интеллекте как о вычислительной проблеме – где-то между биологией и компьютерами. Многие биологи склонны отвергать или игнорировать идею рассуждать о функциях мозга в вычислительных терминах, а компьютерщики часто не верят, что им нужно знать что-то из биологии.

Где же это видано, чтобы программисты разбирались в мозгу, а биологи - в программировании? Самый-то прикол, что в искусственном интеллекте не разбираются ни те, ни другие!

Дж.Хокинс писал(а):...их не интересовало, как в работает реальный мозг. Они гордились игнорированием нейробиологии.
Меня поразило, как совершенно неверным способом берутся за проблему. Интуитивно я чувствовал, что ИИ-подход не только будет безуспешным в создании программ, могущих то же, что и человек - он ни за что не объяснит нам, что же такое интеллект. Компьютер и мозг построены на совершенно различных принципах. Первый программируется, второй – самообучается. Первый должен точно и четко работать с любыми данными, второй обладает естественной гибкостью и толерантностью к сбоям. У первого есть центральный процессор, у второго – нет централизованного управления. Список различий можно продолжать и продолжать.

Хокинс забыл, что глядя на мозг, нельзя понять правильно концепцию самообучения (адаптации)

Дж.Хокинс писал(а):Я часто ссылаюсь на эту теорию и на мой подход к изучению интеллекта как на «естественный интеллект», чтоб отличить его от «искусственного интеллекта». Специалисты в области ИИ пытаются запрограммировать компьютеры, чтоб они действовали как люди, не ответив сначала на вопрос, что такое интеллект и что означает понимание. Они оставляют в стороне наиболее важную часть в построении интеллектуальных машин – интеллект! «Естественный интеллект» указывает, что прежде чем построить интеллектуальные машины, мы должны сначала понять, как думает мозг, без чего-либо искусственного. Только потом мы можем спрашивать, как же нам построить интеллектуальные машины.

С этим была проблема лишь у биологов и программистов (к ним примыкает Хокинс), кибернетики - специалисты по теории управления - этим не страдают.

Дж.Хокинс писал(а):Большинство людей сегодня верит, что ИИ-подход жив и здоров, и всего лишь ожидает достаточных компьютерных мощностей, чтоб оправдать свои многочисленные обещания. Когда компьютеры будут обладать достаточным объемом памяти и производительностью, продолжается мысль, программисты ИИ смогут сделать интеллектуальные машины. Я не согласен. ИИ-подход страдает от такого фундаментального недостатка, что он не может адекватно указать, что такое интеллект или что обозначает понимание чего-либо. Краткий взгляд на историю ИИ и на догма, на которых он построен, объяснят, почему это направление сбилось с курса.

Хокинс не признает существующие нынче программы за интеллектуальные, он наверняка не знает, как работает Deep Blue, а ведь там не простой алгоритм по типу "китайской комнаты"... Возьмем для примера FineReader фирмы ABBYY. Нет интеллекта?

Дж.Хокинс писал(а):К несчастью, преподаватели и студенты, которых я встретил в MIT, не разделяли моих интересов. Они не верили, что необходимо изучать реальный мозг, чтоб понять интеллект и построить интеллектуальные машины. Так они мне и сказали. В 1981 году университет отклонил мое заявление.

Правильно сделали, они же не тупые.

Дж.Хокинс писал(а):В августе 2002 я основал исследовательский центр, Институт Нейронаук в Редвуде (RNI), занимающийся теорией мозга. В мире есть множество центров, занимающихся нейроисследованиями, но ни один из них не занимается поисками общего теоретического понимания работы неокортекса – части человеческого мозга, ответственной за интеллект. Именно это мы изучаем в RNI. По многим статьям RNI является начинающей компанией. Мы преследуем мечты, которые некоторым людям кажутся недостижимыми, но мы счастливы быть группой замечательных людей, усилия которых начинают приносить плоды.

Рекламирует то, чего нет. Скорее всего, его Центр - это растрата лишних его денежек...

Дж.Хокинс писал(а):Когда я поступил в Калифорнийский Университет в Беркли в январе 1986, первым, что я сделал, было собрание истории теорий интеллекта и функций мозга. Я прочел сотни статей анатомов, физиологов, философов, лингвистов, компьютерщиков и психологов. Множество людей из множества областей широко описали мышление и интеллект. В каждой область науки был свой набор журналов и в каждой использовалась своя терминология. Я нашел их описания неподходящими и неполными. Лингвисты говорили об интеллекте в терминах «синтаксис» и «семантика». Для них мозг и интеллект существовали только как язык. Специалисты по зрению ссылались на 2-мерные, 2.5-мерные, 3-хмерные модели. Для них мозг и интеллект существовали только как визуальное распознавание паттернов. Компьютерщики говорили про схемы и фреймы, новые термины, которые они придумали для представления данных. Никто из этих людей не говорил про структуру мозга и про то, как бы в нем укладывалась любая из их теорий. С другой стороны, анатомы и нейрофизиологи широко описали о структуре мозга и о том, как ведут себя нейроны, но они в большинстве своем избегали любых попыток построить крупномасштабную теорию. Было сложно и тщетно пытаться ухватить смысл этих разнообразных подходов и гор экспериментальных данных, сопровождающих их.

Видимо, кибернетика и теория принятия решений были ему не по зубам, поэтому он их не рассматривал. Какой лингвист или программист может создать теорию интеллекта?!
Аватара пользователя
Михайло
Полноправный участник
 
Сообщения: 904
Зарегистрирован: Пт окт 07, 2005 15:20:05
Откуда: Нижний Тагил

Сообщение Алхимик » Вс ноя 12, 2006 16:50:31

Прочел пять глав. Автор таки настаивает, что понимание - нечто большее, чем поведение. И какие доводы приводит: вот лежит он на диванеи говорит:"Я понял как работает интелект". Никаких при этом действий не производит, но понял. Но вот он встал с дивана и решил запрограммировать интелект, так как он его понял. И в процесе программирования вылезли проблеммы, о которых, лежа на диване, и не подозревал. Он чешет репу: как их решать, т. е. он уже не понимает в данный момент, как работает интелект. Риторический вопрос: когда он больше понимал об интелекте - когда лежал на диване или когда пытался что-то сделать. Субъективное понимание чего-то - это возможность какого-то нового действия, основанная на полученых новых знаниях. В конечном счете все сведется к действиям, к поведению.
Автор сводит работу мозга к постоянному предсказанию. Не совсем согласен. Если образно - то это движение по натоптаной тропинке. Мы можем, двигаясь по ней, смотреть на облака или ворон считать. Пока движемся по равному, все нормально. если тропинка свернет, то мы выскочим на целину и сразу же посмотрим под ноги. Так и мысли, предпочитают двигаться по натоптаным тропкам. Если это называть предсказанием, мол, все время ожидается натоптаность, то все же не надо ставить такое предсказание на одну доску с предсказанием в нестандартной, новой ситуации. Здесь рассматриваются несколько вариантов, хотя критерием успеха будет попадание на утоптанные участки.
Пока что ничего нового для меня нет, об этом думал и сам.
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Алхимик » Вс ноя 12, 2006 21:45:07

Прочитал. Конечно, 6-ю главу придется перечитывать и внимательно вникать в подробности. Но кое-что можно и сразу сказать.
В повседневности мы встречаем множество новых вещей, поступающих на вершину кортикальной иерархии – например, статья в газете, имя человека, которого вы встретили сегодня утром, автомобильная авария, которую вы видели по пути домой. Именно эти необъясненные и непредсказуемые остатки информации, новый материал поступает в гиппокамп и сохраняется там. Эта информация не будет храниться вечно. Либо она будет передана в кортекс, либо, соответственно, будет потеряна.

Как всегда, на самом интересном месте... :( И ежу понятно, что все подряд запоминать никакой памяти не хватит. Но по каким критериям определять, что хранить, а что нет? Ведь наверх поступает только новая информация. Каков механизм отбора?
Про выводы по аналогии и порождение гипотез написано больше, попробую разобраться. Боюсь только, что и там существенные моменты умалчиваются.[/quote]
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Гость » Пн ноя 13, 2006 18:24:19

Алхимик писал(а):Автор сводит работу мозга к постоянному предсказанию. Не совсем согласен.

Я тоже. Но объясните мне механизм понимания в "сто нейрошагов"!!!
Гость
 

Сообщение Алхимик » Пн ноя 13, 2006 19:52:47

Pavel Phomenko писал(а):
Алхимик писал(а):Автор сводит работу мозга к постоянному предсказанию. Не совсем согласен.

Я тоже. Но объясните мне механизм понимания в "сто нейрошагов"!!!

Хокинс поставил во главу угла память, и я согласен с этим. Все решения, которые мы принимаем - это либо прошлые воспоминания, либо комбинация таковых (рассуждение по анологии). Состояние всех нейронов со связями и есть память. Насколько я понял, и Хокинс так считает. Мы живем в своей памяти, как в матрице. Вот опыт с дверью. Мы уже подходили к двери и все это отложилось в памяти. Когда мы подходим снова к двери, мы попадаем в ту же ситуацию, в ту же точку памяти. Теми же путями (конечно, с некоторой точностью) бегут нервные импульсы. И чем чаще раньше мы подходили к этой двери, тем больше совпадение. Поэтому мозг так легко и быстро реагирует на любое изменение - есть с чем сравнивать. Собственно мне не нравится у Хокинса само слово "предсказание". Оно предполагает некое действие, которое делается для того, чтобы получить предсказание. Я же предпологаю, что мы просто автоматически попадаем в новое для мозга состояние, на которое он реагирует иначе, чем на старое. И уже после этого ищется отличие, то именно новое, которое не совпадает со старой ситуацией. Потому и действует понимание в сто шагов, что память человека всегда находится в состоянии, ассоциативно близком от могущих возникнуть задач (некоторые из нихв аналогичной ситуации уже возникали в прошлом). Или само задание приводит память в такое состояние. Например, если спрашивают: "Который час" , то слово "час" возбуждают импульсы в области связаной с понятием времени, а с ней связано характерное движение, которым мы подносим левую руку к глазам. Нам даже осознавать это не надо, настолько привычный жест. Ну а если у человека спросить о чем нибуть ему не известном, то ответ не придет не то, что за сто шагов, а может и вобще не прийти.
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Михайло » Вт ноя 14, 2006 5:08:17

Pavel Phomenko писал(а):
Алхимик писал(а):Автор сводит работу мозга к постоянному предсказанию. Не совсем согласен.

Я тоже. Но объясните мне механизм понимания в "сто нейрошагов"!!!

Это не идея Хокинса, он сам говорит, что эта мысль (правильная!) пришла в голову ученым еще в 80-х годах прошлого века. Предсказать - это значит, используя внутреннюю модель мира, "сыграть" определенную ситуацию.
Никакой ошибки здесь нет, верность этой идеи могу доказать и я.
Аватара пользователя
Михайло
Полноправный участник
 
Сообщения: 904
Зарегистрирован: Пт окт 07, 2005 15:20:05
Откуда: Нижний Тагил

Сообщение Алхимик » Вт ноя 14, 2006 14:48:52

Итоговые мысли по прочтению.Сначала некоторые уточнения к предыдущим моим постам.
Хотя я и разошелся с Хокинсом по поводу понимания и поведения (см предыдущие посты о китайской комнате),но следующая его фраза:
"Но размышление о выполнении чего-либо – это буквально начало
того, как мы делаем что-то."

показывает, что не удается ему уйти от поведения,как он этого хочет.Он просто акцентирует внимание на ином моменте процесса, начальном в некотором смысле. Момент, до которого мозг не знает, как совершить некое действие, а после знает. Мозг фиксирует этот момент, и именно эту смену состояний мозга Хокинс определяет как понимание.
Второй момент. Я перечитал подробности работы кортекса по Хокинсу и понял, что у него действительно главной идеей является предсказание. Паралельно с нейронами, ответственными за запоминание информации выделены дублирующие нейроны, по которым будет распостранятся предсказывающее возбуждение, аналогичное запомненому при первом появлении сигналу. И оно будет распространятся по всем альтернативным ветвям для выбора наиболее весомой ветви. По видимому наиболее весомой будет та ветвь, статистика появления которой будет наибольшей. Это действи тельно предсказание, и другим словом не назовешь. Моя ошибка вызвана тем, что я тоже считаю память основой ИИ. И тоже буду считать статистику появления одинаковых патернов. И сравнивать новые патерны с хранящимися в памяти. И строить на основе этого сравнения предсказания. Но не тотально, как это описывает Хокинс, а последовательно, выбирая направление следущих предсказаний, руководствуясь предыдущими сравнениями. Это по ресурсам не так няпряжно.
Общие впечатления от книги хорошие. Главное, написана понятным языком, все идеи внятны. Хокинс добивается этого обилием примеров, чтобы уж всем стало ясно. А еще тем, что ясно показывает, как возникли у него эти идеи, проводит аналогии с работой мозга, как он ее представляет. Этим он добивается еще большей ясности, но становится открыт для критики. С одной стороны изучающие мозг укажут ему на те фажные отделы мозга и те функции, которые он обошел вниманием. С другой стороны технари скажут, что по его схемам невозможно, по крайней мере в настоящее время, сделать ИИ.
Такая критика не совсем по делу. Главное в книге идеи. И руководствуясь ими можно и углублять изучение мозга, и искать конструкцию ИИ.
Приведу те мысли и идеи, которые мне понравились и с которыми я согласен.
Первым моим критерием было включение времени в функции мозга. Реальный мозг быстро обрабатывает потоки информации. Нет ничего статического в потоках информации, поступающих в мозг и из мозга.

. Области неокортекса, которые оперируют слуховой информацией, похожи на области, оперирующие с осязанием, управлением мускулатурой, языковую область Брока, практически как любые области неокортекса. Монткастл предположил, что поскольку эти области выглядят одинаково, они действительно выполняют одну и ту же базовую операцию! Он предположил, что кортекс использует
один и тот же вычислительный инструмент для всего, чем он занимается.

Идея, что паттерны от различных чувств эквивалентны внутри вашего мозга, является совершенно неожиданной, и хотя она вполне понятна, она до сих пор не оценена по достоинству.

Ответ в том, что мозг не «вычисляет» ответ на задачу; он достает ответ из памяти. По существу ответ был сохранен в памяти заранее. Всего несколько шагов требуется, чтоб достать что-то из памяти. Медленные нейроны не только достаточно быстры, чтоб сделать это, но они сами составляют эту память. Весь кортекс – это система памяти.

Эволюция подсказывает, что если к органам чувств приделать систему памяти, то память стала бы моделью мира и начала бы предсказывать будущее. Заимствуя идею у природы, мы должны строить интеллектуальные машины аналогичным путем. В этом рецепт для построения интеллектуальных машин.
Начнем с набора сенсоров для извлечения паттернов из реального мира. Наши интеллектуальные машины могли бы иметь набор органов чувств, отличающийся от человеческого

К недостаткам можно отнести то, что создается впечатление уже сделаного дела, мол остановка за мелочами, дом построен. На самом же деле дом сдан в эксплуатацию с большими недоделками.
Допустим, руководствуясь идеями Хокинса кто-то решил сделать ИИ, играющий в шахматы. По набору рецепторов задача проста: 64 поля, 32 фигуры. Набор эффекторов можно сделать аналогичный. Вот тут уже проглядывает недосказанность у Хокинса. Он подробно описывает, как информация поступает. Также говорит, что выходить будет информация по тому же принципу. Но вот момент смены направлений начисто игнорирован. Входящая информация у Хокинса стремится к вершине. И все. По идее, с каждого этажа иерархии сигнал может повернуть на эффекторы, но что заставляет его туда повернуть? Можно предположить, что этим стимулом является правильное предсказание последовательностьти патернов, некоторые элементы которой являются совпадающие с эффекторами. В шахматах можно сделать рецепторы и эффекторы совпадающим, но в общем случае наборы различны. Поэтому для каждого эффектора придется делать внутренний рецептор, как-то реагирующий на действия этого эффектора. И такая пара должна быть связана. И эта связь должна быть механизмом, запускающим в действие именно этот эффектор. Предсказаеие связаного с эффектором рецептора вызывает предсказание и самого эффектора и включение его.
Вернемся к шахматам. Допустим, мы воспользовались одинаковостью рецепторов и эффекторов и просто связали их попарно. Надо приступать к обучению. Замечу, что у Хокинса практически обойден начальный момент, когда в памяти еще ничего нет и не с чем сравнивать. По появлению новых элементов на верхних этажах иерархии только одна фраза: возбужденная колонка тормозит ближайшее окружение. Хокинс считает, что этим будет достигнут некоторый порядок в его схеме, где практически все связано с всем. Может быть. Но нужны эксперименты для подтверждения этого. Второй момент, у Хокинса последовательности уже дискретны. На самом же деле в общем случае имеем непрерывный поток последовательностей. И выделить в нем отдельные элементы - еще та задача. Чем-то похожим на форуме занимается Тарасов. Вот у него можете поинтересоваться, сколько подводных камней оставил Хокинс за кадром. Ладно, проехали. Нам нужно научить ИИ шахматным ходам. Подаем на вход последовательно два патерна: конь на g1; конь на f3. Обучаем ИИ вводя несколько раз эту последовательность. Затем вводим только первый патерн. Ура! на эффекторах появляется конь на f3, мы обучили ИИ первому ходу. Но вот незадача, чтобы научить новому ходу тем же конем нужно ввести больше повторов. Система выучит новый ход, но "забудет" старый. Более того, если поставить на f3 свою пешку, то система запросто может поставить на тоже поле коня, или слоном перепрыгнуть свою пешку. Почти по классике: "И Ленский пешкою ладью берет в рассеяньи свою" :D . Допустим, мы решим взять количеством и загрузим систему партиями, не обращая внимания на эффекторы, мол, со временем наладится. Действительно, количество неправильных ходов уменьшится, но вероятность появления неправильного хода никогда не станет нулевой. И еще: пускай мы ввели партию Каспаров- Карпов. Карпов играл великолепно, но все-таки проиграл. Если затем мы будем играть, как Каспаров, наша система будет играть так же великолепно, как Карпов, но проиграет. Ведь главное, чтобы предсказание сбывалось, а остальное ботва. Допустим, мы ввели новый рецептор, на котором-шахматист эксперт будет старивь оценки ходам. Вполне возможно, что система посчитает самым лучшим ходом подставление короля под бой. При другом ходе предсказать оценку эксперта трудно, а при этом всегда получаем минус 200. Ясно, в чем проблема. Система не имеет цели: ни внутренней, ни заданной. И Хокинс совершенно выпустил это из виду. Он говорит
«Выполнение» через размышление, параллельное разворачивание перцептивного и моторного поведения – это суть того, что называется целенаправленным поведением.

И считает целью предсказание. Как мы видим, это не верно. Нужен инструмент для оценки, то есть эмоции. Их можно промоделировать парой рецепторов "+" и "-". Они также могут встраиваться в последовательность патернов на общих, основаниях. Но сигналы с этих рецепторов отличаются от остальных тем, что имеют управляющее воздействие: даже при совпадении предсказаний именно значение этих сигналов влияют на проход или не проход сигнала к эффекторам.
Хокинс также практически ничего не сказал об порождении гипотез. Ему кажется, что для этого достаточно предсказаний. Большее влияние на решение окажет тот патерн, который больше совпадает с исследуемым. Допустим, в памяти есть позиция, в которой мат ставится мат в один ход. А на вход подана позиция, отличающаяся тьлько тем, что свой король стоит на соседней клетке. Но эта клетка под ударом. Значит, матующий ход просто невозможен по правилам. А за невозможный ход в блице и активных шахматах засчитывается поражение. Получается, что эмоции должны управлять и порождением гипотез. И это только то, что видно с первого взгляда. Еще много чего может всплыть при подробном рассмотрении порождения гипотез, нового знания.
Ну а о самом, на мой взгляд, большом упущении Хокинса я уже упоминал. Он понимает, что что-то надо запоминать, а что-то можно опустить. Но как различить это не говорит. И не спроста. Наверное, сейчас на этот вопрос удовлетворительно никто не ответит.
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Daonov » Вт ноя 14, 2006 17:05:23

Алхимик писал(а):Вернемся к шахматам. Допустим, мы воспользовались одинаковостью рецепторов и эффекторов и просто связали их попарно. Надо приступать к обучению. Замечу, что у Хокинса практически обойден начальный момент, когда в памяти еще ничего нет и не с чем сравнивать. По появлению новых элементов на верхних этажах иерархии только одна фраза: возбужденная колонка тормозит ближайшее окружение. Хокинс считает, что этим будет достигнут некоторый порядок в его схеме, где практически все связано с всем. Может быть. Но нужны эксперименты для подтверждения этого.

В таком случае, как Вы себе представляете сравнение двух порядков, что если мы введем третий порядок, то всё равно не уйти от первого вопроса о сопоставлении двух порядков. Две возможные ситуации, это когда второй порядок, составляющий первого, либо урезается первым. Все же второй вариант больше интересует (с первым и так понятно)?
Аватара пользователя
Daonov
Заинтересованный
 
Сообщения: 35
Зарегистрирован: Ср сен 20, 2006 15:56:27
Откуда: xmr

Сообщение Алхимик » Вт ноя 14, 2006 17:23:56

Не понял, о каких порядках вы говорите. Я имел ввиду иерархию, вводимую Хокинсом. Допустим возбуждены колонки, отвечающие за последовательность букв Б и А. На следующем уровне иерархии должна возбудится колонка, отвечающая зс слог БА. Но многие колонки имеют связь одновременно с Б и А. Если все будут возбуждаться, то память быстро кончится. Хокинс разрешает ситуацию тем, что первая возбудившаяся тормозит все соседние. А про какие порядки говорите вы?
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Алхимик » Вт ноя 14, 2006 17:27:42

Приведите какой нибудь пример, чтобы понятней было
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

Сообщение Daonov » Вт ноя 14, 2006 18:07:16

Алхимик писал(а):Приведите какой нибудь пример, чтобы понятней было

для связи различных названий достаточно десяти более общих понятий. Это утверждение якобы для примера допускает именно строго ограниченное количество букв.Конечно сие достаточно спорный тезис.но если говорить конкретней, то эта операция требующая предварительных вычислений, и предсказать на каком шагу выстроится искомая комбинация нельзя. Тем более предопределять выбор, из наиболее весомых ветвей.
Аватара пользователя
Daonov
Заинтересованный
 
Сообщения: 35
Зарегистрирован: Ср сен 20, 2006 15:56:27
Откуда: xmr

Сообщение Алхимик » Вт ноя 14, 2006 18:34:17

Все равно не понял, да вопрос надо задавать не мне, а Хокинсу. Он пишет как все это замечательно работает, когда уже создана иерархия. А вот как она создается, как разные последовательности получают одно имя на верхнем этаже иерархии, я не очень-то понял. На айкоме в такой же теме уже обсуждается следующая работа Хокинса. Может, у Андрея есть и она, а то там ссылка не работает. Может, по прочтению ее будет яснее.
Аватара пользователя
Алхимик
Полноправный участник
 
Сообщения: 673
Зарегистрирован: Вс июн 04, 2006 17:17:18
Откуда: Украина, г. Горловка

След.

Вернуться в Архив от 25.04.2007

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 0


cron


Rambler's Top100 Каталог ресурсов ListTop.Ru Каталог сайтов Союз образовательных сайтов Parenting.ru - Родители семья дети ребенок

     Сайт "Искусственный интеллект" - программирование ИИ от разработчика: общение, статьи, ссылки.