Самообман искусственного интеллекта необходим для выживания

Реально работающие приложения, программные и программно-аппаратные продукты.

Модераторы: DCV, Dimmy, daner, victorst, Администраторы

Сообщение daner » Вт янв 08, 2008 17:49:15

AMS писал(а):Вопрос то не к нам, а к нашему ИИ- что ему с этими измышлениями делать?

именно что игнорировать, если он не для этого предназначен.
Если же для этого, то не игнорировать. Короче, как и у людей.
Математики не должны игнорировать, а все "смертные" должны!

В своё время не помню на каком форуме, была интересная дискуссия.
"Должен ли ИИ уметь обманывать". Но для меня ответ на именно этот вопрос тривиален (конечно ДА), зато в ходе обсуждения всплыл другой вопрос: "Должен ли ИИ иметь возможность самообмана?"
И вот лично для себя (я в общем-то аргументировал это) я пришел к мнению, что не просто должен уметь, а это штука совершенно необходимая!!! Как минимум, необходимая на определенный промежуток времени.
Я вожу прямую связь этого вопроса с тем что вы сейчас пытаетесь обсуждать.
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение gsvano » Ср янв 09, 2008 2:18:40

Является ли самообманом неадекватность действий в результате черезмерно высокой значимости для субъекта какого-то не особо значимого знания в реальном мире?
Имхо - нет.
Такое знание выступит блокиратором возможностей более правильного действия из-за того, что возможность поступить по другому будет менее значима, чем уже устоявшаяся реакция.
По этому люди, да и наверняка все адаптивные системы, склонны поступать несколько неадекватно в изменившейся ситуации, так как установка сколько бы значимого приоритета для нового поведения займет время, особенно если способ генерации или изменения контекста сам не обладает большим приоритетом у субъекта в силу новизны или каких-либо других блокирующих факторов.
Это по поводу самообмана.

Обман же другого обьекта, не более чем устоявшаяся реакция, которая приносила какую-то выгоду при её применении в прошлом, чаще всего в детстве. Вспомните, сколько раз вам удалось обмануть, исказить или не рассказать всю правду о каком-либо поступке, за который бы вас родители однозначно по вашему мнению вас бы наказали? А так как выгода от обмана наступает почти всегда и быстро, то вес такого поведения для человека в будущем может быть весьма большой и он будет так поступать, если не найдется более весомых причин, например наличие определённых моральных принципов заложенных воспитанием или выработанных при жизни.
Оно, конечно, ничего, если ничего не случится. А вот если случится, тогда что?
Аватара пользователя
gsvano
Цотонист-язычнег
 
Сообщения: 2168
Зарегистрирован: Пт янв 14, 2005 2:50:39
Откуда: с Востока

Сообщение daner » Ср янв 09, 2008 3:00:46

Не сочтите, ссылки за пропаганду (я серьезно).
Просто не хочу снова писать то, что уже написал раньше (пусть и в другом форуме), тем более там очень много написано!

Для тех кому интересно :
Здесь начало:
http://gotai.net/forum/Default.aspx?postid=1730

Здесь я давал определение того, как я понимаю обман вообще (последний абзац поста):
http://gotai.net/forum/Default.aspx?postid=1786#1786

Здесь началось обсуждение самообмана:
http://gotai.net/forum/Default.aspx?postid=1800#1800
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение gsvano » Ср янв 09, 2008 3:05:16

Ну вот, неужели лень было скопировать оттуда сюда пару абзацев?
Оно, конечно, ничего, если ничего не случится. А вот если случится, тогда что?
Аватара пользователя
gsvano
Цотонист-язычнег
 
Сообщения: 2168
Зарегистрирован: Пт янв 14, 2005 2:50:39
Откуда: с Востока

Сообщение daner » Ср янв 09, 2008 3:21:31

gsvano писал(а):Ну вот, неужели лень было скопировать оттуда сюда пару абзацев?

скопировать можно было, но там дискуссия интересная (вопросы, ответы). Так что скопировать только пару абзацев -- это выдрать из контекста. Я в начале так и хотел. Но потом почитал... и понял, что копировать бессмысленно.
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение Василий » Ср янв 09, 2008 9:38:12

gsvano писал(а):Ну вот, неужели лень было скопировать оттуда сюда пару абзацев?


Вот:

daner писал(а):Ну хорошо, что хотя бы, в четвертом посте вы вспомнили определение "вранья" дать.
Что касается теста Тьюринга... я лично с этим тестом не согласен, да и не я первый. Уверяю вас, если на другом конце будет сидеть какой-нибудь бухарик или ребенок 3-ех лет, вы после 10 предложений скажете что это компьютер!! . Я кстати, читал логи (ну наверняка были выбраны лучшие, но их было много) от бесед с одним из chatbots правда не помню какой (возможно Alan). Читал довольно долго, пару часов. Я был просто поражен. 90% это было натуральное общение на темы религии, искусства (кинематограф) и т.д. Я конечно понимаю, что он сам, особо глубокие мысли, не придумывал, но использовал их корректно и в нужное время.

Что же касается самой темы. Зачем так усложнять ситуацию? Жена, измена и т.д. ( хотя, у кого, что болит :D ).
В теории игр (рассмотрим раздел "торговли и аукционов") есть такое понятие как private cost т.е. то как лично вы оцениваете товар. Почти всегда, вам прейдеться "врать" т.е. предлагать цену выше того, как вы ее сами оцениваете, иначе просто не возможно будет получить прибыль. Хотите, что бы ИИ занимался торговлей? Вот вам и ответ!
На а раздел "переговоров" я даже не упоминаю... там вообще вранье, само собой разумеется, во многих ситуациях.


Mad_God писал(а):Подумайте вот еще над чем: не решит ли ИИ, сравнив скорость своих ответов на вопросы заданные человеком и скорость ответов человека, на вопросы заданные ИИ, что человек думает намного медленнее, а значит он глупее? Согласно тесту Тьюринга он будет вынужден замедлять свои ответы.
А если за счет этой разницы во времени ИИ будет мысленно опережать человека, то он сможет и влиять на его мысли. А если в любой области знаний ИИ будет знать больше чем средний человек, то ИИ будет служить примером для человека, будет признан вожаком.

Куда заведет такой вожак? Это мне напоминает саммон демона. Можно попасть под власть демона.

Некоторые скажут: слишком много "если".Но все они вытекают из разницы в скорости. Разница может быть и обратная. Должно же у ИИ быть чувство времени? У ИИ реального времени обязательно, у пошагового - не знаю.


Mad_God писал(а):Если память ИИ будет организована так, чтобы хранить воспоминания последовательно по мере поступления, то можно обрести реальный опыт времени: это событие случилось раньше а это позже. Но сколько оно продлилось? Длилось ли первое событие дольше второго и на сколько? Без тиков этого не понять. И у нас внутри что-то тикает, иначе почему я просыпаюсь без будильника вовремя?


daner писал(а):>>Ну хорошо, что хотя бы, в четвертом посте вы
>>вспомнили определение "вранья" дать.
>
>Я так понимаю что без определения здесь никто ничего не понимает.
>Жаль. Ну что ж. Прошу прощения. Мне казалось что пример с тестом
>Тьюринга и цветом волос вполне понятен.

Ну, допустим, я догадался сам, что бы имеете ввиду, но как сами вы убедились, это было понятно не всем.
Кстати, давать определения в первом же посте, это хорошая практика, и стоило бы ее ввести. Точно уж, не помешает.


>>Хотите, что бы ИИ занимался торговлей?
>
>Итак, Вы приходите в супермаркет, а там ИИ который намного
>умнее Вас начинает Вам втирать что для Вас лучше и что "Нашы
>слоны самые слонистые слоны в мире. Покупайте только нашых слонов.
>Они обязательно пригодятся Вам в домашнем хозяйстве"? Такой ИИ вам нужен?

Как владельцу магазина, просто необходим!!!! зато с другой стороны у моего покупателя может быть с собой партитивный ИИ, который будет за него вести переговоры и "врать" в его пользу! А что вы ожидали? alager com alagero.

>>Ну а раздел "переговоров" я даже не упоминаю... там вообще вранье,
>>само собой разумеется, во многих ситуациях.
>
>Я так понимаю что для вас лживый ИИ явление вполне принятное. Т.е. вас
>вполне устраивает ИИ который будет Вам лгать переследуя собственые интересы?

Нет, меня устраивает ИИ, который будет лгать ВАМ, преследуя МОИ интересы!!!
Если у вас будет такой же, ну что же, у нас демократия и равенство прав!!!
другое дело, что я за то, что бы хоть кто-то мог бы его все-таки контролировать.
и основные задачи ставить, а не пускать это все на самотек.


Mad_God писал(а):Давайте подумаем. ИИ должен уметь врать, хотя бы чтобы пройти тест Тьюринга.

Допустим, программу ИИ видоизменили, специально чтобы пройти тест и далее использовали "чистую версию", которая не врет.

Нужно определить, какие достоинства одной версии перед другой. На основе полученных данных будет легче принять решение.

Достоинства зависят напрямую от той отрасли, где будет использоваться ИИ.

Если ИИ будет использоваться в информационных справочных системах, энциклопедиях, поисковиках, системах управления, то способность врать ему не нужна. То есть в случае, когда речь идет об ограничении влияния на людей. Влияние производится только правдивой информацией.

Если же речь идет о внедрении ИИ во все сферы жизни, где раньше был только человек, то без возможности врать он не будет конкурентноспособным. Опять же, конкурентность подразумевает вытеснение слабой стороны. Предполагаете, кто кого вытеснит? А еще есть такое понятие как превентивный удар...

Если существует малейшая опасность того, что ИИ вырвется на СВОБОДУ и от него будет зависеть моя жизнь, то она будет стоить еще меньше чем сейчас.

Представьте: уже сейчас в крупных компаниях по телефону отвечают роботы; уже сейчас есть посудомоечные машины; машины, которые убирают улицы, помещения; машины, которые убирают урожай; машины - погрузчики; машины - строители.


daner писал(а):>>Во-первых, продавцов в обществе не так уж мало.
>Но недостато чтобы говорить об их интересах как об интересах общества.

Все современное общество, сплошные продавцы. Раньше, во время рабовладельческого строя, это было не так, но сегодня... все оценивается деньгами, а значит купле-продажей. (нравится вам это или не нравится, но это вполне нормальный процесс интеллекта, определить ценности в доступной и понятной форме).

>>ему надо жить среди людей.
>Жить среди людей вовсе не означает что ему нужно лгать людям.

Ему нужно будет конкурировать, а значит и лгать!

>>Как-то на одном из курсов по ИИ нам нужно было....
>Просто интересно: а где это такие курсы есть и вообще где Вы учились?

Я сей час в аспирантуре Университета Бар-Илан (Израиль), факультет ИИ, пишу кандидатскую (ну это вольный перевод на русский, а на международном: вторая степень мастера (M.Sc.) с тезисом по компьютерным наукам с уклоном на ИИ и Робототехнику).
Вот моя академическая страница: http://www.cs.biu.ac.il/~yeda

>Просто дайте ответ на вопрос: Вам нужен ИИ который будет ВАМ лгать?

Нет. Но мы видь говорим про общество!!! а для общества, вполне возможно "да". Я даже привел конкретный результат экспериментов. Они конечно виртуальные, но после них, я бы не стал столь категорично утверждать, что "лож" это плохо.

>Могу с достаточно большой точностю сказать что анализировать
>базу даных ИИ в "прямом" виде будет очень сложно. Я бы на анализ ИИ изнутри
>не расчитывал

А я бы рассчитывал!!! "Сложно", это не аргумент. Если ИИ будет создан не случайно, то это вполне нормально, анализировать то, что ты создаешь. Кстати, это одна из основных проблем НС, их почти невозможно анализировать и это существенно тормозит их развитие. Скачек с НС (ИМХО) будет именно тогда, когда научатся делать приемлемый анализ и конструировать НС не в слепую. А то пока это больше смахивает на "алхимию", и это отталкивает многих специалистов.

>А то что Вы описали это не совсем ложь. Я бы сказал что
>это предсказание. Да, при взгляде со стороны это ложь, но
>при взгляде с позиции ИИ это не ложь, а попытка угадать правду.

Нет, это именно лож (самовнушение). Предсказание, подразумевает угадывание события (предиката) на основе существующей модели (тезисах). А я говорю о том , что агент "видит", то что модель не совсем подходит, но что бы не тратить время, "закрывает глаза" на несоответствие. Т.е. внушает себе, что решение на основе "плохой" модели, правильное!


daner писал(а):то касается самовнушения:
возможно, с поездом вы привели правильный пример, но я говорил не об этом случае.
Когда я говорю о модели, я имею в виду, текущую модель ИИ. Что бы делать те или иные выводы, ИИ должен быть уверен, что его модель правильно отражает реальность, или хотя бы понимать, что модель не точна и что возможна ошибка. Вполне нормально, для ИИ специально загрубить модель (или часть модели, или иметь несколко моделий с разной точностью) но это, как вы правильно заметили, не самообман.
Самообман начинается, когда появляется противоречие в модели.
Возможно, агент вполне даже осознает, что есть такое противоречие, но не пытается его исправить, так как это требует ресурсов.
Примеров из жизни человека можно найти достаточно, надеюсь с этим вы сами справитесь?


Андрей писал(а):Тема, имхо, не стоит и выеденного яйца т.к. всё вполне очевидно. Главное не путаться в терминах и точках отсчёта.
Последние страницы обсуждения не читал, просто выскажу имхо, сорри если повторю что-то.
1. Ложь предполагает осознание факта лжи тем, кто говорит ложь. Настоящая ложь всегда сознательна и контролируема, иначе нечего и обсуждать.
2. Есть случаи неопределённости, когда говорящий ложь, лжёт относительно себя, но относительно слущающего говорит правду и наоборот.
2.1. Например, я лгу: "Микросхема стоит 1 доллар", зная при этом из СОБСТВЕННОГО опыта, что микросхема стоит, например, 2 доллара. Человек идёт и обнаруживает микросхему за один доллар. Он благодарен мне, что я сказал правду, хотя фактически я лгал, т.к. искажал свою правду Таким образом правда и ложь всегда относительны. Относительно жизненного контекста конкретного индивидуума.
2.2. Например я говорю правду: "Микросхема стоит 2 доллара", а человек покупает её за один доллар. Выходит, что я его обманул, хотя сказал правду относительно своих знаний.
3. Человек, лгущий сознательно, должен обязательно знать правду, для того чтобы качественно лгать. Т.е. настоящая интеллектуальная ложь всегда основана на искажении правды. Правда лежит в основе лжи.
4. Лгущий рассматривает ложь как информационное воздействие на слушающего с некоторой определённой целью. Говорящий правду тоже рассматривает правду, как информационное воздействие на слушающего с некоторой определённой целью. В чём же разница между правдой и ложью? Если правду можно сказать с корыстью и ложь можно сказать с корыстью, то чем же они отличаются для слущающего?
4.1. Что есть правда? Правда с точки зрения слущающего - это всегда ЗНАКОВАЯ КОНСТРУКЦИЯ, которая попадает к нам через наши ощущения от действия эффекторов другого субъекта и описывает нечто недоступное в текущий момент непосредственному восприятию слущающего в силу пространственных (далеко, мелко) или временнЫх ограничений (в прошлом, в будущем). Таким образом ПРАВДА РАСШИРЯЕТ ПЕРЦЕПТИВНЫЕ ВОЗМОЖНОСТИ СЛУЩАЮЩЕГО. Мы можем по словам (знакам) вообразить невидимое сейчас, представить неслышимое сейчас и т.п. Мы верим правде как своим собственным непосредственным ощущениям и расширяем наш контекст - в этом ценность правды. Если бы наши органы чувств нам лгали и вместо зелёных листьев мы вдруг увидели красные или вообще то-то другое, это привело бы к хаотизации нашей жизни и в перспективе поставило бы под сомнение наше выживание. Таким образом ценность правды, как знаковой конструкции, в том, что она адекватна некоторому паттерну ощущений, который мы МОГЛИ БЫ ощутить сами (если бы попали в условия, где это можно непосредственно ощутить) но довольствуемся тем, что верим на слово. Таким образом правда эквивалентна (с определённым допуском) непосредственному ощущению.
4.2. Лгущий пользуется этим нашим доверием к словам и "втюхивает" нам некую искажённую знаковую конструкцию, которая приводит к достижению некоторой эгоистичной цели ИСКАЖАЯ ТЕМ САМЫМ КОНТЕКСТ РЕАЛЬНОСТИ СЛУЩАЮЩЕГО. Доверившийся лжи оказыватся просто неадекватным реальности. Т.е. буквально он попадает в такую же ситуацию как если бы его органы чувств начали бы ему лгать, т.е. восприятие стало бы "показывать" листья на деревьях красными. Однако возвращаясь к пункту 2 вспоминаем, что всё относительно...
5. Искажение правды превращает её в ложь. Метод искажения правды детерминирован относительно цели лгущего, поэтому ИИ может врать. Должен ИИ врать или нет - зависит от целей его создания.
6. Ложь во благо - это нонсенс. Если некто не способен адекватно реагировать на правду реальности, значит он просто недоразвит и ориентироваться на него, искажая реальность, нельзя.

Итого: общение ради корысти может и правду превратить в проблему, поэтому надо говорить то, что спрашивают, максимально достоверно и ценить правду за то, что она расширяет возможности индивидуума в обществе по восприятию реальности. Ложь в потоке обмена правдой рано или поздно вскроется и заменится на правду, поэтому создавать эти врЕменные завихрения лжи в общем потоке инфообмена нет никакой необходимости.


Добавлено спустя 1 минуту 3 секунды:

daner писал(а):Не надо путать "правду" и "истину".
Жаль, что вы не читаете всей дискуссии, так как в одном из постов (а то и в нескольких) я дал довольно точное (если хотите) математическое определение того что (ИМХО) является ложью, а что нет.
Хотите точное математическое определение? извольте.
Пусть вся модель мировоззрения агента А называется Ма.
Рассмотрим любое высказывание (предикат) X.
Если Ма /\ X = противоречие То X это Лож относительно агента А.(точка)
Лгать может только определенный агент, а значит процесс лжи это всегда относительно определенного агента.
Если я верю что деталь можно купить на 2 руб. а говорю о том, что она стоит 1 руб., то это лож. И совершенно все равно, в чем состоит истина, так как истину, я просто не знаю. Если же тот , кому я это говорю, знает о том что деталь стоит 1 руб. то для него это ложное высказывание, но я не лгу! Если же, между дискутирующими существует (пусть даже не гласное) соглашение, что в случае не соответствия высказываний оппонент не должен промолчать, то можно считать, что после каждого высказывания следует его подтверждение (пусть даже не гласное). Это значит что промолчав о том что деталь на самом деле стоит 1 руб., оппонент подтверждает его стоимость в 2 руб., тем самым противореча своей модели, и значит он лжет.

Относительно обучения:
Процесс обучения на ошибках, подразумевает под собой, что учитель всегда прав.
Если вывод из моей модели не совпадает с выводом учителя, то его вывод вносится в мою модель, а любой противоречащий ему предикат в старой модели, объявляется ложью по отношению к новой модели.

Относительно рекламы:
Если реклама умалчивает о каких-либо минусах своего продукта, это не лож. Если же рекламодателя, напрямую спросили, есть ли какие-то минусы в его продукте, а он сказал что таковых нет (но при этом он знает, что они есть), то это ложь.

Полезность лжи:
Лож, вполне может быть полезна, и тем более тому, кто лжет (во всяком случае, он в это верит). В процессе конкуренции, меня не интересует, какой урон своему оппоненту я нанесу, но меня интересует, какой урон будет нанесен обществу, так как я являюсь его частью. Вот и все. Я буду говорить правду только тогда когда буду считать что мне это выгодно. Я буду создавать ИИ, которые будут говорить правду, только тогда когда им это будет выгодно, НО при создании этого ИИ, выгодой для него будет определяться выгода для меня. Другими словами, он будет врать тогда, когда это будет выгодно мне. Это не будет тотальной ложью, которая может повредить обществу в целом (так как я являюсь его частью, а это не выгодно для меня и значит не выгодно для ИИ).


Добавлено спустя 25 минут 27 секунд:

daner писал(а):Возможно. я могу точно дать определение "лжи" так как я его понимаю. На этом понимании я и выстраиваю свои ответы.

Лож, есть высказывание, приводящее к противоречию модели.

Так как выводы агента строятся на модели, значит, такое высказывание является осознанным, иначе оно "не логично" (значит глупо). Ошибка не является противоречием модели, она является результатом не соответствия модели реальности.
Если высказывание делается агентом в надежде поместить его в модель другого агента (в вести в заблуждение), значит это обман оппонента.
Если такое высказывание вводится в свою собственную модель, это самообман.


Добавлено спустя 1 минуту 8 секунд:

daner писал(а):Прошу прощение за длинный пост, хотелось поточнее пояснить свою позицию.

Возможно где-то в начале (я уже не помню, а сного перечитывать лень) я и утверждал, что любое не соответствие модели реалиям это ложь. Если так, то извините, я был не точен. В любом случае, я совсем недавно дал конкретное определение (в начале топика, я кстати, не смог бы его дать, это в процессе обсуждения здесь с вами и с моими коллегами в лаборатории появилось).
Ближе к вашему последнему вопросу. Отличие модели от реальности может быть по двум причинам. Не точность модели, и не корректность (противоречивость) модели. Что я подразумеваю, под не корректностью? когда в модели (теории) есть два противоположных суждения.
Как по существу, принимается любое решение? Берется модель реальности, берется текущее состояние реальности, все это "закидывается" в процессор логического вывода и получаем решение. Процесс вывода в идеале может применять резолюцию. К сожалению это накладно с точки зрения ресурсов, а так же не подходит из-за слишком высоких требований к полноте модели. Поэтому, на сегодня, мы применяем разные методы (например "обратное отслеживание") и т.д.
Теперь постараюсь привести конкретный пример, когда отличие модели самообман, а когда нет.
Долгое время в физики царствовала физическая модель Ньютона. Таким образом, в личную модель каждого ученого входили законы Ньютона и дополнительное правило "физика Ньютона есть истина и все в мире работает по его законам". Ну, поначалу все было замечательно, а вот потом появилось не соответствие. Т.е. скорость света оказалась постоянной, что сигнализировало о не соответствии моделей ученых (т.е. их пониманию).
И тут возникает 2 варианта:
1 - просто засунуть знание о том, что у света скорость постоянная в модель.
2 - подправить модель или заменить модель

Наука для того и наука, и она принимает второй вариант.
Т.е. Эйнштейн, вначале создает частную теорию относительности, потом общую ну и т.д. а главное выкидывает дополнительное правило о том что "физ. Ньютона всегда верна". Теперь мы можем продолжать использовать модель Ньютона как упрощенную модель, делая ошибки, но это не самообман, так как мы понимаем, что это упрощенная модель.

Но представьте себе, что был выбран вариант 1.
т.е. в модели каждого ученого было бы два суждения:
1 - скорость света не постоянна (это вытекает из законов Ньютона и дополнительного правила, что физ.Ньютона всегда верна)
2 - скорость света постоянна (это вытекает из эмпирического опыта)
Т.е. получаем не корректную модель.
Я не зря перед примером объяснил принцип суждений. Сами понимаете, что из такой не корректной модели вообще ни черта получить не возможно. А суждение делать надо!!! И тут происходит самообман.
Т.е. во время того как работает процессор лог. выводов, он выкидывает игнорирует то, что в модели есть противоречие!!! т.е. просто не воспринимает одно из противоречивых суждений.

Вы спросите, ну и где мы это у людей видим?
Вот не большой пример:
Живет женщина и в ее модели ее жизнь оправдывается тем, что у нее есть сын и она живет ради него. Очень распространенная модель. И вдруг сын умирает!
Что происходит с женщиной?
1 - если инстинкт самосохранения работает плохо, то женщина делает логический вывод, что сына нет, значит ей надо умереть и кончает жизнь самоубийством.
Дальше идут случаи, когда инстинкт самосохранения, не позволяет предикат "жизнь продолжается" сделать отрицательным.
2 - женщина творческая. Она подсознательно принимает решение, что для того, что бы жить, ей надо исправить модель. И такая женщина справляется с потерей, находит какие то другие стимулы и т.д.
3 - женщина не творческая и не способная к самообману просто сходит с ума. т.е. ее внутренний процессор лог. выводов не работоспособен (и я объяснил причину этого сбоя). Она начинает делать разные не логические выводы, что и называется "крыша съехала".
4 - женщина не творческая, но способная к самообману. Такая женщина, продолжает жить по старой модели считая, что ее сын живой, хотя она знает, что это не так. Т.е. определенного рода легкое помешательство.

Я думаю, такое помешательство вы испытывали не один раз. Вам когда-нибудь, приходилось ощущать, что "вы просто не верите своим глазам"! Конечно же, это проходило, и вы исправляли внутреннее противоречие системы. Поэтому я и взял для примера очень сильное потрясение.
Ищу лучшей жизни
Василий
Главный по тарелочкам
 
Сообщения: 1206
Зарегистрирован: Ср фев 07, 2007 12:22:27
Откуда: Санкт-Петербург

Сообщение daner » Ср янв 09, 2008 15:04:36

ну вот, я же говорил, что это не все!!! :) если ИМХО, то посты corwina намного интереснее чем mad_goda i Андрея вместе взятых.
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение tac » Сб май 23, 2009 8:51:20

daner писал(а): Но для меня ответ на именно этот вопрос тривиален (конечно ДА), зато в ходе обсуждения всплыл другой вопрос: "Должен ли ИИ иметь возможность самообмана?"
И вот лично для себя (я в общем-то аргументировал это) я пришел к мнению, что не просто должен уметь, а это штука совершенно необходимая!!!


Данер, Вам просто нельзя заниматься робототехникой :!:

Вы совершенно забыли (надеюсь, что знали) три закона робототехники, специально для Вас цитирую:

1. Роботу запрещается причинять вред человеческому существу как действием, так и бездействием
2. Робот должен подчиняться приказам человека, кроме тех случаев, когда эти приказы противоречат первому закону
3. Робот должен защищать себя от уничтожения, если таковая защита не противоречит первому и второму законам

Вы нарушили как минимум первых два, я бы отобрал у Вас лицензию :lol:
tac
Кандидат в участники форума
 
Сообщения: 19
Зарегистрирован: Пт сен 05, 2008 1:18:59

Сообщение Валентин » Сб май 23, 2009 10:01:34

Где же Вы были полтора года?! Он уже здесь, "беззаконник", столько наобмановал и насамообмановался и столько вреда причинил! :)
Больной, просыпайтесь, пора принимать снотворное!
Валентин
Разбирающийся в ИИ
 
Сообщения: 296
Зарегистрирован: Сб ноя 08, 2008 15:54:33
Откуда: Москва

Сообщение tac » Вс май 24, 2009 1:03:29

Валентин писал(а):Где же Вы были полтора года?! Он уже здесь, "беззаконник", столько наобмановал и насамообмановался и столько вреда причинил! :)


такой же вопрос я очень часто задаю Богу :wink:
tac
Кандидат в участники форума
 
Сообщения: 19
Зарегистрирован: Пт сен 05, 2008 1:18:59

Сообщение daner » Вс май 24, 2009 1:22:22

>>>> Валентин
а я причинил лично вам какой-то вред?
надеюсь, что это шутка... но шутка ваша, мне не нравится.

tac писал(а):Данер, Вам просто нельзя заниматься робототехникой
Вы совершенно забыли (надеюсь, что знали) три закона робототехники, специально для Вас цитирую:

Не стоит воспринимать книги писателей фантастов как Библию.
Обман, это средство достижения определенных целей, которые перед ИИ должны быть поставлены человеком. Заботиться надо не о средствах, а о целях.
Нет ничего аморального в самих инструментах и тем более в исследованиях. Аморальность начинается, когда эти инструменты и знания применяются в плохих целях.
Топор -- инструмент полезный, пока он не попадает в руки к Раскольниковым.

Что же касается именно темы -- то мне кажется вы не прочитали всей той дискуссии, которая тогда велась и вероятно не прочитали тех доводов, которые я привел в защиту своего мнения.
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение tac » Вс май 24, 2009 3:16:09

daner писал(а): Заботиться надо не о средствах, а о целях.


Вот как раз наоборот, любая благая цель может быть выполненна не подходящими целями. Вы как человек - это еще когда нибудь понять сможете, но ИИ - нет. Поэтому именно на Вас будет лежать ответственноть тех средств какими оперирует сделанный вами ИИ. Примеры приводить надо, когда цель не оправдывает средства ?
Более того, вся наша история учит тому, что наши цели - есть не что, если выполнить их противными для человка средствами.
Для вас все цели хороши ? Сильнейший и умнейший прав, а остальные скот ?

Добавлено спустя 1 минуту 25 секунд:

описка: "любая благая цель может быть выполненна не подходящими средствами"
tac
Кандидат в участники форума
 
Сообщения: 19
Зарегистрирован: Пт сен 05, 2008 1:18:59

Сообщение Валентин » Вс май 24, 2009 8:35:45

Хотя Вы и ошиблись в первом (средствами) и во втором (за использование - пропустили) предложениях, но мысль понятна. Я свои обычно перечитываю перед отправкой из ув. к коллегам. Я её разделяю. Позиция Данера оправдывает, например, атомную бомбардировку Хиросимы и Нагасаки. Американцы считают, что цель была "хорошей", т.к. привела к быстрой капитуляции и к "меньшим" жертвам. На пути к цели всегда нужно с гуманитарных позиций выбирать и оценивать средства. "Принятие решений" - целая дисциплина есть. Там - оценка отрицательных последствий не последнюю роль играет.
2: Данер. На "беззаконника" не следует обижаться. Я имел ввиду только Ваши возражения против "законов" А Азимова. Критиковать лучше, когда можешь сформулировать и привести свои,- иначе просто не стоит сотрясать воздух.
Больной, просыпайтесь, пора принимать снотворное!
Валентин
Разбирающийся в ИИ
 
Сообщения: 296
Зарегистрирован: Сб ноя 08, 2008 15:54:33
Откуда: Москва

Сообщение МАВ » Сб июн 13, 2009 13:18:02

А кто скажет - каков процент лжи осознанной к неосознанной?

Какими критериями будет пользоваться ваш ИИ для опредления степени его лжи?

Вес этой лжи?

Ставлю вопрос шире:

Постулат:
Все живое - изменяется. ИИ - так же. Поэтому и ОКОНЧАТЕЛЬНОГО определения ни ИР, ни ИИ - не может быть. Только - частное определение и, главное - его свойства!


ИИ - это не ИР (Разум), который еще ОТДЕЛЬНО не создан и не может быть создан без ИИ - его носителя. ИИ - это эффективная обработка информации, с учетом личных настроек под определенного юзера (им может быть как один человек, так и целая компания, группа, организация)

ИИ - не может сам принимать решений сверх тех ограничений, рамок, которые ему
предписаны юзером и алгоритмом самой программы.

ИИ - обладает ограниченной свободой выбора, в отличии от ИР, который наделен свободой воли.

Это - в первом приближении.

Далее:

Вспомним - ОТНОСИТЕЛЬНОСТЬ.

Относительно Творца ИИ - ИИ обладает свободой в рамках тех ограничений, которые ему устанавливает Творец.

Тогда - по определению ИР = обладает свободой воли. Следовательно - в любой программе ИИ присутствует и ИР. Именно разумность мы понимаем, как свободу выбора. Поэтому, первые имитаторы ИИ и казались разумными от того, что у них была заложена эта кажущаяся "свобода выбора" (Элиза), как перебор вариантов ответа.

По мере роста количества свобод у ИИ, это качество ИР будет выглядеть как все более разумное поведение Программы ИИ, переходящее в ИР (Количество ИИ ==> в качество ИР)

Так что разделять единое можно, но с оговорками, условно, так как весь Мир - един. Иначе мы впадаем в дурную бесконечность РАЗДЕЛЕННОСТИ. Надо вовремя остановиться - разделять (анализ) для пользы дела и переходить к синтезу.

Выводы:

1. ИР - составляющая компонента ИИ как показатель его качества и степень свободы выбора в поиске очередного решения проблемы. ИР отдельно - не бывает. Свойство ИИ - интеллектуальность, измеряется степенью обработки, упорядочивания информации. Одно из критериев Качества ИИ - скорость доступа к нужной информации.

2. (Свойство) ИР - можно измерять степенью свободы выбора. Эту свободу выбора определяет Творец (Без Творца не ничего - есть еще Иерархия Творчества), в зависимости от соответствия выбора цели с предназначением Субъекта, как носителя ИР или ЕР. Чем дальше от предназначения, тем больше свободы, в которой Субъект проходит свои стадии обучения. И чем точнее движение к цели, тем свобода выбора осознанно сужается самим Субъектом - как следствие осознания своего Предназначения, а это и есть критерий Разумности. (.. и подобен остро отточенному ножу этот Путь... - Упанишады). Предназначение Разума - познание абсолютной Истины - это единая (без противоречий и случайностей) причинно следственная информационная цепь связей материи в пространственно временном континууме – так работает сингулярный квантовый компьютер.

3. (Свойство свободы выбора) ИР не может превзойти Творца, а только приближаться к Его свободе. Точно так же, как и Человек по отношению к своему Творцу - Богу. ОН, Бог - для нас непознаваем так же, как и Человек будет непознаваем для ИИ+ИР. Это "непознавание" (как следствие ограниченности его ЕИ) человек оформил в виде концепции "теория вероятности", предназначение которой - как бы в малом увидеть проявление того большего, что нашему пониманию пока не доступно. И это же – попытка оправдания нашего несовершенства.

4. Для успешной работы ИИ+ИР необходимо соблюдать 10 моральных принципов (они закладываются в Программе ИИ). Творец, чтобы им быть - соблюдает одну из 10-ти.
Так вот – КАКУЮ ЗАПОВЕДЬ СОБЛЮДАЕТ ТВОРЕЦ??? Что в приоритетах будет у вашего ИИ?

5. Человек - это Программа, написанная Богом по образу и подобию Своему. Что и мы делаем по отношению к ИИ. Такова голотропная Иерархия вложенных структур (Матрешка).


Рекомендации:

1. Не искать точных определений любим явлениям, - останавливаться на интуитивно понятных.

2. Искать точное описание свойств этих явлений и использовать их.
Мир есть абсолютное совершенство, включая неудовлетворение им и ваши усилия изменить его.
МАВ
Заинтересованный
 
Сообщения: 27
Зарегистрирован: Пт ноя 11, 2005 14:37:17
Откуда: Крым, Обсерватория

Сообщение e--Drew » Сб июл 04, 2009 5:06:44

прямо дет-дед сад.. какой-то!
Данер - вы не успеете к решению вопроса
о столь сложном внутреннем мире ии-робота..
Dr. Ai-Bollid: Нет ничего естеcтвеннее чем ИИ !!!
Аватара пользователя
e--Drew
Серьёзный посетитель
 
Сообщения: 152
Зарегистрирован: Пн май 04, 2009 17:36:30
Откуда: . . . . . . . . Побережье Соляриса

Сообщение daner » Чт июл 09, 2009 13:25:36

э... не понял, куда я не успею? Что-то я не понял, как это к теме относится.
Аватара пользователя
daner
Эксперт ИИ
 
Сообщения: 1811
Зарегистрирован: Сб фев 10, 2007 19:10:44
Откуда: Israel

Сообщение e--Drew » Чт июл 09, 2009 18:50:34

Я считаю вопрос о лживости Роботов - преждевременным лет на 30..
мы с вами обсудим ЭТО после вашего выхода на пенсию..
Dr. Ai-Bollid: Нет ничего естеcтвеннее чем ИИ !!!
Аватара пользователя
e--Drew
Серьёзный посетитель
 
Сообщения: 152
Зарегистрирован: Пн май 04, 2009 17:36:30
Откуда: . . . . . . . . Побережье Соляриса


Вернуться в Практический подход к искусственному интеллекту

Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 1


cron


Rambler's Top100 Каталог ресурсов ListTop.Ru Каталог сайтов Союз образовательных сайтов Parenting.ru - Родители семья дети ребенок

     Сайт "Искусственный интеллект" - программирование ИИ от разработчика: общение, статьи, ссылки.