eugenegp: (Default)
[personal profile] eugenegp
Объяснение, почему человеческий мозг - не компьютер, и почему компьютер не может создать его копию.
С деталями, которые приятно опровергнуть, и выводом, с которым сложно спорить по существу.

Бихевиоризм неожиданно жив, и собирается сражаться с когнитивной психологией.

Robert Epstein: https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer

UPDATE - некоторое обсуждение здесь https://www.facebook.com/eugene.peskin/posts/1291563190902596

Date: 2017-01-15 04:39 pm (UTC)
From: [identity profile] dragon-ru.livejournal.com
Ну что я могу сказать? Только то, что автор убедительно демонстрирует умение использовать прием "strawnan" и непонимание работы нейросетей.

Если чуть более детально - когда говорится об аплоадинге, обычно имеется в виду моделирование функции каждого нейрона. Что обмен информацией внутри мозга идет не так, как в "классическом" компьютере, с этим никто и не спорит. Это раз. Аргументы типа вот этого "neither ‘memory banks’ nor ‘representations’ of stimuli exist in the brain" - как раз говорят о том, что автор или совершенно не в курсе, как работают нейросети, или предпочитает их не рассматривать вообще, чтобы они не разрушили его аргументацию. Это два. И напоследок, уже не совсем по теме статьи - прогресс в развитии нейросетей как раз очень быстро пошел вперед после того, как в обиход вошла идея не анализировать сразу большой и сложный обьект, а разбивать его на относительно простые и легкораспознаваемые примитивы, а анализировать в несколько этапов, работая с все более и более сложными обьектами - что практически идентично той пре-обработке, которой, к примеру, подвергается изображение в глазу.

Date: 2017-01-15 06:20 pm (UTC)
From: [identity profile] eugenegp.livejournal.com
Да больше того, можно представить, что увенчались успехом работы по голографическому хранению памяти. И что архитектура фон Неймана больше не единственная.
Я же говорю, детали приятно опровергнуть.
Гидравлика шагнула далеко вперед.

Date: 2017-01-15 09:20 pm (UTC)
From: [identity profile] dragon-ru.livejournal.com
Да не детали это, а базис аргументации со стороны этого деятеля. Сначала предложить нелепое инженерное решение, а потом начинать его критиковать. Или он добросовестно считает, что проблему будут решать именно так - и тогда это некомпетентность, или понимает, что на самом деле проблема будет решаться совсем по иному - и тогда это недобросовестность.

Date: 2017-01-15 09:27 pm (UTC)
From: [identity profile] eugenegp.livejournal.com
Вот есть мысль "личность человека не представляет собой устройство по обработке информации".
Возможно, она заслуживает обдумывания без анализа фантастических перспектив нейросетей?

Date: 2017-01-15 09:41 pm (UTC)
From: [identity profile] dragon-ru.livejournal.com
При этом он для обоснования этой мысли рассматривает произвольно выбранный крайне специфический подкласс таких устройств, к которому личность человека очевидным образом не принадлежит. По мне, так такое "обоснование" гроша ломаного не стоит.

Вот простой мысленный эксперимент. Допустим, научились точно моделировать работу нейронов. После этого считали коннектом данного конкретного человека и смоделировали работу и взаимодействие всех его нейронов. Будет ли данная (заведомо вычислимая) модель содержать в себе личность человека?

Date: 2017-01-16 10:13 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Ответ: не будет. Необходимо будет также "смоделировать" все остальные клетки человека, и, скорее всего, микробиом.

[Что вы называете работой нейронов? "Моделировать" надо будет их целиком, условно говоря, покварково.]

Кроме того, надо будет решить проблему с конечностью времени считывания.

Date: 2017-01-16 10:47 am (UTC)
From: [identity profile] freedom_of_sea.livejournal.com
ну, а если все ваши условия выполнить, это будет личностью?

Или вы выдвинете новые? :-)

Date: 2017-01-16 10:53 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Если удатся сделать полную материальную копию (дубль) - конечно, это будет личность.
Будем как боги.

Date: 2017-01-16 11:20 am (UTC)
From: [identity profile] freedom_of_sea.livejournal.com
а виртуальную? Покварково?

Date: 2017-01-16 11:23 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Будем еще круче, решим проблемы вычислимости.
(если только не выяснится, что на кварках история не кончается. а я бы проголосовал, что не кончается).

Date: 2017-01-16 10:56 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Даже совестно из-за затасканности цитировать, но не удержуcь:

"Обьясните мне, пожалуйста, зачем нужно искусственно фабриковать Спиноз, когда любая баба может его родить когда угодно"

Date: 2017-01-16 11:20 am (UTC)
From: [identity profile] freedom_of_sea.livejournal.com
бабы рожают спиноз с исчезающе малой вероятностью.

Date: 2017-01-16 11:21 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Посчитайте, вы будете удивлены, насколько вероятность далека от исчезающе малой.

Date: 2017-01-17 03:00 am (UTC)
From: [identity profile] dragon-ru.livejournal.com
Микробиом (да, в принципе, и все остальные клетки) моделировать точно не надо - максимум, учесть, какие вещества из выделяемых ими проходят ГЭБ.

Покварково моделировать тоже не надо - иначе бы во время компьютерной томографии мозг человека прекращал бы работать. Более того, для удовлетворительного приближения не обязательно даже точно считывать текущее состояние - эпилептический приступ не делает человека другой личностью, а во время него с текущим состоянием вообще полный бардак.

Но все это детали, не имеющие отношения к основному вопросу. Вариант 1 - считывание и моделирование можно провести с достаточной точностью, и тогда все аргументы автора по поводу принципиальной невозможности моделировать личность на компьютере можно сразу отправлять в dev/null. Вариант 2 - такое считывание и моделирование невозможно в принципе, и тогда надо поинтересоваться, когда автор собирается получать нобелевки сразу и по физике - за открытие нового взаимодействия, и по биологии. Вариант 3 - автор просто, важно надувая щеки и щеголяя умными словами, рассказывает нам о том, что сейчас нету ни копирования личности, ни сильного AI. Какой из этих вариантов вы выберете?

Date: 2017-01-17 09:43 am (UTC)
From: [identity profile] eugenegp.livejournal.com
По мнению автора, вы находитесь в плену метафоры, уподобляющей личность человека устройству по обработке и хранению информации. В рамках этой метафоры личность не удастся копировать, также как не удалось это сделать в рамках метафоры "личность-гидравлическое устройство" и "личность-электрическая цепь".

Я склонен с ним согласиться.

(Конечно, учет веществ, проходящих через ГЭБ, никак не смоделирует вклад микробиома и остальных клеток тела в личность).

Date: 2017-02-10 03:13 pm (UTC)
From: [identity profile] Андрей Гаврилов (from livejournal.com)
все обоснования автора относятся к машине фон-Неймана (что не мешает ему считать, что он проблематизировал подход "information processing" целиком, в этом его ошибка), и ни одним краем не торчат за пределы такой проблематизации именно вульгарного, "одноходового/однослойного" сравнения с машиной фон-Неймана.

Далее, на все той же ошибке, он критикует EU Human Brain Project, который вообще про нейросети (а до того - про нейрофизиологию).

С Эпштейном понятно - дяденька психолог, ничего слаще брюквы "information processing - это компьютер, компьютер - это фон-Нейман, фон-Нейман- это все хранится в чиселках и символах, а символ, который запоминает человек, хранится не так, Васька кривой - отдай корову!" не едавший, с ним все ясно.

Но вы-то, судя по текстам (которые я осилил за прошлые пол часа) - вроде примат (где "мат." - математика), к тому же слова вроде "нейросети" знаете.

И при том - производите впечатление, что дудите в ту же дуду.

Как это объяснить, - я затрудняюсь, хороших вариантов объяснения этого мне в голову не приходит.
Edited Date: 2017-02-10 03:14 pm (UTC)

Date: 2017-01-15 09:26 pm (UTC)
From: [identity profile] dragon-ru.livejournal.com
Про обсуждение вопроса в фейсбуке - он там поставлен некорректно. Не "даже ваши самые близкие люди не могут отличить его тексты и ответы на любые вопросы - от ваших", а "даже ты сам не можешь отличить этого". А если при любых, сколь угодно дотошных проверках ты не можешь отличить его действия от своих собственных - на уровне "в этой ситуации я бы поступил именно так", то в том, чтобы этот бот представлял мои интересы, с очевидностью нет никаких проблем.

Date: 2017-01-16 10:22 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Вопрос поставлен именно так. Но легко можно показать, что в вашей постановке он сводится к предыдущему - т.к. в отношении значительной части решений бота ваш вердикт будет "я мог бы так поступить". А как вы поступите в реале - неизвестно. И при сравнении пост-фактум ваших решений и решений бота - массив будет отличаться. При этом если вы забудете (со временем или под действием препарата) о реально принятых решениях, и вам предъявят два массива - вы не сможете отличить, какие решения принимали вы, а какие бот.

Ваши интересы может представлять и автоответчик - запишет для вас сообщение, предназначенное вам.

Date: 2017-01-17 03:08 am (UTC)
From: [identity profile] dragon-ru.livejournal.com
Но легко можно показать, что в вашей постановке он сводится к предыдущему - т.к. в отношении значительной части решений бота ваш вердикт будет "я мог бы так поступить".

Как раз нет - потому что человек лучше знает спектр возможных для него вариантов действий, чем окружающие. Так что мой критерий более сильный.

При этом если вы забудете (со временем или под действием препарата) о реально принятых решениях, и вам предъявят два массива - вы не сможете отличить, какие решения принимали вы, а какие бот.

Ну да. Есть, правда тонкий момент типа "ну, один-два раза я так мог бы поступить, но не все же время" - но в остальном критерий сформулирован нормально. Так вот, не кажется ли вам, что такой бот в гораздо большей степени будет вашим alter ego, чем это возможно для любого человека?

Date: 2017-01-17 09:45 am (UTC)
From: [identity profile] eugenegp.livejournal.com
Даже без обсужденного дополнения это в гораздо большей степени мое alter ego, чем это возможно для любого человека (если не вводить некие субъективные критерии). Это не снимает поставленный вопрос о доверии и его пределах.
Я знаю множество ситуаций, когда люди не доверяют даже себе сегодняшнему (или наоборот, завтрашнему) принимать решения.

Date: 2017-02-10 03:25 pm (UTC)
From: [identity profile] Андрей Гаврилов (from livejournal.com)
в этом месте - бог с ним.

Проблемы начинаются, когда автор пытается "усилить утверждение":

"... я прямо упрощаю в вопросе - нет у этого бота никакого самосознания, разума, целеполагания и проч. Он просто отлично имитирует тебя. "


- разом перенося это из из области онтологического моделирования про, возможно, наш мир, в заведомо область онтологического моделирования про Полностью Другою Вселенную, В Которой Такое Возможно.

В нашей Вселенной, это простите, работает иначе. Либо он неотличимо имитирует тебя, либо у него нет самосознания, целополагания, мотивации etc.
Edited Date: 2017-02-10 03:26 pm (UTC)

December 2025

S M T W T F S
 1 2 3 456
7 8 91011 1213
14151617 181920
212223 2425 2627
28293031   

Style Credit

Expand Cut Tags

No cut tags
Page generated Dec. 26th, 2025 05:47 pm
Powered by Dreamwidth Studios