gul_kiev: (buddha eyes)
[personal profile] gul_kiev
Тест Тьюринга глубже и конструктивнее, чем люди обычно себе представляют.
Есть две стратегии поведения: руководствуясь пониманием, идеей, либо же руководствуясь расчётом, прогнозируемой выгодой.
Понимание, осознавание, идея всегда выигрывают у расчёта. Поэтому расчёт зачастую мимикрирует под идею.
Тест Тьюринга - это не только отличить человека от компьютера, это отличить понимание от расчёта. Любовь от имитации любви. Честного политика от лживого. Боль от симуляции боли.
Теоретическая разрешимость или неразрешимость этой задачи имеет много интересных следствий.

Date: 2015-09-12 10:54 am (UTC)
From: [identity profile] sudzume.livejournal.com
В идеале судья должен доказать, почему он считает игрока машиной,
то есть руководствуется расчётом. Если он чувствует, где машина,
но обосновать не может, - уже нечто другое. Тогда используется
статистическая проверка, процент правильных угадываний.

Date: 2015-09-13 05:37 am (UTC)
From: [identity profile] gul-kiev.livejournal.com
Если предположить, что существует формальное доказательство, которое на основании какой-то последовательности ответов позволяет утверждать, что это отвечала машина, то это доказательство под силу и машине. Компьютер с формальными доказательствами обращается хорошо, они для него не являются препятствием. А раз так, то игрок-компьютер может отвечать так, чтобы не давать повода для этого доказательства. Иными словами, существование формального доказательства равносильно тому, чтобы судья-компьютер мог отличить машину от человека, но так не получится, ведь действия судьи-компьютера предсказуемы для игрока-компьютера, и он может избежать разоблачения.

Можно посмотреть с другой стороны. Если предположить, что тест Тьюринга разрешим, это значит, что каким-то образом можно определить наличие понимания и квалиа у человека. И это понимание даст возможность человеку ответить не так, как машине. Но человек ведь может и не понимать. У него есть возможность, но есть и свобода воли. И судья, возможно, в каких-то случаях может утверждать, что один из игроков человек, но не может утверждать, что один из игроков точно машина.

И ещё одно соображение. Допустим, в каких-то случаях судья может утверждать, что игрок - точно человек. Но машина может давать случайные ответы, и тогда с какой-то (пусть небольшой) вероятностью она даст те же ответы, что и человек. И тогда после этих ответов машины судья уверенно скажет, что это человек (и ошибётся). Человек тоже может по какой-то причине давать (псевдо)случайные ответы. Хотя по условию эксперимента человеку не нужно создавать впечатление машины, даже наоборот, но мало ли, что у него на уме. И тогда его можно принять за машину. Как в советском фильме на эту тему - "забрался под стол и говорит: я машина, я машина".

Получается, что формальное доказательство того, что один из игроков машина или человек, невозможно в принципе. Возможно только в некоторых случаях с какой-то степенью уверенности утверждать, что кто-то из них машина или, наоборот, человек.

Date: 2015-09-13 10:02 am (UTC)
From: [identity profile] sudzume.livejournal.com
Примерно так:
Человек находит дырку в логике компьютера,
и пользуясь ей, отличает компьютер от человека.
Компьютер заделывает дырку
(он всегда может это сделать, логика же).
Человек находит следующую дырку.
Фишка в том, что мышление человека развивается,
а компьютер, как предполагается, не способен
к самостоятельному развитию,
что в него заложили, то и носит.

Date: 2015-09-13 12:00 pm (UTC)
From: [identity profile] gul-kiev.livejournal.com
Пожалуй, можно, только не "дырку в логике", а отсутствие понимания.
Например, так.

Для компьютера каким-то образом определены натуральные числа, это некая формальная система аксиом, из которых компьютер выводит разные следствия, о которых его спрашивают. Это могут быть, например, аксиомы Пеано, и когда мы спрашиваем "правда ли, что простых чисел бесконечно много?", компьютер на основании этих аксиом решает задачу и даёт ответ, в данном случае, "да".

Теорема Гёделя о неполноте утверждает, что для любой подобной формальной системы аксиом существуют утверждения, которые нельзя ни доказать, ни опровергнуть. Но для "настоящих" натуральных чисел такое утверждение всё равно либо истинно, либо ложно. Компьютер этого знать не может, и поэтому может ответить неправильно, показав свою машинную сущность. Правда, машина в таком случае может не угадывать, а ответить "не знаю", ведь и человек тоже может не решить задачу. Но тогда, если человек всё же решил и дал правильный ответ, мы будем знать, что это человек.

В этой схеме плохо только, что мы не знаем заранее, какие правила (в частности, для описания натуральных чисел) заложены в компьютер. Ведь вполне может оказаться и наоборот: компьютер исходя из своих правил дал правильный ответ, а человек не справился с задачей и сказал "не знаю".

Date: 2015-09-28 01:38 pm (UTC)
From: [identity profile] is39.livejournal.com
Машина (робот, компьютер, AI) может иметь причины быть (или не быть) обнаруженой, не совпадающие с испытателем. Ну и наборот, испытуемый человек может захотеть замаскироваться под компьютер . Ср. у Лема "Дознание" в рассказах о пилоте Пирксе или True Names Винджа. Но я подозреваю у AI это будет лучше получаться - как маскироваться, так и судить - потому что даже у настоящего AI будут (в первых итерациях) создатели - люди.

May 2017

S M T W T F S
 123456
78910 111213
14151617181920
21222324252627
28293031   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 28th, 2017 04:50 am
Powered by Dreamwidth Studios