https://www.dushevoi.ru/products/dushevye-kabiny/River/desna/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  A-Z

 

Для него они помечены как
Х и Y, и в конце игры он должен сказать либо: "X это A, a Y это В",
либо: "X это В, а Y это А". Спрашивающий может задавать А и В
такие, например вопросы:

С: Не скажет ли мне Х длину своих волос?
Теперь предположим, что Х - это на самом деле А; тогда А
должен ответить. Целью игры для А является... заставить С сде-
лать ошибочную идентификацию. Его ответ мог бы быть таким:

Замечательное описание жизни Тюринга вместе с обсуждением вопросов ИИ
можно найти в: Hofstadter. Metamagical Themas (1985).

Мышление и интеллект - естественный и искусственный
498

"Мои волосы коротко острижены, самые длинные пряди длиной
примерно 9 дюймов".

Чтобы тембр голоса не указывал спрашивающему на пол, отве-
ты пишутся или еще лучше печатаются. Самый лучший вариант -
это принтер, подключенный в соседней комнате. Другим вариантом
может быть повторение ответов посредником. Цель третьего игро-
ка (В) - помочь спрашивающему. Возможно, наилучшая стратегия
для нее - это давать правдивые ответы. Она может прибавлять к
своим ответам что-то вроде "Это я - женщина, не слушай его!",
но это ничего не даст, поскольку аналогичные замечания может
давать и мужчина.

Теперь спросим: "Что произойдет, если роль А в этой игре бу-
дет исполнять машина?" Будет ли спрашивающий при таком вари-
анте игры ошибаться так же часто, как и тогда, когда играют муж-
чина и женщина? Эти вопросы заменяют первоначальный, "Может
ли машина мыслить?" (Turing, 1950; р.434).

Очевидно, ценность некоторых вопросов, задаваемых для Х и Y, зависит
от того, какая сейчас мода, - т.е. если длину волос и прическу взять за
основу различения, то, например, в 70-х годах это привело бы к очень
многим ошибкам. Тем не менее, для специалистов по языку и ИИ в задаче
Тюринга есть очень важный момент- для того, чтобы компьютер пере-
хитрил нас и заставил думать, что он - это человек, он должен понимать
и генерировать ответную реакцию, которая эффективно имитировала бы
важную когнитивную функцию.

Можно предложить и другой тип вопроса о неразличимости функций.
Предположим, что в больнице работают два хирурга. Один - выпускник
знаменитой медицинской школы и считается одним из лучших хирургов в
мире. Другой окончил обычную медицинскую школу и считается плохим
хирургом. Однажды потребовалась срочная операция, и первый хирург
нездоров, так что операцию проводит второй врач, о чем не известно паци-
енту, находящемуся без сознания. Пациенту не говорят, какой врач про-
водил операцию, и он рад, что она была успешной. К тому же, другие
врачи уверены, что операцию проводил первый хирург. На этом ограни-
ченном примере мы можем заключить, что тест на неразличимость был
пройден. Однако, если бы вы были этим пациентом и узнали, что опера-
цию на самом деле проводил робот, какой вывод вы бы сделали о соотно-
шении функциональных свойств робота и хирурга? Согласились бы вы,
что они одинаковы? Почему? А Почему нет? Ответы на эти вопросы труд-
но найти, чего не скажешь о людях, придерживающихся твердых взглядов
на этот счет. Один из них - это Сирл, который вывернул "тест Тюринга"
наизнанку.

Чтобы продемонстрировать, что жесткая позиция в ИИ не выдерживает "Китайская
критики, Сирл предложил следующую головоломку. Предположим, что комната"

кого-то заперли в комнате, где много китайских текстов. Этот кто-то ниче-
го не понимает по-китайски и даже не способен отличить китайские иерог-
лифы от каких-нибудь еще. Снаружи этой комнаты ему передают еще
один набор китайских знаков вместе с набором правил для сопоставления
первого и второго набора символов. Эти правила всего лишь позволяют

Искусственный интеллект
499

этому человеку связывать один набор символов с другим и написаны на
обычном английском. При помощи этих правил сопоставления человек в
китайской комнате может давать осмысленные ответы на вопросы о содер-
жании китайских текстов, несмотря на то, что он в сущности не знает
этого языка. Через какое-то время эта личность приобретает настолько
хорошую сноровку, что может отвечать как на своем родном английском,
так и на китайском языке, которого не знает, но отвечает, основываясь на
правилах. Результаты настолько хороши, что их "совершенно нельзя от-
личить от ответов урожденного китайца" (Searl, 1980, 1981). Личность,
запертая в китайской комнате, - это простая конкретная иллюстрация
компьютерной программы: "данные на входе -данные на выходе". Вплоть
до этого момента почти никто из ИИ-пехоты не взъерошил перья, но затем
Сирл шагает еще на один аргумент вперед. Способность выполнять такие
функции, как перевод по сложным правилам, не означает, что тот, кто это
делает, понимает значение "выходных данных". Человеческий разум обла-
дает произвольностью (см. Searl, 1983), которая, согласно этому автору,
определяется как свойство мысленных состояний и событий, направляю-
щее их на объекты и ситуации в окружающем мире. К таковым относятся
убеждения, страхи, желания и намерения. Независимо от того, насколько
"неотличимо" поддельное мышление от "настоящего" (человеческого), они
не есть одно и то же, поскольку у мыслящего человека есть намерения и
поскольку между этими двумя "мыслящими" есть физические различия:

одного сделали органическим способом, а второго - электронным.

Опроверже- Компьютерные ученые немедленно выдвинули возражения против голово-
нне "китам- ломки Сирла,- прежде всего с позиций семантики: термины "произволь-
ской комна- ность", "понимание", "мышление" употребляются им без четких операци-
_.," ональных референтов; в качестве возражения был приведен такой пример:

если бы человек в этой "китайской комнате" выполнял описанные функ-
ции, то он (или система) действительно достиг бы как минимум некоторо-
го уровня понимания. Кроме того, аргументы Сирла отклонялись на осно-
вании приведения к абсурду: если довести ситуацию до логического кон-
ца, то оказалось бы возможным создать робота, в каждой своей детали
идентичного мыслящему человеку, и все же последний был бы способен к
"пониманию" и "произвольности", а первый нет. Наконец, некоторые спе-
циалисты по ИИ полагают, что "понимание" и "произвольность" вызыва-
ются конкретными материальными свойствами. Пилишин (Pylyshyn, 1980)
сатирически замечает, что возможно произвольность - это такое веще-
ство, которое выделяется человеческим мозгом; он предлагает свою соб-
ственную загадку:

"...если бы все больше и больше клеток вашего мозга, заменялись
интегральными микросхемами, запрограммированными так, чтобы
их характеристики входа-выхода были идентичны заменяемому
элементу, вы по всей вероятности сохранили бы способность
говорить точно так же, как и сейчас, за исключением того, что
постепенно перестали бы что-либо под этим иметь в виду. То,
что мы, сторонние наблюдатели, все еще принимали бы за слова,
для. вас стало бы просто некоторым шумом, который заставляют
вас издавать ваши микросхемы" (с.442).

Мышление и. интеллект - естественный и искусственный
500

Компьютеризованно> лозясжмв

Том Харрингтон, Дениза Квон

Подобно Нарциссу, восхищавшемуся своей
собственной красотой, человек с тоской гля-
дит в нечто вроде интеллектуального увели-
чительного стекла и отходит со словами "Да,
ты действительно самый разумный из них
всех!
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185
 сантехника долгопрудный 

 где купить плитку