https://www.dushevoi.ru/products/kuhonnye-mojki/Granfest/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  A-Z

 


– Ребус какой-то.
– Тем не менее…
– Все равно ребус. Вы не можете объяснить по-другому?
– Это означает некоторое ослабление Первого Закона.
– Почему? Ведь ребенка наказывают для его же пользы – такова идея, верно?
– Для его же пользы! – Глаза Либича вспыхнули, и он, почти позабыв о своем собеседнике, заговорил более свободно. – По-вашему, все так просто? Много ли людей способно претерпеть мелкие неудобства во имя будущих благ? Попробуйте внушить ребенку, что от сладкого у него может заболеть живот, а от горького живот вскоре пройдет! И вы хотите, чтобы это понял робот? Боль, которую робот причиняет ребенку, посылает мощный разрушительный импульс в позитронный мозг. Чтобы уравновесить этот импульс другим, выражающим будущую пользу, нужно столько основных и дополнительных схем, что мозг увеличивается на пятьдесят процентов – если не пожертвовать прочими схемами.
– Значит, вам не удалось создать такого робота?
– Нет, не удалось и не удастся. Да и никому не удастся.
– В день своей смерти Дельмар испытывал именно такую модель?
– Нет, не такую. Нас интересовали и более практические проблемы.
– Доктор Либич, – спокойно сказал Бейли, – мне предстоит еще многое усвоить в области роботехники, и я хочу попросить вас стать моим учителем.
Либич затряс головой, и его приспущенное веко сползло еще ниже, будто он подмигнул, – впечатление получилось жутковатое.
– Излишне объяснять, что курс роботехники нельзя прочесть в считанные минуты. У меня нет времени.
– И все-таки вам придется позаниматься со мной. Тут у вас на Солярии все пропахло роботами. Если вопрос только во времени, я тем более должен к вам приехать. Я землянин и не могу удовлетворительно работать или думать с помощью видео.
Казалось бы, Либичу больше некуда выпрямляться, но он выпрямился.
– Ваши земные фобии меня не волнуют. Визит невозможен.
– Думаю, вы перемените свое мнение, когда я скажу то главное, о чем хотел проконсультироваться с вами.
– Что бы вы ни сказали, это ничего не изменит.
– Да? Тогда слушайте. Я убежден, что на протяжении всей истории существования позитронного робота Первый Закон Роботехники намеренно читался неверно.
– Как неверно? – дернулся Либич. – Глупец! Сумасшедший! Почему?
– Чтобы скрыть тот факт, – невозмутимо сказал Бейли, – что робот способен совершить убийство.
Глава четырнадцатая
Мотив выявляется
Либич медленно разинул рот. Бейли подумал, что он сейчас зарычит, но потом с большим удивлением убедился, что это самая неудачная попытка улыбнуться, которую ему доводилось видеть,
– Не говорите так, – сказал Либич. – Нигде и никогда.
– Почему?
– Потому что опасно поощрять недоверие к роботам даже в самой малой степени. Недоверие к роботам – болезнь человечества!
Он говорил так, будто внушал что-то малому ребенку. Говорил мягко, хотя ему, должно быть, хотелось орать в голос. Говорил, стараясь убедить, хотя с большей охотой, очевидно, прочитал бы Бейли смертный приговор.
– Вы знаете историю роботехники? – спросил он.
– Немного,
– Должны знать, раз вы землянин. Так вот. Вы знаете, что роботов с самого начала встретил комплекс Франкенштейна? Их подозревали. Люди не доверяли им, боялись их. В результате роботехника стала чуть ли не подпольной наукой. Три Закона были приняты ради того, чтобы преодолеть эту враждебность, но даже и тогда Земля не допустила роботов в человеческое общество. Одной из причин, по которой первые поселенцы покинули Землю и отправились колонизировать космос, было создание социальных структур, где роботы могли бы избавить человека от бедности и тяжкого труда. И даже там подозрение продолжало тлеть, готовое в любой момент вырваться наружу.
– А вам приходилось сталкиваться с недоверием к роботам?
– Много раз, – мрачно ответил Либич.
– И потому вы и прочие роботехники сговорились чуть-чуть исказить факты, лишь бы усыпить общее подозрение?
– Никто ничего не искажал!
– И все Три Закона сформулированы правильно?
– Да!
– А я могу вам доказать, что неправильно, и, если вы не убедите меня в обратном, я по возможности повторю это перед всей Галактикой.
– Вы не в своем уме. Какое бы доказательство вы там ни выдумали, оно ложное, уверяю вас.
– Обсудим?
– Если это не займет много времени.
– Встретимся? Лицом к лицу? Худое лицо Либича передернулось.
– Нет!!
– До свидания, доктор Либич, Найдутся люди, которые меня выслушают.
– Подождите. Великая Галактика, да подождите же!
– Встретимся?
Роботехник медленно поднес руку к губам, помедлил, сунул в рот большой палец и уставился на Бейли пустым взором.
Что он, возвращается в младенчество, в возраст до пяти лет, когда ничто не запрещало ему встретиться со мной? – недоумевал Бейли.
– Встретимся? – повторил инспектор.
Либич медленно покачал головой.
– Не могу. Не могу, – простонал он едва разборчиво – мешал палец во рту. – Делайте что хотите.
На глазах у Бейли он отвернулся к стене, прямая спина согнулась, и дрожащие руки закрыли лицо.
– Что ж, хорошо, я согласен продолжать разговор по видео, – сказал Бейли.
– Извините меня. Сейчас вернусь, – не поворачиваясь, произнес Либич.
Бейли, освежившись в перерыве, смотрел на свое свежеумытое лицо в зеркале ванной. Кажется, он начинает чувствовать Солярию и соляриан? Пока трудно сказать. Он вздохнул, нажал кнопку – появился робот. Бейли, не оборачиваясь, спросил:
– Есть на ферме другой видеофон, кроме того, которым я пользуюсь?
– Еще три пульта, господин.
– Тогда скажи Клориссе Канторо – скажи своей госпоже, что я пока буду занимать этот и прошу меня не беспокоить.
– Да, господин.
Бейли вернулся туда, где в кадре так и оставался пустой угол комнаты Либича. Роботехник еще не вернулся, и Бейли настроился ждать, но ждал недолго. Вошел Либич, и его комната снова поехала вслед за ним. Очевидно, фокус тут же переместился с комнаты на человека. Бейли вспомнил, как сложно устроен видеофон, и не мог не подивиться совершенству аппарата.
Либич, кажется, вполне овладел собой. Он зачесал волосы назад и переоделся. Теперь на нем был свободный костюм из блестящего, отражающего свет материала. Он опустился на легкий стульчик, откинув его от стены, и спросил ровным голосом:
– Итак, что вы собирались мне сказать относительно Первого Закона?
– Нас никто не подслушает?
– Нет, я принял меры.
Бейли кивнул.
– С вашего разрешения я процитирую Первый Закон.
– Едва ли в этом есть необходимость.
– Все же позвольте: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».
– И что же?
– Когда я высадился на Солярии, меня доставили в предназначенное мне имение на машине. Эта машина была закрыта со всех сторон, чтобы защитить меня от воздушного пространства. Как землянин, я…
– Знаю, знаю, – нетерпеливо прервал Либич. – Какое это имеет отношение к делу?
– Роботы, которые вели машину, не знали того, что известно вам. Я попросил открыть верх, и они тотчас повиновались. Второй Закон. Они обязаны подчиняться приказам. Мне, конечно, стало нехорошо, и я чуть не потерял сознания, пока машину опять не закрыли. Разве эти роботы не причинили мне вреда?
– По вашему же приказу, – отрезал Либич.
– Цитирую Второй Закон: «Робот должен повиноваться командам человека, кроме тех, которые противоречат Первому Закону».
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49
 https://sdvk.ru/Sanfayans/Rakovini/tulpan/ 

 керамическая плитка для лестниц