Искусственный интеллект и тест тьюринга. Где пройти Тест Тьюринга онлайн

01.10.2019

Эмпирический эксперимент, в ходе которого человек общается с компьютерной интеллектуальной программой, которая моделирует ответы как человек.

Предполагается, что тест Тьюринг пройден, если человек при общении с машиной считает, что общается с человеком, а не машиной.

Британский математик Алан Тьюринг в 1950 г. придумал такой эксперимент по аналогии с имитационной игрой, которая предполагает, что 2 человека уходят в разные комнаты, а 3й человек должен понять кто где, общаясь с ними письменно.

Тьюринг предложил такую игру провести с машиной и, если машина сможет ввести в заблуждение эксперта, это будет означать, что машина может думать. Таким образом, классический тест проходит по следующему сценарию:

Человек-эксперт общается через чат с чат-ботом и другими людьми. По окончании общения эксперт должен понять, кто из собеседников был человеком, а кто — ботом.

В наше время тест Тьюринга получил много разных модификаций, рассмотрим некоторые из них:

Обратный тест Тьюринга

Тест заключается в выполнении каких- либо действий для подтверждения, что ты человек. Н-р, мы можем часто сталкиваться с потребностью ввести цифры и буквы в специальное поле с искаженного изображения с набором цифр и букв. Данные действия защищают сайт от ботов. Прохождение данного теста подтверждало бы способность машины воспринимать сложные искаженные изображения, но пока таких не существует.

Тест бессмертия

Тест заключается в максимальном повторении личностных характеристик человека. Считается, что если характер человека максимально качественно скопирован, и его невозможно отличить от источника, то означает, что пройден тест бессмертия.

Минимальный интеллектуальный Signal-тест

Теста предполагает упрощенную форму ответов на вопросы — только да и нет.

Мета-тест Тьюринга

Тест предполагает, что машина «умеет мыслить», если она может создать что-то, что она сама хочет проверить на разумность.

Первое прохождение классического теста Тьюринга зафиксировано 6 июня 2014 года чат-ботом «Женя Густман», разработанным в Санкт-Петербурге. Бот убедил экспертов, что они общаются с 13-летним подростка из Одессы.

В общем, машины уже способны на многое, сейчас много специалистов работают в данном направлении и нас ждут все более интересные вариации и прохождения данного теста.

"Eugene Goostman" удалось пройти тест Тьюринга и убедить 33% судей в том, что с ними общается не машина. Программа выдавала себя за триннадцатилетнего мальчика по имени Евгений Густман из Одессы и смогла убедить беседовавших с ней людей в том, что выдаваемые ею ответы принадлежат человеку.

Тест проходил в Лондонском королевском обществе, его проведение организовал Университет Рединга, Великобритания. Авторами программы являются российский инженер Владимир Веселов, проживающий в настоящее время в США, и украинец Евгений Демченко, который живёт сейчас в России.

Как программа "Евгений Густман" прошла тест Тьюринга?

В субботу 7 июня 2014 года суперкомпьютер по имени Eugene попытался воссоздать интеллект тринадцатилетнего подростка - Евгения Густмана.

В тестировании, организованном Школой системной инженерии при Университете Рединга (Великобритания), участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов.

Разработчикам программы удалось подготовить бота ко всем возможным вопросам и даже обучить его собирать примеры диалогов через Twitter. Кроме того, инженеры наделили героя ярким характером. Притворяясь 13-летним мальчиком, виртуальный «Евгений Густман» не вызывал сомнений у экспертов. Они поверили в то, что мальчик может не знать ответы на многие вопросы, ведь уровень знаний у среднего ребёнка существенно ниже, чем у взрослых. При этом его правильные и точные ответы списывали на необычную эрудицию и начитанность.

В тесте участвовали 25 «скрытых» людей и 5 чат-ботов. Каждый из 30-ти судей провёл по пять чат-сессий, пытаясь определить реальную природу собеседника. Для сравнения, в традиционном ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера* участвует всего 4 программы и 4 скрытых человека.

Впервые программа с «юным одесситом» появилась ещё в 2001 году. Однако лишь в 2012 году она показала действительно серьёзный результат, убедив 29 % судей.

Данный факт доказывает, что в скором будущем, появятся програмы, которые будут способны без проблем пройти тест Тьюринга .

Компьютерная программа, убедила людей, что она является 13-летним мальчиком и тем самым стала первой программой, прошедшей тест Тьюринга.

Тьюринг создал тест для определения того, может ли машина мыслить.

Оригинальный тест состоит в следующем. Человек в течении 5 минут общается с одним компьютером и одним человеком. Получая ответы на вопросы, человек должен определить, что разговаривает с человеком или компьютерной программой. Задачей компьютерной программы является ввести человека в заблуждение, чтобы тот сделал ошибочный выбор.

Участники теста не видят друг друга. В случае, если судья не может точно сказать, кто из собеседников человек, то считается, что компьютер прошел тест. Беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (второстепенного компьютера). Это необходимо, чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь. Переписка производится через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов (в наши дни компьютеры реагируют быстрее чем человек).

Для прохождения теста необходимо, чтобы компьютерная программа смогла обмануть 30 процентов людей.

Компьютерная программа «Евгений Густман», создана командой разработчиков из России, прошла тест, проведенный в Королевском обществе в Лондоне. Она убедила 33 процента судей, в том, что она является 13-летним мальчиком из Одессы, сообщили ученые из Университета Рединга, которые организовали этот тест.

«Наша главная идея заключалась в том, что он может утверждать, что чего-то не знает, в его возрасте действительно он может не знать каких-то вещей» — сказал Владимир Веселов, один из создателей программы, - «Мы потратили много времени на разработку правдоподобного персонажа.»

Успех программы, скорее всего, создаст некоторые опасения по поводу будущего компьютеров, сказал Кевин Уорвик, профессор Университета Рединга и проректор по исследовательской работе в университете Ковентри.

«В области искусственного интеллекта нет более знаковых и противоречивых этапов, чем тест Тьюринга, когда компьютер убеждает достаточное количество судей, в том, что это не машина, а человек» — сказал он. «Имея компьютер, который может обмануть человека, заставить его подумать, что кто-то или даже что-то является человеком, это является тревожным сигналом, связанным с киберпреступностью. Тест Тьюринга является очень важным инструментом для борьбы с этой угрозой. Важно полностью понять, как общение в Интернете в реальном времени может ввести в заблуждение человека, полагающего истинность что-то в то время, когда на самом деле это не так.»

В тесте, организованном в Королевском обществе в субботу, принимало участие пять программ. Судьями были актер Robert Llewellyn, который играл робота Kryten в «Красном карлике» (научная комедия телеканала BBC), и лорд Шарки, который возглавлял кампанию, целью которой была посмертная реабилитация Алана Тьюринга в прошлом году.

Алан Тьюринг представил свой тест в 1950 в статье, «Вычислительная техника и разум». В ней он заявил, из-за того, что «мышление» трудно определить, важно, сможет ли компьютер имитировать реальное человеческое существо. С тех пор он стал одним из ключевых элементов философии искусственного интеллекта.

Успех пришел на 60-летие со дня смерти Тьюринга, в субботу 07.06.2014 года.

Источник: The Independent

P.S. Самостоятельно проверить насколько умна эта программа можно на сайте лаборатории искусственного интеллекта Принстонского университета. Лично у меня не сложилось впечатления что я разговариваю с человеком, пусть даже и с ребенком. Так что тест Тьюринга, мне кажется, не совсем еще пройден.

Как вы оцениваете эту публикацию?

Эмпирический эксперимент, в ходе которого человек общается с компьютерной интеллектуальной программой, которая моделирует ответы как человек.

Предполагается, что тест Тьюринг пройден, если человек при общении с машиной считает, что общается с человеком, а не машиной.

Британский математик Алан Тьюринг в 1950 г. придумал такой эксперимент по аналогии с имитационной игрой, которая предполагает, что 2 человека уходят в разные комнаты, а 3й человек должен понять кто где, общаясь с ними письменно.

Тьюринг предложил такую игру провести с машиной и, если машина сможет ввести в заблуждение эксперта, это будет означать, что машина может думать. Таким образом, классический тест проходит по следующему сценарию:

Человек-эксперт общается через чат с чат-ботом и другими людьми. По окончании общения эксперт должен понять, кто из собеседников был человеком, а кто — ботом.

В наше время тест Тьюринга получил много разных модификаций, рассмотрим некоторые из них:

Обратный тест Тьюринга

Тест заключается в выполнении каких- либо действий для подтверждения, что ты человек. Н-р, мы можем часто сталкиваться с потребностью ввести цифры и буквы в специальное поле с искаженного изображения с набором цифр и букв. Данные действия защищают сайт от ботов. Прохождение данного теста подтверждало бы способность машины воспринимать сложные искаженные изображения, но пока таких не существует.

Тест бессмертия

Тест заключается в максимальном повторении личностных характеристик человека. Считается, что если характер человека максимально качественно скопирован, и его невозможно отличить от источника, то означает, что пройден тест бессмертия.

Минимальный интеллектуальный Signal-тест

Теста предполагает упрощенную форму ответов на вопросы — только да и нет.

Мета-тест Тьюринга

Тест предполагает, что машина «умеет мыслить», если она может создать что-то, что она сама хочет проверить на разумность.

Первое прохождение классического теста Тьюринга зафиксировано 6 июня 2014 года чат-ботом «Женя Густман», разработанным в Санкт-Петербурге. Бот убедил экспертов, что они общаются с 13-летним подростка из Одессы.

В общем, машины уже способны на многое, сейчас много специалистов работают в данном направлении и нас ждут все более интересные вариации и прохождения данного теста.

"Eugene Goostman" удалось пройти тест Тьюринга и убедить 33% судей в том, что с ними общается не машина. Программа выдавала себя за триннадцатилетнего мальчика по имени Евгений Густман из Одессы и смогла убедить беседовавших с ней людей в том, что выдаваемые ею ответы принадлежат человеку.

Тест проходил в Лондонском королевском обществе, его проведение организовал Университет Рединга, Великобритания. Авторами программы являются российский инженер Владимир Веселов, проживающий в настоящее время в США, и украинец Евгений Демченко, который живёт сейчас в России.

Как программа "Евгений Густман" прошла тест Тьюринга?

В субботу 7 июня 2014 года суперкомпьютер по имени Eugene попытался воссоздать интеллект тринадцатилетнего подростка - Евгения Густмана.

В тестировании, организованном Школой системной инженерии при Университете Рединга (Великобритания), участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов.

Разработчикам программы удалось подготовить бота ко всем возможным вопросам и даже обучить его собирать примеры диалогов через Twitter. Кроме того, инженеры наделили героя ярким характером. Притворяясь 13-летним мальчиком, виртуальный «Евгений Густман» не вызывал сомнений у экспертов. Они поверили в то, что мальчик может не знать ответы на многие вопросы, ведь уровень знаний у среднего ребёнка существенно ниже, чем у взрослых. При этом его правильные и точные ответы списывали на необычную эрудицию и начитанность.

В тесте участвовали 25 «скрытых» людей и 5 чат-ботов. Каждый из 30-ти судей провёл по пять чат-сессий, пытаясь определить реальную природу собеседника. Для сравнения, в традиционном ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера* участвует всего 4 программы и 4 скрытых человека.

Впервые программа с «юным одесситом» появилась ещё в 2001 году. Однако лишь в 2012 году она показала действительно серьёзный результат, убедив 29 % судей.

Данный факт доказывает, что в скором будущем, появятся програмы, которые будут способны без проблем пройти тест Тьюринга .

А́лан Мэ́тисон Тью́ринг (23 июня 1912 - 7 июня 1954) - английский математик, логик,криптограф, оказавший существенное влияние на развитие информатики. Кавалер Ордена Британской империи (1945), член Лондонского королевского общества (1951). Предложенная им в 1936 году абстрактная вычислительная «Машина Тьюринга», которую можно считать моделью компьютера общего назначения, позволила формализовать понятие алгоритма и до сих пор используется во множестве теоретических и практических исследований. Научные труды А. Тьюринга - общепризнанный вклад в основания информатики (и, в частности, - теории искусственного интеллекта).

Тест Тьюринга.

Тест Тьюринга - эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить, может ли машина обнаруживать разумное поведение, могут ли машины делать то, что можем делать мы (как мыслящие создания)?

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы - ввести человека в заблуждение, заставив сделать неверный выбор».

((Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет, Стеррет считает, что этот вариант Тьюрингом подразумевался и, таким образом, совмещает второй вариант с третьим. В это же время группа оппонентов, включая Трейджера, так не считает. Но это все равно привело к тому, что можно назвать «стандартной интерпретацией». В этом варианте игрок А - компьютер, игрок В - человек любого пола. Задачей ведущего является теперь не определить кто из них мужчина и женщина, а кто из них компьютер, а кто - человек.))

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.

Китайская комната.

Кита́йская ко́мната - мысленный эксперимент, описанный Джоном Сёрлем, цель которого состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. По сути, является критикой теста Тьюринга

Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, - «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, - это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но всё же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла. Этот пример соответствует системе быстрого обучения формальным знаниям для решения типовых задач, которая сегодня стала вытеснять в коммерческих школах аналитическую систему образования. Такие специалисты с программным мышлением способны быстро, не раздумывая, решать задачи из заученного набора, но абсолютно беспомощны в нестандартной ситуации. Аналитическое мышление, используя собственные знания, может путем сопоставления комбинаций символов и анализа порядка в передаваемых сообщениях для ответа, определить устойчивые сценарии их применения, а значит построить классификатор условных понятий и форм применения. Полученную формальную систему можно согласовать с собственной системой знаний, по принципу непротиворечивости перевода высказываний на обоих языках в общем пространстве мышления. В результате мы получим однозначное относительное представление о неизвестном языке, но конкретные характеристики объектов в этом языке останутся неопределенными. Внести определенность можно только калибровочными тестами сличения базовых элементов обеих систем для установления функции их отображения. К этому типу задач относится также установление контакта с разумом иной формы жизни, развившейся в принципиально других физических условиях.

Обратный тест Тьюринга и CAPTCHA

Модификация теста Тьюринга, в которой цель или одну или более ролей машины и человека поменяли местами, называется обратным тестом Тьюринга. Пример этого теста приведен в работе психоаналитика Уилфреда Биона, который был в особенности восхищен тем, как активизируется мыслительная активность при столкновении с другим разумом.

Развивая эту идею, Р. Д. Хиншелвуд (R. D. Hinshelwood) описал разум как «аппарат, распознающий разум», отметив, что это можно считать как бы «дополнением» к тесту Тьюринга. Теперь задачей компьютера будет определить с кем он беседовал: с человеком или же с другим компьютером. Именно на это дополнение к вопросу и пытался ответить Тьюринг, но, пожалуй, оно вводит достаточно высокий стандарт на то, чтобы определить, может ли машина «думать» так, как мы обычно относим это понятие к человеку.

CAPTCHA - это разновидность обратного теста Тьюринга. Перед тем как разрешить выполнение некоторого действия на сайте, пользователю выдается искаженное изображение с набором цифр и букв и предложение ввести этот набор в специальное поле. Цель этой операции - предотвратить атаки автоматических систем на сайт. Обоснованием подобной операции является то, что пока не существует программ достаточно мощных для того, чтобы распознать и точно воспроизвести текст с искаженного изображения (или они недоступны простым пользователям), поэтому считается, что система, которая смогла это сделать, с высокой вероятностью может считаться человеком. Выводом будет (хотя и не обязательно), что искусственный интеллект пока не создан.

Преподавательница из технологического университета Джорджии (США) Джилл Уотсон в течение пяти месяцев помогала студентам в работе над проектами по дизайну компьютерных программ. Ее считали выдающимся педагогом вплоть до того момента, когда выяснилось, что Джилл Уотсон не человек, а робот, система искусственного интеллекта на базе IBM Watson . Эту историю рассказали в The Wall Street Journal .

Робот «Джилл» вместе с еще девятью преподавателями-людьми помогала около 300 студентам разрабатывать программы, касающиеся дизайна презентаций, например, грамотного подбора картинок-иллюстраций.

Джилл помогала студентам на интернет-форуме, где они сдавали и обсуждали работы, использовала в своей речи жаргонные и просторечные обороты вроде «угу» («Yep!»), то есть вела себя как обычный человек.

«Она должна была напоминать нам о датах дедлайна и с помощью вопросов подогревать обсуждения работ. Это было как обычный разговор с обычным человеком», - рассказала студентка вуза Дженнифер Гевин.

Другой студент, Шрейяс Видьярти, представлял себе Джилл как симпатичную белую женщину 20-ти с небольшим лет, работающую над докторской диссертацией.

Не заподозрил в человеке робота даже студент Баррик Рид, который два года работал на IBM, создавая программы для «Джилл Уотсон». Даже в имени «Уотсон» он не разглядел подвоха.

Робот был включен в университетскую программу обучения, чтобы избавить преподавателей от огромного потока вопросов, с которыми к ним обращаются в процессе обучения студенты. Робот «Джилл» способен к обучению в отличие от интернет-чатботов.

Строго говоря, этот робот-педагог сдал знаменитый тест Алана Тьюринга, который на протяжении довольно долгого времени считался главным критерием для ответа на вопрос «Могут ли машины мыслить?».

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.

Алан Тьюринг - знаменитый английский математик и криптограф, во время второй мировой войны разработавший алгоритм для взлома немецкого шифратора «Энигма». Он начинает свою статью утверждением: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?“». Тьюринг подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Словно понимая, что это можно обсуждать до бесконечности, а толку будет немного, Тьюринг выбирает другой путь. Он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?».

В окончательной версии теста Тьюринга жюри должно задавать вопросы компьютеру, задача которого - заставить членов жюри поверить, что он на самом деле человек.

Вокруг теста Тьюринга со временем разгорелись жаркие споры экспертов по когнитивистике. Например, американскпй философ Джон Роджерс Сёрл в 1980 году написал статью «Разум, мозг и программы», в которой выдвинул контраргумент, известный как мысленный эксперимент «Китайская комната». Сёрл настаивал, что даже прохождение роботами или программами теста Тьюринга будет означать лишь манипуляцию символами, которых они не понимают. А без понимания нет разума. Значит тест Тьюринга неверен.

Эксперимент «Китайская комната» заключается в том, что испытуемый помещается в изолированную комнату, в которую ему через узкую щель передают вопросы, записанные китайскими иероглифами. С помощью книги с инструкциями по манипуляциям с иероглифами, человек, совершенно не понимающий китайской письменности, сможет правильно ответить на все вопросы и ввести в заблуждение того, кто их задает. Тот будет считать, что отвечающий на его вопросы прекрасно знает китайский язык.

В ходе дискуссии, которая продолжалась все 80-е и 90-е годы вспомнили даже «мельницу Лейбница», то есть мысленный эксперимент великого математика, описанный им в книге «Монадология». Лейбниц предлагает представить машину величиной с мельницу, которая бы могла симулировать чувства, мысли и восприятие. То есть внешне казалась бы разумной. Если зайти внутрь такой машины, то ни один из ее механизмов не будет являться сознанием или мозгом. Думается, что Лейбниц и Сёрл разными способами выразили одну и ту же мысль: даже если машины кажется мыслящей, она на самом деле не мыслит.

Ответа на вопрос «Могут ли машины мыслить?» нет до сих пор по одной простой причине: ученые перестали спорить и пытаются создать такие машины. Возможно, они когда-нибудь преуспеют в этом. Однако, не исключено, что искусственный интеллект обманет даже своих создателей, которые поверят в его разумность и которая на самом деле будет лишь манипуляцией, но такой искусной, что раскрыть ее человеку окажется не под силу. +

В фильме выдающегося советского режиссера -документалиста Семена Райтбурта демонстрируется одна из попыток прохождения теста Тьюринга роботом. В ходе эксперимента, воспроизводимого в фильме, несколько человек задают одинаковые вопросы двум неизвестным собеседникам, пытаясь распознать, кто перед ними - машина или человек. Признаюсь, что я лично ошибся, роботом оказался не тот, на которого я подумал. Поэтому мне вполне понятны чувства студентов «мисс Джилл Уотсон», полгода принимавших ее за человека.

Испытайте себя, товарищи!

Похожие статьи