Где пройти Тест Тьюринга онлайн

 Где пройти Тест Тьюринга онлайн
Где пройти Тест Тьюринга онлайн

Преподавательница из технологического университета Джорджии (США) Джилл Уотсон в течение пяти месяцев помогала студентам в работе над проектами по дизайну компьютерных программ. Ее считали выдающимся педагогом вплоть до того момента, когда выяснилось, что Джилл Уотсон не человек, а робот, система искусственного интеллекта на базе IBM Watson . Эту историю рассказали в The Wall Street Journal .

Робот «Джилл» вместе с еще девятью преподавателями-людьми помогала около 300 студентам разрабатывать программы, касающиеся дизайна презентаций, например, грамотного подбора картинок-иллюстраций.

Джилл помогала студентам на интернет-форуме, где они сдавали и обсуждали работы, использовала в своей речи жаргонные и просторечные обороты вроде «угу» («Yep!»), то есть вела себя как обычный человек.

«Она должна была напоминать нам о датах дедлайна и с помощью вопросов подогревать обсуждения работ. Это было как обычный разговор с обычным человеком», - рассказала студентка вуза Дженнифер Гевин.

Другой студент, Шрейяс Видьярти, представлял себе Джилл как симпатичную белую женщину 20-ти с небольшим лет, работающую над докторской диссертацией.

Не заподозрил в человеке робота даже студент Баррик Рид, который два года работал на IBM, создавая программы для «Джилл Уотсон». Даже в имени «Уотсон» он не разглядел подвоха.

Робот был включен в университетскую программу обучения, чтобы избавить преподавателей от огромного потока вопросов, с которыми к ним обращаются в процессе обучения студенты. Робот «Джилл» способен к обучению в отличие от интернет-чатботов.

Строго говоря, этот робот-педагог сдал знаменитый тест Алана Тьюринга, который на протяжении довольно долгого времени считался главным критерием для ответа на вопрос «Могут ли машины мыслить?».

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.

Алан Тьюринг - знаменитый английский математик и криптограф, во время второй мировой войны разработавший алгоритм для взлома немецкого шифратора «Энигма». Он начинает свою статью утверждением: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?“». Тьюринг подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Словно понимая, что это можно обсуждать до бесконечности, а толку будет немного, Тьюринг выбирает другой путь. Он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?».

В окончательной версии теста Тьюринга жюри должно задавать вопросы компьютеру, задача которого - заставить членов жюри поверить, что он на самом деле человек.

Вокруг теста Тьюринга со временем разгорелись жаркие споры экспертов по когнитивистике. Например, американскпй философ Джон Роджерс Сёрл в 1980 году написал статью «Разум, мозг и программы», в которой выдвинул контраргумент, известный как мысленный эксперимент «Китайская комната». Сёрл настаивал, что даже прохождение роботами или программами теста Тьюринга будет означать лишь манипуляцию символами, которых они не понимают. А без понимания нет разума. Значит тест Тьюринга неверен.

Эксперимент «Китайская комната» заключается в том, что испытуемый помещается в изолированную комнату, в которую ему через узкую щель передают вопросы, записанные китайскими иероглифами. С помощью книги с инструкциями по манипуляциям с иероглифами, человек, совершенно не понимающий китайской письменности, сможет правильно ответить на все вопросы и ввести в заблуждение того, кто их задает. Тот будет считать, что отвечающий на его вопросы прекрасно знает китайский язык.

В ходе дискуссии, которая продолжалась все 80-е и 90-е годы вспомнили даже «мельницу Лейбница», то есть мысленный эксперимент великого математика, описанный им в книге «Монадология». Лейбниц предлагает представить машину величиной с мельницу, которая бы могла симулировать чувства, мысли и восприятие. То есть внешне казалась бы разумной. Если зайти внутрь такой машины, то ни один из ее механизмов не будет являться сознанием или мозгом. Думается, что Лейбниц и Сёрл разными способами выразили одну и ту же мысль: даже если машины кажется мыслящей, она на самом деле не мыслит.

Ответа на вопрос «Могут ли машины мыслить?» нет до сих пор по одной простой причине: ученые перестали спорить и пытаются создать такие машины. Возможно, они когда-нибудь преуспеют в этом. Однако, не исключено, что искусственный интеллект обманет даже своих создателей, которые поверят в его разумность и которая на самом деле будет лишь манипуляцией, но такой искусной, что раскрыть ее человеку окажется не под силу. +

В фильме выдающегося советского режиссера -документалиста Семена Райтбурта демонстрируется одна из попыток прохождения теста Тьюринга роботом. В ходе эксперимента, воспроизводимого в фильме, несколько человек задают одинаковые вопросы двум неизвестным собеседникам, пытаясь распознать, кто перед ними - машина или человек. Признаюсь, что я лично ошибся, роботом оказался не тот, на которого я подумал. Поэтому мне вполне понятны чувства студентов «мисс Джилл Уотсон», полгода принимавших ее за человека.

Испытайте себя, товарищи!

Словосочетание «тест Тьюринга» правильнее использовать для обозначения предложения, которое касается вопроса о том, могут ли машины мыслить. По мнению автора, такая постановка «слишком бессмысленна», чтобы заслуживать обсуждения. Однако если рассмотреть более конкретный вопрос о том, способен ли цифровой компьютер справиться с некоего рода игрой в имитацию, то появляется возможность точного обсуждения. Более того, сам автор считал, что пройдет не слишком много времени - и появятся вычислительные устройства, которые будут в этом очень «хороши».

Выражение «тест Тьюринга» иногда используется в более общем смысле для обозначения некоторых поведенческих исследований присутствия разума, мысли или интеллекта у предположительно разумных субъектов. Так, например, иногда высказывается мнение, что прообраз теста описан в «Дискурсе о методе» Декарта.

Кто придумал тест Тьюринга?

В 1950-м увидела свет работа «Вычислительные машины и интеллект», в которой впервые была предложена идея игры в имитацию. Тот, кто придумал тест Тьюринга, - английский ученый в области информатики, математик, логик, криптоаналитик и биолог-теоретик Алан Мэтисон Тьюринг. Его модели позволили формализовать концепции алгоритма и вычислений, а также внесли вклад в теории искусственного интеллекта.

Игра в имитацию

Тьюринг описывает следующий вид игры. Предположим, есть человек, машина и лицо, задающее вопросы. Интервьюер находится в комнате, отделенной от остальных участников, которые проходят тест Тьюринга. Цель теста состоит в том, чтобы задающий вопросы определил, кто является человеком, а кто машиной. Интервьюеру оба испытуемых известны под метками X и Y, но по крайней мере в начале ему неизвестно, кто скрывается за меткой Х. В конце игры он должен сказать, что Х - это человек, а Y - это машина, или наоборот. Интервьюеру разрешено задавать испытуемым вопросы теста Тьюринга следующего вида: «Ну будет ли Х любезен сказать мне, играет ли Х в шахматы?» Тот, кто является Х, должен отвечать на вопросы, адресованные Х. Цель машины состоит в том, чтобы ввести в заблуждение спрашивающего, и тот ошибочно сделал вывод о том, что она - человек. Человек же должен помочь установить истину. Об этой игре Алан Тьюринг в 1950 году сказал: «Я считаю, через 50 лет можно будет запрограммировать компьютеры с объемом памяти около 10 9 таким образом, что они успешно смогут играть в имитацию, и средний интервьюер с вероятностью, превышающей 70%, за пять минут не будет в состоянии угадать, кто является машиной».

Эмпирический и концептуальный аспекты

Существует как минимум два вида вопросов, которые возникают относительно предсказаний Тьюринга. Во-первых, эмпирический - правда ли, что уже есть или вскоре появятся компьютеры, способные играть в имитацию настолько успешно, что средний интервьюер с вероятностью, не превышающей 70%, сделает правильный выбор в течение пяти минут? Во-вторых, концептуальный - правда ли, что если бы средний интервьюер после пяти минут допроса с вероятностью менее 70% правильно идентифицировал человека и машину, то мы должны сделать вывод, что последняя демонстрирует некоторый уровень мышления, интеллекта или разума?

Конкурс Лебнера

Мало кто сомневается, что Алан Тьюринг был бы разочарован положением дел с игрой в имитацию к концу ХХ века. Участники конкурса Лебнера (ежегодного мероприятия, в ходе которого компьютерные программы подвергаются тесту Тьюринга) далеки от стандарта, представленного основоположником информатики. Беглый взгляд на протоколы участников за последние десятилетия показывает, что машину можно легко обнаружить с помощью не очень изощренных вопросов. Более того, наиболее успешные игроки постоянно заявляют о сложности конкурса Лебнера по причине отсутствия компьютерной программы, которая бы могла вести достойный разговор в течение пяти минут. Общепризнанным является факт, что конкурсные приложения разрабатываются исключительно с целью получения малого приза, присуждаемого лучшему участнику года, и на большее они не рассчитаны.

Тест Тьюринга: прохождение затягивается?

К середине второго десятилетия XXI века ситуация почти не изменилась. Правда, в 2014 г. возникли претензии на то, что компьютерная программа Eugene Goostman прошла тест Тьюринга, когда она обманула 33% судей в соревновании 2014 г. Но были и другие разовые соревнования, в которых были достигнуты аналогичные результаты. Еще в 1991 году PC Therapist ввел в заблуждение 50% судей. И в демонстрации 2011 г. Cleverbot имел даже более высокий показатель успеха. Во всех этих трех случаях продолжительность процесса была очень мала, и результат не был надежен. Ни один из них не дал веских оснований полагать, что средний интервьюер с вероятностью более 70% правильно идентифицирует отвечающего в течение 5-минутного сеанса.

Метод и прогноз

Кроме того, и это гораздо важнее, необходимо различать тест Тьюринга и предсказание, которое он сделал о его прохождении к концу ХХ века. Вероятность правильной идентификации, интервал времени, в течение которого происходит испытание, и количество необходимых вопросов являются регулируемыми параметрами, несмотря на их ограничение конкретным прогнозом. Даже если основоположник информатики был очень далек от истины в предсказании, которое он сделал о ситуации с искусственным интеллектом к концу ХХ века, вполне вероятна справедливость предложенного им метода. Но прежде чем одобрить тест Тьюринга, следует рассмотреть различные возражения, которые необходимо учесть.

Обязательно ли уметь говорить?

Некоторые люди считают тест Тьюринга шовинистическим в том смысле, что он признает разум только в объектах, которые способны поддерживать беседу с нами. Почему не могут существовать разумные объекты, неспособные вести разговор, или, во всяком случае, беседу с людьми? Возможно, мысль, стоящая за этим вопросом, верна. С другой стороны, можно предположить наличие квалифицированных переводчиков для любых двух интеллектуальных агентов, говорящих на разных языках, позволяющих вести любой разговор. Но в любом случае обвинение в шовинизме совершенно к делу не относится. Тьюринг утверждает лишь то, что если что-то может вести беседу с нами, то у нас есть веские основания полагать наличие у него сознания, подобного нашему. Он не говорит, что только способность вести беседу с нами свидетельствует о потенциальном обладании разумом, похожем на наш.

Почему так легко?

Другие считают тест Тьюринга недостаточно требовательным. Существуют анекдотичные доказательства того, что совершенно бестолковые программы (например, ELIZA) могут казаться обычному наблюдателю обладателями интеллекта в течение достаточно продолжительного времени. Кроме того, за такое короткое время, как пять минут, вполне вероятно, что почти все интервьюеры могут быть обмануты хитрыми, но совершенно неразумными приложениями. Однако важно помнить, что программа тест Тьюринга не может пройти, обманув «простых наблюдателей» в иных условиях, чем те, в которых проверка должна происходить. Приложение должно быть в состоянии выдержать допрос того, кто знает, что один из двух других участников беседы является машиной. Кроме того, программа должна выдерживать такой допрос с высокой степенью успешности после многократного числа испытаний. Тьюринг не упоминает о том, какое конкретно количество тестов потребуется. Однако можно смело предположить, что их число должно быть достаточно большим, чтобы можно было говорить о среднем значении.

Если программа способна на это, то кажется правдоподобным утверждение, что мы, по крайней мере предварительно, будем иметь основания предполагать присутствие интеллекта. Возможно, стоит подчеркнуть еще раз, что может существовать умный субъект, в том числе и умный компьютер, тест Тьюринга пройти не сумевший. Можно допустить, например, существование машин, которые отказываются лгать по моральным соображениям. Поскольку предполагается, что участник-человек должен делать все возможное, чтобы помочь интервьюеру, то вопрос «Вы - машина?» позволит быстро отличить таких патологически правдивых субъектов от людей.

Почему так сложно?

Есть и сомневающиеся в том, что машина когда-либо сможет пройти тест Тьюринга. Среди выдвигаемых ими аргументов - различие времени распознавания слов на родном и иностранном языке у людей, способность ранжировать неологизмы и категории и наличие других особенностей человеческого восприятия, которые трудно симулировать, но которые несущественны для наличия разума.

Почему дискретная машина?

Еще одним спорным аспектом работы теста Тьюринга является то, что его обсуждение ограничено «цифровыми компьютерами». С одной стороны, очевидно, что это важно лишь для прогноза, а не касается подробностей самого метода. Действительно, если тест достоверный, то он подойдет для любой сущности, в том числе для животных, инопланетян и аналоговых вычислительных устройств. С другой стороны, весьма спорно утверждение о том, что «думающие машины» должны быть цифровыми компьютерами. Также вызывает сомнения то, что так полагал сам Тьюринг. В частности стоит отметить, что седьмое возражение, рассматриваемое им, касается возможности существования машин непрерывных состояний, которые автор признает отличными от дискретных. Тьюринг утверждал, что даже если мы являемся автоматами непрерывных состояний, то дискретная машина сможет хорошо подражать нам в игре в имитацию. Однако кажется сомнительным, что его соображения достаточны для того, чтобы установить, что при наличии машин непрерывных состояний, прошедших тест, можно сделать дискретный конечный автомат, который также успешно справится с этим испытанием.

В целом, важным моментом представляется то, что хотя Тьюринг признавал наличие значительно более обширного класса машин, помимо дискретных конечных автоматов, он был уверен в том, что правильно спроектированный дискретный автомат может преуспеть в игре в имитацию.

Эмпирический эксперимент, в ходе которого человек общается с компьютерной интеллектуальной программой, которая моделирует ответы как человек.

Предполагается, что тест Тьюринг пройден, если человек при общении с машиной считает, что общается с человеком, а не машиной.

Британский математик Алан Тьюринг в 1950 г. придумал такой эксперимент по аналогии с имитационной игрой, которая предполагает, что 2 человека уходят в разные комнаты, а 3й человек должен понять кто где, общаясь с ними письменно.

Тьюринг предложил такую игру провести с машиной и, если машина сможет ввести в заблуждение эксперта, это будет означать, что машина может думать. Таким образом, классический тест проходит по следующему сценарию:

Человек-эксперт общается через чат с чат-ботом и другими людьми. По окончании общения эксперт должен понять, кто из собеседников был человеком, а кто — ботом.

В наше время тест Тьюринга получил много разных модификаций, рассмотрим некоторые из них:

Обратный тест Тьюринга

Тест заключается в выполнении каких- либо действий для подтверждения, что ты человек. Н-р, мы можем часто сталкиваться с потребностью ввести цифры и буквы в специальное поле с искаженного изображения с набором цифр и букв. Данные действия защищают сайт от ботов. Прохождение данного теста подтверждало бы способность машины воспринимать сложные искаженные изображения, но пока таких не существует.

Тест бессмертия

Тест заключается в максимальном повторении личностных характеристик человека. Считается, что если характер человека максимально качественно скопирован, и его невозможно отличить от источника, то означает, что пройден тест бессмертия.

Минимальный интеллектуальный Signal-тест

Теста предполагает упрощенную форму ответов на вопросы — только да и нет.

Мета-тест Тьюринга

Тест предполагает, что машина «умеет мыслить», если она может создать что-то, что она сама хочет проверить на разумность.

Первое прохождение классического теста Тьюринга зафиксировано 6 июня 2014 года чат-ботом «Женя Густман», разработанным в Санкт-Петербурге. Бот убедил экспертов, что они общаются с 13-летним подростка из Одессы.

В общем, машины уже способны на многое, сейчас много специалистов работают в данном направлении и нас ждут все более интересные вариации и прохождения данного теста.

"Eugene Goostman" удалось пройти тест Тьюринга и убедить 33% судей в том, что с ними общается не машина. Программа выдавала себя за триннадцатилетнего мальчика по имени Евгений Густман из Одессы и смогла убедить беседовавших с ней людей в том, что выдаваемые ею ответы принадлежат человеку.

Тест проходил в Лондонском королевском обществе, его проведение организовал Университет Рединга, Великобритания. Авторами программы являются российский инженер Владимир Веселов, проживающий в настоящее время в США, и украинец Евгений Демченко, который живёт сейчас в России.

Как программа "Евгений Густман" прошла тест Тьюринга?

В субботу 7 июня 2014 года суперкомпьютер по имени Eugene попытался воссоздать интеллект тринадцатилетнего подростка - Евгения Густмана.

В тестировании, организованном Школой системной инженерии при Университете Рединга (Великобритания), участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов.

Разработчикам программы удалось подготовить бота ко всем возможным вопросам и даже обучить его собирать примеры диалогов через Twitter. Кроме того, инженеры наделили героя ярким характером. Притворяясь 13-летним мальчиком, виртуальный «Евгений Густман» не вызывал сомнений у экспертов. Они поверили в то, что мальчик может не знать ответы на многие вопросы, ведь уровень знаний у среднего ребёнка существенно ниже, чем у взрослых. При этом его правильные и точные ответы списывали на необычную эрудицию и начитанность.

В тесте участвовали 25 «скрытых» людей и 5 чат-ботов. Каждый из 30-ти судей провёл по пять чат-сессий, пытаясь определить реальную природу собеседника. Для сравнения, в традиционном ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера* участвует всего 4 программы и 4 скрытых человека.

Впервые программа с «юным одесситом» появилась ещё в 2001 году. Однако лишь в 2012 году она показала действительно серьёзный результат, убедив 29 % судей.

Данный факт доказывает, что в скором будущем, появятся програмы, которые будут способны без проблем пройти тест Тьюринга .

А я вчера завалил тест Тьюринга: меня приняли за компьютер! Дело было при игре в шахматы на freechess.org . Вообще в онлайн-шахматах очень много плакс, которые, чуть что, норовят обвинить оппонента в использовании движка. Конечно, много кто так жульничает, но меня всегда обвиняют беспочвенно. В дебютную библиотеку, бывает, подглядываю, а дальше уже только сам. Если удаётся поймать соперника на длинный вариант, у него почему-то часто от этого лютый баттхёрт приключается: не может, говорит, человек так играть.

Полностью во вьюере можно посмотреть тут: Karapuzik vs. chessmasterrossie , а самые яркие моменты я сейчас прокомментирую отдельно. Дело в том, что мне самому партия очень понравилась, и хочется похвастаться. Контроль — 5 минут на партию плюс 5 секунд на ход.

Вот такая позиция возникла после 18 ходов.

В дебюте белые (я) играли несколько безалаберно, в частности, ферзь проделал путь d1-b3-d1-g1, много времени потеряно. Вообще ферзь на g1 или f2 в этой схеме часто встаёт, но обычно его путь менее извилист. Чёрные из потерь только успели сходить конём b8-c6-e5-d7, а сейчас явно готовятся к b6-b5. Главная проблема, что мой любимый план с надвижением пешки "a" у белых не проходит: мешает собственный конь на a3. Пока его не уберу, активного плана нет. А как только уберу, получу b5... Тут я заметил комбинационный мотив и устроил провокацию: 19.Nc2 b5? 20.Nb4 Qb7 .

21.N:a6! Q:a6 (полагаю, что 21... b4 было сильнее) 22.c:b5 B:b5 23.N:b5 R:b5 24.a4

В этом всё дело! Теперь белые забирают целую ладью и остаются по итогам перестрелки с лишним качеством и пешкой. Дальше была довольно сумбурная игра в блиц, под занавес которой соперник опять попался на простую тактику. Это его, похоже, и добило. Тактику же только компьютеры умеют, особенно такую сложную:

34... B:b4? 35.Rb1 Rb7 (на это была вся надежда, но...) 36.a6! Rb5 37.a7 , и, чтобы остановить пешку, приходится отдать слона b4.

Тут соперник что-то стал медленно ходить. Смотрю — он мне в чятик пишет. Пишет следующее:

chessmasterrossie says: good engine usage
chessmasterrossie says: good engine usagenh5
chessmasterrossie says: such comput er moves
chessmasterrossie says: such computer moves
chessmasterrossie says: qg1???
chessmasterrossie says: as if a human would play that
chessmasterrossie says: g4?
chessmasterrossie says: such a human move!
chessmasterrossie says: how obviously was that a use of a chess engine.
chessmasterrossie says: I will send a compulaint
chessmasterrossie says: complaint

Просто бальзам на сердце. =)

С момента появления компьютеров писатели-фантасты стали придумывать сюжеты с разумными машинами, которые захватывают мир и делают из людей рабов. Ученые поначалу подсмеивались над этим, но по мере развития информационных технологий, идея разумной машины перестала казаться такой невероятной. Чтобы проверить может ли компьютер обладать интеллектом, был создан тест Тьюринга, и придумал его ни кто иной, как Алан Тьюринг, чьим именем и был названа эта методика. Давайте поговорим подробнее о том, что это за тест такой и что он на самом деле может.

Как пройти тест Тьюринга?

Кто придумал тест Тьюринга, нам известно, но вот зачем он это сделал, чтобы доказать, что ни одна машина не сравнится с человеком? На самом деле Алан Тьюринг занимался серьезными исследованиями «машинного интеллекта» и предполагал, что возможно создать такую машину, которая сможет осуществлять мыслительную деятельность подобно человеку. Во всяком случае, еще в 47 году прошлого века он заявил, что несложно сделать машину, которая бы могла неплохо играть в шахматы, а раз можно это, то возможно создать и «думающий» компьютер. Но как определить, достигли инженеры своей цели или нет, обладает ли их детище интеллектом или это еще один усовершенствованный калькулятор? Для этой цели Алан Тьюринг и создал свой тест, который позволяет понять насколько машинный интеллект может соревноваться с человеческим.

Суть теста Тьюринга заключается в следующем: если компьютер умеет думать, то при разговоре человек не сможет отличить машину от другого человека. В тесте принимают участие 2 человека и один компьютер, все участники друг друга не видят, а общение происходит в письменном виде. Переписка ведется через контролируемые промежутки времени, чтобы судья не мог определить компьютер, ориентируясь на скорость ответов. Тест считается пройденным, если судья не может сказать, с кем он ведет переписку – с человеком или компьютером. В полной мере пройти тест Тьюринга пока не удалось ни одной программе. В 1966 году программе Элиза удалось обмануть судей, но только потому, что она имитировала приемы психотерапевта, использующего клиент-центрированную методику, а людям не говорили, что они могут разговаривать с компьютером. В 1972 программа PARRY, имитируя параноидального шизофреника, тоже смогла обмануть 52% психиатров. Тест проводила одна команда психиатров, а вторая читала стенограмму записи. Перед обеими командами стояла задача узнать, где слова реальных людей, а где речь программы. Сделать это удалось лишь в 48% случаев, но тест Тьюринга предполагает общение в он-лайн режиме, а не чтение записей.

Сегодня существует премия Лёбнера, которая выдается по результатам ежегодного конкурса программам, которые смогли пройти тест Тьюринга. Существуют золотая (зрительная и аудио), серебряная (аудио) и бронзовая (текст) награды. Первые две еще не вручались, бронзовые же медали вручались программам, которые смогли лучше всего сымитировать человека во время переписки. Но такое общение нельзя назвать полноценным, так как он больше напоминает дружескую переписку в чате, состоящую из обрывочных фраз. Поэтому-то и говорить о полном прохождении теста Тьюринга нельзя.

Обратный тест Тьюринга

С одной из интерпретаций обратного теста Тьюринга сталкивался каждый – это надоедливые просьбы сайтов ввести капчу (CAPTHA), которые используются для защиты от спам-ботов. Считается, что пока не существует (или они недоступны рядовому пользователю) достаточно мощных программ, способных распознать искаженный текст и воспроизвести его. Вот такой забавный парадокс – теперь уже мы должны доказывать компьютерам свою способность мыслить.