Facebook | Город Алматы 
Выберите город
А
  • Актау
  • Актобе
  • Алматы
  • Аральск
  • Аркалык
  • Астана
  • Атбасар
  • Атырау
Б
  • Байконыр
Ж
  • Жезказган
  • Житикара
З
  • Зыряновск
К
  • Капчагай
  • Караганда
  • Кокшетау
  • Костанай
  • Кызылорда
Л
  • Лисаковск
П
  • Павлодар
  • Петропавловск
Р
  • Риддер
С
  • Семей
Т
  • Талдыкорган
  • Тараз
  • Темиртау
  • Туркестан
У
  • Урал
  • Уральск
  • Усть-Каменогорск
Ф
  • Форт Шевченко
Ч
  • Чимбулак
Ш
  • Шымкент
Щ
  • Щучинск
Э
  • Экибастуз

Может ли искусственный интеллект переспорить человека?

Дата: 06 октября 2017 в 11:57

Человечество смирилось с тем, что в запоминании и воспроизведении информации компьютерам нет равных. Однако мы все еще способны одерживать победу над машинами в споре. По крайней мере, пока.

Давно известно, что умные машины научились обыгрывать профессионалов в стратегических играх, таких как шахматы.

Мы также пришли к согласию, что искусственный интеллект прекрасно справляется с обработкой большого количества данных.

А что если искусственному разуму окажется под силу справляться с человеческими задачами — понимать тонкие намеки, нюансы речевых оборотов и даже считывать человеческие эмоции для того, чтобы одержать над нами победу в споре?

Эта способность, исследованиями которой занимается все больше научных организаций по всему миру, позволит людям принимать более эффективные решения в будущем.

До недавнего времени создание интеллектуальной машины, способной приводить аргументы и отстаивать точку зрения, считалось невыполнимой задачей.

Смысл, конечно же, не в том, чтобы научить искусственный разум вступать в разборки по поводу парковочного места или спорить на тему того, чья очередь выносить мусор.

Вместо этого машины, которые умеют спорить, в будущем смогут научить людей оспаривать доказательства, искать альтернативу и уверенно принимать решения, тем самым улучшая качество дебатов.

Это может повысить эффективность принятия решений во всем — от инвестирования средств до борьбы с преступностью и улучшения качества здравоохранения.

Однако обучить компьютеры навыкам человеческого общения и объяснить, что значит аргумент в споре, чрезвычайно сложно.

Для того, чтобы представить важность аргументов, следует обратиться к залам судебных заседаний.

Представление доказательств является необходимой частью слушаний, однако социальные нормы, законные требования, эмоциональная чувствительность и практические ограничения влияют на то, как адвокаты, присяжные заседатели и судьи формулируют доводы и выражают мысли.

Несмотря на это, за последние несколько лет ученые начали размышлять над тем, возможно ли смоделировать некоторые человеческие аргументы, чтобы впоследствии превратить в алгоритмы искусственного интеллекта.

В научной сфере это понятие известно как «технология аргументации».

Достигнутые успехи стали возможными благодаря быстрому увеличению количества данных, доступных для изучения компьютерами в области дебатов.

Некоторые данные поступают из платформ по анализу интеллекта — таких как Intelligence Analysis, специализированных интернет ресурсов и программы Би-би-си Moral Maze.

Помимо этого, были разработаны новые методы обучения машин искусству построения аргумента.

Исследователи в этой области обращаются к философии, лингвистике, информатике и даже праву и политике для того, чтобы понять, на чем основаны дебаты.

Например, в британском университете Данди недавно были исследованы труды о риторике двухтысячилетней давности для того, чтобы понять, как строятся аргументы во время публичного выступления.

В результате быстрого прогресса в этой области, феноменом заинтересовались десятки исследовательских лабораторий по всему миру.

Масштаб исследований по вопросу «технологической аргументации» не сравнится ни с какими другими открытиями, которые я наблюдал за последние 20 лет работы в научных кругах.

Означает ли это, что машины вскоре станут блестящими ораторами и завоюют мир?

Скорее всего, нет, что можно объяснить на примере из обычной жизни.

До недавнего времени даже самые передовые разработки искусственного интеллекта пришли бы в замешательство из-за простых местоимений.

Например, если вы скажете персональному ассистенту на смартфоне: «Мне нравится Эми Уайнхаус. Сыграй мне что-нибудь из ее репертуара», программное обеспечение не сможет распознать, что местоимение «ее» относится к «Эми Уайнхаус».

Возможно это порадует тех, кто беспокоится о близости машинного апокалипсиса.

Если такие простые вещи, как определение местоимений, могут ввести искусственный разум в заблуждение, насколько вероятно, что умные машины смогут вступать в спор?

Есть как минимум два аргумента в пользу того, что компьютеры недалеки от этого.

Один из них связан с понятиями «оправдания» и «объяснения».

Одно дело — искать информацию в интернете о том, как насилие в видеоиграх влияет на психическое здоровье детей, и совсем другое — создать систему, которая бы автоматически собирала «за» и «против» допущения подобного насилия.

Эта область была исследована компанией IBM , c которой мы сотрудничаем.

Разработка представляет собой нечто наподобие ассистента, который собирает и анализирует конфликтные мнения по определенному вопросу, давая нам возможность оценить правомерность той или иной точки зрения.

Другой вариант связан с разработкой интеллектуальной машины, способной принимать участие в так называемых «диалоговых играх» в зависимости от норм поведения в разных местах — от зала судебного заседания до аукционного дома.

Диалоговые игры по принципу «вопрос-ответ» легли в основу многих филосовских учений, от Плато до Иоганна Витгенштейна, однако сейчас начинают применяться для того, чтобы помочь компьютерам внести вклад в общение между людьми.

Любой, кто общался с ребенком дошкольного возраста, знаком с правилами детской игры. Взрослый произносит фразу, например: «Какое небо голубое», на что ребенок задает вопрос: «Почему»? Взрослый отвечает, на что малыш задает тот же самый вопрос, и ситуация повторяется.

Обычно разговор заканчивается, когда взрослый пытается сменить тему.

Большинство из нас знает, что после череды одних и тех же вопросов бывает трудно дать хороший ответ, и мы начинаем ломать голову.

Для того, чтобы объяснить трехлетнему ребенку, почему небо голубое, не обязательно прикладывать много усилий, хотя в других ситуациях необходимо основательно подумать — например, если речь идет о важном бизнес-решении, затрагивающем сотни рабочих мест, или о предотвращении террористической угозы.

Если даже самая простая игра в диалог способна помочь найти решение сложного вопроса, насколько эффективны более передовые методы?

Это то, над чем мы работаем.

Если компьютеры будут разбираться в типах аргументов, которыми руководствуется команда для принятия коллективных решений, они также смогут проверить данные, используемые для построения аргументов и на основании этого, предлагать варианты развития ситуации или даже давать ответы.

Благодаря искусственному интеллекту, люди смогут избежать предубеждений, слабых доказательств и плохо продуманных аргументов, что в конечном итоге, поможет улучшить качество дебатов.

Например, мы разрабатываем программное обеспечение, которое распознает аргументы на основании свидетельских показаний.

Умная машина может раскритиковать такой аргумент, указав на то, что показания свидетелей могут быть предвзятыми или ненадежными.

Начиная от корпоративных залов заседаний до выполнения посреднической роли между супругами и от анализа информации до разработки дизайна интерьера — искусственный разум может посодействовать принятию обоснованных решений.

Термин «Искусственный интеллект» был впервые введен в начале 1950-х годов, когда ведущие ученые с уверенностью заявили о том, что умным машинам потребуется около 20 лет, чтобы достичь высшей точки развития.

По-видимому, искусственному интеллекту потребуется гораздо больше времени для достижения цели.

Между тем технология аргументации открывает возможность оказывать поддержку людям в принятии более эффективных решений.

Причем цель разумных машин — не подчинить себе участников коллектива, а скорее сотрудничать с ними для решения сложных задач.

Возможно, искусственный интеллект даже сможет объяснить трехлетнему ребенку, почему небо голубое.

Профессор Крис Рид — директор центра по изучению технологии аргументации в британском Университете Данди в Шотландии.

Центр занимается исследованиями прикладной технологии аргументации в разных областях: от философии и лингвистики до искусственного интеллекта и программного обеспечения.

За время существования центр получил более 5 млн фунтов поддержки от ряда организаций.

По сообщению сайта BBC Russian