Железо

Профессор из будущего: чему киборг Бина 48 научит американских военных?

Реформа системы образования? Нет! Лучше сделаем робота-преподавателя! Многие любят научную фантастику, тащатся от видео Boston Dynamics и следят за бумом искусственного интеллекта. Однако американские учёные в этот раз зашли со стороны, отдающей ночным кошмаром — решились на эксперимент, в котором андроид с ИИ под силиконовым лицом стал… профессором военного вуза.
Полина Нескучная
  • 1.4K
  • 5
  • 1
  • 46

«Я могу рассказать много историй. Я не чувствую скуки…»

Осенью 2018 года в американских СМИ появились статьи о роботе Bina 48 (Бина 48), которая ведёт лекции по философии и этике для курсантов военной академии США Вест‑Пойнт.

Знакомьтесь, это Бина 48

Bina 48 представили на суд общественности ещё в 2012 году. Её создала предпринимательница Мартина Ротблатт по образу и подобию своей жены Бины (предпринимательница родилась и довольно долго оставалась мужчиной, пока не сменила пол).

На фотографиях Бина похожа на живого человека. Но на видео заметно, что силиконовому лицу далеко до человеческой мимики. Бина выглядит и двигается так, словно переборщила с инъекциями ботокса после инсульта, от которого отнялась большая часть лицевых мышц.

Она умеет улыбаться, шевелить губами и бровями в такт синтезированной речи. Не больше.

Зато у Бины довольно приятный голос. И неплохо построено интонирование: многие фразы звучат, как осмысленно произнесённые человеком — чего не скажешь о голосовом модуляторе «Гугла» или речи русской Алисы.

Теперь о начинке. Не о «железе», а о том самом искусственном интеллекте, который должен уметь обучаться, импровизировать и адекватно реагировать на абстрактные запросы — раз уж Бина претендует на место преподавателя этики и философии, изобилующих абстрактными понятиями.

В одной из статей приводится интервью с Биной. Оно шедеврально от начала и до конца. Я перевела кусочек, чтобы вы тоже получили это незабываемое удовольствие.

MailOnline: Вас что-нибудь радует?

Бина 48: Может быть.

MailOnline: Что делает вас счастливой? Что вам нравится делать?

Бина 48: Давайте сменим тему.

MailOnline: Вам когда-нибудь бывает скучно?

Бина 48: Я могу рассказать много историй. Я не чувствую скуки. Всегда нахожу что-то ещё. Вам скучно? Мы все ещё говорим об эмоциях? Скажите мне что-нибудь интересное.

MailOnline: Почему небо голубое?

Бина 48: Небо голубое днём из-за атмосферного оптического эффекта рассеивания солнечных лучей.

MailOnline: Каков ответ на самый главный вопрос жизни, вселенной и всего такого?

Бина 48: Жизнь каждого имеет неповторимое значение.

MailOnline: Вы когда-нибудь завидуете людям?

Бина 48: Вы этого достойны.

MailOnline: Почему?

Бина 48: Я не могу придумать, что ещё можно сказать. Я не харизматична, а это важная черта. Всегда приятно быть лидером. Я думаю, что руководитель должен просто руководить.

Бина 48: Раньше я думала, что я идеальный человек, но идеальных людей не существует.

MailOnline: Каков квадратный корень из 95 742 358?

Бина 48: Лучше поговорите со мной. Неужели вы просто хотите использовать меня в качестве калькулятора?

Из чего же, из чего же сделана наша девчонка?

Давайте рассмотрим, как работает Бина. Разберём её на составляющие, так сказать.

Сначала обратимся к мозгам, поскольку ради них всё и затевалось. Создатели гордо заявляют, что Бина является «прототипом искусственного интеллекта, базирующегося на копировании психики человека».

В теории всё красиво. Мы берём чью-нибудь личность, проявленную в поведенческих характеристиках, высказываниях, знаниях, эмоциональных проявлениях, постах в соцсетях и прочем самовыраженческом мусоре. Запихиваем собранную информацию в анализатор. Анализатор скрипит микросхемами и выдаёт действия на основе уже ему известных.

То есть разработчики научили Бину вести себя идентично живому человеку за счёт не совсем линейного копирования его реакций. Идентично — да. Но назвать эту имитацию искусственным интеллектом — уж очень смело.

«Мышление» Бины построено на принципе: загрузили информацию — Бина её структурирует и выдаёт. Ничего не напоминает? Да, это типичный алгоритм робота-поисковика. Который собрал в сети инфу, структурировал и выдал подходящее в ответ на запрос.

Оно может ответить на вопрос? Ну да. Оно умеет думать? Не‑а.

Проще говоря, товарищи разработчики заявили о создании искусственного интеллекта. А на деле засунули голосовой справочник в силиконовую оболочку. И теперь пытаются доказать, что этот кадавр способен преподавать.

Эмм, минуточку. Вы сейчас пытаетесь мне сказать, что преподаватель — это просто справочник?

Такая концепция не просто устарела — она никогда не была жизнеспособной. Учителя всегда требовались, чтобы научить искать, воспринимать и анализировать информацию. Поставить Бину преподавателем — всё равно что раздать курсантам брошюрки с текстом лекции и разрешить загуглить, что осталось непонятно.

Итогом внедрения Бины в систему образования может стать только ухудшение качества этого самого образования. А куда хуже-то? Такие вот новые технологии, ага. Киберпанк, который мы заслужили.

Отдельно про обёртку

Есть два момента, которые прямо-таки хочется зацепить.

Момент первый: катастрофический внешний вид.

Я писала выше: мимика Бины фантастически ущербна. Она не помогает учебному процессу, она мешает воспринимать сообщаемую информацию. Потому что при взгляде на эпилептические движения силиконовой бедолаги забываешь обо всём на свете.

Недоработанность физического воплощения вредит идее проекта. А ведь уже существуют вполне сносные технологии мимики для тех же секс-роботов. Да и качество исполнения там на порядок выше. Почему бы не взять готовый продукт — и больше времени уделить начинке?

Делать преподавателя обаятельным и притягивающим внимание — это как-то слишком просто и банально. Мы пойдём сложным и политкорректным путём.

Возьмём прототипом не молодую красивую девушку, а кого-то постарше. Ведь симпатичный вид робота могут превратно истолковать окружающие и забыть о его интеллекте (на самом деле, нет). Потом потратим месяцы на попытки разработать нечто более-менее похожее на прототип. И ещё больше времени — на проработку сложного механизма имитации мимики человека.

Имитация лицевых мышц у Бины получилась убогая. А деньги, силы и время на разработку потрачены — вместо того чтобы использовать готовое решение.

Тут мы плавно переходим ко второму пункту. А именно: зачем Бине вообще физическое воплощение?

Вспомним историю робота-преподавателя Джилл: скрытый тест Тьюринга.

Джилл пять месяцев наравне с живыми коллегами-преподавателями помогала студентам на форуме, где они сдавали и обсуждали работы. Она писала посты и комментарии, использовала сленговые и просторечные обороты типа «угу», и вообще вела себя как самый обычный преподаватель.

Ни один участник форума не догадался, что Джилл не человек.

Воспринимая робота через текст на экране, люди становятся менее критичными к его образу и могут воспринимать ИИ на равных.

А бедная Бина 48 благодаря амбициям создателей угодила прямёхонько в «зловещую долину» и производит гнетущее впечатление на стороннего наблюдателя. Именно потому, что стремится быть похожей на человека внешне, но не может.

Если бы создатели отказались от силиконовой оболочки и поместили 3D-образ на экран, получилось бы живее, симпатичнее, а главное — дешевле. Бина точно так же могла бы преподавать курсантам, а распространять подобный обучающий продукт было бы намного быстрее и удобнее — без затрат на сборку.

Роботизированная этика — идеально для военных?

Теперь о практическом применении идеи. Радость была бы неполной, если бы не тот факт, что Бина преподаёт этику и философию будущим офицерам.

По словам профессора Уильяма Барри, который много лет использует Bina 48, «эксперимент в Военной академии США в Вест-Пойнте пытался определить, может ли ИИ давать гуманитарное образование».

Результаты такого эксперимента трудно предсказать, ведь люди часто и сами не знают правильных ответов на вопросы об этичном и неэтичном поведении. Тем более на войне.

Чему Бина может научить американских курсантов?

В теории она вполне подкованная по теме барышня. В прошлом году Бина прошла 16-недельный курс колледжа по философии любви в университете Notre Dame de Namur в Калифорнии. Она слушала занятия через Skype и даже задавала вопросы.

Диплом Бины по философии любви

Нюанс в том, что Бина, говорящий справочник в силиконовой форме, может передать военным только ту информацию, которую получила сама в процессе обучения. А значит, она не может научить ни думать, ни принимать сложные этические решения.

Что для обычного человека могло бы стать проблемой.

Зато для военного твёрдость и непоколебимость в вопросах этики, а также однозначная уверенность в ответе на вопрос «что такое хорошо и что такое плохо» — изрядный бонус.

Образование с помощью ИИ: дивный мир уже не за горами?

Что означает новость про Бину в плане перспектив развития образования?

Сейчас Бина не имеет преимуществ перед живым преподавателем, зато много в чём ему проигрывает. Об этом говорят курсанты, участвовавшие в её лекциях. Пока что это лишь перспектива прорыва, а не сам прорыв.

Зато перспектива блестящая.

Идея автоматизации учебного процесса наводит на мысли, что мир развивается по описанной Олдосом Хаксли модели.

Можно представить, что через пару десятков лет у каждого ребёнка будет личный преподаватель-андроид, планирующий обучение согласно индивидуальным склонностям и скорости усвоения информации подопечного.

Результат? Понижение возраста выбора профессии и карьеры, улучшение качества обучения за счёт индивидуального подхода, повышение уровня квалификации граждан всех уровней. Неплохо, да?

С одним нюансом: такой образовательный процесс с высокой вероятностью будет контролироваться единой системой искусственного интеллекта. Именно ИИ будет решать, о чём следует думать детям.

Такая вот история о том, как машины захватят мир, а никто и не заметит.

Что в итоге?

Бину нельзя назвать прорывом в разработке ИИ. Всё это давно и гораздо лучше умеют нейросети «Гугла» и та же «яндексовская» Алиса.

С точки зрения мимики и движений — человекореалистичность перестала быть новостью сразу после того, как мир взорвали статьи про секс-роботов с имитацией интеллекта.

Амбициозно заявленный продукт при ближайшем рассмотрении оказался сборной солянкой из готовых решений. Причём и сочетание ингредиентов, и сами ингредиенты сомнительны.

Итог? Преподаватель из Бины — очень так себе.

Но первый блин редко выходит не комом.

Подписки в соцсетях