Подсказки в голосовых интерфейсах

Кэтрин Уайтентон пишет, как в голосовых интерфейсах помочь пользователю понять, что надо сказать, чтобы решить свою задачу.

В графических интерфейсах помогают текстовые инструкции и внешний вид элементов управления (ссылки подчёркнуты, кнопки формой напоминают реальные). В голосовых сложнее — текста много давать нельзя (человек быстро запутается), а внешний вид вовсе отсутствует.

Кэтрин предлагает несколько приёмов:

  • Использовать невербальные звуки (пиканье) как знак, что система восприняла команду. Либо чтобы привлечь внимание человека.
  • Угадывать намерение и спрашивать подтверждение («Назначь встречу на 9» — «Окей, встреча на завтра на 9 утра. Нормально?»).
  • Если сценарий сильно ветвистый, приоритезировать вопросы и спрашивать сначала о главном.

Это всё хорошо. Но по-прежнему бесполезно. Оцените пример, на котором автор показывает приёмы проектирования:

— Назначь встречу на 9. (человек)
— Как назвать событие? (программа)
— Стрижка.

Кто в реальности скажет секретарю «назначь встречу», когда он хочет записать в календарь стрижку? Человек сразу скажет суть:

У меня стрижка завтра в 9, отметь там себе.

Весь сценарий, на котором построена статья, демонстрирует беспомощность голосовых помощников.

Я по-прежнему считаю, что до универсальных голосовых интерфейсов далеко. Реальные применения — «натаскать» программу даже не на конкретную предметную область, а на узкий сценарий в ней.

При этом использовать подсказки, о которых пишет Кэтрин — вполне ОК. Только не в качестве костылей для изначально убогого интерфейса.

Заметка из телеграм-канала «Интерфейсы без шелухи»