Подсказки в голосовых интерфейсах
Кэтрин Уайтентон пишет, как в голосовых интерфейсах помочь пользователю понять, что надо сказать, чтобы решить свою задачу.
В графических интерфейсах помогают текстовые инструкции и внешний вид элементов управления (ссылки подчёркнуты, кнопки формой напоминают реальные). В голосовых сложнее — текста много давать нельзя (человек быстро запутается), а внешний вид вовсе отсутствует.
Кэтрин предлагает несколько приёмов:
- Использовать невербальные звуки (пиканье) как знак, что система восприняла команду. Либо чтобы привлечь внимание человека.
- Угадывать намерение и спрашивать подтверждение («Назначь встречу на 9» — «Окей, встреча на завтра на 9 утра. Нормально?»).
- Если сценарий сильно ветвистый, приоритезировать вопросы и спрашивать сначала о главном.
Это всё хорошо. Но по-прежнему бесполезно. Оцените пример, на котором автор показывает приёмы проектирования:
— Назначь встречу на 9. (человек) — Как назвать событие? (программа) — Стрижка.
Кто в реальности скажет секретарю «назначь встречу», когда он хочет записать в календарь стрижку? Человек сразу скажет суть:
У меня стрижка завтра в 9, отметь там себе.
Весь сценарий, на котором построена статья, демонстрирует беспомощность голосовых помощников.
Я по-прежнему считаю, что до универсальных голосовых интерфейсов далеко. Реальные применения — «натаскать» программу даже не на конкретную предметную область, а на узкий сценарий в ней.
При этом использовать подсказки, о которых пишет Кэтрин — вполне ОК. Только не в качестве костылей для изначально убогого интерфейса.
Подписывайтесь на канал, чтобы не пропустить новые заметки 🚀