Якщо раніше штучний інтелект навчали інтерпретації повсякденних рухів тіла людини, то тепер на черзі жести, які використовуються для конкретних ситуацій, а саме як пояснення до слів.
Якщо людина скаже: «Я зловив ось таку рибу» і розведе руками в сторони, ми зможемо досить точно уявити величину трофею – зрозуміло, з поправкою на традиційні рибальські хвастощі. Тепер завдяки технології Data Miming такою здатністю частково володіє комп’ютер. Причому не просто заради сліпого копіювання людських можливостей, а в практичних цілях.
Програміст Кріштіан Хольц з Інституту Хассе Платтнер при Потсдамському університеті (Німеччина) та його колега Енді Вілсон, який працює у відділенні Microsoft Research в Редмонді (США), зібрали групу добровольців і стали спостерігати за тим, як вони показують різні види стільців, столів і інших меблів. Найбільш типові жести, що характеризують форму і розмір об’єктів, потрапили в базу даних.
Для розпізнавання жестів використовується система на основі Microsoft Kinect, яка будує воксельну модель предмета. Порівнявши її з реально існуючими виробами (в даному випадку – товарами в меблевому магазині), програма повідомляє відчайдушно жестикулюючому покупцеві, де можна знайти те, що він хоче.
Прототип Data Miming, показаний на травневій конференції по взаємодії людини і комп’ютера CHI 2011, розпізнає три чверті «тілесних» описів, і в 98% випадків потрібний об’єкт знаходиться в першій трійці запропонованих машиною варіантів.




