RU2555228C2 - Манипулирование виртуальным объектом - Google Patents

Манипулирование виртуальным объектом Download PDF

Info

Publication number
RU2555228C2
RU2555228C2 RU2011138417/08A RU2011138417A RU2555228C2 RU 2555228 C2 RU2555228 C2 RU 2555228C2 RU 2011138417/08 A RU2011138417/08 A RU 2011138417/08A RU 2011138417 A RU2011138417 A RU 2011138417A RU 2555228 C2 RU2555228 C2 RU 2555228C2
Authority
RU
Russia
Prior art keywords
virtual
user
physical
space
virtual object
Prior art date
Application number
RU2011138417/08A
Other languages
English (en)
Other versions
RU2011138417A (ru
Inventor
Стефен Г. ЛАТТА
Кевин ГАЙСНЕР
Релья МАРКОВИЧ
Даррен Александр БЕННЕТТ
Артур Чарльз ТОМЛИН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2011138417A publication Critical patent/RU2011138417A/ru
Application granted granted Critical
Publication of RU2555228C2 publication Critical patent/RU2555228C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к устройствам манипуляции виртуальными объектами. Технический результат заключается в обеспечении возможности взаимодействия пользователя с виртуальными объектами в виртуальной среде, используя сопоставление между физическим объектом, которым управляет пользователь, и соответствующим указателем в виртуальной среде. Пользователь может использовать орган управления, такой как его рука, в физическом пространстве для ассоциирования его с указателем в виртуальной среде. По мере того, как пользователь манипулирует органом управления в физическом пространстве, это захватывают камерой глубины. Данные изображения из камеры глубины анализируют, чтобы определить, как манипулируют органом управления, и соответствующие манипуляции с указателем выполняют в виртуальном пространстве. Когда указатель взаимодействует с виртуальным объектом в виртуальном пространстве, этим виртуальным объектом управляют с помощью указателя. 3 н. 12 з.п. ф-лы, 8 ил.

Description

Уровень техники
Множество вычислительных приложений, таких как компьютерные игры, представляют пользователю виртуальную среду или миры. Эта среда часто содержит виртуальные объекты, с которыми может взаимодействовать пользователь. Типично такое взаимодействие происходит через устройства ввода данных, такие как контроллеры, пульты ДУ, клавиатуры, мыши, и т.п. К сожалению, такие способы ввода плохо соотносятся с выполняемым действием, таким как нажатие кнопки на контроллере, чтобы открыть дверь.
Сущность изобретения
Таким образом, улучшение может заключаться в том, чтобы позволить пользователю взаимодействовать с виртуальными объектами в виртуальной среде, используя сопоставление между физическим объектом, которым управляет пользователь, таким как его рука, который соответствует указателю в виртуальной среде. Здесь раскрыты способы, системы и считываемый компьютером носитель, которые выполняют такое манипулирование виртуальным объектом.
В примерном варианте осуществления физический орган управления пользователя ассоциирован с указателем в виртуальной среде. Входные данные органа управления пользователя принимают, и из них определяют соответствующую манипуляцию с указателем. Когда манипуляция с указателем соответствует манипуляции с виртуальным объектом, такую манипуляцию выполняют над виртуальным объектом, и результат отображают в устройстве отображения.
Для специалиста в данной области техники будет понятно, что один или более различных аспектов раскрытия могут включать в себя, но не ограничены этим, схемные и/или программные средства для осуществления описанных здесь аспектов настоящего раскрытия; схемные и/или программные средства виртуально могут представлять собой любую комбинацию аппаратного обеспечения, программного обеспечения и/или встроенного программного обеспечения, выполненную с возможностью осуществления описанных здесь аспектов, в зависимости от конструктивных решений разработчика системы.
Указанное выше представляет собой сущность изобретения и, таким образом, содержит, в случае необходимости, упрощения, обобщения и исключения деталей. Для специалиста в данной области техники будет понятно, что сущность изобретения представляет собой только иллюстрацию и никоим образом не предназначена для ограничения.
Краткое описание чертежей
Системы, способы и считываемый компьютером носитель информации для манипуляций с виртуальным объектом в соответствии с описанием дополнительно описаны со ссылкой на приложенные чертежи, на которых:
На фиг. 1A и 1B представлен примерный вариант осуществления системы распознавания, анализа и отслеживания цели с пользователем, играющим в игру.
На фиг. 2 показан примерный вариант осуществления устройства захвата, которое может использоваться в системе распознавания, анализа и отслеживания цели.
На фиг. 3A показан примерный вариант осуществления вычислительной среды, которая может использоваться для интерпретации одного или более жестов в системе распознавания, анализа и отслеживания цели.
На фиг. 3B показан другой примерный вариант осуществления вычислительной среды, которая может использоваться для интерпретации одного или более жестов в системе распознавания, анализа и отслеживания цели.
На фиг. 4A показано скелетное сопоставление пользователя, сгенерированное из системы распознавания, анализа и отслеживания цели по фиг. 2.
На фиг. 5 показана система, которая захватывает манипуляцию с органом управления пользователя, и сопоставляет ее с манипуляцией с указателями виртуального объекта.
На фиг. 6 показана примерная последовательность операций для манипулирования с виртуальным объектом.
Подробное описание изобретения
Как будет описано ниже, пользователь может управлять приложением, выполняющимся в вычислительной среде, такой как игровая консоль, компьютер и т.п., выполняя один или более жестов. В соответствии с одним вариантом осуществления, жесты могут быть приняты, например, устройством захвата. Например, устройство захвата может захватывать изображение глубины сцены. В одном варианте осуществления устройство захвата может определять, соответствует ли одна или более целей или объектов на сцене цели - человеку, такому как пользователь. Чтобы определить, соответствует или нет цель или объект на сцене цели - человеку, для каждой из целей может быть выполнена сплошная заливка сравнение со структурой модели тела человека. Каждая цель или объект, который соответствует модели тела человека, может быть затем отсканирован для генерирования скелетной модели, ассоциированной с ним. Скелетная модель может быть затем представлена в вычислительной среде так, что вычислительная среда может отслеживать скелетную модель, визуализировать аватар, ассоциированный со скелетной моделью, и может определять, какие элементы управления требуется выполнять в приложении, выполняющемся в вычислительной среде, на основе, например, жестов пользователя, которые были распознаны из скелетной модели. Механизм распознавания жеста, архитектура которого более полно описана ниже, используется, чтобы определять, когда конкретный жест был выполнен пользователем.
На фиг. 1A и 1B иллюстрируется примерный вариант осуществления конфигурации системы 10 распознавания, анализа и отслеживания цели с пользователем 18, играющим в игру в бокс. В примерном варианте осуществления, система 10 распознавания, анализа и отслеживания цели может использоваться для распознавания, анализа и/или отслеживания цели - человека, такой как пользователь 18.
Как показано на фиг. 1A, система 10 распознавания, анализа и отслеживания цели может включать в себя вычислительную среду 12. Вычислительная среда 12 может представлять собой компьютер, игровую систему или консоль, или тому подобное. В соответствии с примерным вариантом осуществления, вычислительная среда 12 может включать в себя аппаратные компоненты и/или программные компоненты, такие, что вычислительная среда 12 может использоваться для выполнения таких приложений, как игровые приложения, не игровые приложения или тому подобное.
Как показано на фиг. 1A, система 10 распознавания, анализа и отслеживания цели дополнительно включает в себя устройство 20 захвата. Устройство 20 захвата может представлять собой, например, камеру, которая может использоваться для визуального отслеживания одного или более пользователей, таких как пользователь 18, таким образом, что жесты, выполняемые одним или более пользователями, могут быть захвачены, проанализированы и могут отслеживаться для выполнения одного или более управлений или действий в пределах приложения, как будет более подробно описано ниже.
В соответствии с одним вариантом осуществления, система 10 распознавания, анализа и отслеживания цели может быть соединена с аудиовизуальным устройством 16, таким как телевизор, монитор, телевизор высокой четкости (HDTV, ТВВЧ) или тому подобное, которые могут обеспечивать визуальное и/или аудиопредставление игры или приложения, для пользователя, такого, как пользователь 18. Например, вычислительная среда 12 может включать в себя видеоадаптер, такой как видеокарта и/или аудиоадаптер, такой как звуковая карта, которые могут обеспечивать аудиовизуальные сигналы, ассоциированные с игровым приложением, неигровым приложением, или тому подобное. Аудиовизуальное устройство 16 может принимать аудиовизуальные сигналы из вычислительной среды 12, и может затем выводить визуальное и/или аудиопредставление игры или приложения, ассоциированные с аудиовизуальными сигналами для пользователя 18. В соответствии с одним вариантом осуществления, аудиовизуальное устройство 16 может быть соединено с вычислительной средой 12, например, через кабель S-Video, коаксиальный кабель, кабель HDMI, кабель DVI, кабель VGA или тому подобное.
Как показано на фиг. 1A и 1B, система 10 распознавания, анализа и отслеживания цели может использоваться для распознавания, анализа и/или отслеживания цели - человека, такой как пользователь 18. Например, пользователя 18 можно отслеживать, используя устройство 20 захвата, таким образом, что движения пользователя 18 могут быть интерпретированы, как элементы управления, которые можно использовать для того, чтобы влиять на приложение, выполняемое в вычислительной среде 12. Таким образом, в соответствии с одним вариантом осуществления, пользователь 18 может двигать его или ее телом для управления приложением.
Как показано на фиг. 1A и 1B, в примерном варианте осуществления приложение, выполняемое в вычислительной среде 12, может представлять собой игру в бокс, в которую может играть пользователь 18. Например, вычислительная среда 12 может использовать аудиовизуальное устройство 16 для обеспечения визуального представления партнера 22 для игры в бокс пользователю 18. Вычислительная среда 12 также может использовать аудиовизуальное устройство 16 для обеспечения визуального представления аватара 24 игрока, которым пользователь 18 может управлять его или ее движениями. Например, как показано на фиг. 1В, пользователь 18 может нанести удар в физическом пространстве, заставляя аватар 24 игрока нанести удар в игровом пространстве. Таким образом, в соответствии с примерным вариантом осуществления, вычислительная среда 12 и устройство 20 захвата системы 10 распознавания, анализа и отслеживания цели могут использоваться для распознавания и анализа удара пользователя 18 в физическом пространстве таким образом, что удар может быть интерпретирован как игровой элемент управления аватаром 24 игрока в пространстве игры.
Другие движения пользователя 18, также могут быть интерпретированы, как другие элементы управления или действия, такие как управление резким движением, качанием, уворачиванием, блокированием, прямым ударом в корпус или нанесением множества ударов разной силы. Кроме того, некоторые движения могут быть интерпретированы, как элементы управления, которые могут соответствовать действиям отличным от управления аватаром 24 игрока. Например, игрок может использовать движения для окончания, паузы или сохранения игры, выбора уровня, просмотра наивысших достижений игры, для общения с друзьями и т.д.
В примерных вариантах осуществления цель - человек, такая как пользователь 18, может иметь объект. В таких вариантах осуществления пользователь электронной игры может удерживать объект таким образом, чтобы движения игрока и объекта можно было использовать для регулирования и/или управления параметрами игры. Например, движение игрока, удерживающего ракетку, могут отслеживаться и использоваться для управления ракеткой, представленной на экране в электронной спортивной игре. В другом примерном варианте осуществления движение игрока, удерживающего объект можно отслеживать и использовать для управления оружием, представленным на экране в электронной боевой игре.
В соответствии с другими примерными вариантами осуществления, система 10 распознавания, анализа и отслеживания цели может дополнительно использоваться для интерпретации движений цели в качестве элементов управления операционной системы и/или приложения, которые находятся за пределами области игр. Например, фактически любым управляемым аспектом операционной системы и/или приложения можно управлять с помощью движений цели, такой как пользователь 18.
На фиг. 2 иллюстрируется примерный вариант осуществления устройства 20 захвата, которое может использоваться в системе 10 распознавания, анализа и отслеживания цели. В соответствии с примерным вариантом осуществления, устройство 20 захвата может быть выполнено с возможностью захвата видеоизображения с информацией глубины, включающей в себя изображение глубины, которое может включать в себя значения глубины, используя любую подходящую технологию, включая в себя, например, время пролета, структурированный свет, стереоизображение или тому подобное. В соответствии с одним вариантом осуществления, устройство 20 захвата может организовать расчетную информацию глубины на "уровнях Z" или в уровнях, которые могут быть перпендикулярны оси Z, продолжающейся от камеры глубины вдоль ее линии обзора.
Как показано на фиг. 2, устройство 20 захвата может включать в себя компонент 22 камеры изображения. В соответствии с примерным вариантом осуществления, компонент 22 камеры изображения может представлять собой камеру глубины, которая может захватывать изображение глубины сцены. Изображение глубины может включать в себя двумерную (2D) область пикселей захватываемой сцены, где каждый пиксель в 2D пиксельной области может представлять длину, например, в сантиметрах, миллиметрах или тому подобное объекта в захватываемой сцене из камеры.
Как показано на фиг. 2, в соответствии с примерным вариантом осуществления, компонент 22 камеры изображения может включать в себя компонент 24 инфракрасного света, трехмерную (3D) камеру 26 и камеру 28 RGB, которые могут использоваться для захвата изображения глубины сцены. Например, при анализе времени пролета, компонент 24 инфракрасного света устройства 20 захвата может излучать инфракрасный свет на сцену и может затем использовать датчики (не показаны) для детектирования обратно рассеянного света от поверхности одной или более целей и объектов на сцене, используя, например, 3D камеру 26 и/или RGB камеру 28. В некоторых вариантах осуществления пульсирующий инфракрасный свет можно использовать таким образом, что время между исходящим импульсом света и соответствующим входящим импульсом света может быть измерено и использовано для определения физического расстояния от устройства 20 захвата до определенного местоположения на целях или объектах на сцене. Кроме того, в других примерных вариантах осуществления фазу исходящей волны света можно сравнивать с фазой входящей волны света для определения сдвига фазы. Сдвиг фазы можно затем использовать для определения физического расстояния от устройства захвата до определенного местоположения на целях или объектах.
В соответствии с другим примерным вариантом осуществления, анализ по времени пролета можно использовать для опосредованного определения физического расстояния от устройства 20 захвата до определенного местоположения на целях или объектах путем анализа интенсивности отраженного луча света с течением времени, посредством различных технологий, включающих в себя, например, формирование изображений, используя стробированные импульсы света.
В другом примерном варианте осуществления устройство 20 захвата может использовать структурированный свет, для захвата информации глубины. При таком анализе структурированный свет (то есть, свет, отображаемый, как известная структура, такая как структура сетки или структура полоски), может быть спроецирован на сцену через, например, компонент 24 инфракрасного света. После падения на поверхность одной или более целей или объектов на сцене, структура может стать деформированной в отклике.
Такая деформация структуры может быть захвачена, например, 3D камерой 26 и/или RGB камерой 28 и может быть затем проанализирована для определения физического расстояния от устройства захвата до определенного местоположения на целях или объектах.
В соответствии с другим вариантом осуществления, устройство 20 захвата может включать в себя две или более физически разделенных камеры, которые могут просматривать сцену под разными углами, получать визуальные стереоскопические данные, по которым может быть сгенерирована информация глубины.
Устройство 20 захвата может дополнительно включать в себя микрофон 30. Микрофон 30 может включать в себя преобразователь или датчик, который может принимать и преобразовывать звук в электрический сигнал. В соответствии с одним вариантом осуществления, массив микрофонов 30 может использоваться для уменьшения обратной связи или искажений аудио, по сравнению с одиночным микрофоном, который принимает звук. Кроме того, микрофон 30 может использоваться для приема аудиосигналов, которые также могут быть предоставлены пользователем для управления приложениями, такими как игровые приложения, неигровые приложения или тому подобное, которое может выполняться вычислительной средой 12.
В примерном варианте осуществления устройство 20 захвата может дополнительно включать в себя процессор 32, который может быть функционально связан с компонентом 22 камеры изображения. Процессор 32 может включать в себя стандартизированный процессор, специализированный процессор, микропроцессор или тому подобное, который может выполнять инструкции, которые могут включать в себя инструкции для приема изображения глубины, определения, может ли быть подходящая цель включена в изображение глубины, преобразования подходящей цели в скелетное представление или модель цели, или любую другую подходящую инструкцию.
Устройство 20 захвата может дополнительно включать в себя компонент 34 запоминающего устройства, который может сохранять инструкции, которые могут быть выполнены с помощью процессора 32, изображения или кадры изображений, захваченные 3D камерой или камерой RGB, или любую другую подходящую информацию, изображения или тому подобное. В соответствии с примерным вариантом осуществления, компонент 34 запоминающего устройства может включать в себя оперативное запоминающее устройство (RAM), постоянное запоминающее устройство (ROM), кэш, запоминающее устройство типа флэш, жесткий диск или любой другой подходящий компонент накопителя. Как показано на фиг. 2, в одном варианте осуществления, компонент 34 запоминающего устройства может представлять собой отдельный компонент при обмене данными с компонентом 22 захвата изображения и процессором 32. В соответствии с другим вариантом осуществления, компонент 34 запоминающего устройства может быть интегрирован в процессор 32 и/или в компонент 22 захвата изображения.
Как показано на фиг. 2, устройство 20 захвата может находиться в состоянии обмена данными с вычислительной средой 12 через линию 36 передачи данных. Линия 36 передачи данных может представлять собой проводное соединение, включающее в себя, например, соединение USB, соединение FireWire, кабельное соединение Ethernet или тому подобное, и/или беспроводное соединение, такое как беспроводное соединение 802.11b, g, a или n. В соответствии с одним вариантом осуществления, вычислительная среда 12 может предоставлять тактовую частоту в устройство 20 захвата изображения, которая может использоваться для определения, когда следует выполнить захват, например, сцены через линию 35 передачи данных.
Кроме того, устройство 20 захвата может предоставлять информацию глубины и изображения, захваченные, например, с помощью 3D камеры 26 и/или RGB камеры 28, и скелетную модель, которая может быть сгенерирована с помощью устройства 20 захвата, для вычислительной среды 12 через линию 36 передачи данных. Вычислительная среда 12 может затем использовать скелетную модель, информацию глубины и захваченные изображения, для того, чтобы, например, распознавать жесты пользователя и в ответ управлять приложением, таким как игра или текстовый процессор. Например, как показано, на фиг. 2, вычислительная среда 12 может включать в себя механизм 190 распознавания жестов. Механизм 190 распознавания жестов может включать в себя подборку фильтров жестов, каждый из которых содержит информацию, относящуюся к жесту, который может быть выполнен скелетной моделью (когда пользователь двигается). Данные, захваченные камерами 26, 28 и устройством 20 в форме скелетной модели, и движения связанные с нею, можно сравнивать с фильтрами жестов в механизме 190 распознавания жестов для идентификации, когда пользователь (представленный в виде скелетной модели) выполнил один или более жестов. Эти жесты могут быть ассоциированы с различными элементами управления приложением. Таким образом, вычислительная среда 12 может использовать механизм 190 распознавания жестов для интерпретации движений скелетной модели и для управления приложением на основе движений.
На фиг. 3А иллюстрируется примерный вариант осуществления вычислительной среды, которая может использоваться для интерпретации одного или более жестов в системе распознавания, анализа и отслеживания цели. Вычислительная среда, такая как вычислительная среда 12, описанная выше со ссылкой на фиг. 1A-2, может представлять собой мультимедийную консоль 100, такую как игровая консоль. Как показано на фиг. 3А, мультимедийная консоль 100 имеет центральное процессорное устройство (CPU, ЦПУ) 101, имеющее кэш 102 уровня 1, кэш 104 уровня 2 и ROM (ПЗУ, постоянное запоминающее устройство) 106 типа флэш. Кэш 102 уровня 1 и кэш 104 уровня 2 временно сохраняют данные и, следовательно, уменьшают количество циклов доступа к запоминающему устройству, улучшая, таким образом, скорость обработки и производительность. CPU 101 может быть предоставлено, как имеющее более, чем одно ядро, и, таким образом, дополнительные кэш 102 и 104 уровня 1 и уровня 2. ROM 106 типа флэш может содержать исполняемые коды, которые загружают во время исходной фазы процесса загрузки, при включении питания мультимедийной консоли 100.
Модуль 108 графической обработки (GPU, МГО) и видеокодер/видеокодек (кодер/декодер) 114 формируют конвейер видеообработки для обработки графики с высокой скоростью с высоким разрешением. Данные передают из модуля 108 графической обработки в видеокодер/видеокодек 114 через шину. Конвейер видеообработки выводит данные в A/V (А/В, аудио/видео) порт 140 для передачи в телевизор или в другое устройство отображения. Контроллер 110 запоминающего устройства соединен с GPU 108, который способствует доступу процессора к различным типам запоминающего устройства 112, таким как, но без ограничений, RAM (ОЗУ, оперативное запоминающее устройство).
Мультимедийная консоль 100 включает в себя контроллер 120 I/O (ввода/вывода), контроллер 122 управления системой, модуль 123 обработки аудио, контроллер 124 сетевого интерфейса, первый хост-контроллер 126 USB, второй контроллер 128 USB и подузел 130 I/O передней панели, которые предпочтительно воплощены в модуле 118. Контроллеры 126 и 128 USB используются как хост-устройства для периферийных контроллеров 142(1)-142(2), беспроводного адаптера 148 и внешнего запоминающего устройства 146 (например, запоминающее устройство типа флэш, внешний накопитель на CD/DVD ROM, съемный носитель и т.д.). Сетевой интерфейс 124 и/или беспроводный адаптер 148 обеспечивают доступ к сети (например, Интернет, домашней сети и т.д.), и могут представлять собой любые из широкого разнообразия различных проводных или беспроводных компонентов адаптера, включая в себя карту Ethernet, модем, модуль Bluetooth, кабельный модем и т.п.
Системное запоминающее устройство 143 предусмотрено для сохранения данных приложения, которые загружаются во время процесса загрузки. Накопитель 144 на носителе предусмотрен и может содержать накопитель на DVD/CD, накопитель на жестких дисках или накопитель на другом съемном носителе и т.д. Накопитель 144 на носителе может быть внутренним или внешним для мультимедийной консоли 100. Доступ к данным приложения может осуществляться через накопитель 144 на носителе для выполнения, воспроизведения и т.д. с помощью мультимедийной консоли 100. Накопитель 144 на носителе соединен с контроллером 120 I/O через шину, такую как последовательная шина ATA или другое высокоскоростное соединение (например, IEEE 1394).
Контроллер 122 управления системой обеспечивает различные служебные функции, относящиеся к обеспечению доступности мультимедийной консоли 100. Модуль 123 обработки аудио и аудиокодек 132 формируют соответствующий конвейер обработки аудио с высококачественной и стереофонической обработкой. Аудиоданные передают между модулем 123 обработки аудио и аудиокодеком 132 через линию передачи данных. Конвейер обработки аудио выводит данные в A/V порт 140 для воспроизведения с помощью внешнего аудиопроигрывателя или устройства, обладающего возможностями воспроизведения аудио.
Подузел 130 I/O передней панели поддерживает функцию кнопки 150 включения питания и кнопки 152 выброса, а также некоторое количество LED (светодиодов) или других индикаторов, расположенных на внешней поверхности мультимедийной консоли 100. Модуль 136 источника питания системы обеспечивает энергию питания для компонентов мультимедийной консоли 100. Вентилятор 138 охлаждает цепи мультимедийной консоли 100.
CPU 101, GPU 108, контроллер 110 запоминающего устройства и различные другие компоненты в мультимедийной консоли 100 взаимно соединены через одну или более шин, включая в себя последовательные и параллельные шины, шину запоминающего устройства, периферийную шину и шину процессора или локальную шину, используя любую из различных архитектур шин. В качестве примера такие архитектуры могут включать в себя шину межсоединения периферийных компонентов (PCI, МПК), шину PCI-Express и т.д.
Когда включают питание мультимедийной консоли 100, данные приложения могут быть загружены из системного запоминающего устройства 143 в запоминающее устройство 112 и/или кэш 102, 104 и выполнены в CPU 101. Приложение может представлять графический интерфейс пользователя, который обеспечивает соответствующее восприятие для пользователя при переходе к разным типам носителей, доступных в мультимедийной консоли 100. Во время работы приложения и/или другие носители, содержащиеся в накопителе 144 на носителе, могут быть запущены или воспроизведены из накопителя 144 на носителе для обеспечения дополнительных функций для мультимедийной консоли 100.
Мультимедийная консоль 100 может работать, как автономная система, путем простого соединения системы с телевизором или другим устройством отображения. В таком автономном режиме мультимедийная консоль 100 позволяет одному или более пользователям взаимодействовать с системой, просматривать кинофильмы или прослушивать музыку. Однако, в случае интеграции с широкополосной возможностью подключения, доступной через сетевой интерфейс 124 или беспроводный адаптер 148, мультимедийная консоль 100 может дополнительно работать, как участник большего сетевого сообщества.
Когда включают питание мультимедийной консоли 100, установленное количество аппаратных ресурсов резервируют для использования системы с помощью операционной системы мультимедийной консоли. Эти ресурсы могут включать в себя резервирование памяти запоминающего устройства (например, 16 Мб), циклов CPU и GPU (например, 5%), полосы пропускания сети (например, 8 Кб/с) и т.д. Поскольку эти ресурсы резервируют во время загрузки системы, зарезервированные ресурсы не существуют с точки зрения приложения.
В частности резервирование запоминающего устройства предпочтительно является достаточно большим для содержания ядра запуска, активных системных приложений и драйверов. Резервирование CPU предпочтительно является постоянным таким образом, что, если зарезервированная степень использования CPU не используется системными приложениями, то незанятый поток будет потреблять любые неиспользованные циклы.
Что касается резервирования GPU, сообщения незначительной важности, генерируемые системными приложениями (например, всплывающие сообщения), отображаются путем использования прерывания GPU для планирования кода, для представления всплывающего меню с наложением. Объем памяти, требуемый для наложения, зависит от размера области наложения, и область наложения, предпочтительно масштабируют в соответствии с разрешением экрана. В случае, когда весь интерфейс пользователя используется активным системным приложением, предпочтительно использовать разрешающую способность, независимую от разрешающей способности приложения. Блок масштабирования можно использовать для установки такого разрешения так, чтобы устранить необходимость менять частоту и обеспечивать повторную синхронизацию телевизора.
После загрузки мультимедийной консоли 100 и резервирования системных ресурсов, активные системные приложения выполняют для обеспечения функций системы. Эти функции системы инкапсулированы в набор системных приложений, которые выполняют в пределах зарезервированных ресурсов системы, описанных выше. Ядро операционной системы идентифицирует потоки, которые представляют собой потоки системного приложения в отличие от потоков игрового приложения. Системные приложения, предпочтительно, запланированы для работы с CPU 101 в заданные моменты времени и интервалы, для обеспечения последовательного обзора системных ресурсов для приложения. Планирование состоит в минимизации нарушения кэш для игрового приложения, работающего на консоли.
Когда активное системное приложение требует использования аудио, обработку аудио планируют асинхронно с игровым приложением, ввиду чувствительности ко времени. Администратор приложения мультимедийной консоли (описанный ниже) управляет уровнем звука игрового приложения (например, отключение звука, приглушенный звук), когда системные приложения активны.
Устройства ввода (например, контроллеры 142(1) и 142(2)), совместно используются игровыми приложениями и системными приложениями. Устройства ввода не являются зарезервированными ресурсами, но их требуется переключать между системными приложениями и игровым приложением таким образом, что каждый из них будет иметь фокус на устройстве. Администратор приложения, предпочтительно, управляет переключением входного потока, не имея данных об игровом приложении, и драйвер поддерживает информацию о состоянии в отношении переключателей, находящихся в фокусе. Камеры 26, 28 и устройство 20 захвата могут определять дополнительные устройства ввода для консоли 100.
На фиг. 3В иллюстрируется другой примерный вариант осуществления вычислительной среды 220, которая может представлять собой вычислительную среду 12, показанную на фиг. 1A-2, используемую для интерпретации одного или более жестов в системе распознавания, анализа и отслеживания цели. Среда 220 вычислительной системы представляет собой только один пример, соответствующий вычислительной среде, и не предназначена для наложения каких-либо ограничений на объем использования или функции предпочтительно раскрытого предмета изобретения. Вычислительная среда 220 также не должна быть интерпретирована, как имеющая какую-либо зависимость или требования, относящиеся к любому одному или комбинации компонентов, представленных в примерной операционной среде 220. В некоторых вариантах осуществления различные представленные вычислительные элементы могут включать в себя схемы, предназначенные для иллюстрации примеров конкретных аспектов настоящего раскрытия. Например, термин схема, используемый в раскрытии, может включать в себя специализированные аппаратные компоненты, сконфигурированные для выполнения функции (функций), используя встроенное программное обеспечение или переключатели. В других примерных вариантах осуществления термин схема может включать в себя модуль обработки общего назначения, запоминающее устройство и т.д., сконфигурированные посредством программных инструкций, в которых воплощена логика, работающая для выполнения функции (функций). В примерных вариантах осуществления, в случае, когда схема включает в себя комбинацию аппаратного и программного обеспечения, конструктор может написать исходный код, воплощающий логику, и этот исходный код может быть скомпилирован в считываемый машиной код, который может быть обработан модулем обработки общего назначения. Поскольку для специалиста в данной области техники будет понятно, что предшествующий уровень техники в своем развитии достиг точки, в которой существует небольшое различие между аппаратным обеспечением, программным обеспечением или комбинацией аппаратного обеспечения/программного обеспечения, поэтому выбор из аппаратного обеспечения или программного обеспечения для выполнения конкретных функций представляет собой конструктивный выбор, оставленный на усмотрение конструктора. Более конкретно, для специалиста в данной области техники будет понятно, что процесс, выполняемый программным обеспечением, может быть преобразован в эквивалентную аппаратную структуру, и аппаратная структура может быть сама преобразована в эквивалентный программный процесс. Таким образом, выбор из аппаратного воплощения, либо программного воплощения, представляет собой один из конструктивного выбора и остается на усмотрение конструктора.
На фиг. 3В вычислительная среда 220 содержит компьютер 241, который типично включает в себя различные считываемые компьютером носители информации. Считываемые компьютером носители информации могут представлять собой любые доступные носители информации, доступ к которым может осуществлять компьютер 241, и включают в себя, как энергозависимый, так и энергонезависимый носитель информации, съемный и несъемный носитель информации. Системное запоминающее устройство 222 включает в себя компьютерные носители информации в форме энергозависимого и/или энергонезависимого запоминающего устройства, такого как постоянное запоминающее устройство (ROM) 223 и оперативное запоминающее устройство (RAM) 260. Базовая система 224 ввода/вывода (BIOS, БСВВ), содержащая основные процедуры, которые помогают передавать информацию между элементами в компьютере 241, например, во время запуска, типично содержится в ROM 223. RAM 260 типично содержит данные и/или программные модули, доступ к которым может осуществляться немедленно и/или с которыми в данный момент выполняет операции модуль 259 обработки. В качестве примера, а не для ограничений, на фиг. 3В иллюстрируется операционная система 225, программа 226 приложения, другие программные модули 227 и программные данные 228.
Компьютер 241 также может включать в себя другие съемные/несъемные, энергозависимые/энергонезависимые компьютерные носители информации. Только в качестве примера, на фиг. 3В иллюстрируется накопитель 238 на жестком диске, который считывает с или записывает на несъемный, энергонезависимый магнитный носитель информации, накопитель 239 на магнитном диске, который считывает с или записывает на съемный, энергонезависимый магнитный диск 254, и накопитель 240 на оптическом диске, который считывает с или записывает на съемный, энергонезависимый оптический диск 253, такой как CD-ROM или другой оптический носитель информации. Другие съемные/несъемные, энергозависимые/энергонезависимые компьютерные носители информации, которые можно использовать в примерной операционной среде, включают в себя, но не ограничиваются этим, кассеты с магнитными лентами, карты запоминающих устройств типа флэш, цифровые универсальные диски, цифровую видеоленту, твердотельное RAM, твердотельное ROM и т.п. Накопитель 238 на жестком диске типично соединен с системной шиной 221 через интерфейс несъемного запоминающего устройства, такой как интерфейс 234, и накопитель 239 на магнитном диске и накопитель 240 на оптическом диске типично соединены с системной шиной 221 через интерфейс съемного запоминающего устройства, такой как интерфейс 235.
Накопители и их ассоциированные компьютерные носители информации, описанные выше и представленные на фиг. 3В, обеспечивают сохранение считываемых компьютером инструкций, структур данных, программных модулей и других данных для компьютера 241. На фиг. 3В, например, накопитель 238 на жестком диске показан, как содержащий операционную систему 258, программы 257 приложения, другие программные модули 256 и программные данные 255. Следует отметить, что эти компоненты могут быть либо теми же, что и или отличными от операционной системы 225, программ 226 приложения, других программных модулей 227, и программных данных 228. Операционная система 258, программы 257 приложения, другие программные модули 256 и программные данные 255 обозначены здесь разными номерами для иллюстрации того, что, как минимум, они представляют собой разные копии. Пользователь может ввести команды и информацию в компьютер 241 через устройства ввода данных, такие как клавиатура 251 и устройство 252 - указатель, обычно называемое мышью, шаровым указателем или сенсорной панелью. Другие устройства ввода данных (не показаны) могут включать в себя микрофон, джойстик, игровую панель, спутниковую антенну, сканер или тому подобное. Эти и другие устройства ввода данных часто соединены с модулем 259 обработки через интерфейс 236 ввода пользователя, который соединен с системной шиной, но могут быть соединены с помощью другого интерфейса и структур шин, таких как параллельный порт, игровой порт или универсальная последовательная шина (USB). Камеры 26, 28 и устройство 20 захвата могут определять дополнительные устройства ввода данных для консоли 100. Монитор 242 или устройство отображения другого типа также соединен с системной шиной 221 через интерфейс, такой как видеоинтерфейс 232. В дополнение к монитору, компьютеры также могут включать в себя другие периферийные устройства вывода, такие как громкоговорители 244 и принтер 243, которые могут быть соединены через интерфейс 233 периферийных устройств вывода.
Компьютер 241 может работать в сетевой среде, используя логические соединения с одним или более удаленными компьютерами, таким как удаленный компьютер 246. Удаленный компьютер 246 может представлять собой персональный компьютер, сервер, маршрутизатор, сетевой PC, одноуровневое устройство или другой общий сетевой узел, и типично включает в себя множество или все элементы, описанные выше в отношении компьютера 241, хотя только запоминающее устройство 247 было представлено на фиг. 3В. Логические соединения, показанные на фиг. 3В, включают в себя локальную вычислительную сеть (LAN, ЛВС) 245 и глобальную вычислительную сеть (WAN, ГВС) 249, но также могут включать в себя другие сети. Такая сетевая среда, как правило, используется в офисах, в компьютерных сетях, развернутых на предприятиях, в интрасети и в сети Интернет.
При использовании в сетевой среде LAN, компьютер 241 соединен с LAN 245 через сетевой интерфейс или адаптер 237. При использовании в сетевой среде WAN, компьютер 241 типично включает в себя модем 250 или другое средство для установления возможности обмена данными через WAN 249, такую как Интернет. Модем 250, который может представлять собой внутренний или внешний модем, может быть соединен с системной шиной 221 через интерфейс 236 ввода пользователя или другой соответствующий механизм. В сетевой среде программные модули, описанные в отношении компьютера 241, или их части, могут быть сохранены в удаленном запоминающем устройстве. В качестве примера, а не для ограничения, на фиг. 3В иллюстрируются удаленные программы 248 приложения, как находящиеся в запоминающем устройстве 247. Следует понимать, что показанные сетевые соединения представляют собой примеры, и можно использовать другие средства установления линии передачи данных между компьютерами.
На фиг. 4A представлен пример скелетного сопоставления пользователя, которое может быть сгенерировано из устройства 20 захвата. В данном варианте осуществления различные суставы и кости идентифицированы следующим образом: каждая рука 302, каждое предплечье 304, каждый локоть 306, каждый бицепс 308, каждое плечо 310, каждая верхняя часть бедра 312, каждое бедро 314, каждое колено 316, каждая голень 318, каждая ступня 320, голова 322, туловище 324, верхняя часть 326 и нижняя часть 328 позвоночника и талия 330. В случае, когда отслеживается больше точек, то могут быть идентифицированы дополнительные свойства такие, как кости и суставы пальцев на руках или пальцев на ногах, или отдельные черты лица, такие как нос и глаза.
В результате движения своим телом, пользователь может формировать жесты. Жест содержит движение или позу пользователя, которое может быть захвачено, как данные изображения и проанализированы для получения их значения. Жест может быть динамическим, содержащим движение, таким как имитация броска шара. Жест может представлять собой статическую позу, такую как поза со скрещенными предплечьями 304 перед туловищем 324. Жест также может включать в себя стойки, такие как размахивание имитированным мечом. Жест может содержать более чем одну часть тела, например, хлопание в ладоши 302 или едва уловимые движения, такие как сжатие губ.
Жесты пользователя можно использовать для ввода общего вычислительного контекста. Например, различные движения рук 302 или других частей тела могут соответствовать общим задачам, относящимся ко всей системе, таким как передвижение вверх или вниз по иерархическому списку, открытие файла, закрытие файла и сохранение файла. Жесты также могут использоваться в специфичном контексте видеоигры, в зависимости от игры. Например, для игры управления транспортным средством, различные движения рук 302 и ступней 320 могут соответствовать управлению транспортным средством по направлению, переключению передач, ускорению и торможению.
Пользователь может генерировать жест, который соответствует ходьбе или бегу, в результате выполнения им ходьбы или бега на месте. Пользователь может поочередно поднимать и опускать каждую ногу 312-320, для подражания ходьбе на месте. Система может анализировать этот жест путем анализа каждой верхней части бедра 312 и каждого бедра 314. Шаг может быть распознан, когда один угол между верхней частью бедра и бедром (измеренный относительно вертикальной линии, в котором нога в состоянии покоя имеет угол между верхней частью бедра и бедром, равный 0°, и горизонтально вытянутая вперед нога имеет угол между верхней частью бедра и бедром, равный 90°), превышает определенный порог относительно другого бедра. Ходьба или бег могут быть распознаны после некоторого количества последовательных шагов, выполняемых ногами поочередно. Время между двумя самыми последними шагами может использоваться, как период. После некоторого количества периодов, когда пороговый угол не соблюдается, система может определить, что жест ходьбы или бега был закончен.
Для данного жеста "ходьба или бег", приложение может устанавливать значения для параметров, определенных приложением, ассоциированных с этим жестом. Эти параметры могут включать в себя описанный выше пороговый угол, количество шагов, требуемых для инициирования жеста ходьбы или бега, количество периодов, когда отсутствие шагов приводит к окончанию жеста, и пороговый период, который определяет, является ли жест ходьбой или бегом. Быстрый период может соответствовать бегу, поскольку пользователь двигает своими ногами быстро, и медленный период может соответствовать ходьбе.
Жест может быть ассоциирован с набором принятых по умолчанию параметров, которые приложение может заменить своими собственными параметрами. В этом сценарии приложение не вынуждают предоставить параметры, но вместо этого оно может использовать набор принятых по умолчанию параметров, которые обеспечивают возможность распознавания жеста в отсутствии определенных приложением параметров.
Существует множество выходных данных, которые могут быть ассоциированы с жестом. Может использоваться линия раздела "да или нет" в отношении того, возник или нет жест. Также может учитываться уровень доверительности, который соответствует вероятности того, что отслеживаемое движение пользователя соответствует жесту. Он может представлять собой линейную шкалу в диапазоне дробных чисел от 0 до 1, включительно. При этом приложение, принимающее такую информацию жеста, не может принять ложноположительные решения в качестве ввода, оно может использовать только те распознанные жесты, которые имеют высокий уровень доверительности, такой как по меньшей мере 0,95. В случае, когда приложение должно распознавать каждый случай возникновения жеста, даже за счет возникновения ложноположительных решений, оно может использовать жесты, которые имеют, по меньшей мере, гораздо более низкий уровень доверительности, например, такой, как всего лишь более, чем 0,2. Жест может иметь выходные данные в течение времени между двумя самыми последними шагами, и в случае, когда был зарегистрирован только первый шаг, он может быть установлен, как зарезервированное значение, такое как -1 (поскольку время между любыми двумя шагами должно быть положительным). Жест также может иметь выходные данные для наибольшего угла бедра, достигнутого во время самого последнего шага.
Другой примерный жест представляет собой "прыжок с подъемом пятки". При этом пользователь может сформировать жест, отрывая свои пятки от земли, но оставаясь стоять на носках. В качестве альтернативы, пользователь может прыгать в воздухе так, что его ступни 320 полностью отрываются от земли. Система может анализировать скелет такого жеста, анализируя отношение углов плеч 310, верхней части бедра 312 и колен 316, проверяя, находятся ли они в состоянии выравнивания, равном прямой стойке. Затем эти точки, а также верхние 326 и нижние 328 точки позвоночника могут отслеживаться для определения направленного вверх ускорения. Достаточная комбинация ускорения может инициировать жест прыжка.
Для такого жеста "прыжок с подъемом пятки", приложение может устанавливать значения для параметров, определенных приложением, ассоциированных с этим жестом. Эти параметры могут включать в себя описанный выше порог ускорения, который определяет, насколько быстро некоторая комбинация плеч 310, верхних частей бедра 312 и колен 316 пользователя должна переместиться вверх для инициирования жеста, а также максимальный угол выравнивания между плечами 310, верхними частями бедра 312 и коленями 316, при котором прыжок все еще может быть инициирован.
Выходные данные могут содержать уровень доверительности, а также угол тела пользователя во время прыжка.
Параметры установки для жеста на основе конкретных деталей приложения, которые будут получать жест, являются важными для точной идентификации жестов. Правильная идентификация жестов и намерения пользователя очень помогают сформировать положительное восприятие у пользователя. В случае, когда система устройства распознавания жеста слишком чувствительна, и даже небольшое движение вперед руки 302 интерпретируется как бросок, пользователь может расстроиться, потому что жесты распознаются, когда у него нет намерения выполнить жест, и таким образом, у него нет управления системой. Когда система устройства распознавания жеста недостаточно чувствительна, система может не распознавать сознательные попытки пользователя сделать жест броска, расстраивая его таким же образом. С обеих сторон спектра чувствительности, пользователь расстраивается, потому что он не может должным образом обеспечить подачу входных команд в систему.
Другой параметр для жеста может представлять собой расстояние перемещения. Когда жесты пользователя управляют действиями аватара в виртуальной среде, аватар может находиться на расстоянии вытянутой руки от шара. Если пользователь желает взаимодействовать с шаром и схватить его, для этого может потребоваться, чтобы пользователь вытянул свою руку 302-310 на всю длину, выполняя жест захвата. В этой ситуации аналогичный жест захвата, когда пользователь только частично вытягивает свою руку 302-310, может не достичь результата взаимодействия с шаром.
Жест или часть его может иметь в качестве параметра объем пространства, в котором он должен произойти. Этот объем пространства типично может быть выражен в отношении тела, где жест содержит движение тела. Например, жест броска футбольного мяча для пользователя правши может быть распознан только в объеме пространства, не меньшем, чем правое плечо 310a, и с той же стороны относительно головы 322, с которой находится выполняющая бросок рука 302a-310a. При этом может и не быть необходимым определить все границы объема, так, например, для жеста броска, при котором внешняя граница, находящаяся за пределами тела остается не идентифицирована, и объем расширяется неопределенно или до кромки отслеживаемой сцены.
На фиг. 5 показана система, которая захватывает манипуляцию с органом управления пользователя в физическом пространстве и сопоставляет ее с манипуляцией с указателем виртуального объекта в виртуальной среде.
Виртуальное пространство может содержать представление трехмерного пространства, на которое пользователь может влиять (например, путем перемещения объекта) через ввод данных пользователем. Это виртуальное пространство может быть полностью виртуальным пространством, у которого нет никакой корреляции с физическим пространством пользователя (таким как представление замка или классной комнаты, отсутствующих в физической действительности). Такое виртуальное пространство может также быть основано на физическом пространстве, с которым у пользователя нет никакой связи, таком как физическая классная комната в г. Де-Мойн, штат Айова, которую пользователь в г. Редмонд, штат Вашингтон никогда не видел и не был внутри нее.
Виртуальное пространство может содержать представление некоторой детали физического пространства пользователя. Камера глубины, которая захватывает пользователя, может также захватывать окружающую среду, в которой пользователь находится физически, анализировать ее, чтобы определить границы пространства, видимого камерой, а так же дискретные объекты в этом пространстве, и создавать виртуальные представления его всего или его детали, которые затем представляют пользователю как виртуальное пространство.
Виртуальное пространство может содержать представление некоторой детали физического пространства второго пользователя. Когда два пользователя взаимодействуют друг с другом через виртуальную среду, и их захватывают соответствующими камерами глубины, виртуальное пространство может быть представлением виртуального пространства этого второго пользователя.
Виртуальное пространство может также быть некоторой комбинацией этих пространств. Оно может представлять собой объединение представления физического пространства пользователя и просто виртуального пространства (которое может быть названо чисто виртуальным подпространством, поскольку объединение представляет собой виртуальное пространство) так, что оба они представлены как одно виртуальное пространство. Аналогично, оно может представлять собой объединение представления физического пространства пользователя, чисто виртуального пространства и представления виртуального пространства второго пользователя, объединение представления физического пространства пользователя и представления физического пространства второго пользователя, или объединение представления физического пространства второго пользователя и чисто виртуального пространства.
В варианте осуществления, пользователь просматривает это виртуальное пространство с точки зрения первого лица или из перспективы третьего лица. В перспективе первого лица виртуальное пространство отображают для пользователя, как будто пользователь находится в пространстве (отображение представляет то, что пользователь видел бы собственными глазами). В перспективе третьего лица виртуальное пространство отображают для пользователя с представлением этого пользователя, например, в виде аватара, в этом виртуальном пространстве, аналогично тому, как если бы третье лицо наблюдало за пользователем в этом пространстве.
В варианте осуществления виртуальный объект содержит объект в виртуальном пространстве, с которым можно взаимодействовать. Когда виртуальное пространство является просто виртуальным и представляет классную комнату, вещи, такие как мел, тряпки, доски, стулья, столы, глобусы, окна, ручки двери и двери могут представлять собой виртуальные объекты. Пользователь может управлять или взаимодействовать с этими объектами различными способами, например, писать мелом, поднимать, перемещать, бросать или разламывать на половины кусок мела.
В варианте осуществления виртуальный объект соответствует физическому объекту. Он может представлять собой физический объект, находящийся во владении пользователя. Например, если у пользователя есть стул, то физический стул может быть захвачен камерой глубины, и представление стула может быть вставлено в виртуальную среду. Когда пользователь перемещает физический стул, камера глубины может захватить это, и отобразить соответствующее движение виртуального стула.
В варианте осуществления, когда виртуальный объект соответствует физическому объекту, могут возникать ситуации, когда каждый из них перемещают независимо от другого. Рассматривая описанный выше физический стул и виртуальный стул, когда пользователь перемещает виртуальный стул, может случиться так, что соответствующий физический стул не будет перемещен. Например, пользователь может бросить виртуальный шар в виртуальный стул, и в результате столкновения виртуальный стул упадет. Однако, поскольку никакая физическая сила не была передана на физический стул, он останется в вертикальном положении. Аналогично, физический объект может быть перемещен, без перемещения его соответствующего виртуального объекта. Например, когда пользователь находится в большой комнате, но виртуальное пространство сравнительно мало, пользователь может переместить физический стул далеко в правую сторону от себя. Если виртуальный стул уже касается виртуальной стены в соответствующем направлении, он не может двигаться, хотя физический стул в действительности движется.
В варианте осуществления виртуальный объект соответствует физическому объекту второго пользователя. В случае, когда виртуально представлен физический стул второго пользователя, для пользователя будет представлено только виртуальное представление стула того второго пользователя. Когда пользователь взаимодействует с этим виртуальным стулом, такие взаимодействия (например, его перемещение) могут быть отражены в виртуальной среде. Это может не быть отражено в фактическом движении физического стула. В варианте осуществления это взаимодействие также отображают для второго пользователя так, что виртуальная среда, отображаемая для пользователя и второго пользователя, остается непротиворечивой. В варианте осуществления это взаимодействие не отображают для второго пользователя так, что виртуальная среда второго пользователя и физическая среда второго пользователя остаются непротиворечивыми.
В варианте осуществления, когда виртуальный объект соответствует физическому объекту второго пользователя, пользователь не может манипулировать этим виртуальным объектом. Это гарантирует то, что виртуальная среда, отображаемая для обоих пользователей и физическая среда второго пользователя, остаются непротиворечивыми. В варианте осуществления второй пользователь может манипулировать виртуальным объектом, манипулируя соответствующим физическим объектом. Поскольку второй пользователя обладает физическим доступом к физическому объекту, его манипулирование физическим объектом может быть отражено в виртуальной среде обоих пользователей, таким образом, эта виртуальная среда и физическая среда второго пользователя остаются непротиворечивыми.
Орган управления содержит что-то, чем пользователь манипулирует в физическом пространстве, чтобы обеспечить манипулирование указателем в виртуальном пространстве соответствующим образом. Орган управления может содержать физическую вещь. Это может быть часть тела, такая как рука пользователя. Это аналогично может представлять собой физический объект, такой как палочка или указка, диск или шар. Когда орган управления представляет собой часть тела, камера глубины может использоваться, чтобы представлять данные глубины, которые затем анализируют, чтобы определить скелетные данные пользователя. По этим скелетным данным, и как эти скелетные данные изменяются в течение времени, могут быть определены движения пользователем его органом управления.
Орган управления может содержать воображаемую вещь. Пользователь может двигаться, чтобы бросить воображаемый шар. Это может быть обнаружено, используя скелетные данные пользователя, как описано выше. Например, пользователь может двигаться, чтобы бросить воображаемый шар в устройство отображения, которое отображает виртуальный объект. Место, где шар пересек бы устройство отображения, может быть вычислено и затем способ, которым это может повлиять на виртуальный объект - например, в результате столкновения может быть определен и отображен. В варианте осуществления, когда воображаемый шар пересекает устройство отображения, его можно показать как виртуальный объект в виртуальном пространстве и продолжить его полет в этом виртуальном пространстве.
Указатель может содержать виртуальное представление органа управления в виртуальном пространстве, которое может взаимодействовать с виртуальным объектом в виртуальном пространстве. Манипулируя одним или более органами управления в физическом пространстве, пользователь в состоянии выполнять манипуляции с одним или более соответствующими указателями в виртуальном пространстве, и когда эти указатели обеспечивают манипуляцию виртуальным объектом в виртуальном пространстве (таким как виртуальный блок, который можно толкать), происходит манипулирование. Кроме того, указатель может быть невидимым поскольку он не отображается на устройстве отображения.
Устройство 508 захвата захватывает сцену 504 в физическом пространстве, в котором присутствует пользователь 502. Устройство захвата соединено с вычислительным устройством 510, которое выводит выходные сигналы на устройство 512 отображения. В варианте осуществления устройство 508 захвата содержит устройство захвата 20 по фиг. 2, и вычислительное устройство 510 содержит вычислительную среду 12 по фиг. 2, мультимедийную консоль 100 по фиг. 3A или вычислительную среду 220 по фиг. 3B. Устройство захвата захватывает эту сцену и формирует данные глубины. По этим данным глубины определяют орган 506 управления пользователя и выполняют мониторинг, как пользователь 502 манипулирует им. Вычислительное устройство 510 ассоциирует орган 506 управления пользователя с указателем 514 (указатели 514a и 514b представляют указатель в двух моментах времени, когда он соответствует органу 506a и 506b управления в двух моментах времени) в виртуальной среде, отображенной на устройстве 512 отображения.
Орган 506 управления может быть предварительно определенным - система может всегда находить правую руку пользователя 502, используемую как орган 506 управления, и таким образом всегда ассоциирует правую руку пользователя 502 с указателем. Орган управления может также быть определен пользователем. Например, вычислительное устройство 510 может отображать для пользователя 502 данные изображения, захваченные устройством 508 захвата с индикацией поместить орган управления в определенную область экрана. Если пользователь 502 поместит свою левую руку в этой области, она может быть настроена как орган управления. То же самое относится к случаю, когда пользователь 502 установит свою правую руку, ногу или некоторый объект, такие как бейсбольная бита в этой области.
Орган 506 управления затем используется, чтобы манипулировать экранным указателем 514. Указатель 514 может быть представлением органа 506 управления. Указатель 514 может быть правой рукой, когда орган 506 управления представляет собой правую руку пользователя. Аналогично, указатель 514 может быть левой рукой пользователя, когда орган 506 управления представляет собой левую руку пользователя. В варианте осуществления указатель 514 и орган 506 управления непосредственно не связаны таким образом. Например, орган 506 управления может представлять собой руку пользователя, но указатель 514 может быть представлением теннисной ракетки или когтя стивидора. Многочисленные органы 506 управления и многочисленные указатели 514 могут использоваться в пределах одной виртуальной среды. Например, каждая рука пользователя 502 может содержать орган 506 управления, или два пользователя (присутствующие либо в одной физической среде, или в разных физических средах, в каждой из которых предусмотрено вычислительное устройство, обмениваются вместе через сеть передачи данных), каждый может иметь орган 506 управления такой, как их правая рука, и каждый из этих органов 506 управления можно сопоставлять с указателем 514.
Когда пользователь манипулирует органом 506 управления, эту манипуляцию захватывает устройство 508 захвата и обрабатывает вычислительное устройство 510, чтобы передать соответствующую манипуляцию на указатель 514. Например, когда пользователь вытягивает свой орган 506a управления - руку и сжимает свои пальцы 506b, виртуальный указатель 514a - рука может вытягиваться в виртуальную сцену, и пальцы этой виртуальной руки могут сжиматься 514b.
Вычислительное устройство 510 может продолжать отслеживать данные положения для указателя 514 и, по меньшей мере, некоторого виртуального объекта на сцене (такого, как представленная виртуальная палочка 516) так, что оно может определять, когда указатель 514 касается виртуального объекта 516 в результате манипулирования пользователем с органом 506 управления. Когда такое манипулирование указателем 514 через орган 506 управления приводит к манипулированию виртуальным объектом 516, вычислительное устройство 510 может определять манипулирование, которое произошло, и отображать результат этого манипулирования в устройстве отображения. Например, когда пользователь вытягивает свой указатель 514 - руку и сжимает свои пальцы в кулак, это может заставить указатель 514 - руку вытянуться в сцену и сжать пальцы указателя 514 вокруг виртуальной палочки 516. Когда пользователь продолжает вытягивать свой орган 506 управления прямо, и это заставляет его указатель 514 продолжать вытягиваться в сцену, может быть определено, что виртуальной палочкой 516 манипулируют с ее перемещением по сцене, и этот результат может быть отображен в устройстве 512 отображения.
На фиг. 6 представлен пример последовательности операций для манипулирования виртуальным объектом в виртуальном пространстве.
Операция 602 представляет определение по меньшей мере, одного органа управления который пользователь использует, чтобы манипулировать виртуальным объектом.
Операция 604 представляет сопоставление органа управления с указателем в виртуальном пространстве. Сопоставление может представлять собой такую ассоциацию, что движение органа управления на сцене, за которой наблюдает камера глубины, и которое анализируется для определения движения органа управления, соответствует движению указателя.
Операция 606 представляет определение входных данных органа управления, обозначающих пользователя, манипулирующего виртуальным объектом с указателем.
В варианте осуществления существует масштаб движения, и определение входных данных органа управления, обозначающих манипуляции пользователя с виртуальным объектом с помощью указателя, включает в себя определение, что входные данные органа управления обозначают манипуляции пользователя с виртуальным объектом с помощью указателя, в пропорции к масштабу движения. Когда масштаб движения составляет 1:2, это может означать, что для каждого дюйма перемещения органа управления пользователем указатель должен быть перемещен на два дюйма в том же самом направлении. Эти два дюйма могут быть определены как для виртуального мира (например, виртуальный мир, для начала, может быть представлен меньшим, чем соответствующий физический мир так, что человек ростом шесть футов будет представлен как аватар ростом три фута при отображении на устройстве отображения), или буквально, как два дюйма, что соответствует перемещению на два дюйма на экране устройства отображения.
В варианте осуществления указатель имеет по меньшей мере одно измерение, и определение входных данных органа управления, обозначающих манипуляции пользователя с виртуальным объектом с указателем, в пропорции к масштабу движения, включает в себя определение, что входные данные органа управления обозначают манипуляции пользователя с виртуальным объектом с указателем в пропорции к размеру. Например, когда орган управления представляет собой руку пользователя, указатель представляет собой виртуальную руку, соединенную с предплечьем. Указатель может вытягиваться или продолжаться в ответ на манипуляцию органом управления. Например, если пользователь протягивает свою руку к камере глубины, вдоль измерения оси Z, вместо того, чтобы продвинуться исключительно вдоль измерения оси Z, рука и предплечье могут вытянуться вперед вдоль этого измерения.
В варианте осуществления физическая модель используется, чтобы определить, как указатель взаимодействует с виртуальным объектом. Например, в данной физической модели виртуальный объект может обладать массой, и виртуальная среда может обладать силой тяжести, поэтому, чтобы заставить катиться неподвижный виртуальный шар, требуется приложить достаточную силу к нему через указатель для преодоления инерции шара. Физическая модель позволяет точно моделировать физический мир на Земле, или может использоваться некоторая другая модель. Например, сила тяжести в физической модели может быть более слабой, чем сила тяжести на Земле так, чтобы объект подпрыгивал выше при, в остальном одинаковых условиях, будучи сброшенным на землю при помощи указателя. Такая физическая модель может выходить за пределы того, как указатель взаимодействует с виртуальным объектом, распространяясь на то, как виртуальный объект взаимодействует со вторым виртуальным объектом. Например, когда пользователь использует орган управления, чтобы вынудить указатель толкнуть первый виртуальный шар во второй виртуальный шар, второй виртуальный шар может начать катиться в результате столкновения между двумя виртуальными шарами.
Возможны виртуальные столкновения в виртуальном пространстве без соответствующего физического столкновения в физическом пространстве. Пользователь может перемещать орган управления через физическое пространство таким способом, что это потребовало бы, чтобы соответствующий указатель в виртуальном пространстве переместился через виртуальный объект или часть виртуальной среды, которая является неподвижной, такая как стена, или очень тяжелый валун, в соответствии с упомянутой выше физической моделью. В варианте осуществления указатель анимируют, чтобы показать движение в виртуальной среде, и когда такое столкновение происходит, указатель прекращают анимировать, и он остается неподвижным в точке столкновения, пока пользователь не использует орган управления, чтобы манипулировать указателем в направлении, которое не приводит к столкновению. В варианте осуществления анимация указателя продолжается в ходе столкновения так, чтобы не было никакого разрыва между положением органа управления пользователя в физической среде и положением указателя в виртуальной среде.
Операция 608 представляет отображение результата упомянутого манипулирования.
В варианте осуществления результат упомянутого манипулирования содержит ассоциирование виртуального объекта с физическим объектом так, что изменение в физическом объекте отражается как соответствующее изменение виртуального объекта. Например, два человека в отдельных физических средах могут взаимодействовать в виртуальной среде, которая представляет собой соединения представления их соответствующих физических сред. Первый пользователь может выбрать виртуальную рубашку и ассоциировать ее с физической рубашкой второго пользователя, и в результате этой ассоциации второй пользователь будет представлен в виртуальной среде в этой виртуальной рубашке, а не в физически присутствующей рубашке. Такое представление виртуальной рубашки может быть показано только первому пользователю, только второму пользователю, или обоим пользователям.
Необязательная операция 610 представляет определение по меньшей мере одного второго органа управления, который использует второй пользователь, чтобы манипулировать виртуальным объектом; сопоставление второго органа управления со вторым указателем в виртуальном пространстве, определение входных данных второго органа управления, обозначающих манипуляции второго пользователя с виртуальным объектом с помощью второго указателя, и отображение результата упомянутого манипулирования.
В случае, когда многочисленные пользователи взаимодействуют в одной и той же виртуальной среде, манипуляции с виртуальным объектом вторым пользователем могут быть отображены первому пользователю на его устройстве отображения. В варианте осуществления два пользователя могут манипулировать одиночным виртуальным объектом одновременно. В варианте осуществления виртуальный объект обладает множеством измерений, и первый пользователь манипулирует первым измерением из множества измерений, и второй пользователь манипулирует вторым измерением из множества измерений. Например, первый пользователь может поднять объект, и второй пользователь может повернуть объект, в то время как его поднимают. Кроме того, эти два пользователя могут выполнять операции в одном и том же измерении виртуального объекта. Один пользователь может прикладывать боковую силу к виртуальному шару, чтобы он катился. Второй пользователь может прикладывать вторую боковую силу в том же самом направлении, что первый пользователь, и эта дополнительная сила, прикладываемая к виртуальному шару, заставляет его катиться с увеличенной скоростью.
Заключение
В то время как настоящее раскрытие было описано со ссылками на предпочтительные аспекты, которые представлены на различных чертежах, следует понимать, что можно использовать другие аналогичные аспекты или модификации, и добавление может быть выполнено для описанных аспектов для выполнения той же функции настоящего раскрытия без отхода от них. Поэтому, настоящее раскрытие не должно быть ограничено каким-либо одиночным аспектом, а скорее его требуется рассматривать в широком смысле и в объеме соответствующей приложенной формулы изобретения. Например, различные процедуры, описанные здесь, могут быть воплощены с использованием аппаратных средств или программных средств, или комбинации обоих этих подходов. Таким образом, способы и устройство раскрытых вариантов осуществления или определенных аспектов или их частей могут принимать форму программного кода (то есть, инструкций), внедренных в физический носитель информации, такой, как гибкие дискеты, CD-ROM, накопители на жестком диске или любой другой считываемый устройством носитель информации. Когда программный код загружают в и выполняют с помощью устройства, такого как компьютер, устройство становится устройством, предназначенным для выполнения на практике раскрытых вариантов осуществления. В дополнение к конкретным вариантам осуществления, явно представленным здесь, другие аспекты и варианты осуществления будут очевидны для специалиста в данной области техники при рассмотрении раскрытого здесь описания. При этом описание и иллюстрированные варианты выполнения следует рассматривать только как примеры.

Claims (15)

1. Способ манипулирования первым виртуальным объектом в виртуальном пространстве, причем первый виртуальный объект ассоциирован с физическим объектом в первом физическом пространстве, причем физический объект отделен от первого пользователя, содержащий:
прием первых данных изображения глубины, указывающих первое физическое пространство;
генерирование первого виртуального объекта в виртуальном пространстве на основе физического объекта, как представлено в первых данных изображения глубины;
в ответ на прием вторых данных изображения глубины, указывающих первое физическое пространство, где физический объект перемещается первым пользователем, отображение соответствующего перемещения первого виртуального объекта в виртуальном пространстве; и
в ответ на прием третьих данных изображения глубины, указывающих физический объект, перемещаемый в первом физическом пространстве первым пользователем, определение не осуществлять отображение соответствующего перемещения первого виртуального объекта, когда перемещение первого виртуального объекта нарушает границу виртуального пространства.
2. Способ по п. 1, в котором виртуальное пространство содержит представление физического пространства первого пользователя, виртуальное подпространство, представление физического пространства второго пользователя или их комбинацию.
3. Способ по п. 1, в котором имеется масштаб перемещения, и
в котором отображение соответствующего перемещения первого
виртуального объекта содержит:
отображение соответствующего перемещения первого виртуального объекта на основе величины, на которую перемещен физический объект, модифицированной посредством масштаба перемещения.
4. Способ по п. 1, в котором виртуальное пространство
представляют первому пользователю в перспективе от первого лица
или в перспективе от третьего лица.
5. Способ по п. 1, дополнительно содержащий:
в ответ на прием четвертых данных изображения глубины, указывающих второго пользователя во втором физическом пространстве, причем второе физическое пространство отличается от первого физического пространства, в котором размещен физический объект, и в ответ на определение, что четвертые данные изображения глубины указывают второго пользователя, пытающегося переместить второй виртуальный объект в виртуальном пространстве и первый виртуальный объект в виртуальном пространстве без перемещения вторым пользователем соответствующего физического объекта в первом физическом пространстве, определение осуществлять отображение перемещения второго виртуального объекта и не отображать перемещение первого виртуального объекта.
6. Система для взаимодействия с первым виртуальным объектом в виртуальной среде, причем первый виртуальный объект ассоциирован с физическим объектом в первом физическом
пространстве, причем физический объект отделен от первого пользователя, содержащая:
память, хранящую инструкции, которые при исполнении процессором побуждают систему по меньшей мере:
генерировать первый виртуальный объект в виртуальной среде на основе физического объекта, как представлено в первых данных изображения глубины;
в ответ на прием вторых данных изображения глубины, указывающих первое физическое пространство, где физический объект перемещается первым пользователем, отображать соответствующее перемещение первого виртуального объекта в виртуальной среде; и
в ответ на прием третьих данных изображения глубины, указывающих физический объект, перемещаемый в первом физическом пространстве первым пользователем, определять не осуществлять отображение соответствующего перемещения первого виртуального объекта, когда перемещение первого виртуального объекта нарушает границу виртуальной среды.
7. Система по п. 6, в которой виртуальное пространство
содержит представление физического пространства первого
пользователя, виртуальное подпространство, представление
физического пространства второго пользователя или их комбинацию.
8. Система по п. 6, в котором имеется масштаб перемещения, и
в котором инструкции, которые при исполнении процессором
побуждают систему по меньшей мере отображать соответствующее
перемещение первого виртуального объекта, дополнительно
побуждают систему по меньшей мере:
отображать соответствующее перемещение первого виртуального объекта на основе величины, на которую перемещен физический объект, модифицированной посредством масштаба перемещения.
9. Система по п. 6, в которой виртуальное пространство
представляется первому пользователю в перспективе от первого
лица или в перспективе от третьего лица.
10. Система по п, 6, в которой память хранит инструкции,
которые при исполнении процессором побуждают систему по меньшей
мере выполнять дополнительные операции, содержащие:
в ответ на прием четвертых данных изображения глубины, указывающих второго пользователя во втором физическом пространстве, причем второе физическое пространство отличается от первого физического пространства, в котором размещен физический объект, и в ответ на определение, что четвертые данные изображения глубины указывают второго пользователя, пытающегося переместить второй виртуальный объект в виртуальном пространстве и первый виртуальный объект в виртуальном пространстве без перемещения вторым пользователем соответствующего физического объекта в первом физическом пространстве, определение осуществлять отображение перемещения второго виртуального объекта и не осуществлять отображение перемещения первого виртуального объекта.
11. Считываемый компьютером носитель данных для манипулирования первым виртуальным объектом в виртуальном пространстве, причем виртуальный объект ассоциирован с физическим объектом в первом физическом пространстве, причем физический объект отделен от первого пользователя, содержащий
считываемые компьютером инструкции, которые при исполнении на компьютере побуждают компьютер выполнять операции, содержащие:
прием первых данных изображения глубины, указывающих первое физическое пространство;
генерирование первого виртуального объекта в виртуальном пространстве на основе физического объекта, как представлено в первых данных изображения глубины;
в ответ на прием вторых данных изображения глубины, указывающих первое физическое пространство, где физический объект перемещается первым пользователем, отображение соответствующего перемещения первого виртуального объекта в виртуальном пространстве; и
в ответ на прием третьих данных изображения глубины, указывающих физический объект, перемещаемый в первом физическом пространстве первым пользователем, определение не осуществлять отображение соответствующего перемещения первого виртуального объекта, когда перемещение первого виртуального объекта нарушает границу виртуального пространства.
12. Считываемый компьютером носитель данных по п. 11, при этом виртуальное пространство содержит представление физического пространства первого пользователя, виртуальное подпространство, представление физического пространства второго пользователя или их комбинацию.
13. Считываемый компьютером носитель данных по п. 11, при этом имеется масштаб перемещения, и при этом отображение соответствующего перемещения первого виртуального объекта содержит:

отображение соответствующего перемещения первого виртуального объекта на основе величины, на которую перемещен физический объект, модифицированной посредством масштаба перемещения.
14. Считываемый компьютером носитель данных по п. 11, при
этом виртуальное пространство представляется первому
пользователю в перспективе от первого лица или в перспективе от
третьего лица.
15. Считываемый компьютером носитель данных по п. 11,
дополнительно содержащий считываемые компьютером инструкции,
которые при исполнении на компьютере побуждают компьютер к
выполнению дополнительных операций, содержащих:
в ответ на прием четвертых данных изображения глубины, указывающих второго пользователя во втором физическом пространстве, причем второе физическое пространство отличается от первого физического пространства, в котором размещен физический объект, и в ответ на определение, что четвертые данные изображения глубины указывают второго пользователя, пытающегося переместить второй виртуальный объект в виртуальном пространстве и первый виртуальный объект в виртуальном пространстве без перемещения вторым пользователем соответствующего физического объекта в первом физическом пространстве, определение осуществлять отображение перемещения второго виртуального объекта и не осуществлять отображение перемещения первого виртуального объекта.
RU2011138417/08A 2009-03-20 2010-03-02 Манипулирование виртуальным объектом RU2555228C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/408,589 US9256282B2 (en) 2009-03-20 2009-03-20 Virtual object manipulation
US12/408,589 2009-03-20
PCT/US2010/025932 WO2010107577A2 (en) 2009-03-20 2010-03-02 Virtual object manipulation

Publications (2)

Publication Number Publication Date
RU2011138417A RU2011138417A (ru) 2013-03-27
RU2555228C2 true RU2555228C2 (ru) 2015-07-10

Family

ID=42738736

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011138417/08A RU2555228C2 (ru) 2009-03-20 2010-03-02 Манипулирование виртуальным объектом

Country Status (8)

Country Link
US (1) US9256282B2 (ru)
EP (1) EP2409211A4 (ru)
JP (1) JP5827616B2 (ru)
CN (1) CN102356373B (ru)
BR (1) BRPI1009275A2 (ru)
CA (1) CA2753051C (ru)
RU (1) RU2555228C2 (ru)
WO (1) WO2010107577A2 (ru)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
KR101639383B1 (ko) * 2009-11-12 2016-07-22 삼성전자주식회사 근접 터치 동작 감지 장치 및 방법
US20110169832A1 (en) * 2010-01-11 2011-07-14 Roy-G-Biv Corporation 3D Motion Interface Systems and Methods
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US9075434B2 (en) * 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US9477302B2 (en) 2012-08-10 2016-10-25 Google Inc. System and method for programing devices within world space volumes
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
JP5829020B2 (ja) 2010-12-22 2015-12-09 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
CN106964150B (zh) * 2011-02-11 2021-03-02 漳州市爵晟电子科技有限公司 一种动作定位点控制系统及其穿套式定点控制设备
KR101381928B1 (ko) * 2011-02-18 2014-04-07 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치 및 방법
US8587448B1 (en) * 2011-04-11 2013-11-19 Edward H. Culleny Sensor activated broken screen simulator
US9259643B2 (en) * 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
US11048333B2 (en) * 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
KR101235432B1 (ko) * 2011-07-11 2013-02-22 김석중 3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
CN104067201B (zh) 2011-11-23 2018-02-16 英特尔公司 带有多个视图、显示器以及物理学的姿势输入
US9250713B2 (en) * 2011-12-05 2016-02-02 Microsoft Technology Licensing, Llc Control exposure
CN104145481B (zh) * 2012-01-03 2018-04-13 Lg电子株式会社 图像显示设备和用于操作其的方法
KR101888491B1 (ko) * 2012-01-11 2018-08-16 삼성전자주식회사 가상 공간 이동 장치 및 방법
US9477303B2 (en) * 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US9183676B2 (en) 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US8976224B2 (en) * 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
US10007348B2 (en) * 2012-10-16 2018-06-26 Jae Woong Jeon Method and system for controlling virtual camera in virtual 3D space and computer-readable recording medium
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和系统
US9571816B2 (en) * 2012-11-16 2017-02-14 Microsoft Technology Licensing, Llc Associating an object with a subject
WO2014128752A1 (ja) 2013-02-19 2014-08-28 株式会社ブリリアントサービス 表示制御装置、表示制御プログラム、および表示制御方法
JP6177872B2 (ja) 2013-02-19 2017-08-09 ミラマ サービス インク 入出力装置、入出力プログラム、および入出力方法
JP6195893B2 (ja) 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
WO2014128750A1 (ja) 2013-02-19 2014-08-28 株式会社ブリリアントサービス 入出力装置、入出力プログラム、および入出力方法
US9906778B2 (en) 2013-02-19 2018-02-27 Mirama Service Inc. Calibration device, calibration program, and calibration method
CN104049872B (zh) * 2013-03-13 2018-01-05 本田技研工业株式会社 利用指向的信息查询
US9535496B2 (en) 2013-03-15 2017-01-03 Daqri, Llc Visual gestures
US9144744B2 (en) * 2013-06-10 2015-09-29 Microsoft Corporation Locating and orienting device in space
CN103365596A (zh) * 2013-07-01 2013-10-23 天脉聚源(北京)传媒科技有限公司 一种控制虚拟世界的方法及装置
GB2516459A (en) * 2013-07-23 2015-01-28 Franco Forghieri System and method for providing an interactive virtual model of a physical storefront
US9293015B2 (en) * 2013-09-09 2016-03-22 Immersion Corporation Electrical stimulation haptic feedback interface
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
KR101713556B1 (ko) * 2013-12-06 2017-03-08 주식회사 핸디소프트 사물협업 모델링 시스템 및 방법
US9740296B2 (en) 2013-12-16 2017-08-22 Leap Motion, Inc. User-defined virtual interaction space and manipulation of virtual cameras in the interaction space
IN2014DE00899A (ru) 2014-03-28 2015-10-02 Samsung Electronics Co Ltd
CN104346973B (zh) * 2014-08-01 2015-09-23 西南大学 一种教学用4d智慧教室
CN104346041B (zh) * 2014-10-24 2018-04-27 联想(北京)有限公司 一种信息处理方法及对应装置
CN104361239A (zh) * 2014-11-18 2015-02-18 内蒙古科技大学 一种基于Kinect的虚拟拳击沙袋训练的方法和系统
US10482670B2 (en) * 2014-12-30 2019-11-19 Qingdao Goertek Technology Co., Ltd. Method for reproducing object in 3D scene and virtual reality head-mounted device
CN107004290B (zh) * 2015-01-06 2020-12-15 索尼公司 效果生成装置、效果生成方法以及程序
US9779512B2 (en) 2015-01-29 2017-10-03 Microsoft Technology Licensing, Llc Automatic generation of virtual materials from real-world materials
US10088895B2 (en) 2015-03-08 2018-10-02 Bent Reality Labs, LLC Systems and processes for providing virtual sexual experiences
US10216982B2 (en) * 2015-03-12 2019-02-26 Microsoft Technology Licensing, Llc Projecting a virtual copy of a remote object
US9760790B2 (en) * 2015-05-12 2017-09-12 Microsoft Technology Licensing, Llc Context-aware display of objects in mixed environments
RU2601169C1 (ru) 2015-06-11 2016-10-27 Виталий Витальевич Аверьянов Способ и устройство для взаимодействия с виртуальными объектами
CN104881127A (zh) * 2015-06-18 2015-09-02 周谆 虚拟车辆人机交互方法和系统
KR101639066B1 (ko) 2015-07-14 2016-07-13 한국과학기술연구원 가상 공간에 형성된 가상 모델을 제어하는 방법 및 시스템
NZ752336A (en) * 2015-08-18 2023-06-30 Magic Leap Inc Virtual and augmented reality systems and methods
CN105159687B (zh) * 2015-09-29 2018-04-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
JP6362631B2 (ja) * 2016-01-15 2018-07-25 株式会社meleap 画像表示システム、画像表示システムの制御方法、画像配信システムおよびヘッドマウントディスプレイ
EP3455700A1 (en) * 2016-05-12 2019-03-20 Google LLC System and method relating to movement in a virtual reality environment
US10692113B2 (en) * 2016-06-21 2020-06-23 Htc Corporation Method for providing customized information through advertising in simulation environment, and associated simulation system
US20170372499A1 (en) * 2016-06-27 2017-12-28 Google Inc. Generating visual cues related to virtual objects in an augmented and/or virtual reality environment
US20180005437A1 (en) * 2016-06-30 2018-01-04 Glen J. Anderson Virtual manipulator rendering
US10234935B2 (en) * 2016-08-11 2019-03-19 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
CN107885316A (zh) * 2016-09-29 2018-04-06 阿里巴巴集团控股有限公司 一种基于手势的交互方法及装置
US10536691B2 (en) * 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
JP6189513B1 (ja) * 2016-10-18 2017-08-30 株式会社コロプラ 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
EP3324270A1 (en) 2016-11-16 2018-05-23 Thomson Licensing Selection of an object in an augmented reality environment
JP6940879B2 (ja) * 2016-11-24 2021-09-29 国立大学法人京都大学 ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、およびコンピュータプログラム
US10901494B2 (en) * 2017-03-28 2021-01-26 Wipro Limited Method and a system for providing gesture-based interaction with a virtual product
RU2670351C1 (ru) * 2017-07-31 2018-10-22 Алексей Владимирович Лысенко Система и способ управления виртуальным объектом
US11182957B2 (en) * 2017-10-26 2021-11-23 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program for suppressing movement of an object in virtual space
EP3489882A1 (en) * 2017-11-27 2019-05-29 Nokia Technologies Oy An apparatus and associated methods for communication between users experiencing virtual reality
US10937240B2 (en) 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
US11189379B2 (en) * 2018-03-06 2021-11-30 Digital Surgery Limited Methods and systems for using multiple data structures to process surgical data
JP2021518953A (ja) * 2018-05-02 2021-08-05 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ナビゲートする方法及びシステム
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
WO2020003820A1 (ja) * 2018-06-28 2020-01-02 ソニー株式会社 複数の処理を並列実行する情報処理装置
JP6782283B2 (ja) * 2018-07-03 2020-11-11 矢崎総業株式会社 監視システム
JP7134060B2 (ja) * 2018-10-18 2022-09-09 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
EP3877827A1 (en) * 2018-11-05 2021-09-15 Ecole Polytechnique Federale De Lausanne (Epfl) Method and system for creating an out-of-body experience
US11592896B2 (en) 2018-11-07 2023-02-28 Wild Technology, Inc. Technological infrastructure for enabling multi-user collaboration in a virtual reality environment
US11126341B2 (en) * 2019-02-21 2021-09-21 Htc Corporation Object manipulating method, host device and computer readable storage medium
GB2586059B (en) * 2019-08-01 2023-06-07 Sony Interactive Entertainment Inc System and method for generating user inputs for a video game
US11610363B2 (en) * 2020-12-31 2023-03-21 Oberon Technologies, Inc. Systems and methods for virtual reality environments
JP2022162702A (ja) * 2021-04-13 2022-10-25 株式会社ソニー・インタラクティブエンタテインメント システム、情報処理方法および情報処理プログラム
US20230038709A1 (en) * 2021-07-28 2023-02-09 Purdue Research Foundation System and Method for Authoring Freehand Interactive Augmented Reality Applications

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU54233U1 (ru) * 2006-01-17 2006-06-10 Общество с ограниченной ответственностью "СИМТЕХ" Система виртуального окружения
US7294815B2 (en) * 2005-09-06 2007-11-13 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for generating positional and orientation information of an object
US7465230B2 (en) * 2001-08-09 2008-12-16 Igt Virtual cameras and 3-D gaming environments in a gaming machine

Family Cites Families (244)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4695953A (en) 1983-08-25 1987-09-22 Blair Preston E TV animation interactively controlled by the viewer
US4630910A (en) 1984-02-16 1986-12-23 Robotic Vision Systems, Inc. Method of measuring in three-dimensions at high speed
US4627620A (en) 1984-12-26 1986-12-09 Yang John P Electronic athlete trainer for improving skills in reflex, speed and accuracy
US4645458A (en) 1985-04-15 1987-02-24 Harald Phillip Athletic evaluation and training apparatus
US4702475A (en) 1985-08-16 1987-10-27 Innovating Training Products, Inc. Sports technique and reaction training system
US4843568A (en) 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4711543A (en) 1986-04-14 1987-12-08 Blair Preston E TV animation interactively controlled by the viewer
US4796997A (en) 1986-05-27 1989-01-10 Synthetic Vision Systems, Inc. Method and system for high-speed, 3-D imaging of an object at a vision station
US5184295A (en) 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US4751642A (en) 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning
US4809065A (en) 1986-12-01 1989-02-28 Kabushiki Kaisha Toshiba Interactive system and related method for displaying data to produce a three-dimensional image of an object
US4817950A (en) 1987-05-08 1989-04-04 Goo Paul E Video game control unit and attitude sensor
US4939672A (en) * 1987-11-09 1990-07-03 Tektronix, Inc. Method and apparatus for classifying graphics segments to facilitate pick and display operation
US5239463A (en) 1988-08-04 1993-08-24 Blair Preston E Method and apparatus for player interaction with animated characters and objects
US5239464A (en) 1988-08-04 1993-08-24 Blair Preston E Interactive video system providing repeated switching of multiple tracks of actions sequences
US4901362A (en) 1988-08-08 1990-02-13 Raytheon Company Method of recognizing patterns
US4893183A (en) 1988-08-11 1990-01-09 Carnegie-Mellon University Robotic vision system
JPH02199526A (ja) 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US4925189A (en) 1989-01-13 1990-05-15 Braeunig Thomas F Body-mounted video game exercise device
US5229756A (en) 1989-02-07 1993-07-20 Yamaha Corporation Image control apparatus
US5469740A (en) 1989-07-14 1995-11-28 Impulse Technology, Inc. Interactive video testing and training system
JPH03103822U (ru) 1990-02-13 1991-10-29
EP0450196B1 (en) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Data processing system using gesture-based input data
US5101444A (en) 1990-05-18 1992-03-31 Panacea, Inc. Method and apparatus for high speed object location
US5148154A (en) 1990-12-04 1992-09-15 Sony Corporation Of America Multi-dimensional user interface
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5295491A (en) 1991-09-26 1994-03-22 Sam Technology, Inc. Non-invasive human neurocognitive performance capability testing method and system
CA2077173C (en) 1991-11-22 2003-04-22 Michael Chen Method and apparatus for direct manipulation of 3-d objects on computer displays
US6054991A (en) 1991-12-02 2000-04-25 Texas Instruments Incorporated Method of modeling player position and movement in a virtual reality system
JPH06508788A (ja) 1991-12-03 1994-10-06 フレンチ スポーテク コーポレイション 対話型ビデオ式検査および訓練システム
US5875108A (en) 1991-12-23 1999-02-23 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
JPH07325934A (ja) 1992-07-10 1995-12-12 Walt Disney Co:The 仮想世界に向上したグラフィックスを提供する方法および装置
US5999908A (en) 1992-08-06 1999-12-07 Abelow; Daniel H. Customer-based product design module
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
IT1257294B (it) 1992-11-20 1996-01-12 Dispositivo atto a rilevare la configurazione di un'unita' fisiologicadistale,da utilizzarsi in particolare come interfaccia avanzata per macchine e calcolatori.
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5690582A (en) 1993-02-02 1997-11-25 Tectrix Fitness Equipment, Inc. Interactive exercise apparatus
JP2799126B2 (ja) 1993-03-26 1998-09-17 株式会社ナムコ ビデオゲーム装置及びゲーム用入力装置
US5405152A (en) 1993-06-08 1995-04-11 The Walt Disney Company Method and apparatus for an interactive video game with physical feedback
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US5423554A (en) 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
US5980256A (en) 1993-10-29 1999-11-09 Carmein; David E. E. Virtual reality system with enhanced sensory apparatus
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5347306A (en) 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
JP2552427B2 (ja) 1993-12-28 1996-11-13 コナミ株式会社 テレビ遊戯システム
US5577981A (en) 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5580249A (en) 1994-02-14 1996-12-03 Sarcos Group Apparatus for simulating mobility of a human
US5597309A (en) 1994-03-28 1997-01-28 Riess; Thomas Method and apparatus for treatment of gait problems associated with parkinson's disease
US5385519A (en) 1994-04-19 1995-01-31 Hsu; Chi-Hsueh Running machine
US5524637A (en) 1994-06-29 1996-06-11 Erickson; Jon W. Interactive system for measuring physiological exertion
JPH0844490A (ja) 1994-07-28 1996-02-16 Matsushita Electric Ind Co Ltd インターフェイス装置
US5563988A (en) 1994-08-01 1996-10-08 Massachusetts Institute Of Technology Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5516105A (en) 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US5638300A (en) 1994-12-05 1997-06-10 Johnson; Lee E. Golf swing analysis system
JPH08161292A (ja) 1994-12-09 1996-06-21 Matsushita Electric Ind Co Ltd 混雑度検知方法およびそのシステム
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5664128A (en) * 1995-02-23 1997-09-02 Apple Computer, Inc. Object storage apparatus for use with data sets in computer applications
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
DE69634913T2 (de) 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
US5913727A (en) 1995-06-02 1999-06-22 Ahdoot; Ned Interactive movement and contact simulation game
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
US6057909A (en) 1995-06-22 2000-05-02 3Dv Systems Ltd. Optical ranging camera
IL114278A (en) 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
CA2180891C (en) 1995-07-12 2010-01-12 Junichi Rekimoto Notification of updates in a three-dimensional virtual reality space sharing system
US5702323A (en) 1995-07-26 1997-12-30 Poulton; Craig K. Electronic exercise enhancer
US6308565B1 (en) 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6073489A (en) 1995-11-06 2000-06-13 French; Barry J. Testing and training system for assessing the ability of a player to complete a task
US6430997B1 (en) 1995-11-06 2002-08-13 Trazer Technologies, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6098458A (en) 1995-11-06 2000-08-08 Impulse Technology, Ltd. Testing and training system for assessing movement and agility skills without a confining field
WO1999044698A2 (en) 1998-03-03 1999-09-10 Arena, Inc. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5874956A (en) * 1995-11-13 1999-02-23 Platinum Technology Apparatus and method for three dimensional manipulation of point of view and object
US5933125A (en) 1995-11-27 1999-08-03 Cae Electronics, Ltd. Method and apparatus for reducing instability in the display of a virtual environment
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US6750877B2 (en) * 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US5641288A (en) 1996-01-11 1997-06-24 Zaenglein, Jr.; William G. Shooting simulating process and training device using a virtual reality display screen
WO1997041925A1 (en) 1996-05-08 1997-11-13 Real Vision Corporation Real time simulation using position sensing
US6173066B1 (en) 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
US5989157A (en) 1996-08-06 1999-11-23 Walton; Charles A. Exercising system with electronic inertial game playing
EP0959444A4 (en) 1996-08-14 2005-12-07 Nurakhmed Nurislamovic Latypov METHOD FOR TRACKING AND REPRESENTING THE POSITION AND ORIENTATION OF A SUBJECT IN THE SPACE, METHOD FOR PRESENTING A VIRTUAL SPACE THEREON, AND SYSTEMS FOR CARRYING OUT SAID METHODS
US6421047B1 (en) 1996-09-09 2002-07-16 De Groot Marc Multi-user virtual reality system for simulating a three-dimensional environment
JP3064928B2 (ja) 1996-09-20 2000-07-12 日本電気株式会社 被写体抽出方式
US6954906B1 (en) 1996-09-30 2005-10-11 Sony Corporation Image display processing apparatus that automatically changes position of sub-window relative to main window depending on distance at watch sub window is commanded to be displayed
EP0849697B1 (en) 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6009210A (en) 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6100896A (en) 1997-03-24 2000-08-08 Mitsubishi Electric Information Technology Center America, Inc. System for designing graphical multi-participant environments
US5877803A (en) 1997-04-07 1999-03-02 Tritech Mircoelectronics International, Ltd. 3-D image detector
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6061696A (en) * 1997-04-28 2000-05-09 Computer Associates Think, Inc. Generating multimedia documents
US5886700A (en) * 1997-07-24 1999-03-23 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional volume selection tool
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6289112B1 (en) 1997-08-22 2001-09-11 International Business Machines Corporation System and method for determining block direction in fingerprint images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
AUPO894497A0 (en) 1997-09-02 1997-09-25 Xenotech Research Pty Ltd Image processing method and apparatus
EP1017973A1 (en) 1997-09-24 2000-07-12 3DV Systems Ltd. Acoustical imaging system
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6141463A (en) 1997-10-10 2000-10-31 Electric Planet Interactive Method and system for estimating jointed-figure configurations
US6130677A (en) 1997-10-15 2000-10-10 Electric Planet, Inc. Interactive computer vision system
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU9808298A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. A system and method for generating an animatable character
AU1099899A (en) 1997-10-15 1999-05-03 Electric Planet, Inc. Method and apparatus for performing a clean background subtraction
US6101289A (en) 1997-10-15 2000-08-08 Electric Planet, Inc. Method and apparatus for unencumbered capture of an object
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11237867A (ja) 1998-02-20 1999-08-31 Shimadzu Corp 仮想空間表示装置
US6529210B1 (en) 1998-04-08 2003-03-04 Altor Systems, Inc. Indirect object manipulation in a simulation
US6159100A (en) 1998-04-23 2000-12-12 Smith; Michael D. Virtual reality game
US6077201A (en) 1998-06-12 2000-06-20 Cheng; Chau-Yang Exercise bicycle
US6552722B1 (en) * 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US20010008561A1 (en) 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6801637B2 (en) 1999-08-10 2004-10-05 Cybernet Systems Corporation Optical body tracker
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US7121946B2 (en) 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
IL126284A (en) 1998-09-17 2002-12-01 Netmor Ltd System and method for three dimensional positioning and tracking
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6661918B1 (en) 1998-12-04 2003-12-09 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
WO2000036372A1 (en) 1998-12-16 2000-06-22 3Dv Systems, Ltd. Self gating photosurface
US6570555B1 (en) 1998-12-30 2003-05-27 Fuji Xerox Co., Ltd. Method and apparatus for embodied conversational characters with multimodal input/output in an interface device
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6299308B1 (en) 1999-04-02 2001-10-09 Cybernet Systems Corporation Low-cost non-imaging eye tracker system for computer control
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6503195B1 (en) 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
US6476834B1 (en) 1999-05-28 2002-11-05 International Business Machines Corporation Dynamic creation of selectable items on surfaces
US6873723B1 (en) 1999-06-30 2005-03-29 Intel Corporation Segmenting three-dimensional video images using stereo
US6738066B1 (en) 1999-07-30 2004-05-18 Electric Plant, Inc. System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
US7113918B1 (en) 1999-08-01 2006-09-26 Electric Planet, Inc. Method for video enabled electronic commerce
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
ATE285079T1 (de) 1999-09-08 2005-01-15 3Dv Systems Ltd 3d- bilderzeugungssystem
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
JP2001104636A (ja) 1999-10-04 2001-04-17 Shinsedai Kk 体感ボールゲーム装置
US20030132950A1 (en) 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US6690618B2 (en) 2001-04-03 2004-02-10 Canesta, Inc. Method and apparatus for approximating a source position of a sound-causing event for determining an input used in operating an electronic device
US7050177B2 (en) 2002-05-22 2006-05-23 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
US7006236B2 (en) 2002-05-22 2006-02-28 Canesta, Inc. Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices
DE19960180B4 (de) 1999-12-14 2006-03-09 Rheinmetall W & M Gmbh Verfahren zur Herstellung eines Sprenggeschosses
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6663491B2 (en) 2000-02-18 2003-12-16 Namco Ltd. Game apparatus, storage medium and computer program that adjust tempo of sound
US6633294B1 (en) 2000-03-09 2003-10-14 Seth Rosenthal Method and apparatus for using captured high density motion for animation
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6640202B1 (en) 2000-05-25 2003-10-28 International Business Machines Corporation Elastic sensor mesh system for 3-dimensional measurement, mapping and kinematics applications
US6731799B1 (en) 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
AU2001275308A1 (en) 2000-06-06 2001-12-17 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
US6788809B1 (en) 2000-06-30 2004-09-07 Intel Corporation System and method for gesture recognition in three dimensions using stereo imaging and color vision
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7043695B2 (en) * 2000-09-19 2006-05-09 Technion Research & Development Foundation Ltd. Object positioning and display in virtual environments
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3725460B2 (ja) 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7039676B1 (en) 2000-10-31 2006-05-02 International Business Machines Corporation Using video image analysis to automatically transmit gestures over a network in a chat or instant messaging session
WO2002035909A2 (en) 2000-11-03 2002-05-10 Siemens Corporate Research, Inc. Video-supported planning and design with physical marker objects sign
CN100473436C (zh) 2001-02-22 2009-04-01 世嘉股份有限公司 用于控制游戏进行的方法,和用于运行此方法的游戏装置
US6539931B2 (en) 2001-04-16 2003-04-01 Koninklijke Philips Electronics N.V. Ball throwing assistant
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
WO2003001722A2 (en) 2001-06-22 2003-01-03 Canesta, Inc. Method and system to display a virtual input device
JP3420221B2 (ja) 2001-06-29 2003-06-23 株式会社コナミコンピュータエンタテインメント東京 ゲーム装置及びプログラム
US20030048280A1 (en) 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
WO2003054683A2 (en) 2001-12-07 2003-07-03 Canesta Inc. User interface for electronic devices
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US20030169906A1 (en) 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
US7310431B2 (en) 2002-04-10 2007-12-18 Canesta, Inc. Optical methods for remotely measuring objects
DE50302813D1 (de) 2002-04-19 2006-05-18 Iee Sarl Sicherheitsvorrichtung für ein fahrzeug
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7489812B2 (en) 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US20090143141A1 (en) * 2002-08-06 2009-06-04 Igt Intelligent Multiplayer Gaming System With Multi-Touch Display
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
EP1631937B1 (en) 2003-06-12 2018-03-28 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
JP3847753B2 (ja) 2004-01-30 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7836461B2 (en) 2004-03-15 2010-11-16 Imi Innovations, Inc. Computer interface system using multiple independent hardware and virtual human-computer input devices and related enabling subroutines
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7397464B1 (en) * 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7704135B2 (en) 2004-08-23 2010-04-27 Harrison Jr Shelton E Integrated game system, method, and device
WO2006025137A1 (ja) 2004-09-01 2006-03-09 Sony Computer Entertainment Inc. 画像処理装置、ゲーム装置および画像処理方法
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
WO2006074289A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Detecting and tracking objects in images
WO2006074310A2 (en) 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
BRPI0606477A2 (pt) 2005-01-07 2009-06-30 Gesturetek Inc sensor de inclinação baseado em fluxo ótico
JP4553362B2 (ja) 2005-01-31 2010-09-29 キヤノン株式会社 システム、画像処理装置、情報処理方法
EP1686554A3 (en) * 2005-01-31 2008-06-18 Canon Kabushiki Kaisha Virtual space generating system, image processing apparatus and information processing method
US20060200662A1 (en) * 2005-02-01 2006-09-07 Microsoft Corporation Referencing objects in a virtual environment
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
US20060192852A1 (en) * 2005-02-09 2006-08-31 Sally Rosenthal System, method, software arrangement and computer-accessible medium for providing audio and/or visual information
KR100688743B1 (ko) 2005-03-11 2007-03-02 삼성전기주식회사 멀티 레이어 커패시터 내장형의 인쇄회로기판의 제조방법
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
WO2006124935A2 (en) 2005-05-17 2006-11-23 Gesturetek, Inc. Orientation-sensitive signal output
US7467158B2 (en) 2005-06-10 2008-12-16 Microsoft Corporation Object virtualization
US20070021207A1 (en) 2005-07-25 2007-01-25 Ned Ahdoot Interactive combat game between a real player and a projected image of a computer generated player or a real player with a predictive method
EP1752748B1 (en) 2005-08-12 2008-10-29 MESA Imaging AG Highly sensitive, fast pixel for use in an image sensor
US20080026838A1 (en) 2005-08-22 2008-01-31 Dunstan James E Multi-player non-role-playing virtual world games: method for two-way interaction between participants and multi-player virtual world games
JP4682791B2 (ja) 2005-10-12 2011-05-11 ソニー株式会社 操作空間物理量算出装置及び操作空間物理量算出方法、並びにコンピュータ・プログラム
US7450736B2 (en) 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
US7626571B2 (en) 2005-12-22 2009-12-01 The Board Of Trustees Of The Leland Stanford Junior University Workspace expansion controller for human interface systems
JP4917615B2 (ja) 2006-02-27 2012-04-18 プライム センス リミティド スペックルの無相関を使用した距離マッピング(rangemapping)
EP2194509A1 (en) 2006-05-07 2010-06-09 Sony Computer Entertainment Inc. Method for providing affective characteristics to computer generated avatar during gameplay
US7721207B2 (en) 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
JP4883774B2 (ja) 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US8395658B2 (en) 2006-09-07 2013-03-12 Sony Computer Entertainment Inc. Touch screen-like user interface that does not require actual touching
JP5395323B2 (ja) 2006-09-29 2014-01-22 ブレインビジョン株式会社 固体撮像素子
US20080134102A1 (en) 2006-12-05 2008-06-05 Sony Ericsson Mobile Communications Ab Method and system for detecting movement of an object
US8351646B2 (en) 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
US7412077B2 (en) 2006-12-29 2008-08-12 Motorola, Inc. Apparatus and methods for head pose estimation and head gesture detection
JP2008210276A (ja) * 2007-02-27 2008-09-11 Canon Inc 三次元モデル情報の生成方法及び装置
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
US7729530B2 (en) 2007-03-03 2010-06-01 Sergey Antonov Method and apparatus for 3-D data input to a personal computer with a multimedia oriented operating system
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
KR100873707B1 (ko) * 2007-07-27 2008-12-12 삼성모바일디스플레이주식회사 유기전계발광 표시장치 및 그의 구동방법
US7852262B2 (en) 2007-08-16 2010-12-14 Cybernet Systems Corporation Wireless mobile indoor/outdoor tracking system
CN101842810B (zh) 2007-10-30 2012-09-26 惠普开发有限公司 具有协作姿态检测的交互式显示系统
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
US8149210B2 (en) 2007-12-31 2012-04-03 Microsoft International Holdings B.V. Pointing device and method
CN201254344Y (zh) 2008-08-20 2009-06-10 中国农业科学院草原研究所 植物标本及种子存贮器
US8516396B2 (en) * 2009-01-30 2013-08-20 International Business Machines Corporation Object organization based on user interactions within a virtual environment
US9256282B2 (en) * 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7465230B2 (en) * 2001-08-09 2008-12-16 Igt Virtual cameras and 3-D gaming environments in a gaming machine
US7294815B2 (en) * 2005-09-06 2007-11-13 Avago Technologies General Ip (Singapore) Pte. Ltd. System and method for generating positional and orientation information of an object
RU54233U1 (ru) * 2006-01-17 2006-06-10 Общество с ограниченной ответственностью "СИМТЕХ" Система виртуального окружения

Also Published As

Publication number Publication date
US20100241998A1 (en) 2010-09-23
EP2409211A2 (en) 2012-01-25
CA2753051A1 (en) 2010-09-23
RU2011138417A (ru) 2013-03-27
JP5827616B2 (ja) 2015-12-02
WO2010107577A2 (en) 2010-09-23
EP2409211A4 (en) 2015-07-15
WO2010107577A3 (en) 2011-01-06
JP2012521039A (ja) 2012-09-10
CN102356373B (zh) 2015-08-05
CA2753051C (en) 2017-09-12
CN102356373A (zh) 2012-02-15
BRPI1009275A2 (pt) 2016-03-08
US9256282B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
RU2555228C2 (ru) Манипулирование виртуальным объектом
US9824480B2 (en) Chaining animations
JP5739872B2 (ja) モーションキャプチャにモデルトラッキングを適用するための方法及びシステム
RU2560794C2 (ru) Выражение визуального представления, основанное на выражении игрока
US8253746B2 (en) Determine intended motions
US8856691B2 (en) Gesture tool
US8418085B2 (en) Gesture coach
US8660310B2 (en) Systems and methods for tracking a model
JP5775514B2 (ja) ジェスチャー・ショートカット
US20100306716A1 (en) Extending standard gestures
US20110221755A1 (en) Bionic motion
US20120309477A1 (en) Dynamic camera based practice mode
US20100281438A1 (en) Altering a view perspective within a display environment
US20100303302A1 (en) Systems And Methods For Estimating An Occluded Body Part
JP2012516507A (ja) 標準的なジェスチャー
US20120311503A1 (en) Gesture to trigger application-pertinent information

Legal Events

Date Code Title Description
HZ9A Changing address for correspondence with an applicant
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190303