RU2298294C2 - Интерактивная видеодисплейная система - Google Patents

Интерактивная видеодисплейная система Download PDF

Info

Publication number
RU2298294C2
RU2298294C2 RU2003137846/09A RU2003137846A RU2298294C2 RU 2298294 C2 RU2298294 C2 RU 2298294C2 RU 2003137846/09 A RU2003137846/09 A RU 2003137846/09A RU 2003137846 A RU2003137846 A RU 2003137846A RU 2298294 C2 RU2298294 C2 RU 2298294C2
Authority
RU
Russia
Prior art keywords
image
background
processor
virtual element
influence
Prior art date
Application number
RU2003137846/09A
Other languages
English (en)
Other versions
RU2003137846A (ru
Inventor
Мэтью БЕЛЛ (US)
Мэтью БЕЛЛ
Original Assignee
Риэктрикс Системз, Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26856697&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=RU2298294(C2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Риэктрикс Системз, Инк. filed Critical Риэктрикс Системз, Инк.
Publication of RU2003137846A publication Critical patent/RU2003137846A/ru
Application granted granted Critical
Publication of RU2298294C2 publication Critical patent/RU2298294C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

Устройство обеспечивает простое и необременительное взаимодействие между человеком и компьютерной дисплейной системой, использующей движение и положение человека (или другого объекта) в качестве входного сигнала компьютера. В некоторых конфигурациях отображение можно проецировать вокруг пользователя, так что действия человека отображаются вокруг него. Видеокамера и проектор работают на разных длинах волн, так что они не создают помех друг другу. Использование такого устройства включает, но не ограничивается этим, интерактивные эффекты освещения для людей в клубах или в событиях, интерактивное отображение рекламы и т.д. Созданные компьютером знаки и виртуальные объекты могут реагировать на движения прохожих, генерировать интерактивное окружающее освещение для помещений общего пользования, таких как рестораны, фойе и парки, системы видеоигр и создавать интерактивные информационные системы и художественные инсталляции. Можно использовать узорчатое освещение и яркость и градиент для улучшения способности обнаруживать объект на фоне видеоизображений. 5 н. и 71 з.п. ф-лы, 6 ил.

Description

Ссылки на родственные заявки
Данная заявка испрашивает на приоритет находящейся одновременно на рассмотрении временной заявки на патент США №60/296189, поданной 5 июня 2001 с названием "Интерактивная видеодисплейная система, которая использует видеовход", полное содержание которой включается в данное описание для всех целей.
Область техники, к которой относится изобретение
Данное изобретение относится в целом к системам обработки изображения и, в частности, к системе для приема и обработки изображения человека-пользователя для обеспечения взаимодействия с видеодисплеем.
Обработку изображения используют во многих областях анализа, образования, торговли и развлечений. Один аспект обработки изображения включает взаимодействие человек-компьютер посредством обнаружения форм и движений человека для обеспечения взаимодействия с изображениями. Прикладные программы такой обработки могут использовать эффективные или занимательные пути взаимодействия с изображениями для задания цифровых форм или других данных, анимации объектов, создания выразительных форм и т.д.
Обнаружение положения и движения человеческого тела называют "захватом движения". С помощью технологии захвата движения подают математические описания движений человека на вход компьютера или другой обрабатывающей системы. Естественные движения человека можно использовать в качестве входных сигналов компьютера для изучения атлетического движения, сбора данных для последующего воспроизведения или моделирования, углубленного анализа для медицинских целей и т.д.
Хотя захват движения обеспечивает преимущества и недостатки, технология захвата движения имеет тенденцию к сложности. Некоторые технологии требуют от актера ношение специальных костюмов с сильно заметными точками в нескольких местах. В других подходах используют радиочастотные или другие типы излучателей, множество датчиков и детекторов, голубые фильтры, сложную последующую обработку и т.д. Технологии, которые основаны на простом изображении в видимом свете, обычно являются недостаточно точными для обеспечения хорошо заданного и точного захвата движения.
Некоторые прикладные программы захвата движения позволяют актеру, или пользователю, взаимодействовать с изображениями, которые создаются и отображаются компьютерной системой. Например, актер может перемещать, или по-другому создавать, модифицировать и манипулировать объектами с использованием движений тела. Различные эффекты, основанные на движениях актера, можно вычислять с помощью компьютерной системы и отображать на экране дисплея. Например, компьютерная система может отслеживать путь актера перед экраном дисплея и выдавать приближение или артистическую интерпретацию пути на экране дисплея. Изображения, с которыми актер может взаимодействовать, могут быть, например, на полу, на стене или на другой поверхности; подвешенными в трехмерном пространстве, отображенными на одном или нескольких мониторах, проекционных экранах или других устройствах. Можно использовать любой тип дисплейного устройства или технологию для представления изображений, которыми может управлять или с которыми может взаимодействовать пользователь.
В некоторых применениях, таких как торговая точка, реклама, организация продаж, диалоговые развлечения и т.д., желательно захватывать движения нетренированного пользователя (например, проходящего человека) очень незаметным образом. В идеальном случае пользователь не нуждается в специальной подготовке или тренировке, а система не использует неоправданно дорогое оборудование. Кроме того, система и способ, используемые для захвата движения актера, должны быть предпочтительно невидимыми или незаметными для пользователя. Многие реальные прикладные программы должны работать в условиях, где имеется сложный и изменяющийся фон и объекты переднего плана, короткие интервалы времени для захвата движения, изменяющиеся условия освещения и другие факторы, которые могут затруднять захват движения.
Сущность изобретения
Данное изобретение обеспечивает взаимодействие между пользователем и дисплейной системой компьютера, использующей движение и положение пользователя (или другого объекта) в качестве входного сигнала компьютера. Компьютер генерирует отображение, которое реагирует на положение и движение пользователя. Создаваемое изображение может содержать объекты или формы, которые можно перемещать, модифицировать или управлять ими с помощью движений тела пользователя.
В предпочтительном варианте выполнения изобретения на отображаемые изображения оказывают влияния действия пользователя в реальном времени. Отображение можно проецировать вокруг пользователя, так что действия пользователя создают эффекты, которые исходят от пользователя и воздействуют на зоны отображения вблизи пользователя. Или же пользователь может воздействовать на видеообъекты посредством ударов, толкания, перемещения, деформации элементов видеоизображений, прикосновения к ним и т.д. Помехи между светом, используемым для отображения интерактивных изображений, и светом, используемым для обнаружения пользователя, являются минимальными за счет использования света по существу с разными длинами волн.
В одном варианте выполнения пользователя освещают инфракрасным светом, который невидим для человеческого глаза. Для захвата изображения пользователя с целью анализа его положения и движения используют камеру, которая чувствительна к инфракрасному свету. Видимый свет проецируют с помощью проектора на экран, стекло или другую поверхность для отображения интерактивных изображений, объектов, узоров или других форм и эффектов. Поверхность дисплея может быть размещена вокруг пользователя, так что его физическое присутствие внутри дисплея соответствует его виртуальному присутствию, давая чувство физического прикосновения и взаимодействия с виртуальными объектами.
Согласно одному аспекту изобретения можно использовать узорчатое освещение вместо простого, невидимого, однородного "прожекторного света". С помощью узорчатого освещения проецируют рисунок, такой как шахматная доска, случайный точечный узор и т.д. Узор используют с помощью обработки, выполняемой компьютером, для интерпретации изображения камеры и для обнаружения объекта на заднем фоне и/или на фоне других элементов сцены. Узор можно генерировать в виде фона (так что он не падает на объект, подлежащий обнаружению) или же узор можно проецировать на всю видимую камере сцену, так что он освещает фон, передний план и объекты, подлежащие обнаружению и захвату движения.
Один путь обеспечения узорчатого освещения включает использование группы инфракрасных светоизлучающих диодов или другого источника невидимого света в проекторе слайдов. В другом подходе можно использовать инфракрасный лазерный луч, который отклоняют, закрывают, сканируют и т.д. для получения узора.
Другим путем обеспечения узорчатого освещения является использование обычного "прожекторного освещения", но с маркировкой указанного узора на видимой зоне камеры с использованием чернил, красителя или краски, которая является темной или сильно отражающей на частоте чувствительности камеры. Эти чернила, краситель или краска могут быть сделаны невидимыми для глаза человека для улучшения внешнего вида дисплея.
Согласно другому аспекту изобретения используют градиентный подход для определения взаимодействия объекта и изображения. "Изображение влияния" создают посредством создания градиентного ореола или серого перехода вокруг обнаруженного объекта. При движении обнаруженного объекта градиентный ореол вычисляют в реальном времени. При столкновении градиентного ореола с видеоизображением или элементом, вычисляют интенсивность и градиент в зоне элемента сталкивания. Сила и направление взаимодействия (например, толкания элемента) является функцией интенсивности и градиента соответственно зоны сталкивания.
Согласно одному варианту выполнения изобретения создана система для обнаружения объекта и генерирования в ответ изображения, при этом система содержит первый источник для выдачи электромагнитной энергии в первом диапазоне длин волн, детектор для обнаружения отражения электромагнитной энергии первого источника от объекта, процессор, соединенный с детектором для использования обнаруженного отражения для генерирования сигнала обнаружения, второй источник для выдачи электромагнитной энергии во втором диапазоне длин волн, при этом второй источник генерирует видимое отображение в ответ на сигнал отображения, причем первый и второй диапазоны длин волн являются различными.
Согласно другому варианту выполнения изобретения создан способ обнаружения объекта в изображении, захваченном камерой, при этом способ содержит использование узорчатого освещения для освещения фона отлично от объекта; и использование системы обработки для определения объекта отдельно от фона.
Согласно другому варианту выполнения изобретения создан способ вычисления взаимодействия объекта с видеоэлементом, при этом способ содержит процессор для определения градиента для объекта; использование процессора для определения границы видеоэлемента и идентификацию взаимодействия с использованием градиента и границы.
Краткое описание чертежей
На чертежах изображено:
фиг.1 - первая конфигурация предпочтительного варианта выполнения с расположенными в одном месте проектором и камерой;
фиг.2 - конфигурация с верхней проекцией;
фиг.3 - конфигурация с задней проекцией;
фиг.4 - конфигурация с боковой проекцией;
фиг.5А - субъект при равномерном освещении;
фиг.5В - фон при освещении в виде случайного точечного узора;
фиг.5С - субъект и фон при освещении в виде случайного точечного узора;
фиг.5D - результат обнаружения объекта на фоне при использовании освещения в виде случайного точечного узора;
фиг.6А - пользователь, воздействующий с видеообъектом; и
фиг.6В - изображение влияния.
Подробное описание изобретения
Ниже приводится описание нескольких вариантов осуществления изобретения. В целом, в данном изобретении используют первый источник света для освещения пользователя или другого объекта. Первый источник света использует свет, невидимый для человека. Например, можно использовать инфракрасный или ультрафиолетовый свет. Для обнаружения пользователя, освещаемого первым источником света, используют камеру, которая чувствительна к свету в диапазоне длин волн первого источника света. Для обработки изображения обнаруженного объекта и для генерирования изображений для дисплея используют процессор (или другую систему обработки). Второй источник света (например, проектор, видеоэкран и т.д.) используют для отображения генерированных дисплейных изображений пользователю или зрителям. Отображаемые изображения выполняются на длинах волн, которые минимизируют помехи для обнаружения камерой объекта. Для отображения изображений обычно используют видимый спектр света.
Согласно предпочтительному варианту выполнения дисплей окружает пользователя, так что виртуальное присутствие пользователя совмещается с физическим присутствием пользователя. Таким образом, виртуальная сцена на дисплее имеет физическое местоположение вокруг пользователя, и движения пользователя внутри дисплея приводят к идентичному движению представления пользователя внутри виртуальной схемы. Например, пользователь может сталкиваться с физическим местоположением виртуального объекта и знать, что это приведет к тому, что его виртуальное представление коснется виртуального объекта в компьютерной системе. Использование понятия "прикосновение" или "прикоснуться" в данном описании не означает физического контакта с объектом, таким как человек или элемент изображения. Вместо этого упоминание соприкосновения означает, что положение объекта и действие в физическом пространстве переводится в эффект в генерированном изображении, включая эффекты движения элементов в генерированных изображениях.
Отображенные изображения или элементы могут включать объекты, узоры, формы или любые видимые узоры, эффекты и т.д. Некоторые аспекты изобретения можно использовать для прикладных программ, таких как интерактивные эффекты освещения людей в клубах или событиях, интерактивные рекламные дисплеи, знаки и виртуальные объекты, которые реагируют на движения прохожих, интерактивное освещение окружения для общественных помещений, таких как рестораны, ярмарки, спортивные арены, магазины, фойе и парки, видеоигровые системы и интерактивные информационные дисплеи. Возможны другие прикладные программы и они входят в объем изобретения.
На фиг.1 показан вариант выполнения изобретения с проекцией спереди с использованием расположенных в одном месте камерой и проектором. Как показано на фиг.1, человек 1 освещается инфракрасной лампой 2 (или другим невидимым светом). Изображение человека фотографируется инфракрасной (или работающей в другом диапазоне невидимого света) камерой 3. Этот сигнал 4 передается в реальном времени в компьютер 5. Компьютер выполняет алгоритм обнаружения объекта и генерирует видеоэффект в реальном времени. Эффект 6 передается в реальном времени в видеопроектор 7. Проектор проецирует результирующее изображение на экран в реальном времени и в совмещении с человеком.
На фиг.2 показана конфигурация системы с верхней проекцией. Компонент 10 включает указанную выше систему. В данном случае компонент 10 показан установленным вертикально, однако камера, проектор и источник света внутри компонента 10 могут быть установлены также горизонтально и затем направлены вниз с помощью зеркала. Человек, движущийся на полу 11, может иметь видеосигнал 12, проецируемый на пол вокруг него. Собственная тень человека затмевает минимальную часть изображения, когда проектор находится непосредственно над головой.
На фиг.2 и 3 показаны еще две альтернативные конфигурации для камеры и проектора. На обеих фигурах камера 20 захватывает объект, такой как человек 22 перед экраном 23. Угол зрения камеры обозначен позицией 21. На фиг.3 проектор 25 расположен позади экрана. Исходящий из проектора свет 24 можно видеть на экране с обеих сторон. На фиг.4 проектор 25 расположен с наклоном к экрану; показан его конус 24 света. Обе эти конфигурации увеличивают вероятность отсутствия теней, искажающих проецируемое изображение.
Как указывалось в приведенных выше конфигурациях, видеокамера используется для захвата сцены в частном положении для ввода в компьютер. В большинстве конфигураций устройства камера видит часть выходного видеодисплея. Для предотвращения не желательной обратной видеосвязи камера может работать на длине волны, которая не используется видеодисплеем. В большинстве случаев дисплей использует видимый спектр света. В этом случае камера должна фотографировать в невидимом диапазоне длин волн, таком как инфракрасный, так что выход видеодисплея не обнаруживается.
Сцена, снимаемая на видео, должна освещаться светом с длиной волны камеры. В случае инфракрасного света можно использовать источники, включая солнечный свет, тепловую лампу или инфракрасные светоизлучающие диоды, для освещения сцены. Эти источники света могут быть расположены в любом месте; однако попадание ложных теней в поле зрения камеры от этих источников света можно минимизировать за счет расположения источников света вблизи камеры. Источник света, такой как одна или более ламп, может освещать объекты равномерным светом в противоположность узорчатому освещению, которое будет описано ниже. В предпочтительном варианте выполнения видеосигнал передается в реальном времени в компьютер. Однако в других вариантах выполнения не обязательно обеспечивать обработку в реальном или близком к реальному времени и можно обрабатывать объект или видеоизображения (т.е. изображения дисплея) во время, значительно предшествующее отображению изображений.
Этот компонент выполнен модульным; в нем можно использовать любое программное обеспечение компьютера, которое использует входной видеосигнал от предшествующего компонента и выдает результат в виде видеоотображения.
Большинство примеров выполнения этого компонента имеет две части: первая часть осуществляет обнаружение мобильных объектов на неподвижном фоне, в то время как вторая часть использует информацию об объекте для генерирования выходного видеосигнала. Описание нескольких примеров выполнения будет приведено ниже; эти примеры выполнения являются лишь примерами и никак не являются всеобъемлющими.
В первой части живое изображение из видеокамеры обрабатывается в реальном времени с целью отделения подвижных объектов (например, людей) от неподвижного фона, независимо от характера фона. Обработку можно выполнять следующим образом.
Сначала входные кадры из видеокамеры преобразуются в полутоновое изображение для уменьшения количества данных и упрощения процесса обнаружения. Затем их можно слегка размыть для уменьшения шума.
Любой объект, который не движется в течение длительного времени, считается фоном; поэтому при необходимости система способна адаптироваться к изменению освещения или состоянию фона. Модельное изображение фона можно генерировать с помощью различных способов, в каждом из которых проверяют входные кадры в течение некоторого времени. В одном способе проверяют последние несколько кадров (или их подмножество) для генерирования модели фона посредством усреднения, генерирования срединного значения выборки, обнаружения периодов постоянной яркости или других эвристических процедур. Длительность времени, в течение которого проверяют входные кадры, определяет скорость, с которой модель фона адаптируется к изменениям входного изображения.
В другом способе модель фона генерируют в каждой временной стадии (или реже) посредством вычисления взвешенного среднего значения текущего кадра и модели фона из предыдущей стадии. Вес текущего кадра в этом вычислении является относительно небольшим; таким образом, изменения в действительном фоне постепенно ассимилируются в модель фона. Этот вес можно настраивать для изменения скорости, с которой модель фона адаптируется к изменениям во входном изображении.
Считается, что представляющий интерес объект отличается по яркости от фона. С целью нахождения объектов в каждой стадии времени текущий видеосигнал вычитают из модельного изображения фона. Если абсолютная величина этой разницы в конкретном месте больше конкретного порогового значения, то это место классифицируется как объект; в противном случае оно классифицируется как фон.
Вторая часть может быть любой программой, которая воспринимает классификацию объект/фон изображения (возможно, дополнительно к другим данным) в качестве входного сигнала и выдает видеоизображение на основе этого входного сигнала, возможно, в реальном времени. Эта программа может принимать бесконечное число форм и таким образом определяется в широком смысле как компьютерная прикладная программа. Например, этот компонент может быть простым и создавать направленную освещенность в форме обнаруженных объектов или сложным в виде рисующей программы, управляемой с помощью жестов людей, обнаруженных в качестве объектов. Дополнительно к этому, прикладные программы могут использовать другие формы входного сигнала, такие как звуковой, температурный, клавиатурный входной сигнал и т.д., а также дополнительные формы выходного сигнала, такие как звуковой, тактильный, виртуальной действительности, ароматический и т.д.
Один большой класс прикладных программ включает специальные эффекты, которые используют классификацию объект/фон в качестве входного сигнала. Например, звезды, линии или другие формы можно рисовать в выходном видеоизображении в случайной части мест, которые были классифицированы как объект. Затем эти формы могут со временем постепенно исчезать, так что люди оставляют промежуточные следы форм за собой при их движении. Ниже приводятся примеры других эффектов того же класса:
- контуры и рябь, окружающие объекты,
- сетка, деформированная присутствием объектов,
- имитация пламени или ветра или другие матричные конволюции, применяемые к объектам,
- специальные эффекты, которые пульсируют в так музыки, которая обнаруживается отдельно.
Другой большой класс прикладных программ позволяет реальным объектам взаимодействовать с виртуальными объектами или знаками. Например, изображение, показывающее группу утят, можно запрограммировать для прохождения позади любого реального объекта (например, человека), который идет перед дисплеем.
Дополнительно к этому, компьютерные игры, в которые могут играть люди, движущиеся перед камерой, образуют другой класс прикладных программ.
Однако этот список не является исчерпывающим; этот компонент выполнен с возможностью программирования и тем самым может выполнять любую прикладную программу.
Выходной сигнал программного обеспечения обработки из предыдущего компонента отображается визуально. Возможные дисплеи включают, но не ограничиваясь этим, видеопроекторы, телевизионные, плазменные дисплеи и лазерные стенды. Отображаемое изображение можно выравнивать с входной областью камеры, так что видеоэффекты выравниваются с местоположением людей, вызывающих их. Поскольку некоторые конфигурации видеокамеры могут обнаруживать объекты в невидимом свете, исключается проблема создания дисплеем помех для камеры.
Имеются различные возможные конфигурации для различных компонентов. Например, камера и видеопроектор могут быть в одном и том же месте и направлены в одном направлении. Затем камера и проектор могут быть направлены на стену, как показано на фиг.1, направлены на пол, отклонены с помощью зеркала, как показано на фиг.2, или направлены на любую другую поверхность. В качестве альтернативного решения проектор может быть расположен позади экрана, как показано на фиг.3, так что экран является идентичным экрану на фиг.1, но человек больше не находится на пути проекции, так что он не отбрасывает тени. Тень можно также исключить за счет расположения проектора под наклоном к экрану, как показано на фиг.4. Видеодисплей может быть также телевизионным большим экраном, плазменным дисплеем или видеостеной. Хотя во всех указанных выше конфигурациях видеодисплей находится на одной линии с видеовходом, это не является обязательным; видеодисплей может быть расположен в любом месте. Предшествующий список не является исчерпывающим; имеются многочисленные возможные дополнительные конфигурации.
Вся система может быть включена в информационную сеть для обеспечения обмена между системами визуальной информацией и информацией о состоянии программного обеспечения обработки. Таким образом, объект, обнаруженный в сигнале зрения одной системы, может воздействовать на программное обеспечение в другой системе. Дополнительно к этому, виртуальный элемент в дисплее одной системы можно перемещать в другие системы. Если дисплеи нескольких систем выровнены друг с другом, так что они образуют единый большой дисплей, то в этом случае несколько систем могут действовать как одна очень большая система, при этом объекты и взаимодействия бесшовно перемещаются через границы дисплеев.
Общая проблема системы зрения состоит в том, что в случаях, когда имеется неконтролируемое окружающее освещение (например, солнечный свет) видимой камерой зоны под значительно отличным углом, чем камера, то объекты отбрасывают тени на фон. Если эти тени являются достаточно сильными, то система зрения может ошибочно принимать их за объекты. Эти тени могут быть обнаружены и удалены посредством стробирования источника света камеры. Посредством вычитания входного изображения камеры с одним окружающим светом из входного изображения камеры как с окружающим светом, так и со светом камеры система получает изображение, которое захватывает сцену, как если бы использовался лишь свет камеры, за счет чего исключаются обнаруживаемые тени из окружающего света.
Дополнительную точность обнаружения объектов с помощью изображений, захваченных камерой, можно обеспечить посредством использования узорчатого освещения или узорчатых маркировок.
Один недостаток использования системы простого прожекторного освещения для компьютерного зрения состоит в том, что если цвета объектов, наблюдаемых камерой, являются очень похожими, то может быть очень трудно обнаруживать объекты. Если камера работает в монохромном режиме, то еще больше повышается вероятность того, что объект и фон выглядят одинаково.
Использование узорчатого объекта для закрывания видимой камерой зоны может улучшить обнаружение объекта. Если используется узор, который содержит два или более цветов, смешанных в тесной близости, то вероятность того, что другие объекты имеют похожий вид, очень мала, поскольку по меньшей мере один цвет узора будет выглядеть отлично от цвета окружающих объектов. Если используется узорчатый объект, такой как экран, в качестве фона, перед которым необходимо обнаруживать объекты, то объекты, которые проходят перед узорчатым экраном, можно обнаруживать более просто с помощью алгоритма зрения.
Например, в инфракрасной прикладной программе зрения узорчатый объект может быть фоном, который кажется белым для глаза человека, однако он содержит покрытие в виде черно-белого шахматного узора, который невидим для глаза человека, но видим для камеры. За счет использования узора, который невидим в видимом спектре света, узорчатое покрытие не нарушает приятного внешнего вида системы. Дисплейная система (например, видеопроектор) может проецировать выходные изображения на покрытия, как указывалось выше. В процесс, выполняемый обрабатывающей системой, такой как компьютерная система, можно вводить узор фона, что упрощает обнаружение объекта перед покрытием, хотя система может обучаться узорчатому фону тем же образом, каким алгоритм зрения обучается любому другому фону. Кроме того, способность системы приспосабливаться к изменениям яркости фона также не испытывает отрицательного взаимодействия.
Узорчатое освещение можно также проецировать из источника света на видимую камерой зону. Пока камера и источник невидимого света находятся в различных, разнесенных местах, эффекты параллакса приводят к нарушению вида проецируемого узора для камеры при движении объектов в видимой камере зоне. Это нарушение помогает объектам, имеющим сходные цвета, выделяться друг из друга. Если взять различие между двумя изображениями, видимые камерой, то результат показывает форму любого объекта, который появляется, исчезает или перемещается между двумя изображениями. Если изображение одного объекта перед фоном вычесть из изображения одного фона, то результатом является изображение, которое равно нулю, когда имеется фон, и не равно нулю, когда имеются другие объекты. Эту технологию можно использовать в комбинации с другими описываемыми здесь аспектами изобретения.
В качестве источника узорчатого света используется различные средства. Один метод состоит в использовании группы инфракрасных светоизлучающих диодов или другого источника невидимого света в проекторе слайдов. Используется комплект линз для фокусировки света источника через слайд, содержащий желаемый узор, за счет чего проецируется изображение узора на видимую камере зону. В другом способе инфракрасным лазерным лучом можно освещать генератор лазерного узора или другое рассеивающее устройство для создания светового узора на видимой камере зоне. Для создания узора свет можно отражать, затенять, сканировать и т.д. Возможны также многие другие подходы.
Источник узорчатого света является также полезным для трехмерного компьютерного зрения. Технология трехмерного компьютерного зрения, такая как алгоритм Марр-Поггио, принимает в качестве входного сигнала два изображения одной и той же сцены, снятой под слегка разными углами. Узоры на изображениях совмещают для определения величины сдвига и тем самым расстояние до камеры в каждой точке изображения. Действие этого алгоритма ухудшается, когда объекты имеют однородный цвет, поскольку однородный цвет затрудняет совмещение соответствующих частей в паре изображений. Таким образом, источник узорчатого света может улучшить оценку расстояния некоторых алгоритмов трехмерного компьютерного зрения.
Два входных изображения для этих алгоритмов трехмерного зрения обычно генерируют с использованием пары камер, направленных на сцену. Однако можно использовать также лишь одну камеру. Второе изображение может быть полностью неискаженной версией проецируемого узора, которая известна заранее. Это изображение узора по существу идентично тому, что видела бы вторая камера, если ее разместить точно в том же месте, что и источник узорчатого света. Таким образом, можно использовать совместно вид единственной камеры и проецируемый узор в качестве входного сигнала для алгоритма трехмерного зрения. В качестве альтернативного решения вторым изображением может быть изображение только фона, снятое той же камерой.
Хотя можно использовать различные типы узоров, узор случайных точек высокого разрешения имеет определенные преимущества для двухмерного и трехмерного зрения. За счет случайности точечного узора каждая имеющая значительный размер часть точечного узора с очень малой вероятностью выглядит как любая другая часть узора. Таким образом, смещенный узор, обусловленный присутствием объекта в рассматриваемой зоне с очень низкой вероятностью выглядит сходно с узором при отсутствии здесь объекта. Это делает максимальной способность алгоритма зрения обнаруживать смещения в узоре и тем самым объекты. Использование регулярного узора, такого как решетка, может создавать некоторые трудности, поскольку разные части узора являются идентичными, что приводит к тому, что часто смещенные части выглядят как несмещенные части.
На фиг.5А-D показана полезность узора случайных точек для обнаружения объекта. На фиг.5А показано изображение человека при нормальном освещении. Изображение человека имеет яркость, сходную с яркостью фона, что затрудняет обнаружение. На фиг.5В на фон проецируется узор из случайных точек из источника света вблизи камеры. Когда человек стоит перед этим узором, то узор, отражаемый от человека, смещен, как показано на фиг.5С. За счет определения разницы между изображениями на фиг.5А и 5С, получают изображение на фиг.5D, которое задает зону изображения человека с помощью сильного сигнала.
Можно использовать другие подходы для улучшения обнаружения объекта. Например, источник света можно "стробировать" или периодически включать и выключать, так что легче обнаруживать тени, обусловленные другими источниками света (например, окружающим светом).
После обнаружения и определения объекта в предпочтительных вариантах выполнения используют градиентный ореол для определения степени и направления взаимодействия объекта с отображенным элементом изображения.
На фиг.6 показан пользователь, взаимодействующий с видеообъектом.
На фиг.6 объект 304 обнаружен и показан в виде контура. Одно представление объекта процессор компьютера может использовать определение контура, показанного на фиг.6А. Видеоэкран 302 отображает несколько элементом изображения, таких как изображение 306 мяча.
На фиг.6В показано изображение влияния для зоны 308 на фиг.6А.
На фиг.6В контурное изображение ноги 320 пользователя используется для генерирования последовательных более крупных контурных зон. Области исходной контурной зоны 320 присваивается большая величина яркости пикселей, соответствующая белому цвету. Каждой последующей контурной зоне 322, 324, 326, 328, 380 присваивается прогрессивно уменьшающаяся величина, так что точка, более удаленная от исходной контурной (белой) зоны, будет иметь более низкую величину яркости пикселей. Следует отметить, что можно использовать любое число контурных зон. Кроме того, по желанию можно изменять размер и приращения контурных зон. Например, можно использовать непрерывный градиент, а не дискретные зоны. Совокупность всех контурных зон называется "изображением влияния".
Изображение влияния сравнивают для различных элементов изображения. На фиг.6В элемент мяч 306 сталкивается с градиентными зонами 326, 328 и 330. Как известно из уровня техники, линии направления определяются в направлении градиента поля величин пикселей для зон сталкивания. На фиг.6В показаны три примера линий направления внутри элемента 306. Линии направления можно комбинировать, например, посредством усреднения или же можно использовать выбранную единственную линию. С помощью обработки также обнаруживают, что наиболее яркой контурной зоной, толкаемой элементом, является контурная зона 326. Возможны другие подходы. Например, можно усреднять яркость и градиент в каждой точке зоны элемента изображения или подмножества этих точек. Кроме того, некоторые варианты выполнения могут включать длительность контакта в качестве фактора в дополнение к яркости и градиенту.
Взаимодействие между объектом, таким как человек, и элементом на экране вычисляют с использованием как яркости соударяемой контурной зоны, так и направления, вычисленного с использованием одной или более линий направления. Яркость соударения соответствует силе, с которой пользователь соприкасается с элементом. Градиент соответствует направлению, в котором (или из которого в зависимости от знака вычисления) произошло соприкосновение с элементом.
Хотя изобретение было описано применительно к конкретным вариантам его выполнения, эти варианты выполнения являются иллюстрацией и не ограничивают данное изобретение. Например, хотя в предпочтительных вариантах выполнения используется камера в качестве детектора, можно использовать различные типы обнаружения. Камера может быть цифровой или аналоговой. Можно использовать стереокамеру для обеспечения информации о глубине, а также о положении. В случаях, когда обработка и отображение выполняются не в реальном времени, можно использовать пленку или другие типы носителей с последующим цифровым преобразованием перед вводом данных в процессор. Можно использовать световые чувствительные элементы или детекторы. Например, вместо камеры можно использовать матрицу из фотодетекторов. Можно использовать другие детекторы, не рассматриваемые здесь, с подходящими результатами.
В целом можно в данном изобретении использовать любой тип дисплейного устройства. Например, хотя были описаны видеоустройства в различных вариантах выполнения и конфигурациях, можно использовать другие устройства визуальной презентации. Можно использовать матрицу из светоизлучающих диодов, органических светоизлучающих диодов, электромагнитные, катодно-лучевые, плазменные, механические или другие дисплейные системы.
Можно использовать дисплеи виртуальной реальности, трехмерные и другие типы дисплеев. Например, пользователь может носить формирующие изображение очки или колпак, так что он погружается внутрь созданного окружения. В этом подходе создаваемое отображение может выравниваться с воспринимаемым им окружением для создания увеличенной или улучшенной реальности. В одном варианте выполнения пользователь может взаимодействовать с изображением знака. Знак может создаваться компьютером, изображаться актером и т.д. Знак может реагировать на действия пользователя и положения его тела. Взаимодействие может включать речь, взаимную манипуляцию объектами и т.д.
Несколько систем могут быть соединены друг с другом через, например, цифровую сеть. Например, можно использовать локальную сеть Ethernet, универсальную последовательную шину (USB), IEEE 1394 (Firewire) и т.д.
Можно использовать беспроводные линии связи, такие как 802.11b. За счет использования множества систем пользователи в разных географических местах могут кооперировать, соревноваться или взаимодействовать друг с другом другим образом с помощью созданных изображений. Изображения, созданные двумя или более системами, можно объединять друг с другом в мозаику или комбинировать другим образом для создания многокомпонентного изображения.
Можно использовать другие типы освещения, отличные от света. Например, можно использовать радарные сигналы, микроволновые или другие электромагнитные волны с получением преимуществ в ситуациях, где подлежащий обнаружению объект (например, металлический объект) имеет сильную отражательную способность для таких волн. Можно приспособить аспекты данного изобретения для других видов обнаружения, таких как с использованием акустических волн в воздухе или в воде.
Хотя для приема и обработки сигналов изображения объекта и для создания сигналов отображения описаны компьютерные системы, можно использовать любые другие типы системы обработки. Например, можно использовать систему обработки, которая не использует компьютер общего назначения. Системы обработки, использующие конструкции, основанные на заказных или полузаказных схемах или кристаллах, специальных прикладных интегральных схемах (ASIC), программируемых пользователем вентильных матриц (FPGA), мультипроцессорах, асинхронные или любых другие типы конструкции или методологии могут подходить для использования в данном изобретении.
Таким образом, объем изобретения определяется лишь прилагаемой формулой изобретения.

Claims (78)

1. Интерактивная видеодисплейная система, предназначенная для обнаружения объекта и генерирования в ответ отображения, в которой указанный объект взаимодействует с, по меньшей мере, одним изображением виртуального элемента, содержащая
первый источник для выдачи электромагнитной энергии в невидимом диапазоне длин волн в направлении местоположения, содержащего указанный объект;
детектор для обнаружения отражения электромагнитной энергии первого источника от указанного местоположения;
процессор, соединенный с детектором и предназначенный для выполнения процесса обнаружения изображения объекта в обнаруженном отражении, определения изображения влияния объекта, при этом изображение влияния включает в себя область вокруг обнаруженного изображения объекта, генерирования сигнала отображения включающего, по меньшей мере, один виртуальный элемент, при этом изображение влияния объекта взаимодействует с, по меньшей мере, одним виртуальным элементом; и второй источник для выдачи электромагнитной энергии в диапазоне длин волн видимого спектра, при этом второй источник создает видимое отображение в ответ на сигнал отображения.
2. Система по п.1, отличающаяся тем, что генерирование сигнала отображения, когда изображение влияния взаимодействует с, по меньшей мере, одним виртуальным элементом, содержит обнаружение отражения виртуального элемента в изображении влияния, и получение взаимодействия изображения влияния с виртуальным элементом из обнаруженного отражения.
3. Система по п.1, отличающаяся тем, что обнаруженное изображение объекта представляет собой контурное изображение объекта.
4. Система по п.1, отличающаяся тем, что первый источник выдает инфракрасный свет.
5. Система по любому из пп.1-4, отличающаяся тем, что объект включает в себя пользователя-человека, а второй источник содержит видеопроектор для проецирования изображений на поверхность, смежную с объектом, при этом поверхность представляет собой одна из следующих частей: часть системы проекции сверху, часть системы проекции сзади, часть системы проекции спереди.
6. Система по п.1, отличающаяся тем, что первый источник обеспечивает узорчатое освещение и содержит устройство для генерирования узорчатого освещения, представляющее собой группу инфракрасных светоизлучающих диодов для генерирования узорчатого освещения.
7. Система по п.1, отличающаяся тем, что изображение влияния объекта содержит параметры для вычисления интенсивности и направления влияния объекта на виртуальный элемент.
8. Система по п.7, отличающаяся тем, что изображение влияния содержит множество последовательных более крупных контурных зон.
9. Система по п.8, отличающаяся тем, что каждой из последовательных более крупных контурных зон присвоено прогрессивно уменьшающееся значение таким образом, что наиболее удаленной от контура объекта зоне присваивается наименьшее значение.
10. Система по п.8, отличающаяся тем, что изображение влияния содержит, по меньшей мере, одну большую контурную зону, точкам которой непрерывно присвоены прогрессивно уменьшающиеся значения таким образом, что наиболее удаленной от контура объекта точке присваивается наименьшее значение.
11. Система по любому из пп.8-10, отличающаяся тем, что интенсивность влияния объекта на виртуальный элемент получают на основе значений присвоенных точкам последовательно возрастающих контурных зон, на которые накладывается виртуальный элемент, а направление влияния объекта на виртуальный элемент получают на основе градиента значений присвоенных точкам, последовательных более крупных контурных зон, на которые накладывается виртуальный элемент.
12. Система по п.11, отличающаяся тем, что значения, присвоенные точкам, контурных зон, на которые накладывается виртуальный элемент и градиент значений, присвоенных точкам, усредняются в каждой точке зоны виртуального элемента.
13. Система по п.11, отличающаяся тем, что значения присвоенные подмножеству точек, контурных зон, на которые накладывается виртуальный элемент и градиент значений, присвоенных точкам, усредняются в каждой точке подмножества точек.
14. Система по п.8, отличающаяся тем, что продолжительность контакта между виртуальным элементом и изображением влияния используется для определения влияния объекта на виртуальный элемент.
15. Система по п.1, отличающаяся тем, что процессор обеспечивает определение изображения объекта путем отделения объекта от фона обнаруженного отражения, при этом отделение объекта от фона обнаруженного отражения включает генерирование адаптивной модели указанного фона путем анализа изменений во времени обнаруженного отражения.
16. Система по п.15, отличающаяся тем, что генерирование адаптивной модели указанного фона включает вычисление средневзвешенной величины текущего обнаруженного отражения и предыдущего обнаруженного отражения, а отделение объекта от фона включает вычитание указанной средневзвешенной величины из текущего обнаруженного отражения.
17. Система по п.1, отличающаяся тем, что указанный процесс дополнительно содержит генерирование градиентного ореола вокруг определенного изображения объекта и использование наложения виртуального элемента на градиентный ореол для определения взаимодействия между объектом и виртуальным элементом.
18. Система по п.1, отличающаяся тем, что указанный виртуальный элемент включает отображение указанного объекта.
19. Система по п.6, отличающаяся тем, что узорчатое освещение включает случайный точечный узор или шахматный узор.
20. Система по п.1, отличающаяся тем, что обнаружение изображения объекта в обнаруженном отражении включает вычитание обнаруженного отражения из отражения только фона.
21. Система по п.17, отличающаяся тем, что процесс использования градиента для определения взаимодействия между объектом и виртуальным элементом, содержит использование процессора для определения границы виртуального элемента и идентификацию взаимодействия с использованием градиента и границы.
22. Способ по п.21, отличающийся тем, что дополнительно содержит использование процессора для определения яркости ореола вокруг определенного изображения объекта и идентификацию взаимодействия с использованием яркости ореола и границы.
23. Способ по п.1, отличающийся тем, что взаимодействие является одним из следующего: толкание человеком виртуального элемента, соприкосновение человека с виртуальным элементом, деформация человеком виртуального элемента, манипулирование человеком виртуальным элементом, при этом система дополнительно содержит звуковой выход для выдачи звукового сигнала.
24. Способ по п.1, отличающийся тем, что область вокруг обнаруженного изображения содержит пиксели, значения которых отличают их от обнаруженного изображения, а область формируется вокруг обнаруженного изображения путем изменения значения пикселя, что обеспечивает вычисления положения и направления влияния объекта на, по меньшей мере, один виртуальный элемент.
25. Способ обнаружения объекта и генерирования в ответ отображения, в которой указанный объект взаимодействует с, по меньшей мере, одним изображением виртуального элемента, содержащий использование первого источника света в невидимом диапазоне длины волны для освещения местоположения, содержащего объект; использование камеры, чувствительный к свету в невидимом диапазоне длины волны, для обнаружения отражения указанного света от указанного местоположения; и использование процессора, связанного с камерой, для выполнения процесса; обнаружения изображения объекта в обнаруженном отражении, определения изображения влияния объекта, при этом изображение влияния включает в себя область вокруг обнаруженного изображения объекта,
генерирования сигнала отображения, включающего, по меньшей мере, один виртуальный элемент, при этом изображение влияния объекта взаимодействует с, по меньшей мере, одним виртуальным элементом; и использование второго источника света в диапазоне длины волны видимого спектра для генерирования отображенного изображения из сигнала отображения.
26. Способ по п.25, отличающийся тем, что объект представляет собой пользователя-человека, при этом осуществляют генерирование сигнала отображения используя видеопроектор для проецирования изображений на поверхность, смежную с объектом, при этом поверхность переставляет собой одну из следующих частей:
часть системы проекции сверху, часть системы проекции сзади, часть системы проекции спереди.
27. Способ по п.25, отличающийся тем, что используют несколько камер и используют, по меньшей мере, две камеры для создания стереоэффекта.
28. Способ по п.25, отличающийся тем, что используют плазменный экран для создания отображаемого изображения.
29. Способ по п.25, отличающийся тем, что отображаемое изображение включает в себя рекламу.
30. Способ по п.25, отличающийся тем, что отображаемое изображение является частью видеоигры.
31. Способ по п.25, отличающийся тем, что дополнительно содержит стробирование невидимого света.
32. Способ по п.25, отличающийся тем, что дополнительно содержит соединение друг с другом нескольких систем, так что информацию об обнаружении изображения и отображениях можно передавать между системами.
33. Способ по п.32, отличающийся тем, что дополнительно содержит использование переданной информации для создания одного отображения из двух или более отображений.
34. Способ по п.25, отличающийся тем, что дополнительно используют первый источник света для генерирования узорчатого освещения.
35. Способ по любому из пп.25-34, отличающийся тем, что область вокруг обнаруженного изображения содержит пиксели, значения которых отличают их от обнаруженного изображения, а область формируется вокруг обнаруженного изображения путем изменения значения пикселя, что обеспечивает вычисления положения и направления влияния объекта на, по меньшей мере, один виртуальный элемент.
36. Способ обнаружения объекта в изображении, захваченном камерой, содержащий использование источника света для освещения фона объекта узорчатым освещением; получение первого изображения только освещенного фона, и второго изображения освещенного фона и объекта; и вычитание первого и второго изображений для определения изображения объекта отдельно от фона.
37. Способ по п.36, отличающийся тем, что узорчатое освещение включает случайный точечный узор или шахматный узор.
38. Способ по п.36, отличающийся тем, что узорчатое освещение освещает также объект.
39. Способ вычисления взаимодействия объекта с виртуальным элементом, содержащий использование камеры для определения отражения, включающего изображение объекта; использование процессора, связанного с камерой, для выполнения процесса:
обнаружения изображения объекта в обнаруженном отражении,
определения изображения влияния объекта, при этом изображение влияния включает в себя область вокруг обнаруженного изображения объекта,
генерирования сигнала отображения, включающего, по меньшей мере, один виртуальный элемент, при этом изображение влияния объекта взаимодействует с, по меньшей мере, одним виртуальным элементом.
40. Система обнаружения объекта и генерирования в ответ отображения, содержащая
систему камеры, предназначенную для обеспечения изображения объекта отдельно от фона; систему отображения, предназначенную для отображения видеоизображений на поверхности; и процессор, предназначенный для получения указанных изображений от указанной системы камеры и вывода на указанную систему отображения, при этом указанный процессор предназначен для генерирования адаптивной модели указанного фона путем анализа изменений на протяжении всего времени, кадров изображений, вводимых из указанной системы камеры.
41. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанных видеоизображений на основе указанной адаптивной модели и указанных вводимых из указанной системы камер изображений.
42. Система по п.40, отличающаяся тем, что, по меньшей мере, часть указанной поверхности совпадает с указанным фоном.
43. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для обнаружения указанного объекта и его позиции.
44. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для определения изображения влияния, при этом изображение влияния содержит область вокруг изображения объекта, производного от объекта.
45. Система по п.44, отличающаяся тем, что процессор дополнительно предназначен для определения взаимодействия объекта и, по меньшей мере, одного видеоизображения на основе изображения влияния.
46. Система по п.44, отличающаяся тем, что процессор дополнительно предназначен для определения градиента изображения влияния и определения взаимодействия объекта и, по меньшей мере, одного видеоизображения на основе градиента.
47. Система по п.46, отличающаяся тем, что процессор дополнительно предназначен для определения яркости изображения влияния и определения взаимодействия объекта и, по меньшей мере, одного видеоизображения на основе яркости.
48. Система по п.44, отличающаяся тем, что процессор дополнительно предназначен для определения яркости изображения влияния и определения взаимодействия объекта и, по меньшей мере, одного из видеоизображений на основе яркости.
49. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для определения градиента изображения влияния и определения взаимодействия объекта и, по меньшей мере, одного из видеоизображений на основе градиента.
50. Система по п.49, отличающаяся тем, что процессор дополнительно предназначен для определения яркости области производной от объекта и определения взаимодействия объекта и, по меньшей мере, одного видеоизображения на основе яркости.
51. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для определения яркости области производной от объекта и определения взаимодействия объекта и, по меньшей мере, одного из видеоизображений на основе яркости.
52. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для определения взаимодействия объекта и, по меньшей мере, одного из видеоизображений.
53. Система по п.52, отличающаяся тем, что процессор дополнительно предназначен для определения интенсивности взаимодействия.
54. Система по п.53, отличающаяся тем, что процессор дополнительно предназначен для определения направления взаимодействия.
55. Система по п.52, отличающаяся тем, что процессор дополнительно предназначен для определения направления взаимодействия.
56. Система по п.52, отличающаяся тем, что указанное взаимодействие представляет собой толкание объектом, по меньшей мере, одного видеоизображения.
57. Система по п.52, отличающаяся тем, что указанное взаимодействие представляет собой соприкосновение объекта с, по меньшей мере, одним видеоизображением.
58. Система по п.52, отличающаяся тем, что указанное взаимодействие представляет собой деформацию объектом, по меньшей мере, одного видеоизображения.
59. Система по п.52, отличающаяся тем, что указанное взаимодействие представляет собой манипулирование объекта, по меньшей мере, одним видеоизображением.
60. Система по п.40, отличающаяся тем, что указанная система камеры содержит стробоскопический источник света.
61. Система по п.60, отличающаяся тем, что процессор дополнительно предназначен для обработки указанного изображения, полученного от системы камеры, используя указанный стробоскопический источник света.
62. Система по п.61, отличающаяся тем, что процессор дополнительно предназначен для обнаружения светового явления, проявляющегося вследствие использования других источников света, отличных от источника света системы камеры.
63. Система по п.62, отличающаяся тем, что указанное явление включает тени.
64. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем идентификации пикселей в указанных кадрах, имеющих по существу постоянную яркость на протяжении всего времени.
65. Система по п.64, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем вычисления средних значений указанных пикселей на протяжении всего времени.
66. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем вычисления средних значений указанных пикселей в указанных кадрах, на протяжении всего времени.
67. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем внедрения в указанную адаптивную модель указанных фоновых изменений в указанном фоне, которые происходят на протяжении всего времени.
68. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем внедрения в указанную адаптивную модель указанных фоновых изменений в указанном фоне, которые происходят благодаря изменениям света, освещающего указанный фон.
69. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем создания изображения модели из указанного изображения, полученного от указанной системы камеры, которое классифицирует пиксели в указанном изображении модели, как пиксели переднего плана или фона.
70. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем внедрения в указанную адаптивную модель указанной фоновой информации, относящейся к, по меньшей мере, части указанного объекта который остается по существу неподвижным в период времени.
71. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования указанной адаптивной модели указанного фона путем вычисления средневзвешенной величины текущего кадра указанного изображения, полученного от системы камеры, с указанной адаптивной моделью указанного фона.
72. Система по п.71, отличающаяся тем, что процессор дополнительно предназначен для настройки средневзвешенной величины для изменения значения, при котором указанная модель указанного фона может быть изменена в указанном изображении, полученном от системы камеры.
73. Система по п.40, отличающаяся тем, что процессор дополнительно предназначен для генерирования отображения элемента путем вычисления отличий между передним планом, который соответствует объекту, и фоном.
74. Система по п.73, отличающаяся тем, что вычисление отличий включает сравнение текущего кадра указанного изображения, получаемого из системы камеры с указанной адаптивной моделью фона.
75. Система по п.74, отличающаяся тем, что вычисление отличий дополнительно включает определение, превышает ли разница между соответствующими пикселями в указанном текущем кадре указанного изображения получаемого от системы камеры и указанной адаптивной моделью фона порог, необходимый для определения местоположения объекта.
76. Система по п.40, отличающаяся тем, что указанная система камеры содержит две камеры для обеспечения стереоизображения, а процессор дополнительно предназначен для вычисления глубоких данных на основе указанного стереоизображения и для использования указанных глубоких данных для генерирования указанной модели фона.
Приоритет по пунктам:
28.05.2002 - пп.1-39, 44-51, 53-57, 60-63, 76;
05.06.2001 - пп.40-43, 52, 58, 59, 64-75.
RU2003137846/09A 2001-06-05 2002-06-04 Интерактивная видеодисплейная система RU2298294C2 (ru)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US29618901P 2001-06-05 2001-06-05
US60/296,189 2001-06-05
US10/160,217 2002-05-28
US10/160,217 US7259747B2 (en) 2001-06-05 2002-05-28 Interactive video display system

Publications (2)

Publication Number Publication Date
RU2003137846A RU2003137846A (ru) 2005-05-27
RU2298294C2 true RU2298294C2 (ru) 2007-04-27

Family

ID=26856697

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2003137846/09A RU2298294C2 (ru) 2001-06-05 2002-06-04 Интерактивная видеодисплейная система

Country Status (14)

Country Link
US (2) US7259747B2 (ru)
EP (1) EP1393549B1 (ru)
JP (1) JP4077787B2 (ru)
KR (1) KR100847795B1 (ru)
CN (2) CN102033608B (ru)
AT (1) ATE336860T1 (ru)
BR (1) BR0210162A (ru)
CA (1) CA2449300C (ru)
DE (1) DE60213975T2 (ru)
ES (1) ES2271272T3 (ru)
IL (1) IL159207A0 (ru)
MX (1) MXPA03011203A (ru)
RU (1) RU2298294C2 (ru)
WO (1) WO2002100094A2 (ru)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010027291A1 (ru) * 2008-09-08 2010-03-11 Rurin Oleg Stanislavovich Способ отображения информации
RU2461143C2 (ru) * 2008-08-13 2012-09-10 Александр Львович Шведов Способ создания эффекта виртуального присутствия с комбинированным видеоизображением
RU2486591C2 (ru) * 2008-12-30 2013-06-27 Интел Корпорейшн Способ и устройство для уменьшения шумов в видеоизображении
RU2486608C2 (ru) * 2011-08-23 2013-06-27 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" Устройство для организации интерфейса с объектом виртуальной реальности
RU2486403C2 (ru) * 2011-07-28 2013-06-27 Александр Викторович Белокопытов Способ освещения изображения, система для освещения изображения и машиночитаемый носитель
RU2541936C2 (ru) * 2008-10-28 2015-02-20 Конинклейке Филипс Электроникс Н.В. Система трехмерного отображения
RU2580450C2 (ru) * 2009-05-01 2016-04-10 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Системы и способы применения отслеживания модели для захвата движений
RU2581013C2 (ru) * 2010-11-01 2016-04-10 Томсон Лайсенсинг Способ и устройство для обнаружения вводов при помощи жестов
RU2579952C2 (ru) * 2010-11-22 2016-04-10 Эпсон Норвей Рисерч Энд Дивелопмент Ас Система и способ мультисенсорного взаимодействия и подсветки на основе камеры
WO2016108720A1 (ru) * 2014-12-31 2016-07-07 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для отображения трехмерных объектов
RU2678468C2 (ru) * 2013-02-22 2019-01-29 ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи Система и способ для отслеживания пассивной палочки и активации эффекта на основе обнаруженной траектории палочки
RU2760179C1 (ru) * 2021-01-20 2021-11-22 Виктор Александрович Епифанов Система дополненной реальности

Families Citing this family (533)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7009523B2 (en) * 1999-05-04 2006-03-07 Intellimats, Llc Modular protective structure for floor display
US6982649B2 (en) 1999-05-04 2006-01-03 Intellimats, Llc Floor display system with interactive features
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7088684B2 (en) * 2001-07-16 2006-08-08 International Business Machines Corporation Methods and arrangements for dynamically modifying subsource address multicast data distribution trees
US20030063052A1 (en) * 2001-09-28 2003-04-03 Rebh Richard G. Methods and systems of conveying information with an electroluminescent display
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
JP4230999B2 (ja) * 2002-11-05 2009-02-25 ディズニー エンタープライゼス インコーポレイテッド ビデオ作動インタラクティブ環境
US7671843B2 (en) * 2002-11-12 2010-03-02 Steve Montellese Virtual holographic input method and device
US20100262489A1 (en) * 2002-12-13 2010-10-14 Robert Salinas Mobile enabled advertising and marketing methods for computer games, simulations, demonstrations, and the like
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
JP3849654B2 (ja) * 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7428997B2 (en) * 2003-07-29 2008-09-30 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
IL157156A0 (en) * 2003-07-29 2004-08-31 Rafael Armament Dev Authority Predictive display for system having delayed feedback of a command issued
GB2406634A (en) * 2003-10-02 2005-04-06 Mathmos Ltd An object sensing lighting apparatus
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
JP2005276139A (ja) * 2004-02-23 2005-10-06 Aruze Corp 情報入力装置
CN100573548C (zh) * 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7467380B2 (en) * 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US20050265580A1 (en) * 2004-05-27 2005-12-01 Paul Antonucci System and method for a motion visualizer
US20050275915A1 (en) 2004-06-01 2005-12-15 Vesely Michael A Multi-plane horizontal perspective display
KR100616532B1 (ko) * 2004-06-07 2006-08-28 조열 광고 콘텐츠 제공방법
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
CN102006346A (zh) * 2004-09-21 2011-04-06 株式会社尼康 投影仪装置
WO2006050197A2 (en) 2004-10-28 2006-05-11 Accelerated Pictures, Llc Camera and animation controller, systems and methods
US20060126925A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
US8508710B2 (en) 2004-12-02 2013-08-13 Hewlett-Packard Development Company, L.P. Display panel
HUE049974T2 (hu) * 2005-01-07 2020-11-30 Qualcomm Inc Képeken lévõ objektumok észlelése és követése
US20070189544A1 (en) * 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
US8144118B2 (en) * 2005-01-21 2012-03-27 Qualcomm Incorporated Motion-based tracking
WO2006085834A1 (en) * 2005-01-28 2006-08-17 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
US20060170871A1 (en) * 2005-02-01 2006-08-03 Dietz Paul H Anti-blinding safety feature for projection systems
EP1851750A4 (en) 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
US7760962B2 (en) * 2005-03-30 2010-07-20 Casio Computer Co., Ltd. Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
WO2006105660A1 (en) * 2005-04-05 2006-10-12 Google Inc. Method and system supporting audited reporting of advertising impressions from video games
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
US8717423B2 (en) * 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
US20060250391A1 (en) 2005-05-09 2006-11-09 Vesely Michael A Three dimensional horizontal perspective workstation
CN100359437C (zh) * 2005-05-11 2008-01-02 凌阳科技股份有限公司 交互式影像游戏系统
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
US20060267952A1 (en) * 2005-05-26 2006-11-30 Steve Alcorn Interactive display table top
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP2007017364A (ja) * 2005-07-11 2007-01-25 Kyoto Univ シルエット抽出装置及び該方法並びに3次元形状データ生成装置及び該方法
US20070018989A1 (en) * 2005-07-20 2007-01-25 Playmotion, Llc Sensory integration therapy system and associated method of use
FR2889303B1 (fr) * 2005-07-26 2008-07-11 Airbus France Sas Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre
US8625845B2 (en) * 2005-08-06 2014-01-07 Quantum Signal, Llc Overlaying virtual content onto video stream of people within venue based on analysis of the people within the video stream
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US20070063981A1 (en) * 2005-09-16 2007-03-22 Galyean Tinsley A Iii System and method for providing an interactive interface
US7917148B2 (en) 2005-09-23 2011-03-29 Outland Research, Llc Social musical media rating system and method for localized establishments
US8176101B2 (en) 2006-02-07 2012-05-08 Google Inc. Collaborative rejection of media for physical establishments
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20070145680A1 (en) * 2005-12-15 2007-06-28 Outland Research, Llc Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance
AT503008B1 (de) * 2005-12-16 2008-09-15 Dobler & Stampfl Audite Oeg Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
DE102006002602A1 (de) 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537111B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
ITRM20060136A1 (it) * 2006-03-10 2007-09-11 Link Formazione S R L Sistema multimediale interattivo
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
WO2007107874A2 (en) * 2006-03-22 2007-09-27 Home Focus Development Ltd Interactive playmat
US8139059B2 (en) * 2006-03-31 2012-03-20 Microsoft Corporation Object illumination in a virtual environment
KR100742664B1 (ko) * 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법
CN101657825B (zh) * 2006-05-11 2014-02-19 普莱姆传感有限公司 根据深度图对人形进行建模
US7724952B2 (en) * 2006-05-15 2010-05-25 Microsoft Corporation Object matting using flash and no-flash images
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
US7735730B2 (en) 2006-05-24 2010-06-15 International Business Machines Corporation System and method for state-based execution and recovery in a payment system
US20070292033A1 (en) * 2006-06-19 2007-12-20 Chao-Wang Hsiung Passive and interactive real-time image recognition software method
US8001613B2 (en) * 2006-06-23 2011-08-16 Microsoft Corporation Security using physical objects
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
JP5028038B2 (ja) * 2006-07-06 2012-09-19 クラリオン株式会社 車載表示装置および車載表示装置の表示方法
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
WO2008014487A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Scene organization in computer-assisted filmmaking
US7880770B2 (en) * 2006-07-28 2011-02-01 Accelerated Pictures, Inc. Camera control
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US7693331B2 (en) * 2006-08-30 2010-04-06 Mitsubishi Electric Research Laboratories, Inc. Object segmentation using visible and infrared images
WO2008058277A2 (en) * 2006-11-09 2008-05-15 Smartdrive Systems, Inc. Video event recorders having integrated illumination sources
JP2010515170A (ja) 2006-12-29 2010-05-06 ジェスチャー テック,インコーポレイテッド 機能強化したインタラクティブシステムを用いた仮想オブジェクトの操作
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
CN101617271B (zh) * 2007-02-15 2015-07-15 高通股份有限公司 使用闪烁电磁辐射的增强输入
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US9171399B2 (en) * 2013-03-12 2015-10-27 Autodesk, Inc. Shadow rendering in a 3D scene based on physical light sources
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20080262909A1 (en) * 2007-04-18 2008-10-23 Microsoft Corporation Intelligent information display
JP5905662B2 (ja) 2007-04-24 2016-04-20 オブロング・インダストリーズ・インコーポレーテッド プロテイン、プール、およびスロークス処理環境
WO2008134745A1 (en) 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US7808532B2 (en) 2007-05-29 2010-10-05 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
EP2017526A1 (en) * 2007-06-13 2009-01-21 Royal College Of Art Directable light
US20110001935A1 (en) * 2007-06-25 2011-01-06 Spotless, Llc Digital image projection system
US20080316432A1 (en) * 2007-06-25 2008-12-25 Spotless, Llc Digital Image Projection System
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090059094A1 (en) * 2007-09-04 2009-03-05 Samsung Techwin Co., Ltd. Apparatus and method for overlaying image in video presentation system having embedded operating system
AU2008299883B2 (en) 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
US8218811B2 (en) 2007-09-28 2012-07-10 Uti Limited Partnership Method and system for video interaction based on motion swarms
US20090086027A1 (en) * 2007-10-01 2009-04-02 Benjamin Antonio Chaykin Method And System For Providing Images And Graphics
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US7874681B2 (en) * 2007-10-05 2011-01-25 Huebner Kenneth J Interactive projector system and method
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20090124382A1 (en) * 2007-11-13 2009-05-14 David Lachance Interactive image projection system and method
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
JP5684577B2 (ja) 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
US7946922B2 (en) * 2008-03-05 2011-05-24 Howard Hung Yin Advertising funded gaming system
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8194233B2 (en) 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
CN101306249B (zh) * 2008-05-30 2011-09-14 北京中星微电子有限公司 动作分析装置和方法
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US7515136B1 (en) 2008-07-31 2009-04-07 International Business Machines Corporation Collaborative and situationally aware active billboards
US8538084B2 (en) * 2008-09-08 2013-09-17 Apple Inc. Method and apparatus for depth sensing keystoning
US8508671B2 (en) 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US20100064213A1 (en) * 2008-09-10 2010-03-11 Zhou Ye Operation device for a graphical user interface
US7881603B2 (en) * 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US20100079426A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Spatial ambient light profiling
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US8527908B2 (en) 2008-09-26 2013-09-03 Apple Inc. Computer user interface system and methods
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
GB2466497B (en) 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
KR20100084338A (ko) * 2009-01-16 2010-07-26 삼성전자주식회사 이미지 드로잉 방법 및 장치
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8291328B2 (en) * 2009-03-24 2012-10-16 Disney Enterprises, Inc. System and method for synchronizing a real-time performance with a virtual object
US8375311B2 (en) * 2009-03-24 2013-02-12 Disney Enterprises, Inc. System and method for determining placement of a virtual object according to a real-time performance
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
ITRM20090153A1 (it) * 2009-04-01 2010-10-02 Stark Srl Modulo integrato di proiettore interattivo
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8223196B2 (en) * 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
JP5553546B2 (ja) * 2009-07-07 2014-07-16 キヤノン株式会社 画像投影装置、及びその制御方法
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
US8847984B2 (en) * 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
US8616971B2 (en) 2009-07-27 2013-12-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8992315B2 (en) * 2009-07-27 2015-03-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8727875B2 (en) * 2009-07-27 2014-05-20 Obscura Digital, Inc. Automated enhancements for billiards and the like
KR101276199B1 (ko) * 2009-08-10 2013-06-18 한국전자통신연구원 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8502926B2 (en) * 2009-09-30 2013-08-06 Apple Inc. Display system having coherent and incoherent light sources
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8619128B2 (en) 2009-09-30 2013-12-31 Apple Inc. Systems and methods for an imaging system using multiple image sensors
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8672763B2 (en) * 2009-11-20 2014-03-18 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
US20110205186A1 (en) * 2009-12-04 2011-08-25 John David Newton Imaging Methods and Systems for Position Detection
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8687070B2 (en) 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
KR101005599B1 (ko) * 2010-01-27 2011-01-05 주식회사 미디어프론트 인터랙티브 영상처리 시스템 및 방법, 그리고 인터랙티브 영상처리장치
US8717360B2 (en) 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
NL2004273C2 (en) * 2010-02-22 2010-12-28 Valeri Mischenko Embedding humans and objects in virtual reality environments.
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP5740822B2 (ja) * 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) * 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US8917905B1 (en) * 2010-04-15 2014-12-23 Don K. Dill Vision-2-vision control system
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US20110267264A1 (en) * 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
WO2012001755A1 (ja) 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
WO2012011044A1 (en) 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
US8497897B2 (en) 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8638364B2 (en) * 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9805617B2 (en) * 2010-09-29 2017-10-31 Hae-Yong Choi System for screen dance studio
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8845107B1 (en) * 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US8905551B1 (en) 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
DE202011108622U1 (de) * 2011-03-11 2012-01-23 Automate Images Gmbh Vorrichtung zur freigestellten Abbildung eines Objekts
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
KR20120113058A (ko) 2011-04-04 2012-10-12 한국전자통신연구원 현실-가상 융합 공간 기반의 교육 장치 및 방법
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8786529B1 (en) 2011-05-18 2014-07-22 Zspace, Inc. Liquid crystal variable drive voltage
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
JP6045570B2 (ja) * 2011-05-25 2016-12-14 フィリップス ライティング ホールディング ビー ヴィ 表面識別システム
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CN102221887B (zh) * 2011-06-23 2016-05-04 康佳集团股份有限公司 互动投影系统及方法
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
EP2748675B1 (en) 2011-07-29 2018-05-23 Hewlett-Packard Development Company, L.P. Projection capture system, programming and method
KR101773988B1 (ko) 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 시각적 계층화 시스템 및 시각적 계층화 방법
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
JP2013061552A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法
JP5834690B2 (ja) 2011-09-22 2015-12-24 カシオ計算機株式会社 投影装置、投影制御方法及びプログラム
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US9106903B2 (en) * 2011-11-18 2015-08-11 Zspace, Inc. Head tracking eyewear system
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
WO2013088193A1 (en) * 2011-12-13 2013-06-20 Alcatel Lucent Method for interactive control of a computer application
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
AU2013239179B2 (en) 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
JP5550670B2 (ja) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ 情報処理装置
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9025111B2 (en) 2012-04-20 2015-05-05 Google Inc. Seamless display panel using fiber optic carpet
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
US9183676B2 (en) 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
CN102637397B (zh) * 2012-05-02 2014-07-23 大连工业大学 一种具有照明功能的互动媒体设施
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
KR20130140295A (ko) * 2012-06-14 2013-12-24 엘지이노텍 주식회사 거리측정 장치 및 방법
US9682321B2 (en) * 2012-06-20 2017-06-20 Microsoft Technology Licensing, Llc Multiple frame distributed rendering of interactive content
JP6018707B2 (ja) 2012-06-21 2016-11-02 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
SE1200428A1 (sv) * 2012-07-09 2012-10-22 Electrolux Ab Anordning för köket
US20140018169A1 (en) * 2012-07-16 2014-01-16 Zhong Yuan Ran Self as Avatar Gaming with Video Projecting Device
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
KR20140029864A (ko) * 2012-08-30 2014-03-11 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법
US8933970B2 (en) * 2012-09-11 2015-01-13 Longsand Limited Controlling an augmented reality object
TWI590099B (zh) * 2012-09-27 2017-07-01 緯創資通股份有限公司 互動系統及移動偵測方法
US9014417B1 (en) 2012-10-22 2015-04-21 Google Inc. Method and apparatus for themes using photo-active surface paint
US9164596B1 (en) 2012-10-22 2015-10-20 Google Inc. Method and apparatus for gesture interaction with a photo-active painted surface
US9195320B1 (en) 2012-10-22 2015-11-24 Google Inc. Method and apparatus for dynamic signage using a painted surface display system
US9833707B2 (en) * 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
TW201423484A (zh) * 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
CN104076988B (zh) * 2013-03-27 2017-12-01 联想(北京)有限公司 一种显示方法、显示控制方法及电子设备
CN203165407U (zh) * 2013-04-16 2013-08-28 宋戈 自媒体玻璃橱窗
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
CN103455141B (zh) * 2013-08-15 2016-07-06 无锡触角科技有限公司 互动投影系统及其深度传感器和投影仪的校准方法
US9778546B2 (en) * 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
WO2015098189A1 (ja) * 2013-12-27 2015-07-02 ソニー株式会社 表示制御装置、表示制御方法及びプログラム
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US10004462B2 (en) 2014-03-24 2018-06-26 Kineticor, Inc. Systems, methods, and devices for removing prospective motion correction from medical imaging scans
CN110989284A (zh) * 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法以及程序
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US10207193B2 (en) * 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US10593113B2 (en) 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
WO2016014718A1 (en) 2014-07-23 2016-01-28 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
TWI569085B (zh) * 2014-09-10 2017-02-01 Ophaya Electronics Corp A projection system with optical image recognition function, a projection device and a projector to be projected
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
US9602811B2 (en) 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
CN107079126A (zh) 2014-11-13 2017-08-18 惠普发展公司,有限责任合伙企业 图像投影
US10321100B2 (en) * 2014-12-02 2019-06-11 Ademco Inc. System and method of foreground extraction for digital cameras
US10122976B2 (en) * 2014-12-25 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Projection device for controlling a position of an image projected on a projection surface
US9843744B2 (en) * 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US20160216778A1 (en) * 2015-01-27 2016-07-28 Industrial Technology Research Institute Interactive projector and operation method thereof for determining depth information of object
GB201503832D0 (en) * 2015-03-06 2015-04-22 Compurants Ltd Inamo big book V3
KR20160121287A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
IN2015CH03967A (ru) 2015-07-31 2015-08-14 Wipro Ltd
CN107002209A (zh) * 2015-08-17 2017-08-01 新日铁住金高新材料株式会社 铁素体系不锈钢箔
CN107002203A (zh) * 2015-08-19 2017-08-01 新日铁住金高新材料株式会社 不锈钢箔
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
IL298181B1 (en) * 2016-04-21 2024-04-01 Magic Leap Inc A visual aura around the field of vision
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
JP6739059B2 (ja) 2016-08-30 2020-08-12 パナソニックIpマネジメント株式会社 照明装置
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
KR102393299B1 (ko) * 2017-08-09 2022-05-02 삼성전자주식회사 이미지 처리 방법 및 그에 따른 장치
ES2728787B2 (es) * 2018-04-25 2021-02-09 Defensya Ingenieria Int S L Sistema y procedimiento para crear, modular y detectar sombras en sistemas con control basado en un sistema de visualizacion remota
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
US11247099B2 (en) * 2018-12-05 2022-02-15 Lombro James Ristas Programmed control of athletic training drills
US10924639B2 (en) 2019-05-29 2021-02-16 Disney Enterprises, Inc. System and method for polarization and wavelength gated transparent displays
JP7414707B2 (ja) * 2020-12-18 2024-01-16 トヨタ自動車株式会社 画像表示システム
CN114973333B (zh) * 2022-07-13 2023-07-25 北京百度网讯科技有限公司 人物交互检测方法、装置、设备以及存储介质

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5794672A (en) 1980-12-05 1982-06-12 Hitachi Ltd Method for inspecting whether parts are present or not
DE3176016D1 (en) 1980-12-30 1987-04-23 Ibm System for remotely displaying and sensing information using shadow parallax
JPS59182688A (ja) 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
GB8421783D0 (en) 1984-08-29 1984-10-03 Atomic Energy Authority Uk Stereo camera
US5001558A (en) 1985-06-11 1991-03-19 General Motors Corporation Night vision system with color video camera
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4887898A (en) 1988-04-13 1989-12-19 Rowe Furniture Corporation Fabric projection system
US4948371A (en) 1989-04-25 1990-08-14 The United States Of America As Represented By The United States Department Of Energy System for training and evaluation of security personnel in use of firearms
CA2030139C (en) 1989-11-20 2002-04-23 David M. Durlach 3-d amusement and display device
CA2040273C (en) 1990-04-13 1995-07-18 Kazu Horiuchi Image displaying system
US5138304A (en) 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5239373A (en) 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5325473A (en) 1991-10-11 1994-06-28 The Walt Disney Company Apparatus and method for projection upon a three-dimensional object
US5861881A (en) 1991-11-25 1999-01-19 Actv, Inc. Interactive computer system for providing an interactive presentation with personalized video, audio and graphics responses for multiple viewers
US5444462A (en) 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
EP0553700B1 (de) 1992-01-29 1997-06-04 Deutsche Thomson-Brandt GmbH Videokamera, wahlweise als Projektor betreibbar
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US5436639A (en) 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
JPH07135623A (ja) 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
US5510828A (en) 1994-03-01 1996-04-23 Lutterbach; R. Steven Interactive video display system
US5426474A (en) 1994-03-22 1995-06-20 Innersense, Inc. Light projection system using randomized fiber optic bundle
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5682468A (en) 1995-01-23 1997-10-28 Intergraph Corporation OLE for design and modeling
US5548694A (en) 1995-01-31 1996-08-20 Mitsubishi Electric Information Technology Center America, Inc. Collision avoidance system for voxel-based object representation
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
US5633691A (en) 1995-06-07 1997-05-27 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US5882204A (en) * 1995-07-13 1999-03-16 Dennis J. Lannazzo Football interactive simulation trainer
US5591972A (en) 1995-08-03 1997-01-07 Illumination Technologies, Inc. Apparatus for reading optical information
US5574511A (en) 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US6308565B1 (en) * 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5828485A (en) 1996-02-07 1998-10-27 Light & Sound Design Ltd. Programmable light beam shape altering device using programmable micromirrors
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US5969754A (en) 1996-12-09 1999-10-19 Zeman; Herbert D. Contrast enhancing illuminator
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
DE19708240C2 (de) 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
US6088612A (en) 1997-04-04 2000-07-11 Medtech Research Corporation Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection
US6058397A (en) 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
JPH10334270A (ja) 1997-05-28 1998-12-18 Mitsubishi Electric Corp 動作認識装置及び動作認識プログラムを記録した記録媒体
US6075895A (en) * 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
JP2942222B2 (ja) * 1997-08-11 1999-08-30 株式会社つくばソフト研究所 カラー画像及び濃淡画像の通信装置
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6611241B1 (en) 1997-12-02 2003-08-26 Sarnoff Corporation Modular display system
US6388657B1 (en) 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
DE69915721D1 (de) 1998-01-28 2004-04-29 Konishiroku Photo Ind Bildverarbeitungsvorrichtung
US6349301B1 (en) 1998-02-24 2002-02-19 Microsoft Corporation Virtual environment bystander updating in client server architecture
US6266053B1 (en) 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
AU3639699A (en) * 1998-04-13 1999-11-01 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6263339B1 (en) 1998-08-25 2001-07-17 Informix Software, Inc. Dynamic object visualization and code generation
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
AU1930700A (en) * 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
GB9902235D0 (en) 1999-02-01 1999-03-24 Emuse Corp Interactive system
US6333735B1 (en) 1999-03-16 2001-12-25 International Business Machines Corporation Method and apparatus for mouse positioning device based on infrared light sources and detectors
JP3644295B2 (ja) 1999-03-17 2005-04-27 セイコーエプソン株式会社 投写型表示装置
US6292171B1 (en) 1999-03-31 2001-09-18 Seiko Epson Corporation Method and apparatus for calibrating a computer-generated projected image
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6545706B1 (en) 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
US6826727B1 (en) 1999-11-24 2004-11-30 Bitstream Inc. Apparatus, methods, programming for automatically laying out documents
JP3760068B2 (ja) * 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
GB2356996A (en) 1999-12-03 2001-06-06 Hewlett Packard Co Improvements to digital cameras
JP4332964B2 (ja) 1999-12-21 2009-09-16 ソニー株式会社 情報入出力システム及び情報入出力方法
US6747666B2 (en) 2000-01-26 2004-06-08 New York University Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data
US20020062481A1 (en) 2000-02-25 2002-05-23 Malcolm Slaney Method and system for selecting advertisements
JP3842515B2 (ja) * 2000-03-24 2006-11-08 セイコーエプソン株式会社 多重解像度画像解析による指示位置検出
JP4402262B2 (ja) 2000-06-07 2010-01-20 オリンパス株式会社 プリンタ装置及び電子カメラ
US7149262B1 (en) 2000-07-06 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and apparatus for enhancing data resolution
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4666808B2 (ja) * 2000-07-27 2011-04-06 キヤノン株式会社 画像表示システム、画像表示方法、及び記憶媒体、プログラム
US6754370B1 (en) 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US6707444B1 (en) 2000-08-18 2004-03-16 International Business Machines Corporation Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems
US7103838B1 (en) 2000-08-18 2006-09-05 Firstrain, Inc. Method and apparatus for extracting relevant data
US6654734B1 (en) 2000-08-30 2003-11-25 International Business Machines Corporation System and method for query processing and optimization for XML repositories
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3467017B2 (ja) 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US6431711B1 (en) 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
JP2002222424A (ja) 2001-01-29 2002-08-09 Nec Corp 指紋照合システム
US6621483B2 (en) 2001-03-16 2003-09-16 Agilent Technologies, Inc. Optical screen pointing device with inertial properties
US20020178440A1 (en) 2001-03-28 2002-11-28 Philips Electronics North America Corp. Method and apparatus for automatically selecting an alternate item based on user behavior
US6912313B2 (en) 2001-05-31 2005-06-28 Sharp Laboratories Of America, Inc. Image background replacement method
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
EP1689172B1 (en) 2001-06-05 2016-03-09 Microsoft Technology Licensing, LLC Interactive video display system
AU2002319621A1 (en) 2001-07-17 2003-03-03 Amnis Corporation Computational methods for the segmentation of images of objects from background in a flow imaging instrument
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7068274B2 (en) 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US8561095B2 (en) 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US7006055B2 (en) 2001-11-29 2006-02-28 Hewlett-Packard Development Company, L.P. Wireless multi-user multi-projector presentation system
US7307636B2 (en) 2001-12-26 2007-12-11 Eastman Kodak Company Image format including affective information
US20030128389A1 (en) 2001-12-26 2003-07-10 Eastman Kodak Company Method for creating and using affective information in a digital imaging system cross reference to related applications
JP4027118B2 (ja) 2002-02-25 2007-12-26 富士通株式会社 本人認証方法、プログラム及び装置
US6607275B1 (en) 2002-03-20 2003-08-19 The Neiman Marcus Group, Inc. Merchandise display case and system
US6707054B2 (en) 2002-03-21 2004-03-16 Eastman Kodak Company Scannerless range imaging system having high dynamic range
US6831664B2 (en) 2002-03-22 2004-12-14 Koninklijke Philips Electronics N.V. Low cost interactive program control system and method
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
AU2003245506A1 (en) 2002-06-13 2003-12-31 Mark Logic Corporation Parent-child query indexing for xml databases
US7574652B2 (en) 2002-06-20 2009-08-11 Canon Kabushiki Kaisha Methods for interactively defining transforms and for generating queries by manipulating existing query data
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US6999600B2 (en) 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
DE60330276D1 (de) 2003-04-25 2010-01-07 Fujitsu Ltd Fingerabdruckvergleichseinrichtung, fingerabdruckvergleichsverfahren und fingerabdruckvergleichsprogramm
CA2429880C (en) 2003-05-27 2009-07-07 York University Collaborative pointing devices
FR2856963B1 (fr) 2003-07-03 2006-09-01 Antolin Grupo Ing Sa Siege de vehicule automobile
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7681114B2 (en) 2003-11-21 2010-03-16 Bridgeborn, Llc Method of authoring, deploying and using interactive, data-driven two or more dimensional content
WO2005091651A2 (en) 2004-03-18 2005-09-29 Reactrix Systems, Inc. Interactive video display system
CN100573548C (zh) 2004-04-15 2009-12-23 格斯图尔泰克股份有限公司 跟踪双手运动的方法和设备
US7382897B2 (en) 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
WO2005119576A2 (en) 2004-06-01 2005-12-15 Ultra-Scan Corporation Fingerprint image database and method of matching fingerprint sample to fingerprint images
US7330584B2 (en) 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
WO2006081428A2 (en) 2005-01-27 2006-08-03 Symyx Technologies, Inc. Parser for generating structure data
US20060184993A1 (en) 2005-02-15 2006-08-17 Goldthwaite Flora P Method and system for collecting and using data
US7570249B2 (en) 2005-03-30 2009-08-04 Microsoft Corporation Responding to change of state of control on device disposed on an interactive display surface
US7428542B1 (en) 2005-05-31 2008-09-23 Reactrix Systems, Inc. Method and system for combining nodes into a mega-node
US20080252596A1 (en) 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
AU2008299883B2 (en) 2007-09-14 2012-03-15 Facebook, Inc. Processing of gesture-based user interactions
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20100039500A1 (en) 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2461143C2 (ru) * 2008-08-13 2012-09-10 Александр Львович Шведов Способ создания эффекта виртуального присутствия с комбинированным видеоизображением
WO2010027291A1 (ru) * 2008-09-08 2010-03-11 Rurin Oleg Stanislavovich Способ отображения информации
RU2541936C2 (ru) * 2008-10-28 2015-02-20 Конинклейке Филипс Электроникс Н.В. Система трехмерного отображения
RU2486591C2 (ru) * 2008-12-30 2013-06-27 Интел Корпорейшн Способ и устройство для уменьшения шумов в видеоизображении
RU2580450C2 (ru) * 2009-05-01 2016-04-10 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Системы и способы применения отслеживания модели для захвата движений
RU2581013C2 (ru) * 2010-11-01 2016-04-10 Томсон Лайсенсинг Способ и устройство для обнаружения вводов при помощи жестов
RU2579952C2 (ru) * 2010-11-22 2016-04-10 Эпсон Норвей Рисерч Энд Дивелопмент Ас Система и способ мультисенсорного взаимодействия и подсветки на основе камеры
RU2486403C2 (ru) * 2011-07-28 2013-06-27 Александр Викторович Белокопытов Способ освещения изображения, система для освещения изображения и машиночитаемый носитель
RU2486608C2 (ru) * 2011-08-23 2013-06-27 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" Устройство для организации интерфейса с объектом виртуальной реальности
RU2678468C2 (ru) * 2013-02-22 2019-01-29 ЮНИВЕРСАЛ СИТИ СТЬЮДИОС ЭлЭлСи Система и способ для отслеживания пассивной палочки и активации эффекта на основе обнаруженной траектории палочки
WO2016108720A1 (ru) * 2014-12-31 2016-07-07 Общество С Ограниченной Ответственностью "Заботливый Город" Способ и устройство для отображения трехмерных объектов
EA032105B1 (ru) * 2014-12-31 2019-04-30 Ооо "Альт" Способ и система для отображения трехмерных объектов
RU2760179C1 (ru) * 2021-01-20 2021-11-22 Виктор Александрович Епифанов Система дополненной реальности
WO2022159007A1 (ru) * 2021-01-20 2022-07-28 Виктор Александрович ЕПИФАНОВ Система дополненной реальности

Also Published As

Publication number Publication date
US7259747B2 (en) 2007-08-21
IL159207A0 (en) 2004-06-01
JP2005500719A (ja) 2005-01-06
ES2271272T3 (es) 2007-04-16
US20020186221A1 (en) 2002-12-12
EP1393549B1 (en) 2006-08-16
MXPA03011203A (es) 2004-10-28
JP4077787B2 (ja) 2008-04-23
WO2002100094A3 (en) 2003-05-22
EP1393549A2 (en) 2004-03-03
WO2002100094A2 (en) 2002-12-12
CN102033608A (zh) 2011-04-27
CN1582567B (zh) 2010-10-13
KR20040029998A (ko) 2004-04-08
DE60213975T2 (de) 2007-02-15
CN102033608B (zh) 2014-02-12
KR100847795B1 (ko) 2008-07-23
CA2449300C (en) 2013-04-23
ATE336860T1 (de) 2006-09-15
DE60213975D1 (de) 2006-09-28
CA2449300A1 (en) 2002-12-12
US7834846B1 (en) 2010-11-16
BR0210162A (pt) 2004-04-27
RU2003137846A (ru) 2005-05-27
CN1582567A (zh) 2005-02-16

Similar Documents

Publication Publication Date Title
RU2298294C2 (ru) Интерактивная видеодисплейная система
EP1689172B1 (en) Interactive video display system
US8300042B2 (en) Interactive video display system using strobed light
US10990189B2 (en) Processing of gesture-based user interaction using volumetric zones
CN102222347B (zh) 使用波阵面编码来创建深度图像
CN107066962A (zh) 用于通过光学成像进行的对象检测和表征的增强对比度
Sueishi et al. Lumipen 2: Dynamic projection mapping with mirror-based robust high-speed tracking against illumination changes
US7652824B2 (en) System and/or method for combining images
EP3454098A1 (en) System with semi-transparent reflector for mixed/augmented reality
AU2002312346A1 (en) Interactive video display system
KR20120114767A (ko) 사물 투척형 게임 디스플레이 시스템 및 그 방법

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20090605