KR102078427B1 - 사운드 및 기하학적 분석을 갖는 증강 현실 - Google Patents
사운드 및 기하학적 분석을 갖는 증강 현실 Download PDFInfo
- Publication number
- KR102078427B1 KR102078427B1 KR1020147017620A KR20147017620A KR102078427B1 KR 102078427 B1 KR102078427 B1 KR 102078427B1 KR 1020147017620 A KR1020147017620 A KR 1020147017620A KR 20147017620 A KR20147017620 A KR 20147017620A KR 102078427 B1 KR102078427 B1 KR 102078427B1
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- target
- response
- virtual object
- geometric information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Stereophonic System (AREA)
Abstract
Description
도 1은, 본 개시의 하나의 실시형태에 따른, 모바일 디바이스에서 증강 현실 (AR) 어플리케이션이 실행되는 실세계 환경의 다이어그램을 예시한다.
도 2a 및 도 2b는, 본 개시의 일 실시형태에 따른, 모바일 디바이스에서 증강 현실 환경을 보는 다이어그램 및 종료하는 다이어그램들을 예시한다.
도 3은, 본 개시의 일 실시형태에 따른, 사운드 소스로부터의 외부 사운드에 응답하는 가상 오브젝트의 다이어그램을 예시한다.
도 4는, 본 개시의 일 실시형태에 따른, 증강 현실 환경을 유저에게 제공하는 모바일 디바이스의 블록도이다.
도 5는, 본 개시의 일 실시형태에 따른, 증강 현실 환경을 유저에게 제공하는 모바일 디바이스의 제어 유닛의 블록도이다.
도 6은, 본 개시의 일 실시형태에 따른, 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 응답을 생성하는 방법을 예시하는 흐름도이다.
도 7a 및 도 7b는, 본 개시의 일 실시형태에 따른, 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 응답을 생성하는 것을 예시하는 다이어그램들이다.
도 8a 및 도 8b는, 본 개시의 일 실시형태에 따른, 타겟, 사운드 소스 및 모바일 디바이스 사이의 기하학적 관계들을 결정하는 것을 예시하는 다이어그램들이다.
도 9a 및 도 9b는, 본 개시의 다른 실시형태에 따른, 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 AR 응답을 생성하는 것을 예시하는 다이어그램들이다.
도 10a 및 도 10b는, 본 개시의 일 실시형태에 따른, 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 응답을 생성하는 것을 예시하는 다이어그램들이다.
도 11은, 본 개시의 일 실시형태에 따른, AR 환경에서 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 응답을 생성하는 방법을 예시하는 흐름도이다.
도 12는, 본 개시의 다른 실시형태에 따른, 증강 현실 환경을 유저에게 제공하는 모바일 디바이스의 제어 유닛을 예시하는 블록도이다.
도 13은, 본 개시의 일 실시형태에 따른, 외부 사운드에 대한 상이한 사운드 소스들을 식별하고, 복수의 사운드들 각각과 관련된 가상 오브젝트에 대한 응답을 생성하는 방법을 예시하는 흐름도이다.
도 14a 및 도 14b는, 본 개시의 일 실시형태에 따른, 복수의 사운드 소스들로부터의 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 AR 응답들의 순서를 생성하는 것을 예시하는 다이어그램들이다.
도 15는, 본 개시의 다른 실시형태에 따른, 복수의 사운드 소스들로부터의 외부 사운드에 기초하여 가상 오브젝트에 의해 수행될 AR 응답들의 순서를 생성하는 것을 예시하는 다이어그램이다.
도 16a 및 도 16b는, 본 개시의 일 실시형태에 따른, 모바일 디바이스와 타겟 사이의 거리에 기초하여 가상 오브젝트의 사운드 볼륨을 조정하는 것을 예시하는 다이어그램들이다.
도 17은, 본 개시의 일 실시형태에 따른, 모바일 디바이스와 타겟 사이의 거리에 기초하여 가상 오브젝트의 사운드 볼륨을 조정하는 방법을 예시하는 흐름도이다.
도 18은, 본 개시의 몇몇 실시형태들에 따른, 본 개시의 AR 어플리케이션이 실행될 수도 있는 예시적인 모바일 컴퓨팅 디바이스의 블록도이다.
Claims (38)
- 모바일 디바이스의 증강 현실 (augmented reality; AR) 어플리케이션에서 외부 사운드에 응답하는 방법으로서,
상기 모바일 디바이스의 이미지 센서에 의해 타겟이 캡쳐되고 있음을 검출하는 단계;
상기 타겟이 검출되고 있는 것에 응답하여 상기 AR 어플리케이션에서 가상 오브젝트를 개시하는 단계;
상기 모바일 디바이스의 적어도 하나의 사운드 센서에 의해, 사운드 소스로부터 상기 외부 사운드를 수신하는 단계;
상기 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하는 단계로서, 상기 사운드 소스와 상기 타겟 사이의 방향을 결정하는 단계를 포함하는, 상기 제 1의 기하학적 정보를 결정하는 단계;
수신된 상기 외부 사운드와 관련된 적어도 하나의 사운드 클래스에 기초하여 상기 AR 어플리케이션에서 수행할 상기 가상 오브젝트에 대한 적어도 하나의 응답을 생성하는 단계; 및
상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하는 단계를 포함하고,
상기 제 1의 기하학적 정보를 결정하는 단계는:
상기 모바일 디바이스와 상기 타겟 사이의 제 2의 기하학적 정보를 결정하는 단계;
상기 모바일 디바이스와 상기 사운드 소스 사이의 제 3의 기하학적 정보를 결정하는 단계; 및
상기 제 2 및 상기 제 3의 기하학적 정보에 기초하여 상기 제 1의 기하학적 정보를 계산하는 단계를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 삭제
- 제 1항에 있어서,
상기 제 2의 기하학적 정보는 상기 모바일 디바이스와 상기 타겟 사이의 거리, 및 상기 모바일 디바이스의 면 (plane) 에 수직인 축과 상기 타겟 사이의 각도 중 적어도 하나를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 제 3의 기하학적 정보는 상기 모바일 디바이스와 상기 사운드 소스 사이의 거리, 및 상기 모바일 디바이스의 면에 수직인 축과 상기 사운드 소스 사이의 각도 중 적어도 하나를 포함하고,
상기 제 3의 기하학적 정보는 카메라 포즈 추정 (camera pose estimation) 에 기초하여 결정되는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 제 1의 기하학적 정보는 상기 타겟과 상기 사운드 소스 사이의 거리, 및 상기 사운드 소스와 상기 모바일 디바이스에 대해 형성된 상기 타겟의 각도 중 적어도 하나를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 적어도 하나의 응답은 상기 제 1의 기하학적 정보에 더 기초하여 생성되는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 적어도 하나의 응답을 생성하는 단계는:
상기 수신된 외부 사운드로부터 적어도 하나의 사운드 피쳐를 추출하는 단계; 및
추출된 상기 사운드 피쳐를 상기 적어도 하나의 사운드 클래스에 대응하는 것으로서 식별하는 단계를 포함하고,
상기 적어도 하나의 사운드 클래스는 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 외부 사운드를 수신하는 단계는:
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하는 단계;
상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면, 상기 수신된 외부 사운드를 복수의 사운드들로 분리하는 단계;
분리된 상기 복수의 사운드들과 관련된 추가적인 사운드 소스들을 식별하는 단계; 및
식별된 상기 사운드 소스들과 상기 타겟 사이의 제 4의 기하학적 정보를 결정하는 단계를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 8항에 있어서,
상기 적어도 하나의 응답을 생성하는 단계는:
상기 가상 오브젝트에 대해, 상기 식별된 사운드 소스들의 각각과 관련된 상기 적어도 하나의 응답을 결정하는 단계로서, 상기 적어도 하나의 응답은 수행할 상기 가상 오브젝트에 대한 액션 또는 무액션을 포함하는, 상기 적어도 하나의 응답을 결정하는 단계;
상기 가상 오브젝트에 대한 상기 적어도 하나의 응답의 순서를 결정하는 단계; 및
결정된 상기 순서에 기초하여 상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하는 단계를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 가상 오브젝트는 상기 AR 어플리케이션에서의 캐릭터, 군중, 백그라운드 중 적어도 하나를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 모바일 디바이스의 상기 이미지 센서에 의해 상기 타겟이 캡쳐되는 것에 응답하여, 상기 모바일 디바이스의 디스플레이에서, 상기 AR 어플리케이션에서 상기 타겟이 아니라 상기 가상 오브젝트를 디스플레이하는 단계; 및
상기 모바일 디바이스의 상기 이미지 센서에 의해 상기 타겟이 캡쳐되고 있지 않다는 것을 검출하는 것에 응답하여, 상기 모바일 디바이스에서 상기 AR 어플리케이션의 디스플레이를 중지하는 단계를 더 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 제 1의 기하학적 정보의 결정은, 상기 모바일 디바이스, 상기 타겟, 및 상기 사운드 소스의 로케이션들을 결정하는 단계를 더 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 제 1항에 있어서,
상기 외부 사운드를 수신하는 단계는:
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하는 단계;
상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면, 상기 수신된 외부 사운드를 복수의 사운드들로 분리하는 단계;
상기 타겟과 상기 2개 이상의 사운드 소스들의 각각 사이의 제 4의 기하학적 정보를 결정하는 단계;
분리된 상기 사운드들의 각각을 적어도 하나의 특정 사운드 클래스에 대응하는 것으로서 식별하는 단계로서, 상기 적어도 하나의 특정 사운드 클래스는 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는, 상기 분리된 상기 사운드들의 각각을 적어도 하나의 특정 사운드 클래스에 대응하는 것으로서 식별하는 단계; 및
상기 제 4의 기하학적 정보 및 상기 적어도 하나의 특정 사운드 클래스에 더 기초하여 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답을 생성하는 단계를 포함하는, 모바일 디바이스의 증강 현실 어플리케이션에서 외부 사운드에 응답하는 방법. - 증강 현실 (augmented reality; AR) 어플리케이션에서 외부 사운드에 응답하는 디바이스로서,
이미지 센서 및 적어도 하나의 사운드 센서를 포함하며, 타겟을 포함하는 이미지들 및 하나의 사운드 소스로부터의 상기 외부 사운드를 수신하도록 구성된 센서; 및
제어 유닛을 포함하고,
상기 제어 유닛은:
상기 이미지들에서 상기 타겟을 검출하도록 구성된 타겟 오브젝트 검출기;
검출된 상기 타겟에 응답하여 상기 AR 어플리케이션에서 가상 오브젝트를 개시하도록 구성된 어플리케이션 개시 유닛;
상기 하나의 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하도록 구성된 기하학적 정보 계산 유닛으로서, 상기 하나의 사운드 소스와 상기 타겟 사이의 방향을 결정하는 것을 포함하는, 상기 제 1의 기하학적 정보를 결정하도록 구성된 기하학적 정보 계산 유닛; 및
수신된 상기 외부 사운드와 관련된 적어도 하나의 사운드 클래스에 기초하여 상기 AR 어플리케이션에서 수행할 상기 가상 오브젝트에 대한 적어도 하나의 응답을 생성하도록 그리고 상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하도록 구성된 AR 응답 생성기를 포함하고,
상기 기하학적 정보 계산 유닛은:
상기 디바이스와 상기 타겟 사이의 제 2의 기하학적 정보를 결정하고;
상기 디바이스와 상기 하나의 사운드 소스 사이의 제 3의 기하학적 정보를 결정하고; 그리고
상기 제 2 및 상기 제 3의 기하학적 정보에 기초하여 상기 제 1의 기하학적 정보를 계산하도록 더 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 삭제
- 제 14항에 있어서,
상기 제 2의 기하학적 정보는 상기 디바이스와 상기 타겟 사이의 거리, 및 상기 디바이스의 면에 수직인 축과 상기 타겟 사이의 각도 중 적어도 하나를 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 제 3의 기하학적 정보는 상기 디바이스와 상기 하나의 사운드 소스 사이의 거리, 및 상기 디바이스의 면에 수직인 축과 상기 하나의 사운드 소스 사이의 각도 중 적어도 하나를 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 제 1의 기하학적 정보는 상기 타겟과 상기 하나의 사운드 소스 사이의 거리, 및 상기 하나의 사운드 소스와 상기 디바이스에 대해 형성된 상기 타겟의 각도 중 적어도 하나를 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 제 3의 기하학적 정보는 카메라 포즈 추정에 기초하여 결정되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 AR 응답 생성기는:
상기 수신된 외부 사운드로부터 적어도 하나의 사운드 피쳐를 추출하고; 그리고
추출된 상기 사운드 피쳐를 상기 적어도 하나의 사운드 클래스에 대응하는 것으로서 식별하도록 더 구성되고,
상기 적어도 하나의 사운드 클래스는 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하고, 상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면 상기 수신된 외부 사운드를 복수의 사운드들로 분리하고, 분리된 상기 복수의 사운드들과 관련된 추가적인 사운드 소스들을 식별하고, 그리고 식별된 상기 사운드 소스들과 상기 타겟 사이의 제 4의 기하학적 정보를 결정하도록 구성된 사운드 분석기를 더 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 21항에 있어서,
상기 AR 응답 생성기는:
상기 가상 오브젝트에 대해, 상기 식별된 사운드 소스들의 각각과 관련된 상기 적어도 하나의 응답을 결정하는 것으로서, 상기 적어도 하나의 응답은 수행할 상기 가상 오브젝트에 대한 액션 또는 무액션 (inaction) 을 포함하는, 상기 적어도 하나의 응답을 결정하고;
상기 가상 오브젝트에 대한 상기 적어도 하나의 응답의 순서를 결정하고; 그리고
결정된 상기 순서에 기초하여 상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하도록 더 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 가상 오브젝트는 상기 AR 어플리케이션에서의 캐릭터, 군중, 백그라운드 중 적어도 하나를 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 타겟 오브젝트 검출기가 상기 타겟을 검출하는 것에 응답하여, 상기 AR 어플리케이션은 상기 타겟이 아니라 상기 가상 오브젝트를 디스플레이하고; 그리고
상기 타겟이 상기 이미지들 내에 있지 않다는 것을 상기 타겟 오브젝트 검출기가 검출하는 것에 응답하여, 상기 제어 유닛은 상기 AR 어플리케이션의 디스플레이를 중지하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 기하학적 정보 계산 유닛은 상기 디바이스, 상기 타겟, 및 상기 하나의 사운드 소스의 로케이션들을 결정하도록 더 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 14항에 있어서,
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하고, 상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면 상기 수신된 외부 사운드를 복수의 사운드들로 분리하고, 상기 2개 이상의 사운드 소스들의 각각과 상기 타겟 사이의 제 4의 기하학적 정보를 결정하고, 분리된 상기 사운드들의 각각을 적어도 하나의 특정 사운드 클래스에 대응하는 것으로서 식별하고, 그리고 상기 제 4의 기하학적 정보 및 상기 적어도 하나의 특정 사운드 클래스에 더 기초하여 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답을 생성하도록 구성된 사운드 분석기를 더 포함하고,
상기 적어도 하나의 특정 사운드 클래스는 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 증강 현실 (augmented reality; AR) 어플리케이션에서 외부 사운드에 응답하기 위한 모바일 디바이스에 대한 명령들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체로서,
상기 명령들은 프로세서로 하여금:
상기 모바일 디바이스의 이미지 센서에 의해 타겟이 캡쳐되고 있음을 검출하고;
상기 타겟이 검출되고 있음에 응답하여 상기 AR 어플리케이션에서 가상 오브젝트를 개시하고;
상기 모바일 디바이스의 적어도 하나의 사운드 센서에 의해, 하나의 사운드 소스로부터 상기 외부 사운드를 수신하고;
상기 하나의 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하는 것으로서, 상기 하나의 사운드 소스와 상기 타겟 사이의 방향을 결정하는 것을 포함하는, 상기 하나의 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하고;
수신된 상기 외부 사운드와 관련된 적어도 하나의 사운드 클래스에 기초하여 상기 AR 어플리케이션에서 수행할 상기 가상 오브젝트에 대한 적어도 하나의 응답을 생성하고; 그리고
상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하는
동작들을 수행하게 하고,
상기 제 1의 기하학적 정보를 결정하는 것은:
상기 모바일 디바이스와 상기 타겟 사이의 제 2의 기하학적 정보를 결정하고;
상기 모바일 디바이스와 상기 하나의 사운드 소스 사이의 제 3의 기하학적 정보를 결정하고; 그리고
상기 제 2 및 상기 제 3의 기하학적 정보에 기초하여 상기 제 1의 기하학적 정보를 계산하는 것을 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하기 위한 모바일 디바이스에 대한 명령들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체. - 삭제
- 제 27항에 있어서,
상기 외부 사운드를 수신하는 것은:
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하고;
상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면, 상기 수신된 외부 사운드를 복수의 사운드들로 분리하고;
분리된 상기 복수의 사운드들과 관련된 추가적인 사운드 소스들을 식별하고; 그리고
식별된 상기 추가적인 사운드 소스들과 상기 타겟 사이의 제 4의 기하학적 정보를 결정하는 것을 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하기 위한 모바일 디바이스에 대한 명령들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체. - 제 29항에 있어서,
상기 적어도 하나의 응답을 생성하는 것은:
상기 가상 오브젝트에 대해, 상기 식별된 사운드 소스들의 각각과 관련된 상기 적어도 하나의 응답을 결정하는 것으로서, 상기 적어도 하나의 응답은 수행할 상기 가상 오브젝트에 대한 액션 또는 무액션을 포함하는, 상기 적어도 하나의 응답을 결정하고;
상기 가상 오브젝트에 대한 상기 적어도 하나의 응답의 순서를 결정하고; 그리고
결정된 상기 순서에 기초하여 상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하는 것을 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하기 위한 모바일 디바이스에 대한 명령들을 포함하는 비일시적 컴퓨터 판독가능 저장 매체. - 증강 현실 (augmented reality; AR) 어플리케이션에서 외부 사운드에 응답하는 디바이스로서,
모바일 디바이스의 이미지 센서에 의해 타겟이 캡쳐되고 있음을 검출하는 수단;
상기 타겟이 검출되고 있는 것에 응답하여 상기 AR 어플리케이션에서 가상 오브젝트를 개시하는 수단;
하나의 사운드 소스로부터 상기 외부 사운드를 수신하는 수단;
상기 하나의 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하는 수단으로서, 상기 하나의 사운드 소스와 상기 타겟 사이의 방향을 결정하는 수단을 포함하는, 상기 하나의 사운드 소스와 상기 타겟 사이의 제 1의 기하학적 정보를 결정하는 수단; 및
수신된 상기 외부 사운드와 관련된 적어도 하나의 사운드 클래스에 기초하여 상기 AR 어플리케이션에서 수행할 상기 가상 오브젝트에 대한 적어도 하나의 응답을 생성하고 상기 가상 오브젝트로 하여금 상기 적어도 하나의 응답을 수행하게 하는 수단을 포함하고,
상기 제 1의 기하학적 정보를 결정하는 수단은:
상기 디바이스와 상기 타겟 사이의 제 2의 기하학적 정보를 결정하고;
상기 디바이스와 상기 하나의 사운드 소스 사이의 제 3의 기하학적 정보를 결정하고; 그리고
상기 제 2 및 상기 제 3의 기하학적 정보에 기초하여 상기 제 1의 기하학적 정보를 계산하도록 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 삭제
- 제 31항에 있어서,
상기 제 2의 기하학적 정보는 상기 디바이스와 상기 타겟 사이의 거리, 및 상기 디바이스의 면에 수직인 축과 상기 타겟 사이의 각도 중 적어도 하나를 포함하고, 그리고
상기 제 3의 기하학적 정보는 상기 디바이스와 상기 하나의 사운드 소스 사이의 거리, 및 상기 디바이스의 상기 면에 수직인 상기 축과 상기 하나의 사운드 소스 사이의 각도 중 적어도 하나를 포함하는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 31항에 있어서,
상기 제 3의 기하학적 정보는 카메라 포즈 추정에 기초하여 결정되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 31항에 있어서,
상기 적어도 하나의 응답을 생성하는 수단은:
상기 수신된 외부 사운드로부터 적어도 하나의 사운드 피쳐를 추출하고; 그리고
추출된 상기 사운드 피쳐를 상기 적어도 하나의 사운드 클래스에 대응하는 것으로서 식별하도록 구성되고,
상기 적어도 하나의 사운드 클래스는 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 31항에 있어서,
상기 외부 사운드를 수신하는 수단은:
상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하고;
상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면, 상기 수신된 외부 사운드를 복수의 사운드들로 분리하고;
분리된 상기 복수의 사운드들과 관련된 추가적인 사운드 소스들을 식별하고; 그리고
식별된 상기 추가적인 사운드 소스들과 상기 타겟 사이의 제 4의 기하학적 정보를 결정하도록 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 36항에 있어서,
상기 적어도 하나의 응답을 생성하는 수단은:
상기 가상 오브젝트에 대해, 상기 식별된 사운드 소스들의 각각과 관련된 상기 적어도 하나의 응답을 결정하는 것으로서, 상기 적어도 하나의 응답은 수행할 상기 가상 오브젝트에 대한 액션 또는 무액션을 포함하는, 상기 적어도 하나의 응답을 결정하고;
상기 가상 오브젝트에 대한 상기 적어도 하나의 응답의 순서를 결정하고; 그리고
결정된 상기 순서에 기초하여 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답을 생성하도록 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스. - 제 31항에 있어서,
상기 외부 사운드를 수신하는 수단은 상기 외부 사운드가 2개 이상의 사운드 소스들로부터 수신되는지의 여부를 결정하고, 상기 외부 사운드가 상기 2개 이상의 사운드 소스들로부터 수신되면, 상기 수신된 외부 사운드를 복수의 사운드들로 분리하도록 구성되고;
상기 결정하는 수단은 상기 타겟과 상기 2개 이상의 사운드 소스들의 각각 사이의 제 4의 기하학적 정보를 결정하도록 구성되고;
상기 생성하는 수단은, 분리된 상기 사운드들의 각각을, 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답과 관련되는 적어도 하나의 특정 사운드 클래스에 대응하는 것으로서 식별하도록, 그리고 상기 제 4의 기하학적 정보 및 상기 적어도 하나의 특정 사운드 클래스에 더 기초하여 상기 가상 오브젝트에 대한 상기 적어도 하나의 응답을 생성하도록 구성되는, 증강 현실 어플리케이션에서 외부 사운드에 응답하는 디바이스.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261585945P | 2012-01-12 | 2012-01-12 | |
US61/585,945 | 2012-01-12 | ||
US13/585,927 US9563265B2 (en) | 2012-01-12 | 2012-08-15 | Augmented reality with sound and geometric analysis |
US13/585,927 | 2012-08-15 | ||
PCT/US2012/066194 WO2013106133A1 (en) | 2012-01-12 | 2012-11-21 | Augmented reality with sound and geometric analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140117369A KR20140117369A (ko) | 2014-10-07 |
KR102078427B1 true KR102078427B1 (ko) | 2020-02-17 |
Family
ID=48779976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147017620A Active KR102078427B1 (ko) | 2012-01-12 | 2012-11-21 | 사운드 및 기하학적 분석을 갖는 증강 현실 |
Country Status (7)
Country | Link |
---|---|
US (1) | US9563265B2 (ko) |
EP (1) | EP2802962A1 (ko) |
JP (1) | JP5996669B2 (ko) |
KR (1) | KR102078427B1 (ko) |
CN (1) | CN104054039B (ko) |
IN (1) | IN2014CN04458A (ko) |
WO (1) | WO2013106133A1 (ko) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9206446B2 (en) | 2006-05-01 | 2015-12-08 | Board Of Trustees Of Michigan State University | Extraction of solubles from plant biomass for use as microbial growth stimulant and methods related thereto |
US20130249811A1 (en) * | 2012-03-23 | 2013-09-26 | Microsoft Corporation | Controlling a device with visible light |
US9367870B2 (en) * | 2012-10-05 | 2016-06-14 | Sap Se | Determining networked mobile device position and orientation for augmented-reality window shopping |
WO2014063724A1 (en) * | 2012-10-22 | 2014-05-01 | Longsand Limited | Collaborative augmented reality |
CA2892958C (en) * | 2012-11-29 | 2022-04-19 | Imran HADDISH | Virtual and augmented reality instruction system |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP5884811B2 (ja) * | 2013-11-18 | 2016-03-15 | コニカミノルタ株式会社 | Ar表示装置、ar表示制御装置、印刷条件設定システム、印刷システム、印刷設定表示方法およびプログラム |
US20150187143A1 (en) * | 2013-12-26 | 2015-07-02 | Shadi Mere | Rendering a virtual representation of a hand |
JP2015166890A (ja) * | 2014-03-03 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
US10930038B2 (en) | 2014-06-10 | 2021-02-23 | Lab Of Misfits Ar, Inc. | Dynamic location based digital element |
US12008697B2 (en) | 2014-06-10 | 2024-06-11 | Ripple, Inc. Of Delaware | Dynamic location based digital element |
US10026226B1 (en) | 2014-06-10 | 2018-07-17 | Ripple Inc | Rendering an augmented reality object |
US9875080B2 (en) * | 2014-07-17 | 2018-01-23 | Nokia Technologies Oy | Method and apparatus for an interactive user interface |
JP6344125B2 (ja) * | 2014-07-31 | 2018-06-20 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法、および、プログラム |
KR102226820B1 (ko) * | 2014-08-20 | 2021-03-11 | 삼성전자주식회사 | 데이터 공유 방법 및 그 전자 장치 |
US10642575B2 (en) | 2014-12-02 | 2020-05-05 | Sony Corporation | Information processing device and method of information processing for notification of user speech received at speech recognizable volume levels |
US10915161B2 (en) * | 2014-12-11 | 2021-02-09 | Intel Corporation | Facilitating dynamic non-visual markers for augmented reality on computing devices |
EP3233075A4 (en) * | 2014-12-19 | 2018-10-24 | Halo Life Science, LLC | Use of ellagic acid dihydrate in food products and nutraceuticals |
US20170061700A1 (en) * | 2015-02-13 | 2017-03-02 | Julian Michael Urbach | Intercommunication between a head mounted display and a real world object |
KR102516096B1 (ko) * | 2015-09-30 | 2023-03-31 | 소니그룹주식회사 | 정보 처리 시스템 및 정보 처리 방법 |
KR102036545B1 (ko) * | 2016-05-28 | 2019-10-25 | 어쿠스틱 날리지, 엘엘씨 | 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라 |
RU167769U1 (ru) * | 2016-06-17 | 2017-01-10 | Виталий Витальевич Аверьянов | Устройство формирования виртуальных объектов дополненной реальности |
WO2017217894A1 (ru) * | 2016-06-17 | 2017-12-21 | Виталий Витальевич АВЕРЬЯНОВ | Устройство формирования виртуальных объектов дополненной реальности |
WO2017221492A1 (ja) * | 2016-06-20 | 2017-12-28 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
WO2018034894A1 (en) * | 2016-08-15 | 2018-02-22 | Pcms Holdings, Inc. | System and method using sound signal for material and texture identification for augmented reality |
US10074205B2 (en) | 2016-08-30 | 2018-09-11 | Intel Corporation | Machine creation of program with frame analysis method and apparatus |
US10359858B2 (en) * | 2016-09-07 | 2019-07-23 | Disney Enterprises, Inc. | Systems and methods for simulating sounds of a virtual object using procedural audio |
DE102016121281A1 (de) * | 2016-11-08 | 2018-05-09 | 3Dqr Gmbh | Verfahren und Vorrichtung zum Überlagern eines Abbilds einer realen Szenerie mit virtuellen Bild- und Audiodaten und ein mobiles Gerät |
US20180158243A1 (en) * | 2016-12-02 | 2018-06-07 | Google Inc. | Collaborative manipulation of objects in virtual reality |
JP7141410B2 (ja) | 2017-05-01 | 2022-09-22 | マジック リープ, インコーポレイテッド | 空間的3d環境に対するコンテンツのマッチング |
US10304239B2 (en) * | 2017-07-20 | 2019-05-28 | Qualcomm Incorporated | Extended reality virtual assistant |
CN107608519A (zh) * | 2017-09-26 | 2018-01-19 | 深圳传音通讯有限公司 | 一种声音调整方法及虚拟现实设备 |
CN107678828A (zh) * | 2017-10-26 | 2018-02-09 | 北京易讯理想科技有限公司 | 一种基于图像追踪技术实现的声音音量控制方法 |
CN107885331A (zh) * | 2017-11-09 | 2018-04-06 | 北京易讯理想科技有限公司 | 一种基于增强现实技术实现音频切换的交互方法 |
US20190200154A1 (en) * | 2017-12-21 | 2019-06-27 | Facebook, Inc. | Systems and methods for audio-based augmented reality |
KR102694754B1 (ko) * | 2017-12-22 | 2024-08-12 | 매직 립, 인코포레이티드 | 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기 위한 방법들 및 시스템 |
CN108415570B (zh) * | 2018-03-07 | 2021-08-24 | 网易(杭州)网络有限公司 | 基于增强现实的控件选择方法和装置 |
TWI656362B (zh) * | 2018-03-26 | 2019-04-11 | 仁寶電腦工業股份有限公司 | 電子裝置及其物件重製方法 |
JP6773074B2 (ja) * | 2018-05-01 | 2020-10-21 | トヨタ自動車株式会社 | 応答生成方法、応答生成装置及び応答生成プログラム |
CN108769535B (zh) * | 2018-07-04 | 2021-08-10 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、存储介质和计算机设备 |
CN109065055B (zh) * | 2018-09-13 | 2020-12-11 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
CN109308179A (zh) * | 2018-09-25 | 2019-02-05 | Oppo广东移动通信有限公司 | 3d音效处理方法及相关产品 |
CN109597481B (zh) * | 2018-11-16 | 2021-05-04 | Oppo广东移动通信有限公司 | Ar虚拟人物绘制方法、装置、移动终端及存储介质 |
KR102600989B1 (ko) * | 2019-01-29 | 2023-11-13 | 삼성전자주식회사 | 디스플레이 패널 및 이를 포함하는 디스플레이 장치 |
US11071912B2 (en) * | 2019-03-11 | 2021-07-27 | International Business Machines Corporation | Virtual reality immersion |
CN112449210A (zh) * | 2019-08-28 | 2021-03-05 | 北京字节跳动网络技术有限公司 | 声音处理方法、装置、电子设备及计算机可读存储介质 |
WO2021044745A1 (ja) * | 2019-09-03 | 2021-03-11 | ソニー株式会社 | 表示処理装置、表示処理方法及び記録媒体 |
US11159766B2 (en) | 2019-09-16 | 2021-10-26 | Qualcomm Incorporated | Placement of virtual content in environments with a plurality of physical participants |
WO2021095330A1 (ja) * | 2019-11-12 | 2021-05-20 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2022211357A1 (en) | 2021-03-30 | 2022-10-06 | Samsung Electronics Co., Ltd. | Method and electronic device for automatically animating graphical object |
US12020382B2 (en) | 2022-03-24 | 2024-06-25 | Kyndryl, Inc. | Physical and virtual environment synchronization |
US12315057B2 (en) | 2022-09-07 | 2025-05-27 | Qualcomm Incorporated | Avatar facial expressions based on semantical context |
US20240094861A1 (en) * | 2022-09-20 | 2024-03-21 | Snap Inc. | Configuring a 3d model within a virtual conferencing system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006121896A2 (en) * | 2005-05-05 | 2006-11-16 | Sony Computer Entertainment Inc. | Microphone array based selective sound source listening and video game control |
US20110242134A1 (en) * | 2010-03-30 | 2011-10-06 | Sony Computer Entertainment Inc. | Method for an augmented reality character to maintain and exhibit awareness of an observer |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030018771A1 (en) * | 1997-07-15 | 2003-01-23 | Computer Associates Think, Inc. | Method and apparatus for generating and recognizing speech as a user interface element in systems and network management |
US6330486B1 (en) | 1997-07-16 | 2001-12-11 | Silicon Graphics, Inc. | Acoustic perspective in a virtual three-dimensional environment |
JPH1165814A (ja) | 1997-08-26 | 1999-03-09 | Fujitsu Ltd | インタラクティブシステム及び画像表示方法 |
US6816437B1 (en) | 2002-06-03 | 2004-11-09 | Massachusetts Institute Of Technology | Method and apparatus for determining orientation |
US8947347B2 (en) | 2003-08-27 | 2015-02-03 | Sony Computer Entertainment Inc. | Controlling actions in a video game unit |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
CN100508029C (zh) * | 2002-10-23 | 2009-07-01 | 皇家飞利浦电子股份有限公司 | 语音控制单元、方法及其控制的设备和消费类电子系统 |
JP5339900B2 (ja) | 2005-05-05 | 2013-11-13 | 株式会社ソニー・コンピュータエンタテインメント | コンピューターインタラクティブ処理による選択的音源聴取 |
JP4019095B2 (ja) * | 2005-12-28 | 2007-12-05 | 株式会社コナミデジタルエンタテインメント | 音声処理装置、音声処理方法、ならびに、プログラム |
US20090237492A1 (en) * | 2008-03-18 | 2009-09-24 | Invism, Inc. | Enhanced stereoscopic immersive video recording and viewing |
US8170222B2 (en) * | 2008-04-18 | 2012-05-01 | Sony Mobile Communications Ab | Augmented reality enhanced audio |
US8520872B2 (en) * | 2008-08-14 | 2013-08-27 | Samsung Electronics Co., Ltd. | Apparatus and method for sound processing in a virtual reality system |
US20120194550A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Sensor-based command and control of external devices with feedback from the external device to the ar glasses |
US9285589B2 (en) * | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US20120200601A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with state triggered eye control interaction with advertising facility |
US20140063055A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
JP2013521576A (ja) * | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
US20120200488A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with sensor and user action based control of eyepiece applications with feedback |
US20140063054A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific control interface based on a connected external device type |
US20120194418A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user action control and event input based control of eyepiece application |
US9759917B2 (en) * | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US20120206485A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities |
US20120206322A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and sensor input triggered user action capture device control of ar eyepiece facility |
US20120206335A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based direct control of external devices with feedback |
US20120194552A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with predictive control of external device based on event input |
US20110213664A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8488246B2 (en) * | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US9128281B2 (en) * | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US10180572B2 (en) * | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US20120194420A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with event triggered user action control of ar eyepiece facility |
US20130314303A1 (en) * | 2010-02-28 | 2013-11-28 | Osterhout Group, Inc. | Ar glasses with user action control of and between internal and external applications with feedback |
US20120194551A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user-action based command and control of external devices |
US20120194549A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses specific user interface based on a connected external device type |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
US20120206334A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and user action capture device control of external applications |
US20120194553A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with sensor and user action based control of external devices with feedback |
US20120200499A1 (en) * | 2010-02-28 | 2012-08-09 | Osterhout Group, Inc. | Ar glasses with event, sensor, and user action based control of applications resident on external devices with feedback |
US8610771B2 (en) | 2010-03-08 | 2013-12-17 | Empire Technology Development Llc | Broadband passive tracking for augmented reality |
JP4696184B1 (ja) | 2010-06-02 | 2011-06-08 | 任天堂株式会社 | 画像表示システム、画像表示装置および画像表示方法 |
US8384770B2 (en) * | 2010-06-02 | 2013-02-26 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
EP2395768B1 (en) | 2010-06-11 | 2015-02-25 | Nintendo Co., Ltd. | Image display program, image display system, and image display method |
WO2011160114A1 (en) * | 2010-06-18 | 2011-12-22 | Minx, Inc. | Augmented reality |
US8581844B2 (en) * | 2010-06-23 | 2013-11-12 | Google Inc. | Switching between a first operational mode and a second operational mode using a natural motion gesture |
KR101683676B1 (ko) * | 2010-07-22 | 2016-12-07 | 삼성전자 주식회사 | 사운드를 이용한 증강 현실 서비스 제공 장치 및 방법 |
US8854356B2 (en) * | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
US20120207308A1 (en) * | 2011-02-15 | 2012-08-16 | Po-Hsun Sung | Interactive sound playback device |
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US8184069B1 (en) * | 2011-06-20 | 2012-05-22 | Google Inc. | Systems and methods for adaptive transmission of data |
US9973848B2 (en) * | 2011-06-21 | 2018-05-15 | Amazon Technologies, Inc. | Signal-enhancing beamforming in an augmented reality environment |
AU2011204946C1 (en) * | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
KR20140059213A (ko) * | 2011-08-30 | 2014-05-15 | 마이크로소프트 코포레이션 | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
TW201316328A (zh) * | 2011-10-14 | 2013-04-16 | Hon Hai Prec Ind Co Ltd | 聲音反饋裝置及其工作方法 |
US9672659B2 (en) * | 2011-12-27 | 2017-06-06 | Here Global B.V. | Geometrically and semanitically aware proxy for content placement |
-
2012
- 2012-08-15 US US13/585,927 patent/US9563265B2/en active Active
- 2012-11-21 IN IN4458CHN2014 patent/IN2014CN04458A/en unknown
- 2012-11-21 CN CN201280064705.9A patent/CN104054039B/zh active Active
- 2012-11-21 EP EP12806743.6A patent/EP2802962A1/en not_active Ceased
- 2012-11-21 KR KR1020147017620A patent/KR102078427B1/ko active Active
- 2012-11-21 WO PCT/US2012/066194 patent/WO2013106133A1/en active Application Filing
- 2012-11-21 JP JP2014552191A patent/JP5996669B2/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006121896A2 (en) * | 2005-05-05 | 2006-11-16 | Sony Computer Entertainment Inc. | Microphone array based selective sound source listening and video game control |
US20110242134A1 (en) * | 2010-03-30 | 2011-10-06 | Sony Computer Entertainment Inc. | Method for an augmented reality character to maintain and exhibit awareness of an observer |
Also Published As
Publication number | Publication date |
---|---|
US9563265B2 (en) | 2017-02-07 |
US20130182858A1 (en) | 2013-07-18 |
EP2802962A1 (en) | 2014-11-19 |
KR20140117369A (ko) | 2014-10-07 |
JP5996669B2 (ja) | 2016-09-21 |
IN2014CN04458A (ko) | 2015-09-04 |
WO2013106133A1 (en) | 2013-07-18 |
CN104054039A (zh) | 2014-09-17 |
CN104054039B (zh) | 2017-04-19 |
JP2015510629A (ja) | 2015-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102078427B1 (ko) | 사운드 및 기하학적 분석을 갖는 증강 현실 | |
CN109947886B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111417028B (zh) | 信息处理方法、装置、存储介质及电子设备 | |
US10007349B2 (en) | Multiple sensor gesture recognition | |
US8306267B1 (en) | Object tracking | |
WO2019184889A1 (zh) | 增强现实模型的调整方法、装置、存储介质和电子设备 | |
EP3467707A1 (en) | System and method for deep learning based hand gesture recognition in first person view | |
US8660362B2 (en) | Combined depth filtering and super resolution | |
CN111476306A (zh) | 基于人工智能的物体检测方法、装置、设备及存储介质 | |
CN110572716B (zh) | 多媒体数据播放方法、装置及存储介质 | |
US20210304452A1 (en) | Method and system for providing avatar service | |
US20140232748A1 (en) | Device, method and computer readable recording medium for operating the same | |
US11967343B2 (en) | Automated video editing | |
US20230239423A1 (en) | Varied depth determination using stereo vision and phase detection auto focus (pdaf) | |
US20250068326A1 (en) | Gesture-based keyboard text entry | |
US10403285B1 (en) | Methods and apparatus to define virtual scenes using natural language commands and natural gestures | |
CN108052506B (zh) | 自然语言处理方法、装置、存储介质及电子设备 | |
WO2022192883A1 (en) | Automated video editing to add visual or audio effect corresponding to a detected motion of an object in the video | |
CN106650727A (zh) | 一种信息显示方法以及ar设备 | |
US12360663B2 (en) | Gesture-based keyboard text entry | |
US12190420B2 (en) | Generating user interfaces in augmented reality environments | |
US20240202470A1 (en) | Generating augmented reality content including translations | |
US20230019181A1 (en) | Device and method for device localization | |
HK1183134A (en) | Multiple sensor gesture recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20140626 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
AMND | Amendment | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20171025 Comment text: Request for Examination of Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190320 Patent event code: PE09021S01D |
|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20190320 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
AMND | Amendment | ||
PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20190520 Comment text: Amendment to Specification, etc. Patent event code: PX09012R01I Patent event date: 20171025 Comment text: Amendment to Specification, etc. |
|
PX0701 | Decision of registration after re-examination |
Patent event date: 20191112 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20191024 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20190926 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20190520 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20171025 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200211 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200211 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20221221 Start annual number: 4 End annual number: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20240102 Start annual number: 5 End annual number: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20241223 Start annual number: 6 End annual number: 6 |