KR101930657B1 - 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 - Google Patents
몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 Download PDFInfo
- Publication number
- KR101930657B1 KR101930657B1 KR1020177013982A KR20177013982A KR101930657B1 KR 101930657 B1 KR101930657 B1 KR 101930657B1 KR 1020177013982 A KR1020177013982 A KR 1020177013982A KR 20177013982 A KR20177013982 A KR 20177013982A KR 101930657 B1 KR101930657 B1 KR 101930657B1
- Authority
- KR
- South Korea
- Prior art keywords
- physical environment
- image
- rendering
- camera
- orientation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 36
- 230000002452 interceptive effect Effects 0.000 title description 21
- 238000009877 rendering Methods 0.000 claims abstract description 108
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000008859 change Effects 0.000 claims abstract description 17
- 230000003287 optical effect Effects 0.000 claims abstract description 17
- 238000003860 storage Methods 0.000 claims description 10
- 230000005236 sound signal Effects 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000001953 sensory effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 4
- 238000000576 coating method Methods 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G06K9/00355—
-
- G06K9/4676—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/693—Acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H04N5/2258—
-
- H04N5/332—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
장치가 개시된다. 장치는 적어도 하나의 카메라를 포함하는 광학 감지 시스템을 포함하며, 상기 적어도 하나의 카메라는 물리적 환경의 이미지를 획득하도록 구성된다. 장치는 프로세싱 시스템을 추가로 포함한다. 프로세싱 시스템은 이미지로부터 두드러진 특징을 검출하며 상기 검출된 두드러진 특징에 기초하여 물리적 환경에 대하여 장치의 방위 및/또는 위치에서의 변화를 결정하도록 구성된 방위 및 위치 결정 모듈을 포함한다. 상기 프로세싱 시스템은 이미지에 및 장치의 방위 및/또는 위치에서의 결정된 변화에 기초하여 물리적 환경의 렌더링을 결정하며, 물리적 환경의 렌더링에 관련된 데이터를 디스플레이 시스템에 제공하도록 구성된 렌더링 모듈을 또한 포함한다.
Description
관련 출원에 대한 상호 참조
본 출원은 2014년 10월 24일자로 출원된, 미국 가출원 번호 제62/068,423호의 이득을 주장하며, 그 내용은 전체적으로 참고로 본 명세서에 편입된다.
분야
본 개시는 인간-컴퓨터 상호 작용의 기술적 분야에 관한 것이며, 특히 몰입식 및 대화식 멀티미디어 생성에 관한 것이다.
몰입식 멀티미디어는 통상적으로 멀티미디어 데이터를 수신하는 사람이 환경에 물리적으로 존재하는 경험을 가질 수 있게 하는 상기 환경에 관련된 멀티미디어 데이터를 (오디오 및 비디오의 형태로) 제공하는 것을 포함한다. 몰입식 멀티미디어의 생성은 통상적으로 대화형이며, 따라서 사람에게 제공된 멀티미디어 데이터는 예를 들면, 사람의 물리적 위치, 사람에 의해 수행된 활동 등에 기초하여 자동으로 업데이트될 수 있다. 대화형 몰입식 멀티미디어는 예를 들면, 경험을 보다 실제처럼 만듦으로써 사용자 경험을 개선할 수 있다.
두 개의 주요 유형의 대화형 몰입식 멀티미디어가 있다. 제1 유형은 가상 현실(VR)이며, 여기에서 멀티미디어 데이터는 예를 들면, 실세계 또는 이미징된 세계에서의 장소에서 물리적 존재를 시뮬레이션하는 환경을 복제한다. 환경의 렌더링은 또한 사용자에 의해 수행된 동작을 반영하며, 그에 의해 사용자가 환경과 상호 작용할 수 있게 한다. 사용자의 동작(예로서, 신체 움직임)은 통상적으로 모션 센서에 의해 검출될 수 있다. 가상 현실은 시각, 청각, 촉각 등을 포함할 수 있는 감각 경험을 인위적으로 생성한다.
제2 유형의 대화형 몰입식 멀티미디어는 증강 현실(AR)이며, 여기에서 멀티미디어 데이터는 사람이 위치되는 물리적 환경의 실시간 그래픽 이미지, 뿐만 아니라 부가적인 디지털 정보를 포함한다. 부가적인 디지털 정보는 통상적으로 실시간 그래픽 이미지의 최상부 상에 놓이지만, 물리적 환경의 실시간 그래픽 이미지의 렌더링을 변경하거나 또는 강화하지 않는다. 부가적인 디지털 정보는 또한 가상 오브젝트의 이미지일 수 있지만, 통상적으로 가상 오브젝트의 이미지는 사실적인 렌더링을 생성하기 위해 물리적 환경과 합성되는 대신에, 실시간 그래픽 이미지의 최상부 상에 놓인다. 물리적 환경의 렌더링은 또한 상호 작용을 가능하게 하기 위해 사용자에 의해 수행된 동작 및/또는 사람의 위치를 반영할 수 있다. 사용자의 동작(예로서, 신체 움직임)은 통상적으로 모션 센서에 의해 검출될 수 있지만, 사람의 위치는 그래픽 이미지로부터 물리적 환경의 특징을 검출하고 추적함으로써 결정될 수 있다. 증강 현실은 부가적인 디지털 정보를 사람에게 동시에 제공하면서, 물리적 환경에 존재하는 동안 사람의 감각 경험의 일부를 복제할 수 있다.
현재 가상 오브젝트의 이미지 및 물리적 환경의 이미지의 사실적인 합성을 생성하는 가상 현실 및 증강 현실의 조합을 제공할 수 있는 시스템이 없다. 게다가, 현재 증강 현실 시스템은 사용자의 감각 경험을 복제할 수 있지만, 이러한 시스템은 통상적으로 사용자의 감지 능력을 강화시킬 수 없다.
본 개시의 실시예의 부가적인 양상 및 이점이 다음의 설명에서 부분적으로 제공될 것이고, 다음의 설명으로부터 부분적으로 명백해지거나, 또는 본 개시의 실시예의 실시로부터 학습될 것이다.
몇몇 실시예에 따르면, 장치는 적어도 하나의 카메라를 포함하는 광학 감지 시스템을 포함하며, 상기 적어도 하나의 카메라는 물리적 환경의 이미지를 획득하도록 구성된다. 상기 장치는 프로세싱 시스템을 추가로 포함한다. 상기 프로세싱 시스템은 이미지로부터 두드러진 특징을 검출하며, 상기 검출된 두드러진 특징에 기초하여 물리적 환경에 대하여 상기 장치의 방위 및/또는 위치에서의 변화를 결정하도록 구성된 방위 및 위치 결정 모듈을 포함한다. 상기 프로세싱 시스템은 또한 이미지에 및 장치의 방위 및/또는 위치에서의 상기 결정된 변화에 기초하여 상기 물리적 환경의 렌더링을 결정하며, 상기 물리적 환경의 렌더링에 관련된 데이터를 디스플레이 시스템에 제공하도록 구성된 렌더링 모듈을 포함한다.
몇몇 실시예에 따르면, 광학 감지 시스템은 제1 카메라 및 제2 카메라를 포함하며, 상기 제1 카메라는 상기 물리적 환경의 제1 이미지를 획득하도록 구성되고, 상기 제2 카메라는 상기 물리적 환경의 제2 이미지를 획득하도록 구성된다. 상기 방위 및 위치 결정 모듈은 상기 장치가 물리적 환경에서 제1 위치에 있을 때 상기 제1 및 제2 이미지로부터 제1 두드러진 특징을 검출하고, 상기 제1 두드러진 특징과 연관된 제1 세트의 좌표를 결정하고, 상기 장치가 상기 물리적 환경에서 제2 위치에 있을 때 상기 제1 및 제2 이미지로부터 제2 두드러진 특징을 검출하고, 상기 제2 두드러진 특징과 연관된 제2 세트의 좌표를 결정하며, 상기 제1 및 제2 두드러진 특징이 서로에 대응한다는 결정에 응답하여, 상기 제1 및 제2 세트의 좌표에 기초하여 상기 물리적 환경에 대하여 상기 장치의 방위 및/또는 위치에서의 변화를 결정하도록 구성된다. 상기 렌더링 모듈은 또한 상기 제1 및 제2 이미지에 및 상기 장치의 방위 및/또는 위치에서의 상기 결정된 변화에 기초하여 상기 물리적 환경의 입체적 렌더링을 결정하도록 구성된다. 몇몇 실시예에 따르면, 제1 및 제2 카메라의 각각은 적색-녹색-청색-적외선(RGB-IR) 픽셀 센서를 포함한다.
몇몇 실시예에 따르면, 상기 광학 감지 시스템은 제1 카메라, 제2 카메라, 및 미러를 포함하며, 상기 제1 카메라는 적외선(IR) 이미지를 획득하도록 구성되고, 상기 제2 카메라는 적색-녹색-청색(RGB) 이미지를 획득하도록 구성되며, 상기 미러는 상기 제2 카메라로부터 멀리 IR 광을 반사하며 상기 RGB 이미지와 IR 이미지를 동조시키도록 구성된다. 몇몇 실시예에서, 상기 제1 카메라는 비행시간(time-of-flight) 카메라이다. 몇몇 실시예에서, 상기 제1 카메라는 IR 카메라이다.
몇몇 실시예에 따르면, 상기 광학 감지 시스템은 하나 이상의 패턴을 물리적 환경으로 투사하도록 구성된 IR 조명기를 포함하며; 여기에서 상기 검출된 두드러진 특징은 상기 하나 이상의 패턴을 포함한다.
몇몇 실시예에 따르면, 상기 프로세싱 시스템은 이미지로부터 손 제스처를 검출하며, 상기 손 제스처와 연관된 사용자 지시를 결정하도록 구성된 손 제스처 결정 모듈을 추가로 포함한다. 상기 렌더링 모듈은 상기 결정된 사용자 지시에 기초하여 상기 물리적 환경의 렌더링을 결정하도록 구성된다. 몇몇 실시예에서, 상기 손 제스처 결정 모듈은 상기 사용자 지시가 렌더링되는 오브젝트의 선택과 연관됨을 결정하기 위해 구성되며, 상기 렌더링 모듈은 상기 사용자 지시에 기초하여 상기 오브젝트의 렌더링에서의 변화를 결정하도록 구성된다. 몇몇 실시예에서, 상기 오브젝트는 가상 오브젝트이다. 몇몇 실시예에서, 상기 오브젝트는 물리적 환경에 존재하는 물리적 오브젝트이다.
몇몇 실시예에 따르면, 상기 렌더링 모듈은 상기 물리적 환경의 렌더링에서 상기 물리적 환경에 위치된 물리적 오브젝트의 이미지와 가상 오브젝트의 이미지를 합성하도록 구성되며; 여기에서 상기 합성은 상기 가상 오브젝트와 연관된 제1 세트의 좌표 및 상기 물리적 오브젝트와 연관된 제2 세트의 좌표에 기초한다. 몇몇 실시예에서, 상기 합성은 상기 물리적 환경에서 비롯된 오디오 신호 및 가상 오브젝트와 연관된 오디오 데이터의 렌더링을 포함한다.
몇몇 실시예에 따르면, 상기 장치는 스마트폰에 연결하도록 구성된 커넥터를 추가로 포함한다. 몇몇 실시예에서, 상기 스마트폰은 상기 프로세싱 시스템의 적어도 부분을 포함한다. 몇몇 실시예에서, 상기 스마트폰은 부가적인 콘텐트를 제공하도록 구성되며, 상기 렌더링 모듈은 상기 이미지 및 상기 부가적인 콘텐트에 기초하여 상기 물리적 환경의 렌더링을 결정하도록 구성된다.
참조가 이제 본 출원의 예시적인 실시예를 도시하는 첨부한 도면에 대해 이루어질 것이다:
도 1은 본 개시의 실시예가 구현될 수 있는 대표적인 컴퓨팅 디바이스의 블록도이다.
도 2a 및 도 2b는 본 개시의 실시예와 일치하는, 몰입식 멀티미디어 생성을 예시한 대표적인 렌더링의 예시이다.
도 3은 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 위한 대표적인 시스템의 블록도이다.
도 4a 내지 도 4e는 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 지원하기 위한 대표적인 카메라 시스템의 개략도이다.
도 5는 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 지원하기 위해 카메라의 위치 및 포즈를 감지하기 위한 대표적인 방법의 흐름도이다.
도 6은 본 개시의 실시예와 일치하는 손 제스처에 기초하여 멀티미디어 렌더링을 업데이트하기 위한 대표적인 방법의 흐름도이다.
도 7a 및 도 7b는 본 개시의 실시예와 일치하는 물리적 환경의 실시간 그래픽 이미지로의 3D 가상 오브젝트의 이미지의 합성의 예시이다.
도 8은 본 개시의 실시예와 일치하는 물리적 환경의 실시간 그래픽 이미지로의 3D 가상 오브젝트의 이미지의 합성을 위한 대표적인 방법의 흐름도이다.
도 9a 및 도 9b는 본 개시의 실시예와 일치하는 대표적인 헤드-장착 대화형 몰입식 멀티미디어 생성을 예시한 개략도이다.
도 1은 본 개시의 실시예가 구현될 수 있는 대표적인 컴퓨팅 디바이스의 블록도이다.
도 2a 및 도 2b는 본 개시의 실시예와 일치하는, 몰입식 멀티미디어 생성을 예시한 대표적인 렌더링의 예시이다.
도 3은 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 위한 대표적인 시스템의 블록도이다.
도 4a 내지 도 4e는 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 지원하기 위한 대표적인 카메라 시스템의 개략도이다.
도 5는 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 지원하기 위해 카메라의 위치 및 포즈를 감지하기 위한 대표적인 방법의 흐름도이다.
도 6은 본 개시의 실시예와 일치하는 손 제스처에 기초하여 멀티미디어 렌더링을 업데이트하기 위한 대표적인 방법의 흐름도이다.
도 7a 및 도 7b는 본 개시의 실시예와 일치하는 물리적 환경의 실시간 그래픽 이미지로의 3D 가상 오브젝트의 이미지의 합성의 예시이다.
도 8은 본 개시의 실시예와 일치하는 물리적 환경의 실시간 그래픽 이미지로의 3D 가상 오브젝트의 이미지의 합성을 위한 대표적인 방법의 흐름도이다.
도 9a 및 도 9b는 본 개시의 실시예와 일치하는 대표적인 헤드-장착 대화형 몰입식 멀티미디어 생성을 예시한 개략도이다.
참조가 이제 실시예에 대해 상세히 이루어질 것이며, 그 예는 첨부한 도면에서 예시된다. 가능하다면, 동일한 참조 숫자는 도면 전체에 걸쳐 동일한 또는 유사한 부분을 나타내기 위해 사용될 것이다.
실시예의 설명은 단지 대표적이며, 제한적이도록 의도되지 않는다.
도 1은 본 개시의 실시예가 구현될 수 있는 대표적인 컴퓨팅 디바이스(100)의 블록도이다. 도 1에 도시된 바와 같이, 컴퓨팅 디바이스(100)는 프로세서(121) 및 메인 메모리(122)를 포함한다. 프로세서(121)는 메인 메모리(122)로부터 인출된 지시에 응답하며 이를 프로세싱하는 임의의 논리 회로일 수 있다. 프로세서(221)는 단일 또는 다수의 범용 마이크로프로세서, 필드-프로그램 가능한 게이트 어레이(FPGA), 또는 메모리(예로서, 메인 메모리(122))에 저장된 지시를 실행할 수 있는 디지털 신호 프로세서(DSP), 또는 애플리케이션 특정 집적 회로(ASIC)일 수 있으며, 따라서 프로세서(221)는 특정한 태스크를 수행하도록 구성된다.
메모리(122)는 플렉시블 디스크, 하드 디스크, CD-ROM(콤팩트 디스크 판독-전용 메모리), MO(자기-광학) 드라이브, DVD-ROM(디지털 다목적 디스크 판독-전용 메모리), DVD-RAM(디지털 다목적 디스크 랜덤-액세스 메모리), 플래시 드라이브, 플래시 메모리, 레지스터, 캐시, 또는 반도체 메모리와 같은, 유형의 및/또는 비-일시적 컴퓨터-판독 가능한 매체를 포함한다. 메인 메모리(122)는 데이터를 저장하며 임의의 저장 위치가 프로세서(121)에 의해 직접 액세스되도록 허용할 수 있는 하나 이상의 메모리 칩일 수 있다. 메인 메모리(122)는 임의의 유형의 랜덤 액세스 메모리(RAM), 또는 여기에 설명된 바와 같이 동작할 수 있는 임의의 다른 이용 가능한 메모리 칩일 수 있다. 도 1에 도시된 대표적인 실시예에서, 프로세서(121)는 시스템 버스(150)를 통해 메인 메모리(122)와 통신한다.
컴퓨팅 디바이스(100)는 운영 시스템 및 다른 관련 소프트웨어를 저장하기 위해, 애플리케이션 소프트웨어 프로그램을 저장하기 위해, 및 애플리케이션 소프트웨어 프로그램에 의해 사용될 애플리케이션 데이터를 저장하기 위해, 하나 이상의 하드 디스크 드라이브와 같은, 저장 디바이스(128)를 추가로 포함할 수 있다. 예를 들면, 애플리케이션 데이터는 멀티미디어 데이터를 포함할 수 있지만, 소프트웨어는 멀티미디어 데이터를 렌더링하도록 구성된 렌더링 엔진을 포함할 수 있다. 소프트웨어 프로그램은 하나 이상의 지시를 포함할 수 있으며, 이것은 프로세서(121)에 의해 프로세싱되도록 저장 장치(128)로부터 메모리(122)로 인출될 수 있다. 소프트웨어 프로그램은 예로서, 소프트웨어 구성요소, 오브젝트-지향 소프트웨어 구성요소, 클래스 구성요소 및 태스크 구성요소, 프로세스, 함수, 필드, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이, 및 변수와 같은, 구성요소를 포함할 수 있는, 상이한 소프트웨어 모듈을 포함할 수 있다.
일반적으로, 여기에서 사용된 바와 같이, 단어 "모듈"은 하드웨어 또는 펌웨어로 구체화된 로직, 또는 예를 들면, 자바, Lua, C 또는 C++과 같은, 프로그래밍 언어로 기록된, 가능하게는 입구 및 출구 포인트를 갖는, 소프트웨어 지시의 모음을 나타낸다. 소프트웨어 모듈은 컴파일링되며 실행 가능한 프로그램으로 링킹되고, 동적 링크 라이브러리에 설치되거나, 또는 예를 들면, BASIC, Perl, 또는 Python과 같은 인터프리터식 프로그래밍 언어로 기록될 수 있다. 소프트웨어 모듈은 다른 모듈로부터 또는 자체로부터 호출 가능할 수 있으며, 및/또는 검출된 이벤트 또는 인터럽트에 응답하여 호출될 수 있다는 것이 이해될 것이다. 컴퓨팅 디바이스 상에서의 실행을 위해 구성된 소프트웨어 모듈은 콤팩트 디스크, 디지털 비디오 디스크, 플래시 드라이브, 자기 디스크, 또는 임의의 다른 유형의 매체와 같은, 컴퓨터 판독 가능한 매체상에, 또는 디지털 다운로드로서 제공될 수 있다(및 원래 실행 이전에 설치, 압축 해제, 또는 복호화를 요구하는 압축된 또는 설치 가능한 포맷으로 저장될 수 있다). 이러한 소프트웨어 코드는 컴퓨팅 디바이스에 의한 실행을 위해, 실행하는 컴퓨팅 디바이스의 메모리 디바이스 상에, 부분적으로 또는 전체적으로, 저장될 수 있다. 소프트웨어 지시는 EPROM과 같은, 펌웨어에 내장될 수 있다. 하드웨어 모듈(예로서, 프로세서(221)가 ASIC인 경우에)은 게이트 및 플립-플롭과 같은, 연결된 논리 유닛으로 구성될 수 있으며, 및/또는 프로그램 가능한 게이트 어레이 또는 프로세서와 같은, 프로그램 가능한 유닛으로 구성될 수 있다는 것이 추가로 이해될 것이다. 여기에서 설명된 모듈 또는 컴퓨팅 디바이스 기능은 바람직하게는 소프트웨어 모듈로 구현되지만, 하드웨어 또는 펌웨어로 나타내어질 수 있다. 일반적으로, 여기에서 설명된 모듈은 그것들의 물리적 조직 또는 저장 장치에도 불구하고 다른 모듈과 조합되거나 또는 서브-모듈로 분할될 수 있는 논리 모듈을 나타낸다.
여기에서 사용된 바와 같이, 용어 "비-일시적 미디어"는 기계가 특정 방식으로 동작하게 하는 데이터 및/또는 지시를 저장하는 임의의 비-일시적 미디어를 나타낸다. 이러한 비-일시적 미디어는 비-휘발성 미디어 및/또는 휘발성 미디어를 포함할 수 있다. 비-휘발성 미디어는, 예를 들면, 저장 장치(128)를 포함할 수 있다. 휘발성 미디어는, 예를 들면, 메모리(122)를 포함할 수 있다. 비-일시적 미디어의 보통의 형태는, 예를 들면, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 고체 상태 드라이브, 자기 테이프, 또는 임의의 다른 자기 데이터 저장 매체, CD-ROM, 임의의 다른 광학 데이터 저장 매체, 홀의 패턴을 가진 임의의 물리적 매체, RAM, PROM, 및 EPROM, FLASH-EPROM, NVRAM, 임의의 다른 메모리 칩 또는 카트리지, 및 이것들의 네트워킹된 버전을 포함한다.
컴퓨팅 디바이스(100)는 또한 하나 이상의 입력 디바이스(123) 및 하나 이상의 출력 디바이스(124)를 포함할 수 있다. 입력 디바이스(123)는, 예를 들면, 카메라, 마이크로폰, 모션 센서 등을 포함할 수 있지만, 출력 디바이스(124)는, 예를 들면, 디스플레이 유닛 및 스피커를 포함할 수 있다. 입력 디바이스(123) 및 출력 디바이스(124) 양쪽 모두는 I/O 제어기(125)를 통해 시스템 버스(150)에 연결되어, 프로세서(121)가 입력 디바이스(123) 및 출력 디바이스(124)와 통신할 수 있게 한다. 프로세서(121) 및 입력 디바이스(123) 및 출력 디바이스(124) 중에서의 통신은, 예를 들면, 메모리(122)로부터 인출된 지시를 실행하는 프로세서(121)에 의해 수행될 수 있다.
몇몇 실시예에서, 프로세서(121)는 또한 I/O 제어(125)를 통해 하나 이상의 스마트 디바이스(130)와 통신할 수 있다. 스마트 디바이스(130)는 멀티미디어 데이터를 프로세싱하며 생성하는 능력을 포함하는 시스템(예로서, 스마트폰)을 포함할 수 있다. 몇몇 실시예에서, 프로세서(121)는 입력 디바이스(123)로부터 데이터를 수신하고, 프로세싱을 위해 상기 데이터를 스마트 디바이스(130)로 인출하고, 프로세싱의 결과로서 멀티미디어 데이터(예를 들면, 오디오 신호, 비디오 신호 등의 형태로)를 스마트 디바이스(130)로부터 수신하며, 그 후 멀티미디어 데이터를 출력 디바이스(124)에 제공할 수 있다. 몇몇 실시예에서, 스마트 디바이스(130)는 멀티미디어 콘텐트의 소스로서 동작하며 멀티미디어 콘텐트에 관련된 데이터를 프로세서(121)에 제공할 수 있다. 프로세서(121)는 그 후 출력 디바이스(124)로 제공될 데이터를 출력하기 위해 스마트 디바이스(130)로부터 수신된 멀티미디어 콘텐트를 부가할 수 있다. 프로세서(121) 및 스마트 디바이스(130) 사이에서의 통신은 예를 들면, 메모리(122)로부터 인출된 지시를 실행하는 프로세서(121)에 의해 구현될 수 있다.
몇몇 실시예에서, 컴퓨팅 디바이스(100)는 가상 현실, 증강 현실, 또는 양쪽 모두의 조합을 포함하여, 대화식 및 몰입식 멀티미디어를 생성하도록 구성될 수 있다. 예를 들면, 저장 장치(128)는 가상 현실 경험의 생성을 위해 그래픽 이미지 및 오디오 효과의 렌더링을 위해 멀티미디어 데이터를 저장할 수 있으며, 프로세서(121)는 가상 현실 경험을 생성하기 위해 출력 디바이스(124)를 통해 멀티미디어 데이터의 적어도 부분을 제공하도록 구성될 수 있다. 프로세서(121)는 또한 프로세서(121)가 예를 들면, 사용자의 위치에서의 변화, 사용자에 의해 수행된 동작(예로서, 신체 움직임) 등을 결정할 수 있게 하는 입력 디바이스(123)(예로서, 모션 센서)로부터 수신된 데이터를 수신할 수 있다. 프로세서(121)는 결정에 기초하여, 사용자에 대한 대화식 경험을 생성하기 위해, 출력 디바이스(124)를 통해 멀티미디어 데이터를 렌더링하도록 구성될 수 있다.
게다가, 컴퓨팅 디바이스(100)는 또한 증강 현실을 제공하도록 구성될 수 있다. 예를 들면, 입력 디바이스(123)는 사용자가 위치되는 물리적 환경의 그래픽 이미지를 캡처하도록 구성된 하나 이상의 카메라, 및 물리적 환경으로부터 오디오 신호를 캡처하도록 구성된 하나 이상의 마이크로폰을 포함할 수 있다. 프로세서(121)는 카메라로부터 캡처된 그래픽 이미지 및 오디오 정보를 나타내는 데이터를 수신할 수 있다. 프로세서(121)는 사용자에게 제공될 부가적인 콘텐트를 나타내는 데이터를 또한 프로세싱할 수 있다. 부가적인 콘텐트는 예를 들면, 물리적 환경의 그래픽 이미지로부터 검출된 하나 이상의 오브젝트에 관련된 정보일 수 있다. 프로세서(121)는 증강 현실 경험을 생성하기 위해, 출력 디바이스(124)를 통해, 캡처된 그래픽 이미지, 오디오 정보, 뿐만 아니라 부가적인 콘텐트를 포함하는 멀티미디어 데이터를 렌더링하도록 구성될 수 있다. 부가적인 콘텐트를 나타내는 데이터는 저장 장치(128)에 저장될 수 있거나, 또는 외부 소스(예로서, 스마트 디바이스(130))에 의해 제공될 수 있다.
프로세서(121)는 또한 예를 들면, 사용자 동작에 대한 정보를 획득함으로써 사용자에 대한 대화식 경험을 생성하도록 구성될 수 있으며 출력 디바이스(124)를 통한 멀티미디어 데이터의 렌더링은 사용자 동작에 기초하여 이루어질 수 있다. 몇몇 실시예에서, 사용자 동작은 사용자의 위치의 변화를 포함할 수 있으며, 이것은 예를 들면, 모션 센서로부터의 데이터, 및 그래픽 이미지로부터의 두드러진 특징의 추적에 기초하여 프로세서(121)에 의해 결정될 수 있다. 몇몇 실시예에서, 사용자 동작은 또한 손 제스처를 포함할 수 있으며, 이것은 카메라에 의해 캡처된 손 제스처의 이미지에 기초하여 프로세서(121)에 의해 결정될 수 있다. 프로세서(121)는 위치 정보 및/또는 손 제스처 정보에 기초하여, 대화식 경험을 생성하기 위해 멀티미디어 데이터의 렌더링을 업데이트하도록 구성될 수 있다. 몇몇 실시예에서, 프로세서(121)는 또한 사용자의 손 제스처에 기초하여, 예를 들면, 물리적 환경에서 특정 위치로 줌하는 것, 상기 특정 위치에서 비롯된 오디오 신호의 볼륨을 증가시키는 것 등에 의해 사용자의 감지 능력을 강화하기 위해 멀티미디어 데이터의 렌더링을 업데이트하도록 구성될 수 있다.
참조가 이제 도 2a 및 도 2b에 대해 이루어지며, 이것은 본 개시의 실시예와 일치하는 증강 현실을 제공하기 위한 대표적인 멀티미디어 렌더링(200a 및 200b)을 예시한다. 도 2a 및 도 2b에 도시된 바와 같이, 렌더링(200a 및 200b)은 사용자가 위치되는 물리적 환경의 그래픽 표현을 반영한다. 몇몇 실시예에서, 렌더링(200a 및 200b)은 하나 이상의 카메라(예로서, 입력 디바이스(123))에 의해 캡처된 그래픽 이미지에 기초하여 컴퓨팅 디바이스(100)의 프로세서(221)에 의해 구성될 수 있다. 프로세서(221)는 또한 그래픽 이미지로부터 손 제스처를 검출하며, 손 제스처에 관련된 부가적인 콘텐트를 포함하기 위해 렌더링을 업데이트하도록 구성될 수 있다. 예시적인 예로서, 도 2a 및 도 2b에 도시된 바와 같이, 렌더링(200a 및 200b)은, 각각, 손 제스처의 생성에 수반되는 손가락의 움직임을 나타내는 점선(204a 및 204b)을 포함할 수 있다. 몇몇 실시예에서, 검출된 손 제스처는 사용자의 감지 능력(예로서, 시각)을 강화하기 위해 그래픽 이미지의 부가적인 프로세싱을 트리거할 수 있다. 예시적인 예로서, 도 2a에 도시된 바와 같이, 렌더링(200a)에서 렌더링된 물리적 환경은 오브젝트(204)를 포함한다. 오브젝트(204)는 제1 손 제스처의 검출, 및 제1 손 제스처를 생성하는 손가락의 움직임 사이에서의 중첩(예로서, 점선(202a)에 의해 표시된 바와 같이)에 기초하여 선택될 수 있다. 중첩은, 예를 들면, 물리적 환경을 나타내는 3D 맵에서 점선(202a)의 3D 좌표 및 오브젝트(204)의 3D 좌표 사이에서의 관계에 기초하여 결정될 수 있다.
오브젝트(204)가 선택된 후, 사용자는 제2 손 제스처(점선(202b)에 의해 표시된 바와 같이)를 제공할 수 있으며, 이것은 또한 프로세서(221)에 의해 검출될 수 있다. 프로세서(221)는, 시간적 및 공간적으로 근접하여 발생하는 두 개의 손 제스처의 검출에 기초하여, 제2 손 제스처가 물리적 환경의 렌더링에서 오브젝트(204)의 확장되고 확대된 이미지를 제공하도록 프로세서(221)에 지시하는 것임을 결정할 수 있다. 이것은 렌더링(200b)을 야기할 수 있으며, 여기에서 오브젝트(204)의 확장되고 확대된 이미지를 나타내는 이미지(206)는 사용자가 위치되는 물리적 환경과 함께, 렌더링된다. 오브젝트의 확대된 이미지를 사용자에게 제공하며, 그에 의해 사용자로 하여금 그 또는 그녀가 물리적 환경 내에서의 동일한 위치에서 육안으로 지각하는 것보다 오브젝트에 대해 더 상세히 지각하도록 허용함으로써, 사용자의 감각 능력이 강화될 수 있다.
몇몇 실시예에서, 오브젝트(204)는 또한 물리적 환경의 렌더링에서 삽입된 가상 오브젝트일 수 있으며, 이미지(206)는 오브젝트(204)의 선택 및 점선(202b)에 의해 표현된 손 제스처의 검출에 응답하여 제공된 임의의 이미지(또는 물리적 환경의 렌더링의 최상부 상에 오버레이한 텍스트)일 수 있다.
다시 도 1을 참조하면, 몇몇 실시예에서, 컴퓨팅 디바이스(100)는 또한 이에 제한되지 않지만, 표준 전화 라인, LAN 또는 WAN 링크(예로서, 802.11, T1, T3, 56 kb, X.25), 광대역 링크(예로서, ISDN, 프레임 릴레이, ATM), 무선 연결(Wi-Fi, 블루투스, Z-Wave, 지그비(Zigbee)), 또는 상기 중 임의의 것 또는 모두의 몇몇 조합을 포함한, 다양한 링크를 통해 LAN, WAN, MAN, 또는 인터넷으로의 인터페이스에 대한 네트워크 인터페이스(140)를 포함할 수 있다. 네트워크 인터페이스(140)는 내장형 네트워크 어댑터, 네트워크 인터페이스 카드, PCMCIA 네트워크 카드, 카드 버스 네트워크 어댑터, 무선 네트워크 어댑터, USB 네트워크 어댑터, 모뎀 또는 통신이 가능한 임의의 유형의 네트워크로 컴퓨팅 디바이스(100)를 인터페이싱하며 여기에서 설명된 동작을 수행하는데 적합한 임의의 다른 디바이스를 포함할 수 있다. 몇몇 실시예에서, 프로세서(121)는 네트워크 인터페이스(140)를 통해 출력 디바이스(124)로 뿐만 아니라 또한 다른 디바이스(예로서, 또 다른 컴퓨팅 디바이스(100))로 생성된 멀티미디어 데이터를 송신할 수 있다.
도 3은 본 개시의 실시예와 일치하는, 몰입식 및 대화식 멀티미디어 생성을 위한 대표적인 시스템(300)의 블록도이다. 도 3에 도시된 바와 같이, 시스템(300)은 감지 시스템(310), 프로세싱 시스템(320), 오디오/비디오 시스템(330), 및 전력 시스템(340)을 포함한다. 몇몇 실시예에서, 시스템(300)의 적어도 부분은 도 1의 컴퓨팅 디바이스(100)로 구현된다.
몇몇 실시예에서, 감지 시스템(310)은 대화식 및 몰입식 멀티미디어의 생성을 위한 데이터를 제공하도록 구성된다. 감지 시스템(310)은 이미지 감지 시스템(312), 오디오 감지 시스템(313), 및 모션 감지 시스템(314)을 포함한다.
몇몇 실시예에서, 광학 감지 시스템(312)은 물리적 환경으로부터 반사되거나 또는 방출된 다양한 파장의 광(가시적 및 비가시적인 광 양쪽 모두를 포함한)을 수신하도록 구성될 수 있다. 몇몇 실시예에서, 광학 감지 시스템(312)은, 예를 들면, 하나 이상의 그레이스케일-적외선(그레이스케일 IR) 카메라, 하나 이상의 적색-녹색-청색(RGB) 카메라, 하나 이상의 RGB-IR 카메라, 하나 이상의 비행시간(TOF) 카메라, 또는 그것들의 조합을 포함한다. 카메라의 출력에 기초하여, 시스템(300)은 물리적 환경의 이미지 데이터(예로서, RGB 픽셀 및 IR 픽셀의 형태로 표현된)를 획득할 수 있다. 광학 감지 시스템(312)은 동일한 카메라의 쌍(예로서, RGB 카메라의 쌍, IR 카메라의 쌍, RGB-IR 카메라의 쌍 등)를 포함할 수 있으며, 각각의 카메라는 좌측 눈 또는 우측 눈의 시점을 캡처한다. 이하에서 논의될 바와 같이, 각각의 카메라에 의해 캡처된 이미지 데이터는 그 후 물리적 환경의 입체 3D 렌더링을 생성하기 위해 시스템(300)에 의해 조합될 수 있다.
몇몇 실시예에서, 광학 감지 시스템(312)은 오브젝트를 조명하도록 구성된 IR 투사기를 포함할 수 있다. 조명은 레인지 이미징(range imaging)을 지원하기 위해 사용될 수 있으며, 이것은 시스템(300)으로 하여금, 스테레오 매칭 알고리즘에 또한 기초하여, 물리적 환경에서 오브젝트의 상이한 부분 및 카메라 사이에서의 거리를 결정할 수 있게 한다. 거리 정보에 기초하여, 오브젝트의 3-차원(3D) 깊이 맵, 뿐만 아니라 물리적 환경의 3D 맵이 생성될 수 있다. 이하에서 논의될 바와 같이, 오브젝트의 깊이 맵은 오브젝트를 나타내는 3D 포인트 클라우드를 생성하기 위해 사용될 수 있고; 오브젝트의 RGB 데이터는, RGB 카메라에 의해 캡처된 대로, 그 후 가상 현실 및 증강 현실 효과를 생성하기 위해 오브젝트의 3D 렌더링을 생성하도록 3D 포인트 클라우드에 매핑될 수 있다. 다른 한편으로, 물리적 환경의 3D 맵은 상호 작용적 경험을 생성하기 위해 위치 및 방위 결정을 위해 사용될 수 있다. 몇몇 실시예에서, 비행시간 카메라는 또한 레인지 이미징을 위해 포함될 수 있으며, 이것은 카메라 및 오브젝트의 다양한 부분 사이에서의 거리가 결정되도록 허용하며, 물리적 환경의 깊이 맵은 거리 정보에 기초하여 생성될 수 있다.
몇몇 실시예에서, IR 투사기는 또한 물리적 환경의 하나 이상의 표면으로 특정한 패턴(예로서, 바 코드, 코너 패턴 등)을 투사하도록 구성된다. 이하에서 논의될 바와 같이, 사용자의 모션(카메라의 모션에 의해 반영됨)은 카메라에 의해 캡처된 다양한 두드러진 특징 포인트를 추적함으로써 결정될 수 있으며, 알려진 패턴의 투사(그 후 카메라에 의해 캡처되며 시스템에 의해 추적되는)는 효율적이며 강력한 추적을 가능하게 한다.
참조가 이제 도 4a 내지 도 4f에 대해 이루어지며, 이것은 각각, 본 개시의 실시예와 일치하는 대표적인 카메라 시스템(400, 420, 440, 460, 480 및 494)을 예시한 개략도이다. 도 4a 내지 도 4f의 각각의 카메라 시스템은 도 3의 광학 감지 시스템(312)의 부분일 수 있다.
도 4a에 도시된 바와 같이, 카메라 시스템(400)은 RGB 카메라(402), IR 카메라(404), 및 IR 조명기(406)를 포함하며, 그 모두는 보드(408)로 부착된다. 상기 논의된 바와 같이, RGB 카메라(402)는 RGB 이미지 데이터를 캡처하도록 구성되고, IR 카메라(404)는 IR 이미지 데이터를 캡처하도록 구성되지만, IR 카메라(404) 및 IR 조명기(406)의 조합은 이미징되는 오브젝트의 깊이 맵을 생성하기 위해 사용될 수 있다. 이전에 논의된 바와 같이, 오브젝트의 3D 렌더링 동안, RGB 이미지 데이터는 깊이 맵으로부터 생성된 오브젝트의 3D 포인트 클라우드 표현에 매핑될 수 있다. 그러나, 몇몇 경우에서, RGB 카메라 및 IR 카메라 사이에서의 위치 차이로 인해, RGB 이미지 데이터에서의 RGB 픽셀 모두가 3D 포인트 클라우드에 매핑될 수 있는 것은 아니다. 그 결과, 부정확성 및 불일치가 오브젝트의 3D 렌더링에서 도입될 수 있다.
도 4b는 RGB-IR 카메라(422) 및 IR 조명기(424)를 포함하는, 카메라 시스템(420)을 예시하며, 그 모두는 보드(426)로 부착된다. RGB-IR 카메라(442)는 픽셀 그룹을 형성하기 위해 함께 섞인 RGB 및 IR 픽셀 센서를 포함하는 RGB-IR 센서를 포함한다. 실질적으로 같은 장소에 배치된 RGB 및 IR 픽셀 센서를 갖고, RGB 및 IR 센서 사이에서의 위치 차이의 앞서 언급한 효과가 제거될 수 있다. 그러나, 몇몇 경우에서, RGB 스펙트럼의 부분 및 IR 스펙트럼의 부분의 중첩으로 인해, 같은 장소에 배치된 RGB 및 IR 픽셀 센서를 갖는 것은 RGB 픽셀 센서에 의해 생성된 컬러 이미지 품질뿐만 아니라 RGB 픽셀 센서의 컬러 생성의 열화를 야기할 수 있다.
도 4c는 IR 카메라(442), RGB 카메라(444), 미러(446), 및 IR 조명기(448)를 포함하는, 카메라 시스템(440)을 예시하며, 그 모두는 보드(450)에 부착된다. 몇몇 실시예에서, 미러(446)는 IR 반사성 코팅(452)을 갖고 반-투명이다. 광(가시 광, 및 IR 조명기(448)에 의해 조명된 오브젝트에 의해 반사된 IR 광을 포함한)이 미러(446)에 입사함에 따라, IR 광은 미러(446)에 의해 반사되며 IR 카메라(442)에 의해 캡처될 수 있지만, 가시 광은 미러(446)를 통과하며 RGB 카메라(444)에 의해 캡처될 수 있다. IR 카메라(442), RGB 카메라(444), 및 미러(446)는 IR 카메라(442)에 의해 캡처된(IR 반사성 코팅에 의한 반사에 의해 야기된) IR 이미지 및 RGB 카메라(444)에 의해 캡처된(미러(446)를 통과하는 가시 광으로부터) RGB 이미지가 IR 카메라(442) 및 RGB 카메라(444) 사이에서의 위치 차이의 효과를 제거하기 위해 정렬될 수 있도록 배치될 수 있다. 게다가 IR 광은 RGB 카메라(444)로부터 멀리 반사되므로, RGB 카메라(444)에 의해 생성된 컬러 이미지 품질뿐만 아니라 컬러 제품이 개선될 수 있다.
도 4d는 RGB 카메라(462), TOF 카메라(464), 및 IR 조명기(466)를 포함하는 카메라 시스템(460)을 예시하며, 그 모두는 보드(468)로 부착된다. 카메라 시스템(400, 420, 및 440)과 유사하게, RGB 카메라(462)는 RGB 이미지 데이터를 캡처하도록 구성된다. 다른 한편으로, TOF 카메라(464) 및 IR 조명기(406)는 이미지-레인징을 수행하기 위해 동기화되며, 이것은 이미징되는 오브젝트의 깊이 맵을 생성하기 위해 사용될 수 있으며, 그로부터 오브젝트의 3D 포인트 클라우드가 생성될 수 있다. 카메라 시스템(400)과 유사하게, 몇몇 경우에서, RGB 카메라 및 TOF 카메라 사이에서의 위치 차이로 인해, RGB 이미지 데이터에서의 RGB 픽셀 모두가 TOF 카메라의 출력에 기초하여 생성된 3D 포인트 클라우드에 매핑될 수 있는 것은 아니다. 그 결과, 부정확성 및 불일치가 오브젝트의 3D 렌더링에 도입될 수 있다.
도 4e는 TOF 카메라(482), RGB 카메라(484), 미러(486), 및 IR 조명기(488)를 포함하는 카메라 시스템(480)을 예시하며, 그 모두는 보드(490)에 부착된다. 몇몇 실시예에서, 미러(486)는 IR 반사성 코팅(492)을 갖고 반-투명이다. 광(가시 광, 및 IR 조명기(488)에 의해 조명된 오브젝트에 의해 반사된 IR 광을 포함한)이 미러(446)에 입사함에 따라, IR 광은 미러(446)에 의해 반사되며 TOF 카메라(482)에 의해 캡처될 수 있지만, 가시 광은 미러(486)를 통과하며 RGB 카메라(484)에 의해 캡처될 수 있다. TOF 카메라(482), RGB 카메라(484), 및 미러(486)는 TOF 카메라(442)에 의해 캡처된(IR 반사성 코팅에 의한 반사에 의해 야기된) IR 이미지 및 RGB 카메라(484)에 의해 캡처된(미러(486)를 통과하는 가시 광으로부터) RGB 이미지가 TOF 카메라(482) 및 RGB 카메라(484) 사이에서의 위치 차이의 효과를 제거하기 위해 정렬될 수 있도록 배치될 수 있다. 게다가, IR 광은 RGB 카메라(484)로부터 멀리 반사되므로, RGB 카메라(484)에 의해 생성된 컬러 이미지 품질뿐만 아니라 컬러 제품이 또한 개선될 수 있다.
도 4f는, 각각이 인간 눈의 시점을 모방하도록 구성되는, 두 개의 RGB-IR 카메라(495 및 496)를 포함하는 카메라 시스템(494)을 예시한다. RGB-IR 카메라(495 및 496)의 조합은, 이하에서 논의될 바와 같이, 입체 이미지를 생성하기 위해 및 물리적 환경에서 오브젝트의 깊이 정보를 생성하기 위해 사용될 수 있다. 카메라의 각각은 같은 장소에 배치된 RGB 및 IR 픽셀을 가지므로, 픽셀 매핑에서의 열화를 야기하는 RGB 카메라 및 IR 카메라 사이에서의 위치 차이의 효과가 완화될 수 있다. 카메라 시스템(494)은 상기 논의된 다른 IR 조명기와 유사한 기능을 가진 IR 조명기(497)를 추가로 포함한다. 도 4f에 도시된 바와 같이, RGB-IR 카메라(495 및 496) 및 IR 조명기(497)는 보드(498)에 부착된다.
다시 도 3을 참조하면, 감지 시스템(310)은 또한 오디오 감지 시스템(313) 및 모션 감지 시스템(314)을 포함한다. 오디오 감지 시스템(313)은 물리적 환경에서 비롯된 오디오 신호를 수신하도록 구성될 수 있다. 몇몇 실시예에서, 오디오 감지 시스템(313)은, 예를 들면, 하나 이상의 마이크로폰 어레이를 포함한다. 모션 감지 시스템(314)은 사용자의(및 시스템이 사용자에 부착된다면, 시스템의) 모션 및/또는 포즈를 검출하도록 구성될 수 있다. 몇몇 실시예에서, 모션 감지 시스템(314)은, 예를 들면, 관성 모션 센서(IMU)를 포함할 수 있다. 몇몇 실시예에서, 감지 시스템(310)은 도 1의 입력 디바이스(123)의 부분일 수 있다.
몇몇 실시예에서, 프로세싱 시스템(320)은 광학 감지 시스템(312)으로부터의 그래픽 이미지 데이터, 오디오 감지 시스템(313)으로부터의 오디오 데이터, 및 모션 감지 시스템(314)으로부터의 모션 데이터를 프로세싱하며, 가상 현실 및/또는 증강 현실 경험을 생성하기 위해 물리적 환경을 렌더링하기 위한 멀티미디어 데이터를 생성하도록 구성된다. 프로세싱 시스템(320)은 방위 및 위치 결정 모듈(322), 손 제스처 결정 시스템 모듈(323), 및 그래픽 및 오디오 렌더링 엔진 모듈(324)을 포함한다. 이전에 논의된 바와 같이, 이들 모듈의 각각은 프로세서(예로서, 도 1의 프로세서(121))에 의해 실행되는 소프트웨어 모듈, 또는 특정 기능을 수행하도록 구성된 하드웨어 모듈(예로서, ASIC)일 수 있다.
몇몇 실시예에서, 방위 및 위치 결정 모듈(322)은 감지 시스템(310)의 출력 중 적어도 일부에 기초하여 사용자의 방위 및 위치를 결정할 수 있으며, 그것에 기초하여 멀티미디어 데이터가 가상 현실 및/또는 증강 현실 효과를 생성하기 위해 렌더링될 수 있다. 시스템(300)이 사용자에 의해 착용되는 경우에(예로서, 고글), 방위 및 위치 결정 모듈(322)은 시스템(예로서, 카메라)의 부분의 방위 및 위치를 결정할 수 있으며, 이것은 사용자의 방위 및 위치를 추론하기 위해 사용될 수 있다. 결정된 방위 및 위치는 움직임이 발생하기 전에 사용자의 이전 방위 및 위치에 상대적일 수 있다.
참조가 이제 도 5에 대해 이루어지며, 이것은 본 개시의 실시예와 일치하는 카메라의(예로서, 감지 시스템(310)) 쌍의 방위 및 위치를 결정하기 위한 대표적인 방법(500)을 예시하는 흐름도이다. 예시된 절차는 단계를 삭제하거나 또는 부가적인 단계를 추가로 포함하기 위해 변경될 수 있다는 것이 쉽게 이해될 것이다. 방법(500)은 프로세서(예로서, 방위 및 위치 결정 모듈(322))에 의해 수행되는 것으로 설명되지만, 방법(500)은 단독으로 또는 프로세서와 조합하여 다른 디바이스에 의해 수행될 수 있다는 것이 이해된다.
단계(502)에서, 프로세서는 제1 카메라로부터 제1 좌측 이미지를 및 제2 카메라로부터 제1 우측 이미지를 획득할 수 있다. 좌측 카메라는, 예를 들면, 도 4f의 RGB-IR 카메라(495)일 수 있지만, 우측 카메라는, 예를 들면, 도 4f의 RGB-IR 카메라(496)일 수 있다. 제1 좌측 이미지는 사용자의 좌측 눈으로부터의 물리적 환경의 시점을 나타낼 수 있지만, 제1 우측 이미지는 사용자의 우측 눈으로부터의 물리적 환경의 시점을 나타낼 수 있다. 양쪽 이미지 모두는 IR 이미지, RGB 이미지, 또는 양쪽 모두의 조합(예로서, RGB-IR)일 수 있다.
단계(504)에서, 프로세서는 제1 좌측 이미지 데이터로부터 및 우측 이미지 데이터로부터 제1 두드러진 특징 포인트의 세트를 식별할 수 있다. 몇몇 경우에서, 두드러진 특징들은 물리적 환경에서 이전부터 존재하는 물리적 특징일 수 있으며(예로서, 벽 상에서의 특정 표시, 의류의 특징 등), 두드러진 특징은 이들 특징과 연관된 RGB 픽셀 및/또는 IR 픽셀에 기초하여 식별된다. 몇몇 경우에서, 두드러진 특징은 물리적 환경의 하나 이상의 표면으로 특정 IR 패턴(예로서, 점)을 투사하는 IR 조명기(예로서, 도 4f의 IR 조명기(497))에 의해 생성될 수 있다. 하나 이상의 표면은 카메라로 IR을 반사할 수 있다. 이전에 논의된 바와 같이, 이들 IR 패턴은 고르게 분포되는 것과 같은, 효율적인 검출 및 추적을 위해 설계될 수 있으며 날카로운 에지 및 코너를 포함할 수 있다. 몇몇 경우에서, 두드러진 특징은 물리적 환경 내에서의 특정한 위치에 고정되며 환경 내에서 IR 패턴을 투사하는 하나 이상의 IR 투사기를 위치시킴으로써 생성될 수 있다.
단계(506)에서, 프로세서는 삼각측량에 대한 스테레오 제약에 기초하여 식별된 제1 두드러진 특징으로부터 대응하는 쌍을 찾을 수 있다. 스테레오 제약은, 예를 들면, 스테레오 속성, 시차에 대한 허용량 한계 등에 기초하여 제1 두드러진 특징의 대응하는 쌍에 대한 각각의 이미지 내에서의 탐색 범위를 제한하는 것을 포함할 수 있다. 대응하는 쌍의 식별은 후보 특징의 IR 픽셀, 후보 특징의 RGB 픽셀, 및/또는 양쪽 모두의 조합에 기초하여 이루어질 수 있다. 제1 두드러진 특징의 대응하는 쌍이 식별된 후, 좌측 및 우측 이미지 내에서의 그것들의 위치 차이가 결정될 수 있다. 위치 차이 및 제1 및 제2 카메라 사이에서의 거리에 기초하여, 제1 두드러진 특징(그것들이 물리적 환경에서 나타나는 바와 같이) 및 제1 및 제2 카메라 사이에서의 거리가 선형 삼각측량을 통해 결정될 수 있다.
단계(508)에서, 선형 삼각측량에 의해 결정된 제1 두드러진 특징 및 제1 및 제2 카메라 사이에서의 거리, 및 좌측 및 우측 이미지에서의 제1 두드러진 특징의 위치에 기초하여, 프로세서는 제1 두드러진 특징의 하나 이상의 3D 좌표를 결정할 수 있다.
단계(510)에서, 프로세서는 물리적 환경을 나타내는 3D 맵에서, 단계(508)에서 결정된 제1 두드러진 특징의 3D 좌표 및 제1 두드러진 특징에 대한 정보를 부가하거나 또는 업데이트할 수 있다. 업데이팅은, 예를 들면, 동시 위치 및 매핑 알고리즘(SLAM)에 기초하여 수행될 수 있다. 저장된 정보는, 예를 들면, 제1 두드러진 특징과 연관된 IR 픽셀 및 RGB 픽셀 정보를 포함할 수 있다.
단계(512)에서, 카메라의 움직임(예로서, 카메라를 운반하는 사용자의 움직임에 의해 야기된) 후, 프로세서는 제2 좌측 이미지 및 제2 우측 이미지를 획득하며, 움직임 후 제2 좌측 및 우측 이미지로부터 제2 두드러진 특징을 식별할 수 있다. 식별 프로세스는 단계(504)와 유사할 수 있다. 식별되는 제2 두드러진 특징은 제2 좌측 이미지와 연관된 제1 2D 공간 내에서 및 제2 우측 이미지와 연관된 제2 2D 공간 내에서 2D 좌표와 연관된다.
단계(514)에서, 프로세서는 제1 두드러진 특징의 3D 좌표(단계(508)에서 결정된)를 제1 및 제2 2D 공간으로 재투사할 수 있다.
단계(516)에서, 프로세서는 예를 들면, 위치 근접성, 특징 근접성, 및 스테레오 제약에 기초하여 제1 두드러진 특징에 대응하는 제2 두드러진 특징 중 하나 이상을 식별할 수 있다.
단계(518)에서, 프로세서는 제1 두드러진 특징의 재투사된 위치 및 제1 및 제2 2D 공간의 각각에서 제2 두드러진 특징의 2D 좌표 사이에서의 거리를 결정할 수 있다. 움직임 전 및 후 제1 및 제2 카메라의 상대적 3D 좌표 및 방위는 그 후 예를 들면, 그에 따라 결정된 3D 좌표 및 방위의 세트가 제1 및 제2 2D 공간의 양쪽 모두에서의 거리를 최소화하도록 거리에 기초하여 결정될 수 있다.
몇몇 실시예에서, 방법(500)은 프로세서가 좌측 및 우측 이미지 사이에서의 두드러진 특징의 위치 차이를 최소화하기 위해 3D 맵에서 두드러진 특징의 좌표의 번들 조정을 수행할 수 있는 단계(도 5에 도시되지 않음)를 추가로 포함한다. 조정은 방법(500)의 단계 중 임의의 것과 동시에 수행될 수 있으며, 단지 키프레임에 대해서만 수행될 수 있다.
몇몇 실시예에서, 프로세서는 또한 방법(500)의 수행을 용이하게 하기 위해 우리의 입력 디바이스로부터의 데이터를 사용할 수 있다. 예를 들면, 프로세서는 하나 이상의 모션 센서(예로서, 모션 감지 시스템(314))로부터 데이터를 획득할 수 있으며, 그로부터 프로세서는 카메라의 모션이 발생하였음을 결정할 수 있다. 이러한 결정에 기초하여, 프로세서는 단계(512)를 실행할 수 있다. 몇몇 실시예에서, 프로세서는 또한 단계(518)에서 카메라의 위치 및 방위의 산출을 용이하게 하기 위해 모션 센서로부터의 데이터를 사용할 수 있다.
다시 도 3을 참조하면, 프로세싱 시스템(320)은 손 제스처 결정 모듈(323)을 추가로 포함한다. 몇몇 실시예에서, 손 제스처 결정 모듈(323)은 광학 감지 시스템(312)으로부터의 그래픽 이미지 데이터로부터 손 제스처를 검출할 수 있다. 손 제스처 정보의 기술은 2013년 9월 23일에 출원된 미국 출원 번호 제14/034,286호, 및 2014년 8월 18일에 출원된, 미국 출원 번호 제14/462,324호에서 설명된 것에 관련된다. 상기 참조된 출원은 참조로서 여기에 통합된다. 그에 따라 결정된 손 제스처 정보는, 도 2a 및 도 2b에서 전에 논의된 바와 같이, 부가적인 콘텐트를 제공하기 위해 및/또는 사용자의 감각 능력을 강화하기 위해 물리적 환경의 렌더링(그래픽 및 오디오 양쪽 모두)을 업데이트하기 위해 사용될 수 있다. 예를 들면, 몇몇 실시예에서, 손 제스처 결정 모듈(323)은 손 제스처와 연관된 해석을 결정하며(예로서, 줌 인을 위한 오브젝트를 선택하기 위해), 그 후 렌더링을 업데이트하기 위해 다운스트림 로직(예로서, 그래픽 및 오디오 렌더링 모듈(324))으로 해석 및 다른 관련 정보를 제공할 수 있다.
참조가 이제 도 6에 대해 이루어지며, 이것은 본 개시의 실시예와 일치하는 검출된 손 제스처에 기초하여 멀티미디어 렌더링을 업데이트하기 위한 대표적인 방법(600)을 예시하는 흐름도이다. 예시된 절차는 단계를 삭제하거나 또는 부가적인 단계를 추가로 포함하기 위해 변경될 수 있다는 것이 쉽게 이해될 것이다. 방법(600)은 프로세서(예로서, 손 제스처 결정 모듈(323))에 의해 수행되는 것으로 설명되지만, 방법(600)은 단독으로 또는 프로세서와 조합하여 다른 디바이스에 의해 수행될 수 있다는 것이 이해된다.
단계(602)에서, 프로세서는 하나 이상의 카메라(예로서, 광학 감지 시스템(312)의)로부터 이미지 데이터를 수신할 수 있다. 카메라가 그레이-스케일 IR 카메라인 경우에, 프로세서는 IR 카메라 이미지를 획득할 수 있다. 카메라가 RGB-IR 카메라인 경우에, 프로세서는 IR 픽셀 데이터를 획득할 수 있다.
단계(604)에서, 프로세서는 상기 논의된 기술에 기초하여 이미지 데이터로부터 손 제스처를 결정할 수 있다. 결정은 또한 손 제스처의 유형(특정 명령을 나타낼 수 있는) 및 손가락의 궤적의 3D 좌표(손 제스처를 생성할 때) 양쪽 모두의 결정을 포함한다.
단계(606)에서, 프로세서는 검출된 손 제스처에 관련되는, 몰입식 멀티미디어 데이터의 부분으로서 렌더링되는, 오브젝트를 결정할 수 있다. 예를 들면, 손 제스처가 선택을 시그널링하는 경우에, 손 제스처에 의해 선택되는 렌더링된 오브젝트가 결정된다. 결정은 손 제스처의 궤적의 3D 좌표 및 손 제스처의 특정한 부분이 사용자의 관점 내에서 오브젝트의 적어도 부분과 중첩함을 나타내는 3D 맵에서의 오브젝트의 3D 좌표 사이에서의 관계에 기초할 수 있다.
단계(608)에서, 프로세서는 단계(604)에서 결정된 손 제스처 및 단계(608)에서 결정된 오브젝트에 대한 정보에 기초하여, 멀티미디어 데이터의 렌더링을 변경하도록 결정할 수 있다. 예시적인 예로서, 단계(604)에서 검출된 손 제스처가 줌 동작을 위한 오브젝트를 선택하기 위한 명령과 연관된다는 결정에 기초하여(그것이 물리적 환경에 위치된 실제 오브젝트인지, 또는 렌더링에 삽입되는 가상 오브젝트인지), 프로세서는 렌더링을 위해 다운스트림 로직(예로서, 그래픽 및 오디오 렌더링 모듈(324))으로 오브젝트의 확대 이미지를 제공할 수 있다. 또 다른 예시적 예로서, 손 제스처가 오브젝트에 대한 부가적인 정보를 디스플레이하기 위한 명령과 연관된다면, 프로세서는 렌더링을 위해 부가적인 정보를 그래픽 및 오디오 렌더링 모듈(324)에 제공할 수 있다.
다시 도 3을 참조하면, 카메라의 방위 및 위치에 대한 정보(예로서, 방위 및 위치 결정 모듈(322)에 의해 제공된) 및 검출된 손 제스처에 대한 정보(예를 들면, 손 제스처 결정 모듈(323)에 의해 제공된)에 기초하여, 그래픽 및 오디오 렌더링 모듈(324)은 대화식 가상 현실 및/또는 증강 현실 경험을 생성하기 위해 몰입식 멀티미디어 데이터(그래픽 및 오디오 모두)를 렌더링할 수 있다. 다양한 방법이 렌더링을 위해 사용될 수 있다. 몇몇 실시예에서, 그래픽 및 오디오 렌더링 모듈(324)은 좌측 눈에 대한 이미지를 캡처하는 제1 카메라와 연관된 제1 3D 메시(평면이거나 또는 곡선일 수 있는), 및 우측 눈에 대한 이미지를 캡처하는 제2 카메라와 연관된 제2 3D 메시(또한 평면이거나 또는 곡선일 수 있는)를 생성할 수 있다. 3D 메시는 카메라로부터의 특정한 가상 거리에 위치될 수 있으며, 3D 메시의 크기는 그것들이 상기 가상 거리에서 카메라의 시야 절두체의 크기에 맞도록 결정될 수 있다. 그래픽 및 오디오 렌더링 모듈(324)은 그 후 제1 3D 메시에 좌측 이미지(제1 카메라에 의해 획득된)를 매핑시키며, 제2 3D 메시에 우측 이미지(제2 카메라에 의해 획득된)를 매핑시킬 수 있다. 그래픽 및 오디오 렌더링 모듈(324)은 좌측 눈에 대한 장면을 렌더링할 때 제1 3D 메시(및 그것에 매핑된 콘텐트)만을 보여주도록, 및 우측 눈에 대한 장면을 렌더링할 때 제2 3D 메시(및 그것에 매핑된 콘텐트)만을 보여주도록 구성될 수 있다.
몇몇 실시예에서, 그래픽 및 오디오 렌더링 모듈(324)은 또한 3D 포인트 클라우드를 사용하여 렌더링을 수행할 수 있다. 이전에 논의된 바와 같이, 위치 및 방위의 결정 동안, 물리적 환경 내에서 두드러진 특징(및 연관된 오브젝트)의 깊이 맵은 IR 픽셀 데이터에 기초하여 결정될 수 있다. 물리적 환경의 3D 포인트 클라우드는 그 후 깊이 맵에 기초하여 생성될 수 있다. 그래픽 및 오디오 렌더링 모듈(324)은 환경의 3D 렌더링을 생성하기 위해 3D 포인트 클라우드에 물리적 환경의 RGB 픽셀 데이터(예로서, RGB 카메라, 또는 RGB-IR 센서의 RGB 픽셀에 의해 획득된)를 매핑시킬 수 있다.
몇몇 실시예에서, 3D 가상 오브젝트의 이미지가 물리적 환경의 실시간 그래픽 이미지와 합성되는 경우에, 그래픽 및 오디오 렌더링 모듈(324)은 가상 3D 오브젝트 및 물리적 환경의 깊이 정보, 뿐만 아니라 카메라의 위치 및 방위에 기초하여 렌더링을 결정하도록 구성될 수 있다. 참조가 이제 도 7a 및 도 7b에 대해 이루어지며, 이것은 본 개시의 실시예와 일치하는, 물리적 환경의 실시간 그래픽 이미지로의 3D 가상 오브젝트의 이미지의 합성을 예시한다. 도 7a에 도시된 바와 같이, 환경(700)은 물리적 오브젝트(702) 및 물리적 오브젝트(706)를 포함한다. 그래픽 및 오디오 렌더링 모듈(324)은 환경(700)을 렌더링할 때 물리적 오브젝트(702) 및 물리적 오브젝트(706) 사이에 가상 오브젝트(704)를 삽입하도록 구성된다. 환경(700)의 그래픽 이미지는 위치(A)에서 위치(B)로의 루트(710)를 따라 카메라(708)에 의해 캡처된다. 위치(A)에서, 물리적 오브젝트(706)는 렌더링된 환경 내에서 가상 오브젝트(704)에 대해 카메라(708)에 더 가까우며, 가상 오브젝트(704)의 부분을 보기 어렵게 하지만, 위치(B)에서, 가상 오브젝트(704)는 렌더링된 환경 내에서 물리적 오브젝트(706)에 대해 카메라(708)에 더 가깝다.
그래픽 및 오디오 렌더링 모듈(324)은 그것들의 깊이 정보, 뿐만 아니라 카메라의 위치 및 방위에 기초하여 가상 오브젝트(704) 및 물리적 오브젝트(706)의 렌더링을 결정하도록 구성될 수 있다. 참조가 이제 도 8에 대해 이루어지며, 이것은 본 개시의 실시예와 일치하는, 물리적 환경의 그래픽 이미지와 가상 오브젝트 이미지를 합성하기 위한 대표적인 방법(800)을 예시하는 흐름도이다. 방법(800)이 프로세서(예로서, 그래픽 및 오디오 렌더링 모듈(324))에 의해 수행되는 것으로 설명되지만, 방법(800)은 단독으로 또는 프로세서와 조합하여 다른 디바이스에 의해 수행될 수 있다는 것이 이해된다.
단계(802)에서, 프로세서는 가상 오브젝트(예로서, 도 7a의 가상 오브젝트(704))의 제1 이미지의 픽셀과 연관된 깊이 정보를 수신할 수 있다. 깊이 정보는 예를 들면, 도 3의 방위 및 위치 결정 모듈(322)에 의해 결정된 카메라(708)의 위치 및 방위에 기초하여 생성될 수 있다. 예를 들면, 3D 맵 내에서 가상 오브젝트의 미리 결정된 위치 및 상기 3D 맵에서의 카메라의 위치에 기초하여, 프로세서는 카메라 및 가상 오브젝트 사이에서의 거리를 결정할 수 있다.
단계(804)에서, 프로세서는 물리적 오브젝트(예로서, 도 7a의 물리적 오브젝트(706))의 제2 이미지의 픽셀과 연관된 깊이 정보를 결정할 수 있다. 깊이 정보는 예를 들면, 도 3의 방위 및 위치 결정 모듈(322)에 의해 결정된 카메라(708)의 위치 및 방위에 기초하여 생성될 수 있다. 예를 들면, (예로서, SLAM 알고리즘을 이용해서) 3D 맵 내에서 물리적 오브젝트의 이전 결정된 위치 및 상기 3D 맵에서의 카메라의 위치에 기초하여, 카메라 및 물리적 오브젝트 사이에서의 거리가 결정될 수 있다.
단계(806)에서, 프로세서는 두 개의 픽셀의 깊이 정보를 비교하며, 그 후 단계(808)에서, 비교 결과에 기초하여 픽셀 중 하나를 렌더링하도록 결정할 수 있다. 예를 들면, 프로세서가 물리적 오브젝트의 픽셀이 (예로서, 도 7b의 위치(A)에서) 가상 오브젝트의 픽셀보다 카메라에 더 가깝다고 결정하면, 프로세서는 가상 오브젝트의 픽셀이 물리적 오브젝트의 픽셀에 의해 가려짐을 결정하며, 물리적 오브젝트의 픽셀을 렌더링하도록 결정할 수 있다.
다시 도 3을 참조하면, 몇몇 실시예에서, 그래픽 및 오디오 렌더링 모듈(324)은 또한 렌더링을 위한 오디오 데이터를 제공할 수 있다. 오디오 데이터는 예로서, 오디오 감지 시스템(313)(마이크로폰 어레이와 같은)으로부터 수집될 수 있다. 몇몇 실시예에서, 강화된 감각 능력을 제공하기 위해, 오디오 데이터의 일부가 사용자 지시(예로서, 손 제스처를 통해 검출된)에 기초하여 확대될 수 있다. 예를 들면, 마이크로폰 어레이를 사용하여, 그래픽 및 오디오 렌더링 모듈(324)은 오디오 데이터의 소스의 위치를 결정할 수 있으며, 사용자 지시에 기초하여 상기 특정한 소스와 연관된 오디오 데이터의 볼륨을 증가시키거나 또는 감소시키도록 결정할 수 있다. 오디오 데이터의 가상 소스가 물리적 환경에서 비롯된 오디오 신호와 합성되는 경우에, 그래픽 및 오디오 렌더링 모듈(324)은, 방법(800)과 유사한 방식으로, 마이크로폰 및 가상 소스 사이에서의 거리, 및 마이크로폰 및 물리적 오브젝트 사이에서의 거리를 또한 결정할 수 있다. 거리에 기초하여, 그래픽 및 오디오 렌더링 모듈(324)은 가상 소스로부터의 오디오 데이터가 물리적 오브젝트에 의해 차단되는지를 결정하며, 그에 따라 오디오 데이터의 렌더링을 조정할 수 있다.
렌더링될 그래픽 및 오디오 데이터를 결정한 후, 그래픽 및 오디오 렌더링 모듈(324)은 그 후, 렌더링된 그래픽 데이터를 디스플레이하도록 구성된 디스플레이 시스템(332)(예로서, 디스플레이 스크린), 및 렌더링된 오디오 데이터를 플레이하도록 구성된 오디오 출력 시스템(334)(예로서, 스피커)을 포함하는, 오디오/비디오 시스템(330)으로 그래픽 및 오디오 데이터를 제공할 수 있다. 그래픽 및 오디오 렌더링 모듈(324)은 또한 저장 장치(예로서, 도 1의 저장 장치(128))에 그래픽 및 오디오 데이터를 저장하거나, 또는 렌더링을 위해 또 다른 디바이스로 송신될 데이터를 네트워크 인터페이스(예로서, 도 1의 네트워크 인터페이스(140))에 제공할 수 있다.
또한, 시스템(300)은 또한 전력 시스템(340)을 포함하며, 이것은 통상적으로 배터리 및 전력 관리 시스템(도 3에는 도시 생략)을 포함한다.
시스템(300)의 구성요소(소프트웨어 또는 하드웨어)의 일부는 상이한 플랫폼에 걸쳐 분포될 수 있다. 예를 들면, 도 1에 논의된 바와 같이, 컴퓨팅 시스템(100)(이에 기초하여 시스템(300)이 구현될 수 있음)은 스마트 디바이스(130)(예로서, 스마트폰)에 연결될 수 있다. 스마트 디바이스(130)는 프로세싱 시스템(320)의 기능 중 일부를 수행하도록 구성될 수 있다. 예를 들면, 스마트 디바이스(130)는 그래픽 및 오디오 렌더링 모듈(324)의 기능을 수행하도록 구성될 수 있다. 예시적인 예로서, 스마트 디바이스(130)는 방위 및 위치 결정 모듈(322)로부터 카메라의 방위 및 위치에 대한 정보, 및 손 제스처 결정 모듈(323)로부터 손 제스처 정보, 뿐만 아니라 감지 시스템(310)으로부터 물리적 환경에 대한 그래픽 및 오디오 정보를 수신하며, 그 후 그래픽 및 오디오의 렌더링을 수행할 수 있다. 또 다른 예시적인 예로서, 스마트 디바이스(130)는 동작하는 또 다른 소프트웨어(예로서, 앱)일 수 있으며, 이것은 멀티미디어 렌더링에 부가될 부가적인 콘텐트를 생성할 수 있다. 스마트 디바이스(130)는 그 후 (그래픽 및 오디오 렌더링 모듈(324)을 통해 렌더링을 수행하는) 시스템(300)에 부가적인 콘텐트를 제공할 수 있거나, 또는 그래픽 및 오디오 데이터의 렌더링에 부가적인 콘텐트를 부가할 수 있다.
도 9a 및 도 9b는 본 개시의 실시예와 일치하는, 대표적인 헤드-장착 대화형 몰입식 멀티미디어 생성 시스템(900)을 예시한 개략도이다. 몇몇 실시예에서, 시스템(900)은 컴퓨팅 디바이스(100), 시스템(300), 및 도 4f의 카메라 시스템(494)의 실시예를 포함한다.
도 9a에 도시된 바와 같이, 시스템(900)은 개구(904)의 쌍, 헤드 밴드(906)를 가진 하우징(902)을 포함한다. 하우징(902)은 대화형 몰입식 멀티미디어 데이터를 생성하도록 구성된 하나 이상의 하드웨어 시스템을 유지하도록 구성된다. 예를 들면, 하우징(902)은 (도 9b에 예시된 바와 같이) 회로 보드(950)를 유지할 수 있으며, 이것은 한 쌍의 카메라(954a 및 954b), 하나 이상의 마이크로폰(956), 프로세싱 시스템(960), 모션 센서(962), 전력 관리 시스템(964), 하나 이상의 커넥터(968), 및 IR 투사기/조명기(970)를 포함한다. 카메라(954a 및 954b)는 물리적 환경의 그래픽 데이터를 생성하도록 구성되며 각각 RGB-IR 카메라를 포함할 수 있다. 마이크로폰(956)은 몰입식 멀티미디어 데이터의 부분으로서 렌더링될 오디오 데이터를 환경으로부터 수집하도록 구성된다. 프로세싱 시스템(960)은 도 3의 프로세싱 시스템(300)의 기능 중 적어도 일부를 수행하도록 구성되는, 범용 프로세서, FPGA, ASIC 등일 수 있다. 커넥터(968)는 부가적인 능력을 제공하기 위해(예로서, 오디오 및 그래픽 데이터를 렌더링하기 위해, 렌더링을 위한 부가적인 콘텐트를 제공하기 위해 등) 도 1의 스마트 디바이스(130)로서 동작하는 이동 디바이스(예로서, 스마트 폰)에 시스템(900)을 연결하도록 구성되며, 따라서 프로세싱 시스템(960)은 이동 디바이스와 통신할 수 있다. 이러한 경우에, 하우징(902)은 또한 이동 디바이스를 유지하기 위해 내부 공간을 제공한다. 하우징(902)은 또한 이동 디바이스에 의해 및/또는 프로세싱 시스템(960)에 의해 렌더링된 입체 3D 이미지를 디스플레이하도록 구성된 한 쌍의 렌즈(도시 생략) 및 선택적으로 디스플레이 디바이스(이동 디바이스에 의해 제공될 수 있음)를 포함한다. 하우징(902)은 또한 카메라(954)가 물리적 환경 시스템(900)이 위치되는 이미지를 캡처할 수 있는 개구(904)를 포함한다.
도 9a에 도시된 바와 같이, 시스템(900)은 헤드 밴드의 세트(906)를 추가로 포함한다. 헤드 밴드는 사람이 그녀의 머리에 시스템(900)을 착용하도록 허용하기 위해 구성될 수 있으며, 그녀의 눈은 디스플레이 디바이스 및 렌즈에 노출된다. 몇몇 실시예에서, 배터리는 헤드 밴드에 위치될 수 있으며, 이것은 또한 배터리 및 하우징(902)에 하우징된 시스템 사이에서 전기적 연결을 제공할 수 있다.
본 개시의 실시예에 의하면, 사용자(및 카메라)의 3D 위치 및 방위의 정확한 추적이 제공될 수 있다. 사용자의 위치 및 방위 정보에 기초하여, 대화형 몰입식 멀티미디어 경험이 제공될 수 있다. 정보는 또한 가상 오브젝트의 이미지 및 물리적 환경의 이미지의 사실적인 합성이 증강 현실 및 가상 현실의 조합된 경험을 생성할 수 있게 한다. 본 개시의 실시예는 또한 사용자가 사용자의 감각 능력을 강화하기 위해 물리적 환경의 부분의 그래픽 및 오디오 렌더링을 효율적으로 업데이트할 수 있게 한다.
앞서 말한 명세서에서, 실시예는 구현마다 달라질 수 있는 다수의 특정 세부사항을 참조하여 설명되었다. 설명된 실시예의 특정한 적응화 및 수정이 이루어질 수 있다. 다른 실시예는 여기에 개시된 본 발명의 명세서 및 실시의 고려로부터 이 기술분야의 숙련자에게 명백할 수 있다. 명세서 및 예는, 단지 예로서 고려되도록 의도되며, 본 발명의 진정한 범위와 사상은 다음의 청구범위에 의해 나타나 있다. 도면에 도시된 단계의 수순은 단지 예시적인 목적을 위한 것이며 단계의 임의의 특정한 수순에 제한되도록 의도되지 않는다는 것이 또한 의도된다. 이와 같이, 당업자라면 이들 단계가 동일한 방법을 구현하는 동안 상이한 순서로 수행될 수 있다는 것을 이해할 수 있다.
Claims (20)
- 장치로서,
적어도 하나의 카메라를 포함한 광학 감지 시스템으로서, 상기 적어도 하나의 카메라는, 상기 장치가 물리적 환경에서 제1 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제1 이미지를 획득하고, 상기 장치가 상기 물리적 환경에서 제2 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제2 이미지를 획득하도록 구성되는, 상기 광학 감지 시스템; 및
프로세싱 시스템을 포함하되,
상기 프로세싱 시스템은, 방위 및 위치 결정 모듈 및 렌더링 모듈을 포함하며;
상기 방위 및 위치 결정 모듈은,
상기 하나 이상의 제1 이미지로부터 하나 이상의 제1 두드러진 특징을 검출하고,
상기 제1 두드러진 특징과 연관된 제1 세트의 좌표를 결정하며,
상기 하나 이상의 제2 이미지로부터 하나 이상의 제2 두드러진 특징을 검출하고,
상기 제2 두드러진 특징과 연관된 제2 세트의 좌표를 결정하며,
상기 하나 이상의 제2 이미지와 연관된 하나 이상의 2차원(2D) 공간에 상기 제1 세트의 좌표를 재투사하고,
상기 재투사된 제1 세트의 좌표를 상기 하나 이상의 2차원 공간에서의 상기 제2 세트의 좌표와 비교하여, 상기 하나 이상의 제1 두드러진 특징에 대응하는 상기 하나 이상의 제2 두드러진 특징을 결정하며, 그리고
결정된 대응하는 제1 및 제2 두드러진 특징에 기초하여 상기 물리적 환경에 대한 상기 장치의 상기 제1 방위 및/또는 위치와 상기 제2 방위 및/또는 위치 사이의 변화를 결정하도록 구성되고;
상기 렌더링 모듈은,
상기 장치의 방위 및/또는 위치에서의 상기 결정된 변화와, 상기 하나 이상의 제1 이미지와, 상기 하나 이상의 제2 이미지에 기초하여 상기 물리적 환경의 렌더링을 결정하고, 그리고
상기 물리적 환경의 렌더링에 관련된 데이터를 디스플레이 시스템에 제공하도록 구성된, 장치. - 제1항에 있어서,
상기 광학 감지 시스템은 제1 카메라 및 제2 카메라를 포함하되, 상기 제1 카메라는 상기 물리적 환경의 제1 좌측 이미지 및 제2 좌측 이미지를 획득하도록 구성되고, 상기 제2 카메라는 상기 물리적 환경의 제1 우측 이미지 및 제2 우측 이미지를 획득하도록 구성되며, 상기 제1 이미지는 상기 제1 좌측 이미지 및 상기 제1 우측 이미지를 포함하고, 상기 제2 이미지는 상기 제2 좌측 이미지 및 상기 제2 우측 이미지를 포함하며,
상기 하나 이상의 제1 두드러진 특징에 대응하는 상기 하나 이상의 제2 두드러진 특징을 결정하기 위해, 방위 및 위치 결정 모듈은, 위치 근접성, 특징 근접성, 및 스테레오 제약에서 상기 재투사된 제1 좌표 세트를 상기 제2 좌표 세트와 비교하도록 구성되고,
상기 방위 및 위치 결정 모듈은, 상기 제1 및 제2 두드러진 특징이 서로에 대응한다는 결정에 응답하여, 상기 제1 및 제2 세트의 좌표에 기초하여 상기 물리적 환경에 대해서 상기 장치의 방위 및/또는 위치에서의 변화를 결정하도록 구성되며;
상기 렌더링 모듈은 상기 제1 및 제2 이미지에 및 상기 장치의 방위 및/또는 위치에서의 상기 결정된 변화에 기초하여 상기 물리적 환경의 입체 렌더링을 결정하도록 구성되는, 장치. - 제2항에 있어서, 상기 제1 및 제2 카메라의 각각은 적색-녹색-청색-적외선(RGB-IR) 픽셀 센서를 포함하는, 장치.
- 제1항에 있어서, 상기 광학 감지 시스템은 제1 카메라, 제2 카메라, 및 미러를 포함하며, 상기 제1 카메라는 적외선(IR) 이미지를 획득하도록 구성되고, 상기 제2 카메라는 적색-녹색-청색(RGB) 이미지를 획득하도록 구성되며, 상기 미러는 상기 제2 카메라로부터 멀리 IR 광을 반사하도록 및 상기 RGB 이미지와 상기 IR 이미지를 동조시키도록 구성되는, 장치.
- 제4항에 있어서, 상기 제1 카메라는 비행시간(time-of-flight) 카메라인, 장치.
- 제4항에 있어서, 상기 제1 카메라는 IR 카메라인, 장치.
- 제1항에 있어서, 상기 광학 감지 시스템은 상기 물리적 환경으로 하나 이상의 패턴을 투사하도록 구성된 IR 조명기를 포함하며; 검출된 두드러진 특징은 상기 하나 이상의 패턴을 포함하는, 장치.
- 제1항에 있어서,
상기 프로세싱 시스템은 손 제스처 결정 모듈을 더 포함하되, 상기 손 제스처 결정 모듈은,
이미지로부터 손 제스처를 검출하고,
상기 손 제스처와 연관된 사용자 지시를 결정하도록 구성되며,
상기 렌더링 모듈은 상기 결정된 사용자 지시에 기초하여 상기 물리적 환경의 렌더링을 결정하도록 구성되는, 장치. - 제8항에 있어서,
상기 손 제스처 결정 모듈은 상기 사용자 지시가 렌더링되는 오브젝트의 선택과 연관됨을 결정하도록 구성되고;
상기 렌더링 모듈은 상기 사용자 지시에 기초하여 상기 오브젝트의 렌더링에서의 변화를 결정하도록 구성되는, 장치. - 제9항에 있어서, 상기 오브젝트는 가상 오브젝트인, 장치.
- 제9항에 있어서, 상기 오브젝트는 상기 물리적 환경에 존재하는 물리적 오브젝트인, 장치.
- 제1항에 있어서, 상기 렌더링 모듈은 상기 물리적 환경의 렌더링에서 상기 물리적 환경에 위치된 물리적 오브젝트의 이미지와 가상 오브젝트의 이미지를 합성하도록 구성되며; 상기 합성은 상기 가상 오브젝트와 연관된 제1 세트의 좌표 및 상기 물리적 오브젝트와 연관된 제2 세트의 좌표에 기초하는, 장치.
- 제12항에 있어서, 상기 합성은 상기 물리적 환경에서 비롯된 오디오 신호 및 상기 가상 오브젝트와 연관된 오디오 데이터의 렌더링을 포함하는, 장치.
- 제1항에 있어서, 스마트폰에 연결하도록 구성된 커넥터를 더 포함하는, 장치.
- 제14항에 있어서, 상기 스마트폰은 상기 프로세싱 시스템의 적어도 부분을 포함하는, 장치.
- 제14항에 있어서,
상기 스마트폰은 부가적인 콘텐트를 제공하도록 구성되고;
상기 렌더링 모듈은 하나 이상의 이미지 및 상기 부가적인 콘텐트에 기초하여 상기 물리적 환경의 렌더링을 결정하도록 구성되는, 장치. - 시스템으로서,
프로세서; 및
명령들을 저장하는 비-일시적 컴퓨터 판독 가능한 저장 매체를 포함하되,
상기 명령들은 상기 프로세서에 의해 실행될 때, 상기 시스템으로 하여금,
상기 시스템이 물리적 환경에서 제1 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제1 이미지를 획득하고,
상기 하나 이상의 제1 이미지로부터 하나 이상의 제1 두드러진 특징을 검출하며,
상기 제1 두드러진 특징과 연관된 제1 세트의 좌표를 결정하고,
상기 시스템이 상기 물리적 환경에서 제2 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제2 이미지를 획득하며,
상기 하나 이상의 제2 이미지로부터 하나 이상의 제2 두드러진 특징을 검출하고,
상기 제2 두드러진 특징과 연관된 제2 세트의 좌표를 결정하며,
상기 하나 이상의 제2 이미지와 연관된 하나 이상의 2차원(2D) 공간에 상기 제1 세트의 좌표를 재투사하고,
상기 재투사된 제1 세트의 좌표를 상기 하나 이상의 2차원 공간에서의 상기 제2 세트의 좌표와 비교하여, 상기 하나 이상의 제1 두드러진 특징에 대응하는 상기 하나 이상의 제2 두드러진 특징을 결정하며,
결정된 대응하는 제1 및 제2 두드러진 특징에 기초하여 상기 물리적 환경에 대한 상기 시스템의 상기 제1 방위 및/또는 위치와 상기 제2 방위 및/또는 위치 사이의 변화를 결정하고,
상기 시스템의 방위 및/또는 위치에서의 상기 결정된 변화와, 상기 하나 이상의 제1 이미지와, 상기 하나 이상의 제2 이미지에 기초하여 상기 물리적 환경의 렌더링을 결정하고, 그리고
상기 물리적 환경의 렌더링에 관련된 데이터를 디스플레이 시스템에 제공하도록 하는, 시스템. - 제17항에 있어서,
상기 명령들은 상기 시스템으로 하여금 추가적으로,
하나 이상의 이미지로부터 손 제스처를 검출하고,
상기 손 제스처와 연관된 사용자 지시를 결정하며,
상기 결정된 사용자 지시에 기초하여 상기 물리적 환경의 렌더링을 결정하도록 하는, 시스템. - 방법으로서,
시스템이 물리적 환경에서 제1 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제1 이미지를 획득하는 단계;
상기 하나 이상의 제1 이미지로부터 하나 이상의 제1 두드러진 특징을 검출하는 단계;
상기 제1 두드러진 특징과 연관된 제1 세트의 좌표를 결정하는 단계;
상기 시스템이 상기 물리적 환경에서 제2 방위 및/또는 위치에 있을 때, 상기 물리적 환경의 하나 이상의 제2 이미지를 획득하는 단계;
상기 하나 이상의 제2 이미지로부터 하나 이상의 제2 두드러진 특징을 검출하는 단계;
상기 제2 두드러진 특징과 연관된 제2 세트의 좌표를 결정하는 단계;
상기 하나 이상의 제2 이미지와 연관된 하나 이상의 2차원(2D) 공간에 상기 제1 세트의 좌표를 재투사하는 단계;
상기 재투사된 제1 세트의 좌표를 상기 하나 이상의 2차원 공간에서의 상기 제2 세트의 좌표와 비교하여, 상기 하나 이상의 제1 두드러진 특징에 대응하는 상기 하나 이상의 제2 두드러진 특징을 결정하는 단계;
결정된 대응하는 제1 및 제2 두드러진 특징에 기초하여 상기 물리적 환경에 대한 상기 시스템의 상기 제1 방위 및/또는 위치와 상기 제2 방위 및/또는 위치 사이의 변화를 결정하는 단계;
상기 시스템의 방위 및/또는 위치에서의 상기 결정된 변화와, 상기 하나 이상의 제1 이미지와, 상기 하나 이상의 제2 이미지에 기초하여 상기 물리적 환경의 렌더링을 결정하는 단계; 그리고
상기 물리적 환경의 렌더링에 관련된 데이터를 디스플레이 시스템에 제공하는 단계를 포함하는, 방법. - 제19항에 있어서,
하나 이상의 이미지로부터 손 제스처를 검출하는 단계;
상기 손 제스처와 연관된 사용자 지시를 결정하는 단계;
상기 결정된 사용자 지시에 기초하여 상기 물리적 환경의 렌더링을 결정하는 단계를 추가적으로 포함하는, 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462068423P | 2014-10-24 | 2014-10-24 | |
US62/068,423 | 2014-10-24 | ||
PCT/US2015/000116 WO2016064435A1 (en) | 2014-10-24 | 2015-10-23 | System and method for immersive and interactive multimedia generation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170095834A KR20170095834A (ko) | 2017-08-23 |
KR101930657B1 true KR101930657B1 (ko) | 2018-12-18 |
Family
ID=55761286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020177013982A KR101930657B1 (ko) | 2014-10-24 | 2015-10-23 | 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9858722B2 (ko) |
KR (1) | KR101930657B1 (ko) |
CN (1) | CN106062862B (ko) |
WO (1) | WO2016064435A1 (ko) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US10256859B2 (en) | 2014-10-24 | 2019-04-09 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
KR101930657B1 (ko) | 2014-10-24 | 2018-12-18 | 유센스, 인코퍼레이티드 | 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 |
CN112530025A (zh) | 2014-12-18 | 2021-03-19 | 脸谱科技有限责任公司 | 用于提供虚拟现实环境的用户界面的系统、设备及方法 |
US10431005B2 (en) | 2015-05-05 | 2019-10-01 | Ptc Inc. | Augmented reality system |
US9912860B2 (en) | 2016-06-12 | 2018-03-06 | Apple Inc. | User interface for camera effects |
WO2017222522A1 (en) * | 2016-06-22 | 2017-12-28 | Intel Corporation | Image/video capturing method and apparatus |
KR20210013323A (ko) | 2016-09-23 | 2021-02-03 | 애플 인크. | 아바타 생성 및 편집 |
US11249304B2 (en) * | 2016-12-02 | 2022-02-15 | Disney Enterprises, Inc. | Augmented reality camera frustum |
CN116778120A (zh) * | 2016-12-13 | 2023-09-19 | 奇跃公司 | 增强现实显示系统 |
KR102674463B1 (ko) * | 2016-12-23 | 2024-06-13 | 현대자동차주식회사 | 차량, 및 그 제어방법 |
US20180255285A1 (en) * | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10755480B2 (en) | 2017-05-19 | 2020-08-25 | Ptc Inc. | Displaying content in an augmented reality system |
US10572716B2 (en) | 2017-10-20 | 2020-02-25 | Ptc Inc. | Processing uncertain content in a computer graphics system |
WO2018213702A1 (en) * | 2017-05-19 | 2018-11-22 | Ptc Inc. | Augmented reality system |
US11030808B2 (en) | 2017-10-20 | 2021-06-08 | Ptc Inc. | Generating time-delayed augmented reality content |
JP6275310B1 (ja) | 2017-05-26 | 2018-02-07 | 株式会社テクテック | 拡張現実表示システム、プログラム及び方法 |
SE541650C2 (en) * | 2017-05-30 | 2019-11-19 | Crunchfish Ab | Improved activation of a virtual object |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
US10992916B2 (en) * | 2017-07-26 | 2021-04-27 | Google Llc | Depth data adjustment based on non-visual pose data |
CN107483583B (zh) * | 2017-08-17 | 2020-12-22 | 王勤志 | 服务体验感知数据采集和服务优化方法 |
CN107773254A (zh) * | 2017-12-05 | 2018-03-09 | 苏州创捷传媒展览股份有限公司 | 一种测试用户体验的方法及装置 |
DK180078B1 (en) | 2018-05-07 | 2020-03-31 | Apple Inc. | USER INTERFACE FOR AVATAR CREATION |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US12033296B2 (en) | 2018-05-07 | 2024-07-09 | Apple Inc. | Avatar creation user interface |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US11032662B2 (en) | 2018-05-30 | 2021-06-08 | Qualcomm Incorporated | Adjusting audio characteristics for augmented reality |
US11500452B2 (en) | 2018-06-05 | 2022-11-15 | Apple Inc. | Displaying physical input devices as virtual objects |
US11272112B2 (en) * | 2018-08-08 | 2022-03-08 | Canon Kabushiki Kaisha | Image capturing apparatus |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US10674072B1 (en) | 2019-05-06 | 2020-06-02 | Apple Inc. | User interfaces for capturing and managing visual media |
US10809910B2 (en) | 2018-09-28 | 2020-10-20 | Apple Inc. | Remote touch detection enabled by peripheral device |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
CN111225233A (zh) * | 2018-11-27 | 2020-06-02 | 深圳桑菲消费通信有限公司 | 一种多维环境渲染系统及渲染方法 |
US11107261B2 (en) | 2019-01-18 | 2021-08-31 | Apple Inc. | Virtual avatar animation based on facial feature movement |
US11288842B2 (en) * | 2019-02-15 | 2022-03-29 | Interaptix Inc. | Method and system for re-projecting and combining sensor data for visualization |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11516374B2 (en) | 2019-06-05 | 2022-11-29 | Synaptics Incorporated | Under-display image sensor |
CN114270870B (zh) * | 2019-08-14 | 2024-07-09 | 三星电子株式会社 | 沉浸式显示系统及其方法 |
US11153513B2 (en) * | 2019-08-19 | 2021-10-19 | Synaptics Incorporated | Light source for camera |
EP4052086A4 (en) * | 2019-10-31 | 2023-11-15 | Magic Leap, Inc. | EXTENDED REALITY SYSTEM PROVIDING QUALITY INFORMATION ABOUT PERSISTENT COORDINATE FRAMES |
US11076080B2 (en) | 2019-12-05 | 2021-07-27 | Synaptics Incorporated | Under-display image sensor for eye tracking |
US11921998B2 (en) | 2020-05-11 | 2024-03-05 | Apple Inc. | Editing features of an avatar |
DK202070625A1 (en) | 2020-05-11 | 2022-01-04 | Apple Inc | User interfaces related to time |
CN111796671B (zh) * | 2020-05-22 | 2023-04-28 | 福建天晴数码有限公司 | 头戴设备的手势识别和控制方法、存储介质 |
CN111796675B (zh) * | 2020-05-22 | 2023-04-28 | 福建天晴数码有限公司 | 头戴设备的手势识别控制方法、存储介质 |
CN111796673B (zh) * | 2020-05-22 | 2023-04-28 | 福建天晴数码有限公司 | 头戴设备的多指手势识别方法、存储介质 |
CN111796674B (zh) * | 2020-05-22 | 2023-04-28 | 福建天晴数码有限公司 | 基于头戴设备的手势触控灵敏度调节方法、存储介质 |
CN111796672B (zh) * | 2020-05-22 | 2023-04-28 | 福建天晴数码有限公司 | 基于头戴设备的手势识别方法、存储介质 |
US11039074B1 (en) | 2020-06-01 | 2021-06-15 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
JP7427615B2 (ja) * | 2021-01-04 | 2024-02-05 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11776190B2 (en) | 2021-06-04 | 2023-10-03 | Apple Inc. | Techniques for managing an avatar on a lock screen |
WO2023277888A1 (en) * | 2021-06-29 | 2023-01-05 | Innopeak Technology, Inc. | Multiple perspective hand tracking |
CN113776491B (zh) * | 2021-09-26 | 2023-06-02 | 中国联合网络通信集团有限公司 | 基于b-m2m的多维测距方法、mec及测距单元 |
US11630633B1 (en) * | 2022-04-07 | 2023-04-18 | Promp, Inc. | Collaborative system between a streamer and a remote collaborator |
US20240070994A1 (en) * | 2022-08-31 | 2024-02-29 | Snap Inc. | One-handed zoom operation for ar/vr devices |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140002442A1 (en) * | 2012-06-29 | 2014-01-02 | Mathew J. Lamb | Mechanism to give holographic objects saliency in multiple spaces |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5243665A (en) | 1990-03-07 | 1993-09-07 | Fmc Corporation | Component surface distortion evaluation apparatus and method |
US6151009A (en) | 1996-08-21 | 2000-11-21 | Carnegie Mellon University | Method and apparatus for merging real and synthetic images |
US6774869B2 (en) | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
DE102005009437A1 (de) | 2005-03-02 | 2006-09-07 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Einblenden von AR-Objekten |
US20080266326A1 (en) | 2007-04-25 | 2008-10-30 | Ati Technologies Ulc | Automatic image reorientation |
AT10520U3 (de) | 2008-09-05 | 2013-10-15 | Knapp Systemintegration Gmbh | Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen |
CN101539804A (zh) * | 2009-03-11 | 2009-09-23 | 上海大学 | 基于增强虚拟现实与异型屏的实时人机互动方法及系统 |
US8884984B2 (en) | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
US9122053B2 (en) | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US10972680B2 (en) * | 2011-03-10 | 2021-04-06 | Microsoft Technology Licensing, Llc | Theme-based augmentation of photorepresentative view |
US8718748B2 (en) | 2011-03-29 | 2014-05-06 | Kaliber Imaging Inc. | System and methods for monitoring and assessing mobility |
CN102142055A (zh) * | 2011-04-07 | 2011-08-03 | 上海大学 | 基于增强现实交互技术的真三维设计方法 |
US20120306850A1 (en) * | 2011-06-02 | 2012-12-06 | Microsoft Corporation | Distributed asynchronous localization and mapping for augmented reality |
US9323325B2 (en) * | 2011-08-30 | 2016-04-26 | Microsoft Technology Licensing, Llc | Enhancing an object of interest in a see-through, mixed reality display device |
US9367770B2 (en) * | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9081177B2 (en) | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
JP2013101528A (ja) | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
US8970693B1 (en) | 2011-12-15 | 2015-03-03 | Rawles Llc | Surface modeling with structured light |
US8840250B1 (en) | 2012-01-11 | 2014-09-23 | Rawles Llc | Projection screen qualification and selection |
US9734633B2 (en) | 2012-01-27 | 2017-08-15 | Microsoft Technology Licensing, Llc | Virtual environment generating system |
KR102038856B1 (ko) * | 2012-02-23 | 2019-10-31 | 찰스 디. 휴스턴 | 환경을 생성하고 환경내 위치기반 경험을 공유하는 시스템 및 방법 |
US8831255B2 (en) | 2012-03-08 | 2014-09-09 | Disney Enterprises, Inc. | Augmented reality (AR) audio with position and action triggered virtual sound effects |
US8965741B2 (en) * | 2012-04-24 | 2015-02-24 | Microsoft Corporation | Context aware surface scanning and reconstruction |
JP5580855B2 (ja) | 2012-06-12 | 2014-08-27 | 株式会社ソニー・コンピュータエンタテインメント | 障害物回避装置および障害物回避方法 |
GB2507510B (en) * | 2012-10-31 | 2015-06-24 | Sony Comp Entertainment Europe | Apparatus and method for augmented reality |
US9132342B2 (en) | 2012-10-31 | 2015-09-15 | Sulon Technologies Inc. | Dynamic environment and location based augmented reality (AR) systems |
US20140152558A1 (en) | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
CN103968824B (zh) | 2013-01-28 | 2018-04-10 | 华为终端(东莞)有限公司 | 一种发现增强现实目标的方法及终端 |
IL308285B1 (en) * | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
US20140354602A1 (en) | 2013-04-12 | 2014-12-04 | Impression.Pi, Inc. | Interactive input system and method |
US9323338B2 (en) | 2013-04-12 | 2016-04-26 | Usens, Inc. | Interactive input system and method |
US9908048B2 (en) | 2013-06-08 | 2018-03-06 | Sony Interactive Entertainment Inc. | Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US9274340B2 (en) | 2014-02-18 | 2016-03-01 | Merge Labs, Inc. | Soft head mounted display goggles for use with mobile computing devices |
US20150302648A1 (en) | 2014-02-18 | 2015-10-22 | Sulon Technologies Inc. | Systems and methods for mapping an environment using structured light |
US9615177B2 (en) | 2014-03-06 | 2017-04-04 | Sphere Optics Company, Llc | Wireless immersive experience capture and viewing |
US9459454B1 (en) | 2014-05-23 | 2016-10-04 | Google Inc. | Interactive social games on head-mountable devices |
US9473764B2 (en) * | 2014-06-27 | 2016-10-18 | Microsoft Technology Licensing, Llc | Stereoscopic image display |
US10256859B2 (en) | 2014-10-24 | 2019-04-09 | Usens, Inc. | System and method for immersive and interactive multimedia generation |
KR101930657B1 (ko) | 2014-10-24 | 2018-12-18 | 유센스, 인코퍼레이티드 | 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 |
US9881422B2 (en) | 2014-12-04 | 2018-01-30 | Htc Corporation | Virtual reality system and method for controlling operation modes of virtual reality system |
US10449445B2 (en) | 2014-12-11 | 2019-10-22 | Elwha Llc | Feedback for enhanced situational awareness |
WO2016141054A1 (en) | 2015-03-02 | 2016-09-09 | Lockheed Martin Corporation | Wearable display system |
JP6641122B2 (ja) | 2015-08-27 | 2020-02-05 | キヤノン株式会社 | 表示装置及び情報処理装置及びその制御方法 |
-
2015
- 2015-10-23 KR KR1020177013982A patent/KR101930657B1/ko active IP Right Grant
- 2015-10-23 WO PCT/US2015/000116 patent/WO2016064435A1/en active Application Filing
- 2015-10-23 CN CN201580005780.1A patent/CN106062862B/zh active Active
- 2015-10-26 US US14/923,073 patent/US9858722B2/en active Active
-
2017
- 2017-12-14 US US15/842,140 patent/US10223834B2/en active Active - Reinstated
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140002442A1 (en) * | 2012-06-29 | 2014-01-02 | Mathew J. Lamb | Mechanism to give holographic objects saliency in multiple spaces |
Also Published As
Publication number | Publication date |
---|---|
US20180108180A1 (en) | 2018-04-19 |
CN106062862B (zh) | 2020-04-21 |
CN106062862A (zh) | 2016-10-26 |
KR20170095834A (ko) | 2017-08-23 |
US10223834B2 (en) | 2019-03-05 |
US9858722B2 (en) | 2018-01-02 |
WO2016064435A1 (en) | 2016-04-28 |
US20160117860A1 (en) | 2016-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101930657B1 (ko) | 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법 | |
US10256859B2 (en) | System and method for immersive and interactive multimedia generation | |
US11693242B2 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
US10460512B2 (en) | 3D skeletonization using truncated epipolar lines | |
US10068369B2 (en) | Method and apparatus for selectively integrating sensory content | |
US10725297B2 (en) | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment | |
US20180046874A1 (en) | System and method for marker based tracking | |
US20140176591A1 (en) | Low-latency fusing of color image data | |
US20190371072A1 (en) | Static occluder | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
US20220172319A1 (en) | Camera-based Transparent Display | |
CN114341943A (zh) | 使用平面提取的简单环境求解器 | |
WO2016141208A1 (en) | System and method for immersive and interactive multimedia generation | |
KR101308184B1 (ko) | 윈도우 형태의 증강현실을 제공하는 장치 및 방법 | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
WO2019040169A1 (en) | MIXED REALITY OBJECT RENDERING BASED ON AMBIENT LIGHTING CONDITIONS | |
CN117372475A (zh) | 眼球追踪方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |