KR20200120466A - Head mounted display apparatus and operating method for the same - Google Patents
Head mounted display apparatus and operating method for the same Download PDFInfo
- Publication number
- KR20200120466A KR20200120466A KR1020190106133A KR20190106133A KR20200120466A KR 20200120466 A KR20200120466 A KR 20200120466A KR 1020190106133 A KR1020190106133 A KR 1020190106133A KR 20190106133 A KR20190106133 A KR 20190106133A KR 20200120466 A KR20200120466 A KR 20200120466A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- depth
- gaze
- electronic device
- sensor
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title claims description 3
- 210000001508 eye Anatomy 0.000 claims abstract description 135
- 238000005259 measurement Methods 0.000 claims abstract description 78
- 238000000034 method Methods 0.000 claims description 106
- 210000003128 head Anatomy 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 40
- 238000004891 communication Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 14
- 230000001965 increasing effect Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000003190 augmentative effect Effects 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000002366 time-of-flight method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G06K9/00597—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Ophthalmology & Optometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
다양한 실시예들은 실제 공간에서 응시 지점을 결정하고, 응시 지점에 최적화된 파라미터를 이용하여 깊이 정보를 획득하는 헤드 마운트 디스플레이 장치 및 그 동작방법에 관한 것이다.Various embodiments relate to a head mounted display device for determining a gaze point in an actual space and acquiring depth information by using a parameter optimized for the gaze point, and an operating method thereof.
우리가 살아가는 현실 공간은 3차원 좌표로 구성된다. 사람은 양쪽 눈으로 보이는 시각정보를 결합하여 입체감 있는 3차원 공간을 인식한다. 하지만, 일반적인 디지털 기기로 촬영한 사진이나 동영상은 3차원 좌표를 2차원 좌표로 표현하는 기술이어서, 공간에 대한 정보는 포함하지 않는다. 이러한 공간감을 표현하기 위해 2대의 카메라를 함께 사용하여 입체감 있는 영상들을 촬영하고 보여주는 3D 카메라 또는 디스플레이 제품들이 등장하고 있다.The real space in which we live is composed of three-dimensional coordinates. Humans perceive a three-dimensional space with a three-dimensional effect by combining visual information seen by both eyes. However, a picture or video taken with a general digital device is a technology that expresses three-dimensional coordinates as two-dimensional coordinates, and does not include information on space. In order to express such a sense of space, 3D cameras or display products are emerging that use two cameras together to shoot and show three-dimensional images.
한편, 공간감을 표현하기 위해서는, 현실 공간에 대한 깊이 정보를 센싱해야 한다. 기존에 깊이 정보 센싱은, 사용자의 관심 영역을 고려하지 않고, 깊이 센서가 측정할 수 있는 모든 범위의 공간에 대하여 깊이 센싱을 수행하였다. 특히, 광을 투사하여 깊이 센싱을 수행하는 깊이 센서의 경우, 모든 범위의 공간에 대하여 광(예를 들어, 적외선 광)을 투사하기 위하여, IR LED를 구동하게 되고, IR LED의 구동에 따른 전력 소모가 증가하게 된다. 또한, 모든 범위의 공간에 대한 깊이 정보를 획득하기 위해 연산량이 증가하며, 이에 따른 전력 소모도 증가하게 된다. 깊이 센서의 전력 소모가 증가함에 따라, 깊이 센서를 소형 기기에 탑재하기 어렵다는 문제점이 있다.On the other hand, in order to express a sense of space, depth information on a real space must be sensed. In the conventional depth information sensing, depth sensing has been performed on the entire range of spaces that can be measured by the depth sensor without considering the user's region of interest. In particular, in the case of a depth sensor that performs depth sensing by projecting light, the IR LED is driven to project light (for example, infrared light) over a full range of space, and power according to the driving of the IR LED Consumption increases. In addition, the amount of calculation increases in order to obtain depth information for a full range of spaces, thereby increasing power consumption. As power consumption of the depth sensor increases, there is a problem in that it is difficult to mount the depth sensor in a small device.
또한, 종래의 깊이 센싱 방법들은, 깊이 센서들 각각의 취약점으로 인하여, 깊이 센싱의 정확도가 낮다는 문제점이 있다.In addition, conventional depth sensing methods have a problem in that the accuracy of depth sensing is low due to the weakness of each of the depth sensors.
일 실시예에 따른 헤드 마운트 디스플레이 장치는, 응시 지점을 결정하고, 응시 지점에 최적화된 파라미터를 이용하여, 응시 지점을 중심으로 기 설정된 관심 영역에 대한 깊이 정보를 획득하는 헤드 마운트 디스플레이 장치 및 그 동작방법을 제공할 수 있다.The head mounted display device according to an embodiment determines a gaze point, and obtains depth information about a preset region of interest based on the gaze point, using a parameter optimized for the gaze point, and an operation thereof Can provide a way.
일 실시예에 따른 헤드 마운트 디스플레이 장치는, 사용자 양안의 시선 정보를 획득하는 시선 추적 센서, 하나 이상의 객체들에 대한 깊이 정보를 획득하는 깊이 센서, 및 상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하고, 상기 응시 지점에 대한 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 결정하는 프로세서를 포함할 수 있다.The head mounted display device according to an embodiment includes a gaze tracking sensor that acquires gaze information of both eyes of a user, a depth sensor that acquires depth information for one or more objects, and a gaze point based on the acquired gaze information. It may include a processor that obtains information about the gaze and determines a measurement parameter of the depth sensor based on the information about the gaze point.
일 실시예에 따른 프로세서는, 상기 시선 정보에 기초하여, 상기 응시 지점의 2차원 위치 정보를 획득할 수 있다.The processor according to an embodiment may acquire 2D location information of the gaze point based on the gaze information.
일 실시예에 따른 프로세서는, 상기 시선 정보에 기초하여, 상기 응시 지점의 추정 깊이 정보를 획득할 수 있다.The processor according to an embodiment may obtain information on the estimated depth of the gaze point based on the gaze information.
일 실시예에 따른 깊이 센서는, 상기 결정된 측정 파라미터에 따라, 상기 응시 지점을 중심으로 기 설정된 관심 영역에 대한 깊이 정보를 획득할 수 있다.The depth sensor according to an exemplary embodiment may obtain depth information on a region of interest set in advance based on the gaze point according to the determined measurement parameter.
일 실시예에 따른 깊이 센서의 측정 파라미터는, 타겟 영역에 대한 파라미터, 방출 광 출력에 대한 파라미터, 및 반사광 센싱에 대한 파라미터 중 적어도 하나를 포함할 수 있다.The measurement parameter of the depth sensor according to an embodiment may include at least one of a parameter for a target area, a parameter for emission light output, and a parameter for reflected light sensing.
일 실시예에 따른 프로세서는, 획득된 상기 관심 영역에 대한 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 다시 결정하고, 상기 깊이 센서는, 다시 결정된 상기 측정 파라미터에 따라, 상기 관심 영역에 대한 깊이 정보를 다시 획득할 수 있다.The processor according to an embodiment determines the measurement parameter of the depth sensor again based on the obtained depth information on the ROI, and the depth sensor determines the measurement parameter for the ROI. The depth information can be obtained again.
일 실시예에 따른 깊이 센서는, TOF (Time Of Flight) 방식, SL(Structured Light) 방식 및 SI(Stereo Image) 방식 중 적어도 하나에 의해 상기 관심 영역에 에 대한 깊이 정보를 획득할 수 있다.The depth sensor according to an embodiment may obtain depth information on the region of interest by at least one of a Time Of Flight (TOF) method, a Structured Light (SL) method, and a Stereo Image (SI) method.
일 실시예에 따른 깊이 센서가, TOF (Time Of Flight) 방식의 깊이 센서를 포함하는 경우, 상기 프로세서는, 상기 응시 지점의 2차원 위치 정보에 기초하여, 상기 깊이 센서에 포함되는 광원들 중 상기 응시 지점에 대응하는 일부 광원들이 구동되도록 상기 측정 파라미터를 결정하고, 상기 깊이 센서는, 상기 일부 광원들을 구동시켜, 상기 관심 영역에 대한 깊이 정보를 획득할 수 있다.When the depth sensor according to an embodiment includes a depth sensor of a TOF (Time Of Flight) method, the processor, based on the two-dimensional position information of the gaze point, among the light sources included in the depth sensor The measurement parameter may be determined so that some light sources corresponding to the gaze point are driven, and the depth sensor may drive the some light sources to obtain depth information on the ROI.
일 실시예에 따른 헤드 마운트 디스플레이 장치는, 상기 관심 영역을 포함하는 실제 공간을 표시하는 디스플레이를 더 포함하고, 상기 프로세서는, 관심 영역에 대한 깊이 정보에 기초하여, 상기 관심 영역에 적어도 하나의 가상의 객체가 표시되도록 상기 디스플레이를 제어할 수 있다.The head mounted display device according to an embodiment further includes a display displaying an actual space including the region of interest, and the processor further includes at least one virtual display device on the region of interest based on depth information on the region of interest. The display can be controlled so that the object of is displayed.
일 실시예에 따른 프로세서는, 상기 깊이 센서의 측정 파라미터를 제1 파라미터로 설정하고, 상기 제1 파라미터에 기초하여, 상기 관심 영역을 포함하면서 상기 깊이 센서로 센싱 가능한 공간에 대한 전체 깊이 정보를 획득하도록 상기 깊이 센서를 제어하고, 상기 전체 깊이 정보에 기초하여, 상기 관심 영역에 대한 제1 깊이 정보를 획득하고, 상기 제1 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 제2 파라미터로 설정하고, 상기 제2 파라미터에 기초하여, 상기 관심 영역에 대한 제2 깊이 정보를 획득하도록 상기 깊이 센서를 제어할 수 있다.The processor according to an embodiment sets the measurement parameter of the depth sensor as a first parameter, and obtains total depth information on a space that can be sensed by the depth sensor while including the region of interest based on the first parameter. The depth sensor is controlled so that the depth sensor is controlled, based on the total depth information, first depth information for the ROI is obtained, and a measurement parameter of the depth sensor is set as a second parameter based on the first depth information. And, based on the second parameter, the depth sensor may be controlled to obtain second depth information on the ROI.
일 실시예에 따른 전자 장치의 동작방법은, 사용자 양안의 시선 정보를 획득하는 단계, 상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하는 단계, 및 상기 응시 지점에 대한 정보에 기초하여, 깊이 센서의 측정 파라미터를 결정하는 단계를 포함할 수 있다.An operation method of an electronic device according to an embodiment includes: acquiring gaze information of both eyes of a user, acquiring information on a gaze point based on the acquired gaze information, and based on information on the gaze point Thus, it may include determining a measurement parameter of the depth sensor.
일 실시예에 따른 컴퓨터로 읽을 수 있는 기록매체는, 사용자 양안의 시선 정보를 획득하는 단계, 상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하는 단계, 및 상기 응시 지점에 대한 정보에 기초하여, 깊이 센서의 측정 파라미터를 결정하는 단계를 수행하도록 하는 프로그램이 저장될 수 있다.A computer-readable recording medium according to an embodiment includes: acquiring gaze information of both eyes of a user, acquiring information on a gaze point based on the acquired gaze information, and information on the gaze point Based on, a program for performing the step of determining a measurement parameter of the depth sensor may be stored.
일 실시예에 따른 전자 장치는, 응시 지점에 기초하여 깊이 정보를 획득하므로, 깊이 센싱의 효율성이 증가하고, 전력 소모가 감소할 수 있다.The electronic device according to an embodiment acquires depth information based on a gaze point, so that efficiency of depth sensing may increase and power consumption may decrease.
일 실시예에 따른 전자 장치는 응시 지점에 최적화된 파라미터를 이용하여, 깊이 정보를 획득하므로, 깊이 정보의 정확도가 향상될 수 있다.Since the electronic device according to an embodiment acquires depth information by using a parameter optimized for a gaze point, accuracy of the depth information may be improved.
도 1은 일 실시예에 따른 전자 장치를 나타내는 도면이다.
도 2 내지 도 3d는 일 실시예에 따른 전자 장치가 사용자의 시선을 추적하는 방법을 설명하기 위해 참조되는 도면들이다.
도 4a 및 4b는 일 실시예에 따른 전자 장치가 응시 지점에 대한 깊이 정보를 획득하는 방법을 설명하기 위한 도면들이다.
도 5a 및 도 5b는 일 실시예에 따른 전자 장치가 사용자의 응시 지점에 기초하여, 깊이 센서의 측정 파라미터들을 결정하는 방법을 설명하기 위한 도면들이다.
도 6 내지 도 7b는 일 실시예에 따른 깊이 센서가 TOF방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 8 및 도 9는 일 실시예에 따른 깊이 센서가 구조화된 광(SL)방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면들이다.
도 10은 일 실시예에 따른 깊이 센서가 스테레오 이미지(SI) 방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면이다.
도 11은 일 실시예에 따른 전자 장치가 가상 객체를 표시하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 전자 장치의 동작방법을 나타내는 흐름도이다.
도 13은 일 실시예에 따른 전자 장치가 깊이 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 14는 일 실시예에 따른 전자 장치가 깊이 정보를 획득하는 방법을 나타내는 흐름도이다.
도 15는 일 실시예에 따른 전자 장치가 도 14의 깊이 정보 획득 동작들을 반복적으로 수행하는 예를 나타내는 도면이다.
도 16은 일 실시예에 따른 전자 장치가 증강현실(AR) 방식으로 가상의 객체를 제공하는 예를 나타내는 도면이다.
도 17은 일 실시예에 따른 전자 장치가 깊이 정보를 이용하여, 사람의 얼굴을 인식하는 예를 나타내는 도면이다.
도 18은 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 19는 다른 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 20 및 도 21은 일 실시예에 따른 전자 장치가 자동으로 초점을 조절하는 방법을 설명하기 위한 도면들이다.
도 22는 일 실시예에 따른 전자 장치가 시선 기반 공간 모델링을 수행하는 방법을 설명하기 위한 도면이다.1 is a diagram illustrating an electronic device according to an exemplary embodiment.
2 to 3D are diagrams referred to for describing a method of tracking a user's gaze by an electronic device according to an exemplary embodiment.
4A and 4B are diagrams for describing a method of obtaining, by an electronic device, depth information on a gaze point, according to an exemplary embodiment.
5A and 5B are diagrams for explaining a method of determining measurement parameters of a depth sensor based on a user's gaze point, according to an exemplary embodiment.
6 to 7B are diagrams referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when a depth sensor according to an exemplary embodiment is a TOF method.
8 and 9 are diagrams referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when a depth sensor according to an exemplary embodiment is a structured light (SL) method.
FIG. 10 is a diagram referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when the depth sensor according to an exemplary embodiment is a stereo image (SI) method.
11 is a diagram for describing a method of displaying a virtual object by an electronic device according to an exemplary embodiment.
12 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
13 is a diagram for describing a method of obtaining depth information by an electronic device according to an exemplary embodiment.
14 is a flowchart illustrating a method of obtaining depth information by an electronic device according to an exemplary embodiment.
15 is a diagram illustrating an example in which an electronic device repeatedly performs depth information acquisition operations of FIG. 14 according to an exemplary embodiment.
16 is a diagram illustrating an example in which an electronic device provides a virtual object in an augmented reality (AR) method according to an exemplary embodiment.
17 is a diagram illustrating an example in which an electronic device recognizes a human face using depth information according to an exemplary embodiment.
18 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
19 is a block diagram illustrating a configuration of an electronic device according to another embodiment.
20 and 21 are diagrams for describing a method of automatically adjusting focus by an electronic device according to an exemplary embodiment.
22 is a diagram for describing a method of performing a gaze-based spatial modeling by an electronic device according to an exemplary embodiment.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in the present specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used while considering functions in the present invention, but this may vary depending on the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless otherwise stated. In addition, terms such as "... unit" and "module" described in the specification mean units that process at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.
도 1은 일 실시예에 따른 전자 장치를 나타내는 도면이다.1 is a diagram illustrating an electronic device according to an exemplary embodiment.
도 1을 참조하면, 일 실시예에 따른 전자 장치(100)는 안경형 웨어러블 디바이스일 수 있다. 안경형 웨어러블 디바이스는 머리 부분에 장착 가능한 헤드 마운트 디스플레이(HMD: Head mounted display, 이하 ‘HMD’라 함)를 포함할 수 있다. 예를 들어, 헤드 마운트 디스플레이(HMD)는 안경, 헬멧, 모자 등의 형태를 가지는 기기를 포함할 수 있으나, 이에 한정되는 것은 아니다.Referring to FIG. 1, the
또한, 일 실시예에 따른 전자 장치(100)는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 데스크 탑, 태블릿 PC, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 캠코더, IPTV(Internet Protocol Television), DTV(Digital Television), 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다. 다만, 이에 한정되는 것은 아니다.In addition, the
본 명세서의 실시예에서 “사용자”라는 용어는 전자 장치(100)의 기능 또는 동작을 제어하는 사람을 의미하며, 관리자 또는 설치 기사를 포함할 수 있다.In the embodiments of the present specification, the term "user" refers to a person who controls functions or operations of the
일 실시예에 따른 전자 장치(100)는 적어도 하나의 가상의 객체를 증강현실(AR: Augmented Reality), 혼합현실(MR: Mixed Reality), 또는 가상현실(VR: Virtual Reality) 형태로 제공하는 기기일 수 있다. The
증강현실 또는 혼합현실의 형태로 가상의 객체를 제공하는 경우, 전자 장치(100)는 가상의 객체가, 현실 세계의 실제 객체의 형태, 배치, 거리, 깊이에 어울어져 보이도록 가상의 객체를 디스플레이에 표시할 수 있다. 예를 들어, 전자 장치(100)는 현실 세계의 실상에 가상 객체의 이미지를 오버랩하여 표시할 수 있다. 다만, 이에 한정되지 않는다.When a virtual object is provided in the form of augmented reality or mixed reality, the
일 실시예에 따른 전자 장치(100)는 깊이 센서(150)를 포함할 수 있다.The
깊이 센서(150)는 현실 세계에 포함되는 하나 이상의 객체들에 대한 깊이 정보를 획득할 수 있다. 깊이 정보는, 깊이 센서(150)로부터 특정 객체까지의 거리에 대응할 수 있다. 일 실시예에 따른 깊이 센서(150)로부터 특정 객체까지의 거리가 멀수록 깊이 값은 커질 수 있다.The
도 1에 도시된 바와 같이, 3차원 공간 상에서 X축은 전자 장치(100)를 좌우로 지나는 기준 축이고, Y축은 전자 장치(100)를 상하로 지나는 기준 축이며, Z축은 전자 장치(100)를 전후로 지나는 기준 축일 수 있다. 또한, X축, Y축 및 Z축은 서로 수직을 이룰 수 있다.As shown in FIG. 1, in a three-dimensional space, the X-axis is a reference axis that passes right and left through the
이에 따라, 일 실시예에 따른 깊이 정보는, 깊이 센서(150)로부터 특정 객체까지의 Z축 상의 거리를 의미할 수 있다.Accordingly, depth information according to an embodiment may mean a distance on the Z axis from the
일 실시예에 따른 깊이 센서(150)는 다양한 방식으로 객체의 깊이 정보를 획득할 수 있다. 예를 들어, 깊이 센서(150)는 TOF(Time of flight) 방식, 구조화된 광(Structured Light) 방식, 스테레오 이미지(Stereo Image) 방식 중 적어도 하나의 방식을 이용하여, 깊이 정보를 획득할 수 있다. 각각의 방식에 대해서는, 뒤에서 자세히 후술하기로 한다.The
일 실시예에 따른 깊이 센서(150)는 적어도 하나의 카메라(이미지 센서)를 포함할 수 있다. 깊이 센서(150)는, 카메라의 FOV(Field of veiw)에 포함되는 실제 공간에 대한 깊이 정보를 획득할 수 있다. 이하에서는, 깊이 센서(150)에 의해 센싱될 수 있는 범위의 실제 공간을‘전체 공간’이라고 지칭하기로 한다. 일반적으로 ‘전체 공간’은 상기 이미지 센서의 전체 영역에 대응된다.The
한편, 전자 장치(100)의 사용자가 전체 공간 중, 일부 공간을 응시하는 경우, 일부 공간을 제외한 나머지 공간에 대한 깊이 정보는 사용자가 응시하는 공간에 비해 중요도가 낮다. 예를 들어, 전자 장치(100)의 사용자가 도 1에 도시된 방 공간(전체 공간, 10) 중 책상 주위 공간(50)을 응시하고 있는데, 깊이 센서(150)를 이용하여, 전체 공간(10)에 대한 깊이 정보를 획득하는 경우, 책상 주위 공간(50)을 제외한 나머지 공간에 대한 깊이 정보는 책상 주위 공간(50)의 깊이 정보에 비해 중요도가 낮은 정보일 수 있다. 상기 전체 공간 중, 상기 사용자가 응시하는 지점 및 응시하는 지점의 주변 영역을 관심 영역으로 지칭하기로 한다. 일 실시예에 따른 관심 영역은 사용자가 응시하는 지점을 중심으로 기 설정된 영역일 수 있다.On the other hand, when the user of the
또한, 전자 장치(100)가 전체 공간에 대한 깊이 정보를 획득하는 경우, 연산량이 증가하게 되므로, 전력 소모는 증가하고, 전자 장치(100)의 응답 속도는 느려진다. 또한, 일부 공간(예를 들어, 전자 장치 사용자의 응시 지점)만을 타겟으로 하여 깊이 정보를 획득하는 것이 아니고, 전체 공간을 타겟으로 하여 깊이 정보를 획득하는 경우, 전자 장치(100) 사용자의 응시 지점에 대한 깊이 정보의 정확도는 낮아질 수 있다.In addition, when the
이에 따라, 일 실시예에 따른 전자 장치(100)는 전체 공간 중 사용자가 응시하는 지점을 결정할 수 있다. 예를 들어, 전자 장치(100)는 사용자 양안의 시선을 추적하여, 시선 정보를 획득하고, 시선 정보에 기초하여, 사용자가 응시하는 지점(응시 지점)을 결정할 수 있다. Accordingly, the
일 실시예에 따른 전자 장치(100)는 결정된 응시 지점에 기초하여, 깊이 센서의 측정 파라미터를 조절함으로써, 깊이 정보 획득에 필요한 전력 소모를 감소시키고, 깊이 정보에 대한 정확도를 향상시킬 수 있다. The
깊이 센서의 측정 파라미터는, 깊이 센서를 이용하여, 적어도 하나의 객체에 대한 깊이 정보를 획득하는 경우, 깊이 정보를 획득하는 데 필요한 변수로써, 깊이 센서에 미리 설정되어야 하는 수치 정보일 수 있다. 예를 들어, 깊이 센서의 측정 파라미터는, 광을 방출하기 위한 타겟 영역에 대한 파라미터, 반사광을 센싱하기 위한 반사광 센싱 영역에 대한 파라미터, 방출 광의 출력 패턴에 대한 파라미터, 방출 광의 출력 크기에 대한 파라미터, 반사광을 센싱하는 센싱 속도, 센싱 주기 또는 센싱 감도에 대한 파라미터 등을 포함할 수 있다. 이하, 도면들을 참조하여 자세히 설명하기로 한다.The measurement parameter of the depth sensor is a variable required to obtain depth information when depth information on at least one object is obtained using the depth sensor, and may be numerical information that must be set in advance in the depth sensor. For example, the measurement parameters of the depth sensor include a parameter for a target area for emitting light, a parameter for a reflected light sensing area for sensing reflected light, a parameter for an output pattern of emitted light, a parameter for an output size of emitted light, It may include a sensing speed for sensing reflected light, a sensing period, or a parameter for sensing sensitivity. Hereinafter, it will be described in detail with reference to the drawings.
도 2 내지 도 3d는 일 실시예에 따른 전자 장치가 사용자의 시선을 추적하는 방법을 설명하기 위해 참조되는 도면들이다.2 to 3D are diagrams referred to for describing a method of tracking a user's gaze by an electronic device according to an exemplary embodiment.
도 2를 참조하면, 전자 장치(100)는 사용자의 시선을 추적할 수 있다. 일반적으로 ‘시선’은 보는 방향을 의미하고 ‘시선 추적(eye tracking)’은 사용자의 시선(예를 들어, 사용자가 응시하는 지점(210))을 측정하는 과정을 의미하며, 양쪽 눈의 위치와 움직임을 추적함으로써, 수행될 수 있다.Referring to FIG. 2, the
일 실시예에 따른 전자 장치(100)는 사용자의 시선을 추적하기 위하여, 시선 추적 센서(160)를 포함할 수 있다. 일 실시예에 따른 시선 추적 센서(160)는 사용자의 왼쪽 눈의 시선을 추적하기 위한 제1 시선 추적 센서(161) 및 오른쪽 눈의 시선을 추적하기 위한 제2 시선 추적 센서(162)를 포함할 수 있다. 제1 시선 추적 센서(161) 및 제2 시선 추적 센서(162)는 동일한 구조를 가지며, 동일한 방식으로 동작한다.The
도 3a는 사용자의 눈에서 반사되는 반사광의 광량에 기초하여, 사용자의 시선을 추적하는 방법을 설명하기 위한 도면이다. 3A is a diagram for describing a method of tracking a user's gaze based on an amount of reflected light reflected from the user's eyes.
일 실시예에 따른 제1 시선 추적 센서(161) 및 제2 시선 추적 센서(162)는 동일한 구조를 가지며, 동일한 방식으로 동작하므로, 도 3a에서는, 제1 시선 추적 센서(161)를 기준으로 설명하기로 한다.Since the first
도 3a를 참조하면, 일 실시예에 따른 제1 시선 추적 센서(161)는 사용자의 눈에 광을 제공하는 조명부(301)와 광을 감지하는 감지부(302)를 포함할 수 있다. 조명부(301)는 광을 제공하는 광원과 광원으로부터 제공되는 광의 방향을 제어하는 스캐닝 미러를 포함할 수 있다. 스캐닝 미러는, 광원으로부터 제공되는 광을 사용자의 눈(320)(예를 들어, 각막(310))을 향하도록 방향을 제어할 수 있다. 스캐닝 미러는 광원으로부터 제공되는 광을 반사시켜 사용자의 눈(320)을 향하도록 반사 각도를 기계적으로 변경할 수 있는 구조를 포함하며, 변경되는 반사 각도에 따라 광원으로부터 제공되는 광을 이용하여 각막(310)을 포함하는 영역을 스캔할 수 있다.Referring to FIG. 3A, the first
감지부(302)는 사용자의 눈(320)으로부터 반사되는 광을 감지할 수 있으며, 감지되는 광량을 측정할 수 있다. 예를 들어, 사용자의 각막(310)의 중심에서 광이 반사될 때, 감지부(302)에서 감지되는 광량이 최대일 수 있다. 이에 따라, 제1 시선 추적 센서(161)는, 감지부(302)에서 감지되는 광량이 최대인 경우에, 사용자의 눈에 광이 입사되고, 반사되는 지점(330)에 기초하여, 사용자 눈의 시선 방향(340)을 결정할 수 있다. 예를 들어, 제1 시선 추적 센서(161)는 광량이 최대인 경우에, 사용자의 눈에 광이 입사되고, 반사되는 지점(330)과 사용자의 눈의 중심점을 연결한 방향(340)을 사용자의 눈(예를 들어, 사용자의 왼쪽 눈)의 시선 방향으로 결정할 수 있다. 다만, 이에 한정되지 않는다.The
또한, 제2 시선 추적 센서(162)도, 도 3a에서 설명한 방법과 동일한 방법으로, 사용자의 눈(예를 들어, 오른쪽 눈)의 시선 방향을 결정할 수 있다.In addition, the second
도 3b는 사용자의 눈에서 반사되는 반사광의 위치에 기초하여, 사용자의 시선을 추적하는 방법을 설명하기 위한 도면이다.3B is a diagram illustrating a method of tracking a user's gaze based on a position of reflected light reflected from the user's eyes.
일 실시예에 따른 제1 시선 추적 센서(161) 및 제2 시선 추적 센서(162)는 동일한 구조를 가지며, 동일한 방식으로 동작하므로, 도 3b에서는, 제1 시선 추적 센서(161)를 기준으로 설명하기로 한다. 제1 시선 추적 센서(161)는, 조명부(351) 및 촬영부(352)를 포함할 수 있다. 조명부(351)는 적외선 발광 다이오드(IR LED)등을 포함할 수 있다. 도 3b에 도시된 바와 같이, 조명부(351)는 서로 다른 위치에 배치된 복수의 발광 다이오드를 포함할 수 있다. 조명부(351)는 사용자의 눈을 촬영할 때, 사용자의 눈에 광(예를 들어, 적외선 광)을 제공할 수 있다. 사용자의 눈에 광이 제공됨에 따라, 사용자의 눈에는 반사광이 생성될 수 있다. Since the first
또한, 촬영부(352)는 적어도 하나의 카메라를 포함할 수 있으며, 이때, 적어도 하나의 카메라는 적외선 카메라(IR)를 포함할 수 있다. 전자 장치(100)는, 촬영부(352)에서 촬영된 사용자의 눈 영상을 이용하여, 사용자의 눈(예를 들어, 사용자의 왼쪽 눈)의 시선을 추적할 수 있다. 예를 들어, 제1 시선 추적 센서(161)는, 사용자의 눈 영상에서 동공과 반사광을 검출함으로써, 사용자의 시선을 추적할 수 있다. 제1 시선 추적 센서(161)는, 사용자의 눈 영상에서 동공 및 반사광의 위치를 검출하고, 동공의 위치와, 반사광의 위치 사이의 관계에 기초하여, 사용자의 눈의 시선 방향을 결정할 수 있다. In addition, the photographing
예를 들어, 제1 시선 추적 센서(161)는, 촬영된 제1 눈 영상(361)에서, 동공(370) 및 반사광(381)을 검출하고, 동공(370)의 위치와 반사광(381)의 위치 사이의 관계에 기초하여, 사용자의 눈의 시선 방향(391)을 결정할 수 있다. 동일한 방식으로, 제2 내지 제5 눈 영상들(362, 363, 364, 365) 각각에서 동공(370) 및 반사광(382, 383, 384, 385)을 검출하고, 동공의 위치와 반사광의 위치 사이의 관계에 기초하여, 사용자의 눈의 시선 방향(392, 393, 394, 395)을 결정할 수 있다.For example, the first
또한, 제2 시선 추적 센서(162)도, 도 3b에서 설명한 방법과 동일한 방법으로 사용자의 눈(예를 들어, 오른쪽 눈)의 시선 방향을 결정할 수 있다.In addition, the second
도 3c는 사용자의 시선에 대한 3차원 안구 모델을 나타내는 도면이다.3C is a diagram illustrating a three-dimensional eyeball model for a user's gaze.
도 2및 도 3c를 참조하면, 전자 장치(100)는 제1 시선 추적 센서(161)를 이용하여, 사용자의 왼쪽 눈의 시선 방향을 결정하고, 제2 시선 추적 센서(162)를 이용하여, 사용자의 오른쪽 눈의 시선 방향을 결정할 수 있다. 예를 들어, 전자 장치(100)는, 사람의 평균적인 안구 모델을 바탕으로 시선 방향을 결정할 수 있다. 안구 모델은 사람의 안구(3100)를 구 형상으로 가정하고, 시선 방향에 따라 안구가 이상적으로 회전 운동을 한다고 가정함으로써, 모델링될 수 있다. 또한, 안구 모델은, 다음의 수학식 1 및 2와 같이 수학적으로 표현될 수 있다. 2 and 3C, the
수학식 1 에서, d는 사용자의 눈의 중심(3150)과 가상의 스크린(3200) 사이의 거리를 나타내며, α는 사용자의 눈이 가상의 스크린(3200)을 정면으로 응시하는 경우를 기준으로, 사용자의 눈이 x축 방향으로 회전한 각도를 나타내며, β는 사용자의 눈이 가상의 스크린(3200)을 정면으로 응시하는 경우를 기준으로, 사용자의 눈이 y축 방향으로 회전한 각도를 나타낸다. 또한, 수학식 2에서, r은 사용자의 눈을 구로 가정했을 때, 구의 반지름을 나타낸다.In
일 실시예에 따른 제1 시선 추적 센서(161)는 도 3a 및 도 3b에서 설명한 방법을 이용하여, 사용자의 눈(예를 들어, 왼쪽 눈)의 회전 정도(예를 들어, α 및 β)를 측정할 수 있으며, 전자 장치(100)는, 사용자의 눈의 회전 정도(α 및 β)를 이용하여, 가상의 스크린 상에서의 사용자의 눈의 시선 방향의 2차원 좌표를 계산할 수 있다.The first
도 3d는 일 실시예에 따른 시선 추적 센서의 캘리브레이션을 수행하는 방법을 설명하기 위해 참조되는 도면이다.3D is a diagram referenced to explain a method of calibrating an eye tracking sensor according to an exemplary embodiment.
또 다른 예로, 사용자가 전자 장치(100)를 처음 사용할 때, 사용자의 왼쪽 눈과 오른쪽 눈의 시선을 정확하게 측정하기 위해 제1 시선 추적 센서(161) 및 제 2 시선 추적 센서(162)를 캘리브레이션(Calibration)하는 과정을 수행할 수 있다. 전자 장치(100)는 사용자의 시선을 유도하기 위한 복수의 점(일반적으로 9개)이 표시된 서로 다른 깊이(예를 들어, d1, d2, d3)를 가지는 가상의 영상들(VI1, VI2, VI3)을 출력하여, 복수의 점들 각각에 대해 사용자가 응시하는 것을 유도할 수 있다.As another example, when the user first uses the
전자 장치(100)는, 사용자가 가상의 영상들(VI1, VI2, VI3)에 포함되는 각각의 점을 응시할 때, 시선 추적 센서(160)에서 출력되는 정보(시선 정보)들을 테이블 형태로 미리 저장할 수 있다.When the user gazes at each point included in the virtual images VI1, VI2, VI3, the
도 3a에서 설명한 바와 같이, 사용자 각막에서 반사된 광량을 이용한 방식에서는 각각의 지점마다 스캐닝 미러의 반사 각도와 광량 정보를 시선 정보로서 테이블 형태로 미리 저장할 수 있고, 적외선 광을 이용하여 사용자 눈을 촬영하는 방식에서는 각각의 지점마다 촬영된 사용자 눈과 반사광이 포함된 영상을 시선 정보로서 연계하여 미리 저장할 수 있다.As described in Fig. 3A, in the method using the amount of light reflected from the user's cornea, the reflection angle and light amount information of the scanning mirror for each point can be stored in advance in the form of a table as gaze information, and the user's eyes are photographed using infrared light. In this method, an image including the user's eyes and reflected light photographed at each point may be linked and stored in advance as gaze information.
전자 장치(100)는, 미리 저장된 시선 정보와 시선 추적 센서에서 출력되는 시선 정보를 비교하여 사용자의 눈의 시선 방향을 결정할 수 있다. 전자 장치(100)는, 제 1 시선 추적 센서(161)에서 출력되는 시선 정보를 이용하여, 사용자의 왼쪽 눈의 시선 방향을 결정하고, 제 2 시선 추적 센서(162)에서 출력되는 시선 정보를 이용하여 사용자의 오른쪽 눈의 시선 방향을 결정할 수 있다.The
전자 장치(100)는, 사용자의 왼쪽 눈의 시선 방향 및 오른쪽 눈의 시선 방향과 양쪽 눈의 거리를 이용하여 도 2에 도시된 바와 같이, 전체 공간(10)에서 사용자가 응시하는 지점(210)의 좌표를 추정할 수 있다.The
예를 들어, 전자 장치(100)는 좌표 매핑 등을 이용하여, 도 1에서 설명한 전체 공간(10) 에서, 상기 사용자가 응시하는 지점(210)이 2차원 좌표 정보(예를 들어, x 좌표 값, y 좌표 값)로 매핑되도록 미리 설정되거나 테이블 형태로 미리 저장할 수 있다.For example, the
도 4a 및 4b는 일 실시예에 따른 전자 장치가 응시 지점에 대한 깊이 정보를 획득하는 방법을 설명하기 위한 도면들이다.4A and 4B are diagrams for describing a method of obtaining, by an electronic device, depth information on a gaze point, according to an exemplary embodiment.
도 4a를 참조하면, 전자 장치(100)는 오른쪽 눈의 시선 방향과 왼쪽 눈의 시선 방향이 수렴(vergence)되는 것(시선 방향을 가리키는 가상의 두 직선이 교차하는 것)을 이용하여, 사용자가 응시하는 지점에 대한 깊이 정보를 추정할 수 있다. Referring to FIG. 4A, the
예를 들어, 도 4b에 도시된 바와 같이, 왼쪽 눈에 대응하는 제1 시선 방향(410), 오른쪽 눈에 대응하는 제2 시선 방향(420) 및 양쪽 눈의 거리에 기초하여, 응시 지점(430, 양쪽 눈의 시선이 수렴하는 지점)까지의 거리 값(Z1)을 계산할 수 있다. 전자 장치(100)는, 시선 추적 센서(160)를 이용하여 측정된 양안의 시선 정보와 도 4b에 도시된 기하학적 배치에 따른 아래의 수학식 3을 이용하면 응시 지점에 대한 깊이 정보를 획득할 수 있다. For example, as shown in FIG. 4B, based on the
수학식 3에서 △x는 가상의 스크린(450) 상에서, 왼쪽 눈의 x 좌표(x1)와 오른쪽 눈의 x좌표(x2)의 차이를 나타낸다. 이때, 왼쪽 눈의 y좌표와 오른쪽 눈의 y좌표는 동일한 것으로 가정하여, 계산할 수 있다. 또한, 수학식 3에서 a는 사용자의 양 안 사이의 거리를 나타내며, 기 설정된 값(예를 들어, 7cm)이 이용될 수 있다. 또한, D는 사용자의 눈과 가상의 스크린(450)까지의 거리를 나타낸다.In
전자 장치(100)는 z 값과 D값의 합으로, 사용자의 양안의 시선이 수렴하는 지점까지의 거리 값(Z1)을 획득할 수 있다.The
또는, 전자 장치(100)는 제1 시선 방향(410)과 제2 시선 방향(420)이 이루는 각도에 기초하여, 응시 지점(430)에 대한 깊이 정보(예를 들어, Z1)를 추정할 수 있다. 제1 시선 방향(410)과 제2 시선 방향(420)이 이루는 각도가 작을수록 관심 지점(430)까지의 거리가 멀고, 제1 시선 방향(410)과 제2 시선 방향(420)이 이루는 각도가 클수록 관심 지점까지의 거리가 가깝다.Alternatively, the
도 5a 및 도 5b는 일 실시예에 따른 전자 장치가 사용자의 응시 지점에 기초하여, 깊이 센서의 측정 파라미터들을 결정하는 방법을 설명하기 위한 도면들이다.5A and 5B are diagrams for explaining a method of determining measurement parameters of a depth sensor based on a user's gaze point, according to an exemplary embodiment.
깊이 센서의 측정 파라미터는, 깊이 센서를 이용하여, 적어도 하나의 객체에 대한 깊이 정보를 획득하는 경우, 깊이 정보를 획득하는 데 필요한 변수로써, 깊이 센서에 미리 설정되어야 하는 수치 정보일 수 있다. 예를 들어, 깊이 센서의 측정 파라미터는, 광을 방출하기 위한 타겟 영역에 대한 파라미터, 반사광을 센싱하기 위한 반사광 센싱 영역에 대한 파라미터, 방출 광의 출력 패턴에 대한 파라미터, 방출 광의 출력 크기에 대한 파라미터, 반사광을 센싱하는 센싱 속도, 센싱 주기 또는 센싱 감도에 대한 파라미터 등을 포함할 수 있다.The measurement parameter of the depth sensor is a variable required to obtain depth information when depth information on at least one object is obtained using the depth sensor, and may be numerical information that must be set in advance in the depth sensor. For example, the measurement parameters of the depth sensor include a parameter for a target area for emitting light, a parameter for a reflected light sensing area for sensing reflected light, a parameter for an output pattern of emitted light, a parameter for an output size of emitted light, It may include a sensing speed for sensing reflected light, a sensing period, or a parameter for sensing sensitivity.
도 5a 및 도 5b를 참조하면, 일 실시예에 따른 전자 장치는, 시선 추적 센서(160), 프로세서(120) 및 깊이 센서(150)를 포함할 수 있다.5A and 5B, an electronic device according to an embodiment may include a
도 5a를 참조하면, 일 실시예에 따른 시선 추적 센서(160)는, 사용자의 시선 정보를 획득할 수 있다. 이에 대해서는 도 2 내지 3d에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.Referring to FIG. 5A, the
시선 추적 센서(160)는 사용자의 시선 정보를 프로세서(120)로 전송할 수 있으며, 프로세서(120)는 사용자의 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득할 수 있다.The
예를 들어, 프로세서(120)는 시선 정보에 포함된, 사용자의 왼쪽 눈에 대한 시선 방향(제1 시선 방향) 및 오른쪽 눈에 대한 시선 방향(제2 시선 방향)에 기초하여, 응시 지점의 2차원 위치 정보를 획득할 수 있다. 프로세서(120)는, 제1 시선 방향 및 제2 시선 방향을 이용하여, 사용자가 응시하는 지점(gaze point)에 대한 전체 공간에서의 2차원 좌표(예를 들어, x좌표 값 및 y 좌표 값)를 획득할 수 있다.For example, based on the gaze direction for the user's left eye (first gaze direction) and the gaze direction for the right eye (second gaze direction) included in the gaze information, the
프로세서(120)는 응시 지점의 2차원 위치 정보를 이용하여, 깊이 센서의 측정 파라미터를 결정할 수 있다. 예를 들어, 프로세서(120)는 응시 지점의 2차원 위치 정보를 이용하여, 타겟 영역에 대한 파라미터를 결정할 수 있다. 프로세서(120)는 응시 지점을 중심으로 기 설정된 관심 영역을 타겟 영역으로 결정할 수 있다. The
깊이 센서(150)는 결정된 타겟 영역에 대한 파라미터에 기초하여, 깊이 정보를 획득할 수 있다. 예를 들어, 광 방출부(170)는 광을 방출할 때, 광 방출 영역을 타겟 영역(응시 지점에 대응되는 영역)으로 한정하거나, 센서부(180)에서 반사광을 센싱할 때, 광 센싱 영역을 타겟 영역(응시 지점에 대응되는 영역)으로 한정할 수 있다. 이에 따라, 깊이 센서(150)는 전체 공간이 아닌 타겟 영역(응시 지점 및 응시 지점의 주변 영역)에 포함되는 객체들에 대한 깊이 정보를 획득할 수 있다. The
도 5b를 참조하면, 일 실시예에 따른 시선 추적 센서(160)는 사용자의 시선 정보를 획득할 수 있으며, 프로세서(120)로 시선 정보를 전송할 수 있다. 프로세서(120)는 사용자의 시선 정보에 기초하여, 응시 지점의 추정 깊이 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는 시선 정보에 포함된 사용자의 제1 시선 방향 및 제2 시선 방향에 기초하여, 응시 지점의 추정 깊이 정보(예를 들어, z 좌표 값)를 획득할 수 있다.Referring to FIG. 5B, the
일 실시예에 따른 프로세서(120)는 응시 지점의 추정 깊이 정보를 이용하여, 깊이 센서(150)의 방출 광 출력(예를 들어, 방출 광 출력 패턴, 방출 광 출력의 크기)에 대한 파라미터를 결정할 수 있다.The
예를 들어, 프로세서(120)는 추정 깊이가 작은 경우(거리가 가까운 경우), 광 방출부(170)에서 방출되는 광의 출력 패턴(광 펄스의 폭)을 짧게 하고, 추정 깊이가 큰 경우(거리가 먼 경우), 광 방출부(170)에서 방출되는 광의 출력 패턴(광 펄스의 폭)을 길게 하도록 깊이 센서(150)의 파라미터를 결정할 수 있다. 또한, 센서부(180)에서 반사광을 센싱할 때, 추정 깊이가 작은 경우, 센싱 속도 또는 센싱 주기를 빠르게 하고, 추정 깊이가 큰 경우, 센싱 속도 또는 센싱 주기를 느리게 하도록 깊이 센서(150)의 파라미터를 결정할 수 있다. 이에 따라, 깊이 센서(150)는 결정된 광의 출력 패턴(광 펄스의 폭)과 센싱 속도 또는 센싱 주기에 대한 파라미터에 기초하여, 관심 영역에 포함되는 객체들에 대한 깊이 정보를 획득할 수 있다. 이 때, 관심 영역은 응시 지점을 중심으로 한 미리 설정된 영역일 수 있다.For example, when the estimated depth is small (when the distance is close), the
또한, 프로세서(120)는 응시 지점의 추정 깊이가 작은 경우, 광 방출부(170)에서 방출되는 광의 출력을 작게 하고, 추정 깊이가 큰 경우, 광 방출부(170)에서 방출되는 광의 출력을 크게 하도록 깊이 센서(150)의 파라미터를 결정할 수 있다. 또한, 전자 장치(100)는 센서부(180)에서 반사광을 센싱할 때, 추정 깊이가 작은 경우, 감도를 낮게 하고, 추정 깊이가 큰 경우, 감도를 높게 하도록 깊이 센서(150)의 파라미터를 결정할 수 있다. 이에 따라, 깊이 센서(150)는 결정된 광의 출력의 크기와 센싱 감도를 고려하여, 관심 영역에 포함되는 객체들에 대한 깊이 정보를 획득할 수 있다. 이 때, 관심 영역은 응시 지점을 중심으로 한 미리 설정된 영역일 수 있다.In addition, when the estimated depth of the gaze point is small, the
이하에서는, 응시 지점에 대한 정보(응시 지점의 2차원 위치 정보, 응시 지점의 추정 깊이 정보)에 기초하여, 깊이 센서의 측정 파라미터들이 결정되는 예들을 깊이 센서의 종류에 따라, 구체적으로 설명하기로 한다.Hereinafter, examples in which measurement parameters of the depth sensor are determined based on information on the gaze point (two-dimensional position information of the gaze point, and estimated depth information of the gaze point) will be described in detail according to the type of the depth sensor. do.
도 6 내지 도 7b는 일 실시예에 따른 깊이 센서가 TOF방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면들이다.6 to 7B are diagrams referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when a depth sensor according to an exemplary embodiment is a TOF method.
일 실시예에 따른 깊이 센서(150)는 TOF 방식의 깊이 센서(610)를 포함할 수 있다. The
TOF 방식은, 광이 물체에 반사되어 돌아오는 시간을 분석하여, 물체(620)까지의 거리(d)를 측정하는 방식이다. TOF 방식의 깊이 센서(610)는, 광 방출부(630, emitter)와 센서부(640)를 포함할 수 있다. The TOF method is a method of measuring the distance d to the
광 방출부(630)는 센서부(640)를 둘러싸는 형태로 배치될 수 있으나, 이에 한정되지 않으며, 센서부(640)가 광 방출부(630)를 둘러싸는 형태로 배치될 수도 있다.The
광 방출부(630)는, 소정의 파장을 가지는 광을 발생시키는 광원을 포함할 수 있으며, 광원은, 사람의 눈에 보이지 않는 적외선 파장을 갖는 광을 방출시킬 수 있는 적외선 발광 다이오드(IR LED) 또는 레이저 다이오드(LD)일 수 있다. 다만, 이에 한정되지 않으며, 파장의 대역과 광원의 종류는 다양하게 구성될 수 있다. 광 방출부(630)는 제어 신호에 따라 광원을 구동시킴으로써, 물체에 광을 방출할 수 있다. 예를 들어, 광원의 온(On)/오프(0ff)를 반복함으로써, 물체(620)에 광을 방출할 수 있다.The
센서부(640)는 물체(620)로부터 반사되어 돌아오는 반사광을 센싱할 수 있다. 예를 들어, 센서부(640)는 PPD(Pinned Photo Diode), Photogate, CCD(Charge Coupled Device) 등과 같이 광 센싱 소자를 포함할 수 있다. 센서부(640)는 어레이로 배열된 복수의 센서들을 포함할 수 있으며, 어레이에 포함된 하나의 셀(650)은 인 페이즈 리셉터(651, in phase receptor)와 아웃 페이즈 리셉터(652, out phase receptor)가 하나의 쌍을 이루는 형태로 구성될 수 있다. 이때, 인 페이즈 리셉터(651)는 인 페이즈 상태(광 방출부에서 광을 방출하는 동안)일 때만 활성화되어 광을 감지하고, 아웃 페이즈 리셉터(652)는 아웃 페이즈 상태(광 방출부에서 광을 방출하지 않는 동안)일 때만 활성화되어 광을 감지할 수 있다.The
도 7a은는 광 방출부에서 방출되는 광, 반사광, 인 페이즈 리셉터에서 수신되는 광, 아웃 페이즈 리셉터에서 수신되는 광을 나타내는 그래프이다.7A is a graph showing light emitted from a light emitting unit, reflected light, light received from an in-phase receptor, and light received from an out-phase receptor.
광 방출부(630)에서 방출된 광은 깊이 센서(610)로부터 일정 거리(d)만큼 떨어져 있는 물체(620)에 반사되어 되돌아오게 되고, 반사광(720)은 방출된 광(710)보다 일정 거리만큼 시간 지연이 발생하게 된다. 예를 들어, 광 방출부(630)에서 광을 방출할 때만 활성화되는 인 페이즈 리셉터의 동작 구간 중 일정 구간 동안은 광을 수신하지 못하며, 반대로 아웃 페이즈 리셉터의 동작 구간 중 일정 구간 동안은 반사되는 광을 수신할 수 있다. 또한, 인 페이즈 리셉터 및 아웃 페이즈 리셉터는 수신되는 광의 양을 측정할 수 있다. 예를 들어, 인 페이즈 리셉터 및 아웃 페이즈 리셉터는 물체로부터 반사되는 광을 수신하여, 전자를 생성하고, 축적함으로써, 축적된 전자의 양(전하량)을 측정할 수 있다. 물체(620)까지의 거리 d는 다음의 수학식 4와 같이 계산될 수 있다.The light emitted from the
이때, c는 광 속도를 의미하고, t는 광 펄스(710)의 길이를 나타내며, q1은 광이 방출될 때, 축적된 전하량(인 페이즈 리셉터에서 측정된 전하량)을 의미하고, q2는 광이 방출되지 않을 때, 축적된 전하량(아웃 페이즈 리셉터에서 측정된 전하량)을 의미한다. 즉, 거리가 멀수록, 반사되는 광을 수신하기 시작하는 시점이 늦어지며, 이에 따라, 상대적으로 q2가 q1에 비하여 증가하게 된다. 따라서, TOF 방식의 깊이 센서(610)는, 수학식 4를 이용하여, 깊이 정보를 계산할 수 있다.At this time, c denotes the speed of light, t denotes the length of the
한편, 일 실시예에 따른 전자 장치(100)는 사용자의 시선 정보를 이용하여, 전체 공간 중 응시 지점을 결정할 수 있다. 전자 장치(100)는 시선 추적 센서(160)를 이용하여, 사용자의 시선 정보를 획득하고, 사용자의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보를 획득할 수 있다.Meanwhile, the
일 실시예에 따른 전자 장치(100)는 응시 지점의 2차원 위치 정보에 기초하여, 광 방출부(630)와 센서부(640)를 제어할 수 있다. The
다시, 도 6을 참조하면, 일 실시예에 따른, 광 방출부(630)는 복수의 영역들로 분할될 수 있으며, 전자 장치(100)는 영역 별로 광원들을 구동시킬 수 있다. 전자 장치(100)는 복수의 영역들 중, 응시 지점의 2차원 위치 정보에 대응하는 영역에 포함된 광원들을 구동시킬 수 있다. 예를 들어, 광 방출부(630)가 4개의 영역들(A1, A2, A3, A4)로 분할되는 경우, 전자 장치(100)는 응시 지점의 2차원 위치 정보에 대응하는 제1 영역(A1)에 포함되는 광원들을 구동시키고, 나머지 제2 영역 내지 제4 영역들(A2, A3, A4)에 포함되는 광원들은 구동시키지 않을 수 있다. Referring again to FIG. 6, according to an exemplary embodiment, the
이에 따라, 광원의 구동에 따른 전력 소모를 감소시킬 수 있다. 또한, 센서부(640)도 복수의 영역들로 분할될 수 있으며, 전자 장치(100)는 복수의 영역들 중 응시 지점의 2차원 위치 정보에 대응하는 영역에 포함된 센서들만을 구동시킬 수 있다. 예를 들어, 센서부(640)가 4개의 영역들(B1, B2, B3, B4)로 분할되는 경우, 전자 장치(100)는 응시 지점의 2차원 위치 정보에 대응하는 제1 영역(B1)에 포함되는 센서들만을 구동시켜, 신호를 센싱할 수 있다. 이에 따라, 깊이 정보 연산에 따른 전력 소모를 감소시킬 수 있다.Accordingly, power consumption due to driving of the light source can be reduced. In addition, the
일 실시예에 따른 전자 장치(100)는 응시 지점의 2차원 위치 정보에 기초하여, 깊이 센서에 포함되는 광 방출부(630)에서 응시 지점의 2차원 위치 정보에 대응하는 영역의 광원만을 구동시키고, 센서부(640)에서 응시 지점의 2차원 위치 정보에 대응하는 영역에 포함되는 센서들만을 구동시켜 신호를 센싱하고, 깊이 정보를 계산할 수 있다.The
또한, 일 실시예에 따른 전자 장치(100)는 응시 지점의 추정 깊이 정보에 기초하여, 방출되는 광 펄스(710)의 길이, 크기 등을 최적화된 파라미터들로 결정할 수 있다. 예를 들어, 전자 장치(100)는 응시 지점의 추정 깊이 정보에 기초하여, 광 펄스(710)의 길이, 크기(광의 출력) 등을 결정할 수 있다. 예를 들어, 전자 장치(100)는, 추정 깊이가 작은 경우(거리가 가까운 경우), 광 방출부(630)에서 투사하는 광 펄스(710)의 길이(광의 파장)를 짧게 하고, 광 펄스(710)의 출력을 작게 할 수 있다. 또한, 추정 깊이가 큰 경우(거리가 먼 경우), 광 방출부(630)에서 투사하는 광 펄스(710)의 길이(광의 파장)을 길게 하고, 광 펄스(710)의 출력을 크게 할 수 있다. In addition, the
또한, 센서부(830)에서 반사광 펄스를 센싱할 때, 추정 깊이가 작은 경우, 센싱 속도를 빠르게 할 수 있으며, 센싱 감도를 낮게 할 수 있다. 또한, 추정 깊이가 큰 경우, 센싱 속도를 느리게 할 수 있으며, 센싱 감도를 높게 할 수 있다. 이와 같이, 깊이 센서의 측정 파라미터들이 응시 지점에 최적화된 파라미터들로 결정됨에 따라, 응시 지점에 대한 깊이 정보의 정확도가 향상될 수 있다.In addition, when the
또한, 전자 장치(100)는 전체 공간에 대한 깊이 정보를 계산하지 않고, 관심 영역에 대해서만, 깊이 정보를 계산할 수 있다. 이에 따라, 깊이 정보를 연산하는 속도가 빨라지고, 전력 소모가 감소할 수 있다.Also, the
또한, 일 실시예에 따른 전자 장치(100)는 깊이 센서에서 계산된 깊이 정보(실제 깊이 정보)에 기초하여, 깊이 센서의 측정 파라미터들을 다시 최적화할 수 있으며, 다시 최적화된 측정 파라미터들을 이용하여, 깊이 센싱을 수행할 수 있다. 이에 따라, 깊이 정보의 정확도가 더욱 향상될 수 있다.In addition, the
도 7b는 일 실시예에 따른 전자 장치가 매칭 테이블을 이용하여, 깊이 센서의 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면이다.7B is a diagram referenced to explain a method of determining measurement parameters of a depth sensor by using a matching table by an electronic device according to an exemplary embodiment.
도 7b에 도시된 매칭 테이블(750)은, 사용자의 시선 정보와 깊이 센서의 측정 파라미터를 서로 대응시키는 테이블이며, 일 실시예에 따른 전자 장치(100)에 기 저장될 수 있다. 일 실시예에 따른 전자 장치(100)는 매칭 테이블(750)을 이용하여, 도 6의 광 방출부(630) 및 센서부(640)를 제어할 수 있다.The matching table 750 illustrated in FIG. 7B is a table that correlates the user's gaze information and a measurement parameter of the depth sensor, and may be pre-stored in the
전자 장치(100)는 시선 추적 센서로부터 획득한 사용자의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보(x좌표, y 좌표) 및 추정 깊이 정보(z 좌표)를 획득하고, 매칭 테이블(750)을 이용하여, 획득된 2차원 위치 정보 및 추정 깊이 정보에 대응되는 측정 파라미터를 결정할 수 있다.The
예를 들어, 응시 지점의 2차원 위치 정보가 (3, 4)이고, 추정 깊이 정보 z값이 3인 경우, 전자 장치(100)는 광 방출부(630)의 제1 영역(A1)에 포함된 광원들을 구동시키고, 나머지 제2 영역 내지 제4 영역들(A2, A3, A4)에 포함되는 광원들은 구동시키지 않을 수 있다. 또한, 전자 장치(100)는 센서부(640)의 제1 영역(B1)에 포함되는 센서들만을 구동시켜, 신호를 센싱할 수 있다. 또한, 전자 장치(100)는 광 방출부(630)에서 출력되는 광 펄스(710) 크기를 2로, 광 펄스(710) 주기를 2ms로, 광 펄스(710) 듀티 사이클(duty cycle)을 10%가 되도록 광 방출부(630)를 제어할 수 있다. For example, when the two-dimensional position information of the gaze point is (3, 4) and the estimated depth information z value is 3, the
또는, 응시 지점의 2차원 위치 정보가 (-2, -5)이고, 추정 깊이 정보 z값이 5인 경우, 전자 장치(100)는 광 방출부(630)의 제3 영역(A3)에 포함된 광원들을 구동시키고, 나머지 제1 영역, 제2 영역, 및 제4 영역(A1, A2, A4)에 포함되는 광원들은 구동시키지 않을 수 있다. 또한, 전자 장치(100)는 센서부(640)의 제3 영역(B3)에 포함되는 센서들만을 구동시켜, 신호를 센싱할 수 있다. 또한, 전자 장치(100)는 광 방출부(630)에서 출력되는 광 펄스(710) 크기를 2로, 광 펄스(710) 주기를 2ms로, 광 펄스(710) 듀티 사이클을 20%가 되도록 광 방출부(630)를 제어할 수 있다.Alternatively, when the 2D location information of the gaze point is (-2, -5) and the estimated depth information z value is 5, the
일 실시예에 다른 전자 장치(100)는 시선 추적 센서(160)로부터 획득한 사용자의 시선 정보(응시 지점의 2차원 위치 정보 및 추정 깊이 정보)에 기초하여, 실시간으로 깊이 센서의 측정 파라미터(예를 들어, 타겟 영역에 대한 파라미터, 방출광 출력에 대한 파라미터, 반사광 센싱에 대한 파라미터 등)를 계산할 수 있다. 이때, 전자 장치(100)는 기 설정된 수학식이나 알고리즘을 이용하여, 깊이 센서의 측정 파라미터를 계산할 수 있다.According to the
전자 장치(100)는 실시간으로 계산된 측정 파라미터를 이용하여, 깊이 센서의 광 방출부(630) 및 센서부(640)를 제어할 수 있다.The
한편, 일 실시예에 따른 전자 장치(100)는 외부 장치와 유, 무선 통신(예를 들어, Wi-Fi, 블루투스, 지그비, 적외선 등)을 수행할 수 있다. 전자 장치(100)는 시선 추적 센서(160)로부터 획득한 사용자의 시선 정보(응시 지점의 2차원 위치 정보 및 추정 깊이 정보)를 외부 장치로 전송할 수 있다.Meanwhile, the
예를 들어, 도 7b의 매칭 테이블(750)은, 전자 장치(100)와 유, 무선 통신을 통하여 연결된 외부 장치에 저장될 수 있다. 외부 장치는 전자 장치(100)로부터 수신한 시선 정보 및 매칭 테이블(750)에 기초하여, 깊이 센서의 측정 파라미터(예를 들어, 타겟 영역에 대한 파라미터, 방출광 출력에 대한 파라미터, 반사광 센싱에 대한 파라미터 등)를 결정할 수 있다.For example, the matching table 750 of FIG. 7B may be stored in an external device connected to the
또는, 외부 장치는 전자 장치(100)로부터 수신한 시선 정보에 기초하여, 실시간으로 깊이 센서의 측정 파라미터(예를 들어, 타겟 영역에 대한 파라미터, 방출광 출력에 대한 파라미터, 반사광 센싱에 대한 파라미터 등)를 계산할 수 있다. 이때, 외부 장치는 기 설정된 수학식이나 알고리즘을 이용하여, 측정 파라미터를 계산할 수 있다.Alternatively, the external device may measure parameters of the depth sensor in real time based on the gaze information received from the electronic device 100 (e.g., a parameter for a target area, a parameter for emission light output, a parameter for reflected light sensing, etc.) ) Can be calculated. In this case, the external device may calculate the measurement parameter using a preset equation or algorithm.
외부 장치는 깊이 센서의 측정 파라미터를 전자 장치(100)로 전송할 수 있으며, 전자 장치(100)는 수신된 깊이 센서의 측정 파라미터를 이용하여, 깊이 센서의 광 방출부(630) 및 센서부(640)를 제어할 수 있다. 다만, 이에 한정되지 않는다.The external device may transmit the measurement parameter of the depth sensor to the
도 8 및 도 9는 일 실시예에 따른 깊이 센서가 구조화된 광(SL)방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면들이다.8 and 9 are diagrams referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when a depth sensor according to an exemplary embodiment is a structured light (SL) method.
일 실시예에 따른 깊이 센서(150)는 구조화된 광(SL) 방식의 깊이 센서를 포함할 수 있다. 구조화된 광 방식은, 패턴을 가진 광을 물체(830)에 비추고, 물체(830) 표면에 맺힌 패턴의 형상 및 위치를 분석하여, 물체(830)까지의 거리(깊이 정보)를 측정하는 방식이다. SL 방식의 깊이 센서는 일반적으로 직선형 무늬나 점 패턴을 가지는 광을 물체(830)에 투사하게 되며, 물체(830)의 굴곡에 따라 물체에 맺힌 광의 무늬나 패턴이 달라지게 된다. 구조화된 광 방식은, 광 프로젝터(810)와 카메라(820)를 포함할 수 있으며, 스테레오 이미지 방식의 깊이 센서에 사용된 2개의 카메라 중의 하나를 광 프로젝터(810)로 교체한 구조로 볼 수 있다. 일반적으로 광 프로젝터(810)에서 투사되는 광의 경로 상에 고정된 패턴이 있는 필름 또는 패턴 형태를 변경할 수 있는 액정 필름이 배치되고, 광이 필름을 통과함으로써 광의 무늬나 패턴이 달라지게 된다. 예를 들어, SL 방식의 깊이 센서는, 광 프로젝터(810)로 투사한 광이 물체(830) 표면에 맺혀서 생긴 패턴의 형상 및 위치를 알고리즘으로 분석하여, 깊이 정보를 계산할 수 있다.The
한편, 일 실시예에 따른 전자 장치(100)는 사용자의 시선 정보를 이용하여, 전체 공간 중 응시 지점을 결정할 수 있다. 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 시선 정보를 획득하고, 사용자의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보를 획득할 수 있다. 일 실시예에 따른 전자 장치(100)는 응시 지점의 2차원 위치 정보에 기초하여, 광 프로젝터(810)와 카메라(820)를 제어할 수 있다.Meanwhile, the
일 실시예에 따른 전자 장치(100)는 광 프로젝터(810)가 광을 응시 지점의 2차원 위치 정보에 대응하는 영역에만 투사하도록 제어할 수 있다. 예를 들어, 광 프로젝터(810)는 액정 필름의 패턴을 변경하여 응시 지점의 2차원 위치 정보에 대응하는 제2 영역(C2)을 통과하도록, 광을 투사하고, 제1 영역, 제3 영역 및 제4 영역들(C1, C3, C4)을 통과하는 광은 투사하지 않을 수 있다. 이에 따라, 광원의 구동에 따른 전력 소모를 감소시킬 수 있다.The
또한, 카메라(820)도 복수의 영역들(D1, D2, D3, D4)로 분할될 수 있으며, 전자 장치(100)는 복수의 영역들(D1, D2, D3, D4) 중 응시 지점의 2차원 위치 정보에 대응하는 영역에서 획득된 영상 신호들만을 이용하여, 깊이 정보를 계산할 수 있다.In addition, the
예를 들어, 도 9에 도시된 제1 영상(910)은, 실제 공간에 전체적으로 고정된 패턴을 가지는 광이 투사되는 것을 나타내는 영상이다. 카메라(820)는 투사된 광이 물체 표면에 맺혀서 생긴 패턴을 촬영할 수 있다. 예를 들어, 도 9에 도시된 제2 영상(920)은, 실제 공간 전체에 투사된 광에 의해 생성된 패턴을 촬영한 영상이다. 전자 장치(100)는 제2 영상(920)을 분석함으로써, 실제 공간에 대한 깊이 정보를 계산할 수 있다.For example, the
일 실시예에 따른 전자 장치(100)는 사용자의 양안의 시선 정보를 이용하여, 전체 공간 중 응시 지점을 결정할 수 있다. 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 양안의 시선 정보를 획득하고, 사용자의 양안의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보를 획득할 수 있다. The
일 실시예에 따른 전자 장치(100)는 사용자의 양안의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보가 획득되면, 응시 지점의 2차원 위치 정보에 기초하여, 고정된 패턴을 가지는 광을 관심 영역에만 투사할 수 있다. 전자 장치(100)는, 사용자의 양안의 시선이 향하는 응시 지점을 중심으로 기 설정된 영역을 관심 영역으로 결정할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 광 프로젝터는 고정된 패턴을 가지는 광을 자동차의 뒤 부분(915, 관심 영역)에만 투사하고 카메라는 광이 투사된 관심 영역(915)을 촬영한 제3 영상(930)을 획득할 수 있다. The
이에 따라, 전자 장치(100)는 전체 공간에 대한 깊이 정보를 계산하지 않고, 관심 영역에 대해서만, 깊이 정보를 계산함으로써 깊이 정보를 연산하는 속도가 빨라지고, 전력 소모가 감소할 수 있다.Accordingly, the
도 10은 일 실시예에 따른 깊이 센서가 스테레오 이미지(SI) 방식인 경우에, 일 실시예에 따른 전자 장치가 측정 파라미터들을 결정하는 방법을 설명하기 위해 참조되는 도면이다.FIG. 10 is a diagram referenced for explaining a method of determining measurement parameters by an electronic device according to an exemplary embodiment when the depth sensor according to an exemplary embodiment is a stereo image (SI) method.
일 실시예에 따른 깊이 센서(150)는 스테레오 이미지(SI) 방식의 깊이 센서를 포함할 수 있다. 스테레오 이미지 방식은, 2개의 카메라를 이용하여, 물체의 입체감을 촬영하는 방식을 의미한다. 이 경우, 깊이 센서는 2개의 카메라를 포함할 수 있다. 깊이 센서는 각각의 카메라가 바라보는 영상의 차이 정보를 이용하여, 삼각측량의 원리에 기반하여, 특정 객체에 대한 깊이 정보(거리)를 계산할 수 있다. 사람은 왼쪽 눈과 오른쪽 눈에 들어오는 영상의 차이를 통해 입체감을 느끼게 되며, 깊이 센서는 사람의 눈이 입체감을 느끼는 원리와 비슷한 방식으로 거리를 측정하게 된다. 예를 들어, 깊이가 작으면(거리가 가까우면), 2대의 카메라에서 촬영된 영상의 차이가 크고, 깊이가 크면(거리가 멀면), 2대의 카메라에서 촬영된 영상의 차이가 적다.The
스테레오 이미지 방식의 경우, 실시간으로 2개의 영상을 동시에 처리해야 하므로, 프로세서의 빠른 처리 능력이 필요하며, 하드웨어적인 처리가 필요하다. 따라서, 소형 기기의 프로세서만으로는 스테레오 이미지 방식의 실시간 처리를 하기에는 어려움이 있다.In the case of the stereo image method, since two images must be simultaneously processed in real time, a fast processing power of the processor is required, and hardware processing is required. Therefore, it is difficult to perform real-time processing of a stereo image method with only a processor of a small device.
일 실시예에 따른 SI 방식의 깊이 센서는, 는 제1 카메라와 제2 카메라를 포함할 수 있으며, 이때, 제1 카메라와 제2 카메라는 서로 다른 위치에서 서로 다른 방향으로 실제 공간을 촬영할 수 있다. 예를 들어, 제1 카메라는 제1 위치에서 제1 방향으로 실제 공간을 촬영하여, 제1 영상(1010)을 획득할 수 있으며, 제2 카메라는 제2 위치에서 제2 방향으로 실제 공간을 촬영하여, 제2 영상(1020)을 획득할 수 있다. 이때, 제1 영상(1010)과 제2 영상(1020)의 차이 영상을 이용하면, 실제 공간 전체에 대한 깊이 정보가 획득될 수 있다.The SI type depth sensor according to an embodiment may include a first camera and a second camera, and in this case, the first camera and the second camera may photograph an actual space in different directions from different locations. . For example, a first camera may capture a real space from a first location in a first direction to obtain a
한편, 일 실시예에 따른 전자 장치(100)는 사용자의 양안의 시선 정보를 이용하여, 전체 공간 중 관심 영역을 결정할 수 있다. 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 양안의 시선 정보를 획득하고, 사용자의 양안의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치 사용자의 응시 지점이 제1 지점인 경우, 전자 장치(100)는 제1 지점을 중심으로 기 설정된 영역을 관심 영역으로 결정할 수 있다. 도 10의 제1 영역(1015)은, 제1 영상(1010) 중 관심 영역에 대응하는 영역을 나타내고, 제2 영역(1025)은 제2 영상 중 관심 영역에 대응하는 영역을 나타낸다. 따라서, 전자 장치(100)는 제1 영역(1015)에 대한 영상과 제2 영역(1025)에 대한 영상들(1030, 1040)의 차이 영상만 계산하여, 관심 영역에 대한 깊이 정보를 계산할 수 있다.Meanwhile, the
일 실시예에 따른 전자 장치(100)는 사용자의 양안의 시선 정보에 기초하여, 응시 지점의 2차원 위치 정보가 획득되면, 응시 지점의 2차원 위치 정보에 기초하여, 촬영된 제1 영상 및 제2 영상에서 관심 영역을 결정하고, 관심 영역에 대해서만, 깊이 정보를 계산할 수 있다. 또는, 전자 장치(100)는 줌(Zoom) 기능을 이용하여 관심 영역을 확대 촬영하여, 관심 영역에 대한 영상들(1030, 1040)을 획득하고, 관심 영역에 대해서만 깊이 정보를 계산할 수 있다. 이에 따라, 깊이 정보의 연산 속도가 빨라지고, 전력 소모는 감소할 수 있다.According to an embodiment, when the 2D location information of the gaze point is obtained based on gaze information of both eyes of the user, the
도 11은 일 실시예에 따른 전자 장치가 가상 객체를 표시하는 방법을 설명하기 위한 도면이다.11 is a diagram for describing a method of displaying a virtual object by an electronic device according to an exemplary embodiment.
도 11를 참조하면, 일 실시예에 따른 전자 장치(100)는, 획득된 응시 지점의 깊이 정보에 기초하여, 가상 객체를 디스플레이에 표시할 수 있다. 예를 들어, 전자 장치(100)는 증강 현실(AR) 형태로 가상의 객체를 표시할 수 있다. 증강 현실 형태로 가상 객체를 표시하는 경우, 전자 장치(100)는 디스플레이를 통하여 관측되는 실제 공간(1110, 현실 세계의 2차원 또는 3차원 공간)에 가상 객체가 오버랩되도록, 디스플레이에 가상 객체를 표시할 수 있다.Referring to FIG. 11, the
예를 들어, 일 실시예에 따른 전자 장치(100)는 응시 지점 주변 영역(예를 들어, 책상 주변 영역)의 깊이 정보를 획득하고, 가상 객체(1120, 예를 들어, 꽃병)에 획득된 깊이 정보와 유사한 깊이를 부여하여 책상 주변 영역에 위치하는 것처럼 사용자가 인식하도록 디스플레이에 표시할 수 있다.For example, the
도 12는 일 실시예에 따른 전자 장치의 동작방법을 나타내는 흐름도이다.12 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
도 12를 참조하면, 일 실시예에 따른 전자 장치(100)는 사용자 양안의 시선 정보를 획득할 수 있다(S1210).Referring to FIG. 12, the
일 실시예에 따른 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 눈(왼쪽 눈, 오른쪽 눈)에 광을 제공하고, 사용자의 눈으로부터 반사된 광량을 감지할 수 있다. 전자 장치(100)는 감지된 광량에 기초하여, 사용자의 양안의 시선 방향을 결정할 수 있다. The
또는, 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 눈에 광을 제공하고, 사용자의 눈을 촬영할 수 있다. 또한, 전자 장치(100)는 촬영된 사용자의 눈 영상에 기초하여, 사용자의 양안의 시선 방향을 결정할 수 있다.Alternatively, the
일 실시예에 따른 전자 장치(100)는 시선 정보에 기초하여, 응시 지점을 획득할 수 있다(S1220).The
전자 장치(100)는 사용자의 오른쪽 눈의 시선 방향과 왼쪽 눈의 시선 방향에 기초하여, 사용자가 응시하는 지점에 대한 2차원 좌표 정보(x좌표 값 및 y좌표 값)를 획득할 수 있다. 또한, 사용자의 오른쪽 눈의 시선 방향과 왼쪽 눈의 시선 방향에 기초하여, 사용자가 응시하는 지점까지의 거리(z 좌표 값)를 추정할 수 있다. 이에 따라, 전자 장치(100)는 응시 지점의 2차원 위치 정보 및 추정 깊이 정보를 획득할 수 있다.The
일 실시예에 따른 전자 장치(100)는 응시 지점에 대한 정보에 기초하여, 깊이 센서의 측정 파라미터를 결정할 수 있다(S1230).The
깊이 센서의 측정 파라미터는, 타겟 영역에 대한 파라미터, 방출 광 출력(방출 광 출력 패턴, 방출 광 출력 크기)에 대한 파라미터, 및 반사광 센싱에 대한 파라미터 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자 장치(100)는 응시 지점의 2차원 위치 정보를 이용하여, 타겟 영역에 대한 파라미터를 결정할 수 있으며, 응시 지점의 추정 깊이 정보를 이용하여, 방출 광 출력(방출 광 출력 패턴, 방출 광 출력 크기)에 대한 파라미터, 및 반사광 센싱에 대한 파라미터를 결정할 수 있다. 이에 대해서는 도 5a 내지 10에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.The measurement parameter of the depth sensor may include at least one of a parameter for a target area, a parameter for an emission light output (emission light output pattern, an emission light output size), and a parameter for reflected light sensing. For example, the
일 실시예에 따른 전자 장치(100)는 결정된 측정 파라미터에 기초하여, 응시 지점을 중심으로 기 설정된 관심 영역에 포함된 적어도 하나의 객체에 대한 깊이 정보를 획득할 수 있다.The
도 13은 일 실시예에 따른 전자 장치가 깊이 정보를 획득하는 방법을 설명하기 위한 도면이다.13 is a diagram for describing a method of obtaining depth information by an electronic device according to an exemplary embodiment.
일 실시예에 따른 깊이 센서는 적어도 하나의 카메라를 포함할 수 있으며, 깊이 센서에 포함되는 카메라의 FOV(Field of veiw)에 포함되는 실제 공간(1310)에 대한 깊이 정보를 획득할 수 있다. 이하에서는, 깊이 센서에 의해 센싱될 수 있는 범위의 공간을 ‘전체 공간’이라고 지칭하기로 한다.The depth sensor according to an exemplary embodiment may include at least one camera, and may obtain depth information on an
일 실시예에 따른, 전자 장치(100)는 도 13에 도시된 바와 같이, 전체 공간(1310) 중 관심 영역(1320)을 결정할 수 있다.According to an embodiment, as illustrated in FIG. 13, the
예를 들어, 전자 장치(100)는 도 2 내지 3d에서 설명한 바와 같이, 시선 추적 센서를 이용하여, 사용자의 양안의 시선 정보를 획득하고, 사용자의 양안의 시선 정보에 기초하여, 사용자의 응시 지점을 획득할 수 있다. 또한, 획득된 응시 지점에 기초하여 응시 지점을 중심으로 기 설정된 영역을 관심 영역을 결정할 수 있다. 또는, 전자 장치(100)는 전체 공간(1310)에 대한 영상을 획득하고, 객체 인식 기술 이용하여, 결정된 관심 영역 내의 주요 객체(예를 들어, 사람, 얼굴, 손 등)를 인식함으로써, 응시 지점을 중심으로 기 설정된 영역이 아닌, 인식된 주요 객체를 관심 영역으로 결정할 수 있다. For example, as described in FIGS. 2 to 3D, the
전자 장치(100)는 관심 영역(1320)이 결정되면, 관심 영역(1320)과 관심 영역을 제외한 나머지 공간에 대해서, 서로 다른 측정 파라미터를 이용하여, 깊이 정보를 획득할 수 있다.When the
예를 들어, 전자 장치(100)는 깊이 센서의 측정 파라미터를 제1 파라미터로 설정하여, 관심 영역에 대한 깊이 정보(1330)를 획득할 수 있다. 이때, 전자 장치(100)는 응시 지점의 정보에 기초하여, 제1 파라미터를 설정할 수 있다. 예를 들어, 전자 장치(100)는 응시 지점의 2차원 위치 정보에 기초하여, 응시 지점을 중심으로 기 설정된 영역을 관심 영역으로 설정하고 설정된 관심 영역에 대응되도록 광을 방출하는 영역, 광을 센싱하는 영역 등을 설정할 수 있다. 또한, 전자 장치(100)는 응시 지점의 추정 깊이 정보에 기초하여, 방출하는 광의 패턴이나 광 출력 등을 설정할 수 있다. For example, the
예를 들어, 깊이 센서가 TOF 방식의 깊이 센서인 경우, 센서부는, 관심 영역에 대응하는 신호들에 대하여, 샘플링율을 크게 또는 샘플링 주기를 작게 하여 센싱하고, 나머지 영역에 대응하는 신호들은 센싱하지 않음으로써, 관심 영역에 대한 깊이 정보를 고해상도로 획득할 수 있다.For example, when the depth sensor is a TOF type depth sensor, the sensor unit senses signals corresponding to the region of interest by increasing the sampling rate or decreasing the sampling period, and does not sense signals corresponding to the remaining regions. By not doing so, it is possible to obtain depth information on the region of interest in high resolution.
또한, 전자 장치(100)는 깊이 센서의 측정 파라미터를 제2 파라미터로 설정하여, 관심 영역을 제외한 나머지 영역에 대한 깊이 정보(1340)를 획득할 수 있다. 예를 들어, 깊이 센서가 TOF 방식의 깊이 센서인 경우, 센서부는, 나머지 영역에 대응하는 신호들에 대하여, 샘플링율을 낮게 또는 샘플링 주기를 크게 하여 센싱하고, 관심 영역에 대응하는 신호들은 센싱하지 않음으로써, 나머지 영역에 대한 깊이 정보를 저해상도로 획득할 수 있다.In addition, the
또는, 관심 영역을 포함하는 전체 공간에 대한 깊이 정보를 저해상도로 획득할 수도 있다. Alternatively, depth information on the entire space including the region of interest may be obtained at a low resolution.
이에 따라, 전자 장치(100)는 관심 영역에 대해서는, 정확도가 높은 깊이 정보(고해상도 깊이 정보)를 획득하면서, 나머지 영역(응시 지점 주변 영역)에 대한 대략적인 깊이 정보(저해상도 깊이 정보)도 함께 획득할 수 있다.Accordingly, the
도 14는 일 실시예에 따른 전자 장치가 깊이 정보를 획득하는 방법을 나타내는 흐름도이다.14 is a flowchart illustrating a method of obtaining depth information by an electronic device according to an exemplary embodiment.
도 14를 참조하면, 일 실시예에 따른 전자 장치는, 전체 공간 중 관심 영역을 결정할 수 있다(S1410). 관심 영역을 결정하는 방법에 대해서는, 도 13에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.Referring to FIG. 14, the electronic device according to an embodiment may determine an ROI from among the entire space (S1410 ). Since the method of determining the region of interest has been described in detail in FIG. 13, a detailed description will be omitted.
전자 장치(100)는 깊이 센서의 측정 파라미터를 제1 파라미터 세트로 설정하여, 전체 공간에 대한 깊이 정보를 획득할 수 있다(S1420).The
예를 들어, 전자 장치(100)는 전체 공간에 대한 저해상도 깊이 정보를 획득할 수 있다.For example, the
전자 장치(100)는 전체 공간에 대한 깊이 정보에 기초하여, 관심 영역에 대한 제1 깊이 정보를 획득할 수 있다(S1430). The
예를 들어, 전체 공간에 대한 깊이 정보에 포함된, 관심 영역에 대한 깊이 정보를 제1 깊이 정보로 결정할 수 있다.For example, depth information on an ROI, included in depth information on the entire space, may be determined as the first depth information.
전자 장치(100)는 제1 깊이 정보에 기초하여, 제2 파라미터 세트를 결정할 수 있다(S1440). 예를 들어, 전자 장치(100)는 관심 영역의 제1 깊이 정보에 기초하여, 깊이 센서의 방출 광 출력(방출 광 출력 패턴, 방출 광 출력 크기)에 대한 파라미터 및 반사광 센싱에 대한 파라미터를 결정할 수 있다.The
전자 장치(100)는, 측정 파라미터가 제2 파라미터 세트로 설정된 깊이 센서를 이용하여, 관심 영역에 대한 제2 깊이 정보를 획득할 수 있다(S1450). 이때, 제2 깊이 정보는, 고해상도 깊이 정보일 수 있으며, 1420 단계(S1420)에서 획득한 저해상도 깊이 정보보다 정확도가 향상된 깊이 정보일 수 있다.The
도 15는 일 실시예에 따른 전자 장치가 도 14의 깊이 정보 획득 동작들을 반복적으로 수행하는 예를 나타내는 도면이다.15 is a diagram illustrating an example in which an electronic device repeatedly performs depth information acquisition operations of FIG. 14 according to an exemplary embodiment.
도 15를 참조하면, 일 실시예에 따른 전자 장치(100)는 전체 공간에 대한 깊이 정보(1510, 저해상도 깊이 정보)를 획득하는 동작(S1420)과 관심 영역에 대한 제2 깊이 정보(1520, 고해상도 깊이 정보)를 획득하는 동작(S1450)을 일정한 주기를 가지고 반복적으로 수행할 수 있다.Referring to FIG. 15, the
예를 들어, 전체 공간에 대한 깊이 정보(1510)를 획득하는 제1 주기(T1)와 제2 깊이 정보(1520)를 획득하는 제2 주기(T2)를 설정할 수 있다. 이때, 전자 장치(100)는, 전자 장치(100)의 움직임에 따라 제1 주기(T1)를 조절하여, 관심 영역을 제외한 나머지 영역의 깊이 정보의 업데이트 주기를 조절할 수 있다. 즉, 전자 장치(100)의 움직임으로 인해 발생되는 영상 내 관심 영역을 제외한 나머지 영역이 움직이는 변화량의 크기에 따라 제1 주기(T1)을 조절할 수 있다. 예를 들어, 전자 장치(100)의 움직임이 적은 경우(전자 장치(100)가 정적인 경우), 제1 주기(T1)를 증가시킬 수 있으며, 전자 장치(100)의 움직임이 많은 경우(전자 장치(100)가 동적인 경우), 제1 주기(T2)를 감소시킬 수 있다.For example, a first period T1 for obtaining
또한, 전자 장치(100)는 전자 장치 사용자와 응시 지점에 표시되는 가상의 객체와의 상호 작용(Interaction)에 필요한 최소 시간에 따라, 제2 주기(T2)를 조절할 수 있다. 예를 들어, 전자 장치(100)는 손동작 인식과 같은 상호 작용(Interaction)을 위한 손에 대한 깊이 정보 업데이트에 필요한 최소 시간과 같거나 짧도록 제2 주기(T2)를 설정할 수 있다. 다만, 이에 한정되지 않는다.Also, the
도 16은 일 실시예에 따른 전자 장치가 증강현실(AR) 방식으로 가상의 객체를 제공하는 예를 나타내는 도면이다.16 is a diagram illustrating an example in which an electronic device provides a virtual object in an augmented reality (AR) method according to an exemplary embodiment.
도 16을 참조하면, 일 실시예에 따른 전자 장치(100)는 적어도 하나의 카메라(이미지 센서)를 포함할 수 있다. 예를 들어, 적어도 하나의 카메라는, 깊이 센서에 포함되는 뎁스 카메라거나, 깊이 센서와 별도로 구비된 카메라일 수 있다.Referring to FIG. 16, the
적어도 하나의 카메라는, 카메라의 FOV 에 포함되는 공간에 대응하는 영상(1610)을 획득할 수 있다. 전자 장치는 획득된 영상(1610) 내에서, 주요 객체를 검출할 수 있다. 예를 들어, 전자 장치는 실제 물체(1620) 주변에 가상의 객체(1630)가 위치하는 것처럼 사용자가 인식하도록 증강현실(AR) 방식으로 가상의 객체(1630)를 표시할 수 있다. 또한, 전자 장치 사용자가 손을 이용하여, 가상의 객체(1630)와 상호작용 하는 경우, 주요 객체는 사용자의 손(1640)이 될 수 있다.At least one camera may acquire an
전자 장치(100)는 획득된 영상 내에서 손(1640) 영역을 검출하고, 손 영역을 관심 영역으로 결정할 수 있으며, 손(1640) 영역을 제외한 나머지 영역을 배경 영역으로 결정할 수 있다.The
전자 장치(100)는 관심 영역에 대해서는 고해상도 깊이 정보를 획득하고, 배경 영역에 대해서는 저해상도 깊이 정보를 획득할 수 있다. 예를 들어, 전자 장치(100)는 손(1640) 영역에 대해서는, 정확도가 높은 깊이 정보를 획득할 수 있도록 깊이 센서의 측정 파라미터를 설정하여, 고해상도 깊이 정보를 획득할 수 있다. 반면에, 배경 영역에 대해서는, 정확도가 낮은 깊이 정보를 획득하도록 깊이 센서의 측정 파라미터를 설정하여 저해상도 깊이 정보를 획득할 수 있다.The
전자 장치(100)는 손(1640) 영역에 대한 고해상도 깊이 정보를 이용하여, 손의 포즈(pose)를 추정하거나, 손의 제스쳐를 인식할 수 있다. 반면에, 배경 영역에 대한 저해상도 깊이 정보를 이용하여, 카메라 포즈(pose) 추적을 수행하거나, 배경 모델링을 수행할 수 있다. 다만, 이에 한정되지 않는다.The
도 17은 일 실시예에 따른 전자 장치가 깊이 정보를 이용하여, 사람의 얼굴을 인식하는 예를 나타내는 도면이다.17 is a diagram illustrating an example in which an electronic device recognizes a human face using depth information according to an exemplary embodiment.
도 17을 참조하면, 일 실시예에 따른 전자 장치(100)는 적어도 하나의 카메라를 포함할 수 있다. 예를 들어, 적어도 하나의 카메라는, 깊이 센서에 포함되는 뎁스 카메라거나, 깊이 센서와 별도로 구비된 카메라일 수 있다. 적어도 하나의 카메라는, 얼굴을 포함하는 영상을 획득할 수 있다.Referring to FIG. 17, the
전자 장치(100)는 획득된 얼굴 영상 내에서, 주요 특징 영역을 검출할 수 있다. 예를 들어, 사람의 얼굴에 있어, 눈, 코, 입 영역들은 다른 사람과 구별하는 데 중요한 영역일 수 있으며, 전자 장치(100)는 얼굴 영상 내에서, 눈, 코, 입 영역들을 검출할 수 있다. 일 실시예에 따른 전자 장치(100)는 얼굴 중 눈, 코, 입 영역들(1540)에 대해서는 고해상도로, 나머지 영역에 대해서는 저해상도로 깊이 정보를 획득할 수 있다.The
도 17의 제1 깊이 영상(1710)은 얼굴 영역 전체에 대해 저해상도로 획득한 깊이 정보를, 제2 깊이 영상(1720)은 얼굴 영역 전체에 대해 고해상도로 획득한 깊이 정보를 나타낸다. 또한, 제3 깊이 영상(1730)은 일 실시예에 따른 전자 장치(100)가, 얼굴 중 눈, 코, 입 영역들(1740)에 대해서는 고해상도로, 나머지 영역에 대해서는 저해상도로 획득한 깊이 정보를 나타낸다.The
일 실시예에 따른 제3 깊이 영상(1730)을 이용하여 얼굴 인식(신원 인식)을 수행하는 경우, 제1 깊이 영상(1710)을 이용하여 얼굴 인식을 수행하는 경우보다 인식 성능(인식 정확도)이 향상될 수 있으며, 제2 깊이 영상(1720)을 이용하여 얼굴 인식을 수행하는 경우보다 인식 속도가 빨라질 수 있다. 또한, 먼 거리에 있는 사람의 얼굴을 인식하는 경우, 주요 특징 부분의 해상도를 증가시켜, 깊이 영상을 획득함으로써, 인식 성능을 향상시킬 수 있다.When performing face recognition (identity recognition) using the
도 18은 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.18 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
도 18을 참조하면, 일 실시예에 따른 전자 장치(100)는 시선 추적 센서(160), 깊이 센서(150) 및, 프로세서(120)를 포함할 수 있다.Referring to FIG. 18, the
일 실시예에 따른 시선 추적 센서(160)는 사용자의 눈에 광을 제공하는 조명부와 광을 감지하는 감지부를 포함할 수 있다. 조명부는 광을 제공하는 광원과 광원으로부터 제공되는 광의 방향을 제어하는 스캐닝 미러를 포함할 수 있다. 스캐닝 미러는, 광원으로부터 제공되는 광을 사용자의 눈(예를 들어, 각막)을 향하도록 방향을 제어할 수 있다. 감지부는 사용자의 눈으로부터 반사되는 광을 감지할 수 있으며, 감지되는 광량을 측정할 수 있다. 시선 추적 센서(160)는 측정되는 광량에 기초하여, 사용자의 양안의 시선을 추적할 수 있다.The
또는, 일 실시예에 따른 시선 추적 센서(160)는 조명부 및 촬영부를 포함할 수 있다. 조명부는 적외선 발광 다이오드(IR LED)등을 포함할 수 있으며, 사용자의 눈을 촬영할 때, 사용자의 눈에 광(예를 들어, 적외선 광)을 제공할 수 있다. 사용자의 눈에 광이 제공됨에 따라, 사용자의 눈에는 반사광이 생성될 수 있다. 또한, 촬영부는 적어도 하나의 카메라를 포함할 수 있으며, 이때, 적어도 하나의 카메라는 적외선 카메라(IR)를 포함할 수 있다. 촬영부는 사용자의 눈을 촬영할 수 있다. 시선 추적 센서(160) 사용자의 눈 영상에 기초하여, 사용자의 양안의 시선을 추적할 수 있다.Alternatively, the
일 실시예에 따른 깊이 센서(150)는 현실 세계에 포함되는 하나 이상의 객체들에 대한 깊이 정보를 획득할 수 있다. 깊이 정보는 깊이 센서(150)로부터 특정 객체까지의 거리에 대응할 수 있으며, 깊이 센서(150)로부터 특정 객체까지의 거리가 멀수록 깊이 값은 커질 수 있다. 일 실시예에 따른 깊이 센서(150)는 다양한 방식으로 객체의 깊이 정보를 획득할 수 있으며, 예를 들어, TOF(Time of flight) 방식, 스테레오 이미지(Stereo Image) 방식, 구조화된 광(Structured Light) 방식 중 적어도 하나의 방식을 이용하여, 깊이 정보를 획득할 수 있다.The
일 실시예에 따른 깊이 센서(150)는 적어도 하나의 카메라를 포함할 수 있으며, 깊이 센서(150)에 포함되는 카메라의 FOV(Field of veiw)에 포함되는 실제 공간에 대한 깊이 정보를 획득할 수 있다.The
일 실시예에 따른 프로세서(120)는 전자 장치(100)를 전반적으로 제어할 수 있다. 일 실시예에 따른 프로세서(120)는 메모리에 저장되는 하나 이상의 프로그램들을 실행할 수 있다.The
일 실시예에 따른 메모리는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(120)에 의해 실행될 수 있다.The memory according to an embodiment may store various data, programs, or applications for driving and controlling the
일 실시예에 따른 프로세서(120)는, 시선 추적 센서(160)에서 획득된 사용자의 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는, 사용자의 오른쪽 눈의 시선 방향과 왼쪽 눈의 시선 방향에 기초하여, 사용자가 응시하는 지점에 대한 2차원 좌표 정보(x좌표 값 및 y좌표 값)를 획득할 수 있다. 또한, 사용자의 오른쪽 눈의 시선 방향과 왼쪽 눈의 시선 방향에 기초하여, 사용자가 응시하는 지점까지의 거리(z 좌표 값)를 획득할 수 있다. 이에 따라, 전자 장치(100)는 응시 지점의 2차원 위치 정보 및 추정 깊이 정보를 획득할 수 있다.The
일 실시예에 따른 프로세서(120)는 응시 지점에 대한 정보에 기초하여, 응시 지점을 중심으로 기 설정된 영역을 관심 영역으로 설정하고 관심 영역에 포함되는 적어도 하나의 객체에 대한 깊이 정보를 획득할 수 있다. 예를 들어, 프로세서(120)는, 응시 지점에 대한 정보에 기초하여, 깊이 센서(150)의 측정 파라미터들을 결정할 수 있다. 깊이 센서(150)의 측정 파라미터들은, 타겟 영역에 대한 파라미터, 방출 광 패턴에 대한 파라미터, 방출 광 출력에 대한 파라미터 등을 포함할 수 있다. 예를 들어, 프로세서(120)는 응시 지점의 2차원 위치 정보를 이용하여, 타겟 영역에 대한 파라미터를 결정할 수 있으며, 응시 지점의 추정 깊이 정보를 이용하여, 방출 광 패턴에 대한 파라미터 및 방출 광 출력에 대한 파라미터를 결정할 수 있다. The
이에 대해서는 도 5 내지 10에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다. 프로세서(120)는 결정된 측정 파라미터들에 기초하여, 관심 영역에 포함되는 적어도 하나의 객체에 대한 깊이 정보를 획득할 수 있다.This has been described in detail with reference to FIGS. 5 to 10, so a detailed description will be omitted. The
일 실시예에 따른 프로세서(120)는 깊이 센서의 측정 파라미터를 제1 파라미터 세트로 설정하여, 전체 공간에 대한 저해상도 깊이 정보를 획득할 수 있다. 또한, 프로세서(120)는 저해상도 깊이 정보에 포함된, 관심 영역에 대한 깊이 정보에 기초하여, 제2 파라미터 세트를 결정할 수 있다. 프로세서(120)는 깊이 센서(150)의 측정 파라미터를 제2 파라미터 세트로 설정하여, 관심 영역에 대한 고해상도 깊이 정보를 획득할 수 있다.The
도 19는 다른 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다. 도 19의 전자 장치(1900)는 도 18의 전자 장치(100)의 일 실시예일 수 있다.19 is a block diagram illustrating a configuration of an electronic device according to another embodiment. The
도 19를 참조하면, 일 실시예에 따른 전자 장치(1900)는, 센싱부(1910), 메모리(1960), 제어부(1930), 출력부(1920), 사용자 입력부(1940) 및 통신부(1950)을 포함할 수 있다.Referring to FIG. 19, an
도 19의 제어부(1930) 및 메모리(1960)는 각각 도 18의 프로세서(120) 및 메모리(130)에 각각 대응하므로, 동일한 설명은 생략하기로 한다.Since the
센싱부(1910)는, 전자 장치(1900)의 상태 또는 전자 장치(1900) 주변의 상태를 감지하고, 감지된 정보를 제어부(1930)로 전달할 수 있다.The
센싱부(1910)는, 이미지 센서(1911), 깊이 센서(1912), 시선 추적 센서(1913), 가속도 센서(Acceleration sensor)(1914), 위치 센서(1915)(예컨대, GPS), 온/습도 센서(1916), 지자기 센서(1917), 자이로스코프 센서(1918), 및 마이크로폰(1919) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.The
일 실시예에 따른 이미지 센서(1911)는, 정지 영상 또는 동영상 등의 화상 프레임을 획득할 수 있다. 예를 들어, 이미지 센서(1911)는 전자 장치(1900) 외부의 이미지를 촬영할 수 있다. 이때, 이미지 센서(1911)를 통해 촬영된 이미지는 제어부(1930) 또는 별도의 이미지 프로세서(미도시)를 통해 처리될 수 있다.The
도 19의 깊이 센서(1912), 시선 추적 센서(1913)는 도 18의 깊이 센서(150), 시선 추적 센서(160)에 각각 대응하므로, 동일한 설명은 생략하기로 한다.Since the
마이크로폰(1919)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1919)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1919)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.The
가속도 센서(Acceleration sensor)(1914), 위치 센서(1915), 온/습도 센서(1916), 지자기 센서(1917), 자이로스코프 센서(1918)들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The functions of the
출력부(1920)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이(1921)와 음향 출력부(1922), 진동 모터(1923) 등이 포함될 수 있다.The
디스플레이(1921)는 전자 장치(1900)에서 처리되는 정보를 표시 출력할 수 있다. 예를 들어, 디스플레이(1921)는, 가상의 객체를 표시할 수 있다. The
본 발명의 일 실시예에 의하면, 디스플레이(1921)는, 투명 디스플레이일 수도 있고, 불투명 디스플레이일 수도 있다. 투명 디스플레이란 정보를 표시하는 스크린의 뒷면이 비치는 형태의 정보 표시 장치를 말한다. 투명 디스플레이는 투명 소자로 구성되고, 투명 소자에 대한 광 투과율을 조절하여 투명도를 조절하거나 각 픽셀의 RGB값을 조절하여 투명도를 조절할 수 있다.According to an embodiment of the present invention, the
음향 출력부(1922)는 통신부(1950)로부터 수신되거나 메모리(1960)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1922)는 전자 장치(1900)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1922)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
본 발명의 일 실시예에 따르면, 음향 출력부(1922)는 가상의 입력 인터페이스를 통한 입력이 발생하는 경우, 발생한 입력에 대응하는 오디오 신호를 출력할 수 있다.According to an embodiment of the present invention, when an input is generated through a virtual input interface, the
진동 모터(1923)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1923)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1923)는, 가상의 객체를 통한 입력이 발생되는 경우, 진동 신호를 출력할 수도 있다.The
사용자 입력부(1940)는, 사용자가 전자 장치(1900)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1940)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 본 발명의 일 실시예에 의하면, 사용자 입력부(1940)는, 가상의 입력 인터페이스를 포함할 수도 있다. The
통신부(1950)는, 전자 장치(1900)와 외부 디바이스 또는 전자 장치(1900)와 서버 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1950)는, 근거리 통신부(1951), 이동 통신부(1952), 방송 수신부(1953)를 포함할 수 있다. The
근거리 통신부(1951)는, 블루투스 통신부, 근거리 무선 통신부(NFC/RFID 부), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The short-
예를 들어, 통신부(1950)는 시선 추적 센서(1913)에서 획득된 사용자의 시선 정보(응시 지점의 2차원 위치 정보 및 추정 깊이 정보)를, 외부 장치로 전송할 수 있으며, 외부 장치로부터, 사용자의 시선 정보에 대응되는 깊이 센서의 측정 파라미터를 수신할 수 있다.For example, the
이동 통신부(1952)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(1953)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(1900)가 방송 수신부(1953)를 포함하지 않을 수도 있다.The
메모리(1960)는, 제어부(1930)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 입력 모드에 대응하는 제스쳐 정보, 가상의 입력 인터페이스, 가상의 입력 인터페이스를 통해 입력된 데이터, 센서에서 측정되는 센싱 정보, 컨텐츠 등)을 저장할 수도 있다. The
일 실시예에 따른 메모리(1960)는 도 7b에 도시된 매칭 테이블(750)을 저장할 수 있다. 또는, 메모리(1960)는 일 실시예에 따른 시선 정보에 기초하여, 깊이 센서의 측정 파라미터를 계산하는 수학식이나 알고리즘 등을 저장할 수도 있다.The
예를 들어, 매칭 테이블(750)은 롬(ROM)에 저장될 수 있다. 제어부(1930)는, 깊이 센서를 구동하는 경우, 롬(ROM)에 저장된 매칭 테이블(750)을 램(RAM)으로 로드할 수 있으며, 로드된 매칭 테이블(750)을 이용하여, 시선 정보에 매칭되는 측정 파라미터를 결정할 수 있다.For example, the matching table 750 may be stored in a ROM. When driving the depth sensor, the
제어부(1930)는 결정된 측정 파라미터를 깊이 센서(1912)로 출력함으로써, 깊이 센서(1912)가 결정된 측정 파라미터를 이용하여, 깊이 정보를 획득하도록 제어할 수 있다.The
메모리(1960)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 전자 장치(1900)는 인터넷(internet)상에서 메모리(1960)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The
메모리(1960)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1961), 알림 모듈(1962) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(1961)은, 애플리케이션 별로 전자 장치(1900)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 또한, 본 발명의 일 실시예에 의하면, UI 모듈(1961)은, 상황에 맞는 가상의 입력 인터페이스를 선택하여, 제공할 수도 있다. The
알림 모듈(1962)은, 전자 장치(1900)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 장치(1900)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 가상의 입력 인터페이스를 통해 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1962)은 디스플레이 (1921)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1922)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1923)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. 또한, 알림 모듈(1962)은, 외부의 디바이스를 이용하여 햅틱 신호를 출력할 수도 있다. The
한편, 도 18및 19에 도시된 전자 장치(100, 1900)의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 전자 장치(100, 1900)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.Meanwhile, the block diagrams of the
도 20 및 도 21은 일 실시예에 따른 전자 장치가 자동으로 초점을 조절하는 방법을 설명하기 위한 도면들이다.20 and 21 are diagrams for describing a method of automatically adjusting focus by an electronic device according to an exemplary embodiment.
도 20을 참조하면, 일 실시예에 따른 전자 장치가 실제 객체(2010) 주위에 가상의 객체가 위치한 것처럼 가상의 객체(2020)를 디스플레이하는 경우, 사용자는 수렴 조절 불일치(vergence-accommodation conflict) 현상을 경험하게 된다. 예를 들어, 전자 장치(100)에서 실제 객체(2010)까지의 거리가 d1인 경우, 전자 장치(100)는 가상의 객체(2020)를 d1거리에 위치하는 것처럼 표시할 수 있다. 이때, 사용자는 가상의 객체(2020)가 d1 거리에 위치하는 것처럼 보기 때문에, 사용자의 양쪽 눈이 수렴하는 거리(vergence distance)는 d1이 된다. 반면에, 가상의 객체(2020)는 실제로 전자 장치(100)의 디스플레이에 표시되기 때문에 사용자의 양쪽 눈의 초점 거리(focal distance)는 사용자의 눈에서 디스플레이까지의 거리 d2가 된다. 이와 같은 경우, 수렴 거리(vergence distance)와 초점 거리(focal distance)가 불일치하게 되고, 전자 장치(100)를 장시간 사용하는 경우, 사용자는 현기증, 어지럼증, 멀미 등을 느끼게 된다.Referring to FIG. 20, when an electronic device according to an embodiment displays a
따라서, 수렴 조절 불일치(vergence-accommodation conflict) 현상을 완화하기 위해, 일 실시예에 따른 전자 장치(100)는 초점 거리를 조절할 수 있다.Accordingly, in order to alleviate a convergence-accommodation conflict, the
도 21를 참조하면, 일 실시예에 따른, 전자 장치(100)는 초점 조절 렌즈(2110)를 포함할 수 있다. 초점 조절 렌즈(2110)는 초점 거리 또는 광축 위치와 같은 광학 특성을 조정할 수 있는 광학 소자를 의미할 수 있으나 이에 한정되지 않는다. 예를 들어, 초점 조절 렌즈(2110)는 인가되는 전압에 따라, 국부적으로 유효 굴절율이 가변될 수 있다. 초점 조절 렌즈(2110)에는 일반적으로 액정이 사용될 수 있으나, 이에 한정되지 않는다.Referring to FIG. 21, according to an embodiment, the
일 실시예에 따른 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 시선 정보를 획득할 수 있으며, 사용자의 시선 정보에 기초하여, 응시 지점(예를 들어, 실제 객체(2010))에 대한 정보를 획득하고, 응시 지점에 대한 정보에 기초하여, 응시 지점에 대한 깊이 정보를 획득할 수 있다. 이에 대해서는, 도 1 내지 도 19에서 자세히 설명하였으므로 생략하기로 한다.The
또한, 전자 장치(100)는 실제 객체(2010)에 대한 깊이 정보에 기초하여, 가상의 객체(2020)를 디스플레이할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이를 통하여 관측되는 실제 객체(2010)의 주변에 가상의 객체가 위치하는 것처럼 사용자가 인식하도록, 디스플레이에 가상의 객체(2020)를 표시할 수 있다.Also, the
일 실시예에 따른 전자 장치(100)는 실제 객체(2010)에 대한 깊이 정보(또는, 가상의 객체의 깊이 정보)에 기초하여, 초점 거리를 조절할 수 있다. 예를 들어, 실제 객체(2010)까지의 거리가 d1인 경우, 전자 장치(100)는 초점 조절 렌즈(2110)를 이용하여, 사용자 눈의 초점 거리를 d1으로 조정할 수 있다. 이때, 전자 장치(100)는 사용자의 시선 정보에 기초하여, 초점 조절 렌즈(2110)의 전체 영역 중 사용자의 시선이 통과하는 제1 영역(2121) 및 제2 영역(2122)에 대한 정보를 획득할 수 있다. 전자 장치(100)는 초점 조절 렌즈(2110)에 인가되는 전압을 조절함으로써 제1 영역(2121) 및 제2 영역(2122)의 초점 거리가 d1이 되도록 굴절율을 변화시킬 수 있다. 이에 따라, 수렴 거리(vergence distance)와 초점 거리(focal distance)를 일치시킬 수 있으며, 수렴 조절 불일치 현상을 방지할 수 있다. The
도 22는 일 실시예에 따른 전자 장치가 시선 기반 공간 모델링을 수행하는 방법을 설명하기 위한 도면이다.22 is a diagram for describing a method of performing a gaze-based spatial modeling by an electronic device according to an exemplary embodiment.
도 22를 참조하면, 도 22에 도시된 전체 공간(2010)은 전자 장치에 포함된 깊이 센서에 의해 센싱될 수 있는 범위의 공간을 나타낸다. 일 실시예에 따른, 전자 장치(100)는 시선 추적 센서를 이용하여, 사용자의 시선 정보를 획득할 수 있다. 예를 들어, 도 2 내지 4b에서 설명한 바와 같이, 전자 장치 사용자가 응시하는 지점 또는 공간에 대한 2차원 위치 정보 및 깊이 정보를 획득할 수 있다. 전자 장치(100)는 획득한 정보에 기초하여, 사용자가 응시하는 지점 또는 공간(응시 지점)에 대한 깊이 정보를 획득할 수 있다. 이에 대해서는, 도 1 내지 도 19에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다. 예를 들어, 사용자가 전체 공간(2210) 중 의자(2220)를 응시하고 있는 경우, 의자(2220)에 대한 깊이 정보를 획득할 수 있다. 전자 장치(100)는 의자에 대한 깊이 정보에 기초하여, 의자 주위에 가상의 객체를 오버랩하여 표시할 수 있다.Referring to FIG. 22, the
또한, 전자 장치(100)는 사용자의 시선이 이동하면, 사용자의 시선이 이동한 공간에 대한 정보(2차원 위치 정보 및 깊이 정보)에 기초하여, 사용자의 시선이 이동한 공간에 대한 깊이 정보를 획득할 수 있다.In addition, when the user's gaze moves, the
일 실시예에 따른, 전자 장치(100)는 실시간으로 사용자의 시선 정보를 획득하고, 사용자의 시선 정보에 기초하여, 전체 공간 중 응시 지점을 획득하며, 획득된 응시 지점을 중심으로 기 설정된 영역을 관심 영역으로 결정하여, 결정된 관심 영역에 대해서만 깊이 정보를 획득할 수 있다. 전자 장치(100)는 획득한 깊이 정보에 기초하여, 관심 영역에 대한 모델링을 수행할 수 있다.According to an embodiment, the
이에 따라, 전자 장치(100)는 필요한 공간에 대한 모델링만을 수행함으로써, 모델링 속도가 빨라지며, 전력 소모를 감소시킬 수 있다.Accordingly, the
일 실시예에 따른 전자 장치의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method of operating an electronic device according to an exemplary embodiment may be implemented in the form of program commands that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
또한, 개시된 실시예들에 따른 전자 장치 및 전자 장치의 동작방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.In addition, an electronic device and a method of operating the electronic device according to the disclosed embodiments may be included in a computer program product and provided. Computer program products can be traded between sellers and buyers as commodities.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 전자 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.The computer program product may include a S/W program and a computer-readable storage medium storing the S/W program. For example, the computer program product may include a product (e.g., downloadable app) electronically distributed through an electronic device manufacturer or an electronic market (e.g., Google Play Store, App Store). have. For electronic distribution, at least a part of the S/W program may be stored in a storage medium or may be temporarily generated. In this case, the storage medium may be a server of a manufacturer, a server of an electronic market, or a storage medium of a relay server temporarily storing an SW program.
컴퓨터 프로그램 제품은, 서버 및 클라이언트 장치로 구성되는 시스템에서, 서버의 저장매체 또는 클라이언트 장치의 저장매체를 포함할 수 있다. 또는, 서버 또는 클라이언트 장치와 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 클라이언트 장치 또는 제3 장치로 전송되거나, 제3 장치로부터 클라이언트 장치로 전송되는 S/W 프로그램 자체를 포함할 수 있다.The computer program product may include a storage medium of a server or a storage medium of a client device in a system composed of a server and a client device. Alternatively, when there is a third device (eg, a smart phone) communicating with a server or a client device, the computer program product may include a storage medium of the third device. Alternatively, the computer program product may include a S/W program itself transmitted from a server to a client device or a third device, or transmitted from a third device to a client device.
이 경우, 서버, 클라이언트 장치 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 클라이언트 장치 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.In this case, one of the server, the client device, and the third device may execute the computer program product to perform the method according to the disclosed embodiments. Alternatively, two or more of a server, a client device, and a third device may execute a computer program product to distribute and implement the method according to the disclosed embodiments.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 클라이언트 장치가 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.For example, a server (eg, a cloud server or an artificial intelligence server) may execute a computer program product stored in the server to control a client device communicating with the server to perform the method according to the disclosed embodiments.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also the scope of the present invention. Belongs to.
Claims (21)
하나 이상의 객체들에 대한 깊이 정보를 획득하는 깊이 센서; 및
상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하고, 상기 응시 지점에 대한 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 결정하는 프로세서를 포함하는 헤드 마운트 디스플레이 장치.A gaze tracking sensor that acquires gaze information of both eyes of the user;
A depth sensor that obtains depth information on one or more objects; And
And a processor configured to obtain information on a gaze point based on the acquired gaze information and to determine a measurement parameter of the depth sensor based on the information on the gaze point.
상기 프로세서는,
상기 시선 정보에 기초하여, 상기 응시 지점의 2차원 위치 정보를 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 1,
The processor,
Based on the gaze information, the head-mounted display device for obtaining 2D position information of the gaze point.
상기 프로세서는,
상기 시선 정보에 기초하여, 상기 응시 지점의 추정 깊이 정보를 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 2,
The processor,
Based on the gaze information, the head mounted display device for obtaining information on the estimated depth of the gaze point.
상기 깊이 센서는,
상기 결정된 측정 파라미터에 따라, 상기 응시 지점을 중심으로 기 설정된 관심 영역에 대한 깊이 정보를 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 1,
The depth sensor,
According to the determined measurement parameter, the head-mounted display device for acquiring depth information on a predetermined region of interest based on the gaze point.
상기 깊이 센서의 측정 파라미터는,
타겟 영역에 대한 파라미터, 방출 광 출력에 대한 파라미터, 및 반사광 센싱에 대한 파라미터 중 적어도 하나를 포함하는, 헤드 마운트 디스플레이 장치.The method of claim 1,
The measurement parameter of the depth sensor,
A head mounted display device comprising at least one of a parameter for a target area, a parameter for emission light output, and a parameter for reflected light sensing.
상기 프로세서는,
획득된 상기 관심 영역에 대한 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 다시 결정하고,
상기 깊이 센서는,
다시 결정된 상기 측정 파라미터에 따라, 상기 관심 영역에 대한 깊이 정보를 다시 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 4,
The processor,
Based on the obtained depth information on the region of interest, determining a measurement parameter of the depth sensor again,
The depth sensor,
Re-acquiring depth information on the region of interest according to the measurement parameter determined again.
상기 깊이 센서는,
TOF (Time Of Flight) 방식, SL(Structured Light) 방식 및 SI(Stereo Image) 방식 중 적어도 하나에 의해 상기 관심 영역에 에 대한 깊이 정보를 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 4,
The depth sensor,
A head-mounted display device for acquiring depth information on the ROI by at least one of a Time Of Flight (TOF) method, a Structured Light (SL) method, and a Stereo Image (SI) method.
상기 깊이 센서가, TOF (Time Of Flight) 방식의 깊이 센서를 포함하는 경우, 상기 프로세서는, 상기 응시 지점의 2차원 위치 정보에 기초하여, 상기 깊이 센서에 포함되는 광원들 중 상기 응시 지점에 대응하는 일부 광원들이 구동되도록 상기 측정 파라미터를 결정하고,
상기 깊이 센서는, 상기 일부 광원들을 구동시켜, 상기 관심 영역에 대한 깊이 정보를 획득하는, 헤드 마운트 디스플레이 장치.The method of claim 7,
When the depth sensor includes a TOF (Time Of Flight) depth sensor, the processor corresponds to the gaze point among light sources included in the depth sensor based on the two-dimensional position information of the gaze point. Determining the measurement parameter so that some light sources are driven,
The depth sensor, by driving the some light sources, to obtain depth information on the region of interest, the head mounted display device.
상기 헤드 마운트 디스플레이 장치는,
상기 관심 영역을 포함하는 실제 공간을 표시하는 디스플레이를 더 포함하고,
상기 프로세서는, 관심 영역에 대한 깊이 정보에 기초하여, 상기 관심 영역에 적어도 하나의 가상의 객체가 표시되도록 상기 디스플레이를 제어하는, 헤드 마운트 디스플레이 장치.The method of claim 4,
The head mounted display device,
Further comprising a display for displaying the actual space including the region of interest,
The processor, based on depth information on the region of interest, controls the display to display at least one virtual object in the region of interest.
상기 프로세서는,
상기 깊이 센서의 측정 파라미터를 제1 파라미터로 설정하고,
상기 제1 파라미터에 기초하여, 상기 관심 영역을 포함하면서 상기 깊이 센서로 센싱 가능한 공간에 대한 전체 깊이 정보를 획득하도록 상기 깊이 센서를 제어하고,
상기 전체 깊이 정보에 기초하여, 상기 관심 영역에 대한 제1 깊이 정보를 획득하고,
상기 제1 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 제2 파라미터로 설정하고,
상기 제2 파라미터에 기초하여, 상기 관심 영역에 대한 제2 깊이 정보를 획득하도록 상기 깊이 센서를 제어하는, 헤드 마운트 디스플레이 장치.The method of claim 4,
The processor,
Setting the measurement parameter of the depth sensor as a first parameter,
Based on the first parameter, controlling the depth sensor to obtain total depth information on a space that can be sensed by the depth sensor while including the region of interest,
Acquiring first depth information on the ROI based on the total depth information,
Based on the first depth information, setting a measurement parameter of the depth sensor as a second parameter,
Based on the second parameter, controlling the depth sensor to obtain second depth information on the ROI.
사용자 양안의 시선 정보를 획득하는 단계;
상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하는 단계; 및
상기 응시 지점에 대한 정보에 기초하여, 깊이 센서의 측정 파라미터를 결정하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.In the method of operating an electronic device,
Acquiring gaze information of both eyes of the user;
Obtaining information on a gaze point based on the obtained gaze information; And
And determining a measurement parameter of a depth sensor based on the information on the gaze point.
상기 응시 지점에 대한 정보를 획득하는 단계는,
상기 시선 정보에 기초하여, 상기 응시 지점의 2차원 위치 정보를 획득하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 11,
Obtaining information on the gaze point,
And acquiring two-dimensional position information of the gaze point based on the gaze information.
상기 응시 지점에 대한 정보를 획득하는 단계는,
상기 시선 정보에 기초하여, 상기 응시 지점의 추정 깊이 정보를 획득하는 단계를 더 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 12,
Obtaining information on the gaze point,
The method of operating a head-mounted display device further comprising obtaining information on the estimated depth of the gaze point based on the gaze information.
상기 동작방법은,
상기 결정된 측정 파라미터에 따라, 상기 응시 지점을 중심으로 기 설정된 관심 영역에 대한 깊이 정보를 획득하는 단계를 더 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 11,
The operation method,
According to the determined measurement parameter, further comprising the step of acquiring depth information on a predetermined region of interest centering on the gaze point, the operating method of the head mounted display device.
상기 깊이 센서의 측정 파라미터를 결정하는 단계는,
타겟 영역에 대한 파라미터, 방출 광 출력에 대한 파라미터, 및 반사광 센싱에 대한 파라미터 중 적어도 하나를 결정하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 11,
The step of determining the measurement parameter of the depth sensor,
A method of operating a head mounted display device comprising determining at least one of a parameter for a target area, a parameter for emission light output, and a parameter for reflected light sensing.
상기 동작방법은,
획득된 상기 관심 영역에 대한 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 다시 결정하는 단계; 및
다시 결정된 측정 파라미터에 따라, 상기 관심 영역에 대한 깊이 정보를 다시 획득하는 단계를 더 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 14,
The operation method,
Re-determining a measurement parameter of the depth sensor based on the obtained depth information on the ROI; And
Further comprising the step of re-acquiring depth information on the ROI according to the determined measurement parameter again.
상기 관심 영역에 대한 깊이 정보를 획득하는 단계는,
TOF (Time Of Flight) 방식, SL(Structured Light) 방식 및 SI(Stereo Image) 방식 중 적어도 하나에 의해 상기 관심 영역에 대한 깊이 정보를 획득하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 14,
The step of obtaining depth information on the region of interest,
A method of operating a head-mounted display device comprising obtaining depth information on the ROI by at least one of a Time Of Flight (TOF) method, a Structured Light (SL) method, and a Stereo Image (SI) method.
상기 깊이 센서의 측정 파라미터를 결정하는 단계는,
상기 TOF (Time Of Flight) 방식에 의해 깊이 정보를 획득하는 경우, 상기 응시 지점의 2차원 위치 정보에 기초하여, 상기 깊이 센서에 포함되는 광원들 중 상기 응시 지점에 대응하는 일부 광원들이 구동되도록 상기 측정 파라미터를 결정하는 단계를 포함하고,
상기 관심 영역에 대한 깊이 정보를 획득하는 단계는,
상기 일부 광원들을 구동시켜, 상기 관심 영역에 대한 깊이 정보를 획득하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 17,
The step of determining the measurement parameter of the depth sensor,
When obtaining depth information by the TOF (Time Of Flight) method, based on the two-dimensional position information of the gaze point, some light sources corresponding to the gaze point among the light sources included in the depth sensor are driven. Determining a measurement parameter,
The step of obtaining depth information on the region of interest,
And acquiring depth information on the region of interest by driving the some light sources.
상기 동작방법은,
상기 관심 영역을 포함하는 실제 공간을 표시하는 단계; 및
상기 관심 영역에 대한 깊이 정보에 기초하여, 상기 관심 영역에 적어도 하나의 가상의 객체를 표시하는 단계를 더 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 14,
The operation method,
Displaying an actual space including the region of interest; And
The method of operating a head-mounted display apparatus further comprising displaying at least one virtual object in the region of interest based on depth information on the region of interest.
상기 관심 영역에 대한 깊이 정보를 획득하는 단계는,
상기 깊이 센서의 측정 파라미터를 제1 파라미터로 설정하고, 상기 제1 파라미터에 기초하여, 상기 깊이 센서로 센싱 가능한 공간에 대한 전체 깊이 정보를 획득하는 단계;
상기 전체 깊이 정보에 기초하여, 상기 관심 영역에 대한 제1 깊이 정보를 획득하는 단계; 및
상기 제1 깊이 정보에 기초하여, 상기 깊이 센서의 측정 파라미터를 제2 파라미터로 설정하고, 상기 제2 파라미터에 기초하여, 상기 관심 영역에 대한 제2 깊이 정보를 획득하는 단계를 포함하는, 헤드 마운트 디스플레이 장치의 동작방법.The method of claim 14,
The step of obtaining depth information on the region of interest,
Setting a measurement parameter of the depth sensor as a first parameter, and acquiring total depth information on a space that can be sensed by the depth sensor based on the first parameter;
Obtaining first depth information on the ROI based on the total depth information; And
Setting a measurement parameter of the depth sensor as a second parameter based on the first depth information, and acquiring second depth information for the ROI based on the second parameter, head mount How to operate the display device.
상기 획득된 시선 정보에 기초하여, 응시 지점에 대한 정보를 획득하는 단계; 및
상기 응시 지점에 대한 정보에 기초하여, 깊이 센서의 측정 파라미터를 결정하는 단계를 수행하도록 하는 프로그램이 저장된 하나 이상의 컴퓨터로 읽을 수 있는 기록매체.Acquiring gaze information of both eyes of the user;
Obtaining information on a gaze point based on the obtained gaze information; And
At least one computer-readable recording medium storing a program for performing the step of determining a measurement parameter of a depth sensor based on the information on the gaze point.
Priority Applications (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202080027905.1A CN113661433B (en) | 2019-04-11 | 2020-02-17 | Head-mounted display device and operation method thereof |
CN202311324927.6A CN117590582A (en) | 2019-04-11 | 2020-02-17 | Head-mounted display device and operation method thereof |
PCT/KR2020/002225 WO2020209491A1 (en) | 2019-04-11 | 2020-02-17 | Head-mounted display device and operating method of the same |
EP20787395.1A EP3911992A4 (en) | 2019-04-11 | 2020-02-17 | Head-mounted display device and operating method of the same |
US16/800,414 US11249305B2 (en) | 2019-04-11 | 2020-02-25 | Head-mounted display device and operating method of the same for determining a measurement parameter |
US16/818,698 US11526004B2 (en) | 2019-04-11 | 2020-03-13 | Head-mounted display device and operating method of the same |
US17/985,464 US11809623B2 (en) | 2019-04-11 | 2022-11-11 | Head-mounted display device and operating method of the same |
US18/372,554 US20240012474A1 (en) | 2019-04-11 | 2023-09-25 | Head-mounted display device and operating method of the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962832544P | 2019-04-11 | 2019-04-11 | |
US62/832,544 | 2019-04-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200120466A true KR20200120466A (en) | 2020-10-21 |
Family
ID=73034974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190106133A KR20200120466A (en) | 2019-04-11 | 2019-08-28 | Head mounted display apparatus and operating method for the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20200120466A (en) |
CN (1) | CN113661433B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022231206A1 (en) * | 2021-04-30 | 2022-11-03 | 삼성전자 주식회사 | Augmented reality device for obtaining depth information of object and operating method thereof |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005043218A1 (en) * | 2003-10-30 | 2005-05-12 | Brother Kogyo Kabushiki Kaisha | Image display device |
CA2820241C (en) * | 2012-06-13 | 2020-01-14 | Robert G. Hilkes | An apparatus and method for enhancing human visual performance in a head worn video system |
JP5887026B2 (en) * | 2012-09-03 | 2016-03-16 | ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH | Head mounted system and method for computing and rendering a stream of digital images using the head mounted system |
US20150003819A1 (en) * | 2013-06-28 | 2015-01-01 | Nathan Ackerman | Camera auto-focus based on eye gaze |
KR20160059406A (en) * | 2014-11-18 | 2016-05-26 | 삼성전자주식회사 | Wearable device and method for outputting virtual image |
US10440355B2 (en) * | 2015-11-06 | 2019-10-08 | Facebook Technologies, Llc | Depth mapping with a head mounted display using stereo cameras and structured light |
US10025060B2 (en) * | 2015-12-08 | 2018-07-17 | Oculus Vr, Llc | Focus adjusting virtual reality headset |
-
2019
- 2019-08-28 KR KR1020190106133A patent/KR20200120466A/en active Search and Examination
-
2020
- 2020-02-17 CN CN202080027905.1A patent/CN113661433B/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022231206A1 (en) * | 2021-04-30 | 2022-11-03 | 삼성전자 주식회사 | Augmented reality device for obtaining depth information of object and operating method thereof |
Also Published As
Publication number | Publication date |
---|---|
CN113661433A (en) | 2021-11-16 |
CN113661433B (en) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11809623B2 (en) | Head-mounted display device and operating method of the same | |
US10788673B2 (en) | User-based context sensitive hologram reaction | |
CN107209386B (en) | Augmented reality view object follower | |
CN107111370B (en) | Virtual representation of real world objects | |
US9710130B2 (en) | User focus controlled directional user input | |
US9384737B2 (en) | Method and device for adjusting sound levels of sources based on sound source priority | |
US20130326364A1 (en) | Position relative hologram interactions | |
US20160210780A1 (en) | Applying real world scale to virtual content | |
US20130328925A1 (en) | Object focus in a mixed reality environment | |
CN110377148B (en) | Computer readable medium, method of training object detection algorithm, and training apparatus | |
US20130342572A1 (en) | Control of displayed content in virtual environments | |
EP2926223A1 (en) | Direct hologram manipulation using imu | |
US11689877B2 (en) | Immersive augmented reality experiences using spatial audio | |
CN114761909A (en) | Content stabilization for head-mounted displays | |
US20210068652A1 (en) | Glint-Based Gaze Tracking Using Directional Light Sources | |
US9298256B1 (en) | Visual completion | |
JP2015060071A (en) | Image display device, image display method, and image display program | |
CN113661433B (en) | Head-mounted display device and operation method thereof | |
US11487105B2 (en) | Modified slow-scan drive signal | |
US11527004B2 (en) | Electronic device and operation method thereof | |
US11442543B1 (en) | Electronic devices with monocular gaze estimation capabilities | |
US20240045498A1 (en) | Electronic apparatus | |
KR20210102210A (en) | Mobile platform as a physical interface for interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |