KR102269088B1 - Apparatus and method for tracking pupil - Google Patents

Apparatus and method for tracking pupil Download PDF

Info

Publication number
KR102269088B1
KR102269088B1 KR1020140140919A KR20140140919A KR102269088B1 KR 102269088 B1 KR102269088 B1 KR 102269088B1 KR 1020140140919 A KR1020140140919 A KR 1020140140919A KR 20140140919 A KR20140140919 A KR 20140140919A KR 102269088 B1 KR102269088 B1 KR 102269088B1
Authority
KR
South Korea
Prior art keywords
pupil
image
camera
pupil tracking
dimensional position
Prior art date
Application number
KR1020140140919A
Other languages
Korean (ko)
Other versions
KR20150079393A (en
Inventor
추현곤
이수현
김진웅
김현의
문경애
박민식
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US14/584,870 priority Critical patent/US20150185484A1/en
Publication of KR20150079393A publication Critical patent/KR20150079393A/en
Application granted granted Critical
Publication of KR102269088B1 publication Critical patent/KR102269088B1/en

Links

Images

Abstract

동공 추적 장치 및 방법이 개시된다. 동공 추적 장치는 오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득하는 영상 획득부와, 상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 공간 위치 검출부와, 홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력하는 디스플레이부를 포함한다.A pupil tracking device and method are disclosed. The pupil tracking device includes an image acquisition unit that acquires an image of the object by photographing an object, a spatial position detection unit that detects a three-dimensional position of a specific part within the object from the image, and a hologram of the three-dimensional and a display unit that outputs to a space corresponding to the location.

Description

동공 추적 장치 및 방법{APPARATUS AND METHOD FOR TRACKING PUPIL}Pupil tracking device and method {APPARATUS AND METHOD FOR TRACKING PUPIL}

본 발명의 실시예는 상이한 각도에서 획득한 오브젝트에 대한 영상을 이용하여, 홀로그램을 출력할 공간에 대응하는 동공의 위치를 추적 함으로써, 테이블탑형 디지털 홀로그램 디스플레이의 제한된 시역을 해결하는 기술에 관한 것이다.An embodiment of the present invention relates to a technique for solving the limited viewing area of a tabletop type digital hologram display by tracing the position of a pupil corresponding to a space to output a hologram using an image of an object obtained from a different angle.

디지털 홀로그래피 디스플레이 기술은 광변조기(SLM)를 기반으로 레이저와 같은 빛의 회절 현상을 이용하여 3차원 공간에 입체 영상을 출력하는 기술이다. 테이블탑형 홀로그래픽 디스플레이는 홀로그래피 디스플레이 기술을 이용하여 평면의 테이블 위의 공간 상에 영상을 출력하여, 360도 중 어느 각도에서나 입체 영상을 볼 수 있도록 하는 디스플레이를 의미한다.Digital holography display technology is a technology that outputs a stereoscopic image in a three-dimensional space using a light diffraction phenomenon such as a laser based on a light modulator (SLM). The tabletop type holographic display refers to a display that outputs an image on a space on a flat table using holographic display technology so that a stereoscopic image can be viewed from any angle of 360 degrees.

도 1은 구면상의 거울에 레이저가 반사되어 공간에 상이 떠 오르는게 보이는 원리를 도시한 도면이고, 도 2는 사람의 눈에서 빛이 반사되어 공간에 상이 떠 오르는게 보이는 원리를 도시한 도면이다.1 is a diagram illustrating the principle that an image appears to float in space by reflecting a laser on a spherical mirror, and FIG. 2 is a diagram illustrating the principle that an image appears to float in space by reflecting light from the human eye.

도 1 및 도 2를 참조하면, 홀로그래픽 디스플레이는 레이저의 광 회절 각도를 구형 거울을 이용한 광학 효과에 기초하여 방향을 조절 함으로써, 공간에 상이 떠 있는 것과 같은 효과를 주게 된다. 즉, 홀로그래픽 디스플레이는 사람의 눈이 바라보는 방향으로 회절된 영상을 공중에 여러 방향으로 투영하여 마치 해당 공간에 떠 있는 것과 같은 효과를 주게 된다.Referring to FIGS. 1 and 2 , the holographic display adjusts the direction of the laser light diffraction angle based on the optical effect using a spherical mirror, thereby giving an effect like an image floating in space. That is, the holographic display projects the image diffracted in the direction the human eye sees in various directions in the air to give the effect as if floating in the space.

테이블탑형 홀로그래픽 디스플레이는 홀로그래픽 디스플레이와 마찬가지로 광변조기와 레이저에 기반 함에 따라, 광변조기의 픽셀 크기로 인한 홀로그램 관찰 범위에 제약을 가지게 된다.As the tabletop holographic display is based on an optical modulator and laser like the holographic display, the hologram observation range is limited due to the pixel size of the optical modulator.

이러한 제약을 보완하기 위해서는 사람의 눈동자 위치에 따라서 레이저 및 광변조기 등을 통해서 출력되는 빛의 방향을 조절하는 방법이 요구되고, 이를 위해서는 사람의 동공을 3차원 공간상에서 정확히 추적하는 기술이 필요하다.In order to compensate for this limitation, a method of controlling the direction of light output through a laser or a light modulator according to the position of a person's pupil is required, and for this, a technology for accurately tracking a person's pupil in a three-dimensional space is required.

본 발명의 실시예는 상이한 각도에서 획득한 오브젝트에 대한 영상을 이용하여, 홀로그램을 출력할 공간에 대응하는 동공의 위치를 정확히 추적 함으로써, 테이블탑형 디지털 홀로그램 디스플레이의 제한된 시역을 해결하는 것을 목적으로 한다.An embodiment of the present invention aims to solve the limited viewing area of a tabletop type digital hologram display by accurately tracing the position of the pupil corresponding to the space to output the hologram using images of objects obtained from different angles. .

본 발명의 실시예에 따른 동공 추적 장치는 오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득하는 영상 획득부와, 상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 공간 위치 검출부와, 홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력하는 디스플레이부를 포함한다.A pupil tracking apparatus according to an embodiment of the present invention includes an image acquisition unit that captures an object to acquire an image of the object, and a spatial position detection unit that detects a three-dimensional position of a specific part within the object from the image; , a display unit for outputting a hologram in a space corresponding to the three-dimensional position.

상기 영상 획득부는 상이한 방위에 위치하는 n개(n은 자연수)의 카메라를 포함할 수 있다.The image acquisition unit may include n (n is a natural number) cameras positioned in different orientations.

상기 카메라는 스테레오 카메라, 컬러 카메라 또는 깊이 카메라 중 어느 하나일 수 있다.The camera may be any one of a stereo camera, a color camera, or a depth camera.

상기 공간 위치 검출부는 상기 영상에서 상기 특정 부분으로서, 동공이 포함되어 있는지를 판단하고, 상기 동공이 포함된 것으로 판단되는 경우, 상기 동공에 대한 2차원의 위치를 추적하는 동공 추적부를 포함할 수 있다.The spatial position detection unit may include a pupil tracking unit that determines whether a pupil is included as the specific part in the image, and tracks a two-dimensional position with respect to the pupil when it is determined that the pupil is included. .

상기 동공 추적부는 상기 영상을 설정된 복수의 영역으로 구분하고, 평균 휘도값이 가장 큰 영역을 얼굴 내 눈의 영역으로 추적하며, 상기 눈의 영역에서 상기 동공을 추적할 수 있다.The pupil tracking unit may divide the image into a plurality of set regions, track a region having the largest average luminance value as an eye region in the face, and track the pupil in the eye region.

상기 공간 위치 검출부는 상기 동공에 대한 2차원의 위치 및 상기 영상 획득부 내 카메라에 관한 상태정보에 기초하여, 상기 동공에 대한 3차원의 위치를 산출하는 동공 위치 산출부를 더 포함할 수 있다.The spatial position detector may further include a pupil position calculator configured to calculate a three-dimensional position with respect to the pupil, based on a two-dimensional position with respect to the pupil and state information about a camera in the image acquisition unit.

상기 영상 획득부는 전방향으로 상기 오브젝트를 촬영하는 전방위 카메라와, 전방향에 대한 파노라믹 영상을 획득할 수 있도록 상이한 방위에서 상기 오브젝트를 촬영하는 복수의 파노라마 카메라를 포함할 수 있다.The image acquisition unit may include an omnidirectional camera for photographing the object in all directions, and a plurality of panoramic cameras for photographing the object in different directions so as to acquire a panoramic image for all directions.

상기 동공 추적 장치는 상기 전방위 카메라로부터 수신한 카메라에 관한 식별정보에 기초하여, 상기 복수의 파노라마 카메라 중에서 적어도 하나의 파노라마 카메라를 선택하고, 상기 선택한 파노라마 카메라로부터 영상을 수신하여 상기 공간 위치 검출부에 전달하는 영상 선택부를 더 포함할 수 있다.The pupil tracking device selects at least one panoramic camera from among the plurality of panoramic cameras based on the identification information about the camera received from the omnidirectional camera, receives an image from the selected panoramic camera, and transmits it to the spatial position detection unit It may further include an image selection unit.

상기 전방위 카메라는 상기 영상에서 상기 오브젝트가 추출되면, 상기 오브젝트가 위치하는 방위에 상응하는 상기 카메라에 관한 식별정보를 상기 영상 선택부에 제공할 수 있다.When the object is extracted from the image, the omnidirectional camera may provide identification information about the camera corresponding to the direction in which the object is located to the image selection unit.

본 발명의 실시예에 따른 동공 추적 방법은 오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득하는 단계와, 상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계와, 홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력하는 단계를 포함한다.The pupil tracking method according to an embodiment of the present invention includes the steps of acquiring an image of the object by photographing an object, detecting a three-dimensional position of a specific part within the object from the image, and generating a hologram. and outputting it to a space corresponding to a three-dimensional position.

본 발명의 실시예에 따르면, 상이한 각도에서 획득한 오브젝트에 대한 영상을 이용하여, 홀로그램을 출력할 공간에 대응하는 동공의 위치를 정확히 추적 함으로써, 테이블탑형 디지털 홀로그램 디스플레이의 제한된 시역을 해결할 수 있다.According to an embodiment of the present invention, the limited viewing area of the tabletop digital hologram display can be solved by accurately tracking the position of the pupil corresponding to the space where the hologram is to be output using the image of the object obtained from different angles.

도 1은 구면상의 거울에 레이저가 반사되어 공간에 상이 떠 오르는게 보이는 원리를 도시한 도면이고, 도 2는 사람의 눈에서 빛이 반사되어 공간에 상이 떠 오르는게 보이는 원리를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 동공 추적 장치의 구성 일례를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 동공 추적 장치에서의 카메라 배치에 대한 일례를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 동공 추적 장치에서의 동공에 대한 위치 추적 일례를 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 동공 추적 장치의 구성 일례를 도시한 도면이다.
도 7 및 도 8은 본 발명의 다른 실시예에 따른 동공 추적 장치에서의 카메라 배치에 대한 일례를 나타내는 도면이다.
도 9는 본 발명의 일실시예에 따른 동공 추적 방법을 나타내는 흐름도이다.
1 is a view showing the principle that an image appears to float in space by reflecting a laser on a spherical mirror, and FIG. 2 is a view showing the principle that an image appears to float in space by reflecting light from the human eye.
Figure 3 is a diagram showing an example of the configuration of the pupil tracking device according to an embodiment of the present invention.
Figure 4 is a view showing an example of the arrangement of the camera in the pupil tracking device according to an embodiment of the present invention.
5 is a view for explaining an example of tracking the position of the pupil in the pupil tracking device according to an embodiment of the present invention.
6 is a diagram illustrating an example of the configuration of a pupil tracking device according to another embodiment of the present invention.
7 and 8 are diagrams showing an example of the arrangement of the camera in the pupil tracking device according to another embodiment of the present invention.
9 is a flowchart illustrating a pupil tracking method according to an embodiment of the present invention.

이하, 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 다양한 실시예를 상세하게 설명하지만, 본 발명이 실시예에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, but the present invention is not limited or limited by the embodiments.

도 3은 본 발명의 일실시예에 따른 동공 추적 장치의 구성 일례를 도시한 도면이다.Figure 3 is a diagram showing an example of the configuration of the pupil tracking device according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일실시예에 따른 동공 추적 장치(300)는 영상 획득부(301), 공간 위치 검출부(303) 및 디스플레이부(309)를 포함할 수 있다.Referring to FIG. 3 , the pupil tracking apparatus 300 according to an embodiment of the present invention may include an image acquisition unit 301 , a spatial position detection unit 303 , and a display unit 309 .

영상 획득부(301)는 상이한 방위에 위치하는 n개(n은 자연수)의 카메라를 포함할 수 있으며, n개의 카메라를 통해, 오브젝트(예컨대, 사람)를 촬영하여, 상기 오브젝트에 대한 영상을 획득할 수 있다. 여기서, 영상 획득부(301)는 각 방위에 위치하는 2대의 스테레오 카메라 또는 오브젝트를 3차원 정보(예를 들어, 깊이 정보, 색상 정보)로 인지하는 카메라(예컨대, 깊이 카메라)를 포함할 수 있다.The image acquisition unit 301 may include n cameras (n is a natural number) positioned in different orientations, and acquire an image of the object by photographing an object (eg, a person) through the n cameras. can do. Here, the image acquisition unit 301 may include two stereo cameras positioned in each direction or a camera (eg, a depth camera) that recognizes an object as 3D information (eg, depth information and color information). .

영상 획득부(301) 내 n개의 카메라는 동공 추적부(305) 내 n개의 동공 추적 모듈과 각각 연결되어, 오브젝트에 대한 각 영상을 상기 n개의 동공 추적 모듈에 전달할 수 있다.The n cameras in the image acquisition unit 301 may be connected to n pupil tracking modules in the pupil tracking unit 305 , respectively, to transmit each image of the object to the n pupil tracking modules.

공간 위치 검출부(303)는 영상 획득부(301)로부터 수신한 영상으로부터, 상기 오브젝트 내 특정 부분(예컨대, 동공)에 대한 3차원의 위치를 검출할 수 있다. 여기서, 공간 위치 검출부(303)는 동공 추적부(305) 및 동공 위치 산출부(307)를 포함할 수 있다.The spatial position detection unit 303 may detect a three-dimensional position of a specific part (eg, a pupil) within the object from the image received from the image acquisition unit 301 . Here, the spatial position detecting unit 303 may include a pupil tracking unit 305 and a pupil position calculating unit 307 .

동공 추적부(305)는 n개의 동공 추적 모듈(예컨대, 제1 내지 제n 동공 추적 모듈)을 포함할 수 있다. 여기서, 동공 추적 모듈은 카메라로부터 영상을 수신하고, 수신한 영상에서의 동공 포함 여부를 판단할 수 있다. 여기서, 동공 추적 모듈은 상기 영상을 설정된 복수의 영역으로 구분하고, 사람의 얼굴이 존재한다고 판단된 영역에서, 얼굴 내 눈의 영역을 추적하며, 상기 눈의 영역에서 상기 동공을 추적할 수 있다. 이때, 동공 추적 모듈은 상기 구분된 복수의 영역 중에서 동공 분류기를 통과한 출력값이 가장 큰 영역을 얼굴 내 눈의 영역으로 추적할 수 있다.The pupil tracking unit 305 may include n pupil tracking modules (eg, first to nth pupil tracking modules). Here, the pupil tracking module may receive an image from the camera and determine whether a pupil is included in the received image. Here, the pupil tracking module may divide the image into a plurality of set regions, track an eye region within the face in an region where a human face is determined to exist, and track the pupil in the eye region. In this case, the pupil tracking module may track a region having the largest output value passing through the pupil classifier among the plurality of divided regions as an eye region in the face.

즉, 동공 추적 모듈은 상기 영상에서 동공이 포함되는 것으로 판단되는 경우, 영상에서 얼굴을 먼저 찾고, 추출된 얼굴 내에서 눈의 위치를 찾아서, 해당 눈의 위치 내에 존재하는 동공(예컨대, 좌, 우 동공)의 2차원의 위치(즉, 2차원상의 위치)를 추적할 수 있다.That is, when it is determined that the pupil is included in the image, the pupil tracking module first finds the face in the image, finds the position of the eye within the extracted face, and finds the pupil (eg, left, right) within the position of the corresponding eye. Pupil) can be tracked in two dimensions (ie, in two dimensions).

동공 추적 모듈은 상기 추적한 동공에 대한 2차원의 위치를, 동공 위치 산출부(307)에 전달할 수 있다.The pupil tracking module may transmit the two-dimensional position of the tracked pupil to the pupil position calculator 307 .

동공 위치 산출부(307)는 동공 추적부(305) 내 n개의 동공 추적 모듈로부터 동공에 대한 2차원의 위치를 각각 수신하고, 각각 수신한 2차원의 위치 및 n개의 카메라에 관한 상태정보(예컨대, 카메라의 위치, 각도, 방향에 관한 정보, 카메라의 해상도)에 기초하여, 동공에 대한 3차원의 위치(즉, 3차원 공간 상의 위치)를 산출할 수 있다.The pupil position calculation unit 307 receives the two-dimensional positions of the pupils from the n pupil tracking modules in the pupil tracking unit 305, respectively, and state information about the received two-dimensional positions and n cameras (for example, , information about the position, angle, and direction of the camera, and the resolution of the camera), a three-dimensional position with respect to the pupil (ie, a position on a three-dimensional space) may be calculated.

이때, 동공 위치 산출부(307)는 동공 추적부(305) 내 n개의 동공 추적 모듈로부터 좌, 우 동공에 대한 2차원의 각각 위치를 수신하고, 수신된 n개의 좌, 우 동공에 대한 2차원의 위치를 이용하여 좌, 우 동공에 대한 3차원의 위치를 산출할 수 있다. 여기서, 동공 위치 산출부(307)는 2대의 스테레오 카메라에 의해 상기 영상이 획득된 경우, 연속하여 위치하는 2대의 스테레오 카메라 간의 위치 차이(disparity)를 이용하여 좌, 우 동공 간의 거리 및 3차원 공간 상의 위치를 산출할 수 있다.At this time, the pupil position calculation unit 307 receives the respective two-dimensional positions for the left and right pupils from the n pupil tracking modules in the pupil tracking unit 305, and the received two-dimensional for the n left and right pupils. 3D positions for the left and right pupils can be calculated using the positions of . Here, when the image is acquired by two stereo cameras, the pupil position calculator 307 uses a disparity between the two stereo cameras positioned in succession to determine the distance between the left and right pupils and the three-dimensional space. position can be calculated.

디스플레이부(309)는 생성된 홀로그램을, 공간 위치 검출부(303)에 의해 검출된 특정 부분에 대한 3차원의 위치(예컨대, 동공에 대한 3차원의 위치)에 대응하는 공간에 출력할 수 있다.The display unit 309 may output the generated hologram in a space corresponding to a three-dimensional position (eg, a three-dimensional position with respect to the pupil) of the specific portion detected by the spatial position detection unit 303 .

도 4는 본 발명의 일실시예에 따른 동공 추적 장치에서의 카메라 배치에 대한 일례를 나타내는 도면이다.Figure 4 is a view showing an example of the arrangement of the camera in the pupil tracking device according to an embodiment of the present invention.

도 4를 참조하면, 동공 추적 장치는 상이한 방위에 각각 위치한 복수의 카메라(카메라 어레이(camera arrays))을 통해, 오브젝트(예컨대, 사람)를 촬영하여 복수의 영상을 획득할 수 있다. 여기서, 복수의 카메라는 예컨대, 가상의 원을 따라 이격되어 위치할 수 있다.Referring to FIG. 4 , the pupil tracking apparatus may acquire a plurality of images by photographing an object (eg, a person) through a plurality of cameras (camera arrays) respectively located in different orientations. Here, the plurality of cameras may be located spaced apart along a virtual circle, for example.

도 5는 본 발명의 일실시예에 따른 동공 추적 장치에서의 동공에 대한 위치 추적 일례를 설명하기 위한 도면이다.5 is a view for explaining an example of tracking the position of the pupil in the pupil tracking device according to an embodiment of the present invention.

도 5를 참조하면, 동공 추적 장치는 예컨대, 하르(Haar) 특징 기반의 접근 방법을 이용하여 동공에 대한 위치를 계산 함으로써, 동공을 추적할 수 있다.Referring to FIG. 5 , the pupil tracking device may track the pupil by, for example, calculating the position of the pupil using a Haar feature-based approach.

여기서, 하르(Haar) 특징 기반의 접근 방법은 하르 특징자를 하나의 필터 셋으로 구성하고, 얼굴 데이터베이스를 이용하여 각각의 필터에 대한 응답을 하나의 분류기로 구성하며, 입력된 영상이 상기 구성된 분류기를 통과하여 나오는 출력값을 임계치와 비교하고, 상기 비교 결과에 기초하여 얼굴의 존재 여부를 결정하는 접근 방식이다.Here, in the Haar feature-based approach, the Haar feature is configured as one filter set, the response to each filter is configured as a classifier using a face database, and the input image is It is an approach that compares the output value passed through with a threshold, and determines whether or not a face is present based on the comparison result.

동공 추적 장치는 영상이 입력되면, 여러 크기 단위로 얼굴 또는 눈의 후보 영역을 검출할 수 있다. 이때, 동공 추적 장치는 영상으로부터 여러 크기 단위 중에서 동공 분류기를 통과하여 출력되는 가장 큰 출력의 값(예컨대, 하르 분류기의 출력이 가장 큰 값)을 갖는 크기 단위를 얼굴 또는 눈의 영역으로 검출할 수 있다. 상기 동공 분류기는 입력된 영상 내에서, 동공으로 추정되는 영역을 수치 또는 확률적으로 평가하는 수단일 수 있고, 본 발명의 동공 추적 장치에 적용되어, 상기 영상과 연관되어 구분된 복수의 영역 별로 출력값을 평가할 수 있다. 동공 추적 장치는 복수의 영역 각각으로 상기 동공 분류기에 의해 평가된 출력값들을 비교하고, 그 중 가장 큰 출력값으로 평가된 영역을, 얼굴 내 눈의 영역으로 추적할 수 있다.When an image is input, the pupil tracking apparatus may detect candidate regions of faces or eyes in units of various sizes. In this case, the pupil tracking device can detect the size unit having the largest output value (eg, the largest output value of the Har classifier) output through the pupil classifier among several size units from the image as the face or eye region. have. The pupil classifier may be a means for numerically or probabilistically evaluating a region estimated to be a pupil in an input image, and is applied to the pupil tracking apparatus of the present invention, and an output value for each region divided in association with the image can be evaluated. The pupil tracking apparatus may compare the output values evaluated by the pupil classifier in each of a plurality of regions, and may track the region evaluated as the largest output value among the plurality of regions as the region of the eye in the face.

눈의 위치가 검출되면, 동공 추적 장치는 눈의 중심을 기준으로, 동공의 위치를 검출할 수 있다. 이때, 눈의 위치에 기초한 동공의 위치 검출 시, 동공 추적 장치는 카메라에 의해 획득한 영상에서 동공이 더 어둡게 나온다는 점과 동공의 모양이 원에 가깝다는 점에 기초하여, 동공의 위치를 검출할 수 있다.When the position of the eye is detected, the pupil tracking device may detect the position of the pupil based on the center of the eye. At this time, when detecting the position of the pupil based on the position of the eye, the pupil tracking device detects the position of the pupil based on the fact that the pupil comes out darker in the image acquired by the camera and the shape of the pupil is close to a circle. can

이때, 동공 추적 장치는 [수학식 1]에 기초한 원형 검출 알고리즘을 이용하여, 동공의 위치를 검출할 수 있다.In this case, the pupil tracking apparatus may detect the position of the pupil by using a circular detection algorithm based on Equation (1).

Figure 112014099219278-pat00001
Figure 112014099219278-pat00001

여기서, I(x, y)는 (x, y)위치에서의 화소값을, (x0, y0)은 원의 중심을 의미하고, r은 반지름을 나타낸다.Here, I(x, y) denotes the pixel value at the (x, y) position, (x0, y0) denotes the center of the circle, and r denotes the radius.

구체적으로, 동공 추적 장치는 [수학식 1]을 통해, 원의 중심(x0, y0)으로부터 반지름(r)에 의해 2πr로 정규화된 원의 둘레에 있는 모든 화소 값을 더하고, 안쪽과 바깥쪽의 원 둘레의 각각의 화소값의 차가 가장 크게 났을 때의, 원의 둘레를 동공 영역으로 판단할 수 있다. 이때, 동공 추적 장치는 노이즈를 제거하기 위하여, 원의 둘레 검출시, 반지름(r)의 방향으로 가우시안 함수(G(r))를 수행 함으로써, 동공 검출의 정확도를 높일 수 있다.Specifically, the pupil tracking device adds all the pixel values around the circle normalized to 2πr by the radius (r) from the center (x0, y0) of the circle through [Equation 1], and The circumference of the circle when the difference between the respective pixel values around the circle is the largest may be determined as the pupil region. In this case, the pupil tracking apparatus may increase the accuracy of pupil detection by performing a Gaussian function (G(r)) in the direction of the radius (r) when detecting the circumference of a circle in order to remove noise.

도 6은 본 발명의 다른 실시예에 따른 동공 추적 장치의 구성 일례를 도시한 도면이다.6 is a diagram illustrating an example of the configuration of a pupil tracking device according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 다른 실시예에 따른 동공 추적 장치(600)는 영상 획득부(601), 영상 선택부(603), 공간 위치 검출부(605) 및 디스플레이부(611)를 포함할 수 있다.Referring to FIG. 6 , the pupil tracking apparatus 600 according to another embodiment of the present invention may include an image acquisition unit 601 , an image selection unit 603 , a spatial position detection unit 605 , and a display unit 611 . can

영상 획득부(601)는 복수의 카메라를 포함할 수 있다. 여기서, 복수의 카메라는 전방향(즉, 360도)을 한번에 촬영할 수 있는 하나의 전방위 카메라(Omni-directional camera)와, 전방향에 대한 파노라믹 영상을 획득할 수 있도록 상이한 방위에서 오브젝트를 촬영하여 영상을 각각 획득하는 복수의 파노라마 카메라로 구성될 수 있다.The image acquisition unit 601 may include a plurality of cameras. Here, the plurality of cameras take one omni-directional camera capable of photographing omnidirectional (that is, 360 degrees) at once, and objects in different directions to obtain panoramic images for all directions. Thus, it may be composed of a plurality of panoramic cameras each acquiring an image.

이때, 전방위 카메라는 촬영한 영상(613)에서 오브젝트(예컨대, 사람)를 추출하고, 오브젝트가 추출되면, 오브젝트와 연관된 카메라에 관한 식별정보(또는, 카메라의 위치정보)를 영상 선택부(603)에 전달할 수 있다. 여기서, 오브젝트와 연관된 카메라는 오브젝트가 위치하는 방위에 상응하는 카메라일 수 있다.At this time, the omnidirectional camera extracts an object (eg, a person) from the captured image 613 , and when the object is extracted, the identification information (or location information of the camera) related to the object is provided to the image selection unit 603 . can be forwarded to Here, the camera associated with the object may be a camera corresponding to the orientation in which the object is located.

영상 선택부(603)는 영상 획득부(601)에 의해 획득한 복수의 영상 중 일부 영상을 수신할 수 있다. 이때, 영상 선택부(603)는 예컨대, 카메라 스위치(camera switch)를 포함할 수 있으며, 전방위 카메라로부터 수신한 카메라에 관한 식별정보에 기초하여 복수의 파노라마 카메라 중에서 적어도 하나의 파노라마 카메라를 선택하고, 선택한 파노라마 카메라에 스위칭 온(on)하여, 상기 파노라마 카메라로부터 영상을 수신할 수 있다.The image selection unit 603 may receive some images among the plurality of images acquired by the image acquisition unit 601 . In this case, the image selection unit 603 may include, for example, a camera switch, and selects at least one panoramic camera from among a plurality of panoramic cameras based on the identification information about the camera received from the omnidirectional camera, By switching on the selected panoramic camera, an image may be received from the panoramic camera.

여기서, 영상 선택부(603)는 전방위 카메라로부터 상기 카메라에 관한 식별정보를 수신하는 것으로 기재하였으나, 이에 한정되지 않고, 전방위 카메라로부터 영상을 수신하고, 수신된 영상으로부터 상기 카메라에 관한 식별정보를 획득할 수 있다.Here, the image selection unit 603 has been described as receiving the identification information about the camera from the omnidirectional camera, but is not limited thereto, and receives the image from the omnidirectional camera, and obtains the identification information about the camera from the received image can do.

공간 위치 검출부(605)는 영상 선택부(603)로부터 수신한 적어도 하나의 영상으로부터 상기 오브젝트 내 특정 부분(예컨대, 동공)에 대한 3차원의 위치를 검출할 수 있다. 여기서, 공간 위치 검출부(605)는 동공 추적부(607) 및 동공 위치 산출부(609)를 포함할 수 있다.The spatial position detector 605 may detect a three-dimensional position of a specific part (eg, a pupil) within the object from at least one image received from the image selection unit 603 . Here, the spatial position detecting unit 605 may include a pupil tracking unit 607 and a pupil position calculating unit 609 .

동공 추적부(607)는 복수의 동공 추적 모듈을 포함할 수 있다. 동공 추적부(607)는 영상 선택부(603)로부터 적어도 하나의 영상을 수신하고, 수신한 영상에서의 동공 포함 여부를 판단할 수 있다. 여기서, 동공 추적 모듈은 상기 영상을 설정된 복수의 영역으로 구분하고, 상기 구분된 복수의 영역 중에서 동공 분류기(예를 들어, Haar 특징 기반 분류기)의 출력값이 가장 큰 영역을 예컨대, 얼굴 내 눈의 영역으로 추적하며, 상기 눈의 영역에서 상기 동공을 추적할 수 있다.The pupil tracking unit 607 may include a plurality of pupil tracking modules. The pupil tracking unit 607 may receive at least one image from the image selection unit 603 and determine whether a pupil is included in the received image. Here, the pupil tracking module divides the image into a plurality of set regions, and selects a region having the largest output value of a pupil classifier (eg, a Haar feature-based classifier) among the divided regions, for example, an eye region within a face. It is possible to track the pupil in the region of the eye.

동공 추적 모듈은 상기 영상에서 동공이 포함되는 것으로 판단되는 경우, 동공(예컨대, 좌, 우 동공)에 대한 2차원의 위치를 추적하여, 동공 위치 산출부(609)에 전달할 수 있다.When it is determined that the pupil is included in the image, the pupil tracking module may track the two-dimensional position of the pupil (eg, left and right pupil) and transmit it to the pupil position calculator 609 .

동공 위치 산출부(609)는 동공 추적부(607) 내 복수의 동공 추적 모듈로부터 동공에 대한 2차원의 위치를 각각 수신하고, 수신한 2차원의 위치 및 복수의 카메라에 관한 상태정보(예컨대, 카메라의 위치, 각도, 방향에 관한 정보)에 기초하여, 동공에 대한 3차원의 위치를 산출할 수 있다.The pupil position calculation unit 609 receives the two-dimensional position of the pupil from the plurality of pupil tracking modules in the pupil tracking unit 607, respectively, and state information (eg, the received two-dimensional position and the plurality of cameras) Based on information about the position, angle, and direction of the camera), a three-dimensional position with respect to the pupil may be calculated.

디스플레이부(611)는 생성된 홀로그램을, 동공에 대한 3차원의 위치에 대응하는 공간에 출력할 수 있다.The display unit 611 may output the generated hologram in a space corresponding to a three-dimensional position with respect to the pupil.

본 발명의 다른 실시예에 따른 동공 추적 장치(600)는 전방위 카메라에 의해, 선택된 유효 카메라(예컨대, 일부 선택된 파노라마 카메라)로부터 획득한 영상을 이용하여 동공을 검출 함으로써, 동공 추적에 대한 계산량을 줄여, 동공에 대한 위치를 효율적으로 추적할 수 있다.The pupil tracking device 600 according to another embodiment of the present invention detects a pupil using an image obtained from an effective camera (eg, some selected panoramic camera) selected by an omnidirectional camera, thereby reducing the amount of calculation for pupil tracking , it is possible to efficiently track the position relative to the pupil.

도 7 및 도 8은 본 발명의 다른 실시예에 따른 동공 추적 장치에서의 카메라 배치에 대한 일례를 나타내는 도면이다. 도 7은 전면에서 바라볼 때의 카메라 배치도이고, 도 8은 위에서 내려다볼 때의 카메라 배치도이다.7 and 8 are diagrams showing an example of the arrangement of the camera in the pupil tracking device according to another embodiment of the present invention. 7 is a camera layout when viewed from the front, and FIG. 8 is a camera layout when viewed from above.

도 7 및 도 8을 참조하면, 동공 추적 장치는 360도를 한번에 촬영할 수 있는 하나의 전방위 카메라(Omni-directional camera)와, 360도에 대한 파노라믹 영상을 획득할 수 있도록 각각 위치하는 복수의 파노라마 카메라(카메라 어레이(camera arrays))을 통해, 오브젝트(예컨대, 사람)를 촬영하여 복수의 영상을 획득할 수 있다. 여기서, 전면에서 바라볼 때, 복수의 파노라마 카메라는 예컨대, 전방위 카메라 보다 하부에 위치할 수 있고, 위에서 내려다 볼 때, 복수의 파노라마 카메라는 전방위 카메라를 중심으로 예컨대, 가상의 원을 따라 이격되어 위치할 수 있다.Referring to FIGS. 7 and 8 , the pupil tracking device includes one omni-directional camera capable of photographing 360 degrees at once, and a plurality of positions each positioned to obtain a panoramic image for 360 degrees. A plurality of images may be acquired by photographing an object (eg, a person) through a panoramic camera (camera arrays). Here, when viewed from the front, the plurality of panoramic cameras, for example, may be located lower than the omnidirectional camera, and when viewed from above, the plurality of panoramic cameras are spaced apart from the omnidirectional camera, for example, along a virtual circle. can do.

도 9는 본 발명의 일실시예에 따른 동공 추적 방법을 나타내는 흐름도이다.9 is a flowchart illustrating a pupil tracking method according to an embodiment of the present invention.

도 9를 참조하면, 단계 901에서, 동공 추적 장치는 오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득할 수 있다.Referring to FIG. 9 , in step 901 , the pupil tracking apparatus may photograph an object to acquire an image of the object.

이때, 동공 추적 장치는 상이한 방위에 위치하는 n개(n은 자연수)의 카메라를 이용하여, 상기 오브젝트에 대한 영상을 획득할 수 있다. 여기서, 상기 카메라는 스테레오 카메라, 컬러 카메라 또는 깊이 카메라 중 어느 하나일 수 있다.In this case, the pupil tracking apparatus may acquire an image of the object by using n (n is a natural number) cameras located in different orientations. Here, the camera may be any one of a stereo camera, a color camera, or a depth camera.

단계 903에서, 동공 추적 장치는 상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출할 수 있다.In operation 903, the pupil tracking apparatus may detect a three-dimensional position of a specific part in the object from the image.

동공 추적 장치는 상기 영상에서 상기 특정 부분으로서, 동공이 포함되어 있는지를 판단하고, 상기 동공이 포함된 것으로 판단되는 경우, 상기 동공에 대한 2차원의 위치를 추적할 수 있다. 이때, 동공 추적 장치는 상기 영상을 설정된 복수의 영역으로 구분하고, 상기 구분된 복수의 영역 중에서 동공 분류기(예를 들어 Haar 특징 기반 분류기)를 통과한 출력값이 가장 큰 영역을 얼굴 내 눈의 영역으로 추적하며, 상기 눈의 영역에서 상기 동공을 추적 함으로써, 상기 영상에서의 동공 포함 여부를 판단할 수 있다.The pupil tracking apparatus may determine whether a pupil is included as the specific part in the image, and, if it is determined that the pupil is included, may track a two-dimensional position of the pupil. At this time, the pupil tracking device divides the image into a plurality of set regions, and among the divided regions, the region having the largest output value passing through the pupil classifier (eg, Haar feature-based classifier) is defined as the region of the eye in the face. By tracking and tracking the pupil in the region of the eye, it is possible to determine whether or not the pupil is included in the image.

이후, 동공 추적 장치는 상기 동공에 대한 2차원의 위치 및 상기 영상을 획득한 카메라에 관한 상태정보(예컨대, 카메라의 위치, 각도, 방향에 관한 정보)에 기초하여, 상기 동공에 대한 3차원의 위치를 산출할 수 있다.Then, the pupil tracking device is based on the two-dimensional position with respect to the pupil and the state information about the camera that obtained the image (eg, information about the position, angle, and direction of the camera), the three-dimensional for the pupil location can be calculated.

단계 905에서, 동공 추적 장치는 홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력할 수 있다.In step 905, the pupil tracking device may output a hologram to a space corresponding to the three-dimensional position.

다른 일례로서, 동공 추적 장치는 전방향으로 상기 오브젝트를 촬영하는 전방위 카메라와, 전방향에 대한 파노라믹 영상을 획득할 수 있도록 상이한 방위에서 상기 오브젝트를 촬영하는 복수의 파노라마 카메라를 이용하여, 오브젝트에 대한 영상을 획득할 수 있다.As another example, the pupil tracking device uses an omnidirectional camera for photographing the object in all directions, and a plurality of panoramic cameras for photographing the object in different directions so as to obtain a panoramic image for all directions, You can get an image for

이때, 동공 추적 장치는 상기 전방위 카메라로부터 수신한 카메라에 관한 식별정보에 기초하여, 상기 복수의 파노라마 카메라 중에서 적어도 하나의 파노라마 카메라를 선택할 수 있다. 여기서, 동공 추적 장치는 상기 영상에서 상기 오브젝트가 추출되면, 상기 전방위 카메라로부터 상기 오브젝트가 위치하는 방위에 상응하는 상기 카메라에 관한 식별정보를 수신할 수 있다.In this case, the pupil tracking device may select at least one panoramic camera from among the plurality of panoramic cameras based on the identification information about the camera received from the omnidirectional camera. Here, when the object is extracted from the image, the pupil tracking device may receive identification information about the camera corresponding to the direction in which the object is located from the omnidirectional camera.

이후, 동공 추적 장치는 상기 선택한 파노라마 카메라에서 획득한 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출할 수 있으며, 홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력할 수 있다.Thereafter, the pupil tracking apparatus may detect a three-dimensional position of a specific part within the object from the image acquired by the selected panoramic camera, and may output a hologram in a space corresponding to the three-dimensional position.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and carry out program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

300: 동공 추적 장치 301: 영상 획득부
303: 공간 위치 검출부 309: 디스플레이부
300: pupil tracking device 301: image acquisition unit
303: spatial position detection unit 309: display unit

Claims (18)

오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득하는 영상 획득부;
상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 공간 위치 검출부; 및
홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력하는 디스플레이부를 포함하고,
상기 영상 획득부는,
전방향으로 상기 오브젝트를 촬영하는 전방위 카메라 및 상이한 방위에서 상기 오브젝트를 촬영하여 전방향에 대한 파노라믹 영상을 획득하기 위한 복수의 파노라마 카메라를 포함하고,
상기 전방위 카메라 및 상기 복수의 파노라마 카메라를 통해 전방향에서 상기 오브젝트를 촬영하여 상기 오브젝트에 대한 360도 영상을 획득하고,
상기 공간 위치 검출부는, 상기 360도 영상에서 동공의 위치를 추정하는,
동공 추적 장치.
an image acquisition unit for photographing an object to acquire an image of the object;
a spatial position detector for detecting a three-dimensional position of a specific part within the object from the image; and
A display unit for outputting a hologram to a space corresponding to the three-dimensional position,
The image acquisition unit,
Comprising an omnidirectional camera for photographing the object in all directions, and a plurality of panoramic cameras for photographing the object in different directions to obtain a panoramic image for all directions,
Obtaining a 360-degree image of the object by photographing the object in all directions through the omnidirectional camera and the plurality of panoramic cameras,
The spatial position detection unit for estimating the position of the pupil in the 360-degree image,
pupil tracking device.
제1항에 있어서,
상기 영상 획득부는,
상이한 방위에 위치하는 n개(n은 자연수)의 카메라
를 포함하는 동공 추적 장치.
According to claim 1,
The image acquisition unit,
n cameras (n is a natural number) located in different orientations
A pupil tracking device comprising a.
제2항에 있어서,
상기 카메라는,
스테레오 카메라, 컬러 카메라 또는 깊이 카메라 중 어느 하나인
동공 추적 장치.
3. The method of claim 2,
The camera is
Either a stereo camera, a color camera, or a depth camera
pupil tracking device.
제1항에 있어서,
상기 공간 위치 검출부는,
상기 영상에서 상기 특정 부분으로서, 동공이 포함되어 있는지를 판단하고, 상기 동공이 포함된 것으로 판단되는 경우, 상기 동공에 대한 2차원의 위치를 추적하는 동공 추적부
를 포함하는 동공 추적 장치.
According to claim 1,
The spatial position detection unit,
A pupil tracking unit that determines whether a pupil is included as the specific part in the image, and tracks a two-dimensional position of the pupil when it is determined that the pupil is included.
A pupil tracking device comprising a.
제4항에 있어서,
상기 동공 추적부는,
상기 영상을 설정된 복수의 영역으로 구분하고, 상기 구분된 복수의 영역 중에서 동공 분류기를 통과한 출력값이 가장 큰 영역을 얼굴 내 눈의 영역으로 추적하며, 상기 눈의 영역에서 상기 동공을 추적하는
동공 추적 장치.
5. The method of claim 4,
The pupil tracking unit,
The image is divided into a plurality of set regions, and a region having the largest output value passing through the pupil classifier among the divided regions is tracked as an eye region in the face, and the pupil is tracked in the eye region.
pupil tracking device.
제4항에 있어서,
상기 공간 위치 검출부는,
상기 동공에 대한 2차원의 위치 및 상기 영상 획득부 내 카메라에 관한 상태정보에 기초하여, 상기 동공에 대한 3차원의 위치를 산출하는 동공 위치 산출부
를 더 포함하는 동공 추적 장치.
5. The method of claim 4,
The spatial position detection unit,
A pupil position calculator for calculating a three-dimensional position with respect to the pupil based on the two-dimensional position with respect to the pupil and state information about the camera in the image acquisition unit
A pupil tracking device further comprising a.
삭제delete 제1항에 있어서,
상기 전방위 카메라로부터 수신한 카메라에 관한 식별정보에 기초하여, 상기 복수의 파노라마 카메라 중에서 적어도 하나의 파노라마 카메라를 선택하고, 상기 선택한 파노라마 카메라로부터 영상을 수신하여 상기 공간 위치 검출부에 전달하는 영상 선택부
를 더 포함하는 동공 추적 장치.
According to claim 1,
On the basis of the identification information about the camera received from the omnidirectional camera, selects at least one panoramic camera from the plurality of panoramic cameras, receives an image from the selected panoramic camera, and an image selection unit for transmitting the image to the spatial position detection unit
A pupil tracking device further comprising a.
제8항에 있어서,
상기 전방위 카메라는,
상기 영상에서 상기 오브젝트가 추출되면, 상기 오브젝트가 위치하는 방위에 상응하는 상기 카메라에 관한 식별정보를 상기 영상 선택부에 제공하는
동공 추적 장치.
9. The method of claim 8,
The omnidirectional camera,
When the object is extracted from the image, providing identification information about the camera corresponding to the direction in which the object is located is provided to the image selection unit
pupil tracking device.
오브젝트를 촬영하여, 상기 오브젝트에 대한 영상을 획득하는 단계;
상기 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계; 및
홀로그램을 상기 3차원의 위치에 대응하는 공간에 출력하는 단계를 포함하고,
상기 영상을 획득하는 단계는, 전방위 카메라 및 복수의 파노라마 카메라를 통해 전방향에서 상기 오브젝트를 촬영하여 상기 오브젝트에 대한 360도 영상을 획득하는 단계를 포함하고,
상기 검출하는 단계는, 상기 360도 영상에서 동공의 위치를 추정하는 단계를 포함하고,
상기 전방위 카메라는, 전방향으로 상기 오브젝트를 촬영하고,
상기 복수의 파노라마 카메라는, 상이한 방위에서 상기 오브젝트를 촬영하여 전방향에 대한 파노라믹 영상을 획득하는,
동공 추적 방법.
acquiring an image of the object by photographing the object;
detecting a three-dimensional position of a specific part within the object from the image; and
Comprising the step of outputting a hologram in a space corresponding to the three-dimensional position,
The acquiring of the image includes acquiring a 360-degree image of the object by photographing the object in all directions through an omnidirectional camera and a plurality of panoramic cameras,
The detecting includes estimating the position of the pupil in the 360-degree image,
The omnidirectional camera takes the object in all directions,
The plurality of panoramic cameras acquire a panoramic image for all directions by photographing the object from different orientations,
Pupil tracking method.
제10항에 있어서,
상기 오브젝트에 대한 영상을 획득하는 단계는,
상이한 방위에 위치하는 n개(n은 자연수)의 카메라를 이용하여, 상기 오브젝트에 대한 영상을 획득하는 단계
를 포함하는 동공 추적 방법.
11. The method of claim 10,
The step of obtaining an image of the object includes:
Acquiring an image of the object by using n cameras (n is a natural number) located in different orientations
A pupil tracking method comprising a.
제11항에 있어서,
상기 카메라는,
스테레오 카메라, 컬러 카메라 또는 깊이 카메라 중 어느 하나인
동공 추적 방법.
12. The method of claim 11,
The camera is
Either a stereo camera, a color camera, or a depth camera
Pupil tracking method.
제10항에 있어서,
상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계는,
상기 영상에서 상기 특정 부분으로서, 동공이 포함되어 있는지를 판단하는 단계; 및
상기 동공이 포함된 것으로 판단되는 경우, 상기 동공에 대한 2차원의 위치를 추적하는 단계
를 포함하는 동공 추적 방법.
11. The method of claim 10,
The step of detecting a three-dimensional position of a specific part in the object comprises:
determining whether a pupil is included as the specific part in the image; and
When it is determined that the pupil is included, tracking a two-dimensional position with respect to the pupil
A pupil tracking method comprising a.
제13항에 있어서,
상기 동공이 포함되어 있는지를 판단하는 단계는,
상기 영상을 설정된 복수의 영역으로 구분하고, 상기 구분된 복수의 영역 중에서 동공 분류기를 통과한 출력값이 가장 큰 영역을 얼굴 내 눈의 영역으로 추적하며, 상기 눈의 영역에서 상기 동공을 추적하는 단계
를 포함하는 동공 추적 방법.
14. The method of claim 13,
The step of determining whether the pupil is included,
classifying the image into a plurality of set regions, tracing a region having the largest output value passing through a pupil classifier among the plurality of divided regions as an eye region in the face, and tracing the pupil in the eye region
A pupil tracking method comprising a.
제13항에 있어서,
상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계는,
상기 동공에 대한 2차원의 위치 및 상기 영상을 획득한 카메라에 관한 상태정보에 기초하여, 상기 동공에 대한 3차원의 위치를 산출하는 단계
를 더 포함하는 동공 추적 방법.
14. The method of claim 13,
The step of detecting a three-dimensional position of a specific part in the object comprises:
Calculating a three-dimensional position with respect to the pupil based on the two-dimensional position with respect to the pupil and state information about the camera that acquired the image
A pupil tracking method further comprising a.
삭제delete 제10항에 있어서,
상기 동공 추적 방법은,
상기 전방위 카메라로부터 수신한 카메라에 관한 식별정보에 기초하여, 상기 복수의 파노라마 카메라 중에서 적어도 하나의 파노라마 카메라를 선택하는 단계
를 더 포함하고,
상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계는,
상기 선택한 파노라마 카메라에서 획득한 영상으로부터 상기 오브젝트 내 특정 부분에 대한 3차원의 위치를 검출하는 단계
를 포함하는 동공 추적 방법.
11. The method of claim 10,
The pupil tracking method,
Selecting at least one panoramic camera from among the plurality of panoramic cameras based on the identification information about the camera received from the omnidirectional camera
further comprising,
The step of detecting a three-dimensional position of a specific part in the object comprises:
detecting a three-dimensional position of a specific part within the object from the image acquired by the selected panoramic camera;
A pupil tracking method comprising a.
제17항에 있어서,
상기 동공 추적 방법은,
상기 영상에서 상기 오브젝트가 추출되면, 상기 전방위 카메라로부터 상기 오브젝트가 위치하는 방위에 상응하는 상기 카메라에 관한 식별정보를 수신하는 단계
를 더 포함하는 동공 추적 방법.
18. The method of claim 17,
The pupil tracking method,
When the object is extracted from the image, receiving identification information about the camera corresponding to the direction in which the object is located from the omnidirectional camera
A pupil tracking method further comprising a.
KR1020140140919A 2013-12-30 2014-10-17 Apparatus and method for tracking pupil KR102269088B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/584,870 US20150185484A1 (en) 2013-12-30 2014-12-29 Pupil tracking apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130167598 2013-12-30
KR1020130167598 2013-12-30

Publications (2)

Publication Number Publication Date
KR20150079393A KR20150079393A (en) 2015-07-08
KR102269088B1 true KR102269088B1 (en) 2021-06-24

Family

ID=53791752

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140140919A KR102269088B1 (en) 2013-12-30 2014-10-17 Apparatus and method for tracking pupil

Country Status (1)

Country Link
KR (1) KR102269088B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102032487B1 (en) * 2018-05-29 2019-10-15 상명대학교산학협력단 Apparatus and method for mesuring visual fatigue

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070092245A1 (en) * 2005-10-20 2007-04-26 Honeywell International Inc. Face detection and tracking in a wide field of view
US20080240516A1 (en) 2007-03-27 2008-10-02 Seiko Epson Corporation Image Processing Apparatus and Image Processing Method
US20110316853A1 (en) 2010-06-23 2011-12-29 Microsoft Corporation Telepresence systems with viewer perspective adjustment
US20140226952A1 (en) 2010-05-18 2014-08-14 Enforcement Video, Llc Method and system for split-screen video display

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100668303B1 (en) * 2004-08-04 2007-01-12 삼성전자주식회사 Method for detecting face based on skin color and pattern matching

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070092245A1 (en) * 2005-10-20 2007-04-26 Honeywell International Inc. Face detection and tracking in a wide field of view
US20080240516A1 (en) 2007-03-27 2008-10-02 Seiko Epson Corporation Image Processing Apparatus and Image Processing Method
US20140226952A1 (en) 2010-05-18 2014-08-14 Enforcement Video, Llc Method and system for split-screen video display
US20110316853A1 (en) 2010-06-23 2011-12-29 Microsoft Corporation Telepresence systems with viewer perspective adjustment

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Amine Iraqui.H 등. Fusion of Omnidirectional and PTZ cameras for face detection & tracking, ICEST.(2010.09.06.)*
Heekyung Lee 등. Face and eye tracking for sub-hologram based digital holographic display system, SPIE 8384.(2012.05.10.)*

Also Published As

Publication number Publication date
KR20150079393A (en) 2015-07-08

Similar Documents

Publication Publication Date Title
CN110799991B (en) Method and system for performing simultaneous localization and mapping using convolution image transformations
EP2993614B1 (en) Method and device for facial recognition
KR102647351B1 (en) Modeling method and modeling apparatus using 3d point cloud
US9898080B2 (en) Method and apparatus for eye tracking
US10268875B2 (en) Method and apparatus for registering face, and method and apparatus for recognizing face
US9600714B2 (en) Apparatus and method for calculating three dimensional (3D) positions of feature points
US10482656B2 (en) 3D face modeling methods and apparatuses
KR100695174B1 (en) Method and apparatus for tracking listener's head position for virtual acoustics
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
CN105718853B (en) Barrier detecting apparatus and obstacle detection method
KR102455632B1 (en) Mehtod and apparatus for stereo matching
US9953247B2 (en) Method and apparatus for determining eye position information
KR20160093523A (en) Apparatus and method for determining position of eyes
US20150185484A1 (en) Pupil tracking apparatus and method
CN107818596B (en) Scene parameter determination method and device and electronic equipment
KR102269088B1 (en) Apparatus and method for tracking pupil
US9948926B2 (en) Method and apparatus for calibrating multiple cameras using mirrors
Kalutskiy et al. Method of moving object detection from mobile vision system
KR20170078054A (en) Digital Holography Parallel Processing System And Method
Neves et al. A calibration algorithm for multi-camera visual surveillance systems based on single-view metrology
KR102310958B1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
KR101832743B1 (en) Digital Holographic Display and Method For Real-Time Pupil Tracking Digital Holographic Display
KR101918887B1 (en) Distance measuring device using mono infrared camera and method thereof
KR102427739B1 (en) Method and apparatus for calibration of multi cameras using mirrors
CN113424524B (en) Three-dimensional modeling using hemispherical or spherical visible depth images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right