KR101855105B1 - Focus point analysis system for human eye on head-mounted display - Google Patents

Focus point analysis system for human eye on head-mounted display Download PDF

Info

Publication number
KR101855105B1
KR101855105B1 KR1020170006134A KR20170006134A KR101855105B1 KR 101855105 B1 KR101855105 B1 KR 101855105B1 KR 1020170006134 A KR1020170006134 A KR 1020170006134A KR 20170006134 A KR20170006134 A KR 20170006134A KR 101855105 B1 KR101855105 B1 KR 101855105B1
Authority
KR
South Korea
Prior art keywords
analysis
center point
dense
density
zones
Prior art date
Application number
KR1020170006134A
Other languages
Korean (ko)
Inventor
허용수
안대수
김재현
Original Assignee
주식회사 살린
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 살린 filed Critical 주식회사 살린
Priority to KR1020170006134A priority Critical patent/KR101855105B1/en
Application granted granted Critical
Publication of KR101855105B1 publication Critical patent/KR101855105B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)

Abstract

A method for analyzing a focal position of an eye includes the steps of: (a) separating focus data of a plurality of eyes into N analysis zones; (b) calculating a dense center point for each of the N analysis zones, for each analysis zone in which the focus data exists; and (c) calculating a dense center point between the analysis zones by using the dense center point of the corresponding analysis zone and a dense center point of the analysis zone adjacent to the corresponding analysis zone, for the analysis zone representing density of a preset level or more among the dense center points for each analysis zone of the step (b). According to the present invention, a point with high interest of a user can be detected by analyzing the focal position of the user in a head mounted display.

Description

헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법{FOCUS POINT ANALYSIS SYSTEM FOR HUMAN EYE ON HEAD-MOUNTED DISPLAY}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for analyzing a focus position of an eye in a head mount display,

본 발명은 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 관한 것으로, 더욱 상세하게는 눈의 초점 위치를 분석하는 것에 의해 디스플레이되고 있는 영상에서 사용자의 시선 위치를 검출할 수 있는 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a system and method for analyzing a focus position of an eye in a head mount display, and more particularly, To a system and method for analyzing the focal position of an eye in a display.

국내공개특허 제10-2016-0022927호(헤드 마운트 디스플레이를 위한 눈 추적 시스템) 등에는 헤드 마운트 디스플레이 상에서의 사용자의 시선 위치를 검출할 수 있는 시스템이 개시되어 있다.Japanese Patent Application Laid-Open No. 10-2016-0022927 (eye tracking system for head mount display) and the like discloses a system capable of detecting a user's line of sight position on a head mount display.

그런데, 사용자의 눈의 초점 위치인 시선이 하나의 위치에 고정되어 있을 수도 있지만 이동을 할 수도 있고, 하나의 위치에 고정되어 있을 경우에도 한 지점을 응시하는 것이 아니라 다양한 요인에 의해 일부 영역 내에서 초점 위치의 높은 밀집도의 형태로 나타날 수도 있다.However, even if the eye line, which is the focus position of the user's eyes, may be fixed at one position, it may be moved or fixed at one position. Instead of gazing at one point, May appear in the form of a high density of focus positions.

사용자의 눈의 초점 위치 정보는, 사용자의 행동 패턴 등의 분석에 이용되는 것에 의해, 다양하게 활용될 수 있을 것이다. 예를 들면, 영상 중의 PPL 화면에 대해 실제 해당 상품을 사용자가 응시한 경우 PPL 효과가 상승되므로, 그 경우에는 PPL을 위한 광고 비용을 추가적으로 요청할 수도 있을 것이다.The focal point position information of the user's eyes can be utilized variously by being used for analyzing the behavior pattern of the user or the like. For example, the PPL effect may be increased when the user actually looks at the PPL picture in the image. In this case, the advertisement cost for the PPL may be additionally requested.

본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 헤드 마운트 디스플레이에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있는 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법을 제공하는 것에 그 목적이 있다.An object of the present invention is to solve the technical problem as described above, and it is an object of the present invention to provide a head mount display capable of detecting a point of high interest by analyzing a focus position of an eye in a head mount display. And a method for analyzing the focal position of the focal point.

본 발명의 바람직한 일실시예에 따른 눈의 초점 위치 분석 방법은, (a) 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계; (b) 상기 N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해 각 분석 구역별로 밀집 중심점을 산출하는 단계; 및 (c)상기 (b) 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계;를 포함한다.According to a preferred embodiment of the present invention, an eye focal position analyzing method includes: (a) separating focus data of a plurality of eyes into N analysis regions; (b) calculating a dense center point for each of the N analysis regions, for each analysis region, in which the focus data exists; And (c) for the analysis area having density higher than a certain level among the density center points of the analysis areas in the step (b), using the density center point of the analysis area and the density center point of the analysis area adjacent to the analysis area, And calculating a dense center point.

구체적으로, 상기 (b) 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치인 것을 특징으로 한다.Specifically, the dense center point of each analysis zone in the step (b) is a position at which a distance between focus data in one analysis zone is minimized.

아울러, 상기 (c) 단계는, 해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 상기 분석 구역간 밀집 중심점을 산출하는 것이 바람직하다.In addition, in the step (c), it is preferable to calculate the dense center point between the analysis zones using the dense center information of the dense central point and the dense information of the adjacent deny zone as the weight information.

또한, 본 발명의 눈의 초점 위치 분석 방법은, 상기 (a) 단계 이전에, 연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계;를 더 포함하는 것을 특징으로 한다. 바람직하게는, 상기 그룹화하는 단계에서 그룹화된 각각의 그룹에 대해, 상기 (a) 단계 내지 상기 (c) 단계를 실시하되, 하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 한다.In addition, the method for analyzing the focal point position of eyes according to the present invention may further include grouping successive image information into image information units of a first time before the step (a). Preferably, the steps (a) to (c) are performed for each group grouped in the grouping step, wherein at least some of the image information in one group is grouped before or after the group As shown in FIG.

아울러, 상기 (a) 단계에서의 다수의 눈의 초점 데이터는, 사용자가 착용 중인 헤드 마운트 디스플레이의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점인 것을 특징으로 한다.In addition, the plurality of eye focus data in the step (a) is characterized in that a straight line extending in the eye direction of the camera of the head mount display worn by the user collides with the projection object on which the image is projected .

본 발명의 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 따르면, 헤드 마운트 디스플레이에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있다.According to the system and method for analyzing the focal position of the eye in the head mount display of the present invention, it is possible to detect a point of high interest by the user by analyzing the focal position of the eye in the head mount display.

도 1은 본 발명의 바람직한 일실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템의 구성도.
도 2는 본 발명의 초점 위치 수집 및 전송 방법의 설명도.
도 3a 및 도 3b는 각각, 본 발명의 트레이서에 의한 초점 위치 검출 방법의 설명도.
도 4는 본 발명의 바람직한 일실시예에 따른 분석부에 의한 눈의 초점 위치 분석 방법의 흐름도.
도 5는 그룹화하는 단계(S10)의 설명도.
도 6은 다수의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20)의 설명도.
도 7은 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30)의 설명도.
도 8은 분석 구역간 밀집 중심점을 산출하는 단계(S40)의 설명도.
도 9는 본 발명의 초점 위치 분석 방법에 따른 결과의 설명도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of an eye focus position analysis system in a head mount display according to a preferred embodiment of the present invention; FIG.
2 is an explanatory diagram of a focus position acquisition and transmission method according to the present invention;
FIGS. 3A and 3B are explanatory diagrams of a focal position detection method by a tracer according to the present invention, respectively.
4 is a flowchart of a method of analyzing the focal position of eyes by the analyzer according to an embodiment of the present invention.
5 is an explanatory diagram of a step S10 of grouping.
6 is an explanatory diagram of a step S20 of separating a plurality of focus data into N analysis regions.
7 is an explanatory diagram of a step (S30) of calculating a dense center point for each analysis area.
8 is an explanatory diagram of a step (S40) of calculating a dense center point between analysis zones.
FIG. 9 is an explanatory diagram of a result of the focus position analysis method of the present invention. FIG.

이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법에 대해 상세히 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a system and method for analyzing an eye focal position in a head mount display according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리 범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리 범위에 속하는 것으로 해석된다.It should be understood that the following embodiments of the present invention are only for embodying the present invention and do not limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

먼저, 도 1은 본 발명의 바람직한 일실시예에 따른 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템(100)의 구성도를 나타낸다.FIG. 1 is a block diagram of a system 100 for analyzing the focal position of an eye in a head mounted display according to a preferred embodiment of the present invention.

도 1로부터 알 수 있는 바와 같이, 눈의 초점 위치 분석 시스템(100)은, 헤드 마운트 디스플레이(110) 및 서버(120)를 포함하여 구성되는 것이 바람직하다.As can be seen from FIG. 1, the eye focus position analysis system 100 preferably comprises a head mount display 110 and a server 120.

헤드 마운트 디스플레이(110)는 렌더러(111)와 트레이서(112)를 포함한다. The head mount display 110 includes a renderer 111 and a tracer 112.

렌더러(111)는, 눈의 초점 위치를 검출하고, 헤드 마운트 디스플레이(110)에 비디오, 메타데이터 및 CG(Computer Graphic) 객체를 그려 주는 역할을 한다. The renderer 111 detects the focal position of the eye and plays a role of drawing video, metadata and CG (Computer Graphic) objects on the head mount display 110.

아울러, 트레이서(112)는, 헤드 마운트 디스플레이(110)를 사용하는 사용자의 눈의 초점 위치를 검출하고, 검출된 초점 위치 데이터를 수집한다. 수집된 초점 위치 데이터는, 헤드 마운트 디스플레이(110)로부터 서버(120)로 전송되게 된다. In addition, the tracer 112 detects the focal position of the user's eye using the head-mounted display 110 and collects the detected focal position data. The collected focus position data is transmitted from the head mount display 110 to the server 120.

도 2는 본 발명의 초점 위치 수집 및 전송 방법의 설명도이다.2 is an explanatory diagram of a focus position acquisition and transmission method of the present invention.

도 2로부터 알 수 있는 바와 같이, 본 발명에서는 검출된 초점 위치는 검출 시점의 시간을 판단할 수 있는 태그(검출 시간 정보)와 함께 임시 저장소(메모리)에 저장되며 저장된 초점 위치는 특정 주기(1초, 5초 등)마다 한꺼번에 서버(120)로 전송된다. 이는 서버(120)의 부하와 클라이언트의 성능에 따라 변경될 수 있으며 초점 위치의 검출 즉시 서버(120)로 전송될 수도 있다. As can be seen from FIG. 2, in the present invention, the detected focal position is stored in a temporary storage (memory) together with a tag (detection time information) that can determine the time of the detection time, Seconds, 5 seconds, etc.) to the server 120 at once. This may vary depending on the load of the server 120 and the performance of the client and may be transmitted to the server 120 upon detection of the focus position.

도 3a 및 도 3b는 각각, 본 발명의 트레이서(112)에 의한 초점 위치 검출 방법의 설명도를 나타낸다.3A and 3B are explanatory diagrams of a focal position detection method by the tracer 112 of the present invention, respectively.

구체적으로 도 3a는 2차원 영상 투영시 초점 위치 검출 설명도이고, 도 3b는 180/360도 영상 투영시 초점 위치 검출 설명도이다.Specifically, FIG. 3A is an explanatory view of the focus position detection in the two-dimensional image projection, and FIG. 3B is an explanatory view of the focus position detection in the 180/360 degree image projection.

도 3a 및 도 3b로부터 알 수 있는 바와 같이, 초점 위치는, 3차원 공간 안에서 카메라 시선 방향으로 연장된 직선과 육면체, 반구, 구 등으로 표현할 수 있는 영상이 투영되는 투영 객체(Virtual Screen)와의 충돌점의 3차원 좌표로 표현할 수 있다. As can be seen from FIGS. 3A and 3B, the focus position is determined by collision with a projection object (Virtual Screen) on which an image that can be expressed by a straight line extending in the camera eye direction and a cube, hemisphere, Dimensional coordinates of the point.

즉, 사용자가 착용 중인 헤드 마운트 디스플레이(110)의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점이 초점 위치로서 검출되게 된다. 구체적으로, 카메라의 시선 방향으로 연장된 직선은, 사용자의 시야의 중심선이 되게 된다.That is, a point at which a straight line extending in the eye direction of the camera of the head mount display 110, which the user wears, collides with the projection object on which the image is projected is detected as the focus position. Specifically, a straight line extending in the visual line direction of the camera becomes the center line of the user's visual field.

본 발명의 서버(120)는, 데이터 저장부(121) 및 분석부(122)를 포함하여 구성될 수 있다.The server 120 of the present invention may include a data storage unit 121 and an analysis unit 122.

헤드 마운트 디스플레이(110)로부터 수신된 데이터는 데이터 저장부(121)에 저장된 후, 분석부(122)에 의해 분석되게 된다. 아울러, 분석부(122)에 의해 분석이 완료된 결과 데이터는 다시 데이터 저장부(121)에 저장되거나, 별도의 저장소에 저장될 수 있다.The data received from the head mount display 110 is stored in the data storage unit 121 and then analyzed by the analysis unit 122. In addition, the analysis result data that has been analyzed by the analysis unit 122 may be stored in the data storage unit 121 or may be stored in a separate storage.

데이터 저장부(121)에 저장된 초점 위치 데이터는 크게 두가지 형태로 나눌 수 있다. 초점 이동 중인 이동 좌표와 고정된 초점 좌표인 고정 좌표로 나눌 수 있으며, 이 중에서 최종적으로 필요한 정보는 고정된 초점 좌표이다. 그런데, 고정된 초점 좌표와 이동 중인 초점 좌표는 밀집도에 의해 그 차이를 구분할 수 있다. 고정된 초점 좌표는 일반적으로 일정 영역 내에 밀집되어 있으며, 이동 중인 경우에는 이와는 달리 특정한 방향성을 갖는다. 현재 관심있는 데이터는 고정된 초점 좌표이므로 이는 밀집도 여부로 판단하여야 한다. 본 발명에서는, 이러한 밀집도를 판단하기 위해 군집 알고리즘을 사용하여 밀집도를 판단한다. 군집 알고리즘은 데이터를 유사성이 많은 것끼리 모음으로써 그룹 내에서는 단위 원소의 동질성을 극대화하고 서로 다른 그룹 상호 간에는 그 차이를 극대화시키기 위한 알고리즘을 말한다. 군집 알고리즘은 데이터 특성과 구조, 분석 목적에 따라 여러가지 방법을 사용할 수 있으며, 이 중 초점의 특징상 밀도 기반의 분석 알고리즘을 사용하는 것이 가장 적합한 것으로 판단된다.The focal position data stored in the data storage unit 121 can be divided into two types. The moving coordinate in focus and the fixed coordinate, which is the fixed focus coordinate, are finally fixed. However, fixed focus coordinates and moving focus coordinates can be distinguished by density. The fixed focal point coordinates are generally concentrated within a certain area, and when moving, they have a specific directionality. Since the data of interest at present is a fixed focal point coordinate, it should be determined whether it is dense or not. In the present invention, density is determined using a cluster algorithm to determine such density. A clustering algorithm is an algorithm that maximizes the homogeneity of unit elements within a group by maximizing similarity among data and maximizes the difference between groups. The clustering algorithms can use various methods according to data characteristics, structure, and analysis purpose. Among them, it is considered to be most suitable to use the density based analysis algorithm.

도 4는 본 발명의 바람직한 일실시예에 따른 분석부(122)에 의한 눈의 초점 위치 분석 방법의 흐름도를 나타낸다. 분석부(122)는, 서버(120)에 포함된 적어도 하나의 프로세서의 적어도 일부에 의해 구현될 수 있다. 즉, 본 발명의 눈의 초점 위치 분석 방법은, 하나의 프로세서의 적어도 일부에 의해 실시될 수 있다. 4 is a flowchart illustrating a method of analyzing the focal position of an eye by the analyzer 122 according to an embodiment of the present invention. The analysis unit 122 may be implemented by at least a portion of at least one processor included in the server 120. [ That is, the eye focal position analysis method of the present invention can be implemented by at least a part of one processor.

도 4로부터 알 수 있는 바와 같이, 본 발명의 바람직한 일실시예에 따른 눈의 초점 위치 분석 방법은, 연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계(S10), 하나의 그룹의 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20), 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30) 및 S30 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계(S40)를 포함한다.As can be seen from FIG. 4, the method for analyzing the focal position of an eye according to the preferred embodiment of the present invention includes the steps of grouping continuous image information into image information units of a first time (S10) (S20) of dividing the focus data of a plurality of eyes into N analysis regions, a step (S30) of calculating a dense center point for each of the analysis regions, and an analysis region (S40) calculating a dense center point between the analysis zones using the dense center point of the analysis zone and the dense center point of the analysis zone adjacent to the analyzed zone.

도 5는 그룹화하는 단계(S10)의 설명도이다.Fig. 5 is an explanatory diagram of the grouping step S10.

헤드 마운트 디스플레이(110)에 의해 추출된 초점은 영상에 대한 초점이므로, 영상의 프레임이 변경됨에 따라 자연스럽게 이동하게 된다. 따라서, 전체 초점 데이터에 대해 초점 위치를 파악하는 것은 크게 의미가 없으며, 가능한 짧은 시간 단위의 그룹으로 초점 위치를 분석하는 것이 바람직하다. 시간 단위는 영상의 특성에 따라 달라질 수 있으며 이는 고정적인 특정 구간이 아닌 특성에 따라 다른 값이 될 수 있음을 의미한다. 또한, 초점의 이동은 연속적이며 이전의 위치와 연관이 있기 때문에 겹치는 구간을 일정 부분 추가하여 분석 정확도를 높이도록 한다. 예를 들어, 2초째의 분석에서는 이전 0 내지 1초 구간을 포함하여 0 내지 2초 단위로 분석한다.Since the focus extracted by the head mount display 110 is focused on the image, the frame moves naturally as the frame of the image is changed. Therefore, it is not meaningful to grasp the focal position with respect to the whole focal data, and it is preferable to analyze the focal position in groups of as short a time unit as possible. The time unit may vary depending on the characteristics of the image, which means that it may be a different value depending on the characteristic rather than the fixed specific period. In addition, since the shift of the focus is continuous and related to the previous position, the analysis accuracy is increased by adding a certain portion of overlapping sections. For example, in the second-second analysis, the analysis is performed in units of 0 to 2 seconds including the previous 0 to 1 second interval.

즉, 본 발명의 그룹화하는 단계(S10)에서, 하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 한다.That is, in the grouping step (S10) of the present invention, at least some image information in one group is used in a group before or after the group.

도 6은 다수의 초점 데이터를 N개의 분석 구역으로 분리하는 단계(S20)의 설명도이다. 도 6에서는 직사각형을 이용한 16개의 분석 구역을 예시적으로 표시하였다.6 is an explanatory diagram of a step S20 of separating a plurality of focus data into N analysis regions. In Fig. 6, sixteen analysis zones using a rectangle are illustrated by way of example.

S20 단계는 원형 또는 사각형과 같은 도형을 하나의 분석 구역으로 하여 실시되는 것이 바람직하다. 다만, 본 발명의 경우 영상 정보를 기초로 이루어지므로, 원형보다는 영상 프레임에 비례하는 직사각형을 이용하여 분석 구역을 분리하는 것이 더욱 바람직하다.In step S20, it is preferable that a figure such as a circle or a rectangle is implemented as one analysis zone. However, since the present invention is based on image information, it is more preferable to separate the analysis area by using a rectangle proportional to the image frame rather than the circular shape.

즉, 전체 데이터에 대해 밀집도 분석을 행할 경우 보다 정확한 밀집도 측정이 가능하지만 속도가 떨어지는 문제가 발생할 수 있다. 따라서, 영상의 크기에 따라 분석 구역을 나누고 각 분석 구역 내의 초점 데이터의 밀집도를 병렬로 계산할 수 있도록 하여 분석 속도 향상을 기대할 수 있다. 분석 구역의 크기는 영상의 해상도 등에 따라 달라질 수 있다.That is, when density analysis is performed on the entire data, more accurate density measurement can be performed, but the speed may be lowered. Therefore, it is expected that the analysis speed can be improved by dividing the analysis area according to the size of the image and calculating the density of the focus data in each analysis area in parallel. The size of the analysis area may vary depending on the resolution of the image.

도 7은 각 분석 구역별로 밀집 중심점을 산출하는 단계(S30)의 설명도이다.7 is an explanatory diagram of a step (S30) of calculating a dense center point for each analysis area.

S30 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치에 의해 산출되는 것을 특징으로 한다. 아울러, S30 단계는, 분석 구역을 생성한 후 데이터가 존재하지 않는 분석 구역을 제외한 나머지 구역에 대해서 밀집도 분석을 시행하는 것이 바람직하다.The dense center point of each analysis zone in step S30 is characterized by being calculated by a position that minimizes the distance between the focus data in one analysis zone. In addition, in step S30, it is preferable to perform the density analysis on the remaining area except the analysis area where no data exists after the analysis area is created.

즉, S30 단계는, N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해서만 분석 구역별 밀집 중심점을 산출하는 것이 바람직하다. 아울러, 밀집도는 그 중심점에 대해서 각 초점 데이터의 거리의 평균으로 계산할 수 있다.That is, in step S30, it is preferable to calculate the dense center point for each analysis area only for the analysis area where the focus data exists among the N analysis areas. In addition, the density can be calculated as an average of the distance of each focus data with respect to the center point.

분석 구역 내의 밀집도 분석의 경우 계산 속도는 빠르지만 도 7의 분석 구역 8 및 분석 구역 12에서 볼 수 있듯이 양 구역에 걸치는 경우 정확한 위치를 찾기 어렵고 두 개의 중심점으로 나뉘는 문제가 발생한다. In the case of density analysis in the analysis area, the calculation speed is fast, but as can be seen in the analysis area 8 and the analysis area 12 in FIG. 7, it is difficult to find the exact position when dividing into both areas, and the problem is divided into two center points.

따라서, S40 단계에서 분석 구역 내에서 생성된 각 중심점을 기준으로 K-Means Algorithm을 적용하여 정확한 클러스터( cluster)의 중심점을 다시 생성한다. 또한, 밀집도가 기준값 이상인 경우에만 한해서만 분석하여 계산 속도를 높인다. Accordingly, in step S40, the center point of the correct cluster is regenerated by applying the K-Means Algorithm based on each center point generated in the analysis area. Also, only when the density is higher than the reference value, it is analyzed only to increase the calculation speed.

도 8은 분석 구역간 밀집 중심점을 산출하는 단계(S40)의 설명도를 나타낸다.FIG. 8 is an explanatory diagram of a step (S40) of calculating a dense center point between analysis zones.

분석 구역 6의 경우, 분석 구역 6을 비롯, 분석 구역 1, 2, 3, 5, 7, 9, 10, 11에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 1, 2, 3, 5, 7, 9, 10, 11의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 6의 밀집 중심점이 분석 구역간 밀집 중심점이 되게 된다.For analysis zone 6, it is necessary to calculate the dense center point for analysis zones 1, 2, 3, 5, 7, 9, 10, 11, However, in the case of analysis zones 1, 2, 3, 5, 7, 9, 10, and 11, the density is less than the reference value and is excluded from the calculation of the density center point between analysis zones. .

아울러, 분석 구역 8의 경우에는, 분석 구역 8을 비롯, 분석 구역 3, 4, 7, 11, 12에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 3, 4, 7, 11의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 8의 밀집 중심점 및 분석 구역 12의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하게 된다.In addition, in the case of the analysis zone 8, it is necessary to calculate the density center point for the analysis zones 3, 4, 7, 11, 12 including the analysis zone 8. In the case of the analytical zones 3, 4, 7 and 11, since the density is less than the reference value, it is excluded from the calculation of the dense center point between the analytical zones. Therefore, by using the dense center point of the analytical zone 8 and the dense central point of the analytical zone 12, .

마찬가지로, 분석 구역 12의 경우에는, 분석 구역 12를 비롯, 분석 구역 7, 8, 11, 15, 16에 대해 밀집 중심점을 산출할 필요가 있다. 그런데, 분석 구역 7, 11, 15, 16의 경우에는 밀집도가 기준값 이하이므로 분석 구역간 밀집 중심점 산출에서 제외되므로, 분석 구역 8의 밀집 중심점 및 분석 구역 12의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하게 된다.Similarly, in the case of the analysis zone 12, it is necessary to calculate the dense center point for the analysis zones 7, 8, 11, 15, 16, including the analysis zone 12. In the case of the analysis zones 7, 11, 15 and 16, since the density is less than the standard value, it is excluded from the calculation of the density center point between the analysis zones. Therefore, by using the density center point of the analysis zone 8 and the density center point of the analysis zone 12, .

구체적으로, 분석 구역간 밀집 중심점은, 분석 구역간 밀집 중심점 사이의 거리가 최소가 되게 하는 위치에 의해 산출되는 것을 특징으로 한다.Specifically, the dense center point between analysis zones is calculated by a position that minimizes the distance between dense center points between analysis zones.

도 8에서는 별도의 가중치를 적용하지 않았으나, 경우에 따라서는 S40 단계는, 해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 분석 구역간 밀집 중심점을 산출할 수도 있을 것이다.Although no weight is applied in FIG. 8, depending on the case, in step S40, the density center point between the analysis zones and the density information of the adjacent analysis zones are used as the weight information to calculate the density center point between the analysis zones You can do it.

도 9는 본 발명의 초점 위치 분석 방법에 따른 결과의 설명도를 나타낸다.FIG. 9 shows an explanatory diagram of the results of the focus position analysis method of the present invention.

50개의 초점 데이터를 2차원 평면에 표시하였을 경우, 도 9에 나타낸 바와 같은 다양한 분포를 갖게 된다. 분포에 대해 직관적으로 고정 초점의 경우 밀집도가 높고 이동 초점의 경우 밀집도가 낮음을 확인할 수 있다. 본 발명의 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치 분석 시스템(100) 및 그 방법에 따르면, 초점 데이터 중 관심이 있는 고정 초점을 찾고, 이동 초점을 제거하기 위해서는 밀집도를 비교하는 군집 알고리즘을 사용하여 고정 초점을 추출할 수 있음을 확인할 수 있다.When 50 pieces of focus data are displayed on a two-dimensional plane, they have various distributions as shown in FIG. Intuitively, it can be seen that the density of the fixed focus is high and the density of the moving focus is low. According to the eye focal position analysis system 100 and method of the head mount display 110 of the present invention, a clustering algorithm for finding a fixed focus of interest and removing a moving focal point out of the focus data, It can be seen that the fixed focus can be extracted by using

상술한 바와 같이, 본 발명의 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치 분석 시스템(100) 및 그 방법에 따르면, 헤드 마운트 디스플레이(110)에서의 눈의 초점 위치를 분석하는 것에 의해 사용자의 관심도가 높은 지점을 검출할 수 있음을 알 수 있다.As described above, according to the eye focal point position analyzing system 100 and method thereof in the head-mounted display 110 of the present invention, by analyzing the focal point position of the eye in the head-mounted display 110, It can be seen that a point having a high degree of interest can be detected.

100 : 초점 위치 분석 시스템
110 : 헤드 마운트 디스플레이
120 : 서버
111 : 렌더러
112 : 트레이서
121 : 데이터 저장부
122 : 분석부
100: Focus position analysis system
110: Head mount display
120: Server
111: The renderer
112: Tracer
121: Data storage unit
122:

Claims (7)

(a) 다수의 눈의 초점 데이터를 N개의 분석 구역으로 분리하는 단계;
(b) 상기 N개의 분석 구역 중, 초점 데이터가 존재하는 분석 구역에 대해 각 분석 구역별로 밀집 중심점을 산출하는 단계; 및
(c) 상기 (b) 단계의 분석 구역별 밀집 중심점 중 일정 수준 이상의 밀집도를 나타내는 분석 구역에 대해, 해당 분석 구역의 밀집 중심점 및 해당 분석 구역과 인접한 분석 구역의 밀집 중심점을 이용하여 분석 구역간 밀집 중심점을 산출하는 단계;를 포함하되,
상기 (b) 단계의 분석 구역별 밀집 중심점은, 하나의 분석 구역 내의 초점 데이터 사이의 거리가 최소가 되게 하는 위치인 것을 특징으로 하는 눈의 초점 위치 분석 방법.
(a) separating focus data of a plurality of eyes into N analysis regions;
(b) calculating a dense center point for each of the N analysis regions, for each analysis region, in which the focus data exists; And
(c) For the analysis area having a density higher than a certain level among the density center points of the analysis area in the step (b), the density center point of the analysis area and the density center point of the analysis area adjacent to the analysis area are used, Calculating a center point,
Wherein the dense center point of each analysis region in the step (b) is a position at which a distance between focus data in one analysis region is minimized.
삭제delete 삭제delete 제1항에 있어서,
상기 (c) 단계는,
해당 분석 구역별 밀집 중심점의 분석 구역 및 그 인접한 분석 구역의 밀집도 정보를 가중치 정보로 이용하여, 상기 분석 구역간 밀집 중심점을 산출하는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
The method according to claim 1,
The step (c)
Wherein the dense center point between the analysis zones is calculated using the dense center information of the dense analysis zones and the dense information of the adjacent analysis zones as the weight information.
제1항에 있어서,
상기 눈의 초점 위치 분석 방법은,
상기 (a) 단계 이전에,
연속적인 영상 정보를 제 1 시간의 영상 정보 단위로 그룹화하는 단계;를 더 포함하는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
The method according to claim 1,
The method of claim 1,
Before the step (a)
And grouping successive image information into image information units of a first time period.
제5항에 있어서,
상기 그룹화하는 단계에서 그룹화된 각각의 그룹에 대해, 상기 (a) 단계 내지 상기 (c) 단계를 실시하되,
하나의 그룹에서의 적어도 일부 영상 정보는, 해당 그룹 이전 또는 이후의 그룹에서 중첩적으로 이용되는 것을 특징으로 하는 눈의 초점 위치 분석 방법.
6. The method of claim 5,
Performing the steps (a) to (c) for each group grouped in the grouping step,
Wherein at least some of the image information in one group is used overlappingly in a group before or after the corresponding group.
제1항에 있어서,
상기 (a) 단계에서의 다수의 눈의 초점 데이터는,
사용자가 착용 중인 헤드 마운트 디스플레이의 카메라의 시선 방향으로 연장된 직선이, 영상이 투영되는 투영 객체와 충돌하는 지점인 것을 특징으로 하는 눈의 초점 위치 분석 방법.
The method according to claim 1,
The plurality of eye focus data in the step (a)
Wherein a straight line extending in a direction of a line of sight of a camera of a head mounted display worn by a user collides with a projection object on which an image is projected.
KR1020170006134A 2017-01-13 2017-01-13 Focus point analysis system for human eye on head-mounted display KR101855105B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170006134A KR101855105B1 (en) 2017-01-13 2017-01-13 Focus point analysis system for human eye on head-mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170006134A KR101855105B1 (en) 2017-01-13 2017-01-13 Focus point analysis system for human eye on head-mounted display

Publications (1)

Publication Number Publication Date
KR101855105B1 true KR101855105B1 (en) 2018-05-08

Family

ID=62187194

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170006134A KR101855105B1 (en) 2017-01-13 2017-01-13 Focus point analysis system for human eye on head-mounted display

Country Status (1)

Country Link
KR (1) KR101855105B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088828A (en) * 2013-10-29 2015-05-07 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088828A (en) * 2013-10-29 2015-05-07 ソニー株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
CN107358149B (en) Human body posture detection method and device
US11854136B2 (en) Monitoring a scene to analyze an event using a plurality of image streams
Seer et al. Kinects and human kinetics: A new approach for studying pedestrian behavior
CN101243693B (en) Method and circuit arrangement for recognising and tracking eyes of several observers in real time
US8300935B2 (en) Method and system for the detection and the classification of events during motion actions
US8854469B2 (en) Method and apparatus for tracking persons and locations using multiple cameras
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
KR102203810B1 (en) User interfacing apparatus and method using an event corresponding a user input
US20160110885A1 (en) Cloud based video detection and tracking system
JP6425847B1 (en) Image processing apparatus, image processing method and program
CN107247926B (en) A kind of human body detecting method and device
CN111325107B (en) Detection model training method, device, electronic equipment and readable storage medium
KR101439037B1 (en) Method and apparatus for tracking object in image
CN111091025A (en) Image processing method, device and equipment
JP6221292B2 (en) Concentration determination program, concentration determination device, and concentration determination method
CN106033613B (en) Method for tracking target and device
CN103854026B (en) A kind of recognition methods and electronic equipment
KR101855105B1 (en) Focus point analysis system for human eye on head-mounted display
US20230091536A1 (en) Camera Placement Guidance
Shahid et al. Eye-gaze and augmented reality framework for driver assistance
Ridwan Looming object detection with event-based cameras
Paletta et al. A computer vision system for attention mapping in SLAM based 3D models
JP2012084078A (en) Dynamic body information analyzer, dynamic body information analysis system, control method for dynamic body information analyzer, and control program for dynamic body information analyzer
CN109034138A (en) Image processing method and device
CN112926481B (en) Abnormal behavior detection method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant