KR20170135762A - Gaze detection system - Google Patents

Gaze detection system Download PDF

Info

Publication number
KR20170135762A
KR20170135762A KR1020170067659A KR20170067659A KR20170135762A KR 20170135762 A KR20170135762 A KR 20170135762A KR 1020170067659 A KR1020170067659 A KR 1020170067659A KR 20170067659 A KR20170067659 A KR 20170067659A KR 20170135762 A KR20170135762 A KR 20170135762A
Authority
KR
South Korea
Prior art keywords
image
user
display
marker
unit
Prior art date
Application number
KR1020170067659A
Other languages
Korean (ko)
Inventor
로흐란 본 윌슨
케이치 세코
야마토 카네코
렘코 쿠이저
벤자민 스콧 하퍼
Original Assignee
포브, 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포브, 아이엔씨. filed Critical 포브, 아이엔씨.
Publication of KR20170135762A publication Critical patent/KR20170135762A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G06K9/00604
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

The present invention provides a gaze detecting system capable of checking whether a user is gazing at a marker or not during calibration. The system includes: a head mount display used by being mounted on a user; and a gaze detecting device detecting a gaze of the user. The head mount display includes: a display part displaying an image; a photographing part photographing the eyes of the user; and an image output part outputting an image of the eyes photographed by the photographing part to the gaze detecting device. The gaze detecting part includes: a marker image output part outputting a marker image to be displayed in the display part; and a synthetic image making part making a synthetic image by overlapping the image of the eyes photographed by the photographing part with the marker image outputted by the marker image output part.

Description

시선 검출 시스템{GAZE DETECTION SYSTEM}[0001] GAS DETECTION SYSTEM [0002]

이 발명은, 시선 검출 시스템에 관한 것으로, 특히 헤드 마운트 디스플레이를 이용한 시선 검출 기술에 관한 것이다.The present invention relates to a line-of-sight detection system, and more particularly to a line-of-sight detection technique using a head-mounted display.

종래, 유저가 어느 곳을 보고 있는지를 특정하기 위한 시선 검출을 행할 때는, 캘리브레이션을 행할 필요가 있었다. 여기에서, 캘리브레이션이란, 특정 지표를 유저에게 주시시켜, 그 특정 지표가 표시된 위치와, 그것을 주시하는 유저의 각막 중심의 위치 관계를 특정하는 것을 말한다. 당해 캘리브레이션을 행함으로써, 시선 검출을 행하는 시선 검출 시스템은, 유저가 어느 곳을 보고 있는지를 특정할 수 있게 된다.Conventionally, it has been necessary to carry out the calibration when the user performs the sight line detection to specify the place where the user is looking. Here, the calibration refers to specifying the position of the specific indicator on the user and the positional relationship between the center of the cornea of the user who watches the specific indicator and the specific indicator. By performing the calibration, the line-of-sight detection system for detecting the line-of-sight can specify the place where the user is looking.

특허문헌 1에는, 캘리브레이션을 행하여 시선 검출을 실시하는 기술이 개시되어 있다(예를 들면, 특허문헌 1 참조).Patent Literature 1 discloses a technique of performing visual line detection by performing calibration (see, for example, Patent Document 1).

특허문헌 1: 일본 공개특허공보 2012-216123호Patent Document 1: JP-A-2012-216123

그러나 상기 캘리브레이션에는, 유저가 특정 지표를 주시하고 있는 것이 확정되어 있다는 조건하에서의 사전 준비가 이루어지기 때문에, 유저가 특정 지표를 주시하고 있지 않은 상태에서 정보를 취득한 경우에는, 실제의 시선 검출을 정확하게 실행할 수 없다는 문제가 있었다. 상기 문제는, 유저의 눈의 주위를 장치로 가려 버려 내부의 모습을 시인할 수 없는 헤드 마운트 디스플레이의 경우에는, 유저가 실제로 특정 지표를 주시하고 있는지를 주위로부터 오퍼레이터가 확인할 수 없었기 때문에, 특히 현저했다.However, since the calibration is performed under the condition that it is determined that the user is watching the specific indicator, the information is obtained in a state in which the user is not watching the specific indicator. Therefore, There was a problem that it could not. In the case of the head mount display in which the inside of the user's eyes is hidden by the apparatus and the inside appearance can not be visually recognized, the above problem can not be confirmed by the operator from the surroundings whether or not the user is actually watching the specific indicator. did.

따라서, 본 발명은 이러한 과제를 감안하여 이루어진 것이며, 그 목적은, 헤드 마운트 디스플레이를 장착한 유저의 시선 검출을 실현하기 위한 캘리브레이션을 정확하게 실행할 수 있는 기술을 제공하는 것에 있다.SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a technique capable of accurately performing calibration for realizing visual line detection of a user wearing a head mount display.

상기 과제를 해결하기 위하여, 본 발명의 일 양태는, 유저에게 장착하여 사용하는 헤드 마운트 디스플레이와, 유저의 시선을 검출하는 시선 검출 장치를 포함하는 시선 검출 시스템으로서, 헤드 마운트 디스플레이는, 화상을 표시하는 표시부와, 유저의 눈을 촬상하는 촬상부와, 촬상부가 촬상한 유저의 눈을 포함하는 화상을 시선 검출 장치에 대하여 출력하는 화상 출력부를 구비하고, 시선 검출 장치는, 표시부에 표시시키는 마커 화상을 출력하는 마커 화상 출력부와, 마커 화상 출력부가 출력한 마커 화상, 및 촬상부에 의하여 촬상된 마커 화상을 주시하고 있는 유저의 눈을 포함하는 화상을 중첩한 합성 화상을 작성하는 합성 화상 작성부와, 합성 화상을 출력하는 합성 화상 출력부를 구비한다.According to one aspect of the present invention, there is provided a line-of-sight detection system including a head-mounted display mounted on a user and a line-of-sight detecting apparatus for detecting a line of sight of a user, And an image output section for outputting an image including eyes of a user who has captured the image pickup section to the visual line detecting device, wherein the visual line detecting device comprises a display section for displaying a marker image to be displayed on the display section A marker image output unit for outputting the marker image output by the marker image output unit, and a marker image generated by the marker image output unit and the image of the user who is watching the marker image picked up by the image pickup unit, And a composite image output unit for outputting a composite image.

또, 마커 화상 출력부는, 마커 화상의 표시 위치를 순서대로 변경하여 출력하고, 촬상부는, 적어도 표시 위치가 변경될 때 마다 마커 화상을 주시하는 유저의 눈을 촬상하는 것으로 해도 된다.The marker image output section may change the display position of the marker image in order and output the same, and the imaging section may image the user's eye watching the marker image at least every time the display position is changed.

또, 마커 화상 출력부는, 마커 화상이 미리 정해진 복수의 좌표 위치 중 어느 하나에, 마커 화상의 표시 위치를 변경하여 출력하는 것이며, 시선 검출 장치는, 촬상부가 촬상한 유저의 눈의 화상과, 표시 위치마다 마커 화상을 주시하는 유저의 눈을 포함하는 화상 각각에 근거하여, 유저의 시선 방향을 검출하는 시선 검출부를 더욱 구비하는 것으로 해도 된다.The marker image output unit changes the display position of the marker image to any one of a plurality of predetermined coordinate positions and outputs the marker image. The eye-gaze detection apparatus displays the image of the user's eye captured by the imaging unit, And a visual line detecting section for detecting the visual line direction of the user based on each of the images including the eyes of the user watching the marker image for each position.

또, 판정부는, 촬상부가 촬상한 유저의 눈의 화상에 근거하여, 당해 유저가 표시되어 있는 마커 화상을 주시하고 있는지 여부를 더욱 판정하고, 시선 검출 시스템은, 유저가 마커 화상을 주시하고 있지 않다고 판정한 경우에, 유저에게 마커 화상을 주시하도록 알리는 알림부를 더욱 구비하는 것으로 해도 된다.The judgment unit further judges whether or not the user is watching the displayed marker image based on the image of the user's eye captured by the image pickup unit and the visual line detection system judges that the user is not watching the marker image And when the determination is made, notifying the user to watch the marker image.

또, 판정부가, 유저가 표시되어 있는 마커 화상을 주시하고 있다고 판정한 경우에, 마커 화상 출력부는, 마커 화상의 표시 위치를 변경하는 것으로 해도 된다.When the determination unit determines that the user is watching the displayed marker image, the marker image output unit may change the display position of the marker image.

또, 시선 검출 시스템은, 마커 화상을 주시하고 있는 유저의 눈을 포함하는 화상을 시선 검출부에 의한 시선 검출용의 화상으로서 사용 가능한지 여부를 판정하는 판정부를 더욱 구비하고, 판정부가, 시선 검출용의 화상으로서 사용할 수 없다고 판정한 경우에, 마커 화상 출력부는, 당해 판정에 대응하는 화상을 촬상했을 때에 표시하고 있던 마커 화상의 표시 위치를, 표시부의 중앙 근처로 변경하여 표시시키며, 촬상부는, 표시 위치를 변경한 마커 화상을 주시하는 유저의 눈을 촬상하고, 판정부는, 다시 촬상된 비교 화상을 시선 검출용의 화상으로서 사용 가능한지 여부를 판정하는 것으로 해도 된다.The visual line detection system may further include a determination unit that determines whether or not an image including a user's eye watching the marker image can be used as a visual line detection image by the visual line detection unit, The marker image output unit changes the display position of the marker image displayed when the image corresponding to the determination is captured to the vicinity of the center of the display unit to display the marker image, And the judging unit may judge whether or not the comparison image picked up again is usable as the image for line-of-sight detection.

또한, 이상의 구성요소의 임의의 조합, 본 발명의 표현을 방법, 장치, 시스템, 컴퓨터 프로그램, 데이터 구조, 기록 매체 등의 사이에서 변환한 것도 또한 본 발명의 양태로서 유효하다.Also, any combination of the above components, and the expression of the present invention may be converted between a method, an apparatus, a system, a computer program, a data structure, a recording medium and the like is also effective as an aspect of the present invention.

본 발명에 의하면, 헤드 마운트 디스플레이를 장착한 유저의 시선 방향을 검출하는 기술을 제공할 수 있다.According to the present invention, it is possible to provide a technique for detecting the direction of the user's gaze on which the head-mounted display is mounted.

도 1은 실시형태에 관한 헤드 마운트 디스플레이를 유저가 장착한 모습을 나타내는 외관도이다.
도 2는 실시형태에 관한 헤드 마운트 디스플레이의 화상 표시계의 개관을 모식적으로 나타내는 사시도이다.
도 3은 실시형태에 관한 헤드 마운트 디스플레이의 화상 표시계의 광학 구성을 모식적으로 나타내는 도이다.
도 4는 실시형태에 관한 시선 검출 시스템의 구성을 나타내는 블록도이다.
도 5는 실시형태에 관한 시선 방향의 검출을 위한 캘리브레이션을 설명하는 모식도이다.
도 6은 유저의 각막의 위치 좌표를 설명하는 모식도이다.
도 7에 있어서, (a)~(c)는, 실시형태에 관한 마커 화상을 주시하고 있는 유저의 눈의 이미지 도이다.
도 8은 실시형태에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
도 9에 있어서, (a)는, 수정 전의 마커 화상의 표시 화면에 대한 출력 위치를 나타내는 이미지 도이다. (b)는, 마커 화상의 출력 위치의 보정예를 나타내는 이미지 도이다.
도 10은 시선 검출 시스템의 구성을 나타내는 블록도이다.
도 11은 실시형태 2에 관한 시선 검출 시스템의 구성을 나타내는 블록도이다.
도 12는 실시형태 2에 관한 유효 시야 그래프의 표시예를 나타내는 도이다.
도 13은 실시형태 2에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
도 14는 실시형태 2에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다
도 15는 실시형태 3에 관한 유효 시야 그래프의 표시예를 나타내는 도이다.
도 16은 실시형태 3에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
도 17은 실시형태 4에 관한 마커 화상의 표시예를 모식적으로 나타내는 도이다.
도 18은 실시형태 4에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
도 19는 실시형태 5에 관한 시선 검출 시스템의 구성을 나타내는 블록도이다.
도 20은 실시형태 5에 관한 헤드 마운트 디스플레이이며, (a)는, 구동부의 평면도이다. (b)는, 구동부의 사시도이다.
도 21은 실시형태 5에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
도 22는 실시형태 5에 관한 시선 검출 시스템의 동작을 나타내는 플로차트이다.
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is an external view showing a state in which a user mounts a head mount display according to an embodiment. FIG.
2 is a perspective view schematically showing an overview of an image display system of a head mount display according to the embodiment.
3 is a diagram schematically showing an optical configuration of an image display system of a head mount display according to the embodiment.
4 is a block diagram showing a configuration of a visual-line detecting system according to the embodiment.
Fig. 5 is a schematic diagram for explaining the calibration for detecting the gaze direction in the embodiment. Fig.
6 is a schematic diagram for explaining the position coordinates of the cornea of the user.
In Fig. 7, (a) to (c) are image views of the user's eye watching the marker image according to the embodiment.
8 is a flowchart showing the operation of the visual-line detecting system according to the embodiment.
In Fig. 9, (a) is an image showing the output position of the marker image before correction on the display screen. (b) is an image diagram showing an example of correction of the output position of the marker image.
10 is a block diagram showing a configuration of a visual line detection system.
11 is a block diagram showing the configuration of the visual-line detecting system according to the second embodiment.
12 is a diagram showing a display example of an effective visual field graph according to the second embodiment.
13 is a flowchart showing the operation of the visual-line detecting system according to the second embodiment.
14 is a flowchart showing an operation of the visual-line detecting system according to the second embodiment
15 is a diagram showing a display example of an effective visual field graph according to the third embodiment.
16 is a flowchart showing the operation of the visual-line detecting system according to the third embodiment.
17 is a diagram schematically showing an example of display of a marker image according to the fourth embodiment.
18 is a flowchart showing the operation of the visual-line detecting system according to the fourth embodiment.
Fig. 19 is a block diagram showing the configuration of a visual-line detecting system according to Embodiment 5. Fig.
20 is a head-mounted display according to Embodiment 5, wherein (a) is a plan view of the driving portion. (b) is a perspective view of the driving unit.
21 is a flowchart showing the operation of the visual-line detecting system according to the fifth embodiment.
22 is a flowchart showing the operation of the visual-line detecting system according to the fifth embodiment.

<실시형태 1>&Lt; Embodiment 1 >

<구성><Configuration>

도 1은, 실시형태에 관한 시선 검출 시스템(1)의 개관을 모식적으로 나타내는 도이다. 실시형태에 관한 시선 검출 시스템(1)은, 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)를 포함한다. 도 1에 나타내는 바와 같이, 헤드 마운트 디스플레이(100)는, 유저(300)의 두부에 장착하여 사용된다.Fig. 1 schematically shows an overview of the visual-line detecting system 1 according to the embodiment. The visual-line detecting system 1 according to the embodiment includes a head-mounted display 100 and a visual-line detecting device 200. [ As shown in Fig. 1, the head mount display 100 is mounted on the head of the user 300 and used.

시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)를 장착한 유저의 오른쪽눈 및 왼쪽눈의 시선 방향을 검출하여, 유저의 초점, 즉, 유저가 헤드 마운트 디스플레이에 표시되어 있는 3차원 화상에 있어서 주시하고 있는 개소를 특정한다. 또, 시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)가 표시하는 영상을 생성하는 영상 생성 장치로서도 기능한다. 한정은 하지 않지만, 일례로서, 시선 검출 장치(200)는, 거치형 게임기, 휴대용 게임기, PC, 태블릿, 스마트폰, 패블릿, 비디오 플레이어, 텔레비전 등의 영상을 재생 가능한 장치이다. 시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)와 무선 또는 유선으로 접속한다. 도 1에 나타내는 예에서는, 시선 검출 장치(200)는 헤드 마운트 디스플레이(100)와 무선으로 접속하고 있다. 시선 검출 장치(200)가 헤드 마운트 디스플레이(100)의 무선 접속은, 예를 들면 기존의 Wi-Fi(등록 상표)나Bluetooth(등록 상표) 등의 무선 통신 기술을 이용하여 실현할 수 있다. 한정은 하지 않지만, 일례로서, 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)의 사이에 있어서의 영상의 전송은, Miracast(상표)나 WiGig(상표), WHDI(상표) 등의 규격에 준하여 실행된다.The visual-line detecting device 200 detects the visual direction of the right eye and the left eye of the user wearing the head-mounted display 100 to detect the focus of the user, that is, the three-dimensional image displayed on the head- And specifies a point of interest. The visual-line detecting device 200 also functions as an image generating device for generating an image displayed by the head-mounted display 100. As an example, the eye-gaze detecting apparatus 200 is a device capable of reproducing images of a stationary game machine, a portable game machine, a PC, a tablet, a smart phone, a tablet, a video player, a television, and the like. The visual-line detecting device 200 is connected to the head-mounted display 100 wirelessly or by wire. In the example shown in Fig. 1, the visual-line detecting device 200 is connected to the head-mounted display 100 wirelessly. The wireless connection of the head-mounted display 100 by the visual-line detecting device 200 can be realized by using a wireless communication technology such as existing Wi-Fi (registered trademark) or Bluetooth (registered trademark). The image transmission between the head mount display 100 and the visual-line detecting device 200 is performed in accordance with standards such as Miracast (trademark), WiGig (trademark), WHDI (trademark) .

또한, 도 1은, 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)가 상이한 장치인 경우의 예를 나타내고 있다. 그러나 시선 검출 장치(200)는 헤드 마운트 디스플레이(100)에 내장되어도 된다.Fig. 1 shows an example in which the head-mounted display 100 and the visual-line detecting device 200 are different devices. However, the visual-line detecting device 200 may be incorporated in the head-mounted display 100. [

헤드 마운트 디스플레이(100)는, 케이스(150), 장착구(160), 및 헤드폰(170)을 구비한다. 케이스(150)는, 화상 표시 소자 등 유저(300)에 영상을 제시하기 위한 화상 표시계나, 도시하지 않은 Wi-Fi모듈이나Bluetooth(등록 상표) 모듈 등의 무선 전송 모듈을 수용한다. 장착구(160)는, 헤드 마운트 디스플레이(100)를 유저(300)의 두부에 장착한다. 장착구(160)는 예를 들면, 벨트나 신축성의 띠 등으로 실현할 수 있다. 유저(300)가 장착구(160)를 이용하여 헤드 마운트 디스플레이(100)를 장착하면, 케이스(150)는 유저(300)의 눈을 덮는 위치에 배치된다. 이로 인하여, 유저(300)가 헤드 마운트 디스플레이(100)를 장착하면, 유저(300)의 시야는 케이스(150)에 의하여 차단된다.The head mount display 100 includes a case 150, a mounting hole 160, and a headphone 170. The case 150 accommodates an image display system for presenting an image to the user 300 such as an image display device or a wireless transmission module such as a Wi-Fi module or a Bluetooth (registered trademark) module not shown. The mount 160 mounts the head mount display 100 on the head of the user 300. The mounting hole 160 can be realized by, for example, a belt or a stretchable band. When the user 300 mounts the head mount display 100 using the mount 160, the case 150 is disposed at a position covering the eyes of the user 300. As a result, when the user 300 mounts the head mount display 100, the field of view of the user 300 is blocked by the case 150.

헤드폰(170)은, 시선 검출 장치(200)가 재생하는 영상의 음성을 출력한다. 헤드폰(170)은 헤드 마운트 디스플레이(100)에 고정되지 않아도 된다. 유저(300)는, 장착구(160)를 이용하여 헤드 마운트 디스플레이(100)를 장착한 상태이더라도, 헤드폰(170)을 자유롭게 착탈할 수 있다.The headphone 170 outputs the audio of the video reproduced by the visual-line detecting device 200. [ The headphone 170 does not need to be fixed to the head mount display 100. [ The user 300 can freely attach and detach the headphone 170 even when the head mount display 100 is mounted using the mounting hole 160. [

도 2는, 실시형태에 관한 헤드 마운트 디스플레이(100)의 화상 표시계(130)의 개관을 모식적으로 나타내는 사시도이다. 보다 구체적으로, 도 2는, 실시형태에 관한 케이스(150) 중, 헤드 마운트 디스플레이(100)를 장착했을 때에 유저(300)의 각막(302)에 대향하는 영역을 나타내는 도이다.2 is a perspective view schematically showing an overview of the image display system 130 of the head mount display 100 according to the embodiment. More specifically, FIG. 2 is a view showing a region of the case 150 of the embodiment opposed to the cornea 302 of the user 300 when the head-mounted display 100 is mounted.

도 2에 나타내는 바와 같이, 왼쪽눈용 볼록 렌즈(114a)는, 유저(300)가 헤드 마운트 디스플레이(100)를 장착했을 때에, 유저(300)의 왼쪽눈의 각막(302a)과 대향하는 위치가 되도록 배치된다. 마찬가지로, 오른쪽눈용 볼록 렌즈(114b)는, 유저(300)가 헤드 마운트 디스플레이(100)를 장착했을 때에, 유저(300)의 오른쪽눈의 각막(302b)과 대향하는 위치가 되도록 배치된다. 왼쪽눈용 볼록 렌즈(114a)와 오른쪽눈용 볼록 렌즈(114b)는, 각각 왼쪽눈용 렌즈 지지부(152a)와 오른쪽눈용 렌즈 지지부(152b)에 파지되어 있다.2, the convex lens 114a for the left eye is placed so that the position of the convex lens 114a is opposite to the position of the cornea 302a of the left eye of the user 300 when the user 300 is mounted on the head mount display 100 . Likewise, the convex lens 114b for the right eye is arranged so as to face the cornea 302b of the right eye of the user 300 when the user 300 is mounted on the head mount display 100. [ The convex lens 114a for the left eye and the convex lens 114b for the right eye are held by the left and right lens support portions 152a and 152b, respectively.

이하 본 명세서에 있어서, 왼쪽눈용 볼록 렌즈(114a)와 오른쪽눈용 볼록 렌즈(114b)를 특별히 구별하는 경우를 제외하고, 간단히 "볼록 렌즈(114)"라고 기재한다. 마찬가지로, 유저(300)의 왼쪽눈의 각막(302a)과 유저(300)의 오른쪽눈의 각막(302b)을 특별히 구별하는 경우를 제외하고, 간단히 "각막(302)"이라고 기재한다. 왼쪽눈용 렌즈 지지부(152a)와 오른쪽눈용 렌즈 지지부(152b)도, 특별히 구별하는 경우를 제외하고 "렌즈 지지부(152)"라고 기재한다.In the following description, the term "convex lens 114 " is simply referred to as " convex lens 114" unless otherwise specifically distinguished between the convex lens 114a for the left eye and the convex lens 114b for the right eye. Cornea 302 is simply referred to as "cornea 302" except for the case where the cornea 302a of the left eye of the user 300 and the cornea 302b of the right eye of the user 300 are specifically distinguished. The lens supporting portion 152a for the left eye and the lens supporting portion 152b for the right eye are also referred to as "lens supporting portion 152" unless otherwise specified.

렌즈 지지부(152)에는, 복수의 적외광원(103)이 구비되어 있다. 번잡해지는 것을 피하기 위하여, 도 2에 있어서는 유저(300)의 왼쪽눈의 각막(302a)에 대하여 적외광을 조사하는 적외광원을 통틀어 적외광원(103a)으로 나타내고, 유저(300)의 오른쪽눈의 각막(302b)에 대하여 적외광을 조사하는 적외광원을 통틀어 적외광원(103b)으로 나타낸다. 이하, 적외광원(103a)과 적외광원(103b)을 특별히 구별하는 경우를 제외하고 "적외광원(103)" 이라고 기재한다. 도 2에 나타내는 예에서는, 왼쪽눈용 렌즈 지지부(152a)에는 6개의 적외광원(103a)이 구비되어 있다. 마찬가지로, 오른쪽눈용 렌즈 지지부(152b)에도 6개의 적외광원(103b)이 구비되어 있다. 이와 같이, 적외광원(103)을 볼록 렌즈(114)에 직접 배치하지 않고, 볼록 렌즈(114)를 파지하는 렌즈 지지부(152)에 배치하는 것에 의하여, 적외광원(103)의 장착이 용이해진다. 일반적으로 렌즈 지지부(152)는 수지 등으로 구성되기 때문에, 유리 등으로 구성되는 볼록 렌즈(114)보다 적외광원(103)을 장착하기 위한 가공이 용이하기 때문이다.The lens support portion 152 is provided with a plurality of infrared light sources 103. [ 2, an infrared light source for irradiating infrared light to the cornea 302a of the left eye of the user 300 is denoted by an infrared light source 103a, and the right eye of the user 300 An infrared light source 103b for irradiating infrared light to the cornea 302b of the eye 100b. Hereinafter, it is described as "infrared light source 103" unless the infrared light source 103a and the infrared light source 103b are specifically distinguished. In the example shown in Fig. 2, the left eye lens supporting portion 152a is provided with six infrared light sources 103a. Likewise, the right eye lens support portion 152b is provided with six infrared light sources 103b. As described above, the infrared light source 103 can be easily mounted by disposing the infrared light source 103 in the lens supporting portion 152 for holding the convex lens 114 without directly placing the infrared light source 103 on the convex lens 114 It becomes. In general, since the lens supporting portion 152 is made of resin or the like, processing for mounting the infrared light source 103 is easier than the convex lens 114 composed of glass or the like.

상기 설명한 바와 같이, 렌즈 지지부(152)는 볼록 렌즈(114)를 파지하는 부재이다. 따라서, 렌즈 지지부(152)에 구비된 적외광원(103)은, 볼록 렌즈(114)의 주위에 배치되게 된다. 또한, 여기에서는, 각각의 눈에 대하여 적외광을 조사하는 적외광원(103)을 6개로 하고 있지만, 이 수는 이에 한정되는 것은 아니고, 각각의 눈에 대응하여 적어도 1개 있으면 되고, 2개 이상 배치되어 있는 것이 바람직하다.As described above, the lens supporting portion 152 is a member holding the convex lens 114. Therefore, the infrared light source 103 provided in the lens supporting portion 152 is arranged around the convex lens 114. [ Here, the number of the infrared light sources 103 for irradiating the infrared light to each eye is six, however, the number is not limited to this, and at least one infrared light source 103 may be provided corresponding to each eye, Or more.

도 3은, 실시형태에 관한 케이스(150)가 수용하는 화상 표시계(130)의 광학 구성을 모식적으로 나타내는 도이며, 도 2에 나타내는 케이스(150)를 왼쪽눈측의 측면에서 본 경우의 도이다. 화상 표시계(130)는, 적외광원(103), 화상 표시 소자(108), 핫 미러(112), 볼록 렌즈(114), 카메라(116), 및 제1 통신부(118)를 구비한다.3 is a diagram schematically showing the optical configuration of the image display system 130 accommodated in the case 150 according to the embodiment and is a view in which the case 150 shown in Fig. 2 is viewed from the side of the left eye side . The image display system 130 includes an infrared light source 103, an image display element 108, a hot mirror 112, a convex lens 114, a camera 116, and a first communication unit 118.

적외광원(103)은, 근적외(700nm~2500nm 정도)의 파장 대역의 광을 조사 가능한 광원이다. 근적외광은, 일반적으로, 유저(300)의 육안으로는 관측할 수 없는 비가시광의 파장 대역의 광이다.The infrared light source 103 is a light source capable of irradiating light in a near-infrared (about 700 nm to 2500 nm) wavelength band. The near-infrared light is generally in a wavelength band of invisible light which can not be observed with the naked eye of the user 300.

화상 표시 소자(108)는, 유저(300)에게 제시하기 위한 화상을 표시한다. 화상 표시 소자(108)가 표시하는 화상은, 시선 검출 장치(200) 내의 영상 출력부(222)가 생성한다. 영상 출력부(222)에 대해서는 후술한다. 화상 표시 소자(108)는, 예를 들면 기존의 LCD(Liquid Crystal Display)나 유기 EL디스플레이(Organic Electro Luminescence Display)를 이용하여 실현할 수 있다.The image display element 108 displays an image to be presented to the user 300. The image displayed by the image display device 108 is generated by the image output unit 222 in the visual-line detecting device 200. [ The video output unit 222 will be described later. The image display device 108 can be implemented using, for example, a conventional LCD (Liquid Crystal Display) or an organic EL display (Organic Electro Luminescence Display).

핫 미러(112)는, 유저(300)가 헤드 마운트 디스플레이(100)를 장착했을 때에, 화상 표시 소자(108)와 유저(300)의 각막(302)의 사이에 배치된다. 핫 미러(112)는, 화상 표시 소자(108)가 생성하는 가시광은 투과하지만, 근적외광은 반사하는 성질을 갖는다.The hot mirror 112 is disposed between the image display element 108 and the cornea 302 of the user 300 when the user 300 mounts the head mount display 100. [ The hot mirror 112 has the property of transmitting the visible light generated by the image display element 108, but reflecting the near infrared light.

볼록 렌즈(114)는, 핫 미러(112)에 대하여, 화상 표시 소자(108)의 반대측에 배치된다. 바꿔 말하면, 볼록 렌즈(114)는, 유저(300)가 헤드 마운트 디스플레이(100)를 장착했을 때에, 핫 미러(112)와 유저(300)의 각막(302)의 사이에 배치된다. 즉, 볼록 렌즈(114)는, 헤드 마운트 디스플레이(100)가 유저(300)에게 장착되었을 때에, 유저(300)의 각막(302)에 대향하는 위치에 배치된다.The convex lens 114 is disposed on the side opposite to the image display device 108 with respect to the hot mirror 112. In other words, the convex lens 114 is disposed between the hot mirror 112 and the cornea 302 of the user 300 when the user 300 mounts the head mount display 100. That is, the convex lens 114 is disposed at a position opposed to the cornea 302 of the user 300 when the head-mounted display 100 is attached to the user 300.

볼록 렌즈(114)는 핫 미러(112)를 투과하는 화상 표시광을 집광한다. 이로 인하여, 볼록 렌즈(114)는, 화상 표시 소자(108)가 생성하는 화상을 확대하여 유저(300)에게 제시하는 화상 확대부로서 기능한다. 또한, 설명의 편의상, 도 2에서는 볼록 렌즈(114)를 하나만 나타내고 있지만, 볼록 렌즈(114)는, 다양한 렌즈를 조합하여 구성되는 렌즈군이어도 되고, 한쪽이 곡률을 갖고, 다른 한쪽이 평면인 편볼록 렌즈여도 된다.The convex lens 114 condenses the image display light transmitted through the hot mirror 112. Thus, the convex lens 114 functions as an image enlargement unit for enlarging the image generated by the image display device 108 and presenting it to the user 300. [ 2, only one convex lens 114 is shown in FIG. 2, but the convex lens 114 may be a lens group composed of various lenses in combination, and may be a lens group having a curvature on one side and a flat lens on the other side It may be a convex lens.

복수의 적외광원(103)은, 볼록 렌즈(114)의 주위에 배치되어 있다. 적외광원(103)은, 유저(300)의 각막(302)을 향하여 적외광을 조사한다.A plurality of infrared light sources (103) are arranged around the convex lens (114). The infrared light source 103 emits infrared light toward the cornea 302 of the user 300.

도시하지 않지만, 실시형태에 관한 헤드 마운트 디스플레이(100)의 화상 표시계(130)는 화상 표시 소자(108)를 2개 구비하고 있으며, 유저(300)의 오른쪽눈에 제시하기 위한 화상과 왼쪽눈에 제시하기 위한 화상을 독립적으로 생성할 수 있다. 이로 인하여, 실시형태에 관한 헤드 마운트 디스플레이(100)는, 유저(300)의 오른쪽눈과 왼쪽눈에, 각각 오른쪽눈용의 시차 화상과 왼쪽눈용의 시차 화상을 제시할 수 있다. 이로써, 실시형태에 관한 헤드 마운트 디스플레이(100)는, 유저(300)에 대하여 깊이감을 가진 입체 영상을 제시할 수 있다.Although not shown, the image display system 130 of the head mount display 100 according to the embodiment is provided with two image display elements 108, and displays an image for presentation on the right eye of the user 300, An image for presentation can be generated independently. Thus, the head-mounted display 100 according to the embodiment can present a parallax image for the right eye and a parallax image for the left eye on the right eye and the left eye of the user 300, respectively. Thus, the head mount display 100 according to the embodiment can present a stereoscopic image with a depth sense to the user 300. [

상기 설명한 바와 같이, 핫 미러(112)는, 가시광을 투과하고, 근적외광을 반사한다. 따라서, 화상 표시 소자(108)가 조사하는 화상광은 핫 미러(112)를 투과하여 유저(300)의 각막(302)까지 도달한다. 또 적외광원(103)으로부터 조사되어, 볼록 렌즈(114)의 내부의 반사 영역에서 반사된 적외광은, 유저(300)의 각막(302)에 도달한다.As described above, the hot mirror 112 transmits visible light and reflects near-infrared light. Therefore, the image light irradiated by the image display element 108 passes through the hot mirror 112 and reaches the cornea 302 of the user 300. The infrared light irradiated from the infrared light source 103 and reflected by the reflective region inside the convex lens 114 reaches the cornea 302 of the user 300.

유저(300)의 각막(302)에 도달한 적외광은, 유저(300)의 각막(302)에서 반사되어, 다시 볼록 렌즈(114)의 방향으로 향한다. 이 적외광은 볼록 렌즈(114)를 투과하여, 핫 미러(112)에서 반사된다. 카메라(116)는 가시광을 차단하는 필터를 구비하고 있으며, 핫 미러(112)에서 반사된 근적외광을 촬상한다. 즉, 카메라(116)는, 적외광원(103)으로부터 조사되어, 유저(300)의 눈에서 각막 반사된 근적외광을 촬상하는 근적외 카메라이다.The infrared light reaching the cornea 302 of the user 300 is reflected by the cornea 302 of the user 300 and is directed toward the convex lens 114 again. The infrared light is transmitted through the convex lens 114 and reflected by the hot mirror 112. The camera 116 has a filter for blocking visible light, and picks up near-infrared light reflected by the hot mirror 112. That is, the camera 116 is a near-infrared camera that is irradiated from the infrared light source 103 and captures the near-infrared light reflected from the eyes of the user 300 by the cornea.

또한, 도시하지 않지만, 실시형태에 관한 헤드 마운트 디스플레이(100)의 화상 표시계(130)는, 카메라(116)를 2개, 즉, 오른쪽눈에서 반사된 적외광을 포함하는 화상을 촬상하는 제1 촬상부와, 왼쪽눈에서 반사된 적외광을 포함하는 화상을 촬상하는 제2 촬상부를 구비한다. 이로써, 유저(300)의 오른쪽눈 및 왼쪽눈의 쌍방의 시선 방향을 검출하기 위한 화상을 취득할 수 있다.Although not shown, the image display system 130 of the head mount display 100 according to the embodiment includes two cameras 116, that is, a first image pickup device 130 for picking up an image including infrared light reflected from the right eye And a second image sensing unit for sensing an image including infrared light reflected from the left eye. Thereby, it is possible to acquire an image for detecting the gaze directions of both the right eye and the left eye of the user 300. [

제1 통신부(118)는, 카메라(116)가 촬상한 화상을, 유저(300)의 시선 방향을 검출하는 시선 검출 장치(200)에 출력한다. 구체적으로는, 제1 통신부(118)는, 카메라(116)가 촬상한 화상을 시선 검출 장치(200)에 송신한다. 시선 방향 검출부로서 기능하는 시선 검출부(221), 시선 검출부(221)의 상세에 대해서는 후술하지만, 시선 검출 장치(200)의 CPU(Central Processing Unit)가 실행하는 시선 검출 프로그램에 의하여 실현된다. 또한, 헤드 마운트 디스플레이(100)가 CPU나 메모리 등의 계산 리소스를 갖고 있는 경우에는, 헤드 마운트 디스플레이(100)의 CPU가 시선 방향 검출부를 실현하는 프로그램을 실행해도 된다.The first communication unit 118 outputs the image captured by the camera 116 to the visual line detection device 200 which detects the visual line direction of the user 300. [ Specifically, the first communication unit 118 transmits the image captured by the camera 116 to the visual-line detecting apparatus 200. [ The details of the visual line detecting unit 221 and the visual line detecting unit 221 that function as the visual line direction detecting unit will be described later but they are realized by a visual line detecting program executed by a CPU (Central Processing Unit) of the visual line detecting device 200. [ When the head mount display 100 has a calculation resource such as a CPU or a memory, the CPU of the head mount display 100 may execute a program for realizing the visual direction detecting section.

상세한 것은 후술하지만, 카메라(116)가 촬상하는 화상에는, 유저(300)의 각막(302)에서 반사된 근적외광에 기인하는 휘점과, 근적외의 파장 대역에서 관찰되는 유저(300)의 각막(302)을 포함하는 눈의 화상이 촬상되어 있다.However, the image captured by the camera 116 includes a bright spot caused by the near-infrared light reflected from the cornea 302 of the user 300 and a bright spot caused by the near infrared light reflected from the cornea 302 of the user 300 ) Is picked up.

이상은, 실시형태에 관한 화상 표시계(130) 중 주로 유저(300)의 왼쪽눈에 화상을 제시하기 위한 구성에 대하여 설명했는데, 유저(300)의 오른쪽눈에 화상을 제시하기 위한 구성은 상기와 같다.The configuration for presenting the image to the left eye of the user 300 in the image display system 130 according to the embodiment has been described above. same.

도 4는, 시선 검출 시스템(1)에 관한 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)의 블록도이다. 도 4에 나타내는 바와 같이, 또, 상기 설명한 바와 같이, 시선 검출 시스템(1)은, 서로 통신을 실행하는 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)를 포함한다.Fig. 4 is a block diagram of the head-mounted display 100 and the visual-line detecting device 200 relating to the visual-line detecting system 1. Fig. As shown in Fig. 4, as described above, the line of sight detection system 1 includes the head-mounted display 100 and the line of sight detection apparatus 200 that communicate with each other.

도 4에 나타내는 바와 같이 헤드 마운트 디스플레이(100)는, 제1 통신부(118)와 제1 표시부(121)와, 적외광 조사부(122)와, 화상 처리부(123)와, 촬상부(124)를 구비한다.4, the head mount display 100 includes a first communication unit 118, a first display unit 121, an infrared light irradiation unit 122, an image processing unit 123, and an image pickup unit 124 Respectively.

제1 통신부(118)는, 시선 검출 장치(200)의 제2 통신부(220)와 통신을 실행하는 기능을 갖는 통신 인터페이스이다. 상기 설명한 바와 같이, 제1 통신부(118)는, 유선 통신 또는 무선 통신에 의하여 제2 통신부(220)와 통신을 실행한다. 사용 가능한 통신 규격의 예는 상기 설명한 바와 같다. 제1 통신부(118)는, 촬상부(124) 또는 화상 처리부(123)로부터 전송된 시선 검출에 이용하는 화상 데이터를 제2 통신부(220)에 송신한다. 또, 제1 통신부(118)는, 시선 검출 장치(200)로부터 송신된 3차원 화상 데이터나 마커 화상을 제1 표시부(121)에 전달한다.The first communication unit 118 is a communication interface having a function of communicating with the second communication unit 220 of the visual-line detecting device 200. [ As described above, the first communication unit 118 performs communication with the second communication unit 220 by wire communication or wireless communication. Examples of usable communication standards are as described above. The first communication unit 118 transmits the image data used for the sight line detection sent from the image pickup unit 124 or the image processing unit 123 to the second communication unit 220. [ The first communication unit 118 transmits the three-dimensional image data and the marker image transmitted from the visual-line detecting apparatus 200 to the first display unit 121. [

제1 표시부(121)는, 제1 통신부(118)로부터 전달된 3차원 화상 데이터를 화상 표시 소자(108)에 표시하는 기능을 갖는다. 3차원 화상 데이터는, 오른쪽눈용 시차 화상과 왼쪽눈용 시차 화상을 포함하며, 그것들은 시차 화상 쌍으로 되어 있다. 제1 표시부(121)는, 마커 화상 출력부(223)로부터 출력된 마커 화상을 화상 표시 소자(108)의 지정되어 있는 좌표에 표시한다.The first display unit 121 has a function of displaying the three-dimensional image data transmitted from the first communication unit 118 on the image display device 108. [ The three-dimensional image data includes right eye parallax images and left eye parallax images, and they are parallax image pairs. The first display unit 121 displays the marker image output from the marker image output unit 223 in the designated coordinates of the image display element 108. [

적외광 조사부(122)는, 적외광원(103)을 제어하여, 유저의 오른쪽눈 또는 왼쪽눈에 적외광을 조사한다.The infrared light irradiating unit 122 controls the infrared light source 103 to emit infrared light to the right eye or the left eye of the user.

화상 처리부(123)는, 필요에 따라, 촬상부(124)가 촬상한 화상에 화상 처리를 행하여, 제1 통신부(118)에 전달한다.The image processing section 123 performs image processing on the image picked up by the image pickup section 124 and transfers it to the first communication section 118 as necessary.

촬상부(124)는, 카메라(116)를 이용하여, 각각의 눈에서 반사된 근적외광을 포함하는 화상을 촬상한다. 또, 촬상부(124)는, 화상 표시 소자(108)에 표시된 마커 화상을 주시하는 유저의 눈을 포함하는 화상을 촬상한다. 촬상부(124)는, 촬상해서 얻은 화상을, 제1 통신부(118) 또는 화상 처리부(123)에 전달한다. 촬상부(124)는, 동영상을 촬상하는 것으로 해도 되고, 적절한 타이밍(예를 들면, 근적외광을 조사하고 있는 타이밍이나, 마커 화상을 표시하고 있는 타이밍)에 정지화면을 촬상하는 것으로 해도 된다.The image pickup section 124 uses the camera 116 to pick up an image including near-infrared light reflected from each eye. The image pickup section 124 picks up an image including a user's eye watching the marker image displayed on the image display element 108. [ The image pickup section 124 transmits the image obtained by picking up the image to the first communication section 118 or the image processing section 123. The imaging section 124 may capture a moving image or may capture a still image at an appropriate timing (for example, a timing of irradiating near-infrared light or a timing of displaying a marker image).

도 4에 나타내는 바와 같이 시선 검출 장치(200)는, 제2 통신부(220)와, 시선 검출부(221)와, 영상 출력부(222)와, 마커 화상 출력부(223)와, 판정부(224)와, 합성 화상 출력부(225)와, 제2 표시부(226)와, 기억부(227)를 구비한다.4, the visual line detecting apparatus 200 includes a second communicating section 220, a visual line detecting section 221, a video output section 222, a marker image output section 223, a judging section 224 A composite image output section 225, a second display section 226, and a storage section 227,

제2 통신부(220)는, 헤드 마운트 디스플레이(100)의 제1 통신부(118)와 통신을 실행하는 기능을 갖는 통신 인터페이스이다. 상기 설명한 바와 같이, 제2 통신부(220)는, 유선 통신 또는 무선 통신에 의하여 제1 통신부(118)와 통신을 실행한다. 제2 통신부(220)는, 영상 출력부(222)로부터 전달된 3차원 화상 데이터나, 마커 화상 출력부(223)로부터 전달된 마커 화상과 그 표시 좌표 위치를, 헤드 마운트 디스플레이(100)에 송신한다. 또, 헤드 마운트 디스플레이(100)로부터 전달된 촬상부(124)에 의하여 촬상된 마커 화상을 주시하는 유저의 눈을 포함하는 화상을 판정부(224) 및 합성 화상 출력부(225)에 전달하고, 영상 출력부(222)가 출력한 3차원 화상 데이터에 근거하여 표시된 화상을 보는 유저의 눈을 촬상한 화상을 시선 검출부(221)에 전달한다.The second communication unit 220 is a communication interface having a function of communicating with the first communication unit 118 of the head mounted display 100. As described above, the second communication unit 220 performs communication with the first communication unit 118 by wire communication or wireless communication. The second communication unit 220 transmits the three-dimensional image data transmitted from the video output unit 222, the marker image transmitted from the marker image output unit 223, and the display coordinate position thereof to the head mount display 100 do. An image including a user's eye that looks at a marker image picked up by the image pickup unit 124 transmitted from the head mount display 100 is transmitted to the determination unit 224 and the composite image output unit 225, Based on the three-dimensional image data output from the image output unit 222, an image of the eye of the user who views the displayed image to the eye-gaze detection unit 221. [

시선 검출부(221)는, 제2 통신부(220)로부터 유저의 오른쪽눈의 시선 검출용의 화상 데이터를 받아들여, 유저의 오른쪽눈의 시선 방향을 검출한다. 시선 검출부(221)는, 후술하는 수법을 이용하여, 유저의 오른쪽눈의 시선 방향을 나타내는 오른쪽눈 시선 벡터를 산출하고, 및 유저의 왼쪽눈의 시선 방향을 나타내는 왼쪽눈 시선 벡터를 산출하여, 화상 표시 소자(108)에 있어서 표시되어 있는 화상 중 유저가 주시하고 있는 개소를 특정한다.The visual line detecting unit 221 receives the image data for visual line detection of the user's right eye from the second communication unit 220 and detects the visual line direction of the user's right eye. The line of sight detecting section 221 calculates a right eye line vector indicating the direction of the eye of the user's right eye and a left eye line vector indicating the direction of the eye of the user's left eye using the method described below, And identifies the portion of the image displayed on the display element 108 that the user is watching.

영상 출력부(222)는, 헤드 마운트 디스플레이(100)의 제1 표시부(121)에 표시시키는 3차원 화상 데이터를 생성하여, 제2 통신부(220)에 전달한다. 영상 출력부(222)는, 출력하는 3차원 화상의 좌표계 그리고 당해 좌표계에 있어서 표시되는 오브젝트의 3차원의 위치 좌표를 나타내는 정보를 보유한다.The image output unit 222 generates three-dimensional image data to be displayed on the first display unit 121 of the head mount display 100 and transmits the generated three-dimensional image data to the second communication unit 220. The video output unit 222 holds the coordinate system of the output three-dimensional image and information indicating the three-dimensional position coordinates of the object displayed in the coordinate system.

마커 화상 출력부(223)는, 시선 검출을 위한 사전 준비인 캘리브레이션을 행하기 위한 지표가 되는 마커 화상을 생성하여, 그 표시 위치를 결정하는 기능을 갖는다. 마커 화상 출력부(223)는, 마커 화상을 생성하여, 당해 마커 화상을 화상 표시 소자(108)에 있어서 표시해야 할 표시 좌표 위치를 결정한다. 마커 화상 출력부(223)는, 생성한 마커 화상과 그 표시 좌표 위치를 제2 통신부(220)에 전달하여, 헤드 마운트 디스플레이(100)에 송신하도록 지시한다. 또한, 본 실시형태에 있어서는, 마커 화상 출력부(223)는, 시선 검출 장치(200)의 오퍼레이터로부터의 입력 지시에 따라, 마커 화상의 표시 위치를 변경한다.The marker image output unit 223 has a function of generating a marker image to be used as an index for carrying out calibration, which is a preparation for line of sight detection, and determining the display position. The marker image output unit 223 generates a marker image and determines a display coordinate position at which the marker image should be displayed in the image display element 108. [ The marker image output unit 223 transmits the generated marker image and its display coordinate position to the second communication unit 220 and instructs the second communication unit 220 to transmit it to the head mounted display 100. [ In the present embodiment, the marker image output section 223 changes the display position of the marker image in accordance with an input instruction from the operator of the visual-line detecting device 200. [

또, 마커 화상 출력부(223)는, 판정부(224)로부터 유저의 눈을 포함하는 화상을 시선 검출의 화상으로서 이용할 수 없다는 내용과 그 때의 마커 화상의 표시 좌표 위치를 전달받으면, 그 표시 좌표 위치를 화상 표시 소자(108)의 중앙 근처의 좌표 위치로 변경한 새로운 표시 좌표 위치와 마커 화상을 제2 통신부(220)에 전달하여, 헤드 마운트 디스플레이(100)에 송신하도록 지시한다.The marker image output unit 223 receives from the determination unit 224 a message indicating that an image including the user's eyes can not be used as a line of sight detection image and a display coordinate position of the marker image at that time, And sends a new display coordinate position and marker image obtained by changing the coordinate position to the coordinate position near the center of the image display element 108 to the second communication unit 220 and instructs the second communication unit 220 to transmit it to the head mount display 100.

판정부(224)는, 제2 통신부(220)로부터 전달된 마커 화상을 주시하는 유저의 눈을 포함하는 화상에 근거하여, 당해 화상에 있어서의 유저의 눈의 화상을 시선 검출을 위한 화상으로서 이용 가능한지 여부를 판정하는 기능을 갖는다. 구체적으로는, 판정부(224)는, 제2 통신부(220)로부터 전달된 마커 화상을 주시하는 유저의 눈을 포함하는 화상에 있어서, 유저의 검은자(각막)를 특정하여, 그 중심 위치를 특정할 수 있는지 여부에 따라 판정한다. 판정부(224)는, 제2 통신부(220)로부터 전달된 마커 화상을 주시하는 유저의 눈을 포함하는 화상이, 시선 검출을 위한 화상으로서 구실을 하지 못하는, 즉, 검은자의 중심을 특정할 수 없다고 판정한 경우에는, 마커 화상 출력부(223)에 그 내용을 당해 마커 화상의 표시 좌표 위치와 함께 전달한다.The determining unit 224 uses the image of the user's eye in the image based on the image including the user's eye watching the marker image transmitted from the second communication unit 220 as an image for sight line detection And determines whether or not it is possible. Specifically, the determining unit 224 specifies the black character (cornea) of the user in the image including the user's eye watching the marker image transmitted from the second communication unit 220, and determines the center position It is judged whether or not it can be specified. The judgment section 224 judges that the image including the user's eyes watching the marker image transmitted from the second communication section 220 can not exclude the image as the image for sight line detection, The contents are transmitted to the marker image output unit 223 together with the display coordinate position of the marker image.

합성 화상 출력부(225)는, 마커 화상 출력부(223)가 출력한 마커 화상을 그 표시 위치의 좌우를 반전시킨 화상과, 제2 통신부(220)로부터 전달된 마커 화상을 주시하는 유저의 눈을 포함하는 촬상 화상을 합성하여 합성 화상 생성하는 기능을 갖는다. 합성 화상 출력부(225)는, 생성한 합성 화상을 제2 표시부(226)에 출력한다.The synthesized image output unit 225 outputs an image obtained by inverting the left and right of the display position of the marker image output by the marker image output unit 223 and the eye of the user watching the marker image transmitted from the second communication unit 220 And a synthesized image is generated. The composite image output unit 225 outputs the generated composite image to the second display unit 226. [

제2 표시부(226)는, 화상을 표시하는 모니터를 포함하며, 합성 화상 출력부(225)로부터 전달된 합성 화상을 표시하는 기능을 갖는다. 즉, 제2 표시부(226)는, 마커 화상을 주시하는 유저의 눈의 화상과, 그 때의 대응하는 위치에 표시시킨 마커 화상을 중첩한 합성 화상을 표시한다.The second display section 226 includes a monitor for displaying an image and has a function of displaying a composite image transmitted from the composite image output section 225. [ That is, the second display unit 226 displays a composite image in which an image of the user's eye watching the marker image and the marker image displayed at the corresponding position at that time are superimposed.

기억부(227)는, 시선 검출 장치(200)가 동작상 필요한 각종 프로그램이나 데이터를 기억하는 기록 매체이다. 또한, 도 4에 있어서는, 기억부(227)는 다른 기능부와의 접속선을 나타내지 않지만, 각 기능부는, 적절히 필요한 프로그램, 데이터를, 기억부(227)에 액세스하여 참조한다. 다음으로, 실시형태에 관한 시선 방향의 검출에 대하여 설명한다.The storage unit 227 is a storage medium for storing various programs and data required for the visual-line detecting apparatus 200 to operate. 4, the storage unit 227 does not show a connection line to other functional units, but each functional unit accesses the storage unit 227 and refers to a necessary program and data appropriately. Next, the detection of the gaze direction related to the embodiment will be described.

도 5는, 실시형태에 관한 시선 방향의 검출을 위한 캘리브레이션을 설명하는 모식도이다. 유저(300)의 시선 방향은, 카메라(116)가 촬상하여 제1 통신부(118)가 시선 검출 장치(200)에 출력한 영상을, 시선 검출 장치(200) 내의 시선 검출부(221) 및 시선 검출부(221)가 해석하는 것에 의하여 실현된다.Fig. 5 is a schematic diagram for explaining the calibration for detecting the gaze direction in the embodiment. Fig. The visual line direction of the user 300 is a direction in which the image captured by the camera 116 and output to the visual line detection device 200 by the first communication unit 118 is transmitted to the visual line detection unit 221 and the visual- (221).

마커 화상 출력부(223)는, 도 5에 나타내는 것과 같은 점 Q1~Q9까지의 9개의 점(마커 화상)을 생성하여, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시시킨다. 시선 검출 장치(200)는, 점 Q1~점 Q9에 도달할 때까지 차례로 유저(300)에게 주시시킨다. 이 때, 유저(300)는 목을 움직이지 않고 최대한 안구의 움직임만으로 각 점을 주시하도록 요구받는다. 카메라(116)는, 유저(300)가 점 Q1~Q9까지의 9개의 점을 주시하고 있을 때의 유저(300)의 각막(302)을 포함하는 화상을 촬상한다.The marker image output unit 223 generates nine points (marker images) from points Q 1 to Q 9 as shown in FIG. 5 and displays them on the image display element 108 of the head mount display 100 . The line of sight detecting apparatus 200 keeps watching the user 300 in turn until it reaches the point Q 1 to Q 9 . At this time, the user 300 is required to watch each point with only the motion of the eyeball without moving the neck. The camera 116 captures an image including the cornea 302 of the user 300 when the user 300 is looking at nine points from points Q 1 to Q 9 .

도 6은, 유저(300)의 각막(302)의 위치 좌표를 설명하는 모식도이다. 시선 검출 장치(200) 내의 시선 검출부(221)는, 카메라(116)가 촬상한 화상을 해석하여 적외광에 유래하는 휘점(105)을 검출한다. 유저(300)가 안구의 움직임만으로 각 점을 주시하고 있을 때는, 유저가 어느 한 점을 주시하고 있는 경우여도, 휘점(105)의 위치는 움직이지 않는다고 생각된다. 따라서 시선 검출부(221)는, 검출한 휘점(105)을 근거로, 카메라(116)가 촬상한 화상 중에 2차원 좌표계(306)를 설정한다.Fig. 6 is a schematic diagram for explaining the position coordinates of the cornea 302 of the user 300. Fig. The line of sight detecting unit 221 in the line of sight detecting apparatus 200 analyzes the image captured by the camera 116 and detects a luminescent spot 105 derived from the infrared light. It is considered that the position of the luminescent spot 105 does not move even when the user 300 is looking at each point only by the movement of the eyeball, even if the user is watching a certain point. Therefore, the line of sight detection unit 221 sets the two-dimensional coordinate system 306 in the image captured by the camera 116 based on the detected luminescent spot 105. [

시선 검출부(221)는 또, 카메라(116)가 촬상한 화상을 해석하는 것에 의하여, 유저(300)의 각막(302)의 중심(P)을 검출한다. 이는 예를 들면 하프 변환이나 엣지 추출 처리 등, 이미 알려져 있는 화상 처리를 이용함으로써 실현할 수 있다. 이로써, 시선 검출부(221)는, 설정한 2차원 좌표계(306)에 있어서의 유저(300)의 각막(302)의 중심(P)의 좌표를 취득할 수 있다.The visual line detecting section 221 also detects the center P of the cornea 302 of the user 300 by analyzing the image captured by the camera 116. [ This can be realized, for example, by using known image processing such as half conversion or edge extraction processing. The eye gaze detection section 221 can acquire the coordinates of the center P of the cornea 302 of the user 300 in the two-dimensional coordinate system 306 set.

도 5에 있어서, 화상 표시 소자(108)가 표시하는 표시 화면에 설정된 2차원 좌표계에 있어서의 점 Q1~점 Q9의 좌표를 각각 Q1(x1, y1)T, Q2(x2, y2)T …, Q9(x9, y9)T로 한다. 각 좌표는, 예를 들면 각 점의 중심에 위치하는 화소의 번호가 된다. 또, 유저(300)가 점 Q1~점 Q9를 주시하고 있을 때의, 유저(300)의 각막(302)의 중심(P)을, 각각 점 P1~P9로 한다. 이 때, 2차원 좌표계(306)에 있어서의 점 P1~P9의 좌표를 각각 P1(X1, Y1)T, P2(X2, Y2)T, …, P9(X9, Y9)T로 한다. 또한, T는 벡터 또는 행렬의 전치를 나타낸다.5, the coordinates of points Q 1 to Q 9 in the two-dimensional coordinate system set on the display screen displayed by the image display device 108 are Q 1 (x 1 , y 1 ) T and Q 2 (x 2 , y 2 ) T ... , And Q 9 (x 9 , y 9 ) T , respectively. Each coordinate is, for example, a pixel number located at the center of each point. The center P of the cornea 302 of the user 300 when the user 300 is looking at the points Q 1 to Q 9 is defined as a point P 1 to P 9 . At this time, the two-dimensional coordinate system 306, that P 1 P 9 ~ the coordinates of each of P 1 (X 1, Y 1 ) T, P 2 (X 2, Y 2) of the T, ... , And P 9 (X 9 , Y 9 ) T , respectively. Also, T represents a transpose of a vector or a matrix.

여기에서, 2×2의 크기의 행렬 M을 이하의 식 (1)과 같이 정의한다.Here, a matrix M having a size of 2x2 is defined as the following equation (1).

[수 1][Number 1]

Figure pat00001
Figure pat00001

이 때, 행렬 M이 이하의 식 (2)를 만족시키면, 행렬 M은 유저(300)의 시선 방향을 화상 표시 소자(108)가 표시하는 화상면에 사영하는 행렬이 된다.At this time, if the matrix M satisfies the following formula (2), the matrix M becomes a matrix in which the viewing direction of the user 300 is projected on the image plane displayed by the image display device 108. [

Figure pat00002
(2)
Figure pat00002
(2)

상기 식 (2)를 구체적으로 새로 쓰면 이하의 식 (3)과 같이 된다.When the above formula (2) is specifically rewritten, the following formula (3) is obtained.

[수 2][Number 2]

Figure pat00003
Figure pat00003

식 (3)을 변형하면 이하의 식 (4)을 얻는다.By modifying equation (3), the following equation (4) is obtained.

[수 3][Number 3]

Figure pat00004
Figure pat00004

여기에서,From here,

[수 4][Number 4]

Figure pat00005
Figure pat00005

로 하면, 이하의 식 (5)을 얻는다., The following equation (5) is obtained.

y=Ax (5)y = Ax (5)

식 (5)에 있어서, 벡터 y의 요소는 시선 검출부(221)가 화상 표시 소자(108)에 표시시키는 점 Q1~Q9의 좌표이기 때문에 기지(旣知)이다. 또, 행렬 A의 요소는 유저(300)의 각막(302)의 정점(P)의 좌표이기 때문에 취득할 수 있다. 따라서, 시선 검출부(221)는, 벡터 y 및 행렬 A를 취득할 수 있다. 또한, 변환 행렬 M의 요소를 나열한 벡터인 벡터 x는 미지(未知)이다. 따라서, 행렬 M을 추정하는 문제는, 벡터 y와 행렬 A가 기지일 때, 미지의 벡터 x를 구하는 문제가 된다.In the equation (5), the element of the vector y is known because it is the coordinates of the points Q 1 to Q 9 that the visual line detecting section 221 displays on the image display element 108. The element of the matrix A can be acquired because it is the coordinates of the apex P of the cornea 302 of the user 300. [ Therefore, the line-of-sight detecting section 221 can obtain the vector y and the matrix A. [ In addition, the vector x, which is the vector that lists the elements of the transformation matrix M, is unknown. Therefore, the problem of estimating the matrix M is a problem of obtaining an unknown vector x when the vector y and the matrix A are known.

식 (5)는, 미지수의 수(즉 벡터 x의 요소수 4)보다 식의 수(즉, 시선 검출부(221)가 캘리브레이션 시에 유저(300)에게 제시한 점 Q의 수)가 많으면, 과결정 문제가 된다. 식 (5)에 나타내는 예에서는, 식의 수는 9개이기 때문에, 과결정 문제이다.If the number of expressions is larger than the number of unknowns (i.e., the number of elements Q of the vector x) (i.e., the number of points Q presented to the user 300 at the time of the visual line detection section 221) It becomes a matter of decision. In the example shown in equation (5), since the number of equations is nine, it is a problem of crystallization.

벡터 y와 벡터Ax의 오차 벡터를 벡터 e로 한다. 즉, e=y-Ax이다. 이 때, 벡터 e의 요소의 제곱합을 최소로 한다는 의미에서 최적의 벡터 xopt는, 이하의 식 (6)으로 구해진다.Let the vector y and the error vector of the vector Ax be the vector e. That is, e = y-Ax. In this case, the optimal vector x opt in the sense that the square sum of the elements of the vector e is minimized is obtained by the following equation (6).

xopt=(ATA)-1ATy (6)x opt = (A TA ) -1 A T y (6)

여기에서 "-1"은 역행열을 나타낸다.Here, "-1"

시선 검출부(221)는, 구한 벡터 xopt의 요소를 이용함으로써, 식 (1)의 행렬 M을 구성한다. 이로써, 시선 검출부(221)는, 유저(300)의 각막(302)의 정점(P)의 좌표와 행렬 M을 이용함으로써, 식 (2)에 따라, 유저(300)의 오른쪽눈이 화상 표시 소자(108)가 표시하는 동화상(動畵像) 상의 어느 곳을 주시하고 있는지를 2차원의 범위에서 추정할 수 있다. 이로써, 시선 검출부(221)는, 화상 표시 소자(108) 상의 오른쪽눈의 주시점과, 유저의 오른쪽눈의 각막의 정점을 연결하는 오른쪽눈 시선 벡터를 산출할 수 있다. 마찬가지로, 시선 검출부(221)는, 화상 표시 소자(108) 상의 왼쪽눈의 주시점과 유저의 왼쪽눈의 각막의 정점을 연결하는 왼쪽눈 시선 벡터를 산출할 수 있다.The line-of-sight detecting section 221 constructs the matrix M of the equation (1) by using the elements of the obtained vector x opt . The visual line detecting unit 221 can detect the right eye of the user 300 in accordance with the equation (2) by using the coordinates of the vertex P of the cornea 302 of the user 300 and the matrix M. Thus, It is possible to estimate, in a two-dimensional range, which portion on the moving image displayed by the display unit 108 is being watched. Thereby, the line of sight detecting unit 221 can calculate the right eye line vector connecting the main view of the right eye on the image display element 108 and the vertex of the cornea of the right eye of the user. Similarly, the line-of-sight detecting section 221 can calculate the left-eye line vector connecting the main viewpoint of the left eye on the image display element 108 and the apex of the cornea of the left eye of the user.

도 7은, 합성 화상 출력부(225)가 출력하는 합성 화상의 예를 나타내는 도이다. 도 7(a)는, 헤드 마운트 디스플레이(100)에 있어서 유저가 볼 때 오른쪽 위, 즉, 도 5에서 말하면 점 Q3의 위치에 마커 화상이 표시되어 있을 때, 당해 마커 화상을 주시하는 유저의 왼쪽눈을 촬상한 화상과, 그 때의 화면에 대한 상대 위치에 표시된 마커 화상을 합성한 합성 화상의 예를 나타내는 도이다. 또한, 유저의 눈을 보고 있는 상태에 있어서, 마커 화상의 위치는 좌우 대칭이 된다.7 is a diagram showing an example of a composite image output by the composite image output section 225. Fig. Figure 7 (a) is, when the head is above the right side when the seat in the mounted display 100 is viewed, that is, the marker to the position of FIG say from 5 Q 3 picture is displayed, the user to notice the art marker image FIG. 8 is a diagram showing an example of a synthesized image obtained by synthesizing an image of a left eye and a marker image displayed at a relative position with respect to the screen at that time; Further, in a state in which the user's eyes are being viewed, the position of the marker image is symmetrical.

도 7(b)는, 헤드 마운트 디스플레이(100)에 있어서 유저가 볼 때 화면 중앙 상부, 즉, 도 5에서 말하면 점 Q2의 위치에 마커 화상이 표시되어 있을 때, 당해 마커 화상을 주시하는 유저의 왼쪽눈을 촬상한 화상과, 그 때의 화면에 대한 상대 위치에 표시된 마커 화상을 합성한 합성 화상의 예를 나타내는 도이다. 또한, 유저의 눈을 보고 있는 상태에 있어서, 마커 화상의 위치는 좌우 대칭이 된다.Figure 7 (b), the head when in the mounted display 100 the user when viewing the center upper portion, that is, also put in 5 the marker image on the point Q 2 position is displayed, the user to notice the art marker image And a synthesized image obtained by synthesizing a marker image displayed at a relative position with respect to the image at that time. Further, in a state in which the user's eyes are being viewed, the position of the marker image is symmetrical.

도 7(c)는, 헤드 마운트 디스플레이(100)에 있어서 유저가 볼 때 왼쪽 위, 즉, 도 5에서 말하면 점 Q1의 위치에 마커 화상이 표시되어 있을 때, 당해 마커 화상을 주시하는 유저의 왼쪽눈을 촬상한 화상과, 그 때의 화면에 대한 상대 위치에 표시된 마커 화상을 합성한 합성 화상의 예를 나타내는 도이다.Figure 7 (c) is, when the head is the marker image in the position on the left side when the user viewed in the mounted display 100, that is, the point Q 1 is also put in 5 is displayed, the user to notice the art marker image FIG. 8 is a diagram showing an example of a synthesized image obtained by synthesizing an image of a left eye and a marker image displayed at a relative position with respect to the screen at that time;

이러한 합성 화상이 제2 표시부(226)에 표시되는 것에 의하여, 시선 검출 시스템(1)의 오퍼레이터는, 헤드 마운트 디스플레이(100)를 장착하는 유저가, 캘리브레이션 시에 마커 화상을 주시하고 있는지 여부의 확인을 행할 수 있다. 또한, 도 7에는 도시하지 않지만, 이러한 합성 화상이, 도 5에 나타내는 9개의 점 Q1~Q9 각각에 대하여 생성되어 표시되게 된다. 또, 도 7에서는, 유저의 왼쪽눈의 예를 나타내고 있지만, 이는, 유저의 오른쪽 눈에 대해서도 동일한 합성 화상을 얻을 수 있다.The synthesized image is displayed on the second display section 226 so that the operator of the visual line detection system 1 can confirm whether or not the user mounting the head mount display 100 is watching the marker image at the time of calibration Can be performed. Further, although not shown in Figure 7, such a composite image is to be displayed is generated with respect to nine points Q 1 ~ Q 9 each shown in Fig. 7 shows an example of the left eye of the user, but it is also possible to obtain the same composite image for the right eye of the user.

<동작><Operation>

도 8은, 시선 검출 시스템(1)의 캘리브레이션 시의 동작을 나타내는 플로차트이다. 도 8을 이용하여, 시선 검출 시스템(1)의 동작을 설명한다.8 is a flow chart showing the operation of the visual-line detecting system 1 at the time of calibration. The operation of the visual line detection system 1 will be described with reference to Fig.

시선 검출 장치(200)의 마커 화상 출력부(223)는, 표시하는 마커 화상 Qi에 대하여 i=1로 한다(스텝 S801).The marker image output unit 223 of the visual line detecting apparatus 200 sets i = 1 for the marker image Q i to be displayed (step S801).

마커 화상 출력부(223)는, i번째의 표시 좌표 위치에 마커 화상을 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시시킨다(스텝 S802). 즉, 마커 화상 출력부(223)는, 마커 화상을 생성하여, 그 표시 좌표 위치를 결정한다. 예를 들면, i=1의 경우이면, 점 Q1을 표시 좌표 위치로서 결정한다. 마커 화상 출력부(223)는, 제2 통신부(220)에 생성한 마커 화상과 그 표시 좌표 위치를 제2 통신부(220)에 전달한다. 제2 통신부(220)는, 전달된 마커 화상과 그 표시 좌표 위치를 헤드 마운트 디스플레이(100)에 송신한다.The marker image output section 223 causes the image display element 108 of the head mount display 100 to display the marker image at the i-th display coordinate position (step S802). That is, the marker image output unit 223 generates a marker image and determines the display coordinate position. For example, if i = 1, the point Q 1 is determined as the display coordinate position. The marker image output unit 223 transmits the marker image generated in the second communication unit 220 and its display coordinate position to the second communication unit 220. [ The second communication unit 220 transmits the transmitted marker image and its display coordinate position to the head mount display 100. [

헤드 마운트 디스플레이(100)의 제1 통신부(118)는, 마커 화상과 그 표시 좌표 위치를 수신하면, 이것을 제1 표시부(121)에 전달한다. 제1 표시부(121)는, 전달된 마커 화상을 지정되어 있는 표시 좌표 위치에서, 화상 표시 소자(108)에 표시한다. 유저는, 표시된 마커 화상을 주시한다. 촬상부(124)는, 표시된 마커 화상을 주시하는 유저의 눈을 포함하는 화상을 촬상한다(스텝 S803). 촬상부(124)는, 촬상한 화상을 제1 통신부(118)에 전달한다. 제1 통신부(118)는, 전달된 마커 화상을 주시하는 유저의 눈을 촬상한 화상의 화상 데이터를 시선 검출 장치(200)에 송신한다.When the first communication unit 118 of the head mount display 100 receives the marker image and its display coordinate position, it transmits it to the first display unit 121. The first display unit 121 displays the transferred marker image on the image display element 108 at the designated display coordinate position. The user watches the displayed marker image. The image pickup section 124 picks up an image including a user's eye watching the displayed marker image (step S803). The image pickup section 124 transmits the picked-up image to the first communication section 118. The first communication unit 118 transmits the image data of the image of the user's eye that observes the transmitted marker image to the visual-line detecting apparatus 200. [

시선 검출 장치(200)의 제2 통신부(220)는, 마커 화상을 주시하는 유저의 눈을 촬상한 화상의 화상 데이터를 수신하면, 합성 화상 출력부(225)에 전달한다. 합성 화상 출력부(225)는, 전달된 마커 화상을 주시하는 유저의 눈을 촬상한 화상에, 그 때에 표시하고 있던 마커 화상을, 그 표시 위치의 좌우를 반전시킨 위치에 중첩해서 합성하여 합성 화상을 생성한다(스텝 S804).The second communication unit 220 of the visual-line detecting device 200 receives the image data of the image of the user's eye watching the marker image, and transfers the image data to the composite image output unit 225. [ The synthesized image output unit 225 superimposes the marker image displayed at that time on the image of the eye of the user watching the transmitted marker image and superimposes the marker image on the inverted position of the display position, (Step S804).

합성 화상 출력부(225)는, 생성한 합성 화상을 제2 표시부(226)에 전달하고, 제2 표시부(226)는, 전달된 합성 화상을 표시한다(스텝 S805). 이로써, 시선 검출 시스템(1)의 오퍼레이터는, 헤드 마운트 디스플레이(100)를 장착한 유저가 마커 화상을 주시하고 있는지 여부를 확인할 수 있고, 주시하고 있지 않던 경우에는, 유저에게 마커 화상을 주시하도록 지시할 수 있다.The composite image output unit 225 transfers the generated composite image to the second display unit 226, and the second display unit 226 displays the transferred composite image (step S805). Thereby, the operator of the line-of-sight detection system 1 can confirm whether or not the user wearing the head-mounted display 100 is watching the marker image, and when not watching, the user is instructed to watch the marker image can do.

마커 화상 출력부(223)는, i가 9인지 아닌지를 판정한다(스텝 S806). i가 9가 아닌 경우에는, 마커 화상 출력부(223)는, i에 1 가산하여, 스텝 S802로 되돌아온다. i가 9인 경우에는, 판정부(224)는, 촬상하여 얻어진 9개의 화상에 대하여, 각각을 시선 검출용의 데이터로서 이용할 수 있는지 여부를 판정한다(스텝 S807). 즉, 판정부(224)는, 각 표시 좌표 위치에서 표시된 마커 화상을 주시하는 유저의 눈을 촬상한 화상 각각에 대하여, 유저의 각막 중심을 특정할 수 있는지 여부를 판정한다. 특정할 수 있는 경우에는, 그 좌표 위치를 기억부(227)에 기억하여, 상기 행렬식에 이용한다. 특정할 수 없는 경우에는, 판정부(224)는, 마커 화상 출력부(223)에 대하여, 유저의 각막 중심을 특정할 수 없었을 때에 표시되어 있던 마커 화상의 표시 좌표 위치와, 당해 마커 화상을 주시하는 유저의 눈의 화상으로부터 유저의 각막 중심을 특정할 수 없었던 것을 전달한다.The marker image output unit 223 determines whether i is 9 or not (step S806). If i is not 9, the marker image output unit 223 adds 1 to i and returns to step S802. If i is 9, the determination section 224 determines whether or not each of the nine images obtained by imaging is available as line-of-sight detection data (step S807). That is, the judging unit 224 judges whether or not the corneal center of the user can be specified for each of the images of the user's eyes that watch the marker image displayed at each display coordinate position. If it can be specified, the coordinate position is stored in the storage unit 227 and used for the determinant. If it can not be specified, the determination unit 224 determines whether or not the display position of the marker image that was displayed when the user's corneal center could not be specified with respect to the marker image output unit 223, The corneal center of the user can not be specified from the image of the user's eyes.

마커 화상 출력부(223)는, 유저의 각막 중심을 특정할 수 없었던 화상을 촬상했을 때의 마커 화상의 표시 좌표 위치를, 화면(화상 표시 소자(108))의 중앙 근처로 수정한다. 그리고, 수정 후의 표시 좌표 위치를 제2 통신부(220)에 전달한다. 제2 통신부(220)는 전달된 표시 좌표 위치를 헤드 마운트 디스플레이(100)에 송신한다. 제1 통신부(118)는, 수신한 수정 후의 표시 좌표 위치를 제1 표시부(121)에 전달한다. 제1 표시부(121)는, 전달된 수정 후의 표시 좌표 위치에 마커 화상을 표시하여, 유저에게 이것을 주시시킨다. 촬상부(124)는, 수정 후의 표시 좌표 위치에 표시된 마커 화상을 주시하는 유저의 눈을 촬상한다(스텝 S809). 촬상부(124)는, 촬상한 화상을 제1 통신부(118)에 전달하고, 제 1 통신부(118)는 당해 화상을 시선 검출 장치(200)에 송신한다. 그리고, 스텝 S808의 처리로 되돌아온다.The marker image output section 223 corrects the display coordinate position of the marker image when the image of the user who could not specify the corneal center of the user is captured to the vicinity of the center of the screen (image display element 108). Then, the display coordinate position after correction is transmitted to the second communication unit 220. The second communication unit 220 transmits the delivered display coordinate position to the head mount display 100. The first communication unit 118 transmits the received display coordinate position after correction to the first display unit 121. [ The first display unit 121 displays the marker image at the display coordinate position after the correction, and notifies the user of the marker image. The image pickup section 124 picks up an eye of the user watching the marker image displayed at the display coordinate position after the correction (step S809). The image pickup section 124 transmits the captured image to the first communication section 118 and the first communication section 118 transmits the image to the visual line detection apparatus 200. [ Then, the process returns to step S808.

한편, 판정부(224)가, 촬상한 모든 화상을 시선 검출용의 데이터로서 사용할 수 있다고 판정한 경우, 즉, 모든 화상으로부터 유저의 각막 중심을 특정할 수 있었던 경우에, 상기 행렬 x의 요소를 산출하여, 캘리브레이션 처리를 종료한다.On the other hand, when the determining section 224 determines that all captured images can be used as data for visual line detection, that is, when the user's corneal center can be specified from all images, And the calibration process is terminated.

이상이, 시선 검출 시스템(1)의 캘리브레이션 시의 동작의 설명이다.This concludes the description of the operation of the visual line detection system 1 at the time of calibration.

도 9는, 마커 화상 출력부(223)에 의한 마커 화상의 표시 좌표 위치의 변경예를 나타내는 이미지 도이다. 도 9(a)는, 마커 화상의 화상 표시 소자(108)에 있어서의 표시 위치의 기본위치를 나타내는 도이다. 도 9(a)에는, 통틀어 9개의 마커 화상을 나타내고 있지만, 실제로는, 이것들은 하나 하나 순서대로 화상 표시 소자(108)에 표시된다. 즉, 9개의 유저의 눈을 촬상한 화상을 얻을 수 있게 된다.9 is an image diagram showing an example of a change in the display coordinate position of the marker image by the marker image output section 223. 9A is a diagram showing a basic position of a display position in an image display element 108 of a marker image. 9A shows nine marker images as a whole. Actually, these marker images are sequentially displayed on the image display element 108 one by one. That is, it is possible to obtain an image of the eyes of nine users.

이 때, 일례로서 도 9(a)에 나타나는 마커 화상 중, 마커 화상(901a, 902a, 903a) 각각을 도 9(a)에 나타내는 좌표 표시 위치에 표시했을 때에, 유저가 그 마커 화상을 주시하고 있는 화상을 시선 검출을 위하여 이용할 수 없는, 즉, 판정부(224)가, 유저의 각막 중심을 특정할 수 없었던 것으로 한다. 그러면, 판정부(224)는, 마커 화상 출력부(223)에 그 내용을 전달한다.At this time, when each of the marker images 901a, 902a, and 903a among the marker images shown in Fig. 9A is displayed at the coordinate display position shown in Fig. 9A, the user watches the marker image It can not be used for eye detection, that is, the determination unit 224 can not specify the corneal center of the user. Then, the determination section 224 delivers the content to the marker image output section 223. [

이것을 받아 마커 화상 출력부(223)는, 유저의 각막 중심을 특정할 수 없었을 때에 표시하고 있던 마커 화상의 표시 좌표 위치를 화면 중앙 근처로 수정한다. 즉, 도 9(b)에 나타내는 바와 같이, 마커 화상(901a)의 표시 좌표 위치를 마커 화상(901b)에 나타내는 표시 좌표 위치로, 마커 화상(902a)의 표시 좌표 위치를 마커 화상(902b)에 나타내는 표시 좌표 위치로, 마커 화상(903a)의 표시 좌표 위치를 마커 화상(903b)에 나타내는 표시 좌표 위치로 수정한다. 그리고, 수정 후의 표시 좌표 위치에서 각 마커 화상을 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시시키고, 이것을 주시하는 유저의 눈을 포함하는 화상을 촬상한다. 그리고, 판정부(224)는, 다시 촬상된 화상에 있어서 유저의 각막 중심을 특정할 수 있는지 여부를 판정하게 된다.Upon reception of this, the marker image output unit 223 corrects the display coordinate position of the marker image displayed when the user's corneal center can not be specified, to be near the center of the screen. 9 (b), the display coordinate position of the marker image 901a is set to the display coordinate position shown in the marker image 901b, and the display coordinate position of the marker image 902a is set to the marker image 902b The display coordinate position of the marker image 903a is changed to the display coordinate position shown in the marker image 903b. Then, each marker image is displayed on the image display element 108 of the head mount display 100 at the display coordinate position after the correction, and an image including the eye of the user is watched. Then, the determination section 224 determines whether or not the center of the cornea of the user can be specified in the captured image again.

또한, 도 9(b)에 있어서는, 마커 화상의 표시 좌표 위치를 x축방향 및 y축방향의 양쪽 모두를 중앙 근처로 하는 것으로 하고 있지만, 이는, 한쪽의 축에 대해서만 중앙 근처로 수정하는 것으로 해도 된다. 그리고, 한쪽의 축에 대해서만 표시 위치를 수정한 마커 화상을 유저에게 주시시켜 촬상한 화상으로부터 유저의 각막 중심을 특정할 수 없었던 경우에, 다시, 다른 한쪽의 축에 대해서도 마커 화상의 표시 좌표 위치를 중앙 근처로 수정하는 것과 같이 해도 된다.In Fig. 9 (b), both the x-axis direction and the y-axis direction are set near the center of the display coordinate position of the marker image. This is because even if only one axis is corrected near the center do. When the user is not able to specify the center of the cornea from the captured image by looking at the marker image whose display position has been corrected for only one axis, the display coordinate position of the marker image is set to It may be modified as near the center.

<정리><Summary>

상기 설명한 바와 같이, 본 발명에 관한 시선 검출 시스템(1)은, 마커 화상과, 그것을 주시하는 유저의 눈을 촬상한 화상을, 중첩해서 합성 화상을 생성하여, 이것을 출력함으로써, 시선 검출 시스템(1)의 오퍼레이터는, 캘리브레이션 시에 유저가 마커 화상을 주시하고 있는지 여부를 확인할 수 있다. 또, 촬상 시에, 유저의 각막이, 유저의 아래 눈꺼풀에 가려져, 촬상된 화상으로부터는, 유저의 각막 중심을 특정할 수 없는 경우에 대응하여, 시선 검출 시스템(1)은, 마커 화상을 표시하는 표시 좌표 위치를 수정함으로써, 유저의 각막 중심을 특정하기 쉽게 할 수 있다.As described above, the eye gaze detection system 1 according to the present invention generates a composite image by superimposing a marker image and an image of the eye of the user watching it, ) Can confirm whether or not the user is watching the marker image at the time of calibration. Corresponding to the case where the cornea of the user is covered by the lower eyelid of the user at the time of image capture and the corneal center of the user can not be specified from the captured image, the gaze detection system 1 displays the marker image The corneal center of the user can be easily specified.

<실시형태 2>&Lt; Embodiment 2 >

상기 실시형태 1에 있어서는, 시선 검출을 행하기 위한 캘리브레이션 시에 시선 검출 장치(200)의 오퍼레이터에게 있어 유의한 구성을 나타냈다. 본 실시형태 2에 있어서는, 또한 유저(300)의 특성을 취득할 수 있는 구성을 설명한다. 헤드 마운트 디스플레이(100)를 장착하여 사용하는 유저(300)는, 개인차에 따라, 보이는 방식이나 보이는 범위가 달라진다. 이로 인하여, 개개인의 특성에 따른 영상을 제공하여, 유저빌리티가 풍부한 시스템을 제공하는 것이 요망되고 있다. 본 실시형태 2에 있어서는, 그러한 시선 검출 시스템에 대하여 설명한다.In the first embodiment, the operator of the visual-line detecting device 200 has a significant configuration at the time of calibration for visual-line detection. In the second embodiment, a configuration capable of acquiring the characteristics of the user 300 will also be described. The visible mode or the visible range of the user 300 to which the head mount display 100 is attached varies depending on individual differences. Accordingly, it is desired to provide a system that is rich in usability by providing images according to individual characteristics. In the second embodiment, such a line-of-sight detection system will be described.

<구성><Configuration>

도 11은, 실시형태 2에 관한 시선 검출 시스템의 구성을 나타내는 블록도이다. 도 11에 나타내는 바와 같이, 시선 검출 시스템은, 헤드 마운트 디스플레이(100)와, 시선 검출 장치(200)를 포함한다. 도 11에 나타내는 바와 같이, 헤드 마운트 디스플레이(100)는, 제1 통신부(118)와, 제1 표시부(121)와, 적외광 조사부(122)와, 화상 처리부(123)와, 촬상부(124)를 구비한다. 또, 시선 검출 장치(200)는, 제2 통신부(220)와, 시선 검출부(221)와, 영상 출력부(222)와, 접수부(228)와, 특정부(229)와, 기억부(227)를 구비한다. 도 11에 나타내는 헤드 마운트 디스플레이(100) 및 시선 검출 장치(200)는, 각각, 실시형태 1에 나타낸 헤드 마운트 디스플레이(100) 및 시선 검출 장치(200)와 동일한 기능을 갖는다. 또한, 도 11에 있어서는, 본 실시형태 2와 관련없는 구성에 대해서는, 구성을 생략하고 있다. 이하에 있어서는, 실시형태 1과 공통되는 기능에 대해서는, 설명을 생략하고, 다른 기능에 대해서만 설명한다.11 is a block diagram showing the configuration of the visual-point detecting system according to the second embodiment. 11, the visual line detecting system includes a head mount display 100 and a visual line detecting device 200. [ 11, the head mount display 100 includes a first communication unit 118, a first display unit 121, an infrared light irradiation unit 122, an image processing unit 123, an image pickup unit 124 . The visual line detecting apparatus 200 further includes a second communication section 220, a visual line detection section 221, a video output section 222, a reception section 228, a specification section 229, a storage section 227 . The head-mounted display 100 and the visual-line detecting device 200 shown in Fig. 11 have the same functions as the head-mounted display 100 and the visual-line detecting device 200 shown in the first embodiment, respectively. In FIG. 11, the configuration is omitted for the configuration that is not related to the second embodiment. Hereinafter, description of the functions common to the first embodiment will be omitted, and only the other functions will be described.

영상 출력부(222)는, 헤드 마운트 디스플레이(100)에, 유효 시야 특정 그래프의 표시 화상을 제2 통신부(220)를 통하여 송신하며, 헤드 마운트 디스플레이(100)의 제1 표시부(121)는, 화상 표시 소자(108)에 전달된 유효 시야 특정 그래프를 표시한다. The video output unit 222 transmits the display image of the valid visual field specific graph to the head mount display 100 through the second communication unit 220. The first display unit 121 of the head mount display 100 displays, And displays an effective visual field specific graph transmitted to the image display element 108. [

시선 검출 장치(200)의 접수부(228)는, 헤드 마운트 디스플레이(100)를 장착하고 있는 유저(300)가, 화상 표시 소자(108)에 표시된 유효 시야 특정 그래프에 있어서, 유저(300)에게 있어 오브젝트의 보이는 방식을 나타내는 시인 정보를 받아들인다. 접수부는, 예를 들면, 시선 검출 장치(200)에 구비되거나, 혹은 접속된 입력용 인터페이스를 이용하여, 시인 정보의 입력을 받아들이는 것이어도 되고, 제2 통신부(220)로부터 통신에 의하여 받은 시인 정보를 받아들이는 것이어도 된다. 입력용 인터페이스란, 예를 들면, 시선 검출 장치에 구비된 입력 패널의 하드 키여도 되고, 시선 검출 장치(200)에 접속된 키보드나 터치 패드 등이어도 된다. 또, 혹은 접수부(228)는, 유저(300)로부터 발화된 음성의 입력을 받아들이는 것이어도 되고, 이 경우에는, 이른바 음성인식 처리에 따라, 음성을 해석하는 것에 의하여, 유저(300)로부터의 시인 정보의 입력을 받아들이는 것이어도 된다. 접수부(228)는, 받아들인 시인 정보를 특정부(229)에 전달한다.The reception unit 228 of the visual-line detecting apparatus 200 is configured such that the user 300 mounting the head-mounted display 100 has the user 300 in the effective visual field specific graph displayed on the image display element 108 And accepts the poet information indicating the manner in which the object is viewed. The receiving unit may be provided in the visual-line detecting apparatus 200 or may receive the input of the visibility information using the connected input interface. The receiving unit may receive input of the visual information from the second communication unit 220, It may be to accept information. The input interface may be, for example, a hard key of an input panel provided in the visual line detecting device, or may be a keyboard or a touch pad connected to the visual line detecting device 200. [ Alternatively, the accepting unit 228 may accept the input of speech uttered by the user 300. In this case, by analyzing the voice in accordance with the so-called speech recognition processing, And may accept input of the poet information. The accepting unit 228 transmits the accepted view information to the specifying unit 229. [

유효 시야 특정 그래프는, 헤드 마운트 디스플레이(100)를 장착하여 사용하는 유저(300)의 유효 시야를 특정하기 위한 표시 화상이다. 도 12에 유효 시야 특정 그래프의 일례를 나타낸다. 도 12는, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시하고 있는 상태의 표시 화상(1200)을 나타내고 있다.The effective visual field specific graph is a display image for specifying the effective field of view of the user 300 to which the head mount display 100 is attached and used. Fig. 12 shows an example of the effective visual field specific graph. Fig. 12 shows a display image 1200 in a state of being displayed on the image display element 108 of the head mount display 100. Fig.

유효 시야 특정 그래프는, 도 12에 나타내는 바와 같이, 유저가 주시해야 할 주시점을 나타내는 주시점 마커(1202)와, 주시점 마커(1202)를 중심으로 그 주위에 복수의 오브젝트를 환형으로 배치한 화상이다. 여기에서는, 복수의 오브젝트 각각으로서 히라가나를 배치한 예를 나타내고 있지만, 이는, 일례이며, 그 외의 문자나 화상이어도 된다. 복수의 오브젝트는, 주시점 마커(1202)(의 중심)로부터의 거리에 따른 사이즈의 화상이며, 주시점 마커(1202)로부터의 거리가 길어지면 길어질수록 커지도록 설정되어 있다. 즉, 오브젝트의 중심의 좌표와 주시점 마커의 중심의 좌표의 사이의 거리를 l, 그 때의 오브젝트의 화상 사이즈를 x×y로 했을 때, 표시하는 오브젝트의 중심 좌표와 주시점 마커(1202)의 중심의 좌표의 사이의 거리가 2l인 경우에는, 오브젝트의 화상 사이즈는, 2x×2y가 된다.As shown in FIG. 12, the effective visual field specific graph is composed of a main viewpoint marker 1202 indicating a main viewpoint to be watched by the user and a plurality of objects arranged in a circle around the main viewpoint marker 1202 It is a picture. Here, an example in which hiragana is arranged as each of a plurality of objects is shown, but this is merely an example, and other characters or images may be used. The plurality of objects are set to be larger in size as the distance from the main viewpoint marker 1202 becomes longer as the image is of a size in accordance with the distance from (the center of) the main viewpoint marker 1202. [ That is, when the distance between the coordinates of the center of the object and the coordinates of the center of the main viewpoint marker is l and the image size of the object at that time is x 占 y, the center coordinates of the object to be displayed and the coordinates of the main viewpoint marker 1202, Is 2L, the image size of the object is 2x x 2y.

특정부(229)는, 접수부(228)로부터 전달된 시인 정보에 근거하여, 유저(300)의 유효 시야를 특정한다.The specifying unit 229 specifies the effective field of view of the user 300 based on the visibility information transmitted from the accepting unit 228. [

유저(300)는, 화상 표시 소자(108)에 표시된 도 12의 유효 시야 특정 그래프의 주시점 마커(1202)를 주시한 상태로, 어느 오브젝트까지, 분명히 시인할 수 있는지를 특정한다. 유저(300)가 주시점 마커(1202)를 주시한채로 명확하게 시인할 수 있는 오브젝트의 정보가 본 실시형태 2에 있어서의 시인 정보가 된다. 예를 들면, 유저가 명확하게 시인할 수 있었던 오브젝트에서 가장 주시점 마커(1202)로부터 먼 오브젝트가, "X, Q, R, S, T, U, V, W"였던 경우에는, 도 12의 점선으로 나타내는 원(1201)이, 유저(300)의 유효 시야가 된다.The user 300 specifies to which object the user can clearly visually check the main viewpoint markers 1202 of the effective viewpoint specific graph shown in Fig. 12 displayed on the image display device 108. Fig. The information of the object that the user 300 can visually clearly recognize while observing the main viewpoint marker 1202 becomes the visibility information in the second embodiment. For example, when the object distant from the main viewpoint marker 1202 in the object clearly visible to the user is "X, Q, R, S, T, U, V, W" A circle 1201 indicated by a dotted line is an effective field of view of the user 300.

특정부(229)는, 접수부(228)로부터 전달된 시인 정보로 나타나는, 유저(300)가 시인할 수 있던 오브젝트의 정보를 특정한다. 특정부(229)는, 영상 출력부(222)가 헤드 마운트 디스플레이(100)에 송신한 유효 시야 그래프의 좌표계와, 헤드 마운트 디스플레이(100)에 있어서의 표시 위치에 근거하여, 유저(300)의 유효 시야 범위(좌표 범위)를 특정한다. 구체적으로는, 시인 정보로 나타나는 유저(300)가 주시점 마커를 주시한채로 명확하게 시인할 수 있었던 오브젝트의 표시 좌표를 특정한다. 그리고, 특정한 오브젝트의 표시 좌표 범위 중 주시점 마커(1202)로부터 가장 먼 거리에 있는 좌표까지의 거리를 반경으로 하는 원 내를, 유저의 유효 시야로서 특정한다.The specifying unit 229 specifies the information of the object that the user 300 can see, which is indicated by the visibility information transmitted from the accepting unit 228. The specifying unit 229 determines whether or not the user 300 is to be displayed on the basis of the coordinate system of the effective visual field graph transmitted from the video output unit 222 to the head mount display 100 and the display position on the head mount display 100. [ Specify the effective field of view (coordinate range). Concretely, the display coordinates of the object, which can be clearly recognized by the user 300 appearing with the poet information while watching the main viewpoint marker, is specified. Then, in the circle whose radius is the distance from the main viewpoint marker 1202 to the coordinates at the farthest distance from the display coordinate range of the specific object, it is specified as the effective field of view of the user.

영상 출력부(222)는, 특정부(229)가 특정한 유효 시야와, 시선 검출부(221)가 특정한 주시점에 근거하여, 고해상도 영상을 생성한다. 영상 출력부(222)는, 시선 검출부(221)가 특정한 주시점을 중심으로, 특정부(229)가 특정한 유효 시야 내의 범위에 표시하는 영상 부분의 고해상도 영상을 생성한다. 또, 영상 출력부(222)는, 화면 전체분의 저해상도 영상을 생성한다. 그리고, 생성한 저해상도 영상과 유효 시야 내의 고해상도 영상을, 제2 통신부(220)를 통하여 헤드 마운트 디스플레이(100)에 송신한다. 또한, 영상 출력부(222)는, 저해상도 영상에 대해서는, 유효 시야 밖의 범위분만큼 생성하는 것으로 해도 된다.The image output unit 222 generates a high-resolution image based on the valid view field specified by the specifying unit 229 and the main viewpoint specified by the visual-line detecting unit 221. [ The image output unit 222 generates a high-resolution image of the image portion displayed by the specifying unit 229 in a range within the effective view area specified by the sight line detecting unit 221 at a specific point in time. Also, the video output unit 222 generates a low-resolution video for the entire screen. Then, the generated low-resolution image and the high-resolution image within the valid visual field are transmitted to the head mount display 100 through the second communication unit 220. [ The video output unit 222 may generate a low-resolution video for a range outside the effective viewing range.

이로써, 시선 검출 장치(200)는, 각 유저의 유효 시야에 따른 범위의 고해상도 영상을 헤드 마운트 디스플레이(100)에 송신할 수 있다. 즉, 각 유저의 시력 특성에 따라 고화질의 화상을 제공할 수 있다. 또, 고해상도 영상을 송신하는 범위를 유저의 유효 시야로 좁히는 것으로, 전체 화면분의 고해상도 영상을 송신하는 것보다도 데이터 용량을 억제할 수 있으므로, 헤드 마운트 디스플레이(100)-시선 검출 장치(200) 간의 데이터 전송량을 억제할 수 있다. 이는, 예를 들면, 시선 검출 장치(200)가 외부의 영상 전달 서버로부터 영상을 받아, 헤드 마운트 디스플레이(100)에 전송하는 경우에도 동일한 효과를 기대할 수 있다. 즉, 시선 검출 장치(200)에서 유저의 시선 위치와 유효 시야를 특정하여, 그 정보를 영상 전달 서버에 보냄으로써, 영상 전달 서버는, 지정된 범위 내의 고해상도 영상과, 전체 화면분의 저해상도 영상을 송신하는 것에 의하여, 영상 전달 서버로부터 시선 검출 장치(200)로의 데이터 전송량을 억제할 수 있다.Thereby, the visual line detecting apparatus 200 can transmit a high-resolution image in a range according to the effective visual field of each user to the head mount display 100. [ That is, it is possible to provide a high-quality image according to the visual characteristics of each user. Further, by narrowing the range of transmission of the high-resolution image to the effective visual range of the user, the data capacity can be suppressed more than that of transmitting the high-resolution image of the entire screen. The data transmission amount can be suppressed. This can be expected, for example, when the visual-line detecting apparatus 200 receives an image from an external image transmission server and transmits the image to the head-mounted display 100. [ That is, by specifying the gaze position and effective field of view of the user in the line of sight detection apparatus 200 and sending the information to the image delivery server, the image delivery server transmits the high-resolution image within the specified range and the low- The amount of data transferred from the video delivery server to the visual-line detecting device 200 can be suppressed.

<동작><Operation>

도 13은, 시선 검출 장치(200)에 의한 유저의 유효 시야를 특정할 때의 동작을 나타내는 플로차트이다.13 is a flowchart showing an operation when the visual field detection apparatus 200 specifies the effective field of view of the user.

시선 검출 장치(200)는, 실시형태 1에 나타낸 캘리브레이션을 행한 후에, 영상 출력부(222)는, 기억부(227)로부터, 유효 시야 특정 그래프를 독출한다. 그리고, 독출한 유효 시야 특정 그래프를, 표시 명령과 함께 제2 통신부(220)를 통하여 헤드 마운트 디스플레이(100)에 송신한다(스텝 S1301). 이로써, 헤드 마운트 디스플레이(100)의 제1 표시부(121)는, 제1 통신부(118)를 통하여 유효 시야 특정 그래프를 수신하여, 화상 표시 소자(108)에 표시한다. 유저(300)는, 표시된 유효 시야 특정 그래프의 주시점 마커를 주시한 상태로, 그 주위에 표시되어 있는 오브젝트 중, 명확하게 시인할 수 있는 오브젝트를 특정한다.After performing the calibration shown in the first embodiment, the visual line detecting apparatus 200 reads out the effective visual field specific graph from the storage section 227. Then, the read valid visual field specific graph is transmitted to the head mount display 100 via the second communication unit 220 together with the display command (step S1301). Thereby, the first display unit 121 of the head mount display 100 receives the effective visual field graph via the first communication unit 118, and displays it on the image display element 108. The user 300 specifies an object that can be clearly recognized among the objects displayed in the vicinity of the main viewpoint markers of the displayed effective viewpoint graph.

계속해서, 시선 검출 장치(200)의 접수부(228)는, 유저(300)가 표시된 유효 시야 특정 그래프 중에서, 유저(300)가 주시점 마커를 주시한 채로 시인할 수 있었던 오브젝트의 정보인 시인 정보를 받아들인다(스텝 S1302). 이는, 유저(300)가 직접 입력하는 것으로 해도 되고, 유저(300)로부터 시선 검출 장치(200)의 오퍼레이터가 시인할 수 있었던 오브젝트의 정보를 전달받아 입력하는 것으로 해도 되고, 혹은 각 오브젝트를 차례로 점멸시켜 유저(300)가 그 점멸시킨 오브젝트를 주시하고 있는 상태로 명확하게 시인할 수 있었는지 여부를 점멸 시의 간단한 버튼의 압하 등으로 입력을 받아들여, 접수부(228)에 입력되는 형태를 취하는 것으로 해도 된다. 접수부(228)는, 유저(300)의 시인 정보를 받아들이면, 받아들인 시인 정보를 특정부(229)에 전달한다.Subsequently, the acceptance unit 228 of the visual-line detecting apparatus 200 determines whether or not the visual information of the user 300, which is the information of the object that the user 300 can see with the main- (Step S1302). This may be input directly by the user 300 or may be inputted from the user 300 by receiving the information of the object that the operator of the visual line detecting apparatus 200 can recognize, Whether or not the user 300 can visually recognize the blinked object clearly can be input to the reception unit 228 by accepting an input by pushing down a simple button at the time of blinking or the like You can. When the acceptance section 228 accepts the visibility information of the user 300, the acceptance section 228 delivers the accepted visibility information to the specification section 229. [

특정부(229)는, 접수부(228)로부터 유저(300)의 시인 정보를 받아들이면, 유저(300)의 유효 시야를 특정한다. 유저의 유효 시야의 특정 수법은, 상기 설명한 바와 같다. 특정부(229)는, 특정한 유저의 유효 시야 정보(유저(300)의 주시점을 중심으로 하는 좌표 범위를 나타내는 정보)를 생성하여, 기억부(227)에 기억하고(스텝 S1303), 처리를 종료한다.The specification unit 229 specifies an effective visual field of the user 300 when the user 300 receives the visual information of the user 300 from the reception unit 228. A specific method of effective view of the user is as described above. The specifying unit 229 generates effective view information of the specific user (information indicating a coordinate range centered on the main viewpoint of the user 300) and stores the information in the storage unit 227 (step S1303) And terminates.

이상의 처리에 의하여, 시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)를 장착한 유저(300)의 유효 시야를 특정한다.By the above processing, the visual line detecting apparatus 200 specifies the effective visual field of the user 300 on which the head mounted display 100 is mounted.

다음으로, 특정한 유효 시야의 이용 방법에 대하여 설명한다. 도 14는, 시선 검출 장치(200)에 의하여 특정된 유저의 유효 시야에 근거하여, 헤드 마운트 디스플레이(100)에 표시시키는 화상을 생성할 때의 동작을 나타내는 플로차트이다. 도 14에 나타내는 동작은, 시선 검출 장치(200)로부터 헤드 마운트 디스플레이(100)에 표시해야 할 영상을 송신하고 있을 때의 동작이다.Next, a method of using a specific effective field of view will be described. 14 is a flowchart showing an operation when an image to be displayed on the head mounted display 100 is generated based on the effective field of view of the user specified by the visual line detecting device 200. [ The operation shown in Fig. 14 is the operation when the image to be displayed on the head mount display 100 is being transmitted from the visual line detecting device 200. Fig.

영상 출력부(222)는, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시하는 영상으로서, 저해상도의 영상을 생성한다. 그리고, 영상 출력부(222)는, 제2 통신부(220)를 통하여, 생성한 저해상도 영상을 헤드 마운트 디스플레이(100)에 송신한다(스텝 S1401).The video output unit 222 generates an image having a low resolution as an image to be displayed on the image display device 108 of the head mount display 100. [ Then, the video output unit 222 transmits the generated low-resolution video to the head mount display 100 through the second communication unit 220 (step S1401).

시선 검출 장치(200)의 제2 통신부(220)는, 헤드 마운트 디스플레이(100)로부터, 화상 표시 소자(108)에 표시되어 있는 영상을 보고 있는 유저의 눈을 촬상한 촬상 화상을 수신한다. 제2 통신부(220)는, 수신한 촬상 화상을 시선 검출부(221)에 전달한다. 그리고, 시선 검출부(221)는, 실시형태 1에 나타낸 것와 같이 하여, 유저(300)의 주시 위치를 특정한다(스텝 S1402). 시선 검출부(221)는, 특정한 주시 위치를 영상 출력부(222)에 전달한다.The second communication unit 220 of the visual-line detecting device 200 receives a picked-up image of the eye of the user who is looking at the image displayed on the image display device 108 from the head-mounted display 100. The second communication unit 220 transmits the received captured image to the visual line detection unit 221. [ Then, the line-of-sight detecting section 221 specifies the viewing position of the user 300 as in the first embodiment (step S1402). The visual line detecting unit 221 transmits the specific viewing position to the video output unit 222. [

영상 출력부(222)는, 시선 검출부(221)로부터 유저(300)의 주시 위치가 전달되면, 기억부(227)로부터, 특정부(229)가 특정한 유저(300)의 유효 시야를 나타내는 유효 시야 정보를 독출한다. 그리고, 전달된 주시 위치를 중심으로 하여, 유효 시야 정보로 나타나는 유효 시야의 범위까지의 고해상도의 영상을 생성한다(스텝 S1403).The video output unit 222 receives from the storage unit 227 the viewing position of the user 300 from the visual line detection unit 221, Read information. Then, a high-resolution image up to a range of the effective visual field represented by the effective visual field information is generated centering on the transmitted viewing position (step S1403).

영상 출력부(222)는, 생성한 고해상도의 영상을, 제2 통신부(220)를 통하여 헤드 마운트 디스플레이(100)에 송신한다(스텝 S1404).The video output unit 222 transmits the generated high-resolution video to the head mount display 100 through the second communication unit 220 (step S1404).

시선 검출 장치(200)는, 영상 출력부(222)가 출력하는 영상이 종료되었는지(마지막 프레임에 도달했는지) 아닌지, 또는 유저(300) 혹은 시선 검출 장치(200)의 오퍼레이터로부터 영상의 재생 종료의 입력을 받았는지 아닌지를 판정한다(스텝 S1405). 영상이 종료되지 않고, 또한, 유저(300) 또는 오퍼레이터로부터도 재생 종료 입력을 받지 않은 경우에는(스텝 S1405의 NO), 스텝 S1401로 되돌아온다. 영상이 종료되었거나, 유저(300) 또는 오퍼레이터로부터 재생 종료 입력을 받은 경우에는(스텝 S1405의 YES), 처리를 종료한다.The visual line detecting apparatus 200 determines whether the video output from the video output unit 222 has ended (reached the last frame) or not from the user 300 or from the operator of the visual line detecting apparatus 200 It is determined whether or not an input is received (step S1405). When the image is not terminated and the user 300 or the operator does not receive the playback end input (NO in step S1405), the flow returns to step S1401. If the image has been terminated, or if the input from the user 300 or the operator is received (YES in step S1405), the process is terminated.

이로써, 시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)에, 저해상도의 영상을 계속해서 항상 송신하는 것에 의하여, 영상을 끊임없이 제공할 수 있음과 함께, 유저의 주시점을 중심으로 한 고해상도의 화상도 송신하므로, 양호한 화질의 영상을 유저에게 제공할 수 있다. 또, 시선 검출 장치(200)는, 헤드 마운트 디스플레이(100)에, 유저(300)의 유효 시야 내에는 고해상도의 영상을 제공하고, 유효 시야 밖에는 저해상도의 영상을 제공한다는 구성을 가지므로, 시선 검출 장치(200)로부터 헤드 마운트 디스플레이(100)에 송신하는 고해상도의 영상을 필요 최소한으로 함으로써, 시선 검출 장치(200)로부터 헤드 마운트 디스플레이(100)에 송신하는 데이터 전송량을 억제할 수 있다.Thus, the line-of-sight detecting apparatus 200 can constantly transmit the low-resolution image continuously to the head-mounted display 100, and can continuously provide the image, and at the same time, the high- Since the image is also transmitted, it is possible to provide the user with a video of good image quality. Since the visual line detecting apparatus 200 has a configuration in which a high resolution image is provided in the effective view field of the user 300 and a low resolution image is provided in the effective view field on the head mount display 100, Resolution image to be transmitted from the apparatus 200 to the head-mounted display 100 is minimized, it is possible to suppress the amount of data transmitted from the visual-line detecting device 200 to the head-mounted display 100. [

<실시형태 3>&Lt; Embodiment 3 >

상기 실시형태 2에 있어서는, 주시점 마커를 중심으로 주시점 마커로부터의 거리에 따른 복수의 오브젝트의 시인의 정도에 따라, 유저(300)의 유효 시야를 특정하는 수법에 대하여 설명했다. 본 실시형태 3에 있어서는, 실시형태 2와는 다른 형태에서의 유저(300)의 유효 시야의 특정 방법에 대하여 설명한다. 본 실시형태 3에 있어서는, 실시형태 2와 다른 점에 대해서만 설명한다.In the second embodiment, the method of specifying the effective field of view of the user 300 in accordance with the degree of visibility of a plurality of objects based on the distance from the main viewpoint markers around the main viewpoint marker has been described. In the third embodiment, a description will be given of a method of specifying an effective visual field of the user 300 in a mode different from that of the second embodiment. In the third embodiment, only the difference from the second embodiment will be described.

도 15는, 실시형태 3에 관한 유효 시야 그래프를 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)에 표시하고 있는 상태를 나타내고 있다.Fig. 15 shows a state in which the effective visual field graph according to the third embodiment is displayed on the image display element 108 of the head mount display 100. Fig.

영상 출력부(222)는, 도 15에 나타내는 유효 시야 그래프의 각 원을 소정 주기로 명멸(明滅)시킨다. 즉, 표시한 상태로부터 점점 소거하도록 하여, 소거한 상태로부터 표시하는 것을 소정 주기로 반복한다. 유저(300)가 그 상태를 시인했을 때, 헤드 마운트 디스플레이(100)의 시스템상에서는 모든 원은 동시에 표시하고, 동시에 소거하도록 하고 있어도, 인간의 개인차에 따라, 동시에 표시하고, 동시에 소거하는 것처럼 보이고 있다고는 한정할 수 없다. 본 실시형태 3에 있어서는, 유저 각각에 있어 상이한 동심원의 보이는 방식에 따라, 그 유효 시야를 특정한다.The video output unit 222 blinks each circle of the effective visual field graph shown in Fig. 15 at predetermined intervals. That is, the display is gradually erased from the displayed state, and the display is repeated from the erased state at predetermined intervals. When the user 300 acknowledges the state, all the circles are simultaneously displayed on the system of the head mount display 100, and even if they are simultaneously erased, they are simultaneously displayed and erased according to the individual differences of humans Can not be limited. In the third embodiment, the effective field of view is specified in accordance with the method of viewing different concentric circles in each of the users.

<구성><Configuration>

실시형태 3에 관한 시선 검출 시스템의 구성은, 실시형태 2에 나타낸 시선 검출 시스템의 구성과 같다.The configuration of the line of sight detection system according to the third embodiment is the same as the configuration of the line of sight detection system according to the second embodiment.

그 차이점은, 영상 출력부(222)가, 도 12에 나타낸 유효 시야 그래프를 표시하고 있던 것에 대하여, 본 실시형태 3에 있어서는, 도 15에 나타내는 유효 시야 그래프를 명멸하도록 표시하는 것에 있다. 도 15에 나타내는 유효 시야 그래프는, 주시점 마커의 중심을 중심으로 하는 복수의 동심원이 등간격으로 표시된 화상이다. 각 동심원은 균등 간격으로, 또한 같은 선폭으로 되어 있다. 영상 출력부(222)는, 이 동심원을 소정 주기로 명멸하도록 표시한다. 그리고, 이 소정 주기를 조금씩 변경하면서 표시한다.The difference is that in the third embodiment, the effective visual field graph shown in FIG. 12 is displayed while the video output unit 222 displays the effective visual field graph shown in FIG. 12. The effective visual field graph shown in Fig. 15 is an image in which a plurality of concentric circles centered on the center of the main visual point marker are displayed at regular intervals. The concentric circles are equally spaced and have the same line width. The video output unit 222 displays the concentric circles to disappear at predetermined intervals. Then, the predetermined period is displayed while changing little by little.

접수부(228)는, 시인 정보로서, 유저가 도 15에 나타내는 복수의 동심원 모두가 동시에 나타나고, 모두가 동시에 소멸했다고 느꼈을 때의 주기의 정보를 특정 가능한 정보를 받아들인다.The accepting unit 228 accepts information that enables the user to specify the information of the period when all of the plurality of concentric circles shown in Fig. 15 appear at the same time and all of them appear to have disappeared at the same time as the visibility information.

특정부(229)는, 접수부(228)로부터 전달된 시인 정보로 나타나는 주기에 근거하여, 헤드 마운트 디스플레이(100)의 유효 시야를 특정한다. 특정부(229)는, 기억부(227)에 미리 기억되어 있는, 주기와 유효 시야의 관계를 나타내는 유효 시야 산출 함수에 근거하여, 유저(300)의 유효 시야(주시점으로부터의 유효 시야 거리)를 특정한다. 여기에서, 유효 시야 산출 함수는, 주기가 짧을수록 유저(300)의 유효 시야가 넓고(유효 시야 거리가 길고), 길수록 유저(300)의 유효 시야가 좁아지는(유효 시야가 짧아지는) 함수이다. 즉, 유효 시야가 좁은 유저인 경우, 표시와 비표시의 전환의 주기가 느려도 그 변화가 동시에 일어난다고 느낀다. 즉, 이러한 유저는 일반적으로 화상의 변화에 둔하다고 추정할 수 있다. 유효 시야가 넓은 유저인 경우, 표시와 비표시의 사이의 주기가 느리면 그 변화를 눈치채기 쉽다. 즉, 이러한 유저는 일반적으로 화상의 변화에 예민하다고 추정할 수 있다.The specifying unit 229 specifies the effective field of view of the head mounted display 100 based on the period indicated by the visibility information transmitted from the accepting unit 228. [ The specification unit 229 specifies the valid view field (effective view field distance from the main viewpoint) of the user 300 based on the valid field of view calculation function that indicates the relationship between the period and the valid field of view stored in advance in the storage unit 227, . Here, the effective visual field calculating function is a function that the effective visual field of the user 300 becomes wider (longer effective visual field distance) as the period becomes shorter, and the effective visual field of the user 300 becomes narrower (effective visual field becomes shorter) . In other words, when the user has a narrow effective view, he feels that the change occurs simultaneously even if the period of switching between display and non-display is slow. That is, it can be inferred that such a user is generally insensitive to the change of the image. In the case where the user has a wide effective view, if the period between display and non-display is slow, the change is easy to notice. That is, such a user can generally assume that the change of the image is sensitive to the change of the image.

<동작><Operation>

도 16은, 실시형태 3에 관한 시선 검출 장치(200)에 의한 유저(300)의 시야를 특정하기 위한 동작을 나타내는 플로차트이다.16 is a flowchart showing an operation for specifying the visual field of the user 300 by the visual-line detecting apparatus 200 according to the third embodiment.

도 16에 나타내는 바와 같이, 영상 출력부(222)는, 복수의 동심원을 소정 주기로 명멸하도록 표시한다(스텝 S1601). 즉, 도 15에 나타내는 유효 시야 그래프에 있어서, 각 원을 동시에 소정 주기로 표시로부터 소멸, 소멸로부터 표시를 반복하도록 하여 표시한다. 소정 주기는 초기값이 부여되며, 영상 출력부(222)는, 이 소정 주기를 서서히 변경한다.As shown in Fig. 16, the video output unit 222 displays a plurality of concentric circles to disappear at predetermined intervals (step S1601). That is, in the effective visual field graph shown in Fig. 15, the circles are displayed at the same time by repeating the display from the display at a predetermined cycle to the disappearance and disappearance. The predetermined period is given an initial value, and the image output unit 222 gradually changes the predetermined period.

유저(300)는, 소정 주기를 변경하면서, 동심원군의 표시로부터 소멸, 소멸로부터 재표시를 반복하는 과정에 있어서, 모든 동심원이 동시에 표시되고 동시에 소멸하는 타이밍을 시인 정보로서 입력한다(스텝 S1602). 접수부(228)는, 이 타이밍을 받아들여, 그 때의 영상 출력부(222)가 동심원군의 표시/비표시를 반복하고 있는 소정 주기를, 특정부(229)에 전달한다.The user 300 inputs the timing at which all the concentric circles are simultaneously displayed and disappear at the same time in the process of repeating the display from the disappearance to the disappearance and the disappearance from the display of the concentric group while changing the predetermined period (step S1602) . The accepting unit 228 receives this timing and delivers the predetermined period in which the video output unit 222 at that time repeats the display / non-display of the concentric group to the specifying unit 229.

특정부(229)는, 전달된 소정 주기로부터, 기억부(227)에 기억하고 있는 유효 시야 함수를 이용하여, 유저(300)의 유효 시야를 특정한다(스텝 S1603).The specifying unit 229 specifies the effective field of view of the user 300 using the effective field of view stored in the storage unit 227 from the transmitted predetermined period (step S1603).

이러한 구성에 의해서도, 시선 검출 장치(200)는, 유저(300)의 유효 시야를 특정할 수 있어, 실시형태 2에 나타낸 효과와 동일한 효과를 상주할 수 있다.With this configuration, the visual line detecting apparatus 200 can specify the effective visual field of the user 300, and can have the same effect as the effect shown in the second embodiment.

<실시형태 4>&Lt; Fourth Embodiment >

본 실시형태 4에 있어서는, 실시형태 1과는 다른 마커 화상의 표시 방법, 및 그 때의 시선 검출 방법을 설명한다.In the fourth embodiment, a display method of a marker image different from that of the first embodiment and a visual line detection method at that time will be described.

상기 실시형태 1에 있어서는, 9개의 마커 화상을 차례로 표시하여, 그것을 주시하는 유저의 눈을 촬상하는 캘리브레이션을 행하는 예를 나타냈지만, 본 실시형태 4에 있어서는, 1개의 마커 화상만으로 캘리브레이션을 행하는 예에 대하여 설명한다.In the first embodiment, nine marker images are displayed one after another and the user's eyes are watched. However, in the fourth embodiment, in the example of performing calibration using only one marker image .

<구성><Configuration>

본 실시형태에 관한 시선 검출 시스템의 기본적 구성은, 실시형태 1에 나타낸 구성과 동일하다. 이로 인하여, 도 4에 나타내는 블록도와 동일한 구성을 갖는다. 이하에서는, 실시형태 1로부터 변경된 점에 대하여 설명한다.The basic configuration of the visual-line detecting system according to the present embodiment is the same as that shown in the first embodiment. For this reason, it has the same configuration as the block shown in Fig. Hereinafter, the changes from the first embodiment will be described.

실시형태 4에 있어서의 영상 출력부(222)는, 캘리브레이션 시에 헤드 마운트 디스플레이(100)에 전체 주위 영상을 송신한다. 이 때, 이 전체 주위 영상(또는 어느 정도 광범위, 즉, 화상 표시 소자(108)의 표시 범위보다 넓은 영상)은 적어도 1개의 마커 화상을 포함한다. 즉, 헤드 마운트 디스플레이(100)의 제1 표시부(121)는, 월드 좌표계의 미리 정한 좌표에 마커 화상을 표시한다. 월드 좌표란, 화상을 3차원 표시할 때의 공간 전체를 나타내는 좌표계를 말한다. 또, 전체 주위 영상이란, 기본적으로는, 월드 좌표계로 표시하는 360도 영상을 말한다. 헤드 마운트 디스플레이(100)는, 가속도 센서를 구비하는 것에 의하여, 유저가 어느 방향을 향하고 있는지를 특정할 수 있으므로, 영상 출력부(222)는, 헤드 마운트 디스플레이(100)로부터 가속도 센서의 정보를 받는 것에 의하여, 어느 범위의 영상을 전송하는지를 결정하여, 영상 데이터를 전송한다.The video output unit 222 in the fourth embodiment transmits the entire surrounding video image to the head mounted display 100 at the time of calibration. At this time, the entire surrounding image (or a somewhat wide range, that is, an image wider than the display range of the image display element 108) includes at least one marker image. That is, the first display unit 121 of the head mount display 100 displays a marker image at predetermined coordinates in the world coordinate system. World coordinate refers to a coordinate system that represents the entire space when an image is three-dimensionally displayed. The entire surrounding image is basically a 360 degree image displayed in the world coordinate system. Since the head mount display 100 includes an acceleration sensor, the user can specify which direction the user is facing, so that the video output unit 222 receives the information of the acceleration sensor from the head mount display 100 Determines which range of video is to be transmitted, and transmits the video data.

유저(300)는, 헤드 마운트 디스플레이(100)를 장착한 상태로, 자신의 머리를 움직임으로써, 마커 화상을 헤드 마운트 디스플레이(100)의 표시 범위 내에 포함되도록 표시하여, 그 때에 마커 화상을 적어도 2개의 다른 방향으로부터 주시한다. 헤드 마운트 디스플레이(100)의 카메라(116)는, 그 때의 유저의 눈을 촬상하고, 캘리브레이션용 화상으로서 취득한다. 즉, 본 실시형태 1에서는, 유저의 눈과 마커 화상의 사이의 다른 위치 관계가 되도록, 9개의 위치에 마커 화상을 표시하여 유저에게 주시시킨 것에 대하여, 본 실시형태 4에서는, 표시하는 마커 화상은 1개이지만, 이것을 유저가 다양한 각도로부터 보는 것에 의하여, 복수의 캘리브레이션용 화상을 취득할 수 있다.The user 300 displays the marker image so as to be included within the display range of the head mount display 100 by moving his or her head while the head mounted display 100 is mounted so that the marker image is displayed at least 2 Look from the other direction of the dog. The camera 116 of the head mount display 100 picks up the eye of the user at that time and acquires the image as a calibration image. That is, in the first embodiment, a marker image is displayed at nine positions so as to be in a different positional relationship between the user's eye and the marker image. In contrast to this, in the fourth embodiment, But a plurality of images for calibration can be acquired by viewing this from various angles.

도 17(a), (b)는, 전체 주위 영상과, 헤드 마운트 디스플레이(100)에 표시되는 표시 화면의 대응 관계를 모식적으로 나타내는 도이다. 도 17(a), (b)에는, 유저(300)가 헤드 마운트 디스플레이(100)를 장착하고 있는 상태를 나타내고 있고, 그 때에 시선 검출 장치(200)로부터 송신되는 전체 주위 영상(1701)에 대하여, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108) 상에 표시되는 표시 범위(1702)와, 전체 주위 영상(1701) 중의 마커 화상(1703)을 모식적으로 나타낸 도이다. 도 17(a), (b)에 나타낸 전체 주위 영상(1701)이나 표시 범위(1702), 마커 화상(1703)은 가상상의 것이며, 실제로 도 17(a), (b)와 같이 출현하고 있는 것은 아닌 것에 주의하기 바란다. 마커 화상(1703)의 월드 좌표에 있어서의 위치는 고정이다. 한편, 화상 표시 소자(108) 상에 표시될 때에는, 유저(300)의 얼굴의 방향에 따라, 표시 위치가 달라진다. 또한, 마커 화상(1703)은, 표적이며, 그 형상은, 원형으로 한정되는 것은 아닌 것은 말할 필요도 없다.Figs. 17A and 17B are diagrams schematically showing the correspondence between the entire surrounding image and the display screen displayed on the head-mounted display 100. Fig. 17A and 17B show a state in which the user 300 is mounting the head mounted display 100 and the entire surrounding image 1701 transmitted from the visual line detecting apparatus 200 A display range 1702 displayed on the image display element 108 of the head mount display 100 and a marker image 1703 in the entire surrounding image 1701. FIG. The entire surrounding image 1701, the display range 1702, and the marker image 1703 shown in Figs. 17A and 17B are virtual images and actually appear as shown in Figs. 17A and 17B Please be careful not to. The position of the marker image 1703 in the world coordinates is fixed. On the other hand, when the image is displayed on the image display element 108, the display position is changed according to the direction of the face of the user 300. It is needless to say that the marker image 1703 is a target, and the shape thereof is not limited to a circle.

도 17(a)는, 헤드 마운트 디스플레이(100)의 표시 화상 소자의 표시 범위(1702) 내에 마커 화상(1703)이 포함되지 않은 상태를 나타내고 있고, 도 17(b)는, 표시 범위(1702) 내에 마커 화상(1703)이 포함되어 있는 상태를 나타내고 있다. 도 17(b)의 상태에 있어서, 헤드 마운트 디스플레이(100)의 카메라(116)는, 근적외광을 광원으로 한 유저의 눈을 촬상한다. 또, 유저(300)는, 자신의 머리를 움직여서, 표시 범위(1702)를 움직여, 표시 범위(1702) 내에서 도 17(b)에 나타내는 위치와는 다른 위치에 마커 화상(1703)이 나타나도록 하여, 그 때의 마커 화상을 주시한다. 그리고, 헤드 마운트 디스플레이(100)의 카메라(116)는, 동일하게 유저의 눈을 촬상한다. 본 실시형태 4에 있어서는, 이와 같이 하여, 복수의 캘리브레이션용 화상을 얻을 수 있고, 실시형태 1에 나타낸 각 수식을 이용하여, 유저의 주시점을 특정할 수 있게 된다.17A shows a state in which the marker image 1703 is not included in the display range 1702 of the display image element of the head mounted display 100. Fig. And a marker image 1703 is included in the marker image 1703. In the state shown in Fig. 17 (b), the camera 116 of the head mount display 100 picks up the eyes of the user using the near-infrared light as the light source. The user 300 moves his / her head to move the display range 1702 so that the marker image 1703 appears at a position different from the position shown in Fig. 17B within the display range 1702 And watches the marker image at that time. The camera 116 of the head mount display 100 similarly picks up the user's eyes. In the fourth embodiment, a plurality of calibration images can be obtained in this way, and the user's main viewpoint can be specified using the respective expressions shown in the first embodiment.

이로 인하여, 본 실시형태 4에 관한 마커 화상 출력부(223)는, 월드 좌표계에 있어서의 마커 화상의 표시 위치를 결정하는 기능을 갖는다.As a result, the marker image output unit 223 according to the fourth embodiment has a function of determining the display position of the marker image in the world coordinate system.

<동작><Operation>

실시형태 4에 관한 시선 검출 시스템의 동작을 도 18의 플로차트를 이용하여 설명한다.The operation of the visual-line detecting system according to the fourth embodiment will be described with reference to the flowchart of Fig.

도 18에 나타내는 바와 같이, 마커 화상 출력부(223)는, 월드 좌표계에 있어서의 마커 화상의 표시 좌표를 결정한다(스텝 S1801).As shown in Fig. 18, the marker image output unit 223 determines the display coordinates of the marker image in the world coordinate system (step S1801).

시선 검출 장치(200)의 영상 출력부(222)는, 제2 통신부(220)를 통하여 화상 표시 소자(108)에 표시해야 할 영상을 송신한다. 또, 마커 화상 출력부(223)도 동일하게 마커 화상을 그 표시 좌표와 함께, 헤드 마운트 디스플레이(100)에 송신한다. 헤드 마운트 디스플레이(100)의 제1 표시부(121)는, 헤드 마운트 디스플레이(100)에 탑재되어 있는 가속도 센서의 값으로부터, 헤드 마운트 디스플레이(100)의 월드 좌표계에 대한 방향을 검출하여, 그 방향의 화상으로서, 화상 표시 소자(108)에 표시되는 범위 내에, 마커 화상이 포함되는지 아닌지를 판정한다(스텝 S1802).The video output unit 222 of the visual line detection device 200 transmits a video to be displayed on the image display device 108 via the second communication unit 220. [ The marker image output section 223 transmits the marker image together with the display coordinates to the head mount display 100 in the same manner. The first display unit 121 of the head mount display 100 detects the direction of the head mounted display 100 relative to the world coordinate system from the value of the acceleration sensor mounted on the head mount display 100, As an image, it is determined whether or not a marker image is included in the range displayed on the image display element 108 (step S1802).

표시 범위 내에 마커 화상이 포함되는 경우에(스텝 S1802의 YES), 제1 표시부(121)는, 화상 표시 소자(108) 상의 대응하는 위치에, 마커 화상을 표시한다(스텝 S1803). 표시 범위 내에 마커 화상이 포함되지 않은 경우에(스텝 S1803의 NO), 스텝 S1805의 처리로 이행한다.When the marker image is included in the display range (YES in step S1802), the first display unit 121 displays the marker image on the corresponding position on the image display element 108 (step S1803). If the marker image is not included in the display range (NO in step S1803), the process proceeds to step S1805.

카메라(116)는, 화상 표시 소자(108)에 표시되어 있는 마커 화상을 주시하는 유저(300)의 눈을, 비가시광을 광원으로서 촬상한다(스텝 S1804). 헤드 마운트 디스플레이(100)는, 촬상한 화상을 시선 검출 장치(200)에 송신하며, 시선 검출 장치(200)는, 당해 촬상 화상을 캘리브레이션용 화상으로서 기억부(227)에 기억한다.The camera 116 picks up the eyes of the user 300 watching the marker image displayed on the image display element 108 as non-visible light as a light source (step S1804). The head mount display 100 transmits the sensed image to the visual line detecting apparatus 200 and the visual line detecting apparatus 200 stores the sensed image as a calibration image in the storage section 227. [

시선 검출 장치(200)의 시선 검출부(221)는, 캘리브레이션을 위하여 필요한 촬상 화상이 소정 매수(예를 들면, 9개이지만 이에 한정되는 것은 아니다)에 이르렀는지 여부를 판정한다(스텝 S1805). 소정 매수에 이른 경우에(스텝 S1805의 YES), 캘리브레이션의 처리를 종료한다. 한편, 소정 매수에 이르지 않은 경우에(스텝 S1805의 NO), 스텝 S1802의 처리로 되돌아온다.The visual-line detecting unit 221 of the visual-line detecting device 200 determines whether or not the number of captured images necessary for calibration reaches a predetermined number (for example, 9, but not limited to this) (step S1805). If the predetermined number of sheets has been reached (YES in step S1805), the process of calibration ends. On the other hand, if the number of sheets has not reached the predetermined number (NO in step S1805), the process returns to step S1802.

이와 같이 해도, 실시형태 1과 마찬가지로, 시선 검출을 위한 캘리브레이션을 행할 수 있다. 또한, 실시형태 4에 있어서의 캘리브레이션은, 예를 들면, 영상과 영상의 사이의 인터벌에 있어서, 다음 영상의 로딩 중에 행해도 되고, 혹은 일반적으로 게임의 로딩 화면에 있어서 행하는 것으로 해도 된다. 또, 그 경우에, 마커 화상을 움직여, 유저가 그 움직이고 있는 마커 화상에 시선을 향하도록 고안해도 된다. 그 경우에, 마커 화상은, 보고 있는 영상이나 실행하는 게임 등에 등장하는 캐릭터의 화상으로 해도 된다.Even in this manner, calibration for sight line detection can be performed similarly to the first embodiment. The calibration in the fourth embodiment may be performed, for example, during the loading of the next video in the interval between the video and the video, or in the loading screen of the game in general. In this case, it is also possible to move the marker image so that the user faces the moving marker image. In this case, the marker image may be an image of a character appearing in a video to be viewed or a game to be executed.

<보충 1><Supplement 1>

본 발명에 관한 시선 검출 시스템은, 이하와 같이 구성하는 것으로 해도 된다.The visual-line detecting system according to the present invention may be configured as follows.

(a) 유저의 두부에 장착하여 사용하는 영상 표시장치를 포함하며, 상기 유저에게 제시하는 화상을 표시하는 표시 화면과, 상기 표시 화면의 소정 표시 위치를 중심으로 환형으로 확장되도록, 오브젝트를 상기 표시 화면에 표시하는 표시부와, 상기 유저가 상기 소정 표시 위치를 주시한 상태에 있어서, 상기 유저에 있어서의 상기 오브젝트의 보이는 방식을 나타내는 시인 정보를 받아들이는 접수부와, 상기 시인 정보에 근거하여, 상기 유저의 유효 시야를 특정하는 특정부를 구비하는 시선 검출 시스템으로 해도 된다.(a) a display screen for displaying an image to be presented to the user, the display screen including a video display device to be used by being mounted on a head of a user; A display unit for displaying on a screen an acceptance unit for accepting visibility information indicating the manner in which the object is viewed by the user while the user is watching the predetermined display position; The visual field detection system may include a specific section that specifies the effective field of view of the user.

(b) 또, 상기 (a)에 기재된 시선 검출 시스템에 있어서, 상기 표시부는, 상기 소정 표시 위치를 중심으로, 당해 소정 표시 위치로부터의 거리에 따른 크기의 오브젝트를 표시하며, 상기 시인 정보는, 상기 유저가 상기 소정 표시 위치를 주시한 상태로, 상기 오브젝트를 상기 유저가 선명히 시인할 수 있는 범위를 나타내는 정보인 것을 특징으로 하는 것으로 해도 된다.(b) In the line-of-sight detection system described in (a) above, the display unit displays an object having a size in accordance with a distance from the predetermined display position, with the predetermined display position as a center, The information indicating the range in which the user can clearly view the object while the user is watching the predetermined display position.

(c) 또, 상기 (a)에 기재된 시선 검출 시스템에 있어서, 상기 표시부는, 상기 소정 표시 위치를 중심으로 하는 복수의 원을 일정 거리 간격으로, 또한, 소정 주기로 명멸하도록 표시하며, 상기 시인 정보는, 상기 유저가 상기 소정 표시 위치를 주시한 상태로, 상기 명멸하는 복수의 원이 동시에 표시 또는 소멸하면 상기 유저가 인식할 수 있는 상기 소정 주기를 특정 가능한 정보인 것을 특징으로 하는 것으로 해도 된다.(c) In the line-of-sight detection system described in (a), the display unit may display a plurality of circles centering on the predetermined display position at a predetermined distance interval and flickering at predetermined intervals, May be information capable of specifying the predetermined period that the user can recognize if the plurality of blinking circles are simultaneously displayed or disappear while the user is watching the predetermined display position.

(d) 또, 상기 (a)~(c) 중 어느 하나에 기재된 시선 검출 시스템에 있어서, 상기 시선 검출 시스템은, 상기 유저가 상기 표시 화면에 표시된 화상을 시인할 때의 주시 위치를 검출하는 시선 검출부를 더욱 구비하고, 상기 표시부는, 상기 주시 위치를 중심으로, 상기 특정부가 특정한 유효 시야 내에 고해상도의 화상을 표시하며, 상기 유효 시야 밖에 저해상도의 화상을 표시하는 것을 특징으로 하는 것으로 해도 된다.(d) In the line-of-sight detection system described in any one of (a) to (c), the line-of-sight detection system may include a line-of- Wherein the display unit displays an image of a high resolution within a specific effective field of view with the center of the viewing position as a center and displays an image of a low resolution outside the effective field of view.

(e) 또, 상기 (d)에 기재된 시선 검출 시스템에 있어서, 상기 영상 표시장치는, 헤드 마운트 디스플레이이며, 상기 시선 검출 시스템은, 상기 헤드 마운트 디스플레이에 마련된 상기 표시 화면에 표시하는 화상을 생성하여, 상기 헤드 마운트 디스플레이에 전송하는 것이며, 상기 주시 위치를 중심으로, 상기 특정부가 특정한 유효 시야 내에 표시하는 고해상도의 화상을 생성해 전송하고, 적어도 상기 유효 시야 밖에 표시하는 저해상도의 화상을 생성해 전송하는 영상 생성부를 더욱 구비하는 것으로 해도 된다.(e) In the visual line detecting system described in (d) above, the image display apparatus is a head mount display, and the visual line detecting system generates an image to be displayed on the display screen provided in the head mount display , Transmits to the head mount display a high resolution image to be displayed within the specific effective field of view, centering the view position, and generates and transmits a low resolution image that displays at least outside the effective field of view And may further include an image generating unit.

(f) 또, 상기 (e)에 기재된 시선 검출 시스템에 있어서, 상기 영상 생성부는, 상기 유효 시야의 위치에 관계없이 표시 화상 전체의 저해상도 화상을 생성해 전송하는 것으로 해도 된다.(f) In the line-of-sight detection system described in (e) above, the image generation unit may generate and transmit a low-resolution image of the entire display image regardless of the position of the effective field of view.

(g) 또, 시선 검출 시스템은, 유저의 두부에 장착하여 사용하는 영상 표시장치를 포함하며, 상기 유저에게 제시하는 화상을 표시하는 표시 화면과, 월드 좌표계 상의 특정 좌표 위치에 배치된 마커 화상을, 상기 표시 화면의 표시 좌표계 내에 상기 특정 좌표 위치가 포함되는 경우에 표시하는 표시부와, 상기 표시 화면에 상기 마커 화상이 표시되어 있는 경우에, 상기 마커 화상을 주시하고 있는 상태의 상기 유저의 눈을 촬상하는 촬상부와, 상기 촬상부가 촬상한 적어도 2매의 다른 촬상 화상에 근거하여, 상기 표시 화면에 있어서의 유저의 주시 위치를 검출하는 시선 검출부를 구비한다.(g) The line-of-sight detection system includes a video display device mounted on a head of a user, and includes a display screen for displaying an image to be presented to the user, and a marker image arranged at a specific coordinate position on the world coordinate system A display unit for displaying the marker image when the specific coordinate position is included in the display coordinate system of the display screen; and a display unit for displaying, when the marker image is displayed on the display screen, And a visual line detecting section for detecting a viewing position of the user on the display screen based on at least two other sensed images captured by the image sensing section.

(h) 또, 본 발명에 관한 유효 시야 특정 방법은, 유저의 두부에 장착하여 사용하고, 상기 유저에게 제시하는 화상을 표시하는 표시 화면을 갖는 영상 표시장치를 포함하는 시선 검출 시스템에 있어서의 상기 유저의 유효 시야 특정 방법으로서, 상기 표시 화면의 소정 표시 위치를 중심으로 환형으로 확장되도록, 오브젝트를 상기 표시 화면에 표시하는 표시 스텝과, 상기 유저가 상기 소정 표시 위치를 주시한 상태에 있어서, 상기 유저에 있어서의 상기 오브젝트의 보이는 방식을 나타내는 시인 정보를 받아들이는 접수 스텝과, 상기 시인 정보에 근거하여, 상기 유저의 유효 시야를 특정하는 특정 스텝을 포함한다.(h) Further, the effective visual field specifying method according to the present invention is a visual field detecting system including a video display device having a display screen for displaying an image to be presented to the user, A display step of displaying an object on the display screen so as to be annularly expanded around a predetermined display position of the display screen as a method of specifying the effective view of the user; A reception step of receiving a viewer's view indicating a manner of viewing the object in the user; and a specifying step of specifying an effective field of view of the user based on the viewer's information.

(i) 또, 본 발명에 관한 시선 검출 방법은, 유저의 두부에 장착하여 사용하고, 상기 유저에게 제시하는 화상을 표시하는 표시 화면을 갖는 영상 표시장치를 포함하는 시선 검출 시스템에 있어서의 시선 검출 방법으로서, 월드 좌표계 상의 특정 좌표 위치에 배치된 마커 화상을, 상기 표시 화면의 표시 좌표계 내에 상기 특정 좌표 위치가 포함되는 경우에 상기 표시 화면에 표시하는 표시 스텝과, 상기 표시 화면에 상기 마커 화상이 표시되어 있는 경우에, 상기 마커 화상을 주시하고 있는 상태의 상기 유저의 눈을 촬상하는 촬상 스텝과, 상기 촬상 스텝에 있어서 촬상한 적어도 2매의 다른 촬상 화상에 근거하여, 상기 표시 화면에 있어서의 유저의 주시 위치를 검출하는 시선 검출 스텝을 포함한다.(i) The visual-line detecting method according to the present invention is a visual-line detecting method in a visual-line detecting system including a video display device which is mounted on a head of a user and has a display screen for displaying an image presented to the user A display step of displaying, on the display screen, a marker image disposed at a specific coordinate position on the world coordinate system on the display screen when the specific coordinate position is included in the display coordinate system of the display screen; An image pickup step of picking up an image of the eye of the user who is watching the marker image in a case where the marker image is displayed on the display screen based on at least two different picked- And a visual line detecting step of detecting a viewing position of the user.

(j) 또, 본 발명에 관한 유효 시야 특정 프로그램은, 유저의 두부에 장착하여 사용하고 유저에게 제시하는 화상을 표시하는 표시 화면을 갖는 영상 표시장치를 포함하는 시선 검출 시스템에 포함되는 컴퓨터에, 상기 표시 화면의 소정 표시 위치를 중심으로 환형으로 확장되도록, 오브젝트를 상기 표시 화면에 표시하는 표시 기능과, 상기 유저가 상기 소정 표시 위치를 주시한 상태에 있어서, 상기 유저에 있어서의 상기 오브젝트의 보이는 방식을 나타내는 시인 정보를 받아들이는 접수 기능과, 상기 시인 정보에 근거하여, 상기 유저의 유효 시야를 특정하는 특정 기능을 실현시킨다.(j) In addition, the effective visual field specific program according to the present invention is a program for realizing a visual perception specific to a computer included in a visual line detection system including a video display device having a display screen for displaying an image presented to a user, A display function of displaying an object on the display screen such that the object is annularly expanded around a predetermined display position of the display screen; and a display function of displaying the object in the user And a specific function for specifying an effective visual field of the user based on the visual information.

(k) 또, 본 발명에 관한 시선 검출 프로그램은, 유저의 두부에 장착하여 사용하고 유저에게 제시하는 화상을 표시하는 표시 화면을 갖는 영상 표시장치를 포함하는 시선 검출 시스템에 포함되는 컴퓨터에, 월드 좌표계 상의 특정 좌표 위치에 배치된 마커 화상을, 상기 표시 화면의 표시 좌표계 내에 상기 특정 좌표 위치가 포함되는 경우에 상기 표시 화면에 표시하는 표시 기능과, 상기 표시 화면에 상기 마커 화상이 표시되어 있는 경우에, 상기 마커 화상을 주시하고 있는 상태의 상기 유저의 눈을 촬상하는 촬상 기능과, 상기 촬상 기능에 있어서 촬상한 적어도 2매의 다른 촬상 화상에 근거하여, 상기 표시 화면에 있어서의 유저의 주시 위치를 검출하는 시선 검출 기능을 실현시킨다.(k) Furthermore, the visual-point detecting program according to the present invention can be applied to a computer included in a visual-line detecting system including a video display device mounted on a head of a user and displaying an image presented to a user, A display function of displaying a marker image disposed at a specific coordinate position on the coordinate system on the display screen when the specific coordinate position is included in the display coordinate system of the display screen; On the basis of at least two other sensed images captured by the image sensing function, an image of the user's eye on the display screen, A visual line detecting function for detecting the visual line detecting function.

<실시형태 5>&Lt; Embodiment 5 >

상기 실시형태에 있어서는, 캘리브레이션에 관한 각종의 수법에 대하여 설명했지만, 본 실시형태에 있어서는, 또한, 유저의 피로를 경감하기 위한 수법을 설명한다. 따라서, 우선, 이 피로에 대하여 설명한다.In the above-described embodiment, various techniques relating to calibration have been described. In the present embodiment, a method for reducing fatigue of a user will be described. Therefore, first, this fatigue will be described.

헤드 마운트 디스플레이에서는, 3차원 화상을 표시하는 경우가 있다. 그런데, 3차원 화상을 시청하고 있으면 유저는 피로를 느끼는 경우가 있다는 문제가 있다. 3차원 화상을 표시하면, 유저에게는, 실제의 모니터 위치보다 표시물이 떠올라서 보이게 된다. 이로 인하여, 유저의 안구는 그 표시물의 표시 위치(심도)에 핀트를 맞추려고 한다. 그러나 실제로는, 모니터의 위치는, 그 표시물의 표시 위치보다 안쪽에 있기 때문에, 안구가 거기에 실제의 모니터가 있다는 것을 자각하고, 그 위치에 핀트를 다시 맞추려고 한다. 3차원 화상을 보려면, 이 안구의 자동적인 핀트 조작이 교대로 발생하기 때문에, 유저는 피로를 느끼게 된다.In the head mount display, a three-dimensional image may be displayed. However, there is a problem that the user feels fatigue when viewing a three-dimensional image. When a three-dimensional image is displayed, a display is displayed to the user rather than an actual monitor position. Due to this, the eyeball of the user tries to focus on the display position (depth) of the display. In reality, however, since the position of the monitor is within the display position of the display, the eyeball realizes that there is an actual monitor and tries to re-focus the position. In view of the three-dimensional image, since the automatic focusing operation of the eyeball occurs alternately, the user feels fatigue.

이로 인하여, 본 실시형태 5에 있어서는, 입체시(立體視)를 행할 때의 유저의 피로를 경감할 수 있는 시선 검출 시스템을 개시한다. Thus, in the fifth embodiment, a visual line detection system capable of reducing fatigue of a user when stereoscopic viewing is performed is disclosed.

<구성><Configuration>

도 19는, 시선 검출 시스템(1)에 관한 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)의 블록도이다. 시선 검출 시스템은 본 실시형태에 있어서는, 입체 영상 표시 시스템이라고 불려도 된다. 도 19에 나타내는 바와 같이, 또, 상기 설명한 바와 같이, 시선 검출 시스템(1)은, 서로 통신을 실행하는 헤드 마운트 디스플레이(100)와 시선 검출 장치(200)를 포함한다. 여기에서는, 상기 실시형태와 다른 구성에 대하여 설명한다.Fig. 19 is a block diagram of the head-mounted display 100 and the visual-line detecting device 200 relating to the visual-line detecting system 1. Fig. In the present embodiment, the visual line detection system may be referred to as a stereoscopic image display system. As shown in Fig. 19, as described above, the line of sight detection system 1 includes the head-mounted display 100 and the line of sight detection apparatus 200 that communicate with each other. Here, the configuration that is different from the above embodiment will be described.

도 19에 나타내는 바와 같이 헤드 마운트 디스플레이(100)는, 제1 통신부(118)와, 표시부(121)와, 적외광 조사부(122)와, 화상 처리부(123)와, 촬상부(124)와, 구동부(125)와, 구동 제어부(126)를 구비한다.19, the head mount display 100 includes a first communication unit 118, a display unit 121, an infrared light irradiation unit 122, an image processing unit 123, an image pickup unit 124, A driving unit 125, and a driving control unit 126. [

제1 통신부(118)는, 상기 실시형태에 나타낸 각종 기능 외에, 3차원 화상 데이터를 구동 제어부(126)에 전달한다. 이 3차원 화상 데이터에는, 표시되는 오브젝트의 표시 심도를 나타내는 정보가 포함된다. 여기에서, 표시 심도란, 유저의 눈으로부터, 입체시에 의하여 오브젝트가 유사적으로 표시되는 표시 위치까지의 거리로 한다. 또, 3차원 화상 데이터는, 오른쪽눈용 시차 화상과 왼쪽눈용 시차 화상을 포함하며, 그것들은 시차 화상 쌍으로 되어 있다.The first communication unit 118 transfers the three-dimensional image data to the drive control unit 126 in addition to the various functions described in the above embodiment. The three-dimensional image data includes information indicating the display depth of the displayed object. Here, the display depth is the distance from the user's eyes to the display position where the object is similarly displayed by stereoscopic viewing. The three-dimensional image data includes right eye parallax images and left eye parallax images, which are parallax image pairs.

구동부(125)는, 구동 제어부(126)로부터 전달되는 제어 신호에 따라, 화상 표시 소자(108)를, 유저의 눈과의 사이의 상대 거리가 변동하도록 이동시키기 위한 모터를 구동하는 기능을 갖는다.The driving unit 125 has a function of driving a motor for moving the image display device 108 so that the relative distance between the image display device 108 and the user's eye varies in accordance with a control signal transmitted from the drive control unit 126. [

구동 제어부(126)는, 제1 통신부(118)로부터 전달된 영상 데이터를 이용하여, 표시되는 오브젝트의 표시 심도에 따라 화상 표시 소자(108)를 이동시키기 위한 제어 신호를 생성하여, 구동부(125)에 전달하는 기능을 갖는다. 구동 제어부(126)는, 제어 신호를 생성하는 수법으로서 이하의 구동예에 따라 제어 신호를 생성한다.The drive control unit 126 generates a control signal for moving the image display element 108 in accordance with the display depth of the displayed object using the image data transmitted from the first communication unit 118, As shown in Fig. The drive control section 126 generates a control signal according to the following driving example as a method of generating a control signal.

<구동예 1>&Lt; Driving Example 1 &

표시되는 표시 오브젝트의 표시 심도와, 화상 표시 소자(108)의 심도의 사이의 차분이 소정 임계값 이상이면, 화상 표시 소자(108)의 심도를 표시 심도에 근접시키는 제어 신호를 생성한다. 또한, 여기에서는, 소정 임계값 이상이면으로 하고 있지만, 이러한 비교없이, 화상 표시 소자(108)의 심도를 오브젝트의 표시 심도에 근접시키는 제어 신호를 생성하는 것으로 해도 된다.A control signal that causes the depth of the image display element 108 to approach the display depth is generated when the difference between the display depth of the displayed display object and the depth of the image display element 108 is a predetermined threshold value or more. Here, it is assumed that the threshold value is greater than or equal to a predetermined threshold value. However, a control signal may be generated such that the depth of the image display element 108 approaches the display depth of the object without such comparison.

<구동예 2>&Lt; Driving Example 2 &

제1 시간에 표시되는 표시 오브젝트의 제1 표시 심도와, 제2시간에 표시되는 표시 오브젝트의 제2 표시 심도를 비교하여, 제2 표시 심도가 제1 표시 심도보다 크면, 제2시간에 표시되는 표시 오브젝트는 제1 시간에 표시되는 표시 오브젝트보다 유저(300)로부터 볼 때 안쪽에 표시되게 된다.The first display depth of the display object displayed at the first time is compared with the second display depth of the display object displayed at the second time and when the second display depth is larger than the first display depth, The display object is displayed inside the display object viewed from the user 300 rather than the display object displayed at the first time.

구동부의 동작의 더욱 상세에 대해서는 후술한다.More details of the operation of the driving unit will be described later.

도 20은, 화상 표시 소자(108), 즉, 모니터를 이동시키는 기구의 일례를 나타내는 도이다. 도 20(a)는, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)의 구동부를 나타내는 평면도이며, 헤드 마운트 디스플레이(100) 내부의 기구를 나타내는 도이다. 도 20(b)는, 도 20(a)의 화살표(711)로 나타나는 방향으로, 당해 구동부를 비스듬하게 아래서부터 본 사시도이다.20 is a diagram showing an example of a mechanism for moving the image display element 108, that is, the monitor. Fig. 20 (a) is a plan view showing a driving portion of the image display element 108 of the head mount display 100, and shows a mechanism inside the head mount display 100. Fig. Fig. 20 (b) is a perspective view of the drive unit viewed obliquely from below, in the direction indicated by the arrow 711 in Fig. 20 (a).

도 20(a), (b)에 나타내는 바와 같이, 화상 표시 소자(108)는, 그 단부(도면에서는 우측)가 지주(701)에 접속되고, 지주(701)는 레일(702)에 단부가 활동 가능하게 고정되어 있다. 화상 표시 소자(108)의 단부에는, 빗살이 마련되어, 벨트 레인(703)의 이빨과 감합한다. 벨트 레인(703)의 표면에는, 도 20에 나타내는 바와 같이 이빨이 마련되어 있고, 모터(704)가 회동(回動)하는 것에 의하여, 이 이빨도 이동한다. 따라서, 화상 표시 소자(108)도 화살표(710)로 나타내는 방향으로, 이동한다. 모터(704)가, 우회전하면 화상 표시 소자(108)는, 유저(300)의 눈으로부터 멀어지는 방향으로 이동하고, 좌회전하면 화상 표시 소자(108)는, 유저(300)의 눈에 가까워지는 방향으로 이동한다. 여기에서, 모터(704)는, 구동 제어부(126)로부터의 제어에 따라 구동부(125)에 의하여 회동한다. 일례로서 이러한 구조를 갖는 것으로, 헤드 마운트 디스플레이(100)의 화상 표시 소자(108)는, 유저(300)의 눈과의 상대 거리가 변동하도록 이동할 수 있다. 또한, 이 화상 표시 소자(108)를 이동시키는 수법은 일례에 지나지 않고, 그 외의 수법을 이용하여 실현되어도 되는 것은 말할 필요도 없다.20 (a) and 20 (b), the end portion (right side in the figure) of the image display element 108 is connected to the support column 701, and the support column 701 is connected to the rail 702 at an end It is fixed to be able to act. At the end of the image display element 108, a comb is provided to engage with the teeth of the belt lane 703. [ On the surface of the belt lane 703, teeth are provided as shown in Fig. 20, and these teeth also move as the motor 704 rotates. Therefore, the image display element 108 also moves in the direction indicated by the arrow 710. [ When the motor 704 makes a right turn, the image display element 108 moves in a direction away from the eye of the user 300 and makes a left turn. In this case, the image display element 108 is moved in a direction approaching the eye of the user 300 Move. Here, the motor 704 is rotated by the driving unit 125 under the control of the drive control unit 126. [ With this structure as an example, the image display element 108 of the head mount display 100 can move so that the relative distance with the eyes of the user 300 varies. It is needless to say that the method of moving the image display element 108 is merely an example and may be realized by using other methods.

<동작><Operation>

이하, 헤드 마운트 디스플레이(100)에 있어서 화상 표시 소자(108)를 이동시키는 구동 방법에 대하여 설명한다.Hereinafter, a driving method for moving the image display element 108 in the head mount display 100 will be described.

<구동예 1>&Lt; Driving Example 1 &

도 21은, 실시형태에 관한 헤드 마운트 디스플레이(100)의 동작을 나타내는 플로차트이다.21 is a flowchart showing the operation of the head mount display 100 according to the embodiment.

시선 검출 장치(200)의 영상 출력부(222)는, 화상 표시 소자(108)에 표시하는 입체 영상의 영상 데이터를 제2 통신부(220)에 전달한다. 제2 통신부(220)는 전달된 영상 데이터를 헤드 마운트 디스플레이(100)에 송신한다.The video output unit 222 of the visual-line detecting device 200 transmits the video data of the stereoscopic image displayed on the image display device 108 to the second communication unit 220. [ The second communication unit 220 transmits the delivered image data to the head mount display 100. [

제1 통신부(118)는, 영상 데이터를 수신하면, 구동 제어부(126)에 전달한다. 구동 제어부(126)는, 전달된 영상 데이터로부터 표시 오브젝트의 표시 심도 정보를 추출한다(스텝 S2101).The first communication unit 118, upon receiving the video data, transfers the video data to the drive control unit 126. The drive control section 126 extracts the display depth information of the display object from the delivered image data (step S2101).

구동 제어부(126)는, 추출한 표시 심도 정보로 나타나는 표시 심도와, 화상 표시 소자(108)의 위치로부터 정해지는 심도의 사이의 거리가 소정 임계값 이상인지 아닌지를 판정한다(스텝 S2102). 즉, 구동 제어부(126)는, 표시 오브젝트와 화상 표시 소자(108)의 사이의 거리가 일정 이상 떨어져 있는지 여부를 판정한다. 구동 제어부(126)는, 표시 심도와 화상 표시 소자(108)의 사이의 거리가 소정 임계값 이상이라고 판정한 경우에는(스텝 S2102의 YES), 스텝 S2103로 이행하고, 소정 임계값 미만이라고 판정한 경우에는(스텝 S2102의 NO), 스텝 S2104로 이행한다.The drive control unit 126 determines whether or not the distance between the display depth indicated by the extracted display depth information and the depth determined from the position of the image display element 108 is equal to or larger than a predetermined threshold value (step S2102). That is, the drive control section 126 determines whether or not the distance between the display object and the image display device 108 is more than a predetermined distance. If it is determined that the distance between the display depth and the image display element 108 is equal to or larger than the predetermined threshold value (YES in step S2102), the drive control section 126 proceeds to step S2103. If it is determined that the distance is less than the predetermined threshold value (NO in step S2102), the process proceeds to step S2104.

구동 제어부(126)는, 추출한 표시 심도 정보로부터 표시 오브젝트가 유저의 눈에 비치는 표시 심도를 특정한다. 그리고, 특정한 표시 심도에 가까워지는 방향으로, 모니터, 즉, 화상 표시 소자(108)를 이동시키는 제어 신호를 생성하여, 구동부(125)에 전달한다. 구동부(125)는 전달된 제어 신호에 근거하여, 모터(704)를 구동하여, 화상 표시 소자(108)를 이동시킨다(스텝 S2103). 구동부(125)는, 화상 표시 소자(108)를 이동시킨 것을 표시부(121)에 전달한다.The drive control unit 126 specifies the display depth at which the display object is viewed by the user from the extracted display depth information. Then, a control signal for moving the monitor, that is, the image display element 108, in a direction approaching a specific display depth is generated and transmitted to the driving unit 125. The driving unit 125 drives the motor 704 to move the image display element 108 based on the transmitted control signal (step S2103). The driving unit 125 transmits to the display unit 121 that the image display element 108 has been moved.

표시부(121)는, 구동부(125)로부터 화상 표시 소자(108)를 이동시킨 것이 전달되면, 대응하는 영상을 화상 표시 소자(108)에 표시시킨다(스텝 S2104).The display unit 121 displays the corresponding image on the image display element 108 when the image display element 108 is moved from the driving unit 125 (step S2104).

도 21에 나타내는 처리를 반복하는 것에 의하여, 매번, 화상 표시 소자(108)를 표시하는 오브젝트의 표시 심도에 따라, 이동시킬 수 있다. 즉, 오브젝트의 표시 심도와 화상 표시 소자(108)의 위치의 차이를 줄일 수 있다. 따라서, 유저(300)의 안구 운동에 의하여 핀트 조정의 발생을 억제할 수 있으므로, 유저(300)에게 부여하는 피로감을 억제할 수 있다.By repeating the processing shown in Fig. 21, the image display element 108 can be moved in accordance with the display depth of the object displaying the image display element 108 each time. That is, the difference between the display depth of the object and the position of the image display element 108 can be reduced. Therefore, the occurrence of the focus adjustment can be suppressed by the eye movement of the user 300, and fatigue to be given to the user 300 can be suppressed.

<구동예 2>&Lt; Driving Example 2 &

도 22는, 실시형태에 관한 헤드 마운트 디스플레이(100)의 동작의 상세를 나타내는 플로차트이다. 여기에서는, 구동 제어부(126)가, 동영상인 영상 데이터를 전달받은 단계부터 설명한다.22 is a flowchart showing details of the operation of the head mounted display 100 according to the embodiment. Here, the description will be made from the stage where the drive control section 126 receives the video data which is motion picture.

구동 제어부(126)는, 영상 데이터 중 제1 시간에 표시하는 표시 오브젝트의 표시 심도 정보(이하, 제1 표시 심도 정보)를 영상 데이터로부터 추출한다(스텝 S2201).The drive control unit 126 extracts display depth information (hereinafter referred to as first display depth information) of the display object to be displayed at the first time of the video data from the video data (step S2201).

다음으로, 구동 제어부(126)는, 영상 데이터 중 제1 시간에 이어지는 제2시간에 표시하는 표시 오브젝트의 표시 심도 정보(이하, 제2 표시 심도 정보)를 영상 데이터로부터 추출한다(스텝 S2202). 또한, 여기에서, 제2시간은, 제1 시간의 직후(1 프레임 뒤)일 필요는 없고, 일정시간(예를 들면, 1sec) 후여도 된다.Next, the drive control section 126 extracts display depth information (hereinafter referred to as second display depth information) of the display object to be displayed at the second time following the first time of the video data from the video data (step S2202). Here, the second time is not necessarily immediately after the first time (after one frame), but may be after a predetermined time (for example, 1 second).

구동 제어부(126)는, 제2 표시 심도 정보로 나타나는 제2 표시 심도가, 제1 표시 심도 정보로 나타나는 제1 표시 심도보다 큰(깊은)지 아닌지를 판정한다(스텝 S2203). 이는 제2시간에 표시되는 오브젝트가, 제1 시간에 표시되어 있는 경우보다, 유저에게 있어, 안쪽에 표시되어 보이는지를 판정하는 것과 동의이다.The drive control section 126 determines whether or not the second display depth indicated by the second display depth information is larger (deeper) than the first display depth indicated by the first display depth information (step S2203). This is an agreement that it is determined by the user that the object displayed at the second time is displayed inside rather than when it is displayed at the first time.

제2 표시 심도가 제1 표시 심도보다 큰 경우에(스텝 S2203의 YES), 구동 제어부(126)는, 화상 표시 소자(108), 즉, 모니터를 유저의 눈으로부터 멀어지는 방향으로 이동시키도록 구동부(125)에 제어 신호를 전달한다. 구동부(125)는, 당해 제어 신호에 따라, 유저의 눈으로부터 화상 표시 소자(108)를 멀어지는 방향으로 이동시킨다(스텝 S2204).If the second display depth is larger than the first display depth (YES in step S2203), the drive control unit 126 controls the drive unit (not shown) to move the image display device 108, that is, the monitor in the direction away from the user's eyes 125, respectively. The driving unit 125 moves the image display element 108 away from the user's eyes in accordance with the control signal (step S2204).

제2 표시 심도가 제1 표시 심도보다 작은 경우에(스텝 S2203의 NO), 구동 제어부(126)는, 화상 표시 소자(108), 즉, 모니터를 유저의 눈에 가까워지는 방향으로 이동시키도록 구동부(125)에 제어 신호를 전달한다. 구동부(125)는, 당해 제어 신호에 따라, 화상 표시 소자(108)를 유저의 눈에 가까워지는 방향으로 이동시킨다(스텝 S2206).If the second display depth is smaller than the first display depth (NO in step S2203), the drive control unit 126 controls the drive unit 126 to move the image display device 108, i.e., the monitor, (125). The driving unit 125 moves the image display device 108 in a direction approaching the user's eyes in accordance with the control signal (step S2206).

구동부(125)는, 화상 표시 소자(108)를 이동시키면, 화상 표시 소자(108)를 이동시킨 것을 표시부(121)에 전달한다. 그리고, 표시부(121)는, 화상 표시 소자(108)에 제2시간에 표시해야 할 영상을 표시한다(스텝 S2205).The driving unit 125 transfers the image display element 108 to the display unit 121 when the image display element 108 is moved. Then, the display unit 121 displays the image to be displayed on the image display element 108 at the second time (step S2205).

헤드 마운트 디스플레이(100)는, 시선 검출 장치(200)의 영상 출력부(222)로부터 출력되는 영상 데이터를 모두 표시하여 마칠 때(또는 유저에 의하여 영상의 재생이 중단될 때)까지, 도 22에 나타내는 처리를 반복한다.The head mount display 100 displays the image data output from the video output unit 222 of the visual-line detecting apparatus 200 until all the image data is displayed (or when the reproduction of the image is stopped by the user) Repeat the process indicated.

이로써, 연속해 화상을 표시하는 동영상 등의 경우의 오브젝트의 표시 심도와 화상 표시 소자(108)의 사이의 거리가 변동하면 유저(300)의 핀트 조정 기능이 발생하기 쉬워지지만, 도 22에 나타내는 처리에 의하여, 이 발생 빈도를 억제할 수 있다.Thus, the focus adjustment function of the user 300 is likely to occur when the display depth of an object in the case of a moving image or the like continuously displaying an image and the distance between the image display element 108 change, It is possible to suppress this occurrence frequency.

<정리><Summary>

상기 설명한 바와 같이, 본 발명에 관한 시선 검출 시스템(1)은, 표시하는 입체 영상에 있어서의 오브젝트의 표시 심도에 따라, 화상 표시 소자(108), 즉, 모니터 그 자체를 이동시킬 수 있다. 구체적으로는, 화상 표시 소자(108)의 위치와 입체 영상의 표시 심도를 접근할 수 있다. 화상 표시 소자(108)의 위치와 입체 영상의 표시 심도의 괴리가 크면 클수록 안구의 핀트 조정이 발생하기 쉬워지지만, 본 실시형태에 관한 구성을 구비하는 것에 의하여, 헤드 마운트 디스플레이(100)는, 안구의 핀트 조정 운동이 발생하는 빈도를 억제할 수 있다. 따라서, 오브젝트의 가상적인 표시 위치와 모니터의 실제의 위치의 차이에 근거하는, 안구 기능의 핀트 조정의 발생을 다소나마 경감할 수 있으므로, 유저의 안구 피로를 억제할 수 있다.As described above, the visual-line detecting system 1 according to the present invention can move the image display element 108, that is, the monitor itself according to the display depth of the object in the displayed stereoscopic image. Concretely, the position of the image display element 108 and the display depth of the stereoscopic image can be approached. The greater the distance between the position of the image display element 108 and the display depth of the stereoscopic image is, the more easily the focus adjustment of the eye becomes easier. However, by providing the configuration according to the present embodiment, It is possible to suppress the occurrence of the focus adjustment movement of the lens. Accordingly, it is possible to slightly alleviate the occurrence of the focus adjustment of the eye function based on the difference between the virtual display position of the object and the actual position of the monitor, and thus eye fatigue of the user can be suppressed.

또, 본 발명에 관한 시선 검출 시스템(1)은, 헤드 마운트 디스플레이(100)에 탑재해 사용하면, 모니터의 이동이 용이함과 함께, 시선 검출도 행할 수 있다. 따라서, 유저에게 가능한한 피로감을 주지 않고 입체 영상을 제시할 수 있고, 또한, 그 입체 영상에 있어서, 유저가 보고 있는 개소를 특정할 수 있는 시선을 검출하는, 양 기능을 실현할 수 있다.When the visual-line detecting system 1 according to the present invention is mounted on the head-mounted display 100, it is easy to move the monitor, and the visual line can be detected. Therefore, it is possible to realize both functions of presenting a stereoscopic image to the user without giving fatigue to the user as much as possible, and of detecting a line of sight in which the user can see a point in the stereoscopic image.

또한, 본 실시형태 5에 있어서, 화상 표시 소자(108)를 가동시키는 구조는, 상기 도 20에 나타내는 구조로 한정되는 것은 아니다. 도 20(a)의 화살표(710)로 나타내는 방향으로 화상 표시 소자(108)를 이동시킬 수 있는 구조로 되어 있으면, 그 외의 구조를 채용하는 것으로 해도 된다. 예를 들면, 웜 기어 등에 의하여 동일한 구성을 실현하는 것으로 해도 된다. 또, 상기 실시형태에 있어서는, 도 20에 나타낸 구조는, 헤드 마운트 디스플레이(100)의 좌우(유저가 장착하고 있는 상태에서의 좌우이며, 화상 표시 소자(108)의 장척 방향에 있어서의 좌우)에 구비하는 것으로 했지만, 화상 표시 소자(108)를 좌우로 위화감 없게 이동시킬 수 있다면, 한쪽에만 구비하는 구조여도 된다.In addition, in the fifth embodiment, the structure for moving the image display element 108 is not limited to the structure shown in Fig. Other structures may be adopted as long as the structure allows the image display element 108 to move in the direction indicated by the arrow 710 in Fig. 20 (a). For example, the same structure may be realized by a worm gear or the like. In the above-described embodiment, the structure shown in Fig. 20 is a structure in which the left and right (left and right in the state where the user is mounted and left and right in the longitudinal direction of the image display element 108) of the head mount display 100 However, if the image display element 108 can be moved right and left without a sense of discomfort, it may be provided on only one side.

본 실시형태 5에 있어서, 화상 표시 소자(108)는, 1개로 하고 있지만, 이에 한정되는 것은 아니다. 헤드 마운트 디스플레이(100)에, 유저(300)의 왼쪽눈에 상대하는 화상 표시 소자와, 유저(300)의 오른쪽눈에 상대하는 화상 표시 소자, 2개의 화상 표시 소자를 구비하고, 각각을 따로 따로 구동시키는 것으로 해도 된다. 이로써, 유저(300)의 좌우의 눈의 시력에 따른 초점 조정과 같은 세세한 제어를 행할 수 있게 된다.In the fifth embodiment, one image display element 108 is used, but the present invention is not limited to this. The head mount display 100 is provided with an image display element which is opposed to the left eye of the user 300 and an image display element which is opposed to the right eye of the user 300 and two image display elements, And may be driven. Thus, fine control such as focus adjustment according to the visual acuity of the left and right eyes of the user 300 can be performed.

본 실시형태 5에 있어서는, 유저(300)의 시선을 검출하기 위하여, 유저(300)의 눈을 촬상하는 수법으로서 핫 미러(112)에서 반사시킨 영상을 촬상하고 있지만, 이는, 핫 미러(112)를 통하지 않고 직접 유저(300)의 눈을 촬상해도 된다.The image of the user 300 is captured by the hot mirror 112 as a method of picking up the eyes of the user 300. This is because the image of the user 300 is picked up by the hot mirror 112, It is possible to directly capture the eyes of the user 300 without passing through.

<보충 2><Supplement 2>

본 실시형태 5에 관한 시선 검출 시스템은, 입체 영상 표시 시스템으로서 이하와 같이 나타나도 된다.The visual-point detecting system according to the fifth embodiment may be described as a stereoscopic image display system as follows.

(l) 본 실시형태 5에 관한 입체 영상 표시 시스템은, 유저에게 제시하는 입체 영상을 표시하는 모니터와, 상기 유저의 눈과의 상대 거리가 변동하도록 상기 모니터를 이동시키는 구동부와, 상기 모니터에 표시시키는 입체 영상의 심도에 따라 상기 구동부를 제어하는 제어부를 구비하는 입체 영상 표시 시스템이다.(1) The stereoscopic image display system according to the fifth embodiment includes: a monitor for displaying a stereoscopic image to be presented to a user; a driving unit for moving the monitor so that a relative distance between the user's eyes and the user is changed; And a control unit for controlling the driving unit according to the depth of the stereoscopic image.

또, 본 실시형태 5에 관한 제어 방법은, 입체시에 있어서의 유저의 피로를 경감하기 위한 입체 영상 표시 시스템의 제어 방법으로서, 모니터에 유저에게 제시하는 입체 영상을 표시하는 표시 스텝과, 상기 모니터에 표시시키는 입체 영상의 심도에 따라, 상기 유저의 눈과의 상대 거리가 변동하도록 상기 모니터를 이동시키는 구동부를 제어하는 제어 스텝을 포함한다.The control method according to Embodiment 5 of the present invention is a control method of a stereoscopic image display system for reducing the fatigue of a user in stereoscopic vision and includes a display step of displaying a stereoscopic image presented to a user on a monitor, And controlling the driving unit to move the monitor so that the relative distance with the user's eye changes according to the depth of the stereoscopic image displayed on the display unit.

본 실시형태 5에 관한 제어 프로그램은, 입체 영상 표시 시스템의 컴퓨터에, 모니터에 유저에게 제시하는 입체 영상을 표시시키는 표시 기능과, 상기 모니터에 표시시키는 입체 영상의 심도에 따라, 상기 유저의 눈과의 상대 거리가 변동하도록 상기 모니터를 이동시키는 구동부를 제어하는 제어 기능을 실현시키는 제어 프로그램이다.The control program according to the fifth embodiment is characterized in that the computer of the stereoscopic image display system is provided with a display function for displaying a stereoscopic image presented to a user on a monitor and a display function for displaying the stereoscopic image on the monitor And controls the driving unit to move the monitor so that the relative distance of the monitor is changed.

(m) 상기 (l)에 관한 입체 영상 표시 시스템에 있어서, 상기 제어부는, 상기 입체 영상이 표시되는 심도에 상기 모니터를 근접시키는 방향으로 상기 구동부를 제어하는 것을 특징으로 하는 것으로 해도 된다. (m) In the stereoscopic image display system according to (1), the control unit may control the driving unit in a direction in which the monitor approaches the depth at which the stereoscopic image is displayed.

(n) 상기 (l) 또는 (m)에 관한 입체 영상 표시 시스템에 있어서, 상기 제어부는, 제1 시간에 이어지는 제2 시간에 있어서 표시되는 입체 영상의 심도가, 상기 제1 시간에 표시된 입체 영상의 심도보다 얕아지는 경우에, 상기 모니터를 상기 유저의 눈에 근접시키는 방향으로 상기 구동부를 제어하는 것을 특징으로 해도 된다.(n) In the stereoscopic image display system according to the above (1) or (m), the control unit may be configured such that the depth of the stereoscopic image displayed at the second time following the first time is shorter than the depth of the stereoscopic image displayed at the first time The controller may control the driver to move the monitor closer to the user's eyes.

(o) 상기 (l)~(n) 중 어느 하나에 관한 입체 영상 표시 시스템에 있어서, 상기 제어부는, 제1 시간에 이어지는 제2 시간에 있어서 표시되는 입체 영상의 심도가, 상기 제1 시간에 표시된 입체 영상의 심도보다 깊어지는 경우에, 상기 모니터를 상기 유저의 눈으로부터 멀어지는 방향으로 상기 구동부를 제어하는 것을 특징으로 해도 된다.(o) In the stereoscopic image display system according to any one of (l) to (n), the control unit may cause the depth of the stereoscopic image displayed at the second time following the first time to be And controls the driver to move the monitor away from the eye of the user when the depth of the displayed three-dimensional image is deeper than the depth of the displayed stereoscopic image.

(p) 상기 (l)~(o) 중 어느 하나에 관한 입체 영상 표시 시스템에 있어서, 상기 입체 영상 표시 시스템은, 유저의 두부에 장착하여 사용되는 헤드 마운트 디스플레이에 탑재되는 것이며, 상기 헤드 마운트 디스플레이는, 유저의 눈에 비가시광을 조사하는 비가시광 조사부와, 상기 비가시광 조사부에 의하여 조사된 비가시광을 포함하는 유저의 눈을 촬상하는 촬상부와, 상기 촬상부에 의하여 촬상된 화상을 시선 검출을 행하는 시선 검출 장치에 출력하는 출력부를 더욱 구비하는 것을 특징으로 해도 된다.(p) In the stereoscopic image display system according to any one of (l) to (o), the stereoscopic image display system is mounted on a head mount display mounted on a head of a user, Visible light irradiating unit for irradiating an eye of a user with non-visible light, an imaging unit for imaging an eye of a user including non-visible light irradiated by the non-visible light irradiating unit, an image pickup unit for picking up an image picked up by the image pickup unit To an eye-gaze detecting apparatus that performs a line-of-sight detection.

<보충 3><Supplement 3>

본 발명에 관한 시선 검출 시스템은, 상기 실시형태로 한정되는 것은 아니고, 그 발명의 사상을 실현하기 위한 다른 수법에 의하여 실현되어도 되는 것은 말할 필요도 없다.The eye-gaze detecting system according to the present invention is not limited to the above-described embodiment, and needless to say, it may be realized by another method for realizing the idea of the invention.

상기 실시형태에 있어서, 마커 화상(휘점)을 표시한 위치는 일례이며, 유저의 시선 검출을 행하는 위하여 다른 위치에 표시되고, 각각을 주시하는 유저의 눈의 화상을 획득하여, 그 때의 유저의 눈의 중심을 특정할 수 있으면, 상기 실시형태에 나타낸 표시 위치로 한정되지 않는 것은 말할 필요도 없다. 또, 그 때에 마커 화상을 표시하는 개수도 9개로 한정되는 것은 아니고, 상기 행렬 x의 4개의 요소를 특정하기 위해서는, 4개의 식이 성립하면 되기 때문에, 적어도 4점의 마커 화상에 대한 유저의 각막 중심을 특정할 수 있으면 충분한다.In the above embodiment, the position at which the marker image (bright spot) is displayed is an example, and an image of the user's eye, which is displayed at another position to detect the user's gaze, is acquired, Needless to say, it is not limited to the display position shown in the above embodiment as long as the center of the eye can be specified. In this case, the number of marker images is not limited to nine, and four expressions can be satisfied in order to specify the four elements of the matrix x. Therefore, the user's corneal center for at least four marker images It is enough if it can specify.

상기 실시형태에 있어서는, 유저(300)의 시선을 검출하기 위하여, 유저(300)의 눈을 촬상하는 수법으로서 핫 미러(112)에서 반사시킨 영상을 촬상하고 있지만, 이는, 핫 미러(112)를 통하지 않고 직접 유저(300)의 눈을 촬상해도 된다.In the above embodiment, the image captured by the hot mirror 112 is picked up as a method of picking up the eyes of the user 300 in order to detect the line of sight of the user 300. This is because the hot mirror 112 It is possible to directly capture the eyes of the user 300 without passing through.

상기 실시형태에 있어서는, 마커 화상 출력부(223)는, 시선 검출 장치(200)의 오퍼레이터로부터의 입력 지시에 따라, 마커 화상의 표시 위치를 변경하는 것으로 했지만, 마커 화상 출력부(223)는, 자동적으로 마커 화상의 표시 위치를 변경하는 것으로 해도 된다. 예를 들면, 마커 화상 출력부(223)는, 소정 시간(예를 들면, 3초)이 경과할 때 마다 마커 화상의 표시 위치를 변경하는 것으로 해도 된다.The marker image output section 223 changes the display position of the marker image in accordance with the input instruction from the operator of the visual line detecting apparatus 200. The marker image output section 223, The display position of the marker image may be automatically changed. For example, the marker image output unit 223 may change the display position of the marker image every predetermined time (for example, three seconds).

보다 적합하게는, 시선 검출 시스템(1)은, 헤드 마운트 디스플레이(100)로부터 얻어진 촬상 화상을 해석하여, 유저가 마커 화상을 주시하고 있는지 여부를 판정하고, 유저가 마커 화상을 주시하고 있다고 판정하면, 마커 화상의 표시 위치를 변경하도록 구성되어도 된다.More preferably, the line of sight detection system 1 analyzes the captured image obtained from the head mounted display 100 to determine whether or not the user is watching the marker image. If the user determines that the user is watching the marker image , And change the display position of the marker image.

즉, 기억부(227)에는, 미리 유저가 화상 표시 소자(108)의 중앙을 주시하고 있는 상태의 화상(9개의 마커 화상 중의 중앙의 마커 화상을 유저가 주시하고 있는 상태로 촬상한 화상)을 기억해 둔다. 그리고, 판정부(224)는, 기억되어 있는 당해 화상과 촬상 화상의 각막(검은자)의 중심 위치의 비교를 행하여, 촬상 화상의 유저의 각막 중심이 기억하고 있는 화상의 유저의 각막 중심으로부터, 마커 화상이 표시되어 있는 방향으로 소정 거리(예를 들면, 화상 표시 소자(108)의 화소 좌표 단위계에 있어서 30화소) 이상 떨어져 있는지 여부에 따라, 유저가 마커 화상을 주시하고 있는지 여부를 판정한다. 그리고, 판정부(224)는, 당해 판정에 있어서, 유저가 마커 화상을 주시하고 있다고 판정한 경우에, 마커 화상 출력부(223)에 마커 화상의 표시 위치를 변경을 지시하여, 마커 화상 출력부(223)는 당해 지시에 따라, 마커 화상의 표시 위치를 변경한다.That is, in the storage section 227, an image (image obtained by imaging the center marker image of the nine marker images in a state where the user is watching the center of the image display element 108 in advance) Remember. The determination section 224 compares the stored center position of the cornea (black character) of the image with the captured image to determine whether the corneal center of the user of the image stored in the corneal center of the user of the captured image, It is determined whether or not the user is watching the marker image according to whether or not the marker image is separated by a predetermined distance (for example, 30 pixels in the pixel coordinate system of the image display element 108) in the direction in which the marker image is displayed. The determining section 224 instructs the marker image output section 223 to change the display position of the marker image when it is determined that the user is watching the marker image in the determination, (223) changes the display position of the marker image in accordance with the instruction.

마커 화상 출력부(223)는, 유저가 마커 화상을 주시하고 있지 않다고 판정한 경우에는, 유저가 마커 화상에 주의를 향하도록, 마커 화상을 강조 표시(예를 들면, 그 표시 위치에서 점멸시키거나 화살표 등의 아이콘으로 마커 화상을 지시하거나 "마커를 봐 주세요"라고 하는 내용의 문장을 표시하거나 한다)하도록 알릴 수도 있다. 당해 알림은, 음성 가이던스에 의하여, 헤드 마운트 디스플레이(100)의 헤드폰(170)으로부터, "마커를 봐 주세요"라고 하는 아나운스를 행하는 것에 의하여 실현되는 것으로 해도 된다. 이로써 기억부(227)는 당해 음성의 데이터를 기억하여, 마커 화상 출력부(223)는, 유저가 마커 화상을 주시하고 있지 않다고 판정했을 때에 그 음성의 데이터를 헤드 마운트 디스플레이(100)에 송신하며, 헤드 마운트 디스플레이(100)는, 수신한 음성의 데이터를 헤드폰(170)으로부터 출력한다. 또, 나아가서는, 헤드 마운트 디스플레이(100)는, 판정부(224)가 캘리브레이션을 위한 촬상 화상의 취득에 성공했다고 판정한 경우에 유저에게 문제가 없었던 것을 보여주기(캘리브레이션에 성공하고 있는 것을 나타내기) 위하여, 마커 화상에 예를 들면, "○"나 "OK"라는 화상을 표시하는 것으로 해도 된다.When the user determines that the marker image is not being watched by the user, the marker image output section 223 displays the marker image emphatically (for example, blinking at the display position A marker image may be indicated by an icon of an arrow or the like or a sentence of "look at a marker" may be displayed). This notification may be realized by voice guidance from the headphone 170 of the head mount display 100 to perform an announcement saying "Look for a marker ". Thereby, the storage unit 227 stores the voice data, and when the marker image output unit 223 determines that the user is not watching the marker image, it transmits the voice data to the head mount display 100 , The head mount display 100 outputs the received voice data from the headphone 170. [ Further, further, the head mount display 100 shows that the judgment was successful for the user when the judging unit 224 judges that the capturing image for calibration has been successfully acquired (indicating that the calibration is successful For example, an image of "?" Or "OK" may be displayed in the marker image.

이와 같이 헤드 마운트 디스플레이(100)를 장착하고 있는 유저가 마커 화상을 주시하고 있는지 여부를 판정하도록 시선 검출 시스템(1)을 구성함으로써, 캘리브레이션의 자동화를 실현할 수 있다. 따라서, 종래의 캘리브레이션에 있어서는 헤드 마운트 디스플레이(100)를 장착하는 유저와는 별도로 오퍼레이터가 필요했지만, 오퍼레이터의 존재없이 캘리브레이션을 행할 수 있다.Thus, by configuring the line-of-sight detecting system 1 so as to determine whether or not the user wearing the head mount display 100 is watching the marker image, the automation of the calibration can be realized. Therefore, in the conventional calibration, the operator is required separately from the user who mounts the head mount display 100, but the calibration can be performed without the operator.

또, 헤드 마운트 디스플레이(100)는, 3D 화상을 표시할 때에, 화상 표시 소자(108)를 유저의 눈과의 사이의 거리를 변경할 수 있는(이동할 수 있는) 구성을 구비하는 것으로 해도 된다. 유저의 눈으로부터 표시되는 3D 화상까지의 가상 거리(심도)와, 실제의 유저의 눈과 화상 표시 소자(108)의 사이의 거리가 괴리되면, 유저의 눈의 피로의 한 요인이 되는바, 당해 구성에 의하여, 헤드 마운트 디스플레이(100)는, 유저의 눈의 피로를 경감할 수 있다.The head mount display 100 may have a configuration in which the distance between the image display element 108 and the eye of the user can be changed (moved) when the 3D image is displayed. If the virtual distance (depth) from the user's eyes to the 3D image displayed is different from the distance between the eyes of the actual user and the image display element 108, it becomes a factor of fatigue of the eyes of the user. By the configuration, the head mount display 100 can reduce the fatigue of the eyes of the user.

또, 시선 검출 시스템(1)에 있어서, 캘리브레이션 시에, 유저의 유효 시야를 특정하는 것으로 해도 된다. 유저의 유효 시야란, 유저가 어느 한 점을 보고 있는 상태로, 거기서부터 단부 방향을 향하여, 유저가 명료하게 화상을 인식할 수 있는 범위이다. 시선 검출 시스템(1)에 있어서는, 캘리브레이션 시에, 화면 중심으로부터 원형으로 마커 화상을 표시하여, 유효 시야를 특정하는 것으로 해도 된다. 또, 유저가 어느 한 점을 보고 있는 상태로, 그 한 점을 중심으로 한 복수의 동심원을 명멸 표시시켜, 동시에 사라져 보이는 타이밍이 되는 주기를 특정함으로써, 유저의 유효 시야를 특정하는 것으로 해도 된다. 유저별로 유효 시야의 특정이 가능하면, 유효 시야 밖의 화상에 대해서는 화질을 떨어뜨려도 유저는 인식하기 어렵기 때문에, 시선 검출 장치(200)로부터 헤드 마운트 디스플레이(100)에 전송하는 화상의 데이터 전송량을 억제할 수 있다.In the visual line detection system 1, the effective visual field of the user may be specified at the time of calibration. The user's effective visual field is a range in which the user can clearly recognize an image from the state where the user is looking at a certain point toward the end direction. In the line-of-sight detection system 1, a marker image may be displayed circularly from the center of the screen at the time of calibration to specify the effective visual field. It is also possible to specify the effective visual field of the user by specifying a period in which a plurality of concentric circles centering on one point are highlighted while the user is viewing a certain point, and at the same time, a timing which appears to disappear at the same time. If the effective visual field can be specified for each user, it is difficult for the user to recognize even if the image quality is deteriorated with respect to the out-of-view image, so that the data transmission amount of the image transmitted from the visual-line detecting device 200 to the head- can do.

또, 상기 실시형태에 있어서는, 시선 검출에 있어서의 캘리브레이션의 수법으로서 시선 검출 장치(200)의 프로세서가 시선 검출 프로그램 등을 실행하는 것에 의하여, 유저가 주시하고 있는 개소를 특정하는 것으로 하고 있지만, 이는 시선 검출 장치(200)에 집적회로(IC(Integrated Circuit) 칩, LSI(Large Scale Integration)) 등에 형성된 논리 회로(하드웨어)나 전용 회로에 의하여 실현되어도 된다. 또, 이러한 회로는, 1개 또는 복수의 집적회로에 의하여 실현되어도 되고, 상기 실시형태에 나타낸 복수의 기능부의 기능을 1개의 집적회로에 의하여 실현하는 것으로 해도 된다. LSI는, 집적도의 차이에 따라, VLSI, 슈퍼 LSI, 울트라 LSI 등이라고 불리는 경우도 있다. 즉, 도 10에 나타내는 바와 같이, 헤드 마운트 디스플레이(100)는, 제1 통신 회로(118a)와, 제1 표시 회로(121a)와, 적외광 조사 회로(122a)와, 화상 처리 회로(123a)와, 촬상 회로(124a)로 구성되어도 되고, 각각의 기능은, 상기 실시형태에 나타낸 동일한 명칭을 갖는 각부와 같다. 또, 시선 검출 장치(200)는, 제2 통신 회로(220a)와, 시선 검출 회로(221a)와, 영상 출력 회로(222a)와, 마커 화상 출력 회로(223a)와, 판정 회로(224a)와, 합성 화상 출력 회로(225a)와, 제2 표시 회로(226a)와, 기억 회로(227a)로 구성되어도 되고, 각각의 기능은, 상기 실시형태에 나타낸 동일한 명칭을 갖는 각부와 같다. 또한, 도 10에서는, 실시형태 1에 있어서의 시선 검출 시스템을 회로에 의하여 실현한 예를 나타냈지만, 도시하지 않지만, 도 11이나 도 19에 나타내는 시선 검출 시스템에 대해서도 마찬가지로 회로에 의하여 실현되어도 되는 것은 말할 필요도 없다.In the above embodiment, the processor of the visual-line detecting apparatus 200 executes a visual-line detecting program or the like as a method of calibration in visual-line detection to specify a point that the user is watching. However, (Hardware) formed on an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration) or the like) or a dedicated circuit in the visual line detecting apparatus 200. [ Such a circuit may be realized by one or a plurality of integrated circuits, and the functions of the plurality of functional sections described in the above embodiments may be realized by one integrated circuit. LSIs are sometimes called VLSIs, Super LSIs, Ultra LSIs, etc., depending on the degree of integration. 10, the head mount display 100 includes a first communication circuit 118a, a first display circuit 121a, an infrared light irradiation circuit 122a, an image processing circuit 123a, And an image pickup circuit 124a, and the respective functions are the same as those of the respective parts having the same names as those in the above embodiment. The visual line detecting apparatus 200 further includes a second communication circuit 220a, a visual line detecting circuit 221a, a video output circuit 222a, a marker image output circuit 223a, a judging circuit 224a, The composite image output circuit 225a, the second display circuit 226a, and the storage circuit 227a, and the respective functions are the same as those of the respective parts having the same names as in the above embodiment. 10 shows an example in which the visual line detection system according to the first embodiment is implemented by a circuit. Although not shown, the visual line detection system shown in Fig. 11 or Fig. 19 may be realized by a similar circuit Needless to say.

또, 상기 시선 검출 프로그램은, 프로세서가 독취 가능한 기록 매체에 기록되어 있어도 되고, 기록 매체로서는, "일시적이 아닌 유형의 매체", 예를 들면, 테이프, 디스크, 카드, 반도체 메모리, 프로그래머블한 논리 회로 등을 이용할 수 있다. 또, 상기 시선 검출 프로그램은, 당해 시선 검출 프로그램을 전송 가능한 임의의 전송 매체(통신 네트워크나 방송파 등)를 통하여 상기 프로세서에 공급되어도 된다. 본 발명은, 상기 시선 검출 프로그램이 전자적인 전송에 의하여 구현화된, 반송파에 포함된 데이터 신호의 형태로도 실현될 수 있다.The visual-axis detecting program may be recorded on a recording medium readable by a processor. The recording medium may be a medium such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit . The line-of-sight detecting program may be supplied to the processor through an arbitrary transmission medium (such as a communication network or a broadcast wave) capable of transmitting the line-of-sight detecting program. The present invention can also be realized in the form of a data signal included in a carrier wave, in which the line-of-sight detecting program is embodied by electronic transmission.

또한, 상기 시선 검출 프로그램은, 예를 들면, ActionScript, JavaScript(등록 상표) 등의 스크립트 언어, Objective-C, Java(등록 상표) 등의 객체 지향 프로그램 언어, HTML5 등의 마크업 언어 등을 이용하여 실장할 수 있다.The line-of-sight detecting program may be executed by using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), a markup language such as HTML5 Can be mounted.

또, 본 발명에 관한 시선 검출 방법은, 유저에게 장착하여 사용하는 헤드 마운트 디스플레이와, 상기 유저의 시선을 검출하는 시선 검출 장치를 포함하는 시선 검출 시스템에 의한 시선 검출을 위한 방법으로서, 상기 시선 검출 장치가 상기 헤드 마운트 디스플레이에 마커 화상을 출력하고, 상기 헤드 마운트 디스플레이가, 상기 마커 화상을 표시하며, 상기 마커 화상을 주시하는 유저의 눈을 촬상하고, 촬상된 유저의 눈을 포함하는 화상을 상기 시선 검출 장치에 출력하고, 상기 시선 검출 장치가, 상기 마커 화상, 및 상기 촬상된 상기 마커 화상을 주시하고 있는 유저의 눈을 포함하는 화상을 중첩한 합성 화상을 작성하여, 작성된 합성 화상을 출력하는 것을 특징으로 하는 방법으로 해도 된다.A visual line detecting method according to the present invention is a method for visual line detection by a visual line detecting system including a head mount display attached to a user and a visual line detecting device for detecting the visual line of the user, Wherein the apparatus displays a marker image on the head mount display, the head mount display displays the marker image, captures an image of the user watching the marker image, And the visual line detection device generates a composite image in which the marker image and the image including the eye of the user who is looking at the captured marker image are superimposed on each other and outputs the composite image thus created Or the like.

또, 본 발명에 관한 시선 검출 프로그램은, 컴퓨터에, 헤드 마운트 디스플레이에 표시시키는 마커 화상을 출력하는 마커 화상 출력 기능과, 상기 헤드 마운트 디스플레이에 표시된 마커 화상을 주시하는 유저의 눈을 촬상한 촬상 화상을 취득하는 취득 기능과, 상기 마커 화상과 상기 촬상 화상을 중첩한 합성 화상을 작성하는 작성 기능과, 상기 합성 화상을 출력하는 합성 화상 출력 기능을 실현시키는 프로그램으로 해도 된다.The line of sight detecting program according to the present invention is characterized in that the computer is provided with a marker image output function for outputting a marker image to be displayed on the head mounted display and a captured image image A generating function for creating a composite image in which the marker image and the captured image are superimposed, and a program for realizing a composite image output function for outputting the composite image.

이 발명은, 헤드 마운트 디스플레이에 이용 가능하다.The invention is applicable to head-mounted displays.

1 시선 검출 시스템
100 헤드 마운트 디스플레이
103a 적외광원(제2 적외광 조사부)
103b 적외광원(제1 적외광 조사부)
105 휘점
108 화상 표시 소자
112 핫 미러
114, 114a, 114b 볼록 렌즈
116 카메라
118 제1 통신부
121 제1 표시부
122 적외광 조사부
123 화상 처리부
124 촬상부
130 화상 표시계
150 케이스
152a, 152b 렌즈 지지부
160 장착구
170 헤드폰
200 시선 검출 장치
220 제2 통신부
221 시선 검출부
222 영상 출력부
223 마커 화상 출력부
224 판정부
225 합성 화상 출력부
226 제2 표시부
227 기억부
1 line of sight detection system
100 Head Mount Display
103a infrared light source (second infrared light irradiation unit)
103b An infrared light source (first infrared light irradiation unit)
105 spots
108 image display element
112 hot mirror
114, 114a, 114b convex lens
116 Camera
118 first communication section
121 first display portion
122 infrared light irradiation unit
123 image processing section
124 image pickup section
130 image display system
150 cases
152a, 152b,
160 mounting hole
170 Headphones
200 line of sight detection device
220 second communication section
221 line-of-sight detecting section
222 Video output unit
223 marker image output unit
224 judgment section
225 composite image output section
226 Second display section
227 Memory unit

Claims (6)

유저에게 장착하여 사용하는 헤드 마운트 디스플레이와, 상기 유저의 시선을 검출하는 시선 검출 장치를 포함하는 시선 검출 시스템으로서,
상기 헤드 마운트 디스플레이는,
화상을 표시하는 표시부와,
상기 유저의 눈을 촬상하는 촬상부와,
상기 촬상부가 촬상한 상기 유저의 눈을 포함하는 화상을, 상기 시선 검출 장치에 대하여 출력하는 화상 출력부를 구비하고,
상기 시선 검출 장치는,
상기 표시부에 표시시키는 마커 화상을 출력하는 마커 화상 출력부와,
상기 마커 화상 출력부가 출력한 마커 화상, 및 상기 촬상부에 의하여 촬상된 상기 상기 마커 화상을 주시하고 있는 유저의 눈을 포함하는 화상을 중첩한 합성 화상을 작성하는 합성 화상 작성부와,
상기 합성 화상을 출력하는 합성 화상 출력부를 구비하는 시선 검출 시스템.
1. A line-of-sight detection system including a head-mounted display mounted on a user and a line-of-sight detecting device for detecting a line of sight of the user,
Wherein the head mount display comprises:
A display section for displaying an image;
An image pickup section for picking up an image of the user's eyes;
And an image output unit for outputting, to the visual-line detecting apparatus, an image including the eye of the user, the image of which has been picked up by the image pickup unit,
The visual-
A marker image output unit for outputting a marker image to be displayed on the display unit;
A composite image creating unit that creates a composite image in which an image including a user's eye watching the marker image captured by the image capture unit is superimposed on a marker image output by the marker image output unit,
And a synthesized image output unit outputting the synthesized image.
청구항 1에 있어서,
상기 마커 화상 출력부는, 상기 마커 화상의 표시 위치를 순서대로 변경하여 출력하고,
상기 촬상부는, 적어도 상기 표시 위치가 변경될 때 마다 마커 화상을 주시하는 유저의 눈을 촬상하는 것을 특징으로 하는 시선 검출 시스템.
The method according to claim 1,
Wherein the marker image output unit changes the display positions of the marker images in order and outputs them,
Wherein the image capturing unit captures an image of a user who watches the marker image at least every time the display position is changed.
청구항 2에 있어서,
상기 마커 화상 출력부는, 상기 마커 화상이 미리 정해진 복수의 좌표 위치 중 중 어느 하나에, 상기 마커 화상의 표시 위치를 변경하여 출력하는 것이며,
상기 시선 검출 장치는,
상기 촬상부가 촬상한 유저의 눈의 화상과, 상기 표시 위치마다 마커 화상을 주시하는 유저의 눈을 포함하는 화상 각각에 근거하여, 유저의 시선 방향을 검출하는 시선 검출부를 더욱 구비하는 것을 특징으로 하는 시선 검출 시스템.
The method of claim 2,
Wherein the marker image output unit changes the display position of the marker image to any one of a plurality of predetermined coordinate positions and outputs the marker image,
The visual-
Further comprising a line of sight detecting unit for detecting a line of sight of the user based on each of the images of the user's eye captured by the image pickup unit and the image including the user's eye watching the marker image for each of the displayed positions Eye detection system.
청구항 3에 있어서,
상기 시선 검출 시스템은,
상기 마커 화상을 주시하고 있는 유저의 눈을 포함하는 화상이, 상기 시선 검출부에 의한 시선 검출용의 화상으로서 사용 가능한지 여부를 판정하는 판정부를 더욱 구비하고,
상기 판정부가, 시선 검출용의 화상으로서 사용할 수 없다고 판정한 경우에, 상기 마커 화상 출력부는, 당해 판정에 대응하는 화상을 촬상했을 때에 표시하고 있던 마커 화상의 표시 위치를, 상기 표시부의 중앙 근처로 변경하여 표시시키며,
상기 촬상부는, 표시 위치를 변경한 마커 화상을 주시하는 유저의 눈을 촬상하고,
상기 판정부는, 다시 촬상된 비교 화상을 시선 검출용의 화상으로서 사용 가능한지 여부를 판정하는 것을 특징으로 하는 시선 검출 시스템.
The method of claim 3,
The line-of-
Further comprising a determination unit that determines whether or not an image including eyes of a user who is watching the marker image is usable as an image for sight line detection by the sight line detection unit,
When the determination unit determines that the image can not be used as the image for line-of-sight detection, the marker image output unit displays the display position of the marker image displayed when the image corresponding to the determination is captured, And,
Wherein the imaging unit captures an image of a user who watches a marker image in which the display position is changed,
Wherein the judging section judges whether or not the comparison image picked up again is usable as the image for line-of-sight detection.
청구항 4에 있어서,
상기 판정부는,
상기 촬상부가 촬상한 유저의 눈의 화상에 근거하여, 당해 유저가 표시되어 있는 마커 화상을 주시하고 있는지 여부를 더욱 판정하고,
상기 시선 검출 시스템은,
유저가 마커 화상을 주시하고 있지 않다고 판정한 경우에, 유저에게 마커 화상을 주시하도록 알리는 알림부를 더욱 구비하는 것을 특징으로 하는 시선 검출 시스템.
The method of claim 4,
The judging unit judges,
The image pickup unit further determines whether or not the user is watching the displayed marker image based on the image of the user's eye captured,
The line-of-
Further comprising a notifying unit for informing the user to watch the marker image when it is determined that the user is not watching the marker image.
청구항 5에 있어서,
상기 판정부가 상기 유저가 표시되어 있는 마커 화상을 주시하고 있다고 판정한 경우에, 상기 마커 화상 출력부는, 마커 화상의 표시 위치를 변경하는 것을 특징으로 하는 시선 검출 시스템.
The method of claim 5,
Wherein the marker image output unit changes the display position of the marker image when the determination unit determines that the user is watching the displayed marker image.
KR1020170067659A 2016-05-31 2017-05-31 Gaze detection system KR20170135762A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016109081 2016-05-31
JPJP-P-2016-109081 2016-05-31
JP2016224435A JP2017215928A (en) 2016-05-31 2016-11-17 Gaze detection system
JPJP-P-2016-224435 2016-11-17

Publications (1)

Publication Number Publication Date
KR20170135762A true KR20170135762A (en) 2017-12-08

Family

ID=60575787

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170067659A KR20170135762A (en) 2016-05-31 2017-05-31 Gaze detection system

Country Status (3)

Country Link
JP (1) JP2017215928A (en)
KR (1) KR20170135762A (en)
TW (1) TW201802642A (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6958507B2 (en) * 2018-07-31 2021-11-02 株式会社Jvcケンウッド Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
JP7277151B2 (en) * 2019-01-21 2023-05-18 キヤノン株式会社 image forming device
JP6943913B2 (en) * 2019-03-18 2021-10-06 Necプラットフォームズ株式会社 Information display system and wearable device
WO2020203645A1 (en) * 2019-03-29 2020-10-08 ホヤ レンズ タイランド リミテッド Measuring method for measuring rotation characteristic of eyeball of subject and setting method for progressive power lens
WO2021060218A1 (en) * 2019-09-25 2021-04-01 株式会社Jvcケンウッド Display device, display system, and display adjustment method
JP7338362B2 (en) * 2019-09-25 2023-09-05 株式会社Jvcケンウッド Display device, display system, display adjustment method and display adjustment program
WO2021256310A1 (en) * 2020-06-18 2021-12-23 ソニーグループ株式会社 Information processing device, terminal device, information processing system, information processing method, and program
JP7034228B1 (en) * 2020-09-30 2022-03-11 株式会社ドワンゴ Eye tracking system, eye tracking method, and eye tracking program
JP2022113973A (en) * 2021-01-26 2022-08-05 セイコーエプソン株式会社 Display method, display device, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216123A (en) * 2011-04-01 2012-11-08 Brother Ind Ltd Head-mounted display and program used therefor
KR20130019546A (en) * 2011-08-17 2013-02-27 국방과학연구소 The distance measurement system between a real object and a virtual model using aumented reality
JP2013248177A (en) * 2012-05-31 2013-12-12 Jvc Kenwood Corp Line-of-sight detecting apparatus and line-of-sight detecting method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08140933A (en) * 1994-11-18 1996-06-04 Browning Johannes Inspection device and method for visual sense function
JPH08321973A (en) * 1995-05-24 1996-12-03 Canon Inc Visual line input device
JP2004337348A (en) * 2003-05-15 2004-12-02 New Opto Corp Eye movement analysis system
GB0915136D0 (en) * 2009-08-28 2009-10-07 Cambridge Entpr Ltd Visual perimeter measurement system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216123A (en) * 2011-04-01 2012-11-08 Brother Ind Ltd Head-mounted display and program used therefor
KR20130019546A (en) * 2011-08-17 2013-02-27 국방과학연구소 The distance measurement system between a real object and a virtual model using aumented reality
JP2013248177A (en) * 2012-05-31 2013-12-12 Jvc Kenwood Corp Line-of-sight detecting apparatus and line-of-sight detecting method

Also Published As

Publication number Publication date
JP2017215928A (en) 2017-12-07
TW201802642A (en) 2018-01-16

Similar Documents

Publication Publication Date Title
KR20170135762A (en) Gaze detection system
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6144681B2 (en) Head mounted display with iris scan profiling function
KR101862499B1 (en) Viewpoint detecting system, point of gaze determining method and point of gaze determining program
US9122321B2 (en) Collaboration environment using see through displays
KR20180002534A (en) External imaging system, external imaging method, external imaging program
KR101883090B1 (en) Head mounted display
US20140152558A1 (en) Direct hologram manipulation using imu
CN111630477A (en) Apparatus for providing augmented reality service and method of operating the same
KR20150123226A (en) Wearable behavior-based vision system
CN103984097A (en) Head mounted display, control method for head mounted display, and image display system
US11487354B2 (en) Information processing apparatus, information processing method, and program
KR20180021885A (en) Techniques for displaying text more efficiently in a virtual image generation system
WO2020139736A1 (en) Headset adjustment for optimal viewing
JP6554948B2 (en) Display device, display device control method, and program
KR20180004112A (en) Eyeglass type terminal and control method thereof
KR20180012713A (en) Eye-gaze detection system, displacement detection method, and displacement detection program
JP6135162B2 (en) Head-mounted display device, head-mounted display device control method, and image display system
JP6631014B2 (en) Display system and display control method
JP2018000308A (en) Image display device system, heart beat specification method, and heart beat specification program
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
KR20190038296A (en) Image display system, image display method, and image display program
JP6740613B2 (en) Display device, display device control method, and program
JP2015087523A (en) Head-mounted display device, method for controlling head-mounted display device, and image display system
JP2016090853A (en) Display device, control method of display device and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right