WO2022079584A1 - 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ - Google Patents

視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ Download PDF

Info

Publication number
WO2022079584A1
WO2022079584A1 PCT/IB2021/059328 IB2021059328W WO2022079584A1 WO 2022079584 A1 WO2022079584 A1 WO 2022079584A1 IB 2021059328 W IB2021059328 W IB 2021059328W WO 2022079584 A1 WO2022079584 A1 WO 2022079584A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
eyeball
specified
sight
cornea
Prior art date
Application number
PCT/IB2021/059328
Other languages
English (en)
French (fr)
Inventor
チェルニャクヤコブ
チェルニャクグレゴリー
Original Assignee
フォーブ インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フォーブ インコーポレーテッド filed Critical フォーブ インコーポレーテッド
Priority to JP2022557219A priority Critical patent/JPWO2022079584A1/ja
Priority to US18/248,847 priority patent/US20240192771A1/en
Publication of WO2022079584A1 publication Critical patent/WO2022079584A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Definitions

  • the present invention relates to a line-of-sight detection device for detecting the line-of-sight direction, a line-of-sight detection program, and a head-mounted display.
  • a head-mounted display is a video providing device that provides a stereoscopic image to a user inside a housing that covers the user's head.
  • a device configured to change a stereoscopic image, such as providing a line-of-sight detector for detecting the line-of-sight direction of a user and increasing the resolution of only the image in the line-of-sight direction.
  • a line-of-sight detector for detecting the line-of-sight direction of a user and increasing the resolution of only the image in the line-of-sight direction.
  • the detection of the user's line of sight is performed by irradiating the eye with infrared light and detecting the position of the bright spot of the light in the image of the eye irradiated with the infrared light.
  • it is required to irradiate a plurality of irradiation lights from a plurality of light sources and observe a plurality of bright spots on the cornea.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a line-of-sight detection device in the line-of-sight direction even when a plurality of bright spots cannot be observed on the cornea.
  • the line-of-sight detection device includes a plurality of light sources that irradiate the eye with light, an image pickup device that captures an image of the eye, and a processor.
  • the processor is used.
  • (1-1) The central position of the cornea is specified based on the plurality of bright spots, and the center position of the cornea is specified.
  • the position of the pupil of the eye is specified based on the image of the image pickup device, and the position is specified.
  • the line-of-sight direction is specified based on the center position of the cornea and the position of the pupil.
  • the processor when the state of the bright spot observed on the cornea of the eye based on the plurality of light sources is the second state, the processor is used.
  • the shape of the eyeball is specified according to the data of the radius of the eyeball and the center position of the eyeball stored in the storage unit.
  • the line-of-sight direction is specified from the image of the image pickup device and the center position of the eyeball.
  • the present invention it is possible to provide a line-of-sight detection device in the line-of-sight direction even when a plurality of bright spots cannot be observed on the cornea.
  • FIG. 1 is a diagram schematically showing an overview of the video system 1.
  • the video system 1 according to the first embodiment includes a head-mounted display 100 and a video playback device 200.
  • the head-mounted display 100 may be a shield-type head-mounted display that is worn and used on the user's head.
  • the video reproduction device 200 generates image data displayed by the head-mounted display 100, and transmits the image data to the head-mounted display 100 by wired or wireless communication.
  • the video reproduction device 200 is a device capable of reproducing images of a personal computer, a stationary game machine, a portable game machine, a tablet terminal, a smartphone, a phablet, a video player, a television, or the like.
  • the wireless connection between the video reproduction device 200 and the head-mounted display 100 can be realized by using, for example, known wireless communication techniques such as Wi-Fi (registered trademark), Bluetooth (registered trademark), and infrared communication. Further, the transmission of the image between the head-mounted display 100 and the video reproduction device 200 is performed according to a standard such as Miracast (trademark), WiGig (trademark), WHDI (trademark), or Ethernet (trademark).
  • the video reproduction device 200 may be integrated with the head-mounted display 100 or may be built in the head-mounted display 100.
  • the head-mounted display 100 includes a housing 110, a head fixing unit 120, a headphone 130, and an image display unit 140.
  • the housing 110 houses a transmission module and various sensors in addition to the video display unit 140.
  • the head fixing portion 120 is a member that attaches the head-mounted display 100 to the user's head.
  • the headphone 130 outputs the sound of the image reproduced by the video reproduction device 200.
  • the head-mounted display 100 may be provided with a gyro sensor or the like for detecting the tilting direction of the head-mounted display 100.
  • the video reproduction device 200 can change the display state of the image according to the detection result of the gyro sensor.
  • the video display unit 140 is housed in the housing 110 and displays the video transmitted from the video reproduction device 200.
  • FIG. 2 is a perspective view schematically showing the configuration of the image display unit 140
  • FIG. 3 is a schematic cross-sectional view thereof
  • FIG. 4 is a block diagram showing the configuration of the main parts of the head-mounted display 100 and the video reproduction device 200.
  • the image display unit 140 presents an image to each of the left and right eyes E (EL, ER) of the user, whereby it is possible to present a stereoscopic image to the user.
  • the image display unit 140 includes an infrared light source 141 (141a to c), an objective lens 142, a half mirror 143, a camera 144, a hot mirror 145, and a display 146. Since the configuration of the image display unit 140 is the same for the left and right eyes E, only the configuration on one of the left and right sides will be described below.
  • the infrared light source 141 is a light source for detecting the positions of the center of the pupil and the center of the cornea of the eye, and further detecting the position of the center of the eyeball, and is used for detecting the line of sight of the eye E, and is near infrared. It is a light source capable of irradiating light in a wavelength band of (about 780 nm to 2500 nm). At least three infrared light sources 141 are provided. Here, as an example, it is assumed that three infrared light sources 141a to 141c are provided (infrared light sources 141c are not shown in FIG. 3). In the following, the infrared light sources 141a to 141 may be collectively referred to as "infrared light source 141".
  • the objective lens 142 is provided so as to be arranged in front of the user's eye E when the head-mounted display 100 is used.
  • the infrared light sources 141a to 141c can be provided around the objective lens 142.
  • the three infrared light sources 141a to 141 are provided at positions that are not at least line-symmetrical with respect to the optical axis of the objective lens 142, and are preferably arranged around the optical axis at substantially uniform angles.
  • a half mirror 143 and a hot mirror 145 are provided in the optical path between the objective lens 142 and the display 146.
  • the half mirror 143 transmits a part of the light from the eye E and reflects the rest.
  • a camera 144 is provided in the optical path on the reflection side of the half mirror 143, and a hot mirror 145 is provided in the optical path on the transmission side.
  • the camera 144 is an imaging device that captures an image of the eye E on which light from the infrared light sources 141a to 141c is projected and a bright spot is formed based on the light.
  • the image of the eye containing this bright spot is used for detecting the position of the center of the pupil and the center of the cornea of the eye, and thus the direction of the line of sight.
  • the display 146 is a video display device for displaying an image transmitted from the video reproduction device 200, and can be realized by using, for example, a known liquid crystal display or an organic EL display.
  • the hot mirror 145 has a characteristic that the visible light emitted by the display 146 is transmitted, while the near infrared light is reflected.
  • the infrared light that reaches the user's eye E from the infrared light sources 141a to c is reflected by the eye E and heads in the direction of the objective lens 142.
  • a part of the light transmitted through the objective lens 142 is reflected by the half mirror 143 and incident on the camera 144.
  • the camera 144 may include a filter (not shown) that blocks visible light.
  • the head-mounted display 100 includes a control unit 101 and a communication unit 102 in addition to the infrared light source 141, the camera 144, and the display 146.
  • the control unit 101 controls the entire head-mounted display 100 including the infrared light source 141, the camera 144, and the display 146.
  • the communication unit 102 controls data communication with the video reproduction device 200.
  • the video reproduction device 200 includes a control unit 201 (processor) for controlling the detection unit 203 and the video generation unit 204, and also includes a communication unit 202 that controls data communication with the head-mounted display 100. ..
  • the communication unit 202 communicates with the communication unit 102 in the head-mounted display 100, receives various data obtained by the head-mounted display 100 and supplies it to the control unit 201, and conversely, the video reproduction device 200.
  • the data obtained in the above is transmitted to the head-mounted display 100.
  • the video reproduction device 200 includes a detection unit 203 and a video generation unit 204.
  • the detection unit 203 is based on the image of the eye E captured by the camera 144 in a state where the infrared light from the infrared light sources 141a to 141 is projected onto the eye E, and the center of the pupil of the user's eye and the center of the cornea. The position and the position of the center of the eyeball are detected. Then, the detection unit 203 detects the line-of-sight direction of the eye E based on the data of the positions of the center of the pupil, the center of the cornea, and / or the center of the eyeball. The detection unit 203 adopts a detection method in a different line-of-sight direction according to the number of bright spots of the infrared light sources 141a to c that can be observed on the cornea of the eye E.
  • the detection unit 203 identifies the center position of the pupil and the center position of the cornea. Is identified, thereby detecting the line-of-sight vector. Further, the line-of-sight vector is detected at different time intervals, and the position of the center of the eyeball is detected based on the position of the intersection of the line-of-sight vectors. When the center position of the eyeball is detected, the radius data of the eyeball is also calculated based on the detected data of the center position of the pupil.
  • the detection unit 203 determines the position of the center of the eyeball stored in the storage unit and the radius of the eyeball.
  • the eyeball model data is generated using the data of the above, and the position of the pupil is further specified. Then, the vector from the position of the center of the eyeball toward the center of the pupil is detected as the line-of-sight vector, that is, the line-of-sight direction. This point will be described in detail later.
  • the video playback device 200 may be a personal computer, a stationary game machine, a portable game machine, a tablet terminal, a smartphone, a phablet, a video player, or the like.
  • the detection unit 203 can be realized by, for example, an image signal processor (ISP: Image Signal Processor) included in a personal computer or the like, and an image processing program stored in a storage device.
  • the image processing program may be stored in a built-in storage device such as ROM or RAM, or may be stored in a portable storage device such as a memory card, DVD-RAM, or CD-ROM.
  • the control unit 101 of the head-mounted display 100 may execute a program for realizing the line-of-sight detection unit.
  • the control unit (processor) 201 of the video reproduction device 200 may execute a program that realizes the line-of-sight detection unit.
  • the image generation unit 204 has a function of generating an image to be displayed on the display 146 according to a detection signal of a gyro sensor (not shown) or the like. In addition to the output of the gyro sensor or the like, the image generation unit 204 may change the image to be generated according to the detection result of the detection unit 203 described above.
  • the human eye E has an eyeball B having an eyeball center Bc and a cornea C formed in a part of the eyeball B.
  • the cornea C has a radius (corneal radius) different from that of the eyeball B, and its curvature is determined by the corneal center Cc.
  • the inside of the cornea C contains an iris, and the hole formed in the center of the iris is the pupil P.
  • the pupil center Pc, the corneal center Cc, and the eyeball center Bc, which are the centers of the pupil P, are aligned on one straight line Ls.
  • the straight line Ls is the line-of-sight direction of the eye E.
  • the line-of-sight direction (straight line Ls) of the eye E can be specified by specifying the eyeball center Bc, the pupil center Pc, and the corneal center Cc.
  • the user's head is fixed to the head-mounted display 100.
  • the line-of-sight direction of the eye E changes as the eyeball B rotates about the center of the eyeball Bc.
  • the positions of the pupil center Pc (Pc0 to 2) and the corneal center Cc (Cc0 to 2) are specified at a plurality of different timings, and the pupil center Pc is further specified.
  • the straight line Ls (Ls0 ⁇ 2) connecting the cornea center Cc and the corneal center Cc is specified.
  • the intersection of the plurality of straight lines Ls thus specified is specified as the center of the eyeball Bc. Further, the difference (distance) between the center Bc of the eyeball and the center Pc of the pupil is specified as the radius Re of the eyeball B. It should be noted that the plurality of straight lines Ls may not intersect at one point. In this case, the nearest point (nearest point) may be calculated from a plurality of straight lines Ls by using the least squares method or the like to obtain the center of the eyeball Bc. The position of the center of the eyeball Bc is estimated to be constant as long as the user's head does not shift with respect to the head-mounted display 100. Therefore, in the present embodiment, the position information of the specified eyeball center Bc is stored in the storage unit and used for the subsequent specification of the line-of-sight direction.
  • the detection unit 203 employs different line-of-sight detection methods according to the number of bright spots of the infrared light sources 141a to 141 that can be observed on the cornea of the eye E.
  • step S11 When the image of the eye E is imaged by the camera 144 in the state of projecting the light from the infrared light sources 141a to 141 (step S11), the detection unit 203 is the bright spot formed on the cornea C in the image. Count the numbers (step S12). When three bright spots are confirmed on the cornea C, the process proceeds to step S21. On the other hand, when the number of bright spots observed on the cornea C is 2 or less, the process proceeds to step S31.
  • step S21 the detection unit 203 analyzes the positions of the three confirmed bright spots and calculates the position of the corneal center Cc of the cornea C.
  • step S22 the detection unit 203 identifies the pupil P in the image captured by the camera 144, and calculates the position of the pupil center Pc.
  • step S23 the straight line Ls connecting the corneal center Cc and the pupil center Pc calculated in step S21 and step S22 is calculated as the line-of-sight direction of the eye E.
  • the calculated line-of-sight direction is output to the control unit 201.
  • the control unit 201 executes various controls on the head-mounted display 100 and the video reproduction device 200 according to the obtained data in the line-of-sight direction.
  • the data of the straight line Ls indicating the line-of-sight direction is calculated at a predetermined time interval and stored in the memory (not shown) of the detection unit 203. For example, at times t0, t1, t2 ..., Data of different straight lines Ls0, Ls1, Ls2 ... Are calculated and stored.
  • step S24 it is determined whether or not the radius Re of the eyeball B is known and is already stored in the memory (not shown) possessed by the detection unit 203. If the radius of the eyeball B is not known and is not stored in the memory (No), the process proceeds to step S25, and the radius Re of the eyeball B is calculated according to the above-mentioned data of the plurality of straight lines Ls. Specifically, as shown in FIG. 6, data of three or more straight lines Ls (Ls0 to Ls2) are obtained, and the intersections or the nearest points of the three or more straight lines Ls are obtained to obtain the data of the eyeball B. Find the position of the center of the eyeball Bc.
  • the radius Re of the eyeball B can be obtained from the relationship with the position of the pupil center Pc.
  • the position data of the eyeball center Bc of the eyeball B thus obtained and the value of the radius Re are stored in the memory of the detection unit 203.
  • step S25 is omitted.
  • step S25 is periodically executed, and the data of the radius Re of the eyeball and the center Bc of the eyeball are newly added. It may be calculated and the stored data in the memory may be updated.
  • step S12 the operation when the number of bright spots observed on the cornea C is 3 in step S12, but the operation when the number of bright spots observed is 2 or less (step).
  • step S31 to S33) will be described below.
  • a plurality of (for example, three) infrared light sources 141a to c are used, it is not always possible to observe a plurality of bright spots on the cornea C at all times. In this case, the central position of the cornea C cannot be specified, and it becomes difficult to detect the line-of-sight direction based on this.
  • the eyeball center Bc is specified in advance, the position data is stored in the memory, and the line-of-sight direction is detected based on the eyeball center Bc and the position data of the pupil center Pc. Can be done.
  • the procedure (steps S31 to 33) will be described.
  • step S31 the position of the eyeball center Bc, which is the shape data of the eyeball B stored in the memory of the detection unit 203, and the radius Re of the eyeball B are read out.
  • the detection unit 203 generates the shape data Me of the eyeball B based on the read position data of the eyeball center Bc and the radius Re.
  • step S32 the position data of the pupil center Pc of the pupil P is calculated according to the image captured by the camera 144.
  • step S33 the data of the straight line Ls connecting the center of the eyeball Bc and the center of the pupil Pc is calculated (see FIG. 8C), and this straight line Ls is specified as the line-of-sight direction.
  • step S12 the detection method in the line-of-sight direction is switched depending on whether or not three or more bright spots are observed on the cornea C. Needless to say, a plurality of detection methods may be switched based on the above criteria.
  • the system of the first embodiment light is projected from a plurality of infrared light sources, and the position of the corneal center Cc is determined based on the plurality of bright spots formed on the cornea C. Further, the line-of-sight direction can be detected by determining the position of the pupil center Pc. Then, even when a plurality of bright spots cannot be observed on the cornea C, the line-of-sight direction can be detected according to the data of the center of the eyeball Bc and the data of the center of the pupil Pc stored in advance. Therefore, according to the present embodiment, it is possible to accurately detect the line-of-sight direction regardless of changes in the situation.
  • FIG. 9 is a flowchart showing a procedure when the line-of-sight detection operation is executed in the video system 1. Since the overall configuration of the video system of the second embodiment is substantially the same as that of the first embodiment (FIGS. 1 to 4), overlapping description will be omitted.
  • step S24 of FIG. 7 is omitted, the calculation of the eyeball radius Re is executed every time regardless of whether or not the eyeball radius Re is known, and the eyeball radius Re is executed. And the data of the position of the center of the eyeball Bc is updated. The same effect as that of the first embodiment can be obtained by this second embodiment as well.
  • FIG. 10 is a flowchart showing a procedure when the line-of-sight detection operation is executed in the video system 1. Since the overall configuration of the video system of the third embodiment is substantially the same as that of the first embodiment (FIGS. 1 to 4), overlapping description will be omitted.
  • the procedure for detecting the pupil center Pc is different from that in the first embodiment (FIG. 7).
  • the operations of the blocks with the same step numbers as those in FIG. 7 are the same, and thus the description thereof will be omitted below.
  • step S22 the position of the pupil center Pc is detected in step S22, but the operation differs depending on whether the detection is successful or unsuccessful. If successful (Yes in step S41), the line-of-sight detection procedure proceeds in the same manner as in the first embodiment (steps S23 to S26). On the other hand, if it fails (No in step S41), it is determined whether or not the center of the eyeball Bc is known (step S42). If known (Yes), instead of performing gaze detection based on the pupil center Pc and corneal center Cc, gaze detection based on the eyeball center Bc and corneal center Cc is performed (step S23). If it is not known, since the information for detecting the line of sight is insufficient, the line of sight is not detected and the process returns to step S11.
  • FIG. 11 is a flowchart showing a procedure when the line-of-sight detection operation is executed in the video system 1
  • FIG. 12 is a schematic diagram showing the operation of the fourth embodiment. Since the overall configuration of the video system of the fourth embodiment is substantially the same as that of the first embodiment (FIGS. 1 to 4), overlapping description will be omitted.
  • the operation after it is determined that the number of bright spots is less than 3 is the first embodiment (the first embodiment). It is different from FIG. 7).
  • the line-of-sight direction is detected based on the shape data BS of the eyeball and the direction Dr of the line toward the eyeball. ..
  • the operations of the blocks with the same step numbers as those in FIG. 7 are the same, the description thereof will be omitted below.
  • the position of the pupil center CP in the camera 144 is detected as shown in FIG. 12, and the lens 142 or the like is subjected to the detection information.
  • the direction Dr of the line from the camera 144 to the center of the pupil CP via the optical system is analyzed (step S32A).
  • the direction Dr from the camera 144 toward the pupil center CP can be calculated from the 2D pupil center in the 2D image taken by the camera 144. From the center of the eyeball Bc, the direction Gd toward the intersection of the direction Dr of this line and the shape data BS of the eyeball is specified as the line-of-sight direction.
  • the direction Dr of the line toward the center of the pupil CP is analyzed, and the line-of-sight direction is analyzed according to this direction Dr and the shape data of the eyeball.
  • This method can also obtain the same effect as that of the above-described embodiment.
  • the present invention is not limited to the above-mentioned examples, and includes various modifications.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • the line-of-sight detection device is mounted in a video system having a head-mounted display 100
  • the scope of application of the line-of-sight detection device of the present invention is not limited thereto. It can be applied to various devices and systems that can use the line-of-sight detection function.
  • the processor in the line-of-sight detection device executes a line-of-sight detection program or the like to specify the line-of-sight direction of the user, but the line-of-sight detection device is formed in an integrated circuit. It may be realized by hardware such as a logic circuit or a dedicated circuit. Further, these circuits may be realized by one or a plurality of integrated circuits, and the functions of the plurality of functional units shown in the above embodiment may be realized by one integrated circuit.
  • the line-of-sight detection program may be recorded on a recording medium readable by the processor, and the recording medium may be a "non-temporary tangible medium" such as a tape, a disk, a card, a semiconductor memory, or a programmable logic. A circuit or the like can be used.
  • Video system 100 ... Head-mounted display, 101 ... Control unit, 102 ... Communication unit, 110 ... Housing, 120 ... Head-fixed unit, 130 ... Headphones, 140 ... Video display unit, 141, 141a ⁇ c ... Red External light source, 142 ... Objective lens, 143 ... Half mirror, 144 ... Camera, 145 ... Hot mirror, 146 ... Display, 200 ... Video playback device, 201 ... Control unit (processor), 202 ... Communication unit, 203 ... Detection unit, 204 ... image generator, B ... eyeball, Bc ... eyeball center, C ... cornea, Cc ... corneal center, E ... eye, Ls ... straight line, Me ... shape data, P ... pupil, Pc ... pupil center, Re ... eyeball radius .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[課題] 複数個の輝点が角膜上で観察できない場合においても視線方向の視線検出装置を提供する。 [解決手段]この視線検出装置において、プロセッサは、複数の光源から照射される光に基づいて眼の角膜上で観察される輝点の状態が第1の状態である場合には、 (1-1)複数の輝点に基づいて角膜の中心位置を特定し、 (1-2)撮像装置の画像に基づいて眼の瞳孔の位置を特定し、 (1-3)角膜の中心位置及び瞳孔の位置に基づいて視線方向を特定する。 一方、プロセッサは、複数の光源に基づいて眼の角膜上で観察される輝点の状態が第2の状態である場合には、 (2-1)記憶部に記憶された眼球の半径及び眼球の中心位置のデータに従い、眼球の形状を特定し、 (2-2)撮像装置の画像及び眼球の中心位置から視線方向を特定する。

Description

視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ
 本発明は、視線方向を検出する視線検出装置、視線検出プログラム及びヘッドマウントディスプレイに関する。
 現在、ゲームや映像において仮想現実(VR)を提供するため、立体画像を提供することが可能なヘッドマウントディスプレイの普及が加速している。ヘッドマウントディスプレイは、ユーザの頭部を覆う筐体の内部においてユーザに対し立体画像を提供する映像提供装置である。このようなヘッドマウントディスプレイにおいては、ユーザの視線方向を検出する視線検出器を設け、その視線方向の映像のみを高解像度化するなど、立体画像を変化させるように構成された装置も知られている(例えば、特許文献1参照)。
 ユーザの視線の検出は、赤外光を眼に照射し、赤外光で照射された眼の画像における光の輝点の位置を検出することにより行われる。このとき、視線方向を正確に把握するためには、複数の光源から複数の照射光を照射し、角膜上で複数の輝点を観察することが求められる。
 しかし、複数の光源を用いたとしても、複数個の輝点を常時角膜上で観察することは難しい。例えば、まばたきや、ヘッドマウントディスプレイの筐体のブレなどにより、複数個の輝点のうちの幾つかは角膜の外に投影され、視線検出のための情報として利用できない状況生じ得る。その場合、視線方向を正確に検出することができず、ヘッドマウントディスプレイに関し所望の動作を行なうことができない。
特開2001−134371号公報
 本発明は、上記の問題に鑑みてなされたものであり、複数個の輝点が角膜上で観察できない場合においても視線方向の視線検出装置を提供することを目的とする。
 上記目的の達成のため、本発明に係る視線検出装置は、眼に対し光を照射する複数の光源と、前記眼の画像を撮像する撮像装置と、プロセッサとを備える。前記プロセッサは、前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第1の状態である場合には、
 (1−1)複数の前記輝点に基づいて前記角膜の中心位置を特定し、
 (1−2)前記撮像装置の画像に基づいて前記眼の瞳孔の位置を特定し、
 (1−3)前記角膜の中心位置及び前記瞳孔の位置に基づいて前記視線方向を特定する。一方、前記プロセッサは、前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第2の状態である場合には、
 (2−1)記憶部に記憶された前記眼球の半径及び前記眼球の中心位置のデータに従い、前記眼球の形状を特定し、
 (2−2)前記撮像装置の画像及び前記眼球の中心位置から前記視線方向を特定する。
 本発明によれば、複数個の輝点が角膜上で観察できない場合においても視線方向の視線検出装置を提供することができる。
第1の実施の形態の映像システム1の概観を模式的に示す図である。
第1の実施の形態の映像表示部140の構成を模式的に示す斜視図である。
第1の実施の形態の映像表示部140の構成を模式的に示す概略断面図である。
第1の実施の形態のヘッドマウントディスプレイ100及び映像再生装置200の主要部の構成を示すブロック図である。
第1の実施の形態による検出部203を用いて視線方向を検出する方法を説明する概略図である。
第1の実施の形態による検出部203を用いて視線方向を検出する方法を説明する概略図である。
第1の実施の形態による検出部203を用いて視線方向を検出する方法を説明するフローチャートである。
第1の実施の形態による検出部203を用いて視線方向を検出する方法を説明する概略図である。
第2の実施の形態による検出部203を用いて視線方向を検出する方法を説明するフローチャートである。
 以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。
 本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。
[第1の実施の形態]
 図1を参照して、第1の実施の形態に係る映像システム1を説明する。図1は、映像システム1の概観を模式的に示す図である。第1の実施の形態に係る映像システム1は、ヘッドマウントディスプレイ100と映像再生装置200とを含む。図1に示すように、ヘッドマウントディスプレイ100は、ユーザの頭部に装着して使用される遮蔽型のヘッドマウントディスプレイであり得る。
 映像再生装置200は、ヘッドマウントディスプレイ100が表示する画像データを生成し、その画像データをヘッドマウントディスプレイ100に有線又は無線通信により送信する。一例として、映像再生装置200は、パソコン、据え置き型のゲーム機、携帯ゲーム機、タブレット端末、スマートフォン、ファブレット、ビデオプレイヤ、テレビ等の画像を再生することができる装置である。
 映像再生装置200とヘッドマウントディスプレイ100との無線接続は、例えば既知のWi−Fi(登録商標)、Bluetooth(登録商標)、赤外線通信等の無線通信技術を用いて実現できる。また、ヘッドマウントディスプレイ100と映像再生装置200との間における画像の伝送は、Miracast(商標)、WiGig(商標)、WHDI(商標)、又はイーサネット(商標)等の規格に則って実行される。映像再生装置200はヘッドマウントディスプレイ100と一体に構成されるか、ヘッドマウントディスプレイ100に内蔵されてもよい。
 ヘッドマウントディスプレイ100は、筐体110、頭部固定部120、ヘッドフォン130、及び映像表示部140を備える。筐体110は、後述するように、映像表示部140の他、伝送モジュール、各種センサを収容する。頭部固定部120は、ヘッドマウントディスプレイ100をユーザの頭部に装着する部材である。ヘッドフォン130は、映像再生装置200が再生する画像の音声を出力する。なお、図示は省略しているが、ヘッドマウントディスプレイ100は、ヘッドマウントディスプレイ100の傾斜方向等を検出するためのジャイロセンサ等を備えていても良い。映像再生装置200は、このジャイロセンサの検出結果に従って画像の表示状態を変更することができる。映像表示部140は、筐体110に収容され、映像再生装置200から送信された映像を表示する。
 図2は、映像表示部140の構成を模式的に示す斜視図であり、図3はその概略断面図である。また、図4は、ヘッドマウントディスプレイ100及び映像再生装置200の主要部の構成を示すブロック図である。
 図2に示すように、映像表示部140は、ユーザの左右の眼E(EL、ER)のそれぞれに対し画像を提示し、これにより、ユーザに対し立体画像を提示可能とされている。図3に示すように、映像表示部140は、赤外光源141(141a~c)、対物レンズ142、ハーフミラー143、カメラ144、ホットミラー145、及びディスプレイ146を備える。なお映像表示部140の構成は、左右の眼Eで同一であるので、以下では左右一方側の構成のみを説明する。
 赤外光源141は、眼の瞳孔の中心、角膜の中心の位置を検出し、更には眼球の中心の位置を検出し、眼Eの視線の検出に用いるための光源であって、近赤外(780nm~2500nm程度)の波長帯域の光を照射可能な光源である。赤外光源141は、少なくとも3個以上設けられる。ここでは一例として、赤外光源141a~cの3個が設けられるものとする(赤外光源141cは図3では図示を省略している)。なお、以下において、赤外光源141a~cを総称して「赤外光源141」ということがある。
 対物レンズ142は、ヘッドマウントディスプレイ100の使用時においてユーザの眼Eの正面に配置されるように設けられる。赤外光源141a~cは、対物レンズ142の周囲に設けることができる。ここで、3つの赤外光源141a~cは、対物レンズ142の光軸に関し少なくとも線対称でない位置に設けられ、好ましくは光軸の周りに略均等な角度で配置されるのが好ましい。
 対物レンズ142とディスプレイ146との間の光路には、ハーフミラー143、及びホットミラー145が設けられている。ハーフミラー143は、眼Eからの光の一部を透過し、残りを反射させる。ハーフミラー143の反射側の光路には、カメラ144が設けられ、透過側の光路にはホットミラー145が設けられている。
 カメラ144は、赤外光源141a~141cからの光が投影され当該光に基づく輝点が形成された眼Eの画像を撮像する撮像装置である。この輝点を含む眼の画像は、眼の瞳孔の中心及び角膜の中心の位置、ひいては視線方向の検出のために用いられる。ディスプレイ146は、映像再生装置200から送信された画像を表示するための映像表示デバイスであり、例えば既知の液晶ディスプレイや有機ELディスプレイを用いて実現できる。ホットミラー145は、ディスプレイ146が発する可視光は透過する一方、近赤外光は反射する特性を有する。
 赤外光源141a~cからユーザの眼Eに到達した赤外光は、眼Eで反射され、対物レンズ142の方向に向かう。対物レンズ142を透過した光の一部は、ハーフミラー143で反射され、カメラ144に入射する。カメラ144は可視光を遮断するフィルタ(図示せず)を備えていてもよい。
 図4のブロック図に示すように、ヘッドマウントディスプレイ100は、赤外光源141、カメラ144及びディスプレイ146に加え、制御部101及び通信部102を備えている。制御部101は、赤外光源141、カメラ144及びディスプレイ146を含むヘッドマウントディスプレイ100の全体を制御する。また、通信部102は、映像再生装置200との間でのデータ通信を司る。
 また、映像再生装置200は、検出部203や映像生成部204を制御するための制御部201(プロセッサ)を備えるとともに、ヘッドマウントディスプレイ100との間のデータ通信を司る通信部202を備えている。通信部202は、ヘッドマウントディスプレイ100内の通信部102との間で通信を行い、ヘッドマウントディスプレイ100で得られた各種データを受信して制御部201に供給すると共に、逆に映像再生装置200で得られたデータをヘッドマウントディスプレイ100に向けて送信する。また、映像再生装置200は、検出部203と映像生成部204を備えている。
 検出部203は、眼Eに赤外光源141a~cからの赤外光が投影された状態でカメラ144により撮像された眼Eの画像に基づき、ユーザの眼の瞳孔の中心、角膜の中心の位置、更には眼球の中心の位置を検出する。そして検出部203は、瞳孔の中心、角膜の中心、及び/又は眼球の中心の位置のデータに基づき、眼Eの視線方向を検出する。検出部203は、眼Eの角膜上で観察可能な赤外光源141a~cの輝点の数に従って、異なる視線方向の検出手法を採用する。
 3個の赤外光源141に基づく眼E上の3個の輝点の位置が観察可能である場合(第1の状態)、検出部203は、瞳孔の中心位置を特定すると共に角膜の中心位置を特定し、これにより視線ベクトルを検出する。更に異なる時間毎に視線ベクトルを検出し、この視線ベクトルの交点の位置に基づき、眼球の中心の位置を検出する。眼球の中心位置が検出された場合、更に検出済みの瞳孔の中心の位置のデータ等に基づいて眼球の半径のデータも演算される。
 一方、3個未満の輝点のみが眼Eの角膜上で観察可能である場合(第2の状態)、検出部203は、記憶部に記憶されている眼球の中心の位置、及び眼球の半径のデータを用いて眼球モデルデータを生成し、更に瞳孔の位置を特定する。そして、眼球の中心の位置から瞳孔の中心に向かうベクトルを視線ベクトルすなわち視線方向として検出する。この点については、後で詳しく説明する。
 なお、映像再生装置200は、上述のように、パソコン、据え置き型のゲーム機、携帯ゲーム機、タブレット端末、スマートフォン、ファブレット、ビデオプレイヤ等であり得る。検出部203は、例えば、パソコン等に含まれる画像信号プロセッサ(ISP:Image Signal Processor)と、記憶装置に記憶される画像処理プログラムとにより実現され得る。画像処理プログラムは、ROMやRAMなどの内蔵型の記憶装置に記憶されてもよいし、メモリーカードやDVD−RAM、CD−ROMなどの可搬型の記憶装置に記憶されてもよい。
 なお、ヘッドマウントディスプレイ100がメモリを備え、制御部101とメモリが計算リソースとして機能し得る場合には、ヘッドマウントディスプレイ100の制御部101が視線検出部を実現するプログラムを実行してもよい。同様に、検出部203の代わりに、映像再生装置200の制御部(プロセッサ)201が視線検出部を実現するプログラムを実行してもよい。
 映像生成部204は、ジャイロセンサ(図示せず)の検出信号等に従い、ディスプレイ146において表示すべき画像を生成する機能を有する。なお、映像生成部204は、ジャイロセンサ等の出力に加え、前述の検出部203の検出結果に従い、生成する映像を変更してもよい。
 次に、第1の実施の形態による検出部203を用いて視線方向を検出する方法につき、図5~図9を参照して説明する。
 図5に示すように、人間の眼Eは、眼球中心Bcを有する眼球Bと、眼球Bの一部に形成される角膜Cを有している。角膜Cは、眼球Bとは異なる半径(角膜半径)を有し、その曲率は角膜中心Ccにより定まる。また、角膜Cの内部には虹彩が含まれ、この虹彩の中央に形成される孔部が瞳孔Pである。この瞳孔Pの中心である瞳孔中心Pc、角膜中心Cc、及び眼球中心Bcは一本の直線Ls上に並ぶ。直線Lsが眼Eの視線方向となる。従って、眼Eの視線方向を検出する場合、眼球中心Bc、瞳孔中心Pc、及び角膜中心Ccを特定することにより、眼Eの視線方向(直線Ls)を特定することができる。
 図1に示すような映像システム1の場合、ユーザの頭部はヘッドマウントディスプレイ100に固定される。図6に示すように、眼Eの視線方向は、眼球Bが眼球中心Bcを中心として回転することにより変化すると考えられる。本実施の形態では、視線方向が時間の経過とともに変化する場合において、異なる複数のタイミングにおいて瞳孔中心Pc(Pc0~2)、角膜中心Cc(Cc0~2)の位置を特定し、更に瞳孔中心Pcと角膜中心Ccを結ぶ直線Ls(Ls0~2)を特定する。
 こうして特定された複数の直線Lsの交点が、眼球中心Bcとして特定される。また、眼球中心Bcと瞳孔中心Pcとの差(距離)が、眼球Bの半径Reとして特定される。なお、複数の直線Lsは1点で交わらないことが生じ得る。この場合、最小二乗法等を用いて、複数の直線Lsから最も近い点(最近傍点)を算出して、眼球中心Bcとしてもよい。なお、眼球中心Bcの位置は、ユーザの頭部がヘッドマウントディスプレイ100に対しズレることが無い限り、一定であると推定される。このため、本実施の形態では、特定された眼球中心Bcの位置情報を記憶部に記憶させ、その後の視線方向の特定のために使用する。
 次に、図7のフローチャートを参照して、本実施の形態に係る映像システム1における視線方向の検出の手順を説明する。この実施の形態では、前述したように、検出部203は、眼Eの角膜上で観察可能な赤外光源141a~cの輝点の数に従って、異なる視線方向の検出手法を採用する。
 赤外光源141a~cからの光を投影した状態で眼Eの画像がカメラ144において撮像されると(ステップS11)、検出部203は、画像中で角膜C上に形成されている輝点の数を計数する(ステップS12)。輝点が角膜C上で3点確認される場合、ステップS21に移行する。一方、角膜C上で観察される輝点の数が2点以下である場合、ステップS31に移行する。
 ステップS21では、検出部203は、確認された3つの輝点の位置を解析し、角膜Cの角膜中心Ccの位置を演算する。続くステップS22では、検出部203は、カメラ144で撮像された画像において瞳孔Pを特定し、その瞳孔中心Pcの位置を演算する。そして、ステップS23では、ステップS21、及びステップS22で演算された角膜中心Cc及び瞳孔中心Pcを結ぶ直線Lsを眼Eの視線方向として演算する。演算された視線方向は、制御部201に出力される。
 制御部201は、得られた視線方向のデータに従い、ヘッドマウントディスプレイ100及び映像再生装置200において各種の制御を実行する。視線方向を示す直線Lsのデータは、所定の時間間隔で演算され、検出部203のメモリ(図示せず)に記憶される。例えば、時刻t0、t1、t2・・・において、異なる直線Ls0、Ls1、Ls2・・・のデータが演算され、記憶される。
 続くステップS24では、眼球Bの半径Reが既知で、既に検出部203が有するメモリ(図示せず)に記憶されているか否かが判定される。眼球Bの半径が既知でなく、メモリに記憶されていない場合には(No)、ステップS25に移行し、前述の複数通りの直線Lsのデータに従い、眼球Bの半径Reを演算する。具体的には、図6に示すように、3通り以上の直線Ls(Ls0~Ls2)のデータを得て、その3本以上の直線Lsの交点、又は最近傍点を求めることで、眼球Bの眼球中心Bcの位置を求める。眼球中心Bcの位置が特定されると、瞳孔中心Pcの位置との関係から、眼球Bの半径Reが求められる。ステップS26では、こうして求められた眼球Bの眼球中心Bcの位置データ、及び半径Reの値を検出部203のメモリに記憶させる。
 一方、ステップS24で、眼球Bの半径Re及び眼球Bの眼球中心Bcの位置が既にメモリに記憶されている場合には(Yes)、ステップS25は省略される。ただ、眼球Bの半径Re及び眼球Bの中心Bcの位置が既にメモリに記憶されている場合であっても、定期的にステップS25を実行し、眼球半径Re及び眼球中心Bcのデータを新たに演算し、メモリの記憶データを更新してもよい。
 以上は、ステップS12で、角膜C上で観察される輝点の数が3個であった場合の動作であるが、観察される輝点の数が2個以下であった場合の動作(ステップS31~S33)を以下に説明する。上述したように、複数(例えば3個)の赤外光源141a~cを用いたとしても、複数個の輝点を常時角膜C上で観察できるとは限らない。この場合、角膜Cの中心位置を特定することができず、これに基づく視線方向の検出も困難になる。しかし、本実施の形態では、眼球中心Bcを予め特定し、その位置データをメモリに記憶しており、この眼球中心Bcと、瞳孔中心Pcの位置データとに基づいて、視線方向を検出することができる。以下、その手順(ステップS31~33)を説明する。
 ステップS31では、検出部203のメモリに記憶されている眼球Bの形状データである眼球中心Bcの位置、及び眼球Bの半径Reを読み出す。図8(a)に示すように、検出部203は、読み出された眼球中心Bcの位置データ、及び半径Reに基づいて眼球Bの形状データMeを生成する。
 続いて、ステップS32では、図8(b)に示すように、カメラ144の撮像画像に従い、瞳孔Pの瞳孔中心Pcの位置データを演算する。そして、ステップS33では、眼球中心Bcと瞳孔中心Pcを結ぶ直線Lsのデータを演算し(図8(c)参照)、この直線Lsを視線方向と特定する。
 なお、上記の説明では、赤外光源141は、左右の眼の各々について3個ずつ設けられているものとして説明した。ただし、これはあくまで一例であり、眼Eの各々について設けられる赤外光源の数は、4個以上であってもよい。また、上記の例では、ステップS12において、輝点が3個以上角膜C上で観察されるか否かにより、視線方向の検出手法の切替を行っているが、これも一例であって、他の基準に基づき、複数の検出手法を切り換えても良いことは言うまでもない。
 以上説明したように、第1の実施の形態のシステムでは、複数の赤外光源から光を投影し、角膜C上に形成される複数個の輝点に基づき角膜中心Ccの位置を判定し、更に瞳孔中心Pcの位置も判定することで、視線方向が検出可能とされている。そして、角膜C上で複数個の輝点が観察できない場合でも、予め記憶してある眼球中心Bcのデータと、瞳孔中心Pcのデータとに従い、視線方向を検出することができる。よって、本実施の形態によれば、状況の変化に拘わらず視線方向を正確に検出することが可能である。
[第2の実施の形態]
 次に、図9を参照して、第2の実施の形態に係る映像システム1を説明する。図9は、映像システム1において視線検出動作を実行する場合の手順を示すフローチャートである。第2の実施の形態の映像システムの全体構成は、第1の実施の形態(図1~図4)と略同一であるので、重複する説明は省略する。この第2の実施の形態では、図9に示すように、図7のステップS24を省略し、眼球半径Reが既知か否かに拘わらず、毎回眼球半径Reの計算を実行し、眼球半径Re及び眼球中心Bcの位置のデータを更新する。この第2の実施の形態によっても、第1の実施の形態と同様の効果を得ることができる。
[第3の実施の形態]
 次に、図10を参照して、第3の実施の形態に係る映像システム1を説明する。図10は、映像システム1において視線検出動作を実行する場合の手順を示すフローチャートである。第3の実施の形態の映像システムの全体構成は、第1の実施の形態(図1~図4)と略同一であるので、重複する説明は省略する。この第3の実施の形態における視線検出動作(図10)は、瞳孔中心Pcの検出に関する手順が第1の実施の形態(図7)と異なっている。図10において、図7と同じステップ番号を付されたブロックの動作は同一であるので、以下では説明は省略する。
 図10では、ステップS22において瞳孔中心Pcの位置を検出するが、検出が成功した場合と失敗した場合とで動作が異なっている。成功した場合(ステップS41のYes)には、第1の実施の形態と同様に視線検出の手順が進行する(ステップS23~S26)。一方、失敗した場合(ステップS41のNo)には、眼球中心Bcが既知であるか否かが判断される(ステップS42)。既知である場合には(Yes)、瞳孔中心Pcと角膜中心Ccに基づく視線検出を行う代わりに、眼球中心Bcと角膜中心Ccに基づく視線検出が実行される(ステップS23)。既知でなければ、視線検出をするための情報が不足しているので、視線検出は行わず、ステップS11に戻る。
 この第3の実施の形態によれば、瞳孔中心Pcの位置の検出が失敗した場合であっても、角膜中心Ccの位置が検出されており、眼球中心Bcの位置が得られていれば、視線検出を実行することができる。このため、前述の実施の形態に比べ、視線検出を行うことができる機会が増加し、ヘッドマウントディスプレイの所与の動作をより的確に実行することが可能になる。
[第4の実施の形態]
 次に、図11及び図12を参照して、第4の実施の形態に係る映像システム1を説明する。図11は、映像システム1において視線検出動作を実行する場合の手順を示すフローチャートであり、図12は、第4の実施の形態の動作を示す概略図である。第4の実施の形態の映像システムの全体構成は、第1の実施の形態(図1~図4)と略同一であるので、重複する説明は省略する。
 この第4の実施の形態における視線検出動作(図11)は、輝点の数が3点未満と判断された後(ステップS12のNoの判断の後)の動作が第1の実施の形態(図7)と異なっている。具体的にこの第3の実施の形態では、輝点の数が3点未満と判断された場合に、眼球の形状データBSと、眼球に向かう線の方向Drとに基づき、視線方向を検出する。図11において、図7と同じステップ番号を付されたブロックの動作は同一であるので、以下では説明は省略する。
 この第4の実施の形態では、ステップS31において眼球の形状データBSを生成した後、図12に示すように、カメラ144における瞳孔中心CPの位置を検出し、この検出情報に従い、レンズ142等の光学系を介してカメラ144から瞳孔中心CPに向かう線の方向Drを解析する(ステップS32A)。カメラ144から瞳孔中心CPに向けた方向Drは、カメラ144による2D画像における2Dの瞳孔中心から計算することができる。眼球中心Bcから、この線の方向Drと、眼球の形状データBSとの交点に向かう方向Gdが視線方向として特定される。
 以上説明したように、この第4の実施の形態によれば、瞳孔中心CPに向けた線の方向Drを解析し、この方向Drと眼球の形状データとに従って視線方向が解析される。この方法によっても、前述の実施の形態と同一の効果を得ることができる。
[その他]
 本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。例えば、上記の実施の形態では、視線検出装置をヘッドマウントディスプレイ100を有する映像システムにおいて搭載した例を主に説明したが、本発明の視線検出装置の適用範囲はこれに限定されるものではなく、視線検出機能を使用し得る様々な装置及びシステムに適用することが可能である。
 また、上記実施の形態においては、視線検出装置中のプロセッサが視線検出プログラム等を実行することにより、ユーザの視線方向等を特定することとしているが、視線検出装置は、集積回路に形成された論理回路や専用回路等のハードウエアによって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。
 また、上記視線検出プログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。
 1…映像システム、 100…ヘッドマウントディスプレイ、 101…制御部、 102…通信部、 110…筐体、 120…頭部固定部、 130…ヘッドフォン、 140…映像表示部、 141、141a~c…赤外光源、 142…対物レンズ、 143…ハーフミラー、 144…カメラ、 145…ホットミラー、 146…ディスプレイ、 200…映像再生装置、 201…制御部(プロセッサ)、 202…通信部、 203…検出部、 204…映像生成部、 B…眼球、 Bc…眼球中心、 C…角膜、 Cc…角膜中心、 E…眼、 Ls…直線、 Me…形状データ, P…瞳孔, Pc…瞳孔中心, Re…眼球半径。

Claims (14)

  1.  眼に対し光を照射する複数の光源と、
     前記眼の画像を撮像する撮像装置と、
     プロセッサと
    を備え、
     前記プロセッサは、
     前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第1の状態である場合には、
     (1−1)複数の前記輝点に基づいて前記角膜の中心位置を特定し、
     (1−2)前記撮像装置の画像に基づいて前記眼の瞳孔の位置を特定し、
     (1−3)前記角膜の中心位置及び前記瞳孔の位置に基づいて前記視線方向を特定し、
     前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第2の状態である場合には、
     (2−1)記憶部に記憶された前記眼球の半径及び前記眼球の中心位置のデータに従い、前記眼球の形状を特定し、
     (2−2)前記撮像装置の画像及び前記眼球の中心位置から前記視線方向を特定する
    ことを特徴とする視線検出装置。
  2.  前記プロセッサは、複数のタイミングで取得された前記視線方向のデータに従い、前記眼球の半径及び前記眼球の中心位置を特定し、前記記憶部に記憶させるよう構成された、請求項1に記載の視線検出装置。
  3.  前記プロセッサは、前記眼球の中心位置を、特定された複数の視線の交点を求めることにより特定し、前記眼球の半径を、前記眼球の中心位置と前記瞳孔の位置との差に基づき特定する、請求項1に記載の視線検出装置。
  4.  前記プロセッサは、前記第2の状態において、
     前記撮像装置の画像から前記瞳孔の位置を特定し、前記眼球の中心位置及び前記瞳孔の位置に基づき、前記視線方向を特定する、請求項1に記載の視線検出装置。
  5.  前記プロセッサは、前記第1の状態において、
     前記眼の瞳孔の位置の特定に失敗した場合、前記眼球の形状及び前記角膜の中心位置に従って前記視線方向を特定する、請求項1に記載の視線検出装置。
  6.  前記プロセッサは、前記第2の状態において、
     前記撮像装置の画像から前記眼から発する光線の方向を特定し、前記眼球の中心位置及び前記光線の方向に基づき、前記視線方向を特定する、請求項1に記載の視線検出装置。
  7.  眼の視線方向を検出するための視線検出プログラムであって、
     複数の光源から前記眼に光を照射し、前記眼の角膜上で観察される輝点の状態を判定するステップと、
     前記輝点の状態が第1の状態である場合には、
     (1−1)複数の前記輝点に基づいて前記角膜の中心位置を特定し、
     (1−2)前記眼の画像に基づいて前記眼の瞳孔の位置を特定し、
     (1−3)前記角膜の中心位置及び前記瞳孔の位置に基づいて前記視線方向を特定し、一方、前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第2の状態である場合には、
     (2−1)記憶部に記憶された前記眼球の半径及び前記眼球の中心位置のデータに従い、前記眼球の形状を特定し、
     (2−2)前記眼の画像及び前記眼球の中心位置から前記視線方向を特定するステップと
    をコンピュータに実行させることを特徴とする視線検出プログラム。
  8.  複数のタイミングで取得された前記視線方向のデータに従い、前記眼球の半径及び前記眼球の中心位置を特定し、前記記憶部に記憶させる、請求項7に記載の視線検出プログラム。
  9.  前記眼球の中心位置を、特定された複数の視線の交点を求めることにより特定し、前記眼球の半径を、前記眼球の中心位置と前記瞳孔の位置との差に基づき特定する、請求項7に記載の視線検出プログラム。
  10.  前記第2の状態において、
     前記撮像装置の画像から前記瞳孔の位置を特定し、前記眼球の中心位置及び前記瞳孔の位置に基づき、前記視線方向を特定する、請求項7に記載の視線検出プログラム。
  11.  前記第1の状態において、
     前記眼の瞳孔の位置の特定に失敗した場合、前記眼球の形状及び前記角膜の中心位置に従って前記視線方向を特定する、請求項7に記載の視線検出プログラム。
  12.  前記第2の状態において、
     前記撮像装置の画像から前記眼から発する光線の方向を特定し、前記眼球の中心位置及び前記光線の方向に基づき、前記視線方向を特定する、請求項7に記載の視線検出プログラム。
  13.  ユーザの頭部に装着される筐体と、前記筐体に設置され前記ユーザの視線を検出する視線検出装置とを含むヘッドマウントディスプレイであって、
     前記視線検出装置は、
     前記ユーザの眼に対し光を照射する複数の光源と、
     前記眼の画像を撮像する撮像装置と、
     プロセッサと
    を備え、
  14.  前記プロセッサは、
     前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第1の状態である場合には、
     (1−1)複数の前記輝点に基づいて前記角膜の中心位置を特定し、
     (1−2)前記撮像装置の画像に基づいて前記眼の瞳孔の位置を特定し、
     (1−3)前記角膜の中心位置及び前記瞳孔の位置に基づいて前記視線方向を特定し、
     前記複数の光源に基づいて前記眼の角膜上で観察される輝点の状態が第2の状態である場合には、
     (2−1)記憶部に記憶された前記眼球の半径及び前記眼球の中心位置のデータに従い、前記眼球の形状を特定し、
     (2−2)前記撮像装置の画像及び前記眼球の中心位置から前記視線方向を特定する
    ことを特徴とするヘッドマウントディスプレイ。
PCT/IB2021/059328 2020-10-12 2021-10-12 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ WO2022079584A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022557219A JPWO2022079584A1 (ja) 2020-10-12 2021-10-12
US18/248,847 US20240192771A1 (en) 2020-10-12 2021-10-12 Visual line detection device and visual line detection program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020172238 2020-10-12
JP2020-172238 2020-10-12

Publications (1)

Publication Number Publication Date
WO2022079584A1 true WO2022079584A1 (ja) 2022-04-21

Family

ID=81207753

Family Applications (3)

Application Number Title Priority Date Filing Date
PCT/IB2021/059328 WO2022079584A1 (ja) 2020-10-12 2021-10-12 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ
PCT/IB2021/059332 WO2022079587A1 (ja) 2020-10-12 2021-10-12 視点検出装置、キャリブレーション方法及びプログラム
PCT/IB2021/059329 WO2022079585A1 (en) 2020-10-12 2021-10-12 Calibration for gaze detection

Family Applications After (2)

Application Number Title Priority Date Filing Date
PCT/IB2021/059332 WO2022079587A1 (ja) 2020-10-12 2021-10-12 視点検出装置、キャリブレーション方法及びプログラム
PCT/IB2021/059329 WO2022079585A1 (en) 2020-10-12 2021-10-12 Calibration for gaze detection

Country Status (3)

Country Link
US (3) US20240192771A1 (ja)
JP (3) JPWO2022079584A1 (ja)
WO (3) WO2022079584A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240020960A (ko) * 2022-08-09 2024-02-16 삼성전자주식회사 시선 방향을 식별하는 전자 장치 및 그 작동 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013252301A (ja) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
JP2019512726A (ja) * 2016-03-11 2019-05-16 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 眼球モデルを生成するための角膜球追跡
JP2019519859A (ja) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (ja) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd 指示処理装置
US10976813B2 (en) * 2016-06-13 2021-04-13 Apple Inc. Interactive motion-based eye tracking calibration
ES2887976T3 (es) * 2017-09-08 2021-12-29 Tobii Ab Compensación del radio de la pupila
CN108038884B (zh) * 2017-11-01 2020-12-11 北京七鑫易维信息技术有限公司 校准方法、装置、存储介质和处理器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013252301A (ja) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc 眼球中心推定装置及びプログラム
JP2019512726A (ja) * 2016-03-11 2019-05-16 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 眼球モデルを生成するための角膜球追跡
JP2019519859A (ja) * 2016-06-29 2019-07-11 シーイング マシーンズ リミテッド 視線追跡を実行するシステム及び方法

Also Published As

Publication number Publication date
JP2024514380A (ja) 2024-04-02
US20230393653A1 (en) 2023-12-07
US20240192771A1 (en) 2024-06-13
JPWO2022079584A1 (ja) 2022-04-21
WO2022079585A1 (en) 2022-04-21
WO2022079587A1 (ja) 2022-04-21
US20240134448A1 (en) 2024-04-25
JPWO2022079587A1 (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
US10650533B2 (en) Apparatus and method for estimating eye gaze location
JP6576574B2 (ja) 眼球モデルを生成するための角膜球追跡
CN107005653B (zh) 进行虚拟聚焦反馈的装置、方法以及头戴式显示器
JP6112583B2 (ja) ヘッドマウントディスプレイ
TW201804314A (zh) 影像顯示系統、影像顯示方法、影像顯示程式
JP5565258B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20170344112A1 (en) Gaze detection device
US20180007258A1 (en) External imaging system, external imaging method, external imaging program
JP7218376B2 (ja) 視線追跡方法および装置
US20150309567A1 (en) Device and method for tracking gaze
US11176367B1 (en) Apparatuses, systems, and methods for mapping a surface of an eye via an event camera
US20200213467A1 (en) Image display system, image display method, and image display program
WO2022079584A1 (ja) 視線検出装置、視線検出プログラム及びヘッドマウントディスプレイ
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR102195450B1 (ko) 줌 장치 및 관련된 방법
JP2018000308A (ja) 映像表示装置システム、心拍特定方法、心拍特定プログラム
WO2018120554A1 (zh) 图像显示方法和头戴显示设备
WO2023157332A1 (ja) 情報処理装置および調整画面表示方法
JP2020081557A (ja) 眼の角膜中心の位置を特定する装置、方法、及びプログラム
GB2609009A (en) Head-mountable display system and method
JP2017045068A (ja) ヘッドマウントディスプレイ
JP2020009064A (ja) データ生成装置、映像システム、及びデータ生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21879624

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022557219

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21879624

Country of ref document: EP

Kind code of ref document: A1