WO2022091864A1 - 検出装置および画像表示システム - Google Patents

検出装置および画像表示システム Download PDF

Info

Publication number
WO2022091864A1
WO2022091864A1 PCT/JP2021/038574 JP2021038574W WO2022091864A1 WO 2022091864 A1 WO2022091864 A1 WO 2022091864A1 JP 2021038574 W JP2021038574 W JP 2021038574W WO 2022091864 A1 WO2022091864 A1 WO 2022091864A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
detection
template
detection device
Prior art date
Application number
PCT/JP2021/038574
Other languages
English (en)
French (fr)
Inventor
薫 草深
昭典 佐藤
歩樹 林下
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to JP2022559033A priority Critical patent/JP7466687B2/ja
Priority to US18/034,347 priority patent/US20230388479A1/en
Priority to EP21885983.3A priority patent/EP4239406A1/en
Priority to CN202180072468.XA priority patent/CN116547604A/zh
Publication of WO2022091864A1 publication Critical patent/WO2022091864A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/18Stereoscopic photography by simultaneous viewing
    • G03B35/24Stereoscopic photography by simultaneous viewing using apertured or refractive resolving means on screens or between screen and eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/312Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being placed behind the display panel, e.g. between backlight and spatial light modulator [SLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Definitions

  • This disclosure relates to a detection device and an image display system.
  • the position data indicating the position of the pupil is acquired by using the captured image obtained by capturing the user's eye with the camera.
  • the captured image obtained by capturing the user's eye with the camera.
  • an image is displayed on a display so that the image corresponding to the left eye and the right eye of the user can be visually recognized based on the position of the pupil indicated by the position data (for example, a patent).
  • Document 1)
  • the detection device includes an input unit and a controller.
  • the input unit receives input of image information.
  • the controller is configured to be able to execute a detection process for detecting the position of the user's eyes.
  • the controller is configured to be able to execute the first process and the second process as the detection process.
  • the controller detects the first position of the eye by template matching using the first template image based on the input image information.
  • the controller detects the position of the face by template matching using the second template image different from the first template image based on the input image information, and the eye is based on the detected face position. The second position of is detected.
  • the image display system includes a display unit, a barrier unit, a camera, an input unit, a detection unit, and a display control unit.
  • the display unit is configured to display a parallax image projected via the optical system to both eyes of the user.
  • the barrier portion is configured to give parallax to both eyes by defining the traveling direction of the image light of the parallax image.
  • the camera is configured to capture the user's face.
  • the input unit receives the input of the imaging information output from the camera.
  • the detection unit is configured to be able to execute a detection process for detecting the positions of both eyes of the user.
  • the display control unit controls the display unit by synthesizing the parallax images according to the positions of both eyes of the person detected by the detection unit.
  • the detection unit is configured to be able to execute the first process and the second process as the detection process.
  • the detection unit detects the first position of both eyes by template matching using the first template image based on the input image information.
  • the detection unit detects the position of the face by template matching using the second template image different from the first template image based on the input image information, and based on the detected face position. The second position of both eyes is detected.
  • the detection device 50 may be mounted on the mobile body 10.
  • the detection device 50 includes an input unit 30 and a detection unit 15.
  • the moving body 10 may include a three-dimensional projection system 100 as an image display system.
  • the three-dimensional projection system 100 includes a camera 11, a detection device 50, and a three-dimensional projection device 12.
  • the "mobile body” in the present disclosure may include, for example, a vehicle, a ship, an aircraft, and the like.
  • Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like.
  • Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like.
  • Industrial vehicles may include, for example, industrial vehicles for agriculture and construction.
  • Industrial vehicles may include, for example, forklifts, golf carts and the like.
  • Industrial vehicles for agriculture may include, for example, tractors, tillers, porting machines, binders, combines, lawnmowers and the like.
  • Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, mobile cranes, dump trucks, road rollers and the like.
  • the vehicle may include a vehicle that travels manually.
  • the classification of vehicles is not limited to the above examples.
  • an automobile may include an industrial vehicle capable of traveling on a road.
  • the same vehicle may be included in multiple categories.
  • Vessels may include, for example, marine jets, boats, tankers and the like.
  • Aircraft may include, for example, fixed-wing aircraft, rotary-wing aircraft, and the like.
  • the mobile body 10 is not limited to a passenger car, and may be any of the above examples.
  • the camera 11 may be attached to the moving body 10.
  • the camera 11 is configured to capture an image including the driver's face 5 of the mobile body 10 as the user 13.
  • the camera 11 is configured to be capable of capturing an assumed area in which the driver's face 5 of the mobile body 10 as the user 13 is assumed to be located.
  • the mounting position of the camera 11 is arbitrary inside and outside the moving body 10. For example, the camera 11 may be located within the dashboard of the mobile body 10.
  • the camera 11 may be a visible light camera or an infrared camera.
  • the camera 11 may have the functions of both a visible light camera and an infrared camera.
  • the camera 11 may include, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the camera 11 is configured to be able to output the image information of the captured image to the detection device 50.
  • the image information of the image captured by the camera 11 is output to the detection device 50.
  • the input unit 30 of the detection device 50 is configured to be able to receive the input of the image information output from the camera 11.
  • the detection unit 15 is configured to be able to execute a detection process for detecting the position of the eye 5a of the user 13.
  • the camera 11 may output all frames to the detection device 50, and the detection device 50 may detect the position of the eye 5a in all the frames.
  • the detection process that can be executed by the detection unit 15 may be, for example, a process in which the input unit 30 detects the position of the eye 5a of the user 13 based on the input image information.
  • the detection unit 15 is configured to be able to execute the first process and the second process as detection processes.
  • the first process is a process of detecting the first position of the eye 5a by template matching based on the image information.
  • the second process is a process of detecting the position of the face 5 by template matching based on the image information and detecting the second position of the eye 5a based on the detected position of the face 5.
  • the position of the eye 5a of the user 13 may be the pupil position.
  • Template matching can be, for example, image processing for searching a position most suitable for the template image from the target image.
  • the target image is the captured image 51 output from the camera 11.
  • the detection unit 15 detects the first position.
  • the detection unit 15 may detect the position of the eye 5a from the captured image 51 as the first position by template matching.
  • the first template image 52 used in the first process includes a facial part whose relative positional relationship with the eye 5a of the user 13 is specified, or the eye 5a of the user 13.
  • the eyes 5a of the user 13 included in the first template image 52 may be both eyes, and may be only the right eye or only the left eye.
  • the facial part whose relative positional relationship with the eyes 5a of the user 13 is specified may be, for example, eyebrows or nose.
  • the first template image 52 includes both eyes as the eyes 5a of the user 13.
  • the detection unit 15 detects the second position.
  • the detection unit 15 may detect the position of the face 5 from the captured image 51 by template matching, and detect the position of the eye 5a as the second position based on the detected position of the face 5.
  • the second template image 53 used in the second process is different from the first template image 52 used in the first process.
  • the second template image 53 used in the second process has a wider comparison target range than the first template image 52 used in the first process.
  • the second template image 53 used in the second process includes, for example, the face 5 of the user 13, as shown in the example of FIG. Since the position of the eye 5a on the face 5 does not change in the same user 13, the position of the eye 5a on the face 5 can be specified in advance.
  • the detection unit 15 determines the position (second position) of the eye 5a on the face 5 specified in advance based on the detected position of the face 5. Can be detected.
  • the captured image includes the user's pupil. If the captured image does not include the pupil, the pupil position cannot be detected. For example, the pupil position cannot be detected from an image taken when the user closes his eyes due to blinking or the like. Since the template matching according to the present disclosure searches for a position most suitable for the first and second template images 52 and 53, even if the captured image 51 does not include a pupil, the first and second template images 52 and 53 are searched. It is possible to search for the most suitable position of the captured image 51 by utilizing the features other than the pupil included in the image 51.
  • the calculation amount required for template matching is the calculation amount required for pupil position detection when the captured image 51 of the same size is targeted for detection. Is reduced.
  • the detection unit 15 can increase the calculation speed for outputting the detection result as compared with the pupil position detection.
  • the detection device 50 can output the coordinate information regarding either the first position or the second position to the three-dimensional projection device 12.
  • the shapes of the first and second template images 52 and 53 may be shapes corresponding to the shapes of the captured images 51. If the captured image 51 has a rectangular shape, the first and second template images 52 and 53 may have a rectangular shape. The shapes of the first and second template images 52 and 53 do not have to have a similar relationship with the shape of the captured image 51, but may have a similar relationship.
  • FIGS. 2 and 3 an example in which the captured image 51 and the first and second template images 52 and 53 have a rectangular shape will be described.
  • the detection result by the detection device 50 may be coordinate information indicating the pupil position of the eye 5a of the user 13.
  • the coordinates of the positions most suitable for the first and second template images 52 and 53 in the captured image 51 are determined.
  • the coordinates of the matching position determined by the template matching may be, for example, the coordinates corresponding to the coordinates of the representative positions of the first and second template images 52 and 53.
  • the representative position of the first and second template images 52 and 53 may be, for example, any one vertex position or the center position of the first and second template images 52 and 53.
  • the detection unit 15 separately specifies the relative coordinate position relationship between the coordinates of the pupil position included in the first template image 52 of the eye 5a and, for example, the representative position of the first template image 52.
  • the detection unit 15 determines the pupil position in the captured image 51 (hereinafter referred to as “1” by the determined coordinates and the first relationship.
  • the coordinate information of (referred to as "first position") can be determined.
  • the first relationship can be identified prior to the execution of the first process.
  • the detection unit 15 separately specifies the relative coordinate position relationship between the coordinates of the pupil position included in the second template image 53 of the face 5 and, for example, the representative position of the second template image 53. The second relationship can be used.
  • the detection unit 15 determines the pupil position in the captured image 51 (hereinafter, by the second relationship) with the determined coordinates. , "Second position") coordinate information can be determined. For example, even when the user 13 has the eyes 5a closed and the captured image 51 does not include the pupils, the detection unit 15 is presumed to have detected the pupils if the eyes are open. The coordinate information of the position can be determined. Since the detection device 50 of the present disclosure can determine the coordinate information of the pupil position even when the user 13 closes the eye 5a due to blinking or the like, the coordinate information can be continuously output without interruption.
  • the detection device 50 may include, for example, a sensor.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the camera 11 may be configured to detect the position of the head of the user 13 by a sensor.
  • the camera 11 may be configured to detect the position of the eye 5a of the user 13 as coordinates in three-dimensional space by two or more sensors.
  • the detection device 50 is configured to output coordinate information regarding the detected pupil position of the eye 5a to the three-dimensional projection device 12. Based on this coordinate information, the three-dimensional projection device 12 may be configured to control the image to be projected. The detection device 50 may be configured to output information indicating the pupil position of the eye 5a to the three-dimensional projection device 12 via wired communication or wireless communication. Wired communication may include, for example, CAN (Controller Area Network) and the like.
  • the detection unit 15 determines the position of the eye 5a of the user 13 by the first position by the first process using the first template image 52 of the eye 5a and the second process by using the second template image 53 of the face 5.
  • the second position and the second position can be detected.
  • the coordinate information output from the detection device 50 to the three-dimensional projection device 12 may be the coordinate information of the first position.
  • the coordinate information output from the detection device 50 to the three-dimensional projection device 12 may be the coordinate information of the second position.
  • the detection device 50 may output the coordinate information of the first position to the three-dimensional projection device 12, and may output the coordinate information of the second position, for example, when the first position cannot be detected.
  • the detection device 50 may output the coordinate information of the second position to the three-dimensional projection device 12, and may output the coordinate information of the first position, for example, when the second position cannot be detected.
  • the detection unit 15 may be configured to be able to execute the third process of detecting the third position of the eye 5a as the detection process based on the result of comparing the first position and the second position.
  • the first position and the second position to be compared may be the detection results of the first process and the second process for the same captured image 51.
  • the first position and the second position are the same position, it can be inferred that the detected first position and the second position have high detection accuracy.
  • the first position and the second position are the same position, the difference between the coordinate information of the first position and the coordinate information of the second position is calculated, and the difference value is within a predetermined range (hereinafter, "the first". It is a case of being within 1 range).
  • the detection unit 15 determines that, for example, the position of the eye 5a (hereinafter, "third") when the first position and the second position are the same position.
  • the first position may be detected as "position”).
  • the detection unit 15 finds that the first position and the second position are different positions, for example, an intermediate position between the first position and the second position. May be calculated and the calculated intermediate position may be detected as the third position.
  • the first position and the second position are different positions, the difference between the coordinate information of the first position and the coordinate information of the second position is calculated, and the difference value is out of the first range, and the first position is obtained.
  • the detection unit 15 may perform the first process and the second process newly without outputting the coordinate information, assuming that the detection result by the third process is a detection failure.
  • the detection unit 15 may detect, for example, the same coordinate information as the previously output coordinate information as the coordinate information of the third position. The third process may be omitted.
  • the detection unit 15 may be an external device.
  • the input unit 30 may be configured to output the captured image 51 received from the camera 11 to the external detection unit 15.
  • the external detection unit 15 may be configured to detect the pupil position of the eye 5a of the user 13 from the captured image 51 by template matching.
  • the external detection unit 15 may be configured to output coordinate information regarding the detected pupil position of the eye 5a to the three-dimensional projection device 12. Based on this coordinate information, the three-dimensional projection device 12 may be configured to control the image to be projected.
  • the input unit 30 may be configured to output the captured image 51 to the external detection unit 15 via wired communication or wireless communication.
  • the external detection unit 15 may be configured to output coordinate information to the three-dimensional projection device 12 via wired communication or wireless communication. Wired communication may include, for example, CAN and the like.
  • the position of the three-dimensional projection device 12 is arbitrary inside and outside the moving body 10.
  • the 3D projection device 12 may be located within the dashboard of the moving body 10.
  • the three-dimensional projection device 12 is configured to emit image light toward the windshield 25.
  • the windshield 25 is configured to reflect the image light emitted from the three-dimensional projection device 12.
  • the image light reflected by the windshield 25 reaches the eyebox 16.
  • the eye box 16 is an area in real space where the eyes 5a of the user 13 are assumed to exist in consideration of, for example, the physique, posture, and changes in the posture of the user 13.
  • the shape of the eye box 16 is arbitrary.
  • the eyebox 16 may include a planar or three-dimensional region.
  • the solid arrow shown in FIG. 1 indicates a path through which at least a part of the image light emitted from the three-dimensional projection device 12 reaches the eye box 16.
  • the path through which the image light travels is also called an optical path.
  • the three-dimensional projection device 12 can function as a head-up display by allowing the user 13 to visually recognize the virtual image 14.
  • the direction in which the eyes 5a of the user 13 are lined up corresponds to the x-axis direction.
  • the vertical direction corresponds to the y-axis direction.
  • the imaging range of the camera 11 includes the eye box 16.
  • the three-dimensional projection device 12 includes a three-dimensional display device 17 and an optical element 18.
  • the three-dimensional projection device 12 may also be referred to as an image display module.
  • the three-dimensional display device 17 may include a backlight 19, a display unit 20 having a display surface 20a, a barrier unit 21, and a display control unit 24.
  • the three-dimensional display device 17 may further include a communication unit 22.
  • the three-dimensional display device 17 may further include a storage unit 23.
  • the optical element 18 may include a first mirror 18a and a second mirror 18b. At least one of the first mirror 18a and the second mirror 18b may have optical power. In the present embodiment, the first mirror 18a is a concave mirror having optical power. It is assumed that the second mirror 18b is a plane mirror.
  • the optical element 18 may function as a magnifying optical system for enlarging the image displayed on the three-dimensional display device 17.
  • the dashed line arrow shown in FIG. 4 indicates that at least a part of the image light emitted from the three-dimensional display device 17 is reflected by the first mirror 18a and the second mirror 18b and emitted to the outside of the three-dimensional projection device 12. The route when it is done is shown.
  • the image light emitted to the outside of the three-dimensional projection device 12 reaches the windshield 25, is reflected by the windshield 25, and reaches the eye 5a of the user 13. As a result, the user 13 can visually recognize the image displayed on the three-dimensional display device 17.
  • the optical element 18 and the windshield 25 are configured so that the image light emitted from the three-dimensional display device 17 can reach the eye 5a of the user 13.
  • the optical element 18 and the windshield 25 may form an optical system.
  • the optical system is configured so that the image light emitted from the three-dimensional display device 17 reaches the eye 5a of the user 13 along the optical path indicated by the alternate long and short dash line.
  • the optical system may be configured to control the traveling direction of the image light so that the image visually recognized by the user 13 is enlarged or reduced.
  • the optical system may be configured to control the traveling direction of the image light so as to deform the shape of the image to be visually recognized by the user 13 based on a predetermined matrix.
  • the optical element 18 is not limited to the illustrated configuration.
  • the mirror may be a concave mirror, a convex mirror, or a plane mirror.
  • the shape may include at least a spherical shape or at least a part aspherical shape.
  • the number of elements constituting the optical element 18 is not limited to two, and may be one or three or more.
  • the optical element 18 is not limited to the mirror and may include a lens.
  • the lens may be a concave lens or a convex lens.
  • the shape of the lens may include a spherical shape at least in part, or may include an aspherical shape in at least a part.
  • the backlight 19 is located on the optical path of the image light on the side farther from the display unit 20 and the barrier unit 21 when viewed from the user 13.
  • the backlight 19 emits light toward the barrier unit 21 and the display unit 20. At least a part of the light emitted by the backlight 19 travels along the optical path indicated by the alternate long and short dash line and reaches the eye 5a of the user 13.
  • the backlight 19 may include a light emitting element such as an LED (Light Emission Diode) or an organic EL or an inorganic EL.
  • the backlight 19 may be configured so that the emission intensity and its distribution can be controlled.
  • the display unit 20 includes a display panel.
  • the display unit 20 may be, for example, a liquid crystal device such as an LCD (Liquid Crystal Display).
  • the display unit 20 includes a transmissive liquid crystal display panel.
  • the display unit 20 is not limited to this example, and may include various display panels.
  • the display unit 20 has a plurality of pixels, controls the transmittance of the light incident from the backlight 19 in each pixel, and is configured to emit as image light reaching the eye 5a of the user 13.
  • the user 13 visually recognizes an image composed of image light emitted from each pixel of the display unit 20.
  • the barrier portion 21 is configured to define the traveling direction of the incident light. As shown in the example of FIG. 3, when the barrier unit 21 is located closer to the backlight 19 than the display unit 20, the light emitted from the backlight 19 is incident on the barrier unit 21 and further, the display unit 20. Incident to. In this case, the barrier unit 21 is configured to block or attenuate a part of the light emitted from the backlight 19 and transmit the other part toward the display unit 20.
  • the display unit 20 emits incident light traveling in the direction defined by the barrier unit 21 as it is as image light traveling in the same direction. When the display unit 20 is located closer to the backlight 19 than the barrier unit 21, the light emitted from the backlight 19 is incident on the display unit 20 and further incident on the barrier unit 21. In this case, the barrier unit 21 is configured to block or attenuate a part of the image light emitted from the display unit 20 and transmit the other part toward the eye 5a of the user 13.
  • the barrier unit 21 is configured to be able to control the traveling direction of the image light.
  • the barrier unit 21 causes a part of the image light emitted from the display unit 20 to reach either the left eye 5aL or the right eye 5aR (see FIG. 4) of the user 13, and uses the other part of the image light. It is configured to reach the other of the left eye 5aL and the right eye 5aR of the person 13. That is, the barrier portion 21 is configured to divide at least a part of the traveling direction of the image light into the left eye 5aL and the right eye 5aR of the user 13.
  • the left eye 5aL and the right eye 5aR are also referred to as the first eye and the second eye, respectively.
  • the barrier unit 21 is located between the backlight 19 and the display unit 20. That is, the light emitted from the backlight 19 first incidents on the barrier portion 21, and then incidents on the display portion 20.
  • the display unit 20 has a left eye viewing area 201L visually recognized by the left eye 5aL of the user 13 and a right eye visually recognized by the right eye 5aR of the user 13 on the display surface 20a. Includes the viewing area 201R.
  • the display unit 20 is configured to display a parallax image including a left eye image visually recognized by the left eye 5aL of the user 13 and a right eye image visually recognized by the right eye 5aR of the user 13.
  • the parallax image is an image projected on each of the left eye 5aL and the right eye 5aR of the user 13, and is an image that gives parallax to both eyes of the user 13.
  • the display unit 20 is configured to display the left eye image in the left eye viewing area 201L and display the right eye image in the right eye viewing area 201R. That is, the display unit 20 is configured to display the parallax image in the left eye visual recognition area 201L and the right eye visual recognition area 201R. It is assumed that the left eye visual recognition area 201L and the right eye visual recognition area 201R are aligned in the u-axis direction representing the parallax direction.
  • the left eye visual recognition area 201L and the right eye visual recognition area 201R may extend along the v-axis direction orthogonal to the parallax direction, or may extend in a direction inclined at a predetermined angle with respect to the v-axis direction.
  • the left eye visual recognition area 201L and the right eye visual recognition area 201R may be alternately arranged along a predetermined direction including a component in the parallax direction.
  • the pitch in which the left eye visual recognition area 201L and the right eye visual recognition area 201R are alternately arranged is also referred to as a parallax image pitch.
  • the left eye visual recognition area 201L and the right eye visual recognition area 201R may be located at intervals or may be adjacent to each other.
  • the display unit 20 may further have a display area for displaying a flat image on the display surface 20a. It is assumed that the planar image is an image that does not give parallax to the eyes 5a of the user 13 and is not stereoscopically viewed.
  • the barrier portion 21 has an opening region 21b and a light-shielding surface 21a.
  • the barrier unit 21 controls the transmittance of the image light emitted from the display unit 20. It is configured as follows.
  • the opening region 21b is configured to transmit light incident on the barrier portion 21 from the display portion 20.
  • the opening region 21b may transmit light with a transmittance of the first predetermined value or more.
  • the first predetermined value may be, for example, 100%, or may be a value close to 100%.
  • the light-shielding surface 21a is configured to block the light incident on the barrier unit 21 from the display unit 20.
  • the light-shielding surface 21a may transmit light at a transmittance of a second predetermined value or less.
  • the second predetermined value may be, for example, 0% or a value close to 0%.
  • the first predetermined value is larger than the second predetermined value.
  • the opening region 21b and the light-shielding surface 21a are alternately arranged in the u-axis direction representing the parallax direction.
  • the boundary between the opening region 21b and the light-shielding surface 21a may be along the v-axis direction orthogonal to the parallax direction as illustrated in FIG. 4, or along a direction inclined at a predetermined angle with respect to the v-axis direction. good.
  • the opening region 21b and the light-shielding surface 21a may be alternately arranged along a predetermined direction including a component in the parallax direction.
  • the barrier unit 21 of the present embodiment is located on the optical path of the image light on the side farther than the display unit 20 when viewed from the user 13.
  • the barrier unit 21 is configured to control the transmittance of light incident on the display unit 20 from the backlight 19.
  • the opening region 21b is configured to transmit light incident on the display unit 20 from the backlight 19.
  • the light-shielding surface 21a is configured to block the light incident on the display unit 20 from the backlight 19. By doing so, the traveling direction of the light incident on the display unit 20 is limited to a predetermined direction.
  • a part of the image light can be controlled by the barrier portion 21 to reach the left eye 5aL of the user 13.
  • the other part of the image light can be controlled by the barrier portion 21 to reach the right eye 5aR of the user 13.
  • the barrier portion 21 may be composed of a liquid crystal shutter.
  • the liquid crystal shutter can control the transmittance of light based on the applied voltage.
  • the liquid crystal shutter is composed of a plurality of pixels, and the transmittance of light in each pixel may be controlled.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape.
  • the opening region 21b may have a transmittance of a first predetermined value or more.
  • the light-shielding surface 21a may have a transmittance of a second predetermined value or less.
  • the first predetermined value may be set to a value higher than the second predetermined value.
  • the ratio of the second predetermined value to the first predetermined value may be set to 1/100 in one example.
  • the ratio of the second predetermined value to the first predetermined value may be set to 1/1000 in other examples.
  • the barrier portion 21 having a shape-changeable shape between the opening region 21b and the light-shielding surface 21a is also referred to as an active barrier.
  • the display control unit 24 is configured to control the display unit 20.
  • the display control unit 24 may be configured to control the barrier unit 21.
  • the display control unit 24 may be configured to control the backlight 19.
  • the display control unit 24 is configured to acquire coordinate information regarding the pupil position of the eye 5a of the user 13 from the detection device 50 and control the display unit 20 based on the coordinate information.
  • the display control unit 24 may be configured to control at least one of the barrier unit 21 and the backlight 19 based on the coordinate information.
  • the display control unit 24 may receive the image output from the camera 11 and detect the eye 5a of the user 13 from the received image by the above-mentioned template matching.
  • the display control unit 24 has the same function as the detection unit 15 (controller), and may be configured to also serve as the detection unit 15.
  • the display control unit 24 may be configured to control the display unit 20 based on the detected pupil position of the eye 5a.
  • the display control unit 24 may be configured to control at least one of the barrier unit 21 and the backlight 19 based on the detected pupil position of the eye 5a.
  • the display control unit 24 and the detection unit 15 are configured as, for example, a processor.
  • the display control unit 24 and the detection unit 15 may include one or more processors.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • ASIC application specific integrated circuit
  • the processor may include a programmable logic device (PLD).
  • PLD may include an FPGA (Field-Programmable Gate Array).
  • FPGA Field-Programmable Gate Array
  • the display control unit 24 and the detection unit 15 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the communication unit 22 may include an interface capable of communicating with an external device.
  • the external device may include, for example, the detection device 50.
  • the external device may be configured to provide, for example, image information to be displayed on the display unit 20.
  • the communication unit 22 may acquire various information from an external device such as the detection device 50 and output it to the display control unit 24.
  • the "communicable interface" in the present disclosure may include, for example, a physical connector and a wireless communication device.
  • the physical connector may include an electric connector corresponding to transmission by an electric signal, an optical connector corresponding to transmission by an optical signal, and an electromagnetic connector corresponding to transmission by an electromagnetic wave.
  • the electrical connector may include a connector conforming to IEC60603, a connector conforming to the USB standard, or a connector corresponding to an RCA terminal.
  • the electric connector may include a connector corresponding to the S terminal specified in EIAJ CP-121aA or a connector corresponding to the D terminal specified in EIAJ RC-5237.
  • the electrical connector may include a connector conforming to the HDMI® standard or a connector corresponding to a coaxial cable including a BNC (British Naval Connector or Baby-series N Connector, etc.).
  • the optical connector may include various connectors conforming to IEC 61754.
  • the wireless communication device may include a wireless communication device conforming to each standard including Bluetooth (registered trademark) and IEEE8021a.
  • the wireless communication device includes at least one antenna.
  • the storage unit 23 may be configured to store various information, a program for operating each component of the three-dimensional display device 17, and the like.
  • the storage unit 23 may be composed of, for example, a semiconductor memory or the like.
  • the storage unit 23 may function as a work memory of the display control unit 24.
  • the storage unit 23 may be included in the display control unit 24.
  • the light emitted from the backlight 19 passes through the barrier unit 21 and the display unit 20 and reaches the eye 5a of the user 13.
  • the path of the light emitted from the backlight 19 to reach the eye 5a is represented by a broken line.
  • the light that passes through the opening region 21b of the barrier portion 21 and reaches the right eye 5aR passes through the right eye viewing region 201R of the display unit 20. That is, the right eye 5aR can visually recognize the right eye viewing region 201R by the light transmitted through the opening region 21b.
  • the light that passes through the opening region 21b of the barrier portion 21 and reaches the left eye 5aL passes through the left eye viewing region 201L of the display unit 20. That is, the left eye 5aL can visually recognize the left eye viewing region 201L by the light transmitted through the opening region 21b.
  • the display unit 20 is configured to display a right eye image and a left eye image in the right eye viewing area 201R and the left eye viewing area 201L, respectively.
  • the barrier unit 21 is configured to allow the image light related to the left eye image to reach the left eye 5aL and the image light related to the right eye image to reach the right eye 5aR. That is, the opening region 21b is configured so that the image light related to the left eye image reaches the left eye 5aL of the user 13 and the image light related to the right eye image reaches the right eye 5aR of the user 13.
  • the three-dimensional display device 17 can project a parallax image to both eyes of the user 13. The user 13 can see the image stereoscopically by viewing the parallax image with the left eye 5aL and the right eye 5aR.
  • At least a part of the image light transmitted from the opening region 21b of the barrier portion 21 and emitted from the display surface 20a of the display unit 20 reaches the windshield 25 via the optical element 18.
  • the image light is reflected by the windshield 25 and reaches the eye 5a of the user 13.
  • the second virtual image 14b corresponds to the image displayed by the display surface 20a.
  • the opening region 21b and the light-shielding surface 21a of the barrier portion 21 form a first virtual image 14a in front of the windshield 25 and on the negative direction side of the z-axis of the second virtual image 14b.
  • the user 13 visually recognizes the image as if the display unit 20 exists at the position of the second virtual image 14b and the barrier unit 21 exists at the position of the first virtual image 14a. It can be done.
  • the image light related to the image displayed on the display surface 20a is emitted from the three-dimensional display device 17 in the direction defined by the barrier unit 21.
  • the optical element 18 is configured to emit light toward the windshield 25.
  • the optical element 18 may be configured to reflect or refract image light.
  • the windshield 25 is configured to reflect the image light and advance it toward the eye 5a of the user 13.
  • the image light is incident on the eye 5a of the user 13, the user 13 visually recognizes the parallax image as a virtual image 14.
  • the user 13 can see stereoscopically by visually recognizing the virtual image 14.
  • the image corresponding to the parallax image among the virtual images 14 is also referred to as a parallax virtual image.
  • the parallax virtual image is a parallax image projected through the optical system.
  • the image corresponding to the plane image among the virtual images 14 is also referred to as a plane virtual image. It can be said that the plane virtual image is a plane image projected through the optical system.
  • the detection device 50 is configured to generate the first and second template images 52 and 53 from the captured image 51 captured by the camera 11 before the start of the search by template matching.
  • the detection unit 15 may detect the pupil of the entire captured image 51, and may use a predetermined peripheral region including the detected pupil as the first template image 52.
  • the predetermined peripheral region generated as the first template image 52 may be, for example, a region corresponding to the eye box 16 in the three-dimensional projection device 12.
  • the detection unit 15 may perform face detection on the entire captured image 51, and use a predetermined peripheral region including the detected face as the second template image 53.
  • a known pupil detection process can be used for pupil detection in template image generation.
  • the detection device 50 may use, for example, a pupil detection process using the difference in brightness between the corneal reflex and the pupil as a known pupil detection process.
  • a known face detection process can be used for face detection in template image generation.
  • the detection device 50 may use, for example, a face detection process that combines feature quantities and contour extraction of parts such as eyes, nose, and mouth.
  • the detection device 50 may execute, for example, the template image generation process shown in the flow chart of FIG.
  • the detection device 50 may start the template image generation process, for example, when the three-dimensional projection system 100 is started (when the power is turned on).
  • the input unit 30 receives the input of the captured image 51 captured by the camera 11.
  • the captured image 51 of the camera 11 includes, for example, the face of the user 13 seated in the seat of the moving body 10.
  • the detection unit 15 cuts out a first region including the eyebox 16 from the captured image 51, and in step A3, performs face detection on the cut out first region, and the face of the user 13. It is determined whether or not 5 is detected. If the face 5 is detected, the detection device 50 proceeds to step A4, and if the face 5 is not detected, the detection device 50 returns to step A1.
  • step A4 the detection unit 15 cuts out the second region including the detected face 5 from the first region and extracts the second template image 53 of the face 5.
  • step A5 the detection unit 15 performs pupil detection on the second region and determines whether or not the pupil is detected. If the pupil is detected, the detection device 50 proceeds to step A6, and if not, returns to step A1.
  • step A6 the detection unit 15 extracts the pupil peripheral region including the detected pupil as the first template image 52 of the eye 5a, and ends the template image generation process.
  • the detection unit 15 may store the extracted first and second template images 52 and 53 in, for example, the storage area of the detection unit 15 or the storage unit 23.
  • the detection unit 15 may extract a region having the same size as the eye box 16 around the pupil as the first template image 52.
  • the detection unit 15 may store the relative coordinate positional relationship between the representative position and the pupil position of each of the first and second template images 52 and 53 together with the first and second template images 52 and 53.
  • the first and second template images 52 and 53 may be temporarily stored in the storage area of the detection unit 15 or the storage unit 23 while the three-dimensional projection system 100 is running.
  • the first and second template images 52 and 53 may be stored in the storage unit 23 in association with the imaged user 13, for example.
  • the first and second template images 52 and 53 stored in the storage unit 23 are read from the storage unit 23 by the detection unit 15 when the three-dimensional projection system 100 is started next time or later, so that the template image generation process is performed. It can be omitted.
  • the detection unit 15 can update the first and second template images 52 and 53 stored in the storage unit 23 by executing the template image generation process again.
  • the pupil detection process in the template image generation process has higher detection accuracy than the pupil detection process (first process) by template matching, but the processing time required for detection is long.
  • the pupil detection process by template matching can be detected, for example, in all frames output from the camera 11 due to the short processing time. Since the pupil detection process in the template image generation process has a long processing time, it can be detected every several frames output from the camera 11, for example.
  • the detection unit 15 may repeatedly execute the template image generation process every few frames to update the first and second template images 52 and 53 stored in the storage unit 23.
  • the position of the eye 5a detected by the pupil detection process in the template image generation process can be used for verification of the validity of the position of the eye 5a detected by the template matching.
  • the detection unit 15 is configured to be able to execute the pupil detection process as the fourth process.
  • the pupil detection process executed as the fourth process may use the same process as the template image generation process, but may be different.
  • the position of the eye 5a detected in the fourth process can be the fourth position.
  • the detection unit 15 is configured to be able to periodically execute the fourth process.
  • the detection unit 15 may execute the fourth process every few frames, for example.
  • the detection unit 15 is configured to be able to execute the first process and the fourth process in parallel. By executing the fourth process in parallel with the first process, the detection unit 15 is configured to be able to detect the position of the user's eye 5a even while the fourth process is executed.
  • the detection unit 15 is configured to be able to execute a fifth process of comparing any of the first position, the second position, and the third position, which is the position of the eye 5a detected by template matching, with the fourth position. Each time the detection unit 15 executes the fourth process, the detection unit 15 may execute the fifth process using the fourth position detected in the fourth process.
  • the detection unit 15 stores the captured image 51 used for the template image generation process, and determines the first position, the second position, the third position, and the fourth position detected for the same captured image 51. Just compare.
  • the detection accuracy of the fourth position is higher than that of the first position, the second position, and the third position.
  • the detection unit 15 may verify the validity by comparing the fourth position with each of the first position, the second position, and the third position.
  • the detection unit 15 may calculate the difference value between the fourth position and the first position, the second position, and the third position, respectively, and determine whether or not the difference value is within a predetermined range. If the difference value is within a predetermined range, it can be inferred that the position is detected with the same high accuracy as the fourth position. If the difference value is out of the predetermined range, the position can be presumed to be an erroneous detection.
  • the detection unit 15 calculates the difference value between the fourth position and the first position, the second position, and the third position, respectively, and transfers the coordinate information of the position where the difference value is within a predetermined range to the three-dimensional projection device 12. You may output it.
  • the coordinate information of the position where the difference value is the smallest may be output to the three-dimensional projection device 12.
  • the detection unit 15 calculates the difference values between the fourth position and the first position, the second position, and the third position, respectively, and if all the difference values are out of the predetermined range, the detection unit 15 obtains the coordinate information of the fourth position. It may be output to the three-dimensional projection device 12.
  • the detection device 50 may execute the first process using the first template image 52 of the eye 5a and the second process using the second template image 53 of the face 5 as the template matching process.
  • the detection device 50 may execute, for example, the first process shown in the flow chart of FIG. 7A and the second process shown in the flow chart of FIG. 7B.
  • the detection device 50 may execute the template image generation process at the time of starting the three-dimensional projection system 100, and start the template matching process after the template image generation process is completed.
  • the template image generation process can be omitted, so that the detection device 50 starts the template matching process when the three-dimensional projection system 100 is started. You can do it.
  • step B1 the input unit 30 receives the input of the captured image 51 captured by the camera 11.
  • step B2 the detection unit 15 cuts out the region around the position extracted by the first template image 52 of the eye 5a from the captured image 51 as a search range.
  • the position coordinates from which the first template image 52 of the eye 5a is extracted may be stored in association with the first template image 52 of the eye 5a.
  • step B3 the detection unit 15 performs template matching with respect to the search range using the first template image 52 of the eye 5a.
  • the detection unit 15 determines the position having the highest degree of conformity with the first template image 52 of the eye 5a within the search range and the degree of conformity thereof by template matching.
  • step B4 the detection unit 15 determines whether or not the determined goodness of fit is equal to or greater than the threshold value. If it is equal to or more than the threshold value, the process proceeds to step B5, and if it is less than the threshold value, the process returns to step B1.
  • step B5 the detection unit 15 determines the captured image 51 based on the coordinates of the position having the highest degree of compatibility with the first template image 52 of the eye 5a within the search range and the coordinate position relationship (first relationship) specified in advance. The coordinates of the pupil position (first position) in the above are determined, and the template matching process is completed.
  • step B11 the input unit 30 receives the input of the captured image 51 captured by the camera 11.
  • step B12 the detection unit 15 cuts out the second template image 53 of the face 5 from the captured image 51 with the area around the position extracted in the template image generation process as the search range.
  • the position coordinates from which the second template image 53 of the face 5 is extracted may be stored in association with the second template image 53 of the face 5.
  • step B13 the detection unit 15 performs template matching with respect to the search range using the second template image 53 of the face 5.
  • the detection unit 15 determines the position having the highest degree of conformity with the second template image 53 of the face 5 within the search range and the degree of conformity by template matching.
  • step B14 the detection unit 15 determines whether or not the determined goodness of fit is equal to or greater than the threshold value. If it is equal to or more than the threshold value, the process proceeds to step B15, and if it is less than the threshold value, the process returns to step B1.
  • step B15 the detection unit 15 determines the captured image 51 by the coordinates of the position having the highest degree of compatibility with the second template image 53 of the face 5 in the search range and the coordinate positional relationship (second relationship) specified in advance. The coordinates of the pupil position (second position) in the above are determined, and the template matching process is completed.
  • the first process and the second process executed for the same input image 51 may be asynchronous processes.
  • the first process and the second process are independently executed, and the first position and the second position are determined.
  • the determined coordinate information of the first position or the second position is output from the detection device 50 to the three-dimensional projection device 12.
  • the detection unit 15 may determine which coordinate information of the first position or the second position is to be output.
  • the display control unit 24 controls the parallax image displayed on the display unit 20 by using the coordinate information of the pupil position acquired from the detection device 50.
  • the detection device 50 may further execute the third process.
  • the detection device 50 may execute, for example, the third process shown in the flow chart of FIG. 7C.
  • the detection device 50 may start the third process after determining the first position and the second position, for example.
  • the detection unit 15 compares the first position with the second position.
  • the first position and the second position to be compared may be the detection results of the first process and the second process for the same captured image 51.
  • step S2 it is determined whether the first position and the second position are at the same position. For example, the difference between the coordinate information of the first position and the coordinate information of the second position may be calculated, and if the difference value is within the first range, it may be determined that the positions are the same.
  • step S3 the detection unit 15 coordinates the first position as the third position, which is the pupil position in the captured image 51, and ends the third process. do. If the first position and the second position are not the same position, in step S4, the detection unit 15 determines whether or not the detection has failed. For example, if the difference value between the coordinate information of the first position and the coordinate information of the second position is outside the second range, it may be determined that the detection has failed. If the detection fails, the detection unit 15 ends the third process without determining the coordinates of the third position.
  • the detection unit 15 coordinates the intermediate position between the first position and the second position as the third position, which is the pupil position in the captured image 51, in step S5, and ends the third process. .. For example, if the difference value between the coordinate information of the first position and the coordinate information of the second position is outside the first range and is within the second range, it may be determined that the detection has not failed.
  • the driver's seat of the mobile body 10 is configured to be movable in the front-rear direction, for example.
  • the posture of the user may change during the operation of the moving body 10.
  • the detection device 50 can execute the template matching process of another example as follows.
  • the front-back position of the driver's seat or the posture of the user 13 changes and the face of the user 13 moves in the z direction.
  • the face of the user 13 moves in the positive direction in the z direction
  • the face of the user 13 is captured smaller in the captured image 51 than before the movement.
  • the captured image 51 captures the face of the user 13 larger than before the movement.
  • the detection device 50 may perform scaling processing on the first and second template images 52 and 53, and template matching may be performed using the first and second template images 52 and 53 after the scaling processing.
  • the detection device 50 may perform template matching using, for example, a plurality of first and second template images 52 and 53 having different enlargement ratios.
  • the detection device 50 may perform template matching using, for example, a plurality of first and second template images 52 and 53 having different reduction ratios.
  • the template matching process of another example will be explained using a flow chart.
  • the detection device 50 may execute, for example, the template matching process shown in the flow chart of FIG.
  • the detection device 50 may execute the template image generation process at the time of starting the three-dimensional projection system 100, and start the template matching process after the template image generation process is completed.
  • the template image generation process can be omitted, so that the detection device 50 starts the template matching process when the three-dimensional projection system 100 is started. You can do it.
  • step C5 the detection unit 15 changes a plurality of scaling factors of the first template image 52 of the eye 5a to perform scaling processing on the first template image 52.
  • the detection unit 15 performs template matching using the first template image 52 of the eye 5a after the scaling process. Since the detection device 50 does not detect how the posture of the user 13 has changed, both the enlargement process and the reduction process are performed as the scaling process.
  • the detection unit 15 Since a plurality of first template images 52 of the eyes 5a after the scaling processing are generated, the detection unit 15 performs template matching with the first template images 52 of the plurality of eyes 5a, and the first of the eyes 5a having the highest degree of conformity. 1 Template image 52 is determined. In step C6, the detection unit 15 estimates the position of the user 13 in the z direction based on the magnification of the first template image 52 of the eye 5a having the highest goodness of fit. In step C7, after determining the coordinates of the pupil position in the captured image 51 in the same manner as in step B5, the coordinates of the pupil position are corrected based on the estimated position in the z direction of the user 13, and the template matching process is terminated.
  • the corrected pupil position coordinate information is output from the detection device 50 to the three-dimensional projection device 12.
  • steps B11 to B14 of FIG. 7B and steps C1 to C4 of FIG. 8 perform the same operation, and in steps C5 to C7, instead of the first template image 52 of the eye 5a. Since it is the same as the first process described above except that the second template image 53 of the face 5 is used, the description thereof will be omitted.
  • the detection device 50A includes an input unit 30, a prediction unit 31, and a detection unit 15A. Since the configuration of the three-dimensional projection system 100A other than the detection device 50A is the same as that of the above-mentioned three-dimensional projection system 100, the same reference numerals are given and detailed description thereof will be omitted.
  • the prediction unit 31 is configured to predict the position of the eye 5a at a time after the current time based on a plurality of positions of the eye 5a detected by the detection unit 15A before the current time in the first process. ..
  • the position of the eye 5a of the present embodiment may be coordinate information indicating the position of the pupil of the eye 5a of the user 13 in the same manner as described above.
  • the plurality of positions of the eye 5a include the positions of the eyes 5a having different detected times.
  • the prediction unit 31 may be configured to predict the position of the future eye 5a by using a plurality of prediction data which is a combination of the detection time and the coordinate information, and output the position as the prediction position.
  • the detection unit 15A detects the position of the eye 5a
  • the detection unit 15A sequentially stores the coordinate information and the detection time as prediction data in, for example, a storage area of the detection unit 15A, a storage area of the prediction unit 31, or a storage unit 23. It's okay.
  • the position of the future eye 5a refers to the future with respect to a plurality of stored predictive data.
  • the prediction unit 31 is configured to predict the position of the face 5 at a time after the current time based on a plurality of positions of the face 5 detected by the detection unit 15A before the current time in the second process. ..
  • the position of the face 5 of the present embodiment may be coordinate information indicating the position of the pupil of the eye 5a of the user 13 in the same manner as described above.
  • the plurality of positions of the face 5 include the positions of the faces 5 having different detected times.
  • the prediction unit 31 may be configured to predict the position of the future face 5 by using a plurality of prediction data which is a combination of the detection time and the coordinate information, and output the position as the prediction position.
  • the detection unit 15A When the detection unit 15A detects the position of the face 5, the detection unit 15A sequentially stores the coordinate information and the detection time as prediction data in, for example, a storage area of the detection unit 15A, a storage area of the prediction unit 31, or a storage unit 23. It's okay.
  • the position of the future face 5 refers to the future with respect to a plurality of stored predictive data.
  • the method of predicting the positions of the eyes 5a and the face 5 by the prediction unit 31 may be, for example, a method using a prediction function.
  • the prediction function is a function derived from a plurality of stored prediction data.
  • a function formula using a coefficient determined in advance by an experiment or the like may be stored in a storage area of the detection unit 15A, a storage area of the prediction unit 31, or a storage unit 23.
  • the prediction function may be updated every time the prediction unit 31 predicts the positions of the eyes 5a and the face 5.
  • the prediction unit 31 inputs the future time to be predicted into the prediction function, and outputs the coordinate information of the positions (predicted positions) of the eyes 5a and the face 5 at the input times.
  • the future time to be predicted may be the time when template matching is executed next, for example, the time when the next frame is input from the camera 11.
  • the detection unit 15A may use a part of the captured image 51 as a search range in template matching.
  • the detection unit 15A is configured to use a region including the position of the eye 5a predicted by the prediction unit 31 as a search range in template matching in the first process.
  • the detection unit 15A is configured to set a region including the position of the face 5 predicted by the prediction unit 31 as a search range in template matching in the second process.
  • the detection unit 15A sets a region including the prediction position output by the prediction unit 31 as a prediction region, and sets the set prediction region as a search range in template matching.
  • the predicted region including the predicted position may be a region smaller than the captured image 51 and larger than the first and second template images 52 and 53, and the predicted position may be included in the region.
  • the center coordinates of the predicted region may be a region that matches the coordinates of the predicted position.
  • the shape and size of the search range in the template matching of the present embodiment may have a similar relationship with, for example, the first and second template images 52 and 53.
  • the detection unit 15A executes template matching with such a prediction area as a search range.
  • the template matching of the present embodiment is the same as the above-mentioned template matching except that the search range is different.
  • the position most suitable for the first and second template images 52 and 53 is searched in the prediction area which is the search range.
  • the detection results of the first process and the second process may be coordinate information indicating the pupil position of the eye 5a of the user 13. Since the prediction area that is the search range of the present embodiment includes the prediction position output by the prediction unit 31, there is a possibility that the eyes 5a and the face 5 are included in the search range even if the search range is made smaller. expensive. By making the search range smaller, the amount of computation required for template matching is reduced. By reducing the amount of calculation, the detection unit 15A can increase the calculation speed for outputting the detection result.
  • the prediction unit 31 may be configured to further calculate the rate of change in the position of the eye 5a based on the plurality of positions of the eye 5a detected by the detection unit 15A before the current time.
  • the coordinate information and the detection time are stored as prediction data, and if a plurality of prediction data are used, the change speed of the position of the eye 5a can be calculated.
  • the prediction unit 31 can calculate the change speed of the position of the eye 5a. ..
  • the moving distance can be calculated for each of the x-axis direction component and the y-axis direction component, and the change speed of the position of the eye 5a can also be calculated for the x-axis direction component and the y-axis direction component, respectively.
  • the detection unit 15A is configured to change the size of the search range in the template matching of the first process according to the change speed calculated by the prediction unit 31. If the rate of change calculated by the prediction unit 31 is large, it is predicted that the moving distance of the position of the eye 5a is large. For example, when the x-axis direction component of the calculated change rate and the y-axis direction component of the change rate are compared, it is predicted that the moving distance of the position of the eye 5a increases in the direction in which the change rate component is large. ..
  • the search range in template matching can be set small by predicting the position of the eye 5a, but the position of the eye 5a deviates from the predicted position in the direction in which the component of the change rate is large.
  • the detection unit 15A may widen the prediction region including the prediction position in the direction in which the component of the change rate is large so that the position of the eye 5a does not go out of the search range.
  • the detection unit 15A executes template matching using such a widened area as a search range. Similar to the above, the detection unit 15A may change the size of the search range in the template matching of the face 5 in the second process according to the change speed calculated by the prediction unit 31.
  • the template matching process including the prediction of the pupil position will be explained using a flow chart.
  • the detection device 50A may execute the template matching process shown in the flow chart of FIG. 10 in the first process.
  • the detection device 50A may execute the template image generation process at the time of starting the three-dimensional projection system 100A, and may start the template matching process after the template image generation process is completed.
  • the template image generation process can be omitted, so that the detection device 50A starts the template matching process when the three-dimensional projection system 100A is started. good.
  • step B21 the input unit 30 receives the input of the captured image 51 captured by the camera 11.
  • step B22 the detection unit 15A cuts out the search range from the captured image 51.
  • the search range cut out in step B22 is the search range determined in step B27 described later. If step B27 has not been executed before step B22 and the search range has not been determined in advance, the first template image 52 of the eye 5a uses the area around the position extracted in the template image generation process as the search range. good.
  • step B23 the detection unit 15A performs template matching with respect to the search range using the first template image 52 of the eye 5a. The detection unit 15A determines the position having the highest goodness of fit with the first template image 52 of the eye 5a and the goodness of fit within the search range by template matching.
  • step B24 the detection unit 15A determines whether or not the determined goodness of fit is equal to or greater than the threshold value. If it is equal to or more than the threshold value, the process proceeds to step B25, and if it is less than the threshold value, the process returns to step B21.
  • step B25 the detection unit 15A determines the pupil in the captured image 51 by the coordinates of the position having the highest goodness of fit with the first template image 52 of the eye 5a within the search range and the relative coordinate position relationship specified in advance. Determine the coordinates of the position.
  • step B26 the prediction unit 31 predicts the future pupil position and outputs it as the predicted position.
  • the prediction unit 31 updates the prediction function based on, for example, the latest prediction data which is a combination of the coordinate information of the pupil position determined in step B25 and the detection time, and the stored past prediction data. do.
  • the prediction unit 31 predicts the pupil position using the updated prediction function and outputs the predicted position.
  • the detection unit 15A determines a region including the predicted position output from the prediction unit 31 as a search range, and returns to step B21.
  • the second template image 53 of the face 5 may be used instead of the first template image 52 of the eye 5a.
  • the face 5 of the user 13 may move back and forth. Further, when the user 13 tilts his / her head, the face 5 of the user 13 may tilt. When the face 5 of the user 13 moves back and forth, the face 5 of the user 13 of the captured image 51 appears large or small, and is similar to the case where the enlargement processing or the reduction processing is performed. When the face 5 of the user 13 is tilted, the face 5 of the user 13 in the captured image is similar to the case of rotation processing.
  • the detection unit 15A compares the predicted position with the immediately preceding pupil position.
  • the detection unit 15A updates the first template image 52 of the eye 5a with the first template image 52 of the eye 5a having a variable magnification according to the inter-eye distance. do.
  • the detection unit 15A previously obtains, for example, a plurality of first template images 52 having different enlargement ratios by scaling processing and a plurality of first template images 52 having different reduction ratios by scaling processing.
  • the first template image 52 of the eye 5a that has been created may be selected according to the distance between the eyes.
  • the prediction unit 31 predicts the pupil position of the left eye and the pupil position of the right eye, respectively, and the detection unit 15A compares the pupil position of the immediately preceding left eye with the pupil position of the right eye to obtain the intereye distance. Changes in may be detected.
  • the detection unit 15A uses the second template image 53 of the face 5 as the second template image 53 of the face 5 having a variable magnification according to the inter-eye distance. Update to.
  • the detection unit 15A previously obtains, for example, a plurality of second template images 53 having different enlargement ratios by scaling processing and a plurality of second template images 53 having different reduction ratios by scaling processing.
  • the second template image 53 of the face 5 may be selected according to the distance between the eyes.
  • the detection unit 15A if the detection unit 15A compares the predicted position with the immediately preceding pupil position and the pupil position changes according to the inclination of the face, the detection unit 15A will detect the eye 5a.
  • the first template image 52 is updated with the first template image 52 of the eye 5a having a rotation angle corresponding to the change in inclination.
  • the detection unit 15A creates, for example, a plurality of first template images 52 having different rotation angles by rotation processing in advance, and selects the first template image 52 according to the change in inclination. You can do it.
  • the prediction unit 31 predicts the pupil position of the left eye and the pupil position of the right eye, respectively, and the detection unit 15A compares the pupil position of the immediately preceding left eye with the pupil position of the right eye in the y-axis direction.
  • the tilt change may be detected from the position change of.
  • the positions (y-coordinates) of the pupil position of the left eye and the pupil position of the right eye in the y-axis direction change in different directions. For example, if the position of the pupil of the left eye in the y-axis direction changes upward and the position of the pupil of the right eye in the y-axis direction changes downward, a tilt change occurs.
  • the detection unit 15A may calculate the rotation angle based on the magnitude of the position change in the y-axis direction of the left eye and the right eye. Similarly, in the second process, if the pupil position is tilted, the detection unit 15A updates the second template image 53 of the face 5 with the second template image 53 having a rotation angle corresponding to the change in tilt. As the second template image 53 of the face 5, the detection unit 15A creates, for example, a plurality of second template images 53 having different rotation angles by rotation processing in advance, and selects the second template image 53 according to the change in inclination. You can do it.
  • the detection device 50A may execute the template matching process shown in the flow chart of FIG. 11 in the first process.
  • the input unit 30 receives the input of the captured image 51 captured by the camera 11.
  • the detection unit 15A cuts out the search range from the captured image 51.
  • the search range cut out in step C12 is the search range determined in step C18 described later.
  • the first template image 52 of the eye 5a searches the area around the position extracted in the template image generation process. May be.
  • step C13 the detection unit 15A performs template matching with respect to the search range using the updated first template image 52 of the eye 5a.
  • the first template image 52 of the eye 5a is the first template image 52 of the eye 5a updated in step C17 described later.
  • the detection unit 15A determines the position having the highest goodness of fit with the first template image 52 of the eye 5a and the goodness of fit within the search range by template matching.
  • step C14 the detection unit 15A determines whether or not the determined goodness of fit is equal to or greater than the threshold value. If it is equal to or more than the threshold value, the process proceeds to step C15, and if it is less than the threshold value, the process returns to step C11.
  • step C15 the detection unit 15A determines the coordinates of the pupil position in the captured image 51 by the coordinates of the position having the highest goodness of fit with the first template image 52 of the eye 5a within the search range and the coordinate position relationship specified in advance. To determine.
  • step C16 the prediction unit 31 predicts the future pupil position and outputs it as the predicted position.
  • step C17 the detection unit 15A updates the first template image 52 of the eye 5a.
  • the detection unit 15A compares the predicted position with the position of the pupil immediately before, and updates to the first template image 52 of the eye 5a that has been subjected to at least scaling processing or rotation processing according to the comparison result.
  • step C18 the detection unit 15A determines a region including the predicted position output from the prediction unit 31 as a search range, and returns to step C11.
  • the second template image 53 of the face 5 may be used instead of the first template image 52 of the eye 5a.
  • the detection units 15 and 15A use the region including the fourth position as the search range instead of the predicted position. You may decide.
  • the configuration according to the present disclosure is not limited to the embodiments described above, and can be modified or changed in many ways.
  • the functions and the like included in each component and the like can be rearranged so as not to be logically inconsistent, and a plurality of components and the like can be combined or divided into one.
  • the description of "first”, “second”, “third”, etc. is an identifier for distinguishing the configuration.
  • the configurations distinguished by the description of "first”, “second”, “third”, etc. in the present disclosure can exchange numbers in the configuration.
  • the identifiers “first” and “second” can be exchanged with the second process.
  • the exchange of identifiers takes place at the same time.
  • the configuration is distinguished.
  • the identifier may be deleted. Configurations with the identifier removed are distinguished by a code. Based solely on the description of identifiers such as “first” and “second” in the present disclosure, it shall not be used as an interpretation of the order of the configurations or as a basis for the existence of identifiers with smaller numbers.
  • the x-axis, y-axis, and z-axis are provided for convenience of explanation and may be interchanged with each other.
  • the configuration according to the present disclosure has been described using a Cartesian coordinate system composed of x-axis, y-axis, and z-axis.
  • the positional relationship of each configuration according to the present disclosure is not limited to being orthogonal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示の検出装置50は、入力部30と検出部15とを備える。検出装置50の入力部30は、カメラ11から出力された画像情報の入力を受ける。検出部15は、利用者13の眼5aの位置を検出する検出処理を実行可能に構成される。検出部15は、画像情報に基づいてテンプレートマッチングにて眼5aの第1位置を検出する第1処理と、画像情報に基づいてテンプレートマッチングにて顔5の位置を検出し、検出した顔5の位置に基づいて眼5aの第2位置を検出する第2処理と、を検出処理として実行可能に構成される。

Description

検出装置および画像表示システム
 本開示は、検出装置および画像表示システムに関する。
 従来、利用者の眼の位置検出を行う場合、カメラで利用者の眼を撮像した撮像画像を用いて、瞳孔の位置を示す位置データを取得する。例えば、3次元表示装置において、位置データが示す瞳孔の位置に基づいて、利用者の左眼および右眼にそれぞれ対応する画像を視認させるように、画像をディスプレイに表示させている(例えば、特許文献1)
特開2001-166259号公報
 本開示の一実施形態に係る検出装置は、入力部と、コントローラと、を備える。入力部は、画像情報の入力を受ける。コントローラは、利用者の眼の位置を検出する検出処理を実行可能に構成される。コントローラは、第1処理と、第2処理と、を前記検出処理として実行可能に構成される。第1処理においてコントローラは、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する。第2処理においてコントローラは、前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する。
 本開示の一実施形態に係る画像表示システムは、表示部と、バリア部と、カメラと、入力部と、検出部と、表示制御部と、を備える。表示部は、利用者の両眼に対して光学系を介して投影される視差画像を表示するように構成される。バリア部は、前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成される。カメラは、利用者の顔を撮像するように構成される。入力部は、前記カメラから出力された撮像情報の入力を受ける。検出部は、利用者の両眼の位置を検出する検出処理を実行可能に構成される。表示制御部は、前記検出部で検出された人の両眼の位置に応じた前記視差画像を合成して前記表示部を制御する。前記検出部は、第1処理と、第2処理と、を前記検出処理として実行可能に構成される。第1処理において検出部は、入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて両眼の第1位置を検出する。第2処理において検出部は、前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて両眼の第2位置を検出する。
検出装置が搭載された移動体の概略構成の一例を示す図である。 眼のテンプレートマッチングを説明するための模式図である。 顔のテンプレートマッチングを説明するための模式図である。 3次元投影システムの概略構成の一例を示す図である。 利用者の眼と表示部とバリア部との関係を示す模式図である。 検出装置のテンプレート画像生成処理の一例を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の一例を説明するためのフロー図である。 第2処理のテンプレートマッチング処理の一例を説明するためのフロー図である。 第3処理を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。 3次元投影システムの概略構成の他の例を示す図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。 第1処理のテンプレートマッチング処理の他の例を説明するためのフロー図である。
 以下、本開示の実施形態について、図面を参照しながら詳細に説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
 図1に示されるように、本開示の一実施形態に係る検出装置50は、移動体10に搭載されてよい。検出装置50は、入力部30と、検出部15と、を備える。移動体10は、画像表示システムとして3次元投影システム100を備えてよい。3次元投影システム100は、カメラ11と、検出装置50と、3次元投影装置12と、を備える。
 本開示における「移動体」は、例えば車両、船舶、及び航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、及び滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、及びトロリーバス等を含んでよい。産業車両は、例えば農業及び建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフト及びゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、及びタンカー等を含んでよい。航空機は、例えば固定翼機及び回転翼機等を含んでよい。
 以下では、移動体10が、乗用車である場合を例として説明する。移動体10は、乗用車に限らず、上記例のいずれかであってよい。カメラ11は、移動体10に取り付けられてよい。カメラ11は、利用者13としての移動体10の運転者の顔5を含む画像を撮像するように構成される。カメラ11は、利用者13としての移動体10の運転者の顔5が位置すると想定される想定領域を撮像可能に構成される。カメラ11の取り付け位置は、移動体10の内部及び外部において任意である。例えば、カメラ11は、移動体10のダッシュボード内に位置してよい。
 カメラ11は、可視光カメラまたは赤外線カメラであってよい。カメラ11は、可視光カメラと赤外線カメラの両方の機能を有していてよい。カメラ11は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含んでよい。
 カメラ11は、撮像した画像の画像情報を検出装置50に出力可能に構成される。カメラ11で撮像された画像の画像情報は、検出装置50に出力される。検出装置50の入力部30は、カメラ11から出力された画像情報の入力を受信可能に構成される。検出部15は、利用者13の眼5aの位置を検出する検出処理を実行可能に構成される。カメラ11は、全てのフレームが検出装置50に出力されてよく、検出装置50は、全てのフレームで眼5aの位置を検出してよい。
 検出部15が実行可能である検出処理は、例えば、入力部30が入力を受けた画像情報に基づいて、利用者13の眼5aの位置を検出する処理としうる。検出部15は、第1処理と、第2処理とを検出処理として実行可能に構成される。第1処理は、画像情報に基づいてテンプレートマッチングにて眼5aの第1位置を検出する処理である。第2処理は、画像情報に基づいてテンプレートマッチングにて顔5の位置を検出し、検出した顔5の位置に基づいて眼5aの第2位置を検出する処理である。利用者13の眼5aの位置は、瞳孔位置であってよい。テンプレートマッチングは、例えば、対象画像からテンプレート画像に最も適合する位置を探索する画像処理としうる。本開示の検出装置50において、対象画像は、カメラ11から出力された撮像画像51である。
 第1処理で検出部15は、第1位置を検出する。第1処理で検出部15は、テンプレートマッチングにて撮像画像51から眼5aの位置を第1位置として検出してよい。第1処理で用いられる第1テンプレート画像52は、利用者13の眼5aとの相対的な位置関係が特定されている顔の部位、または利用者13の眼5aを含む。第1テンプレート画像52が含む利用者13の眼5aは、両眼であってよく、右眼のみまたは左眼のみであってよい。利用者13の眼5aとの相対的な位置関係が特定されている顔の部位とは、例えば、眉毛または鼻などであってよい。図2に示す例において、第1テンプレート画像52は、利用者13の眼5aとして両眼を含む。
 第2処理で検出部15は、第2位置を検出する。第2処理で検出部15は、テンプレートマッチングにて撮像画像51から、顔5の位置を検出し、検出した顔5の位置に基づいて眼5aの位置を第2位置として検出してよい。第2処理で用いられる第2テンプレート画像53は、第1処理で用いられる第1テンプレート画像52と異なる。第2処理で用いられる第2テンプレート画像53は、第1処理で用いられる第1テンプレート画像52より比較対象範囲が広い。第2処理で用いられる第2テンプレート画像53は、図3の例に示すように、例えば、利用者13の顔5を含む。同じ利用者13において、顔5における眼5aの位置は、変わらないので、顔5における眼5aの位置を予め特定しておくことができる。検出部15は、テンプレートマッチングにて撮像画像51から、顔5の位置を検出すると、この検出した顔5の位置に基づいて、予め特定された顔5における眼5aの位置(第2位置)を検出することができる。
 従来のような撮像画像からの瞳孔位置検出は、撮像画像が利用者の瞳孔を含むことが必須である。撮像画像に瞳孔が含まれていなければ、瞳孔位置は、検出することができない。例えば、利用者が、瞬きなどで眼を閉じている時に撮像された画像から、瞳孔位置は、検出することができない。本開示によるテンプレートマッチングは、第1,第2テンプレート画像52,53と最も適合する位置を探索するので、撮像画像51に瞳孔が含まれていない場合でも、第1,第2テンプレート画像52,53に含まれる瞳孔以外の特徴を利用して、撮像画像51の最も適合する位置を探索することができる。第1,第2テンプレート画像52,53は、瞳孔より大きい画像であるので、同じ大きさの撮像画像51を検出対象としたときに、テンプレートマッチングに要する演算量は、瞳孔位置検出に要する演算量よりも低減される。演算量の低減によって、検出部15は、瞳孔位置検出に比べて検出結果の出力にかかる演算速度を高速化できる。また、第1処理および第2処理を実行し、瞳孔位置として、第1位置および第2位置を検出可能とすることで、例えば、利用者13の想定外の動き、撮像画像51の不具合などが生じても、検出装置50は、第1位置または第2位置のいずれかに関する座標情報を3次元投影装置12に出力することができる。
 第1,第2テンプレート画像52,53の形状は、撮像画像51の形状に応じた形状であってよい。撮像画像51が矩形状であれば、第1,第2テンプレート画像52,53は、矩形状であってよい。第1,第2テンプレート画像52,53の形状は、撮像画像51の形状と相似関係である必要はないが、相似関係であってよい。以下では、図2,3に示すように、撮像画像51および第1,第2テンプレート画像52,53が、矩形状である例について説明する。
 検出装置50による検出結果は、利用者13の眼5aの瞳孔位置を示す座標情報であってよい。テンプレートマッチングでは、撮像画像51において、第1,第2テンプレート画像52,53に最も適合する位置の座標が決定される。テンプレートマッチングによって決定される適合位置の座標は、例えば、第1,第2テンプレート画像52,53の代表位置の座標に対応する座標であってよい。第1,第2テンプレート画像52,53の代表位置は、例えば、いずれか1つの頂点位置または第1,第2テンプレート画像52,53の中心位置であってよい。第1処理において、検出部15は、眼5aの第1テンプレート画像52に含まれる瞳孔位置の座標と、例えば、第1テンプレート画像52の代表位置との相対的な座標位置関係を別に特定した第1関係を利用しうる。テンプレートマッチングによって、撮像画像51における第1テンプレート画像52の適合位置の座標が決定されると、検出部15は、この決定された座標と第1関係とによって、撮像画像51における瞳孔位置(以下、「第1位置」という)の座標情報を決定することができる。第1関係は、当該第1処理の実行に先立って特定されうる。同様に、第2処理において検出部15は、顔5の第2テンプレート画像53に含まれる瞳孔位置の座標と、例えば、第2テンプレート画像53の代表位置との相対的な座標位置関係を別に特定した第2関係を利用しうる。テンプレートマッチングによって、撮像画像51における第2テンプレート画像53の適合位置の座標が決定されると、検出部15は、この決定された座標と、第2関係とによって、撮像画像51における瞳孔位置(以下、「第2位置」という)の座標情報を決定することができる。例えば、利用者13が眼5aを閉じていて、撮像画像51に瞳孔が含まれていない場合であっても、検出部15は、眼が開いていれば検出されたであろうと推定される瞳孔位置の座標情報を決定することができる。本開示の検出装置50は、利用者13が瞬きなどで眼5a閉じた場合でも瞳孔位置の座標情報を決定できるので、途切れることなく連続して座標情報を出力することができる。
 検出装置50は、例えば、センサを含んでよい。センサは、超音波センサ又は光センサ等であってよい。カメラ11は、センサによって利用者13の頭部の位置を検出するように構成されうる。カメラ11は、2つ以上のセンサによって、利用者13の眼5aの位置を三次元空間の座標として検出するように構成されうる。
 検出装置50は、検出した眼5aの瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成される。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。検出装置50は、有線通信又は無線通信を介して眼5aの瞳孔位置を示す情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN(Controller Area Network)等を含みうる。
 検出部15は、利用者13の眼5aの位置として、眼5aの第1テンプレート画像52を用いた第1処理による第1位置と、顔5の第2テンプレート画像53を用いた第2処理による第2位置と、を検出可能に構成される。検出装置50から3次元投影装置12に出力される座標情報は、第1位置の座標情報であってよい。検出装置50から3次元投影装置12に出力される座標情報は、第2位置の座標情報であってよい。検出装置50は、第1位置の座標情報を3次元投影装置12に出力し、例えば、第1位置が検出できなかった場合に、第2位置の座標情報を出力してよい。検出装置50は、第2位置の座標情報を3次元投影装置12に出力し、例えば、第2位置が検出できなかった場合に、第1位置の座標情報を出力してよい。
 検出部15は、第1位置および第2位置を比較した結果に基づいて、眼5aの第3位置を検出する第3処理を検出処理として実行可能に構成され得る。比較する第1位置および第2位置は、同じ撮像画像51を対象とした第1処理および第2処理の検出結果であってよい。第1位置と第2位置とが同じ位置である場合、検出された第1位置および第2位置は、検出精度が高いものと推測できる。ここで、第1位置と第2位置とが同じ位置である場合とは、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が所定範囲(以下、「第1範囲」という)内となる場合である。検出部15は、第3処理において、第1位置および第2位置を比較した結果、第1位置と第2位置とが同じ位置である場合に、例えば、眼5aの位置(以下、「第3位置」という)として第1位置を検出してよい。検出部15は、第3処理において、第1位置および第2位置を比較した結果、第1位置と第2位置とが異なる位置である場合、例えば、第1位置と第2位置との中間位置を算出し、第3位置として、算出した中間位置を検出してよい。第1位置と第2位置とが異なる位置である場合とは、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が第1範囲外であって、第1範囲よりも大きい第2範囲内となる場合である。第1位置の座標情報と第2位置の座標情報との差分値が第2範囲外である場合は、検出された第1位置および第2位置のいずれか、または両方が、誤検出による検出結果であるものと推測できる。誤検出の場合、検出部15は、例えば、第3処理による検出結果を検出失敗として、座標情報を出力せずに、新たに第1処理および第2処理を行なってよい。誤検出の場合、検出部15は、例えば、前回出力した座標情報と同じ座標情報を、第3位置の座標情報として、検出してよい。なお、第3処理は、省略しうる。
 検出装置50は、検出部15が外部装置であってよい。入力部30は、カメラ11から入力を受けた撮像画像51を外部の検出部15に出力するように構成してよい。この外部の検出部15では、撮像画像51から、テンプレートマッチングによって利用者13の眼5aの瞳孔位置を検出するように構成されてよい。この外部の検出部15は、検出した眼5aの瞳孔位置に関する座標情報を3次元投影装置12に出力するように構成してよい。この座標情報に基づいて、3次元投影装置12は、投影する画像を制御するように構成してよい。入力部30は、有線通信又は無線通信を介して撮像画像51を外部の検出部15へ出力するように構成してよい。外部の検出部15は、有線通信又は無線通信を介して座標情報を3次元投影装置12へ出力するように構成してよい。有線通信は、例えばCAN等を含みうる。
 3次元投影装置12の位置は、移動体10の内部及び外部において任意である。例えば、3次元投影装置12は、移動体10のダッシュボード内に位置してよい。3次元投影装置12は、ウインドシールド25に向けて画像光を射出するように構成される。
 ウインドシールド25は、3次元投影装置12から射出された画像光を反射するように構成される。ウインドシールド25で反射された画像光は、アイボックス16に到達する。アイボックス16は、例えば利用者13の体格、姿勢、及び姿勢の変化等を考慮して、利用者13の眼5aが存在しうると想定される実空間上の領域である。アイボックス16の形状は、任意である。アイボックス16は、平面的又は立体的な領域を含んでよい。図1に示されている実線の矢印は、3次元投影装置12から射出される画像光の少なくとも一部がアイボックス16まで到達する経路を示す。画像光が進む経路は、光路とも称される。利用者13の眼5aがアイボックス16内に位置する場合、利用者13は、アイボックス16に到達する画像光によって、虚像14を視認可能である。虚像14は、ウインドシールド25から眼5aに到達する経路を移動体10の前方に延長した経路(図では、一点鎖線で示されている直線)の上に位置する。3次元投影装置12は、利用者13に虚像14を視認させることによって、ヘッドアップディスプレイとして機能しうる。図1において、利用者13の眼5aが並ぶ方向は、x軸方向に対応する。鉛直方向は、y軸方向に対応する。カメラ11の撮像範囲は、アイボックス16を含む。
 図4に示されるように、3次元投影装置12は、3次元表示装置17と、光学素子18とを備える。3次元投影装置12は、画像表示モジュールとも称されうる。3次元表示装置17は、バックライト19と、表示面20aを有する表示部20と、バリア部21と、表示制御部24とを備えうる。3次元表示装置17は、通信部22をさらに備えてよい。3次元表示装置17は、記憶部23をさらに備えてよい。
 光学素子18は、第1ミラー18aと、第2ミラー18bとを含んでよい。第1ミラー18a及び第2ミラー18bの少なくとも一方は、光学的なパワーを有してよい。本実施形態において、第1ミラー18aは、光学的なパワーを有する凹面鏡であるとする。第2ミラー18bは、平面鏡であるとする。光学素子18は、3次元表示装置17に表示された画像を拡大する拡大光学系として機能してよい。図4に示される一点鎖線の矢印は、3次元表示装置17から射出される画像光の少なくとも一部が、第1ミラー18a及び第2ミラー18bによって反射され、3次元投影装置12の外部に射出される際の経路を示す。3次元投影装置12の外部に射出された画像光は、ウインドシールド25に到達し、ウインドシールド25で反射されて利用者13の眼5aに到達する。その結果、利用者13は、3次元表示装置17に表示された画像を視認できる。
 光学素子18とウインドシールド25とは、3次元表示装置17から射出させる画像光を利用者13の眼5aに到達させうるように構成される。光学素子18とウインドシールド25とは、光学系を構成してよい。光学系は、3次元表示装置17から射出される画像光を一点鎖線で示されている光路に沿って利用者13の眼5aに到達させるように構成される。光学系は、利用者13に視認させる画像が拡大したり縮小したりするように、画像光の進行方向を制御するように構成してよい。光学系は、利用者13に視認させる画像の形状を所定の行列に基づいて変形させるように、画像光の進行方向を制御するように構成してよい。
 光学素子18は、例示される構成に限られない。ミラーは、凹面鏡であってよいし、凸面鏡であってよいし、平面鏡であってよい。ミラーが凹面鏡又は凸面鏡である場合、その形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。光学素子18を構成する要素の数は、2つに限られず、1つであってよいし、3つ以上であってよい。光学素子18は、ミラーに限られずレンズを含んでよい。レンズは、凹面レンズであってよいし、凸面レンズであってよい。レンズの形状は、少なくとも一部に球面形状を含んでよいし、少なくとも一部に非球面形状を含んでよい。
 バックライト19は、画像光の光路上において、利用者13から見て、表示部20及びバリア部21よりも遠い側に位置する。バックライト19は、バリア部21と表示部20とに向けて光を射出する。バックライト19が射出した光の少なくとも一部は、一点鎖線で示されている光路に沿って進行し、利用者13の眼5aに到達する。バックライト19は、LED(Light Emission Diode)又は有機EL若しくは無機EL等の発光素子を含んでよい。バックライト19は、発光強度、及び、その分布を制御可能に構成されてよい。
 表示部20は、表示パネルを含む。表示部20は、例えば、LCD(Liquid Crystal Display)等の液晶デバイスであってよい。本実施形態において、表示部20は、透過型の液晶表示パネルを含むとする。表示部20は、この例に限られず、種々の表示パネルを含んでよい。
 表示部20は、複数の画素を有し、各画素においてバックライト19から入射する光の透過率を制御し、利用者13の眼5aに到達する画像光として射出するように構成される。利用者13は、表示部20の各画素から射出される画像光によって構成される画像を視認する。
 バリア部21は、入射してくる光の進行方向を規定するように構成される。図3の例に示すように、バリア部21が表示部20よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、バリア部21に入射し、さらに表示部20に入射する。この場合、バリア部21は、バックライト19から射出される光の一部を遮ったり減衰させたりし、他の一部を表示部20に向けて透過させるように構成される。表示部20は、バリア部21によって規定された方向に進行する入射光を、同じ方向に進行する画像光としてそのまま射出する。表示部20がバリア部21よりもバックライト19に近い側に位置する場合、バックライト19から射出される光は、表示部20に入射し、さらにバリア部21に入射する。この場合、バリア部21は、表示部20から射出される画像光の一部を遮ったり減衰させたりし、他の一部を利用者13の眼5aに向けて透過させるように構成される。
 表示部20とバリア部21とのどちらが利用者13の近くに位置するかにかかわらず、バリア部21は、画像光の進行方向を制御できるように構成される。バリア部21は、表示部20から射出される画像光の一部を利用者13の左眼5aL及び右眼5aR(図4参照)のいずれかに到達させ、画像光の他の一部を利用者13の左眼5aL及び右眼5aRの他方に到達させるように構成される。つまり、バリア部21は、画像光の少なくとも一部の進行方向を利用者13の左眼5aLと右眼5aRとに分けるように構成される。左眼5aL及び右眼5aRはそれぞれ、第1眼及び第2眼ともいう。本実施形態において、バリア部21は、バックライト19と表示部20との間に位置する。つまり、バックライト19から射出される光は、先にバリア部21に入射し、次に表示部20に入射する。
 バリア部21によって画像光の進行方向が規定されることによって、利用者13の左眼5aL及び右眼5aRそれぞれに異なる画像光が到達しうる。その結果、利用者13は、左眼5aL及び右眼5aRそれぞれで異なる画像を視認しうる。
 図5に示されるように、表示部20は、表示面20a上に、利用者13の左眼5aLで視認される左眼視認領域201Lと、利用者13の右眼5aRで視認される右眼視認領域201Rとを含む。表示部20は、利用者13の左眼5aLに視認させる左眼画像と、利用者13の右眼5aRに視認させる右眼画像とを含む視差画像を表示するように構成される。視差画像は、利用者13の左眼5aL及び右眼5aRそれぞれに投影される画像であって、利用者13の両眼に視差を与える画像であるとする。表示部20は、左眼視認領域201Lに左眼画像を表示し、右眼視認領域201Rに右眼画像を表示するように構成される。つまり、表示部20は、左眼視認領域201Lと右眼視認領域201Rとに視差画像を表示するように構成される。左眼視認領域201Lと右眼視認領域201Rとは、視差方向を表すu軸方向に並んでいるとする。左眼視認領域201L及び右眼視認領域201Rは、視差方向に直交するv軸方向に沿って延在してよいし、v軸方向に対して所定角度で傾斜する方向に延在してよい。つまり、左眼視認領域201L及び右眼視認領域201Rは、視差方向の成分を含む所定方向に沿って交互に並んでいてよい。左眼視認領域201Lと右眼視認領域201Rとが交互に並ぶピッチは、視差画像ピッチともいう。左眼視認領域201Lと右眼視認領域201Rとは、間隔をあけて位置していてよいし、互いに隣接していてよい。表示部20は、表示面20a上に、平面画像を表示する表示領域をさらに有していてよい。平面画像は、利用者13の眼5aに視差を与えず、立体視されない画像であるとする。
 図5に示されるように、バリア部21は、開口領域21bと、遮光面21aとを有する。バリア部21が、画像光の光路上において、利用者13から見て表示部20よりも近い側に位置する場合、バリア部21は、表示部20から射出される画像光の透過率を制御するように構成される。開口領域21bは、表示部20からバリア部21に入射する光を透過させるように構成される。開口領域21bは、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば100%であってよいし、100%に近い値であってよい。遮光面21aは、表示部20からバリア部21に入射する光を遮るように構成される。遮光面21aは、第2所定値以下の透過率で光を透過させてよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。第1所定値は、第2所定値より大きい。
 開口領域21bと遮光面21aとは、視差方向を表すu軸方向に交互に並ぶとする。開口領域21bと遮光面21aとの境界は、図4に例示されているように視差方向に直交するv軸方向に沿ってよいし、v軸方向に対して所定角度で傾斜する方向に沿ってよい。言い換えれば、開口領域21bと遮光面21aとは、視差方向の成分を含む所定方向に沿って交互に並んでよい。
 本実施形態のバリア部21は、画像光の光路上において、利用者13から見て表示部20よりも遠い側に位置している。バリア部21は、バックライト19から表示部20に向けて入射する光の透過率を制御するように構成される。開口領域21bは、バックライト19から表示部20に向けて入射する光を透過させるように構成される。遮光面21aは、バックライト19から表示部20に入射する光を遮るように構成される。このようにすることで、表示部20に入射する光の進行方向は、所定方向に限定される。その結果、画像光の一部は、バリア部21によって利用者13の左眼5aLに到達するように制御されうる。画像光の他の一部は、バリア部21によって利用者13の右眼5aRに到達するように制御されうる。
 バリア部21は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に基づいて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域又は光の透過率が低い領域を任意の形状に形成しうる。バリア部21が液晶シャッターで構成される場合、開口領域21bは、第1所定値以上の透過率を有してよい。バリア部21が液晶シャッターで構成される場合、遮光面21aは、第2所定値以下の透過率を有してよい。第1所定値は、第2所定値より高い値に設定されてよい。第1所定値に対する第2所定値の比率は、一例において1/100に設定されてよい。第1所定値に対する第2所定値の比率は、他の例において1/1000に設定されてもよい。開口領域21bと遮光面21aとの形状が変更可能に構成されるバリア部21は、アクティブバリアとも称される。
 表示制御部24は、表示部20を制御するように構成される。バリア部21がアクティブバリアである場合、表示制御部24は、バリア部21を制御するように構成してよい。表示制御部24は、バックライト19を制御するように構成してよい。表示制御部24は、検出装置50から利用者13の眼5aの瞳孔位置に関する座標情報を取得し、その座標情報に基づいて表示部20を制御するように構成される。表示制御部24は、座標情報に基づいてバリア部21、及びバックライト19の少なくとも一方を制御するように構成されうる。表示制御部24は、カメラ11から出力された画像を受信し、受信した画像から前述のテンプレートマッチングによって利用者13の眼5aを検出してよい。言い換えると、表示制御部24は、検出部15(コントローラ)と同等の機能を有し、検出部15を兼ねるように構成されてよい。表示制御部24は、検出した眼5aの瞳孔位置に基づいて表示部20を制御するように構成されてよい。表示制御部24は、検出した眼5aの瞳孔位置に基づいて、バリア部21及びバックライト19の少なくとも一方を制御するように構成されうる。表示制御部24および検出部15は、例えばプロセッサとして構成される。表示制御部24および検出部15は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。表示制御部24および検出部15は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
 通信部22は、外部装置と通信可能なインタフェースを含んでよい。外部装置は、例えば検出装置50を含んでよい。外部装置は、例えば表示部20に表示する画像情報を提供するように構成されてよい。通信部22は、検出装置50などの外部装置から各種情報を取得し、表示制御部24に出力してよい。本開示における「通信可能なインタフェース」は、例えば物理コネクタ、及び無線通信機を含んでよい。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタを含んでよい。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、又はRCA端子に対応するコネクタを含んでよい。電気コネクタは、EIAJ CP-121aAに規定されるS端子に対応するコネクタ、又はEIAJ RC-5237に規定されるD端子に対応するコネクタを含んでよい。電気コネクタは、HDMI(登録商標)規格に準拠するコネクタ、又はBNC(British Naval Connector又はBaby-series N Connector等)を含む同軸ケーブルに対応するコネクタを含んでよい。光コネクタは、IEC 61754に準拠する種々のコネクタを含んでよい。無線通信機は、Bluetooth(登録商標)、及びIEEE8021aを含む各規格に準拠する無線通信機を含んでよい。無線通信機は、少なくとも1つのアンテナを含む。
 記憶部23は、各種情報、又は3次元表示装置17の各構成部を動作させるためのプログラム等を格納するように構成されてよい。記憶部23は、例えば半導体メモリ等で構成されてよい。記憶部23は、表示制御部24のワークメモリとして機能してよい。記憶部23は、表示制御部24に含まれてよい。
 図5に示されるように、バックライト19から射出された光は、バリア部21と表示部20とを透過して利用者13の眼5aに到達する。バックライト19から射出された光が眼5aに到達するまでの経路は、破線で表されている。バリア部21の開口領域21bを透過して右眼5aRに到達する光は、表示部20の右眼視認領域201Rを透過する。つまり、右眼5aRは、開口領域21bを透過した光によって右眼視認領域201Rを視認できる。バリア部21の開口領域21bを透過して左眼5aLに到達する光は、表示部20の左眼視認領域201Lを透過する。つまり、左眼5aLは、開口領域21bを透過した光によって左眼視認領域201Lを視認できる。
 表示部20は、右眼視認領域201R及び左眼視認領域201Lに、それぞれ右眼画像及び左眼画像を表示するように構成される。これによって、バリア部21は、左眼画像に係る画像光を左眼5aLに到達させ、右眼画像に係る画像光を右眼5aRに到達させるように構成される。つまり、開口領域21bは、左眼画像に係る画像光を利用者13の左眼5aLに到達させ、右眼画像に係る画像光を利用者13の右眼5aRに到達させるように構成される。このようにすることで、3次元表示装置17は、利用者13の両眼に対して視差画像を投影できる。利用者13は、左眼5aLと右眼5aRとで視差画像を見ることによって、画像を立体視できる。
 バリア部21の開口領域21bを透過し、表示部20の表示面20aから射出された画像光の少なくとも一部は、光学素子18を介してウインドシールド25に到達する。画像光は、ウインドシールド25で反射されて利用者13の眼5aに到達する。これにより、利用者13の眼5aは、ウインドシールド25よりもz軸の負の方向の側に位置する第2虚像14bを視認できる。第2虚像14bは、表示面20aが表示している画像に対応する。バリア部21の開口領域21bと遮光面21aとは、ウインドシールド25の前方であって第2虚像14bのz軸の負の方向側に第1虚像14aをつくる。図1に示すように、利用者13は、見かけ上、第2虚像14bの位置に表示部20が存在し、第1虚像14aの位置にバリア部21が存在するかのように、画像を視認しうる。
 表示面20aに表示される画像に係る画像光は、バリア部21によって規定される方向に向けて、3次元表示装置17から射出される。光学素子18は、ウインドシールド25に向けて射出するように構成される。光学素子18は、画像光を反射したり屈折させたりするように構成されうる。ウインドシールド25は、画像光を反射し、利用者13の眼5aに向けて進行させるように構成される。画像光が利用者13の眼5aに入射することによって、利用者13は、視差画像を虚像14として視認する。利用者13は、虚像14を視認することによって立体視できる。虚像14のうち視差画像に対応する画像は、視差虚像とも称される。視差虚像は、光学系を介して投影される視差画像であるともいえる。虚像14のうち平面画像に対応する画像は、平面虚像とも称される。平面虚像は、光学系を介して投影される平面画像であるともいえる。
 検出装置50は、テンプレートマッチングによる探索開始前に、カメラ11で撮像した撮像画像51から第1,第2テンプレート画像52,53を生成するように構成される。検出部15は、撮像画像51全体を対象に瞳孔検出を行い、検出された瞳孔を含む所定の周辺領域を第1テンプレート画像52としてよい。第1テンプレート画像52として生成する所定の周辺領域は、例えば、3次元投影装置12におけるアイボックス16に応じた領域であってよい。検出部15は、撮像画像51全体を対象に顔検出を行い、検出された顔を含む所定の周辺領域を第2テンプレート画像53としてよい。
 テンプレート画像生成における瞳孔検出は、公知の瞳孔検出処理を用いることができる。検出装置50は、公知の瞳孔検出処理として、例えば、角膜反射と瞳孔との輝度差を利用した瞳孔検出処理を用いてよい。テンプレート画像生成における顔検出は、公知の顔検出処理を用いることができる。検出装置50は、公知の顔検出処理として、例えば、眼、鼻、口などの部位の特徴量および輪郭抽出などを組み合わせた顔検出処理を用いてよい。
 テンプレート画像生成処理について、フロー図を用いて説明する。検出装置50は、例えば、図6のフロー図に示すテンプレート画像生成処理を実行してよい。検出装置50は、テンプレート画像生成処理を、例えば、3次元投影システム100の起動時(電源オン時)に開始してよい。まず、ステップA1において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。カメラ11の撮像画像51には、例えば、移動体10の座席に着席した利用者13の顔が含まれる。次に、ステップA2で、検出部15は、撮像画像51から、アイボックス16を含む第1領域を切り出し、ステップA3で、切り出した第1領域を対象に顔検出を行い、利用者13の顔5が検出されたかどうかを判断する。検出装置50は、顔5が検出されていれば、ステップA4に進み、検出されていなければ、ステップA1に戻る。
 ステップA4において検出部15は、検出された顔5を含む第2領域を第1領域から切り出して顔5の第2テンプレート画像53を抽出する。ステップA5で、検出部15は、第2領域を対象に瞳孔検出を行い、瞳孔が検出されたかどうかを判断する。検出装置50は、瞳孔が検出されていれば、ステップA6に進み、検出されていなければ、ステップA1に戻る。ステップA6において検出部15は、検出された瞳孔を含む瞳孔周辺領域を、眼5aの第1テンプレート画像52として抽出して、テンプレート画像生成処理を終了する。検出部15は、抽出した第1,第2テンプレート画像52,53を、例えば、検出部15が有する記憶領域または記憶部23に記憶してよい。検出部15は、例えば、瞳孔周辺のアイボックス16と同じ大きさの領域を第1テンプレート画像52として抽出してよい。また、検出部15は、第1,第2テンプレート画像52,53とともに、第1,第2テンプレート画像52,53それぞれの代表位置と瞳孔位置との相対的な座標位置関係を記憶してよい。
 第1,第2テンプレート画像52,53は、3次元投影システム100が起動している間、検出部15の記憶領域または記憶部23に一時的に記憶されてよい。第1,第2テンプレート画像52,53は、例えば、撮像された利用者13と関連付けられて記憶部23に記憶されてよい。記憶部23に記憶された第1,第2テンプレート画像52,53は、例えば、次回以降の3次元投影システム100起動時に、検出部15によって記憶部23から読み出されることで、テンプレート画像生成処理を省略することができる。検出部15は、再度テンプレート画像生成処理を実行することで、記憶部23に記憶された第1,第2テンプレート画像52,53を更新し得る。
 テンプレート画像生成処理おける瞳孔検出処理は、テンプレートマッチングによる瞳孔検出処理(第1処理)よりも、検出精度が高いが、検出に要する処理時間が長い。テンプレートマッチングによる瞳孔検出処理は、その処理時間の短さから、例えば、カメラ11から出力される全てのフレームにおいて検出可能である。テンプレート画像生成処理おける瞳孔検出処理は、処理時間が長いために、例えば、カメラ11から出力される数フレームごとに検出可能である。検出部15は、数フレームごとにテンプレート画像生成処理を繰り返し実行して、記憶部23に記憶された第1,第2テンプレート画像52,53を更新してよい。
 テンプレート画像生成処理における瞳孔検出処理によって検出した眼5aの位置は、テンプレートマッチングによって検出した眼5aの位置の妥当性の検証に利用しうる。検出部15は、瞳孔検出処理を第4処理として実行可能に構成される。第4処理として実行する瞳孔検出処理は、テンプレート画像生成処理と同じ処理を利用しうるが異なっていてよい。第4処理にて検出された眼5aの位置は、第4位置としうる。検出部15は、第4処理を周期的に実行可能に構成される。検出部15は、例えば、数フレームごとに第4処理を実行しうる。検出部15は、第1処理と第4処理とを並行して実行可能に構成される。検出部15は、第4処理を第1処理と並行して実行することで、第4処理を実行する間も、利用者の眼5aの位置を検出可能に構成されている。
 検出部15は、テンプレートマッチングによって検出した眼5aの位置である、第1位置、第2位置、および第3位置のいずれかと、第4位置を比較する第5処理を実行可能に構成される。検出部15は、第4処理を実行するごとに、第4処理で検出された第4位置を用いて第5処理を実行しうる。検出部15は、テンプレート画像生成処理に使用した撮像画像51を記憶しておき、同じ撮像画像51を対象として検出された第1位置、第2位置、および第3位置と、第4位置とを比較すればよい。第4位置の検出精度は、第1位置、第2位置、および第3位置より高い。検出部15は、第4位置と、第1位置、第2位置、および第3位置のそれぞれとを比較して、妥当性を検証してよい。検出部15は、例えば、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、差分値が所定範囲内であるかどうかを判定してよい。差分値が所定範囲内であれば、その位置は、第4位置と同程度の高い精度で検出されたものと推測できる。差分値が所定範囲外であれば、その位置は、誤検出であると推測できる。検出部15は、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、差分値が所定範囲内となる位置の座標情報を3次元投影装置12に出力してよい。差分値が所定範囲内となる位置が複数の場合は、差分値が最も小さい位置の座標情報を3次元投影装置12に出力してよい。検出部15は、第4位置と、第1位置、第2位置、および第3位置との差分値をそれぞれ算出し、全ての差分値が所定範囲外であれば、第4位置の座標情報を3次元投影装置12に出力してよい。
 テンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、テンプレートマッチング処理として、眼5aの第1テンプレート画像52を用いた第1処理と、顔5の第2テンプレート画像53を用いた第2処理と、を実行してよい。検出装置50は、例えば、図7Aのフロー図に示す第1処理および図7Bのフロー図に示す第2処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された第1,第2テンプレート画像52,53を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
 まず、第1処理について説明する。ステップB1において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB2では、検出部15が、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲として撮像画像51から切り出す。眼5aの第1テンプレート画像52が抽出された位置座標は、眼5aの第1テンプレート画像52と関連付けて記憶しておけばよい。ステップB3で、検出部15は、眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15は、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度を決定する。ステップB4では、検出部15が、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB5に進み、閾値未満であれば、ステップB1に戻る。ステップB5で、検出部15は、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された座標位置関係(第1関係)とによって、撮像画像51における瞳孔位置(第1位置)の座標を決定し、テンプレートマッチング処理を終了する。
 次に、第2処理について説明する。ステップB11において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB12では、検出部15が、顔5の第2テンプレート画像53が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲として撮像画像51から切り出す。顔5の第2テンプレート画像53が抽出された位置座標は、顔5の第2テンプレート画像53と関連付けて記憶しておけばよい。ステップB13で、検出部15は、顔5の第2テンプレート画像53を用いて探索範囲に対してテンプレートマッチングを行う。検出部15は、テンプレートマッチングによって、探索範囲内で顔5の第2テンプレート画像53との適合度が最も高い位置とその適合度を決定する。ステップB14では、検出部15が、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB15に進み、閾値未満であれば、ステップB1に戻る。ステップB15で、検出部15は、探索範囲内で顔5の第2テンプレート画像53との適合度が最も高い位置の座標と予め特定された座標位置関係(第2関係)とによって、撮像画像51における瞳孔位置(第2位置)の座標を決定し、テンプレートマッチング処理を終了する。
 入力された同じ撮像画像51に対して実行される第1処理と第2処理とは、非同期処理であってよい。第1処理と第2処理とは、それぞれ独立して処理が実行され、第1位置および第2位置が決定される。決定された第1位置または第2位置の座標情報は、検出装置50から3次元投影装置12に出力される。第1位置と第2位置のいずれの座標情報を出力するかは、前述のように検出部15が決定してよい。3次元投影装置12では、検出装置50から取得した瞳孔位置の座標情報を用いて、表示制御部24が、表示部20に表示する視差画像を制御する。
 検出装置50は、さらに第3処理を実行してよい。検出装置50は、例えば、図7Cのフロー図に示す第3処理を実行してよい。検出装置50は、例えば、第1位置および第2位置の決定後に第3処理を開始してよい。ステップS1において、検出部15は、第1位置と第2位置とを比較する。比較する第1位置および第2位置は、同じ撮像画像51を対象とした第1処理および第2処理の検出結果であってよい。ステップS2では、第1位置と第2位置とが同じ位置であるかどうかを判断する。例えば、第1位置の座標情報と第2位置の座標情報との差分を算出し、差分値が第1範囲内となる場合は、同じ位置であると判断してよい。第1位置と第2位置とが同じ位置であれば、ステップS3で、検出部15は、第1位置を、撮像画像51における瞳孔位置である第3位置として座標決定し、第3処理を終了する。第1位置と第2位置とが同じ位置でなければ、ステップS4で、検出部15は、検出失敗であるかどうかを判断する。例えば、第1位置の座標情報と第2位置の座標情報との差分値が第2範囲外となる場合は、検出失敗であると判断してよい。検出失敗であれば、検出部15は、第3位置の座標を決定せずに第3処理を終了する。検出失敗でなければ、検出部15は、ステップS5で、第1位置と第2位置との中間位置を、撮像画像51における瞳孔位置である第3位置として座標決定し、第3処理を終了する。例えば、第1位置の座標情報と第2位置の座標情報との差分値が第1範囲外であって、第2範囲内となる場合は、検出失敗ではないと判断してよい。
 移動体10の運転席は、例えば、前後方向に移動可能に構成されている。利用者の姿勢は、移動体10の運転中に変化することもある。このような場合に、検出装置50は、次のような他の例のテンプレートマッチング処理を実行しうる。運転席の前後位置または利用者13の姿勢が変化し、利用者13の顔がz方向に移動した場合を考える。利用者13の顔がz方向の正方向に移動した場合、撮像画像51には、移動前に比べて利用者13の顔が小さく撮像される。利用者13の顔がz方向の負方向に移動した場合、撮像画像51には、移動前に比べて利用者13の顔が大きく撮像される。この場合、検出装置50は、第1,第2テンプレート画像52,53を変倍処理して、変倍処理後の第1,第2テンプレート画像52,53を用いてテンプレートマッチングすればよい。検出装置50は、例えば、拡大率の異なる複数の第1,第2テンプレート画像52,53を用いてテンプレートマッチングしてよい。検出装置50は、例えば、縮小率の異なる複数の第1,第2テンプレート画像52,53を用いてテンプレートマッチングしてよい。
 他の例のテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50は、例えば、図8のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50は、例えば、3次元投影システム100の起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された第1,第2テンプレート画像52,53を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50は、3次元投影システム100の起動時にテンプレートマッチング処理を開始してよい。
 第1処理の他の例について説明する。図7AのステップB1~B4と、図8のステップC1~C4とは同じ動作を実行するので、説明は省略する。検出部15は、ステップC5において、眼5aの第1テンプレート画像52の変倍率を複数変更して第1テンプレート画像52に変倍処理を施す。検出部15は、変倍処理後の眼5aの第1テンプレート画像52を用いてテンプレートマッチングを行う。検出装置50は、利用者13の姿勢がどのように変化したかは検出しないので、変倍処理として、拡大処理も縮小処理もいずれも行う。変倍処理後の眼5aの第1テンプレート画像52は複数生成されるので、検出部15は、複数の眼5aの第1テンプレート画像52でテンプレートマッチングを行い、適合度が最も高い眼5aの第1テンプレート画像52を決定する。ステップC6で、検出部15は、適合度が最も高い眼5aの第1テンプレート画像52の変倍率に基づいて、利用者13のz方向の位置を推定する。ステップC7では、ステップB5と同様に撮像画像51における瞳孔位置の座標を決定したのち、推定した利用者13のz方向の位置に基づいて瞳孔位置の座標を補正し、テンプレートマッチング処理を終了する。補正された瞳孔位置の座標情報は、検出装置50から3次元投影装置12に出力される。第2処理の他の例では、図7BのステップB11~B14と、図8のステップC1~C4とが同じ動作を実行し、ステップC5~C7で、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いること以外、上記の第1の処理と同じであるので、説明を省略する。
 他の例の3次元投影システム100Aについて説明する。図9に示されるように、3次元投影システム100Aにおいて、検出装置50Aは、入力部30と、予測部31と、検出部15Aと、を備える。3次元投影システム100Aの検出装置50A以外の構成は、前述の3次元投影システム100と同様であるので、同じ参照符号を付して、詳細な説明は省略する。予測部31は、検出部15Aが第1処理で現在時刻より前に検出した眼5aの複数の位置に基づいて、現在時刻より後の時刻における眼5aの位置を予測するように構成されている。本実施形態の眼5aの位置は、上記と同様に利用者13の眼5aの瞳孔位置を示す座標情報であってよい。眼5aの複数の位置とは、検出された時刻がそれぞれ異なる眼5aの位置を含む。予測部31は、検出時刻と座標情報との組み合わせである予測用データを複数用いて、未来の眼5aの位置を予測し、予測位置として出力するように構成されてよい。検出部15Aは、眼5aの位置を検出すると、座標情報と検出時刻とを予測用データとして、例えば、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に順次記憶してよい。未来の眼5aの位置とは、記憶された複数の予測用データに対する未来をいう。
 予測部31は、検出部15Aが第2処理で現在時刻より前に検出した顔5の複数の位置に基づいて、現在時刻より後の時刻における顔5の位置を予測するように構成されている。本実施形態の顔5の位置は、上記と同様に利用者13の眼5aの瞳孔位置を示す座標情報であってよい。顔5の複数の位置とは、検出された時刻がそれぞれ異なる顔5の位置を含む。予測部31は、検出時刻と座標情報との組み合わせである予測用データを複数用いて、未来の顔5の位置を予測し、予測位置として出力するように構成されてよい。検出部15Aは、顔5の位置を検出すると、座標情報と検出時刻とを予測用データとして、例えば、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に順次記憶してよい。未来の顔5の位置とは、記憶された複数の予測用データに対する未来をいう。
 予測部31による眼5aおよび顔5の位置の予測方法は、例えば、予測関数を用いる方法であってよい。予測関数は、記憶された複数の予測用データから導き出される関数である。予測関数は、予め実験等によって定められた係数を用いた関数式を、検出部15Aが有する記憶領域、予測部31が有する記憶領域または記憶部23に記憶してよい。予測関数は、予測部31が、眼5aおよび顔5の位置の予測を行うごとに更新してよい。
 予測部31は、予測すべき未来の時刻を予測関数に入力し、入力された時刻における眼5aおよび顔5の位置(予測位置)の座標情報を出力する。予測すべき未来の時刻は、次にテンプレートマッチングを実行する時刻であって、例えば、カメラ11から次のフレームが入力される時刻であってよい。前述のとおり、検出部15Aは、テンプレートマッチングにおいて、撮像画像51の一部の領域を探索範囲としてよい。検出部15Aは、第1処理において、予測部31が予測した眼5aの位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている。検出部15Aは、第2処理において、予測部31が予測した顔5の位置を含む領域を、テンプレートマッチングにおける探索範囲とするように構成されている。検出部15Aは、撮像画像51において、予測部31が出力した予測位置を含む領域を予測領域として設定し、設定した予測領域をテンプレートマッチングにおける探索範囲とする。予測位置を含む予測領域は、撮像画像51より小さく第1,第2テンプレート画像52,53より大きい領域であって、領域内に予測位置を含んでいればよい。例えば、予測領域の中心座標が、予測位置の座標と一致する領域であってよい。本実施形態のテンプレートマッチングにおける探索範囲の形状および大きさは、例えば、第1,第2テンプレート画像52,53と相似関係を有していてよい。
 検出部15Aは、このような予測領域を探索範囲としてテンプレートマッチングを実行する。本実施形態のテンプレートマッチングは、探索範囲が異なる以外は、前述のテンプレートマッチングと同様である。テンプレートマッチングでは、探索範囲である予測領域において、第1,第2テンプレート画像52,53と最も適合する位置を探索する。第1処理および第2処理の検出結果は、利用者13の眼5aの瞳孔位置を示す座標情報であってよい。本実施形態の探索範囲となる予測領域は、予測部31が出力した予測位置を含むので、探索範囲をより小さくしても、探索範囲内に眼5aおよび顔5が含まれている可能性が高い。探索範囲をより小さくすることによって、テンプレートマッチングに要する演算量は、低減される。演算量の低減によって、検出部15Aは、検出結果の出力にかかる演算速度を高速化できる。
 予測部31は、検出部15Aが現在時刻より前に検出した眼5aの複数の位置に基づいて、さらに、眼5aの位置の変化速度を算出するように構成されていてよい。上記のように、座標情報と検出時刻とが予測用データとして記憶されており、複数の予測データを使用すれば、眼5aの位置の変化速度が算出できる。例えば、2つの予測用データの差分により、座標情報から眼5aの位置の移動距離が算出され、検出時刻から時間が算出されるので、予測部31は、眼5aの位置の変化速度が算出できる。また、移動距離は、x軸方向成分とy軸方向成分とをそれぞれ算出することができ、眼5aの位置の変化速度もx軸方向成分とy軸方向成分とをそれぞれ算出できる。
 検出部15Aは、予測部31が算出した変化速度に応じて、第1処理のテンプレートマッチングにおける探索範囲の大きさを変更するように構成されている。予測部31が算出した変化速度が大きいということは、眼5aの位置の移動距離が大きいことが予測される。例えば、算出された変化速度のx軸方向成分と変化速度のy軸方向成分とを比較したときに、眼5aの位置の移動距離は、変化速度の成分が大きい方向に大きいことが予測される。本実施形態において、眼5aの位置を予測することで、テンプレートマッチングにおける探索範囲を小さく設定することができるが、変化速度の成分が大きい方向においては、眼5aの位置が、予測位置からずれることにより、探索範囲から外れるおそれがある。眼5aの位置が探索範囲外とならないように、例えば、検出部15Aは、予測位置を含む予測領域を、変化速度の成分が大きい方向に広くしてよい。検出部15Aは、このように広くした領域を探索範囲としてテンプレートマッチングを実行する。検出部15Aは、上記と同様に、予測部31が算出した変化速度に応じて、第2処理の顔5のテンプレートマッチングにおける探索範囲の大きさを変更してよい。
 瞳孔位置の予測を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、第1処理において、図10のフロー図に示すテンプレートマッチング処理を実行してよい。検出装置50Aは、例えば、3次元投影システム100Aの起動時に、テンプレート画像生成処理を実行し、テンプレート画像生成処理の完了後にテンプレートマッチング処理を開始してよい。記憶部23に予め記憶された眼5aの第1テンプレート画像52を用いる場合、テンプレート画像生成処理を省略しうるので、検出装置50Aは、3次元投影システム100Aの起動時にテンプレートマッチング処理を開始してよい。
 まず、ステップB21において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップB22では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップB22で切り出される探索範囲は、後述のステップB27で決定された探索範囲である。ステップB22より以前にステップB27が実行されておらず探索範囲が予め決定されていない場合は、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲としてよい。ステップB23で、検出部15Aは、眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。検出部15Aは、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップB24では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップB25に進み、閾値未満であれば、ステップB21に戻る。ステップB25で、検出部15Aは、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された相対的な座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。
 ステップB26で、予測部31は、未来の瞳孔位置を予測し、予測位置として出力する。予測部31は、例えば、ステップB25で決定された瞳孔位置の座標情報と検出時刻との組み合わせである最新の予測用データと、記憶されている過去の予測用データとに基づいて予測関数を更新する。予測部31は、更新された予測関数を用いて瞳孔位置を予測し、予測位置を出力する。ステップB27で、検出部15Aは、予測部31から出力された予測位置を含む領域を探索範囲として決定し、ステップB21に戻る。第2処理では、第1処理の一部において、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いればよい。
 前述のように、利用者13の顔5は、前後に移動することがある。また、利用者13が首を傾げるなどした場合には、利用者13の顔5が傾くことがある。利用者13の顔5が前後に移動すると、撮像画像51の利用者13の顔5は、大きくまたは小さく写り、拡大処理または縮小処理した場合と類似する。利用者13の顔5が傾くと、撮像画像の利用者13の顔5は、回転処理した場合と類似する。第1処理において、予測部31が瞳孔位置を予測したのち、検出部15Aが、予測位置と直前の瞳孔位置とを比較する。比較した結果、例えば、眼間距離が変化していれば、検出部15Aは、眼5aの第1テンプレート画像52を、眼間距離に応じた変倍率の眼5aの第1テンプレート画像52に更新する。検出部15Aは、眼5aの第1テンプレート画像52として、例えば、変倍処理による拡大率の異なる複数の第1テンプレート画像52および変倍処理による縮小率の異なる複数の第1テンプレート画像52を予め作成しておき、眼間距離に応じた眼5aの第1テンプレート画像52を選択してよい。予測部31が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、眼間距離の変化を検出してよい。第2処理においても同様に、眼間距離が変化していれば、検出部15Aは、顔5の第2テンプレート画像53を、眼間距離に応じた変倍率の顔5の第2テンプレート画像53に更新する。検出部15Aは、顔5の第2テンプレート画像53として、例えば、変倍処理による拡大率の異なる複数の第2テンプレート画像53および変倍処理による縮小率の異なる複数の第2テンプレート画像53を予め作成しておき、眼間距離に応じた顔5の第2テンプレート画像53を選択してよい。
 また、第1処理において、検出部15Aが、予測位置と直前の瞳孔位置とを比較した結果、瞳孔位置が、顔の傾きに応じた変化をしていれば、検出部15Aは、眼5aの第1テンプレート画像52を、傾き変化に応じた回転角度の眼5aの第1テンプレート画像52に更新する。検出部15Aは、眼5aの第1テンプレート画像52として、例えば、回転処理による回転角度の異なる複数の第1テンプレート画像52を予め作成しておき、傾き変化に応じた第1テンプレート画像52を選択してよい。予測部31が、左眼の瞳孔位置と右眼の瞳孔位置とをそれぞれ予測することで、検出部15Aが、直前の左眼の瞳孔位置と右眼の瞳孔位置との比較によって、y軸方向の位置変化から傾き変化を検出してよい。利用者13の顔が傾いた場合、左眼の瞳孔位置と右眼の瞳孔位置とのそれぞれのy軸方向の位置(y座標)が、互いに異なる方向に変化する。例えば、左眼の瞳孔のy軸方向の位置が上方向に変化し、右眼の瞳孔のy軸方向の位置が下方向に変化していれば、傾き変化が生じている。検出部15Aは、左眼および右眼のy軸方向の位置変化の大きさに基づいて回転角度を算出してよい。第2処理においても同様に、瞳孔位置が傾いていれば、検出部15Aは、顔5の第2テンプレート画像53を、傾き変化に応じた回転角度の第2テンプレート画像53に更新する。検出部15Aは、顔5の第2テンプレート画像53として、例えば、回転処理による回転角度の異なる複数の第2テンプレート画像53を予め作成しておき、傾き変化に応じた第2テンプレート画像53を選択してよい。
 テンプレート画像の更新を含むテンプレートマッチング処理について、フロー図を用いて説明する。検出装置50Aは、例えば、第1処理において、図11のフロー図に示すテンプレートマッチング処理を実行してよい。ステップC11において、カメラ11が撮像した撮像画像51の入力を入力部30が受ける。ステップC12では、検出部15Aが、探索範囲を撮像画像51から切り出す。ステップC12で切り出される探索範囲は、後述のステップC18で決定された探索範囲である。ステップC18が、ステップC12より以前に実行されておらず探索範囲が予め決定されていない場合は、眼5aの第1テンプレート画像52が、テンプレート画像生成処理において抽出された位置周辺の領域を探索範囲としてよい。ステップC13で、検出部15Aは、更新された眼5aの第1テンプレート画像52を用いて探索範囲に対してテンプレートマッチングを行う。眼5aの第1テンプレート画像52は、後述のステップC17で更新された眼5aの第1テンプレート画像52である。検出部15Aは、テンプレートマッチングによって、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置とその適合度とを決定する。ステップC14では、検出部15Aが、決定された適合度が閾値以上であるかどうかを判断する。閾値以上であれば、ステップC15に進み、閾値未満であれば、ステップC11に戻る。ステップC15で、検出部15Aは、探索範囲内で眼5aの第1テンプレート画像52との適合度が最も高い位置の座標と予め特定された座標位置関係とによって、撮像画像51における瞳孔位置の座標を決定する。
 ステップC16で、予測部31は、未来の瞳孔位置を予測し、予測位置として出力する。ステップC17で、検出部15Aは、眼5aの第1テンプレート画像52を更新する。検出部15Aは、予測位置と直前の瞳孔位置とを比較し、比較結果に応じて、少なくとも変倍処理または回転処理した眼5aの第1テンプレート画像52に更新する。ステップC18で、検出部15Aは、予測部31から出力された予測位置を含む領域を探索範囲として決定し、ステップC11に戻る。第2処理では、第1処理の一部において、眼5aの第1テンプレート画像52に代えて、顔5の第2テンプレート画像53を用いればよい。
 第5処理が実行された場合において、第1位置、第2位置、および第3位置のいずれもが誤検出であると、予測精度が低く予測位置が大きく外れるおそれがある。第1位置、第2位置、および第3位置のいずれもが誤検出のとき、ステップB27およびステップC18において、検出部15,15Aは、予測位置に代えて第4位置を含む領域を探索範囲として決定してよい。
 本開示に係る構成は、以上説明した実施形態にのみ限定されるものではなく、幾多の変形又は変更が可能である。例えば、各構成部等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 本開示に係る構成を説明する図は、模式的なものである。図面上の寸法比率等は、現実のものと必ずしも一致しない。
 本開示において「第1」、「第2」及び「第3」等の記載は、当該構成を区別するための識別子である。本開示における「第1」、「第2」及び「第3」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1処理は、第2処理と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
 5 顔
 5a 眼(5aL:左眼、5aR:右眼)
 10 移動体
 11 カメラ
 12 3次元投影装置
 13 利用者
 14 虚像(14a:第1虚像、14b:第2虚像)
 15,15A 検出部
 16 アイボックス
 17 3次元表示装置
 18 光学素子(18a:第1ミラー、18b:第2ミラー)
 19 バックライト
 20 表示部(20a:表示面)
 201L 左眼視認領域
 201R 右眼視認領域
 21 バリア部(21a:遮光面、21b:開口領域)
 22 通信部
 23 記憶部
 24 表示制御部
 25 ウインドシールド
 30 入力部
 31 予測部
 50,50A 検出装置
 51 撮像画像
 52 眼の第1テンプレート画像
 53 顔の第2テンプレート画像
 100,100A 3次元投影システム(画像表示システム)

Claims (11)

  1.  画像情報の入力を受ける入力部と、
     利用者の眼の位置を検出する検出処理を実行可能に構成されるコントローラと、を備え、
     前記コントローラは、
     入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する第1処理と、
     前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する第2処理と、を前記検出処理として実行可能に構成される、検出装置。
  2.  請求項1に記載の検出装置であって、
     前記コントローラは、前記第1位置および前記第2位置を比較した結果に基づいて眼の第3位置を検出する第3処理を前記検出処理として実行可能に構成される、検出装置。
  3.  請求項1または2に記載の検出装置であって、
     前記コントローラは、前記第1処理と異なる、前記入力された画像情報に基づいて眼の第4位置を検出する第4処理を実行可能に構成される、検出装置。
  4.  請求項3に記載の検出装置であって、
     前記コントローラは、前記第1処理の処理時間より第4処理の処理時間が長い、検出装置。
  5.  請求項3または4に記載の検出装置であって、
     前記コントローラは、前記第1処理の検出精度より第4処理の検出精度が高い、検出装置。
  6.  請求項3~5のいずれか1つに記載の検出装置であって、
     前記コントローラは、前記第4処理を周期的に実行するように構成される、検出装置。
  7.  請求項3~5のいずれか1つに記載の検出装置であって、
     前記コントローラは、前記第1処理と並行して第4処理を実行可能に構成される、検出装置。
  8.  請求項3~5のいずれか1つに記載の検出装置であって、
     前記コントローラは、前記第1位置、前記第2位置、および前記第3位置のいずれかと、前記第4位置を比較する第5処理を実行可能に構成される、検出装置。
  9.  請求項8に記載の検出装置であって、
     前記コントローラは、前記第5処理の結果に基づき、前記第1処理または前記第2処理の少なくともいずれかにおいて、前記第4位置を含む領域を探索範囲とするテンプレートマッチングを実行可能に構成される、検出装置。
  10.  利用者の両眼に対して光学系を介して投影される視差画像を表示するように構成される表示部と、
     前記視差画像の画像光の進行方向を規定することによって、前記両眼に視差を与えるように構成されるバリア部と、
     利用者の顔を撮像するように構成されるカメラと、
     前記カメラから出力された撮像情報の入力を受ける入力部と、
     利用者の眼の位置を検出する検出処理を実行可能に構成される検出部と、
     前記検出部で検出された利用者の眼の位置に応じた視差画像を合成して前記表示部を制御する表示制御部と、を備え、
     前記検出部は、
     入力された画像情報に基づいて、第1テンプレート画像を用いるテンプレートマッチングにて眼の第1位置を検出する第1処理と、
     前記入力された画像情報に基づいて、前記第1テンプレート画像と異なる第2テンプレート画像を用いるテンプレートマッチングにて顔の位置を検出し、検出した顔の位置に基づいて眼の第2位置を検出する第2処理と、を前記検出処理として実行可能に構成される、画像表示システム。
  11.  請求項10記載の画像表示システムであって、
     前記検出部は、前記第1位置および前記第2位置を比較した結果に基づいて眼の第3位置を検出する第3処理を前記検出処理として実行可能に構成され、
     前記表示制御部は、前記第1位置、前記第2位置、および前記第3位置のいずれかに基づいて視差画像を合成する、画像表示システム。
PCT/JP2021/038574 2020-10-30 2021-10-19 検出装置および画像表示システム WO2022091864A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022559033A JP7466687B2 (ja) 2020-10-30 2021-10-19 検出装置および画像表示システム
US18/034,347 US20230388479A1 (en) 2020-10-30 2021-10-19 Detection device and image display system
EP21885983.3A EP4239406A1 (en) 2020-10-30 2021-10-19 Detection device and image display system
CN202180072468.XA CN116547604A (zh) 2020-10-30 2021-10-19 检测装置以及图像显示系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020182946 2020-10-30
JP2020-182946 2020-10-30

Publications (1)

Publication Number Publication Date
WO2022091864A1 true WO2022091864A1 (ja) 2022-05-05

Family

ID=81382578

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/038574 WO2022091864A1 (ja) 2020-10-30 2021-10-19 検出装置および画像表示システム

Country Status (5)

Country Link
US (1) US20230388479A1 (ja)
EP (1) EP4239406A1 (ja)
JP (1) JP7466687B2 (ja)
CN (1) CN116547604A (ja)
WO (1) WO2022091864A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06255388A (ja) * 1993-03-09 1994-09-13 Toyota Motor Corp 運転状態検出装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2014054486A (ja) * 2012-09-14 2014-03-27 Fujitsu Ltd 注視位置検出装置及び注視位置検出方法
JP2014071519A (ja) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd 状態判定装置、運転支援システム、状態判定方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2515932B (en) 2012-04-27 2017-04-26 Anderson Power Products Compact latching mechanism for a mid-power electrical connector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06255388A (ja) * 1993-03-09 1994-09-13 Toyota Motor Corp 運転状態検出装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
JP2001195582A (ja) * 2000-01-12 2001-07-19 Mixed Reality Systems Laboratory Inc 画像検出装置、画像検出方法、立体表示装置、表示コントローラ、立体表示システムおよびプログラム記憶媒体
JP2014054486A (ja) * 2012-09-14 2014-03-27 Fujitsu Ltd 注視位置検出装置及び注視位置検出方法
JP2014071519A (ja) * 2012-09-27 2014-04-21 Aisin Seiki Co Ltd 状態判定装置、運転支援システム、状態判定方法及びプログラム

Also Published As

Publication number Publication date
US20230388479A1 (en) 2023-11-30
JP7466687B2 (ja) 2024-04-12
JPWO2022091864A1 (ja) 2022-05-05
EP4239406A1 (en) 2023-09-06
CN116547604A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN112052716B (zh) 识别装置、识别方法及存储介质
WO2022091864A1 (ja) 検出装置および画像表示システム
WO2021201161A1 (ja) 検出装置および画像表示モジュール
JP2021166031A (ja) 検出装置および画像表示モジュール
WO2021177315A1 (ja) カメラ装置、ウインドシールドおよび画像表示モジュール
JP7141975B2 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
JP7337023B2 (ja) 画像表示システム
WO2022024814A1 (ja) カメラシステムおよび運転支援システム
JP7173836B2 (ja) コントローラ、位置判定装置、位置判定システム、表示システム、プログラム、および記録媒体
WO2022131137A1 (ja) 3次元表示装置、画像表示システムおよび移動体
WO2022186189A1 (ja) 撮像装置および3次元表示装置
JP7332764B2 (ja) 画像表示モジュール
JP7461215B2 (ja) 画像表示モジュール
JP7250582B2 (ja) 画像表示モジュール、移動体、及び光学系
WO2021235287A1 (ja) 視点検出装置および表示装置
JP2022021866A (ja) カメラシステムおよび画像表示システム
JP2022077138A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21885983

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022559033

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180072468.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18034347

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021885983

Country of ref document: EP

Effective date: 20230530