WO2019135281A1 - 視線方向較正装置、視線方向較正方法および視線方向較正プログラム - Google Patents

視線方向較正装置、視線方向較正方法および視線方向較正プログラム Download PDF

Info

Publication number
WO2019135281A1
WO2019135281A1 PCT/JP2018/000091 JP2018000091W WO2019135281A1 WO 2019135281 A1 WO2019135281 A1 WO 2019135281A1 JP 2018000091 W JP2018000091 W JP 2018000091W WO 2019135281 A1 WO2019135281 A1 WO 2019135281A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
gaze
gaze direction
user
indicating
Prior art date
Application number
PCT/JP2018/000091
Other languages
English (en)
French (fr)
Inventor
飛仙 平田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2018529196A priority Critical patent/JP6479272B1/ja
Priority to PCT/JP2018/000091 priority patent/WO2019135281A1/ja
Priority to DE112018006164.7T priority patent/DE112018006164B4/de
Priority to CN201880084663.2A priority patent/CN111527374B/zh
Publication of WO2019135281A1 publication Critical patent/WO2019135281A1/ja
Priority to US16/915,264 priority patent/US10977488B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/22Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces

Definitions

  • the present invention relates to a technique for calibrating a measured gaze direction of a person.
  • the gaze direction of the person who was measured is expected in various fields. For example, as utilization for driving assistance to the driver of the vehicle, based on the measured driver's gaze direction, the driver's surrounding recognition situation such as the degree of attention to a pedestrian or the like or a side view driving is determined For example, the support information may be displayed in the gaze direction.
  • the measured gaze direction includes a measurement error. Therefore, in the case of using the measured gaze direction, a technique of calibrating measurement errors included in the measured gaze direction is also used.
  • the corneal reflection image of each of the driver's eyes is extracted from the images taken by the two cameras, and the intersection point of the two straight lines connecting the coordinates of the two corneal reflection images and the focal point of the corresponding camera.
  • a gaze direction measurement device is described that detects the eyeball position centered on the eyeball, detects the rotation angle of the eyeball with respect to the shooting direction of the camera, and calculates the gaze direction based on the detected eyeball position and the rotation angle of the eyeball ing.
  • the gaze direction measuring device described in Patent Document 1 starts the calibration operation when a specific device such as a navigation device is operated by the occupant, and the gaze direction of the driver calculated as described above is A correction coefficient is calculated that matches a straight line passing through the eyeball center and a specific device.
  • the present invention has been made to solve the above problems, and calculates a calibration amount for calibrating measurement errors included in the gaze direction measured with respect to the gaze directed to any point.
  • the purpose is
  • a calibration information acquisition unit that acquires three-dimensional coordinates indicating the position of each calibration gaze target for at least one calibration gaze target, and a plurality of samples indicating the gaze direction of the user Based on the sample acquisition unit for acquiring the three-dimensional coordinates acquired by the calibration information acquisition unit and the sample indicating the gaze direction of the user gazing at each calibration gaze object acquired by the sample acquisition unit.
  • a calibration model generation unit generating a plurality of calibration models indicating three-dimensional coordinates which are candidates for the user position; and a calibration parameter calculation unit calculating calibration parameters based on the calibration model generated by the calibration model generation unit.
  • the present invention it is possible to calculate a calibration amount for calibrating the measurement error included in the gaze direction measured with respect to the gaze directed to an arbitrary point.
  • FIG. 1 is a block diagram showing a configuration of a gaze direction calibration device according to a first embodiment.
  • 2A and 2B are diagrams showing an example of a hardware configuration of the gaze direction calibration device according to the first embodiment.
  • 3 is a diagram showing three-dimensional coordinates used in the gaze direction calibration device according to Embodiment 1.
  • FIG. FIG. 7 is an explanatory view showing processing of a calibration model generation unit of the gaze direction calibration device according to the first embodiment.
  • FIG. 7 is an explanatory view showing processing of a calibration model generation unit of the gaze direction calibration device according to the first embodiment.
  • FIG. 6 is an explanatory view showing a calculation example of a calibration value calculation unit of the gaze direction calibration device according to the first embodiment.
  • FIG. 5 is a flowchart showing an operation of calibration parameter calculation processing of the gaze direction calibration device according to the first embodiment.
  • 6 is a flowchart showing operations of calibration processing of the gaze direction and determination processing of the gaze direction of the gaze direction calibration device according to the first embodiment.
  • FIG. 7 is a diagram showing the result of a calibration process of the gaze direction calibration device according to the first embodiment.
  • FIG. 1 is a block diagram showing the configuration of the gaze direction calibration device 100 according to the first embodiment.
  • the gaze direction calibration apparatus 100 includes a calibration information acquisition unit 101, a sample acquisition unit 102, a calibration model generation unit 103, a calibration parameter calculation unit 104, a calibration value calculation unit 105, a calibration parameter storage unit 106a, a gaze direction storage unit 106b, and a gaze direction.
  • a determination unit 107 is provided.
  • the gaze direction calibration device 100 is connected to the gaze measurement device 201 and the input device 202.
  • the gaze direction calibration apparatus 100 calibrates the measured gaze direction of the occupant in the vehicle, or calibrates the gaze direction measured for the user who views the display on the desk or the display fixed to the head of the user, or the like.
  • the present invention is widely applicable to the case where the relative positions of the calibration target and the user are considered to be fixed.
  • the calibration information acquisition unit 101 acquires three-dimensional coordinates of a preset gazing target (hereinafter referred to as calibration gazing target) set in advance by the user when generating a calibration model to be described later.
  • the user is a person who is a target of eye gaze measurement.
  • the calibration information acquisition unit 101 acquires three-dimensional coordinates of the gazing target for calibration from an internal storage device.
  • the calibration information acquisition unit 101 acquires three-dimensional coordinates indicating the position of the calibration gaze target from an external program via the input device.
  • the calibration gaze target is set to any number that can satisfy at least the degree of freedom of calibration.
  • a rotation parameter (an equation to be described later) indicating an angle between the reference direction of gaze direction measurement and the calibration direction.
  • ⁇ in (1) is known in advance
  • the position of the driver's seat in the left-right direction (x component of x target in equation (1)) is fixed and known in advance.
  • the degree of freedom of calibration is two degrees of freedom in the longitudinal direction and vertical direction of the user position (the y and z components of x target in equation (1)). Since it is possible to obtain measurement values with two degrees of freedom assuming that the direction is provided, at least one calibration target may be provided.
  • the rotation parameter ( ⁇ ) is unknown, and the case where there are a plurality of calibration gaze targets will be described as an example. Generally, as the number of calibration gaze targets increases, the accuracy of the calculated calibration parameter improves.
  • the sample acquisition unit 102 acquires a plurality of samples indicating the gaze directions of the user who is gazing at each calibration target.
  • the sample acquisition unit 102 acquires a plurality of gaze directions with respect to a user in a state of gazing at one calibration gaze target. Further, the sample acquisition unit 102 acquires the gaze direction of the user in a state of gazing at each of the plurality of calibration gazing targets.
  • the reference of the gaze direction that is, the true gaze direction at the zero point of the gaze measuring apparatus 201 be the direction parallel to the front direction of the user in the simplest way.
  • the gaze direction reference may be unknown.
  • a gaze direction after calibration is calculated based on an arbitrarily designated direction, for example, a Y axis described later, by a calibration process described later.
  • the sample acquisition unit 102 outputs the acquired sample to the calibration model generation unit 103.
  • the sample acquisition unit 102 acquires a sample indicating the current gaze direction of the user.
  • the sample acquisition unit 102 outputs the acquired sample to the calibration value calculation unit 105.
  • the calibration model generation unit 103 associates the three-dimensional coordinates of the gazing target for calibration acquired by the calibration information acquisition unit 101 with the sample acquired by the sample acquisition unit 102, and indicates three-dimensional coordinates as candidates for the user position. Generate multiple calibration models.
  • the calibration model generation unit 103 may be configured to acquire a plurality of samples stored in association with the information indicating the calibration gazing target in cooperation with an external program.
  • the user position corresponds to, for example, the central position of the head of the user, the central position of the eye, or the central position between the eyebrows.
  • the calibration model generation unit 103 outputs the generated calibration model to the calibration parameter calculation unit 104. The detailed processing contents of the calibration model generation unit 103 will be described later.
  • the calibration parameter calculation unit 104 calculates calibration parameters based on the calibration model generated by the calibration model generation unit 103.
  • the calibration parameter calculation unit 104 stores the calibration parameter in the calibration parameter storage unit 106a. The detailed processing contents of the calibration parameter calculation unit 104 will be described later.
  • the calibration value calculation unit 105 calculates a calibrated gaze direction based on the calibration parameter calculated by the calibration parameter calculation unit 104. For example, the calibration value calculation unit 105 receives, via the input device 202, a request from an external program to determine whether or not the user is viewing any desired gaze target (hereinafter, referred to as a gaze target for determination). When the calibration value calculation unit 105 receives the request, the calibration value calculation unit 105 acquires, from the sample acquisition unit 102, a sample indicating the current gaze direction. The calibration value calculation unit 105 calibrates the gaze direction using the calibration parameter stored in the calibration parameter storage unit 106a. The calibration value calculation unit 105 outputs the gaze direction after calibration to the gaze direction determination unit 107.
  • a gaze target for determination a desired gaze target for determination
  • the calibration value calculation unit 105 may be configured to constantly accumulate the gaze direction after calibration in the gaze direction accumulation unit 106b.
  • the gaze direction calibration apparatus 100 sets the three-dimensional coordinates of the gaze target for determination in the gaze direction after calibration with respect to an external program for which it is desired to determine whether the user visually recognizes the gaze target for determination.
  • the converted value for example, ⁇ target in determination processing described later is returned.
  • the external program independently performs determination processing by referring to the gaze direction storage unit 106 b as needed and comparing it with the gaze direction after calibration.
  • the combination of the calibration value stored in the line-of-sight direction storage unit 106b and the calibration parameter provided to the external program is an example, and can be appropriately changed according to the configuration of the determination processing.
  • the gaze direction determination unit 107 determines whether the user views the gaze target for determination based on the calibration parameter stored in the calibration parameter storage unit 106 a and the calibrated gaze direction calibrated by the calibration value calculation unit 105. Make a decision.
  • the gaze direction determining unit 107 determines that the user visually recognizes the gaze target for determination.
  • the gaze direction determination unit 107 sets whether or not the gaze direction after calibration and the direction of the gaze target for determination are similar based on a preset threshold value.
  • the threshold is set based on the current gaze direction of the user and information indicating the surrounding situation. For example, the threshold is set large when it is determined that an object viewed by the user is present at a position close to the user, and an object viewed by the user is present at a position distant from the user If it is determined that the value is set small.
  • FIG. 2A and 2B are diagrams showing an example of a hardware configuration of the gaze direction calibration device 100 according to the first embodiment.
  • the calibration parameter storage unit 106 a and the gaze direction storage unit 106 b in the gaze direction calibration device 100 are realized by the storage 100 a.
  • Each function of calibration information acquisition unit 101, sample acquisition unit 102, calibration model generation unit 103, calibration parameter calculation unit 104, calibration value calculation unit 105 and gaze direction determination unit 107 in gaze direction calibration apparatus 100 is realized by a processing circuit.
  • Ru That is, the gaze direction calibration apparatus 100 includes a processing circuit for realizing the above functions.
  • the processing circuit may be the processing circuit 100b which is dedicated hardware as shown in FIG. 2A, or may be the processor 100c executing a program stored in the memory 100d as shown in FIG. 2B. Good.
  • the processing circuit 100b may be, for example, a single circuit, a complex circuit, a programmed processor, a parallel programmed processor, an application specific integrated circuit (ASIC), a field-programmable gate array (FPGA), or a combination thereof.
  • ASIC application specific integrated circuit
  • FPGA field-programmable gate array
  • the functions of the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105, and the gaze direction determination unit 107 may be implemented by processing circuits. The functions of the respective units may be integrated and realized by one processing circuit.
  • the processor 100c when the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105 and the gaze direction determination unit 107 are the processor 100c,
  • the functions are realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 100 d.
  • the processor 100c reads out and executes the program stored in the memory 100d to execute the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105, and the gaze direction.
  • Each function of the determination unit 107 is realized.
  • the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105, and the gaze direction determination unit 107 are described later when executed by the processor 100c. 7 and a step shown in FIG. 8 is provided with a memory 100 d for storing a program to be executed. These programs also cause the computer to execute the procedure or method of the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105, and the gaze direction determination unit 107 It can be said that it is a thing.
  • the processor 100 c refers to, for example, a central processing unit (CPU), a processing device, an arithmetic device, a processor, a microprocessor, a microcomputer, or a digital signal processor (DSP).
  • the memory 100d may be, for example, a nonvolatile or volatile semiconductor memory such as a random access memory (RAM), a read only memory (ROM), a flash memory, an erasable programmable ROM (EPROM), or an electrically EPROM (EEPROM). It may be a hard disk, a magnetic disk such as a flexible disk, or an optical disk such as a mini disk, a CD (Compact Disc), a DVD (Digital Versatile Disc), or the like.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically EPROM
  • It may be a hard disk, a magnetic disk such as a flexible disk, or an optical disk such as a mini disk, a CD (
  • the functions of the calibration information acquisition unit 101, the sample acquisition unit 102, the calibration model generation unit 103, the calibration parameter calculation unit 104, the calibration value calculation unit 105, and the gaze direction determination unit 107 are partially realized by dedicated hardware. Alternatively, a part may be realized by software or firmware. Thus, the processing circuit in the gaze direction calibration apparatus 100 can realize each of the functions described above by hardware, software, firmware, or a combination thereof.
  • FIG. 3 is a diagram showing three-dimensional coordinates used in the gaze direction calibration device 100 according to the first embodiment.
  • the gaze direction calibration device 100 calibrates the gaze direction of the driver of the vehicle.
  • the coordinate axes the vehicle width direction of the vehicle 300 is taken as an X axis
  • the traveling direction of the vehicle 300 is taken as a Y axis
  • the perpendicular direction to the road surface on which the vehicle 300 travels is taken as a Z axis.
  • the X axis has a positive direction toward the right side toward the traveling direction of the vehicle
  • the Y axis has a positive direction toward the traveling direction of the vehicle.
  • the Z axis is positive in the upward direction of the road surface.
  • the origin O of the three-dimensional coordinates is the center position of the line-of-sight measurement device 201 mounted on the vehicle 300.
  • the reference direction of measurement in the line-of-sight measurement device 201 is indicated by the R-axis on the XY plane when projected onto the XY plane. Note that, as described above, since the rotation parameter ( ⁇ ) is unknown here, the reference direction of the line-of-sight measurement device 201 is also unknown.
  • the setting of the coordinate axes shown in FIG. 3 is an example, and the setting of the origin of the coordinate axes, the direction of the coordinate axes, and the like can be changed as appropriate.
  • a driver 302 is seated on the driver's seat 301 of the vehicle 300.
  • the right side mirror 303, the left side mirror 304 and the back mirror 305 of the vehicle 300 are gaze targets for calibration.
  • a gaze instruction such as "Please look at the left side mirror”
  • the driver 302 looks at the left side mirror 304.
  • a state in which the gaze direction of the driver 302 stays at a constant value after the gaze instruction is regarded as a state in which the driver 302 gazes at the calibration target.
  • the gaze direction in order to make it easy to associate the gaze direction with the gaze target for calibration, it is desirable to select the order of presenting the gaze target so that the movement of the gaze becomes large vertically or horizontally. As a result, it is easy to detect a section in which the movement of the sight line is large as a section in which the sight line direction has moved between calibration gaze targets.
  • the discrimination in the gaze determination of the gazing target for calibration is better than in the case where the right side mirror 303, the rear view mirror 305, and the left side mirror 304 are presented in order Sex is increased.
  • driving is performed by estimating the state in which the driver 302 is gazing at the left side mirror 304 or the like from the point at which the driver 302 is gazing frequently for safety confirmation or the like when the vehicle 300 travels. It is also possible that the person 302 is gazing at the calibration gazing target.
  • FIG. 4 and FIG. 5 are explanatory diagrams showing processing of the calibration model generation unit 103 of the gaze direction calibration device 100 according to the first embodiment.
  • the calibration information acquisition unit 101 calculates the three-dimensional coordinates (R X , R Y , R Z ) of the center point of the right side mirror 303 which is the gaze target for calibration, and the three-dimensional coordinates (L X , L X ) of the center point of the left side mirror 304.
  • L Y , L Z and three-dimensional coordinates (F X , F Y , F Z ) of the center point of the rearview mirror 305 are obtained and output to the calibration model generation unit 103.
  • FIGS. 4 and 5 generation of a calibration model will be described, and calculation of calibration parameters will be described, taking a state where the driver 302 is gazing at the left side mirror 304 as an example.
  • FIG. 4 is a diagram showing processing of the calibration model generation unit 103 when the driver 302 gazes at the left side mirror 304.
  • the calibration model generation unit 103 generates a calibration model indicating three-dimensional coordinates which are candidates for the center position of the eyeball of the user's left eye as the user position.
  • the calibration model generation unit 103 is a calibration that indicates three-dimensional coordinates which are candidates for the user position when the driver 302 is gazing at the left side mirror 304 based on the following formulas (1) and (2). Generate a model.
  • Formula (2) is a component display of the gaze direction vector v pov in Formula (1).
  • ⁇ in the equation (2) is an angle indicating the measurement value of the gaze direction output from the gaze measurement device 201.
  • ⁇ yaw is a measurement value of the viewing direction in the XY plane direction.
  • ⁇ pitch is an angle indicating a measurement value of the viewing direction of the YZ plane.
  • ⁇ in the equation (2) is a rotation parameter, which is an angle between the reference direction of measurement in the line-of-sight measurement device 201 and the reference direction of the line of sight after calibration (here, Y axis).
  • ya yaw is an angle formed by the reference direction of measurement in the visual axis measurement device 201 and the Y axis, and indicates a rotation angle around the Z axis.
  • p pitch is the angle formed by the reference direction of measurement in the visual axis measurement device 201 when projected onto the YZ plane and the Y axis.
  • ⁇ yaw and ⁇ yaw are shown.
  • the formulation of the calibration process of the above-mentioned equation (1) is an example for explanation.
  • FIG. 5 is a diagram for explaining the x component of the gaze direction vector v pov .
  • ⁇ yaw is determined so that the clockwise direction is a positive value with respect to the origin O with the R axis as the origin. Therefore, ⁇ yaw in FIG. 5 is ⁇ yaw ⁇ 0. Further, ya yaw is determined such that the clockwise direction is a positive value with respect to the R axis and the origin O as a center. Therefore, ya yaw in FIG. 5 is ya yaw > 0.
  • the x component is tan ( ⁇ yaw ⁇ as shown in FIG. 5). It is represented by ya yaw ). Note that the above definition is applicable regardless of whether the user position is at the center in the left or right direction with respect to the sight line measuring apparatus 201.
  • the z component of the gaze direction vector v pov is similarly represented using ⁇ pitch and ⁇ pitch .
  • the gaze direction calibration apparatus 100 is required to calibrate the gaze direction from the three-dimensional coordinates of each calibration gaze object and the gaze direction in a state where the driver 302 gazes at each calibration gaze object Parameters can be obtained.
  • FIG. 6 is an explanatory view showing a processing example of the calibration value calculation unit 105 and the gaze direction determination unit 107 of the gaze direction calibration device 100 according to the first embodiment.
  • the calibration value calculation unit 105 accumulates the calculated gaze direction ⁇ ′ after calibration in the gaze direction accumulation unit 106 or outputs the calculated gaze direction ⁇ ′ to the gaze direction determination unit 107.
  • the calibration value calculation unit 105 and the gaze direction determination unit 107 may perform processing as follows.
  • x target x head -sv pov (1a) This x target Represents a straight line indicating the gaze direction after calibration based on the measured gaze direction ⁇ and the calibration parameter.
  • the calibration value calculation unit 105 outputs the acquired straight line x target to the gaze direction determination unit 107.
  • the gaze direction determination unit 107 calculates the distance from the three-dimensional coordinates (Px, Py, Pz) of the gaze target P for determination to the straight line x target . When the calculated distance is within the threshold, the gaze direction determination unit 107 determines that the user is looking at the gaze target P for determination.
  • the threshold used when the sight line direction determination unit 107 determines whether the user views the direction of the gaze target P for determination is set based on the distance between the gaze target P for determination and the driver 302.
  • the threshold is continuously set such that the threshold increases as the distance between the gaze target P for determination and the driver 302 decreases, and as the distance between the gaze target P for determination and the driver 302 increases. Be done.
  • the threshold may be set so that the distance between the judgment gaze object P and the driver 302 is within a preset distance, without being continuously changed and set according to the distance between the judgment gaze object P and the driver 302.
  • the threshold may be set small, and the threshold may be set large when the distance between the judgment gaze target P and the driver 302 is greater than a predetermined distance.
  • the gaze direction determination unit 107 determines the gaze direction when the driver 302 visually recognizes a point close to the driver 302.
  • the line of sight direction can be determined in consideration of the deviation of the line of sight and the deviation of the line of sight direction when the driver 302 views a point far from the driver's own.
  • the threshold at the time of determining whether the user is visually recognizing the gaze target for determination is set based on the distance between the gaze target P for determination and the driver 302 has been described as an example.
  • the threshold may be set based on other conditions.
  • FIG. 7 is a flowchart showing an operation of calibration parameter calculation processing by the gaze direction calibration device 100 according to the first embodiment.
  • the calibration information acquisition unit 101 acquires three-dimensional coordinates of the gazing target for calibration (step ST1).
  • the calibration information acquisition unit 101 outputs the acquired three-dimensional coordinates of the calibration gaze target to the calibration model generation unit 103.
  • information for instructing the user which gazing target for calibration is to be gazed is output from a speaker (not shown) or a display (not shown) or the like.
  • the sample acquisition unit 102 acquires a sample indicating the gaze direction of the user who gazes at the calibration gaze target from the gaze measuring device 201, and the calibration model generation unit 103 It outputs (step ST2).
  • the calibration model generation unit 103 associates and acquires the three-dimensional coordinates of the calibration gaze target acquired in step ST1 and the calibration gaze target corresponding to the sample acquired by the sample acquisition unit 102 (step ST3).
  • the calibration model generation unit 103 uses the three-dimensional coordinates of the gazing target for calibration acquired in step ST3 based on the equations (1) and (2) described above, and the sample of the user acquired in step ST2 as user position candidates.
  • a plurality of calibration models indicating three-dimensional coordinates which are as follows are generated (step ST4).
  • the calibration model generation unit 103 outputs the calibration model generated in step ST4 to the calibration parameter calculation unit 104.
  • FIG. 8 is a flowchart showing operations of calibration processing of the gaze direction of the gaze direction calibration apparatus 100 according to the first embodiment and determination processing of the gaze direction.
  • the calibration value calculation unit 105 receives a determination request as to whether the user is gazing at the gaze target for determination via the input device 202 (step ST21)
  • the calibration value calculation unit 105 calibrates the gaze direction of the sample acquired by the sample acquisition unit 102.
  • the line of sight direction after that is calculated (step ST22).
  • the calibration value calculation unit 105 outputs the calculated gaze direction after calibration to the gaze direction determination unit 107.
  • the gaze direction determination unit 107 calculates the direction of the gaze target for determination (step ST23).
  • the gaze direction determination unit 107 determines whether the user views the gaze target for determination based on the gaze direction after calibration calculated in step ST22 and the direction of the gaze target for determination calculated in step ST23. (Step ST24).
  • the gaze direction determination unit 107 When the user visually recognizes the judgment gaze target (step ST24; YES), the gaze direction determination unit 107 outputs the result that the user visually recognizes the judgment gaze target (step ST25), and the process is performed. finish. On the other hand, when the user does not visually recognize the gaze target for determination (step ST24; NO), the gaze direction determination unit 107 outputs the determination result that the user does not visually recognize the gaze target for determination (step ST26). , End the process.
  • FIG. 9 is a diagram showing the result of the calibration process of the gaze direction calibration device 100 according to the first embodiment.
  • FIG. 9 shows the result of performing the above-described gaze direction calibration process with the accessory in the vehicle as the calibration gaze target.
  • FIG. 9 shows a case where the sight line measuring device 201, the rearview mirror 305, the right side mirror 303, and the left side mirror 304 are gaze targets.
  • the horizontal axis indicates the position in the direction of sight of the vehicle in the width direction of the vehicle
  • the vertical axis indicates the position in the direction of sight in the vertical direction with respect to the road surface on which the vehicle travels.
  • a rectangular area 401 indicates the front position of the user.
  • a rectangular area 402 to a rectangular area 405 indicate the position of the sight line direction after calibration when each component of the vehicle is a gazing target for calibration.
  • Results 412 to 415 indicate the position of the user's gaze direction when gazing at each component of the vehicle that is the gazing target for calibration.
  • FIG. 9 shows how, by the calibration process by the gaze direction calibration apparatus 100, rectangular regions representing the position of the gaze direction after calibration converge to corresponding results.
  • a result 412 shows a plot of the gaze vector of the user when gazing at the gaze measurement apparatus 201.
  • a result 413 shows a plot of the gaze vector of the user when gazing at the rear mirror 305, a result 414 for the right side mirror 303, and a result 415 for the left side mirror 304.
  • the gaze direction calibration process may be performed by an unconscious action such as the driver looking at the vehicle accessory while driving the vehicle, or the inevitable behavior. It can.
  • the following reference 1 discloses a technique of setting the reference of the gaze direction and performing calibration of the gaze direction detection by the action of the driver looking at the accessory of the vehicle while the vehicle is traveling.
  • the gaze direction calibration apparatus 100 includes the calibration information acquisition unit 101 that acquires, for at least one calibration gaze target, three-dimensional coordinates indicating the position of each calibration gaze target; A sample acquisition unit 102 for acquiring a plurality of samples indicating the gaze direction of the user, a sample indicating the gaze direction of the user who is looking at the acquired three-dimensional coordinates and each acquired calibration gaze object And a calibration model generation unit 103 that generates a plurality of calibration models that indicate three-dimensional coordinates that are candidates for the user position, and a calibration parameter calculation unit 104 that calculates calibration parameters based on the generated calibration models. Configured to provide
  • calibration parameters can be calculated only from information on the gaze direction and the calibration target. Therefore, for example, calibration parameters can be calculated even in a configuration using only the gaze direction measurement value based on one imaging means, so a technique using a distance meter for grasping the user position and a plurality of imaging means are used Compared with the technology, the configuration is simplified and the cost can be suppressed.
  • the gaze direction calibration apparatus 100 calibrates the gaze direction of the user acquired by the sample acquisition unit 102 based on the calibration parameter calculated by the calibration parameter calculation unit 104 and is calibrated. It is determined whether or not the user visually recognizes the gaze target for determination, based on the calibration value calculation unit 105 that calculates a, the calculated calibrated gaze direction, and the calibration parameter calculated by the calibration parameter calculation unit 104.
  • the gaze direction determination unit 107 is configured to be provided. Thereby, the gaze direction of the user directed to any point can be determined.
  • ⁇ in equation (2) is replaced with f ( ⁇ , ⁇ ).
  • the measurement characteristic of the line-of-sight measurement device 201 can be made to be a calibration target by making the variable ⁇ in the function f also the optimization target.
  • the sensitivity of the sample acquisition unit 102 changes in the X, Y, and Z directions of three-dimensional coordinates due to individual differences among users, individual differences among the sight line measuring apparatus 201, etc. ) Is ⁇ .
  • the sensitivity of the measurement characteristic of the sight line measurement device 201 can be simultaneously calibrated.
  • (alpha) in Formula (2a) is set separately by (alpha) yaw and (alpha) pitch .
  • the viewing angle is larger when the calibration gaze object having the same size is closer to the user position than when it is far.
  • the calibration model is weighted discontinuously like the soft margin in SVM (Support Vector Machine). You may
  • the gaze direction calibration apparatus 100 calculates the calibrated gaze direction at an arbitrary point in the three-dimensional space.
  • the gaze direction calibration apparatus 100 may be configured to calculate the calibrated gaze direction at any point in the two-dimensional space, which is a special case of the three-dimensional space.
  • the gaze direction calibration apparatus is a system or the like that is required to accurately determine the gaze direction of the user and accurately grasp the visual object of the user in a device including a vehicle-mounted device and a display such as a television. Applicable to
  • Reference Signs List 100 gaze direction calibration device, 101 calibration information acquisition unit, 102 sample acquisition unit, 103 calibration model generation unit, 104 calibration parameter calculation unit, 105 calibration value calculation unit, 106a calibration parameter storage unit, 106b gaze direction storage unit, 107 gaze direction Judgment part.

Abstract

少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部(101)と、ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部(102)と、各較正用注視対象の位置を示す3次元座標と各較正用注視対象を注視している状態のユーザの視線方向を示したサンプルとに基づいて、ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部(103)と、生成された較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部(104)を備える。

Description

視線方向較正装置、視線方向較正方法および視線方向較正プログラム
 この発明は、計測された人の視線方向を較正する技術に関するものである。
 近年、様々な分野において、計測された人の視線方向の利用が期待されている。例えば、車両の運転者への運転支援への利用として、計測された運転者の視線方向に基づいて、歩行者等への注意度合もしくはわき見運転等の運転者の周囲認知状況を判定する、または当該視線方向に支援情報を表示させる等が挙げられる。
 一般に、計測された視線方向には計測誤差が含まれる。そのため、計測された視線方向を利用する場合には、計測された視線方向に含まれた計測誤差を較正する技術が合わせて用いられる。
 特許文献1には、2つのカメラで撮影した画像から、運転者の両目のそれぞれ角膜反射像を抽出し、2つの角膜反射像の座標と、対応するカメラの焦点とを結ぶ2つの直線の交点を眼球中心とする眼球位置を検出すると共に、カメラの撮影方向に対する眼球の回転角度を検出し、検出された眼球位置および眼球の回転角度に基づいて視線方向を算出する視線方向計測装置が記載されている。この特許文献1に記載された視線方向計測装置は、乗員によってナビゲーション装置等の特定の機器が操作された場合に、キャリブレーション動作を開始し、上述のように算出した運転者の視線方向を、眼球中心と特定の機器とを通る直線に一致させる補正係数を算出する。
特開平9-238905号公報
 しかし、上述した特許文献1に記載された視線方向計測装置では、特定の機器に向けられた視線に対して計測される視線方向の補正係数のみが、計測誤差を較正する較正量として算出される。そのため、特定の機器以外の、任意の点に向けられた視線に対しては、較正量を算出することができないという課題があった。
 この発明は、上記のような課題を解決するためになされたもので、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正するための較正量を算出することを目的とする。
 この発明に係る視線方向較正装置は、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部と、ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部と、較正情報取得部が取得した3次元座標と、サンプル取得部が取得した各較正用注視対象を注視している状態のユーザの視線方向を示したサンプルとに基づいて、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部と、較正モデル生成部が生成した較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部とを備える。
 この発明によれば、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正するための較正量を算出することができる。
実施の形態1に係る視線方向較正装置の構成を示すブロック図である。 図2Aおよび図2Bは、実施の形態1に係る視線方向較正装置のハードウェア構成例を示す図である。 実施の形態1に係る視線方向較正装置において使用される3次元座標を示す図である。 実施の形態1に係る視線方向較正装置の較正モデル生成部の処理を示す説明図である。 実施の形態1に係る視線方向較正装置の較正モデル生成部の処理を示す説明図である。 実施の形態1に係る視線方向較正装置の較正値算出部の算出例を示す説明図である。 実施の形態1に係る視線方向較正装置の較正パラメータ算出処理の動作を示すフローチャートである。 実施の形態1に係る視線方向較正装置の視線方向の較正処理および視線方向の判定処理の動作を示すフローチャートである。 実施の形態1に係る視線方向較正装置の較正処理の結果を示す図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、実施の形態1に係る視線方向較正装置100の構成を示すブロック図である。
 視線方向較正装置100は、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105、較正パラメータ蓄積部106a、視線方向蓄積部106bおよび視線方向判定部107を備える。
 また、視線方向較正装置100は、視線計測装置201および入力装置202と接続される。
 視線方向較正装置100は、車両内の乗員の計測された視線方向の較正、または、机上のディスプレイもしくはユーザの頭部に固定されたディスプレイ等を視認するユーザに対して計測された視線方向の較正等、較正用注視対象とユーザの相対位置が固定的であると見做される場合に広く適用可能である。
 較正情報取得部101は、後述する較正モデルを生成する際にユーザが注視すべき予め設定された注視対象(以下、較正用注視対象と記載する)の3次元座標を取得する。ここで、ユーザとは、視線計測の対象となる人物である。較正情報取得部101は、較正用注視対象の3次元座標を内部の記憶装置から取得する。または、較正情報取得部101は、較正用注視対象の位置を示す3次元座標を入力装置を介して外部のプログラムから取得する。
 較正用注視対象は、少なくとも較正の自由度を満たし得る任意の数を設定する。例えば、視線方向較正装置100が車両に適用され、車両の運転者の視線方向を較正する場合において、視線方向計測の基準方向と較正用の基準方向とのなす角を示す回転パラメータ(後述する式(1)におけるρ)が事前に把握されており、また運転席の左右方向の位置(式(1)におけるxtargetのx成分)が固定的であり事前に把握されていると仮定する。この場合、較正の自由度はユーザ位置の前後方向と上下方向の2自由度(式(1)におけるxtargetのy,z成分)であり、さらに、視線計測装置201が視線のヨー方向とピッチ方向を提供すると仮定すれば2自由度の計測値が得られるため、較正用注視対象は少なくとも1つあればよい。以下の説明では回転パラメータ(ρ)は未知であり、較正用注視対象が複数である場合を一例として説明する。なお、一般的には較正用注視対象の数が増えるに従って、算出される較正パラメータの精度が向上する。
 視線方向較正装置100が較正パラメータの算出を行っている場合、サンプル取得部102は、各較正用注視対象を注視している状態のユーザの視線方向を示した複数のサンプルを取得する。サンプル取得部102は、1つの較正用注視対象を注視している状態のユーザについて、複数の視線方向を取得する。また、サンプル取得部102は、複数の較正用注視対象それぞれを注視している状態のユーザについて視線方向を取得する。
 なお、視線方向の基準、即ち視線計測装置201のゼロ点における真の視線方向は、最も簡単にはユーザの正面方向に平行な方向であることが望ましい。ただし、視線方向の基準を較正対象に含める構成においては、視線方向の基準は未知であってもよい。この場合は、後述の較正処理により、任意に指定した方位、例えば後述するY軸を基準として較正後の視線方向が算出される。サンプル取得部102は、取得したサンプルを、較正モデル生成部103に出力する。
 一方、 視線方向較正装置100が較正パラメータを用いて視線方向の較正処理および視線方向の判定処理を行っている場合、サンプル取得部102は、現在のユーザの視線方向を示したサンプルを取得する。サンプル取得部102は、取得したサンプルを較正値算出部105に出力する。
 較正モデル生成部103は、較正情報取得部101が取得した較正用注視対象の3次元座標と、サンプル取得部102が取得したサンプルとを対応付けて、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する。なお、較正モデル生成部103は、外部のプログラムと連携して、較正用注視対象を示す情報と紐付けされて記憶された複数のサンプルを取得する構成としてもよい。ユーザ位置は、例えば、ユーザの頭部の中心位置、眼球の中心位置、または眉間の中心位置が相当する。較正モデル生成部103は、生成した較正モデルを較正パラメータ算出部104に出力する。なお、較正モデル生成部103の詳細な処理内容については後述する。
 較正パラメータ算出部104は、較正モデル生成部103が生成した較正モデルに基づいて、較正パラメータを算出する。較正パラメータ算出部104は、較正パラメータを、較正パラメータ蓄積部106aに蓄積する。なお、較正パラメータ算出部104の詳細な処理内容については後述する。
 較正値算出部105は、較正パラメータ算出部104が算出した較正パラメータに基づいて、較正された視線方向を算出する。例えば、較正値算出部105は、入力装置202を介して、外部のプログラムから任意の注視対象(以下、判定用注視対象という)をユーザが視認しているか否かを判定する要求を受け付ける。較正値算出部105は、要求を受け付けると、サンプル取得部102から、現在の視線方向を示したサンプルを取得する。較正値算出部105は、較正パラメータ蓄積部106aに蓄積された較正パラメータを用いて、視線方向を較正する。較正値算出部105は、較正後の視線方向を視線方向判定部107に出力する。
 また、較正値算出部105は、較正後の視線方向を常時視線方向蓄積部106bに蓄積するものとしてもよい。この場合、視線方向較正装置100は、ユーザが判定用注視対象を視認しているか否かの判定を希望する外部のプログラムに対して、判定用注視対象の3次元座標を較正後の視線方向に変換した値、例えば後述の判定処理におけるθtargetを返す。当該外部のプログラムは、随時視線方向蓄積部106bを参照して、較正後の視線方向と比較することで独自に判定処理を行う。なお、視線方向蓄積部106bに蓄積する較正値と外部のプログラムに提供する較正パラメータの組み合わせは一例であり、判定処理の構成に合わせて適宜変更可能である。
 視線方向判定部107は、較正パラメータ蓄積部106aに蓄積された較正パラメータ、および較正値算出部105が較正した較正後の視線方向に基づいて、ユーザが判定用注視対象を視認しているか否か判定を行う。
 視線方向判定部107は、例えば、較正後の視線方向と、判定用注視対象の方向とが近似している場合に、ユーザが判定用注視対象を視認していると判定する。視線方向判定部107は、較正後の視線方向と、判定用注視対象の方向とが近似しているか否かを、予め設定された閾値に基づいて設定する。当該閾値は、現在のユーザの視線方向と、周囲の状況を示す情報とに基づいて設定される。例えば、閾値は、ユーザが視認している対象がユーザに近い位置に存在していると判断される場合には大きく設定され、ユーザが視認している対象がユーザから遠い位置に存在していると判断される場合には小さく設定される。
 次に、視線方向較正装置100のハードウェア構成例を説明する。
 図2Aおよび図2Bは、実施の形態1に係る視線方向較正装置100のハードウェア構成例を示す図である。
 視線方向較正装置100における、較正パラメータ蓄積部106aおよび視線方向蓄積部106bは、ストレージ100aにより実現される。視線方向較正装置100における較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能は、処理回路により実現される。即ち、視線方向較正装置100は、上記各機能を実現するための処理回路を備える。当該処理回路は、図2Aに示すように専用のハードウェアである処理回路100bであってもよいし、図2Bに示すようにメモリ100dに格納されているプログラムを実行するプロセッサ100cであってもよい。
 図2Aに示すように、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107が専用のハードウェアである場合、処理回路100bは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-programmable Gate Array)、またはこれらを組み合わせたものが該当する。較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各部の機能それぞれを処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 図2Bに示すように、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107がプロセッサ100cである場合、各部の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ100dに格納される。プロセッサ100cは、メモリ100dに記憶されたプログラムを読み出して実行することにより、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能を実現する。即ち、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107は、プロセッサ100cにより実行されるときに、後述する図7および図8に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ100dを備える。また、これらのプログラムは、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の手順または方法をコンピュータに実行させるものであるともいえる。
 ここで、プロセッサ100cとは、例えば、CPU(Central Processing Unit)、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)等のことである。
 メモリ100dは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
 なお、較正情報取得部101、サンプル取得部102、較正モデル生成部103、較正パラメータ算出部104、較正値算出部105および視線方向判定部107の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、視線方向較正装置100における処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 次に、較正モデル生成部103および較正パラメータ算出部104の詳細について説明する。まず、視線方向較正装置100において使用される較正用の基準となる3次元座標の座標系について説明する。
 図3は、実施の形態1に係る視線方向較正装置100において使用される3次元座標を示す図である。図3では、一例として、視線方向較正装置100が車両の運転者の視線方向を較正する場合について説明する。
 座標軸は、車両300の車幅方向をX軸とし、車両300の進行方向をY軸とし、車両300が走行する路面に対して垂直方向をZ軸とする。X軸は、車両の進行方向に向かって右側に向かう方向を正とし、Y軸は、車両の進行方向に向かう方向を正としている。Z軸は、路面の上方に向かう方向を正としている。3次元座標の原点Oは、車両300に搭載された視線計測装置201の中心位置である。図3では、視線計測装置201における計測の基準方向を、X-Y平面に投影した場合の方向をX-Y平面上のR軸で示している。なお、上述の通り、ここでは、回転パラメータ(ρ)は未知としているため、視線計測装置201の基準方向も未知である。
 なお、図3で示した座標軸の設定は一例であり、座標軸の原点の設定、および座標軸の向き等は適宜変更可能である。
 車両300の運転席301には、運転者302が着座している。車両300の右サイドミラー303、左サイドミラー304およびバックミラー305が較正用注視対象である。例えば、運転開始前に、視線方向較正装置100が有する図示しない制御部により、「左サイドミラーを見てください」等の注視指示が行われると、運転者302は、左サイドミラー304を注視する。注視指示の後に運転者302の視線方向が一定値に滞留した状態を、運転者302が較正用注視対象を注視している状態とする。この際、視線方向と較正用注視対象の紐付を容易にするため、注視対象を提示する順序を、上下または左右に視線の動きが大きくなるように選択することが望ましい。これにより、視線の動きが大きい区間を、較正用注視対象間を視線方向が移動した区間として検出することが容易となる。例えば、右サイドミラー303、左サイドミラー304、バックミラー305の順に提示する方が、右サイドミラー303、バックミラー305、左サイドミラー304の順に提示した場合より較正用注視対象の注視判定における弁別性が高まる。
 また、他の方法として、運転者302が、車両300の走行時に安全確認等のために頻繁に注視している点などから左サイドミラー304等を注視している状態を推定することで、運転者302が較正用注視対象を注視している状態としてもよい。
 次に、図3で示した3次元座標における、較正モデル生成部103および較正パラメータ算出部104の処理について図4および図5を参照しながら説明を行う。
 図4および図5は、実施の形態1に係る視線方向較正装置100の較正モデル生成部103の処理を示す説明図である。
 較正情報取得部101は、較正用注視対象である右サイドミラー303の中心点の3次元座標(R,R,R)、左サイドミラー304の中心点の3次元座標(L,L,L)およびバックミラー305の中心点の3次元座標(F,F,F)を取得し、較正モデル生成部103に出力する。
 図4および図5では、運転者302が左サイドミラー304を注視している状態を例に、較正モデルの生成について説明を行うと共に、較正パラメータの算出について説明を行う。
 図4は、運転者302が、左サイドミラー304を注視した場合の、較正モデル生成部103の処理を示す図である。図4の例では、較正モデル生成部103が、ユーザ位置としてユーザの左目の眼球の中心位置の候補となる3次元座標を示す較正モデルを生成するものとして説明する。
 較正モデル生成部103は、以下の式(1)および式(2)に基づいて、運転者302が左サイドミラー304を注視している際の、ユーザ位置の候補となる3次元座標を示す較正モデルを生成する。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000002
 式(2)は、式(1)における視線方向ベクトルvpovの成分表示である。式(2)におけるθは、視線計測装置201から出力された、視線方向の計測値を示す角度である。θyawは、X-Y平面方向の視線方向の計測値である。θpitchは、Y-Z平面の視線方向の計測値を示す角度である。
 また、式(2)におけるρは、回転パラメータであり、視線計測装置201における計測の基準方向と、較正後の視線の基準方向(ここではY軸)とのなす角の角度である。ρyawは、視線計測装置201における計測の基準方向とY軸とのなす角の角度であって、Z軸を中心とした回転角度を示す。ρpitchは、Y-Z平面に投影した場合の視線計測装置201における計測の基準方向とY軸とのなす角の角度である。
 図4の例では、θyawおよびρyawを示している。
 なお、上述した式(1)の較正処理の定式化は、説明のための一例である。
 図5は、視線方向ベクトルvpovのx成分を説明する図である。図5において、θyawは、R軸を起点に原点Oを中心として時計回りの方向が正の値となるように定める。従って、図5におけるθyawは、θyaw<0である。また、ρyawは、R軸を起点に原点Oを中心として時計回りの方向が正の値となるように定める。従って、図5におけるρyawは、ρyaw>0である。θyawおよびρyawの符号を上記のように定め、さらに、視線方向ベクトルvpovのy成分を「1」と定めれば、x成分は、図5で示したように、tan(θyaw-ρyaw)で表わされる。なお、上記の定義は、ユーザ位置が視線計測装置201に対して左右中央いずれの位置にあっても適用可能である。
 図示していないが、視線方向ベクトルvpovのz成分も同様に、θpitchおよびρpitchを用いて表される。
Figure JPOXMLDOC01-appb-I000003
Figure JPOXMLDOC01-appb-I000004
Figure JPOXMLDOC01-appb-I000005
Figure JPOXMLDOC01-appb-I000006
 以上の処理により、視線方向較正装置100は、各較正用注視対象の3次元座標と、運転者302が各較正用注視対象を注視している状態における視線方向とから、視線方向の較正に必要なパラメータを得ることができる。
 図6は、実施の形態1に係る視線方向較正装置100の較正値算出部105および視線方向判定部107の処理例を示す説明図である。
 較正値算出部105は、サンプル取得部102から入力された視線方向θに対して較正後の視線方向θ´=(θ-ρ)を算出する。較正値算出部105は、算出した較正後の視線方向θ´を、視線方向蓄積部106に蓄積するか、または、視線方向判定部107に出力する。
Figure JPOXMLDOC01-appb-I000007
 また、較正値算出部105および視線方向判定部107は、次のように処理を行ってもよい。
Figure JPOXMLDOC01-appb-I000008
 xtarget=xhead-svpov    (1a)
 このxtarget
は、計測された視線方向θと較正用パラメータとに基づく、較正後の視線方向を示す直線を表している。較正値算出部105は、取得した直線xtargetを視線方向判定部107に出力する。
 視線方向判定部107は、判定用注視対象Pの3次元座標(Px,Py,Pz)から直線xtargetまでの距離を算出する。視線方向判定部107は算出した距離が閾値以内である場合、ユーザは判定用注視対象Pを見ていたと判定する。
 なお、視線方向判定部107が、ユーザが判定用注視対象Pの方向を視認しているか否かを判定する際の閾値は、判定用注視対象Pと運転者302との距離に基づいて設定してもよい。例えば、閾値は、判定用注視対象Pと運転者302との距離が短くなるほど閾値が大きくなり、判定用注視対象Pと運転者302との距離が長くなるほど閾値が小さくなるように連続的に設定される。また、閾値は判定用注視対象Pと運転者302との距離に応じて連続的に変化させて設定することなく、判定用注視対象Pと運転者302との距離が予め設定した距離以内であれば閾値を小さく設定し、判定用注視対象Pと運転者302との距離が予め設定した距離よりも離れている場合には閾値を大きく設定する構成としてもよい。
 このように、判定用注視対象Pと運転者302との距離に応じて閾値を設定することにより、視線方向判定部107は、運転者302が自身から近い地点を視認している際の視線方向のずれと、運転者302が自身から遠い地点を視認している際の視線方向のずれとを考慮し、視線方向を判定することができる。
 なお、上記では、ユーザが判定用注視対象を視認しているか否かを判定する際の閾値を、判定用注視対象Pと運転者302との距離に基づいて設定する場合を例に示したが、その他の条件に基づいて閾値を設定してもよい。
 次に、視線方向較正装置100の動作について説明する。
 以下では、視線方向較正装置100の動作を、較正パラメータ算出処理を行う動作と、視線方向の較正処理および視線方向の判定処理を行う動作とに分けて説明する。
 まず、較正パラメータ算出処理について、図7のフローチャートを参照しながら説明する。
 図7は、実施の形態1に係る視線方向較正装置100による較正パラメータ算出処理の動作を示すフローチャートである。
 較正情報取得部101は、較正用注視対象の3次元座標を取得する(ステップST1)。較正情報取得部101は、取得した較正用注視対象の3次元座標を較正モデル生成部103に出力する。ここで、ユーザに対して、何れの較正用注視対象を注視するかを指示する情報がスピーカ(図示しない)またはディスプレイ(図示しない)等から出力される。ユーザが指定された較正用注視対象を注視すると、サンプル取得部102は、視線計測装置201から当該較正用注視対象を注視したユーザの視線方向を示したサンプルを取得し、較正モデル生成部103に出力する(ステップST2)。
 較正モデル生成部103は、ステップST1で取得された較正用注視対象の3次元座標と、サンプル取得部102が取得したサンプルに対応する較正用注視対象とを紐付けて取得する(ステップST3)。較正モデル生成部103は、上述した式(1)および(2)に基づいて、ステップST3で取得した較正用注視対象の3次元座標と、ステップST2で取得されたサンプルとから、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する(ステップST4)。較正モデル生成部103は、ステップST4で生成した較正モデルを較正パラメータ算出部104に出力する。
Figure JPOXMLDOC01-appb-I000009
 次に、視線方向の較正処理および視線方向の判定処理について、図8のフローチャートを参照しながら説明する。
 図8は、実施の形態1に係る視線方向較正装置100の視線方向の較正処理および視線方向の判定処理の動作を示すフローチャートである。
較正値算出部105は、入力装置202を介して判定用注視対象を注視しているかの判定要求が入力されると(ステップST21)、サンプル取得部102が取得したサンプルの視線方向に対して較正後の視線方向を算出する(ステップST22)。較正値算出部105は、算出した較正後の視線方向を視線方向判定部107に出力する。視線方向判定部107は、判定用注視対象の方向を算出する(ステップST23)。視線方向判定部107は、ステップST22で算出された較正後の視線方向と、ステップST23で算出した判定用注視対象の方向とに基づいて、ユーザが判定用注視対象を視認しているか否か判定を行う(ステップST24)。
 ユーザが判定用注視対象を視認している場合(ステップST24;YES)、視線方向判定部107は、ユーザが判定用注視対象を視認しているとの結果を出力し(ステップST25)、処理を終了する。
 一方、ユーザが判定用注視対象を視認していない場合(ステップST24;NO)、視線方向判定部107は、ユーザが判定用注視対象を視認していないとの判定結果を出力し(ステップST26)、処理を終了する。
 図9は、実施の形態1に係る視線方向較正装置100の較正処理の結果を示す図である。
 図9は、車両内の装備品を較正用注視対象として、上述した視線方向の較正処理を行った結果を示している。車両の装備品として、図9では、視線計測装置201、バックミラー305、右サイドミラー303および左サイドミラー304を注視対象とした場合を示している。
 図9において、横軸は車両の車幅方向の視線方向の位置を示し、縦軸は車両が走行する路面に対して垂直方向の視線方向の位置を示している。また、矩形領域401は、ユーザの正面位置を示す。矩形領域402から矩形領域405は、車両の各装備品を較正用注視対象とした場合の較正後の視線方向の位置を示している。結果412から結果415は較正用注視対象である車両の各装備品を注視した際のユーザの視線方向の位置を示している。図9は、視線方向較正装置100による較正処理により、較正後の視線方向の位置を表す矩形領域が、それぞれに対応する結果へと収束する様子を示している。
 なお、図9において、結果412は視線計測装置201を注視した際のユーザの視線ベクトルのプロットを示している。同様に、結果413はバックミラー305、結果414は右サイドミラー303、結果415は左サイドミラー304を注視した際のユーザの視線ベクトルのプロットを示している。
 運転者は、車両の走行中にバックミラーまたはサイドミラー等の車両の装備品を頻繁に視認する。そこで、車両の装備品を較正用注視対象とすることにより、運転者が車両の運転中に車両の装備品を見るといった無意識な行動、または必然的な挙動によって視線方向の較正処理を行うことができる。
 車両の走行中に運転者が車両の装備品を見る行動により、視線方向の基準を設定し、視線方向検出のキャリブレーションを行う技術が、例えば以下の参考文献1等に開示されている。
・参考文献1
特開2010-30361号公報
 以上のように、この実施の形態1に係る視線方向較正装置100は、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部101と、ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部102と、取得された3次元座標と、取得された各較正用注視対象を注視している状態のユーザの視線方向を示したサンプルとに基づいて、ユーザ位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部103と、生成された較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部104とを備えるように構成した。
 これにより、任意の点に向けられた視線に対して計測された視線方向に含まれる計測誤差を較正することができる。また、視線方向と較正用注視対象の情報のみから較正パラメータを算出することができる。このため、例えば1つの撮像手段に基づく視線方向計測値のみを用いた構成においても較正パラメータを算出することができるので、ユーザ位置を把握するための距離計を用いる技術や複数の撮像手段を用いる技術と比較して、構成が簡易となり、且つ、コストを抑制することができる。
 また、この実施の形態1に係る視線方向較正装置100は、サンプル取得部102が取得したユーザの視線方向を、較正パラメータ算出部104が算出した較正パラメータに基づいて較正し、較正された視線方向を算出する較正値算出部105と、算出された較正された視線方向と、較正パラメータ算出部104が算出した較正パラメータとに基づいて、ユーザが判定用注視対象を視認しているか否か判定する視線方向判定部107とを備えるように構成した。
 これにより、任意の点に向けられたユーザの視線方向を判定することができる。
 なお、上述した実施の形態1に係る視線方向較正装置100において、視線計測装置201の計測特性についても較正対象とする場合には、上述した式(2)を、以下の式(2a)に変形することにより、対応可能である。

Figure JPOXMLDOC01-appb-I000010
 式(2a)では、式(2)におけるθをf(α,θ)に置き換えている。式(2a)において、関数fにおける変数αについても最適化対象とすることにより、視線計測装置201の計測特性を較正対象とすることができる。
 ユーザの個人差、または視線計測装置201の個体差等により、3次元座標のX,Y,Z方向でサンプル取得部102の感度が変化する場合においては、式(2a)におけるf(α,θ)をαθとする。これにより、視線計測装置201の計測特性の感度についても同時に較正することができる。なお、式(2a)におけるαは、αyawとαpitchとで個別に設定する。
Figure JPOXMLDOC01-appb-I000011
 また、視線計測装置201の計測特性の他の例として、同一の大きさを持つ較正用注視対象がユーザ位置に近い距離にある場合には遠い位置にある場合と比較して視角が大きくなるために、較正用注視対象の中心座標からのズレが大きくなることで視線方向の計測値にバラつきが大きくなることが想定される。視線方向の計測値にバラつきが大きい場合には、較正モデルがユーザ位置を適切に反映しない可能性が高まるために較正パラメータの推定精度が低下するという問題が発生する。そのため、例えば、同一の較正用注視対象を注視している場合の視線方向の標準偏差をσとしてw=exp(-σ)による重み係数を付加するなどにより、視線方向のバラつきが大きいほど重み係数を小さくすることが望ましい。
Figure JPOXMLDOC01-appb-I000012
 なお、上述した説明では視線方向の標準偏差σを基準に連続的に重みを付す場合を示したが、SVM(Support Vector Machine)におけるソフトマージンのように、不連続的に較正モデルの重みを付してもよい。
 なお、上述した説明では、視線方向較正装置100が3次元空間内の任意の点について、較正された視線方向を算出する場合を示した。しかし、視線方向較正装置100は、3次元空間の特殊な場合である2次元空間内の任意の点について、較正された視線方向を算出する構成としてもよい。
 なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。
 この発明に係る視線方向較正装置は、車載機器およびテレビ等のディスプレイを備えた装置等において、ユーザの視線方向を精度よく判定し、ユーザの視認対象を正確に把握することが要求されるシステム等に適用可能である。
 100 視線方向較正装置、101 較正情報取得部、102 サンプル取得部、103 較正モデル生成部、104 較正パラメータ算出部、105 較正値算出部、106a 較正パラメータ蓄積部、106b 視線方向蓄積部、107 視線方向判定部。

Claims (9)

  1.  少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する較正情報取得部と、
     ユーザの視線方向を示した複数のサンプルを取得するサンプル取得部と、
     前記較正情報取得部が取得した3次元座標と、前記サンプル取得部が取得した前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルとに基づいて、前記ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成する較正モデル生成部と、
     前記較正モデル生成部が生成した前記較正モデルに基づいて、較正パラメータを算出する較正パラメータ算出部とを備えた視線方向較正装置。
  2.  前記サンプル取得部が取得した前記ユーザの視線方向を、前記較正パラメータ算出部が算出した前記較正パラメータに基づいて較正し、較正された視線方向を算出する較正値算出部と、
     前記較正値算出部が算出した前記較正された視線方向と、前記較正パラメータ算出部が算出した前記較正パラメータとに基づいて、前記ユーザが判定用注視対象を視認しているか否か判定する視線方向判定部とを備えたことを特徴とする請求項1記載の視線方向較正装置。
  3.  前記視線方向判定部が前記ユーザが前記判定用注視対象を視認していると判定するための閾値は、前記ユーザと前記判定用注視対象との距離に基づいて設定されることを特徴とする請求項2記載の視線方向較正装置。
  4.  前記較正モデル生成部は、前記ユーザの視線方向の算出特性を較正対象とすることを特徴とする請求項1記載の視線方向較正装置。
  5.  前記較正パラメータ算出部は、前記ユーザの視線方向を計測する計測装置の計測範囲内の位置に応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  6.  前記較正パラメータ算出部は、前記較正用注視対象ごとに、前記ユーザの視線方向のバラつきの大きさに応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  7.  前記較正パラメータ算出部は、前記ユーザの視線方向ごとに、当該ユーザの視線方向が属する前記較正用注視対象における前記ユーザの視線方向の分布からの当該ユーザの視線方向の外れ度合いに応じて前記較正モデルに重みを付加することを特徴とする請求項1記載の視線方向較正装置。
  8.  較正情報取得部が、少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得するステップと、
     サンプル取得部が、ユーザの視線方向を示した複数のサンプルを取得するステップと、
     較正モデル生成部が、前記各較正用注視対象の位置を示す3次元座標と、前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルとに基づいて、前記ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成するステップと、
     較正パラメータ算出部が、前記生成された前記較正モデルに基づいて、較正パラメータを算出するステップとを備えた視線方向較正方法。
  9.  少なくとも一つの較正用注視対象について、各較正用注視対象の位置を示す3次元座標を取得する手順と、
     ユーザの視線方向を示した複数のサンプルを取得する手順と、
     前記各較正用注視対象の位置を示す3次元座標と、前記各較正用注視対象を注視している状態の前記ユーザの視線方向を示した前記サンプルとに基づいて、前記ユーザの位置の候補となる3次元座標を示す複数の較正モデルを生成する手順と、
     前記生成された前記較正モデルに基づいて、較正パラメータを算出する手順とをコンピュータに実行させるための視線方向較正プログラム。
PCT/JP2018/000091 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム WO2019135281A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018529196A JP6479272B1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
PCT/JP2018/000091 WO2019135281A1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
DE112018006164.7T DE112018006164B4 (de) 2018-01-05 2018-01-05 Sichtlinienrichtungskalibrierungsvorrichtung, sichtlinienrichtungskalibrierungsverfahren und sichtlinienrichtungskalibrierungsprogramm
CN201880084663.2A CN111527374B (zh) 2018-01-05 2018-01-05 视线方向校正装置、视线方向校正方法及视线方向校正程序
US16/915,264 US10977488B2 (en) 2018-01-05 2020-06-29 Line-of-sight direction calibration device, line-of-sight direction calibration method, and line-of-sight direction calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/000091 WO2019135281A1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/915,264 Continuation US10977488B2 (en) 2018-01-05 2020-06-29 Line-of-sight direction calibration device, line-of-sight direction calibration method, and line-of-sight direction calibration program

Publications (1)

Publication Number Publication Date
WO2019135281A1 true WO2019135281A1 (ja) 2019-07-11

Family

ID=65655825

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/000091 WO2019135281A1 (ja) 2018-01-05 2018-01-05 視線方向較正装置、視線方向較正方法および視線方向較正プログラム

Country Status (5)

Country Link
US (1) US10977488B2 (ja)
JP (1) JP6479272B1 (ja)
CN (1) CN111527374B (ja)
DE (1) DE112018006164B4 (ja)
WO (1) WO2019135281A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022106684A (ja) * 2021-01-07 2022-07-20 株式会社ロイヤリティバンク 評価価格算定プログラム及び評価価格算定方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110458104B (zh) * 2019-08-12 2021-12-07 广州小鹏汽车科技有限公司 人眼视线检测系统的人眼视线方向确定方法和系统
JP2022171084A (ja) * 2021-04-30 2022-11-11 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
CN116027910B (zh) * 2023-03-29 2023-07-04 广州视景医疗软件有限公司 一种基于vr眼动追踪技术的眼位图生成方法及系统
CN116052264B (zh) * 2023-03-31 2023-07-04 广州视景医疗软件有限公司 一种基于非线性偏差校准的视线估计方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238905A (ja) * 1996-03-05 1997-09-16 Nissan Motor Co Ltd 視線方向計測装置
JP2008243031A (ja) * 2007-03-28 2008-10-09 Toyota Central R&D Labs Inc 漫然運転判定装置
WO2012055444A1 (en) * 2010-10-29 2012-05-03 IT-Universitetet i København Method of determining reflections of light
JP2012217524A (ja) * 2011-04-05 2012-11-12 Nippon Hoso Kyokai <Nhk> 視線測定装置および視線測定プログラム
JP2014052758A (ja) * 2012-09-06 2014-03-20 Hiroshima City Univ 視線計測方法
JP2014226377A (ja) * 2013-05-23 2014-12-08 株式会社Nttドコモ 視線計測装置及び視線計測方法
WO2015136908A1 (ja) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 視線検出装置
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2925147B2 (ja) * 1988-09-16 1999-07-28 キヤノン株式会社 視線検出装置及び光学機器
JPH11276438A (ja) * 1998-03-30 1999-10-12 Isuzu Motors Ltd 視線計測装置
JP3225270B2 (ja) * 1999-04-28 2001-11-05 経済産業大臣 視線計測方法、視線計測装置
ATE357680T1 (de) * 2000-10-07 2007-04-15 David Dickerson Informationssystem und verfahren zur zurverfügungstellen von informationen unter verwendung eines holographischen elements
US8406479B2 (en) * 2006-07-14 2013-03-26 Panasonic Corporation Visual axis direction detection device and visual line direction detection method
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
JP2010030361A (ja) * 2008-07-25 2010-02-12 Toyota Motor Corp 運転状態監視装置
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
US20120002028A1 (en) * 2010-07-05 2012-01-05 Honda Motor Co., Ltd. Face image pick-up apparatus for vehicle
JP5664064B2 (ja) * 2010-09-22 2015-02-04 富士通株式会社 視線検出装置および補正係数算出プログラム
CN102878951B (zh) * 2012-09-14 2015-02-11 北京航空航天大学 一种基于图像的车辆方向盘转角检测方法及检测装置
US20140267415A1 (en) * 2013-03-12 2014-09-18 Xueming Tang Road marking illuminattion system and method
DE102013019117A1 (de) * 2013-11-15 2015-05-21 Audi Ag Verfahren zum Kalibrieren einer Blickrichtungserfassungseinrichtung für ein Kraftfahrzeug, Kalibrierungseinrichtung und Kraftfahrzeug
US9354073B2 (en) * 2013-12-09 2016-05-31 Harman International Industries, Inc. Eye gaze enabled navigation system
WO2015125243A1 (ja) * 2014-02-19 2015-08-27 三菱電機株式会社 表示制御装置、表示制御装置の表示制御方法、視線方向検出システムおよび視線方向検出システムのキャリブレーション制御方法
DE102016210288A1 (de) * 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
JP6944138B2 (ja) * 2016-07-29 2021-10-06 ソニーグループ株式会社 画像処理装置および画像処理方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09238905A (ja) * 1996-03-05 1997-09-16 Nissan Motor Co Ltd 視線方向計測装置
JP2008243031A (ja) * 2007-03-28 2008-10-09 Toyota Central R&D Labs Inc 漫然運転判定装置
WO2012055444A1 (en) * 2010-10-29 2012-05-03 IT-Universitetet i København Method of determining reflections of light
JP2012217524A (ja) * 2011-04-05 2012-11-12 Nippon Hoso Kyokai <Nhk> 視線測定装置および視線測定プログラム
JP2014052758A (ja) * 2012-09-06 2014-03-20 Hiroshima City Univ 視線計測方法
JP2014226377A (ja) * 2013-05-23 2014-12-08 株式会社Nttドコモ 視線計測装置及び視線計測方法
JP2016539363A (ja) * 2013-11-08 2016-12-15 エシロル アンテルナショナル(コンパーニュ ジェネラル ドプテーク) 累進眼科用レンズの少なくとも1つの光学的設計パラメータを判断する方法
WO2015136908A1 (ja) * 2014-03-13 2015-09-17 パナソニックIpマネジメント株式会社 視線検出装置
WO2016129156A1 (ja) * 2015-02-13 2016-08-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022106684A (ja) * 2021-01-07 2022-07-20 株式会社ロイヤリティバンク 評価価格算定プログラム及び評価価格算定方法
JP7340882B2 (ja) 2021-01-07 2023-09-08 株式会社ロイヤリティバンク 評価価格算定プログラム及び評価価格算定方法

Also Published As

Publication number Publication date
JP6479272B1 (ja) 2019-03-06
US10977488B2 (en) 2021-04-13
CN111527374A (zh) 2020-08-11
JPWO2019135281A1 (ja) 2020-01-16
CN111527374B (zh) 2021-10-22
DE112018006164B4 (de) 2021-05-12
US20200327324A1 (en) 2020-10-15
DE112018006164T5 (de) 2020-08-27

Similar Documents

Publication Publication Date Title
WO2019135281A1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
EP3033999B1 (en) Apparatus and method for determining the state of a driver
US7771049B2 (en) Method and apparatus for detecting sight line vector
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
KR101769177B1 (ko) 시선 추적 장치 및 방법
WO2010035472A1 (ja) 視線方向判定装置及び視線方向判定方法
US10706585B2 (en) Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
JPWO2008007781A1 (ja) 視線方向検出装置および視線方向検出方法
CN111522430B (zh) 注视追踪模型的训练
CN111854620B (zh) 基于单目相机的实际瞳距测定方法、装置以及设备
JP6669182B2 (ja) 乗員監視装置
JP2016115117A (ja) 判定装置および判定方法
JP2018101212A (ja) 車載器および顔正面度算出方法
JP2018151930A (ja) 運転者状態推定装置、及び運転者状態推定方法
JP7255436B2 (ja) 眼球構造推定装置
JP2018101211A (ja) 車載器
JP6759743B2 (ja) 視認方向推定装置
JP2021051347A (ja) 距離画像生成装置及び距離画像生成方法
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
CN110895675B (zh) 用于确定3d空间中的对象的特征点的坐标的方法
JP7003335B2 (ja) 操作者判定装置および操作者判定方法
JP6572841B2 (ja) 情報処理装置及びプログラム
JP2021056968A (ja) 物体判定装置
JP2020162759A (ja) 視線計測装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018529196

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18898872

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18898872

Country of ref document: EP

Kind code of ref document: A1