WO2019176492A1 - 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体 - Google Patents

算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体 Download PDF

Info

Publication number
WO2019176492A1
WO2019176492A1 PCT/JP2019/006511 JP2019006511W WO2019176492A1 WO 2019176492 A1 WO2019176492 A1 WO 2019176492A1 JP 2019006511 W JP2019006511 W JP 2019006511W WO 2019176492 A1 WO2019176492 A1 WO 2019176492A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
calculation
person
unit
movement
Prior art date
Application number
PCT/JP2019/006511
Other languages
English (en)
French (fr)
Inventor
倭 竹内
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2019176492A1 publication Critical patent/WO2019176492A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a calculation system, an information processing apparatus, a driving support system, an index calculation method, a computer program, and a storage medium.
  • a driver's head movement or eye movement is detected from a driver's face image captured by a camera, and the driver's head movement or eye movement is detected based on the detected driver's head movement or eye movement.
  • Techniques relating to various driving assistances or interventions for detecting a decrease in arousal level and issuing a warning or arousing driving attention are disclosed.
  • a driver's blinking time is detected, and a blinking reference time unique to the driver at the time of awakening is increased by a predetermined ratio to evaluate a long blink.
  • a long blink is detected according to the blink evaluation time, and the occurrence ratio is determined from the total number of blinks within a predetermined time and the number of long blinks, and regression using a sleepiness prediction model is performed.
  • a technique for evaluating a driver's arousal level according to a prediction formula obtained by analysis is disclosed.
  • a drowsiness sign detection device head movement is detected by head movement detection means, eye movement is detected by eye movement detection means, and an ideal eye movement angular velocity calculation unit is used to detect the head movement.
  • the ideal eye movement angular velocity is calculated based on the movement data
  • the eye rotation angular velocity calculation unit calculates the eye rotation angular speed based on the eye movement data
  • the drowsiness sign determination means calculates the vestibular moving eye from the ideal eye movement angular velocity and the eye rotation angular velocity.
  • a technique is disclosed in which reflection is detected and a sign of sleepiness before a driver of a vehicle, an operator of a machine, etc. is aware of sleepiness based on this vestibulo-oculomotor reflection is disclosed.
  • VOR Vestibulo-Ocular Reflex
  • Patent Document 2 describes an experimental example using a driving simulator system that simulates driving of a car, and allows a subject to report introspection about sleepiness, gain of vestibular oculomotor reflex (VOR gain), residual standard It is described that a sign of sleepiness was determined from a change in deviation (SDres).
  • the imaging device when the imaging device is attached to the inside of the moving body, only driver information in the coordinate system (moving body coordinate system) within the moving body can be obtained.
  • the eye movement of the driver who is driving the moving body is a movement belonging to the absolute coordinate system when the driver is gazing at the front outside the vehicle. For this reason, it is difficult to accurately calculate the vestibulo-oculomotor reflex if head movement cannot be detected in the absolute coordinate system.
  • the photographing apparatus is attached to the inside of the moving body, only driver information in the moving body coordinate system can be obtained. For this reason, there is a problem that it is extremely difficult to detect information about awakening of a driver who is getting on and actually traveling with high accuracy.
  • the present invention has been made in view of the above problems, and a calculation system, an information processing apparatus, a driving support system, and an index calculation that can obtain information on a person's arousal level with higher accuracy in a moving moving object. It is an exemplary object to provide a method, a computer program, and a storage medium.
  • the calculation system (1) includes: An imaging unit for photographing the face of a person in a moving body; A sensor for measuring movement data of the moving body; A first calculation unit that calculates an eye movement of the person using an image of a face imaged by the imaging unit; A second calculation unit that calculates head movement of the person using movement data of the moving body measured by the sensor and a face image taken by the imaging unit; It is characterized by having.
  • an image of the face of the person in the moving body is captured by the imaging unit, movement data of the moving body is measured by the sensor, and the person is measured by the first calculation unit.
  • the eye movement of the person is calculated based on the face image.
  • the second calculation unit calculates the head movement of the person based on the movement data of the moving body and the face image. Therefore, the head movement considering the movement of the moving body is calculated. For this reason, even when at least the imaging unit and the sensor are arranged on the moving body and the moving body is moving, accurate information on the head movement with respect to the absolute coordinate system can be obtained.
  • the calculation system (2) is the above calculation system (1), Further, a third index for calculating an index related to the awakening of the person in the moving body is obtained using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. It is characterized by having a calculation unit.
  • the imaging unit and the sensor are installed on a moving body, and further provided with the third calculation unit, whereby the imaging unit and the sensor are provided on the driver's head. Even if it is not worn, it is possible to calculate with high accuracy an index relating to the awakening of the person in the moving body based on the information on the head movement considering the movement of the moving body.
  • the calculation system (3) is the above calculation system (2), A first determination unit that determines whether or not the person is in a first state of gazing at an external gazing point of the moving body, using a face image captured by the imaging unit;
  • the third calculation unit is characterized in that the index is calculated using eye movement and head movement when the first determination unit determines that the state is the first state.
  • the calculation system (3) performs the calculation of the awakening index when the person is watching the gaze point outside the moving body. According to the calculation system (3), a high-accuracy index relating to arousal is obtained by calculating an index relating to the driver's arousal based on information about head movement and eye movement when the user is gazing outside the vehicle. Can do. As an index relating to awakening in a state of gazing outside the vehicle, for example, various values relating to VOR (vestibulo-ocular reflex) can be cited.
  • VOR vestibulo-ocular reflex
  • the calculation system (4) includes either the calculation system (2) or (3), A second discriminating unit that discriminates whether or not the eyeball and the head are moving in the same direction using the face image taken by the imaging unit;
  • the third calculation unit includes the eye movement and the head in the second state among the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit.
  • the index is calculated by excluding exercise.
  • the calculation system (5) includes any one of the calculation systems (2) to (4) described above.
  • the wakefulness index is at least one of the gain of vestibular ocular reflex, the phase difference between the angular velocity of the head and the angular velocity of the eyeball, and the residual standard deviation of the vestibular ocular reflex, or two or more of these values It is a calculation value based on the value of.
  • the calculation system (6) includes any one of the calculation systems (2) to (5) described above.
  • the head movement is Facial motion information based on a facial image captured by the imaging unit; By adding the corresponding values of the movement information of the moving body measured by the sensor, It is calculated as a value of an absolute coordinate system outside the moving body.
  • the calculation system (6) converts the head movement into a value in the absolute coordinate system by adding corresponding values. By adding each value of the motion information of the face and each value of the motion information of the moving body itself, the motion information of the face in the absolute coordinate system can be obtained. As a result, it is possible to calculate an index related to awakening with higher accuracy.
  • the information processing apparatus (1) is: An information processing apparatus constituting any one of the calculation systems (1) to (6), A first calculation unit that calculates an eye movement of a person using an image of a face imaged by an imaging unit installed on a moving body; A second calculation unit that calculates head movement of the person using movement data of the moving body measured by a sensor installed on the moving body and a face image captured by the imaging unit; , It is characterized by having.
  • the information processing apparatus (1) captures an image of a person's face using an imaging unit installed on a moving body, and calculates the eye movement of the person based on the captured image of the face. Further, the movement data of the moving body is measured by a sensor installed on the moving body, and the head movement of the person is calculated based on the measured movement data of the moving body and the face image. Since the second calculation unit calculates the head movement based on the movement data and the face image of the moving body, the head movement is set as an absolute coordinate system outside the moving body regardless of the movement state of the moving body. Obtainable. As a result, it is possible to more accurately calculate information related to the awakening of the driver in the moving body.
  • the driving support system (1) includes the information processing device (1), the eye movement calculated by the first calculation unit, and the head calculated by the second calculation unit. And a control means for controlling the moving body using motion.
  • the driving support system (1) it is possible to provide a system capable of accurately calculating information related to the awakening of the driver in the moving body.
  • the index calculation method (1) relating to awakening includes: A method for calculating an index related to awakening of a person in a moving body, An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body; A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body; A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step; The head motion of the person in the moving body is calculated as an absolute coordinate system value using the face image captured in the imaging step and the motion data of the moving body measured in the measuring step. A second calculation step; Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When, It is characterized by having.
  • the head movement can be obtained as an absolute coordinate system outside the moving body regardless of the moving state of the moving body.
  • the third calculation step it is possible to more accurately calculate an index relating to the driver's arousal in the moving body.
  • the computer program (1) for calculating an index relating to awakening is: A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body, Said at least one computer, An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body; A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body; A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step; The head motion of the person in the moving body is calculated as an absolute coordinate system value using the face image captured in the imaging step and the motion data of the moving body measured in the measuring step. A second calculation step; Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When, It is characterized by executing.
  • the head movement can be acquired as an absolute coordinate system outside the moving body regardless of the moving state of the moving body.
  • the computer it is possible to cause the computer to calculate the index relating to the driver's arousal in the moving body more accurately.
  • the computer-readable storage medium (1) includes A computer-readable storage medium storing a computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body, Said at least one computer, An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body; A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body; A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step; The head motion of the person in the moving body is calculated as an absolute coordinate system value using the face image captured in the imaging step and the motion data of the moving body measured in the measuring step. A second calculation step; Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step.
  • a computer program for executing When, It is characterized by memorizing a program for executing.
  • the head movement is performed regardless of the movement state of the moving body. It can be acquired as an absolute coordinate system outside the moving body. As a result, in the third calculation step, it is possible to cause the computer to calculate the index relating to the driver's arousal in the moving body more accurately.
  • FIG. 1 is a schematic plan view illustrating an example in which a calculation system including an information processing apparatus according to an embodiment is applied to a moving body M
  • FIG. 2 is a schematic perspective view illustrating a calculation system mounted on the moving body M. It is.
  • the moving body M is a vehicle that carries a person and has a visual recognition part (for example, a windshield) that allows the outside to be seen through.
  • the moving body M is provided with a seating portion (for example, a driver's seat) for the driver D to sit, and the driver D is seated on the seating portion of the moving moving body M via the visual recognition unit.
  • An arbitrary gazing point P outside the moving body M can be visually recognized. The gazing point P may actually be farther from the moving body M than the illustrated position.
  • the driver D sits on the seat with the upper body including the head DH facing the viewing portion, and the pupil 101 (FIG. 3) of the eyeball is the point of sight P at the tip of the viewing portion. Facing the direction.
  • the gazing point P for example, the tail portion of the vehicle ahead, or a distant road sign arranged around the road shown in FIG.
  • the road sign shown in FIG. 1 is stationary in an absolute coordinate system outside the moving body M. 2 indicates one facial organ point of the face for calculating the orientation of the person's face.
  • the information processing apparatus 10 (FIG. 4) prepares a face model composed of a large number of facial organ point information, and estimates the facial orientation from the positional information of a plurality of organ points. The amount of movement of the face can be calculated from the amount of change in the direction of the face.
  • the line-of-sight vector of the driver D includes the position of the pupil center 11 ⁇ / b> A in the image portion of the eyeball, and the reflection position of the irradiation light (corneal reflection image 121 in the eyeball image portion). ) And can be specified by. It is also possible to calculate the movement (eye movement) by differentiating the line-of-sight vector. The eye movement can also be calculated from the movement of the pupil 101 in the image portion of the eyeball.
  • the irradiation light is invisible light, and in the case of invisible light, the image captured by the camera 11 is an image of a person based on reflected light of the invisible light.
  • the calculation system 1 includes a camera 11 as an imaging unit that captures the face of a driver D who is a person in the moving body M, an information processing apparatus 10 that performs various types of information processing, and a moving body.
  • a gyro sensor 2 that measures M motion data is included.
  • the calculation system 1 includes the camera 11, the information processing apparatus 10, and the gyro sensor 2, and can be regarded as constituting a part of a so-called driver monitoring system.
  • the calculation system 1 can also be expressed by a functional configuration block as shown in FIG.
  • a first calculation unit 31 that calculates an eye movement of the person using an image of a face photographed by the camera 11;
  • a second calculation unit 32 that calculates the head movement of the person relative to the absolute coordinate system using the movement data of the moving body M measured by the gyro sensor 2 and the face image captured by the camera 11;
  • a third calculation unit that calculates an index related to the awakening of the person in the moving body M using the eye movement calculated by the first calculation unit 31 and the head movement calculated by the second calculation unit 32.
  • the calculation system 1 is equipped with a camera 11 as an imaging unit that captures an image including a person's head at predetermined time intervals, and an irradiation unit 3 that irradiates the eyeball of the driver D with irradiation light.
  • the device 10 is built in.
  • the calculation system 1 is, for example, fixed at a position in the moving body M and facing the driver D (FIG. 1).
  • the camera 11 as the imaging unit includes, for example, a lens unit, an imaging element unit, an interface unit, and a control unit that controls these units (not shown).
  • the image sensor unit includes an image sensor such as a CCD (Charge-Coupled Device) and a CMOS (Complementary Metal-Oxide Semiconductor), a filter, a microlens, and the like.
  • the image sensor section includes a sensor that can form a captured image by receiving light in the visible region, and can also include a sensor such as a CCD, CMOS, or photodiode that can form a captured image by receiving ultraviolet light, infrared light, or near infrared light. Good.
  • the camera 11 photographs the driver D.
  • the head movement of the driver D in the moving body M can be measured by the image taken by the camera 11. Further, the image taken by the camera 11 has a resolution that can specify the direction of the eyeball and line of sight of the person in the image, and the eyeball movement of the driver D can be calculated.
  • the number of cameras 11 may be one as shown in FIG. 2, and in a modified configuration example described later, the camera 11 is constituted by two or more cameras including the auxiliary camera 4 as shown in FIG. 11.
  • the camera 11 may be a monocular camera or a stereo camera.
  • the camera 11 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second), and data of the image captured by the camera 11 is output to the information processing apparatus 10.
  • the gyro sensor 2 acquires motion information associated with the movement of the moving body M.
  • the gyro sensor 2 shown in FIG. 2 is a three-dimensional gyro sensor, and is fixed to the calculation system 1 fixed to the front part of the moving body M (FIG. 1).
  • the measured motion information is the rotational momentum of the moving body M with respect to the external absolute coordinate system.
  • the rotation amount around each axis of the XYZ axes that are three-dimensionally orthogonal to each other, and the rotation angular velocities of the roll, pitch, and yaw per unit time are acquired.
  • the gyro sensor 2 may be installed on the moving body M without unnecessarily swinging, and the installation position on the moving body M is not particularly limited.
  • the irradiation unit 3 includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED, a near infrared LED, or the like is employed so that the state of the driver can be photographed regardless of day or night.
  • the irradiating unit 3 irradiates irradiation light from a predetermined position in the moving body M toward a driver seat where a person is present. By irradiating the irradiation light in a certain direction, a point on the eyeball in a certain direction is reflected as a cornea reflection image 121.
  • the cornea reflection image 121 is formed at a point where the distance from the fixed position of the irradiation unit 3 to the human eyeball is the shortest distance. Moreover, when irradiation light is a non-visible light ray, it does not disturb the movement of a person's eyes
  • An image photographed by the camera 11 is an image including a corneal reflection image 121.
  • FIG. 4 is a block diagram illustrating a functional configuration example of the calculation system 1 including the information processing apparatus 10 according to the embodiment.
  • the information processing apparatus 10 includes an input / output interface (I / F) 110, a control unit 12, and a storage unit 13.
  • the camera 11, the gyro sensor 2, the irradiation unit 3, the operation control device 30, the notification device 37, and the like are connected to the input / output I / F 110, and the input / output I / F 110 receives signals from these external devices. It is configured to include an interface circuit, a connection connector, etc. for performing exchanges.
  • the operation control device 30 can control the moving body M based on various information supplied from the information processing device 10. For example, the operation control device 30 may control the operation of the moving body M, or may control the output from a speaker or a display provided on the moving body M.
  • the control unit 12 includes an image acquisition unit 12a, a detection unit 12b, an information acquisition unit 12c, a first determination unit 12d, a second determination unit 12e, and a reference determination unit 12f, and further includes a calculation unit 12g and a processing unit. 12h, the reference changing unit 12i, and the like may be included.
  • the control unit 12 includes, for example, a CPU (Central Processing Unit), a memory, an image processing circuit, and the like. By reading a predetermined control program stored in the storage unit 13 and the like, the CPU executes interpretation and execution. That work is realized.
  • a CPU Central Processing Unit
  • the control unit 12 controls the imaging device unit and the irradiation unit 3 to irradiate light (for example, near infrared rays) from the irradiation unit 3 and controls the imaging device unit to photograph the reflected light.
  • the control unit 12 includes one or more hardware processors such as a CPU and a graphics processing unit (GPU).
  • the storage unit 13 includes an image storage unit 13a, a face orientation storage unit 13b, a parameter storage unit 13c, a reference storage unit 13d, and a program storage unit 13e.
  • the storage unit 13 stores data by a semiconductor element such as Random Access Memory (RAM), Read Only Memory (ROM), hard disk drive (HDD), solid state drive (SSD), flash memory, other nonvolatile memory or volatile memory. It is comprised with one or more memory
  • the control unit 12 may include a RAM and a ROM.
  • the image of the driver D acquired from the camera 11 by the image acquisition unit 12a is stored in the image storage unit 13a.
  • the face direction storage unit 13b information on the face direction and movement amount of the driver D of each image detected by the detection unit 12b is stored in association with each image stored in the image storage unit 13a.
  • the parameter storage unit 13c stores various parameters used for determination by the second determination unit 12e, such as a face direction threshold value and a movement amount threshold value.
  • the reference storage unit 13d stores information related to the reference of the face direction of the driver D determined by the reference determination unit 12f, for example, a value indicating the reference (reference value).
  • the program storage unit 13e stores an information processing program executed by each unit of the control unit 12, data necessary for executing the program, and the like.
  • the information processing apparatus 10 is built in the calculation system 1 mounted on the moving body M, and can acquire various types of information related to the traveling state of the moving body M from an in-vehicle device (not shown). Is configured to output.
  • the information processing apparatus 10 calculates a face model composed of a large number of facial organ point information in order to calculate the face orientation. Prepare the face direction from the position information of multiple organ points. The amount of movement of the face can be calculated from the amount of change in the direction of the face.
  • the information processing apparatus 10 as one of information processing for grasping the state of the driver D in the moving body M is an eyeball on at least one side of the driver D that serves as a reference for the direction of the eyeball of the driver D.
  • a process of grasping the pupil included in the eyeball and grasping the amount of movement of the pupil in the eyeball is also executed, and the eye movement can be detected.
  • the head movement of the driver D includes a pitch angle that is an angle (vertical direction) around the X axis (left and right axis) of the driver D, a Y of the face, At least one of the yaw (Yaw) angle that is an angle around the axis (vertical axis) (left-right orientation) and the roll angle that is an angle (left-right tilt) around the Z axis (front-rear axis) of the face is include.
  • the motion information of the moving body M may include vehicle speed information or steering information acquired from, for example, in-vehicle devices connected by CAN (Controller Area Network) in addition to the speed information of each three-dimensional axis of the moving body M. Good.
  • vehicle speed information or steering information acquired from, for example, in-vehicle devices connected by CAN (Controller Area Network) in addition to the speed information of each three-dimensional axis of the moving body M. Good.
  • the exercise information includes information acquired from the in-vehicle device, it is possible to determine whether the vehicle is in a specific running state based on the acquired information.
  • Examples of the specific traveling state include a traveling state in which the vehicle speed of the moving body M is in a predetermined vehicle speed range and is in a non-steering state, in other words, a traveling state in which the moving body M is traveling straight.
  • Such a running state can be said to be a state suitable for calculating an index related to the awakening of the driver D.
  • the information processing apparatus 10 detects the head DH of the driver D based on the image taken by the camera 11 and further uses the head movement reference of the head DH. A process for detecting a certain facial organ point DO is executed.
  • the facial organ point DO information for example, a value obtained by combining the positional information of the facial organ point DO and the orientation information of the facial organ point DO is used.
  • the position information of the facial organ point DO for example, a combination of values of the width position Xd, the height position Yd, and the front and rear position Zd indicating the three-dimensional axial position of the face of the driver D is used.
  • the orientation information of the facial organ point DO includes, for example, a pitch Pd that is a rotation angle around the X axis among three-dimensional axes, a yaw Yd that is a rotation angle around the Y axis, and a rotation angle around the Z axis.
  • a combination of values consisting of the roll Rd is used.
  • a combination of values such as the mode value can be used as movement information of the facial organ point DO.
  • the information processing apparatus 10 acquires an image photographed by the camera 11, calculates the head movement of the driver D from the acquired image, and acquires movement information of the moving body M. And the 1st determination part 12d of the information processing apparatus 10 determines whether the driver
  • the first determination unit 12d of the information processing device 10 corrects the amount of change in the head movement of the driver D in the moving body M according to the movement information of the moving body M itself, and then sets a preset threshold value. It is good also as what discriminate
  • the control unit 12 performs a process of storing various data in the storage unit 13.
  • the control unit 12 reads various data and various programs stored in the storage unit 13 and executes these programs.
  • the control unit 12 cooperates with the storage unit 13 to operate the image acquisition unit 12a, the detection unit 12b, the information acquisition unit 12c, the first determination unit 12d, the second determination unit 12e, and the reference determination unit 12f,
  • the operations of the calculation unit 12g, the processing unit 12h, and the reference changing unit 12i are realized.
  • the image acquisition unit 12a performs a process of acquiring an image of the driver D photographed at a predetermined frame rate from the camera 11, and performs a process of storing the image acquired from the camera 11 in the image storage unit 13a.
  • the detection unit 12b reads the image stored in the image storage unit 13a every frame or every frame at a predetermined interval, performs a process of detecting the head DH of the driver D from these images, and detects the detected driver D
  • the movement information of the head DH is stored in the face direction storage unit 13b in association with the image.
  • the movement information of the head DH of the driver D includes an angle indicating the direction of the face of the driver D detected by the image processing, for example, at least one of the above yaw angle, pitch angle, and roll angle. Contains information. Further, the movement information of the head D of the driver D includes position information related to the facial organ points DO such as the eyes, the base of the nose, the tip of the nose, the mouth, the eyebrows, and the top of the head. For example, the facial organ point DO is identified by image processing as a feature point indicating a representative or characteristic position of each organ of the face, and is detected as a reference point for head movement.
  • the information acquisition unit 12c performs a process of acquiring exercise information of the moving body M via the operation control device 30, and outputs the acquired information to the first determination unit 12d.
  • the process of the information acquisition unit 12c and the image acquisition unit 12a is not necessarily limited. For example, each of these treatments may be performed in parallel. In addition, you may make it the information acquisition part 12c acquire the said information from each part of a vehicle-mounted system (not shown) not via the operation control apparatus 30.
  • the motion information of the moving body M includes at least the rotational angular velocity detected by the gyro sensor 2.
  • the information acquisition unit 12c may acquire acceleration / deceleration information of the moving body M, inclination information of the moving body M, and the like.
  • the information acquisition unit 12c may acquire the position information of the moving body M and the map information around the moving body M. These pieces of information include, for example, the vehicle position determined by the navigation device and map information around the vehicle position.
  • the information acquisition unit 12c may acquire information related to monitoring objects such as other moving objects and people existing around the moving object M, particularly in the traveling direction.
  • information includes, for example, information on the type of object and the distance to the object detected by the periphery monitoring sensor.
  • the first determination unit 12d determines whether or not the condition of the first state regarding the driver D is satisfied.
  • the first determination unit 12d uses the face image captured by the camera 11 to determine whether or not the first state is based on the line-of-sight vector.
  • the determination result is output as a binary signal from the first determination unit 12d to the second determination unit 12e, for example.
  • the first determination unit 12d is an example of a first determination unit according to the present disclosure.
  • the second determination unit 12e determines whether or not the current state is not suitable for calculating VOR information described later.
  • a state where the movement direction of the eyeball and the movement direction of the face are the same direction is referred to as a state unsuitable for calculation of VOR information, and this is also referred to as a “second state”.
  • the second determination unit 12e uses the face image captured by the camera 11 to determine whether or not the eye movement direction and the face movement direction are the same direction, thereby determining whether or not the second state is established. Can be determined.
  • the determination result is output as a binary signal from the second determination unit 12e to the reference determination unit 12f, for example.
  • the second determination unit 12e is an example of a second determination unit according to the present disclosure.
  • the reference determination unit 12f analyzes the image element ID 20 (FIG. 6) including the head DH of the driver D when the driver D is determined to be in the first state and the second state. Further, the image element ID 10 (FIG. 6) of the eyeball included in the head DH of the driver D is extracted by image analysis. Based on the image element ID 10 of the eyeball, processing for specifying the position and orientation of the pupil 101 is performed. Then, based on the change in the positional information and orientation information of the facial organ point DO of each image taken continuously, the process of determining the “eye movement” of the driver D is performed, and the determined head movement is used as the reference storage unit. Store in 13d.
  • the change in the direction of the face of the driver D and the direction of the line of sight determined by the second determination unit 12e is not the same direction, “a non-codirectional movement state (that is, the second state)” It is determined whether or not a state that can be estimated to be present continues for a predetermined period or longer. That is, the second determination unit 12e gives a determination result indicating that the vehicle is in the “non-coaxial motion state” for each frame of the captured image, and whether or not the determination result has continued for a predetermined number of frames or not. Is determined.
  • the reference determination unit 12f displays the eyeball of the driver D corresponding to the image acquired in the predetermined period from the face orientation storage unit 13b (the embodiment of FIG. 3). Then, the image element ID 10 of the left eye that becomes the facial organ point DO) is read out, and the eye movement of the driver D is determined from the image element ID 10 of the eyeball of each frame read out continuously or intermittently.
  • the eye movement is information related to the position of the pupil 101 in the eyeball, for example, it can be obtained by specifying the movement of the pupil 101 in the image element of the eyeball based on the image element of the eyeball photographed by the camera 11. it can. By specifying the change in the position information of the pupil 101, the eye movement of the driver D is determined.
  • VOR information VOR information
  • the above-described detection unit 12b, information acquisition unit 12c, first determination unit 12d, second determination unit 12e, reference determination unit 12f, and face orientation storage unit 13b cooperate to provide information on VOR (hereinafter "VOR information").
  • VOR information hereinafter "VOR information"
  • the calculation process is executed.
  • the calculation unit 12g, the processing unit 12h, and the reference storage unit 13d cooperate to execute processing for grasping (monitoring) the state of the driver D.
  • the calculation unit 12g reads an image including the head from the face orientation storage unit 13b determined by the reference determination unit 12f, reads out the eye movement from the reference storage unit 13d, and calculates VOR information from the head movement and the eye movement. And the calculation result is output to the processing unit 12h.
  • the processing unit 12h performs predetermined processing based on the face direction (for example, deviation from the reference value) of the driver D with respect to the reference of the face direction calculated by the calculation unit 12g.
  • the predetermined process is performed by determining whether or not the user is in the side-by-side state.
  • the side-by-side state is in the side-by-side state (for example, when the face direction in the left-right direction is shifted from the reference value by a predetermined value or more) 37 may be a process of instructing the notification, or may be a process of storing information on the orientation of the face in the looking-aside state in the storage unit 13 or a process of outputting to the driving control device 30 without performing the notification process.
  • the processing unit 12h performs a determination process as to whether or not a decrease in the arousal level of the driver D is predicted based on the calculation result of the calculation process of the VOR information, and when it is determined that a decrease in the arousal level is predicted Alternatively, a process of outputting a detection signal to the notification device 37 and instructing notification regarding the awakening level reduction into the moving body M may be performed.
  • the processing unit 12h may perform a process of storing the VOR information in the storage unit 13 when the driver D's arousal level is lowered, instead of the notification process or together with the notification process.
  • the processing unit 12h performs a determination process of the moving state of the moving body M, and detects when the moving body M is clearly stopped or when the moving body M is clearly moving right or left.
  • the notification process or the storage process to the storage unit 13 may be performed only when the above is not the case.
  • the predetermined process is a state in which it is possible to take over by determining whether or not the driver D is ready to take over to manual operation when switching from the automatic operation mode to the manual operation mode.
  • the operation control device 30 is provided with a signal permitting switching to manual operation. The process to output may be sufficient.
  • the reference changing unit 12i performs a process of changing the reference of the face orientation determined by the reference determining unit 12f, for example, a reference value, and stores the changed reference value in the reference storage unit 13d. For example, the difference between the face direction of the driver D calculated by the calculation unit 12g and the reference of the face direction when a specific driving state (for example, a straight driving state) is within a predetermined range. The difference is reduced when the face is in a certain state (for example, the face is deviated in a certain direction from the reference value, but is not deviated as much as looking aside) for a certain period or intermittently.
  • the reference of the face orientation may be changed, for example, corrected.
  • the process performed by the reference changing unit 12i includes a process of changing the reference of the face orientation when the driver D changes.
  • the driver D when the driver D is seated in the driver's seat and is in a state of gazing at the external gaze point P, the driver D is based on the driver's D eye movement and head movement. D's VOR information is calculated.
  • FIG. 7 is a flowchart illustrating an example of the entire VOR information calculation processing operation performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
  • step S1 the control unit 12 performs a process of acquiring an image captured by the camera 11, and then in step S2, the image element ID 20 including the head of the driver D is extracted from the acquired image.
  • step S2 the image element ID 20 including the head of the driver D is extracted from the acquired image.
  • step S3 After detecting the facial organ points included in the image element, a process of calculating the head movement of the driver D in the moving body M coordinate system is performed.
  • the camera 11 captures a predetermined number of frames per second.
  • the control unit 12 captures these captured images in time series, and executes this process every frame or every frame at a predetermined interval.
  • step S ⁇ b> 3 the control unit 12 extracts the image element ID 10 including the eyeball of the driver D from the acquired image, and then performs a process of calculating eye movement.
  • step S4 the vehicle motion is calculated based on the information obtained by the gyro sensor 2, and then the process proceeds to step S5.
  • step S5 in order to obtain the head movement of the driver D with respect to the absolute coordinate system, the moving body M calculated in step S4 is set to the value of the head movement of the driver D in the vehicle coordinate system calculated in step S2.
  • a process of adding vehicle motion values in the absolute coordinate system is performed.
  • the addition process is a process of adding a value indicating the head movement at a certain time to a value indicating the vehicle movement at the time.
  • step S6 the first determination unit 12d determines whether or not the driver D is in the first state. If it is determined that the driver D is in the first state, the process proceeds to step S7.
  • step S7 processing for calculating VOR information of the driver D based on the head movement and eye movement converted to the absolute coordinate system when the driver D is determined to be in the first state. Then, the process proceeds to step S8.
  • step S8 processing for storing and storing the VOR information in the storage unit 13 is performed. At the same time, data older than 5 seconds is erased, and rewriting to VOR information within the latest 5 seconds is performed.
  • step S9 it is determined whether or not data for 5 seconds has been stored. If it is determined that data has been stored, the process proceeds to step S10. If it is not determined that data has been stored, this process is terminated.
  • step S10 a process of excluding data for which the correlation between the head movement and the eye movement is determined to be “in the same direction movement state” in the second determination unit 12e is performed, and then the process proceeds to step S11.
  • step S11 an output process of only the VOR information determined as “non-co-directional movement state” is performed, and then this process ends.
  • FIG. 8 is a flowchart showing details of the head movement calculation process (the process of step S2 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
  • the control unit 12 performs a process of acquiring an image photographed by the camera 11.
  • step S22 whether or not the head DH of the driver D can be detected based on the acquired image. If it is determined that the head DH of the driver D can be detected, the process proceeds to step S23. On the other hand, if it is determined that the head DH of the driver D cannot be detected, the process ends.
  • step S23 it is determined whether or not the facial organ point DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the facial organ point DO can be detected, the process proceeds to step S24. If it is determined that the facial organ point DO cannot be detected, the process is terminated.
  • step S24 the “face momentum”, which is the amount of movement of the position of the detected facial organ point, is calculated as the momentum in the vehicle coordinate system of the moving body M (that is, the relative facial momentum with respect to the moving body M).
  • step S25 the head movement in the vehicle coordinate system is calculated based on the movement amount of the facial organ point position, and then the process proceeds to step S26.
  • step S26 the process which memorize
  • FIG. 9 is a flowchart showing details of the eye movement calculation process (the process of step S3 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
  • the control unit 12 performs a process of acquiring an image captured by the camera 11, and then proceeds to step S32.
  • step S32 the head D of the driver D is based on the acquired image. If it is determined whether or not the head DH of the driver D can be detected, the process proceeds to step S33. If it is determined that the head DH of the driver D cannot be detected, the process ends. .
  • step S33 it is determined whether or not the eyeball DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the eyeball DO can be detected, the process proceeds to step S34. If it is determined that it cannot be detected, this process is terminated. In step S34, it is determined whether or not the pupil 101 can be detected from the eyeball DO of the driver D. If it is determined that the pupil 101 can be detected, the process proceeds to step S35, and if it is determined that the pupil 101 cannot be detected, The process ends. In step S35, the amount of movement of the pupil is calculated, and then the process proceeds to step S36.
  • step S36 the amount of movement of the eyeball is calculated based on the amount of movement of the pupil, and then the process proceeds to step S37. Based on the movement amount of the eyeball, eye movement is calculated. Next, the process proceeds to step S38, and in step S38, a process of storing the calculated eye movement in the storage unit 13 is performed, and then this process ends.
  • FIG. 10 is a flowchart showing details of the VOR information calculation process (step S7 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
  • step S71 a gain (VOR gain) of vestibular eye movement reflection is calculated.
  • step S72 the phase difference between the head angular velocity and the eyeball angular velocity is calculated.
  • step S73 a residual standard deviation is calculated based on the VOR gain and the phase difference.
  • step S74 a process for storing these VOR information in the storage unit 13 is performed, and then this process is terminated.
  • FIG. 11 shows another application example of the calculation system including the information processing apparatus according to the embodiment.
  • This application example is provided with two cameras as an imaging unit, and the irradiation unit 3 applies an invisible light image to the driver D's eyeball as well as to the driver D's back, and the application example shown in FIG. Is different.
  • the imaging unit includes two cameras including the camera 11 and the auxiliary camera 4 at different positions.
  • the imaging unit includes two cameras including the camera 11 and the auxiliary camera 4 at different positions.
  • the driver D's back is irradiated with an invisible light time display image whose display changes in synchronization with the irradiation time.
  • the time display image is composed of, for example, an image of a clock whose time changes. By including the time display image in the image captured by the camera, it is possible to reliably perform synchronization between the captured image and the capture time of each image.
  • the time display image should just be an image which can identify time.
  • the time display image is not limited to an image such as a clock that allows a person to recognize the time, and may be an image encoded such as a barcode or a two-dimensional code.
  • the calculation system is applied to a vehicle.
  • the calculation system can also be applied to other moving bodies other than the vehicle, for example, a ship, a diving machine, and an aircraft.
  • An information processing apparatus comprising:
  • [Appendix 2] A method for calculating an index relating to awakening of a person in a moving body M, An imaging step (S1) for capturing an image of a person's face in the moving body M with a camera (11) fixed to the moving body M; A measurement step (S4) of measuring motion data of the moving moving body M by the gyro sensor (2) installed on the moving body M; A first calculation step (S3) for calculating eye movements of a person in the moving body M using the face image captured in the imaging step (S1); Using the face image photographed in the imaging step (S1) and the motion data of the moving body M measured in the measuring step (S4), the head motion of the person in the moving body M is a value in the absolute coordinate system.
  • Appendix 3 An information processing apparatus (10) and a control means for controlling the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit.
  • a driving support system characterized by comprising.
  • the head motion of the person in the moving body M is a value in the absolute coordinate system.
  • Step (S7); A computer program for calculating an index relating to awakening, characterized in that
  • the present invention can be widely used in a system that calculates an index related to awakening of a moving person, such as a driver monitoring system mounted on a vehicle.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本発明は、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システムを提供することを目的としており、移動体M中の運転者Dの顔を撮影するカメラ11と、移動体Mの運動データを計測するジャイロセンサ2と、カメラ11により撮影された顔の画像を用いて運転者Dの眼球運動を算出する第1の算出部31と、ジャイロセンサ2により計測された前記移動体の運動データ及びカメラ11により撮影された顔の画像を用いて人物の頭部運動を算出する第2の算出部32と、を備えた算出システムとする。

Description

算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
 本発明は、算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体に関する。
 近年、カメラで撮影された運転者の顔画像から運転者の頭部運動や眼球運動を検出し、該検出した運転者の頭部運動や眼球運動などに基づいて、車両走行時の運転者の覚醒度低下を検出して警告を発したり、運転注意力を喚起したりする種々の運転への支援又は介入に関する技術が開示されている。
 例えば、下記の特許文献1には、覚醒度推定装置として、運転者の瞬き時間を検出し、覚醒時における運転者に固有の瞬きの基準時間を、所定の割合だけ増大させて長い瞬きを評価するための瞬き評価時間を設定すると共に、この瞬き評価時間に従って長い瞬きを検出し、所定時間内における瞬きの総数と、長い瞬きの回数とからその生起比率を求め、眠気予測モデルを用いた回帰分析により求められる予測式に従って、運転者の覚醒度を評価する技術が開示されている。
 また、下記の特許文献2には、眠気予兆検出装置として、頭部運動検出手段により頭部運動を検出し、眼球運動検出手段により眼球運動を検出し、理想眼球運動角速度算出部により、頭部運動データに基づいて理想眼球運動角速度を算出し、眼球回転角速度算出部により、眼球運動データに基づいて眼球回転角速度を算出し、眠気予兆判定手段により理想眼球運動角速度と眼球回転角速度とから前庭動眼反射を検出し、この前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する技術が開示されている。
 [発明が解決しようとする課題]
 下記の特許文献1に開示されている技術では、運転者の瞬き時間を検出して、所定時間内における瞬きの総数と、長い瞬きの回数とから運転者の覚醒度を評価する。このため、低下した覚醒度の検出は可能であるものの、覚醒度低下の予兆、すなわち眠気を自覚する前の眠気の予兆を検出することはできない。
 下記の特許文献2に開示されている技術では、前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する。前庭動眼反射(Vestibulo-Ocular Reflex:VOR)は、頭部運動に対してほぼ同じ速さで眼球を逆方向に回転させ、ブレのない視界を得るための反射性眼球運動である。前庭動眼反射のゲインの減少及び残差標準偏差の増大は、眠気を自覚する前から生じるため、眠気の予兆を示す指標として有効である。特許文献2には、自動車運転時を模擬したドライビングシミュレータシステムを用いた実験例が記載されると共に、眠気に関する内省を被験者に報告させて、前庭動眼反射のゲイン(VORゲイン)、残差標準偏差(SDres)の変化から眠気の予兆を判定した、と記載されている。
 しかしながら、特許文献2に記載のものでは、被験者が、眼球回旋撮影装置および加速度センサとジャイロセンサを頭部に装着後、振動装置を備えたドライバーシートに着座し、前方スクリーンに映し出される前方自動車のテール部を注視する状況を維持させた状態での実験しか行われていない。実際の乗用移動体では、乗車の度に運転者の頭部にジャイロセンサや撮影装置を取り付けることはできない。従って、実際の移動体を運転中の運転者の覚醒度を評価するシステムにあっては、ジャイロセンサや撮影装置を運転者の頭部に取り付けるよりも、移動体の内部に取り付けることが通常となる。
 しかしながら、撮影装置を移動体の内部に取り付けると、移動体内の座標系(移動体座標系)における運転者の情報しか得られない。移動体を運転している運転者の眼球運動は、運転者が車外前方を注視している場合、絶対座標系に属する運動となる。このため、頭部運動も絶対座標系で検出できなければ、前庭動眼反射を精度良く算出することは困難となる。
 ところが上記したように、撮影装置を移動体の内部に取り付けた場合、移動体座標系における運転者の情報しか得られない。
 このため、乗車し、実際に走行中の運転者の覚醒に関する情報を高い精度に検出することは極めて困難であるという課題があった。
特開平10-272960号公報 WO2010/032424号公報
課題を解決するための手段及びその効果
 本発明は上記課題に鑑みなされたものであって、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体を提供することを例示的な目的としている。
 上記目的を達成するために、本開示に係る算出システム(1)は、
 移動体中の人物の顔を撮影する撮像部と、
 前記移動体の運動データを計測するセンサと、
 前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
 前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記人物の頭部運動を算出する第2の算出部と、
 を備えていることを特徴としている。
 上記算出システム(1)によれば、前記撮像部により移動体中における前記人物の顔の画像が撮影され、前記センサにより移動体の運動データが計測され、前記第1の算出部により、前記人物の顔の画像に基づいて前記人物の眼球運動が算出される。そして前記第2の算出部により前記移動体の運動データ及び顔の画像に基づいて前記人物の頭部運動が算出される。
 従って、移動体の運動を考慮した頭部運動が算出される。このため、少なくとも前記撮像部及び前記センサが移動体に配備され、移動体が移動中の場合であっても、絶対座標系に対する頭部運動の正確な情報を得ることができる。
 また、本開示に係る算出システム(2)は、上記算出システム(1)において、
 さらに、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体中における人物の覚醒に関する指標を算出する第3の算出部を備えていることを特徴としている。
 上記算出システム(2)によれば、前記撮像部と前記センサとが移動体に設置された構成で、さらに前記第3の算出部を備えることで、運転者の頭部に撮像部やセンサを装着しなくても、移動体の運動を考慮した頭部運動の情報に基づいて前記移動体中における前記人物の覚醒に関する指標を高い精度に算出することが可能となる。
 また、本開示に係る算出システム(3)は、上記算出システム(2)において、
 前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している第1の状態か否かを判別する第1の判別部をさらに備え、
 前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴としている。
 上記算出システム(3)は、覚醒に関する指標の算出を、人物が移動体の外部の注視点を注視している場合に行うものである。上記算出システム(3)によれば、車外を注視している場合の頭部運動と眼球運動の情報に基づいて運転者の覚醒に関する指標を算出することで、高い精度の覚醒に関する指標を得ることができる。車外を注視している状態の覚醒に関する指標としては、例えばVOR(前庭動眼反射)に関する各種の値が挙げられる。
 また、本開示に係る算出システム(4)は、上記算出システム(2)又は(3)のいずれかにおいて、
 前記撮像部により撮影された顔の画像を用いて、眼球と頭部とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
 前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴としている。
 一般的に、人物が視線方向を意識的に変えるときは、眼球の運動方向と顔の運動方向とが同方向となる。このような同方向の運動時における情報を除くことで、高い精度の覚醒に関する指標を得ることができる。
 また、本開示に係る算出システム(5)は、上記算出システム(2)~(4)のいずれかにおいて、
 前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴としている。
 上記算出システム(5)によれば、覚醒度低下の指標として知られるVOR(前庭動眼反射)に関する各値、又はこれらに基づく演算値を用いることで、覚醒度との相関性に優れた指標を算出することができる。
 また、本開示に係る算出システム(6)は、上記算出システム(2)~(5)のいずれかにおいて、
 前記頭部運動が、
 前記撮像部により撮影された顔の画像に基づく顔の運動情報と、
 前記センサにより計測された前記移動体の運動情報と、の対応値同士の加算によって、
 前記移動体外の絶対座標系の値として算出されることを特徴としている。
 上記算出システム(6)は、頭部運動を対応値の加算処理によって絶対座標系の値に換算するものである。顔の運動情報の各値と、移動体自体の運動情報の各値とを加算することで、絶対座標系における顔の運動情報を得ることができる。これにより、より高い精度の覚醒に関する指標を算出することが可能となる。
 また、本開示に係る情報処理装置(1)は、
 上記算出システム(1)~(6)のいずれかを構成する情報処理装置であって、
 移動体に設置された撮像部によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部と、
 前記移動体に設置されたセンサによって計測された前記移動体の運動データ、及び、前記撮像部によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部と、
 を備えていることを特徴としている。
 上記情報処理装置(1)は、移動体に設置された撮像部により人物の顔の画像を撮影し、この撮影された顔の画像に基づき、前記人物の眼球運動を算出する。また、前記移動体に設置されたセンサにより前記移動体の運動データを計測し、計測された前記移動体の運動データと前記顔の画像に基づいて、人物の頭部運動を算出する。
 前記第2の算出部は、前記移動体の運動データと顔の画像に基づいて頭部運動を算出するため、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として得ることができる。これにより、移動体中の運転者の覚醒に関連する情報をより正確に算出することが可能となる。
 また、本開示に係る運転支援システム(1)は、上記情報処理装置(1)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴としている。
 上記運転支援システム(1)によれば、移動体中の運転者の覚醒に関連する情報を正確に算出することが可能なシステムとすることができる。
 また、本開示に係る覚醒に関する指標算出方法(1)は、
 移動体中の人物の覚醒に関する指標を算出する方法であって、
 前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
 前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
 前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
 前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
 前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
 を備えていることを特徴としている。
 上記覚醒に関する指標算出方法(1)によれば、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として得ることができる。これにより、第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に算出することが可能となる。
 また、本開示に係る覚醒に関する指標算出のためのコンピュータプログラム(1)は、
 移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
 前記少なくとも1つのコンピュータに、
 前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
 前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
 前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
 前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
 前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
 を実行させることを特徴としている。
 上記覚醒に関する指標算出のためのコンピュータプログラム(1)によれば、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。
 また、本開示に係るコンピュータ読み取り可能な記憶媒体(1)は、
 移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体であって、
 前記少なくとも1つのコンピュータに、
 前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
 前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
 前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
 前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
 前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
 を実行させるためのプログラムを記憶したことを特徴としている。
 上記コンピュータ読み取り可能な記憶媒体(1)によれば、前記少なくとも1つのコンピュータに、前記プログラムを読み取らせて上記各ステップを実行させることにより、移動体の運動状態にかかわらず、頭部運動を、移動体外の絶対座標系として取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。
実施の形態に係る情報処理装置を含む算出システムを移動体へ適用した例を示す概略平面図である。 実施の形態に係る算出システムを示す概略斜視図である。 実施の形態に係る情報処理装置における、撮像部の処理動作に関する構成例を示す概略側面図である。 実施の形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 実施の形態に係る算出システムの情報処理の流れを示すブロック図である。 情報処理の流れにおけるデータ構造例を示すブロック図である。 実施の形態に係る情報処理装置のVOR情報の算出処理動作全体の一例を示すフローチャートである。 情報処理における、頭部運動算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置における、眼球運動算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置における、VOR情報の算出処理の一例を示すフローチャートである。 実施の形態に係る情報処理装置を含む別の算出システムを移動体へ適用した例を示す概略平面図である。
 以下、本発明に係る算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体の実施の形態を図面に基づいて説明する。
[適用例]
 図1は、実施の形態に係る情報処理装置を含む算出システムを移動体Mへ適用した例を示す概略平面図であり、図2は、移動体Mに搭載された算出システムを示す概略斜視図である。
 この例において、移動体Mは人物を乗せて移動する車両であって、外部を透過視認する視認部(例えばフロントガラス)を有している。移動体Mは、運転者Dが着座するための着座部(例えば運転席)を備えており、運転者Dは、移動中の移動体Mの着座部に着座した状態で、視認部を介して移動体Mの外部の任意の注視点Pを視認することができる。注視点Pは、実際には、図示された位置よりも移動体Mから遠くにあってもよい。
 図2に示す例において、運転者Dは、頭部DHを含む上半身が視認部方向を向いた状態で着座部に着座し、眼球の瞳孔101(図3)が視認部の先の注視点Pの方向を向いている。
 注視点Pとしては、例えば、通常は前方車両のテール部、あるいは図1に示した、道路周辺に配置された遠方の道路標識などを挙げることができる。図1に示した道路標識は移動体M外部の絶対座標系で静止したものとなる。
 また、図2に示す符号DOは、人物の顔の向きを算出するための顔の一つの顔器官点を示している。情報処理装置10(図4)は、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。
 運転者Dの視線ベクトルは、例えば、図3に示したように、眼球の画像部分における瞳孔中心11Aの位置と、眼球の画像部分における照射部3からの照射光の反射位置(角膜反射像121)とによって特定することができる。この視線ベクトルを微分することで動き(眼球運動)を算出することも可能である。
 また、眼球運動は、眼球の画像部分における瞳孔101の動きから算出することも可能である。
 前記照射光は非可視光線であることも多く、非可視光線である場合、カメラ11によって撮影される画像は、非可視光線の反射光に基づく人物の画像からなる。
 [構成例]
 [算出システムの構成例]
 算出システム1は、図4に示したように、移動体M中の人物である運転者Dの顔を撮影する撮像部としてのカメラ11、各種の情報処理を行う情報処理装置10、及び移動体Mの運動データを計測するジャイロセンサ2を含んで構成されている。
 算出システム1は、カメラ11、情報処理装置10、及びジャイロセンサ2を含んで構成されており、いわゆるドライバモニタリングシステムの一部を構成しているとみなすこともできる。
 また、算出システム1は、図5に示したような機能構成ブロックでも表すことができ、
 カメラ11により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部31と、
 ジャイロセンサ2により計測された移動体Mの運動データ及びカメラ11により撮影された顔の画像を用いて絶対座標系に対する人物の頭部運動を算出する第2の算出部32と、
 第1の算出部31により算出された眼球運動、及び、第2の算出部32により算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出部33とを備えている。
 算出システム1には、人物の頭部を含む画像を所定の時間間隔で撮影する撮像部としてのカメラ11と、運転者Dの眼球に照射光を照射する照射部3とが装備され、情報処理装置10が内蔵されている。算出システム1は、例えば、移動体M内にあって運転者Dと対向する位置に固定されている(図1)。
 撮像部としてのカメラ11は、例えば、図示しないレンズ部、撮像素子部、インターフェース部、これら各部を制御する制御部などを含んで構成されている。撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成される。撮像素子部は、可視領域の光を受けて撮影画像を形成できるものを含む他、紫外線、赤外線、あるいは近赤外線を受けて撮影画像を形成できるCCD、CMOS、或いはフォトダイオード等のセンサを含んでもよい。
 カメラ11は、運転者Dを撮影する。カメラ11によって撮影された画像によって、移動体M中における運転者Dの頭部運動を測定することが可能になる。また、カメラ11によって撮影される画像は、画像内の人物の眼球及び視線の方向を特定できる解像度を有しており、運転者Dの眼球運動を算出することも可能になっている。
 カメラ11の数は、図2に示したように1台でもよいし、後述の変形構成例では、図11に示したように、補助カメラ4を含む2台以上のカメラで構成される。カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。
 カメラ11は所定のフレームレート(例えば、毎秒30~60フレーム)で画像を撮像し、カメラ11で撮影された画像のデータが情報処理装置10へ出力されるようになっている。
 ジャイロセンサ2は、移動体Mの移動に伴う運動情報を取得する。例えば、図2に示したジャイロセンサ2は三次元ジャイロセンサからなり、移動体Mの前部に固定された算出システム1に固定される(図1)。この例において、計測される運動情報は、外部の絶対座標系に対する、移動体Mの回転運動量である。運動情報の内容として、三次元的に互いに直交するXYZ軸の各軸周りの回転量、及び単位時間当たりにおける、ロール、ピッチ、ヨーそれぞれの回転角速度が取得される。
 ジャイロセンサ2は移動体Mに不要に揺動することなく設置されていればよく、移動体Mへの設置位置は特に限定されない。
 照射部3は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮影できるように赤外線LED、近赤外線LEDなどが採用される。
 照射部3は、例えば図2に示したように、移動体M内の決められた位置から、人物のいる運転席の方向へ照射光を照射する。照射光は、一定方向へ照射されることで、眼球上の一定方向の一点が角膜反射像121として反射される。この角膜反射像121は、照射部3の固定位置から人物の眼球までの距離が最短距離となる点に形成される。また、照射光が非可視光線である場合、人物の視線の動きを妨げることがない。カメラ11によって撮影される画像は、角膜反射像121を含む画像である。
 [情報処理装置の構成例]
 図4は、実施の形態に係る情報処理装置10を含む算出システム1の機能構成例を示すブロック図である。
 情報処理装置10は、入出力インターフェース(I/F)110、制御ユニット12、及び記憶ユニット13を含んで構成されている。
 入出力I/F110には、例えば、カメラ11、ジャイロセンサ2、照射部3、運転制御装置30、報知装置37などが接続され、入出力I/F110は、これら外部機器との間で信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。運転制御装置30は、情報処理装置10から供給される種々の情報に基づいて、移動体Mを制御することができる。例えば、運転制御装置30は、移動体Mの運転を制御してもよいし、移動体Mに設けられたスピーカやディスプレイによる出力を制御してもよい。
 制御ユニット12は、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fを含んで構成され、さらに、算出部12g、処理部12h、基準変更部12iなどを含んで構成されてもよい。制御ユニット12は、例えば、CPU(Central Processing Unit)、メモリ、画像処理回路などを含んで構成され、記憶ユニット13等に保存されている所定の制御プログラムを読み出してCPUで解釈実行することにより、その働きが実現される。制御ユニット12は、前記撮像素子部や照射部3を制御して、照射部3から光(例えば、近赤外線など)を照射させ、前記撮像素子部でその反射光を撮影する制御などを行う。制御ユニット12は、CPU、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成される。
 記憶ユニット13は、画像記憶部13a、顔の向き記憶部13b、パラメータ記憶部13c、基準記憶部13d、及びプログラム記憶部13eを含んで構成される。記憶ユニット13は、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子によってデータを記憶可能な1つ以上の記憶装置で構成される。なお、RAM及びROMを制御ユニット12に含んで構成してもよい。
 画像記憶部13aには、画像取得部12aによりカメラ11から取得された運転者Dの画像が記憶される。
 顔の向き記憶部13bには、検出部12bで検出された各画像の運転者Dの顔の向き及び移動量に関する情報が、画像記憶部13aに記憶される各画像と対応付けて記憶される。
 パラメータ記憶部13cには、第2判定部12eでの判定に用いられる、顔の向きの閾値や移動量の閾値などの各種パラメータが記憶されている。
 基準記憶部13dには、基準決定部12fで決定された運転者Dの顔の向きの基準に関する情報、例えば、基準を示す値(基準値)などが記憶される。
 プログラム記憶部13eには、制御ユニット12の各部で実行される情報処理プログラムや該プログラムの実行に必要なデータなどが記憶されている。
 [動作例]
 情報処理装置10は、移動体Mに搭載される算出システム1に内蔵され、車載機器(図示せず)から移動体Mの走行状態に関する各種情報を取得できるとともに、車載機器に対して制御信号などを出力するように構成されている。
 情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。また、情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、運転者Dの眼球の向きの基準となる、運転者Dの少なくとも片側の眼球及び当該眼球に含まれる瞳孔を把握し、前記眼球における瞳孔の移動量を把握する処理も実行し、眼球運動の検出を可能としている。
 運転者Dの頭部運動には、例えば、図2に示すように、運転者Dの顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角のうち、少なくとも1つが含まれている。
 移動体Mの運動情報には、移動体Mの三次元軸それぞれの速度情報のほか、例えば、CAN(Controller Area Network)で接続された車載機器から取得した、車速情報、或いは操舵情報を含んでもよい。運動情報が車載機器から取得した情報を含む場合、当該取得した情報に基づいて、特定の走行状態にあるかどうかを判別することが可能となる。特定の走行状態としては、例えば、移動体Mの車速が所定の車速域にあり、かつ非操舵状態にある走行状態、換言すれば、移動体Mが直進している走行状態が挙げられる。このような走行状態は、運転者Dの覚醒に関する指標を算出するのに適した状態と言える。
 情報処理装置10は、「頭部運動算出処理」として、カメラ11により撮影された画像に基づいて、運転者Dの頭部DHを検出し、さらに、頭部DHのうち頭部運動の基準である顔器官点DOを検出する処理を実行する。
 顔器官点DOの情報として、例えば、顔器官点DOの位置情報と、顔器官点DOの向き情報とを組み合わせた値が用いられる。
 このうち、顔器官点DOの位置情報としては、例えば、運転者Dの顔の3次元の軸上位置を示す幅位置Xd、高さ位置Yd、前後位置Zdの各値の組合せが用いられる。また、顔器官点DOの向きの情報としては、例えば、3次元軸のうちX軸周りの回転角であるピッチPd、Y軸周りの回転角であるヨーYd、Z軸周りの回転角であるロールRdからなる各値の組合せが用いられる。これらは、運転者Dの頭部の位置を示す情報、及び、運転者Dの頭部運動を示す情報となる。
 カメラ11で撮影された1以上の画像から、前記幅位置Xd、高さ位置Yd、前後位置Zd、ピッチPd、ヨーYd、ロールRdのうち、少なくとも1つ以上の値の組合せ、これらの平均値又は最頻値などの値の組合せを、顔器官点DOの移動情報として用いることができる。
 本実施の形態では、情報処理装置10が、カメラ11によって撮影された画像を取得し、取得した画像から運転者Dの頭部運動を算出するとともに、移動体Mの運動情報を取得する。そして、情報処理装置10の第1判定部12dが、取得した前記情報に基づいて、運転者Dが特定の状態(以下「第1の状態」という。)にあるか否かを判定する(図7)。第1の状態は、具体的には、運転者Dが移動体Mの外部(ここでは車外)を注視している状態であるといえる。
 情報処理装置10の第1判定部12dは、移動体M内の運転者Dの頭部運動の変化量を、移動体M自体の運動情報に応じて修正した上で、あらかじめ設定された閾値をこえるか否か、判別するものとしてもよい。
 制御ユニット12は、記憶ユニット13に各種データを記憶する処理を行う。また、制御ユニット12は、記憶ユニット13に記憶された各種データや各種プログラムを読み出し、これらプログラムを実行する。制御ユニット12が記憶ユニット13と協働して、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fの動作、さらには、算出部12g、処理部12h、及び基準変更部12iの動作が実現される。
 画像取得部12aは、所定のフレームレートで撮影された運転者Dの画像をカメラ11から取得する処理を行い、カメラ11から取得した画像を画像記憶部13aに記憶する処理を行う。
 検出部12bは、画像記憶部13aに記憶された画像を毎フレーム、又は所定間隔のフレーム毎に読み出し、これら画像から運転者Dの頭部DHを検出する処理を行い、検出した運転者Dの頭部DHの運動情報を、当該画像と対応付けて顔の向き記憶部13bに記憶する処理を行う。
 運転者Dの頭部DHの運動情報には、画像処理により検出された運転者Dの顔の向きを示す角度、例えば、上記したヨー角、ピッチ角、及びロール角のうち少なくとも1つの角度の情報が含まれる。また、運転者Dの頭部DHの運動情報には、目、鼻付け根部、鼻先端部、口、眉、頭頂部などの顔器官点DOに関する位置情報が含まれる。顔器官点DOは例えば、顔の各器官の代表的又は特徴的な位置を示す特徴点として画像処理によって特定され、頭部運動の基準点として検出される。
 情報取得部12cは、運転制御装置30を介して移動体Mの運動情報を取得する処理を行い、取得した前記情報を第1判定部12dに出力する。情報取得部12cの処理と、画像取得部12aの処理との先後は必ずしも限定されない。例えば、これらの各処置を並行して行ってもよい。なお、情報取得部12cは、運転制御装置30を介さずに、車載システム(図示せず)の各部から前記情報を取得するようにしてもよい。
 移動体Mの運動情報には、少なくともジャイロセンサ2で検出された回転角速度などが含まれる。
 また、情報取得部12cは、移動体Mの加減速情報や移動体Mの傾斜情報等を取得してもよい。
 また、情報取得部12cは、移動体Mの位置情報と、移動体Mの周辺の地図情報とを取得してもよい。これら情報には、例えば、ナビゲーション装置で割り出された自車位置と、該自車位置周辺の地図情報などが含まれる。
 さらに、情報取得部12cは、移動体Mの周辺、特に進行方向に存在する他の移動体や人などの監視対象物に関する情報を取得してもよい。これら情報には、例えば、周辺監視センサで検出された、対象物の種類や対象物までの距離に関する情報などが含まれる。
 第1判定部12dは、運転者Dに関する第1の状態の条件を満たすか否かを判別する。第1判定部12dは、カメラ11により撮影された顔の画像を用いて、第1の状態か否かを視線ベクトルに基づいて判別する。判別結果は例えば二値信号として、第1判定部12dから第2判定部12eに出力される。第1判定部12dは、本開示に係る第1の判別部の一例である。
 第2判定部12eは、現在の状態が後述のVOR情報の算出に適さない状態であるか否かを判別する。本実施の形態では、一例として、眼球の運動方向と顔の運動方向とが同方向である状態をVOR情報の算出に適さない状態とし、以下これを「第2の状態」ともいう。例えば、第2判定部12eは、カメラ11により撮影された顔の画像を用いて、眼球の運動方向と顔の運動方向とが同方向か否かを判別することによって、第2の状態か否かを判別することができる。判別結果は例えば二値信号として、第2判定部12eから基準決定部12fに出力される。第2判定部12eは、本開示に係る第2の判別部の一例である。
 基準決定部12fは、運転者Dが第1の状態にあり、かつ第2の状態にあると判別されているときの運転者Dの頭部DHを含む画像要素ID20(図6)を画像解析によって抽出し、さらに、運転者Dの頭部DHに含まれる眼球の画像要素ID10(図6)を画像解析によって抽出する。眼球の画像要素ID10に基づいて、瞳孔101の位置及び向きを特定する処理を行う。そして、連続撮影された各画像の顔器官点DOの位置情報及び向きの情報の変化に基づいて、運転者Dの“眼球運動”を決定する処理を行い、決定した頭部運動を基準記憶部13dに記憶する。
 具体的には、まず、第2判定部12eで判定された、運転者Dの顔の向きと視線の向きの変化が同一方向ではない、“非同方向運動状態(すなわち第2の状態)”にあると推定できる状態が所定期間以上継続しているか否かが判定される。すなわち、第2判定部12eから、“非同方向運動状態”にあることを示す判定結果を撮影された画像のフレーム毎に付与し、当該判定結果が、所定のフレーム数以上継続したか否かが判定される。
 所定期間以上継続して取得されたと判断すれば、基準決定部12fは、次に、顔の向き記憶部13bから前記所定期間に取得した画像に対応する運転者Dの眼球(図3の実施形態では顔器官点DOとなる左目)の画像要素ID10を読み出し、連続的又は断続的に読み出した各フレームの眼球の画像要素ID10から、運転者Dの眼球運動を決定する。
 眼球運動は、眼球内における瞳孔101の位置に関する情報であるから、例えば、カメラ11で撮影される眼球の画像要素に基づいて、眼球の画像要素における瞳孔101の動きを特定することにより求めることができる。瞳孔101の位置情報の変化を特定することで、運転者Dの眼球運動が決定される。
 上記した検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、基準決定部12f、及び顔の向き記憶部13bが協働して、VORに関する情報(以下「VOR情報」という。)の算出処理を実行する。
 一方、算出部12g、処理部12h、及び基準記憶部13dが協働して、運転者Dの状態を把握(モニタリング)する処理を実行する。
 算出部12gは、基準決定部12fで決定された顔の向き記憶部13bから頭部を含む画像を読みだすと共に、眼球運動を基準記憶部13dから読み出して、頭部運動及び眼球運動からVOR情報の算出処理を行い、算出結果を処理部12hに出力する。
 処理部12hは、算出部12gで算出された、顔の向きの基準に対する運転者Dの顔の向き(例えば、基準値からのずれ)に基づいて、所定の処理を行う。
 所定の処理は、例えば、脇見状態にあるか否かの判定処理を行って、脇見状態にある場合(例えば、左右方向の顔の向きが基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理でもよいし、報知処理を行うことなく、脇見状態にある顔の向きの情報を記憶ユニット13に記憶する処理や、運転制御装置30に出力する処理でもよい。
 また、処理部12hは、VOR情報の算出処理の算出結果によって、運転者Dの覚醒度の低下が予兆されるかどうかの判定処理を行い、覚醒度の低下が予兆されると判断される場合には、報知装置37に検知信号を出力して、移動体M内へ覚醒度低下に関する報知を指示する処理を行ってもよい。
 また、処理部12hは、報知処理に代えて、又は報知処理とともに、運転者Dの覚醒度が低下した状態になっているときのVOR情報を記憶ユニット13に記憶する処理を行ってもよい。
 また、処理部12hは、移動体Mの移動状態の判定処理を行って、明らかに移動体Mが停止している場合、或いは明らかに移動体Mが右左折移動を行っている場合を検知し、前記いずれの場合でもない時に限って、前記報知処理、あるいは前記記憶ユニット13への記憶処理を行ってもよい。
 また、所定の処理は、自動運転モードから手動運転モードへの切り替え時において、運転者Dが手動運転への引き継ぎが可能な状態にあるか否かの判定処理を行って、引き継ぎが可能な状態にあると判定された場合(例えば、基準値からの顔の向きのずれが、手動運転に適切な所定範囲内である場合)、運転制御装置30に、手動運転への切り替えを許可する信号を出力する処理でもよい。
 基準変更部12iは、基準決定部12fで決定された顔の向きの基準、例えば、基準値を変更する処理を行い、変更した基準値を基準記憶部13dに記憶する処理を行う。
 例えば、特定の走行状態(例えば、直進している走行状態)であるときに、算出部12gで算出された前記運転者Dの顔の向きと、前記顔の向きの基準との差が所定範囲内である状態(例えば、基準値から一定の方向に顔の向きがずれているが、脇見ほどずれていない状態)で一定期間又は断続的に継続している場合に、前記差が小さくなるように前記顔の向きの基準を変更、例えば補正してもよい。また、基準変更部12iが行う処理には、運転者Dが変わった場合に、顔の向きの基準を変更する処理も含まれる。
 実施の形態に係る算出システムは、運転者Dが、運転席に着座し、外部の注視点Pを注視した状態にあるとき、運転者Dの眼球運動、及び頭部運動に基づいて、運転者DのVOR情報が算出される。
 図7は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理動作全体の一例を示すフローチャートである。
 まず、ステップS1では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS2では、取得した画像から運転者Dの頭部を含む画像要素ID20を抽出し、当該画像要素に含まれる顔器官点を検出したうえで、移動体M座標系における運転者Dの頭部運動を算出する処理を行う。カメラ11では、毎秒所定フレーム数の画像が撮影される。
 制御ユニット12は、これら撮影された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行する。
 次に、ステップS3では、制御ユニット12が、取得した画像から運転者Dの眼球を含む画像要素ID10を抽出したうえで、眼球運動を算出する処理を行う。
 次に、ステップS4では、ジャイロセンサ2によって得られた情報に基づき、車両運動を算出し、次にステップS5に進む。
 ステップS5では、絶対座標系に関する運転者Dの頭部運動を求めるために、ステップS2で算出された車両座標系における運転者Dの頭部運動の値に、ステップS4で算出された移動体Mの絶対座標系における車両運動の値を加算する処理を行う。この加算処理は、例えば、ある時刻における頭部運動を示す値を、当該時刻の車両運動を示す値とを加算する処理である。
 次に、ステップS6では、第1判定部12dによって、運転者Dが第1の状態にあるか否かが判断され、第1の状態にあると判断されれば、次にステップS7に進み、第1の状態にはないと判断されれば、本処理を終了する。
 次に、ステップS7では、運転者Dが第1の状態にあると判断されたときの絶対座標系に変換された頭部運動及び眼球運動に基づいて、運転者DのVOR情報を算出する処理を行い、その後、ステップS8に進む。
 ステップS8では、VOR情報を記憶ユニット13に格納して記憶していく処理が行われ、同時に、5秒以上前のデータは消去され、直近5秒間以内のVOR情報への書換えが行われる。
 その後、ステップS9では、5秒間分のデータが格納されたか否かが判断され、格納されたと判断されれば、ステップS10に進み、一方、格納されたと判断されなければ、本処理を終了する。
 ステップS10では、第2判定部12eにおいて頭部運動と眼球運動との相関性が“同方向運動状態にある”と判断されたデータを除外する処理が行われ、その後、ステップS11に進み、ステップS11では、“非同方向運動状態”と判断されたVOR情報のみの出力処理が行われ、その後、本処理が終了する。
 図8は、実施の形態に係る情報処理装置10の制御ユニット12が行う、頭部運動算出処理(図7に示したフローチャートにおけるステップS2の処理)の詳細を示すフローチャートである。
 まず、ステップS21では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次に、ステップS22では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS23に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
 ステップS23では、取得した画像に基づいて運転者Dの頭部DHから顔器官点DOが検出できるか否かを判断し、顔器官点DOが検出できると判断すると、次にステップS24に進む一方、顔器官点DOが検出できないと判断すると、本処理を終了する。
 ステップS24では、検出された顔器官点の位置の移動量である“顔運動量”を、移動体Mにおける車両座標系での運動量(すなわち移動体Mに対する相対的顔運動量)として算出する。
 次にステップS25に進み、ステップS25では、顔器官点位置の移動量に基づき、車両座標系における頭部運動を算出し、次に、ステップS26に進む。
 ステップS26では、算出された頭部運動を示す情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
 図9は、実施の形態に係る情報処理装置10の制御ユニット12が行う、眼球運動算出処理(図7に示したフローチャートにおけるステップS3の処理)の詳細を示すフローチャートである。
 まず、ステップS31では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS32に進み、ステップS32では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS33に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
 ステップS33では、取得した画像に基づいて運転者Dの頭部DHから眼球DOが検出できるか否かを判断し、眼球DOが検出できると判断すると、次にステップS34に進む一方、眼球DOが検出できないと判断すると、本処理を終了する。
 ステップS34では、運転者Dの眼球DOから瞳孔101が検出できるか否かを判断し、瞳孔101が検出できると判断すると、次にステップS35に進む一方、瞳孔101が検出できないと判断すると、本処理を終了する。
 ステップS35では、瞳孔の移動量を算出し、次にステップS36に進み、ステップS36では、瞳孔の移動量に基づいて、眼球の移動量を算出し、次にステップS37に進み、ステップS37では、眼球の移動量に基づいて、眼球運動を算出する。
 次にステップS38に進み、ステップS38では、算出された眼球運動を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
 図10は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理(図7に示したフローチャートにおけるステップS7の処理)の詳細を示すフローチャートである。
 まず、ステップS71では、前庭動眼反射のゲイン(VORゲイン)が算出される。
 次に、ステップS72では、頭部角速度と眼球角速度の位相差が算出される。
 次に、ステップS73では、VORゲインと上記位相差に基づいて、残差標準偏差が算出される。
 次に、ステップS74では、これらのVOR情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
[他の適用例]
 実施の形態に係る情報処理装置を含む算出システムの他の適用例を図11に示す。本適用例は撮像部として二つのカメラを備えている点、照射部3が不可視光線像を運転者Dの眼球に加えて運転者D背部にも照射する点で、図2に示した適用例とは異なっている。
 図11に示す適用例では、撮像部が、カメラ11と補助カメラ4とからなる二つのカメラを異なる位置に備えている。異なる2つの位置から運転者Dの頭部を含む画像を取得することで、撮影される画像の奥行き方向の値の変化を確実に得ることができる。
 また、図11に示す適用例では、運転者D背部に照射時刻と同期して表示変化する不可視光線の時刻表示画像を照射する。時刻表示画像は例えば時刻変化する時計の画像からなる。カメラによって撮影される画像に時刻表示画像を含めることで、撮影した画像と各画像の撮影時刻との同期を確実に行うことができる。なお、時刻表示画像は、時刻を識別可能な画像であればよい。例えば、時刻表示画像は、時計のような人間が時刻を認識できる画像に限定されず、バーコード、2次元コード等の符号化された画像であってもよい。
 以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
 上記実施の形態では、算出システムを車両に適用した場合について説明したが、車両以外の他の移動体、例えば、船舶、潜水機、航空機にも適用することが可能である。
[付記]
 本発明の実施の形態は、以下の付記のようにも記載され得るが、これらに限定されない。
 [付記1]
 移動体に設置されたカメラ(11)によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部(31)と、
 前記移動体に設置されたセンサ(2)によって計測された前記移動体の運動データ、及び、
 カメラ(11)によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部(32)と、
 を備えていることを特徴とする情報処理装置。
 [付記2]
 移動体M中の人物の覚醒に関する指標を算出する方法であって、
 移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
 移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
 撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
 撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
 第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
 を備えていることを特徴とする指標算出方法。
 [付記3]
 情報処置装置(10)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴とする運転支援システム。
 [付記4]
 移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
 前記少なくとも1つのコンピュータに、
 移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
 移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
 撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
 撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
 第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
 を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
 本発明は、例えば、車両に搭載されるドライバモニタリングシステムなど、移動体に搭載され、移動中の人物の覚醒に関する指標を算出するシステムにおいて広く利用することができる。
1   算出システム
2   ジャイロセンサ
3   照射部
4   補助カメラ
10  情報処理装置
11  カメラ
11A 瞳孔中心
12  制御ユニット
13  記憶ユニット
30  運転制御装置
31  第1の算出部
32  第2の算出部
33  第3の算出部
37  報知装置
101 瞳孔
110 入出力インターフェース
121 角膜反射像
M   移動体
D   運転者
DO  顔器官点
X-Y-Z 絶対座標系における三次元軸

Claims (11)

  1.  移動体中の人物の顔を撮影する撮像部と、
     前記移動体の運動データを計測するセンサと、
     前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
     前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記人物の頭部運動を算出する第2の算出部と、
     を備えていることを特徴とする算出システム。
  2.  さらに、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体中における人物の覚醒に関する指標を算出する第3の算出部を備えていることを特徴とする請求項1記載の算出システム。
  3.  前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している第1の状態か否かを判別する第1の判別部をさらに備え、
     前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴とする請求項2記載の算出システム。
  4.  前記撮像部により撮影された顔の画像を用いて、眼球と頭部とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
     前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴とする請求項2又は請求項3記載の算出システム。
  5.  前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴とする請求項2又は請求項3記載の算出システム。
  6.  前記頭部運動が、
     前記撮像部により撮影された顔の画像に基づく顔の運動情報と、
     前記センサにより計測された前記移動体の運動情報と、の対応値同士の加算によって、
     前記移動体外の絶対座標系の値として算出されることを特徴とする請求項2又は請求項3記載の算出システム。
  7.  移動体に設置された撮像部によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部と、
     前記移動体に設置されたセンサによって計測された前記移動体の運動データ、及び、前記撮像部によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部と、
     を備えていることを特徴とする情報処理装置。
  8.  請求項7に記載の情報処理装置と、
     前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段と
     を備えていることを特徴とする運転支援システム。
  9.  移動体中の人物の覚醒に関する指標を算出する方法であって、
     前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
     前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
     前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
     前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
     前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
     を備えていることを特徴とする覚醒に関する指標算出方法。
  10.  移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
     前記少なくとも1つのコンピュータに、
     前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
     前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
     前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
     前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
     前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
     を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
  11.  移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムが記憶されたコンピュータ読み取り可能な記憶媒体であって、
     前記少なくとも1つのコンピュータに、
     前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
     前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
     前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
     前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を絶対座標系の値として算出する第2の算出ステップと、
     前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
     を実行させるためのプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
     
PCT/JP2019/006511 2018-03-15 2019-02-21 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体 WO2019176492A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018048269A JP6432702B1 (ja) 2018-03-15 2018-03-15 算出システム、指標算出方法、およびコンピュータプログラム
JP2018-048269 2018-03-15

Publications (1)

Publication Number Publication Date
WO2019176492A1 true WO2019176492A1 (ja) 2019-09-19

Family

ID=64560686

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/006511 WO2019176492A1 (ja) 2018-03-15 2019-02-21 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体

Country Status (2)

Country Link
JP (1) JP6432702B1 (ja)
WO (1) WO2019176492A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220095972A1 (en) * 2019-01-21 2022-03-31 Mitsubishi Electric Corporation Attentiveness determination device, attentiveness determination system, attentiveness determination method, and computer-readable storage medium
JP7466766B2 (ja) 2021-05-07 2024-04-12 三菱電機株式会社 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法
WO2024079779A1 (ja) * 2022-10-11 2024-04-18 三菱電機株式会社 乗員状態判定装置、乗員状態判定システム、乗員状態判定方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010032424A1 (ja) * 2008-09-18 2010-03-25 学校法人中部大学 眠気予兆検出装置
WO2010091464A1 (en) * 2009-02-11 2010-08-19 Seeing Machines Limited Method and system for monitoring an operator of machinery
JP2017094121A (ja) * 2016-12-26 2017-06-01 ヤマハ発動機株式会社 人の状態推定装置およびそれを備えた輸送機器
JP2019034723A (ja) * 2017-08-10 2019-03-07 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04288123A (ja) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk 視線表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010032424A1 (ja) * 2008-09-18 2010-03-25 学校法人中部大学 眠気予兆検出装置
WO2010091464A1 (en) * 2009-02-11 2010-08-19 Seeing Machines Limited Method and system for monitoring an operator of machinery
JP2017094121A (ja) * 2016-12-26 2017-06-01 ヤマハ発動機株式会社 人の状態推定装置およびそれを備えた輸送機器
JP2019034723A (ja) * 2017-08-10 2019-03-07 ヤマハ発動機株式会社 視線移動関連値取得装置、それを備えた輸送機器及び視線移動関連値取得方法

Also Published As

Publication number Publication date
JP6432702B1 (ja) 2018-12-05
JP2019154929A (ja) 2019-09-19

Similar Documents

Publication Publication Date Title
CN106663377B (zh) 驾驶员的驾驶不能状态检测装置
CN109791739B (zh) 晕车估计装置、晕车防止装置和晕车估计方法
JP6454368B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
JP5406328B2 (ja) 車両用表示装置、その制御方法及びプログラム
JP7099037B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP6497158B2 (ja) 表示装置、移動体
WO2019176492A1 (ja) 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
CN110826369A (zh) 一种驾驶员驾驶时注意力检测方法和系统
JP2016057839A (ja) 顔向き検出装置及び車両用警告システム
CN109760689A (zh) 驾驶员监视系统
JP6187155B2 (ja) 注視対象物推定装置
JP2015207163A (ja) 状態推定装置、および状態推定プログラム
JP2017027604A (ja) 車両の乗員の視線方向を推定する方法および装置、ならびに車両の乗員に特有の頭部動作増強パラメータを決定する方法および装置
JP2022502757A (ja) 運転者注意状態推定
JP2018183532A (ja) 状態推定装置
JP6708152B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
JP4325271B2 (ja) 状態検出装置及び状態検出システム
KR20180129044A (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP7024332B2 (ja) ドライバモニタシステム
JP6948210B2 (ja) 運転支援装置及び運転支援方法
JP6775135B2 (ja) ドライバ状態検出装置
JP6418341B1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7099036B2 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム
JP7298351B2 (ja) 状態判定装置、車載機、運転評価システム、状態判定方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19766955

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19766955

Country of ref document: EP

Kind code of ref document: A1