JP6432702B1 - Calculation system, index calculation method, and computer program - Google Patents

Calculation system, index calculation method, and computer program Download PDF

Info

Publication number
JP6432702B1
JP6432702B1 JP2018048269A JP2018048269A JP6432702B1 JP 6432702 B1 JP6432702 B1 JP 6432702B1 JP 2018048269 A JP2018048269 A JP 2018048269A JP 2018048269 A JP2018048269 A JP 2018048269A JP 6432702 B1 JP6432702 B1 JP 6432702B1
Authority
JP
Japan
Prior art keywords
moving body
calculation
person
movement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018048269A
Other languages
Japanese (ja)
Other versions
JP2019154929A (en
Inventor
倭 竹内
倭 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018048269A priority Critical patent/JP6432702B1/en
Application granted granted Critical
Publication of JP6432702B1 publication Critical patent/JP6432702B1/en
Priority to PCT/JP2019/006511 priority patent/WO2019176492A1/en
Publication of JP2019154929A publication Critical patent/JP2019154929A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

【課題】移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システムを提供すること。
【解決手段】移動体M中の運転者Dの顔を撮影するカメラ11と、移動体Mの運動データを計測するジャイロセンサ2と、カメラ11により撮影された顔の画像を用いて運転者Dの眼球運動を算出する第1の算出部31と、ジャイロセンサ2により計測された前記移動体の運動データ及びカメラ11により撮影された顔の画像を用いて人物の頭部運動を算出する第2の算出部32と、を備えた算出システムとする。
【選択図】図5
An object of the present invention is to provide a calculation system capable of obtaining information about a person's arousal level with higher accuracy in a moving body.
A camera D that captures a face of a driver D in a moving body M, a gyro sensor 2 that measures motion data of the moving body M, and a face image captured by the camera 11 are used to drive the driver D. A first calculation unit 31 that calculates the eye movement of the person, and a second calculation that calculates the head movement of the person using the movement data of the moving body measured by the gyro sensor 2 and the face image taken by the camera 11. And a calculation system including the calculation unit 32.
[Selection] Figure 5

Description

本発明は、算出システム指標算出方法、およびコンピュータプログラムに関する。 The present invention relates to a calculation system , an index calculation method, and a computer program.

近年、カメラで撮影された運転者の顔画像から運転者の頭部運動や眼球運動を検出し、該検出した運転者の頭部運動や眼球運動などに基づいて、車両走行時の運転者の覚醒度低下を検出して警告を発したり、運転注意力を喚起したりする種々の運転への支援又は介入に関する技術が開示されている。   In recent years, a driver's head movement or eye movement is detected from a driver's face image captured by a camera, and the driver's head movement or eye movement is detected based on the detected driver's head movement or eye movement. Techniques relating to various driving assistances or interventions for detecting a decrease in arousal level and issuing a warning or arousing driving attention are disclosed.

例えば、下記の特許文献1には、覚醒度推定装置として、運転者の瞬き時間を検出し、覚醒時における運転者に固有の瞬きの基準時間を、所定の割合だけ増大させて長い瞬きを評価するための瞬き評価時間を設定すると共に、この瞬き評価時間に従って長い瞬きを検出し、所定時間内における瞬きの総数と、長い瞬きの回数とからその生起比率を求め、眠気予測モデルを用いた回帰分析により求められる予測式に従って、運転者の覚醒度を評価する技術が開示されている。   For example, in Patent Document 1 below, as a wakefulness estimation device, a driver's blinking time is detected, and a blinking reference time unique to the driver at the time of awakening is increased by a predetermined ratio to evaluate a long blink. In addition to setting a blink evaluation time to detect, a long blink is detected according to the blink evaluation time, and the occurrence ratio is determined from the total number of blinks within a predetermined time and the number of long blinks, and regression using a sleepiness prediction model is performed. A technique for evaluating a driver's arousal level according to a prediction formula obtained by analysis is disclosed.

また、下記の特許文献2には、眠気予兆検出装置として、頭部運動検出手段により頭部運動を検出し、眼球運動検出手段により眼球運動を検出し、理想眼球運動角速度算出部により、頭部運動データに基づいて理想眼球運動角速度を算出し、眼球回転角速度算出部により、眼球運動データに基づいて眼球回転角速度を算出し、眠気予兆判定手段により理想眼球運動角速度と眼球回転角速度とから前庭動眼反射を検出し、この前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する技術が開示されている。   Further, in Patent Document 2 below, as a drowsiness sign detection device, head movement is detected by head movement detection means, eye movement is detected by eye movement detection means, and an ideal eye movement angular velocity calculation unit is used to detect the head movement. The ideal eye movement angular velocity is calculated based on the movement data, the eye rotation angular velocity calculation unit calculates the eye rotation angular speed based on the eye movement data, and the drowsiness sign determination means calculates the vestibular moving eye from the ideal eye movement angular velocity and the eye rotation angular velocity. A technique is disclosed in which reflection is detected and a sign of sleepiness before a driver of a vehicle, an operator of a machine, etc. is aware of sleepiness based on this vestibulo-oculomotor reflection is disclosed.

[発明が解決しようとする課題]
下記の特許文献1に開示されている技術では、運転者の瞬き時間を検出して、所定時間内における瞬きの総数と、長い瞬きの回数とから運転者の覚醒度を評価する。このため、低下した覚醒度の検出は可能であるものの、覚醒度低下の予兆、すなわち眠気を自覚する前の眠気の予兆を検出することはできない。
[Problems to be solved by the invention]
In the technique disclosed in Patent Document 1 below, the driver's blink time is detected, and the driver's arousal level is evaluated from the total number of blinks within a predetermined time and the number of long blinks. For this reason, although it is possible to detect the lowered degree of arousal, it is impossible to detect a sign of a decrease in arousal, that is, a sign of sleepiness before realizing sleepiness.

下記の特許文献2に開示されている技術では、前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する。前庭動眼反射(Vestibulo-Ocular Reflex:VOR)は、頭部運動に対してほぼ同じ速さで眼球を逆方向に回転させ、ブレのない視界を得るための反射性眼球運動である。前庭動眼反射のゲインの減少及び残差標準偏差の増大は、眠気を自覚する前から生じるため、眠気の予兆を示す指標として有効である。特許文献2には、自動車運転時を模擬したドライビングシミュレータシステムを用いた実験例が記載されると共に、眠気に関する内省を被験者に報告させて、前庭動眼反射のゲイン(VORゲイン)、残差標準偏差(SDres)の変化から眠気の予兆を判定した、と記載されている。   In the technique disclosed in Patent Document 2 below, a sign of sleepiness before a driver of a vehicle, an operator of a machine, etc. is aware of sleepiness is determined based on vestibulo-oculomotor reflection. Vestibulo-Ocular Reflex (VOR) is a reflective eye movement that rotates the eyeball in the opposite direction at approximately the same speed as the head movement to obtain a blur-free field of view. The decrease in the gain of the vestibulo-oculomotor reflex and the increase in the residual standard deviation are effective as an index indicating a sign of drowsiness since they occur before awareness of sleepiness. Patent Document 2 describes an experimental example using a driving simulator system that simulates driving of a car, and allows a subject to report introspection about sleepiness, gain of vestibular oculomotor reflex (VOR gain), residual standard It is described that a sign of sleepiness was determined from a change in deviation (SDres).

しかしながら、特許文献2に記載のものでは、被験者が、眼球回旋撮影装置および加速度センサとジャイロセンサを頭部に装着後、振動装置を備えたドライバーシートに着座し、前方スクリーンに映し出される前方自動車のテール部を注視する状況を維持させた状態での実験しか行われていない。実際の乗用移動体では、乗車の度に運転者の頭部にジャイロセンサや撮影装置を取り付けることはできない。従って、実際の移動体を運転中の運転者の覚醒度を評価するシステムにあっては、ジャイロセンサや撮影装置を運転者の頭部に取り付けるよりも、移動体の内部に取り付けることが通常となる。   However, in the device described in Patent Document 2, the subject sits on the driver seat equipped with the vibration device after the eyeball rotation imaging device, the acceleration sensor, and the gyro sensor are mounted on the head, and is displayed on the front screen. Experiments have been conducted only in a state in which the state of gazing at the tail is maintained. With an actual passenger moving body, it is not possible to attach a gyro sensor or a photographing device to the driver's head every time he gets on. Therefore, in a system that evaluates the driver's arousal level while driving an actual moving body, it is normal to attach the gyro sensor or the photographing device inside the moving body rather than attaching it to the driver's head. Become.

しかしながら、撮影装置を移動体の内部に取り付けると、移動体内の座標系(移動体座標系)における運転者の情報しか得られない。移動体を運転している運転者の眼球運動は、運転者が車外前方を注視している場合、絶対座標系に属する運動となる。このため、頭部運動も絶対座標系で検出できなければ、前庭動眼反射を精度良く算出することは困難となる。
ところが上記したように、撮影装置を移動体の内部に取り付けた場合、移動体座標系における運転者の情報しか得られない。
このため、乗車し、実際に走行中の運転者の覚醒に関する情報を高い精度に検出することは極めて困難であるという課題があった。
However, when the imaging device is attached to the inside of the moving body, only driver information in the coordinate system (moving body coordinate system) within the moving body can be obtained. The eye movement of the driver who is driving the moving body is a movement belonging to the absolute coordinate system when the driver is gazing at the front outside the vehicle. For this reason, it is difficult to accurately calculate the vestibulo-oculomotor reflex if head movement cannot be detected in the absolute coordinate system.
However, as described above, when the photographing apparatus is attached to the inside of the moving body, only driver information in the moving body coordinate system can be obtained.
For this reason, there is a problem that it is extremely difficult to detect information about awakening of a driver who is getting on and actually traveling with high accuracy.

特開平10−272960号公報Japanese Patent Laid-Open No. 10-272960 WO2010/032424公報WO2010 / 032424

課題を解決するための手段及びその効果Means for solving the problems and their effects

本発明は上記課題に鑑みなされたものであって、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システム指標算出方法、およびコンピュータプログラムを提供することを例示的な目的としている。 The present invention has been made in view of the above problems, and provides a calculation system , an index calculation method, and a computer program capable of obtaining information on a person's arousal level with higher accuracy in a moving moving object. For illustrative purposes.

上記目的を達成するために、本開示に係る算出システム(1)は、
移動体に設置され、前記移動体中の人物の顔を撮影する撮像部と、
前記移動体に設置され、前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記移動体中の前記人物の頭部運動を算出する第2の算出部と、
前記第1の算出部によって算出された眼球運動、及び、前記第2の算出部によって算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出部と、
を備えていることを特徴としている。
In order to achieve the above object, the calculation system (1) according to the present disclosure includes:
An imaging unit that is installed on a moving body and photographs a face of a person in the moving body;
A sensor installed on the moving body and measuring motion data of the moving body;
A first calculation unit that calculates an eye movement of the person using an image of a face imaged by the imaging unit;
A second calculation unit that calculates head movement of the person in the moving body using movement data of the moving body measured by the sensor and a face image captured by the imaging unit;
A third calculation unit that calculates an index related to awakening of a person in the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. When,
It is characterized by having.

上記算出システム(1)によれば、前記移動体に設置された前記撮像部により移動体中における前記人物の顔の画像が撮影され、前記移動体に設置された前記センサにより移動体の運動データが計測され、前記第1の算出部により、前記人物の顔の画像に基づいて前記人物の眼球運動が算出される。そして前記第2の算出部により前記移動体の運動データ及び顔の画像に基づいて前記人物の頭部運動が算出される。
従って、移動体の運動を考慮した頭部運動が算出される。このため、少なくとも前記撮像部及び前記センサが移動体に配備され、移動体が移動中の場合であっても、頭部運動の正確な情報を得ることができる。
前記撮像部と前記センサとが移動体に設置された構成で、さらに前記第3の算出部を備えることで、運転者の頭部に撮像部やセンサを装着しなくても、移動体の運動を考慮した頭部運動の情報に基づいて前記移動体中における前記人物の覚醒に関する指標を高い精度で算出することが可能となる。
According to the calculation system (1), motion data of the moving object by the image of the face of the person in the mobile by the imaging unit installed in the moving body is captured, the sensor installed in the moving body Is measured, and the first calculation unit calculates the eye movement of the person based on the face image of the person. The second calculation unit calculates the head movement of the person based on the movement data of the moving body and the face image.
Therefore, the head movement considering the movement of the moving body is calculated. For this reason, even when at least the imaging unit and the sensor are arranged on a moving body and the moving body is moving , accurate information on head movement can be obtained.
With the configuration in which the imaging unit and the sensor are installed on a moving body, and further including the third calculation unit, the movement of the moving body without mounting the imaging unit or sensor on the driver's head It is possible to calculate an index relating to the awakening of the person in the moving body with high accuracy based on the information on the head movement in consideration of the above.

また、本開示に係る算出システム()は、上記算出システム()において、
前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している外部注視状態か否かを判別する第1の判別部をさらに備え、
前記第3の算出部は、前記第1の判別部によって外部を注視している外部注視状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴としている。
In addition, the calculation system ( 2 ) according to the present disclosure includes the calculation system ( 1 )
A first determination unit that determines whether or not the person is in an external gaze state in which the person is gazing at an external gaze point of the moving body, using a face image captured by the imaging unit;
The third calculation unit calculates the index using an eye movement and a head movement when it is determined that the first determination unit is in an external gaze state in which an external gaze is being observed. It is said.

上記算出システム()は、覚醒に関する指標の算出を、人物が移動体の外部の注視点を注視している場合に行うものである。上記算出システム()によれば、車外を注視している場合の頭部運動と眼球運動の情報に基づいて運転者の覚醒に関する指標を算出することで、高い精度の覚醒に関する指標を得ることができる。車外を注視している状態の覚醒に関する指標としては、例えばVOR(前庭動眼反射)の各値が挙げられる。 The calculation system ( 2 ) performs the calculation of the awakening-related index when the person is gazing at the gaze point outside the moving body. According to the calculation system ( 2 ), a high-accuracy index relating to arousal is obtained by calculating an index relating to driver's arousal based on information on head movements and eye movements when gazing outside the vehicle. Can do. As an index related to awakening in a state of gazing outside the vehicle, for example, each value of VOR (vestibulo-oculomotor reflex) can be mentioned.

また、本開示に係る算出システム()は、上記算出システム()又は()のいずれかにおいて、
前記撮像部により撮影された顔の画像を用いて、眼球運動と頭部運動とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の判別部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴としている。
In addition, the calculation system ( 3 ) according to the present disclosure is any of the calculation system ( 1 ) and ( 2 ),
A second discriminating unit that discriminates whether or not the eye movement and the head movement are in the second state moving in the same direction using the face image taken by the imaging unit;
The third calculation unit includes the eye movement and the head in the second state among the eye movement calculated by the first calculation unit and the head movement calculated by the second determination unit. The index is calculated by excluding exercise.

一般的に、人物が視線方向を意識的に変えるときは、眼球の運動方向と顔の運動方向とが同方向となる。このような同方向の運動時における情報を除くことで、高い精度の覚醒に関する指標を得ることができる。   In general, when a person consciously changes the gaze direction, the movement direction of the eyeball and the movement direction of the face are the same direction. By excluding such information during exercise in the same direction, it is possible to obtain a highly accurate index relating to arousal.

また、本開示に係る算出システム()は、上記算出システム()〜()のいずれかにおいて、
前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴としている。
Moreover, the calculation system ( 4 ) according to the present disclosure is any one of the calculation systems ( 1 ) to ( 3 ),
The wakefulness index is at least one of the gain of vestibular ocular reflex, the phase difference between the angular velocity of the head and the angular velocity of the eyeball, and the residual standard deviation of the vestibular ocular reflex, or two or more of these values It is a calculation value based on the value of.

上記算出システム()によれば、覚醒度低下の指標として知られるVOR(前庭動眼反射)に関する各値、又はこれらに基づく演算値を用いることで、覚醒度との相関性に優れた指標を算出することができる。 According to the calculation system ( 4 ), by using each value related to VOR (vestibulo-oculomotor reflex) known as an index of wakefulness reduction, or an operation value based on these values, an index excellent in correlation with wakefulness is obtained. Can be calculated.

また、本開示に係る覚醒に関する指標算出方法(1)は、
移動体中の人物の覚醒に関する指標を算出する方法であって、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップ
において算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出す
る第3の算出ステップと、
を備えていることを特徴としている。
In addition, the index calculation method (1) relating to awakening according to the present disclosure includes:
A method for calculating an index related to awakening of a person in a moving body,
An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body;
A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step;
A second calculation step of calculating a head movement of the person in the moving body using the face image taken in the imaging step and the movement data of the moving body measured in the measurement step; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
It is characterized by having.

上記覚醒に関する指標算出方法(1)によれば、移動体の運動状態にかかわらず、頭部運動を得ることができる。これにより、第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に算出することが可能となる。 According to the index calculation method (1) relating to awakening, head movement can be obtained regardless of the movement state of the moving body. Thereby, in the third calculation step, it is possible to more accurately calculate an index relating to the driver's arousal in the moving body.

また、本開示に係る覚醒に関する指標算出のためのコンピュータプログラム(1)は、
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって撮像された、前記移動体中の前記人物の顔の画像を取得する画像取得ステップと
前記移動体に設置されたセンサによって計測された、移動中の前記移動体の運動データを取得する情報取得ステップと
前記画像取得ステップにおいて取得した顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記画像取得ステップにおいて取得した顔の画像、及び、前記情報取得ステップにおいて取得した前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴としている。
In addition, the computer program (1) for calculating an index relating to awakening according to the present disclosure is:
A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An image acquisition step of acquiring an image of the face of the person in the moving body imaged by an imaging unit installed in the moving body ;
An information acquisition step of acquiring movement data of the moving body being measured , measured by a sensor installed on the moving body ;
A first calculation step of calculating an eye movement of the person in the moving body using the face image acquired in the image acquisition step ;
A second calculation step of calculating a head movement of the person in the moving body using the face image acquired in the image acquisition step and the movement data of the moving body acquired in the information acquisition step ; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
It is characterized by executing.

上記覚醒に関する指標算出のためのコンピュータプログラム(1)によれば、移動体の運動状態にかかわらず、頭部運動を取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。 According to the computer program (1) for calculating the index related to awakening, the head movement can be acquired regardless of the movement state of the moving body. As a result, in the third calculation step, it is possible to cause the computer to calculate the index relating to the driver's arousal in the moving body more accurately.

実施の形態に係る情報処理装置を含む算出システムを移動体へ適用した例を示す概略平面図である。It is a schematic plan view which shows the example which applied the calculation system containing the information processing apparatus which concerns on embodiment to a mobile body. 実施の形態に係る算出システムを示す概略斜視図である。It is a schematic perspective view which shows the calculation system which concerns on embodiment. 実施の形態に係る情報処理装置における、撮像部の処理動作に関する構成例を示す概略側面図である。It is a schematic side view which shows the structural example regarding the processing operation of an imaging part in the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the information processing apparatus which concerns on embodiment. 実施の形態に係る算出システムの情報処理の流れを示すブロック図である。It is a block diagram which shows the flow of the information processing of the calculation system which concerns on embodiment. 情報処理の流れにおけるデータ構造例を示すブロック図である。It is a block diagram which shows the example of a data structure in the flow of information processing. 実施の形態に係る情報処理装置のVOR情報の算出処理動作全体の一例を示すフローチャートである。It is a flowchart which shows an example of the whole calculation processing operation | movement of the VOR information of the information processing apparatus which concerns on embodiment. 情報処理における、頭部運動算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the head movement calculation process in information processing. 実施の形態に係る情報処理装置における、眼球運動算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the eye movement calculation process in the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置における、VOR情報の算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of VOR information in the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置を含む別の算出システムを移動体へ適用した例を示す概略平面図である。It is a schematic plan view which shows the example which applied another calculation system containing the information processing apparatus which concerns on embodiment to a mobile body.

以下、本発明に係る算出システム、情報処理装置、運転支援システム、指標算出方法、およびコンピュータプログラムの実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of a calculation system, an information processing apparatus, a driving support system, an index calculation method, and a computer program according to the present invention will be described with reference to the drawings.

[適用例]
図1は、実施の形態に係る情報処理装置を含む算出システムを移動体Mへ適用した例を示す概略平面図であり、図2は、移動体Mに搭載された算出システムを示す概略斜視図である。
[Application example]
FIG. 1 is a schematic plan view illustrating an example in which a calculation system including an information processing apparatus according to an embodiment is applied to a moving body M, and FIG. 2 is a schematic perspective view illustrating a calculation system mounted on the moving body M. It is.

この例において、移動体Mは人物を乗せて移動する車両であって、外部を透過視認する視認部(例えばフロントガラス)を有している。移動体Mは、運転者Dが着座するための着座部(例えば運転席)を備えており、運転者Dは、移動中の移動体Mの着座部に着座した状態で、視認部を介して移動体Mの外部の任意の注視点Pを視認することができる。注視点Pは、実際には、図示された位置よりも移動体Mから遠くにあってもよい。
図2に示す例において、運転者Dは、頭部DHを含む上半身が視認部方向を向いた状態で着座部に着座し、眼球の瞳孔101(図3)が視認部の先の注視点Pの方向を向いている。
In this example, the moving body M is a vehicle that carries a person and has a visual recognition part (for example, a windshield) that allows the outside to be seen through. The moving body M is provided with a seating portion (for example, a driver's seat) for the driver D to sit, and the driver D is seated on the seating portion of the moving moving body M via the visual recognition unit. An arbitrary gazing point P outside the moving body M can be visually recognized. The gazing point P may actually be farther from the moving body M than the illustrated position.
In the example shown in FIG. 2, the driver D sits on the seat with the upper body including the head DH facing the viewing portion, and the pupil 101 (FIG. 3) of the eyeball is the point of sight P at the tip of the viewing portion. Facing the direction.

注視点Pとしては、例えば、通常は前方車両のテール部、あるいは図1に示した、道路周辺に配置された遠方の道路標識などを挙げることができる。図1に示した道路標識は移動体M外部の絶対座標系で静止したものとなる。
また、図2に示す符号DOは、人物の顔の向きを算出するための顔の一つの顔器官点を示している。情報処理装置10(図4)は、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。
As the gazing point P, for example, the tail portion of the vehicle ahead, or a distant road sign arranged around the road shown in FIG. The road sign shown in FIG. 1 is stationary in an absolute coordinate system outside the moving body M.
2 indicates one facial organ point of the face for calculating the orientation of the person's face. In order to calculate the face orientation, the information processing apparatus 10 (FIG. 4) prepares a face model composed of a large number of facial organ point information, and estimates the facial orientation from the positional information of a plurality of organ points. The amount of movement of the face can be calculated from the amount of change in the direction of the face.

運転者Dの視線ベクトルは、例えば、図3に示したように、眼球の画像部分における瞳孔中心11Aの位置と、眼球の画像部分における照射部3からの照射光の反射位置(角膜反射像121)とによって特定することができる。この視線ベクトルを微分することで動き(眼球運動)を算出することも可能である。
また、眼球運動は、眼球の画像部分における瞳孔101の動きから算出することも可能である。
前記照射光は非可視光線であることも多く、非可視光線である場合、カメラ11によって撮影される画像は、非可視光線の反射光に基づく人物の画像からなる。
For example, as shown in FIG. 3, the line-of-sight vector of the driver D includes the position of the pupil center 11 </ b> A in the image portion of the eyeball, and the reflection position of the irradiation light (corneal reflection image 121 in the eyeball image portion). ) And can be specified by. It is also possible to calculate the movement (eye movement) by differentiating the line-of-sight vector.
The eye movement can also be calculated from the movement of the pupil 101 in the image portion of the eyeball.
In many cases, the irradiation light is invisible light, and in the case of invisible light, the image captured by the camera 11 is an image of a person based on reflected light of the invisible light.

[構成例]
[算出システムの構成例]
算出システム1は、図4に示したように、移動体M中の人物である運転者Dの顔を撮影する撮像部としてのカメラ11、各種の情報処理を行う情報処理装置10、及び移動体Mの運動データを計測するジャイロセンサ2を含んで構成されている。
算出システム1は、カメラ11、情報処理装置10、及びジャイロセンサ2を含んで構成されており、いわゆるドライブモニタリングシステムの一部を構成しているとみなすこともできる。
また、算出システム1は、図5に示したような機能構成ブロックでも表すことができ、
カメラ11により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部31と、
ジャイロセンサ2により計測された移動体Mの運動データ及びカメラ11により撮影された顔の画像を用いて絶対座標系に対する人物の頭部運動を算出する第2の算出部32と、
第1の算出部31により算出された眼球運動、及び、第2の算出部32により算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出部33とを備えている。
[Configuration example]
[Configuration example of calculation system]
As illustrated in FIG. 4, the calculation system 1 includes a camera 11 as an imaging unit that captures the face of a driver D who is a person in the moving body M, an information processing apparatus 10 that performs various types of information processing, and a moving body. A gyro sensor 2 that measures M motion data is included.
The calculation system 1 includes a camera 11, an information processing apparatus 10, and a gyro sensor 2, and can be regarded as constituting a part of a so-called drive monitoring system.
The calculation system 1 can also be expressed by a functional configuration block as shown in FIG.
A first calculation unit 31 that calculates an eye movement of the person using an image of a face photographed by the camera 11;
A second calculation unit 32 that calculates the head movement of the person relative to the absolute coordinate system using the movement data of the moving body M measured by the gyro sensor 2 and the face image captured by the camera 11;
A third calculation unit that calculates an index related to the awakening of the person in the moving body M using the eye movement calculated by the first calculation unit 31 and the head movement calculated by the second calculation unit 32. 33.

算出システム1には、人物の頭部を含む画像を所定の時間間隔で撮影する撮像部としてのカメラ11と、運転者Dの眼球に照射光を照射する照射部3とが装備され、情報処理装置10が内蔵されている。算出システム1は、例えば、移動体M内にあって運転者Dと対向する位置に固定されている(図1)。   The calculation system 1 is equipped with a camera 11 as an imaging unit that captures an image including a person's head at predetermined time intervals, and an irradiation unit 3 that irradiates the eyeball of the driver D with irradiation light. The device 10 is built in. The calculation system 1 is, for example, fixed at a position in the moving body M and facing the driver D (FIG. 1).

撮像部としてのカメラ11は、例えば、図示しないレンズ部、撮像素子部、インターフェース部、これら各部を制御する制御部などを含んで構成されている。撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成される。撮像素子部は、可視領域の光を受けて撮影画像を形成できるものを含む他、紫外線、赤外線、あるいは近赤外線を受けて撮影画像を形成できるCCD、CMOS、或いはフォトダイオード等のセンサを含んでもよい。   The camera 11 as an imaging unit includes, for example, a lens unit (not shown), an imaging element unit, an interface unit, a control unit that controls these units, and the like. The image sensor section includes an image sensor such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS), a filter, a microlens, and the like. The image sensor section includes a sensor that can form a captured image by receiving light in the visible region, and can also include a sensor such as a CCD, CMOS, or photodiode that can form a captured image by receiving ultraviolet light, infrared light, or near infrared light. Good.

カメラ11は、運転者Dを撮影する。カメラ11によって撮影された画像によって、移動体M中における運転者Dの頭部運動を測定することが可能になる。また、カメラ11によって撮影される画像は、画像内の人物の眼球及び視線の方向を特定できる解像度を有しており、運転者Dの眼球運動を算出することも可能になっている。   The camera 11 photographs the driver D. The head movement of the driver D in the moving body M can be measured by the image taken by the camera 11. Further, the image taken by the camera 11 has a resolution that can specify the direction of the eyeball and line of sight of the person in the image, and the eyeball movement of the driver D can be calculated.

カメラ11の数は、図2に示したように1台でもよいし、後述の変形構成例では、図11に示したように、補助カメラ4を含む2台以上のカメラで構成される。カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。
カメラ11は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、カメラ11で撮影された画像のデータが情報処理装置10へ出力されるようになっている。
The number of cameras 11 may be one as shown in FIG. 2, and in a modified configuration example described later, the camera 11 is constituted by two or more cameras including the auxiliary camera 4 as shown in FIG. 11. The camera 11 may be a monocular camera or a stereo camera.
The camera 11 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second), and data of the image captured by the camera 11 is output to the information processing apparatus 10.

ジャイロセンサ2は、移動体Mの移動に伴う運動情報を取得する。例えば、図2に示したジャイロセンサ2は三次元ジャイロセンサからなり、移動体Mの前部に固定された算出システム1に固定される(図1)。この例において、計測される運動情報は、外部の絶対座標系に対する、移動体Mの回転運動量である。運動情報の内容として、三次元的に互いに直交するXYZ軸の各軸周りの回転量、及び単位時間当たりにおける、ロール、ピッチ、ヨーそれぞれの回転角速度が取得される。
ジャイロセンサ2は移動体Mに不要に揺動することなく設置されていればよく、移動体Mへの設置位置は特に限定されない。
The gyro sensor 2 acquires motion information associated with the movement of the moving body M. For example, the gyro sensor 2 shown in FIG. 2 is a three-dimensional gyro sensor, and is fixed to the calculation system 1 fixed to the front part of the moving body M (FIG. 1). In this example, the measured motion information is the rotational momentum of the moving body M with respect to the external absolute coordinate system. As the contents of the motion information, the rotation amount around each axis of the XYZ axes that are three-dimensionally orthogonal to each other, and the rotation angular velocities of the roll, pitch, and yaw per unit time are acquired.
The gyro sensor 2 may be installed on the moving body M without unnecessarily swinging, and the installation position on the moving body M is not particularly limited.

照射部3は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮影できるように赤外線LED、近赤外線LEDなどが採用される。
照射部3は、例えば図2に示したように、移動体M内の決められた位置から、人物のいる運転席の方向へ照射光を照射する。照射光は、一定方向へ照射されることで、眼球上の一定方向の一点が角膜反射像121として反射される。この角膜反射像121は、照射部3の固定位置から人物の眼球までの距離が最短距離となる点に形成される。また、照射光が非可視光線である場合、人物の視線の動きを妨げることがない。カメラ11によって撮影される画像は、角膜反射像121を含む画像である。
The irradiation unit 3 includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED, a near infrared LED, or the like is employed so that the state of the driver can be photographed regardless of day or night.
For example, as illustrated in FIG. 2, the irradiating unit 3 irradiates irradiation light from a predetermined position in the moving body M toward a driver seat where a person is present. By irradiating the irradiation light in a certain direction, a point on the eyeball in a certain direction is reflected as a cornea reflection image 121. The cornea reflection image 121 is formed at a point where the distance from the fixed position of the irradiation unit 3 to the human eyeball is the shortest distance. Moreover, when irradiation light is a non-visible light ray, it does not disturb the movement of a person's eyes | visual_axis. An image photographed by the camera 11 is an image including a corneal reflection image 121.

[情報処理装置の構成例]
図4は、実施の形態に係る情報処理装置10を含む算出システム1の機能構成例を示すブロック図である。
情報処理装置10は、入出力インターフェース(I/F)110、制御ユニット12、及び記憶ユニット13を含んで構成されている。
[Configuration example of information processing device]
FIG. 4 is a block diagram illustrating a functional configuration example of the calculation system 1 including the information processing apparatus 10 according to the embodiment.
The information processing apparatus 10 includes an input / output interface (I / F) 110, a control unit 12, and a storage unit 13.

入出力I/F110には、例えば、カメラ11、ジャイロセンサ2、照射部3、運転制御装置30、報知装置37などが接続され、入出力I/F110は、これら外部機器との間で信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。運転制御装置30は、情報処理装置10から供給される種々の情報に基づいて、移動体Mを制御することができる。例えば、運転制御装置30は、移動体Mの運転を制御してもよいし、移動体Mに設けられたスピーカやディスプレイによる出力を制御してもよい。   For example, the camera 11, the gyro sensor 2, the irradiation unit 3, the operation control device 30, the notification device 37, and the like are connected to the input / output I / F 110, and the input / output I / F 110 receives signals from these external devices. It is configured to include an interface circuit, a connection connector, etc. for performing exchanges. The operation control device 30 can control the moving body M based on various information supplied from the information processing device 10. For example, the operation control device 30 may control the operation of the moving body M, or may control the output from a speaker or a display provided on the moving body M.

制御ユニット12は、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fを含んで構成され、さらに、算出部12g、処理部12h、基準変更部12iなどを含んで構成されてもよい。制御ユニット12は、例えば、CPU(Central Processing Unit)、メモリ、画像処理回路などを含んで構成され、記憶ユニット13等に保存されている所定の制御プログラムを読み出してCPUで解釈実行することにより、その働きが実現される。制御ユニット12は、前記撮像素子部や照射部3を制御して、照射部3から光(例えば、近赤外線など)を照射させ、前記撮像素子部でその反射光を撮影する制御などを行う。制御ユニット12は、CPU、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成される。   The control unit 12 includes an image acquisition unit 12a, a detection unit 12b, an information acquisition unit 12c, a first determination unit 12d, a second determination unit 12e, and a reference determination unit 12f, and further includes a calculation unit 12g and a processing unit. 12h, the reference changing unit 12i, and the like may be included. The control unit 12 includes, for example, a CPU (Central Processing Unit), a memory, an image processing circuit, and the like. By reading a predetermined control program stored in the storage unit 13 and the like, the CPU interprets and executes it. That work is realized. The control unit 12 controls the imaging device unit and the irradiation unit 3 to irradiate light (for example, near infrared rays) from the irradiation unit 3 and controls the imaging device unit to photograph the reflected light. The control unit 12 includes one or more hardware processors such as a CPU and a graphics processing unit (GPU).

記憶ユニット13は、画像記憶部13a、顔の向き記憶部13b、パラメータ記憶部13c、基準記憶部13d、及びプログラム記憶部13eを含んで構成される。記憶ユニット13は、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子によってデータを記憶可能な1つ以上の記憶装置で構成される。なお、RAM及びROMを制御ユニット12に含んで構成してもよい。   The storage unit 13 includes an image storage unit 13a, a face orientation storage unit 13b, a parameter storage unit 13c, a reference storage unit 13d, and a program storage unit 13e. The storage unit 13 stores data by a semiconductor element such as a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), a solid state drive (SSD), a flash memory, and other nonvolatile memory or volatile memory. It is comprised with one or more memory | storage devices which can memorize | store. Note that the control unit 12 may include a RAM and a ROM.

画像記憶部13aには、画像取得部12aによりカメラ11から取得された運転者Dの画像が記憶される。
顔の向き記憶部13bには、検出部12bで検出された各画像の運転者Dの顔の向き及び移動量に関する情報が、画像記憶部13aに記憶される各画像と対応付けて記憶される。
パラメータ記憶部13cには、第2判定部12eでの判定に用いられる、顔の向きの閾値や移動量の閾値などの各種パラメータが記憶されている。
基準記憶部13dには、基準決定部12fで決定された運転者Dの顔の向きの基準に関する情報、例えば、基準を示す値(基準値)などが記憶される。
プログラム記憶部13eには、制御ユニット12の各部で実行される情報処理プログラムや該プログラムの実行に必要なデータなどが記憶されている。
The image of the driver D acquired from the camera 11 by the image acquisition unit 12a is stored in the image storage unit 13a.
In the face direction storage unit 13b, information on the face direction and movement amount of the driver D of each image detected by the detection unit 12b is stored in association with each image stored in the image storage unit 13a. .
The parameter storage unit 13c stores various parameters used for determination by the second determination unit 12e, such as a face direction threshold value and a movement amount threshold value.
The reference storage unit 13d stores information related to the reference of the face direction of the driver D determined by the reference determination unit 12f, for example, a value indicating the reference (reference value).
The program storage unit 13e stores an information processing program executed by each unit of the control unit 12, data necessary for executing the program, and the like.

[動作例]
情報処理装置10は、移動体Mに搭載される算出システム1に内蔵され、車載機器(図示せず)から移動体Mの走行状態に関する各種情報を取得できるとともに、車載機器に対して制御信号などを出力するように構成されている。
[Operation example]
The information processing apparatus 10 is built in the calculation system 1 mounted on the moving body M, and can acquire various types of information related to the traveling state of the moving body M from an in-vehicle device (not shown). Is configured to output.

情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。また、情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、運転者Dの眼球の向きの基準となる、運転者Dの少なくとも片側の眼球及び当該眼球に含まれる瞳孔を把握し、前記眼球における瞳孔の移動量を把握する処理も実行し、眼球運動の検出を可能としている。   As one of information processing for grasping the state of the driver D in the moving body M, the information processing apparatus 10 calculates a face model composed of a large number of facial organ point information in order to calculate the face orientation. Prepare the face direction from the position information of multiple organ points. The amount of movement of the face can be calculated from the amount of change in the direction of the face. Further, the information processing apparatus 10 as one of information processing for grasping the state of the driver D in the moving body M is an eyeball on at least one side of the driver D that serves as a reference for the direction of the eyeball of the driver D. In addition, a process of grasping the pupil included in the eyeball and grasping the amount of movement of the pupil in the eyeball is also executed, and the eye movement can be detected.

運転者Dの頭部運動には、例えば、図2に示すように、運転者Dの顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角のうち、少なくとも1つが含まれている。   For example, as shown in FIG. 2, the head movement of the driver D includes a pitch angle that is an angle (vertical direction) around the X axis (left and right axis) of the driver D, a Y of the face, At least one of the yaw (Yaw) angle that is an angle around the axis (vertical axis) (left-right orientation) and the roll angle that is an angle (left-right tilt) around the Z axis (front-rear axis) of the face is include.

移動体Mの運動情報には、移動体Mの三次元軸それぞれの速度情報のほか、例えば、CAN(Controller Area Network)で接続された車載機器から取得した、車速情報、或いは操舵情報を含んでもよい。運動情報が車載機器から取得した情報を含む場合、当該取得した情報に基づいて、特定の走行状態にあるかどうかを判別することが可能となる。特定の走行状態としては、例えば、移動体Mの車速が所定の車速域にあり、かつ非操舵状態にある走行状態、換言すれば、移動体Mが直進している走行状態が挙げられる。このような走行状態は、運転者Dの覚醒に関する指標を算出するのに適した状態と言える。   The motion information of the moving body M may include, for example, vehicle speed information or steering information acquired from in-vehicle devices connected by a CAN (Controller Area Network) in addition to the speed information of each three-dimensional axis of the moving body M. Good. When the exercise information includes information acquired from the in-vehicle device, it is possible to determine whether the vehicle is in a specific running state based on the acquired information. Examples of the specific traveling state include a traveling state in which the vehicle speed of the moving body M is in a predetermined vehicle speed range and is in a non-steering state, in other words, a traveling state in which the moving body M is traveling straight. Such a running state can be said to be a state suitable for calculating an index related to the awakening of the driver D.

情報処理装置10は、「頭部運動算出処理」として、カメラ11により撮影された画像に基づいて、運転者Dの頭部DHを検出し、さらに、頭部DHのうち頭部運動の基準である顔器官点DOを検出する処理を実行する。   As the “head movement calculation process”, the information processing apparatus 10 detects the head DH of the driver D based on the image taken by the camera 11 and further uses the head movement reference of the head DH. A process for detecting a certain facial organ point DO is executed.

顔器官点DOの情報として、例えば、顔器官点DOの位置情報と、顔器官点DOの向き情報とを組み合わせた値が用いられる。
このうち、顔器官点DOの位置情報としては、例えば、運転者Dの顔の3次元の軸上位置を示す幅位置Xd、高さ位置Yd、前後位置Zdの各値の組合せが用いられる。また、顔器官点DOの向きの情報としては、例えば、3次元軸のうちX軸周りの回転角であるピッチPd、Y軸周りの回転角であるヨーYd、Z軸周りの回転角であるロールRdからなる各値の組合せが用いられる。これらは、運転者Dの頭部の位置を示す情報、及び、運転者Dの頭部運動を示す情報となる。
As the facial organ point DO information, for example, a value obtained by combining the positional information of the facial organ point DO and the orientation information of the facial organ point DO is used.
Among these, as the position information of the facial organ point DO, for example, a combination of values of the width position Xd, the height position Yd, and the front and rear position Zd indicating the three-dimensional axial position of the face of the driver D is used. Further, the orientation information of the facial organ point DO includes, for example, a pitch Pd that is a rotation angle around the X axis among three-dimensional axes, a yaw Yd that is a rotation angle around the Y axis, and a rotation angle around the Z axis. A combination of values consisting of the roll Rd is used. These are information indicating the position of the head of the driver D and information indicating the head movement of the driver D.

カメラ11で撮影された1以上の画像から、前記幅位置Xd、高さ位置Yd、前後位置Zd、ピッチPd、ヨーYd、ロールRdのうち、少なくとも1つ以上の値の組合せ、これらの平均値又は最頻値などの値の組合せを、顔器官点DOの移動情報として用いることができる。   A combination of at least one of the width position Xd, height position Yd, front and rear position Zd, pitch Pd, yaw Yd, and roll Rd from one or more images taken by the camera 11, and an average value thereof Alternatively, a combination of values such as the mode value can be used as movement information of the facial organ point DO.

本実施の形態では、情報処理装置10が、カメラ11によって撮影された画像を取得し、取得した画像から運転者Dの頭部運動を算出するとともに、移動体Mの運動情報を取得する。そして、情報処理装置10の第1判定部12dが、取得した前記情報に基づいて、運転者Dが特定の状態(以下「第1の状態」という。)にあるか否かを判定する(図7)。第1の状態は、具体的には、運転者Dが移動体Mの外部(ここでは車外)を注視している状態であるといえる。   In the present embodiment, the information processing apparatus 10 acquires an image captured by the camera 11, calculates the head movement of the driver D from the acquired image, and acquires movement information of the moving body M. And the 1st determination part 12d of the information processing apparatus 10 determines whether the driver | operator D exists in a specific state (henceforth a "1st state") based on the acquired said information (FIG. 7). Specifically, it can be said that the first state is a state in which the driver D is gazing outside the moving body M (here, outside the vehicle).

情報処理装置10の第1判定部12dは、移動体M内の運転者Dの頭部運動の変化量を、移動体M自体の運動情報に応じて修正した上で、あらかじめ設定された閾値をこえるか否か、判別するものとしてもよい。   The first determination unit 12d of the information processing device 10 corrects the amount of change in the head movement of the driver D in the moving body M according to the movement information of the moving body M itself, and then sets a preset threshold value. It is good also as what discriminate | determines whether it exceeds.

制御ユニット12は、記憶ユニット13に各種データを記憶する処理を行う。また、制御ユニット12は、記憶ユニット13に記憶された各種データや各種プログラムを読み出し、これらプログラムを実行する。制御ユニット12が記憶ユニット13と協働して、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fの動作、さらには、算出部12g、処理部12h、及び基準変更部12iの動作が実現される。   The control unit 12 performs processing for storing various data in the storage unit 13. The control unit 12 reads various data and various programs stored in the storage unit 13 and executes these programs. The control unit 12 cooperates with the storage unit 13 to operate the image acquisition unit 12a, the detection unit 12b, the information acquisition unit 12c, the first determination unit 12d, the second determination unit 12e, and the reference determination unit 12f, The operations of the calculation unit 12g, the processing unit 12h, and the reference changing unit 12i are realized.

画像取得部12aは、所定のフレームレートで撮影された運転者Dの画像をカメラ11から取得する処理を行い、カメラ11から取得した画像を画像記憶部13aに記憶する処理を行う。   The image acquisition unit 12a performs a process of acquiring an image of the driver D photographed at a predetermined frame rate from the camera 11, and performs a process of storing the image acquired from the camera 11 in the image storage unit 13a.

検出部12bは、画像記憶部13aに記憶された画像を毎フレーム、又は所定間隔のフレーム毎に読み出し、これら画像から運転者Dの頭部DHを検出する処理を行い、検出した運転者Dの頭部DHの運動情報を、当該画像と対応付けて顔の向き記憶部13bに記憶する処理を行う。   The detection unit 12b reads the image stored in the image storage unit 13a every frame or every frame at a predetermined interval, performs a process of detecting the head DH of the driver D from these images, and detects the detected driver D The movement information of the head DH is stored in the face direction storage unit 13b in association with the image.

運転者Dの頭部DHの運動情報には、画像処理により検出された運転者Dの顔の向きを示す角度、例えば、上記したヨー角、ピッチ角、及びロール角のうち少なくとも1つの角度の情報が含まれる。また、運転者Dの頭部DHの運動情報には、目、鼻付け根部、鼻先端部、口、眉、頭頂部などの顔器官点DOに関する位置情報が含まれる。顔器官点DOは例えば、顔の各器官の代表的又は特徴的な位置を示す特徴点として画像処理によって特定され、頭部運動の基準点として検出される。   The movement information of the head DH of the driver D includes an angle indicating the direction of the face of the driver D detected by the image processing, for example, at least one of the above yaw angle, pitch angle, and roll angle. Contains information. Further, the movement information of the head D of the driver D includes position information related to the facial organ points DO such as the eyes, the base of the nose, the tip of the nose, the mouth, the eyebrows, and the top of the head. For example, the facial organ point DO is identified by image processing as a feature point indicating a representative or characteristic position of each organ of the face, and is detected as a reference point for head movement.

情報取得部12cは、運転制御装置30を介して移動体Mの運動情報を取得する処理を行い、取得した前記情報を第1判定部12dに出力する。情報取得部12cの処理と、画像取得部12aの処理との先後は必ずしも限定されない。例えば、これらの各処置を並行して行ってもよい。なお、情報取得部12cは、運転制御装置30を介さずに、車載システム(図示せず)の各部から前記情報を取得するようにしてもよい。
移動体Mの運動情報には、少なくともジャイロセンサ2で検出された回転角速度などが含まれる。
また、情報取得部12cは、移動体Mの加減速情報や移動体Mの傾斜情報等を取得してもよい。
The information acquisition unit 12c performs a process of acquiring exercise information of the moving body M via the operation control device 30, and outputs the acquired information to the first determination unit 12d. The process of the information acquisition unit 12c and the image acquisition unit 12a is not necessarily limited. For example, each of these treatments may be performed in parallel. In addition, you may make it the information acquisition part 12c acquire the said information from each part of a vehicle-mounted system (not shown) not via the operation control apparatus 30. FIG.
The motion information of the moving body M includes at least the rotational angular velocity detected by the gyro sensor 2.
The information acquisition unit 12c may acquire acceleration / deceleration information of the moving body M, inclination information of the moving body M, and the like.

また、情報取得部12cは、移動体Mの位置情報と、移動体Mの周辺の地図情報とを取得してもよい。これら情報には、例えば、ナビゲーション装置で割り出された自車位置と、該自車位置周辺の地図情報などが含まれる。   Further, the information acquisition unit 12c may acquire the position information of the moving body M and the map information around the moving body M. These pieces of information include, for example, the vehicle position determined by the navigation device and map information around the vehicle position.

さらに、情報取得部12cは、移動体Mの周辺、特に進行方向に存在する他の移動体や人などの監視対象物に関する情報を取得してもよい。これら情報には、例えば、周辺監視センサで検出された、対象物の種類や対象物までの距離に関する情報などが含まれる。   Furthermore, the information acquisition unit 12c may acquire information related to a monitoring object such as another moving body or a person existing around the moving body M, particularly in the traveling direction. Such information includes, for example, information on the type of object and the distance to the object detected by the periphery monitoring sensor.

第1判定部12dは、運転者Dに関する第1の状態の条件を満たすか否かを判別する。第1判定部12dは、カメラ11により撮影された顔の画像を用いて、第1の状態か否かを視線ベクトルに基づいて判別する。判別結果は例えば二値信号として、第1判定部12dから第2判定部12eに出力される。第1判定部12dは、本開示に係る第1の判別部の一例である。   The first determination unit 12d determines whether or not the condition of the first state related to the driver D is satisfied. The first determination unit 12d uses the face image captured by the camera 11 to determine whether or not the first state is based on the line-of-sight vector. The determination result is output as a binary signal from the first determination unit 12d to the second determination unit 12e, for example. The first determination unit 12d is an example of a first determination unit according to the present disclosure.

第2判定部12eは、現在の状態が後述のVOR情報の算出に適さない状態であるか否かを判別する。本実施の形態では、一例として、眼球の運動方向と顔の運動方向とが同方向である状態をVOR情報の算出に適さない状態とし、以下これを「第2の状態」ともいう。例えば、第2判定部12eは、カメラ11により撮影された顔の画像を用いて、眼球の運動方向と顔の運動方向とが同方向か否かを判別することによって、第2の状態か否かを判別することができる。判別結果は例えば二値信号として、第2判定部12eから基準決定部12fに出力される。第2判定部12eは、本開示に係る第2の判別部の一例である。   The second determination unit 12e determines whether or not the current state is not suitable for calculating VOR information described later. In the present embodiment, as an example, a state where the movement direction of the eyeball and the movement direction of the face are the same direction is referred to as a state unsuitable for calculation of VOR information, and this is also referred to as a “second state”. For example, the second determination unit 12e uses the face image captured by the camera 11 to determine whether or not the eye movement direction and the face movement direction are the same direction, thereby determining whether or not the second state is established. Can be determined. The determination result is output as a binary signal from the second determination unit 12e to the reference determination unit 12f, for example. The second determination unit 12e is an example of a second determination unit according to the present disclosure.

基準決定部12fは、運転者Dが第1の状態にあり、かつ第2の状態にあると判別されているときの運転者Dの頭部DHを含む画像要素ID20(図6)を画像解析によって抽出し、さらに、運転者Dの頭部DHに含まれる眼球の画像要素ID10(図6)を画像解析によって抽出する。眼球の画像要素ID10に基づいて、瞳孔101の位置及び向きを特定する処理を行う。そして、連続撮影された各画像の顔器官点DOの位置情報及び向きの情報の変化に基づいて、運転者Dの“眼球運動”を決定する処理を行い、決定した頭部運動を基準記憶部13dに記憶する。   The reference determination unit 12f analyzes the image element ID 20 (FIG. 6) including the head DH of the driver D when the driver D is determined to be in the first state and the second state. Further, the image element ID 10 (FIG. 6) of the eyeball included in the head DH of the driver D is extracted by image analysis. Based on the image element ID 10 of the eyeball, processing for specifying the position and orientation of the pupil 101 is performed. Then, based on the change in the positional information and orientation information of the facial organ point DO of each image taken continuously, the process of determining the “eye movement” of the driver D is performed, and the determined head movement is used as the reference storage unit. Store in 13d.

具体的には、まず、第2判定部12eで判定された、運転者Dの顔の向きと視線の向きの変化が同一方向ではない、“非同方向運動状態(すなわち第2の状態)”にあると推定できる状態が所定期間以上継続しているか否かが判定される。すなわち、第2判定部12eから、“非同方向運動状態”にあることを示す判定結果を撮影された画像のフレーム毎に付与し、当該判定結果が、所定のフレーム数以上継続したか否かが判定される。   Specifically, first, the change in the direction of the face of the driver D and the direction of the line of sight determined by the second determination unit 12e is not the same direction, “a non-codirectional movement state (that is, the second state)” It is determined whether or not a state that can be estimated to be present continues for a predetermined period or longer. That is, the second determination unit 12e gives a determination result indicating that the vehicle is in the “non-coaxial motion state” for each frame of the captured image, and whether or not the determination result has continued for a predetermined number of frames or not. Is determined.

所定期間以上継続して取得されたと判断すれば、基準決定部12fは、次に、顔の向き記憶部13bから前記所定期間に取得した画像に対応する運転者Dの眼球(図3の実施形態では顔器官点DOとなる左目)の画像要素ID10を読み出し、連続的又は断続的に読み出した各フレームの眼球の画像要素ID10から、運転者Dの眼球運動を決定する。   If it is determined that the image has been continuously acquired for a predetermined period or longer, the reference determination unit 12f then displays the eyeball of the driver D corresponding to the image acquired in the predetermined period from the face orientation storage unit 13b (the embodiment of FIG. 3). Then, the image element ID 10 of the left eye that becomes the facial organ point DO) is read out, and the eye movement of the driver D is determined from the image element ID 10 of the eyeball of each frame read out continuously or intermittently.

眼球運動は、眼球内における瞳孔101の位置に関する情報であるから、例えば、カメラ11で撮影される眼球の画像要素に基づいて、眼球の画像要素における瞳孔101の動きを特定することにより求めることができる。瞳孔101の位置情報の変化を特定することで、運転者Dの眼球運動が決定される。   Since the eye movement is information related to the position of the pupil 101 in the eyeball, for example, it can be obtained by specifying the movement of the pupil 101 in the image element of the eyeball based on the image element of the eyeball photographed by the camera 11. it can. By specifying the change in the position information of the pupil 101, the eye movement of the driver D is determined.

上記した検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、基準決定部12f、及び顔の向き記憶部13bが協働して、VORに関する情報(以下「VOR情報」という。)の算出処理を実行する。
一方、算出部12g、処理部12h、及び基準記憶部13dが協働して、運転者Dの状態を把握(モニタリング)する処理を実行する。
The above-described detection unit 12b, information acquisition unit 12c, first determination unit 12d, second determination unit 12e, reference determination unit 12f, and face orientation storage unit 13b cooperate to provide information on VOR (hereinafter "VOR information"). The calculation process is executed.
On the other hand, the calculation unit 12g, the processing unit 12h, and the reference storage unit 13d cooperate to execute processing for grasping (monitoring) the state of the driver D.

算出部12gは、基準決定部12fで決定された顔の向き記憶部13bから頭部を含む画像を読みだすと共に、眼球運動を基準記憶部13dから読み出して、頭部運動及び眼球運動からVOR情報の算出処理を行い、算出結果を処理部12hに出力する。   The calculation unit 12g reads an image including the head from the face orientation storage unit 13b determined by the reference determination unit 12f, reads out the eye movement from the reference storage unit 13d, and calculates VOR information from the head movement and the eye movement. And the calculation result is output to the processing unit 12h.

処理部12hは、算出部12gで算出された、顔の向きの基準に対する運転者Dの顔の向き(例えば、基準値からのずれ)に基づいて、所定の処理を行う。
所定の処理は、例えば、脇見状態にあるか否かの判定処理を行って、脇見状態にある場合(例えば、左右方向の顔の向きが基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理でもよいし、報知処理を行うことなく、脇見状態にある顔の向きの情報を記憶ユニット13に記憶する処理や、運転制御装置30に出力する処理でもよい。
The processing unit 12h performs predetermined processing based on the face direction (for example, deviation from the reference value) of the driver D with respect to the reference of the face direction calculated by the calculation unit 12g.
For example, the predetermined process is performed by determining whether or not the user is in the side-by-side state. When the side-by-side state is in the side-by-side state (for example, when the face direction in the left-right direction is shifted from the reference value by a predetermined value or more) 37 may be a process of instructing the notification, or may be a process of storing information on the orientation of the face in the looking-aside state in the storage unit 13 or a process of outputting to the driving control device 30 without performing the notification process.

また、処理部12hは、VOR情報の算出処理の算出結果によって、運転者Dの覚醒度の低下が予兆されるかどうかの判定処理を行い、覚醒度の低下が予兆されると判断される場合には、報知装置37に検知信号を出力して、移動体M内へ覚醒度低下に関する報知を指示する処理を行ってもよい。   Further, the processing unit 12h performs a determination process as to whether or not a decrease in the arousal level of the driver D is predicted based on the calculation result of the calculation process of the VOR information, and when it is determined that a decrease in the arousal level is predicted Alternatively, a process of outputting a detection signal to the notification device 37 and instructing notification regarding the awakening level reduction into the moving body M may be performed.

また、処理部12hは、報知処理に代えて、又は報知処理とともに、運転者Dの覚醒度が低下した状態になっているときのVOR情報を記憶ユニット13に記憶する処理を行ってもよい。
また、処理部12hは、移動体Mの移動状態の判定処理を行って、明らかに移動体Mが停止している場合、或いは明らかに移動体Mが右左折移動を行っている場合を検知し、前記いずれの場合でもない時に限って、前記報知処理、あるいは前記記憶ユニット13への記憶処理を行ってもよい。
Further, the processing unit 12h may perform a process of storing the VOR information in the storage unit 13 when the driver D's arousal level is lowered, instead of the notification process or together with the notification process.
In addition, the processing unit 12h performs a determination process of the moving state of the moving body M, and detects when the moving body M is clearly stopped or when the moving body M is clearly moving right or left. The notification process or the storage process to the storage unit 13 may be performed only when the above is not the case.

また、所定の処理は、自動運転モードから手動運転モードへの切り替え時において、運転者Dが手動運転への引き継ぎが可能な状態にあるか否かの判定処理を行って、引き継ぎが可能な状態にあると判定された場合(例えば、基準値からの顔の向きのずれが、手動運転に適切な所定範囲内である場合)、運転制御装置30に、手動運転への切り替えを許可する信号を出力する処理でもよい。   In addition, the predetermined process is a state in which it is possible to take over by determining whether or not the driver D is ready to take over to manual operation when switching from the automatic operation mode to the manual operation mode. (For example, when the deviation of the face direction from the reference value is within a predetermined range suitable for manual operation), the operation control device 30 is provided with a signal permitting switching to manual operation. The process to output may be sufficient.

基準変更部12iは、基準決定部12fで決定された顔の向きの基準、例えば、基準値を変更する処理を行い、変更した基準値を基準記憶部13dに記憶する処理を行う。
例えば、特定の走行状態(例えば、直進している走行状態)であるときに、算出部12gで算出された前記運転者Dの顔の向きと、前記顔の向きの基準との差が所定範囲内である状態(例えば、基準値から一定の方向に顔の向きがずれているが、脇見ほどずれていない状態)で一定期間又は断続的に継続している場合に、前記差が小さくなるように前記顔の向きの基準を変更、例えば補正してもよい。また、基準変更部12iが行う処理には、運転者Dが変わった場合に、顔の向きの基準を変更する処理も含まれる。
The reference changing unit 12i performs a process of changing the reference of the face orientation determined by the reference determining unit 12f, for example, a reference value, and stores the changed reference value in the reference storage unit 13d.
For example, the difference between the face direction of the driver D calculated by the calculation unit 12g and the reference of the face direction when a specific driving state (for example, a straight driving state) is within a predetermined range. The difference is reduced when the face is in a certain state (for example, the face is deviated in a certain direction from the reference value, but is not deviated as much as looking aside) for a certain period or intermittently. The reference of the face orientation may be changed, for example, corrected. In addition, the process performed by the reference changing unit 12i includes a process of changing the reference of the face orientation when the driver D changes.

実施の形態に係る算出システムは、運転者Dが、運転席に着座し、外部の注視点Pを注視した状態にあるとき、運転者Dの眼球運動、及び頭部運動に基づいて、運転者DのVOR情報が算出される。   In the calculation system according to the embodiment, when the driver D is seated in the driver's seat and is in a state of gazing at the external gaze point P, the driver D is based on the driver's D eye movement and head movement. D's VOR information is calculated.

図7は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理動作全体の一例を示すフローチャートである。   FIG. 7 is a flowchart illustrating an example of the entire VOR information calculation processing operation performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.

まず、ステップS1では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS2では、取得した画像から運転者Dの頭部を含む画像要素ID20を抽出し、当該画像要素に含まれる顔器官点を検出したうえで、移動体M座標系における運転者Dの頭部運動を算出する処理を行う。カメラ11では、毎秒所定フレーム数の画像が撮影される。
制御ユニット12は、これら撮影された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行する。
次に、ステップS3では、制御ユニット12が、取得した画像から運転者Dの眼球を含む画像要素ID10を抽出したうえで、眼球運動を算出する処理を行う。
First, in step S1, the control unit 12 performs a process of acquiring an image captured by the camera 11, and then in step S2, the image element ID 20 including the head of the driver D is extracted from the acquired image. After detecting the facial organ points included in the image element, a process of calculating the head movement of the driver D in the moving body M coordinate system is performed. The camera 11 captures a predetermined number of frames per second.
The control unit 12 captures these captured images in time series, and executes this process every frame or every frame at a predetermined interval.
Next, in step S <b> 3, the control unit 12 extracts the image element ID 10 including the eyeball of the driver D from the acquired image, and then performs a process of calculating eye movement.

次に、ステップS4では、ジャイロセンサ2によって得られた情報に基づき、車両運動を算出し、次にステップS5に進む。
ステップS5では、絶対座標系に関する運転者Dの頭部運動を求めるために、ステップS2で算出された車両座標系における運転者Dの頭部運動の値に、ステップS4で算出された移動体Mの絶対座標系における車両運動の値を加算する処理を行う。この加算処理は、例えば、ある時刻における頭部運動を示す値を、当該時刻の車両運動を示す値とを加算する処理である。
次に、ステップS6では、第1判定部12dによって、運転者Dが第1の状態にあるか否かが判断され、第1の状態にあると判断されれば、次にステップS7に進み、第1の状態にはないと判断されれば、本処理を終了する。
次に、ステップS7では、運転者Dが第1の状態にあると判断されたときの絶対座標系に変換された頭部運動及び眼球運動に基づいて、運転者DのVOR情報を算出する処理を行い、その後、ステップS8に進む。
ステップS8では、VOR情報を記憶ユニット13に格納して記憶していく処理が行われ、同時に、5秒以上前のデータは消去され、直近5秒間以内のVOR情報への書換えが行われる。
Next, in step S4, the vehicle motion is calculated based on the information obtained by the gyro sensor 2, and then the process proceeds to step S5.
In step S5, in order to obtain the head movement of the driver D with respect to the absolute coordinate system, the moving body M calculated in step S4 is set to the value of the head movement of the driver D in the vehicle coordinate system calculated in step S2. A process of adding vehicle motion values in the absolute coordinate system is performed. For example, the addition process is a process of adding a value indicating the head movement at a certain time to a value indicating the vehicle movement at the time.
Next, in step S6, the first determination unit 12d determines whether or not the driver D is in the first state. If it is determined that the driver D is in the first state, the process proceeds to step S7. If it is determined that the current state is not in the first state, the present process is terminated.
Next, in step S7, processing for calculating VOR information of the driver D based on the head movement and eye movement converted to the absolute coordinate system when the driver D is determined to be in the first state. Then, the process proceeds to step S8.
In step S8, processing for storing and storing the VOR information in the storage unit 13 is performed. At the same time, data older than 5 seconds is erased, and rewriting to VOR information within the latest 5 seconds is performed.

その後、ステップS9では、5秒間分のデータが格納されたか否かが判断され、格納されたと判断されれば、ステップS10に進み、一方、格納されたと判断されなければ、本処理を終了する。
ステップS10では、第2判定部12eにおいて頭部運動と眼球運動との相関性が“同方向運動状態にある”と判断されたデータを除外する処理が行われ、その後、ステップS11に進み、ステップS11では、“非同方向運動状態”と判断されたVOR情報のみの出力処理が行われ、その後、本処理が終了する。
Thereafter, in step S9, it is determined whether or not data for 5 seconds has been stored. If it is determined that data has been stored, the process proceeds to step S10. If it is not determined that data has been stored, this process is terminated.
In step S10, a process of excluding data for which the correlation between the head movement and the eye movement is determined to be “in the same direction movement state” in the second determination unit 12e is performed, and then the process proceeds to step S11. In S11, an output process of only the VOR information determined as “non-co-directional movement state” is performed, and then this process ends.

図8は、実施の形態に係る情報処理装置10の制御ユニット12が行う、頭部運動算出処理(図7に示したフローチャートにおけるステップS2の処理)の詳細を示すフローチャートである。
まず、ステップS21では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次に、ステップS22では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS23に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
ステップS23では、取得した画像に基づいて運転者Dの頭部DHから顔器官点DOが検出できるか否かを判断し、顔器官点DOが検出できると判断すると、次にステップS24に進む一方、顔器官点DOが検出できないと判断すると、本処理を終了する。
FIG. 8 is a flowchart showing details of the head movement calculation process (the process of step S2 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
First, in step S21, the control unit 12 performs a process of acquiring an image photographed by the camera 11. Next, in step S22, whether or not the head DH of the driver D can be detected based on the acquired image. If it is determined that the head DH of the driver D can be detected, the process proceeds to step S23. On the other hand, if it is determined that the head DH of the driver D cannot be detected, the process ends.
In step S23, it is determined whether or not the facial organ point DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the facial organ point DO can be detected, the process proceeds to step S24. If it is determined that the facial organ point DO cannot be detected, the process is terminated.

ステップS24では、検出された顔器官点の位置の移動量である“顔運動量”を、移動体Mにおける車両座標系での運動量(すなわち移動体Mに対する相対的顔運動量)として算出する。
次にステップS25に進み、ステップS25では、顔器官点位置の移動量に基づき、車両座標系における頭部運動を算出し、次に、ステップS26に進む。
ステップS26では、算出された頭部運動を示す情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
In step S24, the “face momentum”, which is the amount of movement of the position of the detected facial organ point, is calculated as the momentum in the vehicle coordinate system of the moving body M (that is, the relative facial momentum with respect to the moving body M).
Next, the process proceeds to step S25. In step S25, the head movement in the vehicle coordinate system is calculated based on the movement amount of the facial organ point position, and then the process proceeds to step S26.
In step S26, the process which memorize | stores the information which shows the calculated head movement in the memory | storage unit 13 is performed, and this process is complete | finished after that.

図9は、実施の形態に係る情報処理装置10の制御ユニット12が行う、眼球運動算出処理(図7に示したフローチャートにおけるステップS3の処理)の詳細を示すフローチャートである。
まず、ステップS31では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS32に進み、ステップS32では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS33に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
FIG. 9 is a flowchart showing details of the eye movement calculation process (the process of step S3 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
First, in step S31, the control unit 12 performs a process of acquiring an image captured by the camera 11, and then proceeds to step S32. In step S32, the head D of the driver D is based on the acquired image. If it is determined whether or not the head DH of the driver D can be detected, the process proceeds to step S33. If it is determined that the head DH of the driver D cannot be detected, the process ends. .

ステップS33では、取得した画像に基づいて運転者Dの頭部DHから眼球DOが検出できるか否かを判断し、眼球DOが検出できると判断すると、次にステップS34に進む一方、眼球DOが検出できないと判断すると、本処理を終了する。
ステップS34では、運転者Dの眼球DOから瞳孔101が検出できるか否かを判断し、瞳孔101が検出できると判断すると、次にステップS35に進む一方、瞳孔101が検出できないと判断すると、本処理を終了する。
ステップS35では、瞳孔の移動量を算出し、次にステップS36に進み、ステップS36では、瞳孔の移動量に基づいて、眼球の移動量を算出し、次にステップS37に進み、ステップS37では、眼球の移動量に基づいて、眼球運動を算出する。
次にステップS38に進み、ステップS38では、算出された眼球運動を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
In step S33, it is determined whether or not the eyeball DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the eyeball DO can be detected, the process proceeds to step S34. If it is determined that it cannot be detected, this process is terminated.
In step S34, it is determined whether or not the pupil 101 can be detected from the eyeball DO of the driver D. If it is determined that the pupil 101 can be detected, the process proceeds to step S35, and if it is determined that the pupil 101 cannot be detected, The process ends.
In step S35, the amount of movement of the pupil is calculated, and then the process proceeds to step S36. In step S36, the amount of movement of the eyeball is calculated based on the amount of movement of the pupil, and then the process proceeds to step S37. Based on the movement amount of the eyeball, eye movement is calculated.
Next, the process proceeds to step S38, and in step S38, a process of storing the calculated eye movement in the storage unit 13 is performed, and then this process ends.

図10は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理(図7に示したフローチャートにおけるステップS7の処理)の詳細を示すフローチャートである。
まず、ステップS71では、前庭動眼反射のゲイン(VORゲイン)が算出される。
次に、ステップS72では、頭部角速度と眼球角速度の位相差が算出される。
次に、ステップS73では、VORゲインと上記位相差に基づいて、残差標準偏差が算出される。
次に、ステップS74では、これらのVOR情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
FIG. 10 is a flowchart showing details of the VOR information calculation process (step S7 in the flowchart shown in FIG. 7) performed by the control unit 12 of the information processing apparatus 10 according to the embodiment.
First, in step S71, a gain (VOR gain) of vestibular eye movement reflection is calculated.
Next, in step S72, the phase difference between the head angular velocity and the eyeball angular velocity is calculated.
Next, in step S73, a residual standard deviation is calculated based on the VOR gain and the phase difference.
Next, in step S74, a process for storing these VOR information in the storage unit 13 is performed, and then this process is terminated.

[他の適用例]
実施の形態に係る情報処理装置を含む算出システムの他の適用例を図11に示す。本適用例は撮像部として二つのカメラを備えている点、照射部3が不可視光線像を運転者Dの眼球に加えて運転者D背部にも照射する点で、図2に示した適用例とは異なっている。
[Other application examples]
FIG. 11 shows another application example of the calculation system including the information processing apparatus according to the embodiment. This application example is provided with two cameras as an imaging unit, and the irradiation unit 3 applies an invisible light image to the driver D's eyeball as well as to the driver D's back, and the application example shown in FIG. Is different.

図11に示す適用例では、撮像部が、カメラ11と補助カメラ4とからなる二つのカメラを異なる位置に備えている。異なる2つの位置から運転者Dの頭部を含む画像を取得することで、撮影される画像の奥行き方向の値の変化を確実に得ることができる。   In the application example illustrated in FIG. 11, the imaging unit includes two cameras including the camera 11 and the auxiliary camera 4 at different positions. By acquiring images including the head of the driver D from two different positions, it is possible to reliably obtain a change in the value in the depth direction of the captured image.

また、図11に示す適用例では、運転者D背部に照射時刻と同期して表示変化する不可視光線の時刻表示画像を照射する。時刻表示画像は例えば時刻変化する時計の画像からなる。カメラによって撮影される画像に時刻表示画像を含めることで、撮影した画像と各画像の撮影時刻との同期を確実に行うことができる。なお、時刻表示画像は、時刻を識別可能な画像であればよい。例えば、時刻表示画像は、時計のような人間が時刻を認識できる画像に限定されず、バーコード、2次元コード等の符号化された画像であってもよい。   Further, in the application example shown in FIG. 11, a time display image of invisible light whose display changes in synchronization with the irradiation time is irradiated on the back of the driver D. The time display image is composed of, for example, an image of a clock whose time changes. By including the time display image in the image captured by the camera, it is possible to reliably perform synchronization between the captured image and the capture time of each image. In addition, the time display image should just be an image which can identify time. For example, the time display image is not limited to an image such as a clock that allows a person to recognize the time, and may be an image encoded such as a barcode or a two-dimensional code.

以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。   As mentioned above, although embodiment of this invention was described in detail, the said description is only the illustration of this invention in all the points. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.

上記実施の形態では、算出システムを車両に適用した場合について説明したが、車両以外の他の移動体、例えば、船舶、潜水機、航空機にも適用することが可能である。   Although the case where the calculation system is applied to a vehicle has been described in the above-described embodiment, the calculation system can be applied to other mobile bodies other than the vehicle, for example, a ship, a diving machine, and an aircraft.

[付記]
本発明の実施の形態は、以下の付記のようにも記載され得るが、これらに限定されない。
[付記1]
移動体に設置されたカメラ(11)によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部(31)と、
前記移動体に設置されたセンサ(2)によって計測された前記移動体の運動データ、及び、
カメラ(11)によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部(32)と、
を備えていることを特徴とする情報処理装置。
[Appendix]
Embodiments of the present invention may be described as in the following supplementary notes, but are not limited thereto.
[Appendix 1]
A first calculation unit (31) that calculates an eye movement of a person using an image of a face photographed by a camera (11) installed on a moving body;
Motion data of the mobile body measured by a sensor (2) installed on the mobile body, and
A second calculation unit (32) for calculating a head movement of the person using an image of a face photographed by the camera (11);
An information processing apparatus comprising:

[付記2]
移動体M中の人物の覚醒に関する指標を算出する方法であって、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を備えていることを特徴とする指標算出方法。
[Appendix 2]
A method for calculating an index relating to awakening of a person in a moving body M,
An imaging step (S1) for capturing an image of a person's face in the moving body M with a camera (11) fixed to the moving body M;
A measurement step (S4) of measuring motion data of the moving moving body M by the gyro sensor (2) installed on the moving body M;
A first calculation step (S3) for calculating eye movements of a person in the moving body M using the face image captured in the imaging step (S1);
Using the face image photographed in the imaging step (S1) and the motion data of the moving body M measured in the measuring step (S4), the head motion of the person in the moving body M is a value in the absolute coordinate system. A second calculation step (S5) to calculate as
Third calculation for calculating an index relating to the awakening of the person in the moving body M using the eye movement calculated in the first calculation step (S3) and the head movement calculated in the second calculation step. Step (S7);
An index calculation method characterized by comprising:

[付記3]
情報処置装置(10)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴とする運転支援システム。
[Appendix 3]
An information processing apparatus (10) and a control means for controlling the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. A driving support system characterized by comprising.

[付記4]
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
[Appendix 4]
A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An imaging step (S1) for capturing an image of a person's face in the moving body M with a camera (11) fixed to the moving body M;
A measurement step (S4) of measuring motion data of the moving moving body M by the gyro sensor (2) installed on the moving body M;
A first calculation step (S3) for calculating eye movements of a person in the moving body M using the face image captured in the imaging step (S1);
Using the face image photographed in the imaging step (S1) and the motion data of the moving body M measured in the measuring step (S4), the head motion of the person in the moving body M is a value in the absolute coordinate system. A second calculation step (S5) to calculate as
Third calculation for calculating an index relating to the awakening of the person in the moving body M using the eye movement calculated in the first calculation step (S3) and the head movement calculated in the second calculation step. Step (S7);
A computer program for calculating an index relating to awakening, characterized in that

1 算出システム
2 ジャイロセンサ
3 照射部
4 補助カメラ
10 情報処理装置
11 カメラ
11A 瞳孔中心
12 制御ユニット
13 記憶ユニット
30 運転制御装置
31 第1の算出部
32 第2の算出部
33 第3の算出部
37 報知装置
101 瞳孔
110 入出力インターフェース
121 角膜反射像
M 移動体
D 運転者
DO 顔器官点
X−Y−Z 絶対座標系における三次元軸
DESCRIPTION OF SYMBOLS 1 Calculation system 2 Gyro sensor 3 Irradiation part 4 Auxiliary camera 10 Information processing apparatus 11 Camera 11A Pupil center 12 Control unit 13 Storage unit 30 Operation control apparatus 31 1st calculation part 32 2nd calculation part 33 3rd calculation part 37 Notification device 101 Pupil 110 Input / output interface 121 Cornea reflection image M Moving object D Driver DO Facial organ point XYZ Three-dimensional axis in absolute coordinate system

Claims (6)

移動体に設置され、前記移動体中の人物の顔を撮影する撮像部と、
前記移動体に設置され、前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記移動体中の前記人物の頭部運動を算出する第2の算出部と、
前記第1の算出部によって算出された眼球運動、及び、前記第2の算出部によって算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出部と、
を備えていることを特徴とする算出システム。
An imaging unit that is installed on a moving body and photographs a face of a person in the moving body;
A sensor installed on the moving body and measuring motion data of the moving body;
A first calculation unit that calculates an eye movement of the person using an image of a face imaged by the imaging unit;
A second calculation unit that calculates head movement of the person in the moving body using movement data of the moving body measured by the sensor and a face image captured by the imaging unit;
A third calculation unit that calculates an index related to awakening of a person in the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. When,
A calculation system comprising:
前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している第1の状態か否かを判別する第1の判別部をさらに備え、
前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴とする請求項記載の算出システム。
A first determination unit that determines whether or not the person is in a first state of gazing at an external gazing point of the moving body, using a face image captured by the imaging unit;
Wherein the third calculating unit, using the eye movement and head movement when the it is determined that the first state by the first determination unit, according to claim 1, wherein the calculating the index The calculation system described.
前記撮像部により撮影された顔の画像を用いて、眼球と頭部とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴とする請求項又は請求項記載の算出システム。
A second discriminating unit that discriminates whether or not the eyeball and the head are moving in the same direction using the face image taken by the imaging unit;
The third calculation unit includes the eye movement and the head in the second state among the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. movement to the exclusion of, claim 1 or claim 2, wherein calculating system and calculates the index.
前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位
相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴とする請求項1〜3のいずれかの項に記載の算出システム。
The wakefulness index is at least one of the gain of vestibular ocular reflex, the phase difference between the angular velocity of the head and the angular velocity of the eyeball, and the residual standard deviation of the vestibular ocular reflex, or two or more of these values The calculation system according to any one of claims 1 to 3 , wherein the calculation system is an operation value based on the value of.
移動体中の人物の覚醒に関する指標を算出する方法であって、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を備えていることを特徴とする覚醒に関する指標算出方法。
A method for calculating an index related to awakening of a person in a moving body,
An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body;
A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step;
A second calculation step of calculating a head movement of the person in the moving body using the face image taken in the imaging step and the movement data of the moving body measured in the measurement step; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
An index calculation method relating to awakening, characterized by comprising:
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって撮像された、前記移動体中の前記人物の顔の画像を取得する画像取得ステップと、
前記移動体に設置されたセンサによって計測された、移動中の前記移動体の運動データを取得する情報取得ステップと、
前記画像取得ステップにおいて取得した顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記画像取得ステップにおいて取得した顔の画像、及び、前記情報取得ステップにおいて取得した前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An image acquisition step of acquiring an image of the face of the person in the moving body imaged by an imaging unit installed in the moving body;
An information acquisition step of acquiring movement data of the moving body being measured , measured by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using the face image acquired in the image acquisition step ;
A second calculation step of calculating a head movement of the person in the moving body using the face image acquired in the image acquisition step and the movement data of the moving body acquired in the information acquisition step ; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
A computer program for calculating an index relating to awakening, characterized in that
JP2018048269A 2018-03-15 2018-03-15 Calculation system, index calculation method, and computer program Active JP6432702B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018048269A JP6432702B1 (en) 2018-03-15 2018-03-15 Calculation system, index calculation method, and computer program
PCT/JP2019/006511 WO2019176492A1 (en) 2018-03-15 2019-02-21 Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048269A JP6432702B1 (en) 2018-03-15 2018-03-15 Calculation system, index calculation method, and computer program

Publications (2)

Publication Number Publication Date
JP6432702B1 true JP6432702B1 (en) 2018-12-05
JP2019154929A JP2019154929A (en) 2019-09-19

Family

ID=64560686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048269A Active JP6432702B1 (en) 2018-03-15 2018-03-15 Calculation system, index calculation method, and computer program

Country Status (2)

Country Link
JP (1) JP6432702B1 (en)
WO (1) WO2019176492A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
DE112021007613T5 (en) 2021-05-07 2024-02-29 Mitsubishi Electric Corporation REFLEX EYE MOVEMENT EVALUATION DEVICE, REFLEX EYE MOVEMENT EVALUATION SYSTEM AND REFLEX EYE MOVEMENT EVALUATION METHOD

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04288123A (en) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk Line-of-sight display device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2359748B1 (en) * 2008-09-18 2020-04-08 Chubu University Educational Foundation Sleepiness signal detector
WO2010091464A1 (en) * 2009-02-11 2010-08-19 Seeing Machines Limited Method and system for monitoring an operator of machinery
JP6344747B2 (en) * 2016-12-26 2018-06-20 ヤマハ発動機株式会社 Arithmetic processing device and human state estimation method
AU2018316010B2 (en) * 2017-08-10 2021-09-30 Yamaha Hatsudoki Kabushiki Kaisha Visual line movement-related value acquisition device, transport apparatus equipped with same, and visual line movement-related value acquisition method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04288123A (en) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk Line-of-sight display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
JPWO2020152732A1 (en) * 2019-01-21 2021-09-09 三菱電機株式会社 Attention determination device, attention determination system, attention determination method, and program
DE112021007613T5 (en) 2021-05-07 2024-02-29 Mitsubishi Electric Corporation REFLEX EYE MOVEMENT EVALUATION DEVICE, REFLEX EYE MOVEMENT EVALUATION SYSTEM AND REFLEX EYE MOVEMENT EVALUATION METHOD

Also Published As

Publication number Publication date
WO2019176492A1 (en) 2019-09-19
JP2019154929A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
CN109791739B (en) Carsickness estimation device, carsickness prevention device, and carsickness estimation method
CN106663377B (en) The driving of driver is unable to condition checkout gear
JP6454368B2 (en) Vehicle display system and method for controlling vehicle display system
JP5406328B2 (en) VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP2016057839A (en) Facial direction detection device and warning system for vehicle
JP2008079737A (en) Concentration degree evaluating apparatus and display device for vehicle equipped with the same
JP6187155B2 (en) Gaze target estimation device
JP2015207163A (en) State estimation device and state estimation program
JP2017027604A (en) Method and device for estimating direction of view of vehicle occupant, and method and device for determining head movement gain parameter specific for vehicle occupant
JP6432702B1 (en) Calculation system, index calculation method, and computer program
JP2022502757A (en) Driver attention state estimation
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
JP6708152B2 (en) Driver state estimating device and driver state estimating method
JP6418342B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
JP4325271B2 (en) Status detection device and status detection system
JP6775135B2 (en) Driver status detector
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
CN113276821A (en) Driver state estimation device
CN113276822A (en) Driver state estimation device
JP6418341B1 (en) Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program
JP7024332B2 (en) Driver monitor system
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
US20230394702A1 (en) Device, method, and computer program for estimating seat position
JP7130994B2 (en) In-vehicle device, backward determination method, and backward determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432702

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150