JP6432702B1 - Calculation system, index calculation method, and computer program - Google Patents
Calculation system, index calculation method, and computer program Download PDFInfo
- Publication number
- JP6432702B1 JP6432702B1 JP2018048269A JP2018048269A JP6432702B1 JP 6432702 B1 JP6432702 B1 JP 6432702B1 JP 2018048269 A JP2018048269 A JP 2018048269A JP 2018048269 A JP2018048269 A JP 2018048269A JP 6432702 B1 JP6432702 B1 JP 6432702B1
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- calculation
- person
- movement
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Abstract
【課題】移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システムを提供すること。
【解決手段】移動体M中の運転者Dの顔を撮影するカメラ11と、移動体Mの運動データを計測するジャイロセンサ2と、カメラ11により撮影された顔の画像を用いて運転者Dの眼球運動を算出する第1の算出部31と、ジャイロセンサ2により計測された前記移動体の運動データ及びカメラ11により撮影された顔の画像を用いて人物の頭部運動を算出する第2の算出部32と、を備えた算出システムとする。
【選択図】図5
An object of the present invention is to provide a calculation system capable of obtaining information about a person's arousal level with higher accuracy in a moving body.
A camera D that captures a face of a driver D in a moving body M, a gyro sensor 2 that measures motion data of the moving body M, and a face image captured by the camera 11 are used to drive the driver D. A first calculation unit 31 that calculates the eye movement of the person, and a second calculation that calculates the head movement of the person using the movement data of the moving body measured by the gyro sensor 2 and the face image taken by the camera 11. And a calculation system including the calculation unit 32.
[Selection] Figure 5
Description
本発明は、算出システム、指標算出方法、およびコンピュータプログラムに関する。 The present invention relates to a calculation system , an index calculation method, and a computer program.
近年、カメラで撮影された運転者の顔画像から運転者の頭部運動や眼球運動を検出し、該検出した運転者の頭部運動や眼球運動などに基づいて、車両走行時の運転者の覚醒度低下を検出して警告を発したり、運転注意力を喚起したりする種々の運転への支援又は介入に関する技術が開示されている。 In recent years, a driver's head movement or eye movement is detected from a driver's face image captured by a camera, and the driver's head movement or eye movement is detected based on the detected driver's head movement or eye movement. Techniques relating to various driving assistances or interventions for detecting a decrease in arousal level and issuing a warning or arousing driving attention are disclosed.
例えば、下記の特許文献1には、覚醒度推定装置として、運転者の瞬き時間を検出し、覚醒時における運転者に固有の瞬きの基準時間を、所定の割合だけ増大させて長い瞬きを評価するための瞬き評価時間を設定すると共に、この瞬き評価時間に従って長い瞬きを検出し、所定時間内における瞬きの総数と、長い瞬きの回数とからその生起比率を求め、眠気予測モデルを用いた回帰分析により求められる予測式に従って、運転者の覚醒度を評価する技術が開示されている。
For example, in
また、下記の特許文献2には、眠気予兆検出装置として、頭部運動検出手段により頭部運動を検出し、眼球運動検出手段により眼球運動を検出し、理想眼球運動角速度算出部により、頭部運動データに基づいて理想眼球運動角速度を算出し、眼球回転角速度算出部により、眼球運動データに基づいて眼球回転角速度を算出し、眠気予兆判定手段により理想眼球運動角速度と眼球回転角速度とから前庭動眼反射を検出し、この前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する技術が開示されている。
Further, in
[発明が解決しようとする課題]
下記の特許文献1に開示されている技術では、運転者の瞬き時間を検出して、所定時間内における瞬きの総数と、長い瞬きの回数とから運転者の覚醒度を評価する。このため、低下した覚醒度の検出は可能であるものの、覚醒度低下の予兆、すなわち眠気を自覚する前の眠気の予兆を検出することはできない。
[Problems to be solved by the invention]
In the technique disclosed in
下記の特許文献2に開示されている技術では、前庭動眼反射に基づいて、車両の運転者、機械の操作者などが眠気を自覚する前の眠気の予兆を判定する。前庭動眼反射(Vestibulo-Ocular Reflex:VOR)は、頭部運動に対してほぼ同じ速さで眼球を逆方向に回転させ、ブレのない視界を得るための反射性眼球運動である。前庭動眼反射のゲインの減少及び残差標準偏差の増大は、眠気を自覚する前から生じるため、眠気の予兆を示す指標として有効である。特許文献2には、自動車運転時を模擬したドライビングシミュレータシステムを用いた実験例が記載されると共に、眠気に関する内省を被験者に報告させて、前庭動眼反射のゲイン(VORゲイン)、残差標準偏差(SDres)の変化から眠気の予兆を判定した、と記載されている。
In the technique disclosed in
しかしながら、特許文献2に記載のものでは、被験者が、眼球回旋撮影装置および加速度センサとジャイロセンサを頭部に装着後、振動装置を備えたドライバーシートに着座し、前方スクリーンに映し出される前方自動車のテール部を注視する状況を維持させた状態での実験しか行われていない。実際の乗用移動体では、乗車の度に運転者の頭部にジャイロセンサや撮影装置を取り付けることはできない。従って、実際の移動体を運転中の運転者の覚醒度を評価するシステムにあっては、ジャイロセンサや撮影装置を運転者の頭部に取り付けるよりも、移動体の内部に取り付けることが通常となる。
However, in the device described in
しかしながら、撮影装置を移動体の内部に取り付けると、移動体内の座標系(移動体座標系)における運転者の情報しか得られない。移動体を運転している運転者の眼球運動は、運転者が車外前方を注視している場合、絶対座標系に属する運動となる。このため、頭部運動も絶対座標系で検出できなければ、前庭動眼反射を精度良く算出することは困難となる。
ところが上記したように、撮影装置を移動体の内部に取り付けた場合、移動体座標系における運転者の情報しか得られない。
このため、乗車し、実際に走行中の運転者の覚醒に関する情報を高い精度に検出することは極めて困難であるという課題があった。
However, when the imaging device is attached to the inside of the moving body, only driver information in the coordinate system (moving body coordinate system) within the moving body can be obtained. The eye movement of the driver who is driving the moving body is a movement belonging to the absolute coordinate system when the driver is gazing at the front outside the vehicle. For this reason, it is difficult to accurately calculate the vestibulo-oculomotor reflex if head movement cannot be detected in the absolute coordinate system.
However, as described above, when the photographing apparatus is attached to the inside of the moving body, only driver information in the moving body coordinate system can be obtained.
For this reason, there is a problem that it is extremely difficult to detect information about awakening of a driver who is getting on and actually traveling with high accuracy.
本発明は上記課題に鑑みなされたものであって、移動中の移動体において、人物の覚醒度に関する情報を、より高い精度で得ることのできる算出システム、指標算出方法、およびコンピュータプログラムを提供することを例示的な目的としている。 The present invention has been made in view of the above problems, and provides a calculation system , an index calculation method, and a computer program capable of obtaining information on a person's arousal level with higher accuracy in a moving moving object. For illustrative purposes.
上記目的を達成するために、本開示に係る算出システム(1)は、
移動体に設置され、前記移動体中の人物の顔を撮影する撮像部と、
前記移動体に設置され、前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記移動体中の前記人物の頭部運動を算出する第2の算出部と、
前記第1の算出部によって算出された眼球運動、及び、前記第2の算出部によって算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出部と、
を備えていることを特徴としている。
In order to achieve the above object, the calculation system (1) according to the present disclosure includes:
An imaging unit that is installed on a moving body and photographs a face of a person in the moving body;
A sensor installed on the moving body and measuring motion data of the moving body;
A first calculation unit that calculates an eye movement of the person using an image of a face imaged by the imaging unit;
A second calculation unit that calculates head movement of the person in the moving body using movement data of the moving body measured by the sensor and a face image captured by the imaging unit;
A third calculation unit that calculates an index related to awakening of a person in the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. When,
It is characterized by having.
上記算出システム(1)によれば、前記移動体に設置された前記撮像部により移動体中における前記人物の顔の画像が撮影され、前記移動体に設置された前記センサにより移動体の運動データが計測され、前記第1の算出部により、前記人物の顔の画像に基づいて前記人物の眼球運動が算出される。そして前記第2の算出部により前記移動体の運動データ及び顔の画像に基づいて前記人物の頭部運動が算出される。
従って、移動体の運動を考慮した頭部運動が算出される。このため、少なくとも前記撮像部及び前記センサが移動体に配備され、移動体が移動中の場合であっても、頭部運動の正確な情報を得ることができる。
前記撮像部と前記センサとが移動体に設置された構成で、さらに前記第3の算出部を備えることで、運転者の頭部に撮像部やセンサを装着しなくても、移動体の運動を考慮した頭部運動の情報に基づいて前記移動体中における前記人物の覚醒に関する指標を高い精度で算出することが可能となる。
According to the calculation system (1), motion data of the moving object by the image of the face of the person in the mobile by the imaging unit installed in the moving body is captured, the sensor installed in the moving body Is measured, and the first calculation unit calculates the eye movement of the person based on the face image of the person. The second calculation unit calculates the head movement of the person based on the movement data of the moving body and the face image.
Therefore, the head movement considering the movement of the moving body is calculated. For this reason, even when at least the imaging unit and the sensor are arranged on a moving body and the moving body is moving , accurate information on head movement can be obtained.
With the configuration in which the imaging unit and the sensor are installed on a moving body, and further including the third calculation unit, the movement of the moving body without mounting the imaging unit or sensor on the driver's head It is possible to calculate an index relating to the awakening of the person in the moving body with high accuracy based on the information on the head movement in consideration of the above.
また、本開示に係る算出システム(2)は、上記算出システム(1)において、
前記撮像部により撮影された顔の画像を用いて、前記人物が前記移動体の外部の注視点を注視している外部注視状態か否かを判別する第1の判別部をさらに備え、
前記第3の算出部は、前記第1の判別部によって外部を注視している外部注視状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴としている。
In addition, the calculation system ( 2 ) according to the present disclosure includes the calculation system ( 1 )
A first determination unit that determines whether or not the person is in an external gaze state in which the person is gazing at an external gaze point of the moving body, using a face image captured by the imaging unit;
The third calculation unit calculates the index using an eye movement and a head movement when it is determined that the first determination unit is in an external gaze state in which an external gaze is being observed. It is said.
上記算出システム(2)は、覚醒に関する指標の算出を、人物が移動体の外部の注視点を注視している場合に行うものである。上記算出システム(2)によれば、車外を注視している場合の頭部運動と眼球運動の情報に基づいて運転者の覚醒に関する指標を算出することで、高い精度の覚醒に関する指標を得ることができる。車外を注視している状態の覚醒に関する指標としては、例えばVOR(前庭動眼反射)の各値が挙げられる。 The calculation system ( 2 ) performs the calculation of the awakening-related index when the person is gazing at the gaze point outside the moving body. According to the calculation system ( 2 ), a high-accuracy index relating to arousal is obtained by calculating an index relating to driver's arousal based on information on head movements and eye movements when gazing outside the vehicle. Can do. As an index related to awakening in a state of gazing outside the vehicle, for example, each value of VOR (vestibulo-oculomotor reflex) can be mentioned.
また、本開示に係る算出システム(3)は、上記算出システム(1)又は(2)のいずれかにおいて、
前記撮像部により撮影された顔の画像を用いて、眼球運動と頭部運動とが同方向に運動している第2の状態であるか否かを判別する第2の判別部をさらに備え、
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の判別部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴としている。
In addition, the calculation system ( 3 ) according to the present disclosure is any of the calculation system ( 1 ) and ( 2 ),
A second discriminating unit that discriminates whether or not the eye movement and the head movement are in the second state moving in the same direction using the face image taken by the imaging unit;
The third calculation unit includes the eye movement and the head in the second state among the eye movement calculated by the first calculation unit and the head movement calculated by the second determination unit. The index is calculated by excluding exercise.
一般的に、人物が視線方向を意識的に変えるときは、眼球の運動方向と顔の運動方向とが同方向となる。このような同方向の運動時における情報を除くことで、高い精度の覚醒に関する指標を得ることができる。 In general, when a person consciously changes the gaze direction, the movement direction of the eyeball and the movement direction of the face are the same direction. By excluding such information during exercise in the same direction, it is possible to obtain a highly accurate index relating to arousal.
また、本開示に係る算出システム(4)は、上記算出システム(1)〜(3)のいずれかにおいて、
前記覚醒に関する指標が、前庭動眼反射のゲイン、頭部の角速度と眼球の角速度との位相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴としている。
Moreover, the calculation system ( 4 ) according to the present disclosure is any one of the calculation systems ( 1 ) to ( 3 ),
The wakefulness index is at least one of the gain of vestibular ocular reflex, the phase difference between the angular velocity of the head and the angular velocity of the eyeball, and the residual standard deviation of the vestibular ocular reflex, or two or more of these values It is a calculation value based on the value of.
上記算出システム(4)によれば、覚醒度低下の指標として知られるVOR(前庭動眼反射)に関する各値、又はこれらに基づく演算値を用いることで、覚醒度との相関性に優れた指標を算出することができる。 According to the calculation system ( 4 ), by using each value related to VOR (vestibulo-oculomotor reflex) known as an index of wakefulness reduction, or an operation value based on these values, an index excellent in correlation with wakefulness is obtained. Can be calculated.
また、本開示に係る覚醒に関する指標算出方法(1)は、
移動体中の人物の覚醒に関する指標を算出する方法であって、
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップ
において算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出す
る第3の算出ステップと、
を備えていることを特徴としている。
In addition, the index calculation method (1) relating to awakening according to the present disclosure includes:
A method for calculating an index related to awakening of a person in a moving body,
An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body;
A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step;
A second calculation step of calculating a head movement of the person in the moving body using the face image taken in the imaging step and the movement data of the moving body measured in the measurement step; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
It is characterized by having.
上記覚醒に関する指標算出方法(1)によれば、移動体の運動状態にかかわらず、頭部運動を得ることができる。これにより、第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に算出することが可能となる。 According to the index calculation method (1) relating to awakening, head movement can be obtained regardless of the movement state of the moving body. Thereby, in the third calculation step, it is possible to more accurately calculate an index relating to the driver's arousal in the moving body.
また、本開示に係る覚醒に関する指標算出のためのコンピュータプログラム(1)は、
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって撮像された、前記移動体中の前記人物の顔の画像を取得する画像取得ステップと、
前記移動体に設置されたセンサによって計測された、移動中の前記移動体の運動データを取得する情報取得ステップと、
前記画像取得ステップにおいて取得した顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記画像取得ステップにおいて取得した顔の画像、及び、前記情報取得ステップにおいて取得した前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴としている。
In addition, the computer program (1) for calculating an index relating to awakening according to the present disclosure is:
A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An image acquisition step of acquiring an image of the face of the person in the moving body imaged by an imaging unit installed in the moving body ;
An information acquisition step of acquiring movement data of the moving body being measured , measured by a sensor installed on the moving body ;
A first calculation step of calculating an eye movement of the person in the moving body using the face image acquired in the image acquisition step ;
A second calculation step of calculating a head movement of the person in the moving body using the face image acquired in the image acquisition step and the movement data of the moving body acquired in the information acquisition step ; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
It is characterized by executing.
上記覚醒に関する指標算出のためのコンピュータプログラム(1)によれば、移動体の運動状態にかかわらず、頭部運動を取得させることができる。これにより、前記第3の算出ステップにおいて、移動体中の運転者の覚醒に関する指標をより正確に、コンピュータに算出させることが可能となる。 According to the computer program (1) for calculating the index related to awakening, the head movement can be acquired regardless of the movement state of the moving body. As a result, in the third calculation step, it is possible to cause the computer to calculate the index relating to the driver's arousal in the moving body more accurately.
以下、本発明に係る算出システム、情報処理装置、運転支援システム、指標算出方法、およびコンピュータプログラムの実施の形態を図面に基づいて説明する。 Hereinafter, embodiments of a calculation system, an information processing apparatus, a driving support system, an index calculation method, and a computer program according to the present invention will be described with reference to the drawings.
[適用例]
図1は、実施の形態に係る情報処理装置を含む算出システムを移動体Mへ適用した例を示す概略平面図であり、図2は、移動体Mに搭載された算出システムを示す概略斜視図である。
[Application example]
FIG. 1 is a schematic plan view illustrating an example in which a calculation system including an information processing apparatus according to an embodiment is applied to a moving body M, and FIG. 2 is a schematic perspective view illustrating a calculation system mounted on the moving body M. It is.
この例において、移動体Mは人物を乗せて移動する車両であって、外部を透過視認する視認部(例えばフロントガラス)を有している。移動体Mは、運転者Dが着座するための着座部(例えば運転席)を備えており、運転者Dは、移動中の移動体Mの着座部に着座した状態で、視認部を介して移動体Mの外部の任意の注視点Pを視認することができる。注視点Pは、実際には、図示された位置よりも移動体Mから遠くにあってもよい。
図2に示す例において、運転者Dは、頭部DHを含む上半身が視認部方向を向いた状態で着座部に着座し、眼球の瞳孔101(図3)が視認部の先の注視点Pの方向を向いている。
In this example, the moving body M is a vehicle that carries a person and has a visual recognition part (for example, a windshield) that allows the outside to be seen through. The moving body M is provided with a seating portion (for example, a driver's seat) for the driver D to sit, and the driver D is seated on the seating portion of the moving moving body M via the visual recognition unit. An arbitrary gazing point P outside the moving body M can be visually recognized. The gazing point P may actually be farther from the moving body M than the illustrated position.
In the example shown in FIG. 2, the driver D sits on the seat with the upper body including the head DH facing the viewing portion, and the pupil 101 (FIG. 3) of the eyeball is the point of sight P at the tip of the viewing portion. Facing the direction.
注視点Pとしては、例えば、通常は前方車両のテール部、あるいは図1に示した、道路周辺に配置された遠方の道路標識などを挙げることができる。図1に示した道路標識は移動体M外部の絶対座標系で静止したものとなる。
また、図2に示す符号DOは、人物の顔の向きを算出するための顔の一つの顔器官点を示している。情報処理装置10(図4)は、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。
As the gazing point P, for example, the tail portion of the vehicle ahead, or a distant road sign arranged around the road shown in FIG. The road sign shown in FIG. 1 is stationary in an absolute coordinate system outside the moving body M.
2 indicates one facial organ point of the face for calculating the orientation of the person's face. In order to calculate the face orientation, the information processing apparatus 10 (FIG. 4) prepares a face model composed of a large number of facial organ point information, and estimates the facial orientation from the positional information of a plurality of organ points. The amount of movement of the face can be calculated from the amount of change in the direction of the face.
運転者Dの視線ベクトルは、例えば、図3に示したように、眼球の画像部分における瞳孔中心11Aの位置と、眼球の画像部分における照射部3からの照射光の反射位置(角膜反射像121)とによって特定することができる。この視線ベクトルを微分することで動き(眼球運動)を算出することも可能である。
また、眼球運動は、眼球の画像部分における瞳孔101の動きから算出することも可能である。
前記照射光は非可視光線であることも多く、非可視光線である場合、カメラ11によって撮影される画像は、非可視光線の反射光に基づく人物の画像からなる。
For example, as shown in FIG. 3, the line-of-sight vector of the driver D includes the position of the
The eye movement can also be calculated from the movement of the
In many cases, the irradiation light is invisible light, and in the case of invisible light, the image captured by the
[構成例]
[算出システムの構成例]
算出システム1は、図4に示したように、移動体M中の人物である運転者Dの顔を撮影する撮像部としてのカメラ11、各種の情報処理を行う情報処理装置10、及び移動体Mの運動データを計測するジャイロセンサ2を含んで構成されている。
算出システム1は、カメラ11、情報処理装置10、及びジャイロセンサ2を含んで構成されており、いわゆるドライブモニタリングシステムの一部を構成しているとみなすこともできる。
また、算出システム1は、図5に示したような機能構成ブロックでも表すことができ、
カメラ11により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部31と、
ジャイロセンサ2により計測された移動体Mの運動データ及びカメラ11により撮影された顔の画像を用いて絶対座標系に対する人物の頭部運動を算出する第2の算出部32と、
第1の算出部31により算出された眼球運動、及び、第2の算出部32により算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出部33とを備えている。
[Configuration example]
[Configuration example of calculation system]
As illustrated in FIG. 4, the
The
The
A
A second calculation unit 32 that calculates the head movement of the person relative to the absolute coordinate system using the movement data of the moving body M measured by the
A third calculation unit that calculates an index related to the awakening of the person in the moving body M using the eye movement calculated by the
算出システム1には、人物の頭部を含む画像を所定の時間間隔で撮影する撮像部としてのカメラ11と、運転者Dの眼球に照射光を照射する照射部3とが装備され、情報処理装置10が内蔵されている。算出システム1は、例えば、移動体M内にあって運転者Dと対向する位置に固定されている(図1)。
The
撮像部としてのカメラ11は、例えば、図示しないレンズ部、撮像素子部、インターフェース部、これら各部を制御する制御部などを含んで構成されている。撮像素子部は、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、マイクロレンズなどを含んで構成される。撮像素子部は、可視領域の光を受けて撮影画像を形成できるものを含む他、紫外線、赤外線、あるいは近赤外線を受けて撮影画像を形成できるCCD、CMOS、或いはフォトダイオード等のセンサを含んでもよい。
The
カメラ11は、運転者Dを撮影する。カメラ11によって撮影された画像によって、移動体M中における運転者Dの頭部運動を測定することが可能になる。また、カメラ11によって撮影される画像は、画像内の人物の眼球及び視線の方向を特定できる解像度を有しており、運転者Dの眼球運動を算出することも可能になっている。
The
カメラ11の数は、図2に示したように1台でもよいし、後述の変形構成例では、図11に示したように、補助カメラ4を含む2台以上のカメラで構成される。カメラ11は、単眼カメラであってもよいし、ステレオカメラであってもよい。
カメラ11は所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、カメラ11で撮影された画像のデータが情報処理装置10へ出力されるようになっている。
The number of
The
ジャイロセンサ2は、移動体Mの移動に伴う運動情報を取得する。例えば、図2に示したジャイロセンサ2は三次元ジャイロセンサからなり、移動体Mの前部に固定された算出システム1に固定される(図1)。この例において、計測される運動情報は、外部の絶対座標系に対する、移動体Mの回転運動量である。運動情報の内容として、三次元的に互いに直交するXYZ軸の各軸周りの回転量、及び単位時間当たりにおける、ロール、ピッチ、ヨーそれぞれの回転角速度が取得される。
ジャイロセンサ2は移動体Mに不要に揺動することなく設置されていればよく、移動体Mへの設置位置は特に限定されない。
The
The
照射部3は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮影できるように赤外線LED、近赤外線LEDなどが採用される。
照射部3は、例えば図2に示したように、移動体M内の決められた位置から、人物のいる運転席の方向へ照射光を照射する。照射光は、一定方向へ照射されることで、眼球上の一定方向の一点が角膜反射像121として反射される。この角膜反射像121は、照射部3の固定位置から人物の眼球までの距離が最短距離となる点に形成される。また、照射光が非可視光線である場合、人物の視線の動きを妨げることがない。カメラ11によって撮影される画像は、角膜反射像121を含む画像である。
The
For example, as illustrated in FIG. 2, the irradiating
[情報処理装置の構成例]
図4は、実施の形態に係る情報処理装置10を含む算出システム1の機能構成例を示すブロック図である。
情報処理装置10は、入出力インターフェース(I/F)110、制御ユニット12、及び記憶ユニット13を含んで構成されている。
[Configuration example of information processing device]
FIG. 4 is a block diagram illustrating a functional configuration example of the
The
入出力I/F110には、例えば、カメラ11、ジャイロセンサ2、照射部3、運転制御装置30、報知装置37などが接続され、入出力I/F110は、これら外部機器との間で信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。運転制御装置30は、情報処理装置10から供給される種々の情報に基づいて、移動体Mを制御することができる。例えば、運転制御装置30は、移動体Mの運転を制御してもよいし、移動体Mに設けられたスピーカやディスプレイによる出力を制御してもよい。
For example, the
制御ユニット12は、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fを含んで構成され、さらに、算出部12g、処理部12h、基準変更部12iなどを含んで構成されてもよい。制御ユニット12は、例えば、CPU(Central Processing Unit)、メモリ、画像処理回路などを含んで構成され、記憶ユニット13等に保存されている所定の制御プログラムを読み出してCPUで解釈実行することにより、その働きが実現される。制御ユニット12は、前記撮像素子部や照射部3を制御して、照射部3から光(例えば、近赤外線など)を照射させ、前記撮像素子部でその反射光を撮影する制御などを行う。制御ユニット12は、CPU、Graphics processing unit(GPU)などの1つ以上のハードウェアプロセッサを含んで構成される。
The
記憶ユニット13は、画像記憶部13a、顔の向き記憶部13b、パラメータ記憶部13c、基準記憶部13d、及びプログラム記憶部13eを含んで構成される。記憶ユニット13は、Random Access Memory(RAM)、Read Only Memory(ROM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュメモリ、その他の不揮発性メモリや揮発性メモリなど、半導体素子によってデータを記憶可能な1つ以上の記憶装置で構成される。なお、RAM及びROMを制御ユニット12に含んで構成してもよい。
The
画像記憶部13aには、画像取得部12aによりカメラ11から取得された運転者Dの画像が記憶される。
顔の向き記憶部13bには、検出部12bで検出された各画像の運転者Dの顔の向き及び移動量に関する情報が、画像記憶部13aに記憶される各画像と対応付けて記憶される。
パラメータ記憶部13cには、第2判定部12eでの判定に用いられる、顔の向きの閾値や移動量の閾値などの各種パラメータが記憶されている。
基準記憶部13dには、基準決定部12fで決定された運転者Dの顔の向きの基準に関する情報、例えば、基準を示す値(基準値)などが記憶される。
プログラム記憶部13eには、制御ユニット12の各部で実行される情報処理プログラムや該プログラムの実行に必要なデータなどが記憶されている。
The image of the driver D acquired from the
In the face
The parameter storage unit 13c stores various parameters used for determination by the
The reference storage unit 13d stores information related to the reference of the face direction of the driver D determined by the
The program storage unit 13e stores an information processing program executed by each unit of the
[動作例]
情報処理装置10は、移動体Mに搭載される算出システム1に内蔵され、車載機器(図示せず)から移動体Mの走行状態に関する各種情報を取得できるとともに、車載機器に対して制御信号などを出力するように構成されている。
[Operation example]
The
情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、顔の向きを算出するために、多数の顔の器官点情報からなる顔のモデルを用意し、複数の器官点の位置情報から顔の向きを推定する。顔の向きの変化量から顔の移動量を算出することができる。また、情報処理装置10は、移動体M中の運転者Dの状態を把握するための情報処理の一つとして、運転者Dの眼球の向きの基準となる、運転者Dの少なくとも片側の眼球及び当該眼球に含まれる瞳孔を把握し、前記眼球における瞳孔の移動量を把握する処理も実行し、眼球運動の検出を可能としている。
As one of information processing for grasping the state of the driver D in the moving body M, the
運転者Dの頭部運動には、例えば、図2に示すように、運転者Dの顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角のうち、少なくとも1つが含まれている。 For example, as shown in FIG. 2, the head movement of the driver D includes a pitch angle that is an angle (vertical direction) around the X axis (left and right axis) of the driver D, a Y of the face, At least one of the yaw (Yaw) angle that is an angle around the axis (vertical axis) (left-right orientation) and the roll angle that is an angle (left-right tilt) around the Z axis (front-rear axis) of the face is include.
移動体Mの運動情報には、移動体Mの三次元軸それぞれの速度情報のほか、例えば、CAN(Controller Area Network)で接続された車載機器から取得した、車速情報、或いは操舵情報を含んでもよい。運動情報が車載機器から取得した情報を含む場合、当該取得した情報に基づいて、特定の走行状態にあるかどうかを判別することが可能となる。特定の走行状態としては、例えば、移動体Mの車速が所定の車速域にあり、かつ非操舵状態にある走行状態、換言すれば、移動体Mが直進している走行状態が挙げられる。このような走行状態は、運転者Dの覚醒に関する指標を算出するのに適した状態と言える。 The motion information of the moving body M may include, for example, vehicle speed information or steering information acquired from in-vehicle devices connected by a CAN (Controller Area Network) in addition to the speed information of each three-dimensional axis of the moving body M. Good. When the exercise information includes information acquired from the in-vehicle device, it is possible to determine whether the vehicle is in a specific running state based on the acquired information. Examples of the specific traveling state include a traveling state in which the vehicle speed of the moving body M is in a predetermined vehicle speed range and is in a non-steering state, in other words, a traveling state in which the moving body M is traveling straight. Such a running state can be said to be a state suitable for calculating an index related to the awakening of the driver D.
情報処理装置10は、「頭部運動算出処理」として、カメラ11により撮影された画像に基づいて、運転者Dの頭部DHを検出し、さらに、頭部DHのうち頭部運動の基準である顔器官点DOを検出する処理を実行する。
As the “head movement calculation process”, the
顔器官点DOの情報として、例えば、顔器官点DOの位置情報と、顔器官点DOの向き情報とを組み合わせた値が用いられる。
このうち、顔器官点DOの位置情報としては、例えば、運転者Dの顔の3次元の軸上位置を示す幅位置Xd、高さ位置Yd、前後位置Zdの各値の組合せが用いられる。また、顔器官点DOの向きの情報としては、例えば、3次元軸のうちX軸周りの回転角であるピッチPd、Y軸周りの回転角であるヨーYd、Z軸周りの回転角であるロールRdからなる各値の組合せが用いられる。これらは、運転者Dの頭部の位置を示す情報、及び、運転者Dの頭部運動を示す情報となる。
As the facial organ point DO information, for example, a value obtained by combining the positional information of the facial organ point DO and the orientation information of the facial organ point DO is used.
Among these, as the position information of the facial organ point DO, for example, a combination of values of the width position Xd, the height position Yd, and the front and rear position Zd indicating the three-dimensional axial position of the face of the driver D is used. Further, the orientation information of the facial organ point DO includes, for example, a pitch Pd that is a rotation angle around the X axis among three-dimensional axes, a yaw Yd that is a rotation angle around the Y axis, and a rotation angle around the Z axis. A combination of values consisting of the roll Rd is used. These are information indicating the position of the head of the driver D and information indicating the head movement of the driver D.
カメラ11で撮影された1以上の画像から、前記幅位置Xd、高さ位置Yd、前後位置Zd、ピッチPd、ヨーYd、ロールRdのうち、少なくとも1つ以上の値の組合せ、これらの平均値又は最頻値などの値の組合せを、顔器官点DOの移動情報として用いることができる。
A combination of at least one of the width position Xd, height position Yd, front and rear position Zd, pitch Pd, yaw Yd, and roll Rd from one or more images taken by the
本実施の形態では、情報処理装置10が、カメラ11によって撮影された画像を取得し、取得した画像から運転者Dの頭部運動を算出するとともに、移動体Mの運動情報を取得する。そして、情報処理装置10の第1判定部12dが、取得した前記情報に基づいて、運転者Dが特定の状態(以下「第1の状態」という。)にあるか否かを判定する(図7)。第1の状態は、具体的には、運転者Dが移動体Mの外部(ここでは車外)を注視している状態であるといえる。
In the present embodiment, the
情報処理装置10の第1判定部12dは、移動体M内の運転者Dの頭部運動の変化量を、移動体M自体の運動情報に応じて修正した上で、あらかじめ設定された閾値をこえるか否か、判別するものとしてもよい。
The
制御ユニット12は、記憶ユニット13に各種データを記憶する処理を行う。また、制御ユニット12は、記憶ユニット13に記憶された各種データや各種プログラムを読み出し、これらプログラムを実行する。制御ユニット12が記憶ユニット13と協働して、画像取得部12a、検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、及び基準決定部12fの動作、さらには、算出部12g、処理部12h、及び基準変更部12iの動作が実現される。
The
画像取得部12aは、所定のフレームレートで撮影された運転者Dの画像をカメラ11から取得する処理を行い、カメラ11から取得した画像を画像記憶部13aに記憶する処理を行う。
The
検出部12bは、画像記憶部13aに記憶された画像を毎フレーム、又は所定間隔のフレーム毎に読み出し、これら画像から運転者Dの頭部DHを検出する処理を行い、検出した運転者Dの頭部DHの運動情報を、当該画像と対応付けて顔の向き記憶部13bに記憶する処理を行う。
The
運転者Dの頭部DHの運動情報には、画像処理により検出された運転者Dの顔の向きを示す角度、例えば、上記したヨー角、ピッチ角、及びロール角のうち少なくとも1つの角度の情報が含まれる。また、運転者Dの頭部DHの運動情報には、目、鼻付け根部、鼻先端部、口、眉、頭頂部などの顔器官点DOに関する位置情報が含まれる。顔器官点DOは例えば、顔の各器官の代表的又は特徴的な位置を示す特徴点として画像処理によって特定され、頭部運動の基準点として検出される。 The movement information of the head DH of the driver D includes an angle indicating the direction of the face of the driver D detected by the image processing, for example, at least one of the above yaw angle, pitch angle, and roll angle. Contains information. Further, the movement information of the head D of the driver D includes position information related to the facial organ points DO such as the eyes, the base of the nose, the tip of the nose, the mouth, the eyebrows, and the top of the head. For example, the facial organ point DO is identified by image processing as a feature point indicating a representative or characteristic position of each organ of the face, and is detected as a reference point for head movement.
情報取得部12cは、運転制御装置30を介して移動体Mの運動情報を取得する処理を行い、取得した前記情報を第1判定部12dに出力する。情報取得部12cの処理と、画像取得部12aの処理との先後は必ずしも限定されない。例えば、これらの各処置を並行して行ってもよい。なお、情報取得部12cは、運転制御装置30を介さずに、車載システム(図示せず)の各部から前記情報を取得するようにしてもよい。
移動体Mの運動情報には、少なくともジャイロセンサ2で検出された回転角速度などが含まれる。
また、情報取得部12cは、移動体Mの加減速情報や移動体Mの傾斜情報等を取得してもよい。
The
The motion information of the moving body M includes at least the rotational angular velocity detected by the
The
また、情報取得部12cは、移動体Mの位置情報と、移動体Mの周辺の地図情報とを取得してもよい。これら情報には、例えば、ナビゲーション装置で割り出された自車位置と、該自車位置周辺の地図情報などが含まれる。
Further, the
さらに、情報取得部12cは、移動体Mの周辺、特に進行方向に存在する他の移動体や人などの監視対象物に関する情報を取得してもよい。これら情報には、例えば、周辺監視センサで検出された、対象物の種類や対象物までの距離に関する情報などが含まれる。
Furthermore, the
第1判定部12dは、運転者Dに関する第1の状態の条件を満たすか否かを判別する。第1判定部12dは、カメラ11により撮影された顔の画像を用いて、第1の状態か否かを視線ベクトルに基づいて判別する。判別結果は例えば二値信号として、第1判定部12dから第2判定部12eに出力される。第1判定部12dは、本開示に係る第1の判別部の一例である。
The
第2判定部12eは、現在の状態が後述のVOR情報の算出に適さない状態であるか否かを判別する。本実施の形態では、一例として、眼球の運動方向と顔の運動方向とが同方向である状態をVOR情報の算出に適さない状態とし、以下これを「第2の状態」ともいう。例えば、第2判定部12eは、カメラ11により撮影された顔の画像を用いて、眼球の運動方向と顔の運動方向とが同方向か否かを判別することによって、第2の状態か否かを判別することができる。判別結果は例えば二値信号として、第2判定部12eから基準決定部12fに出力される。第2判定部12eは、本開示に係る第2の判別部の一例である。
The
基準決定部12fは、運転者Dが第1の状態にあり、かつ第2の状態にあると判別されているときの運転者Dの頭部DHを含む画像要素ID20(図6)を画像解析によって抽出し、さらに、運転者Dの頭部DHに含まれる眼球の画像要素ID10(図6)を画像解析によって抽出する。眼球の画像要素ID10に基づいて、瞳孔101の位置及び向きを特定する処理を行う。そして、連続撮影された各画像の顔器官点DOの位置情報及び向きの情報の変化に基づいて、運転者Dの“眼球運動”を決定する処理を行い、決定した頭部運動を基準記憶部13dに記憶する。
The
具体的には、まず、第2判定部12eで判定された、運転者Dの顔の向きと視線の向きの変化が同一方向ではない、“非同方向運動状態(すなわち第2の状態)”にあると推定できる状態が所定期間以上継続しているか否かが判定される。すなわち、第2判定部12eから、“非同方向運動状態”にあることを示す判定結果を撮影された画像のフレーム毎に付与し、当該判定結果が、所定のフレーム数以上継続したか否かが判定される。
Specifically, first, the change in the direction of the face of the driver D and the direction of the line of sight determined by the
所定期間以上継続して取得されたと判断すれば、基準決定部12fは、次に、顔の向き記憶部13bから前記所定期間に取得した画像に対応する運転者Dの眼球(図3の実施形態では顔器官点DOとなる左目)の画像要素ID10を読み出し、連続的又は断続的に読み出した各フレームの眼球の画像要素ID10から、運転者Dの眼球運動を決定する。
If it is determined that the image has been continuously acquired for a predetermined period or longer, the
眼球運動は、眼球内における瞳孔101の位置に関する情報であるから、例えば、カメラ11で撮影される眼球の画像要素に基づいて、眼球の画像要素における瞳孔101の動きを特定することにより求めることができる。瞳孔101の位置情報の変化を特定することで、運転者Dの眼球運動が決定される。
Since the eye movement is information related to the position of the
上記した検出部12b、情報取得部12c、第1判定部12d、第2判定部12e、基準決定部12f、及び顔の向き記憶部13bが協働して、VORに関する情報(以下「VOR情報」という。)の算出処理を実行する。
一方、算出部12g、処理部12h、及び基準記憶部13dが協働して、運転者Dの状態を把握(モニタリング)する処理を実行する。
The above-described
On the other hand, the
算出部12gは、基準決定部12fで決定された顔の向き記憶部13bから頭部を含む画像を読みだすと共に、眼球運動を基準記憶部13dから読み出して、頭部運動及び眼球運動からVOR情報の算出処理を行い、算出結果を処理部12hに出力する。
The
処理部12hは、算出部12gで算出された、顔の向きの基準に対する運転者Dの顔の向き(例えば、基準値からのずれ)に基づいて、所定の処理を行う。
所定の処理は、例えば、脇見状態にあるか否かの判定処理を行って、脇見状態にある場合(例えば、左右方向の顔の向きが基準値から所定値以上ずれている場合)、報知装置37に報知を指示する処理でもよいし、報知処理を行うことなく、脇見状態にある顔の向きの情報を記憶ユニット13に記憶する処理や、運転制御装置30に出力する処理でもよい。
The
For example, the predetermined process is performed by determining whether or not the user is in the side-by-side state. When the side-by-side state is in the side-by-side state (for example, when the face direction in the left-right direction is shifted from the reference value by a predetermined value or more) 37 may be a process of instructing the notification, or may be a process of storing information on the orientation of the face in the looking-aside state in the
また、処理部12hは、VOR情報の算出処理の算出結果によって、運転者Dの覚醒度の低下が予兆されるかどうかの判定処理を行い、覚醒度の低下が予兆されると判断される場合には、報知装置37に検知信号を出力して、移動体M内へ覚醒度低下に関する報知を指示する処理を行ってもよい。
Further, the
また、処理部12hは、報知処理に代えて、又は報知処理とともに、運転者Dの覚醒度が低下した状態になっているときのVOR情報を記憶ユニット13に記憶する処理を行ってもよい。
また、処理部12hは、移動体Mの移動状態の判定処理を行って、明らかに移動体Mが停止している場合、或いは明らかに移動体Mが右左折移動を行っている場合を検知し、前記いずれの場合でもない時に限って、前記報知処理、あるいは前記記憶ユニット13への記憶処理を行ってもよい。
Further, the
In addition, the
また、所定の処理は、自動運転モードから手動運転モードへの切り替え時において、運転者Dが手動運転への引き継ぎが可能な状態にあるか否かの判定処理を行って、引き継ぎが可能な状態にあると判定された場合(例えば、基準値からの顔の向きのずれが、手動運転に適切な所定範囲内である場合)、運転制御装置30に、手動運転への切り替えを許可する信号を出力する処理でもよい。
In addition, the predetermined process is a state in which it is possible to take over by determining whether or not the driver D is ready to take over to manual operation when switching from the automatic operation mode to the manual operation mode. (For example, when the deviation of the face direction from the reference value is within a predetermined range suitable for manual operation), the
基準変更部12iは、基準決定部12fで決定された顔の向きの基準、例えば、基準値を変更する処理を行い、変更した基準値を基準記憶部13dに記憶する処理を行う。
例えば、特定の走行状態(例えば、直進している走行状態)であるときに、算出部12gで算出された前記運転者Dの顔の向きと、前記顔の向きの基準との差が所定範囲内である状態(例えば、基準値から一定の方向に顔の向きがずれているが、脇見ほどずれていない状態)で一定期間又は断続的に継続している場合に、前記差が小さくなるように前記顔の向きの基準を変更、例えば補正してもよい。また、基準変更部12iが行う処理には、運転者Dが変わった場合に、顔の向きの基準を変更する処理も含まれる。
The reference changing unit 12i performs a process of changing the reference of the face orientation determined by the
For example, the difference between the face direction of the driver D calculated by the
実施の形態に係る算出システムは、運転者Dが、運転席に着座し、外部の注視点Pを注視した状態にあるとき、運転者Dの眼球運動、及び頭部運動に基づいて、運転者DのVOR情報が算出される。 In the calculation system according to the embodiment, when the driver D is seated in the driver's seat and is in a state of gazing at the external gaze point P, the driver D is based on the driver's D eye movement and head movement. D's VOR information is calculated.
図7は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理動作全体の一例を示すフローチャートである。
FIG. 7 is a flowchart illustrating an example of the entire VOR information calculation processing operation performed by the
まず、ステップS1では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS2では、取得した画像から運転者Dの頭部を含む画像要素ID20を抽出し、当該画像要素に含まれる顔器官点を検出したうえで、移動体M座標系における運転者Dの頭部運動を算出する処理を行う。カメラ11では、毎秒所定フレーム数の画像が撮影される。
制御ユニット12は、これら撮影された画像を時系列で取り込み、毎フレーム、又は所定間隔のフレーム毎に本処理を実行する。
次に、ステップS3では、制御ユニット12が、取得した画像から運転者Dの眼球を含む画像要素ID10を抽出したうえで、眼球運動を算出する処理を行う。
First, in step S1, the
The
Next, in step S <b> 3, the
次に、ステップS4では、ジャイロセンサ2によって得られた情報に基づき、車両運動を算出し、次にステップS5に進む。
ステップS5では、絶対座標系に関する運転者Dの頭部運動を求めるために、ステップS2で算出された車両座標系における運転者Dの頭部運動の値に、ステップS4で算出された移動体Mの絶対座標系における車両運動の値を加算する処理を行う。この加算処理は、例えば、ある時刻における頭部運動を示す値を、当該時刻の車両運動を示す値とを加算する処理である。
次に、ステップS6では、第1判定部12dによって、運転者Dが第1の状態にあるか否かが判断され、第1の状態にあると判断されれば、次にステップS7に進み、第1の状態にはないと判断されれば、本処理を終了する。
次に、ステップS7では、運転者Dが第1の状態にあると判断されたときの絶対座標系に変換された頭部運動及び眼球運動に基づいて、運転者DのVOR情報を算出する処理を行い、その後、ステップS8に進む。
ステップS8では、VOR情報を記憶ユニット13に格納して記憶していく処理が行われ、同時に、5秒以上前のデータは消去され、直近5秒間以内のVOR情報への書換えが行われる。
Next, in step S4, the vehicle motion is calculated based on the information obtained by the
In step S5, in order to obtain the head movement of the driver D with respect to the absolute coordinate system, the moving body M calculated in step S4 is set to the value of the head movement of the driver D in the vehicle coordinate system calculated in step S2. A process of adding vehicle motion values in the absolute coordinate system is performed. For example, the addition process is a process of adding a value indicating the head movement at a certain time to a value indicating the vehicle movement at the time.
Next, in step S6, the
Next, in step S7, processing for calculating VOR information of the driver D based on the head movement and eye movement converted to the absolute coordinate system when the driver D is determined to be in the first state. Then, the process proceeds to step S8.
In step S8, processing for storing and storing the VOR information in the
その後、ステップS9では、5秒間分のデータが格納されたか否かが判断され、格納されたと判断されれば、ステップS10に進み、一方、格納されたと判断されなければ、本処理を終了する。
ステップS10では、第2判定部12eにおいて頭部運動と眼球運動との相関性が“同方向運動状態にある”と判断されたデータを除外する処理が行われ、その後、ステップS11に進み、ステップS11では、“非同方向運動状態”と判断されたVOR情報のみの出力処理が行われ、その後、本処理が終了する。
Thereafter, in step S9, it is determined whether or not data for 5 seconds has been stored. If it is determined that data has been stored, the process proceeds to step S10. If it is not determined that data has been stored, this process is terminated.
In step S10, a process of excluding data for which the correlation between the head movement and the eye movement is determined to be “in the same direction movement state” in the
図8は、実施の形態に係る情報処理装置10の制御ユニット12が行う、頭部運動算出処理(図7に示したフローチャートにおけるステップS2の処理)の詳細を示すフローチャートである。
まず、ステップS21では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次に、ステップS22では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS23に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
ステップS23では、取得した画像に基づいて運転者Dの頭部DHから顔器官点DOが検出できるか否かを判断し、顔器官点DOが検出できると判断すると、次にステップS24に進む一方、顔器官点DOが検出できないと判断すると、本処理を終了する。
FIG. 8 is a flowchart showing details of the head movement calculation process (the process of step S2 in the flowchart shown in FIG. 7) performed by the
First, in step S21, the
In step S23, it is determined whether or not the facial organ point DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the facial organ point DO can be detected, the process proceeds to step S24. If it is determined that the facial organ point DO cannot be detected, the process is terminated.
ステップS24では、検出された顔器官点の位置の移動量である“顔運動量”を、移動体Mにおける車両座標系での運動量(すなわち移動体Mに対する相対的顔運動量)として算出する。
次にステップS25に進み、ステップS25では、顔器官点位置の移動量に基づき、車両座標系における頭部運動を算出し、次に、ステップS26に進む。
ステップS26では、算出された頭部運動を示す情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
In step S24, the “face momentum”, which is the amount of movement of the position of the detected facial organ point, is calculated as the momentum in the vehicle coordinate system of the moving body M (that is, the relative facial momentum with respect to the moving body M).
Next, the process proceeds to step S25. In step S25, the head movement in the vehicle coordinate system is calculated based on the movement amount of the facial organ point position, and then the process proceeds to step S26.
In step S26, the process which memorize | stores the information which shows the calculated head movement in the memory |
図9は、実施の形態に係る情報処理装置10の制御ユニット12が行う、眼球運動算出処理(図7に示したフローチャートにおけるステップS3の処理)の詳細を示すフローチャートである。
まず、ステップS31では、制御ユニット12が、カメラ11により撮影された画像を取得する処理を行い、次にステップS32に進み、ステップS32では、取得した画像に基づいて運転者Dの頭部DHが検出できるか否かを判断し、運転者Dの頭部DHが検出できると判断すると、次にステップS33に進む一方、運転者Dの頭部DHが検出できないと判断すると、本処理を終了する。
FIG. 9 is a flowchart showing details of the eye movement calculation process (the process of step S3 in the flowchart shown in FIG. 7) performed by the
First, in step S31, the
ステップS33では、取得した画像に基づいて運転者Dの頭部DHから眼球DOが検出できるか否かを判断し、眼球DOが検出できると判断すると、次にステップS34に進む一方、眼球DOが検出できないと判断すると、本処理を終了する。
ステップS34では、運転者Dの眼球DOから瞳孔101が検出できるか否かを判断し、瞳孔101が検出できると判断すると、次にステップS35に進む一方、瞳孔101が検出できないと判断すると、本処理を終了する。
ステップS35では、瞳孔の移動量を算出し、次にステップS36に進み、ステップS36では、瞳孔の移動量に基づいて、眼球の移動量を算出し、次にステップS37に進み、ステップS37では、眼球の移動量に基づいて、眼球運動を算出する。
次にステップS38に進み、ステップS38では、算出された眼球運動を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
In step S33, it is determined whether or not the eyeball DO can be detected from the head DH of the driver D based on the acquired image. If it is determined that the eyeball DO can be detected, the process proceeds to step S34. If it is determined that it cannot be detected, this process is terminated.
In step S34, it is determined whether or not the
In step S35, the amount of movement of the pupil is calculated, and then the process proceeds to step S36. In step S36, the amount of movement of the eyeball is calculated based on the amount of movement of the pupil, and then the process proceeds to step S37. Based on the movement amount of the eyeball, eye movement is calculated.
Next, the process proceeds to step S38, and in step S38, a process of storing the calculated eye movement in the
図10は、実施の形態に係る情報処理装置10の制御ユニット12が行う、VOR情報の算出処理(図7に示したフローチャートにおけるステップS7の処理)の詳細を示すフローチャートである。
まず、ステップS71では、前庭動眼反射のゲイン(VORゲイン)が算出される。
次に、ステップS72では、頭部角速度と眼球角速度の位相差が算出される。
次に、ステップS73では、VORゲインと上記位相差に基づいて、残差標準偏差が算出される。
次に、ステップS74では、これらのVOR情報を記憶ユニット13に記憶する処理が行なわれ、その後、本処理を終了する。
FIG. 10 is a flowchart showing details of the VOR information calculation process (step S7 in the flowchart shown in FIG. 7) performed by the
First, in step S71, a gain (VOR gain) of vestibular eye movement reflection is calculated.
Next, in step S72, the phase difference between the head angular velocity and the eyeball angular velocity is calculated.
Next, in step S73, a residual standard deviation is calculated based on the VOR gain and the phase difference.
Next, in step S74, a process for storing these VOR information in the
[他の適用例]
実施の形態に係る情報処理装置を含む算出システムの他の適用例を図11に示す。本適用例は撮像部として二つのカメラを備えている点、照射部3が不可視光線像を運転者Dの眼球に加えて運転者D背部にも照射する点で、図2に示した適用例とは異なっている。
[Other application examples]
FIG. 11 shows another application example of the calculation system including the information processing apparatus according to the embodiment. This application example is provided with two cameras as an imaging unit, and the
図11に示す適用例では、撮像部が、カメラ11と補助カメラ4とからなる二つのカメラを異なる位置に備えている。異なる2つの位置から運転者Dの頭部を含む画像を取得することで、撮影される画像の奥行き方向の値の変化を確実に得ることができる。
In the application example illustrated in FIG. 11, the imaging unit includes two cameras including the
また、図11に示す適用例では、運転者D背部に照射時刻と同期して表示変化する不可視光線の時刻表示画像を照射する。時刻表示画像は例えば時刻変化する時計の画像からなる。カメラによって撮影される画像に時刻表示画像を含めることで、撮影した画像と各画像の撮影時刻との同期を確実に行うことができる。なお、時刻表示画像は、時刻を識別可能な画像であればよい。例えば、時刻表示画像は、時計のような人間が時刻を認識できる画像に限定されず、バーコード、2次元コード等の符号化された画像であってもよい。 Further, in the application example shown in FIG. 11, a time display image of invisible light whose display changes in synchronization with the irradiation time is irradiated on the back of the driver D. The time display image is composed of, for example, an image of a clock whose time changes. By including the time display image in the image captured by the camera, it is possible to reliably perform synchronization between the captured image and the capture time of each image. In addition, the time display image should just be an image which can identify time. For example, the time display image is not limited to an image such as a clock that allows a person to recognize the time, and may be an image encoded such as a barcode or a two-dimensional code.
以上、本発明の実施の形態を詳細に説明したが、上記説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。 As mentioned above, although embodiment of this invention was described in detail, the said description is only the illustration of this invention in all the points. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention.
上記実施の形態では、算出システムを車両に適用した場合について説明したが、車両以外の他の移動体、例えば、船舶、潜水機、航空機にも適用することが可能である。 Although the case where the calculation system is applied to a vehicle has been described in the above-described embodiment, the calculation system can be applied to other mobile bodies other than the vehicle, for example, a ship, a diving machine, and an aircraft.
[付記]
本発明の実施の形態は、以下の付記のようにも記載され得るが、これらに限定されない。
[付記1]
移動体に設置されたカメラ(11)によって撮影された顔の画像を用いて、人物の眼球運動を算出する第1の算出部(31)と、
前記移動体に設置されたセンサ(2)によって計測された前記移動体の運動データ、及び、
カメラ(11)によって撮影された顔の画像を用いて、前記人物の頭部運動を算出する第2の算出部(32)と、
を備えていることを特徴とする情報処理装置。
[Appendix]
Embodiments of the present invention may be described as in the following supplementary notes, but are not limited thereto.
[Appendix 1]
A first calculation unit (31) that calculates an eye movement of a person using an image of a face photographed by a camera (11) installed on a moving body;
Motion data of the mobile body measured by a sensor (2) installed on the mobile body, and
A second calculation unit (32) for calculating a head movement of the person using an image of a face photographed by the camera (11);
An information processing apparatus comprising:
[付記2]
移動体M中の人物の覚醒に関する指標を算出する方法であって、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を備えていることを特徴とする指標算出方法。
[Appendix 2]
A method for calculating an index relating to awakening of a person in a moving body M,
An imaging step (S1) for capturing an image of a person's face in the moving body M with a camera (11) fixed to the moving body M;
A measurement step (S4) of measuring motion data of the moving moving body M by the gyro sensor (2) installed on the moving body M;
A first calculation step (S3) for calculating eye movements of a person in the moving body M using the face image captured in the imaging step (S1);
Using the face image photographed in the imaging step (S1) and the motion data of the moving body M measured in the measuring step (S4), the head motion of the person in the moving body M is a value in the absolute coordinate system. A second calculation step (S5) to calculate as
Third calculation for calculating an index relating to the awakening of the person in the moving body M using the eye movement calculated in the first calculation step (S3) and the head movement calculated in the second calculation step. Step (S7);
An index calculation method characterized by comprising:
[付記3]
情報処置装置(10)と、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動を用いて、前記移動体を制御する制御手段とを備えていることを特徴とする運転支援システム。
[Appendix 3]
An information processing apparatus (10) and a control means for controlling the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. A driving support system characterized by comprising.
[付記4]
移動体中の人物の覚醒に関する指標の算出処理を少なくとも1つのコンピュータに実行させるためのコンピュータプログラムであって、
前記少なくとも1つのコンピュータに、
移動体Mに固定されたカメラ(11)によって、移動体M中の人物の顔の画像を撮影する撮像ステップ(S1)と、
移動体Mに設置されたジャイロセンサ(2)によって、移動中の移動体Mの運動データを計測する計測ステップ(S4)と、
撮像ステップ(S1)において撮影された顔の画像を用いて、移動体M中の人物の眼球運動を算出する第1の算出ステップ(S3)と、
撮像ステップ(S1)において撮影された顔の画像、及び、計測ステップ(S4)により計測された移動体Mの運動データを用いて、移動体M中の人物の頭部運動を絶対座標系の値として算出する第2の算出ステップ(S5)と、
第1の算出ステップ(S3)において算出された眼球運動、及び、第2の算出ステップにおいて算出された頭部運動を用いて、移動体M中の人物の覚醒に関する指標を算出する第3の算出ステップ(S7)と、
を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。
[Appendix 4]
A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An imaging step (S1) for capturing an image of a person's face in the moving body M with a camera (11) fixed to the moving body M;
A measurement step (S4) of measuring motion data of the moving moving body M by the gyro sensor (2) installed on the moving body M;
A first calculation step (S3) for calculating eye movements of a person in the moving body M using the face image captured in the imaging step (S1);
Using the face image photographed in the imaging step (S1) and the motion data of the moving body M measured in the measuring step (S4), the head motion of the person in the moving body M is a value in the absolute coordinate system. A second calculation step (S5) to calculate as
Third calculation for calculating an index relating to the awakening of the person in the moving body M using the eye movement calculated in the first calculation step (S3) and the head movement calculated in the second calculation step. Step (S7);
A computer program for calculating an index relating to awakening, characterized in that
1 算出システム
2 ジャイロセンサ
3 照射部
4 補助カメラ
10 情報処理装置
11 カメラ
11A 瞳孔中心
12 制御ユニット
13 記憶ユニット
30 運転制御装置
31 第1の算出部
32 第2の算出部
33 第3の算出部
37 報知装置
101 瞳孔
110 入出力インターフェース
121 角膜反射像
M 移動体
D 運転者
DO 顔器官点
X−Y−Z 絶対座標系における三次元軸
DESCRIPTION OF
Claims (6)
前記移動体に設置され、前記移動体の運動データを計測するセンサと、
前記撮像部により撮影された顔の画像を用いて前記人物の眼球運動を算出する第1の算出部と、
前記センサにより計測された前記移動体の運動データ及び前記撮像部により撮影された顔の画像を用いて前記移動体中の前記人物の頭部運動を算出する第2の算出部と、
前記第1の算出部によって算出された眼球運動、及び、前記第2の算出部によって算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出部と、
を備えていることを特徴とする算出システム。 An imaging unit that is installed on a moving body and photographs a face of a person in the moving body;
A sensor installed on the moving body and measuring motion data of the moving body;
A first calculation unit that calculates an eye movement of the person using an image of a face imaged by the imaging unit;
A second calculation unit that calculates head movement of the person in the moving body using movement data of the moving body measured by the sensor and a face image captured by the imaging unit;
A third calculation unit that calculates an index related to awakening of a person in the moving body using the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. When,
A calculation system comprising:
前記第3の算出部は、前記第1の判別部によって第1の状態であると判別された場合の眼球運動及び頭部運動を用いて、前記指標を算出することを特徴とする請求項1記載の算出システム。 A first determination unit that determines whether or not the person is in a first state of gazing at an external gazing point of the moving body, using a face image captured by the imaging unit;
Wherein the third calculating unit, using the eye movement and head movement when the it is determined that the first state by the first determination unit, according to claim 1, wherein the calculating the index The calculation system described.
前記第3の算出部は、前記第1の算出部により算出された眼球運動、及び、前記第2の算出部により算出された頭部運動のうち、前記第2の状態における眼球運動及び頭部運動を除外して、前記指標を算出することを特徴とする請求項1又は請求項2記載の算出システム。 A second discriminating unit that discriminates whether or not the eyeball and the head are moving in the same direction using the face image taken by the imaging unit;
The third calculation unit includes the eye movement and the head in the second state among the eye movement calculated by the first calculation unit and the head movement calculated by the second calculation unit. movement to the exclusion of, claim 1 or claim 2, wherein calculating system and calculates the index.
相差、及び前庭動眼反射の残差標準偏差のうちの少なくとも一つの値、或いは、これら値の二つ以上の値に基づく演算値であることを特徴とする請求項1〜3のいずれかの項に記載の算出システム。 The wakefulness index is at least one of the gain of vestibular ocular reflex, the phase difference between the angular velocity of the head and the angular velocity of the eyeball, and the residual standard deviation of the vestibular ocular reflex, or two or more of these values The calculation system according to any one of claims 1 to 3 , wherein the calculation system is an operation value based on the value of.
前記移動体に設置された撮像部によって、前記移動体中の前記人物の顔の画像を撮影する撮像ステップと、
前記移動体に設置されたセンサによって、移動中の前記移動体の運動データを計測する計測ステップと、
前記撮像ステップにおいて撮影された顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記撮像ステップにおいて撮影された顔の画像、及び、前記計測ステップにおいて計測された前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を備えていることを特徴とする覚醒に関する指標算出方法。 A method for calculating an index related to awakening of a person in a moving body,
An imaging step of capturing an image of the face of the person in the moving body by an imaging unit installed in the moving body;
A measurement step of measuring motion data of the moving body being moved by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using an image of the face imaged in the imaging step;
A second calculation step of calculating a head movement of the person in the moving body using the face image taken in the imaging step and the movement data of the moving body measured in the measurement step; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
An index calculation method relating to awakening, characterized by comprising:
前記少なくとも1つのコンピュータに、
前記移動体に設置された撮像部によって撮像された、前記移動体中の前記人物の顔の画像を取得する画像取得ステップと、
前記移動体に設置されたセンサによって計測された、移動中の前記移動体の運動データを取得する情報取得ステップと、
前記画像取得ステップにおいて取得した顔の画像を用いて、前記移動体中の前記人物の眼球運動を算出する第1の算出ステップと、
前記画像取得ステップにおいて取得した顔の画像、及び、前記情報取得ステップにおいて取得した前記移動体の運動データを用いて、前記移動体中の前記人物の頭部運動を算出する第2の算出ステップと、
前記第1の算出ステップにおいて算出された眼球運動、及び、前記第2の算出ステップにおいて算出された頭部運動を用いて、前記移動体中の人物の覚醒に関する指標を算出する第3の算出ステップと、
を実行させることを特徴とする覚醒に関する指標算出のためのコンピュータプログラム。 A computer program for causing at least one computer to execute an index calculation process related to awakening of a person in a moving body,
Said at least one computer,
An image acquisition step of acquiring an image of the face of the person in the moving body imaged by an imaging unit installed in the moving body;
An information acquisition step of acquiring movement data of the moving body being measured , measured by a sensor installed on the moving body;
A first calculation step of calculating an eye movement of the person in the moving body using the face image acquired in the image acquisition step ;
A second calculation step of calculating a head movement of the person in the moving body using the face image acquired in the image acquisition step and the movement data of the moving body acquired in the information acquisition step ; ,
Third calculation step for calculating an index relating to the awakening of the person in the moving body using the eye movement calculated in the first calculation step and the head movement calculated in the second calculation step. When,
A computer program for calculating an index relating to awakening, characterized in that
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018048269A JP6432702B1 (en) | 2018-03-15 | 2018-03-15 | Calculation system, index calculation method, and computer program |
PCT/JP2019/006511 WO2019176492A1 (en) | 2018-03-15 | 2019-02-21 | Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018048269A JP6432702B1 (en) | 2018-03-15 | 2018-03-15 | Calculation system, index calculation method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6432702B1 true JP6432702B1 (en) | 2018-12-05 |
JP2019154929A JP2019154929A (en) | 2019-09-19 |
Family
ID=64560686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018048269A Active JP6432702B1 (en) | 2018-03-15 | 2018-03-15 | Calculation system, index calculation method, and computer program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6432702B1 (en) |
WO (1) | WO2019176492A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113271852A (en) * | 2019-01-21 | 2021-08-17 | 三菱电机株式会社 | Attention determination device, attention determination system, attention determination method, and program |
DE112021007613T5 (en) | 2021-05-07 | 2024-02-29 | Mitsubishi Electric Corporation | REFLEX EYE MOVEMENT EVALUATION DEVICE, REFLEX EYE MOVEMENT EVALUATION SYSTEM AND REFLEX EYE MOVEMENT EVALUATION METHOD |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04288123A (en) * | 1991-03-18 | 1992-10-13 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | Line-of-sight display device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2359748B1 (en) * | 2008-09-18 | 2020-04-08 | Chubu University Educational Foundation | Sleepiness signal detector |
WO2010091464A1 (en) * | 2009-02-11 | 2010-08-19 | Seeing Machines Limited | Method and system for monitoring an operator of machinery |
JP6344747B2 (en) * | 2016-12-26 | 2018-06-20 | ヤマハ発動機株式会社 | Arithmetic processing device and human state estimation method |
AU2018316010B2 (en) * | 2017-08-10 | 2021-09-30 | Yamaha Hatsudoki Kabushiki Kaisha | Visual line movement-related value acquisition device, transport apparatus equipped with same, and visual line movement-related value acquisition method |
-
2018
- 2018-03-15 JP JP2018048269A patent/JP6432702B1/en active Active
-
2019
- 2019-02-21 WO PCT/JP2019/006511 patent/WO2019176492A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04288123A (en) * | 1991-03-18 | 1992-10-13 | A T R Shichiyoukaku Kiko Kenkyusho:Kk | Line-of-sight display device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113271852A (en) * | 2019-01-21 | 2021-08-17 | 三菱电机株式会社 | Attention determination device, attention determination system, attention determination method, and program |
JPWO2020152732A1 (en) * | 2019-01-21 | 2021-09-09 | 三菱電機株式会社 | Attention determination device, attention determination system, attention determination method, and program |
DE112021007613T5 (en) | 2021-05-07 | 2024-02-29 | Mitsubishi Electric Corporation | REFLEX EYE MOVEMENT EVALUATION DEVICE, REFLEX EYE MOVEMENT EVALUATION SYSTEM AND REFLEX EYE MOVEMENT EVALUATION METHOD |
Also Published As
Publication number | Publication date |
---|---|
WO2019176492A1 (en) | 2019-09-19 |
JP2019154929A (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109791739B (en) | Carsickness estimation device, carsickness prevention device, and carsickness estimation method | |
CN106663377B (en) | The driving of driver is unable to condition checkout gear | |
JP6454368B2 (en) | Vehicle display system and method for controlling vehicle display system | |
JP5406328B2 (en) | VEHICLE DISPLAY DEVICE, ITS CONTROL METHOD AND PROGRAM | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP2016057839A (en) | Facial direction detection device and warning system for vehicle | |
JP2008079737A (en) | Concentration degree evaluating apparatus and display device for vehicle equipped with the same | |
JP6187155B2 (en) | Gaze target estimation device | |
JP2015207163A (en) | State estimation device and state estimation program | |
JP2017027604A (en) | Method and device for estimating direction of view of vehicle occupant, and method and device for determining head movement gain parameter specific for vehicle occupant | |
JP6432702B1 (en) | Calculation system, index calculation method, and computer program | |
JP2022502757A (en) | Driver attention state estimation | |
KR101986734B1 (en) | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof | |
JP6708152B2 (en) | Driver state estimating device and driver state estimating method | |
JP6418342B1 (en) | Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program | |
JP4325271B2 (en) | Status detection device and status detection system | |
JP6775135B2 (en) | Driver status detector | |
JP7099036B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
CN113276821A (en) | Driver state estimation device | |
CN113276822A (en) | Driver state estimation device | |
JP6418341B1 (en) | Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program | |
JP7024332B2 (en) | Driver monitor system | |
JP7298351B2 (en) | State determination device, in-vehicle device, driving evaluation system, state determination method, and program | |
US20230394702A1 (en) | Device, method, and computer program for estimating seat position | |
JP7130994B2 (en) | In-vehicle device, backward determination method, and backward determination program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180315 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180315 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181022 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6432702 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |