JP6950597B2 - On-board unit, driving evaluation system, information processing method, and program - Google Patents

On-board unit, driving evaluation system, information processing method, and program Download PDF

Info

Publication number
JP6950597B2
JP6950597B2 JP2018046943A JP2018046943A JP6950597B2 JP 6950597 B2 JP6950597 B2 JP 6950597B2 JP 2018046943 A JP2018046943 A JP 2018046943A JP 2018046943 A JP2018046943 A JP 2018046943A JP 6950597 B2 JP6950597 B2 JP 6950597B2
Authority
JP
Japan
Prior art keywords
driver
information
line
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018046943A
Other languages
Japanese (ja)
Other versions
JP2019159924A (en
Inventor
尚良 佐藤
尚良 佐藤
哲也 塚本
哲也 塚本
美加 竹中
美加 竹中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2018046943A priority Critical patent/JP6950597B2/en
Publication of JP2019159924A publication Critical patent/JP2019159924A/en
Application granted granted Critical
Publication of JP6950597B2 publication Critical patent/JP6950597B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車載機、運転評価システム、情報処理方法、及びプログラムに関する。 The present invention relates to an on-board unit, a driving evaluation system, an information processing method, and a program.

特許文献1には、ステアリングコラムに配置されたカメラで運転者の顔画像を撮像し、撮像された顔画像のエッジ情報から顔の上下の輪郭位置及び中央線を検出し、検出された中央線に基づき運転者の顔向きを検出する、すなわち、中央線から顔の輪郭位置までの距離に基づき、正面方向をゼロ度としたときの左右方向への顔向き度を検出する技術が開示されている。 In Patent Document 1, a driver's face image is imaged by a camera arranged on the steering column, the upper and lower contour positions and the center line of the face are detected from the edge information of the captured face image, and the detected center line is detected. Disclosed is a technique for detecting the face orientation of a driver based on the above, that is, detecting the face orientation in the left-right direction when the front direction is zero degree based on the distance from the center line to the contour position of the face. There is.

[発明が解決しようとする課題]
特許文献1記載のドライバモニタセンサでは、カメラで運転者の顔を正面から撮影し、予め設定されている正面方向を基準として顔向き度が検出される。
[Problems to be solved by the invention]
In the driver monitor sensor described in Patent Document 1, the driver's face is photographed from the front by a camera, and the degree of face orientation is detected with reference to a preset front direction.

ところで、運転者の着座位置や運転姿勢には個人差がある。運転者が車両の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なる場合、カメラで撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。 By the way, there are individual differences in the seating position and driving posture of the driver. Even when the driver is looking in the front direction of the vehicle, if the seating position and driving posture of the driver are different, the orientation of the driver's face in the image captured by the camera is different for each driver. Is detected by.

また、ドライバモニタセンサが車両に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバモニタセンサのカメラが設置できない場合もある。カメラが運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。 Further, when the driver monitor sensor is retrofitted to the vehicle, the camera of the driver monitor sensor may not be installed at a position where the driver's face can be photographed from the front. When the camera is installed at a position offset from the front of the driver, if the driver's sitting position and driving posture are different, the orientation of the driver's face in the image is likely to be detected in a different orientation for each driver. ..

特許文献1記載のドライバモニタセンサでは、装置側で予め設定されている、基準となる正面方向と、運転者が正面方向を見ているときの顔の向きとにズレが生じていたとしても、このズレが考慮されずに顔向き度が検出される。そのため、特許文献1記載のドライバモニタセンサでは、検出される顔向き度に、運転者が運転しているときの運転者ごとの顔の向きの個人差が反映されておらず、顔向き度の検出精度が低くなるという課題があった。 In the driver monitor sensor described in Patent Document 1, even if there is a deviation between the reference front direction, which is preset on the device side, and the face orientation when the driver is looking at the front direction. The degree of face orientation is detected without considering this deviation. Therefore, in the driver monitor sensor described in Patent Document 1, the detected face orientation does not reflect the individual difference in the face orientation of each driver when the driver is driving, and the face orientation is not reflected. There is a problem that the detection accuracy becomes low.

特開2009−232945号公報Japanese Unexamined Patent Publication No. 2009-232945

課題を解決するための手段及びその効果Means for solving problems and their effects

本発明は上記課題に鑑みなされたものであって、運転者の顔の向き又は視線の方向を用いる処理の精度を高めることができる車載機、運転評価システム、情報処理方法、及びプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and provides an in-vehicle device, a driving evaluation system, an information processing method, and a program capable of improving the accuracy of processing using the direction of the driver's face or the direction of the line of sight. The purpose is.

上記目的を達成するために本開示に係る車載機(1)は、
車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備えていることを特徴としている。
In order to achieve the above object, the in-vehicle device (1) according to the present disclosure is
The acquisition department that acquires the authentication information of the driver who drives the vehicle,
A calculation unit that calculates reference information for the driver's face direction or line-of-sight direction,
The authentication information of each of the drivers acquired by the acquisition unit and the reference information of the direction of each face or the direction of the line of sight of each of the drivers calculated by the calculation unit are associated with each driver. Registration department to register with
An authentication unit that authenticates the driver based on the information registered by the registration unit and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, the certified reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered by the registration unit, and the acquired face of the driver is acquired. It is characterized in that it includes a first processing unit that performs a predetermined process using reference information of the direction of the head or the direction of the line of sight.

上記車載機(1)によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。 According to the in-vehicle device (1), each authentication information of the driver and reference information of each face direction or line-of-sight direction of the driver are registered in association with each other for each driver. A predetermined process is performed using the reference information of the face direction or the line-of-sight direction of each of the registered drivers. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process is accurately executed for each driver. be able to.

また本開示に係る車載機(2)は、上記車載機(1)において、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴としている。 Further, the in-vehicle device (2) according to the present disclosure uses preset reference information of the face direction or the line-of-sight direction when the driver is not authenticated by the authentication unit in the in-vehicle device (1). It is characterized in that it is provided with a second processing unit that performs a predetermined processing.

上記車載機(2)によれば、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、前記認証部により前記運転者が認証されなかった場合でも前記所定の処理を適切に実行することができる。 According to the in-vehicle device (2), when the driver is not authenticated by the authentication unit, a predetermined process is performed using the preset reference information of the face direction or the line-of-sight direction. Even if the driver is not authenticated by the authentication unit, the predetermined process can be appropriately executed.

また本開示に係る車載機(3)は、上記車載機(1)又は(2)において、前記運転者を撮像する撮像部を備え、前記算出部が、前記撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴としている。 Further, the vehicle-mounted device (3) according to the present disclosure includes an imaging unit for imaging the driver in the vehicle-mounted device (1) or (2), and the calculation unit is the driver imaged by the imaging unit. It is characterized in that the reference information of the direction of the driver's face or the direction of the line of sight is calculated from the image of.

上記車載機(3)によれば、前記運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。 According to the in-vehicle device (3), the reference information of the driver's face direction or the line-of-sight direction can be efficiently calculated.

また本開示に係る車載機(4)は、上記車載機(3)において、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された前記運転者の顔の向き又は視線の方向の統計値を含んでいることを特徴としている。 Further, in the in-vehicle device (4) according to the present disclosure, in the in-vehicle device (3), the reference information of the direction of the driver's face or the direction of the line of sight is a plurality of images of the driver captured by the imaging unit. It is characterized in that it includes statistical values of the driver's face direction or line-of-sight direction statistically processed using the above.

上記車載機(4)によれば、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された統計値を含んでいるので、前記運転者の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。なお、前記運転者の顔の向き又は視線の方向の統計値には、例えば、顔の向き又は視線の方向の最頻値、中央値、又は平均値のいずれかを用いることができる。 According to the in-vehicle device (4), the reference information of the driver's face direction or the line-of-sight direction is a statistical value obtained by statistically processing using a plurality of images of the driver captured by the imaging unit. Since it is included, the accuracy of the reference information of the direction of each face or the direction of the line of sight of the driver can be improved. As the statistical value of the driver's face direction or line-of-sight direction, for example, any of the mode value, the median value, or the average value of the face direction or the line-of-sight direction can be used.

また本開示に係る車載機(5)は、上記車載機(3)又は(4)において、前記取得部が、前記撮像部で撮像された前記運転者の画像から前記認証情報を取得するものであることを特徴としている。 Further, in the vehicle-mounted device (5) according to the present disclosure, in the vehicle-mounted device (3) or (4), the acquisition unit acquires the authentication information from the driver's image captured by the imaging unit. It is characterized by being.

上記車載機(5)によれば、前記撮像部を前記認証情報の取得にも用いることができるので、前記認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。 According to the in-vehicle device (5), since the imaging unit can also be used for acquiring the authentication information, it is not necessary to add equipment for acquiring the authentication information, and the device cost can be suppressed. can.

また本開示に係る車載機(6)は、上記車載機(1)〜(5)のいずれかにおいて、前記運転者の顔の向き又は視線の方向の基準情報が、予め設定された顔の向き又は視線の方向の基準からのずれを示す情報を含んでいることを特徴としている。 Further, in the in-vehicle device (6) according to the present disclosure, in any of the in-vehicle devices (1) to (5), the reference information of the driver's face direction or the line-of-sight direction is set in advance. Alternatively, it is characterized by containing information indicating a deviation from the reference in the direction of the line of sight.

上記車載機(6)によれば、前記予め設定された顔の向き又は視線の方向の基準からのずれを補正して、前記所定の処理を実行することができ、前記運転者ごとに所定の処理を精度よく実行することができる。 According to the in-vehicle device (6), the predetermined process can be executed by correcting the deviation from the preset reference of the face direction or the line-of-sight direction, and a predetermined process is performed for each driver. The process can be executed accurately.

また本開示に係る車載機(7)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、前記運転者の脇見判定処理であることを特徴としている。 Further, the vehicle-mounted device (7) according to the present disclosure is characterized in that, in any of the vehicle-mounted devices (1) to (6), the predetermined process is the driver's inattentive determination process.

上記車載機(7)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、前記運転者ごとに脇見判定処理を精度よく実行することができる。 According to the in-vehicle device (7), the driver's inattentiveness determination process is performed using the reference information of the driver's face orientation or the line-of-sight direction, so that the driver's face orientation is performed. Alternatively, the inattentive determination process in consideration of the direction of the line of sight, in other words, the individual difference in the direction of the face or the direction of the line of sight can be executed, and the inattentive determination process can be executed accurately for each driver.

また本開示に係る車載機(8)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、交差点における前記運転者の安全確認動作の判定処理であることを特徴としている。 Further, the vehicle-mounted device (8) according to the present disclosure is characterized in that, in any of the vehicle-mounted devices (1) to (6), the predetermined process is a determination process of the driver's safety confirmation operation at an intersection. It is supposed to be.

上記車載機(8)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向の、換言すれば、顔の向き又は視線の方向の個人差が考慮された、安全確認動作の判定処理を実行することができ、前記運転者ごとに安全確認動作の判定処理を精度よく実行することができる。 According to the in-vehicle device (8), the driver's safety confirmation operation at the intersection is determined by using the reference information of each driver's face direction or line-of-sight direction. It is possible to execute the safety confirmation operation determination process in consideration of individual differences in the direction of the face or the direction of the line of sight, in other words, the direction of the face or the direction of the line of sight, and the safety confirmation is performed for each driver. The operation determination process can be executed with high accuracy.

また本開示に係る運転評価システムは、車両に搭載される車載機から取得した情報に基づいて、前記車両の運転者の運転を評価する運転評価システムであって、
前記車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部とを備えていることを特徴としている。
Further, the driving evaluation system according to the present disclosure is a driving evaluation system that evaluates the driving of the driver of the vehicle based on the information acquired from the in-vehicle device mounted on the vehicle.
An acquisition unit that acquires the authentication information of the driver who drives the vehicle, and
A calculation unit that calculates reference information for the driver's face direction or line-of-sight direction,
The authentication information of each of the drivers acquired by the acquisition unit and the reference information of the direction of each face or the direction of the line of sight of each of the drivers calculated by the calculation unit are associated with each driver. Registration department to register with
An authentication unit that authenticates the driver based on the information registered by the registration unit and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, the certified reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered by the registration unit, and the acquired face of the driver is acquired. It is characterized in that it is provided with a processing unit that performs a predetermined process using reference information of the direction of the head or the direction of the line of sight.

上記運転評価システムによれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理、例えば、運転評価処理を精度よく実行することができる。 According to the driving evaluation system, each authentication information of the driver and reference information of the direction of each face or the direction of the line of sight of the driver are registered in association with each driver, and the registration is performed. Predetermined processing is performed using the reference information of the direction of each face or the direction of the line of sight of the driver. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process, for example, driving evaluation, can be performed for each driver. The process can be executed accurately.

また本開示に係る情報処理方法は、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを含むことを特徴としている。
The information processing method according to this disclosure is
The acquisition step to acquire the authentication information of the driver who drives the vehicle, and
A calculation step for calculating reference information of the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition step is associated with the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation step for each driver. And the registration step to register in the memory
An authentication step for authenticating the driver based on the information registered in the storage unit by the registration step and the authentication information of the driver acquired by the acquisition step.
When the driver is authenticated by the authentication step, the authenticated reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered in the storage unit, and the acquired driver's face is acquired. It is characterized by including a processing step of performing a predetermined processing using reference information of the direction of the line of sight or the direction of the line of sight.

上記情報処理方法によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて前記記憶部に登録し、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。 According to the information processing method, each authentication information of the driver and reference information of each face direction or line-of-sight direction of the driver are associated with each driver and registered in the storage unit. Then, a predetermined process is performed using the reference information of the face direction or the line-of-sight direction of each of the drivers registered in the storage unit. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process is accurately executed for each driver. be able to.

また本開示に係る情報処理プログラムは、
少なくとも1つのコンピュータに、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを実行させることを特徴としている。
The information processing program related to this disclosure is
On at least one computer
The acquisition step to acquire the authentication information of the driver who drives the vehicle, and
A calculation step for calculating reference information of the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition step is associated with the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation step for each driver. And the registration step to register in the memory
An authentication step for authenticating the driver based on the information registered in the storage unit by the registration step and the authentication information of the driver acquired by the acquisition step.
When the driver is authenticated by the authentication step, the authenticated reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered in the storage unit, and the acquired driver's face is acquired. It is characterized in that a processing step of performing a predetermined processing is executed by using the reference information of the direction of the line of sight or the direction of the line of sight.

上記プログラムによれば、少なくとも1つのコンピュータによって、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて前記記憶部に登録され、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が実行される。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる装置又はシステムを実現することができる。 According to the above program, the authentication information of each of the drivers and the reference information of the direction of each face or the direction of the line of sight of the drivers are associated with each other by at least one computer. A predetermined process is executed using the reference information registered in the storage unit and the direction of each face or the direction of the line of sight of the driver registered in the storage unit. Therefore, the predetermined process can be executed so as to reduce the influence of individual differences in the direction of each face or the direction of the line of sight of the driver, and the predetermined process is accurately executed for each driver. A device or system capable of being realized can be realized.

実施の形態に係る車載機の特徴部分を示す機能構成ブロック図の一例である。It is an example of the functional block diagram which shows the characteristic part of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機の要部構成を示すブロック図である。It is a block diagram which shows the composition of the main part of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機が適用される運転評価システムの一例を示す概略構成図である。It is a schematic block diagram which shows an example of the operation evaluation system to which the vehicle-mounted device which concerns on embodiment is applied. 実施の形態に係る車載機のモニタリング部が行う処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation performed by the monitoring unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機の制御部が行う処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation performed by the control unit of the vehicle-mounted device which concerns on embodiment. 実施の形態に係る車載機の制御部が行う処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation performed by the control unit of the vehicle-mounted device which concerns on embodiment. 車載機からサーバ装置に送信されるデータの構造の一例を示す図である。It is a figure which shows an example of the structure of the data transmitted from an in-vehicle device to a server device. 実施の形態に係るサーバ装置の中央処理装置が行う処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of the processing operation performed by the central processing unit of the server device which concerns on embodiment. 別の実施の形態に係る運転評価システムの特徴部分を示す機能構成ブロック図の一例である。It is an example of the functional block diagram which shows the characteristic part of the operation evaluation system which concerns on another embodiment.

以下、本発明に係る車載機、運転評価システム、情報処理方法、及びプログラムの実施の形態を図面に基づいて説明する。 Hereinafter, an in-vehicle device, an operation evaluation system, an information processing method, and an embodiment of a program according to the present invention will be described with reference to the drawings.

[適用例]
図1は、実施の形態に係る車載機の特徴部分を示す機能構成ブロック図の一例である。
車載機10は、例えば、車両2に後付けで搭載される装置であり、車両2の運転者の状態をドライバカメラ21でモニタリングする装置、又は運転者の運転評価に用いるデータを取得して、外部へ送信する装置などとして適用される。
[Application example]
FIG. 1 is an example of a functional configuration block diagram showing a feature portion of the vehicle-mounted device according to the embodiment.
The on-board unit 10 is, for example, a device that is retrofitted to the vehicle 2, and is a device that monitors the state of the driver of the vehicle 2 with the driver camera 21, or acquires data used for the driver's driving evaluation and externally. It is applied as a device to transmit to.

運転者の状態には、運転者の顔の向き、視線の方向、目開度、眠気度合い、及び脇見のうちの少なくともいずれかが含まれている。
運転者の運転評価に用いるデータには、運転者の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかが含まれている。
運転者の運転評価には、例えば、運転者の運転操作行為に関する評価、交差点における安全確認動作に関する評価、運転時の集中状態に関する評価などが含まれる。
The driver's condition includes at least one of the driver's face orientation, gaze direction, eye opening, drowsiness, and inattentiveness.
The data used for the driver's driving evaluation includes at least one of the driver's condition, the position of the vehicle 2, and the behavior of the vehicle 2.
The driver's driving evaluation includes, for example, an evaluation of the driver's driving operation behavior, an evaluation of a safety confirmation operation at an intersection, an evaluation of a concentration state during driving, and the like.

運転者の運転操作行為には、急ハンドル、急加速、急減速、急発進、速度超過、又は衝撃検知などの不適切な運転操作行為が含まれている。
交差点における安全確認動作には、通過した各交差点での運転者の安全確認のタイミング、確認角度、確認時間、又は交差点への進入速度などが含まれている。
運転時の集中状態には、運転者の眠気の検出状態(時間、頻度)、脇見の検出状態(時間、頻度)などが含まれている。
The driver's driving behavior includes improper driving behavior such as sudden steering, sudden acceleration, sudden deceleration, sudden start, overspeed, or impact detection.
The safety confirmation operation at an intersection includes the driver's safety confirmation timing, confirmation angle, confirmation time, or approach speed to the intersection at each intersection that has passed.
The concentrated state during driving includes the driver's drowsiness detection state (time, frequency), inattentive detection state (time, frequency), and the like.

車載機10が搭載される車両2は、特に限定されないが、本実施の形態では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、カーリース事業者からリースして使用する社有車などが対象とされ得る。 The vehicle 2 on which the vehicle-mounted device 10 is mounted is not particularly limited, but in the present embodiment, a vehicle managed by a business operator engaged in various businesses can be targeted. For example, trucks managed by transportation companies, buses managed by bus companies, taxis managed by taxi companies, car sharing vehicles managed by car sharing companies, car rentals managed by car rental companies, owned by companies. Company-owned vehicles that are owned by the company, company-owned vehicles that are leased from a car leasing company, etc. can be targeted.

上記した用途で使用される車両2では、運転者が入れ替わることがある。また、運転者の着座位置(例えば、シート位置など)や運転姿勢は、運転者ごとに個人差がある。
したがって、車載機10のドライバカメラ21で運転者の状態をモニタリングする場合、例えば、運転者が車両2の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21で撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。
In the vehicle 2 used for the above-mentioned purpose, the driver may be replaced. In addition, the seating position (for example, seat position, etc.) and driving posture of the driver vary from driver to driver.
Therefore, when monitoring the driver's condition with the driver camera 21 of the on-board unit 10, for example, even if the driver is looking in the front direction of the vehicle 2, the seating position and the driving posture of the driver are different. The orientation of the driver's face in the image captured by the driver camera 21 is detected in a different orientation for each driver.

また、車載機10が車両2に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバカメラ21を設置できない場合もある。ドライバカメラ21が運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21の画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。 Further, when the vehicle-mounted device 10 is retrofitted to the vehicle 2, the driver camera 21 may not be installed at a position where the driver's face can be photographed from the front. When the driver camera 21 is installed at a position deviated from the front of the driver, the orientation of the driver's face in the image of the driver camera 21 differs for each driver if the seating position and the driving posture of the driver are different. The orientation makes it easier to detect.

したがって、運転者の顔の向き又は視線の方向などを検出して、例えば、運転者の脇見を判定したり、運転者の安全確認動作を判定したりする処理を行う場合に、装置側で予め設定されている正面方向の基準と、運転者が正面方向を見ているときの顔の向き又は視線の方向とにズレが生じることがある。このズレが考慮されずに顔の向き又は視線の方向が検出されると、顔の向き又は視線の方向の検出精度が低くなり、運転者の脇見や安全確認動作の判定精度も低下してしまうことになる。 Therefore, when detecting the direction of the driver's face or the direction of the line of sight, for example, when performing a process of determining the driver's inattentiveness or determining the driver's safety confirmation operation, the device side in advance. There may be a discrepancy between the set reference for the front direction and the direction of the face or the direction of the line of sight when the driver is looking in the front direction. If the direction of the face or the direction of the line of sight is detected without considering this deviation, the detection accuracy of the direction of the face or the direction of the line of sight will be lowered, and the accuracy of determining the driver's inattentiveness and safety confirmation operation will also be lowered. It will be.

本実施の形態に係る車載機10は、運転者の各々を認証するための認証情報と、運転者の各々にとっての顔の向き又は視線の方向の基準情報とを、運転者ごとに対応付けて登録する。また、車載機10は、車両2を運転している運転者を認証し、認証された運転者の顔の向き又は視線の方向の基準情報を用いて、脇見や安全確認動作の判定処理などの所定の処理を行う。このような車載機10によれば、運転者の各々の顔の向き又は視線の方向の個人差による影響を小さくすることができ、運転者ごとに精度の高い処理を実行することができる。 The vehicle-mounted device 10 according to the present embodiment associates the authentication information for authenticating each driver with the reference information of the face direction or the line-of-sight direction for each driver for each driver. to register. Further, the on-board unit 10 authenticates the driver who is driving the vehicle 2, and uses the reference information of the face direction or the line-of-sight direction of the authenticated driver to perform inattentive and safety confirmation operation determination processing and the like. Perform a predetermined process. According to such an in-vehicle device 10, it is possible to reduce the influence of individual differences in the direction of each driver's face or the direction of the line of sight, and it is possible to execute highly accurate processing for each driver.

図1に示すように、車載機10は、ドライバカメラ21、画像取得部22a、認証情報取得部22b、向き検出部22c、算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeを含んで構成されている。また、車載機10は、画像情報記憶部17a、登録情報記憶部17b、及び処理情報記憶部17cを備えている。 As shown in FIG. 1, the on-board unit 10 includes a driver camera 21, an image acquisition unit 22a, an authentication information acquisition unit 22b, an orientation detection unit 22c, a calculation unit 19aa, a registration unit 19ab, an authentication unit 19ac, and a first processing unit 19ad. , And a second processing unit 19ae. Further, the vehicle-mounted device 10 includes an image information storage unit 17a, a registration information storage unit 17b, and a processing information storage unit 17c.

画像取得部22aは、ドライバカメラ21で撮像された画像を取得する。
認証情報取得部22bは、画像取得部22aで取得した画像から、運転者を認証するための認証情報を取得する。例えば、運転者の顔の各器官の特徴点を示すデータなどの顔認証に必要な情報、又は虹彩パターンなどの虹彩認証に必要な情報などを取得する。
The image acquisition unit 22a acquires an image captured by the driver camera 21.
The authentication information acquisition unit 22b acquires authentication information for authenticating the driver from the image acquired by the image acquisition unit 22a. For example, information necessary for face recognition such as data indicating feature points of each organ of the driver's face, or information necessary for iris recognition such as an iris pattern is acquired.

図1に例示した車載機10では、認証情報取得部22bが、ドライバカメラ21で撮像された画像から運転者の認証情報を取得する構成になっているが、この構成に限定されない。認証情報取得部22bの別の形態としては、例えば、車両2のステアリングに設けられた静脈認証センサ、指紋認証センサ、車両2の運転シートに設けられた心拍認証センサ、及び運転者の声を使用する声紋認証センサのうちの少なくとも1つから認証情報を取得する構成などが採用され得る。 In the vehicle-mounted device 10 illustrated in FIG. 1, the authentication information acquisition unit 22b is configured to acquire the driver's authentication information from the image captured by the driver camera 21, but the configuration is not limited to this. As another form of the authentication information acquisition unit 22b, for example, a vein authentication sensor provided on the steering wheel of the vehicle 2, a fingerprint authentication sensor, a heartbeat authentication sensor provided on the driver's seat of the vehicle 2, and a driver's voice are used. A configuration or the like in which authentication information is acquired from at least one of the voiceprint authentication sensors can be adopted.

向き検出部22cは、画像取得部22aで取得した画像から運転者の顔の向き又は視線の方向など、運転者にとっての顔の向き又は視線の方向の基準を算出するために用いるデータを検出する。 The orientation detection unit 22c detects data used for calculating a reference for the driver's face orientation or gaze direction, such as the driver's face orientation or gaze direction, from the image acquired by the image acquisition unit 22a. ..

画像情報記憶部17aには、画像取得部22aで取得した画像のデータ、認証情報取得部22bで取得した認証情報、及び向き検出部22cで検出された運転者の顔の向き又は視線の方向などの画像情報が時系列で記憶される。 In the image information storage unit 17a, the image data acquired by the image acquisition unit 22a, the authentication information acquired by the authentication information acquisition unit 22b, the direction of the driver's face or the direction of the line of sight detected by the orientation detection unit 22c, etc. Image information is stored in chronological order.

算出部19aaは、画像情報記憶部17aに記憶されている画像情報を用いて、運転者の各々の顔の向き又は視線の方向の基準情報を算出する。例えば、各画像から検出された運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角など)のデータを統計処理して算出された最頻値、中央値、又は平均値などを基準情報とすることができる。また、予め設定された顔の向き又は視線の方向の基準(正面向きの基準方向)からのずれ(ずれ角度)を示す情報を算出してもよい。 The calculation unit 19aa calculates the reference information of the direction of each driver's face or the direction of the line of sight by using the image information stored in the image information storage unit 17a. For example, the mode, median, or average value calculated by statistically processing the data of the driver's face direction or line-of-sight direction (yaw angle, pitch angle, etc.) detected from each image is used as a reference. It can be information. In addition, information indicating a deviation (deviation angle) from a preset reference of the face orientation or the line-of-sight direction (frontward reference direction) may be calculated.

また、算出部19aaでは、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されていない運転者の基準情報を算出する処理を行ってもよいし、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されている運転者の基準情報を更新する処理も行ってもよい。 Further, the calculation unit 19aa may perform a process of calculating the reference information of the driver for which the reference information of the direction of the driver's face or the direction of the line of sight is not registered in the registration information storage unit 17b, or the registration information storage. A process of updating the reference information of the driver in which the reference information of the direction of the driver's face or the direction of the line of sight is registered in the unit 17b may also be performed.

登録部19abは、算出部19aaにより算出された運転者の各々の顔の向き又は視線の方向の基準情報と、運転者の各々の認証情報とを、運転者ごとに対応付けて登録情報記憶部17bに登録する。登録情報記憶部17bには、運転者ID、運転者の認証情報、及び運転者の顔の向き又は視線の方向の基準情報が紐付けて記憶されている。運転者IDは、運転者の識別符号であり、登録情報記憶部17bに登録されていない認証情報が車載機10で初めて取得されたときに、その認証情報に対して付与される。 The registration unit 19ab associates the reference information of each driver's face direction or line-of-sight direction calculated by the calculation unit 19aa with each driver's authentication information for each driver, and is a registration information storage unit. Register in 17b. The registration information storage unit 17b stores the driver ID, the driver authentication information, and the reference information of the driver's face direction or line-of-sight direction in association with each other. The driver ID is a driver identification code, and is given to the authentication information when the authentication information not registered in the registration information storage unit 17b is acquired for the first time by the on-board unit 10.

認証部19acは、登録情報記憶部17bに登録された情報と、認証情報取得部22bにより取得された運転者の認証情報とに基づいて、車両2を運転している運転者の認証を行う。 The authentication unit 19ac authenticates the driver who is driving the vehicle 2 based on the information registered in the registration information storage unit 17b and the driver's authentication information acquired by the authentication information acquisition unit 22b.

第1の処理部19adは、認証部19acにより運転者が認証された場合、認証された運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bから取得し、取得した、運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。 When the driver is authenticated by the authentication unit 19ac, the first processing unit 19ad acquires the reference information of the face direction or the line-of-sight direction of the authenticated driver from the registration information storage unit 17b, and acquires the driving. A predetermined process is performed using the reference information of the direction of the person's face or the direction of the line of sight.

第2の処理部は、認証部19acにより運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。
所定の処理は、例えば、運転者の脇見判定処理、又は交差点などにおける運転者の安全確認動作の判定処理などであるが、これらに限定されない。
When the driver is not authenticated by the authentication unit 19ac, the second processing unit performs a predetermined process using the preset reference information of the face direction or the line-of-sight direction.
The predetermined process is, for example, a driver's inattentive determination process, a driver's safety confirmation operation determination process at an intersection, or the like, but is not limited thereto.

このような車載機10によれば、登録部19abにより、運転者の各々の認証情報と、運転者の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録される。そして、認証部19acにより運転者が認証された場合、登録情報記憶部17bに登録された情報から取得した、認証された運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。
したがって、運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように所定の処理を実行することができ、運転者ごとに所定の処理を精度よく実行することが可能となる。
According to such an in-vehicle device 10, the registration unit 19ab registers the authentication information of each driver and the reference information of each driver's face direction or line-of-sight direction in association with each driver. It is registered in the information storage unit 17b. Then, when the driver is authenticated by the authentication unit 19ac, a predetermined process is performed using the reference information of the authenticated driver's face direction or line-of-sight direction acquired from the information registered in the registration information storage unit 17b. Is done.
Therefore, since the predetermined processing is performed using the reference information of each driver's face direction or line-of-sight direction, the influence of individual differences in each driver's face direction or line-of-sight direction is reduced. A predetermined process can be executed, and a predetermined process can be accurately executed for each driver.

[構成例]
図2は、実施の形態に係る車載機10の要部構成を示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
[Configuration example]
FIG. 2 is a block diagram showing a main configuration of the vehicle-mounted device 10 according to the embodiment.
The on-board unit 10 includes a platform unit 11 and a driver monitoring unit 20. Further, the drive recorder unit 30 is connected to the vehicle-mounted device 10.

プラットフォーム部11には、車両2の加速度を検出する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワークを介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声を出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。 The platform unit 11 is equipped with an acceleration sensor 12 that detects the acceleration of the vehicle 2, an angular velocity sensor 13 that detects the rotational angular velocity of the vehicle 2, and a GPS (Global Positioning System) receiving unit 14 that detects the position of the vehicle 2. .. Further, the platform unit 11 includes a communication unit 15 that performs communication processing with an external device via a communication network, a notification unit 16 that outputs a predetermined sound or voice for issuing a warning, a storage unit 17, and an external interface ( External I / F) 18 is equipped. Further, the platform unit 11 is equipped with a control unit 19 that controls the processing operation of each unit.

加速度センサ12は、例えば、XYZ軸の3方向の加速度を検出する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよいが、少なくとも車両2に生じる前後方向の加速度を検出できるものが用いられる。加速度センサ12で検出された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。 The acceleration sensor 12 is composed of, for example, a three-axis acceleration sensor that detects acceleration in three directions of the XYZ axes. As the 3-axis accelerometer, a semiconductor type accelerometer such as a piezoresistive type can be used in addition to the capacitance type. As the acceleration sensor 12, a two-axis or one-axis acceleration sensor may be used, but at least one capable of detecting the acceleration in the front-rear direction generated in the vehicle 2 is used. The acceleration data detected by the acceleration sensor 12 is stored in the RAM 19b of the control unit 19 in association with the detection time.

角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、機械式のジャイロセンサを用いることができる。
The angular velocity sensor 13 is a sensor capable of detecting at least an angular velocity corresponding to rotation around the vertical axis (yaw direction), that is, angular velocity data corresponding to rotation (turning) of the vehicle 2 in the left-right direction, for example, a gyro sensor (yaw rate). It is also called a sensor).
The angular velocity sensor 13 includes a 1-axis gyro sensor around the vertical axis, a 2-axis gyro sensor that detects an angular velocity around the horizontal axis (pitch direction) in the left-right direction, and a horizontal axis around the front-back direction (roll direction). A 3-axis gyro sensor that also detects the angular velocity of the above may be used. As these gyro sensors, in addition to the vibration type gyro sensor, an optical type or a mechanical type gyro sensor can be used.

また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。 Further, regarding the detection direction of the angular velocity around the vertical axis of the angular velocity sensor 13, for example, clockwise may be set in the positive direction and counterclockwise may be set in the negative direction. In this case, if the vehicle 2 turns to the right, positive angular velocity data is detected, and if the vehicle 2 turns to the left, negative angular velocity data is detected. The angular velocity sensor 13 detects the angular velocity in a predetermined cycle (for example, a cycle of several tens of ms), and the detected angular velocity data is stored in the RAM 19b of the control unit 19 in association with the detection time, for example. For the acceleration sensor 12 and the angular velocity sensor 13, an inertial sensor in which these are mounted in one package may be used.

GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置情報(緯度、および経度)を検出する。GPS受信部14で検出された位置情報は、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
また、GPS受信部14で検出された位置情報を用いて、例えば、単位時間あたりの位置の変化を算出して車速を検出することが可能となっている。
The GPS receiving unit 14 receives GPS signals from artificial satellites via the antenna 14a at a predetermined cycle, and detects the position information (latitude and longitude) of the current location. The position information detected by the GPS receiving unit 14 is stored in the RAM 19b of the control unit 19 in association with the detection time. The device for detecting the position of the vehicle 2 is not limited to the GPS receiving unit 14. For example, positioning devices compatible with other satellite positioning systems such as Japan's Quasi-Zenith Satellite, Russia's GLONASS, Europe's Galileo, and China's Compass may be used.
Further, using the position information detected by the GPS receiving unit 14, for example, it is possible to calculate the change in position per unit time and detect the vehicle speed.

通信部15は、通信ネットワークを介して外部装置にデータの出力処理などを行う通信モジュールを含んで構成されている。 The communication unit 15 includes a communication module that performs data output processing or the like to an external device via a communication network.

記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17は、図1に例示した画像情報記憶部17a、登録情報記憶部17b、処理情報記憶部17cを含んで構成されている。また、記憶部17には、例えば、車載機10の各部、又はドライブレコーダ部30から取得したデータなどが記憶されてもよい。 The storage unit 17 is composed of, for example, a removable storage device such as a memory card, or one or more storage devices such as a hard disk drive (HDD) and a solid state drive (SSD). The storage unit 17 includes an image information storage unit 17a illustrated in FIG. 1, a registration information storage unit 17b, and a processing information storage unit 17c. Further, the storage unit 17 may store, for example, data acquired from each unit of the vehicle-mounted device 10 or the drive recorder unit 30.

外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。 The external I / F 18 includes an interface circuit, a connector, and the like for exchanging data and signals with an in-vehicle device such as a drive recorder unit 30.

制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラム、RAM19b又は記憶部17に記憶された各種データを読み出して、前記プログラムを実行する。 The control unit 19 is composed of a microcomputer including a CPU (Central Processing Unit) 19a, a RAM (Random Access Memory) 19b, and a ROM (Read Only Memory) 19c. The control unit 19 performs a process of storing various acquired data in the RAM 19b or the storage unit 17. Further, the control unit 19 reads out the program stored in the ROM 19c, the RAM 19b, or various data stored in the storage unit 17, and executes the program.

制御部19のCPU19aが、図1に例示した算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeの処理を実行する。また、ROM19cに、本発明に係る「プログラム」の一例が格納されている。 The CPU 19a of the control unit 19 executes the processing of the calculation unit 19aa, the registration unit 19ab, the authentication unit 19ac, the first processing unit 19ad, and the second processing unit 19ae illustrated in FIG. Further, an example of the "program" according to the present invention is stored in the ROM 19c.

ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、これら各部を制御するカメラ制御部などを含んで構成されている。
The driver monitoring unit 20 includes a driver camera 21, an image analysis unit 22, and an interface (I / F) 23.
The driver camera 21 includes, for example, a lens unit (not shown), an image sensor unit, a light irradiation unit, a camera control unit that controls each of these units, and the like.

撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。 The image sensor unit includes, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, and the like. The image sensor unit includes an infrared sensor such as a CCD, CMOS, or a photodiode capable of forming an image by receiving light in the visible region and forming an image by receiving infrared rays such as near infrared rays or ultraviolet rays. But it may be. The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged day or night. The driver camera 21 may be a monocular camera or a stereo camera.

カメラ制御部は、例えば、プロセッサなどを含んで構成されている。カメラ制御部が、撮像素子部や光照射部を制御して、光照射部から光(例えば、近赤外線など)を照射し、撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は車両2の運転中に所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。 The camera control unit includes, for example, a processor and the like. The camera control unit controls the image pickup element unit and the light irradiation unit, irradiates light (for example, near infrared rays) from the light irradiation unit, and controls the image pickup element unit to image the reflected light. The driver camera 21 captures an image at a predetermined frame rate (for example, 30 to 60 frames per second) while the vehicle 2 is driving, and the data of the image captured by the driver camera 21 is output to the image analysis unit 22.

画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22が、図1に例示した画像取得部22a、認証情報取得部22b、向き検出部22cとしての処理を実行する。 The image analysis unit 22 is configured to include, for example, an image processing processor, and information on at least one of the driver's face direction, line-of-sight direction, and eye opening degree from the image captured by the driver camera 21. Performs processing to detect (driver's condition). The image analysis unit 22 executes the processing as the image acquisition unit 22a, the authentication information acquisition unit 22b, and the orientation detection unit 22c illustrated in FIG.

画像解析部22で検出された運転者の状態を示すデータ、画像のデータ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11の記憶部17の画像情報記憶部17aに記憶される。 Data indicating the driver's condition, image data, and imaging date / time data detected by the image analysis unit 22 are sent to the platform unit 11 via the interface (I / F) 23, and the storage unit 17 of the platform unit 11 It is stored in the image information storage unit 17a of the above.

画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、基準方向が、運転者の正面方向に設定されてもよいし、ドライバカメラ21の光軸方向に設定されてもよい。 The orientation of the driver's face detected by the image analysis unit 22 is, for example, a pitch angle which is an angle (vertical orientation) around the X-axis (left-right axis) of the driver's face, and a Y-axis of the face ( It may be indicated by the Yaw angle, which is the angle around the vertical axis (horizontal axis), and the Roll angle, which is the angle around the Z axis (front-back axis) of the face (left-right tilt), and is at least left and right. Includes yaw angle to indicate orientation. Further, these angles can be indicated by angles with respect to a predetermined reference direction. For example, the reference direction may be set in the front direction of the driver or in the optical axis direction of the driver camera 21. ..

また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。 Further, the direction of the driver's line of sight detected by the image analysis unit 22 is, for example, the direction of the driver's face detected from the image and information on the eye region (position of the inner corner of the eye, the outer corner of the eye, or the pupil). It is estimated from the relationship with and can be indicated by a line-of-sight vector V (three-dimensional vector) on three-dimensional coordinates. The line-of-sight vector V is, for example, a pitch angle which is an angle (up and down direction) around the X axis (left and right axis) of the driver's face, and a yaw which is an angle (left and right direction) around the Y axis (up and down axis) of the face. It may be estimated from at least one of the angle and the roll angle (left-right tilt) around the Z-axis (front-back axis) of the face and the information of the eye area. Further, the line-of-sight vector V shows a part of the values of the three-dimensional vector in common with the value of the vector of the face orientation (for example, the origin of the three-dimensional coordinates is common), or uses the vector of the face orientation as a reference. It may be indicated by the relative angle (relative value of the vector of the direction of the face).

また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。 The driver's eye opening detected by the image analysis unit 22 is, for example, information on the driver's eye region detected from the image (the inner corner of the eye, the outer corner of the eye, the positions of the upper and lower eyelids, the position of the pupil, and the like. ) Is estimated.

プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。 The drive recorder unit 30 is connected to the external I / F 18 of the platform unit 11. The drive recorder unit 30 includes an outside camera 31 and an inside camera 32.

車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。 The outside camera 31 is a camera that captures an image of the front of the vehicle 2, and the inside camera 32 is a camera that captures an image of the interior of the vehicle 2. The outside camera 31 and the inside camera 32 may be composed of, for example, a visible light camera, but may be composed of a near infrared camera or the like.

車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成としてもよい。 The out-of-vehicle camera 31 and the in-vehicle camera 32 each capture an image at a predetermined frame rate (for example, 30 to 60 frames per second), and the images captured by the out-of-vehicle camera 31 and the in-vehicle camera 32 and data such as the imaging date and time are stored in the platform unit. It is sent to 11 and stored in the RAM 19b or the storage unit 17 of the platform unit 11. The drive recorder unit 30 may be configured to include only the external camera 31.

車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成にすることが可能である。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。 The in-vehicle device 10 can have a compact configuration in which the platform unit 11 and the driver monitoring unit 20 are housed in one housing. In that case, the location of the vehicle-mounted device 10 installed in the vehicle is not particularly limited as long as the driver camera 21 can capture at least the field of view including the driver's face. For example, it may be installed near the center of the dashboard of the vehicle 2, near the steering wheel column, near the instrument panel, near the rearview mirror, or at the A-pillar portion.

また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。また、車載機10の電源は、例えば、車両2のアクセサリー電源から供給される。 In addition, information including the specifications of the driver camera 21 (for example, the angle of view, the number of pixels (vertical x horizontal), etc.) and the position / orientation (for example, the mounting angle, the distance from a predetermined origin (the center position of the handle, etc.), etc.) is the driver. It may be stored in the monitoring unit 20 or the platform unit 11. Further, the driver monitoring unit 20 may be configured separately from the platform unit 11 in addition to the form of being integrated with the platform unit 11. Further, the power supply for the vehicle-mounted device 10 is supplied from, for example, the accessory power supply for the vehicle 2.

図3は、実施の形態に係る車載機10が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10から取得したデータを用いて、各運転者3の運転評価を行う、少なくとも1つ以上のサーバ装置40とを含んで構成されている。
FIG. 3 is a schematic configuration diagram showing an example of an operation evaluation system to which the vehicle-mounted device 10 according to the embodiment is applied.
The driving evaluation system 1 is a system for evaluating the safety confirmation operation of the driver 3 who is in the vehicle 2, and is an in-vehicle device 10 mounted on at least one or more vehicles 2 and each in-vehicle device 10. It is configured to include at least one or more server devices 40 that evaluate the operation of each driver 3 using the data acquired from.

車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。 The vehicle-mounted device 10 and the server device 40 are configured to be able to communicate with each other via the communication network 4. The communication network 4 may include a wireless communication network such as a mobile telephone network (3G / 4G) including a base station or a wireless LAN (Local Area Network), a wired communication network such as a public telephone network, the Internet, or a dedicated network. It may include a telecommunications line such as.

車載機10は、車両2の運転者3の運転評価に用いるデータを取得し、所定のタイミングでサーバ装置40に送信する。車載機10からサーバ装置40に送信されるデータには、車載機10で検出された運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかのデータが含まれている。車両2の挙動を示すデータには、車載機10で検出された、車両2に生じる加速度、又は角速度のデータが含まれる。 The vehicle-mounted device 10 acquires data used for driving evaluation of the driver 3 of the vehicle 2 and transmits it to the server device 40 at a predetermined timing. The data transmitted from the vehicle-mounted device 10 to the server device 40 includes at least one of the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2 detected by the vehicle-mounted device 10. There is. The data showing the behavior of the vehicle 2 includes the data of the acceleration or the angular velocity generated in the vehicle 2 detected by the vehicle-mounted device 10.

また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータであってもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などであってもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。 Further, the terminal device 80 of the business operator that manages the vehicle 2 (hereinafter, referred to as the business operator terminal) is configured to be able to communicate with the server device 40 via the communication network 4. The business terminal 80 may be a personal computer having a communication function, or a mobile information terminal such as a mobile phone, a smartphone, or a tablet device. Further, the operator terminal 80 may be configured to be able to communicate with the vehicle-mounted device 10 via the communication network 4.

サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
The server device 40 includes a communication unit 41, a server computer 50, and a storage unit 60, and these are connected via a communication bus 42.
The communication unit 41 is composed of a communication device for realizing transmission / reception of various data and signals to and from the vehicle-mounted device 10 and the business terminal 80 via the communication network 4.

サーバコンピュータ50は、1つ以上のCPUを含んで構成される中央処理装置51と、制御プログラム53が記憶されたメインメモリ52とを含んで構成されている。中央処理装置51は、メインメモリ52中の制御プログラム53に従って、運転評価などの処理を実行するようになっている。 The server computer 50 includes a central processing unit 51 including one or more CPUs, and a main memory 52 in which the control program 53 is stored. The central processing unit 51 executes processing such as operation evaluation according to the control program 53 in the main memory 52.

記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報が記憶される運転者情報記憶部63を含んで構成されている。
また、車載機10の登録情報記憶部17bに登録された情報が、サーバ装置40に所定のタイミングで送信される。運転者情報記憶部63には、各車載機10から取得した、登録情報記憶部17bの登録情報が記憶される。
The storage unit 60 is composed of one or more large-capacity storage devices such as a hard disk drive and a solid state drive, and stores information of the data storage unit 61, the evaluation data storage unit 62, and the driver 3. It is configured to include an information storage unit 63.
Further, the information registered in the registration information storage unit 17b of the vehicle-mounted device 10 is transmitted to the server device 40 at a predetermined timing. The driver information storage unit 63 stores the registration information of the registration information storage unit 17b acquired from each on-board unit 10.

運転評価システム1では、サーバ装置40が、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかを含むデータを記憶ユニット60のデータ蓄積部61に蓄積する。所定の事象が検出されたときには、例えば、車載機10で車両2の交差点通過が検出されたとき、又は車載機10で運転者3の脇見が検出されたときなどが含まれる。 In the driving evaluation system 1, at least one of the state of the driver 3, the position of the vehicle 2, and the behavior of the vehicle 2 transmitted by the server device 40 when a predetermined event is detected from each in-vehicle device 10. Data including any of them is stored in the data storage unit 61 of the storage unit 60. When a predetermined event is detected, for example, when the vehicle-mounted device 10 detects the passage of the vehicle 2 at an intersection, or when the vehicle-mounted device 10 detects the inattentiveness of the driver 3.

サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における安全確認動作に関する評価が含まれているが、さらに運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。 The server device 40 uses the data of each on-board unit 10 stored in the data storage unit 61 to evaluate the operation of each driver 3. The driving evaluation item includes an evaluation regarding a safety confirmation operation at an intersection, but may further include an evaluation regarding a driving operation action, an evaluation regarding a concentration state during driving, and the like.

サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の運転評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を行う。 The server device 40 may execute the driving evaluation process of each item after the one-day driving of each vehicle 2 is completed by using the data acquired from each vehicle-mounted device 10, or the server device 40 may execute the driving evaluation processing of each item at regular intervals. The evaluation process of each item may be executed within the fixed period, and the execution timing of the operation evaluation process is not particularly limited. Then, the server device 40 performs a process of storing the operation evaluation data of each driver 3 obtained in the operation evaluation process in the evaluation data storage unit 62 of the storage unit 60.

また、サーバ装置40は、クラウドサービスを提供できるように構成されている。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。 Further, the server device 40 is configured to be able to provide a cloud service. For example, the server device 40 may be composed of a server system including a Web server, an application server, and a database server. The Web server performs processing such as an access request from the browser of the business terminal 80. The application server accesses the database server, for example, in response to a request from the Web server, and performs processing such as searching for data necessary for processing and extracting data. The database server manages various data acquired from the in-vehicle device 10, for example, and performs processing such as searching, extracting, and saving the data in response to a request from the application server.

例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理し、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。 For example, the server device 40 processes various requests requested from the browser of the business operator terminal 80, for example, a login to a website, a request for sending a driving evaluation report, and the like, and creates a processing result, for example, through the browser. The data of the operation evaluation report is transmitted to the business operator terminal 80, and a process of displaying the operation evaluation report on the display screen of the business operator terminal 80 is executed.

事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。 The business operator confirms the driving evaluation report of each driver 3 displayed on the display screen of the business operator terminal 80, and gives guidance to each driver 3 to improve safety awareness. By providing such guidance, it is possible to raise the safety awareness of the driver 3 and reduce the risk of accidents.

[動作例]
図4は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
[Operation example]
FIG. 4 is a flowchart showing a processing operation performed by the driver monitoring unit 20 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, at the timing when an image is captured by the driver camera 21 (for example, every frame or every frame at a predetermined interval).

まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。 First, the image analysis unit 22 acquires the image captured by the driver camera 21 (step S1).

次に画像解析部22は、取得した画像から運転者の顔(例えば、顔の領域)を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。例えば、顔の局所的な領域の明暗差(輝度差)、又はエッジ強度、これら局所的領域間の関連性などを特徴量として検出し、画像から顔の領域を探索する処理を実行してもよい。 Next, the image analysis unit 22 performs a process of detecting the driver's face (for example, a face region) from the acquired image (step S2). The method for detecting a face from an image is not particularly limited, but it is preferable to adopt a method for detecting a face at high speed and with high accuracy. For example, even if the difference in brightness (luminance difference) of a local region of the face, the edge intensity, the relationship between these local regions, etc. is detected as a feature amount, and the process of searching the facial region from the image is executed. good.

画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS3)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。 The image analysis unit 22 performs a process of detecting the position and shape of facial organs such as eyes, nose, mouth, and eyebrows from the facial region detected in step S2 (step S3). The method for detecting the facial organs from the facial region in the image is not particularly limited, but it is preferable to adopt a method capable of detecting the facial organs at high speed and with high accuracy. For example, a method may be adopted in which the image analysis unit 22 creates a three-dimensional face shape model, fits the three-dimensional face shape model to the face region on the two-dimensional image, and detects the position and shape of each organ of the face. According to this method, it is possible to accurately detect the position and shape of each organ of the face regardless of the installation position of the driver camera 21 and the orientation of the face in the image. As a technique for fitting a three-dimensional face shape model to a human face in an image, for example, the technique described in Japanese Patent Application Laid-Open No. 2007-249280 can be applied, but the technique is not limited thereto.

次に画像解析部22は、ステップS3で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS4)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角のうちの少なくともヨー角を運転者の顔の向きに関する情報として検出することが好ましい。 Next, the image analysis unit 22 detects the orientation of the driver's face based on the position and shape data of each organ of the face obtained in step S3 (step S4). For example, the pitch angle of vertical rotation (X-axis), the yaw angle of horizontal rotation (Y-axis), and the roll angle of total rotation (Z-axis) included in the parameters of the above three-dimensional face shape model. It is preferable to detect at least the yaw angle as information regarding the orientation of the driver's face.

次に画像解析部22は、ステップS4で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS5)。 Next, the image analysis unit 22 determines the orientation of the driver's face obtained in step S4 and the position and shape of the driver's facial organs obtained in step S3, particularly the characteristic points of the eyes (outer corners of eyes, inner corners of eyes, and pupils). The direction of the line of sight is detected based on the position and shape (step S5).

視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(例えば、目尻、目頭、及び瞳孔の相対位置、強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、又はテクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、上記した3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線の方向として検出してもよい。 The direction of the line of sight is, for example, the features of the image of the eye in various face directions and the direction of the line of sight (for example, the relative positions of the outer corner of the eye, the inner corner of the eye, and the pupil, the sclera (so-called white eye) part and the iris (so-called black eye) part. Relative position, shading, texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. Alternatively, using the fitting result of the above-mentioned three-dimensional face shape model, the size and center position of the eyeball are estimated from the size and orientation of the face and the position of the eyes, and the position of the pupil is detected to detect the center of the eyeball. The vector connecting the center of the pupil and the center of the pupil may be detected as the direction of the line of sight.

次に画像解析部22は、ステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、まぶた)の位置や形状に基づいて、目開度を検出する(ステップS6)。 Next, the image analysis unit 22 detects the eye opening based on the position and shape of the driver's facial organs obtained in step S3, particularly the position and shape of the feature points of the eyes (outer corners of the eyes, inner corners of the eyes, pupils, eyelids). (Step S6).

次に画像解析部22は、運転者の認証情報として、顔認証情報を取得する(ステップS7)。顔認証情報には、例えば、ステップS3で検出した、目、鼻、口、眉などの顔器官の位置や形状に関する情報が含まれる。なお、ステップS7において、顔認証情報に代えて、虹彩パターンなどの虹彩認証に必要な情報を取得してもよい。 Next, the image analysis unit 22 acquires face recognition information as driver authentication information (step S7). The face recognition information includes, for example, information regarding the position and shape of facial organs such as eyes, nose, mouth, and eyebrows detected in step S3. In step S7, instead of the face authentication information, information necessary for iris authentication such as an iris pattern may be acquired.

次に画像解析部22は、ステップS4で検出した運転者の顔の向きと、ステップS5で検出した運転者の視線の方向と、ステップS6で検出した運転者の目開度と、ステップS7で取得した顔認証情報と、運転者の画像と、撮像時刻とを対応付けて、画像情報としてプラットフォーム部11に送信する(ステップS7)。その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。 Next, the image analysis unit 22 determines the direction of the driver's face detected in step S4, the direction of the driver's line of sight detected in step S5, the eye opening of the driver detected in step S6, and step S7. The acquired face recognition information, the driver's image, and the imaging time are associated with each other and transmitted as image information to the platform unit 11 (step S7). After that, the image analysis unit 22 returns to step S1 and repeats the process.

図5は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバモニタリング部20から画像情報を取得するタイミングで実行される。 FIG. 5 is a flowchart showing a processing operation performed by the control unit 19 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, at the timing of acquiring image information from the driver monitoring unit 20.

まず、制御部19は、ドライバモニタリング部20から画像情報を取得する(ステップS11)。画像情報は、図4に示すステップS7で、ドライバモニタリング部20から送信された情報である。 First, the control unit 19 acquires image information from the driver monitoring unit 20 (step S11). The image information is the information transmitted from the driver monitoring unit 20 in step S7 shown in FIG.

次に制御部19は、ドライバモニタリング部20から取得した画像情報を画像情報記憶部17aに記憶する(ステップS12)。 Next, the control unit 19 stores the image information acquired from the driver monitoring unit 20 in the image information storage unit 17a (step S12).

次に制御部19は、画像情報記憶部17aに記憶された画像情報から顔認証情報を取得する(ステップS13)。 Next, the control unit 19 acquires face recognition information from the image information stored in the image information storage unit 17a (step S13).

次に制御部19は、ステップS13で取得した顔認証情報と、登録情報記憶部17bに登録されている各運転者の顔認証情報とを照合する処理を行う(ステップS14)。 Next, the control unit 19 performs a process of collating the face authentication information acquired in step S13 with the face authentication information of each driver registered in the registration information storage unit 17b (step S14).

次に制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されているか否かを判断する(ステップS15)。 Next, the control unit 19 determines whether or not the face authentication information acquired in step S13 is registered in the registration information storage unit 17b (step S15).

制御部19は、ステップS15において、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていると判断すれば、次に登録情報記憶部17bから、当該顔認証情報に対応付けて記憶されている、運転者の顔の向き又は視線の方向の基準情報を読み出す処理を行う(ステップS16)。 If the control unit 19 determines in step S15 that the face recognition information acquired in step S13 is registered in the registration information storage unit 17b, the control unit 19 then associates the face recognition information with the face recognition information from the registration information storage unit 17b. The process of reading the reference information of the driver's face direction or the line-of-sight direction stored in the above is performed (step S16).

制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、ステップS16で読み出した、当該運転者の顔の向き又は視線の方向の基準情報に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS17)。
例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、運転者の顔の向き又は視線の方向の基準情報(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
The control unit 19 sets the reference of the face orientation or the line-of-sight direction used for the inattentive determination to the reference information of the driver's face orientation or the line-of-sight direction read out in step S16, and sets the image in step S12. The inattentive determination process is executed using the image information stored in the information storage unit 17a (step S17).
For example, the driver's face direction or line-of-sight direction (yaw angle or pitch angle) included in the image information and the driver's face direction or line-of-sight direction reference information (yaw angle or pitch angle). The angle difference with and from is calculated, and the presence or absence of inattentiveness is determined based on whether or not the calculated angle difference exceeds the threshold value of a predetermined inattentiveness determination angle (yaw angle or pitch angle).

次に制御部19は、脇見が検出された否かを判定する(ステップS18)。
制御部19は、ステップS18において、脇見が検出されていないと判定すれば、その後処理を終える一方、ステップS18において、脇見が検出されたと判定すれば、次に、報知部16から脇見が検出されたことを報知する処理を行う(ステップS19)。
Next, the control unit 19 determines whether or not inattentiveness is detected (step S18).
If the control unit 19 determines in step S18 that no inattentiveness has been detected, then the process ends, while if it determines in step S18 that inattentiveness has been detected, then the inattentiveness is detected by the notification unit 16. A process for notifying the fact is performed (step S19).

制御部19は、ステップS19の報知処理を行った後、脇見の検出データを処理情報記憶部17cに記憶する(ステップS20)。脇見の検出データには、例えば、脇見が検出された画像、その撮像日時、その時の車両の位置、運転者IDなどの情報が含まれている。 After performing the notification processing in step S19, the control unit 19 stores the inattentive detection data in the processing information storage unit 17c (step S20). The inattentive detection data includes, for example, information such as an image in which the inattentiveness is detected, the date and time of imaging thereof, the position of the vehicle at that time, and the driver ID.

次に制御部19は、処理情報記憶部17cに記憶された脇見の検出データをサーバ装置40へ送信する(ステップS21)。 Next, the control unit 19 transmits the inattentive detection data stored in the processing information storage unit 17c to the server device 40 (step S21).

図6は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(少なくとも前後)、角速度(ヨー)、運転者ID、運転者画像、車外画像、及び車両の位置情報(緯度、及び経度)、及び走行速度などが含まれている。なお、サーバ装置40に送信されるデータの構造は、図6に示した構造に限定されるものではないが、少なくとも車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者ID、及び運転者画像が含まれていることが好ましい。
FIG. 6 is a diagram showing an example of the structure of data transmitted from the vehicle-mounted device 10 to the server device 40.
The data transmitted from the in-vehicle device 10 to the server device 40 includes the identification information (serial number, etc.) of the in-vehicle device 10, the identification code of the inattentiveness, the detection date and time of the inattentiveness, and the orientation of the driver's face (pitch, yaw, and roll). ), Line-of-sight direction (pitch and yaw), eye opening (right eye and left eye), vehicle acceleration (at least front and rear), angular velocity (yaw), driver ID, driver image, outside image, and vehicle position Information (latitude and longitude), running speed, etc. are included. The structure of the data transmitted to the server device 40 is not limited to the structure shown in FIG. 6, but at least the identification information (serial number, etc.) of the on-board unit 10, the inattentive identification code, and the inattentive detection are detected. It is preferable that the date and time, the driver ID, and the driver image are included.

また、車両2が交差点を通過したときも、同様のデータがサーバ装置40に送信される。その場合は、図6に示す脇見の識別記号、及び脇見の検出日時が、交差点通過の識別記号、及び交差点通過の日時になる。 Further, when the vehicle 2 passes through the intersection, the same data is transmitted to the server device 40. In that case, the inattentive identification code and the inattentive detection date and time shown in FIG. 6 become the intersection passage identification code and the intersection passage date and time.

また一方、ステップS15において、制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていないと判断すれば、次にステップS13で取得した顔認証情報に、運転者を識別するためのID(識別符号)を付与して、登録情報記憶部17bに登録する処理を行う(ステップS22)。 On the other hand, in step S15, if the control unit 19 determines that the face recognition information acquired in step S13 is not registered in the registration information storage unit 17b, the control unit 19 then operates the face recognition information acquired in step S13. A process of assigning an ID (identification code) for identifying a person and registering the person in the registration information storage unit 17b is performed (step S22).

次に制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、車載機10の取付け時に予め設定された顔の向き又は視線の方向の初期値に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS23)。
脇見判定処理は、例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、顔の向き又は視線の方向の初期値(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
Next, the control unit 19 sets the reference of the face orientation or the line-of-sight direction used for the inattentive determination to the initial value of the face orientation or the line-of-sight direction preset at the time of mounting the vehicle-mounted device 10, and steps S12. In the image information storage unit 17a, the inattentive determination process is executed using the image information stored in the image information storage unit 17a (step S23).
The inattentive determination process includes, for example, the driver's face orientation or line-of-sight direction (yaw angle or pitch angle) included in the image information, and the initial value of the face orientation or line-of-sight direction (yaw angle or pitch). The angle difference from the angle) is calculated, and the presence or absence of inattentiveness is determined based on whether or not the calculated angle difference exceeds the threshold value of the predetermined inattentiveness determination angle (yaw angle or pitch angle).

その後、制御部19は、上記したステップS18〜S21の処理を実行して、処理を終える。 After that, the control unit 19 executes the processes of steps S18 to S21 described above to finish the process.

図7は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、運転者ごとの顔の向き又は視線の方向の基準を算出する所定のタイミングで実行される。 FIG. 7 is a flowchart showing a processing operation performed by the control unit 19 in the vehicle-mounted device 10 according to the embodiment. This processing operation is executed, for example, at a predetermined timing for calculating the reference of the face direction or the line-of-sight direction for each driver.

まず制御部19は、画像情報記憶部17aに記憶された画像情報を用いて、運転者ごとの顔の向き又は視線の方向の基準を算出する所定の算出タイミングになったか否かを判断する(ステップS31)。 First, the control unit 19 uses the image information stored in the image information storage unit 17a to determine whether or not the predetermined calculation timing for calculating the reference of the face direction or the line-of-sight direction for each driver has been reached ( Step S31).

所定の算出タイミングになったか否かは、車載機10の電源がオンされてから所定期間が経過したか否か、車両2からイグニッションスイッチ(始動スイッチ)のオフ信号を取得したか否か、又は画像情報記憶部17aに所定フレーム数もしくは所定容量の画像が記憶されたか否かにより判断してもよい。 Whether or not the predetermined calculation timing has been reached depends on whether or not a predetermined period has passed since the power of the on-board unit 10 was turned on, whether or not the ignition switch (starting switch) off signal was acquired from the vehicle 2, or whether or not the ignition switch (starting switch) was turned off. It may be determined whether or not an image having a predetermined number of frames or a predetermined capacity is stored in the image information storage unit 17a.

または、所定の算出タイミングになったか否かは、車両2の特定の走行状態が所定期間継続したか否かにより判断してもよい。車両2の特定の走行状態は、例えば、車速が一定範囲の状態(定速走行の状態)、又は車両2で検出される角速度が直進状態を示す範囲内にある状態(直進走行の状態)などでもよい。 Alternatively, whether or not the predetermined calculation timing has been reached may be determined by whether or not the specific traveling state of the vehicle 2 has continued for a predetermined period. The specific traveling state of the vehicle 2 is, for example, a state in which the vehicle speed is within a certain range (a state of constant speed traveling), or a state in which the angular velocity detected by the vehicle 2 is within a range indicating a straight-ahead state (a state of straight-ahead traveling). It may be.

制御部19は、ステップS31において所定の算出タイミングになったと判断すれば、次に、登録情報記憶部17bから、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う(ステップS32)。
登録情報記憶部17bには、運転者IDと、運転者の認証情報と、運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録されるが、運転者の顔の向き又は視線の方向の基準情報が算出されていない(未登録の)段階では、運転者IDと、運転者の認証情報とが対応付けて登録されている。ステップS32では、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う。
If the control unit 19 determines that the predetermined calculation timing has been reached in step S31, the control unit 19 then obtains the driver ID in which the reference information of the driver's face direction or the line-of-sight direction is not registered from the registration information storage unit 17b. The reading process is performed (step S32).
The driver ID, the driver's authentication information, and the reference information of the driver's face direction or the line-of-sight direction are registered in the registration information storage unit 17b in association with each other. At the stage where the reference information of the line-of-sight direction is not calculated (unregistered), the driver ID and the driver's authentication information are registered in association with each other. In step S32, a process is performed in which the driver ID in which the reference information of the driver's face direction or the line-of-sight direction is not registered is read out.

次に制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったか否かを判断し(ステップS33)、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったと判断すれば、ステップS34の処理に進む。 Next, the control unit 19 determines whether or not there is a driver ID in which the reference information of the driver's face direction or line-of-sight direction is not registered (step S33), and determines whether or not there is a driver ID in the driver's face direction or line-of-sight direction. If it is determined that there is a driver ID whose reference information is not registered, the process proceeds to step S34.

制御部19は、ステップS34において、画像情報記憶部17aに記憶されている画像情報から顔認証情報を取得する処理を行う。 In step S34, the control unit 19 performs a process of acquiring face recognition information from the image information stored in the image information storage unit 17a.

次に制御部19は、登録情報記憶部17bから読み出した当該運転者IDと対応付けられた顔認証情報と、画像情報記憶部17aから取得した顔認証情報とを照合する処理を行う(ステップS35)。 Next, the control unit 19 performs a process of collating the face recognition information associated with the driver ID read from the registration information storage unit 17b with the face recognition information acquired from the image information storage unit 17a (step S35). ).

次に制御部19は、照合OKか否か、すなわち、顔認証情報が一致しているか否かを判断し(ステップS36)、照合OKと判断すれば、ステップS37の処理に進む。 Next, the control unit 19 determines whether or not the verification is OK, that is, whether or not the face authentication information matches (step S36), and if it is determined that the verification is OK, the process proceeds to step S37.

制御部19は、ステップS37において、画像情報記憶部17aから、ステップS36で一致したと判断された顔認証情報と対応付けられている画像情報を読み込み、これら画像情報から当該運転者の顔の向き又は視線の方向の基準情報を算出する処理を行う。 In step S37, the control unit 19 reads from the image information storage unit 17a the image information associated with the face recognition information determined to match in step S36, and from these image information, the orientation of the driver's face. Alternatively, a process of calculating reference information in the direction of the line of sight is performed.

画像情報には、複数の画像から検出された運転者の顔の向き又は視線の方向などの情報(ヨー角、ピッチ角など)が含まれている。制御部19は、例えば、複数の画像から検出された運転者の顔の向き又は視線の方向(ヨー角、ピッチ角など)の最頻値、平均値、又は中央値を算出して、これら値のいずれかを運転者の顔の向き又は視線の方向の基準値としてもよい。 The image information includes information (yaw angle, pitch angle, etc.) such as the direction of the driver's face or the direction of the line of sight detected from a plurality of images. The control unit 19 calculates, for example, the mode, average, or median of the driver's face direction or line-of-sight direction (yaw angle, pitch angle, etc.) detected from a plurality of images, and these values. Either of the above may be used as a reference value for the direction of the driver's face or the direction of the line of sight.

運転者の顔の向き又は視線の方向の基準情報は、運転者の顔の向き又は視線の方向を示す角度情報、例えば、ヨー角、ピッチ角、及びロール角のうちの少なくとも1つの角度情報の最頻値でもよいし、中央値でもよいし、平均値でもよいが、最頻値が好ましい。また、運転者の顔の向き又は視線の方向の基準情報に、運転者の顔の各器官の位置に関する最頻値、中央値、又は平均値を含んでもよい。 The reference information of the driver's face direction or the line-of-sight direction is the angle information indicating the driver's face direction or the line-of-sight direction, for example, the angle information of at least one of the yaw angle, the pitch angle, and the roll angle. It may be the mode, the median, or the average, but the mode is preferred. In addition, the reference information of the direction of the driver's face or the direction of the line of sight may include the mode, median, or average value for the position of each organ of the driver's face.

次に制御部19は、ステップS37で算出された、運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bに登録する処理を行う(ステップS38)。登録情報記憶部17bには、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録される。 Next, the control unit 19 performs a process of registering the reference information of the driver's face direction or the line-of-sight direction calculated in step S37 in the registration information storage unit 17b (step S38). In the registration information storage unit 17b, the driver ID, the driver authentication information, and the reference information of the driver's face direction or line-of-sight direction calculated in step S37 are registered in association with each other.

次に制御部19は、登録情報記憶部17bに登録された情報、すなわち、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とを含む登録情報をサーバ装置40へ送信する(ステップS39)。なお、登録情報を別のタイミングでサーバ装置40へ送信してもよい。サーバ装置40では、登録情報を受信して、運転者情報記憶部63に記憶する。運転者情報記憶部63には、各車載機10から受信した登録情報が記憶される。 Next, the control unit 19 uses the information registered in the registration information storage unit 17b, that is, the driver ID, the driver authentication information, and the reference of the driver's face direction or line-of-sight direction calculated in step S37. The registration information including the information is transmitted to the server device 40 (step S39). The registration information may be transmitted to the server device 40 at another timing. The server device 40 receives the registration information and stores it in the driver information storage unit 63. The driver information storage unit 63 stores the registration information received from each on-board unit 10.

その後、制御部19は、ステップS33の処理に戻り、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあるか否かを判断し、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあると判断すれば、ステップS34〜39の処理を繰り返す。すなわち、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDごと(換言すれば、運転者ごと)に顔の向き又は視線の方向の基準情報を登録する処理、及び登録情報をサーバ装置40へ送信する処理を繰り返す。 After that, the control unit 19 returns to the process of step S33, determines whether or not there is a driver ID in which the reference information of the driver's face direction or the line-of-sight direction is not registered, and determines whether or not there is a driver ID, and the driver's face direction or If it is determined that there is an unregistered driver ID in the reference information of the line-of-sight direction, the processes of steps S34 to 39 are repeated. That is, the process and registration of registering the reference information of the face direction or the line-of-sight direction for each driver ID (in other words, for each driver) in which the reference information of the driver's face direction or the line-of-sight direction is not registered. The process of transmitting the information to the server device 40 is repeated.

ステップS33において、制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがないと判断すれば、その後処理を終える。 In step S33, if the control unit 19 determines that there is no unregistered driver ID in the reference information of the driver's face direction or the line-of-sight direction, the control unit 19 ends the process thereafter.

図8は、実施の形態に係るサーバ装置40の中央処理装置51が行う処理動作の一例を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS41)。
FIG. 8 is a flowchart showing an example of a processing operation performed by the central processing unit 51 of the server device 40 according to the embodiment.
The central processing unit 51 determines whether or not the data transmitted from the vehicle-mounted device 10 has been received (step S41).

中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS42)。 If the central processing unit 51 determines that the data has been received from the vehicle-mounted device 10, then the data received from the vehicle-mounted device 10 is stored in the data storage unit 61 in association with the identification information of the vehicle-mounted device 10 (step). S42).

その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS43)。運転者の安全運転行動の評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。 After that, the central processing unit 51 determines whether or not it is the timing to execute the evaluation of the driver's safe driving behavior (step S43). Whether or not it is the timing to execute the evaluation of the driver's safe driving behavior may be determined by, for example, whether or not a signal indicating the end of driving of the vehicle 2 is received from the vehicle-mounted device 10.

中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングではないと判断すればステップS41に戻る。一方、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を開始する(ステップS44)。 If the central processing unit 51 determines that it is not the timing to execute the evaluation of the driver's safe driving behavior, the central processing unit 51 returns to step S41. On the other hand, if the central processing unit 51 determines that it is time to evaluate the driver's safe driving behavior, the central processing unit 51 performs the evaluation processing of the safety confirmation operation at the intersection of the driver 3 of the vehicle 2 on which the on-board unit 10 is mounted. Start (step S44).

次に中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS45)。なお、交差点通過時のデータは、図6に示したデータの構造と同様に構成され、交差点を通過する期間(交差点通過する前後数十秒程度)のデータを取得する。 Next, the central processing unit 51 acquires data from the data storage unit 61 when the vehicle-mounted device 10 passes through the intersection (step S45). The data at the time of passing through the intersection is configured in the same manner as the data structure shown in FIG. 6, and the data of the period of passing through the intersection (about several tens of seconds before and after passing through the intersection) is acquired.

次に中央処理装置51は、運転者情報記憶部63に登録されている各運転者の顔の向き又は視線の方向の基準情報の中に、ステップS45で取得した交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があるか否かを判断する(ステップS46)。 Next, the central processing unit 51 is included in the data at the time of passing the intersection acquired in step S45 in the reference information of the face direction or the line-of-sight direction of each driver registered in the driver information storage unit 63. It is determined whether or not there is reference information associated with the same ID as the driver ID (step S46).

中央処理装置51は、ステップS46において、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があると判断すれば、ステップS47の処理を実行する。中央処理装置51は、ステップS47において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準に設定する処理を行う。 If the central processing unit 51 determines in step S46 that there is reference information associated with the same ID as the driver ID included in the data at the time of passing through the intersection, the central processing unit 51 executes the process of step S47. In step S47, the central processing unit 51 sets the front-facing reference for detecting the driver's face swing angle (safety confirmation operation) at the intersection as the driver's face orientation or the driver's face orientation associated with the driver ID. Performs the process of setting the reference of the direction of the line of sight.

次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS48)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。 Next, the central processing unit 51 estimates the time when the vehicle 2 enters the intersection (step S48). For example, the central processing device 51 calculates the integrated value of the angular velocity data included in the data at the time of passing through the intersection, and estimates the time when the calculated integrated value reaches a predetermined integration ratio as the approach time to the intersection.

次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS49)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。 Next, the central processing unit 51 estimates the direction in which the vehicle 2 turns at the intersection (step S49). For example, the central processing unit 51 estimates the direction in which the vehicle 2 turns at an intersection based on the positive and negative of the angular velocity data. For example, a positive value is estimated to be a right turn, and a negative value is estimated to be a left turn.

次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS50)。 Next, the central processing device 51 uses the reference of the driver's face direction or line-of-sight direction associated with the driver ID to perform a safety confirmation operation (right or left direction confirmation timing, face) before entering the intersection. (Swing angle, swing time, etc.) are compared with predetermined evaluation conditions for evaluation (step S50).

次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS51)。 Next, the central processing unit 51 uses the reference of the driver's face direction or the line-of-sight direction associated with the driver ID to perform a safety confirmation operation after entering the intersection (confirmation timing in the right or left direction, face). (Swing angle, swing time, etc.) are compared with predetermined evaluation conditions for evaluation (step S51).

次に中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する(ステップS52)。 Next, the central processing unit 51 evaluates whether the traveling speed of the vehicle 2 at a predetermined time before and after the approach time to the intersection is appropriate. For example, it is evaluated whether or not the traveling speed of the vehicle 2 is equal to or less than a predetermined speed at which safe traveling is possible in the intersection (step S52).

次に中央処理装置51は、ステップS50、S51、S52で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出する(ステップS53)。 Next, the central processing unit 51 aggregates the points evaluated or ranked scores in steps S50, S51, and S52, and calculates the operation evaluation points at the intersection (step S53).

次に中央処理装置51は、ステップS53で算出された運転評価点を、車載機10の識別情報又は運転者3の情報(運転者ID)と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS54)。 Next, the central processing device 51 associates the operation evaluation points calculated in step S53 with the identification information of the vehicle-mounted device 10 or the information of the driver 3 (driver ID) and causes the evaluation data storage unit 62 of the storage unit 60 to associate the operation evaluation points. Store (step S54).

次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS55)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS48に戻り、処理を繰り返す。 Next, the central processing unit 51 determines whether or not the evaluation at all the passing intersections has been completed (step S55), and if it determines that the evaluation has been completed, it determines that the subsequent processing is completed, but the evaluation has not been completed. Then, the process returns to step S48 and the process is repeated.

一方、ステップS46において、中央処理装置51が、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報がないと判断すれば、ステップS56の処理を実行する。中央処理装置51は、ステップS56において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、予め設定された顔の向き又は視線の方向の初期値に設定する処理を行い、その後ステップS48〜S55の処理を実行する。この場合、ステップS50、S51では、予め設定された顔の向き又は視線の方向の初期値を用いて、交差点進入前と交差点進入後の安全確認動作が評価される。 On the other hand, in step S46, if the central processing unit 51 determines that there is no reference information associated with the same ID as the driver ID included in the data at the time of passing through the intersection, the process of step S56 is executed. .. In step S56, the central processing unit 51 sets the frontal reference for detecting the driver's face swing angle (safety confirmation operation) at the intersection to a preset initial value of the face direction or the line-of-sight direction. Then, the processes of steps S48 to S55 are executed. In this case, in steps S50 and S51, the safety confirmation operation before and after entering the intersection is evaluated using the preset initial values of the face direction or the line-of-sight direction.

[作用・効果]
上記実施の形態に係る車載機10によれば、運転者3の各々の認証情報と、運転者3の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録され、登録情報記憶部17bに登録された運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われる。
したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、運転者3ごとに脇見判定処理を精度よく実行することができる。
[Action / Effect]
According to the vehicle-mounted device 10 according to the above embodiment, the authentication information of each driver 3 and the reference information of each face direction or line-of-sight direction of the driver 3 are registered in association with each driver. The driver's inattentiveness determination process is performed using the reference information of the direction of each face or the direction of the line of sight of the driver 3 registered in the information storage unit 17b and registered in the registered information storage unit 17b.
Therefore, it is possible to execute the inattentive determination process in consideration of the individual difference in the direction of the face or the direction of the line of sight of the driver 3, in other words, the direction of the face or the direction of the line of sight, and the inattentiveness determination process can be executed for each driver 3. The determination process can be executed with high accuracy.

また、車載機10によれば、認証部19acにより運転者3が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて脇見判定処理が行われるので、認証部19acにより運転者3が認証されなかった場合でも脇見判定処理を適切に実行することができる。 Further, according to the in-vehicle device 10, when the driver 3 is not authenticated by the authentication unit 19ac, the inattentive determination process is performed using the preset reference information of the face direction or the line-of-sight direction. Even if the driver 3 is not authenticated by 19ac, the inattentive determination process can be appropriately executed.

また、車載機10によれば、算出部19aaにより、ドライバカメラ21で撮像された運転者3の画像から運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。 Further, according to the vehicle-mounted device 10, the calculation unit 19aa can efficiently calculate the reference information of the driver's face direction or the line-of-sight direction from the image of the driver 3 captured by the driver camera 21.

また、車載機10によれば、運転者3の顔の向き又は視線の方向の基準情報が、ドライバカメラ21で撮像された運転者3の複数の画像を用いて統計処理された統計値(最頻値、中央値、又は平均値など)を含んでいるので、運転者3の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。 Further, according to the vehicle-mounted device 10, the reference information of the driver 3's face direction or line-of-sight direction is statistically processed using a plurality of images of the driver 3 captured by the driver camera 21 (mode). Since the mode, median, average, etc.) are included, the accuracy of the reference information of the direction of each face or the direction of the line of sight of the driver 3 can be improved.

また、車載機10によれば、ドライバカメラ21を認証情報の取得にも用いることができるので、運転者の認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。 Further, according to the in-vehicle device 10, since the driver camera 21 can also be used for acquiring the authentication information, it is not necessary to add equipment for acquiring the driver's authentication information, and the device cost can be suppressed. can.

また、運転評価システム1によれば、運転評価を行うサーバ装置40が、車載機10の登録情報記憶部17bに登録された情報を取得して、運転者情報記憶部63に記憶する。サーバ装置40において、運転者情報記憶部63に記憶された登録情報、すなわち、運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理や評価処理が行われる。したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された安全確認動作の判定処理や評価処理を実行することができ、運転者3ごとに安全確認動作の判定処理や評価処理を精度よく実行することができる。 Further, according to the operation evaluation system 1, the server device 40 that performs the operation evaluation acquires the information registered in the registration information storage unit 17b of the in-vehicle device 10 and stores it in the driver information storage unit 63. In the server device 40, the registration information stored in the driver information storage unit 63, that is, the reference information of the direction of each face or the direction of the line of sight of the driver 3 is used to determine the driver's safety confirmation operation at the intersection. Processing and evaluation processing are performed. Therefore, it is possible to execute the determination process and the evaluation process of the safety confirmation operation in consideration of the individual difference in the direction of each face or the direction of the line of sight of the driver 3, in other words, the direction of the face or the direction of the line of sight. It is possible to accurately execute the judgment process and the evaluation process of the safety confirmation operation for each driver 3.

[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
[Modification example]
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.

図9は、別の実施の形態に係る運転評価システム1Aの特徴部分を示す機能構成ブロック図の一例である。
図1に例示した実施の形態では、車載機10に、算出部19aa、登録部19ab、及び登録情報記憶部17bが装備され、車載機10が、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部17bに登録するように構成されている。
FIG. 9 is an example of a functional configuration block diagram showing a feature portion of the operation evaluation system 1A according to another embodiment.
In the embodiment illustrated in FIG. 1, the vehicle-mounted device 10 is equipped with a calculation unit 19aa, a registration unit 19ab, and a registration information storage unit 17b, and the vehicle-mounted device 10 is equipped with the direction of each face or the direction of the line of sight of the driver. It is configured to calculate the reference information of the above and register the calculated reference information in the registration information storage unit 17b.

別の実施の形態では、図9に示すように、サーバ装置40Aのサーバコンピュータ50Aに算出部51a、登録部51bが装備されるとともに、記憶ユニット60Aに登録情報記憶部64が装備される構成としてもよい。 In another embodiment, as shown in FIG. 9, the server computer 50A of the server device 40A is equipped with the calculation unit 51a and the registration unit 51b, and the storage unit 60A is equipped with the registration information storage unit 64. May be good.

係る形態によれば、サーバ装置40Aが、各車載機10Aから画像情報を取得して、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部64に登録する処理を実行する。 According to this embodiment, the server device 40A acquires image information from each in-vehicle device 10A, calculates reference information for each driver's face direction or line-of-sight direction, and registers the calculated reference information. The process of registering in the storage unit 64 is executed.

また、サーバ装置40Aは、登録情報記憶部64に登録された情報を、各車載機10Aに送信する処理を実行する。車載機10Aは、サーバ装置40Aから取得した登録情報を用いて、認証部19acで運転者の認証処理を実行する。 Further, the server device 40A executes a process of transmitting the information registered in the registration information storage unit 64 to each in-vehicle device 10A. The vehicle-mounted device 10A uses the registration information acquired from the server device 40A to execute the driver authentication process in the authentication unit 19ac.

上記運転評価システム1Aによれば、車載機10Aが、認証情報取得部22bと、認証部19acと、第1の処理部19adとを備え、サーバ装置40Aが、算出部51aと、登録部51bとを備えている。 According to the operation evaluation system 1A, the vehicle-mounted device 10A includes an authentication information acquisition unit 22b, an authentication unit 19ac, and a first processing unit 19ad, and the server device 40A includes a calculation unit 51a and a registration unit 51b. It has.

したがって、上記した運転評価システム1と同様の効果を得ることができるとともに、サーバ装置40Aに算出部51aと、登録部51bとを装備することで、車載機10Aにおける処理負担を減らすことができ、また装置コストも抑えることができる。また、サーバ装置40Aで、運転者の各々の認証情報と、顔の向き又は視線の方向の基準情報とを一元管理することができ、多数の車載機10Aを使用し、多数の運転者3を管理する場合でも効率よく適切な運用を行うことができる。 Therefore, the same effect as that of the above-mentioned operation evaluation system 1 can be obtained, and by equipping the server device 40A with the calculation unit 51a and the registration unit 51b, the processing load on the in-vehicle device 10A can be reduced. In addition, the equipment cost can be suppressed. Further, the server device 40A can centrally manage the authentication information of each driver and the reference information of the direction of the face or the direction of the line of sight. Even when managing it, it can be operated efficiently and appropriately.

[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(19aa)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(19aa)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(19ab)と、
該登録部(19ab)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(19ab)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部(19ad)とを備えていることを特徴とする車載機(10)。
[Additional Notes]
Embodiments of the present invention may also be described as, but are not limited to, the following appendices.
(Appendix 1)
The acquisition unit (22b) that acquires the authentication information of the driver who drives the vehicle (2), and
A calculation unit (19aa) that calculates reference information for the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition unit (22b) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated by the calculation unit (19aa) are described. A registration unit (19ab) that is associated and registered for each driver,
An authentication unit (19ac) that authenticates the driver based on the information registered by the registration unit (19ab) and the authentication information of the driver acquired by the acquisition unit (22b).
When the driver is authenticated by the authentication unit (19ac), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered by the registration unit (19ab) and acquired. The vehicle-mounted device (10) is provided with a first processing unit (19ad) that performs a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.

(付記2)
車両(2)に搭載される車載機(10A)から取得した情報に基づいて、前記車両(2)の運転者の運転を評価する運転評価システム(1A)であって、
前記車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(51a)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(51a)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(51b)と、
該登録部(51b)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(51b)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部(19ad)とを備えていることを特徴とする運転評価システム(1A)。
(Appendix 2)
It is a driving evaluation system (1A) that evaluates the driving of the driver of the vehicle (2) based on the information acquired from the on-board unit (10A) mounted on the vehicle (2).
The acquisition unit (22b) that acquires the authentication information of the driver who drives the vehicle (2), and
The calculation unit (51a) that calculates the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition unit (22b) and the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation unit (51a) are described. A registration unit (51b) that is associated and registered for each driver, and
An authentication unit (19ac) that authenticates the driver based on the information registered by the registration unit (51b) and the authentication information of the driver acquired by the acquisition unit (22b).
When the driver is authenticated by the authentication unit (19ac), the reference information of the face orientation or the line-of-sight direction of the authenticated driver is acquired from the information registered by the registration unit (51b) and acquired. The driving evaluation system (1A) is characterized by including a processing unit (19ad) that performs a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.

(付記3)
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを含むことを特徴とする情報処理方法。
(Appendix 3)
Acquisition step (S7) to acquire the authentication information of the driver who drives the vehicle (2), and
The calculation step (S37) for calculating the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired in the acquisition step (S7) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated in the calculation step (S37) are described. A registration step (S38) in which each driver is associated and registered in the storage unit (17b), and
An authentication step for authenticating the driver based on the information registered in the storage unit (17b) in the registration step (S38) and the driver authentication information acquired in the acquisition step (S7). (S14) and
When the driver is authenticated by the authentication step (S14), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered in the storage unit (17b) and acquired. An information processing method including a processing step (S17) of performing a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.

(付記4)
少なくとも1つのコンピュータに、
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを実行させることを特徴とするプログラム。
(Appendix 4)
On at least one computer
The acquisition step (S7) of acquiring the authentication information of the driver who drives the vehicle (2), and
The calculation step (S37) for calculating the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired in the acquisition step (S7) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated in the calculation step (S37) are described. A registration step (S38) in which each driver is associated and registered in the storage unit (17b), and
An authentication step (1) in which the driver is authenticated based on the information registered in the storage unit (17b) in the registration step (S38) and the driver authentication information acquired in the acquisition step (S7). S14) and
When the driver is authenticated by the authentication step (S14), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered in the storage unit (17b) and acquired. A program characterized by executing a processing step (S17) of performing a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.

1、1A 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
17a 画像情報記憶部
17b 登録情報記憶部
17c 処理情報記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19aa 算出部
19ab 登録部
19ac 認証部
19ad 第1の処理部
19ae 第2の処理部
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ(撮像部)
22 画像解析部
22a 画像取得部
22b 認証情報取得部(取得部)
22c 向き検出部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40、40A サーバ装置
41 通信ユニット
50、50A サーバコンピュータ
51 中央処理装置
51a 算出部
51b 登録部
52 メインメモリ
53 制御プログラム
60、60A 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
64 登録情報記憶部
80 事業者端末
1, 1A Driving evaluation system 2 Vehicle 3 Driver 4 Communication network 10 On-board unit 11 Platform unit 12 Accelerometer 13 Angle speed sensor 14 GPS receiver 14a Antenna 15 Communication unit 16 Notification unit 17 Storage unit 17a Image information storage unit 17b Registration information storage Unit 17c Processing information storage unit 18 External interface (external I / F)
19 Control unit 19a CPU
19aa Calculation unit 19ab Registration unit 19ac Authentication unit 19ad First processing unit 19ae Second processing unit 19b RAM
19c ROM
20 Driver monitoring unit 21 Driver camera (imaging unit)
22 Image analysis unit 22a Image acquisition unit 22b Authentication information acquisition unit (acquisition unit)
22c Orientation detector 23 interface (I / F)
30 Drive recorder unit 31 External camera 32 In-vehicle camera 40, 40A Server device 41 Communication unit 50, 50A Server computer 51 Central processing device 51a Calculation unit 51b Registration unit 52 Main memory 53 Control program 60, 60A Storage unit 61 Data storage unit 62 Evaluation Data storage unit 63 Driver information storage unit 64 Registration information storage unit 80 Business terminal

Claims (10)

少なくとも1台以上の車両に搭載される車載機と、
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムであって、
前記車載機が、
前記車両を運転する運転者の認証情報を取得する取得部と、
前記サーバ装置から取得した各運転者の登録情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備え
前記認証部で認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するように構成され、
前記サーバ装置が、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記各車載機から取得した前記各運転者の認証情報と、前記算出部により算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部とを備え、
該登録部により登録された前記各運転者の登録情報を、前記各車載機に送信するように構成されていることを特徴とする運転評価システム
On-board equipment installed in at least one vehicle and
It is a driving evaluation system including at least one or more server devices that evaluate the driving of each driver using the data acquired from these in-vehicle devices.
The in-vehicle device
An acquiring unit that acquires authentication information of a driver who drives the vehicle,
An authentication unit that authenticates the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. It is provided with a first processing unit that performs predetermined processing using the reference information of the direction.
It is configured to transmit information including the driver's authentication information authenticated by the authentication unit and time-series information of the driver's face direction or line-of-sight direction to the server device.
The server device
A calculation unit that calculates reference information for each driver's face orientation or line-of-sight direction using time-series information of each driver's face orientation or line-of-sight direction acquired from each on-board unit.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation unit are registered in association with each driver. With a registration department
A driving evaluation system characterized in that the registration information of each driver registered by the registration unit is transmitted to each in-vehicle device .
前記車載機が、
前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴とする請求項1記載の運転評価システム
The in-vehicle device
When the driver is not authenticated by the authentication unit, the driver is provided with a second processing unit that performs a predetermined process using the preset reference information of the face direction or the line-of-sight direction. The operation evaluation system according to claim 1.
前記車載機が、前記運転者を撮像する撮像部を備え、
前記サーバ装置の前記算出部が、前記各車載器の前記撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴とする請求項1又は請求項2記載の運転評価システム
The on-board unit includes an imaging unit that images the driver.
Said the calculating unit of the server device, and calculates the reference information of the orientation or line of sight direction of the face of each driver from said respective driver of the image captured by the imaging unit of the vehicle-mounted device The operation evaluation system according to claim 1 or 2, wherein the operation evaluation system is characterized .
前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された前記運転者の顔の向き又は視線の方向の統計値を含んでいることを特徴とする請求項3記載の運転評価システムStatistics of the driver's face orientation or line-of-sight direction obtained by statistically processing the reference information of the driver's face orientation or line-of-sight direction using a plurality of images of the driver captured by the imaging unit. The operation evaluation system according to claim 3, wherein the value is included. 前記車載機の前記取得部が、前記撮像部で撮像された前記運転者の画像から前記認証情報を取得するものであることを特徴とする請求項3又は請求項4記載の運転評価システム The operation evaluation system according to claim 3 or 4, wherein the acquisition unit of the vehicle-mounted device acquires the authentication information from the image of the driver captured by the image pickup unit. 前記運転者の顔の向き又は視線の方向の基準情報が、予め設定された顔の向き又は視線の方向の基準からのずれを示す情報を含んでいることを特徴とする請求項1〜5のいずれかの項に記載の運転評価システムClaims 1 to 5, wherein the reference information of the driver's face orientation or the line-of-sight direction includes information indicating a deviation from a preset face orientation or line-of-sight direction reference. The operation evaluation system described in any section. 前記所定の処理が、前記運転者の脇見判定処理であることを特徴とする請求項1〜6のいずれかの項に記載の運転評価システム The driving evaluation system according to any one of claims 1 to 6, wherein the predetermined processing is the driver's inattentive determination processing. 前記所定の処理が、交差点における前記運転者の安全確認動作の判定処理であることを特徴とする請求項1〜6のいずれかの項に記載の運転評価システム The operation evaluation system according to any one of claims 1 to 6, wherein the predetermined process is a process for determining a driver's safety confirmation operation at an intersection. 少なくとも1台以上の車両に搭載される車載機と、
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムで行われる情報処理方法であって、
前記車載機が、
前記車両を運転する運転者の認証情報を取得する取得ステップと、
前記サーバ装置から取得した各運転者の登録情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップと
前記認証ステップで認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するステップとを含む処理を行い、
前記サーバ装置が、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記各車載機から取得した前記各運転者の認証情報と、前記算出ステップにより算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより登録された前記各運転者の登録情報を、前記各車載機に送信するステップとを含む処理を行うことを特徴とする情報処理方法。
On-board equipment installed in at least one vehicle and
It is an information processing method performed by a driving evaluation system including at least one or more server devices that evaluates the driving of each driver using the data acquired from these in-vehicle devices.
The in-vehicle device
The acquisition step of acquiring the authentication information of the driver who drives the vehicle, and
An authentication step for authenticating the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired in the acquisition step.
When the driver is authenticated by the authentication step, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. a processing step of performing a predetermined process using the reference information of direction,
A process including a step of transmitting information including the driver's authentication information authenticated in the authentication step and time-series information of the driver's face direction or line-of-sight direction to the server device is performed.
The server device
Using the time-series information of each driver's face orientation or line-of-sight direction acquired from each in-vehicle device, a calculation step of calculating the reference information of each driver's face orientation or line-of-sight direction, and a calculation step.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation step are stored in association with each driver. Registration steps to register with the department and
An information processing method comprising performing a process including a step of transmitting the registration information of each driver registered in the registration step to each in-vehicle device.
少なくとも1台以上の車両に搭載される車載機と、
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムで実行されるプログラムであって、
前記車載機に、
前記車両を運転する運転者の認証情報を取得する取得ステップと、
前記サーバ装置から取得した各運転者の登録情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップと
前記認証ステップで認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するステップとを実行させ、
前記サーバ装置に、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記各車載機から取得した前記各運転者の認証情報と、前記算出ステップにより算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより登録された前記各運転者の登録情報を、前記各車載機に送信するステップとを実行させることを特徴とするプログラム。
On-board equipment installed in at least one vehicle and
It is a program executed by a driving evaluation system including at least one or more server devices that evaluates the driving of each driver using the data acquired from these in-vehicle devices.
In the in-vehicle device
The acquisition step of acquiring the authentication information of the driver who drives the vehicle, and
An authentication step for authenticating the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired in the acquisition step.
When the driver is authenticated by the authentication step, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. a processing step of performing a predetermined process using the reference information of direction,
A step of transmitting information including the driver's authentication information authenticated in the authentication step and time-series information of the driver's face direction or line-of-sight direction to the server device is executed.
To the server device
Using the time-series information of each driver's face orientation or line-of-sight direction acquired from each in-vehicle device, a calculation step for calculating reference information of each driver's face orientation or line-of-sight direction, and a calculation step.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation step are stored in association with each driver. Registration steps to register with the department and
A program characterized by executing a step of transmitting the registration information of each driver registered in the registration step to each in-vehicle device.
JP2018046943A 2018-03-14 2018-03-14 On-board unit, driving evaluation system, information processing method, and program Active JP6950597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018046943A JP6950597B2 (en) 2018-03-14 2018-03-14 On-board unit, driving evaluation system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018046943A JP6950597B2 (en) 2018-03-14 2018-03-14 On-board unit, driving evaluation system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2019159924A JP2019159924A (en) 2019-09-19
JP6950597B2 true JP6950597B2 (en) 2021-10-13

Family

ID=67996299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018046943A Active JP6950597B2 (en) 2018-03-14 2018-03-14 On-board unit, driving evaluation system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6950597B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404950B2 (en) * 2020-03-16 2023-12-26 いすゞ自動車株式会社 Image transmission device and authentication system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022579A (en) * 2010-07-15 2012-02-02 Fujitsu Ltd Face direction detector, face direction detection program and face direction detection method
WO2015064080A1 (en) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 Gaze direction-detecting device and gaze direction-detecting method

Also Published As

Publication number Publication date
JP2019159924A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP6693489B2 (en) Information processing device, driver monitoring system, information processing method, and information processing program
US20180204078A1 (en) System for monitoring the state of vigilance of an operator
CN110712623B (en) Vehicle-mounted device, operation management system, and driver confirmation method
US10666901B1 (en) System for soothing an occupant in a vehicle
WO2019117005A1 (en) Driving evaluation report, vehicle-mounted device, driving evaluation report creation device, driving evaluation report creation system, computer program for creation of driving evaluation report, and storage medium
TW201927610A (en) Safety confirmation evaluating device, on-vehicle device, safety confirmation evaluation system having the two, safety confirmation evaluation method, and safety confirmation evaluation program
US11903647B2 (en) Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium
JP2021033742A (en) Drive evaluation device, drive evaluation system, drive evaluation method, program, and intersection attribution determination method
JP7114953B2 (en) In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program
JP6950597B2 (en) On-board unit, driving evaluation system, information processing method, and program
JP2019159926A (en) Driver replacement promotion device, drive evaluation system having the same thereon, and computer program
JP7060841B2 (en) Operation evaluation device, operation evaluation method, and operation evaluation program
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP7068606B2 (en) Driving evaluation device, on-board unit, driving evaluation method, and computer program
JP7070827B2 (en) Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program
WO2019117004A1 (en) Safety check evaluation device, on-board device, safety check evaluation system comprising these, safety check evaluation method, safety check evaluation program, and storage medium
JP7075048B2 (en) Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program
JP7298351B2 (en) State determination device, in-vehicle device, driving evaluation system, state determination method, and program
US20210370956A1 (en) Apparatus and method for determining state
JP7235438B2 (en) Driving evaluation device, driving evaluation method, and computer program
JP7130994B2 (en) In-vehicle device, backward determination method, and backward determination program
JP7135913B2 (en) Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen
KR20210119243A (en) Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof
KR20220005290A (en) In-Cabin Security Sensor and Platform Service Method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R150 Certificate of patent or registration of utility model

Ref document number: 6950597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150