JP6950597B2 - On-board unit, driving evaluation system, information processing method, and program - Google Patents
On-board unit, driving evaluation system, information processing method, and program Download PDFInfo
- Publication number
- JP6950597B2 JP6950597B2 JP2018046943A JP2018046943A JP6950597B2 JP 6950597 B2 JP6950597 B2 JP 6950597B2 JP 2018046943 A JP2018046943 A JP 2018046943A JP 2018046943 A JP2018046943 A JP 2018046943A JP 6950597 B2 JP6950597 B2 JP 6950597B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- information
- line
- unit
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車載機、運転評価システム、情報処理方法、及びプログラムに関する。 The present invention relates to an on-board unit, a driving evaluation system, an information processing method, and a program.
特許文献1には、ステアリングコラムに配置されたカメラで運転者の顔画像を撮像し、撮像された顔画像のエッジ情報から顔の上下の輪郭位置及び中央線を検出し、検出された中央線に基づき運転者の顔向きを検出する、すなわち、中央線から顔の輪郭位置までの距離に基づき、正面方向をゼロ度としたときの左右方向への顔向き度を検出する技術が開示されている。 In Patent Document 1, a driver's face image is imaged by a camera arranged on the steering column, the upper and lower contour positions and the center line of the face are detected from the edge information of the captured face image, and the detected center line is detected. Disclosed is a technique for detecting the face orientation of a driver based on the above, that is, detecting the face orientation in the left-right direction when the front direction is zero degree based on the distance from the center line to the contour position of the face. There is.
[発明が解決しようとする課題]
特許文献1記載のドライバモニタセンサでは、カメラで運転者の顔を正面から撮影し、予め設定されている正面方向を基準として顔向き度が検出される。
[Problems to be solved by the invention]
In the driver monitor sensor described in Patent Document 1, the driver's face is photographed from the front by a camera, and the degree of face orientation is detected with reference to a preset front direction.
ところで、運転者の着座位置や運転姿勢には個人差がある。運転者が車両の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なる場合、カメラで撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。 By the way, there are individual differences in the seating position and driving posture of the driver. Even when the driver is looking in the front direction of the vehicle, if the seating position and driving posture of the driver are different, the orientation of the driver's face in the image captured by the camera is different for each driver. Is detected by.
また、ドライバモニタセンサが車両に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバモニタセンサのカメラが設置できない場合もある。カメラが運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。 Further, when the driver monitor sensor is retrofitted to the vehicle, the camera of the driver monitor sensor may not be installed at a position where the driver's face can be photographed from the front. When the camera is installed at a position offset from the front of the driver, if the driver's sitting position and driving posture are different, the orientation of the driver's face in the image is likely to be detected in a different orientation for each driver. ..
特許文献1記載のドライバモニタセンサでは、装置側で予め設定されている、基準となる正面方向と、運転者が正面方向を見ているときの顔の向きとにズレが生じていたとしても、このズレが考慮されずに顔向き度が検出される。そのため、特許文献1記載のドライバモニタセンサでは、検出される顔向き度に、運転者が運転しているときの運転者ごとの顔の向きの個人差が反映されておらず、顔向き度の検出精度が低くなるという課題があった。 In the driver monitor sensor described in Patent Document 1, even if there is a deviation between the reference front direction, which is preset on the device side, and the face orientation when the driver is looking at the front direction. The degree of face orientation is detected without considering this deviation. Therefore, in the driver monitor sensor described in Patent Document 1, the detected face orientation does not reflect the individual difference in the face orientation of each driver when the driver is driving, and the face orientation is not reflected. There is a problem that the detection accuracy becomes low.
本発明は上記課題に鑑みなされたものであって、運転者の顔の向き又は視線の方向を用いる処理の精度を高めることができる車載機、運転評価システム、情報処理方法、及びプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and provides an in-vehicle device, a driving evaluation system, an information processing method, and a program capable of improving the accuracy of processing using the direction of the driver's face or the direction of the line of sight. The purpose is.
上記目的を達成するために本開示に係る車載機(1)は、
車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備えていることを特徴としている。
In order to achieve the above object, the in-vehicle device (1) according to the present disclosure is
The acquisition department that acquires the authentication information of the driver who drives the vehicle,
A calculation unit that calculates reference information for the driver's face direction or line-of-sight direction,
The authentication information of each of the drivers acquired by the acquisition unit and the reference information of the direction of each face or the direction of the line of sight of each of the drivers calculated by the calculation unit are associated with each driver. Registration department to register with
An authentication unit that authenticates the driver based on the information registered by the registration unit and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, the certified reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered by the registration unit, and the acquired face of the driver is acquired. It is characterized in that it includes a first processing unit that performs a predetermined process using reference information of the direction of the head or the direction of the line of sight.
上記車載機(1)によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。 According to the in-vehicle device (1), each authentication information of the driver and reference information of each face direction or line-of-sight direction of the driver are registered in association with each other for each driver. A predetermined process is performed using the reference information of the face direction or the line-of-sight direction of each of the registered drivers. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process is accurately executed for each driver. be able to.
また本開示に係る車載機(2)は、上記車載機(1)において、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴としている。 Further, the in-vehicle device (2) according to the present disclosure uses preset reference information of the face direction or the line-of-sight direction when the driver is not authenticated by the authentication unit in the in-vehicle device (1). It is characterized in that it is provided with a second processing unit that performs a predetermined processing.
上記車載機(2)によれば、前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、前記認証部により前記運転者が認証されなかった場合でも前記所定の処理を適切に実行することができる。 According to the in-vehicle device (2), when the driver is not authenticated by the authentication unit, a predetermined process is performed using the preset reference information of the face direction or the line-of-sight direction. Even if the driver is not authenticated by the authentication unit, the predetermined process can be appropriately executed.
また本開示に係る車載機(3)は、上記車載機(1)又は(2)において、前記運転者を撮像する撮像部を備え、前記算出部が、前記撮像部で撮像された前記運転者の画像から前記運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴としている。 Further, the vehicle-mounted device (3) according to the present disclosure includes an imaging unit for imaging the driver in the vehicle-mounted device (1) or (2), and the calculation unit is the driver imaged by the imaging unit. It is characterized in that the reference information of the direction of the driver's face or the direction of the line of sight is calculated from the image of.
上記車載機(3)によれば、前記運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。 According to the in-vehicle device (3), the reference information of the driver's face direction or the line-of-sight direction can be efficiently calculated.
また本開示に係る車載機(4)は、上記車載機(3)において、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された前記運転者の顔の向き又は視線の方向の統計値を含んでいることを特徴としている。 Further, in the in-vehicle device (4) according to the present disclosure, in the in-vehicle device (3), the reference information of the direction of the driver's face or the direction of the line of sight is a plurality of images of the driver captured by the imaging unit. It is characterized in that it includes statistical values of the driver's face direction or line-of-sight direction statistically processed using the above.
上記車載機(4)によれば、前記運転者の顔の向き又は視線の方向の基準情報が、前記撮像部で撮像された前記運転者の複数の画像を用いて統計処理された統計値を含んでいるので、前記運転者の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。なお、前記運転者の顔の向き又は視線の方向の統計値には、例えば、顔の向き又は視線の方向の最頻値、中央値、又は平均値のいずれかを用いることができる。 According to the in-vehicle device (4), the reference information of the driver's face direction or the line-of-sight direction is a statistical value obtained by statistically processing using a plurality of images of the driver captured by the imaging unit. Since it is included, the accuracy of the reference information of the direction of each face or the direction of the line of sight of the driver can be improved. As the statistical value of the driver's face direction or line-of-sight direction, for example, any of the mode value, the median value, or the average value of the face direction or the line-of-sight direction can be used.
また本開示に係る車載機(5)は、上記車載機(3)又は(4)において、前記取得部が、前記撮像部で撮像された前記運転者の画像から前記認証情報を取得するものであることを特徴としている。 Further, in the vehicle-mounted device (5) according to the present disclosure, in the vehicle-mounted device (3) or (4), the acquisition unit acquires the authentication information from the driver's image captured by the imaging unit. It is characterized by being.
上記車載機(5)によれば、前記撮像部を前記認証情報の取得にも用いることができるので、前記認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。 According to the in-vehicle device (5), since the imaging unit can also be used for acquiring the authentication information, it is not necessary to add equipment for acquiring the authentication information, and the device cost can be suppressed. can.
また本開示に係る車載機(6)は、上記車載機(1)〜(5)のいずれかにおいて、前記運転者の顔の向き又は視線の方向の基準情報が、予め設定された顔の向き又は視線の方向の基準からのずれを示す情報を含んでいることを特徴としている。 Further, in the in-vehicle device (6) according to the present disclosure, in any of the in-vehicle devices (1) to (5), the reference information of the driver's face direction or the line-of-sight direction is set in advance. Alternatively, it is characterized by containing information indicating a deviation from the reference in the direction of the line of sight.
上記車載機(6)によれば、前記予め設定された顔の向き又は視線の方向の基準からのずれを補正して、前記所定の処理を実行することができ、前記運転者ごとに所定の処理を精度よく実行することができる。 According to the in-vehicle device (6), the predetermined process can be executed by correcting the deviation from the preset reference of the face direction or the line-of-sight direction, and a predetermined process is performed for each driver. The process can be executed accurately.
また本開示に係る車載機(7)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、前記運転者の脇見判定処理であることを特徴としている。 Further, the vehicle-mounted device (7) according to the present disclosure is characterized in that, in any of the vehicle-mounted devices (1) to (6), the predetermined process is the driver's inattentive determination process.
上記車載機(7)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、前記運転者ごとに脇見判定処理を精度よく実行することができる。 According to the in-vehicle device (7), the driver's inattentiveness determination process is performed using the reference information of the driver's face orientation or the line-of-sight direction, so that the driver's face orientation is performed. Alternatively, the inattentive determination process in consideration of the direction of the line of sight, in other words, the individual difference in the direction of the face or the direction of the line of sight can be executed, and the inattentive determination process can be executed accurately for each driver.
また本開示に係る車載機(8)は、上記車載機(1)〜(6)のいずれかにおいて、前記所定の処理が、交差点における前記運転者の安全確認動作の判定処理であることを特徴としている。 Further, the vehicle-mounted device (8) according to the present disclosure is characterized in that, in any of the vehicle-mounted devices (1) to (6), the predetermined process is a determination process of the driver's safety confirmation operation at an intersection. It is supposed to be.
上記車載機(8)によれば、前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理が行われるので、前記運転者の各々の顔の向き又は視線の方向の、換言すれば、顔の向き又は視線の方向の個人差が考慮された、安全確認動作の判定処理を実行することができ、前記運転者ごとに安全確認動作の判定処理を精度よく実行することができる。 According to the in-vehicle device (8), the driver's safety confirmation operation at the intersection is determined by using the reference information of each driver's face direction or line-of-sight direction. It is possible to execute the safety confirmation operation determination process in consideration of individual differences in the direction of the face or the direction of the line of sight, in other words, the direction of the face or the direction of the line of sight, and the safety confirmation is performed for each driver. The operation determination process can be executed with high accuracy.
また本開示に係る運転評価システムは、車両に搭載される車載機から取得した情報に基づいて、前記車両の運転者の運転を評価する運転評価システムであって、
前記車両を運転する運転者の認証情報を取得する取得部と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記取得部により取得された前記運転者の各々の認証情報と、前記算出部により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部と、
該登録部により登録された情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記登録部により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部とを備えていることを特徴としている。
Further, the driving evaluation system according to the present disclosure is a driving evaluation system that evaluates the driving of the driver of the vehicle based on the information acquired from the in-vehicle device mounted on the vehicle.
An acquisition unit that acquires the authentication information of the driver who drives the vehicle, and
A calculation unit that calculates reference information for the driver's face direction or line-of-sight direction,
The authentication information of each of the drivers acquired by the acquisition unit and the reference information of the direction of each face or the direction of the line of sight of each of the drivers calculated by the calculation unit are associated with each driver. Registration department to register with
An authentication unit that authenticates the driver based on the information registered by the registration unit and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, the certified reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered by the registration unit, and the acquired face of the driver is acquired. It is characterized in that it is provided with a processing unit that performs a predetermined process using reference information of the direction of the head or the direction of the line of sight.
上記運転評価システムによれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて登録され、該登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理、例えば、運転評価処理を精度よく実行することができる。 According to the driving evaluation system, each authentication information of the driver and reference information of the direction of each face or the direction of the line of sight of the driver are registered in association with each driver, and the registration is performed. Predetermined processing is performed using the reference information of the direction of each face or the direction of the line of sight of the driver. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process, for example, driving evaluation, can be performed for each driver. The process can be executed accurately.
また本開示に係る情報処理方法は、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを含むことを特徴としている。
The information processing method according to this disclosure is
The acquisition step to acquire the authentication information of the driver who drives the vehicle, and
A calculation step for calculating reference information of the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition step is associated with the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation step for each driver. And the registration step to register in the memory
An authentication step for authenticating the driver based on the information registered in the storage unit by the registration step and the authentication information of the driver acquired by the acquisition step.
When the driver is authenticated by the authentication step, the authenticated reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered in the storage unit, and the acquired driver's face is acquired. It is characterized by including a processing step of performing a predetermined processing using reference information of the direction of the line of sight or the direction of the line of sight.
上記情報処理方法によれば、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて前記記憶部に登録し、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる。 According to the information processing method, each authentication information of the driver and reference information of each face direction or line-of-sight direction of the driver are associated with each driver and registered in the storage unit. Then, a predetermined process is performed using the reference information of the face direction or the line-of-sight direction of each of the drivers registered in the storage unit. Therefore, the predetermined process can be executed so that the influence of individual differences in the direction of each face or the direction of the line of sight of the driver is reduced, and the predetermined process is accurately executed for each driver. be able to.
また本開示に係る情報処理プログラムは、
少なくとも1つのコンピュータに、
車両を運転する運転者の認証情報を取得する取得ステップと、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記取得ステップにより取得された前記運転者の各々の認証情報と、前記算出ステップにより算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより前記記憶部に登録された情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記記憶部に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップとを実行させることを特徴としている。
The information processing program related to this disclosure is
On at least one computer
The acquisition step to acquire the authentication information of the driver who drives the vehicle, and
A calculation step for calculating reference information of the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition step is associated with the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation step for each driver. And the registration step to register in the memory
An authentication step for authenticating the driver based on the information registered in the storage unit by the registration step and the authentication information of the driver acquired by the acquisition step.
When the driver is authenticated by the authentication step, the authenticated reference information of the driver's face direction or the line-of-sight direction is acquired from the information registered in the storage unit, and the acquired driver's face is acquired. It is characterized in that a processing step of performing a predetermined processing is executed by using the reference information of the direction of the line of sight or the direction of the line of sight.
上記プログラムによれば、少なくとも1つのコンピュータによって、前記運転者の各々の認証情報と、前記運転者の各々の顔の向き又は視線の方向の基準情報とが、前記運転者ごとに対応付けて前記記憶部に登録され、前記記憶部に登録された前記運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が実行される。したがって、前記運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように前記所定の処理を実行することができ、前記運転者ごとに前記所定の処理を精度よく実行することができる装置又はシステムを実現することができる。 According to the above program, the authentication information of each of the drivers and the reference information of the direction of each face or the direction of the line of sight of the drivers are associated with each other by at least one computer. A predetermined process is executed using the reference information registered in the storage unit and the direction of each face or the direction of the line of sight of the driver registered in the storage unit. Therefore, the predetermined process can be executed so as to reduce the influence of individual differences in the direction of each face or the direction of the line of sight of the driver, and the predetermined process is accurately executed for each driver. A device or system capable of being realized can be realized.
以下、本発明に係る車載機、運転評価システム、情報処理方法、及びプログラムの実施の形態を図面に基づいて説明する。 Hereinafter, an in-vehicle device, an operation evaluation system, an information processing method, and an embodiment of a program according to the present invention will be described with reference to the drawings.
[適用例]
図1は、実施の形態に係る車載機の特徴部分を示す機能構成ブロック図の一例である。
車載機10は、例えば、車両2に後付けで搭載される装置であり、車両2の運転者の状態をドライバカメラ21でモニタリングする装置、又は運転者の運転評価に用いるデータを取得して、外部へ送信する装置などとして適用される。
[Application example]
FIG. 1 is an example of a functional configuration block diagram showing a feature portion of the vehicle-mounted device according to the embodiment.
The on-
運転者の状態には、運転者の顔の向き、視線の方向、目開度、眠気度合い、及び脇見のうちの少なくともいずれかが含まれている。
運転者の運転評価に用いるデータには、運転者の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかが含まれている。
運転者の運転評価には、例えば、運転者の運転操作行為に関する評価、交差点における安全確認動作に関する評価、運転時の集中状態に関する評価などが含まれる。
The driver's condition includes at least one of the driver's face orientation, gaze direction, eye opening, drowsiness, and inattentiveness.
The data used for the driver's driving evaluation includes at least one of the driver's condition, the position of the
The driver's driving evaluation includes, for example, an evaluation of the driver's driving operation behavior, an evaluation of a safety confirmation operation at an intersection, an evaluation of a concentration state during driving, and the like.
運転者の運転操作行為には、急ハンドル、急加速、急減速、急発進、速度超過、又は衝撃検知などの不適切な運転操作行為が含まれている。
交差点における安全確認動作には、通過した各交差点での運転者の安全確認のタイミング、確認角度、確認時間、又は交差点への進入速度などが含まれている。
運転時の集中状態には、運転者の眠気の検出状態(時間、頻度)、脇見の検出状態(時間、頻度)などが含まれている。
The driver's driving behavior includes improper driving behavior such as sudden steering, sudden acceleration, sudden deceleration, sudden start, overspeed, or impact detection.
The safety confirmation operation at an intersection includes the driver's safety confirmation timing, confirmation angle, confirmation time, or approach speed to the intersection at each intersection that has passed.
The concentrated state during driving includes the driver's drowsiness detection state (time, frequency), inattentive detection state (time, frequency), and the like.
車載機10が搭載される車両2は、特に限定されないが、本実施の形態では、各種の事業を営む事業者が管理する車両が対象とされ得る。例えば、運送事業者が管理するトラック、バス事業者が管理するバス、タクシー事業者が管理するタクシー、カーシェアリング事業者が管理するカーシェア車両、レンタカー事業者が管理するレンタカー、会社が所有している社有車、カーリース事業者からリースして使用する社有車などが対象とされ得る。
The
上記した用途で使用される車両2では、運転者が入れ替わることがある。また、運転者の着座位置(例えば、シート位置など)や運転姿勢は、運転者ごとに個人差がある。
したがって、車載機10のドライバカメラ21で運転者の状態をモニタリングする場合、例えば、運転者が車両2の正面方向を見ている状態であっても、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21で撮像された画像に写る運転者の顔の向きは運転者ごとに異なる向きで検出される。
In the
Therefore, when monitoring the driver's condition with the
また、車載機10が車両2に後付けされる場合、運転者の顔を正面から撮影できる位置にドライバカメラ21を設置できない場合もある。ドライバカメラ21が運転者の正面からずれた位置に設置される場合は、運転者の着座位置や運転姿勢が異なると、ドライバカメラ21の画像に写る運転者の顔の向きが運転者ごとに異なる向きで検出されやすくなる。
Further, when the vehicle-mounted
したがって、運転者の顔の向き又は視線の方向などを検出して、例えば、運転者の脇見を判定したり、運転者の安全確認動作を判定したりする処理を行う場合に、装置側で予め設定されている正面方向の基準と、運転者が正面方向を見ているときの顔の向き又は視線の方向とにズレが生じることがある。このズレが考慮されずに顔の向き又は視線の方向が検出されると、顔の向き又は視線の方向の検出精度が低くなり、運転者の脇見や安全確認動作の判定精度も低下してしまうことになる。 Therefore, when detecting the direction of the driver's face or the direction of the line of sight, for example, when performing a process of determining the driver's inattentiveness or determining the driver's safety confirmation operation, the device side in advance. There may be a discrepancy between the set reference for the front direction and the direction of the face or the direction of the line of sight when the driver is looking in the front direction. If the direction of the face or the direction of the line of sight is detected without considering this deviation, the detection accuracy of the direction of the face or the direction of the line of sight will be lowered, and the accuracy of determining the driver's inattentiveness and safety confirmation operation will also be lowered. It will be.
本実施の形態に係る車載機10は、運転者の各々を認証するための認証情報と、運転者の各々にとっての顔の向き又は視線の方向の基準情報とを、運転者ごとに対応付けて登録する。また、車載機10は、車両2を運転している運転者を認証し、認証された運転者の顔の向き又は視線の方向の基準情報を用いて、脇見や安全確認動作の判定処理などの所定の処理を行う。このような車載機10によれば、運転者の各々の顔の向き又は視線の方向の個人差による影響を小さくすることができ、運転者ごとに精度の高い処理を実行することができる。
The vehicle-mounted
図1に示すように、車載機10は、ドライバカメラ21、画像取得部22a、認証情報取得部22b、向き検出部22c、算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeを含んで構成されている。また、車載機10は、画像情報記憶部17a、登録情報記憶部17b、及び処理情報記憶部17cを備えている。
As shown in FIG. 1, the on-
画像取得部22aは、ドライバカメラ21で撮像された画像を取得する。
認証情報取得部22bは、画像取得部22aで取得した画像から、運転者を認証するための認証情報を取得する。例えば、運転者の顔の各器官の特徴点を示すデータなどの顔認証に必要な情報、又は虹彩パターンなどの虹彩認証に必要な情報などを取得する。
The
The authentication
図1に例示した車載機10では、認証情報取得部22bが、ドライバカメラ21で撮像された画像から運転者の認証情報を取得する構成になっているが、この構成に限定されない。認証情報取得部22bの別の形態としては、例えば、車両2のステアリングに設けられた静脈認証センサ、指紋認証センサ、車両2の運転シートに設けられた心拍認証センサ、及び運転者の声を使用する声紋認証センサのうちの少なくとも1つから認証情報を取得する構成などが採用され得る。
In the vehicle-mounted
向き検出部22cは、画像取得部22aで取得した画像から運転者の顔の向き又は視線の方向など、運転者にとっての顔の向き又は視線の方向の基準を算出するために用いるデータを検出する。
The
画像情報記憶部17aには、画像取得部22aで取得した画像のデータ、認証情報取得部22bで取得した認証情報、及び向き検出部22cで検出された運転者の顔の向き又は視線の方向などの画像情報が時系列で記憶される。
In the image
算出部19aaは、画像情報記憶部17aに記憶されている画像情報を用いて、運転者の各々の顔の向き又は視線の方向の基準情報を算出する。例えば、各画像から検出された運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角など)のデータを統計処理して算出された最頻値、中央値、又は平均値などを基準情報とすることができる。また、予め設定された顔の向き又は視線の方向の基準(正面向きの基準方向)からのずれ(ずれ角度)を示す情報を算出してもよい。
The calculation unit 19aa calculates the reference information of the direction of each driver's face or the direction of the line of sight by using the image information stored in the image
また、算出部19aaでは、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されていない運転者の基準情報を算出する処理を行ってもよいし、登録情報記憶部17bに運転者の顔の向き又は視線の方向の基準情報が登録されている運転者の基準情報を更新する処理も行ってもよい。
Further, the calculation unit 19aa may perform a process of calculating the reference information of the driver for which the reference information of the direction of the driver's face or the direction of the line of sight is not registered in the registration
登録部19abは、算出部19aaにより算出された運転者の各々の顔の向き又は視線の方向の基準情報と、運転者の各々の認証情報とを、運転者ごとに対応付けて登録情報記憶部17bに登録する。登録情報記憶部17bには、運転者ID、運転者の認証情報、及び運転者の顔の向き又は視線の方向の基準情報が紐付けて記憶されている。運転者IDは、運転者の識別符号であり、登録情報記憶部17bに登録されていない認証情報が車載機10で初めて取得されたときに、その認証情報に対して付与される。
The registration unit 19ab associates the reference information of each driver's face direction or line-of-sight direction calculated by the calculation unit 19aa with each driver's authentication information for each driver, and is a registration information storage unit. Register in 17b. The registration
認証部19acは、登録情報記憶部17bに登録された情報と、認証情報取得部22bにより取得された運転者の認証情報とに基づいて、車両2を運転している運転者の認証を行う。
The authentication unit 19ac authenticates the driver who is driving the
第1の処理部19adは、認証部19acにより運転者が認証された場合、認証された運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bから取得し、取得した、運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。
When the driver is authenticated by the authentication unit 19ac, the first processing unit 19ad acquires the reference information of the face direction or the line-of-sight direction of the authenticated driver from the registration
第2の処理部は、認証部19acにより運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う。
所定の処理は、例えば、運転者の脇見判定処理、又は交差点などにおける運転者の安全確認動作の判定処理などであるが、これらに限定されない。
When the driver is not authenticated by the authentication unit 19ac, the second processing unit performs a predetermined process using the preset reference information of the face direction or the line-of-sight direction.
The predetermined process is, for example, a driver's inattentive determination process, a driver's safety confirmation operation determination process at an intersection, or the like, but is not limited thereto.
このような車載機10によれば、登録部19abにより、運転者の各々の認証情報と、運転者の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録される。そして、認証部19acにより運転者が認証された場合、登録情報記憶部17bに登録された情報から取得した、認証された運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われる。
したがって、運転者の各々の顔の向き又は視線の方向の基準情報を用いて所定の処理が行われるので、運転者の各々の顔の向き又は視線の方向の個人差による影響が小さくなるように所定の処理を実行することができ、運転者ごとに所定の処理を精度よく実行することが可能となる。
According to such an in-
Therefore, since the predetermined processing is performed using the reference information of each driver's face direction or line-of-sight direction, the influence of individual differences in each driver's face direction or line-of-sight direction is reduced. A predetermined process can be executed, and a predetermined process can be accurately executed for each driver.
[構成例]
図2は、実施の形態に係る車載機10の要部構成を示すブロック図である。
車載機10は、プラットフォーム部11及びドライバモニタリング部20を含んで構成されている。また、車載機10にドライブレコーダ部30が接続されている。
[Configuration example]
FIG. 2 is a block diagram showing a main configuration of the vehicle-mounted
The on-
プラットフォーム部11には、車両2の加速度を検出する加速度センサ12、車両2の回転角速度を検出する角速度センサ13、車両2の位置を検出するGPS(Global Positioning System)受信部14が装備されている。また、プラットフォーム部11には、通信ネットワークを介して外部機器と通信処理を行う通信部15、警告などを行うための所定の音や音声を出力する報知部16、記憶部17、及び外部インターフェース(外部I/F)18が装備されている。さらにプラットフォーム部11には、各部の処理動作を制御する制御部19が装備されている。
The
加速度センサ12は、例えば、XYZ軸の3方向の加速度を検出する3軸加速度センサで構成されている。3軸加速度センサには、静電容量型の他、ピエゾ抵抗型などの半導体方式の加速度センサを用いることができる。なお、加速度センサ12には、2軸、1軸の加速度センサを用いてもよいが、少なくとも車両2に生じる前後方向の加速度を検出できるものが用いられる。加速度センサ12で検出された加速度データが、検出時刻と対応付けて制御部19のRAM19bに記憶される。
The
角速度センサ13は、少なくとも鉛直軸回り(ヨー方向)の回転に応じた角速度、すなわち、車両2の左右方向への回転(旋回)に応じた角速度データを検出可能なセンサ、例えば、ジャイロセンサ(ヨーレートセンサともいう)で構成されている。
なお、角速度センサ13には、鉛直軸回りの1軸ジャイロセンサの他、左右方向の水平軸回り(ピッチ方向)の角速度も検出する2軸ジャイロセンサ、さらに前後方向の水平軸回り(ロール方向)の角速度も検出する3軸ジャイロセンサを用いてもよい。これらジャイロセンサには、振動式ジャイロセンサの他、光学式、機械式のジャイロセンサを用いることができる。
The
The
また、角速度センサ13の鉛直軸回りの角速度の検出方向については、例えば、時計回りを正方向に、反時計回りを負方向に設定してもよい。この場合、車両2が右方向に旋回すれば正の角速度データが検出され、左方向に旋回すれば負の角速度データが検出される。角速度センサ13では、所定の周期(例えば、数十ms周期)で角速度が検出され、検出された角速度データが、例えば、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、加速度センサ12と角速度センサ13には、これらが一つのパッケージ内に実装された慣性センサを用いてもよい。
Further, regarding the detection direction of the angular velocity around the vertical axis of the
GPS受信部14は、アンテナ14aを介して人工衛星からのGPS信号を所定周期で受信して、現在地の位置情報(緯度、および経度)を検出する。GPS受信部14で検出された位置情報は、検出時刻と対応付けて制御部19のRAM19bに記憶される。なお、車両2の位置を検出する装置は、GPS受信部14に限定されるものではない。例えば、日本の準天頂衛星、ロシアのグロナス(GLONASS)、欧州のガリレオ(Galileo)、中国のコンパス(Compass)等の他の衛星測位システムに対応した測位装置を用いてもよい。
また、GPS受信部14で検出された位置情報を用いて、例えば、単位時間あたりの位置の変化を算出して車速を検出することが可能となっている。
The
Further, using the position information detected by the
通信部15は、通信ネットワークを介して外部装置にデータの出力処理などを行う通信モジュールを含んで構成されている。
The
記憶部17は、例えば、メモリーカードなどの着脱可能な記憶装置、又はハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)などの1つ以上の記憶装置で構成されている。記憶部17は、図1に例示した画像情報記憶部17a、登録情報記憶部17b、処理情報記憶部17cを含んで構成されている。また、記憶部17には、例えば、車載機10の各部、又はドライブレコーダ部30から取得したデータなどが記憶されてもよい。
The
外部I/F18は、ドライブレコーダ部30などの車載機器との間でデータや信号の授受を行うためのインターフェース回路や接続コネクタなどを含んで構成されている。
The external I /
制御部19は、CPU(Central Processing Unit)19a、RAM(Random Access Memory)19b、及びROM(Read Only Memory)19cを含むマイクロコンピュータで構成されている。制御部19は、取得した各種データをRAM19b又は記憶部17に記憶する処理を行う。また、制御部19は、ROM19cに記憶されたプログラム、RAM19b又は記憶部17に記憶された各種データを読み出して、前記プログラムを実行する。
The
制御部19のCPU19aが、図1に例示した算出部19aa、登録部19ab、認証部19ac、第1の処理部19ad、及び第2の処理部19aeの処理を実行する。また、ROM19cに、本発明に係る「プログラム」の一例が格納されている。
The
ドライバモニタリング部20は、ドライバカメラ21、画像解析部22、及びインターフェース(I/F)23を含んで構成されている。
ドライバカメラ21は、例えば、図示しないレンズ部、撮像素子部、光照射部、これら各部を制御するカメラ制御部などを含んで構成されている。
The
The
撮像素子部は、例えば、CCD(Charge Coupled Device)、又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、フィルタ、及びマイクロレンズなどを含んで構成されている。撮像素子部は、可視領域の光を受けて撮像画像を形成できるものを含む他、近赤外線などの赤外線又は紫外線を受けて撮像画像を形成できるCCD、CMOS、或いはフォトダイオード等の赤外線センサを含んでもよい。光照射部は、LED(Light Emitting Diode)などの発光素子を含み、また、昼夜を問わず運転者の状態を撮像できるように赤外線LEDなどを用いてもよい。ドライバカメラ21は、単眼カメラでもよいし、ステレオカメラであってもよい。
The image sensor unit includes, for example, an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a filter, a microlens, and the like. The image sensor unit includes an infrared sensor such as a CCD, CMOS, or a photodiode capable of forming an image by receiving light in the visible region and forming an image by receiving infrared rays such as near infrared rays or ultraviolet rays. But it may be. The light irradiation unit includes a light emitting element such as an LED (Light Emitting Diode), and an infrared LED or the like may be used so that the state of the driver can be imaged day or night. The
カメラ制御部は、例えば、プロセッサなどを含んで構成されている。カメラ制御部が、撮像素子部や光照射部を制御して、光照射部から光(例えば、近赤外線など)を照射し、撮像素子部でその反射光を撮像する制御などを行う。ドライバカメラ21は車両2の運転中に所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、ドライバカメラ21で撮像された画像のデータが画像解析部22へ出力される。
The camera control unit includes, for example, a processor and the like. The camera control unit controls the image pickup element unit and the light irradiation unit, irradiates light (for example, near infrared rays) from the light irradiation unit, and controls the image pickup element unit to image the reflected light. The
画像解析部22は、例えば、画像処理プロセッサなどを含んで構成され、ドライバカメラ21で撮像された画像から運転者の顔の向き、視線の方向、及び目開度のうちの少なくともいずれかの情報(運転者の状態)を検出する処理などを行う。画像解析部22が、図1に例示した画像取得部22a、認証情報取得部22b、向き検出部22cとしての処理を実行する。
The
画像解析部22で検出された運転者の状態を示すデータ、画像のデータ、及び撮像日時データが、インターフェース(I/F)23を介してプラットフォーム部11に送出され、プラットフォーム部11の記憶部17の画像情報記憶部17aに記憶される。
Data indicating the driver's condition, image data, and imaging date / time data detected by the
画像解析部22で検出される運転者の顔の向きは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ(Pitch)角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー(Yaw)角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール(Roll)角で示してよく、少なくとも左右の向きを示すヨー角が含まれる。またこれらの角度は、所定の基準方向に対する角度で示すことができ、例えば、基準方向が、運転者の正面方向に設定されてもよいし、ドライバカメラ21の光軸方向に設定されてもよい。
The orientation of the driver's face detected by the
また、画像解析部22で検出される運転者の視線の方向は、例えば、画像から検出された、運転者の顔の向きと、目領域の情報(目頭、眼尻、又は瞳孔の位置など)との関係から推定され、3次元座標上における視線ベクトルV(3次元ベクトル)などで示すことができる。視線ベクトルVは、例えば、運転者の顔のX軸(左右軸)回りの角度(上下の向き)であるピッチ角、顔のY軸(上下軸)回りの角度(左右の向き)であるヨー角、及び顔のZ軸(前後軸)回りの角度(左右傾き)であるロール角のうち、少なくとも1つと、前記目領域の情報とから推定されたものでもよい。また、視線ベクトルVは、その3次元ベクトルの一部の値を顔の向きのベクトルの値と共通(例えば、3次元座標の原点を共通)にして示したり、顔の向きのベクトルを基準とした相対角度(顔の向きのベクトルの相対値)で示したりしてもよい。
Further, the direction of the driver's line of sight detected by the
また、画像解析部22で検出される運転者の目開度は、例えば、画像から検出された、運転者の目領域の情報(目頭、眼尻、上下のまぶたの位置、又は瞳孔の位置など)を基に推定される。
The driver's eye opening detected by the
プラットフォーム部11の外部I/F18には、ドライブレコーダ部30が接続されている。ドライブレコーダ部30は、車外カメラ31と車内カメラ32とを含んで構成されている。
The
車外カメラ31は、車両2の前方の画像を撮像するカメラであり、車内カメラ32は、車両2の室内の画像を撮像するカメラである。車外カメラ31と車内カメラ32は、例えば、可視光カメラで構成され得るが、近赤外線カメラなどで構成してもよい。
The
車外カメラ31と車内カメラ32は、それぞれ所定のフレームレート(例えば、毎秒30〜60フレーム)で画像を撮像し、車外カメラ31と車内カメラ32で撮像された画像と撮像日時などのデータがプラットフォーム部11へ送出され、プラットフォーム部11のRAM19b又は記憶部17に記憶される。なお、ドライブレコーダ部30は車外カメラ31のみ備えた構成としてもよい。
The out-of-
車載機10は、プラットフォーム部11とドライバモニタリング部20とが1つの筐体内に収納された、コンパクトな構成にすることが可能である。その場合における車載機10の車内設置箇所は、ドライバカメラ21で少なくとも運転者の顔を含む視野を撮像できる位置であれば、特に限定されない。例えば車両2のダッシュボード中央付近の他、ハンドルコラム部分、メーターパネル付近、ルームミラー近傍位置、又はAピラー部分などに設置してもよい。
The in-
また、ドライバカメラ21の仕様(例えば、画角や画素数(縦×横)など)及び位置姿勢(例えば、取付角度や所定の原点(ハンドル中央位置など)からの距離など)を含む情報がドライバモニタリング部20又はプラットフォーム部11に記憶されてもよい。また、ドライバモニタリング部20は、プラットフォーム部11と一体に構成される形態の他、プラットフォーム部11と別体で構成されてもよい。また、車載機10の電源は、例えば、車両2のアクセサリー電源から供給される。
In addition, information including the specifications of the driver camera 21 (for example, the angle of view, the number of pixels (vertical x horizontal), etc.) and the position / orientation (for example, the mounting angle, the distance from a predetermined origin (the center position of the handle, etc.), etc.) is the driver. It may be stored in the
図3は、実施の形態に係る車載機10が適用される運転評価システムの一例を示す概略構成図である。
運転評価システム1は、車両2に乗車している運転者3の安全確認動作を評価するためのシステムであって、少なくとも1台以上の車両2に搭載される車載機10と、各車載機10から取得したデータを用いて、各運転者3の運転評価を行う、少なくとも1つ以上のサーバ装置40とを含んで構成されている。
FIG. 3 is a schematic configuration diagram showing an example of an operation evaluation system to which the vehicle-mounted
The driving evaluation system 1 is a system for evaluating the safety confirmation operation of the
車載機10とサーバ装置40とは、通信ネットワーク4を介して通信可能に構成されている。通信ネットワーク4は、基地局を含む携帯電話網(3G/4G)や無線LAN(Local Area Network)などの無線通信網を含んでもよいし、公衆電話網などの有線通信網、インターネット、又は専用網などの電気通信回線を含んでもよい。
The vehicle-mounted
車載機10は、車両2の運転者3の運転評価に用いるデータを取得し、所定のタイミングでサーバ装置40に送信する。車載機10からサーバ装置40に送信されるデータには、車載機10で検出された運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかのデータが含まれている。車両2の挙動を示すデータには、車載機10で検出された、車両2に生じる加速度、又は角速度のデータが含まれる。
The vehicle-mounted
また、車両2を管理する事業者の端末装置80(以下、事業者端末という。)が、通信ネットワーク4を介してサーバ装置40と通信可能に構成されている。事業者端末80は、通信機能を備えたパーソナルコンピュータであってもよいし、携帯電話、スマートフォン、又はタブレット装置などの携帯情報端末などであってもよい。また、事業者端末80が、通信ネットワーク4を介して車載機10と通信可能に構成されてもよい。
Further, the
サーバ装置40は、通信ユニット41、サーバコンピュータ50、及び記憶ユニット60を含んで構成され、これらが通信バス42を介して接続されている。
通信ユニット41は、通信ネットワーク4を介して、車載機10や事業者端末80などとの間で各種のデータや信号の送受信を実現するための通信装置で構成されている。
The
The
サーバコンピュータ50は、1つ以上のCPUを含んで構成される中央処理装置51と、制御プログラム53が記憶されたメインメモリ52とを含んで構成されている。中央処理装置51は、メインメモリ52中の制御プログラム53に従って、運転評価などの処理を実行するようになっている。
The
記憶ユニット60は、例えば、ハードディスクドライブ、ソリッドステートドライブなど、1つ以上の大容量記憶装置で構成され、データ蓄積部61、評価データ記憶部62、及び運転者3の情報が記憶される運転者情報記憶部63を含んで構成されている。
また、車載機10の登録情報記憶部17bに登録された情報が、サーバ装置40に所定のタイミングで送信される。運転者情報記憶部63には、各車載機10から取得した、登録情報記憶部17bの登録情報が記憶される。
The
Further, the information registered in the registration
運転評価システム1では、サーバ装置40が、各車載機10から所定の事象が検出されたときに送信されてきた、運転者3の状態、車両2の位置、及び車両2の挙動のうちの少なくともいずれかを含むデータを記憶ユニット60のデータ蓄積部61に蓄積する。所定の事象が検出されたときには、例えば、車載機10で車両2の交差点通過が検出されたとき、又は車載機10で運転者3の脇見が検出されたときなどが含まれる。
In the driving evaluation system 1, at least one of the state of the
サーバ装置40は、データ蓄積部61に蓄積された各車載機10のデータを用いて、各運転者3の運転評価を行う。該運転評価の項目には、交差点における安全確認動作に関する評価が含まれているが、さらに運転操作行為に関する評価、運転時の集中状態に関する評価などの項目が含まれてもよい。
The
サーバ装置40は、各車載機10から取得したデータを用いて、各車両2の一日の運転が終了した後に、各項目の運転評価処理を実行してもよいし、又は一定期間毎に、該一定期間内における各項目の評価処理を実行してもよく、運転評価処理の実行タイミングは特に限定されない。そして、サーバ装置40は、前記運転評価処理で得られた各運転者3の運転評価データを記憶ユニット60の評価データ記憶部62に記憶する処理を行う。
The
また、サーバ装置40は、クラウドサービスを提供できるように構成されている。例えば、サーバ装置40は、Webサーバ、アプリケーションサーバ、及びデータベースサーバを含むサーバシステムで構成されてもよい。Webサーバは、事業者端末80のブラウザからのアクセス要求などの処理を行う。アプリケーションサーバは、例えば、Webサーバからの要求に応じ、データベースサーバにアクセスして、処理に必要なデータの検索やデータの抽出などの処理を行う。データベースサーバは、例えば、車載機10から取得した各種データなどを管理し、アプリケーションサーバからの要求に応じて、データの検索、抽出、保存などの処理を行う。
Further, the
例えば、サーバ装置40は、事業者端末80のブラウザなどから要求された各種リクエスト、例えば、Webサイトへのログイン、運転評価報告書の送信リクエストなどを処理し、ブラウザなどを通じて処理結果、例えば、作成した運転評価報告書のデータを事業者端末80に送信し、事業者端末80の表示画面に運転評価報告書を表示させる処理を実行する。
For example, the
事業者は、事業者端末80の表示画面に表示された各運転者3の運転評価報告書を確認し、各運転者3に対して安全意識の改善を図る指導などを行う。このような指導を行うことにより、運転者3の安全意識を高めて、事故リスクの低減を図ることが可能となる。
The business operator confirms the driving evaluation report of each
[動作例]
図4は、実施の形態に係る車載機10におけるドライバモニタリング部20が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバカメラ21で画像が撮像されるタイミング(例えば、毎フレーム、又は所定間隔のフレーム毎)で実行される。
[Operation example]
FIG. 4 is a flowchart showing a processing operation performed by the
まず、画像解析部22は、ドライバカメラ21で撮像された画像を取得する(ステップS1)。
First, the
次に画像解析部22は、取得した画像から運転者の顔(例えば、顔の領域)を検出する処理を行う(ステップS2)。画像から顔を検出する手法は特に限定されないが、高速で高精度に顔を検出する手法を採用することが好ましい。例えば、顔の局所的な領域の明暗差(輝度差)、又はエッジ強度、これら局所的領域間の関連性などを特徴量として検出し、画像から顔の領域を探索する処理を実行してもよい。
Next, the
画像解析部22は、ステップS2で検出した顔の領域から、目、鼻、口、眉などの顔器官の位置や形状を検出する処理を行う(ステップS3)。画像中の顔の領域から顔器官を検出する手法は特に限定されないが、高速で高精度に顔器官を検出できる手法を採用することが好ましい。例えば、画像解析部22が、3次元顔形状モデルを作成し、これを2次元画像上の顔の領域にフィッティングさせ、顔の各器官の位置と形状を検出する手法が採用され得る。この手法によれば、ドライバカメラ21の設置位置や画像中の顔の向きなどに関わらず、正確に顔の各器官の位置と形状を検出することが可能となる。画像中の人の顔に3次元顔形状モデルをフィッティングさせる技術として、例えば、特開2007−249280号公報に記載された技術を適用することができるが、これに限定されるものではない。
The
次に画像解析部22は、ステップS3で求めた顔の各器官の位置や形状のデータに基づいて、運転者の顔の向きを検出する(ステップS4)。例えば、上記3次元顔形状モデルのパラメータに含まれている、上下回転(X軸回り)のピッチ角、左右回転(Y軸回り)のヨー角、及び全体回転(Z軸回り)のロール角のうちの少なくともヨー角を運転者の顔の向きに関する情報として検出することが好ましい。
Next, the
次に画像解析部22は、ステップS4で求めた運転者の顔の向き、及びステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、及び瞳孔)の位置や形状に基づいて、視線の方向を検出する(ステップS5)。
Next, the
視線の方向は、例えば、様々な顔の向きと視線方向の目の画像の特徴量(例えば、目尻、目頭、及び瞳孔の相対位置、強膜(いわゆる白目)部分と虹彩(いわゆる黒目)部分の相対位置、濃淡、又はテクスチャーなど)とを予め学習器を用いて学習し、これら学習した特徴量データとの類似度を評価することで検出してもよい。または、上記した3次元顔形状モデルのフィッティング結果などを用いて、顔の大きさや向きと目の位置などから眼球の大きさと中心位置とを推定するとともに、瞳孔の位置を検出し、眼球の中心と瞳孔の中心とを結ぶベクトルを視線の方向として検出してもよい。 The direction of the line of sight is, for example, the features of the image of the eye in various face directions and the direction of the line of sight (for example, the relative positions of the outer corner of the eye, the inner corner of the eye, and the pupil, the sclera (so-called white eye) part and the iris (so-called black eye) part. Relative position, shading, texture, etc.) may be detected by learning in advance using a learning device and evaluating the degree of similarity with the learned feature amount data. Alternatively, using the fitting result of the above-mentioned three-dimensional face shape model, the size and center position of the eyeball are estimated from the size and orientation of the face and the position of the eyes, and the position of the pupil is detected to detect the center of the eyeball. The vector connecting the center of the pupil and the center of the pupil may be detected as the direction of the line of sight.
次に画像解析部22は、ステップS3で求めた運転者の顔器官の位置や形状、特に目の特徴点(目尻、目頭、瞳孔、まぶた)の位置や形状に基づいて、目開度を検出する(ステップS6)。
Next, the
次に画像解析部22は、運転者の認証情報として、顔認証情報を取得する(ステップS7)。顔認証情報には、例えば、ステップS3で検出した、目、鼻、口、眉などの顔器官の位置や形状に関する情報が含まれる。なお、ステップS7において、顔認証情報に代えて、虹彩パターンなどの虹彩認証に必要な情報を取得してもよい。
Next, the
次に画像解析部22は、ステップS4で検出した運転者の顔の向きと、ステップS5で検出した運転者の視線の方向と、ステップS6で検出した運転者の目開度と、ステップS7で取得した顔認証情報と、運転者の画像と、撮像時刻とを対応付けて、画像情報としてプラットフォーム部11に送信する(ステップS7)。その後、画像解析部22は、ステップS1に戻り、処理を繰り返す。
Next, the
図5は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、ドライバモニタリング部20から画像情報を取得するタイミングで実行される。
FIG. 5 is a flowchart showing a processing operation performed by the
まず、制御部19は、ドライバモニタリング部20から画像情報を取得する(ステップS11)。画像情報は、図4に示すステップS7で、ドライバモニタリング部20から送信された情報である。
First, the
次に制御部19は、ドライバモニタリング部20から取得した画像情報を画像情報記憶部17aに記憶する(ステップS12)。
Next, the
次に制御部19は、画像情報記憶部17aに記憶された画像情報から顔認証情報を取得する(ステップS13)。
Next, the
次に制御部19は、ステップS13で取得した顔認証情報と、登録情報記憶部17bに登録されている各運転者の顔認証情報とを照合する処理を行う(ステップS14)。
Next, the
次に制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されているか否かを判断する(ステップS15)。
Next, the
制御部19は、ステップS15において、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていると判断すれば、次に登録情報記憶部17bから、当該顔認証情報に対応付けて記憶されている、運転者の顔の向き又は視線の方向の基準情報を読み出す処理を行う(ステップS16)。
If the
制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、ステップS16で読み出した、当該運転者の顔の向き又は視線の方向の基準情報に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS17)。
例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、運転者の顔の向き又は視線の方向の基準情報(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
The
For example, the driver's face direction or line-of-sight direction (yaw angle or pitch angle) included in the image information and the driver's face direction or line-of-sight direction reference information (yaw angle or pitch angle). The angle difference with and from is calculated, and the presence or absence of inattentiveness is determined based on whether or not the calculated angle difference exceeds the threshold value of a predetermined inattentiveness determination angle (yaw angle or pitch angle).
次に制御部19は、脇見が検出された否かを判定する(ステップS18)。
制御部19は、ステップS18において、脇見が検出されていないと判定すれば、その後処理を終える一方、ステップS18において、脇見が検出されたと判定すれば、次に、報知部16から脇見が検出されたことを報知する処理を行う(ステップS19)。
Next, the
If the
制御部19は、ステップS19の報知処理を行った後、脇見の検出データを処理情報記憶部17cに記憶する(ステップS20)。脇見の検出データには、例えば、脇見が検出された画像、その撮像日時、その時の車両の位置、運転者IDなどの情報が含まれている。
After performing the notification processing in step S19, the
次に制御部19は、処理情報記憶部17cに記憶された脇見の検出データをサーバ装置40へ送信する(ステップS21)。
Next, the
図6は、車載機10からサーバ装置40に送信されるデータの構造の一例を示す図である。
車載機10からサーバ装置40に送信されるデータには、車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者の顔の向き(ピッチ、ヨー、及びロール)、視線の方向(ピッチ、及びヨー)、目開度(右目、及び左目)、車両の加速度(少なくとも前後)、角速度(ヨー)、運転者ID、運転者画像、車外画像、及び車両の位置情報(緯度、及び経度)、及び走行速度などが含まれている。なお、サーバ装置40に送信されるデータの構造は、図6に示した構造に限定されるものではないが、少なくとも車載機10の識別情報(シリアルナンバー等)、脇見の識別記号、脇見の検出日時、運転者ID、及び運転者画像が含まれていることが好ましい。
FIG. 6 is a diagram showing an example of the structure of data transmitted from the vehicle-mounted
The data transmitted from the in-
また、車両2が交差点を通過したときも、同様のデータがサーバ装置40に送信される。その場合は、図6に示す脇見の識別記号、及び脇見の検出日時が、交差点通過の識別記号、及び交差点通過の日時になる。
Further, when the
また一方、ステップS15において、制御部19は、ステップS13で取得した顔認証情報が、登録情報記憶部17bに登録されていないと判断すれば、次にステップS13で取得した顔認証情報に、運転者を識別するためのID(識別符号)を付与して、登録情報記憶部17bに登録する処理を行う(ステップS22)。
On the other hand, in step S15, if the
次に制御部19は、脇見判定に使用する顔の向き又は視線の方向の基準を、車載機10の取付け時に予め設定された顔の向き又は視線の方向の初期値に設定して、ステップS12において画像情報記憶部17aに記憶された画像情報を用いて脇見判定処理を実行する(ステップS23)。
脇見判定処理は、例えば、画像情報に含まれている運転者の顔の向き又は視線の方向(ヨー角、又はピッチ角)と、顔の向き又は視線の方向の初期値(ヨー角、又はピッチ角)との角度差を算出し、算出した角度差が、所定の脇見判定角度(ヨー角、又はピッチ角)の閾値を超えたか否かにより脇見の有無を判定する。
Next, the
The inattentive determination process includes, for example, the driver's face orientation or line-of-sight direction (yaw angle or pitch angle) included in the image information, and the initial value of the face orientation or line-of-sight direction (yaw angle or pitch). The angle difference from the angle) is calculated, and the presence or absence of inattentiveness is determined based on whether or not the calculated angle difference exceeds the threshold value of the predetermined inattentiveness determination angle (yaw angle or pitch angle).
その後、制御部19は、上記したステップS18〜S21の処理を実行して、処理を終える。
After that, the
図7は、実施の形態に係る車載機10における制御部19が行う処理動作を示すフローチャートである。本処理動作は、例えば、運転者ごとの顔の向き又は視線の方向の基準を算出する所定のタイミングで実行される。
FIG. 7 is a flowchart showing a processing operation performed by the
まず制御部19は、画像情報記憶部17aに記憶された画像情報を用いて、運転者ごとの顔の向き又は視線の方向の基準を算出する所定の算出タイミングになったか否かを判断する(ステップS31)。
First, the
所定の算出タイミングになったか否かは、車載機10の電源がオンされてから所定期間が経過したか否か、車両2からイグニッションスイッチ(始動スイッチ)のオフ信号を取得したか否か、又は画像情報記憶部17aに所定フレーム数もしくは所定容量の画像が記憶されたか否かにより判断してもよい。
Whether or not the predetermined calculation timing has been reached depends on whether or not a predetermined period has passed since the power of the on-
または、所定の算出タイミングになったか否かは、車両2の特定の走行状態が所定期間継続したか否かにより判断してもよい。車両2の特定の走行状態は、例えば、車速が一定範囲の状態(定速走行の状態)、又は車両2で検出される角速度が直進状態を示す範囲内にある状態(直進走行の状態)などでもよい。
Alternatively, whether or not the predetermined calculation timing has been reached may be determined by whether or not the specific traveling state of the
制御部19は、ステップS31において所定の算出タイミングになったと判断すれば、次に、登録情報記憶部17bから、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う(ステップS32)。
登録情報記憶部17bには、運転者IDと、運転者の認証情報と、運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録されるが、運転者の顔の向き又は視線の方向の基準情報が算出されていない(未登録の)段階では、運転者IDと、運転者の認証情報とが対応付けて登録されている。ステップS32では、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDを読み出す処理を行う。
If the
The driver ID, the driver's authentication information, and the reference information of the driver's face direction or the line-of-sight direction are registered in the registration
次に制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったか否かを判断し(ステップS33)、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあったと判断すれば、ステップS34の処理に進む。
Next, the
制御部19は、ステップS34において、画像情報記憶部17aに記憶されている画像情報から顔認証情報を取得する処理を行う。
In step S34, the
次に制御部19は、登録情報記憶部17bから読み出した当該運転者IDと対応付けられた顔認証情報と、画像情報記憶部17aから取得した顔認証情報とを照合する処理を行う(ステップS35)。
Next, the
次に制御部19は、照合OKか否か、すなわち、顔認証情報が一致しているか否かを判断し(ステップS36)、照合OKと判断すれば、ステップS37の処理に進む。
Next, the
制御部19は、ステップS37において、画像情報記憶部17aから、ステップS36で一致したと判断された顔認証情報と対応付けられている画像情報を読み込み、これら画像情報から当該運転者の顔の向き又は視線の方向の基準情報を算出する処理を行う。
In step S37, the
画像情報には、複数の画像から検出された運転者の顔の向き又は視線の方向などの情報(ヨー角、ピッチ角など)が含まれている。制御部19は、例えば、複数の画像から検出された運転者の顔の向き又は視線の方向(ヨー角、ピッチ角など)の最頻値、平均値、又は中央値を算出して、これら値のいずれかを運転者の顔の向き又は視線の方向の基準値としてもよい。
The image information includes information (yaw angle, pitch angle, etc.) such as the direction of the driver's face or the direction of the line of sight detected from a plurality of images. The
運転者の顔の向き又は視線の方向の基準情報は、運転者の顔の向き又は視線の方向を示す角度情報、例えば、ヨー角、ピッチ角、及びロール角のうちの少なくとも1つの角度情報の最頻値でもよいし、中央値でもよいし、平均値でもよいが、最頻値が好ましい。また、運転者の顔の向き又は視線の方向の基準情報に、運転者の顔の各器官の位置に関する最頻値、中央値、又は平均値を含んでもよい。 The reference information of the driver's face direction or the line-of-sight direction is the angle information indicating the driver's face direction or the line-of-sight direction, for example, the angle information of at least one of the yaw angle, the pitch angle, and the roll angle. It may be the mode, the median, or the average, but the mode is preferred. In addition, the reference information of the direction of the driver's face or the direction of the line of sight may include the mode, median, or average value for the position of each organ of the driver's face.
次に制御部19は、ステップS37で算出された、運転者の顔の向き又は視線の方向の基準情報を登録情報記憶部17bに登録する処理を行う(ステップS38)。登録情報記憶部17bには、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とが対応付けて登録される。
Next, the
次に制御部19は、登録情報記憶部17bに登録された情報、すなわち、運転者IDと、運転者の認証情報と、ステップS37で算出された運転者の顔の向き又は視線の方向の基準情報とを含む登録情報をサーバ装置40へ送信する(ステップS39)。なお、登録情報を別のタイミングでサーバ装置40へ送信してもよい。サーバ装置40では、登録情報を受信して、運転者情報記憶部63に記憶する。運転者情報記憶部63には、各車載機10から受信した登録情報が記憶される。
Next, the
その後、制御部19は、ステップS33の処理に戻り、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあるか否かを判断し、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがあると判断すれば、ステップS34〜39の処理を繰り返す。すなわち、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDごと(換言すれば、運転者ごと)に顔の向き又は視線の方向の基準情報を登録する処理、及び登録情報をサーバ装置40へ送信する処理を繰り返す。
After that, the
ステップS33において、制御部19は、運転者の顔の向き又は視線の方向の基準情報が未登録の運転者IDがないと判断すれば、その後処理を終える。
In step S33, if the
図8は、実施の形態に係るサーバ装置40の中央処理装置51が行う処理動作の一例を示すフローチャートである。
中央処理装置51は、車載機10から送信されてきたデータを受信したか否かを判断する(ステップS41)。
FIG. 8 is a flowchart showing an example of a processing operation performed by the
The
中央処理装置51は、車載機10からデータを受信したと判断すれば、次に、車載機10から受信したデータを、車載機10の識別情報と対応付けてデータ蓄積部61に記憶する(ステップS42)。
If the
その後、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングか否かを判断する(ステップS43)。運転者の安全運転行動の評価を実行するタイミングか否かは、例えば、車載機10から車両2の運転終了を示す信号を受信したか否かで判断してもよい。
After that, the
中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングではないと判断すればステップS41に戻る。一方、中央処理装置51は、運転者の安全運転行動の評価を実行するタイミングになったと判断すれば、車載機10が搭載された車両2の運転者3の交差点における安全確認動作の評価処理を開始する(ステップS44)。
If the
次に中央処理装置51は、データ蓄積部61から車載機10の交差点通過時のデータを取得する(ステップS45)。なお、交差点通過時のデータは、図6に示したデータの構造と同様に構成され、交差点を通過する期間(交差点通過する前後数十秒程度)のデータを取得する。
Next, the
次に中央処理装置51は、運転者情報記憶部63に登録されている各運転者の顔の向き又は視線の方向の基準情報の中に、ステップS45で取得した交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があるか否かを判断する(ステップS46)。
Next, the
中央処理装置51は、ステップS46において、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報があると判断すれば、ステップS47の処理を実行する。中央処理装置51は、ステップS47において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準に設定する処理を行う。
If the
次に中央処理装置51は、車両2が交差点に進入した時刻を推定する(ステップS48)。例えば、中央処理装置51は、交差点通過時のデータに含まれる角速度データの積分値を演算し、演算された積分値が所定の積分比率に到達した時刻を交差点への進入時刻として推定する。
Next, the
次に中央処理装置51は、車両2が交差点で曲がる方向を推定する(ステップS49)。例えば、中央処理装置51は、角速度データの正負により、車両2が交差点で曲がる方向を推定する。例えば、正の値の場合は右折、負の値の場合は左折と推定する。
Next, the
次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入前の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS50)。
Next, the
次に中央処理装置51は、運転者IDと対応付けられている運転者の顔の向き又は視線の方向の基準を用いて、交差点進入後の安全確認動作(右又は左方向の確認タイミング、顔の振り角度、及び振り時間など)を、所定の評価条件と比較して評価を行う(ステップS51)。
Next, the
次に中央処理装置51は、交差点への進入時刻の前後所定時間における車両2の走行速度が適切であるかを評価する。例えば、車両2の走行速度が、交差点内で安全走行が可能な所定の速度以下であるかどうかを評価する(ステップS52)。
Next, the
次に中央処理装置51は、ステップS50、S51、S52で評価された点数又はランク付けされたスコアを集計し、交差点における運転評価点を算出する(ステップS53)。
Next, the
次に中央処理装置51は、ステップS53で算出された運転評価点を、車載機10の識別情報又は運転者3の情報(運転者ID)と対応付けて記憶ユニット60の評価データ記憶部62に記憶する(ステップS54)。
Next, the
次に中央処理装置51は、全ての通過交差点における評価を完了したか否かを判断し(ステップS55)、評価を完了したと判断すればその後処理を終える一方、評価を完了していないと判断すればステップS48に戻り、処理を繰り返す。
Next, the
一方、ステップS46において、中央処理装置51が、交差点通過時のデータに含まれている運転者IDと同一IDが紐付けられている基準情報がないと判断すれば、ステップS56の処理を実行する。中央処理装置51は、ステップS56において、交差点における運転者の顔振り角度(安全確認動作)を検出するための正面向きの基準を、予め設定された顔の向き又は視線の方向の初期値に設定する処理を行い、その後ステップS48〜S55の処理を実行する。この場合、ステップS50、S51では、予め設定された顔の向き又は視線の方向の初期値を用いて、交差点進入前と交差点進入後の安全確認動作が評価される。
On the other hand, in step S46, if the
[作用・効果]
上記実施の形態に係る車載機10によれば、運転者3の各々の認証情報と、運転者3の各々の顔の向き又は視線の方向の基準情報とが、運転者ごとに対応付けて登録情報記憶部17bに登録され、登録情報記憶部17bに登録された運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、運転者の脇見判定処理が行われる。
したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された脇見判定処理を実行することができ、運転者3ごとに脇見判定処理を精度よく実行することができる。
[Action / Effect]
According to the vehicle-mounted
Therefore, it is possible to execute the inattentive determination process in consideration of the individual difference in the direction of the face or the direction of the line of sight of the
また、車載機10によれば、認証部19acにより運転者3が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて脇見判定処理が行われるので、認証部19acにより運転者3が認証されなかった場合でも脇見判定処理を適切に実行することができる。
Further, according to the in-
また、車載機10によれば、算出部19aaにより、ドライバカメラ21で撮像された運転者3の画像から運転者の顔の向き又は視線の方向の基準情報を効率よく算出することができる。
Further, according to the vehicle-mounted
また、車載機10によれば、運転者3の顔の向き又は視線の方向の基準情報が、ドライバカメラ21で撮像された運転者3の複数の画像を用いて統計処理された統計値(最頻値、中央値、又は平均値など)を含んでいるので、運転者3の各々の顔の向き又は視線の方向の基準情報の精度を高めることができる。
Further, according to the vehicle-mounted
また、車載機10によれば、ドライバカメラ21を認証情報の取得にも用いることができるので、運転者の認証情報を取得するための装備を追加する必要がなく、装置コストを抑制することができる。
Further, according to the in-
また、運転評価システム1によれば、運転評価を行うサーバ装置40が、車載機10の登録情報記憶部17bに登録された情報を取得して、運転者情報記憶部63に記憶する。サーバ装置40において、運転者情報記憶部63に記憶された登録情報、すなわち、運転者3の各々の顔の向き又は視線の方向の基準情報を用いて、交差点における運転者の安全確認動作の判定処理や評価処理が行われる。したがって、運転者3の各々の顔の向き又は視線の方向、換言すれば、顔の向き又は視線の方向の個人差が考慮された安全確認動作の判定処理や評価処理を実行することができ、運転者3ごとに安全確認動作の判定処理や評価処理を精度よく実行することができる。
Further, according to the operation evaluation system 1, the
[変形例]
以上、本発明の実施の形態を詳細に説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく、種々の改良や変更を行うことができることは言うまでもない。
[Modification example]
Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in all respects. Needless to say, various improvements and changes can be made without departing from the scope of the present invention.
図9は、別の実施の形態に係る運転評価システム1Aの特徴部分を示す機能構成ブロック図の一例である。
図1に例示した実施の形態では、車載機10に、算出部19aa、登録部19ab、及び登録情報記憶部17bが装備され、車載機10が、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部17bに登録するように構成されている。
FIG. 9 is an example of a functional configuration block diagram showing a feature portion of the
In the embodiment illustrated in FIG. 1, the vehicle-mounted
別の実施の形態では、図9に示すように、サーバ装置40Aのサーバコンピュータ50Aに算出部51a、登録部51bが装備されるとともに、記憶ユニット60Aに登録情報記憶部64が装備される構成としてもよい。
In another embodiment, as shown in FIG. 9, the
係る形態によれば、サーバ装置40Aが、各車載機10Aから画像情報を取得して、運転者の各々の顔の向き又は視線の方向の基準情報を算出し、算出された基準情報を登録情報記憶部64に登録する処理を実行する。
According to this embodiment, the
また、サーバ装置40Aは、登録情報記憶部64に登録された情報を、各車載機10Aに送信する処理を実行する。車載機10Aは、サーバ装置40Aから取得した登録情報を用いて、認証部19acで運転者の認証処理を実行する。
Further, the
上記運転評価システム1Aによれば、車載機10Aが、認証情報取得部22bと、認証部19acと、第1の処理部19adとを備え、サーバ装置40Aが、算出部51aと、登録部51bとを備えている。
According to the
したがって、上記した運転評価システム1と同様の効果を得ることができるとともに、サーバ装置40Aに算出部51aと、登録部51bとを装備することで、車載機10Aにおける処理負担を減らすことができ、また装置コストも抑えることができる。また、サーバ装置40Aで、運転者の各々の認証情報と、顔の向き又は視線の方向の基準情報とを一元管理することができ、多数の車載機10Aを使用し、多数の運転者3を管理する場合でも効率よく適切な運用を行うことができる。
Therefore, the same effect as that of the above-mentioned operation evaluation system 1 can be obtained, and by equipping the
[付記]
本発明の実施の形態は、以下の付記の様にも記載され得るが、これらに限定されない。
(付記1)
車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(19aa)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(19aa)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(19ab)と、
該登録部(19ab)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(19ab)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部(19ad)とを備えていることを特徴とする車載機(10)。
[Additional Notes]
Embodiments of the present invention may also be described as, but are not limited to, the following appendices.
(Appendix 1)
The acquisition unit (22b) that acquires the authentication information of the driver who drives the vehicle (2), and
A calculation unit (19aa) that calculates reference information for the driver's face direction or line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition unit (22b) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated by the calculation unit (19aa) are described. A registration unit (19ab) that is associated and registered for each driver,
An authentication unit (19ac) that authenticates the driver based on the information registered by the registration unit (19ab) and the authentication information of the driver acquired by the acquisition unit (22b).
When the driver is authenticated by the authentication unit (19ac), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered by the registration unit (19ab) and acquired. The vehicle-mounted device (10) is provided with a first processing unit (19ad) that performs a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.
(付記2)
車両(2)に搭載される車載機(10A)から取得した情報に基づいて、前記車両(2)の運転者の運転を評価する運転評価システム(1A)であって、
前記車両(2)を運転する運転者の認証情報を取得する取得部(22b)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出部(51a)と、
前記取得部(22b)により取得された前記運転者の各々の認証情報と、前記算出部(51a)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部(51b)と、
該登録部(51b)により登録された情報と、前記取得部(22b)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部(19ac)と、
該認証部(19ac)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記登録部(51b)により登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理部(19ad)とを備えていることを特徴とする運転評価システム(1A)。
(Appendix 2)
It is a driving evaluation system (1A) that evaluates the driving of the driver of the vehicle (2) based on the information acquired from the on-board unit (10A) mounted on the vehicle (2).
The acquisition unit (22b) that acquires the authentication information of the driver who drives the vehicle (2), and
The calculation unit (51a) that calculates the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired by the acquisition unit (22b) and the reference information of the face direction or the line-of-sight direction of each of the drivers calculated by the calculation unit (51a) are described. A registration unit (51b) that is associated and registered for each driver, and
An authentication unit (19ac) that authenticates the driver based on the information registered by the registration unit (51b) and the authentication information of the driver acquired by the acquisition unit (22b).
When the driver is authenticated by the authentication unit (19ac), the reference information of the face orientation or the line-of-sight direction of the authenticated driver is acquired from the information registered by the registration unit (51b) and acquired. The driving evaluation system (1A) is characterized by including a processing unit (19ad) that performs a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.
(付記3)
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを含むことを特徴とする情報処理方法。
(Appendix 3)
Acquisition step (S7) to acquire the authentication information of the driver who drives the vehicle (2), and
The calculation step (S37) for calculating the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired in the acquisition step (S7) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated in the calculation step (S37) are described. A registration step (S38) in which each driver is associated and registered in the storage unit (17b), and
An authentication step for authenticating the driver based on the information registered in the storage unit (17b) in the registration step (S38) and the driver authentication information acquired in the acquisition step (S7). (S14) and
When the driver is authenticated by the authentication step (S14), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered in the storage unit (17b) and acquired. An information processing method including a processing step (S17) of performing a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.
(付記4)
少なくとも1つのコンピュータに、
車両(2)を運転する運転者の認証情報を取得する取得ステップ(S7)と、
前記運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップ(S37)と、
前記取得ステップ(S7)により取得された前記運転者の各々の認証情報と、前記算出ステップ(S37)により算出された前記運転者の各々の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部(17b)に登録する登録ステップ(S38)と、
該登録ステップ(S38)により前記記憶部(17b)に登録された情報と、前記取得ステップ(S7)により取得された運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップ(S14)と、
該認証ステップ(S14)により前記運転者が認証された場合、該認証された運転者の顔の向き又は視線の方向の基準情報を前記記憶部(17b)に登録された情報から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップ(S17)とを実行させることを特徴とするプログラム。
(Appendix 4)
On at least one computer
The acquisition step (S7) of acquiring the authentication information of the driver who drives the vehicle (2), and
The calculation step (S37) for calculating the reference information of the driver's face direction or the line-of-sight direction, and
The authentication information of each of the drivers acquired in the acquisition step (S7) and the reference information of the face orientation or the line-of-sight direction of each of the drivers calculated in the calculation step (S37) are described. A registration step (S38) in which each driver is associated and registered in the storage unit (17b), and
An authentication step (1) in which the driver is authenticated based on the information registered in the storage unit (17b) in the registration step (S38) and the driver authentication information acquired in the acquisition step (S7). S14) and
When the driver is authenticated by the authentication step (S14), the reference information of the face direction or the line-of-sight direction of the authenticated driver is acquired from the information registered in the storage unit (17b) and acquired. A program characterized by executing a processing step (S17) of performing a predetermined process using the reference information of the driver's face direction or the line-of-sight direction.
1、1A 運転評価システム
2 車両
3 運転者
4 通信ネットワーク
10 車載機
11 プラットフォーム部
12 加速度センサ
13 角速度センサ
14 GPS受信部
14a アンテナ
15 通信部
16 報知部
17 記憶部
17a 画像情報記憶部
17b 登録情報記憶部
17c 処理情報記憶部
18 外部インターフェース(外部I/F)
19 制御部
19a CPU
19aa 算出部
19ab 登録部
19ac 認証部
19ad 第1の処理部
19ae 第2の処理部
19b RAM
19c ROM
20 ドライバモニタリング部
21 ドライバカメラ(撮像部)
22 画像解析部
22a 画像取得部
22b 認証情報取得部(取得部)
22c 向き検出部
23 インターフェース(I/F)
30 ドライブレコーダ部
31 車外カメラ
32 車内カメラ
40、40A サーバ装置
41 通信ユニット
50、50A サーバコンピュータ
51 中央処理装置
51a 算出部
51b 登録部
52 メインメモリ
53 制御プログラム
60、60A 記憶ユニット
61 データ蓄積部
62 評価データ記憶部
63 運転者情報記憶部
64 登録情報記憶部
80 事業者端末
1, 1A
19
19aa Calculation unit 19ab Registration unit 19ac Authentication unit 19ad First processing unit 19ae
19c ROM
20
22
30
Claims (10)
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムであって、
前記車載機が、
前記車両を運転する運転者の認証情報を取得する取得部と、
前記サーバ装置から取得した各運転者の登録情報と、前記取得部により取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証部と、
該認証部により前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第1の処理部とを備え、
前記認証部で認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するように構成され、
前記サーバ装置が、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出部と、
前記各車載機から取得した前記各運転者の認証情報と、前記算出部により算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて登録する登録部とを備え、
該登録部により登録された前記各運転者の登録情報を、前記各車載機に送信するように構成されていることを特徴とする運転評価システム。 On-board equipment installed in at least one vehicle and
It is a driving evaluation system including at least one or more server devices that evaluate the driving of each driver using the data acquired from these in-vehicle devices.
The in-vehicle device
An acquiring unit that acquires authentication information of a driver who drives the vehicle,
An authentication unit that authenticates the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired by the acquisition unit.
When the driver is authenticated by the authentication unit, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. It is provided with a first processing unit that performs predetermined processing using the reference information of the direction.
It is configured to transmit information including the driver's authentication information authenticated by the authentication unit and time-series information of the driver's face direction or line-of-sight direction to the server device.
The server device
A calculation unit that calculates reference information for each driver's face orientation or line-of-sight direction using time-series information of each driver's face orientation or line-of-sight direction acquired from each on-board unit.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation unit are registered in association with each driver. With a registration department
A driving evaluation system characterized in that the registration information of each driver registered by the registration unit is transmitted to each in-vehicle device .
前記認証部により前記運転者が認証されなかった場合、予め設定された顔の向き又は視線の方向の基準情報を用いて所定の処理を行う第2の処理部を備えていることを特徴とする請求項1記載の運転評価システム。 The in-vehicle device
When the driver is not authenticated by the authentication unit, the driver is provided with a second processing unit that performs a predetermined process using the preset reference information of the face direction or the line-of-sight direction. The operation evaluation system according to claim 1.
前記サーバ装置の前記算出部が、前記各車載器の前記撮像部で撮像された前記各運転者の画像から前記各運転者の顔の向き又は視線の方向の基準情報を算出するものであることを特徴とする請求項1又は請求項2記載の運転評価システム。 The on-board unit includes an imaging unit that images the driver.
Said the calculating unit of the server device, and calculates the reference information of the orientation or line of sight direction of the face of each driver from said respective driver of the image captured by the imaging unit of the vehicle-mounted device The operation evaluation system according to claim 1 or 2, wherein the operation evaluation system is characterized .
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムで行われる情報処理方法であって、
前記車載機が、
前記車両を運転する運転者の認証情報を取得する取得ステップと、
前記サーバ装置から取得した各運転者の登録情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップと、
前記認証ステップで認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するステップとを含む処理を行い、
前記サーバ装置が、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記各車載機から取得した前記各運転者の認証情報と、前記算出ステップにより算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより登録された前記各運転者の登録情報を、前記各車載機に送信するステップとを含む処理を行うことを特徴とする情報処理方法。 On-board equipment installed in at least one vehicle and
It is an information processing method performed by a driving evaluation system including at least one or more server devices that evaluates the driving of each driver using the data acquired from these in-vehicle devices.
The in-vehicle device
The acquisition step of acquiring the authentication information of the driver who drives the vehicle, and
An authentication step for authenticating the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired in the acquisition step.
When the driver is authenticated by the authentication step, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. a processing step of performing a predetermined process using the reference information of direction,
A process including a step of transmitting information including the driver's authentication information authenticated in the authentication step and time-series information of the driver's face direction or line-of-sight direction to the server device is performed.
The server device
Using the time-series information of each driver's face orientation or line-of-sight direction acquired from each in-vehicle device, a calculation step of calculating the reference information of each driver's face orientation or line-of-sight direction, and a calculation step.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation step are stored in association with each driver. Registration steps to register with the department and
An information processing method comprising performing a process including a step of transmitting the registration information of each driver registered in the registration step to each in-vehicle device.
これら車載機から取得したデータを用いて、各運転者の運転評価を行う、少なくとも1つ以上のサーバ装置とを含んで構成される運転評価システムで実行されるプログラムであって、
前記車載機に、
前記車両を運転する運転者の認証情報を取得する取得ステップと、
前記サーバ装置から取得した各運転者の登録情報と、前記取得ステップにより取得された前記運転者の認証情報とに基づいて、前記運転者の認証を行う認証ステップと、
該認証ステップにより前記運転者が認証された場合、認証された前記運転者の顔の向き又は視線の方向の基準情報を前記サーバ装置から取得し、取得した前記運転者の顔の向き又は視線の方向の基準情報を用いて所定の処理を行う処理ステップと、
前記認証ステップで認証された前記運転者の認証情報と、当該運転者の顔の向き又は視線の方向の時系列情報とを含む情報を前記サーバ装置へ送信するステップとを実行させ、
前記サーバ装置に、
各車載機から取得した各運転者の顔の向き又は視線の方向の時系列情報を用いて、前記各運転者の顔の向き又は視線の方向の基準情報を算出する算出ステップと、
前記各車載機から取得した前記各運転者の認証情報と、前記算出ステップにより算出された前記各運転者の顔の向き又は視線の方向の基準情報とを、前記運転者ごとに対応付けて記憶部に登録する登録ステップと、
該登録ステップにより登録された前記各運転者の登録情報を、前記各車載機に送信するステップとを実行させることを特徴とするプログラム。 On-board equipment installed in at least one vehicle and
It is a program executed by a driving evaluation system including at least one or more server devices that evaluates the driving of each driver using the data acquired from these in-vehicle devices.
In the in-vehicle device
The acquisition step of acquiring the authentication information of the driver who drives the vehicle, and
An authentication step for authenticating the driver based on the registration information of each driver acquired from the server device and the authentication information of the driver acquired in the acquisition step.
When the driver is authenticated by the authentication step, reference information of the authenticated driver's face orientation or line-of-sight direction is acquired from the server device, and the acquired driver's face orientation or line-of-sight direction is obtained. a processing step of performing a predetermined process using the reference information of direction,
A step of transmitting information including the driver's authentication information authenticated in the authentication step and time-series information of the driver's face direction or line-of-sight direction to the server device is executed.
To the server device
Using the time-series information of each driver's face orientation or line-of-sight direction acquired from each in-vehicle device, a calculation step for calculating reference information of each driver's face orientation or line-of-sight direction, and a calculation step.
The authentication information of each driver acquired from each of the in-vehicle devices and the reference information of the face direction or the line-of-sight direction of each driver calculated by the calculation step are stored in association with each driver. Registration steps to register with the department and
A program characterized by executing a step of transmitting the registration information of each driver registered in the registration step to each in-vehicle device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018046943A JP6950597B2 (en) | 2018-03-14 | 2018-03-14 | On-board unit, driving evaluation system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018046943A JP6950597B2 (en) | 2018-03-14 | 2018-03-14 | On-board unit, driving evaluation system, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019159924A JP2019159924A (en) | 2019-09-19 |
JP6950597B2 true JP6950597B2 (en) | 2021-10-13 |
Family
ID=67996299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018046943A Active JP6950597B2 (en) | 2018-03-14 | 2018-03-14 | On-board unit, driving evaluation system, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6950597B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7404950B2 (en) * | 2020-03-16 | 2023-12-26 | いすゞ自動車株式会社 | Image transmission device and authentication system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012022579A (en) * | 2010-07-15 | 2012-02-02 | Fujitsu Ltd | Face direction detector, face direction detection program and face direction detection method |
WO2015064080A1 (en) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | Gaze direction-detecting device and gaze direction-detecting method |
-
2018
- 2018-03-14 JP JP2018046943A patent/JP6950597B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019159924A (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP6693489B2 (en) | Information processing device, driver monitoring system, information processing method, and information processing program | |
US20180204078A1 (en) | System for monitoring the state of vigilance of an operator | |
CN110712623B (en) | Vehicle-mounted device, operation management system, and driver confirmation method | |
US10666901B1 (en) | System for soothing an occupant in a vehicle | |
WO2019117005A1 (en) | Driving evaluation report, vehicle-mounted device, driving evaluation report creation device, driving evaluation report creation system, computer program for creation of driving evaluation report, and storage medium | |
TW201927610A (en) | Safety confirmation evaluating device, on-vehicle device, safety confirmation evaluation system having the two, safety confirmation evaluation method, and safety confirmation evaluation program | |
US11903647B2 (en) | Gaze detector, method for controlling gaze detector, method for detecting corneal reflection image position, and storage medium | |
JP2021033742A (en) | Drive evaluation device, drive evaluation system, drive evaluation method, program, and intersection attribution determination method | |
JP7114953B2 (en) | In-vehicle device, driving evaluation device, driving evaluation system provided with these, data transmission method, and data transmission program | |
JP6950597B2 (en) | On-board unit, driving evaluation system, information processing method, and program | |
JP2019159926A (en) | Driver replacement promotion device, drive evaluation system having the same thereon, and computer program | |
JP7060841B2 (en) | Operation evaluation device, operation evaluation method, and operation evaluation program | |
JP7099036B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP7068606B2 (en) | Driving evaluation device, on-board unit, driving evaluation method, and computer program | |
JP7070827B2 (en) | Driving evaluation device, in-vehicle device, driving evaluation system equipped with these, driving evaluation method, and driving evaluation program | |
WO2019117004A1 (en) | Safety check evaluation device, on-board device, safety check evaluation system comprising these, safety check evaluation method, safety check evaluation program, and storage medium | |
JP7075048B2 (en) | Safety confirmation evaluation device, in-vehicle device, safety confirmation evaluation system equipped with these, safety confirmation evaluation method, and safety confirmation evaluation program | |
JP7298351B2 (en) | State determination device, in-vehicle device, driving evaluation system, state determination method, and program | |
US20210370956A1 (en) | Apparatus and method for determining state | |
JP7235438B2 (en) | Driving evaluation device, driving evaluation method, and computer program | |
JP7130994B2 (en) | In-vehicle device, backward determination method, and backward determination program | |
JP7135913B2 (en) | Driving evaluation screen display method, program, driving evaluation system, and driving evaluation screen | |
KR20210119243A (en) | Blackbox System for Detecting Drowsy Driving and Careless Driving and Method thereof | |
KR20220005290A (en) | In-Cabin Security Sensor and Platform Service Method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210824 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6950597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |