JP2023012146A - 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム - Google Patents

危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム Download PDF

Info

Publication number
JP2023012146A
JP2023012146A JP2021115628A JP2021115628A JP2023012146A JP 2023012146 A JP2023012146 A JP 2023012146A JP 2021115628 A JP2021115628 A JP 2021115628A JP 2021115628 A JP2021115628 A JP 2021115628A JP 2023012146 A JP2023012146 A JP 2023012146A
Authority
JP
Japan
Prior art keywords
vehicle
driver
unit
estimating
dangerous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021115628A
Other languages
English (en)
Inventor
健揮 上田
Kenki Ueda
亮介 立花
Ryosuke Tachibana
伸一朗 川端
Shinichiro Kawabata
敬 北川
Takashi Kitagawa
充啓 馬渕
Mitsuhiro Mabuchi
利弘 安田
Toshihiro Yasuda
哲生 嶽本
Tetsuo Takemoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021115628A priority Critical patent/JP2023012146A/ja
Publication of JP2023012146A publication Critical patent/JP2023012146A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】危険な状況の要因を推定可能な危険要因推定装置、危険要因推定システム、及び危険要因推定プログラムを提供することを目的とする。【解決手段】推定部50は、車両の周辺を撮影部24によって撮影した撮影画像、並びに、車両情報検出部22によって検出した車両の走行に関する車両情報及び撮影部24によって運転者を撮影した撮影画像の少なくとも一方を取得する。また、推定部50は、車両周辺の撮影画像から危険な状況として危険シートを推定して、車両情報及び運転者の撮影画像少なくとも一方から危険シーンの要因を推定する処理を行う。【選択図】図2

Description

本発明は、運転の際の危険な状況の要因を推定する危険要因推定装置、危険要因推定システム、及び危険要因推定プログラムに関する。
特許文献1には、横軸をドライバの危険運転挙動の度合い、縦軸を危険運転挙動の度合いに応じたドライバ数とし、記憶部に記憶されているドライバの走行履歴情報を用いて判定された安全ドライバ群と危険ドライバ群の分布と、診断対象ドライバの危険運転挙動についての診断結果とを含む画面情報を生成して出力する運転診断装置が開示されている。
特許文献2には、ドライバの首振り角度を含む挙動を取得する挙動取得部と、ドライバの挙動を参照して、危険の予兆を判定する危険予兆判定部と、危険の予兆の判定結果を出力する出力部と、を備えた危険予兆判定装置が開示されている。
特開2016-197308号公報 特開2019-79150号公報
特許文献1では、他の運転者の危険運転挙動についての診断結果の分布に対して自身の診断結果が分かる画面情報を生成しているが、危険運転の要因までは分からず、運転の改善ポイントを提案するためには改善の余地がある。
また、特許文献2では、ドライバを撮影した画像のみを用いて危険予兆を判定しているが、車外環境を考慮していないため、危険な状況の要因では分からず、運転の改善ポイントを提案するためには改善の余地がある。
そこで、本発明は、危険な状況の要因を推定可能な危険要因推定装置、危険要因推定システム、及び危険要因推定プログラムを提供することを目的とする。
上記目的を達成するために請求項1に記載の危険要因推定装置は、車両周辺を車両から撮影した周辺撮影画像、並びに、車両の走行に関する車両情報及び運転者を撮影した運転者撮影画像の少なくとも一方を取得する取得部と、前記取得部によって取得された前記周辺撮影画像から危険な状況を推定する危険推定部と、前記取得部によって取得された前記少なくとも一方から前記危険推定部によって推定された前記危険な状況の要因を推定する要因推定部と、を含む。
請求項1に記載の発明によれば、取得部では、車両周辺を車両から撮影した周辺撮影画像、並びに、車両の走行に関する車両情報及び運転者を撮影した運転者撮影画像の少なくとも一方が取得される。
危険推定部では、取得部によって取得された周辺撮影画像から危険な状況が推定される。
そして、要因推定部では、取得部によって取得された少なくとも一方から危険推定部によって推定された危険な状況の要因が推定される。これにより、危険な状況を推定して、推定された危険な状況の要因を推定するので、危険な状況の要因を推定可能な危険要因推定装置を提供できる。
なお、前記取得部が、前記周辺撮影画像及び前記車両情報を取得し、前記要因推定部は、前記危険な状況の推定時の前記車両情報から乱暴運転を前記要因として推定してもよい。これにより、車両情報から運転の操作状況が分かるので、乱暴運転を危険な状況の要因として推定することが可能となる。
また、前記取得部が、前記周辺撮影画像及び前記運転者撮影画像を取得し、前記要因推定部が、前記危険な状況の推定時の前記運転者撮影画像から運転者の注意不足を前記要因として推定してもよい。これにより、危険な状況の推定時の運転者撮影画像から運転者の注意不足であるか否かが分かるので、危険な状況の推定時の運転者撮影画像から運転者の注意不足を要因として推定可能となる。
また、前記要因推定部は、前記周辺撮影画像から求めた危険度ヒートマップの予め定めた閾値以上の領域に、前記運転者撮影画像から求めた視線方向が重複しない場合に、前記注意不足を前記要因として推定してもよい。これにより、注意不足の場合には、危険な状況の方向を運転者が見ていないため、周辺撮影画像から求めた危険度ヒートマップの予め定めた閾値以上の領域に、運転者撮影画像から求め視線方向が重複しない場合に、運転者の注意不足を要因として推定可能となる。
なお、上記危険要因推定装置と、前記周辺撮影画像、並びに、前記車両情報及び前記運転者撮影画像の少なくとも一方を前記危険要因推定装置に送信する車両と、を含む危険要因推定システムとしてもよい。これにより、危険な状況を推定して、推定された危険な状況の要因を推定するので、危険な状況の要因を推定可能な危険要因推定システムを提供できる。
また、コンピュータに、車両周辺を車両から撮影した周辺撮影画像、並びに、車両の走行に関する車両情報及び運転者を撮影した運転者撮影画像の少なくとも一方を取得し、前記周辺撮影画像から危険な状況を推定して、前記少なくとも一方から前記危険な状況の要因を推定する処理を実行させるための危険要因推定プログラムとしてもよい。これにより、危険な状況を推定して、推定された危険な状況の要因を推定するので、危険な状況の要因を推定可能な危険要因推定プログラムを提供できる。
以上説明したように本発明によれば、危険な状況の要因を推定可能な危険要因推定装置、危険要因推定システム、及び危険要因推定プログラムを提供できる。
本実施形態に係る運転評価システムの概略構成を示す図である。 本実施形態に係る運転評価システムにおける車載器及びクラウドサーバの機能構成を示す機能ブロック図である。 車載器の制御部及びクラウドサーバの中央処理部の構成を示すブロック図である。 推定部の詳細な機能構成を示すブロック図である。 本実施形態に係る運転評価システムのクラウドサーバにおいて、中央処理部の推定部の機能で行われる処理の流れの一例を示すフローチャートである。 運転者状態推定処理の流れの一例を示すフローチャートである。 車両挙動推定処理の流れの一例を示すフローチャートである。 注意不足判定処理の流れの一例を示すフローチャートである。 フレーム画像、視線方向の領域、及び危険度が閾値以上の領域の一例、並びに危険注視度の算出例を示す図である。 乱暴運転判定処理の流れの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。本実施形態では、危険要因推定システムの一例として、運転者の運転を評価する運転評価システムについて説明する。図1は、本実施形態に係る運転評価システムの概略構成を示す図である。
本実施形態に係る運転評価システム10は、車両14に搭載された車載器16と、危険要因推定装置の一例としてのクラウドサーバ12とが通信ネットワーク18を介して接続されている。本実施形態に係る運転評価システム10では、複数の車載器16の撮影によって得られる画像情報及び各車両14の状態を表す車両情報をクラウドサーバ12に送信して、クラウドサーバ12が画像情報及び車両情報を蓄積する。また、クラウドサーバ12が、蓄積した情報に基づいて、危険シーンの検出や危険シーンにおける危険な状況の要因を推定する処理や、運転者を評価する処理等を行う。
図2は、本実施形態に係る運転評価システム10における車載器16及びクラウドサーバ12の機能構成を示す機能ブロック図である。
車載器16は、制御部20、車両情報検出部22、撮影部24、通信部26、及び表示部28を備えている。
車両情報検出部22は、車両14に関する車両情報を検出する。車両情報の一例としては、例えば、車両14の位置情報、車速、加速度、舵角、アクセル開度、車両周辺の障害物までの距離、経路等の車両情報を検出する。車両情報検出部22は、具体的には、車両14の周辺環境がどのような状況かを表す情報を取得する複数種のセンサや装置を適用できる。センサや装置の一例としては、車速センサ、及び加速度センサなどの車両14に搭載されるセンサや、GNSS(Global Navigation Satellite System)装置、車載通信機、ナビゲーションシステム、及びレーダ装置などが挙げられる。GNSS装置は、複数のGNSS衛星からGNSS信号を受信して自車両14の位置を測位する。GNSS装置は受信可能なGNSS信号の数が多くなるに従って測位の精度が向上する。車載通信機は、通信部26を介して他の車両14との間の車車間通信及び路側機との間の路車間通信の少なくとも一方を行う通信装置である。ナビゲーションシステムは、地図情報を記憶する地図情報記憶部を含み、GNSS装置から得られる位置情報と地図情報記憶部に記憶された地図情報とに基づいて、自車両14の位置を地図上で表示したり、目的地迄の経路を案内したりする処理を行う。また、レーダ装置は、検出範囲が互いに異なる複数のレーダを含み、自車両14の周辺に存在する歩行者や他車両14等の物体を検出し、検出した物体と自車両14の相対位置及び相対速度を取得する。また、レーダ装置は周辺の物体の探知結果を処理する処理装置を内蔵している。当該処理装置は、直近の複数回の探知結果に含まれる個々の物体との相対位置や相対速度の変化等に基づき、ノイズやガードレール等の路側物等を監視対象から除外し、歩行者や他車両14等を監視対象物体として追従監視する。そしてレーダ装置は、個々の監視対象物体との相対位置や相対速度等の情報を出力する。なお、本実施形態では、車両情報として、少なくとも車速を検出する。
撮影部24は、本実施形態では、車両の外側を撮影する外向きカメラと、車室内を撮影する内向きカメラを有する。撮影部24は、外向きカメラにより前方等の車両周辺を撮影し、動画像の撮影画像を表す外向き動画像データを画像情報として生成する。また、撮影部24は、内向きカメラにより車室内の運転者を撮影し、動画像の撮影画像を表す内向き動画像データを画像情報として生成する。例えば、外向きカメラとしてはドライブレコーダ等を適用し、内向きカメラとしては運転者モニタカメラ等を適用できる。なお、外向きカメラは、車両14の側方及び後方の少なくとも一方の車両周辺を更に撮影してもよい。
通信部26は、通信ネットワーク18を介してクラウドサーバ12と通信を確立して、撮影部24の撮影によって得られる画像情報や車両情報検出部22によって検出された車両情報等の情報をCAN(Controller Area Network)データとして送受信を行う。
表示部28は、情報を表示することにより、乗員に各種情報を提供する。本実施形態では、例えば、クラウドサーバ12から提供される情報等を表示する。
制御部20は、図3に示すように、CPU(Central Processing Unit)20A、ROM(Read Only Memory)20B、RAM(Random Access Memory)20C、ストレージ20D、インタフェース(I/F)20E、及びバス20F等を含む一般的なマイクロコンピュータで構成されている。
制御部20は、撮影部24によって撮影された画像を表す動画像の画像情報、及び画像の撮影時に車両情報検出部22によって検出された車両情報をクラウドサーバ12にアップロードする制御等を行う。なお、画像情報及び車両情報をアップロードする際には、車両及び運転者の少なくとも一方を識別する識別情報を付与して送信する。運転者を識別する情報は、例えば、運転者を撮影した撮影画像でもよいし、運転者が携帯するスマートキーの識別情報でもよいし、運転者を識別可能な他の情報でもよい。
一方、クラウドサーバ12は、中央処理部30、中央通信部36、及びDB(データベース)38を備えている。
中央処理部30は、図3に示すように、CPU30A、ROM30B、及びRAM30C、ストレージ30D、インタフェース(I/F)30E、及びバス30F等を含む一般的なマイクロコンピュータで構成されている。
中央処理部30は、CPU30AがROM30Bに格納されたプログラムをRAM30Cに展開して実行することで、車両情報収集部44、動画データ収集部48、及び推定部50の機能を有する。
車両情報収集部44は、複数の車両14の車載器16の各々で検出された車両情報を収集して、DB38に蓄積する処理を行う。車両情報としては、車両14に搭載された各種センサ等によって検出された情報を収集する。
動画データ収集部48は、複数の車両14の車載器16各々で撮影された動画像データを画像情報として収集して、DB38に蓄積する処理を行う。本実施形態では、撮影部24によって撮影された外向き動画像データ及び内向き動画像データのそれぞれを画像情報としてDB38に蓄積する。
推定部50は、車両14の周辺を撮影部24によって撮影した撮影画像、並びに、車両情報検出部22によって検出した車両14の走行に関する車両情報及び撮影部24によって運転者を撮影した撮影画像の少なくとも一方を取得する。また、推定部50は、車両周辺の撮影画像から危険な状況として危険シートを推定して、車両情報及び運転者の撮影画像の少なくとも一方から危険な状況としての危険シーンの要因を推定する処理を行う。例えば、推定部50は、危険シーンを推定する処理や、危険シーンにおける運転者の状態の推定、車両挙動の推定を行うことにより、危険要因を推定する処理を行う。
中央通信部36は、通信ネットワーク18を介して車載器16と通信を確立して、画像情報や車両情報等の情報の送受信を行う。
DB38には、車両情報収集部44によって収集された車両情報、及び動画データ収集部48によって収集された動画像データと、車両及び運転者の少なくとも一方を識別する識別情報とを対応付けて蓄積する。
クラウドサーバ12は、DB38に蓄積された情報に基づいて、危険シーンを検出する処理や、危険シーンの要因を推定する処理、運転者を評価する処理等を行う。そして、クラウドサーバ12は、運転評価結果を運転者にフィードバックするサービスなどの各種サービスを提供する。
続いて、クラウドサーバ12の中央処理部30における上述の推定部50の詳細な機能構成について説明する。図4は、推定部50の詳細な機能構成を示すブロック図である。
推定部50は、図4に示すように、外向き動画取得部52、外向き動画フレーム読込部54、及び、危険シーン推定部56の機能を有する。また、推定部50は、内向き動画取得部58、内向き動画フレーム読込部60、運転者状態推定部62、車両情報取得部64、車両挙動推定部66、及び危険運転要因推定部68の機能を有する。なお、外向き動画取得部52、内向き動画取得部58、及び車両情報取得部64は取得部の一例に対応する。また、危険シーン推定部56は危険推定部の一例に対応し、危険運転要因推定部68は要因推定部の一例に対応する。
外向き動画取得部52は、車載器16から収集してDB38に格納された画像情報のうち外向きカメラで撮影された外向き動画データを取得する。詳細には、外向き動画取得部52は、注目する車両又は運転者の外向き動画データを取得する。
外向き動画フレーム読込部54は、外向き動画取得部52が取得した外向き動画データからフレーム画像を抽出する。
危険シーン推定部56は、外向き動画フレーム読込部54によって抽出されたフレーム画像が危険シーンに該当するか否かを判定して危険シーンを推定する。危険シーンの推定は、例えば、機械学習等により予め定めたモデルを用いて、一時不停止、歩行者妨害、車間距離不保持等の危険シーンを推定する。
内向き動画取得部58は、車載器16から収集してDB38に格納された撮影画像のうち内向きカメラで撮影された内向き動画データを取得する。詳細には、内向き動画取得部58は、注目する車両又は運転者の内向き動画データを取得する。
内向き動画フレーム読込部60は、内向き動画取得部58が取得した内向き動画データから危険シーン推定部56によって推定された危険シーンの時刻に対応するフレーム画像を抽出する。なお、危険シーンの時刻と同じ時刻のフレーム画像がない場合は、危険シーンの時刻に近いフレーム画像を抽出してもよい。
運転者状態推定部62は、外向き動画フレーム読込部54によって抽出されたフレーム画像から運転者の顔の向きや視線、覚醒度等を推定することにより運転者状態を推定する。これにより、危険シーンの推定時の外向き動画のフレーム画像から運転者の注意不足であるか否かが分かるので、危険シーンの推定時の運転者の注意不足を要因として推定可能となる。
車両情報取得部64は、DB38に格納された車両情報のうち、危険シーン推定部56によって推定された危険シーンの時刻に対応する車両情報を取得する。詳細には、車両情報取得部64は、注目する車両又は運転者の危険シーンの時刻に対応する車両情報を取得する。なお、車両情報取得部64は、危険シーンの時刻と同じ時刻の車両情報がない場合は、危険シーンの時刻に近い車両情報を取得してもよい。
車両挙動推定部66は、車両情報取得部64が取得した車両情報から危険シーン推定部56によって推定された危険シーンにおける急加速や、急減速、急ハンドル等の車両挙動を推定する。これにより、車両情報から運転の操作状況が分かるので、乱暴運転を危険シーンの要因として推定することが可能となる。
危険運転要因推定部68は、運転者状態推定部62及び車両挙動推定部66の各々の推定結果に基づいて、危険運転の要因を推定する。具体的には、危険運転要因推定部68は、運転者状態推定部62によって推定された運転者の視線の向き等からよそ見運転の有無を推定する。推定方法としては、パターンマッチングや予め定めた機械学習モデル等の周知の技術を用いて推定する。また、危険運転要因推定部68は、注目の車両又は運転者の車両情報の危険シーンに対応する時刻の車両情報と、他の車両の車両情報の平均値との乖離が予め定めた閾値以上か否かを判断することにより、急加速や急減速、急ハンドル等の乱暴運転の有無を推定する。例えば、危険運転要因推定部68は、よそ見が推定され、正常な車両挙動が推定された場合には注意不足と推定する。また、危険運転要因推定部68は、運転者状態が正常であると推定され、車両挙動が急加速と推定された場合には乱暴運転と推定する。
続いて、上述のように構成された本実施形態に係る運転評価システム10のクラウドサーバ12において、中央処理部30の推定部50の機能で具体的に行われる処理について説明する。図5は、本実施形態に係る運転評価システム10のクラウドサーバ12において、中央処理部30の推定部50の機能で行われる処理の流れの一例を示すフローチャートである。なお、図5の処理は、例えば、予め定めた期間毎に開始してもよいし、クラウドサーバ12のオペレータ等の操作者によって指示された場合に開始してもよい。
ステップ100では、CPU30Aが、外向き動画を取得してステップ102へ移行する。すなわち、外向き動画取得部52が、DB38に格納され外向きカメラで撮影された外向き動画データのうち、注目の車両又は運転者の外向き動画データを取得する。
ステップ102では、CPU30Aが、外向き動画か動画フレームを読み込んでステップ104へ移行する。すなわち、外向き動画フレーム読込部54が、外向き動画取得部52が取得した外向き動画データから注目するフレーム画像を抽出する。
ステップ104では、CPU30Aが、注目のフレーム画像から危険シーンを推定してステップ106へ移行する。すなわち、危険シーン推定部56が、外向き動画フレーム読込部54によって抽出されたフレーム画像が危険シーンに該当するか否かを判定して危険シーンを推定する。危険シーンの推定は、例えば、機械学習等により予め定めたモデルを用いて、一時不停止、歩行者妨害、車間距離不保持等の危険シーンを推定する。
ステップ106では、CPU30Aが、危険シーンがあるか否かを判定する。該判定が肯定された場合にはステップ108へ移行し、否定された場合にはステップ114へ移行する。
ステップ108では、CPU30Aが、運転者の状態を推定する運転者状態推定処理を実行してステップ110へ移行する。運転者状態推定処理の詳細については後述する。
ステップ110では、CPU30Aが、車両の挙動を推定する車両挙動推定処理を実行してステップ112へ移行する。車両挙動推定処理の詳細については後述する。
ステップ112では、CPU30Aが、危険シーンの危険要因を推定する危険要因推定処理を実行してステップ114へ移行する。危険要因推定処理の詳細については後述する。
ステップ114では、CPU30Aが、次フレームがないか否かを判定する。該判定が否定された場合にはステップ102に戻って上述の処理を繰り返し、判定が肯定されたところで一連の処理を終了する。
ここで、上述の運転者状態推定処理について詳細に説明する。図6は、運転者状態推定処理の流れの一例を示すフローチャートである。
ステップ200では、CPU30Aが、内向き動画を取得してステップ202へ移行する。すなわち、内向き動画取得部58が、DB38に格納された内向き動画データのうち注目の車両又は運転者の内向き動画データを取得する。
ステップ202では、CPU30Aが、注目中の外向き動画データの画像フレームに対応する内向き動画データの動画フレームを取得してステップ204へ移行する。すなわち、内向き動画フレーム読込部60が、内向き動画取得部58が取得した内向き動画データから危険シーン推定部56によって推定された危険シーンの時刻に対応するフレーム画像を抽出する。なお、危険シーンの時刻と同じ時刻のフレーム画像がない場合は、危険シーンの時刻に近いフレーム画像を抽出してもよい。
ステップ204では、CPU30Aが、運転者の視線や、覚醒度等の運転者状態を推定して一連の運転者状態推定処理を終了して図5のステップ110へ移行する。すなわち、運転者状態推定部62が、外向き動画フレーム読込部54によって抽出されたフレーム画像から運転者の顔の向きや視線、覚醒度等を推定することにより運転者状態を推定し、運転者の視線の向き等からよそ見運転の有無を推定する。
次に、上述の車両挙動推定処理について詳細に説明する。図7は、車両挙動推定処理の流れの一例を示すフローチャートである。
ステップ300では、CPU30Aが、車両情報を取得してステップ302へ移行する。すなわち、車両情報取得部64が、DB38に格納された車両情報のうち、注目の車両又は運転者の車両情報を取得する。
ステップ302では、CPU30Aが、外向き動画データのフレーム画像に対応する車両情報を取得してステップ304へ移行する。すなわち、車両情報取得部64が、取得した車両情報のうち、危険シーン推定部56によって推定された危険シーンの時刻に対応する車両情報を取得する。なお、車両情報取得部64は、危険シーンの時刻と同じ時刻の車両情報がない場合は、危険シーンの時刻に近い車両情報を取得してもよい。
ステップ304では、CPU30Aが、急加速や、急減速、急ハンドル操作等の車両挙動を推定して車両挙動推定処理を終了して図5のステップ112へ移行する。すなわち、車両挙動推定部66が、注目の車両又は運転者の車両情報のうち、危険シーンに対応する時刻の車両情報を抽出して他の車両の車両情報の平均値を算出し、注目車両の車両情報との乖離が予め定めた閾値以上か否かを判断する。これにより、急加速や急減速、急ハンドル等の車両挙動を推定する。
次に、上述の危険要因推定処理について詳細に説明する。本実施形態では、危険要因推定処理として、運転者の注意不足を判定する注意不足判定処理と、運転者の乱暴運転を判定する乱暴運転判定処理とを行う。
まず、注意不足判定処理について詳細に説明する。図8は、注意不足判定処理の流れの一例を示すフローチャートである。
ステップ400では、CPU30Aが、視線方向を外向き画像フレーム内にマッピングしてステップ402へ移行する。具体的には、危険運転要因推定部68が、車両挙動推定部66によって推定された運転者の視線方向の位置を、注目の外向き動画のフレーム画像内に対応させて、フレーム画像中の視線方向の領域を特定する。図9に示すフレーム画像の例では、点線の矩形領域が視線方向の領域として特定された例を示す。
ステップ402では、CPU30Aが、危険度ヒートマップを作成してステップ404へ移行する。具体的には、危険運転要因推定部68が、注目の外向き動画のフレーム画像に対して危険度を評価して危険度のヒートマップを作成し、予め定めた閾値以上の領域を特定する。図9に示すフレーム画像の例では、フレーム画像中の実線の矩形領域が閾値以上の領域として特定された例を示す。
ステップ404では、CPU30Aが、危険注視度を算出してステップ406へ移行する。具体的には、危険運転要因推定部68が、視線方向の領域と、危険度が閾値以上の領域のIoU(Intersection over Union)を算出する。すなわち、視線方向の領域と危険度が閾値以上の領域の重なり度合いを表す指標を算出する。例えば、危険注視度は、図9に示すように、視線方向の領域と危険度が閾値以上の領域が重なる領域を、視線方向と危険度が閾値以上の領域の双方を含む領域で除算することで算出する。これにより、注意不足の場合には、危険シーンの方向を運転者が見ていないため、危険度ヒートマップの予め定めた閾値以上の領域に、運転者の視線方向が重複しない場合に、運転者の注意不足を要因として推定可能となる。
ステップ406では、CPU30Aが、危険注視度が閾値以上であるか否かを判定する。該判定は、危険運転要因推定部68が、ステップ404で算出したIoUの値が予め定めた閾値以下であるか否かを判定する。該判定が否定された場合には注意不足判定処理を終了して図5のステップ114へ移行し、判定が肯定された場合にはステップ408へ移行する。
ステップ408では、CPU30Aが、よそ見と見なして注意不足と判定し、注意不足判定処理を終了して図5のステップ114へ移行する。すなわち、危険運転要因推定部68が、危険シーンの要因として、よそ見運転の注意不足があると判定する。
続いて、乱暴運転判定処理について詳細に説明する。図10は、乱暴運転判定処理の流れの一例を示すフローチャートである。
ステップ500では、CPU30Aが、位置情報を元に危険シーン観測地点の平均センサ値を算出してステップ502へ移行する。詳細には、危険運転要因推定部68が、注目車両の位置情報を元に危険シーン観測地点の他の車両14の平均センサ値を算出する。
ステップ502では、CPU30Aが、注目車両のセンサ値と、他の車両の平均センサ値の乖離が予め定めた閾値以上であるか否かを判定する。該判定が否定された場合には乱暴運転判定処理を終了して図5のステップ114へ移行し、判定が肯定された場合にはステップ504へ移行する。
ステップ504では、CPU30Aが、乱暴運転と判定し、乱暴運転判定処理を終了して図5のステップ114へ移行する。すなわち、危険運転要因推定部68が、危険シーンの要因として、乱暴運転があると判定する。
このようにクラウドサーバ12が処理を行うことにより、危険状況としての危険シーンを推定し、運転者の注意不足や乱暴運転等の危険シーンの要因を推定することが可能となる。
また、危険シーンの要因が推定可能となることで、運転の改善ポイントを提案することが可能となる。
なお、上記の実施形態では、クラウドサーバ12が、車両情報及び内向き動画フレームのそれぞれを取得して危険な状況の要因を推定する例を説明したが、これに限るものではない。例えば、車両情報又は内向き動画フレームを取得し、上述の注意不足判定処理又は乱暴運転判定処理を行う形態としてもよい。
また、上記の実施形態では、危険シーンの検出をクラウドサーバ12側で行う例を説明したが、これに限るものではない。例えば、車載器16側で危険シーンを検出して検出結果をクラウドサーバ12に送信する形態としてもよいし、他のサーバで危険シーンを検出してクラウドサーバ12に送信する形態としてもよい。
また、上記の各実施形態におけるクラウドサーバ12で行われる処理は、プログラムを実行することにより行われるソフトウエア処理として説明したが、これに限るものではない。例えば、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、及びFPGA(Field-Programmable Gate Array)等のハードウエアで行う処理としてもよい。或いは、ソフトウエア及びハードウエアの双方を組み合わせた処理としてもよい。また、ソフトウエアの処理とした場合には、プログラムを各種記憶媒体に記憶して流通させるようにしてもよい。
さらに、本発明は、上記に限定されるものでなく、上記以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
10 運転評価システム
12 クラウドサーバ
14 車両
16 車載器
22 車両情報検出部
24 撮影部
30 中央処理部
38 DB
44 車両情報収集部
48 動画データ収集部
50 推定部
52 外向き動画取得部(取得部)
54 外向き動画フレーム読込部
56 危険シーン推定部(危険推定部)
58 内向き動画取得部(取得部)
60 内向き動画フレーム読込部
62 運転者状態推定部
64 車両情報取得部(取得部)
66 車両挙動推定部
68 危険運転要因推定部(要因推定部)

Claims (6)

  1. 車両周辺を車両から撮影した周辺撮影画像、並びに、車両の走行に関する車両情報及び運転者を撮影した運転者撮影画像の少なくとも一方を取得する取得部と、
    前記取得部によって取得された前記周辺撮影画像から危険な状況を推定する危険推定部と、
    前記取得部によって取得された前記少なくとも一方から前記危険推定部によって推定された前記危険な状況の要因を推定する要因推定部と、
    を含む危険要因推定装置。
  2. 前記取得部が、前記周辺撮影画像及び前記車両情報を取得し、
    前記要因推定部は、前記危険な状況の推定時の前記車両情報から乱暴運転を前記要因として推定する請求項1に記載の危険要因推定装置。
  3. 前記取得部が、前記周辺撮影画像及び前記運転者撮影画像を取得し、
    前記要因推定部が、前記危険な状況の推定時の前記運転者撮影画像から運転者の注意不足を前記要因として推定する請求項1又は請求項2に記載の危険要因推定装置。
  4. 前記要因推定部は、前記周辺撮影画像から求めた危険度ヒートマップの予め定めた閾値以上の領域に、前記運転者撮影画像から求めた視線方向が重複しない場合に、前記注意不足を前記要因として推定する請求項3に記載の危険要因推定装置。
  5. 請求項1~4の何れか1項に記載の危険要因推定装置と、
    前記周辺撮影画像、並びに、前記車両情報及び前記運転者撮影画像の少なくとも一方を前記危険要因推定装置に送信する車両と、
    を含む危険要因推定システム。
  6. コンピュータに、
    車両周辺を車両から撮影した周辺撮影画像、並びに、車両の走行に関する車両情報及び運転者を撮影した運転者撮影画像の少なくとも一方を取得し、
    前記周辺撮影画像から危険な状況を推定して、前記少なくとも一方から前記危険な状況の要因を推定する処理を実行させるための危険要因推定プログラム。
JP2021115628A 2021-07-13 2021-07-13 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム Pending JP2023012146A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021115628A JP2023012146A (ja) 2021-07-13 2021-07-13 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021115628A JP2023012146A (ja) 2021-07-13 2021-07-13 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム

Publications (1)

Publication Number Publication Date
JP2023012146A true JP2023012146A (ja) 2023-01-25

Family

ID=85381577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021115628A Pending JP2023012146A (ja) 2021-07-13 2021-07-13 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム

Country Status (1)

Country Link
JP (1) JP2023012146A (ja)

Similar Documents

Publication Publication Date Title
JP7355151B2 (ja) 情報処理装置、情報処理方法、プログラム
EP1892149A1 (en) Method for imaging the surrounding of a vehicle and system therefor
US11003925B2 (en) Event prediction system, event prediction method, program, and recording medium having same recorded therein
CN111932901A (zh) 道路车辆跟踪检测设备、方法及存储介质
JP6993428B2 (ja) 教師データ生成装置
JP2012123625A (ja) 車両運転推定システム
CN111052174A (zh) 图像处理设备、图像处理方法和程序
US11189162B2 (en) Information processing system, program, and information processing method
US20210142075A1 (en) Information processing device, information processing system, and recording medium recording information processing program
JP7347390B2 (ja) 運転評価装置、運転評価システム、及び運転評価プログラム
US20220101025A1 (en) Temporary stop detection device, temporary stop detection system, and recording medium
JP2023012146A (ja) 危険要因推定装置、危険要因推定システム、及び危険要因推定プログラム
US20230104858A1 (en) Image generation apparatus, image generation method, and non-transitory computer-readable medium
US11636692B2 (en) Information processing device, information processing system, and recording medium storing information processing program
JP2022027305A (ja) 危険運転検出装置、危険運転検出システム、及び危険運転検出プログラム
JP2022027306A (ja) 移動体妨害検出装置、移動体妨害検出システム、及び移動体妨害検出プログラム
JP2023166227A (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
US20230091500A1 (en) Data processing apparatus, sending apparatus, and data processing method
WO2023223427A1 (ja) 道路異状推定システム、道路異状推定方法、およびプローブ車両
US20230356720A1 (en) Information processing device, information processing system, and information processing method
JP2023012147A (ja) 運転評価装置、運転評価システム、及び運転評価プログラム
JP6681044B2 (ja) 逆走検知システム
JP2022111536A (ja) 情報処理装置、情報処理システム、及び情報処理プログラム
JP2023134733A (ja) 情報処理装置
CN117208000A (zh) 用于警告车辆用户以防临时危险情况的用于车辆的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240212