JP2021157248A - 状況出力装置 - Google Patents

状況出力装置 Download PDF

Info

Publication number
JP2021157248A
JP2021157248A JP2020054203A JP2020054203A JP2021157248A JP 2021157248 A JP2021157248 A JP 2021157248A JP 2020054203 A JP2020054203 A JP 2020054203A JP 2020054203 A JP2020054203 A JP 2020054203A JP 2021157248 A JP2021157248 A JP 2021157248A
Authority
JP
Japan
Prior art keywords
visual
image
unit
tendency
visual saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020054203A
Other languages
English (en)
Inventor
友二 伊藤
Tomoji Ito
友二 伊藤
俊明 井上
Toshiaki Inoue
俊明 井上
晃司 柴田
Koji Shibata
晃司 柴田
渉 小野寺
Wataru Onodera
渉 小野寺
良平 加川
Ryohei Kagawa
良平 加川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2020054203A priority Critical patent/JP2021157248A/ja
Publication of JP2021157248A publication Critical patent/JP2021157248A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ヒヤリハット等の発生した状況を推定する。【解決手段】状況出力装置1は、視覚顕著性演算部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを取得する。次に、移動体の移動環境の視覚的傾向として、視覚的注意集中度演算部4が視覚顕著性マップと予め画像に定めた理想視線とに基づいて画像における視覚的注意集中度Psを取得し、脇見傾向演算部5が視覚顕著性マップに基づいて脇見の傾向を判定し、単調傾向演算部6が視覚顕著性マップに基づいて当該画像が単調傾向か判定し、視認負荷傾向演算部8が視覚顕著性マップに基づいて当該画像について視認負荷が大きいか判定する。そして、状況出力部7が、取得された視覚的注意集中度Psと、脇見の傾向の判定結果と、単調傾向の判定結果と、視認負荷傾向の判定結果に基づいて取得した画像の状況を出力する。【選択図】図1

Description

本発明は、移動体から外部を撮像した画像に基づく状況を出力する状況出力装置に関する。
例えばドライブレコーダにおいては、車両の加速度に基づいて事故又はヒヤリハット等の発生を検出して、その発生前後の画像を記録している。
特許文献1には、車両から送信された車両情報と、過去に発生した事故・ヒヤリハットについて蓄積された車両情報とを比較して、共通点を特定する共通点特定部220と、共通点に基づいて、車両に発生した事故・ヒヤリハットの要因が環境要因であるか否かを推定する環境要因推定部230と、共通点に基づいて、車両に発生した事故・ヒヤリハットの要因がドライバ要因であるか否かを推定するドライバ要因推定部240と、環境要因推定部230およびドライバ要因推定部240による推定結果に基づいて、車両の事故・ヒヤリハットの主要因を決定する要因判定部250と、を備える要因分析装置が記載されている。
特開2016−71492号公報
特許文献1に記載の発明は、ヒヤリハット等の要因を推定するために、エリア、日時、天気、車両の情報、車外センサデータ、ドライバデータといった様々な情報を収集している。そのため、車両内外の情報を取得するため、センサとの通信手段等を設ける必要があり、容易に実施することができない。
また、特許文献1に記載の発明では、推定要因として見通しの悪いカーブといった特定の要因しか記録されない。そのため、なぜ、その要因が発生したかといったことは、詳細な状況を確認する必要が生じ、ヒヤリハット等が発生した画像を再度確認したり、ドライバ本人から聞き取り等をする必要があり手間を要していた。
本発明が解決しようとする課題としては、ヒヤリハット等の発生した状況を推定することが一例として挙げられる。
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する視覚顕著性分布情報取得部と、前記視覚顕著性分布情報に基づいて、前記移動体の移動環境の視覚的傾向を取得する視覚特徴量抽出部と、前記視覚的傾向に基づいて前記画像の状況を出力する状況出力部と、を備えることを特徴としている。
請求項13に記載の発明は、移動体から外部を撮像した画像に基づく状況を出力する状況出力装置で実行される状況出力方法であって、前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する視覚顕著性分布情報取得工程と、前記視覚顕著性分布情報に基づいて、前記移動体の移動環境の視覚的傾向を取得する視覚特徴量抽出工程と、前記視覚的傾向に基づいて取得した前記画像の状況を出力する状況出力工程と、を含むことを特徴としている。
請求項14に記載の発明は、請求項13に記載の状況出力方法をコンピュータにより実行させることを特徴としている。
請求項15に記載の発明は、請求項14に記載の状況出力プログラムを格納したことを特徴としている。
本発明の第1の実施例にかかる判定装置を有するシステムの概略構成図である。 図1に示された状況出力装置の機能構成図である。 図1に示された視覚顕著性演算部の構成を例示するブロック図である。 (a)は判定装置へ入力する画像を例示する図であり、(b)は(a)に対し推定される、視覚顕著性マップを例示する図である。 図1に示された視覚顕著性演算部の処理方法を例示するフローチャートである。 非線形写像部の構成を詳しく例示する図である。 中間層の構成を例示する図である。 (a)および(b)はそれぞれ、フィルタで行われる畳み込み処理の例を示す図である。 (a)は、第1のプーリング部の処理を説明するための図であり、(b)は、第2のプーリング部の処理を説明するための図であり、(c)は、アンプーリング部の処理を説明するための図である。 図1に示された視覚的注意集中度演算部の構成を例示するブロック図である。 ベクトル誤差の説明図である。 図1に示された画像入力部に入力された画像と、その画像から取得された視覚顕著性マップの例である。 視覚的注意集中度の時間的変化の例を示したグラフである。 図1に示された脇見傾向演算部の構成を例示するブロック図である。 注視エリアの設定方法の説明図である。 脇見検出エリアの説明図である。 他の脇見検出エリアの説明図である。 図1に示された脇見傾向演算部の動作のフローチャートである。 図1に示された単調傾向演算部の動作のフローチャートである。 単調傾向演算部の変形例にかかる動作のフローチャートである。 自己相関の演算結果の例である。 図1に示された視認負荷傾向演算部の機能構成図である。 図22に示された視認負荷傾向演算部における各機能の動作を示した波形図である。 図1に示された状況出力部における文章化の例を示した説明図(その1)である。 図1に示された状況出力部における文章化の例を示した説明図(その2)である。 図1に示された状況出力装置の動作のフローチャートである。 図1に示された状況出力部が出力する画面例である。 図1に示された状況出力装置の変形例である。
以下、本発明の一実施形態にかかる状況出力装置を説明する。本発明の一実施形態にかかる状況出力装置は、視覚顕著性分布情報取得部が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得し、視覚特徴量抽出部が、視覚顕著性分布情報に基づいて、移動体の移動環境の視覚的傾向を取得する。そして、状況出力部が、視覚的傾向に基づいて取得した画像の状況を出力する。このようにすることにより、視覚顕著性分布情報に基づいた視覚的傾向から画像の状況を出力することができる。したがって、画像のみで状況を解析することが可能となり、ヒヤリハット等の発生した状況が当該画像を確認しなくても推定できる。
また、状況出力部は、画像の状況を文字情報として出力してもよい。このようにすることにより、画像の状況を文章等として出力することができ、報告書等に作成に役立てることができる。
また、状況出力部は、状況出力部は、視覚的傾向に基づいて取得される複数の情報のそれぞれに基づく複数のキーワードを組み合わせた文字情報を出力してもよい。このようにすることにより、特定の要因のみでなく、複数の要因が関連する文章として状況を組み立てることができる。したがって、詳細な状況が把握しやすくなる。
また、視覚特徴量抽出部は、視覚顕著性分布情報と予め画像に定めた基準視線位置とに基づいて画像における視覚的注意の集中度を示す情報を取得する視覚的注意集中度取得部を備えてもよい。このようにすることにより、視覚的注意の集中度に基づいて画像の状況を推定することができる。
また、視覚的注意集中度取得部は、視覚顕著性分布情報を構成する各画素の値と、前記各画素の位置と前記基準視線位置の座標位置とのベクトル誤差と、に基づいて視覚的注意の集中度を取得してもよい。このようにすることにより、視覚顕著性が高い位置と基準視線位置との差に応じた値が視覚的注意の集中度として算出される。したがって、例えば、視覚顕著性が高い位置と基準視線位置との距離に応じて視覚的注意の集中度の値が変化するようにできる。
また、視覚特徴量抽出部は、視覚顕著性分布情報に基づいて脇見の傾向を示す情報を取得する脇見取得部を備えてもよい。このようにすることにより、脇見の傾向を示す情報に基づいて画像の状況を推定することができる。
また、脇見取得部は、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、を備え、ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力してもよい。この視覚顕著性分布情報には、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性分布情報のピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性分布情報を用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。
また、視覚特徴量抽出部は、視覚顕著性分布情報に基づいて当該画像が単調傾向を示す情報を取得する単調取得部を備えてもよい。このようにすることにより、単調傾向を示す情報に基づいて画像の状況を推定することができる。
また、単調取得部は、視覚顕著性分布情報に基づいて算出された統計量を用いて単調傾向を示す情報を取得してもよい。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より精度良く判定することができる。
また、視覚特徴量抽出部は、視覚顕著性分布情報に基づいて当該画像が視認負荷傾向を示す情報を取得する視認負荷取得部を備えてもよい。このようにすることにより、視認負荷傾向を示す情報に基づいて画像の状況を推定することができる。
また、状況出力部が出力した状況を運転者毎に蓄積する蓄積部と、蓄積部に蓄積された状況に基づいて、運転者の運転傾向を解析して解析結果を出力する解析部と、を備えてもよい。このようにすることにより、運転者の運転の傾向を解析することが可能となり、解析結果を用いて指導等をすることが可能となる。
また、視覚顕著性分布情報取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。
また、本発明の一実施形態にかかる状況出力方法は、視覚顕著性分布情報取得工程で、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得し、視覚特徴量抽出工程で、視覚顕著性分布情報に基づいて、移動体の移動環境の視覚的傾向を取得する。そして、状況出力工程で、視覚的傾向に基づいて取得した画像の状況を出力する。このようにすることにより、視覚顕著性分布情報に基づいた視覚的傾向から画像の状況を出力することができる。したがって、画像のみで状況を解析することが可能となり、ヒヤリハット等の発生した状況を推定することができる。
また、上述した状況出力方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて視覚顕著性分布情報に基づいた視覚的傾向から画像の状況を出力することができる。したがって、画像のみで状況を解析することが可能となり、ヒヤリハット等の発生した状況を推定することができる。
また、上述した状況出力プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
本発明の一実施例にかかる状況出力装置を図1〜図28を参照して説明する。本実施例にかかる状況出力装置は、事業所等に設置されるサーバ装置等で構成してもよいが自動車等の移動体に設置してもよい(図1を参照)。状況出力装置は、主には走行後等に解析を行うが、リアルタイムに解析してもよい。
図1は、状況出力装置をサーバ装置で構成した例である。図1では、車両Vに搭載されているドライブレコーダ11において、加速度センサ等の車両挙動検出部12によって急制動や急加速、その他の衝撃等により大きな加速度が検出された場合に、その前後の所定期間の画像(動画像)をインターネット等のネットワークNを介して判定装置1に送信している。なお、図2に示した車両挙動検出部12は、加速度センサに限らず、車両Vに搭載されているABS(Anti-lock Braking System)や横滑り防止装置等であってもよい。これらの装置(センサ)が作動したことをトリガとして前後の所定期間の画像を送信あるいは保存すればよい。このような急制動等が検出された画像を後述する処理の対象とすることで、ある程度絞られた画像に対して処理を実行することができ、処理を行う時間(処理量)を削減することができる。なお、図1のような通信で送信する形態に限らず、サーバ装置1に接続されたハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。また、状況出力装置は、サーバ装置に限らず、後述する各ブロック等が組み込まれた車載機器や、自宅や事業所のPC端末であってもよいし、これらの機器とサーバとで処理を分散するように構成されていてもよい。
図2に示したように、状況出力装置1は、画像入力部2と、視覚顕著性演算部3と、視覚的注意集中度演算部4と、脇見傾向演算部5と、単調傾向演算部6と、状況出力部7と、視認負荷傾向演算部8と、を備えている。
画像入力部2は、例えばカメラなどで撮像された画像(例えば動画像)が入力され、その画像を画像データとして出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。画像入力部2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
画像入力部2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、画像入力部2には入力されるのは、カメラで撮像された画像に限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。
視覚顕著性演算部3は、画像入力部2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性演算部3は、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する視覚顕著性分布情報取得部として機能する。
図3は、視覚顕著性演算部3の構成を例示するブロック図である。本実施例に係る視覚顕著性演算部3は、入力部310、非線形写像部320、出力部330および記憶部390を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。記憶部390は、画像入力部2から入力された画像データや後述するフィルタの係数等が保持されている。以下に詳しく説明する。
図4(a)は、視覚顕著性演算部3へ入力する画像を例示する図であり、図4(b)は、図4(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性演算部3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
図4(a)と図4(b)とは、互いに位置が対応している。そして、図4(a)において、視覚顕著性が高い位置ほど、図4(b)において輝度が高く表示されている。図4(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
図5は、本実施例に係る視覚顕著性演算部3の動作を例示するフローチャートである。図5に示したフローチャートは、コンピュータによって実行される状況出力方法の一部であって、入力ステップS115、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS115では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報(視覚顕著性分布情報)が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
図3に戻り、視覚顕著性演算部3の各構成要素について説明する。入力ステップS115において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを画像入力部2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS115において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
図6は、非線形写像部320の構成を詳しく例示する図であり、図7は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
図6の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ
325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。図7は、64×2
中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh (i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h i,j(i=1..3,j=1..64)が得られる。
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h (i=1..64
)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h (i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性演算部3に備えられていてもよいし、視覚顕著性演算部3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
図8(a)および図8(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。図8(a)および図8(b)では、いずれも3×3畳み込みの例が示されている。図8(a)の例は、最近接要素を用いた畳み込み処理である。図8(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
図9(a)は、第1のプーリング部326の処理を説明するための図であり、図9(b)は、第2のプーリング部327の処理を説明するための図であり、図9(c)は、アンプーリング部328の処理を説明するための図である。
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。図9(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。図9(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。図9(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、図4(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
視覚的注意集中度演算部4は、図10に示したように、視線座標設定部41と、ベクトル誤差演算部42と、を備えている。
視線座標設定部41は、後述する理想視線を視覚顕著性マップ上に設定する。理想視線とは、障害物や自分以外の交通参加者がいないという理想的な交通環境下で自動車の運転者が進行方向に沿って向ける視線をいう。画像データや視覚顕著性マップ上では(x,y)座標として取り扱う。なお、本実施例では理想視線は固定値とするが、移動体の停止距離に影響する速度や道路の摩擦係数の関数として扱ってもよいし、設定された経路情報を利用して決定されてもよい。また、理想視点を算出する方法として現走行路に対応する消失点を利用してもよい。その際に、自車両速度を検知して、理想視点を消失点と自車位置との間の2秒後や3秒後に設定してもよい。即ち、視線座標設定部41は、予め定めた規則に従って画像における理想視線(基準視線位置)を設定する視線位置設定部として機能する。
ベクトル誤差演算部42は、視覚顕著性演算部3が出力した視覚顕著性マップ及び当該視覚顕著性マップや画像に対して視線座標設定部41が設定した理想視線に基づいてベクトル誤差を算出し、そのベクトル誤差に基づいて視覚的注意の集中度を示す後述する視覚的注意集中度Psを演算する。即ち、ベクトル誤差演算部42は、視覚顕著性分布情報と視線位置とに基づいて画像における視覚的注意の集中度を算出する視覚的注意集中度算出部として機能する。
ここで、本実施例におけるベクトル誤差について図11を参照して説明する。図11は、視覚顕著性マップの例を示したものである。この視覚顕著性マップはH画素×V画素の256階調の輝度値で示されており、図4と同様に視覚顕著性が高い画素ほど輝度が高く表示されている。図11において、理想視線の座標(x,y)=(xim,yim)としたとき、視覚顕著性マップ内の任意の座標(k,m)の画素とのベクトル誤差を算出する。視覚顕著性マップにおいて輝度が高い座標と理想視線の座標とが離れている場合は、注視すべき位置と実際に注視し易い位置とが離れることを意味し、視覚的注意が散漫になり易い画像といえる。一方、輝度が高い座標と理想視線の座標とが近い場合は、注視すべき位置と実際に注視し易い位置とが近いことを意味し、注視すべき位置に視覚的注意が集中し易い画像といえる。
次に、ベクトル誤差演算部4における視覚的注意集中度Psの算出方法について説明する。本実施例では、視覚的注意集中度Psは次の(1)式により算出される。
Figure 2021157248
(1)式において、Vvcはピクセル深度(輝度値)、fは重みづけ関数、derrはベクトル誤差を示している。この重みづけ関数は、例えばVvcの値を示す画素から理想視線の座標までの距離に基づいて重み設定される関数である。αは輝点1点の視覚顕著性マップ(リファレンスヒートマップ)における、輝点の座標と理想視線の座標が一致したときの視覚的注意集中度Psが1となるような係数である。
即ち、ベクトル誤差演算部42は、視覚顕著性マップ(視覚顕著性分布情報)を構成する各画素の値と、各画素の位置と理想視線(基準視線位置)の座標位置とのベクトル誤差と、に基づいて視覚的注意の集中度を算出している。
このようにして得られた視覚的注意集中度Psは、視覚顕著性マップ上に設定した理想視線の座標からの全画素の座標のベクトル誤差と輝度値の関係を重みづけした上で合計したものの逆数である。この視覚的注意集中度Psは、理想視線の座標から視覚顕著性マップの輝度が高い分布が離れていると低い値が算出される。即ち、視覚的注意集中度Psは、理想視線に対する集中度ともいえる。即ち、視覚的注意集中度演算部4は、視覚顕著性マップ(視覚顕著性分布情報)と理想視線(予め画像に定めた基準視線位置)とに基づいて画像における視覚的注意集中度Ps(視覚的注意の集中度を示す情報)を取得する視覚的注意集中度取得部として機能する。
図12に画像入力部2に入力された画像と、その画像から取得された視覚顕著性マップの例を示す。図12(a)は入力画像、(b)は視覚顕著性マップである。このような、図12において、理想視線の座標を例えば前方を走行するトラック等の道路上に設定すると、その場合における視覚的注意集中度Psが算出される。
このようにして算出された視覚的注意集中度Psは、その時間的変化に基づいて画像入力部2から入力された画像が事故又はヒヤリハット等の移動体の走行中に安全上の問題が発生した疑いがあるか判定することができる。
図13に視覚的注意集中度Psの時間的変化の例を示す。図13は、12秒間の動画像における視覚的注意集中度Psの変化を示している。図13において、約6.5秒〜約7秒の間で視覚的注意集中度Psが急激に変化している。これは、例えば自車両の前方に他車両が割り込んだ場合等であり、このような変化を検出することでヒヤリハットとなる事象を検出することができる。
脇見傾向演算部5は、図14に示したように、視覚顕著性ピーク検出部53と、脇見傾向判定部54と、を備えている。
視覚顕著性ピーク検出部53は、視覚顕著性演算部3において取得した視覚顕著性マップにおいて、ピークとなる位置(画素)を検出する。ここで、本実施例においてピークとは画素値が最大値(輝度が最大)となる視覚顕著性が高い画素であり、位置は座標で表される。即ち、視覚顕著性ピーク検出部53は、視覚顕著性マップ(視覚顕著性分布情報)における少なくとも1つのピーク位置を検出するピーク位置検出部として機能する。
脇見傾向判定部54は、視覚顕著性ピーク検出部53で検出されたピークとなる位置に基づいて、画像入力部2から入力された画像が脇見の傾向があるか判定する。脇見傾向判定部54は、まず、画像入力部2から入力された画像について注視エリア(注視すべき範囲)を設定する。注視エリアの設定方法について図15を参照して説明する。即ち、脇見傾向判定部54は、画像における移動体の運転者が注視すべき範囲を設定する注視範囲設定部として機能する。
図15に示した画像Pにおいて、注視エリアGは、消失点Vの周囲に設定されている。即ち、注視エリアG(注視すべき範囲)を画像の消失点に基づいて設定している。この注視エリアGは、予め注視エリアGの大きさ(例えば幅3m、高さ2m)を設定し、画像Pの水平画素数、垂直画素数、水平画角、垂直画角、先行車両までの車間距離、画像を撮像しているドライブレコーダ等のカメラの取り付け高さ等から、設定した大きさの画素数を算出することが可能である。なお、消失点は、白線等から推定してもよいし、オプティカルフロー等を用いて推定してもよい。また、先行車両までの車間距離は、実際の先行車両を検出する必要はなく仮想的に設定するものでよい。
次に、設定した注視エリアGに基づいて画像Pにおける脇見検出エリアを設定する(図16の網掛け部分)。この脇見検出エリアは、上方エリアIu、下方エリアId、左側方エリアIl、右側方エリアIrがそれぞれ設定される。これらのエリアは、消失点Vと、注視エリアGの各頂点を結ぶ線分により区分けされる。即ち、上方エリアIuと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gaとを結ぶ線分L1により区切られている。上方エリアIuと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gdとを結ぶ線分L2により区切られている。下方エリアIdと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gbとを結ぶ線分L3により区切られている。下方エリアIdと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gcとを結ぶ線分L4により区切られている。
なお、脇見検出エリアは図16に示したような区分けに限らない。例えば、図17に示したようにしてもよい。図17は、注視エリアGの各辺を延長した線分により脇見検出エリアを区分けしている。図17の方法は、形状が単純になるので、脇見検出エリアの区分けにかかる処理を軽減することができる。
次に、脇見傾向判定部54における脇見傾向の判定について説明する。視覚顕著性ピーク検出部53で検出されたピーク位置が、所定時間以上注視エリアGから連続して外れていた場合は脇見傾向であると判定する。ここで、所定時間は例えば2秒とすることができるが適宜変更してもよい。即ち、脇見傾向判定部54は、ピーク位置が注視すべき範囲から所定時間以上連続して外れていたか判定している。よって、脇見傾向演算部5は、視覚顕著性マップ(視覚顕著性分布情報)に基づいて脇見の傾向を示す情報を取得する脇見取得部として機能する。
また、脇見傾向判定部54は、脇見検出エリアが上方エリアIu又は下方エリアIdであった場合は固定物による脇見の傾向があると判定してもよい。これは、車両から前方を撮像した画像の場合、上方エリアIuには、建物や交通信号、標識、街灯などの固定物が映り込むのが一般的であり、下方エリアIdには、道路標識等の路上ペイントが映り込むのが一般的である。一方、左側方エリアIlや右側方エリアIrは、他の走行車線等を走行する車両等の自車両以外の移動体が映り込むことがあり、エリアにより脇見対象物(固定物か移動体か)まで判定するのは困難である。
ピーク位置が左側方エリアIlや右側方エリアIrであった場合は、エリアだけでは脇見対象物が固定物か移動体か判定できないため、物体認識を用いて判定を行う。物体認識(物体検出ともいう)は周知のアルゴリズムを用いればよく、具体的な方法は特に限定されない。
また、物体認識に限らず相対速度を利用して固定物か移動体かの判定を行ってもよい。これは、自車速度と脇見対象物のフレーム間の移動速度から相対速度を求め、その相対速度から脇見対象物が固定物か移動体か判定する。ここで、脇見対象物のフレーム間の移動速度は、ピーク位置のフレーム間の移動速度を求めればよい。そして求めた相対速度が所定の閾値以上である場合は、ある位置に固定されている物と判定することができる。
次に、脇見傾向演算部5における動作について、図18のフローチャートを参照して説明する。
まず、画像入力部2が走行画像を取得し(ステップS104)、視覚顕著性演算部3において視覚顕著性画像処理(視覚顕著性マップの取得)を行う(ステップS105)。そして、視覚顕著性ピーク検出部53が、ステップS105で視覚顕著性演算部3が取得した視覚顕著性マップに基づいてピーク位置を取得(検出)する(ステップS106)。
次に、脇見傾向判定部54が、注視エリアGを設定して、当該注視エリアGと視覚顕著性ピーク検出部53が取得したピーク位置とを比較する(ステップS107)。比較した結果ピーク位置が注視エリアG外である場合は(ステップS107;注視エリア外)、脇見傾向判定部54は、滞留タイマーが開始後か停止中か判定する(ステップS108)。滞留タイマーとは、ピーク位置が注視エリアG外に滞留している時間を計測するタイマーである。なお、注視エリアGの設定は、ステップS104で画像を取得した際に行ってもよい。
滞留タイマーが停止中である場合は(ステップS108;停止中)、脇見傾向判定部54は、滞留タイマーを開始する(ステップS109)。一方、滞留タイマーが開始後である場合は(ステップS108;開始後)、脇見傾向判定部54は、滞留タイマー閾値の比較を行う(ステップS110)。滞留タイマー閾値とは、ピーク位置が注視エリアG外に滞留している時間の閾値であり、上述したように2秒などと設定されている。
滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定部54は、脇見傾向があると判定する(ステップS111)。
一方、滞留タイマーが閾値を超えない場合は(ステップS110;閾値超えない)、脇見傾向判定部54は、何もせずにステップS104に戻る。
また、ステップS107で比較した結果、ピーク位置が注視エリアG内である場合は(ステップS107;注視エリア内)、脇見傾向判定部54は、滞留タイマーを停止させる(ステップS112)。
単調傾向演算部6は、視覚顕著性演算部3において取得した視覚顕著性マップに基づいて、画像入力部2に入力された画像が単調傾向か判定する。本実施例では、視覚顕著性マップから種々の統計量を算出し、その統計量に基づいて単調傾向か判定する。即ち、単調傾向演算部6は、視覚顕著性マップ(視覚顕著性分布情報)に基づいて算出された統計量を用いて当該画像が単調傾向か判定する。よって、単調傾向演算部6は、視覚顕著性マップ(視覚顕著性分布情報)に基づいて当該画像が単調傾向を示す情報を取得する単調取得部として機能する。
図19に単調傾向演算部6の動作のフローチャートを示す。まず、視覚顕著性マップを構成する画像(例えば図4(b))における各画素の輝度の標準偏差を演算する(ステップS51)。本ステップでは、まず、視覚顕著性マップを構成する画像における各画像の輝度の平均値を算出する。視覚顕著性マップを構成する画像がH画素×V画素であり、任意の座標(k,m)における輝度値をVVC(k,m)とすると、平均値は以下の(2)式で算出される。
Figure 2021157248
(2)式により算出された平均値から視覚顕著性マップを構成する画像における各画像の輝度の標準偏差を算出する。標準偏差SDEVは以下の(3)式で算出される。
Figure 2021157248
ステップS51で算出された標準偏差について、出力結果が複数あるか判定する(ステップS52)。このステップでは、画像入力部2から入力された画像が動画像であり、フレーム単位で視覚顕著性マップが取得されて、ステップS51では複数フレーム分の標準偏差が算出されたかを判定している。
出力結果が複数ある場合は(ステップS52;Yes)、視線移動量を演算する(ステップS53)。視線移動量は、本実施例では、時間的に前後のフレームそれぞれの視覚顕著性マップにおける輝度値が最大(最高)の座標距離により求めている。視線移動量VSAは、前のフレームにおける最高輝度値の座標を(x1,y1)、後のフレームにおける最高輝度値の座標を(x2,y2)とすると、次の(4)式で算出される。
Figure 2021157248
そして、ステップS51で算出された標準偏差やS53で算出された視線移動量に基づいて単調傾向かを判定する(ステップS54)。本ステップでは、ステップS52がNoの場合は、ステップS51で算出される標準偏差に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。一方、ステップS52がYesの場合は、ステップS53で算出される視線移動量に閾値を設け、その閾値と比較することで閾値と比較することで単調傾向かを判定すればよい。
即ち、単調傾向演算部6は、視覚顕著性マップ(視覚顕著性分布情報)として得られた画像内の各画素の輝度の標準偏差を算出する標準偏差算出部として機能し、視覚顕著性マップ(視覚顕著性分布情報)として時系列に得られた画像に基づいてフレーム間の視線移動量を算出する視線移動量算出部として機能する。
なお、上述した方法、特に出力結果が複数ある場合(動画)においては、単調傾向の検出が漏れるケースがある。そこで、そのようなケースにも対応する態様について図20及び図21を参照して説明する。動作のフローチャートを図20に示す。
図20のフローチャートにおいて、ステップS51、S53は、図19と同様である。なお、本実施例では、後述するように自己相関を利用するため、対象となる画像は動画像となることからステップS52は省略する。ステップS54Aは、判定内容はステップS54と同様である。このステップS54Aは、本実施例では、単調傾向についての一次判定として行われる。
次に、ステップS54Aの判定の結果、単調傾向であると判定された場合は(ステップS55;Yes)、図19と同様に、その判定結果を外部へ出力する。一方、ステップS54Aの判定の結果、単調傾向でないと判定された場合は(ステップS55;No)、自己相関演算を行う(ステップS56)。
本実施例では、ステップS51やS53で算出された標準偏差(輝度平均値)や視線移動量を用いて自己相関を演算する。自己相関R(k)は、期待値をE、Xの平均をμ、Xの分散をσ、ラグをkとすると次の(5)式で算出されることが知られている。本実施例では、kを所定範囲で変化させて(5)式の演算を行い、最も大きな算出値を自己相関値とする。
Figure 2021157248
そして、算出された自己相関値に基づいて単調傾向か判定する(ステップS57)。判定は、図19と同様に自己相関値に閾値を設け、閾値と比較することで単調傾向かを判定すればよい。例えば、k=k1での自己相関値が閾値より大きければk1毎に同じような風景が繰り返されることを意味する。単調傾向と判定された場合は、当該画像は単調傾向である画像と分類される。このような自己相関値を算出することによって、等間隔に規則正しく設置された街灯などの周期的に配置された物体による単調な傾向の道路を判定することができるようになる。
図21に自己相関の演算結果の例を示す。図21は、走行動画について視覚顕著性マップの輝度平均値についてのコレログラムである。図21の縦軸は相関関数(自己相関値)、横軸はラグを示している。また、図21において、網掛けの部分は信頼区間95%(優位水準αs=0.05)であり、帰無仮説を「ラグkのとき周期性がない」、対立仮説を「ラグkのとき周期性がある」とすると、この網掛け部分内のデータは帰無仮説を棄却できないため周期性がないと判定され、網掛け部分を超えたものは正負にかかわらず周期性があるものと判定される。
図21(a)はトンネル走行の動画であり、周期性がある例である。図21(a)によれば、10個目と17個目に周期性がみられることが分かる。トンネルの場合、トンネル内照明が一定間隔で配置されているので、その照明等による単調な傾向を判定することができる。一方、図21(b)は一般道路走行の動画であり、周期性が無い例である。図21(b)によれば、殆どのデータが信頼区間に入っていることが分かる。
図20のフローチャートのように動作させることで、まずは平均・標準偏差・視線移動量で単調か判定し、そこで漏れたものの中から周期性という観点で二次判定をすることができるようになる。
視認負荷傾向演算部8は、視覚顕著性演算部3が出力した視覚顕著性マップに基づいて視認負荷量推定を推定する。視認負荷傾向演算部8で推定された結果である視認負荷量は、例えばスカラ量またはベクトル量であってもよい。あるいは単一データまたは複数の時系列データであってもよい。視認負荷傾向演算部8は、図22に示したように、注視点推定手段81と、注視点移動量算出手段82と、基底成分分解手段83と、基底成分選択手段84と、パワー算出手段85と、パワー合成手段86と、を備えている。
注視点推定手段81は、視覚顕著性演算部3が出力した時系列の視覚顕著性マップから注視点情報を推定する。注視点情報の定義については特に限定しないが、例えば顕著性の値が最大値となる位置(座標)などとすることができる。即ち、注視点推定手段81は、推定注視点を、視覚顕著性マップ(視覚顕著性分布情報)において視覚顕著性が最大値となる画像上の位置と推定している。
注視点移動量算出手段82は、注視点推定手段81で推定された時系列の注視点情報から時系列の注視点移動量を算出する。注視点移動量算出手段82により算出された注視点移動量もまた時系列データとなる。算出方法については特に限定しないが、例えば時系列で前後の関係にある注視点座標間のユークリッド距離などとすることができる。即ち、注視点移動量算出手段82は、生成された視覚顕著性マップ(視覚顕著性分布情報)に基づいて注視点(推定注視点)の移動量を算出している。
基底成分分解手段83は、注視点移動量算出手段82で算出された注視点移動量の時系列変化を1個以上の基底成分群に分解する。基底成分分解手段83により分解された各基底成分もまた移動量に対応した時系列データとなる。分解方法については特に限定しないが、例えば経験モード分解(Empirical Mode Decomposition;EMD)が望ましく、この場合の基底成分は固有モード関数(Intrinsic Mode Function;IMF)となる。他にフーリエ変換ファミリ(基底成分は正弦波)などを用いても良い。
基底成分選択手段84は、基底成分分解手段83で分解された基底成分群から1個以上の基底成分を選択する。なお、選択方法は限定されず種々の方法を用いることができる。
パワー算出手段85は、基底成分選択手段84で選択された基底成分の各々についてパワーを算出する。ここでパワーもまた基底成分に対応した時系列データとなる。算出方法については特に限定しないが、基底成分分解手段として経験モード分解を用いた場合は、基底成分(固有モード関数)に対してHilbert変換を用いて振幅成分と位相成分を算出し、振幅成分をパワーとするのが望ましい。
パワー合成手段86は、パワー算出手段85により算出された複数のパワー成分を合成して視認負荷量を算出する。ここで視認負荷量もパワーに対応した時系列データとなる。合成手段については特に限定しないが、例えば複数のパワー成分の単純加算としてもよい。即ち、基底成分分解手段83〜パワー合成手段86までの手段によって、算出された注視点(推定注視点)の移動量の時間的推移に基づいて視認負荷量を推定している。
図23に注視点移動量算出手段82が出力した注視点移動量と、その注視点移動量を基底成分分解手段83により分解した基底成分群と、基底成分群からパワー算出手段85により算出されたパワーをパワー合成手段86で合成して出力された視認負荷量と、の波形の例を示す。図23の最上段が注視点移動量である。図23の2段目から16段目までが基底成分群である。そして図23の17段目(最下段)が視認負荷量である。
図23においては、最下段に示した視認負荷量の振幅が大きくなる部分について視認負荷量が大きいと推定(判定)される。
以上説明した視覚的注意集中度演算部4、脇見傾向演算部5、単調傾向演算部6、視認負荷傾向演算部8が、視覚顕著性マップ(視覚顕著性分布情報)に基づいて、移動体の移動環境の視覚的傾向を取得する視覚特徴量抽出部として機能する。
状況出力部7は、視覚的注意集中度演算部4、脇見傾向演算部5、単調傾向演算部6、視認負荷傾向演算部8のそれぞれの演算結果(判定結果)に基づいて画像入力部2から入力された画像の状況を推定して出力する。本実施例では、推定結果は文字情報(文章)として出力されるが、ラベル等の分類分けやスコアリング等の点数付けであってもよい。
状況出力部7における、視覚的注意集中度演算部4、脇見傾向演算部5、単調傾向演算部6、視認負荷傾向演算部8のそれぞれの演算結果(判定結果)に基づく文章化の例を図24を参照して説明する。図24は、視覚的注意集中度演算部4、脇見傾向演算部5、単調傾向演算部6、視認負荷傾向演算部8の演算結果に基づいて生成される文章の例を示したものである。
図24のAで示したブロックは単調傾向演算部6の演算結果に基づいて生成される文章の例である。例えば単調傾向演算部6の演算結果が単調傾向であれば、Aブロックでは「単調な道路を走行中」といった文章が生成される。一方、単調傾向演算部6の演算結果が単調傾向でなければ、Aブロックでは「複雑な道路を走行中」といった文章が生成される。
なお、Aブロックについては、視認負荷傾向演算部8で算出された視認負荷量に基づいて文章を生成することができる。例えば視認負荷量が大きい場合は、複雑な状況と言えるため「複雑な道路を走行中」といった文章を生成でき、視認負荷量が小さい場合は、逆に単調な状況と言えるため「単調な道路を走行中」といった文章を生成できる。
図24のBで示したブロックは脇見傾向演算部5の演算結果に基づいて生成される文章の例である。例えば脇見傾向演算部5の演算結果で右側の移動体を脇見対象物として脇見傾向があると判定された場合は、Bブロックでは「右側の交通参加者に気を取られた結果」といった文章が生成される。なお、Bブロックにおいて、前方、右側、左側、上方といった分類は図16に示したエリアにより判定可能である。また、交通参加者か道路外の景色かは、脇見傾向演算部5の動作で説明したように、エリアや物体認識により判定可能である。このように、脇見の傾向を示す情報には、脇見傾向の判定結果のみでなく、脇見対象物やその位置等の情報も含むものである。
図24のCで示したブロックは視覚的注意集中度演算部4の演算結果に基づいて生成される文章の例である。例えば視覚的注意集中度Psの時間的変化量が大きい場合は、「急激な道路環境の変化に気がつき」といった文章が生成される。つまり、図13で示したように視覚的注意集中度Psが急峻に変化している場合は、何らかの環境の変化により集中度が増したと言える。このように、視覚的注意の集中度を示す情報には、視覚的注意集中度Psのみでなく、その時間的変化量といった情報も含むものである。
図24のDで示したブロックはA〜Cのブロックで示した状況の結果どうなったかを示す文章の例である。例えば、ブレーキをかけたが遅かったため、急制動となり、事故には至らなかったものの安全上の問題が発生したと言える状況であった場合は、「危険を回避したがリスク回避が遅れた結果ヒヤリハットしたと推定」といった文章が生成される。なお、Dブロックにおいて、危険を回避したか否かはブレーキをかけたか否かで判定可能である。
また、急制動か否かは図1に示した車両挙動検出部12の検出信号(加速度等)を対応する画像情報に含めることで判定可能である。例えば、画像情報に含まれる加速度の値が所定以上であった場合は急制動と判定することができる。また、画像のみで判定する場合は、画像に含まれる物体のフレーム間の移動速度の変化等から判定してもよい。
リスク回避が遅れたかは視覚的注意集中度Psの時間的変化量により判定可能である。また、ヒヤリハットか事故かは、加速度の大きさから判定してもよいし、予め事故の画像か否かを画像のラベル等として付加してもよい。このように、車両挙動検出部12の検出信号等は、上述したような文章化の際に補助的に用いることができる。
そして、Aブロック〜Dブロックで生成した文章は組み合わせて出力される。例えば「単調な道路を走行中、急激な道路環境の変化に気がつき、危険を回避したがリスク回避が遅れた結果ヒヤリハットしたと推定」などと組み合わされる。なお、AブロックとBブロックとは単調傾向と脇見傾向が共に判定された場合には両ブロックの文章が組み合わされるが、脇見傾向と判定されない場合はBブロックの文章は生成されない。本実施例では、上記例から明らかなように、特定の静止画の状態を文章化したに留まらず、動画像の時系列に沿った文章が生成可能である。したがって、なぜ急制動したかといった要因も自動的に解析して文章化することができる。
図24の例では、Cブロック及びDブロックの一部が視覚的注意の集中度を示す情報に基づく第1キーワード、Bブロックが脇見の傾向を示す情報に基づく第2キーワード、Aブロックが単調傾向を示す情報または視認負荷傾向を示す情報に基づく第3キーワードとなる。
また、文章化は、図24に示したものに限らず、例えば物体認識の結果を用いて更なる詳細化を図ってもよい。物体認識の結果を用いた文章化の例を図25に示す。物体認識は、上述した脇見傾向演算部5で行えばよい。
図25のEで示したブロックは交通標識等の交通規制に基づいて生成される文章の例である。例えば、前方の交通標識に気が付かない場合は、「前方の交通標識に気がつかず」といった文章が生成される。なお、Eブロックにおいて、交通標識は物体認識で検出し、交通標識に気が付いたか否かは、視覚顕著性マップの輝度が高い部分が重なっているか否かで判定することができる。
図25のFで示したブロックは他の車両等の交通参加者に基づいて生成される文章の例である。例えば、前方の車両に気が付かない場合は、「前方の交通参加者に気がつかず」といった文章が生成される。なお、Fブロックにおいて、車両は物体認識で検出し、車両に気が付いたか否かは、視覚顕著性マップの輝度が高い部分が重なっているか否かで判定することができる。
次に、上述した構成の状況出力装置1における動作(状況出力方法)について、図26のフローチャートを参照して説明する。また、このフローチャートを状況出力装置1として機能するコンピュータで実行されるプログラムとして構成することで状況出力プログラムとすることができる。また、この状況出力プログラムは、状況出力装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
まず、画像入力部2が、入力された画像を画像データとして視覚顕著性演算部3に出力する(ステップS11)。本ステップでは、画像入力部2に入力された画像データを画像フレーム等の時系列に分解して視覚顕著性演算部3へ入力している。また、本ステップでノイズ除去や幾何学変換などの画像処理を施してもよい。
次に、視覚顕著性演算部3が、視覚顕著性マップを取得する(ステップS12)。視覚顕著性マップは、視覚顕著性演算部3において、上述した方法により図4(b)に示したような視覚顕著性マップを時系列に出力する。
次に、視覚的注意集中度演算部4が視覚的注意集中度Psを取得する(ステップS13)。視覚的注意集中度Psは、視覚的注意集中度演算部4が上述した方法により演算して取得する。そして、ステップS13と並行して、脇見傾向演算部5が脇見の傾向を示す情報を取得する(ステップS14)。脇見の傾向を示す情報は、脇見傾向演算部5が上述した方法により判定等して取得する。そして、ステップS13、S14と並行して、単調傾向演算部6が単調傾向を示す情報を取得する(ステップS15)。単調傾向を示す情報は、単調傾向演算部6が上述した方法により判定等して取得する。さらに、ステップS13〜S15と並行して、視認負荷傾向演算部8が視認負荷傾向を示す情報を取得する(ステップS16)。視認負荷傾向を示す情報は、視認負荷傾向演算部8が上述した方法により判定等して取得する。
次に、状況出力部7が、ステップS13〜S16の結果に基づいて画像入力部2から入力された画像の状況を文章化する(ステップS17)。文章化は、図24や図25に示した方法により行われる。
次に、状況出力部7が、ステップS17で生成した文章を組み合わせて出力する(ステップS18)。出力先は、ディスプレイ等の表示装置であってもよいし、テキストデータ等として対象の画像と関連付けて記憶装置に記憶したり、外部へ送信等してもよい。
以上の説明から明らかなように、ステップS12が視覚顕著性分布情報取得工程、ステップS13〜S16が視覚特徴量抽出工程、ステップS17、S18が状況出力工程としてそれぞれ機能する。
ここで、上述した状況出力装置1における出力の一部を構成する表示画像の例について図27を参照して説明する。図27に示す画像は、上述した文章化とともに画像入力部2から入力された画像の解析結果として出力することができるものである。図27に示した画像は状況出力部7により生成され、所定の表示装置に表示される。図27に示した画像50は、走行画像表示領域51と、視覚的注意集中度表示領域52と、を備えている。
走行画像表示領域51は、ドライブレコーダ等により撮像された車両の走行画像が表示される。走行画像表示領域51には、消失点VPと、視覚顕著性マップVMと、視線推定位置GEと、検知物体枠OFと、水平線及び奥行距離推定線HDと、白線推定WLと、ヒヤリハット判定枠HFと、が表示可能となっている。
消失点VPは、後述する白線推定WL等から推定してもよいし、オプティカルフロー等を用いて推定してもよい。視覚顕著性マップVMは、走行画像表示領域51に表示されている画像についての視覚顕著性マップ(ヒートマップ)を当該画像に重ねて表示させている。なお、図27では、ヒートマップ上の輝度の高い部分のみが視認できるが実際は輝度の低い部分も含め走行画像に重ねられている。つまり、走行画像において視線が向かい易い部分を表示している。
視線推定位置GEは、本実施例では、ヒートマップ上で輝度が最も高い位置を視線位置と推定している。検知物体枠OFは、走行画像において周知のアルゴリズムによる物体検知の結果検知された物体を囲む枠として表示される。なお、本実施例における物体検知では、検出する物体の種類(車両、人間等)を指定し、指定された種類に属する物体のみが検知される。物体検知処理は、脇見傾向演算部5で行ってもよいし、図示されていない他の機能ブロックで行ってもよい。
水平線及び奥行距離推定線HDは、走行画像における水平線と奥行距離を示している。白線推定WLは、走行画像内の白線等の区画線を認識して示している。ヒヤリハット判定枠HFは、走行画像表示領域51の四辺に沿うような枠状に形成され、状況出力部7によりヒヤリハット等の安全上の問題が発生した疑いがあると判定された場合に表示される。または、ヒヤリハット判定枠HFは常時青色等の枠として表示され、安全上の問題が発生した疑いがあると判定された場合は赤色等で表示される等表示色を変更したり、点滅させるなどとしてもよい。
視覚的注意集中度表示領域52は、走行画像表示領域51の右側に設けられている。視覚的注意集中度表示領域52は、ベクトル誤差演算部4で演算された視覚的注意集中度Psをバーグラフ状に表示する。図27では、符号52aが視覚的注意集中度Psを示すバーである。視覚的注意集中度Psが大きな値を示しているときはバー52aが高くなり、視覚的注意集中度Psが小さな値を示しているときはバー52aが低くなる。つまり、バー52aが高い位置では、集中度が高い(集中)傾向であり、バー52aが低い位置では、集中度が低い(分散)傾向であるといえる。
視覚的注意集中度表示領域52のバー52aの高さは、視覚顕著性マップがフレーム単位で取得されることから、画像の再生時間の推移とともに変化する。そのため、例えばバー52aの高さが急激に高くなるようなシーンは、視覚的注意集中度Psが分散から集中へ急速に変化したことを示し、このバー52aによっても、視覚的注意集中度Psの時間的変化を視覚的に表示することができる。
本実施例によれば、状況出力装置1は、視覚顕著性演算部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを取得する。次に、移動体の移動環境の視覚的傾向として、視覚的注意集中度演算部4が視覚顕著性マップと予め画像に定めた理想視線とに基づいて画像における視覚的注意集中度Psを取得し、脇見傾向演算部5が視覚顕著性マップに基づいて脇見の傾向を判定し、単調傾向演算部6が視覚顕著性マップに基づいて当該画像が単調傾向か判定し、視認負荷傾向演算部8が視覚顕著性マップに基づいて当該画像について視認負荷が大きいか判定する。そして、状況出力部7が、取得された視覚的注意集中度Psと、脇見の傾向の判定結果と、単調傾向の判定結果と、視認負荷傾向の判定結果に基づいて取得した画像の状況を出力する。このようにすることにより、視覚顕著性マップに基づいた視覚的傾向(4つの情報)から画像の状況を出力することができる。したがって、画像のみで状況を解析することが可能となり、ヒヤリハット等の発生した状況が当該画像を確認しなくても推定できる。
また、状況出力部7は、画像の状況を文字情報として出力している。このようにすることにより、画像の状況を文章等として出力することができ、報告書や日報等の作成に役立てることができる。
また、状況出力部7は、視覚的傾向に基づいて取得される複数の情報のそれぞれに基づく複数のキーワードを組み合わせた文字情報を出力している。具体的には、状況出力部7は、視覚的注意集中度Psに基づく第1キーワードと、脇見の傾向の判定結果に基づく第2キーワードと、単調傾向の判定結果または視認負荷傾向の判定結果に基づく第3キーワードと、のうち複数のキーワードを組み合わせた文字情報を出力している。このようにすることにより、特定の要因のみでなく、複数の要因が関連する文章として状況を組み立てることができる。したがって、詳細な状況が把握しやすくなる。
また、視覚的注意集中度演算部4は、視覚顕著性マップを構成する各画素の値と、各画素の位置と理想視線の座標位置とのベクトル誤差と、に基づいて視覚的注意集中度Psを算出している。このようにすることにより、視覚顕著性が高い位置と理想視線との差に応じた値が視覚的注意集中度Psとして算出される。したがって、例えば、視覚顕著性が高い位置と理想視線との距離に応じて視覚的注意集中度Psの値が変化するようにできる。
また、脇見傾向演算部5は、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する視覚顕著性ピーク検出部53と、画像における移動体の運転者が注視すべき範囲を設定する脇見傾向判定部54と、を備え、ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向と判定している。この視覚顕著性マップには、統計的なヒトの視線の集まりやすさを示している。したがって、視覚顕著性マップのピークは、その中で最も統計的にヒトの視線が集まりやすい位置を示している。そのため、視覚的顕著性マップを用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。
また、単調傾向演算部6は、視覚顕著性マップに基づいて算出された統計量を用いて単調傾向と判定している。このようにすることにより、撮像した画像から、人間の注視し易い位置に基づき単調傾向か判定可能となる。人間(運転者)の注視し易い位置に基づいて判定されるため、運転者が単調と感じるのと近い傾向で判定することができ、より精度良く判定することができる。
また、視認負荷傾向演算部8は、生成された視覚顕著性マップに基づいて注視点の移動量を算出する。そして、算出された推定注視点の移動量の時間的推移に基づいて視認負荷量を推定する。このようにすることにより、注視点の移動量の時間的推移に基づくことから視線の推移が大きくなるような位置を推定することができる。したがって、視覚的に負荷を感じる部分を自動的に抽出することができる。
また、視覚顕著性演算部3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。
なお、上述した実施例では視覚的注意集中度演算部4、脇見傾向演算部5、単調傾向演算部6、視認負荷演算部8の全てを備えていたが、少なくとも1以上を備えていればよい。つまり、全てについて関連する文章を生成しなくてもよい。
ここで、図1に示した状況出力装置の変形例について図28を参照して説明する。図28に示した状況出力装置1Aは、図1の構成に対して、状況蓄積部9と、状況解析部10と、が追加されている。
状況蓄積部9は、状況出力部7が出力した画像の状況を蓄積する。状況蓄積部9では、画像入力部2から入力された画像の撮像時に当該移動体を運転していた運転者毎に状況を蓄積するのが望ましい。したがって、画像入力部2から入力される画像には、運転者を識別できる情報も付加することが望ましい。
状況解析部10は、状況蓄積部9に蓄積された状況を解析して、例えば運転者の運転傾向を解析し解析結果を出力する。例えば、脇見に関するヒヤリハットに関する画像や文章が多数蓄積されていた場合は、当該運転者は、脇見運転の傾向があると解析することができる。
また、状況解析部10では、解析した結果に基づいて運転者間の比較を行ってもよい。例えば比較的安全運転な傾向の運転者とヒヤリハットが多い運転者とを比較することで、ヒヤリハットを防止するような運転の指導等をすることができる。また、複数の運転者の傾向から例えば全社等の組織単位の傾向を分析することも可能となる。
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の状況出力装置を具備する限り、勿論、本発明の範疇に含まれるものである。
1 状況出力装置
2 画像入力部
3 視覚顕著性演算部(視覚顕著性分布情報取得部)
4 視覚的注意集中度演算部(視覚特徴量抽出部、視覚的注意集中度取得部)
5 脇見傾向演算部(視覚特徴量抽出部、脇見取得部)
6 単調傾向演算部(視覚特徴量抽出部、単調取得部)
7 状況出力部
8 視認負荷傾向演算部(視覚特徴量抽出部、視認負荷取得部)

Claims (15)

  1. 移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する視覚顕著性分布情報取得部と、
    前記視覚顕著性分布情報に基づいて、前記移動体の移動環境の視覚的傾向を取得する視覚特徴量抽出部と、
    前記視覚的傾向に基づいて前記画像の状況を出力する状況出力部と、
    を備えることを特徴とする状況出力装置。
  2. 前記状況出力部は、前記画像の状況を文字情報として出力することを特徴とする請求項1に記載の状況出力装置。
  3. 前記状況出力部は、前記視覚的傾向に基づいて取得される複数の情報のそれぞれに基づく複数のキーワードを組み合わせた文字情報を出力することを特徴とする請求項2に記載の状況出力装置。
  4. 前記視覚特徴量抽出部は、前記視覚顕著性分布情報と予め前記画像に定めた基準視線位置とに基づいて前記画像における視覚的注意の集中度を示す情報を取得する視覚的注意集中度取得部を備えることを特徴とする請求項1から3のいずれか一項に記載の状況出力装置。
  5. 前記視覚的注意集中度取得部は、前記視覚顕著性分布情報を構成する各画素の値と、前記各画素の位置と前記基準視線位置の座標位置とのベクトル誤差と、に基づいて前記視覚的注意の集中度を取得することを特徴とする請求項4に記載の状況出力装置。
  6. 前記視覚特徴量抽出部は、前記視覚顕著性分布情報に基づいて脇見の傾向を示す情報を取得する脇見取得部を備えることを特徴とする請求項1から5のいずれか一項に記載の状況出力装置。
  7. 前記脇見取得部は、
    前記視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、
    前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、を備え、
    前記ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合は脇見の傾向がある旨の情報を出力することを特徴とする請求項6に記載の状況出力装置。
  8. 前記視覚特徴量抽出部は、前記視覚顕著性分布情報に基づいて当該画像が単調傾向を示す情報を取得する単調取得部を備えることを特徴とする請求項1から7のいずれか一項に記載の状況出力装置。
  9. 前記単調取得部は、前記視覚顕著性分布情報に基づいて算出された統計量を用いて前記単調傾向を示す情報を取得することを特徴とする請求項8に記載の状況出力装置。
  10. 前記視覚特徴量抽出部は、前記視覚顕著性分布情報に基づいて当該画像が視認負荷傾向を示す情報を取得する視認負荷取得部を備えることを特徴とする請求項1から9のうちいずれか一項に記載の状況出力装置。
  11. 前記状況出力部が出力した前記状況を運転者毎に蓄積する蓄積部と、
    前記蓄積部に蓄積された前記状況に基づいて、前記運転者の運転傾向を解析して解析結果を出力する解析部と、
    を備えることを特徴とする請求項1から10のうちいずれか一項に記載の状況出力装置。
  12. 前記視覚顕著性分布情報取得部は、
    前記画像を写像処理可能な中間データに変換する入力部と、
    前記中間データを写像データに変換する非線形写像部と、
    前記写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、
    前記非線形写像部は、前記中間データに対し特徴の抽出を行う特徴抽出部と、前記特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備える、
    ことを特徴とする請求項1から11のうちいずれか一項に記載の状況出力装置。
  13. 移動体から外部を撮像した画像に基づく状況を出力する状況出力装置で実行される状況出力方法であって、
    前記画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性分布情報を取得する視覚顕著性分布情報取得工程と、
    前記視覚顕著性分布情報に基づいて、前記移動体の移動環境の視覚的傾向を取得する視覚特徴量抽出工程と、
    前記視覚的傾向に基づいて取得した前記画像の状況を出力する状況出力工程と、
    を含むことを特徴とする状況出力方法。
  14. 請求項13に記載の状況出力方法をコンピュータにより実行させることを特徴とする状況出力プログラム。
  15. 請求項14に記載の状況出力プログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2020054203A 2020-03-25 2020-03-25 状況出力装置 Pending JP2021157248A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020054203A JP2021157248A (ja) 2020-03-25 2020-03-25 状況出力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054203A JP2021157248A (ja) 2020-03-25 2020-03-25 状況出力装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024036557A Division JP2024060029A (ja) 2024-03-11 状況出力装置

Publications (1)

Publication Number Publication Date
JP2021157248A true JP2021157248A (ja) 2021-10-07

Family

ID=77918371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054203A Pending JP2021157248A (ja) 2020-03-25 2020-03-25 状況出力装置

Country Status (1)

Country Link
JP (1) JP2021157248A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115144399A (zh) * 2022-08-30 2022-10-04 吉林省信息技术研究所 一种基于机器视觉的装配质量检测方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115144399A (zh) * 2022-08-30 2022-10-04 吉林省信息技术研究所 一种基于机器视觉的装配质量检测方法及装置

Similar Documents

Publication Publication Date Title
JP7332726B2 (ja) ヒートマップを使用したドライバーの注目の検出
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
CN102696041B (zh) 用于眼睛跟踪和司机睡意确认的成本效益高且稳健的系统和方法
US7826964B2 (en) Intelligent driving safety monitoring system and method integrating multiple direction information
JP4633043B2 (ja) 画像処理装置
JP5482737B2 (ja) 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム
US20140247968A1 (en) Method for Fog Detection
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
Paone et al. Baseline face detection, head pose estimation, and coarse direction detection for facial data in the SHRP2 naturalistic driving study
JP2007286995A (ja) 注目度計測装置及び注目度計測システム
US20230015771A1 (en) Methods for detecting phantom projection attacks against computer vision algorithms
Kumtepe et al. Driver aggressiveness detection via multisensory data fusion
JP5016959B2 (ja) 見え方度判定装置
CN101178769A (zh) 健康保护装置及其实现方法
JP2024019588A (ja) 地図データ生成装置
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
WO2019021500A1 (ja) 乗員数検知システム、乗員数検知方法、およびプログラム
JP2021157248A (ja) 状況出力装置
KR20160126254A (ko) 도로 영역 검출 시스템
JP2024060029A (ja) 状況出力装置
JP2020013427A (ja) 説明文章生成装置、対象情報表現システム、及び説明文章生成方法
US20240071104A1 (en) Image processing device, image processing method, and recording medium
Hirayama et al. Analysis of peripheral vehicular behavior in driver's gaze transition: Differences between driver's neutral and cognitive distraction states
Hernández et al. Vision-Based distraction analysis tested on a realistic driving simulator
JP2021144312A (ja) 判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220