JP2021144311A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2021144311A JP2021144311A JP2020041002A JP2020041002A JP2021144311A JP 2021144311 A JP2021144311 A JP 2021144311A JP 2020041002 A JP2020041002 A JP 2020041002A JP 2020041002 A JP2020041002 A JP 2020041002A JP 2021144311 A JP2021144311 A JP 2021144311A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- peak position
- visual saliency
- inattentive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 110
- 238000012545 processing Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000013507 mapping Methods 0.000 claims description 46
- 230000010365 information processing Effects 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 23
- 238000003672 processing method Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 5
- 238000000034 method Methods 0.000 description 36
- 238000011176 pooling Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000001994 activation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 239000003973 paint Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】移動体から外部を撮像した画像に基づいて所定の処理を行い脇見対象物を特定する情報処理装置を提供する。【解決手段】情報処理装置(情報出力装置1)において、、視覚顕著性処理部3は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得する。視覚顕著性ピーク検出部4は、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5は、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか否か判定する。【選択図】図1
Description
本発明は、移動体から外部を撮像した画像に基づいて所定の処理を行う情報処理装置に関する。
交通事故を減少させるために運転者の脇見を検出することが行われている。例えば、特許文献1には、車内カメラ1で撮像された撮像画像Gに基づいて、車両前方に存在する視認対象物となる視覚特徴点(例えば前方車両44、信号機45)を検出し、視覚特徴点と判定対象者の注視点とに基づいて、わき見状態であるか否かを判定することが記載されている。
特許文献1に記載した方法の場合、運転者の画像から、運転者の視線や顔の向き、姿勢などを検出し、運転者がどこを見ているからを走行画像と照らし合わせて判断していた。そのため、走行画像だけでなく運転者側の映像も必要となりカメラが複数必要となる。また、運転者の視線と走行画像との照合のために膨大な演算処理を必要としていた。
また、特許文献1に記載した発明の場合、脇見の要因となる脇見対象物については特に考慮されていない。脇見が発生した場合、脇見対象物が目を引きやすい景色等の定常的なものである場合は、例えば当該位置を走行する際には警告等することで、脇見の発生を抑制することが可能となる。
本発明が解決しようとする課題としては、脇見対象物を特定することが一例として挙げられる。
上記課題を解決するために、請求項1に記載の発明は、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得する取得部と、前記視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、前記ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合、前記ピーク位置に対応するのが常在対象物であるか判定する判定部と、
を備えることを特徴としている。
を備えることを特徴としている。
請求項5に記載の発明は、移動体から外部を撮像した画像に基づいて所定の処理を行う情報処理装置で実行される情報処理方法であって、前記画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得する取得工程と、前記視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出工程と、前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定工程と、前記ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合、前記ピーク位置に対応するのが常在対象物であるか判定する判定工程と、を含むことを特徴としている。
請求項7に記載の発明は、請求項6に記載の情報処理方法をコンピュータにより実行させることを特徴としている。
請求項8に記載の発明は、請求項7に記載の情報処理プログラムを格納したことを特徴としている。
以下、本発明の一実施形態にかかる情報処理装置を説明する。本発明の一実施形態にかかる情報処理装置は、取得部が、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得し、ピーク位置検出部が、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出する。そして、注視範囲設定部が、画像における前記移動体の運転者が注視すべき範囲を設定し、判定部が、ピーク位置が注視すべき範囲から所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する。このようにすることにより、視覚顕著性分布情報に基づいて検出された脇見対象物が映像撮影場所から常時観察できる(建物等の常にその位置に存在する)常在対象物か、移動体かを判定することが可能となる。したがって、脇見対象物を少なくとも常在対象物であるか特定することができる。
また、判定部は、ピーク位置が注視すべき範囲よりも側方に外れていた場合に、物体認識により常在対象物であるか判定してもよい。ピーク位置が注視すべき範囲よりも側方に外れていた場合は、ピーク位置に対応するのは常在対象物または移動体のいずれかであるので、物体認識を行うことで、建物等の常在対象物と自動車等の移動体とを精度良く判定することができる。
また、移動体の移動速度を取得する速度取得部を備え、判定部は、ピーク位置が注視すべき範囲よりも側方に外れていた場合に、移動速度に基づいてピーク位置が示す物体の相対速度を算出し、相対速度に基づいて常在対象物であるか判定してもよい。このようにすることにより、相対速度により常在対象物を判定することができ、判定時の処理負荷を軽減することができる。
また、判定結果を出力する出力部を備えてもよい。このようにすることにより、例えば車両で判定した結果をサーバ装置等へ送信して集計することが可能となる。
また、取得部は、画像を写像処理可能な中間データに変換する入力部と、中間データを写像データに変換する非線形写像部と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、非線形写像部は、中間データに対し特徴の抽出を行う特徴抽出部と、特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備えてもよい。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。
また、本発明の一実施形態にかかる情報処理方法は、取得工程で、移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得し、ピーク位置検出工程で、視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出する。そして、注視範囲設定工程で、画像における前記移動体の運転者が注視すべき範囲を設定し、判定工程で、ピーク位置が注視すべき範囲から所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する。このようにすることにより、視覚顕著性分布情報に基づいて検出された脇見対象物が映像撮影場所から常時観察できる(建物等の常にその位置に存在する)常在対象物か、移動体かを判定することが可能となる。したがって、脇見対象物を少なくとも常在対象物であるか特定することができる。
また、上述した情報処理方法を、コンピュータにより実行させている。このようにすることにより、コンピュータを用いて視覚顕著性分布情報に基づいて検出された脇見対象物が映像撮影場所から常時観察できる常在対象物か、移動体かを判定することが可能となる。
また、上述した情報処理プログラムをコンピュータ読み取り可能な記憶媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
本発明の第1の実施例にかかる情報出力装置を図1〜図12を参照して説明する。本実施例にかかる情報出力装置は、例えば自動車等の移動体に設置されるに限らず、事業所等に設置されるサーバ装置等で構成してもよい。即ち、リアルタイムに解析する必要はなく、走行後等に解析を行ってもよい。
図1に示したように、情報出力装置1は、走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、脇見傾向判定部5と、脇見警告部6と、を備えている。
走行画像取得部2は、例えばカメラなどで撮像された画像(例えば動画像)が入力され、その画像を画像データとして出力する。なお、入力された動画像は、例えばフレーム毎等の時系列に分解された画像データとして出力する。走行画像取得部2に入力される画像として静止画を入力してもよいが、時系列に沿った複数の静止画からなる画像群として入力するのが好ましい。
走行画像取得部2に入力される画像は、例えば車両の進行方向が撮像された画像が挙げられる。つまり、移動体から外部を連続的に撮像した画像とする。この画像はいわゆるパノラマ画像や複数カメラを用いて取得した画像等の水平方向に180°や360°等進行方向以外が含まれる画像であってもよい。また、走行画像取得部2には入力されるのは、カメラで撮像された画像に限らず、ハードディスクドライブやメモリカード等の記録媒体から読み出した画像であってもよい。
視覚顕著性処理部3は、走行画像取得部2から画像データが入力され、後述する視覚顕著性推定情報として視覚顕著性マップを出力する。即ち、視覚顕著性処理部3は、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップ(視覚顕著性分布情報)を取得する取得部として機能する。
図2は、視覚顕著性処理部3の構成を例示するブロック図である。本実施例に係る視覚顕著性処理部3は、入力部310、非線形写像部320、出力部330および記憶部390を備える。入力部310は、画像を写像処理可能な中間データに変換する。非線形写像部320は、中間データを写像データに変換する。出力部330は、写像データに基づき顕著性分布を示す顕著性推定情報を生成する。そして、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322とを備える。記憶部390は、走行画像取得部2から入力された画像データや後述するフィルタの係数等が保持されている。以下に詳しく説明する。
図3(a)は、視覚顕著性処理部3へ入力する画像を例示する図であり、図3(b)は、図3(a)に対し推定される、視覚顕著性分布を示す画像を例示する図である。本実施例に係る視覚顕著性処理部3は、画像における各部分の視覚顕著性を推定する装置である。視覚顕著性とは例えば、目立ちやすさや視線の集まりやすさを意味する。具体的には視覚顕著性は、確率等で示される。ここで、確率の大小は、たとえばその画像を見た人の視線がその位置に向く確率の大小に対応する。
図3(a)と図3(b)とは、互いに位置が対応している。そして、図3(a)において、視覚顕著性が高い位置ほど、図3(b)において輝度が高く表示されている。図3(b)のような視覚顕著性分布を示す画像は、出力部330が出力する視覚顕著性マップの一例である。本図の例において、視覚顕著性は、256階調の輝度値で可視化されている。出力部330が出力する視覚顕著性マップの例については詳しく後述する。
図4は、本実施例に係る視覚顕著性処理部3の動作を例示するフローチャートである。図4に示したフローチャートは、コンピュータによって実行される情報出力方法の一部であって、入力ステップS115、非線形写像ステップS120、および出力ステップS130を含む。入力ステップS115では、画像が写像処理可能な中間データに変換される。非線形写像ステップS120では、中間データが写像データに変換される。出力ステップS130では、写像データに基づき顕著性分布を示す視覚顕著性推定情報(視覚顕著性分布情報)が生成される。ここで、非線形写像ステップS120は、中間データに対し特徴の抽出を行う特徴抽出ステップS121と、特徴抽出ステップS121で生成されたデータのアップサンプルを行うアップサンプルステップS122とを含む。
図2に戻り、視覚顕著性処理部3の各構成要素について説明する。入力ステップS115において入力部310は、画像を取得し、中間データに変換する。入力部310は、画像データを走行画像取得部2から取得する。そして入力部310は、取得した画像を中間データに変換する。中間データは非線形写像部320が受け付け可能なデータであれば特に限定されないが、たとえば高次元テンソルである。また、中間データはたとえば、取得した画像に対し輝度を正規化したデータ、または、取得した画像の各画素を、輝度の傾きに変換したデータである。入力ステップS115において入力部310は、さらに画像のノイズ除去や解像度変換等を行っても良い。
非線形写像ステップS120において、非線形写像部320は入力部310から中間データを取得する。そして、非線形写像部320において中間データが写像データに変換される。ここで、写像データは例えば高次元テンソルである。非線形写像部320で中間データに施される写像処理は、たとえばパラメータ等により制御可能な写像処理であり、関数、汎関数、またはニューラルネットワークによる処理であることが好ましい。
図5は、非線形写像部320の構成を詳しく例示する図であり、図6は、中間層323の構成を例示する図である。上記した通り、非線形写像部320は、特徴抽出部321およびアップサンプル部322を備える。特徴抽出部321において特徴抽出ステップS121が行われ、アップサンプル部322においてアップサンプルステップS122が行われる。また、本図の例において、特徴抽出部321およびアップサンプル部322の少なくとも一方は、複数の中間層323を含むニューラルネットワークを含んで構成される。ニューラルネットワークにおいては、複数の中間層323が結合されている。
特にニューラルネットワークは畳み込みニューラルネットワークであることが好ましい。具体的には、複数の中間層323のそれぞれは、一または二以上の畳み込み層324を含む。そして、畳み込み層324では、入力されたデータに対し複数のフィルタ325による畳み込みが行われ、複数のフィルタ325の出力に対し活性化処理が施される。
図5の例において、特徴抽出部321は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間に第1のプーリング部326を備える。また、アップサンプル部322は、複数の中間層323を含むニューラルネットワークを含んで構成され、複数の中間層323の間にアンプーリング部328を備える。さらに、特徴抽出部321とアップサンプル部322とは、オーバーラッププーリングを行う第2のプーリング部327を介して互いに接続されている。
なお、本図の例において各中間層323は、二以上の畳み込み層324からなる。ただし、少なくとも一部の中間層323は、一の畳み込み層324のみからなってもよい。互いに隣り合う中間層323は、第1のプーリング部326、第2のプーリング部327およびアンプーリング部328のいずれかで区切られる。ここで、中間層323に二以上の畳み込み層324が含まれる場合、それらの畳み込み層324におけるフィルタ325の数は互いに等しいことが好ましい。
本図では、「A×B」と記された中間層323は、B個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対しA個の畳み込みフィルタを含むことを意味している。このような中間層323を以下では「A×B中間層」とも呼ぶ。たとえば、64×2中間層323は、2個の畳み込み層324からなり、各畳み込み層324は、各チャネルに対し64個の畳み込みフィルタを含むことを意味している。
本図の例において、特徴抽出部321は、64×2中間層323、128×2中間層323、256×3中間層323、および、512×3中間層323をこの順に含む。また、アップサンプル部322は、512×3中間層323、256×3中間層323、128×2中間層323、および64×2中間層323をこの順に含む。また、第2のプーリング部327は、2つの512×3中間層323を互いに接続している。なお、非線形写像部320を構成する中間層323の数は特に限定されず、たとえば画像データの画素数に応じて定めることができる。
なお、本図は非線形写像部320の構成の一例であり、非線形写像部320は他の構成を有していても良い。たとえば、64×2中間層323の代わりに64×1中間層323が含まれても良い。中間層323に含まれる畳み込み層324の数が削減されることで、計算コストがより低減される可能性がある。また、たとえば、64×2中間層323の代わりに32×2中間層323が含まれても良い。中間層323のチャネル数が削減されることで、計算コストがより低減される可能性がある。さらに、中間層323における畳み込み層324の数とチャネル数との両方を削減しても良い。
ここで、特徴抽出部321に含まれる複数の中間層323においては、第1のプーリング部326を経る毎にフィルタ325の数が増加することが好ましい。具体的には、第1の中間層323aと第2の中間層323bとが、第1のプーリング部326を介して互いに連続しており、第1の中間層323aの後段に第2の中間層323bが位置する。そして、第1の中間層323aは、各チャネルに対するフィルタ325の数がN1である畳み込み層324で構成されており、第2の中間層323bは、各チャネルに対するフィルタ
325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
325の数がN2である畳み込み層324で構成されている。このとき、N2>N1が成り立つことが好ましい。また、N2=N1×2が成り立つことがより好ましい。
また、アップサンプル部322に含まれる複数の中間層323においては、アンプーリング部328を経る毎にフィルタ325の数が減少することが好ましい。具体的には、第3の中間層323cと第4の中間層323dとが、アンプーリング部328を介して互いに連続しており、第3の中間層323cの後段に第4の中間層323dが位置する。そして、第3の中間層323cは、各チャネルに対するフィルタ325の数がN3である畳み込み層324で構成されており、第4の中間層323dは、各チャネルに対するフィルタ325の数がN4である畳み込み層324で構成されている。このとき、N4<N3が成り立つことが好ましい。また、N3=N4×2が成り立つことがより好ましい。
特徴抽出部321では、入力部310から取得した中間データから勾配や形状など、複数の抽象度を持つ画像特徴を中間層323のチャネルとして抽出する。図6は、64×2
中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh0 i(i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h0 i,j(i=1..3,j=1..64)が得られる。
中間層323の構成を例示している。本図を参照して、中間層323における処理を説明する。本図の例において、中間層323は第1の畳み込み層324aと第2の畳み込み層324bとで構成されており、各畳み込み層324は64個のフィルタ325を備える。第1の畳み込み層324aでは、中間層323に入力されたデータの各チャネルに対して、フィルタ325を用いた畳み込み処理が施される。たとえば入力部310へ入力された画像がRGB画像である場合、3つのチャネルh0 i(i=1..3)のそれぞれに対して処理が施される。また、本図の例において、フィルタ325は64種の3×3フィルタであり、すなわち合計64×3種のフィルタである。畳み込み処理の結果、各チャネルiに対して、64個の結果h0 i,j(i=1..3,j=1..64)が得られる。
次に、複数のフィルタ325の出力に対し、活性化部329において活性化処理が行われる。具体的には、全チャネルの対応する結果jについて、対応する要素毎の総和に活性化処理が施される。この活性化処理により、64チャネルの結果h1 i(i=1..64
)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
)、すなわち、第1の畳み込み層324aの出力が、画像特徴として得られる。活性化処理は特に限定されないが、双曲関数、シグモイド関数、および正規化線形関数の少なくともいずれかを用いる処理が好ましい。
さらに、第1の畳み込み層324aの出力データを第2の畳み込み層324bの入力データとし、第2の畳み込み層324bにて第1の畳み込み層324aと同様の処理を行って、64チャネルの結果h2 i(i=1..64)、すなわち第2の畳み込み層324bの出力が、画像特徴として得られる。第2の畳み込み層324bの出力がこの64×2中間層323の出力データとなる。
ここで、フィルタ325の構造は特に限定されないが、3×3の二次元フィルタであることが好ましい。また、各フィルタ325の係数は独立に設定可能である。本実施例において、各フィルタ325の係数は記憶部390に保持されており、非線形写像部320がそれを読み出して処理に用いることができる。ここで、複数のフィルタ325の係数は機械学習を用いて生成、修正された補正情報に基づいて定められてもよい。たとえば、補正情報は、複数のフィルタ325の係数を、複数の補正パラメータとして含む。非線形写像部320は、この補正情報をさらに用いて中間データを写像データに変換することができる。記憶部390は視覚顕著性処理部3に備えられていてもよいし、視覚顕著性処理部3の外部に設けられていてもよい。また、非線形写像部320は補正情報を、通信ネットワークを介して外部から取得しても良い。
図7(a)および図7(b)はそれぞれ、フィルタ325で行われる畳み込み処理の例を示す図である。図7(a)および図7(b)では、いずれも3×3畳み込みの例が示されている。図7(a)の例は、最近接要素を用いた畳み込み処理である。図7(b)の例は、距離が二以上の近接要素を用いた畳み込み処理である。なお、距離が三以上の近接要素を用いた畳み込み処理も可能である。フィルタ325は、距離が二以上の近接要素を用いた畳み込み処理を行うことが好ましい。より広範囲の特徴を抽出することができ、視覚顕著性の推定精度をさらに高めることができるからである。
以上、64×2中間層323の動作について説明した。他の中間層323(128×2中間層323、256×3中間層323、および、512×3中間層323等)の動作についても、畳み込み層324の数およびチャネルの数を除いて、64×2中間層323の動作と同じである。また、特徴抽出部321における中間層323の動作も、アップサンプル部322における中間層323の動作も上記と同様である。
図8(a)は、第1のプーリング部326の処理を説明するための図であり、図8(b)は、第2のプーリング部327の処理を説明するための図であり、図8(c)は、アンプーリング部328の処理を説明するための図である。
特徴抽出部321において、中間層323から出力されたデータは、第1のプーリング部326においてチャネル毎にプーリング処理が施された後、次の中間層323に入力される。第1のプーリング部326ではたとえば、非オーバーラップのプーリング処理が行われる。図8(a)では、各チャネルに含まれる要素群に対し、2×2の4つの要素30を1つの要素30に対応づける処理を示している。第1のプーリング部326ではこのような対応づけが全ての要素30に対し行われる。ここで、2×2の4つの要素30は互いに重ならないよう選択される。本例では、各チャネルの要素数が4分の1に縮小される。なお、第1のプーリング部326において要素数が縮小される限り、対応づける前後の要素30の数は特に限定されない。
特徴抽出部321から出力されたデータは、第2のプーリング部327を介してアップサンプル部322に入力される。第2のプーリング部327では、特徴抽出部321からの出力データに対し、オーバーラッププーリングが施される。図8(b)では、一部の要素30をオーバーラップさせながら、2×2の4つの要素30を1つの要素30に対応づける処理を示している。すなわち、繰り返される対応づけにおいて、ある対応づけにおける2×2の4つの要素30のうち一部が、次の対応づけにおける2×2の4つの要素30にも含まれる。本図のような第2のプーリング部327では要素数は縮小されない。なお、第2のプーリング部327において対応づける前後の要素30の数は特に限定されない。
第1のプーリング部326および第2のプーリング部327で行われる各処理の方法は特に限定されないが、たとえば、4つの要素30の最大値を1つの要素30とする対応づけ(max pooling)や4つの要素30の平均値を1つの要素30とする対応づけ(average pooling)が挙げられる。
第2のプーリング部327から出力されたデータは、アップサンプル部322における中間層323に入力される。そして、アップサンプル部322の中間層323からの出力データはアンプーリング部328においてチャネル毎にアンプーリング処理が施された後、次の中間層323に入力される。図8(c)では、1つの要素30を複数の要素30に拡大する処理を示している。拡大の方法は特に限定されないが、1つの要素30を2×2の4つの要素30へ複製する方法が例として挙げられる。
アップサンプル部322の最後の中間層323の出力データは写像データとして非線形写像部320から出力され、出力部330に入力される。出力ステップS130において出力部330は、非線形写像部320から取得したデータに対し、たとえば正規化や解像度変換等を行うことで視覚顕著性マップを生成し、出力する。視覚顕著性マップはたとえば、図3(b)に例示したような視覚顕著性を輝度値で可視化した画像(画像データ)である。また、視覚顕著性マップはたとえば、ヒートマップのように視覚顕著性に応じて色分けされた画像であっても良いし、視覚顕著性が予め定められた基準より高い視覚顕著領域を、その他の位置とは識別可能にマーキングした画像であっても良い。さらに、視覚顕著性推定情報は画像等として示されたマップ情報に限定されず、視覚顕著領域を示す情報を列挙したテーブル等であっても良い。
視覚顕著性ピーク検出部4は、視覚顕著性処理部3において取得した視覚顕著性マップにおいて、ピークとなる位置(画素)を検出する。ここで、本実施例においてピークとは画素値が最大値(輝度が最大)となる視覚顕著性が高い画素であり、位置は座標で表される。即ち、視覚顕著性ピーク検出部4は、視覚顕著性マップ(視覚顕著性分布情報)における少なくとも1つのピーク位置を検出するピーク位置検出部として機能する。
脇見傾向判定部5は、視覚顕著性ピーク検出部4で検出されたピークとなる位置に基づいて、走行画像取得部2から入力された画像が脇見の傾向があるか判定する。脇見傾向判定部5は、まず、走行画像取得部2から入力された画像について注視エリア(注視すべき範囲)を設定する。注視エリアの設定方法について図9を参照して説明する。即ち、脇見傾向判定部5は、画像における移動体の運転者が注視すべき範囲を設定する注視範囲設定部として機能する。
図9に示した画像Pにおいて、注視エリアGは、消失点Vの周囲に設定されている。即ち、注視エリアG(注視すべき範囲)を画像の消失点に基づいて設定している。この注視エリアGは、予め注視エリアGの大きさ(例えば幅3m、高さ2m)を設定し、画像Pの水平画素数、垂直画素数、水平画角、垂直画角、先行車両までの車間距離、画像を撮像しているドライブレコーダー等のカメラの取り付け高さ等から、設定した大きさの画素数を算出することが可能である。なお、消失点は、白線等から推定してもよいし、オプティカルフロー等を用いて推定してもよい。また、先行車両までの車間距離は、実際の先行車両を検出する必要はなく仮想的に設定するものでよい。
次に、設定した注視エリアGに基づいて画像Pにおける脇見検出エリアを設定する(図10の網掛け部分)。この脇見検出エリアは、上方エリアIu、下方エリアId、左側方エリアIl、右側方エリアIrがそれぞれ設定される。これらのエリアは、消失点Vと、注視エリアGの各頂点を結ぶ線分により区分けされる。即ち、上方エリアIuと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gaとを結ぶ線分L1により区切られている。上方エリアIuと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gdとを結ぶ線分L2により区切られている。下方エリアIdと左側方エリアIlとは、消失点Vと注視エリアGの頂点Gbとを結ぶ線分L3により区切られている。下方エリアIdと右側方エリアIrとは、消失点Vと注視エリアGの頂点Gcとを結ぶ線分L4により区切られている。
なお、脇見検出エリアは図10に示したような区分けに限らない。例えば、図11に示したようにしてもよい。図11は、注視エリアGの各辺を延長した線分により脇見検出エリアを区分けしている。図11の方法は、形状が単純になるので、脇見検出エリアの区分けにかかる処理を軽減することができる。
次に、脇見傾向判定部5における脇見傾向の判定について説明する。視覚顕著性ピーク検出部4で検出されたピーク位置が、所定時間以上注視エリアGから連続して外れていた場合は脇見傾向であると判定する。ここで、所定時間は例えば2秒とすることができるが適宜変更してもよい。即ち、脇見傾向判定部5は、ピーク位置が注視すべき範囲から所定時間以上連続して外れていたか判定している。
また、脇見傾向判定部5は、脇見検出エリアが上方エリアIu又は下方エリアIdであった場合は固定物による脇見の傾向があると判定してもよい。これは、車両から前方を撮像した画像の場合、上方エリアIuには、建物や交通信号、標識、街灯などの固定物が映り込むのが一般的であり、下方エリアIdには、道路標識等の路上ペイントが映り込むのが一般的である。一方、左側方エリアIlや右側方エリアIrは、他の走行車線等を走行する車両等の自車両以外の移動体が映り込むことがあり、エリアにより脇見対象物(固定物か移動体か)まで判定するのは困難である。
脇見警告部6は、脇見傾向判定部5の判定結果に基づいて警告等を報知する。警告の報知の方法は、運転者等が視認可能な表示装置等に表示することにより行ってもよいし、音声や振動として出力してもよい。即ち、脇見警告部6は、脇見の傾向がある旨の情報を出力する脇見出力部として機能する。本実施例では、警告を脇見の傾向がある旨の情報としているが、脇見の傾向がある旨の情報として、フラグ等の脇見検出の情報に加え、その際の時刻、位置等の情報を含めて記憶媒体や情報出力装置1の外部に通信等で出力してもよい。また、脇見傾向判定部5の判定結果に基づき、ヒヤリハットに係る情報としてその結果を出力してもよい。
次に、上述した構成の情報出力装置1における動作(情報出力方法)について、図12のフローチャートを参照して説明する。また、このフローチャートを情報出力装置1として機能するコンピュータで実行されるプログラムとして構成することで情報処理プログラムとすることができる。また、この情報出力プログラムは、情報出力装置1が有するメモリ等に記憶するに限らず、メモリカードや光ディスク等の記憶媒体に格納してもよい。
まず、脇見警告部6は、脇見警告スイッチ(SW)がONかOFFか判断する(ステップS101)。脇見警告SWとは、脇見警告部6による警告を実行するか否かを切り替えるスイッチであり、脇見警告部6が有して、脇見傾向判定部5により切り替え制御がされる。
脇見警告SWがONの場合は(ステップS101;SW=ON)、脇見警告部6は、警告タイマー閾値の比較を行う(ステップS102)。警告タイマーとは、脇見警告部6による警告を実行する期間を計時するタイマーであり、警告タイマー閾値とは、その警告の実行期間を定める閾値である。つまり、脇見警告部6による警告は警告タイマー閾値に定められた期間だけ警告を行う。
警告タイマー閾値を超えていた場合は(ステップS102;閾値超え)、脇見警告部6は、脇見警告SWをOFFにして警告タイマーを停止して(ステップS103)、後述すステップS104が実行される。警告タイマー閾値を超えていない場合は(ステップS102;閾値超えない)、何もせずに後述するステップS104が実行される。
一方、脇見警告SWがOFFの場合又は、上述したステップS102、S103から進んだ場合は、走行画像取得部2が走行画像を取得し(ステップS104)、視覚顕著性処理部3において視覚顕著性画像処理(視覚顕著性マップの取得)を行う(ステップS105)。そして、視覚顕著性ピーク検出部4が、ステップS105で視覚顕著性処理部3が取得した視覚顕著性マップに基づいてピーク位置を取得(検出)する(ステップS106)。
次に、脇見傾向判定部5が、注視エリアGを設定して、当該注視エリアGと視覚顕著性ピーク検出部4が取得したピーク位置とを比較する(ステップS107)。比較した結果ピーク位置が注視エリアG外である場合は(ステップS107;注視エリア外)、脇見傾向判定部5は、滞留タイマーが開始後か停止中か判定する(ステップS108)。滞留タイマーとは、ピーク位置が注視エリアG外に滞留している時間を計測するタイマーである。なお、注視エリアGの設定は、ステップS104で画像を取得した際に行ってもよい。
滞留タイマーが停止中である場合は(ステップS108;停止中)、脇見傾向判定部5は、滞留タイマーを開始する(ステップS109)。一方、滞留タイマーが開始後である場合は(ステップS108;開始後)、脇見傾向判定部5は、滞留タイマー閾値の比較を行う(ステップS110)。滞留タイマー閾値とは、ピーク位置が注視エリアG外に滞留している時間の閾値であり、上述したように2秒などと設定されている。
滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定部5は、脇見警告部6の脇見警告SWをONにして、警告タイマーを開始させる(ステップS111)。そして、脇見傾向判定部5は、滞留タイマーを停止させる(ステップS112)。つまり、ピーク位置が注視エリアG外に滞留している時間が閾値以上であったので、脇見警告部6による警告を開始させる。
一方、滞留タイマーが閾値を超えない場合は(ステップS110;閾値超えない)、脇見傾向判定部5は、何もせずにステップS101に戻る。
また、ステップS107で比較した結果、ピーク位置が注視エリアG内である場合は(ステップS107;注視エリア内)、脇見傾向判定部5は、滞留タイマーを停止させる(ステップS112)。
以上の説明から明らかなように、ステップS105が取得工程、ステップS106がピーク位置検出工程、ステップS107が注視範囲設定工程、ステップS107〜S111が脇見出力工程としてそれぞれ機能する。
本実施例によれば、情報出力装置1は、視覚顕著性処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、視覚顕著性ピーク検出部4が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5部が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合は、脇見警告部6が脇見の傾向がある旨の情報を出力する。この視覚顕著性マップには、統計的なヒトの視線が集まりやすさを示している。したがって、視覚顕著性マップのピークは、その中で最も統計的にヒトの視線の集まりやすい位置を示している。そのため、視覚的顕著性マップを用いることで、実際の運転手の視線を計測することなく、簡易な構成で脇見の傾向を検出することができる。
また、脇見傾向判定部5は、注視エリアGを画像の消失点Vに基づいて設定している。このようにすることにより、例えば前方車両等を検出しなくても注視エリアGを容易に設定することが可能となる。
また、脇見傾向判定部5が、ピーク位置が注視エリアGよりも上方又は下方に所定時間以上連続して位置していた場合は、脇見警告部6が、固定物による脇見の傾向がある旨の情報を出力してもよい。注視エリアGよりも上方は、一般的に建物や交通信号、標識、街灯などの固定物が映り込むエリアであり、注視エリアGよりも下方は、一般的に道路標識等の路上ペイントが映り込むエリアである。つまり、範囲にピーク位置が含まれる場合は、脇見による脇見対象物が固定物であると特定することができる。
また、視覚顕著性処理部3は、画像を写像処理可能な中間データに変換する入力部310と、中間データを写像データに変換する非線形写像部320と、写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部330と、を備え、非線形写像部320は、中間データに対し特徴の抽出を行う特徴抽出部321と、特徴抽出部321で生成されたデータのアップサンプルを行うアップサンプル部322と、を備えている。このようにすることにより、小さな計算コストで、視覚顕著性を推定することができる。また、このようにして推定した視覚顕著性は、文脈的な注意状態を反映したものとなる。
なお、注視エリアGは、固定的な範囲に設定されるに限らない。例えば移動体の移動速度に応じて変更してもよい。例えば高速走行時には、運転者の視野が狭くなることが知られている。そこで、例えば脇見傾向判定部5が、車両に搭載されている速度センサ等から車速を取得して、速度が高くなるにしたがって注視エリアGの範囲を狭めてもよい。また、移動速度に応じて適正な車間距離も変化するため、図9を参照して説明した算出方法による注視エリアGの範囲も変化させてもよい。車両の速度は、速度センサに限らず、加速度センサや撮像画像から求めてもよい。
また、注視エリアGを車両等の走行位置や状況に応じて変更してもよい。周囲への注意が必要な状況であれば、注視エリアGを広くする必要がある。例えば、住宅街、幹線道路、繁華街等の走行する位置によって注視すべき範囲は変わる。住宅街であれば歩行者は少ないが急な飛び出しに注意する必要があり注視エリアGは狭くできない。一方で、幹線道路であれば、走行速度が高くなり、上述したように視野が狭くなる。
具体例を示すと、通学路、公園、学校近傍は子供の飛び出しの危険性があると考えられる。駅学校近傍、催事の場所・観光地近傍等は歩行者が多いと考えられる。駐輪場近傍、学校近傍等は自転車が多いと考えられる。歓楽街近傍等は酔客が多いと考えられる。以上のような地点等は、周囲への注意が必要な状況であり、注視エリアGを広くして、脇見傾向と判定されるエリアを狭くしてもよい。一方で、高速道路走行時や、交通量・人口密度の低い地域等は、走行速度が高くなる傾向があり、注視エリアGを狭くして、脇見傾向と判定されるエリアを広くしてもよい。
また、時間帯やイベント等で注視エリアGを変化させてもよい。例えば、通勤通学時間帯は、周囲への注意が必要な状況であり、通常時間帯よりも注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。あるいは薄暮〜夜間にかけても同様に注視エリアGを広くして脇見傾向と判定されるエリアを狭くしてもよい。一方で深夜は注視エリアGを狭くして脇見傾向と判定されるエリアを広くしてもよい。
さらに、イベント情報により注視エリアGを変化させてもよい。例えば催事等は人の往来が多い場所や時間帯となるので、通常より注視エリアGを広くして脇見傾向の判定を緩くしてもよい。
このような地点の情報は、脇見傾向判定部5が、GPS受信機や地図データ等の現在位置及び走行している地域が判別できる手段から情報を取得し、画像データと対応付けておくことで、注視エリアGの範囲を変化させることができる。時刻情報は情報出力装置1が内部又は外部から取得すればよい。イベント情報は外部サイト等から取得すればよい。また、位置と時刻、日付を組み合わせて変更の判定を行ってもよいし、何れか一つを用いて変更の判定を行ってもよい。
さらに、高速走行する際には、滞留タイマー閾値を短くしてもよい。これは、高速走行時は、短時間の脇見でも危険な状態になるためである。
次に、本発明の第2の実施例にかかる情報処理装置を図13〜図15を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。
図13に本実施例の典型的なシステム構成例を示す。本実施例にかかるシステムは情報処理装置1Aとサーバ装置10と、を有している。本実施例にかかる情報処理装置1Aは、車両Vに搭載されている。そして、情報処理装置1Aとサーバ装置10とは、インターネット等のネットワークNを介して通信可能となっている。
本実施例にかかる情報処理装置1Aを図14に示す。情報処理装置1Aは、走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、脇見傾向判定部5Aと、出力部7と、を備えている。
走行画像取得部2と、視覚顕著性処理部3と、視覚顕著性ピーク検出部4と、は第1の実施例と同様である。脇見傾向判定部5Aは、脇見の傾向を判定するに加えて、脇見の傾向があると判定された際の脇見対象物(ピーク位置)が常在対象物か否かを判定する。即ち、脇見傾向判定部5Aは、ピーク位置が注視エリアG(注視すべき範囲)から所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する判定部として機能する。
常在対象物とは、第1の実施例で説明した建物や交通信号、標識、街灯、路上ペイントなどの固定物を示し、映像撮影場所から常時観察できる(建物等の常にその位置に存在する)脇見対象物をいう。
常在対象物の判定は、第1の実施例で説明した、ピーク位置が上方エリアIuか下方エリアIdかの判定に加えて、ピーク位置が左側方エリアIlや右側方エリアIrであった場合にも判定を行う。
ピーク位置が上方エリアIuか下方エリアIdである場合はエリアのみで常在対象物の判定が可能である。一方、ピーク位置が左側方エリアIlや右側方エリアIrであった場合は、エリアだけでは脇見対象物が常在対象物か判定できないため、物体認識を用いて判定を行う。物体認識(物体検出ともいう)は周知のアルゴリズムを用いればよく、具体的な方法は特に限定されない。
また、物体認識に限らず相対速度を利用して常在対象物の判定を行ってもよい。これは、自車速度と脇見対象物のフレーム間の移動速度から相対速度を求め、その相対速度から脇見対象物が常在対象物か判定する。ここで、脇見対象物のフレーム間の移動速度は、ピーク位置のフレーム間の移動速度を求めればよい。そして求めた相対速度が所定の閾値以上である場合は、ある位置に固定されている物(常在対象物)と判定することができる。
常在対象物は、上述したように、ある位置に固定され、映像撮影場所から常時観察できる(建物等の常にその位置に存在する)ものであるので、本実施例による判定を行うことで、脇見対象物(ピーク位置)が常在対象物と判定された位置では、常に脇見し易い位置であると見なすことができる。
出力部7は、脇見傾向判定部5において脇見対象物が常在対象物であると判定した場合は、判定結果をサーバ装置10へ送信する。あるいは判定結果として常在対象物の有無を常に送信するようにしてもよい。このとき、リアルタイムに判定した場合は判定時刻、メモリカード等に保存された画像を判定した場合は画像の撮像時刻や日付を付加してもよい。時刻の情報を付加することで、時間帯により脇見し易い地点等を抽出することができる。例えば、昼間にのみ見える建物により脇見し易い地点、照明等の影響により脇見し易い地点、花火などのイベントにより脇見し易い地点、等が判別できる。また、撮像地点の情報を付加してもよい。
サーバ装置10は、情報処理装置1Aから送信された判定結果を集計する。例えば、位置情報を含めて情報処理装置1A(車両)から送信された判定結果を集計することで、脇見し易い地点を抽出することができる。さらに、時間情報を含めることで、時間帯による脇見のし易い地点を抽出することができる。
本実施例にかかる情報処理装置1Aにおける動作について、図15のフローチャートを参照して説明する。図15において、ステップS104〜S110、S112は、図12と同様である。また、図12のステップS101〜S103は、本実施例では警告は必須ではないので省略した。
図15では、滞留タイマーが閾値を超えていた場合は(ステップS110;閾値超え)、脇見傾向判定部5は、常在対象物の判定及び判定結果の送信を行う(ステップS111A)。ステップS111Aでは、上述した物体認識等により常在対象物の判定を行って判定結果をサーバ装置10に送信する。
なお、図15に示したフローチャートでは、警告に係るステップは省略したが、警告も行うようにしてもよい。警告をする場合は、図1に示した脇見警告部6も備え、ステップS101〜S103も実行するようにし、ステップS111Aの前後又は並行して図12のステップS111を実行するようにすればよい。
また、本実施例では、車両側の情報処理装置1Aが常在対象物の判定を行っていたが、サーバ装置10側で常在対象物の判定を行ってもよい。つまり、走行画像等をサーバ装置10が取得し、その画像に対して常在対象物の判定を行って、判定結果をサーバ装置10内の記憶装置や他のサーバ装置等に出力するようにしてもよい。
本実施例によれば、情報処理装置1Aは、視覚顕著性処理部3が、移動体から外部を撮像した画像に基づいて、その画像内における視覚顕著性の高低を推測して得られた視覚顕著性マップを時系列に取得し、視覚顕著性ピーク検出部4が、視覚顕著性マップにおける少なくとも1つのピーク位置を時系列に検出する。そして、脇見傾向判定部5部が、画像における注視エリアGを設定し、ピーク位置が注視エリアGから所定時間以上連続して外れていた場合、ピーク位置に対応するのが常在対象物であるか判定する。このようにすることにより、視覚顕著性マップに基づいて検出された脇見対象物が映像撮影場所から常時観察できる(建物等の常にその位置に存在する)常在対象物か、移動体かを判定することが可能となる。したがって、脇見対象物を少なくとも常在対象物であるか特定することができる。
また、脇見傾向判定部5部は、ピーク位置が注視エリアGよりも左側方又は右側方に外れていた場合に、物体認識により常在対象物であるか判定してもよい。このようにすることにより、ピーク位置が注視すべき範囲よりも左側方又は右側方に外れていた場合は、ピーク位置に対応するのは常在対象物または移動体のいずれかであるので、物体認識を行うことで、建物等の常在対象物と自動車等の移動体とを精度良く判定することができる。
また、脇見傾向判定部5部が、移動体の移動速度を取得し、ピーク位置が注視エリアGよりも左側方又は右側方に外れていた場合に、移動速度に基づいてピーク位置が示す物体の相対速度を算出し、相対速度に基づいて常在対象物であるか判定してもよい。このようにすることにより、相対速度により常在対象物を判定することができ、判定時の処理負荷を軽減することができる。
また、判定結果を出力する出力部7を備えている。このようにすることにより、例えば車両で判定した結果をサーバ装置10等へ送信して集計することが可能となる。
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の情報処理装置を具備する限り、勿論、本発明の範疇に含まれるものである。
1 情報出力装置(情報処理装置)
2 走行画像取得部
3 視覚顕著性処理部(取得部)
4 視覚顕著性ピーク検出部(ピーク位置検出部)
5 脇見傾向判定部(注視範囲設定部、脇見出力部、速度取得部、位置取得部、判定部)
6 脇見警告部
7 出力部
2 走行画像取得部
3 視覚顕著性処理部(取得部)
4 視覚顕著性ピーク検出部(ピーク位置検出部)
5 脇見傾向判定部(注視範囲設定部、脇見出力部、速度取得部、位置取得部、判定部)
6 脇見警告部
7 出力部
Claims (8)
- 移動体から外部を撮像した画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得する取得部と、
前記視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出部と、
前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定部と、
前記ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合、前記ピーク位置に対応するのが常在対象物であるか判定する判定部と、
を備えることを特徴とする情報処理装置。 - 前記判定部は、前記ピーク位置が前記注視すべき範囲よりも側方に外れていた場合に、物体認識により前記常在対象物であるか判定することを特徴とする請求項1に記載の情報処理装置。
- 前記移動体の移動速度を取得する速度取得部を備え、
前記判定部は、前記ピーク位置が前記注視すべき範囲よりも側方に外れていた場合に、前記移動速度に基づいて前記ピーク位置が示す物体の相対速度を算出し、前記相対速度に基づいて前記常在対象物であるか判定することを特徴とする請求項1に記載の情報処理装置。 - 前記判定結果を出力する出力部を備えることを特徴とする請求項1から3のうちいずれか一項に記載の情報処理装置。
- 前記取得部は、
前記画像を写像処理可能な中間データに変換する入力部と、
前記中間データを写像データに変換する非線形写像部と、
前記写像データに基づき顕著性分布を示す顕著性推定情報を生成する出力部と、を備え、
前記非線形写像部は、前記中間データに対し特徴の抽出を行う特徴抽出部と、前記特徴抽出部で生成されたデータのアップサンプルを行うアップサンプル部と、を備える、
ことを特徴とする請求項1から4のうちいずれか一項に記載の情報処理装置。 - 移動体から外部を撮像した画像に基づいて所定の処理を行う情報処理装置で実行される情報処理方法であって、
前記画像に基づいて視覚顕著性の高低を推測して得られた視覚顕著性分布情報を時系列に取得する取得工程と、
前記視覚顕著性分布情報における少なくとも1つのピーク位置を時系列に検出するピーク位置検出工程と、
前記画像における前記移動体の運転者が注視すべき範囲を設定する注視範囲設定工程と、
前記ピーク位置が前記注視すべき範囲から所定時間以上連続して外れていた場合、前記ピーク位置に対応するのが常在対象物であるか判定する判定工程と、
を含むことを特徴とする情報処理方法。 - 請求項6に記載の情報処理方法をコンピュータにより実行させることを特徴とする情報処理プログラム。
- 請求項7に記載の情報処理プログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041002A JP2021144311A (ja) | 2020-03-10 | 2020-03-10 | 情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041002A JP2021144311A (ja) | 2020-03-10 | 2020-03-10 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021144311A true JP2021144311A (ja) | 2021-09-24 |
Family
ID=77766586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041002A Pending JP2021144311A (ja) | 2020-03-10 | 2020-03-10 | 情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021144311A (ja) |
-
2020
- 2020-03-10 JP JP2020041002A patent/JP2021144311A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7332726B2 (ja) | ヒートマップを使用したドライバーの注目の検出 | |
US10186147B2 (en) | Wrong-way determination apparatus | |
JP5171629B2 (ja) | 走行情報提供装置 | |
RU2573110C1 (ru) | Бортовое устройство распознавания изображений | |
JP4321821B2 (ja) | 画像認識装置及び画像認識方法 | |
US9070023B2 (en) | System and method of alerting a driver that visual perception of pedestrian may be difficult | |
US20140247968A1 (en) | Method for Fog Detection | |
KR100816377B1 (ko) | 호프 변환을 이용한 주차구획 인식 방법, 장치 및 그를이용한 주차 보조 시스템 | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
KR101478258B1 (ko) | 차선 인식 방법 및 그 시스템 | |
JP4988781B2 (ja) | 車両の周辺監視装置 | |
CN112896159A (zh) | 行车安全预警方法及系统 | |
JP2010224670A (ja) | 車両の周辺監視装置 | |
KR101986734B1 (ko) | 차량 운전 보조 장치 및 이의 안전 운전 유도 방법 | |
JP2024019588A (ja) | 地図データ生成装置 | |
JP4752158B2 (ja) | 環境複雑度演算装置、環境認識度合推定装置及び障害物警報装置 | |
JP2024060029A (ja) | 状況出力装置 | |
WO2010115020A2 (en) | Color and pattern detection system | |
JP2021144311A (ja) | 情報処理装置 | |
JP2021144310A (ja) | 情報出力装置 | |
JP4281405B2 (ja) | 確認動作検出装置及び警報システム | |
JP5383246B2 (ja) | 車両の周辺監視装置 | |
KR102145409B1 (ko) | 차량속도 측정이 가능한 시정거리 측정 시스템 | |
JP2024061803A (ja) | 判定装置 | |
JP2021144309A (ja) | リスク情報出力装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |