JPWO2014061123A1 - 画像処理装置、画像処理プログラムおよび画像処理方法 - Google Patents

画像処理装置、画像処理プログラムおよび画像処理方法 Download PDF

Info

Publication number
JPWO2014061123A1
JPWO2014061123A1 JP2014541868A JP2014541868A JPWO2014061123A1 JP WO2014061123 A1 JPWO2014061123 A1 JP WO2014061123A1 JP 2014541868 A JP2014541868 A JP 2014541868A JP 2014541868 A JP2014541868 A JP 2014541868A JP WO2014061123 A1 JPWO2014061123 A1 JP WO2014061123A1
Authority
JP
Japan
Prior art keywords
value
region
detection unit
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014541868A
Other languages
English (en)
Other versions
JP6052293B2 (ja
Inventor
幸三 馬場
幸三 馬場
橋口 典男
典男 橋口
省治 喜多
省治 喜多
国和 高橋
国和 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2014061123A1 publication Critical patent/JPWO2014061123A1/ja
Application granted granted Critical
Publication of JP6052293B2 publication Critical patent/JP6052293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

画像処理装置(10)は、算出部(11)および検出部(12)を有する。算出部(11)は、画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、第1の方向の座標値毎の輝度値の加算値を算出する。算出部(11)は、処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、第2の方向の座標値毎の輝度値の加算値を算出する。検出部(12)は、算出部(11)の算出結果を基にして、第1の方向の座標値毎の輝度値の加算値が同等となる画像の領域、または、第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する。

Description

本発明は、画像処理装置等に関する。
運転中に横断者に接触しそうになる等、ヒヤリハット、すなわち、運転者がヒヤリとしたりハッとしたりするような事象の発生しやすい位置の情報を運転者に知らせることが出来れば、事故の発生を防止することができる。ヒヤリハットの発生しやすい位置の情報を特定するためには、ドライブレコーダに記録されたデータを利用することができる。例えば、ドライブレコーダには、車両の位置、撮影日時、車両の加速度、車両の速度、車両前方の画像データ等が記録されている。
例えば、ドライブレコーダに記録された画像データを統計的に処理して、危険地点毎の危険事象や危険因子を解析し、解析結果に基づいて運転者にアドバイスを出力する従来技術がある。
特開2006−309445号公報 特開2011−100298号公報
しかしながら、上述した従来技術では、移動体を精度良く検出することができないという問題がある。
例えば、ドライブレコーダに記録された画像データは、元々の解像度が粗く、さらに容量を抑えるために圧縮されている。また、ヒヤリハットの原因となる移動体を、車両に限ってみても、乗用車、大型車、トラック、オートバイ等様々な形状がある。さらに、自車両と検出対象との位置関係により、画像上での検出対象の形状が異なる。このため、ドライブレコーダ等に記録された画像データから、ヒヤリハットの原因となり得る移動体を精度良く検出することは難しい。
1つの側面では、移動体を精度良く検出することができる画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。
第1の案では、画像処理装置は、算出部および検出部を有する。算出部は、画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、第1の方向の座標値毎の輝度値の加算値を算出する。算出部は、処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、第2の方向の座標値毎の輝度値の加算値を算出する。検出部は、算出部の算出結果を基にして、第1の方向の座標値毎の輝度値の加算値が同等となる画像の領域、または、第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する。
本発明の1実施態様によれば、移動体を精度良く検出することができるという効果を奏する。
図1は、本実施例1に係る画像処理装置の構成を示す機能ブロック図である。 図2は、本実施例2に係る画像処理装置の構成を示す機能ブロック図である。 図3は、ドラレコ情報のデータ構造の一例を示す図である。 図4は、移動体管理テーブルのデータ構造の一例を示す図である。 図5Aは、連結管理テーブルのデータ構造の一例を示す図である。 図5Bは、統合結果テーブルのデータ構造の一例を示す図である。 図6は、車線検出部が検出する車線領域の一例を示す図である。 図7は、前方領域および側方領域を説明する図である。 図8は、横断領域を説明する図である。 図9は、前方検出部の処理を説明するための図である。 図10は、側方検出部の処理を説明するための図である。 図11は、充填率チェックを説明するための図である。 図12は、コーナー判定の処理を説明する図である。 図13は、三角形度の算出方法を説明するための図である。 図14は、移動体とカメラとの距離を算出する処理を説明するための図である。 図15は、統合部の処理の一例を説明するための図(1)である。 図16は、統合部の処理の一例を説明するための図(2)である。 図17は、統合処理のイメージ図である。 図18は、前方に分類される移動体の一例を示す図である。 図19は、横断に分類される移動体の一例を示す図である。 図20は、側方に分類される移動体の一例を示す図(1)である。 図21は、側方に分類される移動体の一例を示す図(2)である。 図22は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。 図23は、連結処理の処理手順を示すフローチャートである。 図24は、統合処理の処理手順を示すフローチャートである。 図25は、側方検出部のその他の処理を説明するための図である。 図26は、画像処理プログラムを実行するコンピュータの一例を示す図である。
以下に、本発明にかかる画像処理装置、画像処理プログラムおよび画像処理方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
実施例1に係る画像処理装置の構成について説明する。図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。図1に示すように、画像処理装置10は、算出部11と、検出部12とを有する。
算出部11は、画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、第1の方向の座標値毎の輝度値の加算値を算出する。または、算出部11は、処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、第2の方向の座標値毎の輝度値の加算値を算出する。
検出部12は、算出部11の算出結果を基にして、第1の方向の座標値毎の輝度値の加算値が同等となる前記画像の領域、または、前記第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する。
本実施例1に係る画像処理装置10の効果について説明する。例えば、画像処理装置10が、ドライブレコーダに記録される画像データに対して、処理を実行すると、処理対象領域に含まれる画像の大半は、路面である。この路面上に移動体が存在している場合には、移動体の画像と路面の画像との間に輝度差が生じる。このため、上記のように、第1の方向または第2の方向の座標値毎の輝度値の加算値が同等となる画像の領域を検出することで、移動体を精度良く検出することができる。
次に、本実施例2に係る画像処理装置について説明する。図2は、本実施例2に係る画像処理装置の構成を示す機能ブロック図である。図2に示すように、画像処理装置100は、通信部110、入力部120、表示部130、記憶部140、制御部150を有する。
通信部110は、ネットワークを介して他の装置とデータ通信を実行する処理部である。通信部110は、例えば、通信装置等に対応する。
入力部120は、各種のデータを画像処理装置100に入力する入力装置である。例えば、入力部120は、キーボードやマウス、タッチパネル等に対応する。表示部130は、制御部150から出力されるデータを表示する表示装置である。例えば、表示部130は、液晶ディスプレイやタッチパネル等に対応する。
記憶部140は、ドラレコ情報141、移動体管理テーブル142、連結管理テーブル143、統合結果テーブル144、カメラパラメータ145を有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
ドラレコ情報141は、ドライブレコーダによって記録された各種のデータを含む。図3は、ドラレコ情報のデータ構造の一例を示す図である。図3に示すように、ドラレコ情報141は、フレーム番号、日時、速度、加速度、位置座標、画像を対応付ける。フレーム番号は、フレームを一意に識別する番号である。日時は、該当するフレームが撮影された日時である。速度は、該当するフレームを撮影した時点における、ドライブレコーダを搭載した車両の速度である。加速度は、該当するフレームを撮影した時点における、ドライブレコーダを搭載した車両の加速度である。位置座標は、該当するフレームを撮影した時点における、ドライブレコーダを搭載した車両の位置座標である。画像は、該当するフレームの画像データである。
移動体管理テーブル142は、各フレームから検出される移動体の情報を有するテーブルである。図4は、移動体管理テーブルのデータ構造の一例を示す図である。例えば、移動体管理テーブル142は、テーブル142a,142b,142cを有する。
テーブル142aは、前方検出部152aによって検出される前方領域内の移動体の情報を保持する。前方領域に関する説明は後述する。テーブル142aは、フレーム番号、移動体識別番号、検出座標、信頼度を有する。フレーム番号は、フレームを一意に識別する番号である。移動体識別番号は、移動体を一意に識別する情報である。検出座標は、移動体を検出した領域の座標を示す。信頼度は、検出した移動体が移動体である確からしさの度合いを示す値である。信頼度が大きいほど、移動体が移動体である確からしさが大きい。同一フレームの前方領域内で複数の移動体が検出された場合には、移動体識別番号、検出座標、信頼度の組みが、同一のフレーム番号のレコードに複数存在する。
テーブル142bは、側方検出部152bによって検出される側方領域内の移動体の情報を保持する。側方領域に関する説明は後述する。テーブル142bは、フレーム番号、移動体識別番号、検出座標、信頼度を有する。フレーム番号、移動体識別番号、検出座標、信頼度に関する説明は、テーブル142aの説明と同様である。同一フレームの側方領域内で複数の移動体が検出された場合には、移動体識別番号、検出座標、信頼度の組みが、同一のフレーム番号のレコードに複数存在する。
テーブル142cは、横断検出部152cによって検出される横断領域内の移動体の情報を保持する。横断領域に関する説明は後述する。テーブル142cは、フレーム番号、移動体識別番号、検出座標、信頼度を有する。同一フレームの横断領域内で複数の移動体が検出された場合には、移動体識別番号、検出座標、信頼度の組みが、同一のフレーム番号のレコードに複数存在する。
連結管理テーブル143は、各フレームから検出される各移動体を連結した結果の情報を有するテーブルである。各移動体を連結する処理に関する説明は後述する。図5Aは、連結管理テーブルのデータ構造の一例を示す図である。例えば、連結管理テーブル143は、テーブル143a,143b,143cを有する。
テーブル143aは、前方検出部152aによって検出される前方領域内の移動体を連結した結果の情報を有するテーブルである。例えば、テーブル143aは、連結識別番号と、移動体識別番号群とを有する。連結識別番号は、連結した各移動体の組みを一意に識別する情報である。移動体識別番号群は、連結された各移動体の各移動体識別番号を示す情報である。
テーブル143bは、側方検出部152bによって検出される側方領域内の移動体を連結した結果の情報を有するテーブルである。例えば、テーブル143bは、連結識別番号と、移動体識別番号群とを有する。連結識別番号、移動体識別番号群に関する説明は、テーブル143aの連結識別番号、移動体識別番号群に関する説明と同様である。
テーブル143cは、横断検出部152bによって検出される横断領域内の移動体を連結した結果の情報を有するテーブルである。例えば、テーブル143cは、連結識別番号と、移動体識別番号群とを有する。連結識別番号、移動体識別番号群に関する説明は、テーブル143aの連結識別番号、移動体識別番号群に関する説明と同様である。
統合結果テーブル144は、前方領域F、側方領域S、横断領域Cで検出した移動体を統合した結果の情報を記憶するテーブルである。図5Bは、統合結果テーブルのデータ構造の一例を示す図である。図5Bに示すように、統合結果テーブル144は、統合識別番号と、移動体識別番号群とを有する。統合識別番号は、統合した各移動体の組みを一意に識別する情報である。移動体識別番号群は、統合された各移動体の各移動体識別番号を示す情報である。
カメラパラメータ145は、ドライブレコーダが利用するカメラの各種パラメータの情報を含む。例えば、カメラパラメータ145は、カメラの水平画角、垂直画角、フレームの水平解像度、フレームの垂直解像度、カメラの設置高さを含む。
制御部150は、車線検出部151、前方検出部152a、側方検出部152b、横断検出部152c、信頼度算出部153、連結部154、統合部155、分類部156、評価部157を有する。制御部150は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
車線検出部151は、ドラレコ情報141から各フレームの画像データを取得し、画像内の車線の領域を検出する処理部である。以下の説明では、画像内の車線の領域を適宜、車線領域と表記する。
図6は、車線検出部が検出する車線領域の一例を示す図である。図6に示すように、車線領域20は、点21a,21b,21cを頂点とする三角形の領域である。点21aは、消失点に対応する点である。
車線検出部151が消失点を検出する処理の一例について説明する。車両検出部151は、画像データをハフ変換して複数の直線を検出し、各直線が交差する点を消失点として特定する。車線検出部151は、その他どのような従来技術を用いて、消失点を特定しても良い。
図6の点21b,21cは、車両のボンネット22の位置よりも上方に設定される点である。ボンネット22の位置は、予め設定しておいても良いし、所定の画像処理により特定しても良い。
車線検出部151は、点21a,21b,21cを特定し、点21a,21b,21cを頂点とする三角形の領域を求めることで、車線領域20を検出する。車両検出部151は、車両領域の情報を、前方検出部152a、側方検出部152b、横断検出部152cに出力する。
前方検出部152aは、前方領域に含まれる移動体を検出する処理部である。側方領域検出部152bは、側方領域に含まれる移動体を検出する処理部である。横断検出部152cは、横断領域に含まれる移動体を検出する処理部である。
図7は、前方領域および側方領域を説明する図である。図7に示すように、前方領域Fは、車両領域20を含む矩形の領域である。側方領域Sは、前方領域Fと一部重複し、車両領域20の両側を含む矩形の領域である。
図8は、横断領域を説明する図である。横断領域は、速度に応じて領域の大きさが変動する。速度が0ではない場合には、横断領域Cとなる。横断領域Cは、図7に示した、前方領域Fと、側方領域Sの一部を含む。速度が0の場合には、横断領域Caとなる。例えば、横断領域Caは、横断領域Cよりも大きい領域となる。
前方検出部152aが、前方領域Fに含まれる移動体を検出する処理の一例について説明する。前方検出部152aは、ドラレコ情報141から、各フレームの画像データを取得する。図9は、前方検出部の処理を説明するための図である。図9において横軸はx座標を示し、縦軸はy座標を示す。
前方検出部152aは、前方領域Fに対して、縦方向の輝度投影値を算出する。前方検出部152aは、前方領域Fに含まれる同一のx座標値の輝度値を、x座標値毎にそれぞれ縦方向に加算することで、縦方向の輝度投影値30aを算出する。前方検出部152aは、輝度値の加算値が同等となるx座標の範囲x1〜x2を検出する。
前方検出部152aは、隣接するx座標の輝度値の差が閾値以上となるx座標を算出することで、x1,x2を検出する。例えば、前方検出部152aは、輝度投影値30aに含まれる各x座標の輝度値の平均を算出し、算出した平均の輝度値を閾値として用いる。
例えば、白系の車両は、道路面よりも輝度が高いため、車両の含まれるx座標の範囲の輝度値と閾値との差が大きくなる。また、黒系の車両は、道路面よりも輝度が低いため、車両の含まれるx座標の範囲の輝度値と閾値との差が大きくなる。
次に、前方検出部152aは、横方向の輝度投影値を算出する。前方検出部152aは、前方領域Fに含まれる同一のy座標値の輝度値を、y座標値毎にそれぞれ横方向に加算することで、横方向の輝度投影値30bを算出する。
前方検出部152aは、横方向の輝度投影値30bを基にして、輝度値が最小となるy座標を、y1として検出する。
前方検出部152aは、x1とx2との中点を、移動体のx座標として特定する。また、前方検出部152aは、y1を、移動体のy座標として特定する。例えば、前方検出部152aは、移動体の座標の情報、車線領域の情報、移動体のx座標の範囲の情報を、信頼度算出部153に出力する。
なお、前方検出部152aが、移動体の含まれるx座標の範囲x1,x2を求める処理は、上記のものに限定されない。例えば、前方検出部152aは、縦方向の輝度投影値が閾値以上となる領域を、移動体の含まれる領域として特定しても良い。
側方検出部152bが、側方領域Sに含まれる移動体を検出する処理の一例について説明する。側方検出部152bは、ドラレコ情報141から、各フレームの画像データを取得する。側方検出部152bが、側方領域Sから移動体を検出する処理は、前方検出部152aが、前方領域Fに含まれる移動体を検出する処理と同様である。
ところで、側方検出部152bは、縦方向の輝度投影値について、輝度値の加算値が同等となる範囲が、側方領域Sの外側に接する場合には、該当範囲を移動体の範囲から除外する。図10は、側方検出部の処理を説明するための図である。図10において、線30cは、側方領域Sにおける縦方向の輝度投影値である。x1は、側方領域Sの左端のx座標である。x5は、側方領域Sの右端のx座標である。
図10に示すように、輝度投影値30cについて、輝度値の加算値が同等となるx座標の範囲は、範囲x1〜x2、範囲x3〜x4となる。ここで、範囲x1〜x2については、側方領域Sの外接に接する。このため、側方検出部152bは、範囲x1〜x2を、移動体の範囲から除外し、例えば、範囲x3〜x4を、移動体の範囲として特定する。
例えば、側方検出部152bは、移動体の座標の情報、車線領域の情報、移動体のx座標の範囲の情報を、信頼度算出部153に出力する。
横断検出部152cが、横断領域C、Caに含まれる移動体を検出する処理の一例について説明する。横断検出部152cは、ドラレコ情報141の画像データに対応する速度を基にして、速度が0ではない場合には、横断領域Cから移動体を検出する。横断検出部152cは、速度が0の場合には、横断領域Caから移動体を検出する。
横断検出部152cは、平均画像を生成する処理、二値画像を生成する処理、移動体を検出する処理を順に実行する。
横断検出部152cが、平均画像を生成する処理について説明する。横断検出部152cは、ドラレコ情報141の各フレームの画像データを取得し、各画素値を画素毎に加算する。横断検出部152cは、加算した画素毎の画素値をフレーム数で除算することで、平均画像を生成する。なお、横断検出部152cが、平均画像を作成する処理は、上記の処理に限定されず、どのような周知技術を用いても構わない。
横断検出部152cが、二値画像を生成する処理について説明する。横断検出部152cは、各フレームについて、各フレームの平均画像と、フレームの画像データとの差分画像をそれぞれ生成する。横断検出部152cは、各差分画像を基にして、二値画像を生成する。
例えば、横断検出部152cは、画像データの各画素の画素値から、平均画像の各画素の画素値を減算することで、差分画像を生成する。横断検出部152cは、全てのフレームに対して差分画像を生成しても良い。
横断検出部152cは、差分画像をRGB(Red Green Blue)分解する。横断検出部152cは、RGB分解した後に、差分画像の各画素について、Rの値、Gの値、Bの値がそれぞれ所定の閾値を超える場合に、該当する画素の画素値を「1」に設定し、その他の画素の画素値を「0」に設定することで二値画像を生成する。横断検出部152cは、各差分画像について、二値画像を生成する。
横断検出部152cが、移動体を検出する処理について説明する。横断検出部152cは、移動体を検出する場合には、ラベリング処理とコーナー判定処理を実行する。
横断検出部152cが実行するラベリング処理について説明する。横断検出部152cは、二値画像を走査し、画素値が連続して「1」となる各画素を連結するラベリング処理を実行する。以下の説明では、ラベリング処理によって連結された領域を、候補領域と表記する。横断検出部152cは、候補領域を検出した後に、面積チェック、充填率チェック、縦横比チェックを実行して、検出対象に該当しない候補領域を除外する。
横断検出部152cが実行する面積チェックについて説明する。横断検出部152cは、候補領域の面積が、予め設定された所定の面積以上の場合に、該当する候補領域を残す。これに対して、横断検出部152cは、候補領域の面積が、予め設定された所定の面積未満の場合には、該当する候補領域を除外する。
横断検出部152cが実行する充填率チェックについて説明する。図11は、充填率チェックを説明するための図である。図11に示す例では、横断領域Cに、候補領域35が存在する。横断検出部152cは、候補領域35の外接矩形36を設定する。横断検出部152cは、外接矩形36の面積に対する候補領域35の面積の割合を充填率として算出する。横断検出部152cは、充填率が所定の充填率以上の場合には、該当する候補領域35を残す。これに対して、横断検出部152cは、充填率が所定の充填率未満の場合には、該当する候補領域を除外する。
横断検出部152cが実行する縦横比チェックについて説明する。横断検出部152cは、図11と同様にして、候補領域に対する外接矩形を設定する。横断検出部152cは、外接矩形について、縦横比を算出する。横断検出部152は、外接矩形の横幅に対する縦幅の比率、または外接矩形の縦幅に対する横幅の比率が所定の比率未満の場合には、該当する候補領域35を残す。
これに対して、横断検出部152cは、外接矩形の横幅に対する縦幅の比率、または外接矩形の縦幅に対する横幅の比率が所定の比率以上の場合には、該当する候補領域を除外する。外接矩形の横幅に対する縦幅の比率、または外接矩形の縦幅に対する横幅の比率が所定の比率以上の場合には、候補領域が、一般的な横断者の形状と比較して、極端に縦長または横長であることを示すため、候補領域が検出対象であるとは考えにくい。
続いて、横断検出部152cは、二値画像から検出した候補領域に対して面積チェック、充填率チェック、縦横比チェックを行い、取り除かれなかった候補領域の情報について、コーナー判定を実行する。
横断検出部152cが実行するコーナー判定処理について説明する。図12は、コーナー判定の処理を説明する図である。図12において、候補領域31は、上記のラベリング処理で検出した候補領域であり、面積チェック、充填率チェック、縦横比チェックにより取り除かれなかった候補領域に対応する。また、外接矩形41は、候補領域31の外接矩形である。
横断検出部152cは、外接矩形41内の各角41a,41b,41c,41dを含む候補領域31以外のコーナー領域の面積を求める。コーナー領域は、外接矩形を構成する辺と、候補領域を構成する辺とに囲まれた多角形ということができる。図12に示す例では、横断検出部152cは、コーナー領域42a,42b,42c,42dの面積を求める。横断検出部152cは、各コーナー領域の大小関係に基づいて、候補領域を除外する。以下の説明において、候補領域の除外条件1〜3について説明する。なお、下記の説明において、コーナー領域42a,42cを対角コーナーと表記する。また、コーナー領域42b,42dを逆対角コーナーと表記する。
除外条件1について説明する。横断検出部152cは、対角コーナーの面積が所定の面積以上の場合に、該当する候補領域を除外する。
除外条件2について説明する。横断検出部152cは、対角コーナーの少なくとも一方の面積が所定の面積以上であり、かつ、逆対角コーナーの面積が所定の面積未満の場合に、該当する候補領域を除外する。
除外条件3について説明する。横断検出部152cは、対角コーナーの面積が所定の面積以上であり、かつ、対角コーナーの三角形度が所定の三角形度以上であり、かつ、逆対角コーナーの面積が所定の面積未満の場合に、該当する候補領域を除外する。
なお、除外条件1〜3で用いる閾値は、外接矩形41の面積の大きさに応じて変更して良い。例えば、外接矩形41の面積をSとすると、閾値をS÷6によって求める。なお、閾値の値が40画素を下回る場合には、閾値を40とする。
三角形度の算出方法について説明する。図13は、三角形度の算出方法を説明するための図である。ここでは、コーナー領域42cの三角形度を求める場合について説明する。三角形BCDに含まれる画素の画素値を1に設定し、三角形ABCに囲まれる画素の画素値を0に設定する。そして、矩形ABCDに含まれる画素のうち画素値が1となる面積を、矩形ABCDで除算することで、横断検出部152cは、コーナー領域42cの三角形度を算出する。
横断検出部152cは、上記の除外条件1〜3によって除外されなかった候補領域を移動体として検出する。例えば、横断検出部152cは、移動体の座標の情報、充填率の情報を、信頼度算出部153に出力する。
信頼度算出部153は、前方検出部152a、側方検出部152b、横断検出部152cがそれぞれ検出した移動体の信頼度を算出する処理部である。信頼度算出部153は、フレーム番号、移動体識別番号、検出座標、信頼度を対応付けて、移動体管理テーブル142に登録する。
信頼度算出部153が、前方検出部152aによって検出された移動体の信頼度を算出する処理の一例について説明する。信頼度算出部153は、移動体のx座標の範囲の情報を、移動体のy座標の値を基にして、実際の移動体の幅(m)に換算し、換算した値を基にして、移動体の信頼度を算出する。ここで、移動体のx座標の範囲は、図9に示したx1〜x2に対応する範囲である。
信頼度算出部153が、y座標の値を基にして、実際の移動体の幅に換算する処理の一例について説明する。まず、信頼度算出部153は、移動体とカメラの距離とを算出する。図14は、移動体とカメラとの距離を算出する処理を説明するための図である。
信頼度算出部153は、カメラパラメータ145を取得する。カメラパラメータ145は、カメラ50の水平画角CH(radian)、カメラ50の垂直画角CV(radian)、処理フレームの水平解像度SH(pixel)、処理フレームの垂直解像度SV(pixel)、カメラ50の設置高さHGT(m)を含む。
図14において、50aはカメラ視野を示し、50bは消失点の位置を示す。また、51は、距離dでの投影面SV上で、移動体の座標に対応する。以下では、移動体の座標を適宜、検出位置51と表記する。図14のθは、カメラ50および消失点50bを結ぶ直線と、カメラ50および検出位置51を結ぶ直線とのなす角度である。また、cyは、消失点50bと検出位置51との垂直方向の距離である。
ここで、式(1)が成立するため、θは式(2)によって表される。また、θを用いることで、距離dは、式(3)によって表すことができる。
cy/SV=θ/CV・・・(1)
θ=CV×cy/SV・・・(2)
d=HGT/tan(θ)・・・(3)
より具体的には、式(2)は、式(4)によって表すことができる。式(4)において、VanY[pixel]は、処理フレーム上の消失点のy座標を示す。y[pixel]は、処理フレーム上の移動体のy座標を示す。ABSは絶対値を示す。
θ=CV[rad]×ABS(VanY[pixel]−y[pixel])/SV[pixel]・・・(4)
なお、移動体とカメラ距離とにつき、x軸方向の距離は、式(5)によって算出される。y軸方向の距離は、式(3)によって求められるdの値である。
x軸方向の距離=d×tan(CH[rad]/2)×2・・・(5)
上記の式(3)で求められる距離dが、移動体とカメラとの距離に対応する。
例えば、信頼度算出部153は、移動体とカメラの距離とを算出した後に、式(6)を用いて、y座標から、実際の移動体の幅を算出する。
実際の移動体の幅[m]=d[m]×移動体のx座標の範囲[pixel]/y座標[pixel]・・・(6)
信頼度算出部153は、実際の移動体の幅(m)と、平均的な車両の幅との差の絶対値を算出する。信頼度算出部153は、差の絶対値が0に近づくほど値が100に近づき、差の絶対値が大きくなるほど値が0となるように、差の絶対値を正規化し、正規化した値を信頼度として算出する。信頼度算出部153は、各フレームの前方領域Fに含まれる移動体毎に信頼度を算出する。
信頼度算出部153は、フレーム番号毎に、移動体識別番号と検出座標と信頼度とを対応付けて、移動体管理テーブル142のテーブル142aに登録する。信頼度算出部153は、各移動体にユニークな移動体識別番号を割り振る。検出座標は、移動体の座標に対応する。
信頼度算出部153が、側方検出部152bによって検出された移動体の信頼度を算出する処理の一例について説明する。信頼度算出部153が、側方検出部152bによって検出された移動体の信頼度を算出する処理は、前方検出部152aによって検出された移動体の信頼度を算出する処理と同様である。信頼度算出部153は、各フレームの側方領域Sに含まれる移動体毎に信頼度を算出する。
信頼度算出部153は、フレーム番号毎に、移動体識別番号と検出座標と信頼度とを対応付けて、移動体管理テーブル142のテーブル142bに登録する。信頼度算出部153は、各移動体にユニークな移動体識別番号を割り振る。検出座標は、移動体の座標に対応する。
信頼度算出部153が、横断検出部152cによって検出された移動体の信頼度を算出する処理の一例について説明する。例えば、信頼度算出部153は、充填率に基づいて、横断領域Cの移動体の信頼度を算出しても良い。信頼度算出部153は、充填率が大きくなるほど、信頼度を100に近づけ、充填率が小さくなるほど、信頼度を0に近づけることで、信頼度を算出する。
信頼度算出部153は、フレーム番号毎に、移動体識別番号と検出座標と信頼度とを対応付けて、移動体管理テーブル142のテーブル142cに登録する。信頼度算出部153は、各移動体にユニークな移動体識別番号を割り振る。検出座標は、移動体の座標に対応する。
連結部154は、同一の移動体を時系列に連結する処理部である。連結部154は、移動体管理テーブル142のテーブル142aを基にして、前方領域Fから検出された同一の移動体を時系列に連結する。連結部154は、テーブル142bを基にして、側方領域Sから検出された同一の移動体を時系列に連結する。連結部154は、テーブル142cを基にして、横断領域Cから検出された同一の移動体を時系列に連結する。連結部154は、前方領域F、側方領域S、横断領域Cでそれぞれ連結した結果を、連結管理テーブル143に登録する。
連結部154が、前方領域Fから検出された同一の移動体を時系列に連結する処理について説明する。連結部154は、Nフレームの検出座標を中心とする所定範囲の領域Naと、N+1フレームの検出座標を中心とする所定範囲の領域Nbとが重なる領域Ncを特定する。連結部154は、領域Ncの大きさが閾値以上の場合に、Nフレームの移動体と、N+1フレームの移動体とを連結する。例えば、連結部154は、所定範囲の領域に対する領域Ncの大きさの割合が、50%以上の場合に、連結を行っても良い。
上記の処理に加えて、連結部154は、領域内の色に基づいて、各移動体を連結しても良い。例えば、連結部154は、領域Naの色と領域Nbの色とが同色系の色である場合に、Nフレームの移動体と、N+1フレームの移動体とを連結する。連結部154は、領域Na,Nbの色情報を、ドラレコ情報141の画像データから取得する。例えば、連結部154は、領域内の画像の輝度値が、128以上の場合には、領域内の色は白系と判定する。連結部154は、領域内の画像の輝度値が、128未満の場合には、領域内の色は黒系と判定する。
連結部154は、前方領域Fについて、連結識別番号と、連結した各移動体の各移動体識別番号を含む移動体識別番号群とを対応付けて、テーブル143aに登録する。
連結部154が、側方領域Sから検出された同一の移動体を時系列に連結する処理について説明する。連結部154が、側方領域Sの移動体を時系列に連結する処理は、上記の前方領域Fの移動体を時系列に連結する処理と同様で良い。
連結部154は、側方領域Sについて、連結識別番号と、連結した各移動体の各移動体識別番号を含む移動体識別番号群とを対応付けて、テーブル143bに登録する。
連結部154が、横断領域Cから検出された同一の移動体を時系列に連結する処理について説明する。連結部154が、横断領域Cの移動体を時系列に連結する処理は、上記の前方領域Fの移動体を時系列に連結する処理と同様で良い。なお、連結部154は、前方領域Fで利用する閾値と比較して、該閾値よりも小さい閾値により、Nフレームの移動体と、N+1フレームの移動体とを連結する。例えば、連結部154は、所定範囲の領域に対する領域Ncの大きさの割合が、10%以上の場合に、連結を行っても良い。これは、横断領域Cで検出される移動体は、移動量が大きいため、連続するフレーム間で、領域が重なる大きさが、小さくなる傾向があるためである。
連結部154は、横断領域Cについて、連結識別番号と、連結した各移動体の各移動体識別番号を含む移動体識別番号群とを対応付けて、テーブル143cに登録する。
連結部154は、各フレームの移動体において、信頼度が閾値以上となる移動体同士を優先して連結する。しかし、一時的に移動体の信頼度が低くなる場合もあり得る。このため、連結部154は、優先度が閾値以上となる移動体同士を連結できない場合がある。このような場合には、連結部154は、信頼度が閾値未満となる移動体を連結候補に含めて、各移動体を連結しても良い。
連結部154は、信頼度が最大となる移動体を特定し、特定した信頼度が最大となる移動体を起点として、各フレームの移動体を連結しても良い。
統合部155は、連結管理テーブル143のテーブル143a,143b,143cの移動体を統合することで、統合結果テーブル144を生成する処理部である。図15および図16は、統合部の処理の一例を説明するための図である。図15において、車両60は、ドライブレコーダを搭載した自車両である。車両65は、移動体に対応する他の車両である。図15の横軸は時間軸である。
図15では一例として、期間T1において、側方検出部152bが移動体65を検出し、期間T3において、横断検出部152cが移動体65を検出し、期間T6において、前方検出部152aが移動体65を検出した場合について説明する。ここで、期間T2では、側方検出部152bおよび横断検出部152cが、同一の移動体65を検出した可能性がある。また、期間T4では、横断検出部152cおよび前方検出部152aが、同一の移動体65を検出した可能性がある。
統合部155は、期間T2において、側方検出部152bおよび横断検出部152cが、同一の移動体65を検出したか否かを判定する。また、統合部155は、期間T4において、横断検出部152cおよび前方検出部152aが、同一の移動体65を検出したか否かを判定する。T2,T4で同一の移動体65を検出している場合には、統合部155は、期間T1,T3,T6で検出した各移動体の組みを統合して、同一の組みに分類する。統合部155は、統合結果を、統合結果テーブル144に登録する。
統合部155が、期間T2において、側方検出部152bおよび横断検出部152cが、同一の移動体65を検出したか否かを判定する処理について説明する。
統合部155は、期間T2において、側方検出部152bが検出した移動体の検出座標を中心とする所定範囲の領域Maと、期間T2において横断検出部152cが検出した移動体の検出座標を中心とする所定範囲の領域Mbを求める。統合部155は、移動体管理テーブル142および連結管理テーブル143を基にして、領域Ma,Mbを求める。
統合部155は、領域Maと領域Mbとが重なる領域Mcを特定する。統合部155は、領域Mcの大きさが閾値以上の場合に、期間T1で側方検出部152bが検出した各移動体の組みと、期間T3で横断検出部152cが検出した各移動体の組みとを統合する。
上記処理に加えて、統合部155は、領域内の色に基づいて、各移動体の組みと、各移動体の組みとを統合しても良い。例えば、統合部155は、領域Maの色と、領域Mbの色とが同色系である場合に、期間T1で側方検出部152bが検出した各移動体の組みと、期間T3で横断検出部152cが検出した各移動体の組みとを統合する。同色系であるか否かを判定する処理の説明は、連結部154で説明した、同色系であるか否かを判定する処理の説明と同様である。
続いて、統合部155が、期間T4において、横断検出部152cおよび前方検出部152aが、同一の移動体65を検出したか否かを判定する処理について説明する。
統合部155は、期間T4において横断検出部152cが検出した移動体の検出座標を中心とする所定範囲の領域Laと、期間T4において前方検出部152aが検出した移動体の検出座標を中心とする所定範囲の領域Lbを求める。統合部155は、移動体管理テーブル142および連結管理テーブル143を基にして、領域La,Lbを求める。
統合部155は、領域Laと領域Lbとが重なる領域Lcを特定する。統合部155は、領域Lcの大きさが閾値以上の場合に、期間T3で横断検出部152cが検出した各移動体の組みと、期間T6で前方検出部152aが検出した各移動体の組みとを統合する。
上記処理に加えて、統合部155は、領域内の色に基づいて、各移動体の組みと、各移動体の組みとを統合しても良い。例えば、統合部155は、領域Laの色と、領域Lbの色とが同色系である場合に、期間T3で側方検出部152bが検出した各移動体の組みと、期間T6で横断検出部152cが検出した各移動体の組みとを統合する。同色系であるか否かを判定する処理の説明は、連結部154で説明した、同色系であるか否かを判定する処理の説明と同様である。
統合部155は、図15を用いて説明した処理を実行することで、各期間T1、T3、T6で検出した移動体の組みを統合し、統合結果テーブル144に情報を登録する。統合部155は、統合した各移動体識別番号に、ユニークな統合識別番号を割り当てる。
図16について説明する。図16では一例として、期間T7において前方検出部152aが、移動体65を検出し、期間T9において横断検出部152bが、移動体65を検出し、期間T11において前方検出部152aが、移動体65を検出した場合について説明する。例えば、移動体65が車両60に近づきすぎると、前方検出部152aによって移動体65を検出できない場合があるため、横断検出部152cの移動体の検出結果を利用して、前方検出部152aが検出できなかった期間を補うことができる。
統合部155は、期間T8において、前方検出部152aおよび横断検出部152cが、同一の移動体65を検出したか否かを判定する。また、統合部155は、期間T10において、前方検出部152aおよび横断検出部152cが、同一の移動体65を検出したか否かを判定する。
統合部155が、期間T8において、前方検出部152aおよび横断検出部152cが、同一の移動体65を検出したか否かを判定する処理について説明する。
統合部155は、期間T8において前方検出部152aが検出した移動体の検出座標を中心とする所定範囲の領域Kaと、期間T8において横断検出部152cが検出した移動体の検出座標を中心とする所定範囲の領域Kbを求める。統合部155は、移動体管理テーブル142および連結管理テーブル143を基にして、領域Ka,Kbを求める。
統合部155は、領域Kaと領域Kbとが重なる領域Kcを特定する。統合部155は、領域Kcの大きさが閾値以上の場合に、期間T8で前方検出部152aが検出した各移動体の組みと、期間T8で横断検出部152cが検出した各移動体の組みとを統合する。なお、統合部155は、領域Kaと領域Kbとが同色系の色である場合に、各移動体の組みを統合するものとする。
統合部155が、期間T10において、横断検出部152cおよび前方検出部152aが、同一の移動体65を検出したか否かを判定する処理について説明する。期間T10において横断検出部152cが検出した移動体の検出座標を中心とする所定範囲の領域Jaと、期間T10において前方検出部152aが検出した移動体の検出座標を中心とする所定範囲の領域Jbを求める。統合部155は、移動体管理テーブル142および連結管理テーブル143を基にして、領域Ja,Jbを求める。
統合部155は、領域Jaと領域Jbとが重なる領域Jcを特定する。統合部155は、領域Jcの大きさが閾値以上の場合に、期間T10で横断検出部152cが検出した各移動体の組みと、期間T10で前方検出部152aが検出した各移動体の組みとを統合する。なお、統合部155は、領域Jaと領域Jbとが同色系の色である場合に、各移動体の組みを統合するものとする。
統合部155は、図16を用いて説明した処理を実行することで、各期間T7、T9、T11で検出した移動体の組みを統合し、統合結果テーブル144に情報を登録する。統合部155は、結合した各移動体識別番号に、ユニークな統合識別番号を割り当てる。
図17は、統合処理のイメージ図である。各ステップSに含まれる20は、上述した検出領域に対応する。ステップS10において、側方検出部152bが、移動体70aを検出する。ステップS11において、側方検出部152bおよび横断検出部152cが、移動体70aを検出する。ステップS12において、横断検出部152cが、移動体70aを検出する。
ステップS13において、横断検出部152cが、移動体70aを検出する。ステップS14において、横断検出部152cが、移動体70aを検出する。ステップS15において、前方検出部152aおよび横断検出部152cが、移動体70aを検出する。
例えば、図17のステップS11、S12、S15で検出された移動体の信頼度を閾値以上とし、ステップS10、S13、S14で検出された移動体の信頼度を閾値未満とする。統合部155は、ステップS10、S13、S14で検出された移動体70aの信頼度を閾値未満であっても、図17のステップS11、S12、S15で検出された移動体70aの信頼度が高い場合には、ステップS10〜S15の移動体70aを、連結する。
分類部156は、統合結果テーブル144および移動体管理テーブルを基にして、検出した移動体の動きを、前方、横断、側方に分類する処理部である。以下において、分類部156の処理について具体的に説明する。
分類部156は、信頼度算出部153の処理で説明した式(3)、式(5)を用いて、移動体のx方向の距離、y方向の距離を、統合結果テーブル144の統合識別番号毎に算出する。このx方向の距離およびy方向の距離は、ドライブレコーダを搭載した自車両を原点とした場合の距離である。
分類部156は、自車両の前方を所定期間走行する移動体を、「前方」に分類する。例えば、分類部156は、所定期間中において、x方向の距離が閾値Fx未満で、かつ、y方向の距離が閾値Fy未満の場合に、統合識別番号に対応付けられた移動体を、「前方」に分類する。
図18は、前方に分類される移動体の一例を示す図である。図18に示すように、ステップS20、S21、S22、S23、S24において、移動体71は、検出領域20付近からほとんど移動していない。このような動きをする移動体71については、x方向の距離が閾値Fx未満で、かつ、y方向の距離が閾値Fy未満となる。このため、分類部156は、移動体71を「前方」に分類する。
分類部156は、自車両の前方を右から左あるいは左から右に走行する移動体を、「横断」に分類する。例えば、分類部156は、x方向の移動距離が、閾値Cx以上となる場合に、統合識別番号に対応付けられた移動体を、「横断」に分類する。
図19は、横断に分類される移動体の一例を示す図である。図19に示すように、ステップS30、S31、S32、S33において移動体72が自車両60を横切っており、ステップS31、S32において、移動体72が検出されている。このような動きをする移動体72については、x方向の距離が閾値Cx以上となる。このため、分類部156は、移動体72を「横断」に分類する。
分類部156は、自車両の側方を走行する移動体、または、自車両の側方から前方に移動する移動体を「側方」に分類する。例えば、分類部156は、所定期間中において、x方向の距離が閾値Sx以上の状態が保たれている場合に、統合識別番号に対応付けられた移動体を、「側方」に分類する。また、分類部156は、所定期間中において、x方向の処理が閾値Sx以上の状態となった後に、y方向の距離が閾値Syとなった移動体を、「側方」に分類する。
図20および図21は、側方に分類される移動体の一例を示す図である。図20に示すように、ステップS40、S41、S42において移動体73が検出されており、検出領域20の横側からほとんど移動していない。このような移動体73については、x方向の距離が閾値Sx以上の状態が保たれている。このため、分類部156は、移動体73を「側方」に分類する。
図21に示すように、ステップS50、S51、S52、S53、S54において移動体74が検出されており、検出領域20の横側を細かく移動している。このような移動体74については、x方向の距離が閾値Sx以上の状態が保たれている。このため、分類部156は、移動体74を「側方」に分類する。
分類部156は、統合識別番号と、分類結果とを対応付けた情報を、評価部157に出力する。ところで、上記のx方向の閾値の大小関係を、閾値Cx>閾値Sx>閾値Fxとする。y方向の閾値の大小関係を、閾値Sy>閾値Fyとする。
評価部157は、分類部156の分類結果を基にして、ヒヤリハットの原因を評価する処理部である。評価部157は、評価結果を表示部130に出力する。
例えば、評価部157は、統合識別番号によって特定される移動体が「前方」に分類されている場合には、この移動体によるヒヤリハットの原因が「人に依存する」と評価する。例えば、移動体が前方に分類されているということは、運転者の前方不注意によって急ブレーキを踏まれた場合に、ドライブレコーダに撮影された移動体だと言える。
これに対して、評価部157は、統合識別番号によって特定される移動体が「横断」または「側方」に分類されている場合には、この移動体によるヒヤリハットの原因が「位置に依存する」と評価する。例えば、移動体が横断または側方に分類されていると言うことは、運転者の発見が遅れる、飛び出しのある危険な場所であると言える。
次に、本実施例2に係る画像処理装置100の処理手順について説明する。図22は、本実施例2に係る画像処理装置の処理手順を示すフローチャートである。図22に示すように、画像処理装置100は、画像から自車線を検出する(ステップS101)。
画像処理装置100は、前方検出処理を実行する(ステップS102)。前方検出処理は、前方領域Fから、移動体を検出する処理に対応する。画像処理装置100は、側方検出処理を実行する(ステップS103)。側方検出処理は、側方領域Sから、移動体を検出する処理に対応する。画像処理装置100は、横断検出処理を実行する(ステップS104)。画像処理装置100は、ステップS102、S103、S104の各処理を並列的に実行しても良い。
画像処理装置100は、前方連結処理を実行する(ステップS105)。前方連結処理は、前方領域Fから検出した各移動体を連結する処理に対応する。画像処理装置100は、側方連結処理を実行する(ステップS106)。側方連結処理は、側方領域Sから検出した各移動体を連結する処理に対応する。画像処理装置100は、横断連結処理を実行する(ステップS107)。横断連結処理は、横断領域Cから検出した各移動体を連結する処理に対応する。画像処理装置100は、ステップS105、S106、S107の各処理を並列的に実行しても良い。
画像処理装置100は、統合処理を実行する(ステップS108)。統合処理は、前方領域F、側方領域S、横断領域Cで連結した移動体の情報を統合する処理である。画像処理装置100は、移動体の動きを分類し(ステップS109)、各移動体を評価する(ステップS110)。
次に、ステップS105、S106、S107に示した連結処理の処理手順の一例について説明する。図23は、連結処理の処理手順を示すフローチャートである。図23に示すように、画像処理装置100は、信頼度が閾値以上となる移動体を検出する(ステップS201)。例えば、検出した移動体のフレームをTとする。
画像処理装置100は、t1にTの値を設定し、t2にt1−1の値を設定する(ステップS202)。画像処理装置100は、t2フレームに移動体が存在するか否かを判定する(ステップS203)。画像処理装置100は、移動体が存在する場合には(ステップS203,Yes)、t1フレームとt2フレームとを比較し(ステップS204)、接続対象が存在するか否かを判定する(ステップS205)。画像処理装置100は、接続対象が存在しない場合には(ステップS205,No)、ステップS208に移行する。
一方、画像処理装置100は、接続対象が存在する場合には(ステップS205,Yes)、t1フレームの移動体とt2フレームの移動体を接続する(ステップS206)。画像処理装置100は、t1にt2の値を設定し、t2にt1−1の値を設定し(ステップS207)、ステップS203に移行する。
ところで、ステップS203において、t2フレームに移動体が存在しない場合には(ステップS203,No)、ステップS208に移行する。画像処理装置100は、t1にTの値を設定し、t2にt1+1の値を設定する(ステップS208)。
画像処理装置100は、t2フレームに移動体が存在するか否かを判定する(ステップS209)。画像処理装置100は、移動体が存在する場合には(ステップS209,Yes)、t1フレームとt2フレームとを比較し(ステップS210)、接続対象が存在するか否かを判定する(ステップS211)。画像処理装置100は、t2フレームに移動体が存在しない場合には(ステップS209,No)、ステップS213に移行する。
一方、画像処理装置100は、t2フレームに移動体が存在する場合には(ステップS209,Yes)、t1フレームとt2フレームとを比較し(ステップS210)、接続対象が存在するか否かを判定する(ステップS211)。画像処理装置100は、接続対象が存在しない場合には(ステップS211,No)、ステップS213に移行する。
一方、画像処理装置100は、接続対象が存在する場合には(ステップS211,Yes)、t1にt2の値を設定し、t2にt1−1の値を設定し(ステップS212)、ステップS209に移行する。
画像処理装置100は、処理対象の移動体で未処理の移動体が存在するか否かを判定する(ステップS213)。画像処理装置100は、処理対象の移動体で未処理の移動体が存在する場合には(ステップS213,Yes)、ステップS201に移行する。一方、画像処理装置100は、処理対象の移動体で未処理の移動体が存在しない場合には(ステップS213,No)、連結処理を終了する。
次に、ステップS108に示した統合処理の処理手順について説明する。図24は、統合処理の処理手順を示すフローチャートである。図24に示すように、画像処理装置100は、信頼度が閾値以上の連結物体を抽出する(ステップS301)。ステップS301において、連結物体は、連結された各移動体の組みを示す。画像処理装置100は、連結物体に含まれる移動体の信頼度のうちいずれかが閾値以上となる連結物体を抽出する。ステップS301では一例として、画像処理装置100が、tSフレーム〜tEフレームで連結された連結物体を抽出したものとする。tSは、連結物体の開始フレームであり、tEは、連結物体の終了フレームである。
画像処理装置100は、tS〜tS+δのフレームで、他の処理範囲において、連結対象の連結物体を検索する(ステップS302)。ステップS302において、先のステップS301で選択した連結物体の検出元が前方領域Fの場合には、他の処理範囲は、側方領域Sまたは横断領域Cとなる。先のステップS301で選択した連結物体の検出元が側方領域Sの場合には、他の処理範囲は、前方領域Fまたは横断領域Cとなる。先のステップS301で選択した連結物体の検出元が横断領域Cの場合には、他の処理範囲は、前方領域Fまたは側方領域Sとなる。
画像処理装置100は、連結物体が存在するか否かを判定する(ステップS303)。画像処理装置100は、連結物体が存在する場合には(ステップS303,Yes)、ステップS306に移行する。
一方、画像処理装置100は、連結物体が存在しない場合には(ステップS303,No)、tS−1フレームに、他の処理範囲内において、連結物体または移動体が存在するか否かを判定する(ステップS304)。画像処理装置100は、連結物体または移動体が存在する場合には(ステップS305,Yes)、ステップS306に移行する。一方、画像処理装置100は、連結物体または移動体が存在しない場合には(ステップS305,No)、ステップS307に移行する。
画像処理装置100は、移動体を連結し、tS、tEを更新する(ステップS306)。例えば、図15の期間T1の各フレームの移動体と、期間T3の各フレームの移動体と連結した場合には、画像処理装置100は、tSフレームを期間T1の開始フレームに更新し、tEフレームを期間T3の終了フレームに更新する。画像処理装置100は、ステップS306の処理を実行した後に、ステップS302に移行する。
ところで、画像処理装置100は、tS〜tS−δのフレームで、他の処理範囲において、連結対象の連結物体を検索する(ステップS307)。画像処理装置100は、連結物体が存在するか否かを判定する(ステップS308)。
画像処理装置100は、連結物体が存在する場合には(ステップS308,Yes)、ステップS311に移行する。一方、画像処理装置100は、連結物体が存在しない場合には(ステップS308,No)、tE+1フレームに、他の処理範囲において、連結物体または移動体が存在するか否かを検索する(ステップS309)。
画像処理装置100は、連結物体または移動体が存在するか否かを判定する(ステップS310)。画像処理装置100は、連結物体が存在する場合には(ステップS310,Yes)、移動体を連結し、tS、tEを更新し(ステップS311)、ステップS308に移行する。
画像処理装置100は、連結物体が存在しない場合には(ステップS310,No)、処理対象の移動体で未処理の移動体が存在するか否かを判定する(ステップS312)。画像処理装置100は、処理対象の移動体で未処理の移動体が存在する場合には(ステップS312,Yes)、ステップS301に移行する。一方、画像処理装置100は、処理対象の移動体で未処理の移動体が存在しない場合には(ステップS312,No)、統合処理を終了する。
次に、本実施例2に係る画像処理装置100の効果について説明する。例えば、画像処理装置100が、ドライブレコーダに記録される画像データに対して、処理を実行すると、処理対象領域に含まれる画像の大半は、路面である。この路面上に移動体が存在している場合には、移動体の画像と路面の画像との間に輝度差が生じる。このため、例えば、x軸方向の座標毎の輝度値の加算値が同等となる画像の領域を検出することで、移動体を精度良く検出することができる。
また、画像処理装置100は、図10で説明したように、縦方向の輝度投影値について、輝度値の加算値が同等となる範囲が、側方領域Sの外側に接する場合には、該当範囲を移動体の範囲から除外する。例えば、側方領域Sに相手車がいる状態であれば、検出した移動体の領域が側方領域Sの外接に接する位置には現れないことが多い。このため、上記の処理を実行することで、ノイズを誤って移動体として検出してしまうことを防止することができる。
また、画像処理装置100は、前方領域F、側方領域S、横断領域Cを設け、それぞれの領域について、前方検出部152a、側方検出部152b、横断検出部152cが、移動体の検出を行う。そして、画像処理装置100は、各領域F,S,Cで検出した移動体の座標の変化と時間変化を判定する。このため、前方領域F、側方領域S、横断領域Cから複数の移動体の候補を検出しておき、それぞれ検出したものが同一の移動体であるか否かを後から判断して、移動体の動きを判定することができる。例えば、前方領域F、側方領域Sで検出できなかった移動体を、横断領域Cによって検出できる場合があり、各領域F、S、Cから連続的に移動体を検出できる。
また、画像処理装置100は、信頼度が最大となる移動体を特定し、特定した信頼度が最大となる移動体を起点として、各フレームの移動体を連結する。一般的に、前方領域Fで検出された移動体の信頼度が最大となる場合が多い。このため、前方領域Fで移動体を特定し、特定した前方領域Fの移動体と重なりを持つ横断領域Cの移動体を特定できる。また、特定した横断領域Cの移動体と重なりを持つ側方領域Sの移動体を特定できる。このため、側方領域Sから、前方領域Fに至る移動体の動きを正確にトレースでき、例えば、ヒヤリハットの原因を飛び出しと評価することができる。
また、画像処理装置100は、自車両が停止しているか否かによって、横断領域の大きさを調整する。例えば、図8で説明したように、速度が0ではない場合には、横断領域Cとなる。速度が0の場合には、横断領域Cよりも大きい横断領域Caとなる。自車両に速度がある際に横断検出部152cが差分処理により、移動体検出を試みると、固定物も差分として検出されてしまいノイズが多くなってしまう。このため、自車両に速度があるときは、横断領域を狭くすることで、検出され得るノイズの量を削減することができる。
ところで、上記の実施例2で説明した画像処理装置100の処理は一例であり、その他の処理を実行しても良い。以下において、画像処理装置100が実行するその他の処理について説明する。
側方検出部152bのその他の処理について説明する。例えば、側方検出部152bは、側方領域Sから移動体を検出する際に、夜間判定処理、高輝度領域検出処理、移動体検出処理を順に実行して、移動体を検出しても良い。
側方検出部152bが実行する夜間判定処理について説明する。側方検出部152bは、ドラレコ情報を参照し、画像データの所定の領域について、平均輝度を算出する。例えば、側方検出部152bは、消失点よりも上方に領域を設定し、平均輝度を算出する。側方検出部152bは、平均輝度が所定の輝度未満の場合に、該当する画像データを夜間の画像データであると判定する。側方検出部152bは、各フレームの画像データに対して同様の処理を実行し、夜間の画像データの各フレームをドラレコ情報141から抽出する。なお、側方検出部152bは、日時を利用して、夜間の画像データを判定しても良い。
側方検出部152bが実行する高輝度領域検出処理について説明する。側方検出部152bは、夜間の画像データの側方領域Sにおいて、所定の輝度以上となる高輝度領域を検出する。側方検出部152bは、高輝度領域の面積が所定の面積よりも大きい場合に、係る高輝度領域を移動体候補として検出する。側方検出部152bは、夜間の各画像データに対して同様の処理を実行し、各画像データから移動体候補領域を検出する。
側方検出部152bが実行する移動体検出処理について説明する。側方検出部152bは、各画像データから検出した移動体候補領域を連結する。例えば、側方検出部152bは、前後の画像データから検出した移動体候補領域を比較し、重複する領域の大きさが閾値以上の場合に、各移動体候補領域を連結する。
側方検出部152bは、連結した各移動体候補領域の座標と、カメラパラメータ145とを基にして、移動体候補領域のx方向の距離の変化およびy方向の距離の変化を算出する。例えば、側方検出部152bは、上述した式(3)、式(5)を基にして、移動体候補領域のx方向の距離の変化およびy方向の距離の変化を算出する。
側方検出部152bは、x方向の距離がマイナス方向に変化する場合や、y方向の距離がプラス方向に変化する場合に、移動体候補領域を、移動体として検出する。これに対して、x方向に単調増加し、y方向に単調減少する移動体候補は、静止物体であると考えられる。このため、側方検出部152bは、x方向に単調増加し、y方向に単調減少する移動体候補を移動体として検出しない。
図25は、側方検出部のその他の処理を説明するための図である。図25に示すように、ステップS61、S62、S63、S64、S65において、移動体候補領域75が検出されている。各移動体候補領域75は、各フレームで連結済みであるものとする。図25に示す例では、移動体候補領域75が、自車両に近づき、x方向の距離がマイナス方向に変化している。このような場合には、側方検出部152bは、移動体候補領域75を移動体として検出する。
このように、側方検出部152bが、高輝度領域の塊と、高輝度領域の塊の動きから、移動体を検出することで、画像データの画質が荒くても、精度良く移動体を検出することができる。
信頼度算出部153のその他の処理について説明する。信頼度算出部153は、前方検出部152aまたは側方検出部152bが検出した移動体の信頼度を、移動体の輝度値と、所定の輝度値との差を基にして、信頼度を算出しても良い。例えば、信頼度算出部153は、図9で説明した輝度投影値30aの平均輝度と、移動体の輝度値との差の絶対値を算出する。信頼度算出部153は、差の絶対値が0から離れるほど信頼度を100に近づけ、差の絶対値が0に近づくほど信頼度を0に近づけるように、差の絶対値を正規化し、正規化した値を信頼度として算出する。
例えば、自車線上に前方車両がいる状態であれば、前方領域Fの両端と、中央とで輝度を足し込んだ値に差が生じるはずである。この特性を利用すれば、前方領域Fに存在する車両を検出した場合の信頼度を高めることができる。
例えば、前方領域Fに存在するT字路が移動体として誤って検出されている場合を想定すると、前方領域Fの両端と、中央とで輝度を足し込んだ値に差が生じなくなる。この特性を利用すると、誤検出された移動体の信頼度を低くすることができる。
また、信頼度算出部153は、前方検出部152aまたは側方検出部152bが検出した移動体の信頼度を、移動体の座標に基づいて算出しても良い。例えば、前方領域Fから検出された移動体の座標と、前方領域Fの所定の座標との距離を算出する。例えば、所定の座標を、前方領域Fの中心座標とする。信頼度算出部153は、距離が0に近づくほど信頼度を100に近づけ、距離が0から離れるほど信頼度を0に近づけるように、正規化し、正規化した値を信頼度として算出する。このような処理を実行することで、前方領域や側方領域の隅で検出され得るノイズを移動体として検出した場合に、係る移動体の信頼度を低く設定できる。
分類部156および評価部157のその他の処理について説明する。分類部156は、検出した移動体の動きを「前方」、「横断」、「側方」に分類していたが、移動体の動きが「前方」、「横断」、「側方」の何れの条件にも合致しない場合には、移動体を「該当無し」に分類しても良い。評価部157は、移動体が「該当無し」に分類されている場合には、係る移動体をヒヤリハットの原因ではないと評価する。
また、評価部157は、移動体が「側方」または「横断」に分類されている場合には、係る移動体の検出位置を、ヒヤリハットの発生位置として、地図データに記録しても良い。評価部157は、更に、ヒヤリハットの発生位置と対応付けて、時刻、天候、季節等を合わせて地図データに記録しても良い。移動体た「側方」または「横断」に分類されている場合には、人に依存しない、場所特有のヒヤリハットである。
画像処理装置100は、図2に示した処理部の他に、除外部を設けても良い。例えば、除外部は、移動体管理テーブル142の信頼度を基にして、信頼度が所定の信頼度未満となるレコードを移動体管理テーブル142から削除する。または、除外部は、信頼度が所定の信頼度未満となるレコードに除外フラグを付して、他のレコードと区別できるように記録しても良い。除外部を設けることで、ノイズらしい移動体を除外することができる。
ところで、上記の前方検出部152a、側方検出部152bは、算出部および検出部の一例である。上記の横断検出部152cは、変化領域検出部の一例である。上記信頼度算出部153は、信頼度算出部の一例である。上記連結部154、統合部155は、判定部、連結部の一例である。
次に、上記の実施例に示した画像処理装置と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例を説明する。図26は、画像処理プログラムを実行するコンピュータの一例を示す図である。
図26に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303を有する。また、コンピュータ300は、記憶媒体からプログラム等を読取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307を有する。そして、各装置301〜307は、バス308に接続される。
ハードディスク装置307は、例えば、算出プログラム307a、検出プログラム307b、変化領域検出プログラム307c、信頼度算出プログラム307d、連結プログラム307e、判定プログラム307f、除外プログラム307gを有する。CPU301は、各プログラム307a〜307gを読み出してRAM306に展開する。
算出プログラム307aは、算出プロセス306aとして機能する。検出プログラム307bは、検出プロセス306bとして機能する。変化領域検出プログラム307cは、変化領域検出プロセス306cとして機能する。信頼度算出プログラム307dは、信頼度算出プロセス306dとして機能する。連結プログラム307eは、連結プロセス306eとして機能する。判定プログラム307fは、判定プロセス306fとして機能する。除外プログラム307gは、除外プロセス306gとして機能する。
例えば、算出プロセス306aおよび検出プロセス306bは、前方検出部152a、側方検出部152b等に対応する。変化領域検出プロセス306cは、横断検出部152c等に対応する。信頼度算出プロセス306dは、信頼度算出部153等に対応する。連結プロセスは306e、連結部154、統合部155等に対応する。判定プロセス306fは、連結部154、統合部155等に対応する。除外プロセス306gは、上述した除外部等に対応する。
なお、各プログラム307a〜307gについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300がこれらから各プログラム307a〜307gを読み出して実行するようにしてもよい。
10 画像処理装置
11 算出部
12 検出部

Claims (7)

  1. 画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、前記第1の方向の座標値毎の輝度値の加算値を算出し、前記処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、前記第2の方向の座標値毎の輝度値の加算値を算出する算出部と、
    前記算出部の算出結果を基にして、前記第1の方向の座標値毎の輝度値の加算値が同等となる前記画像の領域、または、前記第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する検出部と
    を有することを特徴とする画像処理装置。
  2. 前記検出部が検出した領域の大きさまたは座標または領域の内側と外側との輝度差に基づいて、前記領域の信頼度を算出する信頼度算出部と、
    前記信頼度算出部によって算出された信頼度に基づいて、前記領域を除外する除外部と
    を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像の処理対象領域と一部領域が重複する他の処理対象領域を対象として、複数のフレーム間で差分画像を生成し、前記差分画像を基にして変化する領域を検出する変化領域検出部と、
    前記検出部で検出された領域と、前記変化領域検出部で検出された領域とを基にして、前記検出部で検出された領域および前記変化領域検出部で検出された領域の座標の変化と時間変化とを判定する判定部と
    を更に有することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記処理対象領域から検出された領域または前記他の処理対象領域から検出された領域の信頼度を基にして、信頼度が最大となる領域を特定し、特定した信頼度が最大となる領域を起点として、各フレームで、前記検出部によって検出される領域または前記変化領域検出部によって検出される領域とを連結する連結部
    を更に有することを特徴とする請求項3に記載の画像処理装置。
  5. 前記変化領域検出部は、画像撮影時の速度を基にして、前記他の処理対象領域の範囲を調整することを特徴とする請求項3に記載の画像処理装置。
  6. コンピュータに、
    画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、前記第1の方向の座標値毎の輝度値の加算値を算出し、前記処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、前記第2の方向の座標値毎の輝度値の加算値を算出し、
    算出結果を基にして、前記第1の方向の座標値毎の輝度値の加算値が同等となる前記画像の領域、または、前記第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する
    各処理を実行させることを特徴とする画像処理プログラム。
  7. コンピュータが実行する画像処理方法であって、
    画像の処理対象領域に含まれる第1の方向の座標値毎に、同一の座標値の輝度値を加算して、前記第1の方向の座標値毎の輝度値の加算値を算出し、前記処理対象領域に含まれる第2の方向の輝度値の座標値毎に、同一の座標値の輝度値を加算して、前記第2の方向の座標値毎の輝度値の加算値を算出し、
    算出結果を基にして、前記第1の方向の座標値毎の輝度値の加算値が同等となる前記画像の領域、または、前記第2の方向の座標値毎の輝度値の加算値が同等となる領域を検出する
    各処理を実行することを特徴とする画像処理方法。
JP2014541868A 2012-10-17 2012-10-17 画像処理装置、画像処理プログラムおよび画像処理方法 Active JP6052293B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/076858 WO2014061123A1 (ja) 2012-10-17 2012-10-17 画像処理装置、画像処理プログラムおよび画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2014061123A1 true JPWO2014061123A1 (ja) 2016-09-05
JP6052293B2 JP6052293B2 (ja) 2016-12-27

Family

ID=50487711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541868A Active JP6052293B2 (ja) 2012-10-17 2012-10-17 画像処理装置、画像処理プログラムおよび画像処理方法

Country Status (4)

Country Link
US (1) US9928429B2 (ja)
JP (1) JP6052293B2 (ja)
CN (1) CN104718562B (ja)
WO (1) WO2014061123A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
JP7027738B2 (ja) * 2017-09-06 2022-03-02 株式会社デンソー 運転支援装置
KR102466310B1 (ko) * 2018-01-09 2022-11-15 삼성전자주식회사 차량에 부착된 전자 장치 및 그 제어 방법
JP6789421B2 (ja) * 2018-02-08 2020-11-25 三菱電機株式会社 情報処理装置、追跡方法、及び追跡プログラム
EP4177833A1 (en) * 2018-09-24 2023-05-10 Arriver Software AB Vision system and method for a motor vehicle
JP7163766B2 (ja) * 2018-12-28 2022-11-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
US20200210788A1 (en) * 2018-12-31 2020-07-02 Robert Bosch Gmbh Determining whether image data is within a predetermined range that image analysis software is configured to analyze
US11148663B2 (en) * 2019-10-02 2021-10-19 Ford Global Technologies, Llc Enhanced collision mitigation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04285803A (ja) * 1991-03-15 1992-10-09 Matsushita Electric Ind Co Ltd パターン認識方法
JPH04311187A (ja) * 1991-04-10 1992-11-02 Toshiba Corp 監視画像の変化領域抽出方法
JPH07175954A (ja) * 1993-12-20 1995-07-14 Sankyo Seiki Mfg Co Ltd 識別対象物のエッジ検出方法
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2005339152A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 動物体検出装置
JP2009510541A (ja) * 2005-09-29 2009-03-12 パナソニック株式会社 オブジェクト追跡方法及びオブジェクト追跡装置
JP2009122753A (ja) * 2007-11-12 2009-06-04 Sharp Corp 画像処理装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP4953498B2 (ja) * 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
JP3780922B2 (ja) * 2001-11-30 2006-05-31 日産自動車株式会社 道路白線認識装置
US7515737B2 (en) * 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2006309445A (ja) 2005-04-27 2006-11-09 Aisin Aw Co Ltd 運転支援装置
US7683964B2 (en) * 2005-09-05 2010-03-23 Sony Corporation Image capturing apparatus and image capturing method
JP2007091025A (ja) * 2005-09-28 2007-04-12 Fuji Heavy Ind Ltd 車両の前方監視装置
JP2011100298A (ja) 2009-11-06 2011-05-19 Fujitsu Ten Ltd 情報処理装置、車載装置、情報処理システム、情報処理方法、および、プログラム
CN101859440A (zh) * 2010-05-31 2010-10-13 浙江捷尚视觉科技有限公司 基于块的运动区域检测方法
CN102568006B (zh) * 2011-03-02 2014-06-11 上海大学 一种基于视频中物体运动特征的视觉显著性算法
EP2720460B1 (en) * 2011-06-13 2017-01-04 Honda Motor Co., Ltd. Driving assistance device
BR112014002366B1 (pt) * 2011-09-12 2021-10-05 Nissan Motor Co., Ltd Dispositivo e método de detecção de objeto tridimensional
US9740943B2 (en) * 2011-12-19 2017-08-22 Nissan Motor Co., Ltd. Three-dimensional object detection device
MX343203B (es) * 2012-07-27 2016-10-28 Nissan Motor Dispositivo de deteccion de objeto tridimensional y metodo de deteccion de objeto tridimensional.
CN104584076B (zh) * 2012-08-31 2017-05-10 富士通株式会社 图像处理装置以及图像处理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04285803A (ja) * 1991-03-15 1992-10-09 Matsushita Electric Ind Co Ltd パターン認識方法
JPH04311187A (ja) * 1991-04-10 1992-11-02 Toshiba Corp 監視画像の変化領域抽出方法
JPH07175954A (ja) * 1993-12-20 1995-07-14 Sankyo Seiki Mfg Co Ltd 識別対象物のエッジ検出方法
JP2004213648A (ja) * 2002-12-19 2004-07-29 Hitachi Kokusai Electric Inc 物体追尾方法及び物体追尾装置
JP2005339152A (ja) * 2004-05-26 2005-12-08 Clarion Co Ltd 動物体検出装置
JP2009510541A (ja) * 2005-09-29 2009-03-12 パナソニック株式会社 オブジェクト追跡方法及びオブジェクト追跡装置
JP2009122753A (ja) * 2007-11-12 2009-06-04 Sharp Corp 画像処理装置

Also Published As

Publication number Publication date
US20150220794A1 (en) 2015-08-06
US9928429B2 (en) 2018-03-27
JP6052293B2 (ja) 2016-12-27
WO2014061123A1 (ja) 2014-04-24
CN104718562A (zh) 2015-06-17
CN104718562B (zh) 2018-07-06

Similar Documents

Publication Publication Date Title
JP6052293B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
US8902053B2 (en) Method and system for lane departure warning
JP5943084B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP2015165376A (ja) 車線認識装置及び方法
JP6817104B2 (ja) 付着物検出装置、付着物検出方法
JP2002352225A (ja) 障害物検出装置及びその方法
KR101772438B1 (ko) 도로 표지판 인식 시스템에서 막대형 신호를 검출하는 장치 및 방법
CN111178119A (zh) 路口状态检测方法、装置、电子设备及车辆
WO2014129018A1 (ja) 文字認識装置、文字認識方法及び記録媒体
US9639763B2 (en) Image target detecting apparatus and method
CN104766332A (zh) 一种图像处理方法及电子设备
US10970585B2 (en) Adhering substance detection apparatus and adhering substance detection method
JP6701905B2 (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム
JP2016162130A (ja) 横断歩道検出装置、横断歩道検出方法及び横断歩道検出用コンピュータプログラム
JP2015200976A (ja) 移動量推定装置、移動量推定方法、およびプログラム
JP2005170290A (ja) 障害物検出装置
JP5892254B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP4107273B2 (ja) 移動体検出装置
US11138447B2 (en) Method for detecting raised pavement markers, computer program product and camera system for a vehicle
JP5505439B2 (ja) 移動体検出装置、コンピュータプログラム及び移動体検出方法
JP2014179052A (ja) 画像処理装置、画像処理方法、画像処理プログラム、画像処理システム及び移動装置
Liu et al. Share-use of the motion vectors from video encoding for high relative speed moving vehicle detection
JP2012003583A (ja) 位置検出装置及びタッチパネル

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150