JP2010003254A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2010003254A
JP2010003254A JP2008163630A JP2008163630A JP2010003254A JP 2010003254 A JP2010003254 A JP 2010003254A JP 2008163630 A JP2008163630 A JP 2008163630A JP 2008163630 A JP2008163630 A JP 2008163630A JP 2010003254 A JP2010003254 A JP 2010003254A
Authority
JP
Japan
Prior art keywords
image
processing
unit
image processing
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008163630A
Other languages
English (en)
Other versions
JP4615038B2 (ja
Inventor
Miki Higuchi
未来 樋口
Shoji Muramatsu
彰二 村松
Soichiro Yokota
聡一郎 横田
Tatsuhiko Moji
竜彦 門司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008163630A priority Critical patent/JP4615038B2/ja
Priority to US12/488,830 priority patent/US8320626B2/en
Publication of JP2010003254A publication Critical patent/JP2010003254A/ja
Application granted granted Critical
Publication of JP4615038B2 publication Critical patent/JP4615038B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】存在確率を用いて検出性能を向上できるとともに、画像処理に要する時間を短縮できる画像処理装置を提供することにある。
【解決手段】画像処理精度推定部29は、車載カメラ4によって撮影される物体の距離の測定精度が許容値以下となる物体サイズを算出して、画像処理精度を推定する。画像後処理領域決定部30は、画像処理精度推定部29によって推定された画像の処理精度に応じて、物体の検出領域の内の一部の領域を、画像後処理を実施する画像後処理領域として決定し、決定した処理領域を格子状に分割する。画像処理部31は、車載カメラ4によって撮像した画像を処理して物体候補を検出し、検出した物体候補の3次元位置を算出する。画像後処理部32は、画像後処理領域決定部30により決定された格子状の領域内の格子毎に、画像処理部31により堅守された物体が存在するか否かの確率を算出し、物体の有無を判定する。
【選択図】図2

Description

本発明は、画像処理装置に係り、特に、車載カメラを用いて障害物や路面標示やカーブ等の検出対象を検出する際に用いるに好適な画像処理装置に関する。
近年、車載カメラを用いて歩行者や車両などの障害物を検出する障害物検出装置が実用化されている。また、車両の自動運転や運転補助等のために、車載カメラの撮像画像を処理して自車が走行しているレーンマーカ等の路面表示を検出し、自車がレーンから逸脱する危険がある場合に運転者に通知するか、逸脱しないように車両を制御する技術が実用化されている。また、歩行者等の障害物を検出し、衝突の危険性がある場合に、運転者に歩行者の存在を通知する、あるいは衝突を防止、軽減する技術が製品化されている。
このように、車載カメラの撮像画像を処理し物体を検出する場合、太陽光や周辺車両のヘッドライトやレンズについた水滴等の影響や、車両のピッチング、影、等々の外乱の影響や、検出対象までの距離が遠い影響でレーンマーカや障害物等の検出処理が適切に行えなくなる。このため、物体の有無のみでなく、物体の検出結果の確からしさを求め、検出性能を向上させる技術が重要になってくる。
そのために、道路平面を格子状に分割し、格子毎に物体が存在する確率を算出し、その存在確率から物体に衝突するか否かを判定し、物体を回避するためのシグナルを出力するものが知られている(例えば、特許文献1参照)。
国際公開第2007/028932パンフレット
しかしながら、特許文献1記載のものでは、センシング範囲の広い車載センサ分野などに適用しようとすると、道路平面を格子状に分割する際に格子数が多くなり過ぎ、画像処理に時間を要するため、実用的でないという問題があった。
本発明の目的は、存在確率を用いて検出性能を向上できるとともに、画像処理に要する時間を短縮できる画像処理装置を提供することにある。
(1)上記目的を達成するために、本発明は、撮像手段と、該撮像手段によって撮影される物体の距離の測定精度が許容値以下となる物体サイズを算出して、画像処理精度を推定する画像処理精度推定部と、該画像処理精度推定部によって推定された画像の処理精度に応じて、物体の検出領域の内の一部の領域を、画像後処理を実施する画像後処理領域として決定し、決定した処理領域を格子状に分割する画像後処理領域決定部と、該撮像手段によって撮像した画像を処理して物体候補を検出し、検出した物体候補の3次元位置を算出する画像処理部と、前記画像後処理領域決定部により決定された格子状の領域内の格子毎に、前記画像処理部により堅守された物体が存在するか否かの確率を算出し、物体の有無を判定する画像後処理部とを備えるようにしたものである。
かかる構成により、存在確率を用いて検出性能を向上できるとともに、画像処理に要する時間を短縮できるものとなる。
(2)上記(1)において、好ましくは、前記画像後処理領域決定部は、前記画像処理精度推定部が推定した距離測定の誤差が許容誤差よりも大きくなる領域を、前記画像後処理領域とするものである。
(3)上記(1)において、好ましくは、前記画像後処理領域決定部は、前記画像処理精度推定部が推定した検知対象の撮像画像上でのサイズが所定の値よりも小さくなる領域を処理領域とするようにしたものである。
(4)上記(1)において、好ましくは、前記画像後処理領域決定部は、画像処理精度に基いて、遠方程小さくなるような画像後処理領域内の分解能を決定し、該分解能に基づいて、前記画像後処理領域を格子状に分割するようにしたものである。
(5)上記(1)において、好ましくは、前記画像後処理部は、確率統計処理により、前記存在確率を算出するようにしたものである。
(6)上記(5)において、好ましくは、前記画像後処理部は、認識対象の認識結果に、物体が存在する確率や分散といった確率統計値を付加して出力するようにしたものである。
(7)上記(6)において、好ましくは、さらに、前記画像後処理部が出力する認識対象の認識結果及び、物体に関する確率統計値とに基づいて、制御や警報の内容を決定するコントロールユニットを備えるようにしたものである。
本発明によれば、存在確率を用いて検出性能を向上できるとともに、画像処理に要する時間を短縮できるものとなる。
以下、図1〜図9を用いて、本発明の一実施形態による画像処理装置の構成及び動作について説明する。
最初に、図1を用いて、本実施形態による画像処理装置を用いる車載システムの構成及び動作について説明する。
図1は、本発明の一実施形態による画像処理装置を用いる車載システムの構成を示すブロック図である。
本実施形態に係る画像処理装置は、図1に示すような車載カメラユニット(画像処理装置)1に適用される。車載カメラユニット1は、車載カメラユニット1が備える車載カメラ(撮像手段)4により、車両周囲の環境を認識する機能を実現する。このとき、車載カメラは2つ以上備えていても良いものである。また、車載カメラとは別体の画像処理ユニットが、車載カメラ4から画像を取り込んで処理する構成でもよいものである。
車載カメラユニット1は、車両に搭載されて車載システムに適用される。この車載システムは、車載カメラユニット1がこの車両(以下、「自車両」と称する)の前方に存在する障害物を検出し、コントロールユニット2の制御の基で、検出結果に基づいて車両を制御、あるいは乗員に危険を報知するための装置である。
車載カメラユニット1は、CPU6,RAM9,ROM7を備えている。また、コントロールユニット2は、CPU12,RAM11,ROM13を備えている。そして、車載カメラユニット1とコントロールユニット2からなる車載システムでは、車載カメラユニット1とコントロールユニット2が接続されている。さらに、車載システムは、車室内に設置されて各種画像および各種情報を表示するためのディスプレイ15と、自車両が障害物に衝突する危険性がある際に警告音声を発生するスピーカー19と、エンジンを始動する際にONとなるイグニッションスイッチ20と、障害物検知を起動する際にONとなる障害物検知起動スイッチ21とが接続されている。ディスプレイ15の表示制御をはじめとして当該車載システム全体の動作は、コントロールユニット2によって制御される。
車載カメラユニット1は、例えば、自車両の室内のルームミラー部に取付けられて、自車両の前方の様子を所定の俯角、取付け位置で撮像するようになっている。車載カメラ4により撮像された自車両前方の画像(以下、「撮像画像」と称する)は、車載カメラユニット1の内部のRAM9に取り込まれる。車載カメラユニット1は、撮像画像に基づいて自車前方の障害物を検出し、自車両が障害物に衝突する危険性があると判断した場合には、ディスプレイ15に表示される画像に検出結果を描画する。また、コントロールユニット2の制御の基で、ディスプレイ15とスピーカー19、またはディスプレイ15あるいはスピーカー19のいずれかにより運転者に報知する。あるいは、衝突しないように、衝突の衝撃を和らげるように、車両のブレーキやステアリングをコントロールユニット2により制御するようにすることもできる。
ディスプレイ15は、例えばLCD(Liquid Crystal Display)等の表示機器よりなる。ディスプレイ15は、コントロールユニット2による表示制御のもとで、例えば図示しないナビゲーションによる走行経路案内の画像や、車載カメラユニット1の画像等の各種画像を表示する。また、ディスプレイ15は、コントロールユニット2により障害物を認識したときに、このコントロールユニット2による制御のもとで、障害物が存在する旨を報知するメッセージや画像を表示する。
コントロールユニット2は、CPU12,RAM11,ROM13がバスを介して接続された構成である。CPU12は、ROM13に格納された各種制御プログラムを実行することで、システム全体の動作を制御する。
車載カメラユニット1では、ROM7に障害物を検知する障害物検知プログラムが格納されている。CPU6がこれらのプログラムを実行することで、障害物検知機能が実現される。
次に、図2を用いて、本実施形態による画像処理装置を用いる車載システムの機能構成及び動作について説明する。
図2は、本発明の一実施形態による画像処理装置を用いる車載システムの構成を示す機能ブロック図である。
図1に示したイグニッションスイッチ20がONとなり、エンジンを始動すると、ROM7の障害物検知プログラムが実行される。その結果、図2に示すように、車載カメラユニット1は、画像処理精度推定部29、画像後処理領域決定部30、画像処理部31、画像後処理部32として機能する。また、コントロールユニット2は、制御・警報決定処理部33、制御警報処理部34として機能する。
画像処理精度推定部29は、物体の3次元位置算出精度、あるいは物体の検出精度等を推定する機能を有する。画像処理精度推定部29の詳細機能については、後述する。
画像後処理領域決定部30は、画像処理精度推定部29の結果である物体の3次元位置算出精度、あるいは物体の検出精度等に応じて、画像後処理を実施する領域および分解能を決定し、決定した処理領域と分解能に応じて、処理領域を格子状に分割する機能を有する。画像後処理領域決定部30の詳細機能については、図5及び図6を用いて後述する。
画像処理部31は、車載カメラ4により撮像した画像を処理して、物体候補をパターンマッチング等により検出し、検出した物体候補の3次元位置を算出する機能を有する。画像処理部31の処理は、従来から行われているものである。
画像後処理部32は、画像後処理領域決定部30により格子状に分割された処理領域の格子毎に物体が存在するか否かの確率と、その格子が移動している方向を離散化し、どちらに移動している可能性が高いかを表す確率とを算出して、確率マップを生成する機能を有する。そして、画像後処理部32は、生成した確率マップの確率が閾値以上か否かに応じて物体の有無を判定するとともに、物体の位置や大きさ、確率を出力する。画像後処理部32の詳細機能については、後述する。
制御・警報決定処理33は、画像後処理部32の結果に基づいて、ブレーキ、アクセル、ステアリングの制御を行うか否か、警報処理を実施するか否かを決定する機能を有する。制御・警報決定処理33の詳細機能については、図9を用いて後述する。
制御・警報処理部34は、制御・警報決定処理部33の決定結果に基づいて、アクチュエータに制御信号を送信するか、ディスプレイやスピーカ等を用いて運転者に危険を知らせる処理を実行する機能を有する。制御・警報処理部34の処理は、従来から行われているものである。
以上のように構成される車載カメラユニット1は、上述したように、CPU6が障害物検知プログラムを実行することで、画像を処理し、物体の位置や大きさに加え確率統計値を算出することができる。そして、認識結果を入力画像に重畳した画像等をディスプレイ15に出力するとともに、認識結果をコントロールユニット2に送信し、コントロールユニット2の制御のもとで衝突の危険があると判断した場合は、衝突を軽減、回避するための制御を行うか、あるいは警報音を発生させるか警報画像を表示させ、車両の乗員に報知するようになっている。
次に、図3を用いて、本実施形態による画像処理装置の動作について説明する。
図3は、本発明の一実施形態による画像処理装置の動作を示すフローチャートである。
図3は、車載カメラユニット1において、障害物を検出し検出結果を出力するまでの一連の処理の流れを示している。図3に示した処理は、図1のイグニッションスイッチ20がオンとなったときにスタートし、イグニッションスイッチ20がオフとなるまで繰り返し行われる。自車両が走行中であるか停止中であるか、また、ディスプレイ15に表示されている画像がナビゲーションシステムの走行経路案内画像かその他の映像であるかに拘わらず実施される。ただし、自車両が走行中であるか停止中であるか、また、ディスプレイ15に表示されている画像がナビゲーションシステムの走行経路案内画像かその他の映像であるかに応じて、処理の実施を決定する構成としてもよいものである。
まず、イグニッションスイッチ20がオンとなると、ステップS10において、車載カメラユニット1は障害物検知プログラムを実行し、初期化処理を実行する。この初期化処理の中で処理領域初期化フラグを、ONに設定する。
次に、ステップS20において、車載カメラユニット1は、障害物検知起動スイッチ21がONか否かを判定する。障害物検知起動スイッチ21がONとなったときは、ステップS30において、処理領域初期化フラグがONか否かを判定する。処理領域初期化フラグがONの場合は、ステップS40において、画像処理精度推定部29は、画像処理精度推定処理を実行する。画像処理精度推定処理の詳細については、後述する。
さらに、ステップS50において、画像後処理領域決定部30は、画像後処理領域決定処理を実行する。そして、ステップS60において、車載カメラユニット1は、初期化フラグをOFFに設定する。
初期化処理が終了すると、ステップS30からステップS70に進み、画像処理部31は、物体の候補を検出して、物体候補の3次元位置および大きさを算出する。
次に、ステップS80において、画像後処理部32は、物体候補の検出結果を基に物体が存在する確率を算出する。また、ステップS90において、画像後処理部32は、物体候補検出結果のうち、存在確率が閾値以上の物体候補を障害物として、位置、大きさ、存在確率を出力する。
以上により求まった障害物データに基づいて、コントロールユニット2は、制御・警報内容を決定し、車両を制御するか乗員に警報を発する、あるいは車両を制御し、かつ乗員に警報を発する処理を行う。
次に、図4を用いて、本実施形態による画像処理装置に接続されたコントロールユニット2の動作について説明する。
図4は、本発明の一実施形態による画像処理装置に接続されたコントロールユニットの動作を示すフローチャートである。
図4に示す一連の処理は、イグニッションスイッチ20がオンとなったときにスタートし、イグニッションスイッチ20がオフとなるまで繰り返し行われる。自車両が走行中であるか停止中であるか、また、ディスプレイ15に表示されている画像がナビゲーションシステムの走行経路案内画像かその他の映像であるかに拘わらず実施される。ただし、自車両が走行中であるか停止中であるか、また、ディスプレイ15に表示されている画像がナビゲーションシステムの走行経路案内画像かその他の映像であるかに応じて、処理の実施を決定する構成としてもよいものである。
まず、イグニッションスイッチ20がオンとなると、ステップS100において、コントロールユニット2は、運転支援プログラムを実行し、初期化処理を実行する。この初期化処理の中で、図3のステップS30で説明した処理領域初期化フラグを、ONに設定する。このとき、ナビゲーションプログラム等の各種プログラムが同時に実行されていてもよいものである。
次に、ステップS110において、コントロールユニット2は、障害物検知起動スイッチ21がONか否かを判定する。
そして、障害物検知起動スイッチ21がONとなったときは、ステップS120において、コントロールユニット2は、車載カメラユニット1からの障害物検知結果受信処理を実行する。
次に、ステップS130において、制御・警報決定処理部33は、障害物の位置、大きさ、存在確率に応じて制御内容、警報内容を決定する。
車両を制御すると決定された場合は、ステップS140において、制御・警報処理部34は、制御するための信号をブレーキやステアリングなどのアクチュエータに送信する。また、警報すると決定された場合は、ステップS140において、制御・警報処理部34は、ディスプレイかスピーカのいずれか、あるいはディスプレイとスピーカの両方を用いて乗員に警報を発する。ここで、警報にはディスプレイ、スピーカの他にシートベルトや、アクセル、ブレーキペダル、ステアリング、シート等を振動させるなどによって警報を発してもよいものである。
以下、図3のステップS30,S40,S60〜S80及び図4のステップS130,S140の処理の詳細について説明する。
最初に、画像処理精度決定部29で実施されるステップS30の処理内容について説明する。画像処理精度決定部29は、物体の距離の測定精度が許容値以下となる物体サイズwtを求める。物体の実空間上での横幅をW、物体の画像上での横幅をw、カメラの焦点距離をfとすると、物体の距離ZはZ=(f×W)/wで求めることができる。さらに、画像上での物体幅の分解能をrsとすると、(f×W)/(w+rs)−(f×W)/wが所定の値を超える物体の画像上での横幅wのうち最小値を、例えばwtとすることができる。ただし、分解能rsは、例えば撮像素子の1画素分のサイズである。これは、あらかじめROMに格納されているか、プログラム中に定数として定義されている。
次に、図5及び図6を用いて、本実施形態による画像処理装置の画像後処理領域決定部30の動作について説明する。
図5及び図6は、本発明の一実施形態による画像処理装置の画像後処理領域決定部の動作説明図である。
画像後処理領域決定部は、図5に示すように、撮像画像上の物体サイズによって画像後処理を行う領域を決定する。これは、撮像画像上の物体サイズが小さい程、物体検知の信頼性が低下するためであり、画像後処理を行うことで検知性能を向上させることができる。例えば、以下のように画像後処理領域を決定することができる。
実空間上における物体の横幅が、W以上の物体を検出対象とすると撮像画像上での検出対象物体の横幅の最小値wは、w=(f×W)/Zで表すことができる。ここで、物体の実空間上での横幅Wとカメラの焦点距離fが決まり、撮像画像上での検出対象物体の横幅の最小値wが、画像処理精度決定部29で決定された最小値wt以下となる領域を、画像後処理の処理対象とすると、図5(A)に示すように、画像後処理領域は、Zt(=(f×W)/wt)以上の領域で良いことになる。
また、図5(B)に示す画像後処理処理領域における分解能(Z1,Z2,…,Zn)は、例えば、次の式(1)により、決定することができる。
Figure 2010003254
すなわち、式(1)で表されるように、遠方程分解能を低くする。このように遠方程分解能を低くすることで、格子数を減らし計算量が少なくできる。この処理は、予め処理領域を算出した結果をROMに保持するか、定数としプログラム中に保持する。
図6は、以上のようにして決定された格子状の画像後処理領域を示している。Z方向は、自車両の前方の距離を示している。x方向は、自車両の左右方向の距離を示している。
図6において、Zmaxは物体の最大検知距離であり、Ztは図5にて説明した画像後処理領域の最短距離である。すなわち、Z方向に対しては、距離Ztから距離Zmaxが、格子状に分割される画像後処理領域である。また、自車両の左方向の検知距離をXminとし、右方向の検知距離をXmaxとすると、x方向の検知領域幅はXminからXmaxとなる。
そして、距離Zt〜Zmaxで、幅Xmin〜Xmaxの領域が、格子状に分割される。ここで、x方向,Z方向とも、等間隔に分割してもよいものである。しかし、本実施形態では、Z方向については、図5(B)にて説明したように、距離Zが遠くなるほど分解能(Z1,Z2,…,Zn)を低くしている。これらの格子状の領域のそれぞれについて、物体の存在確率等の確率が求められ、画像処理部31による物体候補の検知結果と、その確率から、物体の有無を判定する。
なお、W、f、Zmax、Xmin、Xmaxは予めROMに格納されているかプログラム中の定数とする。
また、距離Ztよりも自車両に近い領域については、物体の誤検知の可能性が小さいため、前述の確率は用いないで、画像処理部31による物体候補の検知結果から、物体の有無を判定する。
以上のように格子状の画像後処理領域を決定することで、特許文献1に記載の全領域を格子状に分割する従来の方法に比べて、格子の数を減らすことができる。ここで、具体的に説明する。x方向については、自車両の位置におけるxを0としたとき、左方向の検知距離Xminは、例えば、−20mであり、右方向の検知距離Xmaxは、+20mである。そして、左右方向の検知領域内を、例えば、0.5m間隔で分割する。また、Z方向については、自車両の位置を0とすると、物体の最大検知距離Zmaxは、例えば、100mである。Z方向の検知領域内の分割は、従来の方法では、例えば、1.0m間隔とする。
その結果、従来の方法では、x方向に80分割し、Z方向は距離0m〜Zmaxを100分割するため、格子の数は8000となる。
ここで、画像上の物体幅wが20画素以下で画像の認識精度が低下するとすると、焦点距離fを例えば4mm、物体幅Wを1500mm、撮像素子のセルサイズが0.005mmであり、このセルサイズをrsとすると、Ztは60mとなり、60m以上の領域に画像後処理を実施すればよいものである。歩行者を対象とする場合は、物体幅Wが500mm程度となるため、20m以上を画像後処理領域とすることになる。
本実施形態では、最短検知距離Ztを60mとし、しかも、Z方向は等間隔で分割した場合、x方向に80分割し、Z方向は距離Zt〜Zmaxを40分割するため、格子の数は3200となり、従来よりも、60%格子の数を減らすことができる。さらに、本実施形態では、Z方向は、距離Zが遠くなるほど分解能(Z1,Z2,…,Zn)を低くしており、これによると、x方向に80分割し、Z方向は距離Zt〜Zmaxを20分割するため、格子の数は1600となり、従来よりも、80%格子の数を減らすことができる。したがって、本実施形態によれば、従来よりも格子の数を減らして、画像処理に要する時間を短縮することができる。
次に、図7及び図8を用いて、本実施形態による画像処理装置の画像後処理領域決定部30による他の後処理領域の決定方法について説明する。
図7及び図8は、本発明の一実施形態による画像処理装置の画像後処理領域決定部による他の後処理領域の決定方法の説明図である。
図7(A)は、物体を正しく検知できる割り合いである物体検知率に基いて画像後処理領域を決定する例を示している。
物体検知率は、全ての物体に対して、検知できた物体の割合を示す数値である。そして、wtを物体検知率がRtよりも下回り始める画像上の物体のサイズ、Wを実空間上での物体のサイズ、fを焦点距離とすると、Zt=W/(f×wt)で示される距離Ztよりも大きい領域を、画像後処理領域とすることもできる。
また、図7(B)は、物体を誤って検知してしまう割り合いである物体誤検知率に基いて画像後処理領域を決定する例を示している。
物体誤検知率は、全ての物体に対して、物体を誤検知した割合を示す数値である。そして、wtを物体誤検知率がFtを上回る画像上の物体のサイズ、Wを実空間上での物体のサイズ、fを焦点距離とすると、Zt=W/(f×wt)で示される距離Ztよりも大きい領域を、画像後処理領域とすることもできる。
また、このとき、物体検知率、物体誤検知率は、昼や雨、雨や霧等の撮像環境の影響で異なるため、図8(A)に示すように晴れの場合と、図8(B)に示すように雨・霧等に応じて画像後処理領域を切り替えてもよいものである。
次に、画像処理部31の動作について説明する。画像処理部31は、ステップS70の処理により、テンプレートマッチング等により物体候補を検出し、検出した物体の画像上でのサイズwからZ=(f×W)/wにより距離を求め、3次元位置を得る。
そして、画像後処理部31は、ステップS80の処理により、例えば次のように、各格子毎に物体が存在する確率を算出する。
画像後処理部31は、次のようにして、各格子に物体が存在する確率および速度の確率を推定する。ここで、それぞれの確率変数は、下記の通り定義する。
Cは、それぞれの格子を特定するためのインデックスである。
Aは、2次元格子内の格子cに影響を及ぼす過去の格子である。
Zは、格子cにおける観測値である。
以下の式(2)で示される速度Vは、格子cの速度であり、n個に離散化する。
Figure 2010003254
以下の式(3)で示される存在不存在の状態O,O−1は、格子cに物体が存在するか否かの状態を表す。
Figure 2010003254
Oは現在の状態であり、O−1は過去の状態である。状態は、物体が存在するoccと、物体が存在しないempとから成る。
各確率変数の独立性を考慮すると、確率Pは、以下の式(4)で表すことができる。
Figure 2010003254
ここで、各確率について以下にまとめる。最終的に推定したい事象は各セルに物体が存在するか否か(O)と、その速度(V)であるため、式(5)により、物体の存在と速度の事後確率P(V,O|Z,C)を計算する。
Figure 2010003254
さらに、式(5)の右辺の分子は、式(6)に等しい。
Figure 2010003254
式(6)は、存在の状態Oを、有occと、無empとし、速度Vを、v1,…,vk,…,vnとして、それぞれの場合について、式(7)から式(10)で求めることができる。
Figure 2010003254
Figure 2010003254
Figure 2010003254
Figure 2010003254
式(7)は、格子Cに物体が存在し速度vkで移動している確率であり、式(8)は、格子Cに物体が存在せず速度vkで移動している確率である。
そして、式(5)の分母をl(vk)とすると、l(vk)は式(11)となる。
Figure 2010003254
以上により、格子Cに物体が存在し、速度vkで移動している確率P(occ,vk|Z,C)は、式(12)により得られる。
Figure 2010003254
その後、以下の式(13),式(14)で、OとVの確率がそれぞれ得られる。これを全格子について計算することで、道路平面を格子状に分割した存在の確率マップと、速度の確率マップを得ることができる。
Figure 2010003254
Figure 2010003254
また、画像後処理部32によるステップS90の処理では、画像処理部31による物体候補の検知結果と、存在と速度の確率マップとを用いて、物体の有無を判定し、結果を出力する。例えば、物体候補の3次元位置に対応する、格子の確率が所定の値Pthr以上である場合に、物体が存在すると判定し、その物体の3次元位置、大きさ、存在確率等を出力する。
次に、図9を用いて、本実施形態による画像処理装置の制御・警報決定処理33の動作について説明する。
図9は、本発明の一実施形態による画像処理装置の制御・警報決定処理の動作説明図である。
コントロールユニット2の制御警報決定処理部33は、例えば、図9に示すように物体の存在確率に応じて、ブレーキ制御を実施するか、ブレーキ制御は行わずアクセルのOFFのみを行うか、あるいは制御は行わず警報のみを実施するかを決定する。
例えば、画像処理部31による物体候補の検知結果として、距離Ztに物体候補があると検知された場合、その物体候補の存在確率に応じて、制御警報の内容を決定する。距離Ztにおける物体候補の存在確率が、所定値Pt1よりも小さいときは何も行わない。距離Ztにおける物体候補の存在確率が、所定値Pt1〜所定値Pt2の間のときは、警報のみを実施する。距離Ztにおける物体候補の存在確率が、所定値Pt2〜所定値Pt3の間のときは、アクセルOFFのみを実施する。距離Ztにおける物体候補の存在確率が、所定値Pt3以上のときは、ブレーキ制御を実施する。
そして、この制御警報の内容を決定するための所定値は、図7に示すように、距離Zが遠くなるほど、徐々に大きくなるように設定している。
このとき、画像後処理の領域外,すなわち、距離Ztよりも近い物体については、確率統計値の演算は行っていないため、予め定められた値(図示の例では、1.0)を出力する。したがって、画像処理部31による物体候補の検知結果として、距離Ztよりも近い位置に物体候補が検知された場合には、全て、ブレーキ制御を実施する。
制御警報決定処理部33は、車両を制御すると決定した場合は、ブレーキをかける強さ等を算出し、信号をアクチュエータに送信する。ここで、制御の強さGoを確率等の値Pによって、Go=G×Pとして、決定してもよいものである。ここで、Goはブレーキによって減速する減速度、Gは自動制御によって減速する際の最大減速度、Pは画像処理装置が出力した物体の存在確率とする。
また、警報を発すると決定された場合は、ディスプレイに警報メッセージやカメラ4から得られる撮像画像と物体検知結果とを重畳した画像などを表示する。また、スピーカーにより音声で警告メッセージなどを発生させてもよいものである。
なお、本実施形態において、前述の構成に加え、カーナビゲーションシステムと地図データベースとを備え、カーナビゲーションから得られる自車位置と、地図データベースから得られる地図データとから走行中の道路形状や、高速道路か一般道かなどの道路種別を判定し、道路形状や道路種別などに基づいてこのW、wt、Zmax、Xmin等の値を決定することもできる。例えば、一般道でwtを60mとし、Zmaxを100mとしたとき、高速道路では、wtを80mとし、Zmaxを120mとして、速度が早い分遠方の物体を存在確率を用いて判定する。また、高速道路では、Xminを20mから10mに減少することもできる。また、直線状の道路で、Xminを20mとしたとき、カーブでは、Xminを30mとして、車両左右方向の検知範囲を広くして、カーブの先にいる車両を検知しやすくする。これにより高速道路か一般道か否かなどに応じて効率的に処理領域を決定できる。例えば、高速道路走行中は遠距離用の処理領域を、一般道を走行中は近距離用の処理領域を設定することができる。
また、本実施形態では、車載カメラユニット1における処理が、コントロールユニット2内で処理される構成でも良く、またコントロールユニット2の処理が車載カメラユニット1内で処理される構成でもよいものである。
以上説明したように、本実施形態によれば、車載カメラで撮像した画像を処理し物体を検知する際に、確率統計処理により過去の情報(O−1)や統計情報(O)/O−1)から物体が存在する確率を用いることで、精度の良い物体検出を実現できる。また、このとき画像後処理領域決定部により、画像後処理が必要な領域および分解能を算出することで、格子数を減少することができる。すなわち、道路平面を格子状に分割し、各格子毎に確率を算出する確率統計処理等を実施した場合でも、リアルタイムで物体認識処理が可能となる。そして、車載カメラユニットの出力として、物体の位置や大きさに加え、確率統計値を付与することで円滑な制御、警報処理を実現することができる。
次に、図10〜12を用いて、本発明の他の実施形態による画像処理装置の構成及び動作について説明する。
最初に、図10を用いて、本実施形態による画像処理装置を用いる車載システムの構成及び動作について説明する。
図10は、本発明の他の実施形態による画像処理装置を用いる車載システムの構成を示すブロック図である。なお、図1と同一符号は、同一部分を示している。
本実施形態による画像処理装置である車載カメラユニット1Aは、2個の車載カメラ4a,4bにより、ステレオ画像として車両周囲の環境を認識する。
このとき、車載カメラは3個以上備えていてもよいものである。また、車載カメラとは別体の画像処理ユニットが、車載カメラ4a,4bから画像を取り込んで処理する構成でもよいものである。
次に、図11を用いて、本実施形態による画像処理装置に用いるステレオカメラの検出原理について説明する。
図11は、本発明の他の実施形態による画像処理装置に用いるステレオカメラの検出原理の説明図である。
車載カメラユニット1Aで用いるステレオカメラは、複数の車載カメラ4a,4bで同一計測点を撮像した際に、生じる見え方の違い(視差)を用いて、三角測量の原理で距離を求めることができる構成となっている。なお、図において、Zは、カメラ4a,4bから計測点までの距離である。fは、カメラ4a,4bの焦点距離である。bは、カメラ4a,4bの間の離間距離である。δは、カメラ4a,4bの視野角である。
再び、図10において、車載カメラユニット1A及びコントロールユニット2は、図2にて説明したと同様の機能構成を備えている。車載カメラユニット1Aは車両に搭載されて、コントロールユニット2とともに、車載システムを構成する。このシステムは、車載カメラユニット1Aが自車両の前方に存在する障害物を検出し、コントロールユニット2の制御の基で、検出結果に基づいて車両を制御、あるいは乗員に危険を報知するための装置である。
車載カメラユニット1Aは、例えば自車室内のルームミラー部に取付けられて、自車両前方の様子を所定の俯角、取付け位置で撮像するようになっている。車載カメラ4a,4bにより撮像された自車両前方の撮像画像は車載カメラユニット1Aの内部のRAM9に取り込まれ、自車前方の障害物を検出し、自車が障害物に衝突する危険性があると判断した場合には表示画像に検出結果を描画するとともに、コントロールユニット2の制御の基でディスプレイ15とスピーカー19、またはディスプレイ15あるいはスピーカー19のいずれかにより運転者に報知する。あるいは衝突しないように、衝突の衝撃を和らげるように車両をコントロールユニット2により制御してもよいものである。
画像処理部31は、カメラ4a,4bにより撮像した画像を処理して、各画素毎に視差を算出して視差のマップを作成し、物体候補をパターンマッチング等により検出して、検出した物体の3次元位置を算出する機能を有するものである。
以上のように構成される車載カメラユニット1Aは、上述したように、CPU6が障害物検知プログラムを実行することで、画像を処理し、物体の位置や大きさに加え確率統計値を算出することができる。そして、認識結果を入力画像に重畳した画像等をディスプレイ15に出力するとともに、認識結果をコントロールユニット2に送信し、コントロールユニット2の制御のもとで衝突の危険があると判断した場合は、衝突を軽減、回避するための制御を行うか、あるいは警報音を発生させて、車両の乗員に報知するようにしている。
ここで、以上のような車載カメラユニット1Aにおいて、障害物を検出し検出結果を出力するまでの一連の処理の流れは、図3及び図4に示したフローチャートと同様である。
以下では、図3のステップS30、ステップS40、ステップS70、ステップS90と、図4のステップS130の個々の処理について説明する。
まず、画像処理精度推定部で実施されるステップS30は、例えば距離測定精度が許容値以下となる視差dtを求める。例えば、次のように画像後処理の処理領域を決定することができる。視差をd、視差の分解能をδd、カメラ間の距離をB、焦点距離をfとすると、該当画素の距離Zは、Z=B×f/dの式で表される。ここで、距離測定精度の許容誤差δZを定義すると、以下の式(15)満たす視差dに対応する領域は、距離測定精度が許容誤差以上となる。
Figure 2010003254
そこで、式(15)を満たす視差dのうち最小の視差をdtとする。
次に、図12を用いて、本実施形態による画像処理装置における画像後処理領域決定部の処理内容について説明する。
図12は、本発明の他の実施形態による画像処理装置における画像後処理領域決定部の処理内容の説明図である。
画像後処理領域決定部で実施されるステップS40は、前述の最小の視差dtの値に基づいて、画像後処理を行う領域を決定する。これは、視差が小さい程、物体検知の信頼性、距離測定精度が低下するためであり、画像後処理を行うことで検知性能を向上させることができる。最小の視差dtに対応する距離をZtとすると、画像後処理領域は距離Zt以上の領域とすることができる。
また、物体の最大検知距離をZmax、検知領域幅をXminからXmaxとすれば、道路平面上の処理領域を図6にて説明したように決定できる。ただし、B、f、δZ、Zmax、Xmin、Xmax等の値は予めROMに格納されているかプログラム中の定数とする。また、処理領域の分解能(Z1, Z2, ・・・Zn)は、例えば、次の式(16)のように決定する。
Figure 2010003254
すなわち、式(16)で表されるように遠方程分解能を低くする。このように遠方程分解能を低くすることで、格子数を減らし計算量が少なくできる。この処理は、予め処理領域を算出した結果をROMに保持しておくか、定数としプログラム中に保持しておく。
画像処理部で実施されるステップS70は、テンプレートマッチング等により物体候補を検出し、検出した物体の画像上でのサイズwからZ=W/(f×w)により距離を求め、3次元位置を得る。
また、画像後処理部32によるステップS90の処理では、画像処理部31による物体の検知結果と、前記確率マップとを用いて、物体の有無を判定し、結果を出力する。例えば、物体候補の3次元位置に対応する、格子の確率が所定の値Pthr以上である場合に、物体が存在すると判定し、その物体の3次元位置、大きさ、存在確率、および検知した物体に属する画素の視差データから3次元データの平均値と標準偏差等を算出して出力する。
次に、コントロールユニット2の制御警報決定処理33によるステップ204について説明する。制御・警報決定処理では、例えば図9にて説明したように、物体の存在確率に応じて、ブレーキ制御を実施するか、ブレーキ制御は行わずアクセルのON・OFFのみを行うか、あるいは制御は行わず警報のみを実施するかを決定する。ただし、存在確率が高い場合であっても、前記3次元データの標準偏差が大きい場合には、物体がどこに存在するかが不明確であるため、制御処理を行わないなどの判定を行う。
なお、前述の構成に加え、カーナビゲーションシステムと地図データベースとを具備し、カーナビゲーションから得られる自車位置と、地図データベースから得られる地図データとから走行中の道路形状や、高速道路か一般道かなどの道路種別を判定し、道路形状や道路種別などに基づいてこのδZ、Zmax、Xmin等の値を決定することもできる。これにより高速道路か一般道か否かなどに応じて効率的に処理領域を決定できる。例えば、高速道路走行中は遠距離用の処理領域を、一般道を走行中は近距離用の処理領域を設定することができる。
また、車載カメラユニット1Aにおける処理が、コントロールユニット2内で処理される構成でも良く、またコントロールユニット2の処理が車載カメラユニット1A内で処理される構成でもよい。
以上説明したように、本実施形態によれば、車載システムでは、車載カメラ4a,4bで撮像した画像を処理し物体を検知する際に、確率統計処理により過去の情報や統計情報から物体が存在する確率を算出することで精度の良い物体検出を実現できる。また、このとき画像後処理領域決定部30により、画像後処理が必要な領域および分解能を算出することで、格子数を最低限に抑えることができる。すなわち、道路平面を格子状に分割し、各格子毎に確率を算出する確率統計処理等を実施した場合でも、リアルタイムで物体認識処理が可能となる。そして、車載カメラユニットの出力として、物体の位置や大きさに加え、確率統計値を付与することで円滑な制御、警報処理を実現することができる。
本発明の一実施形態による画像処理装置を用いる車載システムの構成を示すブロック図である。 本発明の一実施形態による画像処理装置を用いる車載システムの構成を示す機能ブロック図である。 本発明の一実施形態による画像処理装置の動作を示すフローチャートである。 本発明の一実施形態による画像処理装置に接続されたコントロールユニットの動作を示すフローチャートである。 本発明の一実施形態による画像処理装置の画像後処理領域決定部の動作説明図である。 本発明の一実施形態による画像処理装置の画像後処理領域決定部の動作説明図である。 本発明の一実施形態による画像処理装置の画像後処理領域決定部による他の後処理領域の決定方法の説明図である。 本発明の一実施形態による画像処理装置の画像後処理領域決定部による他の後処理領域の決定方法の説明図である。 本発明の一実施形態による画像処理装置の制御・警報決定処理の動作説明図である。 本発明の他の実施形態による画像処理装置を用いる車載システムの構成を示すブロック図である。 本発明の他の実施形態による画像処理装置に用いるステレオカメラの検出原理の説明図である。 本発明の他の実施形態による画像処理装置における画像後処理領域決定部の処理内容の説明図である。
符号の説明
1…車載カメラユニット
2…コントロールユニット
3…車載システム
4,4a,4b…車載カメラ
6…CPU
7…ROM
9…RAM
11…RAM
12…CPU
13…ROM
15…ディスプレイ
19…スピーカー
29…画像処理精度推定部
30…画像後処理領域決定部
31…画像処理部
32…画像後処理部
33…制御・警報決定処理部
34…制御・警報処理部

Claims (7)

  1. 撮像手段と、
    該撮像手段によって撮影される検出対象の距離の測定精度が許容値以下となる物体サイズを算出して、画像処理精度を推定する画像処理精度推定部と、
    該画像処理精度推定部によって推定された画像の処理精度に応じて検出対象の検出領域の内の一部の領域を、画像後処理を実施する画像後処理領域として決定し、決定した処理領域を格子状に分割する画像後処理領域決定部と、
    前記撮像手段によって撮像した画像を処理して認識対象を検出する画像処理部と、
    前記画像後処理領域決定部により決定された格子状の領域内の格子毎に、前記画像処理部により堅守された認識対象が存在するか否かの確率を算出し、検出対象の有無を判定する画像後処理部とを備えることを特徴とする画像処理装置。
  2. 請求項1記載の画像処理装置において、
    前記画像後処理領域決定部は、前記画像処理精度推定部が推定した距離測定の誤差が許容誤差よりも大きくなる領域を、前記画像後処理領域とすることを特徴とする画像処理装置。
  3. 請求項1記載の画像処理装置において、
    前記画像後処理領域決定部は、前記画像処理精度推定部が推定した検知対象の撮像画像上でのサイズが所定の値よりも小さくなる領域を処理領域とすることを特徴とする画像処理装置。
  4. 請求項1記載の画像処理装置において、
    前記画像後処理領域決定部は、画像処理精度に基いて、遠方程小さくなるような画像後処理領域内の分解能を決定し、該分解能に基づいて、前記画像後処理領域を格子状に分割することを特徴とする画像処理装置。
  5. 請求項1記載の画像処理装置において、
    前記画像後処理部は、確率統計処理により、前記存在確率を算出することを特徴とする画像処理装置。
  6. 請求項5記載の画像処理装置において、
    前記画像後処理部は、認識対象の認識結果に、物体が存在する確率や分散といった確率統計値を付加して出力することを特徴とする画像処理装置。
  7. さらに、前記画像後処理部が出力する認識対象の認識結果及び、物体に関する確率統計値とに基づいて、制御や警報の内容を決定するコントロールユニットを備えることを特徴とする画像処理装置。
JP2008163630A 2008-06-23 2008-06-23 画像処理装置 Expired - Fee Related JP4615038B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008163630A JP4615038B2 (ja) 2008-06-23 2008-06-23 画像処理装置
US12/488,830 US8320626B2 (en) 2008-06-23 2009-06-22 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008163630A JP4615038B2 (ja) 2008-06-23 2008-06-23 画像処理装置

Publications (2)

Publication Number Publication Date
JP2010003254A true JP2010003254A (ja) 2010-01-07
JP4615038B2 JP4615038B2 (ja) 2011-01-19

Family

ID=41431343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008163630A Expired - Fee Related JP4615038B2 (ja) 2008-06-23 2008-06-23 画像処理装置

Country Status (2)

Country Link
US (1) US8320626B2 (ja)
JP (1) JP4615038B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011101988A1 (ja) * 2010-02-22 2011-08-25 トヨタ自動車株式会社 危険度算出装置
WO2014132747A1 (ja) 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 物体検知装置
JP2015521767A (ja) * 2012-06-19 2015-07-30 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミットベシュレンクテル ハフツングConti Temic microelectronic GmbH 車両周辺部を描写するための方法
JP2015180561A (ja) * 2014-03-06 2015-10-15 パナソニックIpマネジメント株式会社 表示制御装置、表示装置および表示制御プログラム
JP2015210729A (ja) * 2014-04-28 2015-11-24 本田技研工業株式会社 走行路認識装置
CN105264586A (zh) * 2013-06-03 2016-01-20 罗伯特·博世有限公司 用于车辆的占用地图
JP2017072422A (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
US9665798B2 (en) 2012-05-24 2017-05-30 Hitachi, Ltd. Device and method for detecting specified objects in images using metadata
US10438050B2 (en) 2013-02-27 2019-10-08 Hitachi, Ltd. Image analysis device, image analysis system, and image analysis method
JP2021160714A (ja) * 2020-03-30 2021-10-11 本田技研工業株式会社 車両制御装置および車両制御方法
CN113646771A (zh) * 2019-04-09 2021-11-12 宝马股份公司 用于确定物体的尺寸的方法和处理单元
US11801867B2 (en) 2020-03-30 2023-10-31 Honda Motor Co., Ltd. Vehicle control device and vehicle control method
WO2024024114A1 (ja) * 2022-07-29 2024-02-01 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム
WO2024241447A1 (ja) * 2023-05-22 2024-11-28 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9544636B2 (en) 2014-07-07 2017-01-10 Google Inc. Method and system for editing event categories
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
JP6160634B2 (ja) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
JP6805716B2 (ja) * 2016-01-25 2020-12-23 株式会社Jvcケンウッド 表示装置、表示方法、プログラム
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10192415B2 (en) * 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
JP6929671B2 (ja) * 2017-03-17 2021-09-01 キヤノン株式会社 撮像装置及び撮像システム
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
KR102499398B1 (ko) * 2017-08-09 2023-02-13 삼성전자 주식회사 차선 검출 방법 및 장치
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US10573023B2 (en) * 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
US11640701B2 (en) * 2020-07-31 2023-05-02 Analog Devices International Unlimited Company People detection and tracking with multiple features augmented with orientation and size based classifiers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
WO2007028932A1 (fr) * 2005-09-09 2007-03-15 Institut National De Recherche En Informatique Et En Automatique Procede d'assistance a la conduite d'un vehicule et dispositif associe ameliore
JP2008225785A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 画像認識装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6173066B1 (en) * 1996-05-21 2001-01-09 Cybernet Systems Corporation Pose determination and tracking by matching 3D objects to a 2D sensor
JP2000292538A (ja) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp 車両用障害物検出装置
US6691034B1 (en) * 2002-07-30 2004-02-10 The Aerospace Corporation Vehicular trajectory collision avoidance maneuvering method
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
KR100506097B1 (ko) * 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US20050232463A1 (en) * 2004-03-02 2005-10-20 David Hirvonen Method and apparatus for detecting a presence prior to collision
JP2005284410A (ja) * 2004-03-26 2005-10-13 Omron Corp 車両認識装置及び車両認識方法
US20060195858A1 (en) * 2004-04-15 2006-08-31 Yusuke Takahashi Video object recognition device and recognition method, video annotation giving device and giving method, and program
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
DE112005003266T5 (de) * 2004-12-28 2008-09-04 Kabushiki Kaisha Toyota Chuo Kenkyusho Fahrzeugbewegungssteuerungsvorrichtung
US7446766B2 (en) * 2005-02-08 2008-11-04 Seegrid Corporation Multidimensional evidence grids and system and methods for applying same
JP2007034477A (ja) * 2005-07-25 2007-02-08 Mazda Motor Corp 車両用走行支援装置
US7587081B2 (en) * 2005-09-28 2009-09-08 Deere & Company Method for processing stereo vision data using image density
US8184157B2 (en) * 2005-12-16 2012-05-22 Siemens Corporation Generalized multi-sensor planning and systems
US7667596B2 (en) * 2007-02-16 2010-02-23 Panasonic Corporation Method and system for scoring surveillance system footage

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006038578A (ja) * 2004-07-26 2006-02-09 Toyota Motor Corp 物体検出装置
WO2007028932A1 (fr) * 2005-09-09 2007-03-15 Institut National De Recherche En Informatique Et En Automatique Procede d'assistance a la conduite d'un vehicule et dispositif associe ameliore
JP2008225785A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 画像認識装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102763146A (zh) * 2010-02-22 2012-10-31 丰田自动车株式会社 危险度计算装置
JPWO2011101988A1 (ja) * 2010-02-22 2013-06-17 トヨタ自動車株式会社 危険度算出装置
US9135825B2 (en) 2010-02-22 2015-09-15 Toyota Jidosha Kabushiki Kaisha Risk degree calculation device
WO2011101988A1 (ja) * 2010-02-22 2011-08-25 トヨタ自動車株式会社 危険度算出装置
US9665798B2 (en) 2012-05-24 2017-05-30 Hitachi, Ltd. Device and method for detecting specified objects in images using metadata
JP2015521767A (ja) * 2012-06-19 2015-07-30 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミットベシュレンクテル ハフツングConti Temic microelectronic GmbH 車両周辺部を描写するための方法
US9679196B2 (en) 2013-02-27 2017-06-13 Hitachi Automotive Systems, Ltd. Object sensing device
WO2014132747A1 (ja) 2013-02-27 2014-09-04 日立オートモティブシステムズ株式会社 物体検知装置
US10438050B2 (en) 2013-02-27 2019-10-08 Hitachi, Ltd. Image analysis device, image analysis system, and image analysis method
CN105264586A (zh) * 2013-06-03 2016-01-20 罗伯特·博世有限公司 用于车辆的占用地图
JP2016522508A (ja) * 2013-06-03 2016-07-28 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 車両用占有グリッドマップ
US9823661B2 (en) 2013-06-03 2017-11-21 Robert Bosch Gmbh Occupancy grid map for a vehicle
JP2015180561A (ja) * 2014-03-06 2015-10-15 パナソニックIpマネジメント株式会社 表示制御装置、表示装置および表示制御プログラム
US9776567B2 (en) 2014-03-06 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Display control device, display device, display control method, and non-transitory storage medium
JP2015210729A (ja) * 2014-04-28 2015-11-24 本田技研工業株式会社 走行路認識装置
JP2017072422A (ja) * 2015-10-05 2017-04-13 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体
CN113646771B (zh) * 2019-04-09 2024-03-05 宝马股份公司 用于确定物体的尺寸的方法和处理单元
CN113646771A (zh) * 2019-04-09 2021-11-12 宝马股份公司 用于确定物体的尺寸的方法和处理单元
JP2021160714A (ja) * 2020-03-30 2021-10-11 本田技研工業株式会社 車両制御装置および車両制御方法
US11801867B2 (en) 2020-03-30 2023-10-31 Honda Motor Co., Ltd. Vehicle control device and vehicle control method
WO2024024114A1 (ja) * 2022-07-29 2024-02-01 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム
WO2024024776A1 (ja) * 2022-07-29 2024-02-01 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム
JPWO2024024776A1 (ja) * 2022-07-29 2024-02-01
JP7786591B2 (ja) 2022-07-29 2025-12-16 Ntt株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム
WO2024241447A1 (ja) * 2023-05-22 2024-11-28 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム
WO2024241599A1 (ja) * 2023-05-22 2024-11-28 日本電信電話株式会社 物体検知率算出装置、物体検知率算出方法、及びプログラム

Also Published As

Publication number Publication date
US8320626B2 (en) 2012-11-27
JP4615038B2 (ja) 2011-01-19
US20090316956A1 (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP4615038B2 (ja) 画像処理装置
JP5094658B2 (ja) 走行環境認識装置
CN105984464B (zh) 车辆控制装置
JP4420011B2 (ja) 物体検知装置
JP5345350B2 (ja) 車両の運転支援装置
JP5066478B2 (ja) 車両の運転支援装置
US9074906B2 (en) Road shape recognition device
JP5167051B2 (ja) 車両の運転支援装置
JP6109139B2 (ja) 車両用衝突回避支援装置及び車両の衝突回避支援方法
US20120101704A1 (en) Method for operating at least one sensor of a vehicle and vehicle having at least one sensor
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
CN111373460B (zh) 车辆的物标检测装置
US10421394B2 (en) Driving assistance device, and storage medium
CN105774806A (zh) 车辆行驶控制装置
JP2007228448A (ja) 撮像環境認識装置
JP2019093764A (ja) 車両制御装置
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
JP2011012965A (ja) 車線判定装置及びナビゲーションシステム
JP7380449B2 (ja) 判定装置及びプログラム
US12142057B2 (en) Information recording device, information recording method, and storage medium
JP2008149860A (ja) 走行制御装置
US20240326788A1 (en) Driver assistance apparatus
JP2019096039A (ja) 車両の物標検出装置
US12327477B2 (en) Vehicle systems and collision detection methods with occlusion mitigation
JP4864450B2 (ja) 車両の運転支援装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101019

R150 Certificate of patent or registration of utility model

Ref document number: 4615038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees