JP2005345159A - 画像処理システム - Google Patents

画像処理システム Download PDF

Info

Publication number
JP2005345159A
JP2005345159A JP2004162518A JP2004162518A JP2005345159A JP 2005345159 A JP2005345159 A JP 2005345159A JP 2004162518 A JP2004162518 A JP 2004162518A JP 2004162518 A JP2004162518 A JP 2004162518A JP 2005345159 A JP2005345159 A JP 2005345159A
Authority
JP
Japan
Prior art keywords
image
image processing
parallax
dimensional
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004162518A
Other languages
English (en)
Inventor
Shinji Takahashi
伸治 高橋
Masakazu Sasaki
正和 佐々木
Koji Ikeda
幸治 池田
Yasuyuki Ohara
康之 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TALK ENGINEERING KK
Tsuchiya KK
Original Assignee
TALK ENGINEERING KK
Tsuchiya KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TALK ENGINEERING KK, Tsuchiya KK filed Critical TALK ENGINEERING KK
Priority to JP2004162518A priority Critical patent/JP2005345159A/ja
Publication of JP2005345159A publication Critical patent/JP2005345159A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】 対象物を好適に三次元的に認識することが可能な画像処理システムを提供する。
【解決手段】 画像処理システムは、第1カメラ15及び第2カメラ16と、第1入力インターフェイス17及び第2入力インターフェイス18と、画像処理ユニット12と、ディスプレイ13及び制御ユニット14とを備えている。第1カメラ15及び第2カメラ16で撮影された光景画像は、画像処理ユニット12において輪郭画像へと変換され、この輪郭画像を走査及び比較して各輪郭画像に撮像された対象物の視差が計測される。そして、計測された視差の情報に基づいて対象物の三次元位置が算出される。
【選択図】 図1

Description

本発明は、同一の対象物を撮像した複数の二次元的な光景画像から当該対象物を三次元的に捉えるための画像処理システムに関するものである。
従来、例えば車両の運転支援装置に使用される画像処理システムとして、特許文献1に示すものが挙げられる。即ち、当該画像処理システムは、車外の設定範囲を互いに異なる位置から撮像する撮像系と、画像処理手段と、道路・立体物検出手段とを備える。前記画像処理手段は、撮像系で撮像した複数の画像を高速処理して画像全体に渡る距離分布を計算する。また、前記道路・立体物検出手段は、距離分布の情報に対応する被写体の各部分の三次元位置を計算し、三次元位置の情報を用いて道路の形状と複数の立体物を高速で検出する。
特開平5−265547号公報
ところで、上記従来の画像処理システムにおいては、画像を撮像された光景のまま使用しており、画像全体に渡る距離分布を計算する場合には、まず複数の画像にわたって撮像された同一の対象物を特定した後、同対象物を基準に複数の画像を対比等している。このとき、対象物の特定には、道路・立体物等といった対象物となるものの形状を予め記憶しておき、この形状を元に撮像された画像を走査して対象物を認識する方法が採用されている。しかし、このように対象物を形状から認識させる処理では、未知の(予め記憶されていない)形状の対象物、汚れ・欠損等により元の形状を大きく損なった対象物等が認識できず、信頼性に劣るという問題があった。
本発明は、このような従来技術に存在する問題点に着目してなされたものである。その目的とするところは、対象物を好適に三次元的に認識することが可能な画像処理システムを提供することにある。
上記の目的を達成するために、請求項1に記載の画像処理システムの発明は、同一の対象物を撮像した複数の二次元的な光景画像から当該対象物を三次元的に捉える画像処理システムであって、前記複数の光景画像をそれぞれ輪郭画像に変換する変換手段と、前記の各輪郭画像を走査及び比較して各輪郭画像に撮像された前記対象物の視差を計測する視差計測手段と、前記視差の情報に基づいて前記対象物の三次元位置を算出する位置算出手段とを備えることを要旨とする。
上記構成によれば、画像処理システムは、入力等された複数の光景画像を変換手段によって複数の輪郭画像へと変換し、視差計測手段によってこれら輪郭画像から対象物の視差を計測し、位置算出手段によって同視差の情報に基づき対象物の三次元位置を算出する。前記輪郭画像は、光景画像から対象物の輪郭を検出して得られたものであり、例えば未知の形状の対象物、元の形状を大きく損なった対象物等であっても、その輪郭を捉えることは十分に可能である。従って、光景画像に撮像された対象物の形態、状態等に係わらず輪郭画像に捉えられた輪郭同士を対比等することにより、視差を計測することが可能となる。その結果、予め記憶させた形状により対象物を特定する等の方法に依拠せずとも、対象物を好適に三次元的に認識することが可能となる。
請求項2に記載の画像処理システムの発明は、請求項1に記載の発明において、前記位置算出手段は、予め記憶されたキャリブレーションデータに基づいて前記視差から三次元位置を算出するキャリブレーション手段を備えることを要旨とする。
上記構成によれば、予め記憶されたキャリブレーションデータを用いることにより、誤差、ずれ等の発生を抑制しつつ、三次元位置を迅速に算出することが可能である。
請求項3に記載の画像処理システムの発明は、請求項1又は請求項2に記載の発明において、前記光景画像を撮像する撮像装置と、前記対象物の三次元位置の情報に基づき、複数の対象物の三次元的な位置関係から三次元座標を作成する座標作成手段とを備えることを要旨とする。
上記構成によれば、撮像装置によって複数の対象物を撮像しつつ、座標作成手段によってこれら対象物の三次元座標を作成することが可能である。その結果、当該画像システムは、例えば車両、ロボット等といった移動体において、同移動体の移動先に存在する物体を検出する運転支援装置、対象物認識装置等として利用することが可能となる。
本発明によれば、対象物を好適に三次元的に認識することが可能な画像処理システムを提供することができる。
以下、本発明を具体化した一実施形態を図面に基づいて説明する。
図1に示すように、本実施形態の画像処理システムは、撮像装置11と、画像処理ユニット12と、出力部としてのディスプレイ13及び制御ユニット14とを備えている。また、前記撮像装置11は、第1カメラ15及び第2カメラ16からなる1組のカメラと、これら1組のカメラを前記画像処理ユニット12に接続する第1入力インターフェイス17及び第2入力インターフェイス18とを備えている。
この画像処理システムは、車両の運転支援装置として使用される。即ち、第1カメラ15及び第2カメラ16は、車両の車室内、車両の前部等に取り付けられ、それぞれが車両の進行方向で展開する光景画像を撮像する。第1入力インターフェイス17は、第1カメラ15で撮像された第1光景画像を画像処理ユニット12に入力し、第2入力インターフェイス18は、第2カメラ16で撮像された第2光景画像を画像処理ユニット12に入力する。画像処理ユニット12は、入力された第1光景画像及び第2光景画像に基づき、これら光景画像に撮像された複数の対象物について三次元座標作成処理を行い、各対象物の三次元座標の情報をディスプレイ13及び制御ユニット14に出力する。そして、ディスプレイ13は使用者等に対して三次元座標の情報に基づく各種の出力画像の表示を行い、制御ユニット14は三次元座標の情報に基づいて車両の各種運転制御を行う。
なお、当該三次元座標の情報には車両から各対象物までの距離、各対象物の位置関係、各対象物の大きさ等の情報が含まれる。前記各種の出力画像は、例えば第1光景画像及び第2光景画像からなるステレオ画像、三次元座標の情報に基づき作成された車両周縁の立体地図等である。また、制御ユニット14は、車両の各種運転制御を行う車両制御手段を構成しており、車両の各種運転制御として、例えば対象物に対する車両の異常接近時におけるブレーキ装置、ステアリング装置等を作動させたりする。
次に、前記画像処理ユニット12について説明する。
画像処理ユニット12は、大別して記憶部、処理部及び出力部から構成されている。図2に示すように、記憶部は、第1カメラ画像メモリ21及び第2カメラ画像メモリ22を備えている。画像処理ユニット12に入力された第1光景画像及び第2光景画像は、第1カメラ画像メモリ21及び第2カメラ画像メモリ22にそれぞれ記憶される。
処理部23は、CPU、ROM、RAM等を備えており、各種プログラムを実行することにより、前記第1光景画像及び前記第2光景画像に対して三次元座標作成処理を行う。この処理部23は、ソーベル処理部24、正規化相関サーチ部25、三次元座標計算部26及び出力画像作成部27を備えている。また、当該処理部23にはキャリブレーション部28が含まれる。このキャリブレーション部28には、キャリブレーション処理によって予め作成されたキャリブレーションデータ29が記憶されている。
前記ソーベル処理部24は、第1光景画像及び第2光景画像をそれぞれ第1輪郭画像及び第2輪郭画像に変換すべくソーベルフィルタ処理を行う。前記正規化相関サーチ部25は、第1輪郭画像と第2輪郭画像とで対応する位置を検出すべく正規化相関サーチを行う。また、この正規化相関サーチ部25は、第1輪郭画像と第2輪郭画像とにおける対応する位置のずれから視差を計測すべく、視差計測処理を行う。
前記三次元座標計算部26は、視差の情報に基づいて前記キャリブレーション部28から出力されたキャリブレーションデータ29を元に、視差から三次元位置(3D位置)を算出すべく、位置算出処理を行う。また、この三次元座標計算部26は、3D位置を基に三次元座標(3Dマップ)を作成すべく、座標作成処理を行う。出力画像作成部27は、3Dマップに基づいて前記ディスプレイ13に表示される出力画像の情報を作成すべく出力画像作成処理を行う。
出力部は、3Dマップ出力部30及び画像表示部31を備えている。3Dマップ出力部30は、前記処理部23から出力された3Dマップの情報を前記制御システムへと出力する。画像表示部31は、前記処理部23から出力された出力画像32を前記ディスプレイ13へと出力する。
次に、前記画像処理ユニット12による三次元座標作成処理の手順を図3に示す。
本処理が開始されると、まず第1カメラ15及び第2カメラ16により所定の視野内で対象物が撮像され(ステップS101)、第1光景画像及び第2光景画像が第1カメラ画像メモリ21及び第2カメラ画像メモリ22にそれぞれ記憶される。次に、分割処理により、第1光景画像及び第2光景画像がn×m(n及びmは整数)の大きさにそれぞれ分割され(ステップS102)、分割画像が作成される。次に、第1光景画像及び第2光景画像がそれぞれソーベルフィルタ処理され(ステップS103)、第1輪郭画像及び第2輪郭画像へ変換される。なお、ここで実施されるソーベルフィルタ処理は、変換手段を構成している。
ここで、S102及びS103について、具体例を挙げて説明する。S102においては、図4(a)に示すように、光景画像が8×8の大きさに分割され、64の分割画像が作成される。S103においては、図4(b)に示すように、光景画像がソーベルフィルタ処理され、当該光景画像に撮像された木、道路、縁石等といった対象物について、それぞれの輪郭(エッジ)が検出され、同輪郭を抽出することにより、輪郭画像へ変換される。このとき、光景画像が8×8の分割画像に分割されていることから、輪郭画像も8×8の分割画像に分割されることとなる。なお、分割する大きさは8×8に限らず、例えば16×16、4×4、10×20等の大きさに分割してもよい。また、分割の方法は、第1光景画像及び第2光景画像を重ねたときに互いの分割画像が一致するように分割することに限らず、第1光景画像及び第2光景画像を重ねたときに一方の分割画像が他方の分割画像に対して2分の1、3分の1等ずつ位置ずれするようにそれぞれを分割してもよい。
S103のソーベルフィルタ処理の後、第1輪郭画像の分割画像に対応する第2輪郭画像の分割画像の位置(対応位置)が正規化相関サーチにより探索される(ステップS104)。次に、視差計測処理により、第1輪郭画像と第2輪郭画像とで分割画像の対応位置ずれ(視差)が計測される(ステップS105)。なお、ここで実施される正規化相関サーチ及び視差計測処理は視差計測手段を構成している。
S105で視差を計測した後、位置算出処理により、予め記憶されたキャリブレーションデータを基に、測定した視差から分割画像ごとに3D位置が算出される(ステップS106)。なお、ここで実施される位置算出処理は位置算出手段を構成している。次に、座標作成処理により、各分割画像の3D位置から3Dマップが作成される(ステップS107)。なお、ここで実施される座標作成処理は座標作成手段を構成している。また、3Dマップは、明視野及び暗視野の双方で作成される。そして、作成された3Dマップの情報がディスプレイ13及び制御ユニット14に出力されて本処理が終了される。なお、制御ユニット14においては、3Dマップの情報から視野内の近いもの、遠いもの等を分類し、対象物の大きさ、配置を認識し、その範囲ごとに必要な処理を実行し、必要な認識を行う。
前記三次元座標計算部26は、視差の情報に基づいて前記キャリブレーション部28から出力されたキャリブレーションデータ29を元に、視差から三次元位置(3D位置)を算出すべく、位置算出処理を行う。また、この三次元座標計算部26は、3D位置を基に三次元座標(3Dマップ)を作成すべく、座標作成処理を行う。出力画像作成部27は、3Dマップに基づいて前記ディスプレイ13に表示される出力画像の情報を作成すべく出力画像作成処理を行う。
出力部は、3Dマップ出力部30及び画像表示部31を備えている。3Dマップ出力部30は、前記処理部23から出力された3Dマップの情報を前記制御システムへと出力する。画像表示部31は、前記処理部23から出力された出力画像32を前記ディスプレイ13へと出力する。
ここで、前記位置算出処理で使用するキャリブレーションデータを作成するためのキャリブレーション処理について説明する。なお、ここで実施されるキャリブレーション処理は、キャリブレーション手段を構成している。
図5(a)に示すように、キャリブレーション処理を行う際、第1カメラ15及び第2カメラ16が平行に設置されており、これらカメラの正面には校正ターゲット41が配設されている。図5(b)に示すように、この校正ターゲット41は、その正面に複数の基準点42が描かれており、当該基準点42の行・列数、点幅等が既知情報として設定されている。
キャリブレーションデータを作成する際には、まず校正ターゲット41の基準点42が第1カメラ15及び第2カメラ16によって撮影される。この後、基準点42の重心位置、第1カメラ15及び第2カメラ16で同一の基準点42を撮影した場合の視差が登録される。なお、視差は、関係式(第1カメラ15の座標−第2カメラ16の座標)から計測される。そして、第1カメラ15及び第2カメラ16から校正ターゲット41までの距離毎に重心位置、視差等のデータを基準点42の数だけ登録し、さらに校正ターゲット41までの距離を変更しつつデータ群を登録することにより、図6に示すようなキャリブレーションデータが得られる。位置算出処理においては、このキャリブレーションデータを基とすることにより、視差から対象物の3D位置を簡易かつ迅速に算出することが可能となる。
前記正規化相関サーチ及び視差計測処理について詳細に説明する。
図8に示すように、正規化相関サーチにおいては、まず第1輪郭画像上で、例えばエッジ部分等の特徴量を多く含む分割画像を検出する。この検出は、正規化相関サーチを短時間で行うため、1つ1つの分割画像を探索するのではなく、1つの分割画像を探索した後、例えばこの分割画像から8つ先の分割画像を探索する等のようにして行っている。また、この検出は、特徴量を多く含む分割画像が検出されるまで続けられる。
次いで、当該分割画像が角部に位置するように、第1輪郭画像上で所定範囲のテンプレート領域51を定める。このテンプレート領域51の座標を基とし、第2輪郭画像上においてテンプレート領域51の座標を基準としたサーチ範囲(図中で点線による枠内)が定められる。そして、このサーチ範囲内で正規化相関サーチが行われ、第1輪郭画像と第2輪郭画像との対応位置となる分割画像が検出される。従って、テンプレート領域51の座標を基準として第2輪郭画像上におけるサーチ範囲を絞ることにより、第2輪郭画像の全体を走査する必要はなく、第2輪郭画像上での正規化相関サーチを短時間で終了させることが可能である。
視差計測処理においては、前記テンプレート領域51の座標と、サーチ結果によって得られた座標とから視差を計測する。即ち、図7に示すように、まず第1カメラで撮像された対応位置となる分割画像のxy座標と、第2カメラで撮像された対応位置となる分割画像のxy座標とを算出する。そして、第1カメラによるxy座標と、第2カメラによるxy座標との差(第1カメラ座標−第2カメラ座標)を求めることにより、視差が計測される。
前記位置算出処理について詳細に説明する。
位置算出処理においては、キャリブレーションデータの番号をAとして、Aを1に設定する。次に、番号Aのキャリブレーションデータの座標値から、第1カメラで撮像された対応位置となる分割画像のxy座標に近似した基準点の座標を探策する。このときデータ番号Aで検出された基準点の視差をDAとする。
その後、前記基準点の実空間におけるxy座標を算出する(1分割画像あたりの距離×座標値)。次いで、番号A+1のキャリブレーションデータから、基準点の実空間におけるxy座標に近い基準点の座標を探索する。このときデータ番号A+1で検出された基準点の視差をDA+1とする。
次いで、前記視差計測処理で算出された視差をDPとし、DA≦DP≦DA+1の関係が成立するまでAを1ずつ増加し、前記の探索を繰り返す。なお、すべてのキャリブレーションデータを探索しても、上記の関係が成立しない場合はエラーとする。
続いて、DA、DP及びDA+1の比により、対応位置となる分割画像の座標について、Z軸位置(Z座標)と1分割画像あたりの距離を算出する。なお、Z軸は、図7に示したように、第1カメラで撮像された画像の左上を通り、画像面に垂直な方向とする。そして、対応位置となる分割画像のxy座標を視野中心の座標に変換し、1分割画像あたりの距離を乗算して実空間のxy座標を算出することにより、3D位置が得られる。その後、画像全体において3D位置を求めることにより、座標作成処理が行われる。
次に、画像処理システムの作用について説明する。
さて、車両の運転支援装置として使用される画像処理システムは、撮像された道路・立体物等の対象物を輪郭で捉えた後、これら対象物を三次元的に検出する。その後、検出した対象物における三次元位置の時間変化から、検出した対象物と車両との位置関係を高速で検出する。この位置関係を車両の走行する道筋に照らし、位置関係量から、検出された対象物と車両との衝突の可能性を制御システムで判断する。
前記の実施形態によって発揮される効果について、以下に記載する。
・ 実施形態の画像処理システムによれば、対象物をその輪郭で捉えることにより、対象物の汚れ、欠損等に関わらず、対象物の大きさ、距離等を正しく認識することが可能となる。
・ また、対象物の形状を3D位置から認識することが可能であり、未知の形状の対象物であっても認識することが可能である。
・ また、対象物を認識するよりも前に、一対の撮像画像から実空間上における対象物迄の距離情報と、対象物の位置、対象物の大きさを認識することが可能となる。このため撮像画像における輝度情報との双方を用いて、実空間上における車線の位置、障害物等を、位置情報を加えた状態で認識することができ、高精度の対象認識が可能となる。このとき、対象認識と距離の補正のフィードバックが必要な処理ではなく、機械的に処理することが可能なため高速に処理ができる。
・ また、三次元位置の時間変化から、検出した対象物と車両との位置関係を高速で検出することにより、車両の進路上において、人、他車両を動的に認識することが可能となる。このため、人、他車両を動的及び静的に認識することで、対象物の認識精度を向上させることが可能である。さらに、対象物として進路上の障害物を認識するよりも前に、障害物の大きさ、距離を認識することができることから、人又は車両の急な飛び出しまでをも認識することが可能となる。特に、車両における安全距離以下に存在し、衝突の危険がある対象物を、背景からの切り出し操作等を行うことなく同対象物を不明としたまま高速に判定することができ、このような対象物に対する対応も可能となる。
(変更例)
なお、本実施形態は、次のように変更して具体化することも可能である。
・ 実施形態では画像処理システムを車両の運転支援装置として使用したが、これに限らず、複数の光学画像から同光学画像に撮像された対象物を三次元的に捉える目的のものであれば、何れの装置に使用してもよい。このような装置としては、例えばロボットの対象物認識装置が挙げられる。この対象物認識装置の場合、ロボットの各種動作制御を行う動作制御手段として制御ユニットを備えている。他に、航空機の対象物認識装置、防犯装置、扉の開閉装置等が挙げられる。
・ 当該画像処理システムにおいて、例えばFPGA(Field Programmable Gate Array)による構成としたり、LSI化による構成としたり等することにより、各種処理のハードウエア化を行ってもよい。特に、実施形態の画像処理システムのような条件分岐があまり必要でない処理は、ハードウエア化を容易に行うことが可能である。
・ 前記三次元座標計算部26では、3D位置及び3Dマップの双方を得るべく、位置算出処理及び座標作成処理を行っていたが、3D位置のみを得るべく位置算出処理のみを行ってもよい。或いは、三次元座標計算部26で位置算出処理及び座標作成処理の双方を行わずとも、各処理をそれぞれ個別の処理部で行うよう構成してもよい。
・ 撮像装置として、3台以上のカメラを用いてもよい。或いは、静止した対象物を撮像するのであれば、1台のカメラを用い、同カメラを移動させる等して視差を計測することにより、対象物を三次元的に捉えることが可能となる。
さらに、前記実施形態より把握できる技術的思想について以下に記載する。
・ 前記視差計測手段は、各輪郭画像の互いに対応する位置を検出すべく正規化相関サーチを行うとともに、当該正規化相関サーチにおいては、一の輪郭画像上で所定範囲のテンプレート領域を定めた後、同テンプレート領域の座標を基準として他の輪郭画像上におけるサーチ範囲を絞ることを特徴とする請求項1から請求項3の何れか一項に記載の画像処理システム。
・ 請求項1から請求項3の何れか一項に記載の画像処理システムと、当該画像処理システムによって三次元的に捉えられた対象物に基づき車両の各種運転制御を行う車両制御手段とを備えることを特徴とする車両の運転支援装置。
実施携帯の画像処理システムの概略を示す構成図。 実施形態の画像処理ユニットのブロック図。 実施形態の三次元座標作成処理を示すフローチャート。 (a)は光景画像を示す概略図、(b)は輪郭画像を示す概略図。 (a)はキャリブレーション処理を示す概略図、(b)は校正ターゲットを示す概略図。 キャリブレーションデータを示す概念図。 視差計測処理を示す概念図。 正規化相関サーチを示す概念図。
符号の説明
11…撮像装置、12…画像処理ユニット、24…変換手段を構成するソーベル処理部、25…視差計測手段を構成する正規化相関サーチ部、26…位置算出手段及び座標作成手段を構成する三次元座標計算部、28…キャリブレーション手段を構成するキャリブレーション部、29…キャリブレーションデータ

Claims (3)

  1. 同一の対象物を撮像した複数の二次元的な光景画像から当該対象物を三次元的に捉える画像処理システムであって、
    前記複数の光景画像をそれぞれ輪郭画像に変換する変換手段と、
    前記の各輪郭画像を走査及び比較して各輪郭画像に撮像された前記対象物の視差を計測する視差計測手段と、
    前記視差の情報に基づいて前記対象物の三次元位置を算出する位置算出手段と
    を備える
    ことを特徴とする画像処理システム。
  2. 前記位置算出手段は、予め記憶されたキャリブレーションデータに基づいて前記視差から三次元位置を算出するキャリブレーション手段を備える
    ことを特徴とする請求項1に記載の画像処理システム。
  3. 前記光景画像を撮像する撮像装置と、
    前記対象物の三次元位置の情報に基づき、複数の対象物の三次元的な位置関係から三次元座標を作成する座標作成手段と
    を備える
    ことを特徴とする請求項1又は請求項2に記載の画像処理システム。
JP2004162518A 2004-05-31 2004-05-31 画像処理システム Pending JP2005345159A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004162518A JP2005345159A (ja) 2004-05-31 2004-05-31 画像処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004162518A JP2005345159A (ja) 2004-05-31 2004-05-31 画像処理システム

Publications (1)

Publication Number Publication Date
JP2005345159A true JP2005345159A (ja) 2005-12-15

Family

ID=35497697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004162518A Pending JP2005345159A (ja) 2004-05-31 2004-05-31 画像処理システム

Country Status (1)

Country Link
JP (1) JP2005345159A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187834A (ja) * 2014-03-11 2015-10-29 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015187834A (ja) * 2014-03-11 2015-10-29 株式会社リコー 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム

Similar Documents

Publication Publication Date Title
US20200293058A1 (en) Data processing method, apparatus and terminal
CN109751973B (zh) 三维测量装置、三维测量方法以及存储介质
CN108692719B (zh) 物体检测装置
JP4872769B2 (ja) 路面判別装置および路面判別方法
WO2012120856A1 (ja) 物体検出装置及び物体検出方法
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2006071471A (ja) 移動体高さ判別装置
JP2014096135A (ja) 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
EP3324359B1 (en) Image processing device and image processing method
JP2016001841A (ja) 視差画像生成装置、視差画像生成方法及び画像
JP6516012B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
JP2006322795A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5587852B2 (ja) 画像処理装置及び画像処理方法
JP2005156199A (ja) 車両検知方法及び車両検知装置
EP3435327A1 (en) Device for detecting road surface state
EP3428876A1 (en) Image processing device, apparatus control system, imaging device, image processing method, and program
WO2014054124A1 (ja) 路面標示検出装置及び路面標示検出方法
JP2010071942A (ja) 物体検出装置
JP2007278869A (ja) 測距装置、車両の周辺監視装置、測距方法、および測距用プログラム
JPH1055446A (ja) 物体認識装置
KR20160063039A (ko) 3차원 데이터를 이용한 도로 인식 방법
JPH10312463A (ja) 物体認識方法およびその装置
US11420855B2 (en) Object detection device, vehicle, and object detection process
JP2005345159A (ja) 画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070524

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223