JP2005024463A - Stereo wide visual field image processing apparatus - Google Patents

Stereo wide visual field image processing apparatus Download PDF

Info

Publication number
JP2005024463A
JP2005024463A JP2003192336A JP2003192336A JP2005024463A JP 2005024463 A JP2005024463 A JP 2005024463A JP 2003192336 A JP2003192336 A JP 2003192336A JP 2003192336 A JP2003192336 A JP 2003192336A JP 2005024463 A JP2005024463 A JP 2005024463A
Authority
JP
Japan
Prior art keywords
stereo
camera
image
wide
intruder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003192336A
Other languages
Japanese (ja)
Inventor
Norifumi Shibayama
憲文 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2003192336A priority Critical patent/JP2005024463A/en
Publication of JP2005024463A publication Critical patent/JP2005024463A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a wide effective visual field by also utilizing a non-stereoscopic imaging area, while obtaining precise distance information from a stereoscopic imaging area. <P>SOLUTION: The optical axes of respective cameras 1a and 1b of a stereo camera 1 are arranged so as to be non-parallel on the same plane, the effective visual field is enlarged by the stereoscopic area RM and the non-stereoscopic area RS, a pivot 3 is provided to the central position of a stay 2, and the overall camera system is rotated by a driving motor 4 so that the wide area can be scanned. Accordingly, in the application to an intruding object monitoring apparatus, when the object intrudes into the visual field of either camera, the object can be detected. Thus, the detectable range can be enlarged, when compared with the apparatus using the stereo camera in which the optical axes are arranged parallel. Further, when compared with the monitoring apparatus in which a plurality of monocular cameras are merely provided together, the secure detection simultaneously using the stereo system can be performed so that the reliability can be improved by preventing incorrect detection. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、ステレオカメラを用いて正確な距離情報と広い実効視野とを得ることのできるステレオ広視野画像処理装置に関する。
【0002】
【従来の技術】
一般に、画像による三次元計測技術として、ステレオカメラで撮像した一対の画像間の対応位置を求め、この対応位置の視差からステレオカメラの取り付け位置や焦点距離等のカメラパラメータを用いて三角測量の原理により距離を求める、いわゆるステレオ法による画像処理の技術が知られている。このステレオ法による画像処理の技術は、建物や敷地内への侵入物を監視する監視装置、車両の前方に存在する他の車両や歩行者を検出する車両周辺監視装置等に適用することができ、ステレオ画像から物体の有無と物体の三次元情報を得ることができる。
【0003】
ステレオ画像を撮像するステレオカメラは、2台のカメラの互いの視野が重なるステレオ視の領域がある限り、原理的には、各カメラをどのような位置に配置しても良いが、取り扱い上の利便性から、一方のカメラを平行移動した位置に他方のカメラを配置し、互いの光軸が同一平面上で平行となる、いわゆる平行ステレオカメラが多く用いられている。平行ステレオカメラは、標準ステレオカメラと称される場合もある。
【0004】
上述の平行ステレオカメラに対し、各カメラの光軸が互いに交差する方向に配置したステレオカメラや、互いのカメラの光軸が開く方向に配置したステレオカメラを使用した画像処理の技術も知られており、前者は、特許文献1(特開平6−331349号公報)に開示され、後者は、特許文献2(特開2001−312018号公報)に開示されている。
【0005】
【特許文献1】
特開平6−331349号公報
【0006】
【特許文献2】
特開2001−312018号公報
【0007】
【発明が解決しようとする課題】
しかしながら、従来、ステレオカメラで撮像した画像を処理して物体を検出する装置では、正確な距離情報を得ることができるものの、カメラの全視野のうち、ステレオ視の領域のみが処理対象となるため、実効視野が狭いという問題がある。特許文献1や特許文献2に開示のステレオカメラでは、平行ステレオカメラより視野の拡大が図られているが、あくまでステレオ視の領域に限定される。
【0008】
すなわち、特許文献1に開示の技術は、ステレオ測距の機能のみに限定されるものであり、ステレオカメラの全視野のうち、非ステレオ視の領域については全く役に立っていない。また、特許文献2に開示の技術は、人間の視野を自然に近い形で再現するステレオ画像を得るものであり、人間が見る機能のみを考慮し、ステレオ測距の機能は考慮されていない。
【0009】
本発明は上記事情に鑑みてなされたもので、ステレオ視の撮像領域から正確な距離情報を取得しつつ、非ステレオ視の撮像領域も活用して広い実効視野を得ることのできるステレオ広視野画像処理装置を提供することを目的としている。
【0010】
【課題を解決するための手段】
上記目的を達成するため、本発明のステレオ広視野画像処理装置は、互いに重なる撮像視野を有する一組のカメラであって、一方のカメラの光軸と他方のカメラの光軸とを非平行に配置したステレオカメラと、上記ステレオカメラの各カメラの撮像画像で物体の存在を検出する非ステレオ処理手段と、上記ステレオカメラで撮像した一対の画像の互いの撮像視野が重なる領域で物体の存在と物体までの距離とを検出するステレオ処理手段とを備えたことを特徴とする。
【0011】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。図1〜図5は本発明の実施の第1形態に係わり、図1はステレオカメラの配置を示す説明図、図2は広視野画像処理装置のブロック構成図、図3は侵入物検出処理のフローチャート、図4は非ステレオ視による侵入物候補を示す説明図、図5はステレオ視による侵入物の確定を示す説明図である。
【0012】
図1において、符号1は、互いに同期のとれた2台のカメラ1a,1bからなるステレオカメラであり、同図においては、両カメラ1a,1bの設置面と直交する方向から見た配置を示す。ステレオカメラ1を構成する各カメラ1a,1bは、例えば撮像素子としてCCD(電荷結合素子)を用いたカメラであり、互いの撮像視野が重なる領域を有しながら互いの光軸(撮像面垂直軸)が同一平面上で非平行となる偏差をもつようにステー2に設置されている。尚、ここでの偏差とは、両カメラ1a,1bの光軸を平行に配置した場合に対する振れである。
【0013】
各カメラ1a,1bの光軸の偏差は、図1に示すように互いの光軸が開く方向、或いは互いの光軸が交差する方向に設定される。従って、各カメラの光軸を平行に配置するステレオカメラ(標準ステレオカメラ)に対し、両カメラ1a,1bの撮像視野が重なるステレオ視の領域RMと、各カメラ1a,1b毎の単眼の非ステレオ視の領域RSとにより実効視野を拡大することができ、本ステレオカメラ1を広視野画像用のステレオカメラとすることができる。
【0014】
更に、本形態においては、カメラ系の中心線上となるステー2の両カメラ1a,1bの取付け間隔の中心位置に、カメラ系全体を旋回させるための旋回軸3が設けられている。旋回軸3には、駆動モータ4が直接或いはギヤ等を介して連結され、各カメラ1a,1bの相対位置を保持しながらステレオカメラ1全体を回転させるカメラ回転機構を形成している。
【0015】
そして、駆動モータ4により、カメラ系全体を旋回軸3を中心として両光軸のなす平面に沿って旋回させることで、広域の走査を可能としている。但し、本形態においては、カメラ系の旋回は連続的なものではなく、予め設定された有限個の回転角度毎、例えば、カメラ系中心線で10°刻みの一定の角度刻み毎に旋回させる離散的なものである。
【0016】
尚、ステレオカメラ1全体を回転させず、各カメラ1a,1bそれぞれを回転させるようにしても良いが、その場合には、互いのカメラ位置と回転角度との関係を精密に管理する必要がある。
【0017】
ステレオカメラ1は、以下の説明では、カメラ1a,1bが左右水平に配置されているものとし、一方のカメラ1aをステレオマッチング処理における基準画像を撮像する右カメラ、他方のカメラ1bをステレオマッチング処理における参照画像を撮像する左カメラ、基準画像を右画像、参照画像を左画像と表現するが、両カメラ1a,1bを上下方向や斜め方向に配置しても良い。
【0018】
広視野画像用ステレオカメラとしてのステレオカメラ1で撮像した一対の画像は、図2に示す広視野画像処理装置20によって処理される。この広視野画像処理装置20は、各カメラ1a,1bの系統に対応して、各カメラ1a,1bからの画像信号を比例増幅するアンプ5a,5b、アンプ5a,5bで比例増幅したアナログ画像信号を所定の輝度階調(例えば256階調のグレースケール)のデジタル画像信号に変換するA/D変換器6a,6b、アンプ5a,5bの固有ゲインの補正等を行なう補正回路7a,7b、補正回路7a,7bを経た左右の画像間のステレオ視の領域RMで走査線方向に対応位置を探索する等のステレオマッチングを行い、対応位置の視差(画素ずれ量)を求めるステレオマッチング回路8、ステレオマッチング回路8で求めた視差を距離画像データとしてストアする距離画像メモリ9aと補正回路7aを経た右の元画像データをストアする右画像メモリ9bと補正回路7bを経た左の元画像データをストアする左画像メモリ9cとからなる画像メモリ9、画像メモリ9にストアされた距離画像データ及び左右の元画像データを用い、主として各種画像処理・画像認識を行うマイクロコンピュータ10、マイクロコンピュータ10から適宜出力される旋回軸3の角度指示値により駆動モータ4を駆動し、ステレオカメラ1全体を角度指示値に従った角度だけ旋回させる旋回制御回路11を備えて構成される。
【0019】
マイクロコンピュータ10は、ファームウエアとして画像認識処理部10aを備えている。この画像認識処理部10aは、本発明に係わる非ステレオ処理手段及びステレオ処理手段としての機能を含むものであり、非ステレオ視による広視野の情報とステレオ視による詳細な距離情報とを用い、各種の認識処理、例えば、建造物への侵入物監視における人物や物体の存在と位置の認識、車両の前方・側方監視における先行車両や歩行者の存在と位置の認識等の処理を行う。
【0020】
更に、画像認識処理部10aは、本発明に係わるカメラ回転制御手段としての機能も含み、認識処理の際、必要に応じて旋回制御回路11に旋回軸3の旋回角度を指示する角度指示値を出力し、駆動モータ4によりステレオカメラ1を旋回させて撮像方向を可変する。
【0021】
以下、ステレオカメラ1を用いた広視野画像処理装置20を、建物・敷地内への侵入物(侵入者)を監視する侵入物監視装置として適用する場合を例に取り、この侵入物監視装置による侵入物検出処理について、図3のフローチャートを用いて説明する。
【0022】
図3に示す侵入物検出処理は、撮像画像のフレーム毎の処理を示し、先ず、ステップS1において、右画像データ及び左画像データの両方に対し、単眼法による侵入物検知処理を行う。このステップS1における侵入物検知は、非ステレオ法による処理であるため、侵入物の検知精度が低く、地面に映った影や外光の反射等の虚像を検知する可能性がある。従って、ステップS1での侵入物検知処理では、画像中に侵入してきた物体である可能性が高い領域を、とりあえず侵入物の“候補”として抽出し、この侵入物候補の有無及び位置を検出する。
【0023】
このような侵入物候補を抽出する技術としては、既知の技術、例えば背景差分法による領域抽出の技術を採用することができる。背景差分法による領域抽出では、侵入物を含まない画像を背景画像として用いるが、本形態では、カメラ系全体の旋回に対応するため、前述の角度刻み毎に異なる背景画像を予めメモリ上に記憶しておく。
【0024】
そして、現在のカメラ系の旋回角度に対応する背景画像を選択して現フレームの画像と比較することで、侵入物候補を検出する。例えば、背景画像と現フレームの画像との画素毎の輝度を比較し、輝度の差の絶対値が所定の閾値以上である画素の集合を、侵入物の候補となる領域として抽出する。侵入物候補の位置は、領域の重心位置で代表する。
【0025】
次に、ステップS1からステップS2へ進み、左右画像の少なくとも一方の画像に侵入物候補が有るか否かを調べる。その結果、左右何れの画像にも侵入物候補が存在しない場合には、次の画像フレームまで待機し、次フレームで再度ステップS1の処理を行う。
【0026】
また、左右画像の少なくとも一方に侵入物候補がある場合には、ステップS2からステップS3へ進み、左右両画像に侵入物候補があるか否かを調べる。そして、左右画像の一方にのみ侵入物候補がある場合、すなわち、両カメラ1a,1bの視野が重ならない非ステレオ視の領域に侵入物候補が映っている場合には、ステップS3からステップS4へ進んでステレオカメラ1全体を旋回させる処理を行い、左右画像の両者に侵入物候補がある場合、ステップS3からステップS5へ進み、ステレオ法による侵入物の確定を行う。
【0027】
但し、同じフレームで、左画像の非ステレオ視の領域と右画像の非ステレオ視の領域とに、それぞれ別の侵入物候補が映っている場合には、ステレオカメラ1の設置位置や監視位置の優先度等から予め設定した方向の画像側にのみ侵入物候補があるものとして、ステップS3からステップS4へ進む。
【0028】
左右画像の一方にのみ侵入物候補がある場合、ステップS4では、侵入物候補の位置情報により、侵入物候補がステレオ視の領域に入るようステレオカメラ1全体を旋回させる角度指示値を算出し、この角度指示値を旋回制御回路11に出力して駆動モータ4を回転させ、ステレオカメラ1全体を旋回させる。すなわち、右画像に侵入物候補が映っていた場合にはステレオカメラ1全体を右回転させ、左画像に侵入物候補が映っていた場合にはステレオカメラ1全体を左回転させ、次フレームまで待機する。
【0029】
例えば、図4に示すように、ステップS1の処理で右画像の非ステレオ視の領域に、侵入物候補S’が検出されたとき、この侵入物候補S’は、地面に映った影や外光の反射等の虚像である可能性がある。従って、ステレオカメラ1全体を右回転させて侵入物候補S’の重心を通るラインLを左右画像のステレオ視の領域内に移動させ、図5に示すように、次フレームを撮影する。そして、右画像のステレオ視の領域に映った侵入物の像SRと、左画像のステレオ視の領域に映った侵入物の像SLとに対し、ステレオマッチングを行うことにより、侵入物候補S’が真に侵入物を捉えたものか否かを確認する。
【0030】
左右画像の両者に侵入物候補が映り、侵入物候補がステレオ視の領域に入った場合、ステップS5では、ステレオ法を用いて再度侵入物の検知処理を行い、侵入物を正確に確定する。このステレオ法による侵入物の検知処理としては、例えば、本出願人による特願2002−255417号に記載の背景視差を用いたマッチングの技術を用いることができる。
【0031】
この背景視差によるマッチングでは、予め侵入物を含まない左右画像に対してステレオマッチングを行い、基準画像(右画像)上の各位置における視差(背景視差)を求めて背景距離画像として記憶しておく。そして、現在の左右の元画像に対し、背景距離画像の背景視差分だけずらし、左右画像の一致度を計算する。但し、本形態では、カメラ系全体の旋回に対応するため、前述した角度刻み毎に異なる背景距離画像を予め記憶している。
【0032】
画像中に侵入物が存在しない場合には、右画像上の或る点と背景視差分だけずらした左画像上の点とは、実空間上の同じ位置を映していることから、左右画像の一致度を計算した結果、一致度が高ければ、背景に元から存在する物体を検出した(侵入物は存在しない)と判断することができ、一致度が低ければ、侵入物が存在すると判断することができる。
【0033】
その後、ステップS6へ進み、ステップS5での処理結果から侵入物の有無を判定する。そして、侵入物候補がノイズ等の影響による誤検出であり、侵入物無しと判定された場合には、次フレームまで待機し、新たなフレームに対してステップS1からの処理を再開する。また、侵入物有りと判定された場合には、音や光等による警報を出力し、ブザーを鳴らす、赤色回転燈を点灯させる等して侵入物の存在を警告する。
【0034】
本実施の形態では、各カメラ1a,1bの光軸を偏差をもたせて配置したステレオカメラ1を用い、このステレオカメラ1の非ステレオ視の視野領域とステレオ視の視野領域とを観測領域とすることから、侵入物監視装置に適用する場合、何れか一方のカメラの視野内に物体が侵入すれば、その侵入物を検知することができ、光軸を平行に配置した標準ステレオカメラを用いた装置に比較し、検知可能範囲を拡大することができる。
【0035】
また、単に、単眼式のカメラを複数台併設した監視装置に比較し、ステレオ法を併用した確実な検知を行うことができるので、地面に映った影や反射光等の虚像による誤検出を防止することができ、信頼性を向上することができる。
【0036】
次に、本発明の実施の第2形態について説明する。図6〜図8は本発明の実施の第2形態に係わり、図6はステレオカメラの配置を示す説明図、図7は監視装置のブロック構成図、図8は前方・側方監視処理のフローチャートである。
【0037】
第2形態は、車両に搭載する前方・側方監視装置への適用例を示すものであり、車両のような移動体で要求される処理速度や監視領域からの逸脱防止等を考慮してステレオカメラ1を旋回させず、カメラ系中心軸を車両の進行方向正面に向けて固定する。
【0038】
すなわち、図6に示すように、ステレオカメラ1を旋回させるための旋回軸3及び駆動モータ4を廃止して車両にステレオカメラ1を固定し、また、ステレオカメラ1を固定することに対応して、図7に示すように、本形態の前方・側方監視装置20Aでは、第1形態で説明した広視野画像処理装置20から旋回制御回路11を省略する。
【0039】
この前方・側方監視装置20Aによる自車両の前方・側方監視処理は、図8にのフローチャートに示される。
【0040】
図8のフローチャートは、撮像画像のフレーム毎の処理を示し、先ず、ステップS11で、左右画像のそれぞれについて、単眼法による歩行者の検知処理を行う。この単眼法による歩行者検知では、車両外界の風景が種々変化することから、第1形態で説明した背景差分法を適用することは困難であり、例えば、フレーム間の動きベクトルであるオプティカルフローを用いて歩行者を検知する。
【0041】
このオプティカルフローによる歩行者の検知処理では、画像内の物体を一塊の動いている領域として捕らえ、この領域の動きベクトルの大きさと方向とに基づいて、特定の方向の物体を検出する。すなわち、画像間のオプティカルフローを調べることにより、画像内で自車両の走行路中心から外側に向かう領域は、道路脇の電柱や立木等の物体であると認識することができ、画像内で自車両の走行路中心に向かう領域は、歩行者であると認識することができる。
【0042】
以上のステップS11での歩行者の検知処理が済むと、次にステップS12へ進み、自車両に衝突する可能性のある歩行者の有無を調べる。そして、自車両に衝突する可能性のある歩行者が検出された場合には、例えば、運転席付近に設置したブザーを鳴らす等して警報を出力し、運転者に衝突回避の操作を促す。
【0043】
尚、第1形態と同様、ステレオカメラ1に旋回軸3を設け、設定速度以下の極低速時にのみ、旋回制御回路11を介して駆動モータ4を駆動し、ステレオカメラ1を旋回させるようにしても良く、単眼法による歩行者の検知に、ステレオ測距による自車両と歩行者との間の距離情報を加えることで、より正確に歩行者を検出することが可能となる。その場合、設定速度を越えたときには、ステレオカメラ1のカメラ系中心軸を車両の進行方向正面に戻し、駆動モータ4による旋回を禁止する。
【0044】
一方、自車両に衝突する可能性のある歩行者が検出されない場合には、ステップS12からステップS13へ進み、右カメラ1a及び左カメラ1bの視野が重なるステレオ視領域での前方監視に移行する。この前方監視では、左右の両画像のステレオマッチングを行い、光軸の偏差を考慮して自車両の前方にいる先行車両と自車両との間の車間距離を測距する。
【0045】
ステップS13に続くステップS14では、ステレオ測距した車間距離と予め設定した閾値とを比較し、自車両に異常接近する先行車両の有無を判断する。そして、車間距離が閾値より大きく、先行車両と衝突或いは接触の虞がない場合には、次フレームまで待機し、車間距離が閾値以下で近すぎる先行車両が有り、衝突或いは接触の可能性がある場合には、同様にブザーを鳴らす等して警報を出力し、運転者に回避動作を促す。
【0046】
この場合、自車両と先行車両との車間距離に加えて、自車両と先行車両との間の相対速度を算出し、車間距離と相対速度とに基づいて、衝突或いは接触の可能性を判断するようにしても良い。
【0047】
第2形態では、車両搭載の監視装置への適用に際し、従来のようにステレオ測距の機能のみを使用する装置に比較して、非ステレオ視とステレオ視との双方で車両周辺を監視するため、実効視野を拡大することができ、歩行者や選考車両との接触・衝突を回避する上での予防安全性を高めることができる。
【0048】
【発明の効果】
以上説明したように本発明によれば、ステレオ視の撮像領域から正確な距離情報を取得しつつ、非ステレオ視の撮像領域も活用して広い実効視野を得ることができ、広範囲の物体を正確に検出することが可能となる。
【図面の簡単な説明】
【図1】本発明の実施の第1形態に係わり、ステレオカメラの配置を示す説明図
【図2】同上、広視野画像処理装置のブロック構成図
【図3】同上、侵入物検出処理のフローチャート
【図4】同上、非ステレオ視による侵入物候補を示す説明図
【図5】同上、ステレオ視による侵入物の確定を示す説明図
【図6】本発明の実施の第2形態に係わり、ステレオカメラの配置を示す説明図
【図7】同上、前方・側方監視装置のブロック構成図
【図8】同上、前方・側方監視処理のフローチャート
【符号の説明】
1 ステレオカメラ
2 ステー
3 旋回軸
4 駆動モータ
8 ステレオマッチング回路
10 マイクロコンピュータ
10a 画像認識処理部
11 旋回制御回路
20 広視野画像処理装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a stereo wide-field image processing apparatus capable of obtaining accurate distance information and a wide effective visual field using a stereo camera.
[0002]
[Prior art]
Generally, as a three-dimensional measurement technique using images, the corresponding position between a pair of images captured by a stereo camera is obtained, and the principle of triangulation using the camera parameters such as the stereo camera mounting position and focal length from the parallax of the corresponding position There is known a technique of image processing by a so-called stereo method for obtaining a distance by the above method. This stereo image processing technology can be applied to monitoring devices that monitor intrusions into buildings and sites, vehicle surroundings monitoring devices that detect other vehicles and pedestrians in front of the vehicle, and the like. The presence / absence of an object and the three-dimensional information of the object can be obtained from the stereo image.
[0003]
As long as there is a stereo viewing area where the fields of view of the two cameras overlap each other, in principle, each camera may be placed at any position. For convenience, a so-called parallel stereo camera is often used in which the other camera is arranged at a position where one camera is translated and the optical axes of the other cameras are parallel to each other on the same plane. A parallel stereo camera may be referred to as a standard stereo camera.
[0004]
In addition to the parallel stereo cameras described above, there are also known image processing techniques using a stereo camera arranged in a direction in which the optical axes of the cameras cross each other and a stereo camera arranged in a direction in which the optical axes of the respective cameras open. The former is disclosed in Patent Document 1 (JP-A-6-331349), and the latter is disclosed in Patent Document 2 (JP-A 2001-312018).
[0005]
[Patent Document 1]
JP-A-6-331349 [0006]
[Patent Document 2]
[Patent Document 1] Japanese Patent Laid-Open No. 2001-312018
[Problems to be solved by the invention]
However, conventionally, an apparatus that detects an object by processing an image captured by a stereo camera can obtain accurate distance information, but only a stereo vision region is processed from the entire field of view of the camera. There is a problem that the effective visual field is narrow. In the stereo cameras disclosed in Patent Document 1 and Patent Document 2, the field of view is enlarged as compared with the parallel stereo camera, but is limited to the area of stereo vision.
[0008]
That is, the technique disclosed in Patent Document 1 is limited to the function of stereo distance measurement, and is not useful at all for the non-stereoscopic region in the entire visual field of the stereo camera. Further, the technique disclosed in Patent Document 2 obtains a stereo image that reproduces the human visual field in a form that is close to natural, and considers only the function that humans see, and does not consider the function of stereo ranging.
[0009]
The present invention has been made in view of the above circumstances, and a stereo wide-field image capable of obtaining a wide effective visual field by using a non-stereoscopic imaging region while obtaining accurate distance information from the stereoscopic imaging region. An object is to provide a processing apparatus.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, a stereo wide-field image processing device according to the present invention is a set of cameras having imaging fields of view that overlap each other, and the optical axis of one camera and the optical axis of the other camera are non-parallel. A stereo camera arranged, non-stereo processing means for detecting the presence of an object from images captured by each of the stereo cameras, and the presence of an object in a region where the imaging fields of a pair of images captured by the stereo camera overlap each other. Stereo processing means for detecting the distance to the object is provided.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. 1 to 5 relate to a first embodiment of the present invention, FIG. 1 is an explanatory diagram showing the arrangement of a stereo camera, FIG. 2 is a block diagram of a wide-field image processing apparatus, and FIG. 3 is an intruder detection process. FIG. 4 is an explanatory diagram showing intruder candidates in non-stereo view, and FIG. 5 is an explanatory diagram showing confirmation of an intruder in stereo view.
[0012]
In FIG. 1, reference numeral 1 denotes a stereo camera composed of two cameras 1a and 1b synchronized with each other. In FIG. 1, an arrangement viewed from a direction perpendicular to the installation surface of both cameras 1a and 1b is shown. . Each camera 1a, 1b constituting the stereo camera 1 is a camera using, for example, a CCD (Charge Coupled Device) as an imaging device, and has an optical axis (imaging surface vertical axis) while having a region where the imaging fields of view overlap each other. ) Are installed on the stay 2 so as to have a non-parallel deviation on the same plane. Here, the deviation is a shake with respect to the case where the optical axes of both cameras 1a and 1b are arranged in parallel.
[0013]
The deviation of the optical axes of the cameras 1a and 1b is set in the direction in which the optical axes open as shown in FIG. 1 or in the direction in which the optical axes cross each other. Therefore, with respect to a stereo camera (standard stereo camera) in which the optical axes of the cameras are arranged in parallel, a stereo vision region RM where the imaging fields of view of both cameras 1a and 1b overlap, and a monocular non-stereo for each of the cameras 1a and 1b. The effective visual field can be enlarged by the viewing area RS, and the stereo camera 1 can be a stereo camera for wide-field images.
[0014]
Furthermore, in this embodiment, a turning shaft 3 for turning the entire camera system is provided at the center position of the mounting interval between both cameras 1a and 1b of the stay 2 on the center line of the camera system. A drive motor 4 is connected to the turning shaft 3 directly or via a gear or the like, and a camera rotation mechanism is formed that rotates the entire stereo camera 1 while maintaining the relative positions of the cameras 1a and 1b.
[0015]
Then, the entire motor system is swiveled along a plane formed by both optical axes around the swivel axis 3 by the drive motor 4 to enable wide-area scanning. However, in this embodiment, the turning of the camera system is not continuous, but is discrete at a predetermined finite number of rotation angles, for example, every 10 degrees in steps of a camera system center line. Is something.
[0016]
Note that each of the cameras 1a and 1b may be rotated without rotating the entire stereo camera 1, but in this case, it is necessary to precisely manage the relationship between the camera position and the rotation angle. .
[0017]
In the following description, it is assumed that the cameras 1a and 1b are horizontally arranged in the stereo camera 1. One camera 1a is a right camera that captures a reference image in stereo matching processing, and the other camera 1b is stereo matching processing. The left camera that captures the reference image in FIG. 1, the base image is represented as the right image, and the reference image is represented as the left image.
[0018]
A pair of images captured by the stereo camera 1 as the wide-field image stereo camera is processed by the wide-field image processing device 20 shown in FIG. The wide-field image processing device 20 corresponds to the system of each camera 1a, 1b, and the analog image signal is proportionally amplified by the amplifiers 5a, 5b and the amplifiers 5a, 5b for proportionally amplifying the image signals from the cameras 1a, 1b. A / D converters 6a and 6b that convert the signal into a digital image signal of a predetermined luminance gradation (for example, a gray scale of 256 gradations), correction circuits 7a and 7b that perform correction of intrinsic gains of the amplifiers 5a and 5b, etc. Stereo matching circuit 8 for obtaining the parallax (pixel shift amount) of the corresponding position by performing stereo matching such as searching for the corresponding position in the scanning line direction in the stereo viewing region RM between the left and right images that have passed through the circuits 7a and 7b, stereo A distance image memory 9a for storing the parallax obtained by the matching circuit 8 as distance image data and a right image for storing the original image data on the right after passing through the correction circuit 7a An image memory 9 comprising a memory 9b and a left image memory 9c for storing left original image data that has passed through the correction circuit 7b, distance image data stored in the image memory 9, and left and right original image data are mainly used for various image processing. A microcomputer 10 that performs image recognition, and a turning control circuit that drives the drive motor 4 by the angle instruction value of the turning shaft 3 that is appropriately output from the microcomputer 10 and turns the entire stereo camera 1 by an angle according to the angle instruction value. 11 is configured.
[0019]
The microcomputer 10 includes an image recognition processing unit 10a as firmware. This image recognition processing unit 10a includes functions as a non-stereo processing means and a stereo processing means according to the present invention, and uses a wide field of view information by non-stereo view and detailed distance information by stereo view. Recognition processing such as recognition of the presence and position of a person or object in intrusion monitoring into a building, recognition of the presence and position of a preceding vehicle or pedestrian in front / side monitoring of the vehicle, and the like.
[0020]
Further, the image recognition processing unit 10a also includes a function as a camera rotation control unit according to the present invention, and an angle instruction value for instructing the turning control circuit 11 about the turning angle of the turning shaft 3 when necessary in the recognition processing. Then, the stereo camera 1 is turned by the drive motor 4 to change the imaging direction.
[0021]
Hereinafter, the case where the wide-field image processing device 20 using the stereo camera 1 is applied as an intruder monitoring device for monitoring an intruder (intruder) into a building / site is taken as an example. The intruder detection process will be described with reference to the flowchart of FIG.
[0022]
The intruder detection process shown in FIG. 3 shows a process for each frame of the captured image. First, in step S1, an intruder detection process by a monocular method is performed on both the right image data and the left image data. Since the intruder detection in this step S1 is a process by a non-stereo method, the detection accuracy of the intruder is low, and there is a possibility of detecting a virtual image such as a shadow reflected on the ground or reflection of external light. Accordingly, in the intruder detection process in step S1, an area that is highly likely to be an intruding object in the image is extracted as a “candidate” for the intruder for the time being, and the presence / absence and position of the intruder candidate are detected. .
[0023]
As a technique for extracting such an intruder candidate, a known technique, for example, an area extraction technique using a background subtraction method can be employed. In the region extraction by the background subtraction method, an image that does not contain an intruder is used as a background image. In this embodiment, in order to cope with the turning of the entire camera system, a different background image is stored in advance in the memory for each angle increment described above. Keep it.
[0024]
Then, an intruder candidate is detected by selecting a background image corresponding to the current turning angle of the camera system and comparing it with the image of the current frame. For example, the luminance of each pixel of the background image and the image of the current frame is compared, and a set of pixels whose absolute value of the luminance difference is equal to or greater than a predetermined threshold is extracted as an intruder candidate region. The position of the intruder candidate is represented by the center of gravity of the region.
[0025]
Next, the process proceeds from step S1 to step S2, and it is checked whether or not there is an intruder candidate in at least one of the left and right images. As a result, if no intruder candidate exists in either of the left and right images, the process waits until the next image frame and performs the process of step S1 again on the next frame.
[0026]
If there is an intruder candidate in at least one of the left and right images, the process proceeds from step S2 to step S3 to check whether there are intruder candidates in both the left and right images. If there is an intruder candidate in only one of the left and right images, that is, if the intruder candidate appears in a non-stereoscopic region where the fields of view of both cameras 1a and 1b do not overlap, the process proceeds from step S3 to step S4. The process of turning the entire stereo camera 1 is performed, and if there are intruder candidates in both the left and right images, the process proceeds from step S3 to step S5, and the intruder is determined by the stereo method.
[0027]
However, in the same frame, if different intruder candidates appear in the non-stereoscopic area of the left image and the nonstereoscopic area of the right image, the installation position and monitoring position of the stereo camera 1 are displayed. The process advances from step S3 to step S4 assuming that there is an intruder candidate only on the image side in the direction set in advance based on the priority.
[0028]
When there is an intruder candidate in only one of the left and right images, in step S4, an angle instruction value for turning the entire stereo camera 1 so that the intruder candidate enters the stereo viewing area is calculated based on the position information of the intruder candidate. This angle instruction value is output to the turning control circuit 11 to rotate the drive motor 4 to turn the entire stereo camera 1. That is, when the intruder candidate appears in the right image, the entire stereo camera 1 is rotated to the right, and when the intruder candidate appears in the left image, the entire stereo camera 1 is rotated to the left and waits for the next frame. To do.
[0029]
For example, as shown in FIG. 4, when the intruder candidate S ′ is detected in the non-stereoscopic region of the right image in the process of step S1, this intruder candidate S ′ It may be a virtual image such as light reflection. Accordingly, the entire stereo camera 1 is rotated to the right to move the line L passing through the center of gravity of the intruder candidate S ′ into the stereo viewing region of the left and right images, and the next frame is photographed as shown in FIG. The intruder candidate S ′ is obtained by performing stereo matching on the intruder image SR reflected in the stereo view area of the right image and the intruder image SL reflected in the stereo view area of the left image. To see if it really captures the intruder.
[0030]
When the intruder candidate appears in both the left and right images and the intruder candidate enters the stereo vision region, in step S5, the intruder detection process is performed again using the stereo method, and the intruder is accurately determined. As the intruder detection process using the stereo method, for example, a matching technique using background parallax described in Japanese Patent Application No. 2002-255417 by the present applicant can be used.
[0031]
In this matching by background parallax, stereo matching is performed in advance on left and right images that do not contain an intruder, and parallax (background parallax) at each position on the reference image (right image) is obtained and stored as a background distance image. . Then, the left and right original images are shifted by the background parallax of the background distance image, and the degree of coincidence of the left and right images is calculated. However, in this embodiment, in order to cope with the turning of the entire camera system, a different background distance image is stored in advance for each angle increment described above.
[0032]
When there is no intruder in the image, a point on the right image and a point on the left image shifted by the amount of background parallax show the same position in real space. As a result of calculating the degree of coincidence, if the degree of coincidence is high, it can be determined that an object that originally exists in the background has been detected (no intruder exists), and if the degree of coincidence is low, it is determined that an intruder exists. be able to.
[0033]
Then, it progresses to step S6 and the presence or absence of an intruder is determined from the processing result in step S5. If the intruder candidate is a false detection due to the influence of noise or the like and it is determined that there is no intruder, the process waits for the next frame and restarts the processing from step S1 for the new frame. If it is determined that there is an intruder, a warning by sound or light is output to warn of the presence of the intruder by sounding a buzzer or turning on a red rotating rod.
[0034]
In the present embodiment, the stereo camera 1 in which the optical axes of the cameras 1a and 1b are arranged with a deviation is used, and the non-stereo visual field area and the stereo visual field area of the stereo camera 1 are used as observation areas. Therefore, when applied to an intruder monitoring device, if an object enters the field of view of one of the cameras, the intruder can be detected, and a standard stereo camera with optical axes arranged in parallel was used. Compared with the device, the detectable range can be expanded.
[0035]
In addition, compared to a monitoring device with multiple monocular cameras, it can perform reliable detection using the stereo method, preventing false detection of shadows, reflected light, and other virtual images. And reliability can be improved.
[0036]
Next, a second embodiment of the present invention will be described. 6 to 8 relate to the second embodiment of the present invention, FIG. 6 is an explanatory diagram showing the arrangement of the stereo camera, FIG. 7 is a block diagram of the monitoring device, and FIG. 8 is a flowchart of the front / side monitoring process. It is.
[0037]
The second form shows an application example to a front / side monitoring device mounted on a vehicle, and takes into account the processing speed required for a moving body such as a vehicle and prevention of deviation from the monitoring area. The camera 1 is fixed so that the center axis of the camera system faces the front in the traveling direction of the vehicle without turning the camera 1.
[0038]
That is, as shown in FIG. 6, the turning shaft 3 and the drive motor 4 for turning the stereo camera 1 are abolished and the stereo camera 1 is fixed to the vehicle, and the stereo camera 1 is fixed. As shown in FIG. 7, in the front / side monitoring apparatus 20A of the present embodiment, the turning control circuit 11 is omitted from the wide-field image processing apparatus 20 described in the first embodiment.
[0039]
The front / side monitoring process of the host vehicle by the front / side monitoring device 20A is shown in the flowchart of FIG.
[0040]
The flowchart in FIG. 8 shows processing for each frame of the captured image. First, in step S11, a pedestrian detection process by a monocular method is performed for each of the left and right images. In pedestrian detection by this monocular method, it is difficult to apply the background subtraction method explained in the first embodiment because the scenery of the vehicle's outside world changes variously. For example, an optical flow that is a motion vector between frames is used. Use to detect pedestrians.
[0041]
In the pedestrian detection process using the optical flow, an object in an image is captured as a lump moving area, and an object in a specific direction is detected based on the magnitude and direction of a motion vector in this area. In other words, by examining the optical flow between the images, the region from the center of the traveling road of the vehicle toward the outside in the image can be recognized as an object such as a power pole or a tree standing beside the road, and The area toward the center of the vehicle traveling path can be recognized as a pedestrian.
[0042]
When the pedestrian detection process in step S11 is completed, the process proceeds to step S12 to check whether there is a pedestrian that may collide with the host vehicle. When a pedestrian that may collide with the host vehicle is detected, an alarm is output by, for example, sounding a buzzer installed near the driver's seat to prompt the driver to perform a collision avoidance operation.
[0043]
As in the first embodiment, the stereo camera 1 is provided with the turning shaft 3, and the drive motor 4 is driven via the turning control circuit 11 only at an extremely low speed equal to or lower than the set speed so that the stereo camera 1 is turned. In addition, it is possible to detect the pedestrian more accurately by adding the distance information between the own vehicle and the pedestrian by the stereo distance measurement to the detection of the pedestrian by the monocular method. In this case, when the set speed is exceeded, the center axis of the camera system of the stereo camera 1 is returned to the front in the traveling direction of the vehicle, and turning by the drive motor 4 is prohibited.
[0044]
On the other hand, if a pedestrian that may collide with the host vehicle is not detected, the process proceeds from step S12 to step S13, and the process proceeds to forward monitoring in the stereo viewing area where the fields of view of the right camera 1a and the left camera 1b overlap. In this forward monitoring, the left and right images are stereo-matched, and the distance between the preceding vehicle and the host vehicle in front of the host vehicle is measured in consideration of the deviation of the optical axis.
[0045]
In step S14 following step S13, the distance between the vehicles measured in stereo is compared with a preset threshold value to determine whether there is a preceding vehicle that abnormally approaches the host vehicle. If the inter-vehicle distance is larger than the threshold and there is no possibility of collision or contact with the preceding vehicle, there is a preceding vehicle that waits until the next frame and the inter-vehicle distance is too close below the threshold, and there is a possibility of collision or contact. In such a case, a buzzer is similarly sounded to output an alarm to prompt the driver to perform an avoidance operation.
[0046]
In this case, in addition to the inter-vehicle distance between the host vehicle and the preceding vehicle, the relative speed between the host vehicle and the preceding vehicle is calculated, and the possibility of a collision or contact is determined based on the inter-vehicle distance and the relative speed. You may do it.
[0047]
In the second embodiment, when applied to a monitoring device mounted on a vehicle, the vehicle periphery is monitored both in non-stereo view and in stereo view, compared to a conventional device using only the function of stereo ranging. The effective visual field can be expanded, and the preventive safety in avoiding contact / collision with pedestrians and selection vehicles can be enhanced.
[0048]
【The invention's effect】
As described above, according to the present invention, it is possible to obtain accurate distance information from the imaging area for stereo vision, and to obtain a wide effective field of view by utilizing the imaging area for non-stereo vision. Can be detected.
[Brief description of the drawings]
FIG. 1 is an explanatory diagram showing the arrangement of a stereo camera according to a first embodiment of the present invention. FIG. 2 is a block diagram of a wide-field image processing apparatus. FIG. 3 is a flowchart of intruder detection processing. FIG. 4 is an explanatory diagram showing an intruder candidate by non-stereo view. FIG. 5 is an explanatory diagram showing confirmation of an intruder by stereo view. FIG. 6 is related to the second embodiment of the present invention and is stereo. FIG. 7 is a block diagram of the front / side monitoring apparatus. FIG. 8 is a flowchart of the front / side monitoring process.
DESCRIPTION OF SYMBOLS 1 Stereo camera 2 Stay 3 Rotating shaft 4 Drive motor 8 Stereo matching circuit 10 Microcomputer 10a Image recognition process part 11 Rotation control circuit 20 Wide-field image processing apparatus

Claims (6)

互いに重なる撮像視野を有する一組のカメラであって、一方のカメラの光軸と他方のカメラの光軸とを非平行に配置したステレオカメラと、
上記ステレオカメラの各カメラの撮像画像で物体の存在を検出する非ステレオ処理手段と、
上記ステレオカメラで撮像した一対の画像の互いの撮像視野が重なる領域で物体の存在と物体までの距離とを検出するステレオ処理手段と、
を備えたことを特徴とするステレオ広視野画像処理装置。
A set of cameras having imaging fields of view that overlap each other, and a stereo camera in which the optical axis of one camera and the optical axis of the other camera are arranged non-parallel,
Non-stereo processing means for detecting the presence of an object in a captured image of each camera of the stereo camera;
Stereo processing means for detecting the presence of the object and the distance to the object in a region where the imaging fields of the pair of images captured by the stereo camera overlap;
A stereo wide-field image processing apparatus comprising:
上記ステレオカメラを回転させるカメラ回転機構と、
上記非ステレオ処理手段で検出した物体が上記ステレオ処理手段の処理対象範囲に映るよう、上記カメラ回転機構を制御するカメラ回転制御手段と、
を備えたことを特徴とする請求項1記載のステレオ広視野画像処理装置。
A camera rotation mechanism for rotating the stereo camera;
Camera rotation control means for controlling the camera rotation mechanism so that the object detected by the non-stereo processing means is reflected in the processing target range of the stereo processing means;
The stereo wide-field image processing apparatus according to claim 1, further comprising:
上記カメラ回転機構は、
各カメラの相対位置を保持しながら上記ステレオカメラ全体を回転させる機構であることを特徴とする請求項2記載のステレオ広視野画像処理装置。
The camera rotation mechanism is
3. The stereo wide-field image processing apparatus according to claim 2, wherein the stereo wide-field image processing apparatus is a mechanism that rotates the entire stereo camera while maintaining a relative position of each camera.
上記非ステレオ処理手段は、
移動物体が存在しない状態の背景画像と現在の画像とを比較して新たに出現した物体を検出することを特徴とする請求項1,2,3の何れかに記載のステレオ広視野画像処理装置。
The non-stereo processing means is:
4. A stereo wide-field image processing apparatus according to claim 1, wherein a new image is detected by comparing a background image in a state in which no moving object exists with a current image. .
上記カメラ回転制御手段は、
予め設定した有限個の回転角度の何れかを選択して上記カメラ回転機構を制御し、
上記非ステレオ処理手段は、
上記有限個の回転角度のそれぞれに対応して別個に記憶された上記背景画像の中から、現在のカメラ位置に対応する上記背景画像を選択して現在の画像と比較することを特徴とする請求項4記載のステレオ広視野画像処理装置。
The camera rotation control means includes:
Select one of a preset number of rotation angles to control the camera rotation mechanism,
The non-stereo processing means is:
The background image corresponding to the current camera position is selected from the background images stored separately corresponding to each of the finite number of rotation angles, and compared with the current image. Item 5. A stereo wide-field image processing device according to Item 4.
上記非ステレオ処理手段は、
撮像画像間のオプティカルフローに基づいて、特定の方向に移動する物体を検出することを特徴とする請求項1,2,3の何れかに記載のステレオ広視野画像処理装置。
The non-stereo processing means is:
The stereo wide-field image processing device according to claim 1, wherein an object moving in a specific direction is detected based on an optical flow between captured images.
JP2003192336A 2003-07-04 2003-07-04 Stereo wide visual field image processing apparatus Pending JP2005024463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003192336A JP2005024463A (en) 2003-07-04 2003-07-04 Stereo wide visual field image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003192336A JP2005024463A (en) 2003-07-04 2003-07-04 Stereo wide visual field image processing apparatus

Publications (1)

Publication Number Publication Date
JP2005024463A true JP2005024463A (en) 2005-01-27

Family

ID=34189664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003192336A Pending JP2005024463A (en) 2003-07-04 2003-07-04 Stereo wide visual field image processing apparatus

Country Status (1)

Country Link
JP (1) JP2005024463A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2007232593A (en) * 2006-03-01 2007-09-13 Toyota Motor Corp Object detection device
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008024216A (en) * 2006-07-24 2008-02-07 Eleven International:Kk Rear combination lamp with rear camera, and vehicle with rear camera
JP2009032140A (en) * 2007-07-30 2009-02-12 Shimadzu Corp Motion tracker apparatus
WO2012011227A1 (en) 2010-07-22 2012-01-26 パナソニック株式会社 Stereo distance measurement apparatus and stereo distance measurement method
JP2012079340A (en) * 2011-12-26 2012-04-19 Toshiba Corp Suspicious object detection system, suspicious object detection device, suspicious object detection method and program
JP2016513804A (en) * 2013-03-15 2016-05-16 ウーバー テクノロジーズ,インコーポレイテッド Method, system, and apparatus for multiple perceptual stereo vision for robots
CN106461387A (en) * 2014-05-28 2017-02-22 京瓷株式会社 Stereo camera device and vehicle provided with stereo camera device
JP2017067636A (en) * 2015-09-30 2017-04-06 キヤノン株式会社 Imaging apparatus
WO2017090410A1 (en) * 2015-11-25 2017-06-01 日立オートモティブシステムズ株式会社 Stereo camera device
KR101767930B1 (en) * 2013-01-02 2017-08-30 한화테크윈 주식회사 Method and system for correcting image position
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
WO2019030995A1 (en) 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 Stereo image processing device
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10479376B2 (en) 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
JP2021064951A (en) * 2020-12-21 2021-04-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System, method, device, and non-temporary computer-readable medium
US11288824B2 (en) 2016-07-12 2022-03-29 SZ DJI Technology Co., Ltd. Processing images to obtain environmental information

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2007232593A (en) * 2006-03-01 2007-09-13 Toyota Motor Corp Object detection device
JP2007263657A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2007263669A (en) * 2006-03-28 2007-10-11 Denso It Laboratory Inc Three-dimensional coordinates acquisition system
JP2008024216A (en) * 2006-07-24 2008-02-07 Eleven International:Kk Rear combination lamp with rear camera, and vehicle with rear camera
JP2009032140A (en) * 2007-07-30 2009-02-12 Shimadzu Corp Motion tracker apparatus
WO2012011227A1 (en) 2010-07-22 2012-01-26 パナソニック株式会社 Stereo distance measurement apparatus and stereo distance measurement method
US8995753B2 (en) 2010-07-22 2015-03-31 Panasonic Corporation Stereo distance measurement apparatus and stereo distance measurement method
JP2012079340A (en) * 2011-12-26 2012-04-19 Toshiba Corp Suspicious object detection system, suspicious object detection device, suspicious object detection method and program
KR101767930B1 (en) * 2013-01-02 2017-08-30 한화테크윈 주식회사 Method and system for correcting image position
JP2016513804A (en) * 2013-03-15 2016-05-16 ウーバー テクノロジーズ,インコーポレイテッド Method, system, and apparatus for multiple perceptual stereo vision for robots
US10412368B2 (en) 2013-03-15 2019-09-10 Uber Technologies, Inc. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
KR101803164B1 (en) * 2013-03-15 2017-12-28 우버 테크놀로지스, 인크. Methods, systems, and apparatus for multi-sensory stereo vision for robotics
EP3150961A4 (en) * 2014-05-28 2018-04-18 Kyocera Corporation Stereo camera device and vehicle provided with stereo camera device
US10180318B2 (en) 2014-05-28 2019-01-15 Kyocera Corporation Stereo camera apparatus, vehicle provided with stereo camera apparatus, and non-transitory recording medium
CN106461387A (en) * 2014-05-28 2017-02-22 京瓷株式会社 Stereo camera device and vehicle provided with stereo camera device
JP2017067636A (en) * 2015-09-30 2017-04-06 キヤノン株式会社 Imaging apparatus
JP2017096777A (en) * 2015-11-25 2017-06-01 日立オートモティブシステムズ株式会社 Stereo camera system
WO2017090410A1 (en) * 2015-11-25 2017-06-01 日立オートモティブシステムズ株式会社 Stereo camera device
CN108351207B (en) * 2015-11-25 2020-08-14 日立汽车系统株式会社 Three-dimensional camera device
US10501059B2 (en) 2015-11-25 2019-12-10 Hitachi Automotive Systems, Ltd. Stereo camera device
CN108351207A (en) * 2015-11-25 2018-07-31 日立汽车系统株式会社 Stereoscopic camera device
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10677925B2 (en) 2015-12-15 2020-06-09 Uatc, Llc Adjustable beam pattern for lidar sensor
US11740355B2 (en) 2015-12-15 2023-08-29 Uatc, Llc Adjustable beam pattern for LIDAR sensor
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
US11604475B2 (en) 2016-03-03 2023-03-14 Uatc, Llc Planar-beam, light detection and ranging system
US10942524B2 (en) 2016-03-03 2021-03-09 Uatc, Llc Planar-beam, light detection and ranging system
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
US10718856B2 (en) 2016-05-27 2020-07-21 Uatc, Llc Vehicle sensor calibration system
US11009594B2 (en) 2016-05-27 2021-05-18 Uatc, Llc Vehicle sensor calibration system
US11288824B2 (en) 2016-07-12 2022-03-29 SZ DJI Technology Co., Ltd. Processing images to obtain environmental information
US10479376B2 (en) 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
WO2019030995A1 (en) 2017-08-07 2019-02-14 日立オートモティブシステムズ株式会社 Stereo image processing device
US10992920B2 (en) 2017-08-07 2021-04-27 Hitachi Automotive Systems, Ltd. Stereo image processing device
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
US11747448B2 (en) 2018-01-31 2023-09-05 Uatc, Llc Sensor assembly for vehicles
JP2021064951A (en) * 2020-12-21 2021-04-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System, method, device, and non-temporary computer-readable medium

Similar Documents

Publication Publication Date Title
JP2005024463A (en) Stereo wide visual field image processing apparatus
JP5096836B2 (en) Method and system for imaging the surroundings of a vehicle
JP4337929B2 (en) Moving state estimation device
US6172601B1 (en) Three-dimensional scope system with a single camera for vehicles
JPH04331311A (en) Detecting apparatus of inter-vehicle distance
JP2008248613A (en) Work machine periphery monitoring device
JP2008227646A (en) Obstacle detector
JP2001213254A (en) Side monitoring device for vehicle
KR20170120010A (en) Image acquiring device and methid of the same
JP2004203068A (en) Mobile body periphery monitor device
JP2004120661A (en) Moving object periphery monitoring apparatus
JP2008026998A (en) Obstacle location calculation system and method
JP2000293693A (en) Obstacle detecting method and device
JP2008174028A (en) Target detection system and method
JPH1144533A (en) Preceding vehicle detector
JP2004349926A (en) Obstacle detection apparatus and method, and program for obstacle detection
JP2006160193A (en) Vehicular drive supporting device
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP4857159B2 (en) Vehicle driving support device
JP2008286648A (en) Distance measuring device, distance measuring system, and distance measuring method
KR101893368B1 (en) Method and system for measuring three dimensional visibility combined with traffic monitoring
JP2005157765A (en) Pedestrian detector
JP4176558B2 (en) Vehicle periphery display device
KR20160068409A (en) Around view monitoring system and method for vehicle
KR100844640B1 (en) Method for object recognizing and distance measuring