JP2017054481A - 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム - Google Patents

視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム Download PDF

Info

Publication number
JP2017054481A
JP2017054481A JP2016088603A JP2016088603A JP2017054481A JP 2017054481 A JP2017054481 A JP 2017054481A JP 2016088603 A JP2016088603 A JP 2016088603A JP 2016088603 A JP2016088603 A JP 2016088603A JP 2017054481 A JP2017054481 A JP 2017054481A
Authority
JP
Japan
Prior art keywords
parallax
effective
unit
value
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016088603A
Other languages
English (en)
Other versions
JP6805534B2 (ja
Inventor
高橋 禎郎
Sadao Takahashi
禎郎 高橋
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to KR1020177037261A priority Critical patent/KR102038570B1/ko
Priority to PCT/JP2016/003129 priority patent/WO2017002367A1/en
Priority to EP16817477.9A priority patent/EP3317850B1/en
Priority to CN201680037648.3A priority patent/CN107735812B/zh
Publication of JP2017054481A publication Critical patent/JP2017054481A/ja
Priority to US15/854,461 priority patent/US10520309B2/en
Application granted granted Critical
Publication of JP6805534B2 publication Critical patent/JP6805534B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】物体の認識に適した視差画像を生成する。
【解決手段】有効画素決定部が、撮像画像の各画素の特徴量に基づいて、有効画素を決定する。そして、有効化部が、撮像画像に対応する視差画像における、有効画素に相当する有効視差の近傍の有効視差でない視差を有効化する。これにより、物体の認識に適した視差画像を生成することができる。
【選択図】図17

Description

本発明は、視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システムに関する。
今日において、ミリ波レーダ、レーザレーダ、又は、ステレオカメラによる測距等により、人又は自動車等の物体を高速に検出する技術が知られている。例えば、ステレオカメラによる測距で、人又は先行車両等の物体の三次元的な位置及び大きさを検出する場合、物体の視差を補間した後、路面の位置を検出し、その路面に接している物体を検出する。このような物体の検出出力は、自動ブレーキ制御又は自動ハンドル制御等に用いられる。
ステレオカメラで人及び先行車両等の物体の三次元的な位置及び大きさを正確に検出するには、水平方向の視差を検出する必要がある。視差の検出方式としては、ブロックマッチング方式及びサブピクセル補間方式が知られている。
特許文献1(特開平11−351862号公報)には、自車線内の前走車の検出と距離を求めることを目的として、路面と同じ高さの物体を除去した後の視差画像中に、左右に同じ視差を有する画素があるとき、左右画素間の画素に視差値を代入して補間視差画+像を作成する技術が開示されている。
従来のブロックマッチング方式は、垂直に近いエッジ又はテクスチャがある部分の視差を高い精度で検出することができる。しかし、従来のブロックマッチング方式は、水平に近いエッジでは、視差の検出が困難となっていた。または、従来のブロックマッチング方式は、仮に視差の検出が行えた場合でも、多くのノイズが含まれる問題があった。
先行車両等の立体物は、箱状のオブジェクトであり、左右端の垂直線及び左右端の垂直線を繋ぐ水平線の集合とみなすことができる。このオブジェクトの視差は、両端の垂直線の部分以外は、視差の検出が困難となる。これは、縦のエッジが存在する部分に、有効な視差が存在することを意味している。
この場合、各垂直線が、一つの物体として認識されず、並走している2つのオブジェクトとして誤認識される。視差を補間して一つの物体として認識可能とする技術も提案されている。しかし、この技術の場合、自動車と並走している他の自動車、近辺の標識、及び、その他の立体物の間で視差が補間されることで、正しい物体認識が困難となる問題がある。
また、特許文献1に開示されている技術の場合、自動車とその他の立体物との視差を同じ値で補間することで、異なる大きさのオブジェクトとして認識する問題がある。また、特許文献1に開示されている技術の場合、視差は必ず誤差を含むため、同じ視差値同士を補間することでは補間できず、やはり、物体の認識が困難となる問題がある。
本発明は、上述の課題に鑑みてなされたものであり、物体の認識に適した視差画像を生成する視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システムの提供を目的とする。
上述した課題を解決し、目的を達成するために、本発明は、撮像画像の各画素の特徴量に基づいて、有効画素を決定する有効画素決定部と、撮像画像に対応する視差画像における、有効画素に相当する有効視差の近傍の有効視差でない視差を有効化する有効化部とを有する。
本発明によれば、物体の認識に適した視差画像を生成できるという効果を奏する。
図1は、第1の実施の形態の機器制御システムの概略構成を示す模式図である。 図2は、第1の実施の形態の機器制御システムに設けられている撮像ユニット及び解析ユニットの概略構成を示すブロック図である。 図3は、第1の実施の形態における解析ユニットの機能構成を示すブロック図である。 図4は、第1の実施の形態における視差演算部の要部の機能構成を示すブロック図である。 図5は、第1の実施の形態における視差演算部の処理を示すフローチャートである。 図6は、図5に示す視差演算部の処理の具体例を示す図である。 図7は、図5に示す処理における無効判断の結果が正しい場合について説明するための図である。 図8は、図5に示す処理における無効判断の結果に誤りがある場合について説明するための図である。 図9は、図5に示す処理における無効判断の誤りの発生を低減可能な閾値について説明するための図である。 図10は、図5に示す処理における無効判断の誤りの発生を低減可能な閾値について説明するための別の図である。 図11は、視差演算部が実行する最小値処理および例外処理について説明するための図である。 図12は、第1の実施の形態における視差演算部の演算結果の一例を示す図である。 図13は、第1の実施の形態における視差演算部の演算結果の他の例を示す図である。 図14は、マッチング処理結果のグラフの一例を示す図である。 図15は、マッチング処理結果のグラフの他の一例を示す図である。 図16は、有効視差判定部の詳細な機能ブロック図である。 図17は、有効視差判定部の、さらに詳細な機能ブロック図である。 図18は、有効視差ペア設定部における有効視差ペアの設定動作を説明するための模式図である。 図19は、第2の実施の形態の機器制御システムの有効視差判定部の機能ブロック図である。 図20は、有効視差ペアの探索範囲を説明するための模式図である。 図21は、第3の実施の形態の機器制御システムの有効視差判定部の機能ブロック図である。 図22は、第4の実施の形態の機器制御システムの要部の機能ブロック図である。 図23は、第4の実施の形態の機器制御システムの視差画像生成部における視差画像生成処理の流れを示すフローチャートである。 図24は、誤マッチングが発生している画素を、有効画素として誤判定する従来の判定手法を説明するための図である。 図25は、有効画素を正確に検出して出力する、第4の実施の形態の機器制御システムの視差画像生成部を説明するための図である。
以下、添付図面を参照して、実施の形態を詳細に説明する。
(第1の実施の形態)
図1は、第1の実施の形態の機器制御システムの概略構成を示す模式図である。この図1に示すように、機器制御システムは、機器の一例である自動車等の車両1に設けられる。機器制御システムは、撮像ユニット2、解析ユニット3、制御ユニット4及び表示部5を有している。
撮像ユニット2は、車両1のフロントガラス6のルームミラー付近に設けられ、車両1の例えば進行方向等の画像を撮像する。撮像ユニット2の撮像動作で得られる画像データを含む各種データは、解析ユニット3に供給される。解析ユニット3は、撮像ユニット2から供給される各種データに基づいて、車両1が走行中の路面、車両1の前方車両、歩行者、障害物等の認識対象物を解析する。制御ユニット4は、解析ユニット3の解析結果に基づいて、表示部5を介して、車両1の運転者へ警告等を行う。また、制御ユニット4は、解析結果に基づいて、各種車載機器の制御、車両1のハンドル制御又はブレーキ制御等の走行支援を行う。
図2は、撮像ユニット2及び解析ユニット3の概略的なブロック図である。この図2に示すように、撮像ユニット2は、例えば2つの撮像部10A、10Bを備えたステレオカメラ構成となっている。2つの撮像部10A、10Bは、それぞれ同じ構成を有している。具体的には、撮像部10A、10Bは、撮像レンズ11A、11Bと、受光素子が2次元配置された画像センサ12A、12Bと、各画像センサ12A、12Bを撮像駆動するコントローラ13A、13Bを有している。
解析ユニット3は、物体認識装置の一例であり、FPGA(Field-Programmable Gate Array)14、RAM(Random Access Memory)15、及び、ROM(Read Only Memory)16を有している。また、解析ユニット3は、シリアルインタフェース(シリアルIF)18、及び、データIF19を有している。FPGA14〜データIF19は、解析ユニット3のデータバスライン21を介して相互に接続されている。また、撮像ユニット2及び解析ユニット3は、データバスライン21及びシリアルバスライン20を介して相互に接続されている。
RAM15には、撮像ユニット2から供給される輝度画像データに基づいて生成された視差画像データ等が記憶される。ROM16には、オペレーションシステム及び視差画像生成プログラムを含む物体検出プログラム等の各種プログラムが記憶されている。
また、FPGA14は、物体検出プログラムに含まれる視差画像生成プログラムに従って動作する。後に詳しく説明するが、FPGA14は、各撮像部10A、10Bでそれぞれ撮像された撮像画像のうち、一方を基準画像とすると共に他方を比較画像とする。そして、FPGA14は、撮像領域内の同一地点に対応する基準画像上の対応画像部分と比較画像上の対応画像部分との位置ズレ量を、対応画像部分の視差値(視差画像データ)として算出する。
具体的には、FPGA14は、撮像ユニット2で撮像されたステレオ画像から視差を計算する際、エッジのある画素位置だけでなくその他の部分においても、ブロックマッチングによる多数の視差を先に計算する。その後、エッジのある画素の視差を有効化する。そして、有効化した有効化視差と、近辺に位置する有効化視差との差が所定以下の場合に、有効化した有効化視差と近辺に位置する有効化視差との間の視差を有効化する。なお、「有効化」とは、物体認識の処理に用いる情報として特定(又は抽出)することである。
これにより、第1の実施の形態の機器制御システムは、先行車両の視差情報を、車両エッジだけでなく、車両内部及びその他の空間においても適切に生成可能となっている。また、車両1を一つの物体として正しい大きさ及び距離で認識できると共に、その他の物体と結合して誤検出する不都合を防止可能となっている。
CPU17は、ROM16に記憶されているオペレーションシステムに基づいて動作し、各撮像部10A、10Bの全体的な撮像制御を行う。また、CPU17は、ROM16から物体検出プログラムをロードし、RAM15に書き込まれた視差画像データを用いて各種処理を実行する。具体的には、CPU17は、物体検出プログラムに基づいて、車両1に設けられた各センサから、データIF19を介して取得した、車速、加速度、操舵角、ヨーレート等のCAN(Controller Area Network)情報を参照し、路面、ガードレール、車両、人間等の認識対象物の認識処理、視差計算、認識対象物との間の距離の計算等を行う。
CPU17は、処理結果を、シリアルIF18又はデータIF19を介して、図1に示す制御ユニット4に供給する。制御ユニット4は、制御装置の一例であり、処理結果となるデータに基づいて、例えばブレーキ制御、車速制御、ハンドル制御等を行う。また、制御ユニット4は、処理結果となるデータに基づいて、表示部5に警告表示等を行う。これにより、車両1の運転者の運転支援を行うことができる。
以下、このような第1の実施の形態の機器制御システムにおける視差画像生成動作及び認識対象物の認識動作を具体的に説明する。
まず、ステレオカメラを構成する撮像ユニット2の各撮像部10A、10Bは、輝度画像データを生成する。具体的には、各撮像部10A、10Bがカラー仕様の場合、各撮像部10A、10Bは、「Y=0.3R+0.59G+0.11B」の演算を行う。これにより、RGB(赤緑青)の各信号から輝度(Y)信号を生成するカラー輝度変換処理を行う。
また、各撮像部10A、10Bは、カラー輝度変換処理により生成した輝度画像データを、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像に変換処理する。具体的には、各撮像部10A、10Bは、各画素の歪み量を、Δx=f(x、y)、Δy=g(x、y)という多項式を用いて計算した計算結果を用いて、輝度画像データの各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。これにより、撮像部10A、10Bの光学系の歪みを補正した平行な輝度画像を得ることができる。このような輝度画像(右撮像画像及び左撮像画像)は、解析ユニット3のFPGA14に供給される。
次に、図3に、第1の実施の形態の機器制御システムにおいて、FPGA14がROM16に記憶されている物体検出プログラムを実行することで実現される各機能の機能ブロック図である。この図3に示すように、FPGA14は、物体検出プログラムを実行することで、撮影画像補正部31、視差演算部32、視差画像生成部33及び認識処理部34を実現している。
撮影画像補正部31は、左撮影画像と右撮影画像に対して、ガンマ補正、ゆがみ補正(左右の撮影画像の平行化)などの補正を行う。視差演算部32は、撮影画像補正部31で補正された左右の撮影画像から視差値dを算出する。視差演算部32の詳細については後述する。視差画像生成部33は、視差演算部32で算出された視差値dを用いて、視差画像を生成する。視差画像とは、基準画像上の各画素について算出された視差値dに応じた画素値をそれぞれの画素の画素値として表したものである。認識処理部34は、視差画像生成部33で生成された視差画像を用いて、車両の前方の物体を認識し、認識結果としての認識データを生成する。
なお、撮像画像補正部31〜認識処理部34は、一部又は全部をIC(Integrated Circuit)等のハードウェアで実現してもよい。また、物体検出プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disk」の略記である。また、物体検出プログラムは、インターネット等のネットワーク経由でインストールする形態で提供してもよい。また、物体検出プログラムは、機器内のROM等に予め組み込んで提供してもよい。
(視差演算部の概要)
視差演算部32は、撮像部10Aの輝度画像データを基準画像データとし、撮像部10Bの輝度画像データを比較画像データとし、基準画像データと比較画像データの視差を示す視差画像データを生成する。具体的には、視差演算部32は、基準画像データの所定の「行」について、一つの注目視差(注目画素)を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ「行」において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へずらす。そして、視差演算部32は、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。
また、視差演算部32は、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得る。
マッチング処理に用いるブロックの特徴量としては、例えばブロック内の各画素の値(輝度値)を用いることができる。また、相関値としては、例えば基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが、最も相関があるブロックとして検出される。
〈視差演算部の構成〉
図4に、視差演算部32の要部の機能構成を示すブロック図を示す。図示のように、視差演算部32は、情報処理部440と、情報保持部450とを備えており、互いに通信可能に構成されている。
情報処理部440は、非類似度算出部441、傾き算出部442、極小値検出部443、閾値設定部444、フラグ制御部445、カウンタ制御部446、および有効性判断部447を備えている。また、情報保持部450は、非類似度レジスタ451、傾きレジスタ452、閾値レジスタ453、フラグレジスタ454、および極小値カウンタ455を備えている。有効性判断部447が、無効化部を含む動作を行う。
非類似度算出部441は、評価値算出部の一例であり、基準画像と比較画像との間の相関の評価値(マッチングの評価値)としての非類似度を、例えば参考文献(特開2013−45278号)等に記載があるZSSD(Zero-mean Sum of Squared Difference)などにより算出し、非類似度レジスタ451に書き込む。
なお、ZSSD(Zero-mean Sum of Squared Difference)の代わりに、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、又は、ZSAD(Zero-mean Sum of Absolute Difference)等の手法を用いてもよい。また、マッチング処理において、1画素未満のサブピクセルレベルの視差値が必要な場合は、推定値を用いる。推定値の推定手法としては、例えば等角直線方式又は二次曲線方式等を用いることができる。ただし、推定したサブピクセルレベルの視差値には誤差が発生する。このため、推定誤差を減少させるEEC(推定誤差補正)等の手法を用いてもよい。
次に、傾き算出部442は、基準画像に対して比較画像をシフトしていったときの隣り合うシフト位置における非類似度の差分値から、非類似度の傾きを算出し、傾きレジスタ452に書き込む。極小値検出部443は、極値検出部の一例であり、傾き算出部442で算出された傾きの値が負から正に変化することに基づいて、相関の評価値の極値としての非類似度の極小値を検出する。
閾値設定部444は、更新部の一例である。閾値設定部444は、フラグレジスタ454に保持されている値が“0”のとき(フラグが落ちているとき)、極小値検出部443で検出された極小値に基づいて、その極小値の上、下に極小値の範囲の設定値として上閾値Uth、下閾値Lthを生成し、閾値レジスタ453に書き込む。このとき、フラグ制御部445は、上閾値Uth、下閾値Lthが新たに更新されたことを示す値“1”をフラグレジスタ454に書き込む。また、カウント部の一例であるカウンタ制御部446は、極小値カウンタ455の値をカウントアップする。極小値カウンタ455の値は、閾値レジスタ453で保持されている閾値の範囲内の非類似度の極小値の個数を表す。
カウンタ制御部446は、フラグレジスタ454に保持されている値が“1”のとき(フラグが立っているとき)、極小値検出部443で検出された極小値が閾値レジスタ453で保持されている閾値の範囲内であった場合、極小値カウンタ455の値をカウントアップする。
また、カウンタ制御部446は、リセット部を含んでいる。カウンタ制御部446は、フラグレジスタ454に保持されている値が“1”のとき、傾き算出部442で算出された傾きが負のまま、非類似度算出部441で算出された非類似度が閾値レジスタ453で保持されている下閾値Lthを下回ったとき、極小値カウンタ455の値をリセットする。このとき、フラグ制御部445は、フラグレジスタ454に“0”を書き込み、フラグを落とす。
〈視差演算部の処理〉
図5は、図4に示す視差演算部32の処理を示すフローチャートであり、図6は、図5に示す処理の具体例を示す図である。図6の横軸は探索範囲、すなわち基準画像の画素位置に対する比較画像の画素位置のシフト量(偏差)であり、縦軸はマッチングの評価値としての非類似度である。これらの図を参照して視差演算部32の動作について説明する。
図5に示すフローチャートは、基準画像の1画素毎に実行される。また、基準画像の各画素に対する比較画像の探索範囲は1〜68画素である。このフローチャートのスタート時には、非類似度レジスタ451、傾きレジスタ452、閾値レジスタ453には、データが書き込まれていない。また、フラグレジスタ454には“0”が設定されており、極小値カウンタ455の初期値は“0”である。なお、このフローの説明ではフラグレジスタ454に保持されている値(フラグ)をCで表し、極小値カウンタ455のカウント値をcntで表す。
非類似度算出部441により非類似度を表すマッチングデータ:data(t)が入力されると(ステップS301)、tの数値を判定する(ステップS302)。最初はt=1であるから(ステップS302:t=1)、data(1)を非類似度レジスタ451に書き込んで保持させ(ステップS306)、tが最後の値か否か、すなわち探索範囲の最後か否かを判定する(ステップS307)。t=1は、探索範囲の最後の値ではないので(ステップS307:No)、tをインクリメントしてt=2とし(ステップS312)、ステップS301に移行する。
今回はステップS301→ステップS302→ステップS303の順に進み、傾き算出部442がdata(1)とdata(2)との間の傾きを計算する(ステップS303)。傾きは2つのデータの差分「data(2)−data(1)」により計算する。次にtの数値を判定する(ステップS304)。今回はt=2であるから(ステップS304:t=2)、傾きの符号を傾きレジスタ452に書き込んで保持させる(ステップS305)。
次にdata(2)を非類似度レジスタ451に書き込んで保持させ(ステップS306)、tが最後の値か否かを判定し(ステップS307)、判定の結果を基に(ステップS307:No)、tを3にインクリメントして(ステップS312)、ステップS301に移行する。
今回もステップS301→ステップS302→ステップS303までは前回(t=2のとき)と同じである。ただし、今回はt=3であるから、ステップS304→ステップS313へと進み、傾きが負から正に変化したか否かを判定する。この判定処理は極小値検出部443により実行される。
ここでは、「data(2)−data(1)」が負であり、かつ「data(3)−data(2)」が正の場合、傾きが負から正に変化したと判定される(ステップS313:Yes)。この場合、保持しているdata(t-1)、ここではdata(2)が極小値と判明する(ステップS317)。
ステップS317でdata(2)が極小値と判明した場合、新たに極小値が出てきたか否か、すなわちC=0であるか否かを判定する(ステップS318)。そして、C=0であった場合(ステップS318:Yes)、閾値設定部444は閾値レジスタ453で保持されている上閾値Uthと下閾値Lthを更新し、フラグ制御部445はC=1とし、フラグを立てる(ステップS320)。
図6におけるdata(1)からdata(3)までがここまでの処理に対応する。すなわち、ステップS317でdata(2)が極小値と判明し、ステップS320でその上下に上閾値Uth1と下閾値Lth1が更新(今回は最初の設定)されている。上閾値Uth、下閾値Lthは、それぞれ「data(2)+所定値」、「data(2)−所定値」とする。このとき、「所定値=2」とすることで回路構成を単純にすることが好適である。
ステップS320の後、カウンタ制御部446は極小値カウンタ455の値をカウントアップする(ステップS321)。ここでは、カウント値が“1”となる。このカウント値は、ステップS320で設定された閾値の範囲内(上閾値Uth1以下、下閾値Lth1以上)の極小値の個数を表している。
ステップS321の後、ステップS305→ステップS306→ステップS307と進み、傾きの符号(ここでは正)およびマッチングデータ(ここではdata(3))の保持を行い、tが最後か否かを判定し(ここでは最後ではないため、S307:No )、tを4にインクリメントして(ステップS312)、ステップS301に移行する。
t=4の今回(以後、探索範囲の最後のt=68まで同じ)もステップS301→ステップS302→ステップS303→ステップS304→ステップS313の順に進み、極小値を検出するために、傾きが負から正に変化したか否かを判定する(ステップS313)。傾きが負から正に変化した場合(ステップS313:Yes)については前回(t=3のとき)に説明したので、今回はそうでない場合(ステップS313:Noの場合)について説明する。
この場合、傾きが負のままであるか否かを判定する(ステップS314)。そして、負のままでないときは(ステップS314:No)、ステップS305→ステップS306→ステップS307へと進む。ステップS305→ステップS306→ステップS307およびその後のステップの内容はt=3のときと同様である。
図6の場合、t=4のとき、ステップS313:No→ステップS314:No→ステップS305→ステップS306→ステップS307→ステップS312へと進むので、傾きの符号(ここでは負)およびdata(4)の保持と、t=5へのインクリメントの後、ステップS301に移行する。
今回もステップS301→ステップS302→ステップS303→ステップS304→ステップS313の順に進み、傾きが負から正に変化したか否かを判定する(ステップS313)。ステップS313:Yesの場合、およびステップS313:No→ステップS314:Noの場合については、それぞれt=3、t=4のときに説明済みであるため、今回はステップS313:No→ステップS314:Yesの場合について説明する。
この場合は、以前に極小値が発生していて、かつdata(t)(ここではdata(5))が下閾値を下回ったか否かを判定する(ステップS315)。ステップS315:No、すなわち、以前に極小値が発生していないか、または発生していても、data(t)が下閾値を下回っていないときは、ステップS305に進む。
一方、ステップS315:Yes、すなわち、以前に極小値が発生していて、かつdata(t)が下閾値を下回ったときは、ステップS316に進む。ステップS316では、フラグ制御部445がC=0としてフラグを落とし、カウンタ制御部446が極小値カウンタ455を「0」にリセットする。
図6の場合、t=5のとき、傾きは負から負のままなので、ステップS313:No→ステップS314:Yes→ステップS315:Yes→ステップS316へと進み、さらにステップS305→ステップS306→ステップS307→ステップS312の順に進むことで、傾きの符号(ここでは負)およびマッチングデータ(ここではdata(5))の保持を行い、tが最後か否かを判定し(ここでは最後ではないため、ステップS307:No)、tを6にインクリメントして(ステップS312)、ステップS301に移行する。
今回もステップS301→ステップS302→ステップS303→ステップS304→ステップS313の順に進み、傾きが負から正に変化したか否かを判定する。図6の場合、t=6のときは、t=5のときと同様、傾きは負から負のままなので、ステップS313以降に経由するステップもt=5のときと同じである。
以後、t=7のときも、t=5のとき及びt=6のときと同様に、傾きは負から負のままなので、ステップS313以降に経由するステップもt=5のときと同じである。そして、t=8になると、t=3のときと同様、傾きが負から正に変化するため、ステップS317→ステップS318へと進む。t=5のとき、C=0としたため、ステップS318:Yesと判定され、ステップS320→ステップS321→ステップS305の順に進む。
このとき、ステップS320では、図6に示すように、上閾値Uth1、下閾値Lth1がそれぞれ上閾値Uth2、下閾値Lth2に更新される。ここで、上閾値Uth2、下閾値Lth2は、「data(7)+所定値」、「data(7)−所定値」である。また、ステップS321によりカントアップされたカウント値(=1)は、ステップS320で更新された更新後の閾値の範囲内(上閾値Uth2以下、下閾値Lth2以上)の極小値の個数を表している。
図6の場合、次のt=9では、傾きが正から負に変化するから、ステップS313:No→S314:No→S305の順に進む。また、次のt=10では、傾きが負から正に変化するため、ステップS317→S318へと進む。t=8のとき、C=1としたため、ステップS318:Noと判定され、ステップS319へ進む。
ステップS319では、ステップS317で判明した極小値であるdata(9)が下閾値(Lth2)と上閾値(Uth2)の範囲内であるか否かを判定する。そして、範囲内であった場合は(ステップS319:Yes)、カウントアップした後(ステップS321)、ステップS305に進み、範囲外であった場合は(ステップS319:No)、そのままステップS305に進む。
図6の場合、data(9)は下閾値(Lth2)と上閾値(Uth2)の範囲内であるから、カウントアップされ、極小値カウンタ455の値は“2”となる。このカウント値の“2”は、最新の閾値(ここでは上閾値Uth2、下閾値Lth2)の範囲内の極小値が2個あることを意味する。
以下、探索範囲の最後のt(ここでは68)になるまで、ステップS301→ステップS302→ステップS303→ステップS304→ステップS313の順に進む処理を繰り返し、最後のtになったら(ステップS307:Yes)、カウンタ制御部446は極小値カウンタ455のカウント値を出力する(ステップS308)。
次に、有効性判断部447が、カウント値が所定値(例えば2)以上か否かを判定し(ステップS309)、所定値以上の場合は(ステップS309:Yes)、無効と判断し(ステップS310)、この基準画像の画素の視差値を認識処理部34が使用しないようにするためのフラグを立てる(ステップS311)。
ここで、図14に、マッチング処理結果の一例のグラフを示す。この図14において、横軸は探索範囲、すなわち基準画像の画素位置に対する比較画像の画素位置のシフト量(偏差)であり、縦軸は相関の評価値である非類似度である。この図14では、○で囲んだ7番目の探索画素で非類似度が最小となっているので、7が最も確からしい視差値となる。なお、横軸の負の数値はサブピクセル視差を求めるための探索範囲のものである。
しかし、同じデザインの窓が並ぶビルディング、同じ形状及び模様が並ぶタイルの壁、フェンス、トラック車両の荷台又はトレーラ車両の荷台等のように、外観に繰り返しパターンを持つ物体の視差を算出する過程では、図15に示すようにマッチングがとれている箇所が2箇所以上(図15の例は6箇所)出現する場合があり、最も確からしい視差値が誤って出力されるおそれがある。
このような事実があると、例えば実際には、距離が離れた位置に存在する上述の繰り返しパターンを持つ物体が近くに位置することを示す、誤った視差値が出力される(誤マッチング)。具体的には、同じ形状及び模様が並ぶ繰り返しパターンのタイルの壁と自車両との間の距離が5mである場合、この5mの距離の視差値と2mの距離の視差値が混合して出力される。これにより、後段の物体認識処理において、1枚の壁が、自車両との間の距離が2mの壁及び自車両との間の距離が5mの壁の2枚の壁として認識される。そして、タイルの壁と自車両との間の距離が5mであるにもかかわらず、ブレーキを作動させる「誤踏み」を生ずる。
しかし、視差演算部32によれば、探索範囲の非類似度の算出が終了した後で、近い値を有する非類似度の個数や最も確からしい視差値を探すのではなく、非類似度の極小値の個数のカウントを視差探索と同時に行い、非類似度の極小値が所定の範囲外になったとき、その所定の範囲を更新し、更新された範囲内の非類似度の極小値の個数をカウントする。これにより、処理時間を増やすことなく、繰り返しパターンが現れた場合に物体認識処理に用いるか用いないか判断するまでの時間を短縮することができる。従って、この視差演算部32を有する第1の実施の形態の機器制御システムによれば、「誤踏み」を低減することができる。
なお、図5に示すフローチャートでは、tの小さい方から順に探索しているが、その反対に、大きい方から順に探索するように構成してもよい。また、図5に示すフローチャートでは、最初に極小値が検出されたとき、その極小値に応じて上閾値および下閾値を設定しているが、フローの開始時に任意の上閾値および下閾値を初期設定するように構成してもよい。また、図5に示すフローチャートでは、相関の評価値として、相関が高い程、値が小さくなる非類似度を用いたが、その反対に、相関が高い程、値が大きくなる類似度を用いるように構成してもよい。
〈上閾値および下閾値の詳細について〉
以上説明した図5および図6では、上閾値Uth1、下閾値Lth1を「data(2)+所定値」、「data(2)−所定値」とし、上閾値Uth2、下閾値Lth2を「data(7)+所定値」、「data(7)−所定値」、すなわち、上閾値Uth、下閾値Lthをそれぞれ「新たに出てきた極小値+所定値」、「新たに出てきた極小値−所定値」の計算式を用いて算出し、設定している。以下、この計算式により算出される上閾値、下閾値をそれぞれ第1の上閾値、第1の下閾値と言う。
次に、図5に示す処理における無効判断(ステップS310)の結果が正しい場合と、誤りがある場合について説明し、さらにその誤りの発生を低減可能な上閾値、下閾値である第2の上閾値、第2の下閾値について説明する。
(無効判断の結果が正しい場合)
図7は、図5に示す処理における無効判断の結果が正しい場合について説明するための図である。この図7および後述する図8乃至図13の横軸、縦軸は、図6と同様であり、それぞれ探索範囲、非類似度である。
この図7は、探索範囲内の画像がテクスチャの多い繰り返しパターンの場合のマッチング処理結果を表している。テクスチャが多いため、非類似度(例えばZSSD)の振幅が大きくなっている。この図7の場合、極小値であるdata(ta)に対して、Uth(第1の上閾値)、Lth(第1の下閾値)がそれぞれ「data(ta)+k(所定値)」、「data(ta)−k(所定値)」に設定され、閾値の範囲内の3個の極小値がカウントされる。そして、この正しいカウント値に基づいて、誤りのない判断結果(無効)が得られる。
(無効判断の結果に誤りがある場合)
図8は、図5に示す処理における無効判断の結果に誤りがある場合について説明するための図である。
この図8は、探索範囲内の画像が繰り返しパターンではなく、テクスチャが少ない場合のマッチング処理結果を表している。テクスチャが少ないため、非類似度の振幅が小さくなっている。この図8の場合、最小値=data(tc)が1箇所だけであるため、正しい視差値tcが得られるにもかかわらず、最小値ではない極小値であるdata(tb)の上下に設定されたUth(第1の上閾値)、Lth(第1の下閾値)の範囲内で5個の極小値がカウントされてしまう。そして、このカウント値に基づいて無効と判断されてしまう。
(第2の上閾値、第2の下閾値について)
図9および図10は、図5に示す処理における無効判断の誤りの発生を低減可能な第2の閾値について説明するための図の例である。ここで、図9、図10は、それぞれ探索範囲内の画像が図7、図8と同じ場合のマッチング処理結果を表している。
第2の上閾値、第2の下閾値は、新たに出てきた極小値に応じた値に設定される。すなわち、例えば図9の場合、極小値であるdata(ta)に対して、Uth(第2の上閾値)、Lth(第2の下閾値)がそれぞれ「data(ta)×Um」、「data(ta)×Lm」に設定される。ここで、Um、Lmは比率を表す係数である。UmとLmの値は、「Um>1>Lm」であり、かつ更新後の上閾値が更新前の下閾値より小さくなる値であれば、どのような値にしてもよい。この図9の場合、図7の場合と同様、閾値の範囲内の3個の極小値がカウントされる。
また、図10の場合、最小の極小値であるdata(tc)に対して、Uth(第2の上閾値)、Lth(第2の下閾値)がそれぞれ「data(tc)×Um」、「data(tc)×Lm」に設定される。この図10の場合、図8の場合とは異なり、極小値のカウント値は“1”となるため、正しい視差値tcが採用されることになる。
このように、上閾値、下閾値を新たに出てきた極小値に応じた値に設定することにより、探索範囲内の画像が繰り返しパターンではなく、テクスチャが少ない場合に、1箇所だけある最小の極小値だけをカウントする確率を高くすることができる。つまり、図5に示す繰り返しパターン検出アルゴリズムにおける第1の上閾値、第1の下閾値をそれぞれ第2の上閾値、第2の下閾値に変更することにより、正しい視差値が得られているにもかかわらず、無効と判断される事態の発生を低減することができる。
なお、図9および図10では、極小値に係数を掛けることで、極小値に応じた値の上閾値および下閾値を算出しているが、図7および図8におけるkを所定値に固定する代わりに、極小値に応じて変化させるように構成してもよい。
〈最小値処理および例外処理〉
図11は、視差演算部32が実行する最小値処理および例外処理について説明するための図である。
視差値算出の基本として、ZSSDなどの非類似度が最小値となる視差値を算出することが前提なので、図5に示す最小レベルの上下の閾値の範囲内の極小値の個数をカウントするアルゴリズムだけでなく、純粋な最小値とそれに対応する視差値も逐次処理して探しておくことが必要である。
また非類似度の最小値が、図11のAの図に示すように、探索範囲の最後にある場合、又は、図11のBの図に示すように、探索範囲の最初にある場合に対処するため、純粋な最小値も逐次的に処理しておき、最終的に更新された下閾値Lthよりも最小値の方が小さい場合には、その最小値を与える視差を出力する。その場合には、68個の非類似度のデータに対して、図5に示すアルゴリズムが終了した後、例外処理として、強制的に無効判定する。
すなわち、例えば図11のAの図の場合は、図11に示すアルゴリズムが終了すると、最小値であるdata(68)に基づいて、ステップS316で極小値カウンタ455が0にリセットされるが、強制的に無効判定する。なお、サブピクセル視差を求める場合は、図11のAの図の横軸の探索範囲tが−2〜65となり、右端のdata(65)が最小値となる。
また、例えば図11のBの図の場合、図5に示すアルゴリズムが終了すると、極小値カウンタ455のカウント値は“3”となるが、Lthより小さいdata(1)が存在するため、最終的に強制的に無効判定する。なお、サブピクセル視差を求める場合は、図11のBの図の横軸の探索範囲tが−2〜65となり、左端のdata(−2)が最小値となる。
この最小値処理および例外処理をまとめると、下記(i)〜(iii)のようになる。
(i)探索範囲の端の非類似度が最小値となった場合、その最小値が検出された視差値(探索範囲tの値)が、負の場合、極小値カウンタ455のカウント値がいくつであっても強制的に無効とする。
(ii)探索範囲の端の非類似度が、最終的に決まった閾値の範囲内に含まれている場合には、極小値カウンタ455をカウントアップする。例えば、左端だけが最終的に決まった閾値の範囲内に含まれている場合には、出力されたカウント値を1アップする。例えば、右端だけが最終的に決まった閾値の範囲内に含まれている場合には、出力されたカウント値を1アップする。例えば、左端と右端が両方とも最終的に決まった閾値の範囲内に含まれている場合には、出力されたカウント値を2アップする。
(iii)単調増加、単調減少の場合には、極小値が検出されず、カウント値は0になるが、強制的に無効とする。
〈視差演算部の演算結果〉
図12は、視差演算部32の演算結果の第1の例を示す図であり、図13は、その第2の例を示す図である。これらの図において、横軸は探索範囲であり、縦軸の非類似度は7画素×7画素のブロックを用いて算出したZSSDである。なお、探索範囲の負の部分は、サブピクセル視差を求めるためのものである。
図12は、ビルの窓を撮像した画像の視差値を算出したものである。上閾値、下閾値は最終的に更新(ここでは探索範囲の8画素目の極小値に応じて設定)された値である。この閾値の範囲内の極小値の個数は4であり、有効性判断部447により無効と判断された。
図13は、タイル壁を撮像した画像の視差値を算出したものである。上閾値、下閾値は最終的に更新(ここでは探索範囲の23画素目の極小値に応じて設定)された値である。この閾値の範囲内の極小値の個数は2であり、有効性判断部447により無効と判断された。
なお、ZSSD等による探索範囲の非類似度の最小値を検出する場合、例えば最初の非類似度、2番目の非類似度及び3番目の非類似度のうち、最小の非類似度を検出し、この最小の非類似度と、4番目以降の非類似度を比較する。そして、所定の閾値内となる非類似度の最小値を検出するように、1画素毎に検出処理を行って非類似度の最小値を検出する手法でもよい。この場合、FPGA14に掛かる非類似度の演算処理の負荷を軽減できる。
または、例えば64個等の探索範囲の非類似度を一旦メモリに記憶した後、最小値を示す非類似度を検出し、非類似度の最小値に基づいて決定した閾値内に含まれる非類似度の個数を検出して、非類似度の最小値を検出してもよい。
(視差画像生成部の動作)
次に、視差画像生成部33の動作を説明する。視差画像生成部33は、図16に示すように、エッジ有効化部103、ペア位置算出部104、ペア内視差有効化部105を有している。エッジ有効化部103は、有効画素決定部の一例であり、上述の視差演算部32で算出された視差値d(視差画像)と共に、撮像画像補正部31により生成された輝度画像が供給される。エッジ有効化部103は、輝度画像及び視差画像が入力されると、輝度画像におけるエッジ成分が所定の成分量以上の画素をエッジ画素と判定し、画素位置の視差値を有効化する。輝度画像におけるエッジ成分の成分量は、特徴量の一例である。また、エッジ画素が有効画素であり、視差画像上のエッジ画素に相当する視差が有効視差である。
ペア位置算出部104は、算出部の一例であり、視差画像の同一ライン上の隣接する二つの有効視差を、有効視差ペアとし、その視差の実空間での奥行き方向の距離差及び横方向の間隔(位置関係)を算出する。そして、有効視差ペアの視差値に応じて、距離差が所定の閾値範囲内であるか否か、及び、横方向の間隔が別の所定の閾値の範囲内であるか否かを判定する。
ペア内視差有効化部105は、有効化部の一例であり、ペア位置算出部104で判定された距離差及び横方向の間隔の両方が閾値の範囲内である際に、有効視差ペア内視差(有効視差ペア間の視差)を有効化する。なお、有効化するペア内視差は、有効視差ペアの2つの視差値の近傍となる。
図17に、視差画像生成部33の、さらに詳細な機能ブロック図を示す。この図17において、有効視差判定部102は、上述のようにエッジ有効化部103、ペア位置算出部104及びペア内視差有効化部105を有している。
エッジ有効化部103は、エッジ量算出部106及び比較器107を有している。ペア位置算出部104は、有効視差ペア設定部108、ペア間隔算出部109、比較器110、ペア奥行差分算出部111、比較器112及びパラメータメモリ113を有している。ペア内視差有効化部105は、有効化判定部114及び有効視差決定部115を有している。有効視差ペア設定部108は、ペア設定部の一例である。ペア間隔算出部109及びペア奥行差分算出部111は、算出部の一例である。また、有効視差決定部115は、有効化部の一例である。
エッジ有効化部103のエッジ量算出部106には、入力画像中の所定の処理対象範囲内の輝度画像が入力される。エッジ量算出部106は、この輝度画像からエッジ量を算出する。エッジ量の算出手法としては、例えばSobelフィルタ又は二次微分フィルタを用いることができる。ハードウェアの削減及びブロックマッチング処理の特徴を考慮すると、注目画素の同一ラインの両側画素の差分を用いてもよい。
エッジ有効化部103の比較器107は、エッジ量算出部106で算出されたエッジ量の絶対値と、予め定められたエッジ量閾値とを比較し、この比較出力を有効視差フラグとして、ペア位置算出部104の有効視差ペア設定部108に供給される。例えば、算出されたエッジ量の絶対値が、エッジ量閾値よりも大きい場合は、ハイレベルの比較出力が有効視差ペア設定部108に供給される(有効視差フラグが立つ)。また、算出されたエッジ量の絶対値が、エッジ量閾値よりも小さい場合は、ローレベルの比較出力が有効視差ペア設定部108に供給される(有効視差フラグが降りる)。
ペア位置算出部104の有効視差ペア設定部108には、上述の所定範囲内の視差画像及び有効視差フラグが供給される。一例ではあるが、有効視差ペア設定部108は、図18に示すように、有効視差フラグが立っている同一ライン上において、隣接せず、かつ、最も近くに存在する画素位置の2つの視差を有効視差ペアと設定する。図18の例の場合、第1の有効視差ペア、第2の有効視差ペア及び第3の有効視差ペアが設定された例を示している。
次に、このように設定された有効視差ペアの各ペア視差値を用いて、ペアの横方向の間隔及びペアの奥行き方向の差分を算出する。ペア間隔算出部109は、有効視差ペアの左側画素の視差値と、視差画像上のペアの間隔(画素単位)から、実空間におけるペアの横方向の間隔を算出する。また、ペア間隔算出部109は、有効視差ペアの二つの視差からそれぞれ奥行きを計算し、その差分の絶対値を算出する。
比較器110は、ペア間隔算出部109で算出されたペアの横方向の間隔と、ペア間隔閾値とを比較する。ペア間隔閾値は、検出する物体の実際の幅を参考にして予め定められている。例えば、人間だけを検出する場合、ペア間隔閾値は、人が占有する幅に設定される。また、例えば日本の場合、大型車の幅は最大2500mmに規定されている。このため、車両を検出する場合は、このような法規で定められた車両の最大幅に、ペア間隔閾値が設定される。比較器110は、このようなペア間隔閾値と、ペア間隔算出部109で算出されたペアの横方向の間隔とを比較し、ペア内視差有効化部105の有効化判定部114に比較出力を供給する。
ペア奥行差分算出部111は、上述の有効視差ペアの奥行差分を算出する。比較器112には、ペア視差値を用いてパラメータメモリ113から読み出された奥行差分閾値が供給されている。パラメータメモリ113から読み出される奥行差分閾値は、有効視差ペアの左側の画素の視差値から計算される距離に応じて決定される。距離に応じて奥行差分閾値を決定する理由は、撮像ユニット2のステレオ画像から得られる視差は、検出する物体までの距離が大きければ視差の分解能が低下し、検出距離の分散が大きくなるからである。従って、有効視差値又はそれから計算された距離に応じて、その距離の10%、15%、20%等の奥行差分閾値がパラメータメモリ113に格納されている。比較器112は、この奥行差分閾値と、有効視差ペアの奥行差分とを比較し、ペア内視差有効化部105の有効化判定部114に比較出力を供給する。
次に、ペア内視差有効化部105の有効化判定部114は、ペア内領域有効化判定を行う。すなわち、有効化判定部114は、各比較器110、112から供給される各比較出力が、ペアの横方向間隔がペア間隔閾値以下で、かつ、ペア奥行差分が奥行差分閾値以下であることを示す場合に、ペア内領域を有効と判定する。有効とされたペア内領域に存在する視差(ペア内視差)は、有効視差決定部115に供給される。
有効視差決定部115は、供給されたペア内視差が、ペア視差の視差値に応じて決定される視差値範囲内の値であれば、供給されたペア内視差を有効視差と決定し、有効視差として出力する。ペア視差の視差値範囲は、ペア視差の2つの値をD1、D2(D1>D2)とした場合において、αを定数とした「D2−α、D1+α」の範囲を意味する。この定数αは、撮像ユニット2(ステレオカメラ)から得られる被写体の視差の分散値に基づいて決定する。
認識処理部34は、このように視差画像生成部33で生成された視差画像を用いて、例えば車両の前方の物体、人間、ガードレール等を認識し、認識結果となる認識データを出力する。
(第1の実施の形態の効果)
以上の説明から明らかなように、第1の実施の形態の機器制御システムは、撮像ユニット2で撮像されたステレオ画像から視差を計算するときに、エッジのある画素位置だけでなく、その他の部分においてもブロックマッチングによる視差を計算し、多数の視差を先に計算する。その後に、エッジのある画素の視差のみを有効化し、有効化した有効化視差と、近辺に位置する近辺有効化視差の差が所定以下の際に、有効化視差と近辺有効化視差との間に存在する、同様の値を有する視差を有効化する。
これにより、立体物の境界だけでなく、立体物の中及びその他の空間において、適切な視差を生成できる。すなわち、先行車両の視差情報を、車両エッジだけでなく、車両内部及びその他の空間においても適切に生成できる。このため、物体の認識に適した視差画像を生成することができ、車両を一つの物体として正しい大きさ及び距離で精度良く認識可能とすることができる。また、先行車両が他の物体と結合することで誤検出となる不都合も防止できる。
また、外観に繰り返しパターンを持つ物体の視差を算出する過程では、マッチングがとれている箇所が2箇所以上(図15参照)出現する場合があり、最も確からしい視差値が誤って出力されるおそれがある。このような事実があると、例えば実際には、距離が離れた位置に存在する上述の繰り返しパターンを持つ物体が近くに位置することを示す、誤った視差値が出力される(誤マッチング)。これにより、後段の認識処理部34において、1枚の壁が、自車両との間の距離が2mの壁及び自車両との間の距離が5mの壁の2枚の壁として認識される。そして、壁と自車両との間の距離が5mであるにもかかわらず、ブレーキを作動させる「誤踏み」を生ずる。
しかし、第1の実施の形態の機器制御システムは、視差演算部32により、探索範囲の非類似度の算出が終了した後で、近い値を有する非類似度の個数や最も確からしい視差値を探すのではなく、非類似度の極小値の個数のカウントを視差探索と同時に行い、非類似度の極小値が所定の範囲外になったとき、その所定の範囲を更新し、更新された範囲内の非類似度の極小値の個数をカウントする。これにより、処理時間を増やすことなく、繰り返しパターンが現れた場合に認識処理部34の物体認識処理に用いるか用いないかを判断するまでに要する時間を短縮化することができる。また、誤った視差値が出力される不都合を防止して、上述の「誤踏み」を低減することができる。
(第2の実施の形態)
次に、第2の実施の形態の機器制御システムを説明する。第2の実施の形態の機器制御システムは、視差画像生成部33が、図19に示す各機能を有している。なお、上述の第1の実施の形態と以下に説明する第2の実施の形態とでは、視差画像生成部33の動作のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。また、図19において、上述の図17と同じ動作を示す箇所には、同じ符号を付し、その詳細な説明は省略する。
すなわち、第2の実施の形態の機器制御システムの場合、視差画像生成部33のペア位置算出部104が、有効視差設定部120、ペア視差探索範囲設定部121、ペア視差設定部122、ペア奥行差分算出部123、及び、パラメータメモリ113を有している。また、ペア内視差有効化部105が、比較器124及び有効視差決定部115を有している。ペア視差探索範囲設定部121は、探索範囲設定部の一例である。また、ペア奥行差分算出部123は、差分検出部の一例である。
ペア位置算出部104の有効視差設定部120は、所定の処理対象範囲内の視差画像が入力されると、エッジ有効化部103からの比較出力である有効視差フラグが立っている画素(有効画素)を選択する。ペア視差探索範囲設定部121は、選択された有効画素の視差値(有効視差)及びペア間隔最大値に基づいて、選択画素と同一ライン上で有効視差の画素の右側の方向に、有効視差とペアとなるペア視差を探索する範囲を計算して設定する。ペア間隔最大値は、ペア間隔情報の一例であり、検出する物体の実際の幅を示す上述のペア間隔閾値と同義である。図20は、ペア視差探索範囲設定部121のペア視差探索動作を模式的に示す図である。この図20において、黒塗りの画素が有効視差の画素SGを示している。また、画素P1〜画素P4は、有効視差の画素SGの視差値に応じて設定される探索範囲内のペア視差の画素を示している。ペア視差探索範囲設定部121は、ペア間隔最大値及び選択画素の視差値に基づいて、視差画像上でペア視差を探索するための最大幅(右方向)を計算する。
次に、ペア視差設定部122は、ペア視差探索範囲内において、有効視差に最も近い視差を検出してペア視差とする。ペア視差探索範囲内にペア視差が存在しない場合、ペア視差設定部122におけるペア視差設定処理以降の処理は実行されず、次に設定された有効視差に基づいてペア視差探索範囲の設定及びペア視差の設定が行われる。
ペア視差設定部122により設定されたペア視差は、有効視差と対でペア奥行差分算出部123に入力される。ペア奥行差分算出部123は、図17に示すペア奥行差分算出部111と同様に、入力された有効視差及びペア視差から距離の差分の絶対値を計算する。
ペア内視差有効化部105の比較器124は、有効視差に基づいてパラメータメモリ113から読み出された奥行差分閾値と、ペア奥行差分算出部123で算出された奥行差分とを比較する。有効視差決定部115は、奥行差分が奥行差分閾値以下であることを示す比較出力が、比較器124から供給された場合、有効視差とペア視差の間の視差であるペア内視差を有効視差として決定して出力する。また、有効視差決定部115は、有効視差とペア視差の2つの視差値範囲内の値であることを示す比較出力が、比較器124から供給された場合、有効視差とペア視差の2つの視差値範囲内の視差を有効視差として決定し出力する。
有効視差とペア視差の2つの視差値範囲は、2つの視差値をD1,D2(D1>D2)とした場合に、αを定数とした「D2−α、D1+α」の範囲を意味する。このαは、撮像ユニット2から得られる所定の被写体の視差の分散値に基づいて決定することができる。
このような第2の実施の形態の機器制御システムは、視差ノイズを増やすことなく視差点数を制御できる他、上述の第1の実施の形態と同じ効果を得ることができる。
(第3の実施の形態)
次に、第3の実施の形態の機器制御システムを説明する。第3の実施の形態の機器制御システムは、視差画像生成部33が、図21に示す各機能を有している。なお、上述の第1の実施の形態と以下に説明する第3の実施の形態とでは、視差画像生成部33の動作のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。また、図21において、上述の図17と同じ動作を示す箇所には、同じ符号を付し、その詳細な説明は省略する。
すなわち、第3の実施の形態の機器制御システムの場合、エッジ有効化部103が、エッジ量算出部106、比較器131及び比較器132を有する。そして、比較器131からの第1の有効視差フラグが、ペア位置算出部104の有効視差ペア設定部108に供給され、比較器132からの第2の有効視差フラグが、ペア内視差有効化部105の有効視差決定部115に供給される構成となっている。第1の有効視差フラグは、第1の有効視差情報の一例である。第2の有効視差フラグは、第2の有効視差情報の一例である。
すなわち、第3の実施の形態の機器制御システムの場合、エッジ画素の視差値の有効化を、例えば2つの閾値(3つ以上の閾値でもよい)等の複数の閾値で行うようになっている。具体的には、第1のエッジ量閾値は、第2のエッジ量閾値より大きい値となっている。第1のエッジ量閾値は、比較器131に供給され、第2のエッジ量閾値は、比較器132に供給される。比較器131は、エッジ量算出部106で算出されたエッジ量の絶対値と、第1のエッジ量閾値とを比較し、有効視差ペアを作る画素を有効化するための第1の有効視差フラグを、ペア位置算出部104の有効視差ペア設定部108に供給する。また、比較器132は、エッジ量算出部106で算出されたエッジ量の絶対値と、第2のエッジ量閾値とを比較し、ペア内視差の画素を最終的に有効化するための第2の有効視差フラグを、有効視差決定部115に供給する。
これにより、ペア内視差で有効となる視差の数を制御でき、後段の物体検出処理に最適な視差画像を生成できる他、上述の各実施の形態と同様の効果を得ることができる。なお、エッジ有効化部103における複数の閾値を用いたエッジ画素の有効化処理は、第2の実施の形態に適用してもよい。また、有効視差設定部120及びペア視差探索範囲設定部121は、視差画像の同一ライン内で処理を行うこととした。しかし、この他、例えば視差画像の同一ライン及び視差画像の同一ラインの上下のラインの計3ラインの範囲内で有効視差ペアの設定を行ってもよい。
(第4の実施の形態)
次に、第4の実施の形態の機器制御システムの説明をする。第4の実施の形態の機器制御システムは、図14及び図15を用いて説明した誤マッチングの視差値の数を減らして、有効な視差値を多く含む視差画像で物体認識処理を行うことで、一つの物体を一つの物体として正確に認識可能とする。これにより、正確な支援動作を可能とする。
図22は、第4の実施の形態の機器制御システムに設けられている視差画像生成部33の機能ブロック図である。この図22に示すように、視差画像生成部33は、マッチングコスト計算部501、エッジ検出部502、繰り返しパターン検出部503、全面視差画像生成部504、及び、生成部505を有している。
このような視差画像生成部33は、ROM16に記憶されている上述の物体検出プログラムをFPGA14が実行することで実現される。なお、この例では、マッチングコスト計算部501〜生成部505は、ソフトウェアで実現することとした。しかし、マッチングコスト計算部501〜生成部505のうち、一部又は全部を、集積回路(IC)等のハードウェアで実現してもよい。
また、物体検出プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。DVDは、「Digital Versatile Disk」の略記である。また、物体検出プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、物体検出プログラムは、機器内のROM等に予め組み込んで提供してもよい。
図23のフローチャートに、視差画像生成部33における視差画像生成処理の流れを示す。まず、ステップS201では、マッチングコスト計算部501が、撮像ユニット2で撮像された基準画像及び比較画像のうち、同一のスキャンライン上に存在する基準画像及び比較画像の各画素の非類似度(マッチングコスト)を計算する。全面視差画像生成部504は、計算された非類似度に基づいて、全ての画素を視差値で示した全面視差画像を生成する。
ステップS202では、判別部及びパターン検出部の一例である繰り返しパターン検出部503が、上述のように探索範囲内で最終的に更新された範囲内における、非類似度の極小値の個数に基づいて、前記ステレオ画像の各画素の有効性を判別する。
具体的には、繰り返しパターン検出部503は、上述の第1の実施の形態で説明した繰り返しパターンの検出処理を画素毎に実行する。すなわち、繰り返しパターン検出部503は、第1の実施の形態で説明したように、非類似度の極小値の個数のカウントを視差探索と同時に行い、非類似度の極小値が所定の範囲外になった際に所定の範囲を更新し、更新された範囲内の非類似度の極小値の個数をカウントする繰り返しパターンの検出処理を画素毎に実行する。そして、繰り返しパターン検出部503は、繰り返しが起きていない画素に、繰り返しが起きていないことを示す有効情報を付加する(有効フラグを立てる)。
次に、ステップS203では、エッジ検出部502が、所定の閾値よりも大きな輝度の画素に、その画素はオブジェクトのエッジに相当する画素であることを示すエッジ情報を付加する(エッジフラグを立てる)。
次に、ステップS204では、抽出部の一例である生成部505が、全面視差画像のうち、上述の有効情報及びエッジ情報が共に付加されている画素を、有効視差の画素として抽出する。すなわち、生成部505は、全面視差画像のうち、上述の有効フラグが立っており、かつ、上述のエッジフラグが立っている画素に基づいて、上述の有効視差の抽出を行う。
図24は、従来の有効視差の抽出手法を用いた抽出結果である。この図24において、「4」の視差値が4つ続く領域は、正しい視差が出ている領域である。これに続く、「10、10、22、22、22、22、22、22」の視差値の領域は、遠い距離に位置する繰り返しパターンのオブジェクトにより誤マッチングが発生している領域である。さらに、これに続く、「4」の視差値が7つ続く領域は、正しい視差が出ている領域である。従来の有効視差の抽出手法の場合、図24中、太線の枠で囲んで示すように、誤マッチングが発生しており、正しくない視差値であるにもかかわらず、有効画素として判定される誤判定が生じている。
第4の実施の形態の機器制御システムの生成部505は、図25に示すように、上述の有効フラグが立っており、かつ、上述のエッジフラグが立っている画素を有効視差の画素として抽出する。すなわち、生成部505は、言わば有効フラグとエッジフラグをANDゲートに入力して出力を得る処理を行っている。これにより、図25に示すように、有効フラグ及びエッジフラグが共に「1」である「4」の視差値の画素は、有効な画素として判定される。また、生成部505は、有効と判定された「4」の視差値の各画素の間の画素も、有効な画素として判定される。これに対して、誤マッチングが発生している領域の画素は、全て無効の画素として判定される。
最後に、生成部505は、このように誤マッチングの視差が低減され(ノイズが低減され)、かつ、多くの有効視差を含む視差画像を、後段の認識処理部34に出力して(ステップS205)、図23のフローチャートの処理を終了する。
このような誤マッチングの数を減らして、有効な視差値を増した視差画像を認識処理側で用いることで、一つの物体を正確に一つの物体として認識することができ、物体認識処理を行い、正確な運転支援を行うことができる。
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。例えば、視差画像及び視差値の代わりに、距離画像、距離値を用いても、上述と同様の構成、処理及び効果を得ることができる。各実施の形態及び各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 車両
2 撮像ユニット
3 解析ユニット
4 制御ユニット
14 FPGA
17 CPU
31 撮像画像補正部
32 視差演算部
33 視差画像生成部
34 認識処理部
103 エッジ有効化部
104 ペア位置算出部
105 ペア内視差有効化部
106 エッジ量算出部
107 比較器
108 有効視差ペア設定部
109 ペア間隔算出部
110 比較器
111 ペア奥行差分算出部
112 比較器
113 パラメータメモリ
114 有効化判定部
115 有効視差決定部
120 有効視差設定部
121 ペア視差探索範囲設定部
122 ペア視差設定部
123 ペア奥行差分算出部
124 比較器
131 比較器
132 比較器
440 情報処理部
441 非類似度算出部
442 傾き算出部
443 極小値検出部
444 閾値設定部
445 フラグ制御部
446 カウンタ制御部
447 有効性判断部
450 情報保持部
451 非類似度レジスタ
452 傾きレジスタ
453 閾値レジスタ
454 フラグレジスタ
455 極小値カウンタ
501 マッチングコスト計算部
502 エッジ検出部
503 繰り返しパターン検出部
504 全面視差画像生成部
505 生成部
特開平11−351862号公報

Claims (15)

  1. 撮像画像の各画素の特徴量に基づいて、有効画素を決定する有効画素決定部と、
    前記撮像画像に対応する視差画像における、前記有効画素に相当する有効視差の近傍の有効視差でない視差を有効化する有効化部と
    を有する視差画像生成装置。
  2. 前記撮像画像に対応する視差画像における、前記有効画素に相当する有効視差のうち、隣接する2つの有効視差である有効視差ペアを設定し、前記有効視差ペアの各有効視差の位置関係を算出する算出部を、さらに備え、
    前記有効化部は、前記有効視差ペアの間の視差の視差値が、前記有効視差ペアの視差値に応じて決定される視差値範囲内である場合に、前記有効視差ペアの間の視差を有効化することと
    を有する請求項1に記載の視差画像生成装置。
  3. 前記算出部は、
    前記有効画素に相当する有効視差の中で注目する注目視差と、前記注目視差の同一ライン内で最近傍の有効視差とを、前記有効視差ペアとして設定するペア設定部と、
    前記有効視差ペアの位置関係を算出するペア位置算出部を備えること
    を特徴とする請求項2に記載の視差画像生成装置。
  4. 前記算出部は、
    前記有効画素の視差値である有効視差、及び、検出する物体の実際の幅を示すペア間隔情報に応じて、選択画素と同一ライン上で、前記有効視差とペアとなるペア視差の探索範囲を設定する探索範囲設定部と、
    前記探索範囲内において、前記ペア視差を設定するペア視差設定部と、
    前記有効視差とペア視差との差分を検出する差分検出部と、を備え、
    前記有効化部は、前記有効視差及びペア視差の差分が、所定の閾値以下の場合に、前記有効視差及びペア視差の間の視差を有効化すること
    を特徴とする請求項2に記載の視差画像生成装置。
  5. 前記有効画素決定部は、前記撮像画像から前記特徴量として得られるエッジ量が、第1のエッジ量閾値より大きい場合に、第1の有効視差情報を前記算出部に供給し、また、前記撮像画像から前記特徴量として得られるエッジ量が、前記第1のエッジ量閾値よりも小さな値の第2のエッジ量閾値よりも大きい場合に、第2の有効視差情報を前記有効化部に供給し、
    前記算出部は、前記第1の有効視差情報に基づいて、前記有効視差ペアを設定し、
    前記有効化部は、前記第2の有効視差情報に基づいて、前記有効視差ペア間の視差を有効化すること
    を特徴とする請求項2から請求項4のうち、いずれか一項に記載の視差画像生成装置。
  6. マッチング処理により、前記撮像画像の視差値を算出する視差演算部を、さらに備え、
    前記視差演算部は、所定の探索範囲内で相関の評価値を算出する評価値算出部と、前記評価値の極値を検出する極値検出部と、所定の範囲内の値を有する前記極値の個数をカウントするカウント部と、前記範囲内の値よりも高い相関を表す極値が検出されたとき、前記所定の範囲を更新する更新部とを有し、前記カウント部は、前記探索範囲内で最終的に更新された範囲内の極値の個数をカウントすること
    を特徴とする請求項1から請求項5のうち、いずれか一項に記載の視差画像生成装置。
  7. 前記更新部は、前記高い相関を表す極値が更新後の前記所定の範囲の中心になるように前記所定の範囲を更新すること
    を特徴とする請求項6に記載の視差画像生成装置。
  8. 前記視差演算部は、前記カウント部のカウント値が所定値以上の場合、前記最終的に更新された範囲内の極値に対応する視差値を無効とすること
    を特徴とする請求項6又は請求項7に記載の視差画像生成装置。
  9. 前記視差演算部は、前記カウント部をリセットするリセット部を有すること
    を特徴とする請求項6から請求項8のうち、いずれか一項に記載の視差画像生成装置。
  10. 前記撮像画像のエッジを検出するエッジ検出部と、
    前記探索範囲内で最終的に更新された範囲内の極値の個数に基づいて、前記撮像画像の各画素の有効性を判別する判別部と、
    前記撮像画像の各画素のうち、前記判別部により有効と判別され、かつ、前記エッジ検出部により前記エッジとして検出された画素の視差値を有効視差として抽出する抽出部と
    を有する請求項1から請求項9のうち、いずれか一項に記載の視差画像生成装置。
  11. 前記判別部は、前記撮像画像を用いて繰り返しパターンを検出し、繰り返しパターンではない画素を有効な画素として判別するパターン検出部であり、
    前記抽出部は、前記視差画像の各画素のうち、前記繰り返しパターンではなく、かつ、前記エッジとして検出された画素の視差値を有効視差として抽出すること
    を特徴とする請求項10に記載の視差画像生成装置。
  12. 有効画素決定部が、撮像画像の各画素の特徴量に基づいて、有効画素を決定する有効画素決定ステップと、
    有効化部が、前記撮像画像に対応する視差画像における、前記有効画素に相当する有効視差の近傍の有効視差でない視差を有効化する有効化ステップと
    を有する視差画像生成方法。
  13. コンピュータを、
    撮像画像の各画素の特徴量に基づいて、有効画素を決定する有効画素決定部と、
    前記撮像画像に対応する視差画像における、前記有効画素に相当する有効視差の近傍の有効視差でない視差を有効化する有効化部として機能させること
    を特徴とする視差画像生成プログラム。
  14. 請求項1から請求項11のうち、いずれか一項に記載の視差画像生成装置と、
    前記視差画像生成装置で生成された視差画像を用いて物体認識を行う物体認識部と
    を有する物体認識装置。
  15. 請求項1から請求項11のうち、いずれか一項に記載の視差画像生成装置と、
    前記視差画像生成装置で生成された視差画像を用いて物体認識を行う物体認識装置と、
    前記物体認識装置の物体認識結果を用いて機器を制御する制御装置と
    を有する機器制御システム。
JP2016088603A 2015-07-02 2016-04-26 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム Active JP6805534B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020177037261A KR102038570B1 (ko) 2015-07-02 2016-06-29 시차 이미지 생성 디바이스, 시차 이미지 생성 방법, 시차 이미지 생성 프로그램, 물체 인식 디바이스, 및 기기 제어 시스템
PCT/JP2016/003129 WO2017002367A1 (en) 2015-07-02 2016-06-29 Disparity image generation device, disparity image generation method, disparity image generation program, object recognition device, and equipment control system
EP16817477.9A EP3317850B1 (en) 2015-07-02 2016-06-29 Disparity image generation device, disparity image generation method, disparity image generation program, object recognition device, and equipment control system
CN201680037648.3A CN107735812B (zh) 2015-07-02 2016-06-29 对象识别设备、方法、装置控制系统及图像生成设备
US15/854,461 US10520309B2 (en) 2015-07-02 2017-12-26 Object recognition device, object recognition method, equipment control system, and distance image generation device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015133967 2015-07-02
JP2015133967 2015-07-02
JP2015178002 2015-09-09
JP2015178002 2015-09-09

Publications (2)

Publication Number Publication Date
JP2017054481A true JP2017054481A (ja) 2017-03-16
JP6805534B2 JP6805534B2 (ja) 2020-12-23

Family

ID=58321013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016088603A Active JP6805534B2 (ja) 2015-07-02 2016-04-26 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム

Country Status (5)

Country Link
US (1) US10520309B2 (ja)
EP (1) EP3317850B1 (ja)
JP (1) JP6805534B2 (ja)
KR (1) KR102038570B1 (ja)
CN (1) CN107735812B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220099A (ja) * 2018-06-22 2019-12-26 凸版印刷株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法、及びプログラム
JP2020140344A (ja) * 2019-02-27 2020-09-03 日立オートモティブシステムズ株式会社 演算装置、視差算出方法
US11391840B2 (en) 2018-06-25 2022-07-19 Ricoh Company, Ltd. Distance-measuring apparatus, mobile object, distance-measuring method, and distance measuring system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6769477B2 (ja) * 2016-03-10 2020-10-14 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
EP3514759A1 (en) 2018-01-23 2019-07-24 Ricoh Company, Ltd. Image processing method, image processing apparatus, on-board device, moving body, and system
TWI678681B (zh) * 2018-05-15 2019-12-01 緯創資通股份有限公司 產生深度圖的方法及其影像處理裝置與系統
EP3629585A1 (en) * 2018-09-25 2020-04-01 Koninklijke Philips N.V. Image synthesis
JP7238422B2 (ja) 2019-01-22 2023-03-14 株式会社リコー 測距方法、測距装置、車載装置、移動体、測距システム
JP7255259B2 (ja) 2019-03-19 2023-04-11 株式会社リコー 検出装置、測距装置、時間測定方法、プログラム、移動体
CN110032964B (zh) * 2019-04-08 2023-07-14 腾讯科技(成都)有限公司 图像处理方法、识别视角的方法、装置、设备和存储介质
KR20200132468A (ko) * 2019-05-17 2020-11-25 삼성전자주식회사 첨단 운전자 지원 장치 및 이의 객체를 검출하는 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065634A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2013164351A (ja) * 2012-02-10 2013-08-22 Toyota Motor Corp ステレオ視差算出装置
JP2013250907A (ja) * 2012-06-04 2013-12-12 Ricoh Co Ltd 視差算出装置、視差算出方法及び視差算出用プログラム
JP2015011619A (ja) * 2013-07-01 2015-01-19 株式会社リコー 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5936902B2 (ja) 1977-06-22 1984-09-06 財団法人微生物化学研究会 (2s,3r)−3−アミノ−2−ヒドロキシ−4−p−ヒドロキシフエニルブタノイル−(s)−ロイシンおよびその製造法
JPS562751A (en) 1979-06-21 1981-01-13 Kokusai Denshin Denwa Co Ltd <Kdd> Digital echo suppressor
JP3562751B2 (ja) 1998-06-09 2004-09-08 矢崎総業株式会社 前方車両検出方法及び装置
JP2001082954A (ja) 1999-09-13 2001-03-30 Fujitsu Ten Ltd 画像処理装置及び画像処理測距方法
JP3287465B2 (ja) 1999-09-22 2002-06-04 富士重工業株式会社 ステレオ画像処理装置
JP4248212B2 (ja) 2002-09-24 2009-04-02 富士重工業株式会社 ステレオ画像処理装置およびステレオ画像処理方法
US7333652B2 (en) * 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
JP4719543B2 (ja) 2005-09-26 2011-07-06 株式会社リコー ワークフローシステム、サーバ装置、ワークフローシステムの処理方法及びワークフロープログラム
JP2007102545A (ja) 2005-10-05 2007-04-19 Ricoh Co Ltd 電子文書作成装置、電子文書作成方法及び電子文書作成プログラム
JP4647515B2 (ja) 2006-02-20 2011-03-09 株式会社リコー 座標検出装置、筆記具および座標入力システム
JP4856611B2 (ja) 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
JP4886716B2 (ja) * 2008-02-26 2012-02-29 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP5316805B2 (ja) 2009-03-16 2013-10-16 株式会社リコー 車載カメラ装置の画像調整装置及び車載カメラ装置
JP5376313B2 (ja) 2009-09-03 2013-12-25 株式会社リコー 画像処理装置及び画像撮像装置
JP5409237B2 (ja) 2009-09-28 2014-02-05 キヤノン株式会社 パターン検出装置、その処理方法及びプログラム
US8488870B2 (en) * 2010-06-25 2013-07-16 Qualcomm Incorporated Multi-resolution, multi-window disparity estimation in 3D video processing
JP5821408B2 (ja) 2011-08-24 2015-11-24 株式会社リコー 画像処理方法、ステレオカメラシステム
EP2570990A1 (en) 2011-09-13 2013-03-20 Thomson Licensing Apparatus and method for determining a confidence value of a disparity estimate
JP5999483B2 (ja) * 2011-11-02 2016-09-28 株式会社リコー 付着物検出装置および車載機器制御装置
US8660362B2 (en) * 2011-11-21 2014-02-25 Microsoft Corporation Combined depth filtering and super resolution
JP6121776B2 (ja) * 2013-03-29 2017-04-26 ソニー株式会社 画像処理装置及び画像処理方法
CN104574342B (zh) * 2013-10-14 2017-06-23 株式会社理光 视差深度图像的噪声识别方法和噪声识别装置
CN103698967B (zh) * 2013-12-09 2016-01-13 四川大学 一种投影式集成成像3d显示装置
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
JP6340849B2 (ja) 2014-03-18 2018-06-13 株式会社リコー 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム
JP6519262B2 (ja) 2014-04-10 2019-05-29 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6648411B2 (ja) 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6417729B2 (ja) 2014-06-09 2018-11-07 株式会社リコー 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム
JP6550881B2 (ja) 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US20160019429A1 (en) 2014-07-17 2016-01-21 Tomoko Ishigaki Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
US9726604B2 (en) 2014-11-12 2017-08-08 Ricoh Company, Ltd. Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices
JP6565266B2 (ja) 2015-03-02 2019-08-28 株式会社リコー 情報処理装置、撮像装置、移動体制御システム、情報処理方法、およびプログラム
US9794543B2 (en) 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
JP6753134B2 (ja) 2015-07-07 2020-09-09 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065634A (ja) * 2006-09-07 2008-03-21 Fuji Heavy Ind Ltd 物体検出装置および物体検出方法
JP2013164351A (ja) * 2012-02-10 2013-08-22 Toyota Motor Corp ステレオ視差算出装置
JP2013250907A (ja) * 2012-06-04 2013-12-12 Ricoh Co Ltd 視差算出装置、視差算出方法及び視差算出用プログラム
JP2015011619A (ja) * 2013-07-01 2015-01-19 株式会社リコー 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019220099A (ja) * 2018-06-22 2019-12-26 凸版印刷株式会社 ステレオマッチング処理装置、ステレオマッチング処理方法、及びプログラム
US11391840B2 (en) 2018-06-25 2022-07-19 Ricoh Company, Ltd. Distance-measuring apparatus, mobile object, distance-measuring method, and distance measuring system
JP2020140344A (ja) * 2019-02-27 2020-09-03 日立オートモティブシステムズ株式会社 演算装置、視差算出方法
WO2020175062A1 (ja) * 2019-02-27 2020-09-03 日立オートモティブシステムズ株式会社 演算装置、視差算出方法
JP7118020B2 (ja) 2019-02-27 2022-08-15 日立Astemo株式会社 演算装置、視差算出方法

Also Published As

Publication number Publication date
EP3317850A1 (en) 2018-05-09
CN107735812A (zh) 2018-02-23
US10520309B2 (en) 2019-12-31
US20180120108A1 (en) 2018-05-03
KR102038570B1 (ko) 2019-10-31
EP3317850A4 (en) 2018-07-04
KR20180012802A (ko) 2018-02-06
CN107735812B (zh) 2021-07-13
JP6805534B2 (ja) 2020-12-23
EP3317850B1 (en) 2023-03-29

Similar Documents

Publication Publication Date Title
JP6805534B2 (ja) 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム
US9819927B2 (en) Image processing device, image processing method, and device control system
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
US7551067B2 (en) Obstacle detection system
US8126210B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP6707022B2 (ja) ステレオカメラ
EP2928178B1 (en) On-board control device
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP2016029557A (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
CN104509101A (zh) 三维物体检测装置和三维物体检测方法
JP4872769B2 (ja) 路面判別装置および路面判別方法
US20180065633A1 (en) Vehicle driving assist apparatus
CN112349144A (zh) 一种基于单目视觉的车辆碰撞预警方法及系统
JP6565266B2 (ja) 情報処理装置、撮像装置、移動体制御システム、情報処理方法、およびプログラム
JP3961584B2 (ja) 区画線検出装置
JPH11351862A (ja) 前方車両検出方法及び装置
JP2019530924A (ja) カメラ画像からのオブジェクトの検出
WO2017002367A1 (en) Disparity image generation device, disparity image generation method, disparity image generation program, object recognition device, and equipment control system
JP2020095623A (ja) 画像処理装置および画像処理方法
JP6668922B2 (ja) 情報処理装置、撮像装置、移動体制御システム、情報処理方法およびプログラム
JP2018088217A (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
WO2015122212A1 (ja) 車載用認識装置
JP2017027578A (ja) 検出装置、視差値導出装置、物体認識装置、機器制御システム、検出方法、およびプログラム
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法
JP6179249B2 (ja) 車両検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R151 Written notification of patent or utility model registration

Ref document number: 6805534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151