JP6569416B2 - Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program - Google Patents
Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program Download PDFInfo
- Publication number
- JP6569416B2 JP6569416B2 JP2015182354A JP2015182354A JP6569416B2 JP 6569416 B2 JP6569416 B2 JP 6569416B2 JP 2015182354 A JP2015182354 A JP 2015182354A JP 2015182354 A JP2015182354 A JP 2015182354A JP 6569416 B2 JP6569416 B2 JP 6569416B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- reference image
- installation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing device, an object recognition device, a device control system, an image processing method, and an image processing program.
近年、情報処理技術や画像処理技術の発達により、視差を用いて高速に人や自動車などを検出(認識)する車載認識技術が開発されてきている。例えば、検出の対象が人や自動車である場合、撮像した画像データから検出の非対象となる画像データを棄却して、検出精度の向上、及び画像データの削減を図ることがある。 In recent years, with the development of information processing technology and image processing technology, in-vehicle recognition technology for detecting (recognizing) a person or a car at high speed using parallax has been developed. For example, when the detection target is a person or a car, image data that is not targeted for detection may be rejected from the captured image data to improve detection accuracy and reduce image data.
また、特許文献1には、撮像手段により時系列に出力された画像各々の中から、予め作成された検出対象のモデルに基づいて、該検出対象として識別される度合いを示す識別値が所定値以上の領域を取得し、取得された領域と、記憶手段に記憶された領域の系列とが対応するか照合し、領域の系列が検出対象であるか否かを判定する物体検出装置が開示されている。
Further, in
しかしながら、視差が輝度画像を基準に算出される場合、照明条件や被写体のテクスチャの影響を受ける問題や、輝度画像のブロックマッチングの性能によって視差が正確に算出されないことが発生することがある。したがって、撮像した画像データから検出の非対象となる画像データを棄却するときに、棄却の精度を十分に向上させることができないことがあった。換言すると、所定の方法で画像データを棄却する際に、視覚的に類似していたとしても、上記のように照明条件などで画像情報が変化すると、その差異によって棄却できる物体とできない物体が発生する可能性があった。 However, when the parallax is calculated on the basis of the luminance image, the parallax may not be accurately calculated due to the problem of being affected by the illumination condition or the texture of the subject, or the block matching performance of the luminance image. Therefore, when image data that is not subject to detection is rejected from captured image data, the accuracy of rejection may not be sufficiently improved. In other words, when image data is rejected by a predetermined method, even if it is visually similar, if the image information changes due to lighting conditions as described above, an object that can be rejected and an object that cannot be rejected are generated due to the difference. There was a possibility.
本発明は、上記に鑑みてなされたものであって、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができる画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and an image processing device, an object recognition device, a device control system, and an image that can accurately reject non-target image data from captured image data. It is an object to provide a processing method and an image processing program.
上述した課題を解決し、目的を達成するために、本発明は、1つ以上の物体が撮像された基準画像と、前記基準画像とは異なる撮像位置から撮像された比較画像との間で生じる視差の頻度分布に基づいて、前記基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定する第1判定部と、前記設置物画像データを前記基準画像データから棄却する第1棄却部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention occurs between a reference image in which one or more objects are imaged and a comparative image imaged from an imaging position different from the reference image. First determination for determining, based on a frequency distribution of parallax, that part of the reference image data indicating the reference image is installation object image data indicating an installation object that is installed in a predetermined direction. A first rejection unit that rejects the installation object image data from the reference image data, and a part of the reference image data that the first rejection unit rejects the installation object image data. Based on the data, a second determination unit that determines that the image is continuous object image data indicating an object continuous to the installation object, and the reference image data in which the first rejection unit rejects the installation object image data, The continuous image data And having a second rejection unit for rejecting the data, the.
本発明によれば、撮像された画像データから検出の非対象となる画像データを精度よく棄却することができるという効果を奏する。 According to the present invention, there is an effect that image data that is not subject to detection can be accurately rejected from captured image data.
以下に添付図面を参照して、実施形態にかかる機器制御システムについて説明する。図1は、本発明の実施の形態にかかる機器制御システムの例である車両1に搭載されたステレオカメラ2の位置を示す図である。例えば、車両1は、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2が前部に設けられた自動車である。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。
A device control system according to an embodiment will be described below with reference to the accompanying drawings. FIG. 1 is a diagram showing the position of a
図2は、車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は、車両1に設置され、車両1のエンジン及び車両1のその他の電気的な制御及び処理を総合的に行う。
FIG. 2 is a diagram illustrating a configuration example of the
図3は、ステレオカメラ2を備えた物体認識装置4の構成例を示す図である。物体認識装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。
FIG. 3 is a diagram illustrating a configuration example of the object recognition device 4 including the
カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
Each of the
画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。
The
上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。
The
FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。また、ROM308には、状況認識、予測、及び物体認識等を実行するための(立体)物体認識プログラムが記憶されている。
The
物体認識プログラムは、画像処理プログラムの一例である。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。そして、CPU304は、ROM308に記憶されている物体認識プログラムに従って、RAM310に記憶されている輝度画像データ及び視差画像データを用いて、状況認識等の各種処理を実行し、例えば先行車両等の検出対象の検出(認識)を行う。また、画像データの棄却処理もCPU304が実施する。
The object recognition program is an example of an image processing program. The
検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、例えば車両ECU3内に制御機能を設けられた自動ブレーキシステム、又は自動速度制御システム等に対して出力される。自動ブレーキシステムは、認識対象の認識データを用いて車両1のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて車両1の速度制御を行う。
Detection data (recognition data) of a detection target (recognition target) is output via a serial IF 312 to, for example, an automatic brake system or an automatic speed control system provided with a control function in the vehicle ECU 3. The automatic brake system performs brake control of the
次に、車両1がステレオカメラ2を用いて実行する機器制御について説明する。図4は、車両1が有する画像による機器制御機能の概要を示す機能ブロック図である。なお、図4においては、車両1がステレオカメラ2を用いて行う機器制御機能が示されている。
Next, device control executed by the
車両1は、画像による機器制御を実行するために、撮像部(ステレオカメラ)2、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32を有する。ここで、視差計算部40、クラスタリング部42、棄却部44、及びトラッキング部46は、画像処理装置30が物体認識プログラムを実行することによって実現される。また、出力制御部32は、例えば車両ECU3内に設けられ、車両1に設けられたエンジンやブレーキなどの機構等を制御する。なお、視差計算部40、クラスタリング部42、棄却部44、トラッキング部46、及び出力制御部32は、ソフトウェアによって構成されることに限定されることなく、それぞれ一部又は全部がハードウェアによって構成されてもよい。
The
ここでは、車両1が動画の1フレームの画像(左目視界と右目視界の2つの画像)を処理する場合を例に説明する。まず、撮像部(ステレオカメラ)2は、フレーム情報を取得する。入力フレームは、ステレオカメラ2が2つの画像センサ22を用いて撮像した2枚の画像である。2枚の画像の一方は基準画像となり、他方は比較画像となる。比較画像は、基準画像とは異なる撮像位置から撮像される。カメラ部2aは、例えば図5に模式的に示した基準画像を撮像する。基準画像には、先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが撮影されている。
Here, a case where the
視差計算部40(図4)は、基準画像と比較画像を用いて、局所領域のブロックマッチングなどにより、画素ごとの視差を計算する。 The parallax calculation unit 40 (FIG. 4) calculates the parallax for each pixel by block matching of the local region using the reference image and the comparison image.
クラスタリング部42は、視差計算部40が計算した視差の頻度をカウントし、視差の頻度に応じた画素値をもつ画素を輝度画像の二次元直交座標系上に分布させたマップ(頻度Uマップ)を作成する。例えば、クラスタリング部42は、基準画像及び比較画像に撮影された路面からの高さが30cm〜2mの間の画像の視差を用いて頻度Uマップを作成する。
The clustering unit 42 counts the frequency of the parallax calculated by the
図6は、図5に示した基準画像に対応する頻度Uマップである。頻度Uマップは、横軸が画像の横方向(X方向)と同じであり、縦軸が奥行方向となっている。図6に示した頻度Uマップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bに対応する位置に、視差を示す画素が密集している領域(密集領域)ができている。
FIG. 6 is a frequency U map corresponding to the reference image shown in FIG. In the frequency U map, the horizontal axis is the same as the horizontal direction (X direction) of the image, and the vertical axis is the depth direction. In the frequency U map shown in FIG. 6, pixels indicating parallax are densely arranged at positions corresponding to the preceding
さらに、クラスタリング部42は、頻度Uマップをリアル頻度Uマップに変換する。頻度Uマップ上のx方向の距離は、実空間上のx方向の距離が同じであっても、ステレオカメラ2からの距離が離れるほど(頻度Uマップの上側に向かって)、頻度Uマップ上の消失点に近づくので、短くなってしまう。図7は、図6に示した頻度Uマップをリアル頻度Uマップに変換した結果を示す図である。リアル頻度Uマップは、頻度UマップにおけるX方向の距離を、ステレオカメラ2から撮影された物体までの距離によらず、実空間上のx方向の位置に変換したものである。つまり、リアル頻度Uマップは、基準画像に撮影されている領域を実空間上で真上から見た場合の視差の頻度の分布を表すマップである。リアル頻度Uマップの縦軸は、ステレオカメラ2からの距離を示している。
Further, the clustering unit 42 converts the frequency U map into a real frequency U map. The distance in the x direction on the frequency U map is higher on the frequency U map as the distance from the
図7に示したリアル頻度Uマップでは、左ガードレール504a及び右ガードレール504bは、上下方向に延びる密集領域となる。また、先行車両500及び対向車両502は、車両の背面と片側面に対応する形状の密集領域になる。このように、リアル頻度Uマップでは、物体を示す密集領域は、実空間上の車両1の前方の領域を真上から見たときの物体の形状に近い形状となる。リアル頻度Uマップは、フレーム(視差画像)全体に対して作成されてもよいし、部分領域に対して作成されてもよい。なお、リアル頻度Uマップのことを、俯瞰マップと記すことがある。
In the real frequency U map shown in FIG. 7, the
そして、クラスタリング部42は、俯瞰マップ上での密集領域を新規検出物体として検出する。この時、クラスタリング部42は、新規検出物体に対して、輝度画像上の座標やサイズから予測した物体のタイプ(人や自動車)などの個体情報を付与する。図7に示した俯瞰マップでは、図5の基準画像に撮影されていた先行車両500、対向車両502、左ガードレール504a、及び右ガードレール504bが真上から見た実際の形状に近い形で密集領域になっている。
Then, the clustering unit 42 detects a dense area on the overhead map as a newly detected object. At this time, the clustering unit 42 assigns the individual information such as the object type (person or car) predicted from the coordinates and size on the luminance image to the newly detected object. In the bird's-eye view map shown in FIG. 7, the preceding
棄却部44(図4)は、フレーム情報(輝度画像、視差画像)、俯瞰マップ、及び新規検出物体の個体情報を用いて、新規検出物体が検出対象(認識対象)の物体であるか、非検出対象の物体であるかを判定する。ここでは、例えば人及び自動車を検出対象とし、その他の側壁物などを非検出対象とする。なお、検出対象の物体は、継続的に検出すべき物体(追跡対象)として扱われる。そして、棄却部44は、非検出対象を示す画像データを棄却対象の画像データと判定する(棄却判定)。棄却部44は、棄却対象となった画像データ(個体情報)に棄却判定結果を付与する。
The rejection unit 44 (FIG. 4) uses the frame information (luminance image, parallax image), the bird's-eye view map, and the individual information of the newly detected object to determine whether the newly detected object is a detection target (recognition target) object. It is determined whether the object is a detection target. Here, for example, humans and automobiles are set as detection targets, and other side walls are set as non-detection targets. Note that the detection target object is treated as an object (tracking target) to be detected continuously. The
さらに、棄却部44について詳述する。図8は、棄却部44の構成例を示すブロック図である。棄却部44は、例えばネットワークバス440、取得部442、第1処理部444、第2処理部446を有し、記憶部448を備えるように構成されてもよい。記憶部448は、例えば棄却部44を構成する各部が処理した結果を記憶する。また、出力部449を備えてもよい。出力部449は、棄却部44内での棄却結果を、後段の処理部(例えば、トラッキング部46)に出力する。そして、棄却部44は、着目フレーム以前に棄却した非検出対象を用いて、着目フレームに対する処理を行ってもよい。なお、取得部442、第1処理部444、及び第2処理部446は、それぞれ一部又は全部がハードウェアによって構成されてもよいし、ソフトウェアによって構成されてもよい。
Further, the
ネットワークバス440は、データを伝送するバスである。例えば、ネットワークバス440は、新規検出物体ごとにデータを伝送する。
The
取得部442は、クラスタリング部42が検出した新規検出物体の個体情報、フレーム(輝度画像、視差画像)、俯瞰マップなどを取得する。より具体的には、取得部442が棄却処理に必要な情報を取得する。取得部442は、ステレオカメラ2などのデバイスが取得した情報を直接読み込んでもよいし、これらの情報を予めCD、DVD、HDDなどの記録メディアやネットワーク・ストレージに保存しておき、必要時にこれらを読み込んでもよい。また、取得部442は、静止画を取得しても、ステレオカメラ2が撮影した動画像データを逐次取得してもよい。
The acquisition unit 442 acquires individual information of a newly detected object detected by the clustering unit 42, a frame (luminance image, parallax image), an overhead map, and the like. More specifically, the acquisition unit 442 acquires information necessary for the rejection process. The acquisition unit 442 may directly read information acquired by a device such as the
取得部442が取得する情報は、任意の組み合わせで構成されてもよい。例えば、取得部442は、ステレオカメラ2が撮影したフレーム(視差画像)から生成した俯瞰マップとクラスタリング結果として生成された新規検出物体情報を併せて取得してもよい。新規検出物体情報は、クラスタリング結果として得られた、輝度画像上の位置、サイズから判定したオブジェクトタイプ(歩行者や人)、棄却情報、トラッキング情報などを物体ごとに任意に組み合わせたものである。また、取得部442は、視差画像をクロップしたものを取得してもよいし、物体情報が持つ座標情報に基づいて視差画像中の該当箇所の画素を示す情報を取得してもよい。
Information acquired by the acquisition unit 442 may be configured in any combination. For example, the acquisition unit 442 may acquire the overhead map generated from the frame (parallax image) captured by the
第1処理部444は、例えば第1算出部450、対象面決定部451、第1判定部452、及び第1棄却部453を有する。なお、第1処理部444は、対象面決定部451を有していない構成であってもよい。
The
第1算出部450は、新規検出物体が有する面を算出し、算出した面の角度をさらに算出する。なお、新規検出物体が有する面の角度とは、例えばステレオカメラ2が有する2つの画像センサ22をそれぞれ通過する直線に対する俯瞰マップ上の角度であるとする。
The
ここで、第1算出部450が新規検出物体の面を算出し、算出した面の角度をさらに算出する具体例について説明する。図9は、俯瞰マップにおける先行車両の視差の頻度分布例を示す図である。俯瞰マップの分解能を例えば128mmとすると、先行車両の視差の頻度分布は、128mm×128mmのブロックが複数並んだ形状となる。なお、俯瞰マップの分解能を高くすると(例えば、64mm)、精度は上がるが、ブロックの密度が疎らになって物体の検出が困難になる。また、俯瞰マップの分解能を低くすると(例えば、256mm)、ブロックの密度が密になるが、分解能が低いために物体の正確な位置が検出しにくくなる。
Here, a specific example in which the
先行車両の視差の頻度分布では、図9に示したZ軸方向及びX軸方向において、ステレオカメラ2からの距離が遠い位置でブロックが斜め方向に伸びる形状となる。これは、撮影時の条件等に応じて生じる視差の誤差(分散)によるものである。俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の側面しか写っていない場合は、当該斜め方向に延びるブロックは少ない。また、俯瞰マップを作成する元となった基準画像及び比較画像において、先行車両の近くに、先行車両より遠方に存在するものが背景として写っている場合等は、当該背景の視差の影響による誤差で、当該斜め方向に延びるブロックが多くなる。
In the parallax frequency distribution of the preceding vehicle, the blocks extend in a diagonal direction at a position far from the
次に、先行車両の視差の頻度分布を用いて、当該先行車両のコーナー(先行車両の側面と背面の境界)等を検出する処理について説明する。図10は、左隣の車線を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。 Next, a process of detecting a corner of the preceding vehicle (a boundary between the side surface and the rear surface of the preceding vehicle) and the like using the parallax frequency distribution of the preceding vehicle will be described. FIG. 10 is a diagram illustrating a process of detecting the parallax frequency distribution of the preceding vehicle traveling in the left lane, the corner of the preceding vehicle, and the like.
まず、第1算出部450は、検出した先行車両の視差を示すブロックの密集領域に対し、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。なお、視野角は、例えば2つの画像センサ22の中心点(基準画像及び比較画像それぞれの撮像位置の中心点)からのZ方向に延びる直線に対する角度である。
First, the
より具体的には、図11に示すように、第1算出部450は、視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域をそれぞれ決定するために、まず、視野角が最大になるブロックaと、視野角が最小になるブロックbとを探索して選択する。
More specifically, as shown in FIG. 11, the
次に、第1算出部450は、第1の選択方法として、図12に示すように、各ブロックを包含する外接矩形600を設定し、ブロックaを包含する三角領域602と、ブロックbを包含する三角領域604とを設定する。ここでは、外接矩形600の左下に三角領域602が設定され、右上に三角領域604が設定されている。そして、第1算出部450は、三角領域602の中で頻度が最大となるブロックを点Aとして選択し、三角領域604の中で頻度が最大となるブロックを点Bとして選択する。
Next, as shown in FIG. 12, the
また、第1算出部450は、第2の選択方法として、図13に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の矩形範囲606(例えば5×5、又は長方形)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。
Further, as shown in FIG. 13, the
また、第1算出部450は、第3の選択方法として、図14に示すように、選択したブロックa及びブロックbをそれぞれ中心にした所定の半径の円608(例えば半径3.5、又は楕円)に含まれるブロック集合の中で、頻度が最大となる点A、点Bを選択する。
In addition, as shown in FIG. 14, the
このように、第1算出部450は、第1の選択方法〜第3の選択方法のいずれか等の方法を用いて、視差頻度の高い点A、Bを算出する。
As described above, the
次に、第1算出部450は、図10に示したように、点A、Bを直径の端点とする円周上の点Dを俯瞰マップ上で設定する。そして、第1算出部450は、線分AD及び線分BDが通過する俯瞰マップ上の点(ブロック)の頻度の平均値を、頻度平均値として算出する。
Next, as shown in FIG. 10, the
第1算出部450は、頻度平均値を例えば次のように算出してもよい。まず、第1算出部450は、俯瞰マップ上の各ブロックの中心を、X座標及びZ座標の整数の座標値とする。そして、点AのX座標の値から、点DのX座標の値まで、1ずつ値を変え、各X座標の値において、線分ADのZ座標の小数点以下を四捨五入する等により量子化する。そして、第1算出部450は、各X座標における量子化されたZ座標の各ブロックの頻度の値を合計する。つまり、線分ADについての頻度の合計値が算出される。
The
同様に、第1算出部450は、線分BDについての頻度の合計値も算出する。そして、第1算出部450は、線分AD、線分BDの頻度の合計値を、当該合計値に自身の頻度の値を算入された上記各ブロックの数で除算する。図10に示した例の場合、○が付与されたブロックに対応する頻度の値が合計され、○が付与されたブロックの数である11で除算される。また、第1算出部450は、線分AD及び線分DBが通過する俯瞰マップ上のブロック毎の頻度の値を積分することによって合計値を算出し、線分AD及び線分DBの長さで除算することにより、頻度平均値を算出してもよい。また、頻度平均値を使用せずに、頻度の合計値を使うことも可能である。要するに二本の線分が視差分布上に配置されるように決定できれば任意の方法が使用可能である。
Similarly, the
さらに、第1算出部450は、点Dを点Aから点Bまで移動させ、頻度平均値の算出を繰り返す。例えば、第1算出部450は、点Dを、点A、Bを直径の端点とする円周上で、円の中心からの角度が所定の角度(例えば2°)ずつ変わるように移動させる。そして、第1算出部450は、弧AB間で頻度平均値が最大となる点DをDmaxとして出力する。図10に示した例の場合には、線分ADmax及び線分BDmaxのX軸方向に対する角度は、それぞれ0度、90度となる。
Further, the
図15は、自車と同じ車線(正面)を走行している先行車両の視差の頻度分布と、先行車両のコーナー等を検出する処理過程を示す図である。自車と同じ車線(正面)を走行している先行車両の視差の頻度分布に対して、頻度平均値が最大となる点Dmaxを算出すると、点Dmaxの位置は点A又は点Bの位置となる。なお、図15に示した例の場合、線分ADmax及び線分BDmaxのX軸方向に対する角度は、どちらも0度となる。 FIG. 15 is a diagram illustrating a process of detecting a parallax frequency distribution of a preceding vehicle traveling in the same lane (front) as the own vehicle, a corner of the preceding vehicle, and the like. When the point Dmax at which the frequency average value is maximized is calculated with respect to the parallax frequency distribution of the preceding vehicle traveling in the same lane (front) as the own vehicle, the position of the point Dmax is the position of the point A or the point B. Become. In the case of the example shown in FIG. 15, the angles of the line segment ADmax and the line segment BDmax with respect to the X-axis direction are both 0 degrees.
そして、第1算出部450は、線分ADmaxに対応する平面の角度、線分BDmaxに対応する平面の角度、及び各平面の垂直な辺の(X、Y)座標を算出する。つまり、第1算出部450は、基準画像及び比較画像それぞれの撮像位置を通る直線に対して、基準画像に撮像された物体が備える面の角度を視差の頻度分布に基づいて算出する。
Then, the
対象面決定部451(図8)は、新規検出物体が複数の面を有する場合、複数の面の数と形状(サイズ)に応じて、棄却処理の対象となる面を決定する(図18、19を用いて後述)。 When the newly detected object has a plurality of surfaces, the target surface determination unit 451 (FIG. 8) determines a surface that is a target of the rejection process according to the number and shape (size) of the plurality of surfaces (FIG. 18, 19 later).
第1判定部452は、第1算出部450が算出した面の角度、又は対象面決定部451が決定した面の有無に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、面の角度が略90度(予め定められた範囲)の新規検出物体を非検出対象であると判定する。そして、第1判定部452は、非検出対象を示す画像データを棄却対象とする。
The
図16は、走行車両の左側に側壁物がある状態を示す図である。図16に示した状態の場合、第1判定部452は、第1算出部450が算出した面の角度に応じて、新規検出物体が検出対象であるか非検出対象であるかを判定する。例えば、第1判定部452は、第1算出部450が算出した面の角度が所定範囲に入っている場合に、処理対象となっている新規検出物体を棄却対象とする。例えば、側壁物は、2つの画像センサ22を通過する直線に対して90度以上の角度を持っている可能性があり、側壁物の中央部(枠部)では角度が90度を超えている。つまり、第1判定部452は、車両が持ち得ない面の角度の範囲を判定の基準となる所定値として設定しておくことにより、誤って検出対象を棄却することなく、非検出対象を棄却対象と判定することができる。
FIG. 16 is a diagram illustrating a state where there is a side wall on the left side of the traveling vehicle. In the state illustrated in FIG. 16, the
第1判定部452は、追い越し車両に対して判定を行う場合、追い越し車両が側壁物と同じような面の角度を持つことが多いため、判定の基準となる面の角度を90度以上に設定してしまうと棄却できる非検出対象が減少してしまう可能性がある。そこで、第1判定部452は、画像上の位置や自車からの実距離を用いて、判定対象を限定してもよい。これにより、第1判定部452は、追い越し車両が含まれない領域に対して、狭い視野角の範囲(例えば、70度以上など)を判定基準として設定することができる。
When the
図17は、走行車両の右側を走行している追い越し車両と、遠方の側壁物が新規検出物体である場合を示す図である。図17に示すように、追い越し車両は自車(図17では中央)に対して、近距離に存在する場合が多い。従って、第1判定部452は、自車を中心に各物体までの実距離を計測し、距離が所定値以上の新規検出対象(側壁物の枠部)を棄却処理対象としてもよい。また、画像上の位置を使う方法には、画像を横方向でいくつかに分割し、その両端の領域に含まれる物体に対して判定を行う方法もある。このように、第1判定部452は、第1算出部450が算出した面が1つである物体の面の角度に基づいて、基準画像データの一部を設置物画像データであると判定して棄却対象とする。つまり、第1判定部452は、基準画像を示す基準画像データの一部を、予め定められた方向に連続するように設置された設置物を示す設置物画像データであると判定して棄却対象としている。
FIG. 17 is a diagram illustrating a case where the passing vehicle traveling on the right side of the traveling vehicle and the far side wall object are newly detected objects. As shown in FIG. 17, the overtaking vehicle often exists at a short distance from the own vehicle (the center in FIG. 17). Therefore, the
次に、新規検出物体が複数の面を有する場合に対象面決定部451が行う処理について説明する。図18は、側壁物の面が1つの場合(a)と、2つの場合(b)を示す図である。本来、側壁物の面は1つになるはずであるが、俯瞰マップを用いて面と角度を算出する場合、視差の分散の影響によって図18(b)に示したように面の底辺の長さが一方に比べて大きく異なる面が算出される可能性がある。
Next, a process performed by the target
面が2つある新規検出物体は、側壁物であるか車両であるかを明確にする必要がある。そこで、対象面決定部451は、面が2つある新規検出物体に対し、車両でないことを確認する処理と、2つの面のどちらの面の角度を算出するかを決定する処理を行う。
It is necessary to clarify whether the newly detected object having two surfaces is a side wall object or a vehicle. Accordingly, the target
対象面決定部451は、面が2つある新規検出物体に対し、2つの面の底辺の比を算出し、算出した比に応じて新規検出物体が車両であるか否か、及び角度を算出する面を決定する。
The target
図19は、前方を走行する車両が形成する2つの面を示す図である。図19に示すように、新規検出物体が車両である場合、側壁物と同様に面が2つ算出されるが、2つの面の底辺の長さの差は大きくならない。よって、対象面決定部451は、面が2つ算出される場合、2つの面の底辺、又は上辺の比を算出し、その比が所定値以上である場合には、新規検出物体が側壁物であると仮定し、角度を算出する面を決定する。一方、対象面決定部451は、2つの面の底辺の比が所定値未満である場合、新規検出物体が車両であると仮定して棄却のための処理を行わない。
FIG. 19 is a diagram illustrating two surfaces formed by a vehicle traveling ahead. As shown in FIG. 19, when the newly detected object is a vehicle, two surfaces are calculated in the same manner as the side wall object, but the difference between the lengths of the bottoms of the two surfaces does not increase. Therefore, when two surfaces are calculated, the target
なお、対象面決定部451は、底辺(又は上辺)の比を二次元の画像上(輝度画像、視差画像)で算出してもよいし、俯瞰マップから実距離を算出して使用してもよい。さらに、対象面決定部451は、辺の比ではなく、2つの面の面積比を使ってもよい。また、対象面決定部451は、新規検出物体に対して3つ以上の面を算出しても、同様に任意の2つの面に対して上述した処理を行い、棄却判定に使用する面を決定してもよい。
Note that the target
また、第1判定部452は、対象面決定部451が有する機能を兼ね備えていてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。もちろん、上記における長さの比に代えて、面積の比が用いられてもよい。つまり、第1判定部452は、第1算出部450が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、設置物画像データであるか否かを判定するように構成されてもよい。
In addition, the
第1棄却部453(図8)は、第1判定部452が棄却対象とした非検出対象を示す画像データ(設置物画像データ)を、基準画像の画像データから棄却する。
The first rejection unit 453 (FIG. 8) rejects image data (installed object image data) indicating the non-detection target that is the rejection target by the
このように、第1判定部452が新規検出物体の面の角度に応じて棄却する物体の画像データを決定する方式を面角度棄却方式と呼ぶことにする。また、面角度棄却方式により画像データを棄却された新規検出物体を棄却物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されなかった新規検出物体を残存物体と呼ぶことにする。また、面角度棄却方式により画像データを棄却されるべき非検出対象であって、画像データを棄却されなかった新規検出物体を誤検出(誤認識)物体と呼ぶこととする。
In this way, the method in which the
第2処理部446は、第2算出部454、第2判定部455、及び第2棄却部456を有し、以下に記す各動作を任意に組み合わせて動作可能にされている。
The
第2算出部454は、次に記す動作の少なくともいずれかを行う。例えば、第2算出部454は、棄却物体の所定の特徴量と、棄却物体が有する面の角度に対して面の角度が予め定められた範囲内にある残存物体の所定の特徴量とを算出する。また、第2算出部454は、俯瞰マップ上で棄却物体を近似する近似直線を算出する。第2算出部454は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体から残存物体までの距離とを算出する。
The
第2判定部455は、次に記す動作の少なくともいずれかを行う。例えば、第2判定部455は、第2算出部454が算出した棄却物体及び残存物体それぞれの特徴量を比較し、特徴量の差が所定値以下である場合には、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、設置物画像データが有する特徴量に対し、類似度が所定値以上である特徴量を有する基準画像データの一部を連続物画像データであると判定する。
The second determination unit 455 performs at least one of the following operations. For example, the second determination unit 455 compares the feature amounts of the rejected object and the remaining object calculated by the
また、第2判定部455は、第2算出部454が算出した近似直線上に存在する残存物体を誤検出物体とみなして非検出対象であると判定する。また、第2判定部455は、設置物が連続している方向を示すように設置物画像データを近似させた近似直線上にある物体を示す基準画像データの一部を連続物画像データであると判定してもよい。
Further, the second determination unit 455 determines that the remaining object existing on the approximate straight line calculated by the
また、第2判定部455は、残存物体が基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該残存物体を非検出対象であると判定する。つまり、第2判定部455は、物体を示す基準画像データの一部が、基準画像及び比較画像それぞれの撮像位置の中間点との間に近似直線を挟む場合、当該物体を示す基準画像データの一部を棄却対象画像データであると判定する。 The second determination unit 455 determines that the remaining object is a non-detection target when an approximate straight line is sandwiched between the remaining object and an intermediate point between the imaging positions of the reference image and the comparison image. That is, when a part of the reference image data indicating the object puts an approximate line between the reference image data and the intermediate point of the imaging position of each of the comparison images, the second determination unit 455 determines the reference image data indicating the object. A part is determined to be rejection target image data.
また、第2判定部455は、着目フレームにおける棄却物体から残存物体までの距離と、着目フレーム以前のフレームにおける棄却物体(設置物)から残存物体までの距離との差が所定値以下である場合、当該残存物体を非検出対象(連続物画像データ)であると判定する。つまり、第2判定部455は、第1棄却部453が設置物画像データを棄却させた基準画像データの一部を、設置物画像データに基づいて、設置物に連続する物体を示す連続物画像データであると判定する。
Further, the second determination unit 455 determines that the difference between the distance from the rejected object to the remaining object in the frame of interest and the distance from the rejected object (installed object) to the remaining object in the frame before the frame of interest is equal to or less than a predetermined value. The remaining object is determined as a non-detection target (continuous object image data). That is, the second determination unit 455 is a continuous object image that indicates a part of the reference image data in which the
また、第2判定部455は、基準画像及び比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、第1判定部452が判定した設置物画像データを、基準画像及び比較画像の間で生じる視差の頻度分布に基づいて第1判定部452が判定した設置物画像データとみなしてもよい。つまり、第2判定部455は、過去の設置物画像データを判定に用いるように構成されてもよい。
In addition, the second determination unit 455 performs the first determination based on the frequency distribution of the parallax generated between the frame of the reference image captured at the time before the reference image and the comparison image are captured and the frame of the comparison image. The installation object image data determined by the
ここで、画像の特徴量と認識処理(検出処理)について補足説明する。画像認識の方式としては、これまで種々のものが提案されているが、2つの画像の類似度を定量化できるものであれば任意の手法でよい。例えば、棄却物体をテンプレートとして、誤って検出対象であると判定された誤検出物体に対してテンプレートマッチングを行う方法がある。 Here, a supplementary description will be given of the feature amount of the image and the recognition process (detection process). Various image recognition methods have been proposed so far, but any method may be used as long as the similarity between two images can be quantified. For example, there is a method of performing template matching on an erroneously detected object that is erroneously determined to be a detection target using a reject object as a template.
また、SIFT(Scale−Invariant Feature Transform)などの局所特徴量を量子化したvisual wordsなるベクトルを用いて認識に利用するBag−of−Visual−Words法や、ニューラルネットを多層化したDeep Learningを用いる方法もある。 In addition, Bag-of-Visual-Words method that uses a vector called visual words obtained by quantizing local features such as SIFT (Scale-Invariant Feature Transform), and Deep Learning with multilayered neural nets are used. There is also a method.
2つの物体の関係を定量化するには、類似度の他に距離尺度を使ってもよい。類似度の場合、スコアが高い方が2つの物体は類似していると考えられる。一方で、距離尺度を使用する場合、スコアが小さい方が2つの物体は類似していると考えられる。従って、最終的には、2つの物体から特徴量を算出し、それらを使って類似度、又は距離を算出して、このスコアが所定範囲に含まれる場合に、2つの物体は類似していると判定する。 In order to quantify the relationship between two objects, a distance measure may be used in addition to the similarity. In the case of similarity, it is considered that two objects are similar when the score is high. On the other hand, when using a distance scale, it is considered that two objects are similar when the score is small. Therefore, finally, when the feature amount is calculated from the two objects, and the similarity or distance is calculated using them, the two objects are similar when this score is included in the predetermined range. Is determined.
第2棄却部456は、第2判定部455が非検出対象であると判定した新規検出物体の画像データを、基準画像の画像データから棄却する。つまり、第2棄却部456は、第1棄却部453が設置物画像データを棄却させた基準画像データから、第2判定部455が判定した連続物画像データ(棄却対象画像データ)を棄却する。
The
トラッキング部46(図4)は、新規検出物体が複数のフレームで連続して出現する場合に、追跡対象であるか否かを判定する。トラッキング部46は、新規検出物体が追跡対象である場合には、その情報を個体情報に付与する。
The tracking unit 46 (FIG. 4) determines whether or not it is a tracking target when a newly detected object appears continuously in a plurality of frames. When the newly detected object is a tracking target, the
出力制御部32は、トラッキング部46が判定した結果に応じて、車両1のエンジンやブレーキなどの機構等を制御する。
The output control unit 32 controls a mechanism such as an engine and a brake of the
次に、フローチャートを用いて、棄却部44を構成する要部の動作を説明する。図20は、第1算出部450の動作を示すフローチャートである。図20に示すように、第1算出部450は、基準画像及び比較画像を用いて、俯瞰マップを作成する(S100)。
Next, operation | movement of the principal part which comprises the
次に、第1算出部450は、俯瞰マップ上で視野角が最小になる位置付近の領域、及び視野角が最大になる位置付近の領域それぞれで、視差頻度の高い点A、Bを算出する。つまり、第1算出部450は、図10等に示した両端点(A、B)を設定し(S102)、円周上の点(D)を順次に設定する(S104)。
Next, the
次に、第1算出部450は、線分AD、線分BDが通過する点の頻度平均値を算出し(S106)、最大の頻度平均値を有する点(D)をDmaxに決定する(S108)。この点Dmaxは、先行車の最も近いコーナーの位置となる。
Next, the
第1算出部450は、正面の車、又は側壁物を新規検出物体とした場合、2つの面の1つが極小さく検出されることがある。第1算出部450は、小さい面を削除する(S110)。
When the
第1算出部450は、削除されていないAD、BDの面の角度を算出し(S112)、対応する画像枠において、各平面の左右の辺のX座標及びY座標の最大最小を算出する(S114)。
The
図21は、棄却部44の第1動作例を示すフローチャートである。まず、棄却部44は、俯瞰マップと新規検出物体情報を読み込む(S200)。次に、棄却部44は、俯瞰マップを使い、新規検出物体ごとに面角度棄却方式で棄却判定する(S202)。次に、棄却部44は、棄却物体と残存物体の画像特徴量を検出し、類似度を測定する(S204)。このとき、棄却部44が処理する新規検出物体の数や順序は任意に設定されてもよい。そして、棄却部44は、類似度が所定範囲内か否かで棄却判定を実施する(S206)。なお、S202とS204の処理は、棄却物体ごとに実施するが、ある棄却物体により、類似度が近いものと判定され棄却された残存物体に対しては、その他の棄却物体との判定処理を実施しなくてもよい。
FIG. 21 is a flowchart illustrating a first operation example of the
次に、棄却部44の第2動作例について説明する。図22は、側壁物中に出現する誤認識物体を示す図である。図22(a)は、輝度画像上で側壁物中に出現する誤認識物体を示している。図22(b)は、俯瞰マップ上で側壁物中に出現する誤認識物体を示している。ここでは、側壁物に対して3つの新規検出物体(面A、面B、面C)が算出されたものとする。この中で、面Aと面Cは非検出対象として棄却され、面Bは角度が俯瞰マップ上の視差の分散の影響を受けて、面角度が正確に算出されなかったために棄却されていなかったとする。
Next, a second operation example of the
この時、第2判定部455は、棄却された面C(又は、面A)を使って、俯瞰マップ上における面Cを近似する近似直線上に誤認識物体が存在するか否かを判定する。図22に示すように、面Bは、面Cを近似した近似直線上に存在することになるので、同じ側壁物の一部分と判定される(図23参照)。 At this time, the second determination unit 455 uses the rejected surface C (or surface A) to determine whether or not an erroneously recognized object exists on the approximate straight line that approximates the surface C on the overhead view map. . As shown in FIG. 22, the surface B exists on an approximate straight line that approximates the surface C, and thus is determined to be a part of the same side wall object (see FIG. 23).
図24は、棄却部44の第2動作例を示すフローチャートである。なお、棄却部44の各動作例において上述した処理と実質的に同じ処理には同一の符号が付してある。第2判定部455は、俯瞰マップ上の棄却物体を近似する近似直線上に存在する残存物体の有無を判定する(S300)。
FIG. 24 is a flowchart illustrating a second operation example of the
例えば、図25に示すように、第2判定部455は、近似直線700上に複数の残存物体702のいずれが存在するかを判定する。ここで、近似直線700上に存在するか否かの判定は、近似直線700が残存物体702に一部分でも重なっていれば含まれると判定してもよいし(図26(a)参照)、残存物体702の中心から所定間隔離れた位置までに重なっていれば含まれると判定してもよい(図26(b)参照)。後者の条件下では、図26(a)に示した重なり方では、近似直線700上に残存物体702が存在しないと判定される。
For example, as illustrated in FIG. 25, the second determination unit 455 determines which of the plurality of remaining
そして、第2棄却部456は、近似直線上に存在している物体を誤検出物体と判定して棄却する(S302)。
Then, the
図27は、棄却部44の第3動作例を模式的に示す図である。図27において、第2判定部455は、2つの画像センサ22の中間点(中心)からみて、上述した近似直線よりも外側に位置する面C及び面Dを非検出対象であると判定する。例えば、第2判定部455は、車道以外に存在する物体の認識が不要な場合、車道外(つまり側壁物よりも外側)に存在する物体を非検出対象であると判定する。
FIG. 27 is a diagram schematically illustrating a third operation example of the
このように、棄却部44は、側壁物を車道と歩道の境界と仮定して、側壁物よりも外部に当たる領域に存在する物体を棄却することにより、車道に存在する物体を誤って棄却することなく、不要な物体を棄却することができる。
As described above, the
次に、棄却部44の第4動作例について説明する。側壁物は静止物体であるため、動画像のフレーム間で移動することはない。従って、2つのフレームそれぞれで検出される同一の物体間の距離は不変である。一方、移動する車両と移動しない側壁物との距離は、フレーム間で変化する。棄却部44の第4動作例では、この特徴を利用して、面角度棄却方式で棄却された側壁物の一部分である棄却物体と、棄却されなかった側壁物の一部分である誤検出物体の内、相互間の距離が変化しない物体を、側壁物の一部分と見なして棄却する。ここでの距離は、画像上の距離であってもよいし、実距離であってもよい。
Next, a fourth operation example of the
図28は、棄却部44の第4動作例を模式的に示す図である。図28においては、棄却物体800及び検出対象(非棄却物体)802、804の位置関係と、棄却物体800及び誤検出物体806の位置関係を、それぞれ隣接するフレーム間で見たときの例が示されている。
FIG. 28 is a diagram schematically illustrating a fourth operation example of the
図28の上図では、画像がフレームn−1からフレームnに変わったとき、棄却物体(側壁物)800は移動し、検出対象802、804は移動していない。検出対象802、804となっている車両は、それぞれ自車と同じ速度で走行していることになる。そして、画像がフレームn−1からフレームnに変わったとき、棄却物体800から検出対象802、804までの距離がそれぞれ変化している。
In the upper diagram of FIG. 28, when the image changes from frame n-1 to frame n, the reject object (side wall object) 800 moves, and the detection targets 802 and 804 do not move. The vehicles that are the detection targets 802 and 804 are traveling at the same speed as the own vehicle. When the image changes from frame n-1 to frame n, the distances from the rejected
一方で、図28の下図では、棄却物体(側壁物)800と誤検出物体(側壁物)806は共に移動しないため、両者の距離は変化していない。多くの場合、連続するフレームでは同じ物体が検出される。前フレームでの棄却物体800と誤検出物体806(棄却物体でも可能)の位置関係を保存しておくことにより、誤検出物体を棄却することが可能である。
On the other hand, in the lower diagram of FIG. 28, since the reject object (side wall object) 800 and the erroneously detected object (side wall object) 806 do not move, the distance between them does not change. In many cases, the same object is detected in successive frames. By storing the positional relationship between the
なお、車両1のCANデータを用いれば、前方に進んでいるのか、後方に進んでいるのかがわかるため、移動ベクトルから、前フレームでのペアの出現位置を推定することができる。従って、前フレームの情報を参照する時は、推定した位置に存在するペアのみを参照して処理対象とすることが可能である。これは、処理の高速化に寄与する。また、棄却部44は、処理対象とするペアを棄却された物体と、その物体を近似する近似直線上に存在する物体とに限定してもよい。これにより、側壁物上に含まれない物体を誤って棄却してしまうリスクを回避できる。また、上記は自車両が前方に走行している場合を想定しているが、逆方向、つまり、背走している際にも同様の方法で棄却処理を実施できる。
Note that if the CAN data of the
図29は、棄却部44の第4動作例を示すフローチャートである。第2判定部455は、着目フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448に保存し、前フレームの新規検出物体のペアを示す新規検出物体情報を記憶部448から取得する(S400)。棄却部44の第4動作例では、最低でも2つの新規検出物体情報を使用するため、着目フレームで検出される物体数が1つ以下である場合は、これ以降の処理を全てスキップする。
FIG. 29 is a flowchart illustrating a fourth operation example of the
この時、保存する情報は、最低でも1つ以上の棄却物体が含まれるようにペアを生成して、該当するペアを示す新規検出物体情報を保存する。これは、検出対象のペアの新規検出物体情報を誤って保存してしまうと、次のフレームにおいて、検出対象のペアが移動ベクトルから推定される位置に出現した場合に、このペアを誤って棄却してしまうリスクがあるためである。 At this time, as information to be stored, a pair is generated so that at least one rejected object is included, and newly detected object information indicating the corresponding pair is stored. This is because if the newly detected object information of the detection target pair is stored in error, it will be rejected if the detection target pair appears at the position estimated from the movement vector in the next frame. This is because there is a risk that it will.
また、棄却部44は、新規検出物体情報を保存するときに、常に1フレームの情報のみを保存してもよいし、数フレーム分の情報を保存させてもよい。1フレームの情報を保存し、1つ後のフレームでペアが検出されなかった場合、2つ後のフレームで参照する情報は2フレーム前の情報になる。
The
第2棄却部456は、着目フレーム、前フレーム内の新規検出物体ペアの距離を使って棄却判定を実施する(S402)。
The
図30は、棄却部44の第5動作例を模式的に示す図である。棄却部44は、第1動作例〜第4動作例に示した動作を行う場合に、着目フレームの情報だけでなく、1つ以上前のフレーム情報を合わせて使用するように構成されてもよい。
FIG. 30 is a diagram schematically illustrating a fifth operation example of the
例えば、図30(a)に示したように、着目フレーム(n)があったとする。図30(a)では、フレーム(n)において残存物体808が存在している。図30(b)では、フレーム(n−1)において棄却物体810と、残存物体808が存在している。
For example, assume that there is a frame of interest (n) as shown in FIG. In FIG. 30A, a remaining
図30(a)において、フレーム(n)内に存在する残存物体808は、側壁物の一部分(誤検出物体)であるにも関わらず、棄却物体810が同フレーム内に存在しないため、棄却することができない。そこで、棄却部44は、1つ以上前のフレーム情報を使用する。
In FIG. 30A, the remaining
図30(b)において、フレーム(n−1)に棄却物体810が存在しているため、この物体を使って、フレーム(n)内の誤検出物体である残存物体808を棄却することが可能である。
In FIG. 30B, since the
図30に示した例では、1つ前のフレーム情報を保存するようにしているが、2つ以上前のフレーム情報を保存するようにしてもよい。これは、1つ前のフレームで照明条件などの変化によって偶発的に棄却物体810が検出されないリスクがあるためである。2つ以上前のフレーム情報も使用することによって棄却物体810が検出されないリスクを回避することができる。なお、本実施形態においては、棄却部44は、棄却判定を行う機能までを有する構成であるが、これに限らず、後段の処理部(例えば、トラッキング部46)に対して出力する機能を有していてもよい。
In the example shown in FIG. 30, the previous frame information is stored, but two or more previous frame information may be stored. This is because there is a risk that the
1 車両
2 ステレオカメラ(撮像部)
2a、2b カメラ部
3 車両ECU
4 物体認識装置
21 レンズ
22 画像センサ
23 センサコントローラ
30 画像処理装置
32 出力制御部(制御部)
40 視差計算部
42 クラスタリング部
44 棄却部
46 トラッキング部
304 CPU
308 ROM
310 RAM
442 取得部
444 第1処理部
446 第2処理部
448 記憶部
450 第1算出部
451 対象面決定部
452 第1判定部
453 第1棄却部
454 第2算出部
455 第2判定部
456 第2棄却部
700 近似直線
702 残存物体
1
2a, 2b Camera unit 3 Vehicle ECU
4
40 Parallax calculation unit 42
308 ROM
310 RAM
442
Claims (15)
前記設置物画像データを前記基準画像データから棄却する第1棄却部と、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する第2判定部と、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する第2棄却部と、
を有することを特徴とする画像処理装置。 One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. A first determination unit that determines that the unit is installation image data indicating an installation installed so as to be continuous in a predetermined direction;
A first rejection unit that rejects the installation object image data from the reference image data;
A part of the reference image data in which the first rejection unit rejects the installation object image data is determined to be continuous object image data indicating an object continuous to the installation object based on the installation object image data. A second determination unit to perform,
A second rejection unit that rejects the continuous object image data from the reference image data in which the first rejection unit rejects the installation object image data;
An image processing apparatus comprising:
を有し、
前記第1判定部は、
前記第1算出部が算出した面が1つである物体の面の角度に基づいて、前記基準画像データの一部を前記設置物画像データであると判定すること
を特徴とする請求項1に記載の画像処理装置。 A first calculating unit that calculates an angle of a surface included in an object imaged in the reference image with respect to straight lines passing through the imaging positions of the reference image and the comparative image based on the frequency distribution of the parallax;
The first determination unit includes:
2. The apparatus according to claim 1, wherein a part of the reference image data is determined to be the installation object image data based on an angle of a surface of an object having one surface calculated by the first calculation unit. The image processing apparatus described.
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの所定の基準に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項2に記載の画像処理装置。 The first determination unit includes:
It is determined whether the image data indicating the object having a plurality of surfaces calculated by the first calculation unit is the installation object image data based on a predetermined criterion for each of the plurality of surfaces indicated by the image data of the object. The image processing apparatus according to claim 2, wherein:
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの長さの比に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項3に記載の画像処理装置。 The first determination unit includes:
Whether the image data is the installation object image data based on the ratio of the lengths of the plurality of surfaces indicated by the image data of the object with respect to the image data indicating the object including a plurality of surfaces calculated by the first calculation unit. The image processing apparatus according to claim 3, wherein the determination is performed.
前記第1算出部が算出した面を複数備える物体を示す画像データに対し、物体の画像データが示す複数の面それぞれの面積の比に基づいて、前記設置物画像データであるか否かを判定すること
を特徴とする請求項3に記載の画像処理装置。 The first determination unit includes:
It is determined whether or not the image data is the installation object image data based on a ratio of the areas of the plurality of surfaces indicated by the image data of the object with respect to the image data indicating the object having a plurality of surfaces calculated by the first calculation unit. The image processing apparatus according to claim 3, wherein:
前記設置物画像データが有する特徴量に対し、類似度が所定範囲にある特徴量を有する前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。 The second determination unit includes
The part of the reference image data having a feature amount having a similarity in a predetermined range with respect to the feature amount of the installation object image data is determined as the continuous object image data. The image processing apparatus according to claim 5.
前記設置物が連続している方向を示すように前記設置物画像データを近似させた近似直線上にある物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The second determination unit includes
Determining that a part of the reference image data indicating an object on an approximate straight line obtained by approximating the installation object image data so as to indicate a direction in which the installation object is continuous is the continuous object image data. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
物体を示す前記基準画像データの一部が、前記基準画像及び前記比較画像それぞれの撮像位置の中間点との間に前記近似直線を挟む場合、当該物体を示す前記基準画像データの一部を棄却対象画像データであると判定し、
前記第2棄却部は、
前記第1棄却部が前記設置物画像データを棄却させた前記基準画像データから、前記棄却対象画像データを棄却すること
を特徴とする請求項7に記載の画像処理装置。 The second determination unit includes
When a part of the reference image data indicating an object sandwiches the approximate straight line between the reference image and the intermediate point of the respective imaging positions of the comparison image, a part of the reference image data indicating the object is rejected Determine that it is target image data,
The second rejection unit is
The image processing apparatus according to claim 7, wherein the first rejection unit rejects the rejection target image data from the reference image data in which the installation object image data is rejected.
前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データが示す設置物に対して、時間が経過しても前記基準画像データの一部が示す物体からの距離が所定値以下の変化である場合、当該物体を示す前記基準画像データの一部を前記連続物画像データであると判定すること
を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The second determination unit includes
The installation determined by the first determination unit based on a frequency distribution of parallax generated between a frame of the reference image captured at a time before the reference image and the comparison image are captured and a frame of the comparison image A part of the reference image data indicating the object when the distance from the object indicated by a part of the reference image data is a predetermined value or less with respect to the installation object indicated by the image data even if time passes. The image processing apparatus according to claim 1, wherein the image processing device is determined to be the continuous image data.
前記基準画像及び前記比較画像が撮像される以前の時刻に撮像された基準画像のフレームと比較画像のフレームとの間で生じる視差の頻度分布に基づいて、前記第1判定部が判定した設置物画像データを、前記基準画像及び前記比較画像の間で生じる視差の頻度分布に基づいて前記第1判定部が判定した設置物画像データとみなすこと
を特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The second determination unit includes
The installation determined by the first determination unit based on a frequency distribution of parallax generated between a frame of the reference image captured at a time before the reference image and the comparison image are captured and a frame of the comparison image The image data is regarded as installation image data determined by the first determination unit based on a frequency distribution of parallax generated between the reference image and the comparison image. The image processing apparatus according to item.
を特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising an output unit that outputs a rejection result by the second rejection unit.
請求項1〜11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする物体認識装置。 A stereo camera that captures the reference image and the comparison image;
The image processing apparatus according to any one of claims 1 to 11,
An object recognition apparatus comprising:
を有することを特徴とする機器制御システム。 The image processing apparatus according to claim 1, wherein the second rejection unit includes a control unit that controls an apparatus based on the reference image data in which the continuous image data is rejected. A characteristic device control system.
前記設置物画像データを前記基準画像データから棄却する工程と、
前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定する工程と、
前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却する工程と、
を含むことを特徴とする画像処理方法。 One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. A step of determining that the image data is an installation object image indicating an installation object installed in a predetermined direction.
Rejecting the installation object image data from the reference image data;
Determining a part of the reference image data in which the installation object image data is rejected as continuous object image data indicating an object continuous to the installation object based on the installation object image data;
A step of rejecting the continuous object image data from the reference image data in which the installation object image data is rejected;
An image processing method comprising:
前記設置物画像データを前記基準画像データから棄却するステップと、
前記設置物画像データを棄却させた前記基準画像データの一部を、前記設置物画像データに基づいて、前記設置物に連続する物体を示す連続物画像データであると判定するステップと、
前記設置物画像データを棄却させた前記基準画像データから、前記連続物画像データを棄却するステップと、
をコンピュータに実行させるための画像処理プログラム。 One reference image data indicating the reference image based on a frequency distribution of parallax generated between a reference image in which one or more objects are captured and a comparative image captured from an imaging position different from the reference image. Determining that the portion is installation image data indicating an installation installed so as to be continuous in a predetermined direction;
Rejecting the installation object image data from the reference image data;
Determining a part of the reference image data in which the installation object image data is rejected as continuous object image data indicating an object continuous to the installation object based on the installation object image data;
A step of rejecting the continuous object image data from the reference image data in which the installation object image data is rejected;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015182354A JP6569416B2 (en) | 2015-09-15 | 2015-09-15 | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015182354A JP6569416B2 (en) | 2015-09-15 | 2015-09-15 | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017058890A JP2017058890A (en) | 2017-03-23 |
JP6569416B2 true JP6569416B2 (en) | 2019-09-04 |
Family
ID=58391497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015182354A Expired - Fee Related JP6569416B2 (en) | 2015-09-15 | 2015-09-15 | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6569416B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017094300A1 (en) | 2015-11-30 | 2017-06-08 | 株式会社リコー | Image processing device, object recognition device, device conrol system, image processing method, and program |
EP3399499A4 (en) | 2015-12-28 | 2019-01-09 | Ricoh Company, Ltd. | Image processing device, object recognition device, machinery control system, image processing method, and image processing program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6150164B2 (en) * | 2013-07-01 | 2017-06-21 | 株式会社リコー | Information detection apparatus, mobile device control system, mobile object, and information detection program |
JP2015148887A (en) * | 2014-02-05 | 2015-08-20 | 株式会社リコー | Image processing device, object recognition device, moving body instrument control system and object recognition program |
-
2015
- 2015-09-15 JP JP2015182354A patent/JP6569416B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017058890A (en) | 2017-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6274557B2 (en) | Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program | |
US10776946B2 (en) | Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium | |
JP6184877B2 (en) | Vehicle external recognition device | |
JP7206583B2 (en) | Information processing device, imaging device, device control system, moving object, information processing method and program | |
JP5561064B2 (en) | Vehicle object recognition device | |
US10748014B2 (en) | Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium | |
JP6150164B2 (en) | Information detection apparatus, mobile device control system, mobile object, and information detection program | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
JP2008064628A (en) | Object detector and detecting method | |
JPWO2017145634A1 (en) | Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program | |
US11145063B2 (en) | Image processing apparatus | |
JP5073700B2 (en) | Object detection device | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
US11054245B2 (en) | Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium | |
JP6569416B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program | |
JP6683245B2 (en) | Image processing device, image processing method, image processing program, object recognition device, and device control system | |
JP6701905B2 (en) | Detection device, parallax value derivation device, object recognition device, device control system, and program | |
JP2018092608A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and program | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program | |
JP2020126304A (en) | Out-of-vehicle object detection apparatus | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP7005762B2 (en) | Sign recognition method of camera device and sign recognition device | |
KR102681321B1 (en) | Performance evaluation apparatus for highway driving assist system that calculates distance using dual cameras and method thereof | |
JP6943092B2 (en) | Information processing device, imaging device, device control system, moving object, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180808 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6569416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |