JP2018092603A - Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program - Google Patents
Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2018092603A JP2018092603A JP2017176867A JP2017176867A JP2018092603A JP 2018092603 A JP2018092603 A JP 2018092603A JP 2017176867 A JP2017176867 A JP 2017176867A JP 2017176867 A JP2017176867 A JP 2017176867A JP 2018092603 A JP2018092603 A JP 2018092603A
- Authority
- JP
- Japan
- Prior art keywords
- depth direction
- unit
- separation
- column
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムに関する。 The present invention relates to an information processing device, an imaging device, a device control system, a moving body, an information processing method, and an information processing program.
今日において、歩行者又は自動車等との衝突の際に、いかに歩行者を守れるか及び乗員を保護できるかという、自動車の安全性における観点から自動車のボディー構造等の開発が行われている。近年においては、情報処理技術、画像処理技術の発達により、人及び自動車等を高速に検出する技術が知られている。これらの技術を用いることで、衝突する前に自動的にブレーキをかけて衝突を未然に防止する衝突防止システムが設けられた自動車も知られている。この衝突防止システムの場合、ミリ波レーダ装置、レーザレーダ装置又はステレオカメラ装置等を用いて人又は他車等までの距離を測距し、この測距した結果に基づいて、ブレーキ制御を行う。これにより、人又は他車等との距離に応じて、自動的にブレーキをかけることができる。 2. Description of the Related Art Today, automobile body structures and the like have been developed from the viewpoint of automobile safety, such as how to protect pedestrians and protect passengers in the event of a collision with a pedestrian or automobile. In recent years, with the development of information processing technology and image processing technology, technology for detecting humans, automobiles and the like at high speed is known. There is also known an automobile provided with a collision prevention system that uses these techniques to automatically brake before a collision to prevent the collision. In the case of this collision prevention system, a distance to a person or another vehicle is measured using a millimeter wave radar device, a laser radar device, a stereo camera device, or the like, and brake control is performed based on the measured result. Thus, the brake can be automatically applied according to the distance from the person or other vehicle.
特許文献1(特開平6−266828号公報)には、ガードレール、植え込み、パイロン列等の道路の境界となる連続した立体物を側壁として検出する車輛用車外監視装置が開示されている。この車輛用車外監視装置は、ステレオ光学系で車輌の車外の設置範囲内の対象を撮像する。ステレオ画像処理装置は、ステレオ光学系10の撮像画像全体に渡る距離分布を計算する。道路・側壁検出装置は、この距離分布に対応する被写体の各部分の三次元位置を計算する。そして、道路・側壁検出装置は、計算した三次元位置の情報を用いて道路の形状と側壁を検出する。 Patent Document 1 (Japanese Patent Laid-Open No. 6-266828) discloses a vehicle exterior monitoring device that detects a continuous three-dimensional object serving as a road boundary such as a guardrail, planting, and pylon train as a side wall. This vehicle exterior monitoring apparatus captures images of objects within an installation range outside a vehicle with a stereo optical system. The stereo image processing apparatus calculates a distance distribution over the entire captured image of the stereo optical system 10. The road / side wall detection device calculates the three-dimensional position of each part of the subject corresponding to this distance distribution. The road / side wall detection device detects the shape and the side wall of the road using the calculated three-dimensional position information.
ここで、人及び自動車等の物体検出処理は、上述のように人又は他車等の物体までの距離を計測することで行われる。このため、まず、各物体を正確に分離して検出することが好ましい。 Here, the object detection process such as a person and an automobile is performed by measuring the distance to an object such as a person or another vehicle as described above. For this reason, it is preferable that each object is first separated and detected accurately.
しかし、高速で物体を検出しようとすると、物体検出処理における解析処理が粗くならざるを得ない。このため、特許文献1の技術を含む従来の物体検出技術の場合、例えば壁と車両が近くに位置している場合に、壁と車両を物理的に同一物体として誤検出する問題があった。また、多数の先行車両が縦に繋がって走行又は停車しているように見える場合、車両の列を壁として誤検出する問題があった。なお、綿密な解析処理を行うことで物体の認識精度を向上させることができるが、この場合、解析時間が長くなることから、物体検出処理の高速化に支障をきたす。検出処理時間と検出精度との間には、このようなトレードオフの関係がある。 However, if an object is to be detected at high speed, the analysis process in the object detection process must be rough. For this reason, in the case of the conventional object detection technique including the technique of Patent Document 1, for example, when the wall and the vehicle are located close to each other, there is a problem that the wall and the vehicle are erroneously detected as the same object. In addition, when it appears that a number of preceding vehicles are vertically connected and running or stopped, there is a problem of erroneously detecting the vehicle row as a wall. In addition, although the accuracy of object recognition can be improved by performing a thorough analysis process, in this case, the analysis time becomes long, which hinders the speeding up of the object detection process. There is such a trade-off relationship between the detection processing time and the detection accuracy.
本発明は、上述の課題に鑑みてなされたものであり、高速かつ高精度で物体を検出できる情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and provides an information processing device, an imaging device, a device control system, a moving body, an information processing method, and an information processing program capable of detecting an object at high speed and with high accuracy. The purpose is to do.
上述した課題を解決し、目的を達成するために、本発明は、物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成部と、2次元分布情報上の物体における、奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、奥行方向に沿って物体を分離処理する分離部とを有する。 In order to solve the above-described problems and achieve the object, the present invention is based on information in which a vertical position, a horizontal position, and a depth direction position of an object are associated with each other. A generating unit for generating two-dimensional distribution information indicating the length of each column along the depth direction in an object on the two-dimensional distribution information, and in the depth direction with a column of a predetermined length as a boundary And a separation unit that separates the object.
本発明によれば、高速かつ高精度で物体を検出できるという効果を奏する。 According to the present invention, it is possible to detect an object at high speed and with high accuracy.
以下、図面を参照して、実施の形態の機器制御システムの説明をする。 Hereinafter, an apparatus control system according to an embodiment will be described with reference to the drawings.
(第1の実施の形態)
(システム構成)
第1の実施の形態の機器制御システムは、図1に示すように車両1のフロントガラス等に設けられ、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2を有している。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。
(First embodiment)
(System configuration)
As shown in FIG. 1, the device control system of the first embodiment includes a
図2は、移動体の一例である車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は車両1に設置され、例えば車両1のエンジン制御、制動制御、及び走行レーンキープアシスト、操舵アシスト等の車両1に対する制御を行う。なお、以下、移動体の一例である車両について説明するが、本実施の形態の機器制御システムは、船舶、航空機、ロボット等にも適用可能である。
FIG. 2 is a diagram illustrating a configuration example of the
(撮像装置の構成)
図3は、ステレオカメラ2を備えた撮像装置4の構成例を示す図である。撮像装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。
(Configuration of imaging device)
FIG. 3 is a diagram illustrating a configuration example of the imaging device 4 including the
カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
Each of the
画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。
The
上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。
The
FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。なお、以下、「視差画像」のように「画像」という語を用いて説明する場合は、必ずしもディスプレイ等の表示を要するものではなく、単なる情報の集合体を含むものとする。
The FPGA 306 generates real-time parallax images by performing parallax calculation based on, for example, gamma correction, distortion correction (parallelization of left and right images), and block matching, which are processes that require real-time processing for image data stored in the RAM 310. , Write again to the RAM 310. The CPU 304 performs control of each
検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、車両ECU3に供給され、車両ECU3の制御機能として設けられた例えば自動ブレーキシステム又は走行アシストシステム等で用いられる。自動ブレーキシステムは、車両1のブレーキ制御を行う。また、走行アシストシステムは、車両1の走行レーンキープアシスト及び操舵アシスト等を行う。
The detection data (recognition data) of the detection target (recognition target) is supplied to the
(画像処理装置の機能)
画像処理装置30は、図4に示すように平行化部42、視差画像生成部43、Uマップ生成部44(生成部の一例)、壁検出部45及び分離部46(分離部の一例)の各機能を有している。平行化部42及び視差画像生成部43は、例えばFPGA306のプログラム可能な論理ブロックにより、ハードウェアで実現される。なお、この例では、平行化部42及び視差画像生成部43は、ハードウェアで実現することとしたが、以下に説明する立体物認識プログラム等により、ソフトウェアで実現してもよい。
(Function of image processing device)
As shown in FIG. 4, the
Uマップ生成部44、壁検出部45及び分離部46の各機能を、例えばRAM310又はROM308等の記憶部に記憶されている立体物認識プログラムを、CPU304が実行することで実現する。
The functions of the U
なお、この例では、Uマップ生成部44〜分離部46をソフトウェアで実現することとして説明を進めるが、Uマップ生成部44〜分離部46のうち、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。
In this example, the description will be made on the assumption that the U
また、立体物認識プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、立体物認識プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、立体物認識プログラムは、機器内のROM等に予め組み込んで提供してもよい。 The three-dimensional object recognition program may be provided as a file in an installable format or an executable format and recorded on a recording medium readable by a computer device such as a CD-ROM or a flexible disk (FD). Further, the program may be provided by being recorded on a recording medium readable by a computer device such as a CD-R, a DVD (Digital Versatile Disk), a Blu-ray Disc (registered trademark), or a semiconductor memory. The three-dimensional object recognition program may be provided by being installed via a network such as the Internet. The three-dimensional object recognition program may be provided by being incorporated in advance in a ROM or the like in the device.
(画像処理装置の動作)
ステレオカメラ41は、各カメラ部2a、2bでカラー輝度変換処理により輝度画像データを生成し、FPGA306の平行化部42に供給する。平行化部42は、ステレオカメラ41から供給された輝度画像データに平行化処理を施すことで、各カメラ部2a、2bの光学系の歪みを補正した平行な輝度画像を生成する。
(Operation of image processing device)
The
視差画像生成部43は、画素毎に距離情報を備えた距離画像の一例である、画素毎に視差値を備えた視差画像を生成する。すなわち、視差画像は、物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報の一例である。Uマップ生成部44は、視差画像生成部43により生成された視差画像に基づいて、横軸を実距離、縦軸を視差値dとし、z軸に頻度を表した2次元ヒストグラムであるUマップを生成する。すなわち、Uマップは、視差画像に基づいて生成された俯瞰的なマップ(鳥瞰画像、俯瞰画像)であり、物体の横方向位置及び奥行方向位置が対応づけられた2次元分布情報である。なお、説明の都合上、「マップ」という語句を用いるが、実際にマップを生成するのではなく、このような特徴を有する情報を生成し、2次元分布情報として、例えばRAM310又はROM308等の記憶部に記憶すると理解されたい。
The parallax
視差画像生成部43は、路面からの高さが所定の高さの範囲(たとえば20cmから3m)にある視差画像の点(x,y,d)を(d)の値に基づいて高さを計算し、投票の可否を決定してもよい。路面の位置および路面からの高さは、視差画像を利用して公知の方法により算出できる。投票位置の横位置は視差画像の点(x,y,d)の(x,d)の値を用いて計算する。視差画像の画像中央とxの画素での距離を実距距離に変換し、投票の横位置を決定する。例えば、図5(a)に示す道路の右端に沿って壁w1が設けられており、この壁w1に沿って車両c1が走行している撮像画像に対応する視差画像が供給されとする。この場合、Uマップ生成部44は、図5(b)に示すように、手前から奥行き方向に沿って伸びる直線の棒状の壁w1、及び、壁w1に接触した状態で四角形状の車両c1の背面が投票されたUマップを生成する。
The parallax
壁検出部45は、例えば図5(b)に示したUマップ上に投票されている壁w1を検出する。しかし、図5(b)に示す例の場合、壁w1と車両c1が接触した状態で投票されているため、壁w1と車両c1を一塊の壁として誤検出するおそれがある。このため、分離部46は、列方向の分離処理を実行することで、壁検出部45により、一塊の壁として検出されたオブジェクトを、壁w1及び車両c1に分離する。
For example, the
(列方向分離処理)
図6に、一塊の壁として検出されたオブジェクト(壁検出結果)を、壁w1及び車両c1に分離する処理の流れを示す。分離部46は、ステップS1を介して処理を開始し、全ての壁検出結果に対する処理が終了するまで、ステップS2〜ステップS7の処理を繰り返し実行する。
(Column direction separation processing)
FIG. 6 shows a flow of processing for separating an object (wall detection result) detected as a lump of walls into a wall w1 and a vehicle c1. The
ステップS2:壁検出結果となる画像(オブジェクト)の列毎に高さ(奥行方向の長さ)を検出する。 Step S2: The height (length in the depth direction) is detected for each column of the image (object) that is the wall detection result.
ステップS3:ステップS2で検出した列の高さ(奥行方向の長さ)は、現在、高さ(奥行方向の長さ)を検出しているオブジェクトにおける、検出済みの列の高さ(奥行方向の長さ)のうち、最大となる高さ(奥行方向の長さ)か否かを判別する。ステップS3がNoの場合は、ステップS5に処理を進める。 Step S3: The column height (length in the depth direction) detected in step S2 is the height of the detected column (depth direction) in the object whose height (length in the depth direction) is currently detected. It is determined whether or not the maximum height (the length in the depth direction) is included. If step S3 is No, the process proceeds to step S5.
ステップS4:検出した列の高さ(奥行方向の長さ)が最大と判別された場合(ステップS3:Yes)、現在のオブジェクトに対する列の最大の高さ(奥行方向の長さ)の値、及び、最大の高さ(奥行方向の長さ)の値を有する列の位置情報を更新する。 Step S4: When it is determined that the detected column height (length in the depth direction) is the maximum (step S3: Yes), the value of the maximum column height (depth direction length) for the current object, Then, the position information of the column having the value of the maximum height (length in the depth direction) is updated.
ステップS5:現在のオブジェクトに対する、全ての列の高さ(奥行方向の長さ)等の検出(探索)は終了したか否かを判別。現在のオブジェクトの全ての列に対する探索が終了していない場合は(ステップS5:No)、ステップS2に処理を戻し、現在のオブジェクトにおける、探索を行っていない列に対して探索を行う。 Step S5: It is determined whether or not the detection (search) of the height (length in the depth direction) of all the columns for the current object has been completed. If the search for all the columns of the current object has not been completed (step S5: No), the process returns to step S2, and the search is performed for the column in the current object that has not been searched.
ステップS6:現在のオブジェクトの全ての列に対する探索が終了した際に、現在のオブジェクトの最大の高さ(奥行方向の長さ)の列の位置情報を、壁の位置を示す壁位置情報として、RAM310又はROM308等の記憶部に記憶する。 Step S6: When the search for all the columns of the current object is completed, the position information of the column of the maximum height (length in the depth direction) of the current object is used as the wall position information indicating the wall position. It memorize | stores in memory | storage parts, such as RAM310 or ROM308.
ステップS7:全てのオブジェクトに対する探索が終了した際に、図6のフローチャートの処理終了し(ステップS7:Yes)、全てのオブジェクトに対する探索が終了していない場合は(ステップS7:No)、ステップS1に処理を戻し、上述の各処理を、他のオブジェクトに対して繰り返し実行する。 Step S7: When the search for all objects is completed, the process of the flowchart of FIG. 6 is terminated (step S7: Yes). If the search for all objects is not completed (step S7: No), step S1 is performed. The process is returned to the above, and the above-described processes are repeatedly executed on other objects.
図7は、このようなオブジェクトの列方向の分離処理を模式図である。すなわち、分離部46は、図7(a)に示すように、オブジェクトの各列の高さ(奥行方向の長さ)を検出する(ステップS2〜ステップS5)。次に分離部46は、オブジェクトを構成する各列のうち、最大長の列の位置情報を壁位置情報として記憶部に記憶する。
FIG. 7 is a schematic diagram showing such separation processing of objects in the column direction. That is, as shown in FIG. 7A, the
分離部46は、この壁位置情報で示される列を境界として一塊のオブジェクトを分離することで、壁w1と車両c1を分離する。これにより、解像度の低いUマップを用いても、オブジェクトを構成する列で最大長の列を境にオブジェクトを分離するという、簡単な分離処理で、精度良くオブジェクトの分離を行うことができる。また、簡単な演算処理でオブジェクトを分離できるため、高速にオブジェクトの分離処理を行うことができる。すなわち、簡単な情報処理演算で高速に物体の分離処理を行うことができる。
The separating
(第2の実施の形態)
次に、第2の実施の形態の機器制御システムの説明をする。第1の実施の形態のように、最大長の列を境界としてオブジェクトを分離した場合、図7(c)に示す、分離後における左側の部分的なオブジェクトのように、物体として特定困難なオブジェクトが残るおそれがある。すなわち、図7(c)の例の場合、 分離後における左側の部分的なオブジェクトは、車両として検出することが困難な形状を有している。
(Second Embodiment)
Next, a device control system according to the second embodiment will be described. When the object is separated using the maximum length column as a boundary as in the first embodiment, an object that is difficult to identify as an object, such as the partial object on the left side after separation shown in FIG. May remain. That is, in the example of FIG. 7C, the left partial object after separation has a shape that is difficult to detect as a vehicle.
第2の実施の形態の機器制御システムは、このような不都合を防止するため、分離部46が、図8のフローチャートに従って処理を実行することで、さらに精度よく、オブジェクトを分離可能とした。なお、図8のフローチャートにおいて、ステップS1〜ステップS5及びステップS7は、上述の図6のフローチャートのステップS1〜ステップS5及びステップS7とそれぞれ同じ処理である。すなわち、図6のフローチャートと図8のフローチャートの差異は、ステップS2及びステップS3の間にステップS11及びステップS12の処理が介在し、ステップS5とステップS7との間にステップS13の処理が介在することである。そして、上述の第1の実施の形態と、以下に説明する第2の実施の形態とでは、この点のみが異なる。このため、以下、両者の差異の説明のみ行い、重複説明は省略する。
In the device control system according to the second embodiment, in order to prevent such inconvenience, the
第2の実施の形態の場合、分離部46は、ステップS2において、図9(a)に示すように、壁検出結果(オブジェクト)の各列の高さ(奥行方向の長さ)を検出すると、ステップS11に処理を進め、現在、探索している列の高さ(奥行方向の長さ)は、閾値以上の高さ(奥行方向の長さ)であるか否かを判別する。一例ではあるが、この閾値としては、例えば「10m」等の、常識的に考えられる車両の長さを超える程度の値(多少長めの値)が設定されている。
In the case of the second embodiment, the
分離部46は、閾値以上の高さ(奥行方向の長さ)の列を検出すると(ステップS11:Yes)ステップS12に処理を進め、閾値以上の高さ(奥行方向の長さ)の列の位置情報を壁位置情報としてRAM310等の記憶部に記憶する。図9(b)に示す例の場合、斜線の列が、閾値以上の高さ(奥行方向の長さ)を有する列を示している。分離部は、この斜線の列の位置情報を記憶部に記憶する。
When the
分離部46は、このようにオブジェクトを形成する各列のうち、閾値以上の高さ(奥行方向の長さ)の列の検出が終了すると、ステップS3及びステップS4において、閾値以上の高さ(奥行方向の長さ)の列のうち、最大の高さ(奥行方向の長さ)の列を検出する。そして、分離部46は、ステップS13において、最大の高さ(奥行方向の長さ)の列、及び、最大の高さ(奥行方向の長さ)の列に隣接し、かつ、上述の閾値以上の高さ(奥行方向の長さ)の列の位置を、それぞれ壁位置情報として記憶部に記憶する。
When the
図9(c)の例の場合、列CL6が最大の高さ(奥行方向の長さ)の列である。そして、この最大の列CL6に隣接する列のうち、閾値以上の高さ(奥行方向の長さ)の列は、列CL5である。列CL7は、閾値未満の列である。この場合、分離部46は、列CL5及び列CL6の位置を壁位置情報として記憶部に記憶する。これにより、列CL5及び列CL6を境としてオブジェクトを分離した際に、図9(c)の列CL1〜列CL4に示すように、車両(物体)として特定可能なオブジェクトを残すことができ、さらに精度よく、オブジェクトを分離可能とすることができる他、上述の第1の実施の形態と同じ効果を得ることができる。
In the case of the example of FIG. 9C, the column CL6 is a column having the maximum height (length in the depth direction). Of the columns adjacent to the maximum column CL6, a column having a height (length in the depth direction) equal to or greater than the threshold is the column CL5. The column CL7 is a column that is less than the threshold value. In this case, the
(第3の実施の形態)
(行方向分離処理)
次に、第3の実施の形態の機器制御システムの説明をする。上述の第1及び第2の実施の形態は、オブジェクトを行方向に沿って分離する例であった。これに対して、第3の実施の形態の機器制御システムは、オブジェクトを列方向に沿って分離する例である。なお、上述の各実施の形態と以下に説明する第3の実施の形態は、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Third embodiment)
(Row direction separation processing)
Next, a device control system according to the third embodiment will be described. The first and second embodiments described above are examples in which objects are separated along the row direction. In contrast, the device control system according to the third embodiment is an example in which objects are separated along the column direction. The above-described embodiments are different from the third embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.
一例ではあるが、図10(a)に示すように左車線を先行する車両c1〜車両c3が繋がって見える状態で走行している場合、Uマップ上には、図10(b)に示すように、繋がった状態の各車両c1〜c3の側面に対応する棒状(直線状)のオブジェクトが現れる。また、この棒状のオブジェクトの手前右の部分に接続されるかたちで、最後尾の車両c1の背面に対応する四角形状のオブジェクトが現れる。すなわち、左車線を先行する車両c1〜車両c3が繋がって見える状態の場合、Uマップ上には、図10(b)に示すように「L字状」のオブジェクトが現れる。 As an example, as shown in FIG. 10 (a), when the vehicle c1 to the vehicle c3 preceding the left lane are connected and appear to be connected, on the U map, as shown in FIG. 10 (b). The bar-like (straight-line) object corresponding to the side surface of each vehicle c1 to c3 in the connected state appears. Further, a rectangular object corresponding to the rear surface of the rearmost vehicle c1 appears in a form connected to the right front portion of the rod-shaped object. That is, when the vehicles c1 to c3 preceding the left lane appear to be connected, an “L-shaped” object appears on the U map as shown in FIG.
このようなUマップが得られた場合、第3の実施の形態の機器制御システムの分離部46は、壁検出結果となるオブジェクトの各行の幅の大きさに、所定以上の差異が存在する行を境として、行方向に沿ってオブジェクトを分離処理する。具体的には、分離部46は、図11(a)〜図11(c)に示すように、オブジェクトの手前から、当該オブジェクトを構成する各行の幅の大きさを順に検出する。分離部46は、各行の幅を検出する毎に第1の閾値と比較する。一例ではあるが、この第1の閾値としては、車両1台分の背面の幅の大きさよりも多少狭い値となる例えば「1.5m」が設定されている。分離部46は、各行の幅を検出する毎に第1の閾値以上となる行の幅の数が車両1台分に相当する数であった場合に、最後に第1の閾値以上であることが検出された行を境にオブジェクトを分離する。
When such a U map is obtained, the
これにより、図11(d)に示すように、「手前の車両c1」と、「車両c1に対する先行車両に相当する車両c2及び車両c3」とを分離することができる。また、当該機器制御システムが設けられている車両の制御は、手前の車両c1の走行状態を参照して行われる場合が多い。このため、分離部46は、手前の車両c1以外の車両c2及び車両c3に対応するオブジェクトは、壁の検出結果として車両の制御に用いることなく破棄する。なお、車両c2及び車両c3に対応するオブジェクトを壁の検出結果として用いてもよい。
As a result, as shown in FIG. 11 (d), the “front vehicle c 1” and the “vehicle c 2 and
図12のフローチャートに、このような第3の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS21を介して処理を開始し、ステップS33において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS22〜ステップS33の各処理をオブジェクト毎に繰り返し実行する。
The flowchart of FIG. 12 shows the flow of the row direction separation processing of the
ステップS22では、分離部46が、図11(a)〜図11(c)を用いて説明したように、行毎の幅の大きさを検出する。ステップS23では、分離部46が、車両1台分の背面の幅の大きさよりも若干狭めに設定されている第1の閾値以上であるか否かを判別する。ステップS24では、第1の閾値以上となった行の幅の数をカウントする。ステップS25では、第1の閾値以上となった行の幅の数が、例えば車両1台分の背面部の幅に相当する所定数以上(所定カウント数以上)となったか否かを判別する。ステップS26では、第1の閾値以上の幅を有する行の数が所定カウント数以上となったため、分離部46が、車両に相当するオブジェクトであることを示す情報を、上述の記憶部に記憶する(フラグをONにする)。
In step S22, as described with reference to FIGS. 11A to 11C, the
ステップS27では、分離部46が、フラグがオンか否かを判別する。フラグがオンとなっていない場合(ステップS27:No)、分離部46は、ステップS32において、現在、探索を行っているオブジェクトの全ての行に対する処理が終了したか否かを判別する。全ての行に対する処理が終了したと判別した場合、分離部46は、ステップS33に処理を進め、全てのオブジェクト(壁検出結果)に対する行方向分離処理が終了したか否かを判別する。全てのオブジェクト(壁検出結果)に対する行方向分離処理が終了したと判別した場合(ステップS33:Yes)、分離部46は、図12のフローチャートの処理を終了し、全てのオブジェクトに対する行方向分離処理が終了していないと判別した場合(ステップS33:No)、ステップS21を介してステップS22に処理を戻し、次のオブジェクトの行の幅の検出を開始する。
In step S27, the
ステップS28では、フラグがオンであるため、分離部46が、行の幅が第2の閾値未満であるか否かを判別する。第2の閾値は、例えば最も手前の車両c1の前方を走行する車両c2及び車両c3等に対応して形成されるオブジェクトの幅以上で、車両1台分の背面の幅よりも若干狭めに設定されている第1の閾値よりも、さらに狭い幅の値に設定されている。分離部46は、ステップS29において、第2の閾値未満の幅となる行の数をカウントする。そして、ステップS30において、このカウント値が、車両が連続して所定数以上繋がっている場合にカウントされるカウント値以上であった場合に(ステップS30:Yes)、現在の行の位置でオブジェクトを分離するように、記憶部に記憶されているオブジェクトの位置情報を修正する。
In step S28, since the flag is on, the
なお、分離部46は、分離後における車両c2及び車両c3に対応するオブジェクトの壁位置情報を記憶部から除外する。これにより、車両1のブレーキ制御及び走行位置制御等の運転支援は、車両c1の動きに基づいて行われることとなる。しかし、車両c2及び車両c3は、車両c1よりも遠く(奥行側)に位置するため、差ほど影響はない。
The
第3の実施の形態の機器制御システムは、図11(d)に示すように「最も手前の車両c1」と、「車両c1の前方を走行する車両c2及び車両c3」とを行方向に沿って分離することができる。このため、分離したオブジェクトに基づいて正確な物体認識処理を行うことができ、牽いては、機器制御システムにおける制御の精度を向上させることができる他、上述の各実施の形態と同様の効果を得ることができる。 As shown in FIG. 11 (d), the device control system according to the third embodiment includes a “frontmost vehicle c1” and a “vehicle c2 and a vehicle c3 traveling in front of the vehicle c1” along the row direction. Can be separated. For this reason, accurate object recognition processing can be performed based on the separated objects, and in addition to improving the accuracy of control in the device control system, the same effects as those of the above-described embodiments can be obtained. Can be obtained.
(第4の実施の形態)
(行方向分離処理の他の実施形態)
次に、第4の実施の形態の機器制御システムの説明をする。図13(a)に示すように、道路の左端部に沿って壁w1が設けられており、道路の奥側の位置(遠方側の位置)を車両c1が走行している場合、図13(b)に示すオブジェクトが現れたUマップが得られる。すなわち、図13(b)に示すように、棒状の壁w1のオブジェクトと、車両c1の背面部に対応する四角形状のオブジェクトとが、奥側で接続されたかたちのオブジェクトがUマップ上に現れる。第4の実施の形態の機器制御システムは、このようなオブジェクトを行方向に沿って分離することで、壁w1のオブジェクト及び車両c1のオブジェクトを得る。なお、上述の第3の実施の形態と以下に説明する第4の実施の形態は、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Fourth embodiment)
(Another embodiment of row direction separation processing)
Next, a device control system according to the fourth embodiment will be described. As shown in FIG. 13A, when the wall w1 is provided along the left end portion of the road, and the vehicle c1 is traveling at a position on the back side of the road (a position on the far side), FIG. A U map in which the object shown in b) appears is obtained. That is, as shown in FIG. 13B, an object in a shape in which the object of the rod-shaped wall w1 and the rectangular object corresponding to the back surface of the vehicle c1 are connected on the back side appears on the U map. . The device control system according to the fourth embodiment obtains an object on the wall w1 and an object on the vehicle c1 by separating such objects along the row direction. The third embodiment described above is different from the fourth embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.
図14のフローチャートに、このような第4の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS41を介して処理を開始し、ステップS48において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS42〜ステップS48の各処理をオブジェクト毎に繰り返し実行する。
The flowchart of FIG. 14 shows the flow of the row direction separation process of the
まず、分離部46は、ステップS42において、壁検出結果(オブジェクト)の全ての行の幅を検出する。具体的には、図13(a)に示す撮像画像の場合、図15に示すようなオブジェクトが現れたUマップが得られる。分離部46は、図15に示すオブジェクトの第1行目L1〜第14行目L14の幅をそれぞれ検出する。
First, in step S42, the
次に、分離部46は、ステップS43において、壁検出結果の矩形内の行単位の区間をとり、区間を矩形の下端から上方向にスライドさせる。すなわち、分離部46は、図16(a)に示すように、オブジェクトの第1行目L1の幅の値から第14行目L14の幅の値を順に下から積み上げたかたちの1次元的なヒストグラムを生成し、例えば5つの値を含む第1の区間、及び、第1の区間に連続する区間であり、5つの値を含む第2の区間を設定する。図16(a)の例の場合、第1行目L1から第5行目L5までの区間が第1の区間となり、この第1の区間に連続する第6行目L6〜第10行目L10の区間が第2の区間となる。分離部46は、以下に説明するように、第1及び第2の区間を同時に一つの行の幅の値ずつ、ヒストグラム上をスライドさせながら、第1及び第2の区間の幅の値の平均値を算出する。
Next, in step S43, the
すなわち、ステップS44では、分離部46が、図16(a)に示す第1行目L1から第5行目L5までの第1の区間の幅の値の平均値(下側の平均値)と、第6行目L6〜第10行目L10の第2の区間の幅の値の平均値(上側の平均値)を算出する。そして、ステップS45において、分離部46は、「(第1の区間の平均値×閾値)>第2の区間の平均値」であるか否かを判別する。なお、閾値としては、例えば「2」の値を用いる。
That is, in step S44, the
図16(a)の例の場合、分離部46は、第1行目L1から第5行目L5までの各幅の値である2、3、2、3、3の平均値である「2.6」を算出すると共に、第6行目L6から第10行目L10までの各幅の値である3、2、2、2、6の平均値である「3.0」を算出する。そして、分離部46は、第1の区間の平均値である「2.6」に、閾値である「2」を乗算処理し、この乗算値、すなわち重み付けした平均値である「5.2」を、第2の区間の平均値である「3.0」と比較処理する。
In the case of the example of FIG. 16A, the
この例の比較処理の場合、下側n乗算値「5.2」の方が、上側である第2の区間の平均値「3.0」よりも大きな値となるため(ステップS45:No)、分離部46は、ステップS47に処理を進め、第1及び第2の区間が、ヒストグラムの最上端に相当する位置までスライドされたか否かを判別する。第1及び第2の区間が、ヒストグラムの最上端に相当する位置までスライドされたものと判別した場合(ステップS47:Yes)、分離部46は、ステップS48に処理を進め、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施したか否かを判別する。そして、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施したと判別した場合に(ステップS48:Yes)、図14のフローチャートに示す行方向分離処理を終了する。
In the case of the comparison process in this example, the lower n multiplication value “5.2” is larger than the average value “3.0” of the upper second section (step S45: No). The
これに対して、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施していないと判別した場合(ステップS48:No)、分離部46は、ステップS41を介してステップS42に処理を戻し、次の壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施す。
On the other hand, if it is determined that the row direction separation processing described below has not been performed on all wall detection results (objects) (step S48: No), the
すなわち、分離部46は、図16(a)〜図16(e)に示すように、第1の区間及び第2の区間を同時に一つの幅の値ずつ、ヒストグラム上をスライドさせ、第1の区間の閾値で重み付けした平均値、及び、第2の区間の重み付けしない平均値の算出を行い、両者を比較する。これにより、図16(a)〜図16(e)の例の場合、第1の区間及び第2の区間のスライド位置に応じて、「3<(2.6×2)(図16(a))」→「3.4<(2.8×2)(図16(b))」→「4.0<(2.6×2)(図16(c))」→「4.6<(2.6×2)(図16(d))」→「5.2>(2.4×2)(図16(e))」との比較結果を得ることができる。
That is, as shown in FIG. 16A to FIG. 16E, the
分離部46は、ステップS45において、図16(e)に示すように、第2の区間の重み付けしない平均値が、第1の区間の閾値で重み付けした平均値よりも大きな値となった場合に(ステップS45:Yes)、ステップS46において、図17に示すように、第1の区間と第2の区間の境目で、オブジェクトを行方向に沿って分離する。すなわち、図16(e)の例の場合、ヒストグラムの下から9つ目の値の位置が、第1の区間と第2の区間の境目となる。このため、分離部46は、図17に示すように、第9行目L9の位置で、行方向に沿ってオブジェクトを分離する。これにより、車両のような、壁に対して幅が大きくなる物体を分離する指標を用いて行方向の分離を行うため、奥側に位置している車両c1に相当するオブジェクト(第10行目L10〜第14行目L14)と、壁w1に相当するオブジェクト(第1行目L1〜第9行目L9)とを分離することができる。
In step S45, the
第4の実施の形態の機器制御システムは、結合しているオブジェクトを、行方向の沿って正確に分離できるため、分離したオブジェクトに基づいて正確な物体認識処理を行うことができ、牽いては、機器制御システムにおける制御の精度を向上させることができる等、上述の各実施の形態と同様の効果を得ることができる。 Since the device control system according to the fourth embodiment can accurately separate the coupled objects along the row direction, accurate object recognition processing can be performed based on the separated objects. The same effects as those of the above-described embodiments can be obtained, for example, the accuracy of control in the device control system can be improved.
(第5の実施の形態)
(行方向分離処理の第1の変形例)
次に、第5の実施の形態の機器制御システムの説明をする。上述の第4の実施の形態の場合、最初に各行の幅を全て計算してから平均値の算出処理及び比較処理等を行う例であった。これに対して、第5の実施の形態は、上述の各区間の設定が可能となったタイミングで、各区間の平均値の算出及び分離処理等を行う例である。なお、上述の第4の実施の形態と以下に説明する第5の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Fifth embodiment)
(First modification of row direction separation processing)
Next, a device control system according to the fifth embodiment will be described. In the case of the above-described fourth embodiment, the average value calculation process, the comparison process, and the like are performed after first calculating the width of each row. On the other hand, the fifth embodiment is an example in which the calculation of the average value of each section, the separation process, and the like are performed at the timing when the setting of each section described above becomes possible. The fourth embodiment described above is different from the fifth embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.
図18のフローチャートに、このような第5の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS51を介して処理を開始し、ステップS59において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS52〜ステップS59の各処理をオブジェクト毎に繰り返し実行する。
The flowchart of FIG. 18 shows the flow of the row direction separation process of the
まず、分離部46は、ステップS52において、壁検出結果(オブジェクト)下の行から上の行にかけて順に移動しながら走査を行い、ステップS53において、現在の行の幅を算出する。すなわち、移動操作毎に順次、行の幅を計算する。ステップS54では、分離部46が、既定回数以上、幅の計算が終了したか否かを判別する。すなわち、ステップS54では、分離部46が、上述の第1の区間及び第2の区間の設定が可能となる、例えば10個分の幅の値の計算が終了したか否かを判別する。なお、第1の区間及び第2の区間は、上述のようにそれぞれ5個の幅の値を含む例であるため、10個分の幅の値の計算が終了したか否かを判別することとしたが、各区間がそれぞれ3個の幅の値を含む場合は、6個分の幅の計算が終了したか否かを判別することとなる。さらに説明すると、ステップS54では、分離部46が、第1の区間及び第2の区間を設定可能な数の分、幅の値の計算が終了したか否かを判別している。
First, in step S52, the
幅の計算が既定回数未満の場合(ステップS54:No)、分離部46は、ステップS58に進み、現在のオブジェクトの全ての行の走査を完了したか否かを判別する。現在のオブジェクトの全ての行の走査が完了している場合(ステップS58:Yes)、分離部46は、ステップS59に処理を進め、全てのオブジェクトに対する行方向分離処理が完了したか否かを判別する。全てのオブジェクトに対する行方向分離処理が完了している場合(ステップS59:Yes)、分離部46は、この図18のフローチャートの処理を終了する。また、全てのオブジェクトに対する行方向分離処理が完了していない場合(ステップS59:No)、分離部46は、ステップS51を介してステップS52に処理を戻し、他のオブジェクトに対して、以下に説明する行方向分離処理を実行する。
When the width calculation is less than the predetermined number of times (step S54: No), the
これに対して、オブジェクトの全ての行の走査を完了していない場合(ステップS58:No)、分離部46は、ステップS52に処理を戻し、オブジェクトの他の行の走査を実行する。
On the other hand, when the scanning of all the rows of the object has not been completed (step S58: No), the
次に、ステップS54において、既定回数以上の幅の計測を完了したと判別した場合(ステップS54:Yes)、分離部46は、上述のヒストグラム(図16(a)〜図16(e)参照)のおける現在の行から下方向に向かって、上述の第1の区間及び第2の区間を設定し、ステップS56で各区間の平均値を算出する。そして、ステップS57において、分離部46は、「第2の区間の平均値>(第1の区間の平均値×2)」か否かを判別する。「第2の区間の平均値>(第1の区間の平均値×2)」である場合(ステップS57:Yes)、分離部46は、ステップS60において、第1の区間及び第2の区間の境目でオブジェクトを分離する(図16(e)及び図17参照)。
Next, when it is determined in step S54 that the measurement of the predetermined number of times or more has been completed (step S54: Yes), the separating
これに対して、「第2の区間の平均値>(第1の区間の平均値×2)」ではない場合(ステップS57:No)、分離部46は、ステップS58に処理を進め、上述のようにオブジェクト内の全ての行の走査が完了したか否かを判別し、完了していない場合は、ステップS52に処理を戻す。このような第5の実施の形態は、壁検出結果(オブジェクト)の下方から行の探索、幅の計測、変化のチェックを同時に行うことができるため、迅速にオブジェクトの分離処理を行うことができ、高速な機器制御に貢献できる他、上述の各実施の形態と同様の効果を得ることができる。
On the other hand, when “average value of second section> (average value of first section × 2)” is not satisfied (step S57: No), the
(第6の実施の形態)
(行方向分離処理の第2の変形例)
次に、第6の実施の形態の機器制御システムの説明をする。この第6の実施の形態は、分離部46が、Uマップ上において、手前から奥行き方向に向かって順に連結しているオブジェクトを探索することで、奥行方向に向かって連続する壁状の物体を検出すると共に、検出した壁及び車両等の他の物体を分離する例である。なお、上述の各実施の形態と、第6の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Sixth embodiment)
(Second modification of row direction separation processing)
Next, a device control system according to the sixth embodiment will be described. In the sixth embodiment, the separating
図19のフローチャートに、このような第6の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS51を介して処理を開始し、ステップS59において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS52〜ステップS59の各処理をオブジェクト毎に繰り返し実行する。
The flowchart of FIG. 19 shows the flow of the row direction separation processing of the
まず、分離部46は、ステップS52において、Uマップの最初の列を下(最近距離エリア)からサーチする(ステップS61)。次に、分離部46は、現在、サーチしているピクセルの上の行の3つのピクセル(現在サーチしているピクセルの上の行のピクセル、この上の行の左右にそれぞれ隣接するピクセル)のうち、頻度値を有するピクセルが存在するか否かを判別する(ステップS62)。上述の3つのピクセルのうち、頻度値を有するピクセルが存在しない場合(ステップS62:No)、分離部46は、ステップS75に処理を進め、最後の列の最終のデータのサーチが終了したか否かを判別する。
First, in step S52, the
分離部46は、最後の列の最終のデータのサーチが終了したと判別した場合(ステップS75:Yes)、そのまま図19のフローチャートの処理を終了する。これに対して、最後の列の最終のデータのサーチが終了していないと判別した場合、分離部46は、次の列のサーチを行うべく、ステップS61に処理を戻す。すなわち、分離部46は、現在、サーチを行っているピクセルの上の行の3つのピクセルに、頻度値を有するピクセルを検出しない場合、現在のサーチである、例えば「1」のラベリング番号(ラベル)を付す1回目のサーチを終了し、「2」のラベリング番号を付す2回目のサーチに移行する。
When the
次に、上述の3つのピクセルに、頻度値を有するピクセルが存在する場合(ステップS62:Yes)、分離部46は、現在のサーチ位置を、頻度値を有するピクセルの位置に更新する(ステップS63)。そして、分離部46は、現在のサーチ位置のピクセルに、既にラベリング番号(ラベリング番号)が付されているか否かを判別する(ステップS64)。
Next, when a pixel having a frequency value exists in the above three pixels (step S62: Yes), the
既にラベリング番号が付されていると判別した場合、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。
If it is determined that a labeling number has already been assigned, the
これに対して、ラベリング番号が付されていないと判別した場合(ステップS64:No)、分離部46は、ラベリング番号を一つインクリメントし(ステップS65)、現在のサーチ位置のピクセルに対して、インクリメントしたラベリング番号を付与するラベリング処理を行う(ステップS66)。
On the other hand, when it is determined that the labeling number is not attached (step S64: No), the
次に、分離部46は、ステップS67において、現在の行の幅の大きさを算出する(図11(a)〜図11(c)参照)。
Next, in step S67, the
次に、分離部46は、現在のサーチ位置のピクセル(ラベリング番号を付与したピクセル)の一行上の行のピクセルのうち、 現在のサーチ位置のピクセルの上の位置のピクセル、上の位置のピクセルの左右にそれぞれ隣接するピクセルのうち、頻度値を有するピクセルが存在するか否かを判別する(ステップS68)。すなわち、分離部46は、このステップS68において、上述の3つのピクセルのうち、 頻度値を有するピクセルが存在するか否かを判別する。
Next, the
上述の3つのピクセルのうち、 頻度値を有するピクセルが存在しないと判別した場合(ステップS68:No)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。
When it is determined that there is no pixel having the frequency value among the above three pixels (step S68: No), the
これに対して、上述の3つのピクセルのうち、頻度値を有するピクセルが存在すると判別した場合(ステップS68:Yes)、分離部46は、最大頻度のピクセルの位置を、現在のサーチ位置として更新する(ステップS69)。
On the other hand, if it is determined that there is a pixel having a frequency value among the above three pixels (step S68: Yes), the
次に、分離部46は、更新した現在のサーチ位置のピクセルに対して、既に異なるIDが付されているか否かを判別する(ステップS70)。既に異なるIDが付されていると判別した場合(ステップS70:Yes)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。
Next, the
これに対して、更新した現在のサーチ位置のピクセルに対して、既に異なるIDが付されていないと判別した場合(ステップS70:No)、分離部46は、現在のサーチ位置のピクセルにラベリング番号を付与する(ステップS71)。
On the other hand, when it is determined that a different ID is not already assigned to the updated pixel at the current search position (step S70: No), the
次に、分離部46は、ステップS72において、現在の行の幅の大きさを算出する(図11(a)〜図11(c)参照)。分離部46は、ステップS73において、これまで算出した幅情報をもちいて、上述の第1〜第5の実施の形態で説明したいずれかの分離処理を行うか否かを判別する。分離処理を行う場合(ステップS73:Yes)、分離部46は、ステップS76に処理を進め、上述の第3〜第5の実施の形態で説明したいずれかの行方向に沿った分離処理を実行する。分離部46は、いずれかの分離処理を実行すると、ステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。
Next, in step S72, the
これに対して、分離処理を行わない場合(ステップS73:No)、分離部46は、ステップS74に処理を進める。ステップS74では、分離部46が、現在、サーチを行っている行の最後のデータ(ピクセル)に対するサーチが終了したか否かを判別する。そして、現在の行の最後のピクセルのサーチを終了していないと判別した場合(ステップS74:No)、分離部46は、現在の行の次のピクセルのサーチを行うべく、ステップS68に処理を戻す。これに対して、現在の行の最後のピクセルのサーチを終了したと判別した場合(ステップS74:Yes)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。
On the other hand, when not performing separation processing (Step S73: No),
このような第6の実施の形態の場合、壁の検出、及び、壁と車両等のオブジェクトの分離処理を同時に行うことができ、高速な機器制御に貢献できる他、上述の各実施の形態と同様の効果を得ることができる。 In the case of such a sixth embodiment, wall detection and separation processing of an object such as a wall and a vehicle can be performed at the same time, which contributes to high-speed device control. Similar effects can be obtained.
(第7の実施の形態)
次に、第7の実施の形態の機器制御システムの説明をする。上述の各実施の形態の場合、Uマップ生成部44は、視差画像生成部からの視差画像に基づいてUマップを生成した。これに対して、第7の実施の形態の機器制御システムは、路面の高さを反映したUマップを生成し、このUマップ上のオブジェクトを上述の各実施の形態で説明したように分離処理することで、オブジェクトの、さらに高精度な分離を可能とした例である。なお、上述の各実施の形態と、第7の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Seventh embodiment)
Next, a device control system according to the seventh embodiment will be described. In each embodiment described above, the U
第7の実施の形態の機器制御システムの場合、CPU304は、立体物認識プログラムを実行することで、図4に示した平行化部42〜分離部46と共に、図20に示すように視差補間部51、Vマップ生成部52、路面形状検出部53及び路面高さ算出部54の各機能を実現する。
In the case of the device control system according to the seventh embodiment, the CPU 304 executes the three-dimensional object recognition program, so that the parallax interpolation unit as illustrated in FIG. 20 is performed together with the
なお、視差補間部51〜路面高さ算出部54は、ソフトウェアで実現することとしたが、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよいこと等は、上述のとおりである。
Although the
視差補間部51は、視差画像補間処理を行う。Vマップ生成部52は、投票領域が制限された各画素値に基づいて、Vマップを生成する。路面形状検出部53及び路面高さ算出部54は、視差画像に対応するVマップの生成が完了するよりも前に、路面の高さを算出しておく。
The
具体的には、Vマップ生成部52は、例えば画面中央に延びる平坦な路面上を走行する車両の左側に電柱が存在する視差画像が得られた場合、この撮像画像の各画素のうち、視差値D及びy座標値を有する画素に対して、一つカウントアップした度数(頻度)を付与する。そして、Vマップ生成部52は、X軸を視差値D、Y軸をy座標値、Z軸を頻度とした2次元ヒストグラム上に各画素を投票することで、右下がりの直線として投票される路面上に、車両及び電柱が投票されたVマップを作成する。このVマップ上における直線状の画素群を特定することで、路面に相当する画素群を特定できる。このようなVマップにおいては、路面より下の部分の視差値は検出されない。
Specifically, for example, when a parallax image in which a power pole is present on the left side of a vehicle traveling on a flat road surface extending in the center of the screen is obtained, the V
次に、路面形状検出部53は、各オブジェクトの高さの基準とする基準オブジェクトである路面を検出する。路面形状検出部53は、Vマップ上で路面と推定される位置を直線近似する。路面が平坦な場合は、一本の直線で近似する。また、途中で勾配が変わる路面の場合、Vマップ上を複数の区間に分割して直線近似を行う。これにより、途中で勾配が変わる路面の場合でも、精度よく直線近似を行うことができる。 Next, the road surface shape detection unit 53 detects a road surface that is a reference object that serves as a reference for the height of each object. The road surface shape detection unit 53 linearly approximates a position estimated as a road surface on the V map. When the road surface is flat, it is approximated by a single straight line. Further, in the case of a road surface where the slope changes midway, the V map is divided into a plurality of sections to perform linear approximation. Thereby, even in the case of a road surface whose slope changes midway, linear approximation can be performed with high accuracy.
次に、路面高さ算出部54は、路面高さを算出してRAM310等の記憶部に記憶する(テーブル化する)。Vマップから路面を表す直線式が得られたため、視差dが決まれば、対応するy座標y0が決まる。この座標y0が、路面の高さとなる。路面高さ算出部54は、路面の高さを示す座標y0と、必要な範囲の視差とを関連付けた路面高さリストを生成する。また、視差がdでy座標がy’である場合、y’−y0が、視差dのときの路面からの高さを示す。路面高さ算出部54は、座標(d、y’)の路面からの高さHを、「H=(z×(y’−y0))/f」の演算式を用いて算出する。なお、この演算式における「z」は、視差dから計算される距離(z=BF/(d−offset))、「f」はステレオカメラ2の焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、BFは、撮像ユニット2の基線長Bと焦点距離fを乗じた値、offsetは無限遠のオブジェクトを撮影したときの視差である。
Next, the road surface
Uマップ生成部44は、上述のように横軸を視差画像のx、縦軸を視差画像の視差d、Z軸を頻度とした2次元ヒストグラムであるUマップを生成する。この際、路面からの高さが、例えば20cm〜3m等の所定の高さの範囲にある視差画像の点(x、y、d)を、(x、d)の値に基づいて投票する。Uマップ生成部44は、ある視差画像の点(x、y、d)を視差画像の所定の範囲の画素を投票してUマップを生成する。すなわち、視差画像の上部1/6の領域には空が写っており、殆どの場合、認識を必要とするオブジェクトが写っていることは無い。このため、Uマップ生成部44は、例えば視差画像の地面側5/6の領域(上部1/6の領域以外の領域)の画素を投票して頻度のUマップを生成する。
As described above, the U
このような路面からの高さ等が反映されたUマップを用いて、上述の分離処理を実行することで、さらに精度良く分離処理を実行できる他、上述の各実施の形態と同様の効果を得ることができる。 Using the U map that reflects the height from the road surface and the like, the separation process can be performed with higher accuracy by performing the separation process described above, and the same effects as those of the above-described embodiments can be obtained. Can be obtained.
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。例えば、距離の値(距離値)と視差値は等価に扱うことができる。このため、上述の実施の形態の説明では、距離画像の一例として視差画像を用いて説明しているが、これに限られない。例えば、ステレオカメラを用いて生成した視差画像に対して、ミリ波レーダやレーザレーダ等の検出装置を用いて生成した距離情報を統合して、距離画像を生成してもよい。また、ステレオカメラと、ミリ波レーダやレーザレーダ等の検出装置を併用し、上述したステレオカメラによる物体の検出結果と組み合わせることにより、検出の精度をさらに高める構成としてもよい。 Each above-mentioned embodiment is shown as an example and is not intending limiting the range of the present invention. Each of the novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. For example, a distance value (distance value) and a parallax value can be handled equivalently. For this reason, in the description of the above-described embodiment, a parallax image is used as an example of a distance image, but the present invention is not limited to this. For example, a distance image may be generated by integrating distance information generated using a detection device such as a millimeter wave radar or a laser radar with a parallax image generated using a stereo camera. Further, the detection accuracy may be further enhanced by using a stereo camera and a detection device such as a millimeter wave radar or a laser radar in combination with the detection result of the object by the stereo camera described above.
このような実施の形態及び実施の形態の変形例は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Such embodiments and modifications of the embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 車両
2 ステレオカメラ(撮像部)
2a カメラ部
2b カメラ部
3 車両ECU
4 撮像装置
30 画像処理装置
42 平行化部
43 視差画像生成部
44 Uマップ生成部
45 壁検出部
46 分離部
51 視差補間部
52 Vマップ生成部
53 路面形状検出部
54 路面高さ算出部
1
4
Claims (13)
前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離部と
を有する情報処理装置。 A generating unit that generates two-dimensional distribution information indicating the horizontal position and the depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
Separation in which the length of each column along the depth direction in the object on the two-dimensional distribution information is detected, and the object is separated along the depth direction with a column of a predetermined length as a boundary And an information processing apparatus.
を特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the separation unit separates the object along the depth direction with a longest column as a boundary.
を特徴とする請求項1に記載の情報処理装置。 The separating unit recognizes the longest column and the column adjacent to the longest column as a lump object among the columns having a length equal to or greater than a predetermined threshold, and the recognized lump object as a boundary, The information processing apparatus according to claim 1, wherein the object is separated along the depth direction.
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。 The separation unit detects a width that is the size of each row of the object along a row direction that is two-dimensionally orthogonal to the depth direction, and there is a difference of a predetermined amount or more in the width size. The information processing apparatus according to any one of claims 1 to 3, wherein the object is separated along the row direction with an existing row as a boundary.
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。 The separation unit detects a width that is the size of each row of the object along a row direction that is two-dimensionally orthogonal to the depth direction, and determines one or more values of the width. Including a first section and a second section that are continuous along the column direction, such that the second section is on the back side, and each of the sections is one along the column direction. Alternatively, the average value of the width values of the second section and the average value of the width values of the first section are calculated while moving each of the plurality of width values, and the first weight is calculated. 2 when the average value of the two sections is larger than the average value of the first section with the predetermined weighting, in the row direction at the boundary of the sections at the movement position of the sections. The object according to any one of claims 1 to 3, wherein the object is separated along the line. The information processing apparatus described in 1.
を特徴とする請求項5に記載の情報処理装置。 When the width of each row of the object is detected by an amount that can set each section, the separating section sets each section, calculates an average value of each section, and separates the objects The information processing apparatus according to claim 5, wherein:
を特徴とする請求項4から請求項6のうち、いずれか一項に記載の情報処理装置。 The separation unit performs a search when performing a labeling process of performing a search for the object a plurality of times, detecting an information unit having a value equal to or greater than a predetermined threshold for each search, and attaching a label corresponding to the number of searches. If an information unit having a value equal to or greater than the threshold is selected from a plurality of information units close to the search direction with respect to a certain information unit, the number of searches is handled when the selected information unit is not labeled. A labeling process for attaching a label to be detected, a value in the row direction of the object is detected, and a number of the width values that enable separation along the row direction of the object are detected in the row direction. The information processing apparatus according to any one of claims 4 to 6, wherein the object is separated along.
を特徴とする請求項1から請求項7のうち、いずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the generation unit generates the two-dimensional distribution information that reflects a height of a road surface.
請求項1から請求項8のうち、いずれか一項に記載の情報処理装置と
を有する撮像装置。 An imaging unit that generates imaging information for generating two-dimensional distribution information indicating a lateral position and a depth direction position of the object;
An imaging device comprising: the information processing device according to any one of claims 1 to 8.
前記情報処理装置により分離処理された前記物体の前記2次元分布情報に基づいて、所定の機器を制御する制御部と
を有する機器制御システム。 An imaging device according to claim 9,
A control unit that controls a predetermined device based on the two-dimensional distribution information of the object separated by the information processing apparatus.
を特徴とする移動体。 It is controlled by the said control part of the apparatus control system of Claim 10, The moving body characterized by the above-mentioned.
分離部が、前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離ステップと
を有する情報処理方法。 A generating step for generating two-dimensional distribution information indicating a horizontal position and a depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
The separation unit detects the length of each column along the depth direction in the object on the two-dimensional distribution information, and the object is detected along the depth direction with a column having a predetermined length as a boundary. An information processing method comprising: a separation step for performing separation processing.
物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、前記物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成部と、
前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離部として機能させること
を特徴とする情報処理プログラム。 Computer
A generating unit that generates two-dimensional distribution information indicating the horizontal position and the depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
Separation in which the length of each column along the depth direction in the object on the two-dimensional distribution information is detected, and the object is separated along the depth direction with a column of a predetermined length as a boundary Information processing program characterized by functioning as a part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17204258.2A EP3330893A1 (en) | 2016-11-30 | 2017-11-29 | Information processing device, information processing method, and carrier means |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016232712 | 2016-11-30 | ||
JP2016232712 | 2016-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018092603A true JP2018092603A (en) | 2018-06-14 |
JP7052265B2 JP7052265B2 (en) | 2022-04-12 |
Family
ID=62565579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017176867A Active JP7052265B2 (en) | 2016-11-30 | 2017-09-14 | Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7052265B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111402593A (en) * | 2020-03-02 | 2020-07-10 | 哈尔滨工业大学 | Video traffic parameter acquisition method based on polynomial fitting |
JPWO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | ||
RU2779522C1 (en) * | 2019-08-28 | 2022-09-08 | Ниссан Мотор Ко., Лтд. | Object recognition method and object recognition device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009193507A (en) * | 2008-02-18 | 2009-08-27 | Toyota Motor Corp | Reverse travel prevention system |
JP2016029557A (en) * | 2014-07-14 | 2016-03-03 | 株式会社リコー | Three-dimensional object detector, three-dimensional object detection method, three-dimensional object detection program, and movable body apparatus control system |
US20160253575A1 (en) * | 2013-10-07 | 2016-09-01 | Hitachi Automotive Systems, Ltd. | Object Detection Device and Vehicle Using Same |
-
2017
- 2017-09-14 JP JP2017176867A patent/JP7052265B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009193507A (en) * | 2008-02-18 | 2009-08-27 | Toyota Motor Corp | Reverse travel prevention system |
US20160253575A1 (en) * | 2013-10-07 | 2016-09-01 | Hitachi Automotive Systems, Ltd. | Object Detection Device and Vehicle Using Same |
JP2016029557A (en) * | 2014-07-14 | 2016-03-03 | 株式会社リコー | Three-dimensional object detector, three-dimensional object detection method, three-dimensional object detection program, and movable body apparatus control system |
Non-Patent Citations (4)
Title |
---|
ALEXANDRU ILOIE ET AL: "UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios", 2014 IEEE 10TH INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTER COMMUNICATION AND PROCESSING (ICCP), JPN7021003085, 6 September 2014 (2014-09-06), US, pages 119 - 125, XP055554644, ISSN: 0004566422, DOI: 10.1109/ICCP.2014.6936963 * |
MEIQING WU ET AL: "Stereo based ROIs generation for detecting pedestrians in close proximity", 17TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN7021003084, 11 October 2014 (2014-10-11), US, pages 1929 - 1934, XP032685662, ISSN: 0004566421, DOI: 10.1109/ITSC.2014.6957988 * |
ZHENCHENG HU ET AL: "A complete U-V-disparity study for stereovision based 3D driving environment analysis", FIFTH INTERNATIONAL CONFERENCE ON 3-D DIGITAL IMAGING AND MODELING (3DIM'05), JPN7021003083, 16 June 2005 (2005-06-16), US, ISSN: 0004566420 * |
綱島 宣浩、中島 真人: "投影視差画像を用いた前方車両の検出", 電気学会論文誌C, vol. 120, no. 3, JPN6021030839, 1 March 2000 (2000-03-01), JP, pages 337 - 344, ISSN: 0004566423 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | ||
WO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | 日産自動車株式会社 | Object recognition method and object recognition device |
RU2779522C1 (en) * | 2019-08-28 | 2022-09-08 | Ниссан Мотор Ко., Лтд. | Object recognition method and object recognition device |
JP7226565B2 (en) | 2019-08-28 | 2023-02-21 | 日産自動車株式会社 | Object recognition method and object recognition device |
US11861914B2 (en) | 2019-08-28 | 2024-01-02 | Nissan Motor Co., Ltd. | Object recognition method and object recognition device |
CN111402593A (en) * | 2020-03-02 | 2020-07-10 | 哈尔滨工业大学 | Video traffic parameter acquisition method based on polynomial fitting |
Also Published As
Publication number | Publication date |
---|---|
JP7052265B2 (en) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5073548B2 (en) | Vehicle environment recognition device and preceding vehicle tracking control system | |
JP6274557B2 (en) | Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program | |
US9547912B2 (en) | Method for measuring the height profile of a vehicle passing on a road | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
CN109997148B (en) | Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium | |
JP6150164B2 (en) | Information detection apparatus, mobile device control system, mobile object, and information detection program | |
JP6743882B2 (en) | Image processing device, device control system, imaging device, image processing method, and program | |
JP6601506B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle | |
JP7091686B2 (en) | 3D object recognition device, image pickup device and vehicle | |
JP2006134035A (en) | Moving object detecting device and moving object detecting method | |
JP6907513B2 (en) | Information processing equipment, imaging equipment, equipment control system, information processing method and program | |
CN110023953A (en) | Information processing equipment, imaging device, apparatus control system, moving body, information processing method and computer program product | |
JP5073700B2 (en) | Object detection device | |
JP7052265B2 (en) | Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program | |
JP6683245B2 (en) | Image processing device, image processing method, image processing program, object recognition device, and device control system | |
JP2023184572A (en) | Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium | |
JP6844223B2 (en) | Information processing equipment, imaging equipment, equipment control system, information processing method and program | |
JP6674959B2 (en) | Parallax calculating device, stereo camera device, vehicle, and parallax calculating method | |
JP6466679B2 (en) | Object detection device | |
JP4788399B2 (en) | Pedestrian detection method, apparatus, and program | |
JP5903901B2 (en) | Vehicle position calculation device | |
EP3330893A1 (en) | Information processing device, information processing method, and carrier means | |
JP6969245B2 (en) | Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program | |
JP7062904B2 (en) | Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program | |
US20230252675A1 (en) | Mobile object control device, mobile object control method, learning device, learning method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200707 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220314 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7052265 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |