JP2018092603A - Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program - Google Patents

Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program Download PDF

Info

Publication number
JP2018092603A
JP2018092603A JP2017176867A JP2017176867A JP2018092603A JP 2018092603 A JP2018092603 A JP 2018092603A JP 2017176867 A JP2017176867 A JP 2017176867A JP 2017176867 A JP2017176867 A JP 2017176867A JP 2018092603 A JP2018092603 A JP 2018092603A
Authority
JP
Japan
Prior art keywords
depth direction
unit
separation
column
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017176867A
Other languages
Japanese (ja)
Other versions
JP7052265B2 (en
Inventor
佑 山田
Yu Yamada
佑 山田
吉田 淳
Atsushi Yoshida
淳 吉田
陽一郎 大林
Yoichiro Obayashi
陽一郎 大林
久保園 浩喜
Hiroki Kubozono
浩喜 久保園
大輔 岡田
Daisuke Okada
大輔 岡田
真太郎 木田
Shintaro Kida
真太郎 木田
輔宏 木村
Sukehiro Kimura
輔宏 木村
旅人 鈴木
Tabito Suzuki
旅人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP17204258.2A priority Critical patent/EP3330893A1/en
Publication of JP2018092603A publication Critical patent/JP2018092603A/en
Application granted granted Critical
Publication of JP7052265B2 publication Critical patent/JP7052265B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make it possible to detect objects accurately at a high speed on the basis of two-dimensional distribution information, such as a parallax image indicating positions in the transverse direction and positions in the depth direction of objects.SOLUTION: In an image processing device, a creation part 44 creates two-dimensional distribution information indicating positions in the transverse direction and positions in the depth direction of objects on the basis of information in which positions in the transverse direction, the positions in the vertical direction, and the positions in the depth direction of the objects are associated with each other. A separation part 46 detects the lengths of rows along the depth direction in the objects in the two-dimensional distribution information, and performs separation processing on the objects along the depth direction at the boundary between the rows with predetermined lengths.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムに関する。   The present invention relates to an information processing device, an imaging device, a device control system, a moving body, an information processing method, and an information processing program.

今日において、歩行者又は自動車等との衝突の際に、いかに歩行者を守れるか及び乗員を保護できるかという、自動車の安全性における観点から自動車のボディー構造等の開発が行われている。近年においては、情報処理技術、画像処理技術の発達により、人及び自動車等を高速に検出する技術が知られている。これらの技術を用いることで、衝突する前に自動的にブレーキをかけて衝突を未然に防止する衝突防止システムが設けられた自動車も知られている。この衝突防止システムの場合、ミリ波レーダ装置、レーザレーダ装置又はステレオカメラ装置等を用いて人又は他車等までの距離を測距し、この測距した結果に基づいて、ブレーキ制御を行う。これにより、人又は他車等との距離に応じて、自動的にブレーキをかけることができる。   2. Description of the Related Art Today, automobile body structures and the like have been developed from the viewpoint of automobile safety, such as how to protect pedestrians and protect passengers in the event of a collision with a pedestrian or automobile. In recent years, with the development of information processing technology and image processing technology, technology for detecting humans, automobiles and the like at high speed is known. There is also known an automobile provided with a collision prevention system that uses these techniques to automatically brake before a collision to prevent the collision. In the case of this collision prevention system, a distance to a person or another vehicle is measured using a millimeter wave radar device, a laser radar device, a stereo camera device, or the like, and brake control is performed based on the measured result. Thus, the brake can be automatically applied according to the distance from the person or other vehicle.

特許文献1(特開平6−266828号公報)には、ガードレール、植え込み、パイロン列等の道路の境界となる連続した立体物を側壁として検出する車輛用車外監視装置が開示されている。この車輛用車外監視装置は、ステレオ光学系で車輌の車外の設置範囲内の対象を撮像する。ステレオ画像処理装置は、ステレオ光学系10の撮像画像全体に渡る距離分布を計算する。道路・側壁検出装置は、この距離分布に対応する被写体の各部分の三次元位置を計算する。そして、道路・側壁検出装置は、計算した三次元位置の情報を用いて道路の形状と側壁を検出する。   Patent Document 1 (Japanese Patent Laid-Open No. 6-266828) discloses a vehicle exterior monitoring device that detects a continuous three-dimensional object serving as a road boundary such as a guardrail, planting, and pylon train as a side wall. This vehicle exterior monitoring apparatus captures images of objects within an installation range outside a vehicle with a stereo optical system. The stereo image processing apparatus calculates a distance distribution over the entire captured image of the stereo optical system 10. The road / side wall detection device calculates the three-dimensional position of each part of the subject corresponding to this distance distribution. The road / side wall detection device detects the shape and the side wall of the road using the calculated three-dimensional position information.

ここで、人及び自動車等の物体検出処理は、上述のように人又は他車等の物体までの距離を計測することで行われる。このため、まず、各物体を正確に分離して検出することが好ましい。   Here, the object detection process such as a person and an automobile is performed by measuring the distance to an object such as a person or another vehicle as described above. For this reason, it is preferable that each object is first separated and detected accurately.

しかし、高速で物体を検出しようとすると、物体検出処理における解析処理が粗くならざるを得ない。このため、特許文献1の技術を含む従来の物体検出技術の場合、例えば壁と車両が近くに位置している場合に、壁と車両を物理的に同一物体として誤検出する問題があった。また、多数の先行車両が縦に繋がって走行又は停車しているように見える場合、車両の列を壁として誤検出する問題があった。なお、綿密な解析処理を行うことで物体の認識精度を向上させることができるが、この場合、解析時間が長くなることから、物体検出処理の高速化に支障をきたす。検出処理時間と検出精度との間には、このようなトレードオフの関係がある。   However, if an object is to be detected at high speed, the analysis process in the object detection process must be rough. For this reason, in the case of the conventional object detection technique including the technique of Patent Document 1, for example, when the wall and the vehicle are located close to each other, there is a problem that the wall and the vehicle are erroneously detected as the same object. In addition, when it appears that a number of preceding vehicles are vertically connected and running or stopped, there is a problem of erroneously detecting the vehicle row as a wall. In addition, although the accuracy of object recognition can be improved by performing a thorough analysis process, in this case, the analysis time becomes long, which hinders the speeding up of the object detection process. There is such a trade-off relationship between the detection processing time and the detection accuracy.

本発明は、上述の課題に鑑みてなされたものであり、高速かつ高精度で物体を検出できる情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an information processing device, an imaging device, a device control system, a moving body, an information processing method, and an information processing program capable of detecting an object at high speed and with high accuracy. The purpose is to do.

上述した課題を解決し、目的を達成するために、本発明は、物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成部と、2次元分布情報上の物体における、奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、奥行方向に沿って物体を分離処理する分離部とを有する。   In order to solve the above-described problems and achieve the object, the present invention is based on information in which a vertical position, a horizontal position, and a depth direction position of an object are associated with each other. A generating unit for generating two-dimensional distribution information indicating the length of each column along the depth direction in an object on the two-dimensional distribution information, and in the depth direction with a column of a predetermined length as a boundary And a separation unit that separates the object.

本発明によれば、高速かつ高精度で物体を検出できるという効果を奏する。   According to the present invention, it is possible to detect an object at high speed and with high accuracy.

図1は、実施の形態の機器制御システムである車両に設けられたステレオカメラの位置を示す図である。FIG. 1 is a diagram illustrating a position of a stereo camera provided in a vehicle which is a device control system according to an embodiment. 図2は、車両が有するステレオカメラ及びその周辺の構成を示す図である。FIG. 2 is a diagram illustrating a stereo camera included in the vehicle and a configuration around the stereo camera. 図3は、ステレオカメラを備えた撮像装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an imaging apparatus including a stereo camera. 図4は、実施の形態の機器制御システムの機能を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating functions of the device control system according to the embodiment. 図5は、オブジェクトに対する列方向の分離処理を説明するための図である。FIG. 5 is a diagram for explaining separation processing in the column direction for an object. 図6は、第1の実施の形態の機器制御システムにおけるオブジェクトに対する列方向の分離処理の流れを示すフローチャートである。FIG. 6 is a flowchart illustrating a flow of separation processing in the column direction for objects in the device control system according to the first embodiment. 図7は、第1の実施の形態の機器制御システムにおけるオブジェクトに対する列方向の分離処理を説明するための模式図である。FIG. 7 is a schematic diagram for explaining the separation processing in the column direction for the object in the device control system according to the first embodiment. 図8は、第2の実施の形態の機器制御システムにおけるオブジェクトに対する列方向の分離処理の流れを示すフローチャートである。FIG. 8 is a flowchart illustrating a flow of separation processing in the column direction for objects in the device control system according to the second embodiment. 図9は、第2の実施の形態の機器制御システムにおけるオブジェクトに対する列方向の分離処理を説明するための模式図である。FIG. 9 is a schematic diagram for explaining the separation processing in the column direction for the object in the device control system according to the second embodiment. 図10は、第3の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理を説明するための図である。FIG. 10 is a diagram for explaining row-direction separation processing for objects in the device control system according to the third embodiment. 図11は、第3の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理を説明するための模式図である。FIG. 11 is a schematic diagram for explaining row-direction separation processing for objects in the device control system according to the third embodiment. 図12は、第3の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理の流れを示すフローチャートである。FIG. 12 is a flowchart illustrating a flow of separation processing in the row direction for an object in the device control system according to the third embodiment. 図13は、第4の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理を説明するための図である。FIG. 13 is a diagram for explaining row-direction separation processing for an object in the device control system according to the fourth embodiment. 図14は、第4の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理の流れを示すフローチャートである。FIG. 14 is a flowchart illustrating a flow of separation processing in the row direction for an object in the device control system according to the fourth embodiment. 図15は、第4の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理を説明するための図である。FIG. 15 is a diagram for explaining row-direction separation processing for an object in the device control system according to the fourth embodiment. 図16は、第4の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理を説明するための模式図である。FIG. 16 is a schematic diagram for explaining row-wise separation processing for an object in the device control system according to the fourth embodiment. 図17は、第4の実施の形態の機器制御システムにおいて、行方向に沿って分離処理されたオブジェクトを示す図である。FIG. 17 is a diagram illustrating objects separated in the row direction in the device control system according to the fourth embodiment. 図18は、第5の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理の流れを示すフローチャートである。FIG. 18 is a flowchart illustrating a flow of separation processing in the row direction for an object in the device control system according to the fifth embodiment. 図19は、第6の実施の形態の機器制御システムにおけるオブジェクトに対する行方向の分離処理の流れを示すフローチャートである。FIG. 19 is a flowchart illustrating a flow of separation processing in the row direction for an object in the device control system according to the sixth embodiment. 図20は、実施の形態の機器制御システムの機能を示す機能ブロック図である。FIG. 20 is a functional block diagram illustrating functions of the device control system according to the embodiment.

以下、図面を参照して、実施の形態の機器制御システムの説明をする。   Hereinafter, an apparatus control system according to an embodiment will be described with reference to the drawings.

(第1の実施の形態)
(システム構成)
第1の実施の形態の機器制御システムは、図1に示すように車両1のフロントガラス等に設けられ、進行方向前側の所定の撮像範囲を撮像するステレオカメラ2を有している。ステレオカメラ2は、図3を用いて後述するように2つの画像センサ22を備え、左目視界と右目視界の2つの画像を撮像する撮像部である。
(First embodiment)
(System configuration)
As shown in FIG. 1, the device control system of the first embodiment includes a stereo camera 2 that is provided on the windshield of the vehicle 1 and captures a predetermined imaging range on the front side in the traveling direction. As will be described later with reference to FIG. 3, the stereo camera 2 includes two image sensors 22 and is an imaging unit that captures two images of the left visual field and the right visual field.

図2は、移動体の一例である車両1が有するステレオカメラ2及びその周辺の構成例を示す図である。ステレオカメラ2は、例えば撮像した2つの画像を車両ECU(Engine Control Unit)3に対して出力する。車両ECU3は車両1に設置され、例えば車両1のエンジン制御、制動制御、及び走行レーンキープアシスト、操舵アシスト等の車両1に対する制御を行う。なお、以下、移動体の一例である車両について説明するが、本実施の形態の機器制御システムは、船舶、航空機、ロボット等にも適用可能である。   FIG. 2 is a diagram illustrating a configuration example of the stereo camera 2 included in the vehicle 1 which is an example of the moving body and the vicinity thereof. The stereo camera 2 outputs, for example, two captured images to a vehicle ECU (Engine Control Unit) 3. The vehicle ECU 3 is installed in the vehicle 1 and controls the vehicle 1 such as engine control, braking control, travel lane keep assist, steering assist, and the like. Hereinafter, a vehicle which is an example of a moving body will be described, but the device control system of the present embodiment can be applied to a ship, an aircraft, a robot, and the like.

(撮像装置の構成)
図3は、ステレオカメラ2を備えた撮像装置4の構成例を示す図である。撮像装置4は、例えばステレオカメラ2及び画像処理装置30を有する。ステレオカメラ2は、左目用となるカメラ部2aと、右目用となるカメラ部2bが平行(水平)に組みつけられ、撮像対象領域の動画(又は静止画)を撮影する。
(Configuration of imaging device)
FIG. 3 is a diagram illustrating a configuration example of the imaging device 4 including the stereo camera 2. The imaging device 4 includes, for example, a stereo camera 2 and an image processing device 30. In the stereo camera 2, a camera unit 2 a for the left eye and a camera unit 2 b for the right eye are assembled in parallel (horizontal) to shoot a moving image (or still image) in the imaging target area.

カメラ部2a、2bは、それぞれレンズ21、画像センサ22、及びセンサコントローラ23を備えている。画像センサ22は、例えばCCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサである。センサコントローラ23は、例えば画像センサ22の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。   Each of the camera units 2a and 2b includes a lens 21, an image sensor 22, and a sensor controller 23. The image sensor 22 is, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor. The sensor controller 23 performs, for example, exposure control of the image sensor 22, image readout control, communication with an external circuit, image data transmission control, and the like.

画像処理装置30は、例えば図2に示した車両ECU3内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。   The image processing device 30 is provided, for example, in the vehicle ECU 3 shown in FIG. The image processing apparatus 30 includes, for example, a data bus line 300, a serial bus line 302, a CPU (Central Processing Unit) 304, an FPGA (Field-Programmable Gate Array) 306, a ROM (Read Only Memory) 308, and a RAM (Random Access Memory) 310. Serial IF (Interface) 312 and data IF (Interface) 314.

上述したステレオカメラ2は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。カメラ部2a、2bそれぞれの画像センサ22が撮像した撮像画像の輝度画像データは、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。   The stereo camera 2 described above is connected to the image processing apparatus 30 via the data bus line 300 and the serial bus line 302. The CPU 304 controls the overall operation of the image processing apparatus 30 and executes image processing and image recognition processing. Luminance image data of captured images captured by the image sensors 22 of the camera units 2 a and 2 b are written into the RAM 310 of the image processing device 30 via the data bus line 300. Sensor exposure value change control data, image readout parameter change control data, various setting data, and the like from the CPU 304 or FPGA 306 are transmitted and received via the serial bus line 302.

FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM310に再度書き込む。CPU304は、ステレオカメラ2の各センサコントローラ23の制御、及び画像処理装置30の全体的な制御を行う。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。なお、以下、「視差画像」のように「画像」という語を用いて説明する場合は、必ずしもディスプレイ等の表示を要するものではなく、単なる情報の集合体を含むものとする。   The FPGA 306 generates real-time parallax images by performing parallax calculation based on, for example, gamma correction, distortion correction (parallelization of left and right images), and block matching, which are processes that require real-time processing for image data stored in the RAM 310. , Write again to the RAM 310. The CPU 304 performs control of each sensor controller 23 of the stereo camera 2 and overall control of the image processing apparatus 30. The CPU 304 acquires, for example, CAN (Controller Area Network) information of the host vehicle as parameters (vehicle speed, acceleration, steering angle, yaw rate, etc.) via the data IF 314. In the following description, the term “image”, such as “parallax image”, does not necessarily require display such as a display, but includes a mere collection of information.

検出対象(認識対象)の検出データ(認識データ)は、シリアルIF312を介して、車両ECU3に供給され、車両ECU3の制御機能として設けられた例えば自動ブレーキシステム又は走行アシストシステム等で用いられる。自動ブレーキシステムは、車両1のブレーキ制御を行う。また、走行アシストシステムは、車両1の走行レーンキープアシスト及び操舵アシスト等を行う。   The detection data (recognition data) of the detection target (recognition target) is supplied to the vehicle ECU 3 via the serial IF 312 and used in, for example, an automatic brake system or a travel assist system provided as a control function of the vehicle ECU 3. The automatic brake system performs brake control of the vehicle 1. The travel assist system performs travel lane keep assist, steering assist, and the like of the vehicle 1.

(画像処理装置の機能)
画像処理装置30は、図4に示すように平行化部42、視差画像生成部43、Uマップ生成部44(生成部の一例)、壁検出部45及び分離部46(分離部の一例)の各機能を有している。平行化部42及び視差画像生成部43は、例えばFPGA306のプログラム可能な論理ブロックにより、ハードウェアで実現される。なお、この例では、平行化部42及び視差画像生成部43は、ハードウェアで実現することとしたが、以下に説明する立体物認識プログラム等により、ソフトウェアで実現してもよい。
(Function of image processing device)
As shown in FIG. 4, the image processing apparatus 30 includes a parallelizing unit 42, a parallax image generating unit 43, a U map generating unit 44 (an example of a generating unit), a wall detecting unit 45, and a separating unit 46 (an example of a separating unit). Has each function. The parallelizing unit 42 and the parallax image generating unit 43 are realized by hardware by, for example, programmable logic blocks of the FPGA 306. In this example, the parallelizing unit 42 and the parallax image generating unit 43 are realized by hardware, but may be realized by software by a three-dimensional object recognition program or the like described below.

Uマップ生成部44、壁検出部45及び分離部46の各機能を、例えばRAM310又はROM308等の記憶部に記憶されている立体物認識プログラムを、CPU304が実行することで実現する。   The functions of the U map generation unit 44, the wall detection unit 45, and the separation unit 46 are realized by the CPU 304 executing a three-dimensional object recognition program stored in a storage unit such as the RAM 310 or the ROM 308, for example.

なお、この例では、Uマップ生成部44〜分離部46をソフトウェアで実現することとして説明を進めるが、Uマップ生成部44〜分離部46のうち、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよい。   In this example, the description will be made on the assumption that the U map generation unit 44 to the separation unit 46 are realized by software. However, part or all of the U map generation unit 44 to the separation unit 46 may be integrated with an IC (Integrated Circuit). It may be realized by hardware such as.

また、立体物認識プログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)などのコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、立体物認識プログラムは、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、立体物認識プログラムは、機器内のROM等に予め組み込んで提供してもよい。   The three-dimensional object recognition program may be provided as a file in an installable format or an executable format and recorded on a recording medium readable by a computer device such as a CD-ROM or a flexible disk (FD). Further, the program may be provided by being recorded on a recording medium readable by a computer device such as a CD-R, a DVD (Digital Versatile Disk), a Blu-ray Disc (registered trademark), or a semiconductor memory. The three-dimensional object recognition program may be provided by being installed via a network such as the Internet. The three-dimensional object recognition program may be provided by being incorporated in advance in a ROM or the like in the device.

(画像処理装置の動作)
ステレオカメラ41は、各カメラ部2a、2bでカラー輝度変換処理により輝度画像データを生成し、FPGA306の平行化部42に供給する。平行化部42は、ステレオカメラ41から供給された輝度画像データに平行化処理を施すことで、各カメラ部2a、2bの光学系の歪みを補正した平行な輝度画像を生成する。
(Operation of image processing device)
The stereo camera 41 generates luminance image data by color luminance conversion processing in each of the camera units 2 a and 2 b and supplies the luminance image data to the parallelizing unit 42 of the FPGA 306. The parallelizing unit 42 performs parallelization processing on the luminance image data supplied from the stereo camera 41, thereby generating a parallel luminance image in which the distortion of the optical system of each camera unit 2a, 2b is corrected.

視差画像生成部43は、画素毎に距離情報を備えた距離画像の一例である、画素毎に視差値を備えた視差画像を生成する。すなわち、視差画像は、物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報の一例である。Uマップ生成部44は、視差画像生成部43により生成された視差画像に基づいて、横軸を実距離、縦軸を視差値dとし、z軸に頻度を表した2次元ヒストグラムであるUマップを生成する。すなわち、Uマップは、視差画像に基づいて生成された俯瞰的なマップ(鳥瞰画像、俯瞰画像)であり、物体の横方向位置及び奥行方向位置が対応づけられた2次元分布情報である。なお、説明の都合上、「マップ」という語句を用いるが、実際にマップを生成するのではなく、このような特徴を有する情報を生成し、2次元分布情報として、例えばRAM310又はROM308等の記憶部に記憶すると理解されたい。   The parallax image generation unit 43 generates a parallax image having a parallax value for each pixel, which is an example of a distance image having distance information for each pixel. That is, the parallax image is an example of information in which the vertical position, the horizontal position, and the depth direction position of the object are associated with each other. Based on the parallax image generated by the parallax image generation unit 43, the U map generation unit 44 is a U map that is a two-dimensional histogram in which the horizontal axis represents the actual distance, the vertical axis represents the parallax value d, and the frequency is represented on the z axis. Is generated. That is, the U map is a bird's-eye view map (bird's-eye view image, bird's-eye view image) generated based on the parallax image, and is two-dimensional distribution information in which the horizontal position and the depth direction position of the object are associated with each other. For convenience of explanation, the term “map” is used, but instead of actually generating a map, information having such characteristics is generated and stored as two-dimensional distribution information such as RAM 310 or ROM 308. It should be understood that it is stored in the department.

視差画像生成部43は、路面からの高さが所定の高さの範囲(たとえば20cmから3m)にある視差画像の点(x,y,d)を(d)の値に基づいて高さを計算し、投票の可否を決定してもよい。路面の位置および路面からの高さは、視差画像を利用して公知の方法により算出できる。投票位置の横位置は視差画像の点(x,y,d)の(x,d)の値を用いて計算する。視差画像の画像中央とxの画素での距離を実距距離に変換し、投票の横位置を決定する。例えば、図5(a)に示す道路の右端に沿って壁w1が設けられており、この壁w1に沿って車両c1が走行している撮像画像に対応する視差画像が供給されとする。この場合、Uマップ生成部44は、図5(b)に示すように、手前から奥行き方向に沿って伸びる直線の棒状の壁w1、及び、壁w1に接触した状態で四角形状の車両c1の背面が投票されたUマップを生成する。   The parallax image generation unit 43 calculates the height of the point (x, y, d) of the parallax image whose height from the road surface is within a predetermined height range (for example, 20 cm to 3 m) based on the value of (d). It may be calculated to determine whether or not to vote. The position of the road surface and the height from the road surface can be calculated by a known method using a parallax image. The lateral position of the voting position is calculated using the value of (x, d) of the point (x, y, d) of the parallax image. The distance between the center of the parallax image and the x pixel is converted into an actual distance, and the lateral position of the vote is determined. For example, it is assumed that a wall w1 is provided along the right end of the road illustrated in FIG. 5A, and a parallax image corresponding to a captured image in which the vehicle c1 is traveling along the wall w1 is supplied. In this case, as shown in FIG. 5 (b), the U map generation unit 44 includes a straight bar-like wall w1 extending in the depth direction from the front, and a rectangular vehicle c1 in contact with the wall w1. Generate a U map with the back voted.

壁検出部45は、例えば図5(b)に示したUマップ上に投票されている壁w1を検出する。しかし、図5(b)に示す例の場合、壁w1と車両c1が接触した状態で投票されているため、壁w1と車両c1を一塊の壁として誤検出するおそれがある。このため、分離部46は、列方向の分離処理を実行することで、壁検出部45により、一塊の壁として検出されたオブジェクトを、壁w1及び車両c1に分離する。   For example, the wall detection unit 45 detects the wall w1 voted on the U map shown in FIG. However, in the case of the example shown in FIG. 5B, since voting is performed in a state where the wall w1 and the vehicle c1 are in contact with each other, there is a possibility that the wall w1 and the vehicle c1 are erroneously detected as a single wall. Therefore, the separation unit 46 performs separation processing in the column direction to separate the objects detected as a single wall by the wall detection unit 45 into the wall w1 and the vehicle c1.

(列方向分離処理)
図6に、一塊の壁として検出されたオブジェクト(壁検出結果)を、壁w1及び車両c1に分離する処理の流れを示す。分離部46は、ステップS1を介して処理を開始し、全ての壁検出結果に対する処理が終了するまで、ステップS2〜ステップS7の処理を繰り返し実行する。
(Column direction separation processing)
FIG. 6 shows a flow of processing for separating an object (wall detection result) detected as a lump of walls into a wall w1 and a vehicle c1. The separation unit 46 starts the process via step S1, and repeatedly executes the processes of steps S2 to S7 until the processes for all the wall detection results are completed.

ステップS2:壁検出結果となる画像(オブジェクト)の列毎に高さ(奥行方向の長さ)を検出する。   Step S2: The height (length in the depth direction) is detected for each column of the image (object) that is the wall detection result.

ステップS3:ステップS2で検出した列の高さ(奥行方向の長さ)は、現在、高さ(奥行方向の長さ)を検出しているオブジェクトにおける、検出済みの列の高さ(奥行方向の長さ)のうち、最大となる高さ(奥行方向の長さ)か否かを判別する。ステップS3がNoの場合は、ステップS5に処理を進める。   Step S3: The column height (length in the depth direction) detected in step S2 is the height of the detected column (depth direction) in the object whose height (length in the depth direction) is currently detected. It is determined whether or not the maximum height (the length in the depth direction) is included. If step S3 is No, the process proceeds to step S5.

ステップS4:検出した列の高さ(奥行方向の長さ)が最大と判別された場合(ステップS3:Yes)、現在のオブジェクトに対する列の最大の高さ(奥行方向の長さ)の値、及び、最大の高さ(奥行方向の長さ)の値を有する列の位置情報を更新する。   Step S4: When it is determined that the detected column height (length in the depth direction) is the maximum (step S3: Yes), the value of the maximum column height (depth direction length) for the current object, Then, the position information of the column having the value of the maximum height (length in the depth direction) is updated.

ステップS5:現在のオブジェクトに対する、全ての列の高さ(奥行方向の長さ)等の検出(探索)は終了したか否かを判別。現在のオブジェクトの全ての列に対する探索が終了していない場合は(ステップS5:No)、ステップS2に処理を戻し、現在のオブジェクトにおける、探索を行っていない列に対して探索を行う。   Step S5: It is determined whether or not the detection (search) of the height (length in the depth direction) of all the columns for the current object has been completed. If the search for all the columns of the current object has not been completed (step S5: No), the process returns to step S2, and the search is performed for the column in the current object that has not been searched.

ステップS6:現在のオブジェクトの全ての列に対する探索が終了した際に、現在のオブジェクトの最大の高さ(奥行方向の長さ)の列の位置情報を、壁の位置を示す壁位置情報として、RAM310又はROM308等の記憶部に記憶する。   Step S6: When the search for all the columns of the current object is completed, the position information of the column of the maximum height (length in the depth direction) of the current object is used as the wall position information indicating the wall position. It memorize | stores in memory | storage parts, such as RAM310 or ROM308.

ステップS7:全てのオブジェクトに対する探索が終了した際に、図6のフローチャートの処理終了し(ステップS7:Yes)、全てのオブジェクトに対する探索が終了していない場合は(ステップS7:No)、ステップS1に処理を戻し、上述の各処理を、他のオブジェクトに対して繰り返し実行する。   Step S7: When the search for all objects is completed, the process of the flowchart of FIG. 6 is terminated (step S7: Yes). If the search for all objects is not completed (step S7: No), step S1 is performed. The process is returned to the above, and the above-described processes are repeatedly executed on other objects.

図7は、このようなオブジェクトの列方向の分離処理を模式図である。すなわち、分離部46は、図7(a)に示すように、オブジェクトの各列の高さ(奥行方向の長さ)を検出する(ステップS2〜ステップS5)。次に分離部46は、オブジェクトを構成する各列のうち、最大長の列の位置情報を壁位置情報として記憶部に記憶する。   FIG. 7 is a schematic diagram showing such separation processing of objects in the column direction. That is, as shown in FIG. 7A, the separation unit 46 detects the height (length in the depth direction) of each column of objects (steps S2 to S5). Next, the separation unit 46 stores the position information of the longest column among the columns constituting the object in the storage unit as wall position information.

分離部46は、この壁位置情報で示される列を境界として一塊のオブジェクトを分離することで、壁w1と車両c1を分離する。これにより、解像度の低いUマップを用いても、オブジェクトを構成する列で最大長の列を境にオブジェクトを分離するという、簡単な分離処理で、精度良くオブジェクトの分離を行うことができる。また、簡単な演算処理でオブジェクトを分離できるため、高速にオブジェクトの分離処理を行うことができる。すなわち、簡単な情報処理演算で高速に物体の分離処理を行うことができる。   The separating unit 46 separates the wall w1 and the vehicle c1 by separating a group of objects with the column indicated by the wall position information as a boundary. As a result, even if a U map having a low resolution is used, the objects can be accurately separated by a simple separation process in which the objects are separated from each other at the maximum length of the columns constituting the object. Further, since the objects can be separated by simple arithmetic processing, the object separation processing can be performed at high speed. That is, the object separation process can be performed at high speed with a simple information processing operation.

(第2の実施の形態)
次に、第2の実施の形態の機器制御システムの説明をする。第1の実施の形態のように、最大長の列を境界としてオブジェクトを分離した場合、図7(c)に示す、分離後における左側の部分的なオブジェクトのように、物体として特定困難なオブジェクトが残るおそれがある。すなわち、図7(c)の例の場合、 分離後における左側の部分的なオブジェクトは、車両として検出することが困難な形状を有している。
(Second Embodiment)
Next, a device control system according to the second embodiment will be described. When the object is separated using the maximum length column as a boundary as in the first embodiment, an object that is difficult to identify as an object, such as the partial object on the left side after separation shown in FIG. May remain. That is, in the example of FIG. 7C, the left partial object after separation has a shape that is difficult to detect as a vehicle.

第2の実施の形態の機器制御システムは、このような不都合を防止するため、分離部46が、図8のフローチャートに従って処理を実行することで、さらに精度よく、オブジェクトを分離可能とした。なお、図8のフローチャートにおいて、ステップS1〜ステップS5及びステップS7は、上述の図6のフローチャートのステップS1〜ステップS5及びステップS7とそれぞれ同じ処理である。すなわち、図6のフローチャートと図8のフローチャートの差異は、ステップS2及びステップS3の間にステップS11及びステップS12の処理が介在し、ステップS5とステップS7との間にステップS13の処理が介在することである。そして、上述の第1の実施の形態と、以下に説明する第2の実施の形態とでは、この点のみが異なる。このため、以下、両者の差異の説明のみ行い、重複説明は省略する。   In the device control system according to the second embodiment, in order to prevent such inconvenience, the separation unit 46 performs processing according to the flowchart of FIG. 8 so that the objects can be separated with higher accuracy. In the flowchart of FIG. 8, steps S1 to S5 and S7 are the same processes as steps S1 to S5 and S7 of the flowchart of FIG. That is, the difference between the flowchart of FIG. 6 and the flowchart of FIG. 8 is that steps S11 and S12 are interposed between steps S2 and S3, and steps S13 are interposed between steps S5 and S7. That is. The first embodiment described above is different from the second embodiment described below only in this respect. For this reason, only the difference between the two will be described below, and redundant description will be omitted.

第2の実施の形態の場合、分離部46は、ステップS2において、図9(a)に示すように、壁検出結果(オブジェクト)の各列の高さ(奥行方向の長さ)を検出すると、ステップS11に処理を進め、現在、探索している列の高さ(奥行方向の長さ)は、閾値以上の高さ(奥行方向の長さ)であるか否かを判別する。一例ではあるが、この閾値としては、例えば「10m」等の、常識的に考えられる車両の長さを超える程度の値(多少長めの値)が設定されている。   In the case of the second embodiment, the separation unit 46 detects the height (length in the depth direction) of each column of the wall detection result (object) as shown in FIG. 9A in step S2. Then, the process proceeds to step S11, and it is determined whether or not the height (length in the depth direction) of the currently searched column is a height (length in the depth direction) equal to or greater than a threshold value. As an example, the threshold value is set to a value (slightly longer value) such as “10 m” or the like that exceeds the length of a vehicle that can be considered in common sense.

分離部46は、閾値以上の高さ(奥行方向の長さ)の列を検出すると(ステップS11:Yes)ステップS12に処理を進め、閾値以上の高さ(奥行方向の長さ)の列の位置情報を壁位置情報としてRAM310等の記憶部に記憶する。図9(b)に示す例の場合、斜線の列が、閾値以上の高さ(奥行方向の長さ)を有する列を示している。分離部は、この斜線の列の位置情報を記憶部に記憶する。   When the separation unit 46 detects a column having a height (depth in the depth direction) that is equal to or higher than the threshold (step S11: Yes), the separation unit 46 proceeds to step S12, and proceeds to step S12. The position information is stored in the storage unit such as the RAM 310 as wall position information. In the case of the example shown in FIG. 9B, the shaded columns indicate the columns having a height (length in the depth direction) equal to or greater than the threshold value. The separation unit stores the position information of the shaded row in the storage unit.

分離部46は、このようにオブジェクトを形成する各列のうち、閾値以上の高さ(奥行方向の長さ)の列の検出が終了すると、ステップS3及びステップS4において、閾値以上の高さ(奥行方向の長さ)の列のうち、最大の高さ(奥行方向の長さ)の列を検出する。そして、分離部46は、ステップS13において、最大の高さ(奥行方向の長さ)の列、及び、最大の高さ(奥行方向の長さ)の列に隣接し、かつ、上述の閾値以上の高さ(奥行方向の長さ)の列の位置を、それぞれ壁位置情報として記憶部に記憶する。   When the separation unit 46 finishes detecting a column having a height (length in the depth direction) that is equal to or greater than the threshold among the columns that form the object in this manner, in step S3 and step S4, the separation unit 46 has a height that is equal to or greater than the threshold ( Among the columns in the depth direction), the column having the maximum height (the length in the depth direction) is detected. In step S13, the separation unit 46 is adjacent to the column having the maximum height (length in the depth direction) and the column having the maximum height (length in the depth direction), and is equal to or greater than the above-described threshold value. Are stored in the storage unit as wall position information, respectively.

図9(c)の例の場合、列CL6が最大の高さ(奥行方向の長さ)の列である。そして、この最大の列CL6に隣接する列のうち、閾値以上の高さ(奥行方向の長さ)の列は、列CL5である。列CL7は、閾値未満の列である。この場合、分離部46は、列CL5及び列CL6の位置を壁位置情報として記憶部に記憶する。これにより、列CL5及び列CL6を境としてオブジェクトを分離した際に、図9(c)の列CL1〜列CL4に示すように、車両(物体)として特定可能なオブジェクトを残すことができ、さらに精度よく、オブジェクトを分離可能とすることができる他、上述の第1の実施の形態と同じ効果を得ることができる。   In the case of the example of FIG. 9C, the column CL6 is a column having the maximum height (length in the depth direction). Of the columns adjacent to the maximum column CL6, a column having a height (length in the depth direction) equal to or greater than the threshold is the column CL5. The column CL7 is a column that is less than the threshold value. In this case, the separation unit 46 stores the positions of the rows CL5 and CL6 in the storage unit as wall position information. As a result, when the objects are separated with the column CL5 and the column CL6 as the boundary, as shown in the column CL1 to the column CL4 in FIG. 9C, an object that can be specified as a vehicle (object) can be left. In addition to making it possible to separate the objects with high accuracy, the same effects as in the first embodiment described above can be obtained.

(第3の実施の形態)
(行方向分離処理)
次に、第3の実施の形態の機器制御システムの説明をする。上述の第1及び第2の実施の形態は、オブジェクトを行方向に沿って分離する例であった。これに対して、第3の実施の形態の機器制御システムは、オブジェクトを列方向に沿って分離する例である。なお、上述の各実施の形態と以下に説明する第3の実施の形態は、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Third embodiment)
(Row direction separation processing)
Next, a device control system according to the third embodiment will be described. The first and second embodiments described above are examples in which objects are separated along the row direction. In contrast, the device control system according to the third embodiment is an example in which objects are separated along the column direction. The above-described embodiments are different from the third embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.

一例ではあるが、図10(a)に示すように左車線を先行する車両c1〜車両c3が繋がって見える状態で走行している場合、Uマップ上には、図10(b)に示すように、繋がった状態の各車両c1〜c3の側面に対応する棒状(直線状)のオブジェクトが現れる。また、この棒状のオブジェクトの手前右の部分に接続されるかたちで、最後尾の車両c1の背面に対応する四角形状のオブジェクトが現れる。すなわち、左車線を先行する車両c1〜車両c3が繋がって見える状態の場合、Uマップ上には、図10(b)に示すように「L字状」のオブジェクトが現れる。   As an example, as shown in FIG. 10 (a), when the vehicle c1 to the vehicle c3 preceding the left lane are connected and appear to be connected, on the U map, as shown in FIG. 10 (b). The bar-like (straight-line) object corresponding to the side surface of each vehicle c1 to c3 in the connected state appears. Further, a rectangular object corresponding to the rear surface of the rearmost vehicle c1 appears in a form connected to the right front portion of the rod-shaped object. That is, when the vehicles c1 to c3 preceding the left lane appear to be connected, an “L-shaped” object appears on the U map as shown in FIG.

このようなUマップが得られた場合、第3の実施の形態の機器制御システムの分離部46は、壁検出結果となるオブジェクトの各行の幅の大きさに、所定以上の差異が存在する行を境として、行方向に沿ってオブジェクトを分離処理する。具体的には、分離部46は、図11(a)〜図11(c)に示すように、オブジェクトの手前から、当該オブジェクトを構成する各行の幅の大きさを順に検出する。分離部46は、各行の幅を検出する毎に第1の閾値と比較する。一例ではあるが、この第1の閾値としては、車両1台分の背面の幅の大きさよりも多少狭い値となる例えば「1.5m」が設定されている。分離部46は、各行の幅を検出する毎に第1の閾値以上となる行の幅の数が車両1台分に相当する数であった場合に、最後に第1の閾値以上であることが検出された行を境にオブジェクトを分離する。   When such a U map is obtained, the separation unit 46 of the device control system according to the third embodiment causes the line width of each line of the object that is the wall detection result to have a difference that exceeds a predetermined value. The object is separated along the row direction with the border as the boundary. Specifically, as illustrated in FIGS. 11A to 11C, the separation unit 46 sequentially detects the width of each row that configures the object from the front of the object. The separating unit 46 compares the width of each row with the first threshold value every time it is detected. As an example, for example, “1.5 m” is set as the first threshold value, which is a value that is slightly narrower than the width of the rear surface of one vehicle. When the number of row widths that are equal to or greater than the first threshold every time the width of each row is detected is equal to one vehicle, the separation unit 46 is finally equal to or greater than the first threshold. The object is separated on the line where is detected.

これにより、図11(d)に示すように、「手前の車両c1」と、「車両c1に対する先行車両に相当する車両c2及び車両c3」とを分離することができる。また、当該機器制御システムが設けられている車両の制御は、手前の車両c1の走行状態を参照して行われる場合が多い。このため、分離部46は、手前の車両c1以外の車両c2及び車両c3に対応するオブジェクトは、壁の検出結果として車両の制御に用いることなく破棄する。なお、車両c2及び車両c3に対応するオブジェクトを壁の検出結果として用いてもよい。   As a result, as shown in FIG. 11 (d), the “front vehicle c 1” and the “vehicle c 2 and vehicle c 3 corresponding to the preceding vehicle with respect to the vehicle c 1” can be separated. Further, the control of the vehicle provided with the device control system is often performed with reference to the traveling state of the vehicle c1 in front. For this reason, the separation unit 46 discards the objects corresponding to the vehicle c2 and the vehicle c3 other than the vehicle c1 in the foreground without being used for vehicle control as a wall detection result. In addition, you may use the object corresponding to the vehicle c2 and the vehicle c3 as a wall detection result.

図12のフローチャートに、このような第3の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS21を介して処理を開始し、ステップS33において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS22〜ステップS33の各処理をオブジェクト毎に繰り返し実行する。   The flowchart of FIG. 12 shows the flow of the row direction separation processing of the separation unit 46 in the third embodiment. The separation unit 46 starts the process via step S21. In step S33, each of the steps S22 to S33 is performed until it is determined that the row direction separation process has been completed for all the wall detection results (objects). Repeat the process for each object.

ステップS22では、分離部46が、図11(a)〜図11(c)を用いて説明したように、行毎の幅の大きさを検出する。ステップS23では、分離部46が、車両1台分の背面の幅の大きさよりも若干狭めに設定されている第1の閾値以上であるか否かを判別する。ステップS24では、第1の閾値以上となった行の幅の数をカウントする。ステップS25では、第1の閾値以上となった行の幅の数が、例えば車両1台分の背面部の幅に相当する所定数以上(所定カウント数以上)となったか否かを判別する。ステップS26では、第1の閾値以上の幅を有する行の数が所定カウント数以上となったため、分離部46が、車両に相当するオブジェクトであることを示す情報を、上述の記憶部に記憶する(フラグをONにする)。   In step S22, as described with reference to FIGS. 11A to 11C, the separation unit 46 detects the width of each row. In step S23, it is determined whether or not the separation unit 46 is equal to or greater than a first threshold that is set slightly narrower than the width of the rear surface of one vehicle. In step S24, the number of row widths that are equal to or greater than the first threshold is counted. In step S25, it is determined whether or not the number of row widths that are equal to or greater than the first threshold is equal to or greater than a predetermined number (a predetermined count number or more) corresponding to the width of the rear portion of one vehicle, for example. In step S26, since the number of rows having a width equal to or greater than the first threshold is equal to or greater than the predetermined count, the separation unit 46 stores information indicating that the object corresponds to a vehicle in the storage unit described above. (Set the flag to ON).

ステップS27では、分離部46が、フラグがオンか否かを判別する。フラグがオンとなっていない場合(ステップS27:No)、分離部46は、ステップS32において、現在、探索を行っているオブジェクトの全ての行に対する処理が終了したか否かを判別する。全ての行に対する処理が終了したと判別した場合、分離部46は、ステップS33に処理を進め、全てのオブジェクト(壁検出結果)に対する行方向分離処理が終了したか否かを判別する。全てのオブジェクト(壁検出結果)に対する行方向分離処理が終了したと判別した場合(ステップS33:Yes)、分離部46は、図12のフローチャートの処理を終了し、全てのオブジェクトに対する行方向分離処理が終了していないと判別した場合(ステップS33:No)、ステップS21を介してステップS22に処理を戻し、次のオブジェクトの行の幅の検出を開始する。   In step S27, the separation unit 46 determines whether or not the flag is on. If the flag is not on (step S27: No), the separation unit 46 determines whether or not the processing for all the rows of the object currently being searched has been completed in step S32. If it is determined that the processing for all rows has been completed, the separation unit 46 proceeds to step S33, and determines whether or not the row direction separation processing has been completed for all objects (wall detection results). When it is determined that the row direction separation process for all objects (wall detection results) has been completed (step S33: Yes), the separation unit 46 ends the process of the flowchart of FIG. 12 and performs the row direction separation process for all objects. If it is determined that the process has not ended (step S33: No), the process returns to step S22 via step S21, and detection of the width of the next object row is started.

ステップS28では、フラグがオンであるため、分離部46が、行の幅が第2の閾値未満であるか否かを判別する。第2の閾値は、例えば最も手前の車両c1の前方を走行する車両c2及び車両c3等に対応して形成されるオブジェクトの幅以上で、車両1台分の背面の幅よりも若干狭めに設定されている第1の閾値よりも、さらに狭い幅の値に設定されている。分離部46は、ステップS29において、第2の閾値未満の幅となる行の数をカウントする。そして、ステップS30において、このカウント値が、車両が連続して所定数以上繋がっている場合にカウントされるカウント値以上であった場合に(ステップS30:Yes)、現在の行の位置でオブジェクトを分離するように、記憶部に記憶されているオブジェクトの位置情報を修正する。   In step S28, since the flag is on, the separation unit 46 determines whether or not the row width is less than the second threshold value. The second threshold is set to be slightly larger than the width of the rear surface of one vehicle, for example, greater than the width of the object formed corresponding to the vehicle c2 and the vehicle c3 traveling in front of the foremost vehicle c1. The width is set to a value narrower than the first threshold value. In step S29, the separation unit 46 counts the number of rows having a width less than the second threshold. In step S30, when the count value is equal to or greater than the count value counted when a predetermined number of vehicles are continuously connected (step S30: Yes), the object is displayed at the current row position. The position information of the object stored in the storage unit is corrected so as to be separated.

なお、分離部46は、分離後における車両c2及び車両c3に対応するオブジェクトの壁位置情報を記憶部から除外する。これにより、車両1のブレーキ制御及び走行位置制御等の運転支援は、車両c1の動きに基づいて行われることとなる。しかし、車両c2及び車両c3は、車両c1よりも遠く(奥行側)に位置するため、差ほど影響はない。   The separation unit 46 excludes the wall position information of the objects corresponding to the vehicle c2 and the vehicle c3 after separation from the storage unit. Thereby, driving assistance such as brake control and travel position control of the vehicle 1 is performed based on the movement of the vehicle c1. However, since the vehicle c2 and the vehicle c3 are located farther (the depth side) than the vehicle c1, there is no influence as much as the difference.

第3の実施の形態の機器制御システムは、図11(d)に示すように「最も手前の車両c1」と、「車両c1の前方を走行する車両c2及び車両c3」とを行方向に沿って分離することができる。このため、分離したオブジェクトに基づいて正確な物体認識処理を行うことができ、牽いては、機器制御システムにおける制御の精度を向上させることができる他、上述の各実施の形態と同様の効果を得ることができる。   As shown in FIG. 11 (d), the device control system according to the third embodiment includes a “frontmost vehicle c1” and a “vehicle c2 and a vehicle c3 traveling in front of the vehicle c1” along the row direction. Can be separated. For this reason, accurate object recognition processing can be performed based on the separated objects, and in addition to improving the accuracy of control in the device control system, the same effects as those of the above-described embodiments can be obtained. Can be obtained.

(第4の実施の形態)
(行方向分離処理の他の実施形態)
次に、第4の実施の形態の機器制御システムの説明をする。図13(a)に示すように、道路の左端部に沿って壁w1が設けられており、道路の奥側の位置(遠方側の位置)を車両c1が走行している場合、図13(b)に示すオブジェクトが現れたUマップが得られる。すなわち、図13(b)に示すように、棒状の壁w1のオブジェクトと、車両c1の背面部に対応する四角形状のオブジェクトとが、奥側で接続されたかたちのオブジェクトがUマップ上に現れる。第4の実施の形態の機器制御システムは、このようなオブジェクトを行方向に沿って分離することで、壁w1のオブジェクト及び車両c1のオブジェクトを得る。なお、上述の第3の実施の形態と以下に説明する第4の実施の形態は、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Fourth embodiment)
(Another embodiment of row direction separation processing)
Next, a device control system according to the fourth embodiment will be described. As shown in FIG. 13A, when the wall w1 is provided along the left end portion of the road, and the vehicle c1 is traveling at a position on the back side of the road (a position on the far side), FIG. A U map in which the object shown in b) appears is obtained. That is, as shown in FIG. 13B, an object in a shape in which the object of the rod-shaped wall w1 and the rectangular object corresponding to the back surface of the vehicle c1 are connected on the back side appears on the U map. . The device control system according to the fourth embodiment obtains an object on the wall w1 and an object on the vehicle c1 by separating such objects along the row direction. The third embodiment described above is different from the fourth embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.

図14のフローチャートに、このような第4の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS41を介して処理を開始し、ステップS48において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS42〜ステップS48の各処理をオブジェクト毎に繰り返し実行する。   The flowchart of FIG. 14 shows the flow of the row direction separation process of the separation unit 46 in the fourth embodiment. The separation unit 46 starts processing through step S41, and in step S48, each of the steps S42 to S48 is performed until it is determined that the row direction separation processing has been completed for all wall detection results (objects). Repeat the process for each object.

まず、分離部46は、ステップS42において、壁検出結果(オブジェクト)の全ての行の幅を検出する。具体的には、図13(a)に示す撮像画像の場合、図15に示すようなオブジェクトが現れたUマップが得られる。分離部46は、図15に示すオブジェクトの第1行目L1〜第14行目L14の幅をそれぞれ検出する。   First, in step S42, the separation unit 46 detects the widths of all lines of the wall detection result (object). Specifically, in the case of the captured image shown in FIG. 13A, a U map in which an object as shown in FIG. 15 appears is obtained. The separation unit 46 detects the widths of the first row L1 to the fourteenth row L14 of the object shown in FIG.

次に、分離部46は、ステップS43において、壁検出結果の矩形内の行単位の区間をとり、区間を矩形の下端から上方向にスライドさせる。すなわち、分離部46は、図16(a)に示すように、オブジェクトの第1行目L1の幅の値から第14行目L14の幅の値を順に下から積み上げたかたちの1次元的なヒストグラムを生成し、例えば5つの値を含む第1の区間、及び、第1の区間に連続する区間であり、5つの値を含む第2の区間を設定する。図16(a)の例の場合、第1行目L1から第5行目L5までの区間が第1の区間となり、この第1の区間に連続する第6行目L6〜第10行目L10の区間が第2の区間となる。分離部46は、以下に説明するように、第1及び第2の区間を同時に一つの行の幅の値ずつ、ヒストグラム上をスライドさせながら、第1及び第2の区間の幅の値の平均値を算出する。   Next, in step S43, the separation unit 46 takes a line unit section in the rectangle of the wall detection result, and slides the section upward from the lower end of the rectangle. That is, as shown in FIG. 16A, the separation unit 46 is a one-dimensional form in which the width value of the 14th row L14 is stacked in order from the width value of the first row L1 of the object. A histogram is generated, and for example, a first interval including five values and a second interval including five values that are continuous to the first interval are set. In the case of the example of FIG. 16A, the section from the first line L1 to the fifth line L5 is the first section, and the sixth line L6 to the tenth line L10 continuous to the first section. This section becomes the second section. As will be described below, the separation unit 46 averages the width values of the first and second sections while sliding the first and second sections on the histogram at the same time for each row width value. Calculate the value.

すなわち、ステップS44では、分離部46が、図16(a)に示す第1行目L1から第5行目L5までの第1の区間の幅の値の平均値(下側の平均値)と、第6行目L6〜第10行目L10の第2の区間の幅の値の平均値(上側の平均値)を算出する。そして、ステップS45において、分離部46は、「(第1の区間の平均値×閾値)>第2の区間の平均値」であるか否かを判別する。なお、閾値としては、例えば「2」の値を用いる。   That is, in step S44, the separation unit 46 calculates the average value (lower average value) of the width values of the first section from the first row L1 to the fifth row L5 shown in FIG. The average value (upper average value) of the width values of the second section of the sixth line L6 to the tenth line L10 is calculated. In step S45, the separation unit 46 determines whether “(average value of first section × threshold)> average value of second section” is satisfied. For example, a value “2” is used as the threshold value.

図16(a)の例の場合、分離部46は、第1行目L1から第5行目L5までの各幅の値である2、3、2、3、3の平均値である「2.6」を算出すると共に、第6行目L6から第10行目L10までの各幅の値である3、2、2、2、6の平均値である「3.0」を算出する。そして、分離部46は、第1の区間の平均値である「2.6」に、閾値である「2」を乗算処理し、この乗算値、すなわち重み付けした平均値である「5.2」を、第2の区間の平均値である「3.0」と比較処理する。   In the case of the example of FIG. 16A, the separation unit 46 is “2” which is an average value of 2, 3, 2, 3, 3 which is a value of each width from the first row L1 to the fifth row L5. .6 ”and“ 3.0 ”, which is the average value of the respective widths from the sixth line L6 to the tenth line L10, 3, 2, 2, 2, 6 is calculated. Then, the separation unit 46 multiplies “2.6” that is the average value in the first section by “2” that is the threshold value, and this multiplication value, that is, the weighted average value “5.2”. Is compared with “3.0”, which is the average value of the second section.

この例の比較処理の場合、下側n乗算値「5.2」の方が、上側である第2の区間の平均値「3.0」よりも大きな値となるため(ステップS45:No)、分離部46は、ステップS47に処理を進め、第1及び第2の区間が、ヒストグラムの最上端に相当する位置までスライドされたか否かを判別する。第1及び第2の区間が、ヒストグラムの最上端に相当する位置までスライドされたものと判別した場合(ステップS47:Yes)、分離部46は、ステップS48に処理を進め、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施したか否かを判別する。そして、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施したと判別した場合に(ステップS48:Yes)、図14のフローチャートに示す行方向分離処理を終了する。   In the case of the comparison process in this example, the lower n multiplication value “5.2” is larger than the average value “3.0” of the upper second section (step S45: No). The separation unit 46 proceeds to step S47, and determines whether or not the first and second sections have been slid to a position corresponding to the uppermost end of the histogram. When it is determined that the first and second sections have been slid to the position corresponding to the uppermost end of the histogram (step S47: Yes), the separation unit 46 proceeds to step S48, and all the wall detection results It is determined whether or not (object) has been subjected to the row direction separation processing described below. When it is determined that the row direction separation process described below has been performed on all wall detection results (objects) (step S48: Yes), the row direction separation process shown in the flowchart of FIG. 14 is terminated. .

これに対して、全ての壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施していないと判別した場合(ステップS48:No)、分離部46は、ステップS41を介してステップS42に処理を戻し、次の壁検出結果(オブジェクト)に対して、以下に説明する行方向分離処理を施す。   On the other hand, if it is determined that the row direction separation processing described below has not been performed on all wall detection results (objects) (step S48: No), the separation unit 46 passes through step S41. The processing is returned to step S42, and the row direction separation processing described below is performed on the next wall detection result (object).

すなわち、分離部46は、図16(a)〜図16(e)に示すように、第1の区間及び第2の区間を同時に一つの幅の値ずつ、ヒストグラム上をスライドさせ、第1の区間の閾値で重み付けした平均値、及び、第2の区間の重み付けしない平均値の算出を行い、両者を比較する。これにより、図16(a)〜図16(e)の例の場合、第1の区間及び第2の区間のスライド位置に応じて、「3<(2.6×2)(図16(a))」→「3.4<(2.8×2)(図16(b))」→「4.0<(2.6×2)(図16(c))」→「4.6<(2.6×2)(図16(d))」→「5.2>(2.4×2)(図16(e))」との比較結果を得ることができる。   That is, as shown in FIG. 16A to FIG. 16E, the separation unit 46 slides the first section and the second section on the histogram by one width value at a time. An average value weighted with the threshold value of the section and an unweighted average value of the second section are calculated and compared. Accordingly, in the example of FIGS. 16A to 16E, “3 <(2.6 × 2) (FIG. 16A) according to the slide positions of the first section and the second section. )) ”→“ 3.4 <(2.8 × 2) (FIG. 16B) ”→“ 4.0 <(2.6 × 2) (FIG. 16C) ”→“ 4.6 <(2.6 × 2) (FIG. 16 (d)) ”→“ 5.2> (2.4 × 2) (FIG. 16 (e)) ”can be obtained.

分離部46は、ステップS45において、図16(e)に示すように、第2の区間の重み付けしない平均値が、第1の区間の閾値で重み付けした平均値よりも大きな値となった場合に(ステップS45:Yes)、ステップS46において、図17に示すように、第1の区間と第2の区間の境目で、オブジェクトを行方向に沿って分離する。すなわち、図16(e)の例の場合、ヒストグラムの下から9つ目の値の位置が、第1の区間と第2の区間の境目となる。このため、分離部46は、図17に示すように、第9行目L9の位置で、行方向に沿ってオブジェクトを分離する。これにより、車両のような、壁に対して幅が大きくなる物体を分離する指標を用いて行方向の分離を行うため、奥側に位置している車両c1に相当するオブジェクト(第10行目L10〜第14行目L14)と、壁w1に相当するオブジェクト(第1行目L1〜第9行目L9)とを分離することができる。   In step S45, the separation unit 46, when the average value not weighted in the second section becomes larger than the average value weighted by the threshold value in the first section, as shown in FIG. (Step S45: Yes) In step S46, as shown in FIG. 17, the objects are separated along the row direction at the boundary between the first section and the second section. That is, in the example of FIG. 16E, the position of the ninth value from the bottom of the histogram is the boundary between the first section and the second section. Therefore, as shown in FIG. 17, the separation unit 46 separates the object along the row direction at the position of the ninth row L9. Thus, since the separation in the row direction is performed using an index for separating an object having a large width with respect to the wall, such as a vehicle, the object corresponding to the vehicle c1 located on the back side (the tenth row L10 to the 14th line L14) and the object corresponding to the wall w1 (the 1st line L1 to the 9th line L9) can be separated.

第4の実施の形態の機器制御システムは、結合しているオブジェクトを、行方向の沿って正確に分離できるため、分離したオブジェクトに基づいて正確な物体認識処理を行うことができ、牽いては、機器制御システムにおける制御の精度を向上させることができる等、上述の各実施の形態と同様の効果を得ることができる。   Since the device control system according to the fourth embodiment can accurately separate the coupled objects along the row direction, accurate object recognition processing can be performed based on the separated objects. The same effects as those of the above-described embodiments can be obtained, for example, the accuracy of control in the device control system can be improved.

(第5の実施の形態)
(行方向分離処理の第1の変形例)
次に、第5の実施の形態の機器制御システムの説明をする。上述の第4の実施の形態の場合、最初に各行の幅を全て計算してから平均値の算出処理及び比較処理等を行う例であった。これに対して、第5の実施の形態は、上述の各区間の設定が可能となったタイミングで、各区間の平均値の算出及び分離処理等を行う例である。なお、上述の第4の実施の形態と以下に説明する第5の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Fifth embodiment)
(First modification of row direction separation processing)
Next, a device control system according to the fifth embodiment will be described. In the case of the above-described fourth embodiment, the average value calculation process, the comparison process, and the like are performed after first calculating the width of each row. On the other hand, the fifth embodiment is an example in which the calculation of the average value of each section, the separation process, and the like are performed at the timing when the setting of each section described above becomes possible. The fourth embodiment described above is different from the fifth embodiment described below only in this respect. For this reason, only the difference will be described below, and a duplicate description will be omitted.

図18のフローチャートに、このような第5の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS51を介して処理を開始し、ステップS59において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS52〜ステップS59の各処理をオブジェクト毎に繰り返し実行する。   The flowchart of FIG. 18 shows the flow of the row direction separation process of the separation unit 46 in the fifth embodiment. The separation unit 46 starts processing through step S51, and in step S59, each of the steps S52 to S59 is performed until it is determined that the row direction separation processing has been completed for all wall detection results (objects). Repeat the process for each object.

まず、分離部46は、ステップS52において、壁検出結果(オブジェクト)下の行から上の行にかけて順に移動しながら走査を行い、ステップS53において、現在の行の幅を算出する。すなわち、移動操作毎に順次、行の幅を計算する。ステップS54では、分離部46が、既定回数以上、幅の計算が終了したか否かを判別する。すなわち、ステップS54では、分離部46が、上述の第1の区間及び第2の区間の設定が可能となる、例えば10個分の幅の値の計算が終了したか否かを判別する。なお、第1の区間及び第2の区間は、上述のようにそれぞれ5個の幅の値を含む例であるため、10個分の幅の値の計算が終了したか否かを判別することとしたが、各区間がそれぞれ3個の幅の値を含む場合は、6個分の幅の計算が終了したか否かを判別することとなる。さらに説明すると、ステップS54では、分離部46が、第1の区間及び第2の区間を設定可能な数の分、幅の値の計算が終了したか否かを判別している。   First, in step S52, the separation unit 46 performs scanning while sequentially moving from the lower row to the upper row of the wall detection result (object), and in step S53, the width of the current row is calculated. That is, the row width is calculated sequentially for each moving operation. In step S54, the separation unit 46 determines whether or not the width calculation has been completed a predetermined number of times or more. That is, in step S54, the separation unit 46 determines whether or not calculation of, for example, 10 width values that can set the first section and the second section is completed. In addition, since the first section and the second section are examples including five width values as described above, it is determined whether or not the calculation of the width values for ten sections has been completed. However, if each section includes three width values, it is determined whether or not the calculation of the widths for six sections has been completed. More specifically, in step S54, the separation unit 46 determines whether or not the calculation of the width value has been completed for the number of times that the first section and the second section can be set.

幅の計算が既定回数未満の場合(ステップS54:No)、分離部46は、ステップS58に進み、現在のオブジェクトの全ての行の走査を完了したか否かを判別する。現在のオブジェクトの全ての行の走査が完了している場合(ステップS58:Yes)、分離部46は、ステップS59に処理を進め、全てのオブジェクトに対する行方向分離処理が完了したか否かを判別する。全てのオブジェクトに対する行方向分離処理が完了している場合(ステップS59:Yes)、分離部46は、この図18のフローチャートの処理を終了する。また、全てのオブジェクトに対する行方向分離処理が完了していない場合(ステップS59:No)、分離部46は、ステップS51を介してステップS52に処理を戻し、他のオブジェクトに対して、以下に説明する行方向分離処理を実行する。   When the width calculation is less than the predetermined number of times (step S54: No), the separation unit 46 proceeds to step S58, and determines whether or not scanning of all rows of the current object has been completed. If the scanning of all the rows of the current object has been completed (step S58: Yes), the separation unit 46 proceeds to step S59 to determine whether or not the row direction separation processing for all the objects has been completed. To do. When the row direction separation process for all objects has been completed (step S59: Yes), the separation unit 46 ends the process of the flowchart of FIG. If the row direction separation process for all the objects has not been completed (step S59: No), the separation unit 46 returns the process to step S52 via step S51, and will be described below for other objects. Execute row direction separation processing.

これに対して、オブジェクトの全ての行の走査を完了していない場合(ステップS58:No)、分離部46は、ステップS52に処理を戻し、オブジェクトの他の行の走査を実行する。   On the other hand, when the scanning of all the rows of the object has not been completed (step S58: No), the separation unit 46 returns the process to step S52, and executes the scanning of the other rows of the object.

次に、ステップS54において、既定回数以上の幅の計測を完了したと判別した場合(ステップS54:Yes)、分離部46は、上述のヒストグラム(図16(a)〜図16(e)参照)のおける現在の行から下方向に向かって、上述の第1の区間及び第2の区間を設定し、ステップS56で各区間の平均値を算出する。そして、ステップS57において、分離部46は、「第2の区間の平均値>(第1の区間の平均値×2)」か否かを判別する。「第2の区間の平均値>(第1の区間の平均値×2)」である場合(ステップS57:Yes)、分離部46は、ステップS60において、第1の区間及び第2の区間の境目でオブジェクトを分離する(図16(e)及び図17参照)。   Next, when it is determined in step S54 that the measurement of the predetermined number of times or more has been completed (step S54: Yes), the separating unit 46 determines the above-described histogram (see FIGS. 16A to 16E). The first section and the second section described above are set in the downward direction from the current row, and the average value of each section is calculated in step S56. In step S57, the separation unit 46 determines whether or not “average value of second section> (average value of first section × 2)”. When “average value of the second section> (average value of the first section × 2)” (step S57: Yes), the separation unit 46 determines whether the first section and the second section are in step S60. The objects are separated at the boundary (see FIGS. 16E and 17).

これに対して、「第2の区間の平均値>(第1の区間の平均値×2)」ではない場合(ステップS57:No)、分離部46は、ステップS58に処理を進め、上述のようにオブジェクト内の全ての行の走査が完了したか否かを判別し、完了していない場合は、ステップS52に処理を戻す。このような第5の実施の形態は、壁検出結果(オブジェクト)の下方から行の探索、幅の計測、変化のチェックを同時に行うことができるため、迅速にオブジェクトの分離処理を行うことができ、高速な機器制御に貢献できる他、上述の各実施の形態と同様の効果を得ることができる。   On the other hand, when “average value of second section> (average value of first section × 2)” is not satisfied (step S57: No), the separation unit 46 proceeds to step S58 and performs the above-described process. As described above, it is determined whether or not scanning of all the rows in the object is completed. If not, the process returns to step S52. In the fifth embodiment, since the search for the line, the measurement of the width, and the check of the change can be simultaneously performed from the lower side of the wall detection result (object), the object separation process can be quickly performed. In addition to contributing to high-speed device control, the same effects as those of the above-described embodiments can be obtained.

(第6の実施の形態)
(行方向分離処理の第2の変形例)
次に、第6の実施の形態の機器制御システムの説明をする。この第6の実施の形態は、分離部46が、Uマップ上において、手前から奥行き方向に向かって順に連結しているオブジェクトを探索することで、奥行方向に向かって連続する壁状の物体を検出すると共に、検出した壁及び車両等の他の物体を分離する例である。なお、上述の各実施の形態と、第6の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Sixth embodiment)
(Second modification of row direction separation processing)
Next, a device control system according to the sixth embodiment will be described. In the sixth embodiment, the separating unit 46 searches the U map for objects that are connected in order from the front to the depth direction, so that a wall-like object continuous in the depth direction is obtained. It is an example which isolate | separates other objects, such as a detected wall and a vehicle, while detecting. It should be noted that only the above points are different between the above-described embodiments and the sixth embodiment. For this reason, only the difference will be described below, and a duplicate description will be omitted.

図19のフローチャートに、このような第6の実施の形態における分離部46の行方向分離処理の流れを示す。分離部46は、ステップS51を介して処理を開始し、ステップS59において、全ての壁検出結果(オブジェクト)に対して行方向分離処理が終了したものと判別するまで、ステップS52〜ステップS59の各処理をオブジェクト毎に繰り返し実行する。   The flowchart of FIG. 19 shows the flow of the row direction separation processing of the separation unit 46 in the sixth embodiment. The separation unit 46 starts processing through step S51, and in step S59, each of the steps S52 to S59 is performed until it is determined that the row direction separation processing has been completed for all wall detection results (objects). Repeat the process for each object.

まず、分離部46は、ステップS52において、Uマップの最初の列を下(最近距離エリア)からサーチする(ステップS61)。次に、分離部46は、現在、サーチしているピクセルの上の行の3つのピクセル(現在サーチしているピクセルの上の行のピクセル、この上の行の左右にそれぞれ隣接するピクセル)のうち、頻度値を有するピクセルが存在するか否かを判別する(ステップS62)。上述の3つのピクセルのうち、頻度値を有するピクセルが存在しない場合(ステップS62:No)、分離部46は、ステップS75に処理を進め、最後の列の最終のデータのサーチが終了したか否かを判別する。   First, in step S52, the separation unit 46 searches the first column of the U map from below (nearest distance area) (step S61). Next, the separation unit 46 determines whether the three pixels in the row above the currently searched pixel (the pixels in the row above the currently searched pixel and the pixels adjacent to the left and right of this row) are displayed. It is determined whether or not there is a pixel having a frequency value (step S62). If there is no pixel having a frequency value among the above three pixels (step S62: No), the separation unit 46 proceeds to step S75, and whether or not the search for the last data in the last column is completed. Is determined.

分離部46は、最後の列の最終のデータのサーチが終了したと判別した場合(ステップS75:Yes)、そのまま図19のフローチャートの処理を終了する。これに対して、最後の列の最終のデータのサーチが終了していないと判別した場合、分離部46は、次の列のサーチを行うべく、ステップS61に処理を戻す。すなわち、分離部46は、現在、サーチを行っているピクセルの上の行の3つのピクセルに、頻度値を有するピクセルを検出しない場合、現在のサーチである、例えば「1」のラベリング番号(ラベル)を付す1回目のサーチを終了し、「2」のラベリング番号を付す2回目のサーチに移行する。   When the separation unit 46 determines that the search for the last data in the last column is completed (step S75: Yes), the process of the flowchart of FIG. On the other hand, if it is determined that the search for the last data in the last column has not been completed, the separation unit 46 returns the process to step S61 to search for the next column. That is, when the separation unit 46 does not detect a pixel having a frequency value in the three pixels in the row above the pixel currently being searched, for example, the labeling number (label 1) of the current search is “1”. The first search with () is terminated, and the second search with a labeling number of “2” is entered.

次に、上述の3つのピクセルに、頻度値を有するピクセルが存在する場合(ステップS62:Yes)、分離部46は、現在のサーチ位置を、頻度値を有するピクセルの位置に更新する(ステップS63)。そして、分離部46は、現在のサーチ位置のピクセルに、既にラベリング番号(ラベリング番号)が付されているか否かを判別する(ステップS64)。   Next, when a pixel having a frequency value exists in the above three pixels (step S62: Yes), the separation unit 46 updates the current search position to the position of the pixel having a frequency value (step S63). ). Then, the separation unit 46 determines whether or not a labeling number (labeling number) has already been assigned to the pixel at the current search position (step S64).

既にラベリング番号が付されていると判別した場合、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。   If it is determined that a labeling number has already been assigned, the separation unit 46 terminates the process of the flowchart of FIG. 19 via the above-described step S75, or performs a process to search for the next column. Return to S61.

これに対して、ラベリング番号が付されていないと判別した場合(ステップS64:No)、分離部46は、ラベリング番号を一つインクリメントし(ステップS65)、現在のサーチ位置のピクセルに対して、インクリメントしたラベリング番号を付与するラベリング処理を行う(ステップS66)。   On the other hand, when it is determined that the labeling number is not attached (step S64: No), the separation unit 46 increments the labeling number by one (step S65), and the pixel at the current search position is A labeling process for assigning an incremented labeling number is performed (step S66).

次に、分離部46は、ステップS67において、現在の行の幅の大きさを算出する(図11(a)〜図11(c)参照)。   Next, in step S67, the separation unit 46 calculates the width of the current row (see FIGS. 11A to 11C).

次に、分離部46は、現在のサーチ位置のピクセル(ラベリング番号を付与したピクセル)の一行上の行のピクセルのうち、 現在のサーチ位置のピクセルの上の位置のピクセル、上の位置のピクセルの左右にそれぞれ隣接するピクセルのうち、頻度値を有するピクセルが存在するか否かを判別する(ステップS68)。すなわち、分離部46は、このステップS68において、上述の3つのピクセルのうち、 頻度値を有するピクセルが存在するか否かを判別する。   Next, the separation unit 46 selects a pixel at a position above the pixel at the current search position, a pixel at the position above the pixel at the current search position (pixels to which a labeling number is assigned) at the current search position. It is determined whether or not there is a pixel having a frequency value among pixels adjacent to the left and right of (step S68). That is, in step S68, the separation unit 46 determines whether or not there is a pixel having a frequency value among the above-described three pixels.

上述の3つのピクセルのうち、 頻度値を有するピクセルが存在しないと判別した場合(ステップS68:No)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。   When it is determined that there is no pixel having the frequency value among the above three pixels (step S68: No), the separation unit 46 ends the process of the flowchart of FIG. 19 through the above step S75. Alternatively, the process returns to step S61 to search for the next column.

これに対して、上述の3つのピクセルのうち、頻度値を有するピクセルが存在すると判別した場合(ステップS68:Yes)、分離部46は、最大頻度のピクセルの位置を、現在のサーチ位置として更新する(ステップS69)。   On the other hand, if it is determined that there is a pixel having a frequency value among the above three pixels (step S68: Yes), the separation unit 46 updates the position of the pixel with the highest frequency as the current search position. (Step S69).

次に、分離部46は、更新した現在のサーチ位置のピクセルに対して、既に異なるIDが付されているか否かを判別する(ステップS70)。既に異なるIDが付されていると判別した場合(ステップS70:Yes)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。   Next, the separation unit 46 determines whether or not a different ID has already been assigned to the updated pixel at the current search position (step S70). If it is determined that a different ID has already been assigned (step S70: Yes), the separation unit 46 ends the process of the flowchart of FIG. 19 or searches for the next column via step S75 described above. To do so, the process returns to step S61.

これに対して、更新した現在のサーチ位置のピクセルに対して、既に異なるIDが付されていないと判別した場合(ステップS70:No)、分離部46は、現在のサーチ位置のピクセルにラベリング番号を付与する(ステップS71)。   On the other hand, when it is determined that a different ID is not already assigned to the updated pixel at the current search position (step S70: No), the separation unit 46 labels the pixel at the current search position with a labeling number. Is given (step S71).

次に、分離部46は、ステップS72において、現在の行の幅の大きさを算出する(図11(a)〜図11(c)参照)。分離部46は、ステップS73において、これまで算出した幅情報をもちいて、上述の第1〜第5の実施の形態で説明したいずれかの分離処理を行うか否かを判別する。分離処理を行う場合(ステップS73:Yes)、分離部46は、ステップS76に処理を進め、上述の第3〜第5の実施の形態で説明したいずれかの行方向に沿った分離処理を実行する。分離部46は、いずれかの分離処理を実行すると、ステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。   Next, in step S72, the separation unit 46 calculates the size of the current row width (see FIGS. 11A to 11C). In step S73, the separation unit 46 determines whether or not to perform any of the separation processes described in the first to fifth embodiments using the width information calculated so far. When performing the separation process (step S73: Yes), the separation unit 46 advances the process to step S76, and executes the separation process along any one of the row directions described in the third to fifth embodiments. To do. When any separation process is executed, the separation unit 46 terminates the process of the flowchart of FIG. 19 via step S75, or returns the process to step S61 to search for the next column.

これに対して、分離処理を行わない場合(ステップS73:No)、分離部46は、ステップS74に処理を進める。ステップS74では、分離部46が、現在、サーチを行っている行の最後のデータ(ピクセル)に対するサーチが終了したか否かを判別する。そして、現在の行の最後のピクセルのサーチを終了していないと判別した場合(ステップS74:No)、分離部46は、現在の行の次のピクセルのサーチを行うべく、ステップS68に処理を戻す。これに対して、現在の行の最後のピクセルのサーチを終了したと判別した場合(ステップS74:Yes)、分離部46は、上述のステップS75を介して、図19のフローチャートの処理を終了し、又は、次の列のサーチを行うべく、処理をステップS61に戻す。   On the other hand, when not performing separation processing (Step S73: No), separation part 46 advances processing to Step S74. In step S74, the separation unit 46 determines whether or not the search for the last data (pixel) in the currently searched row has been completed. If it is determined that the search for the last pixel in the current row has not been completed (step S74: No), the separation unit 46 proceeds to step S68 to search for the next pixel in the current row. return. On the other hand, if it is determined that the search for the last pixel in the current row has ended (step S74: Yes), the separation unit 46 ends the process of the flowchart of FIG. 19 through step S75 described above. Alternatively, the process returns to step S61 to search for the next column.

このような第6の実施の形態の場合、壁の検出、及び、壁と車両等のオブジェクトの分離処理を同時に行うことができ、高速な機器制御に貢献できる他、上述の各実施の形態と同様の効果を得ることができる。   In the case of such a sixth embodiment, wall detection and separation processing of an object such as a wall and a vehicle can be performed at the same time, which contributes to high-speed device control. Similar effects can be obtained.

(第7の実施の形態)
次に、第7の実施の形態の機器制御システムの説明をする。上述の各実施の形態の場合、Uマップ生成部44は、視差画像生成部からの視差画像に基づいてUマップを生成した。これに対して、第7の実施の形態の機器制御システムは、路面の高さを反映したUマップを生成し、このUマップ上のオブジェクトを上述の各実施の形態で説明したように分離処理することで、オブジェクトの、さらに高精度な分離を可能とした例である。なお、上述の各実施の形態と、第7の実施の形態とでは、この点のみが異なる。このため、以下、差異の説明のみ行い、重複説明は省略する。
(Seventh embodiment)
Next, a device control system according to the seventh embodiment will be described. In each embodiment described above, the U map generation unit 44 generates a U map based on the parallax image from the parallax image generation unit. On the other hand, the device control system according to the seventh embodiment generates a U map reflecting the height of the road surface, and separates the objects on the U map as described in the above embodiments. This is an example that enables separation of objects with higher accuracy. It should be noted that only the above points are different between the above-described embodiments and the seventh embodiment. For this reason, only the difference will be described below, and a duplicate description will be omitted.

第7の実施の形態の機器制御システムの場合、CPU304は、立体物認識プログラムを実行することで、図4に示した平行化部42〜分離部46と共に、図20に示すように視差補間部51、Vマップ生成部52、路面形状検出部53及び路面高さ算出部54の各機能を実現する。   In the case of the device control system according to the seventh embodiment, the CPU 304 executes the three-dimensional object recognition program, so that the parallax interpolation unit as illustrated in FIG. 20 is performed together with the parallelization unit 42 to the separation unit 46 illustrated in FIG. 51, the V map generating unit 52, the road surface shape detecting unit 53, and the road surface height calculating unit 54 are realized.

なお、視差補間部51〜路面高さ算出部54は、ソフトウェアで実現することとしたが、一部又は全部を、IC(Integrated Circuit)等のハードウェアで実現してもよいこと等は、上述のとおりである。   Although the parallax interpolation unit 51 to the road surface height calculation unit 54 are realized by software, part or all of them may be realized by hardware such as an IC (Integrated Circuit). It is as follows.

視差補間部51は、視差画像補間処理を行う。Vマップ生成部52は、投票領域が制限された各画素値に基づいて、Vマップを生成する。路面形状検出部53及び路面高さ算出部54は、視差画像に対応するVマップの生成が完了するよりも前に、路面の高さを算出しておく。   The parallax interpolation unit 51 performs parallax image interpolation processing. The V map generation unit 52 generates a V map based on each pixel value in which the voting area is limited. The road surface shape detection unit 53 and the road surface height calculation unit 54 calculate the height of the road surface before the generation of the V map corresponding to the parallax image is completed.

具体的には、Vマップ生成部52は、例えば画面中央に延びる平坦な路面上を走行する車両の左側に電柱が存在する視差画像が得られた場合、この撮像画像の各画素のうち、視差値D及びy座標値を有する画素に対して、一つカウントアップした度数(頻度)を付与する。そして、Vマップ生成部52は、X軸を視差値D、Y軸をy座標値、Z軸を頻度とした2次元ヒストグラム上に各画素を投票することで、右下がりの直線として投票される路面上に、車両及び電柱が投票されたVマップを作成する。このVマップ上における直線状の画素群を特定することで、路面に相当する画素群を特定できる。このようなVマップにおいては、路面より下の部分の視差値は検出されない。   Specifically, for example, when a parallax image in which a power pole is present on the left side of a vehicle traveling on a flat road surface extending in the center of the screen is obtained, the V map generation unit 52 performs parallax among the pixels of the captured image. The frequency (frequency) counted up by one is assigned to the pixel having the value D and the y coordinate value. Then, the V map generation unit 52 votes as a right-downward straight line by voting each pixel on a two-dimensional histogram with the X axis as the parallax value D, the Y axis as the y coordinate value, and the Z axis as the frequency. On the road surface, a V map in which vehicles and utility poles are voted is created. By specifying a linear pixel group on the V map, a pixel group corresponding to the road surface can be specified. In such a V map, the parallax value of the portion below the road surface is not detected.

次に、路面形状検出部53は、各オブジェクトの高さの基準とする基準オブジェクトである路面を検出する。路面形状検出部53は、Vマップ上で路面と推定される位置を直線近似する。路面が平坦な場合は、一本の直線で近似する。また、途中で勾配が変わる路面の場合、Vマップ上を複数の区間に分割して直線近似を行う。これにより、途中で勾配が変わる路面の場合でも、精度よく直線近似を行うことができる。   Next, the road surface shape detection unit 53 detects a road surface that is a reference object that serves as a reference for the height of each object. The road surface shape detection unit 53 linearly approximates a position estimated as a road surface on the V map. When the road surface is flat, it is approximated by a single straight line. Further, in the case of a road surface where the slope changes midway, the V map is divided into a plurality of sections to perform linear approximation. Thereby, even in the case of a road surface whose slope changes midway, linear approximation can be performed with high accuracy.

次に、路面高さ算出部54は、路面高さを算出してRAM310等の記憶部に記憶する(テーブル化する)。Vマップから路面を表す直線式が得られたため、視差dが決まれば、対応するy座標y0が決まる。この座標y0が、路面の高さとなる。路面高さ算出部54は、路面の高さを示す座標y0と、必要な範囲の視差とを関連付けた路面高さリストを生成する。また、視差がdでy座標がy’である場合、y’−y0が、視差dのときの路面からの高さを示す。路面高さ算出部54は、座標(d、y’)の路面からの高さHを、「H=(z×(y’−y0))/f」の演算式を用いて算出する。なお、この演算式における「z」は、視差dから計算される距離(z=BF/(d−offset))、「f」はステレオカメラ2の焦点距離を(y’−y0)の単位と同じ単位に変換した値である。ここで、BFは、撮像ユニット2の基線長Bと焦点距離fを乗じた値、offsetは無限遠のオブジェクトを撮影したときの視差である。   Next, the road surface height calculation unit 54 calculates the road surface height and stores it in a storage unit such as the RAM 310 (forms a table). Since a linear expression representing a road surface is obtained from the V map, if the parallax d is determined, the corresponding y coordinate y0 is determined. This coordinate y0 is the height of the road surface. The road surface height calculation unit 54 generates a road surface height list in which coordinates y0 indicating the height of the road surface are associated with a necessary range of parallax. When the parallax is d and the y coordinate is y ′, y′−y0 indicates the height from the road surface when the parallax is d. The road surface height calculation unit 54 calculates the height H of the coordinates (d, y ′) from the road surface using an arithmetic expression “H = (z × (y′−y0)) / f”. In this arithmetic expression, “z” is a distance calculated from the parallax d (z = BF / (d−offset)), and “f” is the focal length of the stereo camera 2 in units of (y′−y0). The value converted to the same unit. Here, BF is a value obtained by multiplying the base line length B of the imaging unit 2 and the focal length f, and offset is a parallax when an object at infinity is photographed.

Uマップ生成部44は、上述のように横軸を視差画像のx、縦軸を視差画像の視差d、Z軸を頻度とした2次元ヒストグラムであるUマップを生成する。この際、路面からの高さが、例えば20cm〜3m等の所定の高さの範囲にある視差画像の点(x、y、d)を、(x、d)の値に基づいて投票する。Uマップ生成部44は、ある視差画像の点(x、y、d)を視差画像の所定の範囲の画素を投票してUマップを生成する。すなわち、視差画像の上部1/6の領域には空が写っており、殆どの場合、認識を必要とするオブジェクトが写っていることは無い。このため、Uマップ生成部44は、例えば視差画像の地面側5/6の領域(上部1/6の領域以外の領域)の画素を投票して頻度のUマップを生成する。   As described above, the U map generation unit 44 generates a U map that is a two-dimensional histogram in which the horizontal axis is x of the parallax image, the vertical axis is the parallax d of the parallax image, and the frequency is the Z axis. At this time, a point (x, y, d) of the parallax image whose height from the road surface is in a predetermined height range such as 20 cm to 3 m is voted based on the value of (x, d). The U map generation unit 44 generates a U map by voting pixels in a predetermined range of a parallax image at a point (x, y, d) of a certain parallax image. That is, the sky is shown in the upper 1/6 region of the parallax image, and in most cases, an object that needs to be recognized is not shown. For this reason, the U map generation unit 44 generates a U map of the frequency by voting pixels in a 5/6 area (area other than the upper 1/6 area) of the ground side of the parallax image, for example.

このような路面からの高さ等が反映されたUマップを用いて、上述の分離処理を実行することで、さらに精度良く分離処理を実行できる他、上述の各実施の形態と同様の効果を得ることができる。   Using the U map that reflects the height from the road surface and the like, the separation process can be performed with higher accuracy by performing the separation process described above, and the same effects as those of the above-described embodiments can be obtained. Can be obtained.

上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。例えば、距離の値(距離値)と視差値は等価に扱うことができる。このため、上述の実施の形態の説明では、距離画像の一例として視差画像を用いて説明しているが、これに限られない。例えば、ステレオカメラを用いて生成した視差画像に対して、ミリ波レーダやレーザレーダ等の検出装置を用いて生成した距離情報を統合して、距離画像を生成してもよい。また、ステレオカメラと、ミリ波レーダやレーザレーダ等の検出装置を併用し、上述したステレオカメラによる物体の検出結果と組み合わせることにより、検出の精度をさらに高める構成としてもよい。   Each above-mentioned embodiment is shown as an example and is not intending limiting the range of the present invention. Each of the novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. For example, a distance value (distance value) and a parallax value can be handled equivalently. For this reason, in the description of the above-described embodiment, a parallax image is used as an example of a distance image, but the present invention is not limited to this. For example, a distance image may be generated by integrating distance information generated using a detection device such as a millimeter wave radar or a laser radar with a parallax image generated using a stereo camera. Further, the detection accuracy may be further enhanced by using a stereo camera and a detection device such as a millimeter wave radar or a laser radar in combination with the detection result of the object by the stereo camera described above.

このような実施の形態及び実施の形態の変形例は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Such embodiments and modifications of the embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車両
2 ステレオカメラ(撮像部)
2a カメラ部
2b カメラ部
3 車両ECU
4 撮像装置
30 画像処理装置
42 平行化部
43 視差画像生成部
44 Uマップ生成部
45 壁検出部
46 分離部
51 視差補間部
52 Vマップ生成部
53 路面形状検出部
54 路面高さ算出部
1 vehicle 2 stereo camera (imaging part)
2a Camera unit 2b Camera unit 3 Vehicle ECU
4 imaging device 30 image processing device 42 collimating unit 43 parallax image generating unit 44 U map generating unit 45 wall detecting unit 46 separating unit 51 parallax interpolating unit 52 V map generating unit 53 road surface shape detecting unit 54 road surface height calculating unit

特開平6−266828号公報JP-A-6-266828

Claims (13)

物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、前記物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成部と、
前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離部と
を有する情報処理装置。
A generating unit that generates two-dimensional distribution information indicating the horizontal position and the depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
Separation in which the length of each column along the depth direction in the object on the two-dimensional distribution information is detected, and the object is separated along the depth direction with a column of a predetermined length as a boundary And an information processing apparatus.
前記分離部は、最長の列を境にして、前記奥行方向に沿って前記物体を分離処理すること
を特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the separation unit separates the object along the depth direction with a longest column as a boundary.
前記分離部は、所定の閾値以上の長さを有する前記列のうち、最長の列及び前記最長の列に隣接する列を一塊の物体として認識し、認識した前記一塊の物体を境にして、前記奥行方向に沿って前記物体を分離処理すること
を特徴とする請求項1に記載の情報処理装置。
The separating unit recognizes the longest column and the column adjacent to the longest column as a lump object among the columns having a length equal to or greater than a predetermined threshold, and the recognized lump object as a boundary, The information processing apparatus according to claim 1, wherein the object is separated along the depth direction.
前記分離部は、前記奥行方向に対して2次元的に直交する方向である行方向に沿って、前記物体の各行の大きさである幅を検出し、幅の大きさに所定以上の差異が存在する行を境として、前記行方向に沿って前記物体を分離処理すること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。
The separation unit detects a width that is the size of each row of the object along a row direction that is two-dimensionally orthogonal to the depth direction, and there is a difference of a predetermined amount or more in the width size. The information processing apparatus according to any one of claims 1 to 3, wherein the object is separated along the row direction with an existing row as a boundary.
前記分離部は、前記奥行方向に対して2次元的に直交する方向である行方向に沿って、前記物体の各行の大きさである幅を検出し、一つ又は複数の前記幅の値を含む、前記列方向に沿って連続する第1の区間及び第2の区間を、前記第2の区間が奥側となるように設定すると共に、前記各区間を前記列方向に沿って、一つ又は複数の幅の値ずつ移動させながら前記第2の区間の幅の値の平均値、及び、前記第1の区間の幅の値の平均値に所定の重み付けをした値を算出し、前記第2の区間の平均値が、前記所定の重み付けをした前記第1の区間の平均値よりも大きな値となった場合に、前記各区間の移動位置における前記各区間の境目で、前記行方向に沿って前記物体を分離すること
を特徴とする請求項1から請求項3のうち、いずれか一項に記載の情報処理装置。
The separation unit detects a width that is the size of each row of the object along a row direction that is two-dimensionally orthogonal to the depth direction, and determines one or more values of the width. Including a first section and a second section that are continuous along the column direction, such that the second section is on the back side, and each of the sections is one along the column direction. Alternatively, the average value of the width values of the second section and the average value of the width values of the first section are calculated while moving each of the plurality of width values, and the first weight is calculated. 2 when the average value of the two sections is larger than the average value of the first section with the predetermined weighting, in the row direction at the boundary of the sections at the movement position of the sections. The object according to any one of claims 1 to 3, wherein the object is separated along the line. The information processing apparatus described in 1.
前記分離部は、前記各区間を設定可能な分だけ、前記物体の各行の幅を検出した際に、前記各区間の設定を行い、前記各区間の平均値の算出、及び、前記物体の分離を行うこと
を特徴とする請求項5に記載の情報処理装置。
When the width of each row of the object is detected by an amount that can set each section, the separating section sets each section, calculates an average value of each section, and separates the objects The information processing apparatus according to claim 5, wherein:
前記分離部は、前記物体のサーチを複数回行い、サーチ毎に所定の閾値以上の値を有する情報単位を検出してサーチ回数に対応するラベルを付すラベリング処理を行う際に、サーチを行っている情報単位に対して、サーチ方向に近接する複数の情報単位から、前記閾値以上の値を有する情報単位を選択し、選択した情報単位にラベルが付されていない場合に、前記サーチ回数に対応するラベルを付すラベリング処理を行うと共に、前記物体の行方向の値を検出し、前記物体の行方向に沿った分離を可能とする数の前記幅の値を検出さした際に、行方向に沿った前記物体の分離を行うこと
を特徴とする請求項4から請求項6のうち、いずれか一項に記載の情報処理装置。
The separation unit performs a search when performing a labeling process of performing a search for the object a plurality of times, detecting an information unit having a value equal to or greater than a predetermined threshold for each search, and attaching a label corresponding to the number of searches. If an information unit having a value equal to or greater than the threshold is selected from a plurality of information units close to the search direction with respect to a certain information unit, the number of searches is handled when the selected information unit is not labeled. A labeling process for attaching a label to be detected, a value in the row direction of the object is detected, and a number of the width values that enable separation along the row direction of the object are detected in the row direction. The information processing apparatus according to any one of claims 4 to 6, wherein the object is separated along.
前記生成部は、路面の高さを反映した前記2次元分布情報を生成すること
を特徴とする請求項1から請求項7のうち、いずれか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 7, wherein the generation unit generates the two-dimensional distribution information that reflects a height of a road surface.
物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成するための撮像情報を生成する撮像部と、
請求項1から請求項8のうち、いずれか一項に記載の情報処理装置と
を有する撮像装置。
An imaging unit that generates imaging information for generating two-dimensional distribution information indicating a lateral position and a depth direction position of the object;
An imaging device comprising: the information processing device according to any one of claims 1 to 8.
請求項9に記載の撮像装置と、
前記情報処理装置により分離処理された前記物体の前記2次元分布情報に基づいて、所定の機器を制御する制御部と
を有する機器制御システム。
An imaging device according to claim 9,
A control unit that controls a predetermined device based on the two-dimensional distribution information of the object separated by the information processing apparatus.
請求項10に記載の機器制御システムの前記制御部により制御されること
を特徴とする移動体。
It is controlled by the said control part of the apparatus control system of Claim 10, The moving body characterized by the above-mentioned.
生成部が、物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、前記物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成ステップと、
分離部が、前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離ステップと
を有する情報処理方法。
A generating step for generating two-dimensional distribution information indicating a horizontal position and a depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
The separation unit detects the length of each column along the depth direction in the object on the two-dimensional distribution information, and the object is detected along the depth direction with a column having a predetermined length as a boundary. An information processing method comprising: a separation step for performing separation processing.
コンピュータを、
物体の縦方向位置、横方向位置及び奥行方向位置が対応づけられた情報に基づいて、前記物体の横方向位置及び奥行方向位置を示す2次元分布情報を生成する生成部と、
前記2次元分布情報上の前記物体における、前記奥行方向に沿った各列の長さを検出し、所定の長さの列を境にして、前記奥行方向に沿って前記物体を分離処理する分離部として機能させること
を特徴とする情報処理プログラム。
Computer
A generating unit that generates two-dimensional distribution information indicating the horizontal position and the depth direction position of the object based on information in which the vertical position, the horizontal position, and the depth direction position of the object are associated;
Separation in which the length of each column along the depth direction in the object on the two-dimensional distribution information is detected, and the object is separated along the depth direction with a column of a predetermined length as a boundary Information processing program characterized by functioning as a part.
JP2017176867A 2016-11-30 2017-09-14 Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program Active JP7052265B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP17204258.2A EP3330893A1 (en) 2016-11-30 2017-11-29 Information processing device, information processing method, and carrier means

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016232712 2016-11-30
JP2016232712 2016-11-30

Publications (2)

Publication Number Publication Date
JP2018092603A true JP2018092603A (en) 2018-06-14
JP7052265B2 JP7052265B2 (en) 2022-04-12

Family

ID=62565579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017176867A Active JP7052265B2 (en) 2016-11-30 2017-09-14 Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7052265B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402593A (en) * 2020-03-02 2020-07-10 哈尔滨工业大学 Video traffic parameter acquisition method based on polynomial fitting
JPWO2021038267A1 (en) * 2019-08-28 2021-03-04
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193507A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Reverse travel prevention system
JP2016029557A (en) * 2014-07-14 2016-03-03 株式会社リコー Three-dimensional object detector, three-dimensional object detection method, three-dimensional object detection program, and movable body apparatus control system
US20160253575A1 (en) * 2013-10-07 2016-09-01 Hitachi Automotive Systems, Ltd. Object Detection Device and Vehicle Using Same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193507A (en) * 2008-02-18 2009-08-27 Toyota Motor Corp Reverse travel prevention system
US20160253575A1 (en) * 2013-10-07 2016-09-01 Hitachi Automotive Systems, Ltd. Object Detection Device and Vehicle Using Same
JP2016029557A (en) * 2014-07-14 2016-03-03 株式会社リコー Three-dimensional object detector, three-dimensional object detection method, three-dimensional object detection program, and movable body apparatus control system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ALEXANDRU ILOIE ET AL: "UV disparity based obstacle detection and pedestrian classification in urban traffic scenarios", 2014 IEEE 10TH INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTER COMMUNICATION AND PROCESSING (ICCP), JPN7021003085, 6 September 2014 (2014-09-06), US, pages 119 - 125, XP055554644, ISSN: 0004566422, DOI: 10.1109/ICCP.2014.6936963 *
MEIQING WU ET AL: "Stereo based ROIs generation for detecting pedestrians in close proximity", 17TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS (ITSC), JPN7021003084, 11 October 2014 (2014-10-11), US, pages 1929 - 1934, XP032685662, ISSN: 0004566421, DOI: 10.1109/ITSC.2014.6957988 *
ZHENCHENG HU ET AL: "A complete U-V-disparity study for stereovision based 3D driving environment analysis", FIFTH INTERNATIONAL CONFERENCE ON 3-D DIGITAL IMAGING AND MODELING (3DIM'05), JPN7021003083, 16 June 2005 (2005-06-16), US, ISSN: 0004566420 *
綱島 宣浩、中島 真人: "投影視差画像を用いた前方車両の検出", 電気学会論文誌C, vol. 120, no. 3, JPN6021030839, 1 March 2000 (2000-03-01), JP, pages 337 - 344, ISSN: 0004566423 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021038267A1 (en) * 2019-08-28 2021-03-04
WO2021038267A1 (en) * 2019-08-28 2021-03-04 日産自動車株式会社 Object recognition method and object recognition device
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device
JP7226565B2 (en) 2019-08-28 2023-02-21 日産自動車株式会社 Object recognition method and object recognition device
US11861914B2 (en) 2019-08-28 2024-01-02 Nissan Motor Co., Ltd. Object recognition method and object recognition device
CN111402593A (en) * 2020-03-02 2020-07-10 哈尔滨工业大学 Video traffic parameter acquisition method based on polynomial fitting

Also Published As

Publication number Publication date
JP7052265B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
JP5073548B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
US9547912B2 (en) Method for measuring the height profile of a vehicle passing on a road
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6601506B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, image processing program, and vehicle
JP7091686B2 (en) 3D object recognition device, image pickup device and vehicle
JP2006134035A (en) Moving object detecting device and moving object detecting method
JP6907513B2 (en) Information processing equipment, imaging equipment, equipment control system, information processing method and program
CN110023953A (en) Information processing equipment, imaging device, apparatus control system, moving body, information processing method and computer program product
JP5073700B2 (en) Object detection device
JP7052265B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP6683245B2 (en) Image processing device, image processing method, image processing program, object recognition device, and device control system
JP2023184572A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP6844223B2 (en) Information processing equipment, imaging equipment, equipment control system, information processing method and program
JP6674959B2 (en) Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
JP6466679B2 (en) Object detection device
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP5903901B2 (en) Vehicle position calculation device
EP3330893A1 (en) Information processing device, information processing method, and carrier means
JP6969245B2 (en) Information processing device, image pickup device, device control system, mobile body, information processing method, and information processing program
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
US20230252675A1 (en) Mobile object control device, mobile object control method, learning device, learning method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R151 Written notification of patent or utility model registration

Ref document number: 7052265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151