JP2013161434A - Periphery monitoring device for vehicle - Google Patents

Periphery monitoring device for vehicle Download PDF

Info

Publication number
JP2013161434A
JP2013161434A JP2012025277A JP2012025277A JP2013161434A JP 2013161434 A JP2013161434 A JP 2013161434A JP 2012025277 A JP2012025277 A JP 2012025277A JP 2012025277 A JP2012025277 A JP 2012025277A JP 2013161434 A JP2013161434 A JP 2013161434A
Authority
JP
Japan
Prior art keywords
target
vehicle
unit
dimensional object
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012025277A
Other languages
Japanese (ja)
Inventor
Naohide Uchida
尚秀 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012025277A priority Critical patent/JP2013161434A/en
Publication of JP2013161434A publication Critical patent/JP2013161434A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a periphery monitoring device for a vehicle, capable of removing a stereoscopic object that cannot be an obstacle.SOLUTION: Cameras 11, 12 photograph the front of a vehicle with a stereo image from different viewpoints. A target detection unit 21 detects a target included in a pair of images photographed by the cameras 11 and 12. A target removal unit 22 removes, out of the detected targets, a target separated from other targets through a space with a reference width or more and having a reference height or more, from a detection result. A stereoscopic object determination unit 23 determines a stereoscopic object captured in the image, on the basis of the target in which unnecessary things are removed by the target removal unit 22.

Description

本発明は、車両の周辺監視装置に関し、より特定的には、車両に搭載され、車両の周囲を監視して立体物を検出する装置に関する。   The present invention relates to a vehicle periphery monitoring device, and more particularly to a device that is mounted on a vehicle and detects a three-dimensional object by monitoring the surroundings of the vehicle.

近年、立体物との衝突回避や自動走行などの車両運転支援を実現するために、車両の周辺を監視して走行の障害となる立体物を検出する装置が種々開発されている。この立体物検出装置では、例えば、車両の周辺に存在する様々な物標を検出し、所定の手法に従って、この検出した物標が障害物となる立体物であるか否かを特定することを行う。このような技術は、特許文献1などで提案されている。   In recent years, in order to realize vehicle driving support such as collision avoidance with a three-dimensional object and automatic traveling, various apparatuses for detecting a three-dimensional object that obstructs traveling by monitoring the periphery of the vehicle have been developed. In this three-dimensional object detection device, for example, various targets existing around the vehicle are detected, and according to a predetermined method, it is determined whether or not the detected target is a three-dimensional object that becomes an obstacle. Do. Such a technique is proposed in Patent Document 1 and the like.

特許文献1に記載されている技術では、三次元の実空間を上下に延在する複数の区分空間に分割し、車両の周辺で検出された物標の検出点を複数の区分空間のいずれかに投影する。そして、この特許文献1に記載されている技術では、区分空間ごとに検出点の距離に関するヒストグラムを作成し、このヒストグラムの結果に基づいて各区分空間における立体物の特定および車両から立体物までの距離を算出している。   In the technique described in Patent Document 1, a three-dimensional real space is divided into a plurality of partitioned spaces extending up and down, and a detection point of a target detected around the vehicle is one of the plurality of partitioned spaces. Project to. And in the technique described in this patent document 1, the histogram regarding the distance of a detection point is produced for every division space, Based on the result of this histogram, the identification of the solid object in each division space, and from a vehicle to a solid object The distance is calculated.

特開2009−176091号公報JP 2009-176091 A

しかしながら、上記特許文献1に記載されている技術では、上下に延在する区分空間を利用しているので、道路面に近い位置にある物標(例えば、歩行者や車両など)と車両の高さよりも高い位置にある物標(例えば、看板や樹木など)とが、車両から同じぐらいの距離および方向に存在していた場合、それぞれの物標に対して検出された検出点は同じ区分空間に投影されることになる。   However, since the technique described in Patent Document 1 uses a partitioned space that extends vertically, a target (for example, a pedestrian or a vehicle) located near the road surface and the height of the vehicle. If a target at a higher position (for example, a signboard or a tree) exists at the same distance and direction from the vehicle, the detection points detected for each target are the same partition space. Will be projected.

このため、ヒストグラムの結果によっては、車両走行の障害となり得ない車両の高さよりも高い位置にある物標が、道路面に近い位置にある障害物となる物標とグルーピング処理されて、1つのまとまった障害物となり得る立体物として誤検出されてしまうおそれが生じる、という問題がある。この立体物の誤検出は、衝突回避などの運転支援制御における精度の低下を招く。   For this reason, depending on the result of the histogram, a target at a position higher than the height of the vehicle that cannot become an obstacle to vehicle travel is grouped with a target that becomes an obstacle at a position close to the road surface. There exists a problem that a possibility that it may be misdetected as a three-dimensional object which can become a collective obstacle arises. This erroneous detection of a three-dimensional object causes a decrease in accuracy in driving support control such as collision avoidance.

なお、上記特許文献1では、道路面からの単純な高さが所定値以上である検出点については、ヒストグラムに反映させないことで誤検出を防ぐ手法も開示されている。しかし、道路面からの高さを正確に判断するには、道路面の推定が必須となり、装置の処理負荷が増大するという課題がある。また、道路面の推定に誤差が生じれば、立体物の検出に影響が及ぶことになる。さらに、上り坂や下り坂の走行中には道路面の勾配を正確に考慮する必要があり、立体物の道路面からの高さだけで処理の対象か否かを判断することは、非常に困難であるといえる。   Note that the above Patent Document 1 also discloses a technique for preventing erroneous detection by not reflecting a detection point whose simple height from the road surface is a predetermined value or more in the histogram. However, in order to accurately determine the height from the road surface, estimation of the road surface is essential, and there is a problem that the processing load of the apparatus increases. In addition, if an error occurs in the estimation of the road surface, detection of a three-dimensional object will be affected. In addition, it is necessary to accurately consider the slope of the road surface while traveling uphill or downhill, and it is very difficult to determine whether a solid object is subject to processing based on the height from the road surface. It can be said that it is difficult.

それ故に、本発明の目的は、障害物としてなり得ない物標と障害物となり得る物標とが1つの立体物として特定されることを回避して、衝突回避などの運転支援制御における精度の低下を防ぐことが可能な車両の周辺監視装置を提供することである。   Therefore, an object of the present invention is to avoid the identification of a target that cannot be an obstacle and a target that can be an obstacle as one solid object, and to improve accuracy in driving support control such as collision avoidance. It is an object of the present invention to provide a vehicle periphery monitoring device capable of preventing a decrease.

本発明は、車両の周辺を監視する装置に向けられている。そして、上記目的を達成するために、本発明の車両の周辺監視装置は、車両の周辺にある物標に関する情報を取得する物標情報取得部と、物標情報取得部で取得された物標のうち、車両からの距離が所定の範囲内にある複数の物標を抽出し、第1の物標(例えば、道路面上の物標である)から高さ方向に所定幅以上の空間を介して離れている第2の物標を検出結果から除外する物標除外部と、物標除外部から出力される物標の検出結果に基づいて、車両の周辺に存在する立体物を特定する立体物特定部とを備えることを特徴としている。   The present invention is directed to an apparatus for monitoring the periphery of a vehicle. In order to achieve the above object, a vehicle periphery monitoring apparatus according to the present invention includes a target information acquisition unit that acquires information about a target around the vehicle, and a target acquired by the target information acquisition unit. Among them, a plurality of targets whose distance from the vehicle is within a predetermined range are extracted, and a space having a predetermined width or more in the height direction from the first target (for example, a target on the road surface) is extracted. A target that excludes the second target that is separated from the detection result, and a target that is output from the target exclusion unit, and identifies a three-dimensional object that exists in the vicinity of the vehicle And a three-dimensional object specifying unit.

典型的には、物標検出部は、物標が有する特徴箇所を複数の検出点として検出する。そして、物標除外部は、物標検出部で検出された、第1の物標が有する複数の検出点の分布領域と第2の物標が有する複数の検出点の分布領域とが、高さ方向に所定幅以上の空間を介して離れているか否かを判断する。   Typically, the target detection unit detects the characteristic locations of the target as a plurality of detection points. The target exclusion unit is configured such that the distribution area of the plurality of detection points of the first target and the distribution area of the plurality of detection points of the second target detected by the target detection unit are high. It is determined whether or not they are separated via a space having a predetermined width or more in the vertical direction.

好ましくは、物標除外部は、所定の基準高さ以上ある第2の物標を検出結果から除外する。なお、所定の基準高さは、車両から所定の範囲内の距離にある複数の物標が有する検出点の高さ分布状況に基づいて決定されるとよい。   Preferably, the target excluding unit excludes a second target having a predetermined reference height or more from the detection result. The predetermined reference height may be determined based on the height distribution state of detection points of a plurality of targets at a distance within a predetermined range from the vehicle.

また、典型的には、立体物特定部は、三次元実空間を分割して形成される上下方向に延在する複数の区分空間のそれぞれについて、検出された物標に基づいたヒストグラムを作成し、当該ヒストグラムに基づいて立体物を特定することを行う   Also, typically, the three-dimensional object specifying unit creates a histogram based on the detected target for each of a plurality of partitioned spaces extending in the vertical direction formed by dividing the three-dimensional real space. And identifying a three-dimensional object based on the histogram

上述した車両の周辺監視装置によれば、障害物としてなり得ない物標と障害物となり得る物標とが1つの立体物として特定されることを回避するので、正確な立体物に基づいた精度の高い衝突回避などの運転支援制御を行うことができる。   According to the vehicle periphery monitoring device described above, it is possible to avoid specifying a target that cannot be an obstacle and a target that can be an obstacle as a single three-dimensional object. Driving support control such as high collision avoidance can be performed.

本発明の一実施形態に係る車両の周辺監視装置1の概略構成を示す図The figure which shows schematic structure of the periphery monitoring apparatus 1 of the vehicle which concerns on one Embodiment of this invention. 走行車両が遭遇する周辺環境の一場面を示す図A diagram showing a scene in the surrounding environment where a traveling vehicle encounters 図2Aに示す一場面において検出される物標の検出点の一例を示す図The figure which shows an example of the detection point of the target detected in one scene shown to FIG. 2A 立体物判定部23がグルーピング処理の結果として特定した立体物の一例を示す図The figure which shows an example of the solid object which the solid object determination part 23 specified as a result of a grouping process 物標除外部22が行う対象とならない物標を除外する処理の手順を示すフローチャートThe flowchart which shows the procedure of the process which excludes the target which is not the target which the target exclusion part 22 performs. 物標除外部22が行う物標除外の判断手法を説明する図The figure explaining the judgment method of the target exclusion which the target exclusion part 22 performs 物標除外部22が行う物標除外の判断手法を説明する図The figure explaining the judgment method of the target exclusion which the target exclusion part 22 performs 立体物判定部23が定義する二次元平面領域の一例を説明するための図The figure for demonstrating an example of the two-dimensional plane area | region which the solid-object determination part 23 defines 図6Aに示した二次元平面領域上に図2Bで検出された物標の検出点を投影した場合を説明するための図The figure for demonstrating the case where the detection point of the target detected by FIG. 2B is projected on the two-dimensional plane area | region shown to FIG. 6A. 図6Bに示した二次元平面領域上に投影された検出点に対するグルーピング処理を説明するための図The figure for demonstrating the grouping process with respect to the detection point projected on the two-dimensional plane area | region shown to FIG. 6B 物標除外部22によって物標が除外された後で二次元平面領域上に投影された検出点に対するグルーピング処理を説明するための図The figure for demonstrating the grouping process with respect to the detection point projected on the two-dimensional plane area | region after the target was excluded by the target exclusion part 22. FIG. 立体物判定部23が図6Cのグルーピング処理の結果として特定した立体物の一例を示す図The figure which shows an example of the solid object which the solid object determination part 23 specified as a result of the grouping process of FIG. 6C. 立体物判定部23が図6Dのグルーピング処理の結果として特定した立体物の一例を示す図The figure which shows an example of the solid object which the solid object determination part 23 specified as a result of the grouping process of FIG. 6D.

以下、本発明の実施形態を、図面を参照しながら説明する。
図1は、本発明の一実施形態に係る車両の周辺監視装置1の概略構成を示す図である。図1において、本実施形態に係る車両の周辺監視装置1は、物標情報取得部10と、立体物特定部20とを備えている。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram showing a schematic configuration of a vehicle periphery monitoring device 1 according to an embodiment of the present invention. In FIG. 1, the vehicle periphery monitoring device 1 according to the present embodiment includes a target information acquisition unit 10 and a three-dimensional object identification unit 20.

まず、本実施形態の車両の周辺監視装置1に含まれる各構成を説明する。
物標情報取得部10は、車両の周辺に存在する障害物などの物標に関する情報を取得するために用いられる。この物標情報取得部10には、典型的には、同じ物標を異なる2つの視点から撮影した画像を取得できるステレオカメラ装置を含んだ構成で実現されるか、または電磁波などのレーダ波を物標に向けて発信して反射波を受信できるレーダ装置を含んだ構成で実現されるか、あるいはステレオカメラ装置とレーダ装置とを含んだ構成で実現される。
以下の本実施形態では、ステレオカメラ装置を含んだ構成による物標情報取得部10を一例に挙げて説明する。
First, each configuration included in the vehicle periphery monitoring device 1 of the present embodiment will be described.
The target information acquisition unit 10 is used to acquire information related to a target such as an obstacle existing around the vehicle. The target information acquisition unit 10 is typically realized by a configuration including a stereo camera device capable of acquiring images obtained by capturing the same target from two different viewpoints, or radar waves such as electromagnetic waves. It can be realized by a configuration including a radar device that can transmit toward a target and receive a reflected wave, or can be realized by a configuration including a stereo camera device and a radar device.
In the following embodiment, the target information acquisition unit 10 having a configuration including a stereo camera device will be described as an example.

物標情報取得部10は、2台のカメラ11およびカメラ12を含む。このカメラ11およびカメラ12は、例えばCMOS(Complementary Metal Oxide Semiconductor )またはCCD(Charge Coupled Device )などのイメージセンサである。好ましくは、カメラ11およびカメラ12は、画角および画素数が等しく、車両のフロントガラス内側に前方の視野領域を撮像可能な状態で、道路面から同じ高さ位置に所定の間隔を有して取り付けられている。そして、カメラ11とカメラ12とは、所定の周期で互いに同期して車両前方を撮像し、この撮像した一対の画像を立体物特定部20へ出力する。   The target information acquisition unit 10 includes two cameras 11 and a camera 12. The cameras 11 and 12 are image sensors such as CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Coupled Device). Preferably, the camera 11 and the camera 12 have the same angle of view and the number of pixels, and have a predetermined interval at the same height position from the road surface in a state in which a front visual field region can be imaged inside the vehicle windshield. It is attached. Then, the camera 11 and the camera 12 capture the front of the vehicle in synchronization with each other at a predetermined period, and output the captured pair of images to the three-dimensional object specifying unit 20.

物標情報取得部10がステレオカメラ装置である本実施形態の場合、立体物特定部20は、画像処理装置に該当することとなる。この場合において、立体物特定部20は、物標検出部21、物標除外部22、および立体物判定部23を含む。   In the present embodiment in which the target information acquisition unit 10 is a stereo camera device, the three-dimensional object identification unit 20 corresponds to an image processing device. In this case, the three-dimensional object specifying unit 20 includes a target detection unit 21, a target exclusion unit 22, and a three-dimensional object determination unit 23.

物標検出部21は、物標情報取得部10のカメラ11およびカメラ12で撮影された異なる視点から撮影した一対の画像を入力し、この一対の画像に含まれている物標を検出する。
典型的には、物標検出部21は、いわゆるステレオ法の技術を利用し、カメラ11で撮像された画像とカメラ12で撮像された画像とに対してステレオマッチング処理などを施して、2つの画像の相関を求める。そして、物標検出部21は、同じ物標に対する視差を用いた三角測量の原理に基づいて、三次元実空間内における物標の存在位置、すなわち車両(の基準点)から物標までの距離、および車両(の基準点)から物標への方向を抽出する。
The target detection unit 21 inputs a pair of images taken from different viewpoints taken by the camera 11 and the camera 12 of the target information acquisition unit 10, and detects a target included in the pair of images.
Typically, the target detection unit 21 uses a so-called stereo technique, performs a stereo matching process on the image captured by the camera 11 and the image captured by the camera 12, and the like. Find the correlation of images. And the target detection part 21 is based on the principle of the triangulation using the parallax with respect to the same target, The target position in a three-dimensional real space, ie, the distance from a vehicle (its reference point) to a target , And the direction from the vehicle (reference point) to the target.

具体例を用いて、物標検出部21で行われる処理を説明する。
例えば、図2Aに示すような道路を車両が走行している場面を考える。この場面では、物標検出部21は、走行車両から撮像される画像領域55に含まれる物標として、歩行者51および街路樹52に対して図2Bに示すように物標の検出点(図中黒丸)を複数検出することとなる。この検出点として検出される箇所は、エッジ部分やコントラスト差が生じている部分などの物標の特徴ある箇所である。そして、物標検出部21では、この検出された複数の検出点に関して、車両からの距離および車両からの方向に関する位置情報がそれぞれ抽出される。
The process performed by the target detection unit 21 will be described using a specific example.
For example, consider a scene where a vehicle is traveling on a road as shown in FIG. 2A. In this scene, the target detection unit 21 detects a target detection point (see FIG. 2B) as a target included in the image area 55 captured from the traveling vehicle as shown in FIG. 2B with respect to the pedestrian 51 and the street tree 52. Multiple black circles) will be detected. The location detected as the detection point is a characteristic location of the target such as an edge portion or a portion where a contrast difference is generated. And the target detection part 21 extracts the positional information regarding the distance from a vehicle and the direction from a vehicle regarding this detected several detection point, respectively.

後述する立体物判定部23が実行する技術では、図2Bで示した車両から同じぐらいの距離(車両から所定の範囲内の距離)に、障害物となり得ない物標(この例では街路樹52)の複数の検出点と、障害物となり得る物標(この例では歩行者51)の複数の検出点とが、同時に検出されてしまえば、図3に示すように2つの物標を1つの立体物62aとして認識してしまう(グルーピング処理)。このような認識処理は、衝突回避などの運転支援制御の精度を著しく低下させることとなる。   In the technique executed by the three-dimensional object determination unit 23 to be described later, a target that cannot be an obstacle (in this example, the roadside tree 52 in the same distance from the vehicle shown in FIG. 2B (a distance within a predetermined range from the vehicle)). ) And a plurality of detection points of a target that can become an obstacle (in this example, pedestrian 51) are detected simultaneously, as shown in FIG. It is recognized as a three-dimensional object 62a (grouping process). Such recognition processing significantly reduces the accuracy of driving support control such as collision avoidance.

そこで、本発明は、物標除外部22の構成を新たに備えて、物標検出部21で検出された物標(図2Aの例では歩行者51および街路樹52)を解析し、従来技術では実施することができなかった「障害物としてなり得ない物標と障害物となり得る物標とが1つの立体物として特定されることを回避する」ことを可能とする点を特徴としている。
以下に、本発明の特徴的な構成である物標除外部22を説明する。
Therefore, the present invention newly includes a configuration of the target excluding unit 22 and analyzes the target (the pedestrian 51 and the roadside tree 52 in the example of FIG. 2A) detected by the target detecting unit 21. However, the feature is that it is possible to avoid “identifying a target that cannot be an obstacle and a target that can be an obstacle as one solid object” that could not be implemented.
Below, the target exclusion part 22 which is the characteristic structure of this invention is demonstrated.

図4は、図1に示した物標除外部22が行う物標を除外する処理の手順を示すフローチャートである。
まず、物標除外部22は、物標検出部21で検出された複数の検出点について、車両から所定の範囲内の距離にある1つの検出点グループを選択する(ステップS401)。そして、物標除外部22は、選択した検出点グループについて検出点の分布状況を確認する(ステップS402)。この検出点の分布状況に従って、物標除外部22は、ある任意の2つの物標について物標間の空間幅wが所定の基準幅以上であるものが存在するか否かを判断する(ステップS403)。
FIG. 4 is a flowchart showing a procedure of processing for excluding a target performed by the target excluding unit 22 shown in FIG.
First, the target exclusion unit 22 selects one detection point group at a distance within a predetermined range from the vehicle for a plurality of detection points detected by the target detection unit 21 (step S401). Then, the target excluding unit 22 confirms the distribution state of the detection points for the selected detection point group (step S402). In accordance with the distribution situation of the detection points, the target exclusion unit 22 determines whether there is an object with a space width w between the targets equal to or larger than a predetermined reference width for any two targets (step). S403).

具体的な例で説明すると、図5Aに示すように、歩行者51(第1の物標)の検出点51aと街路樹52(第2の物標)の検出点52aとが、1つの検出点グループとなる。そして、歩行者51の検出点51aから街路樹52の検出点52aまでの空間幅wが、所定の基準幅以上であるか否かが判断される。ここで、2つの物標が所定の基準幅以上の空間を介して離れているということは、この2つの物標が1つの立体物を形成するものではないことを意味している。   If it demonstrates with a specific example, as shown to FIG. 5A, the detection point 51a of the pedestrian 51 (1st target) and the detection point 52a of the street tree 52 (2nd target) will detect one. It becomes a point group. Then, it is determined whether or not the space width w from the detection point 51a of the pedestrian 51 to the detection point 52a of the roadside tree 52 is greater than or equal to a predetermined reference width. Here, the fact that the two targets are separated via a space having a predetermined reference width or more means that the two targets do not form one solid object.

第2の物標が第1の物標から所定の基準幅以上の空間幅wを介して存在していることが確認できると(ステップS403:Yes)、物標除外部22は、次にこの第2の物標が所定の基準高さhを超えるか否かを判断する(ステップS404、図5B)。この判断は、第2の物標が、第1の物標とまとまって1つの立体物を形成し得ない高い位置にある物標であることを確定するために行われる。この所定の基準高さhは、選択した検出点グループに含まれる複数の検出点の高さ平均Aveと検出点分布の標準偏差σとを用いて、例えば次式[1]に基づいて設定される。
h=Ave+2σ … [1]
If it can be confirmed that the second target is present from the first target through the space width w greater than or equal to the predetermined reference width (step S403: Yes), the target excluding unit 22 next It is determined whether or not the second target exceeds a predetermined reference height h (step S404, FIG. 5B). This determination is performed in order to determine that the second target is a target at a high position that cannot form one solid object together with the first target. The predetermined reference height h is set based on, for example, the following equation [1] using the average height Ave of a plurality of detection points included in the selected detection point group and the standard deviation σ of the detection point distribution. The
h = Ave + 2σ [1]

そして、第2の物標の高さが所定の基準高さhを超えると判断した場合(ステップS404:Yes)、物標除外部22は、この第2の物標(街路樹52)の検出点52aを検出結果から除外する(ステップS405)。
一方、第1の物標から所定の基準幅以上の空間幅wを介して存在している第2の物標が確認できない場合(ステップS403:No)、または第2の物標の高さが所定の基準高さhを超えないと判断した場合(ステップS404:No)には、物標除外部22は、第2の物標(街路樹52)の検出点52aを検出結果から除外しない。
When it is determined that the height of the second target exceeds the predetermined reference height h (step S404: Yes), the target excluding unit 22 detects the second target (street tree 52). The point 52a is excluded from the detection result (step S405).
On the other hand, when the 2nd target which exists via space width w beyond a predetermined standard width cannot be checked from the 1st target (Step S403: No), or the height of the 2nd target is If it is determined that the predetermined reference height h is not exceeded (step S404: No), the target excluding unit 22 does not exclude the detection point 52a of the second target (street tree 52) from the detection result.

なお、上記ステップS402〜S405で説明した処理は、車両から所定の範囲内の距離にあるすべての検出点グループについてそれぞれ実行される(ステップS401およびS406)。   Note that the processing described in steps S402 to S405 is executed for all detection point groups at a distance within a predetermined range from the vehicle (steps S401 and S406).

立体物判定部23は、この物標除外部22から出力される検出結果に基づいて、立体物を判定する。
典型的には、立体物判定部23は、格子状に複数の領域に区分された道路面に平行な二次元平面領域を定義しており、物標検出部21で検出されかつ物標除外部22において対象とならない物標が除外された三次元実空間上の物標の検出点を、この二次元平面領域上のいずれかの区分領域へ投影する。そして、立体物判定部23は、検出点の二次元平面領域上への投影結果に従って、道路面上に存在している立体物を判定する。
The three-dimensional object determination unit 23 determines a three-dimensional object based on the detection result output from the target exclusion unit 22.
Typically, the three-dimensional object determination unit 23 defines a two-dimensional plane region that is parallel to the road surface divided into a plurality of regions in a lattice shape, and is detected by the target detection unit 21 and the target exclusion unit The target detection point in the three-dimensional real space from which the target that is not the target in 22 is excluded is projected onto any divided region on the two-dimensional plane region. Then, the three-dimensional object determination unit 23 determines a three-dimensional object existing on the road surface according to the projection result of the detection point on the two-dimensional plane region.

上述した図2Aに示すような道路を車両が走行している場面を用いて、立体物判定部23で行われる処理を具体的に説明する。
立体物判定部23において、図6Aに示すような格子状に複数の区分領域60に分割された二次元平面領域が定義されている場合を想定する。この場合、三次元の実空間は、区分領域60を断面として道路面に垂直な角柱領域となる上下方向に延在した複数の区分空間に分割されることになる。立体物判定部23は、図2Bのように検出された実空間上の複数の検出点を、図6Bのように該当する区分領域60(投票箱ともいう)にそれぞれ投影する(投票するともいう)。すなわち、三次元空間上の高さ位置に関係なく、同じ区分空間に存在する検出点が、1つの区分領域60に投影される。次に、立体物判定部23は、各々の区分領域60において投影された検出点の個数を判断して、予め定めた閾値以上の個数の検出点が投影された区分領域60を求める。そして、立体物判定部23は、この求めた検出点が閾値以上ある区分領域60について、近接する領域を1つのグループにまとめ(グルーピングして)、立体物が存在する領域として判定する。
The process performed by the three-dimensional object determination unit 23 will be specifically described using a scene where the vehicle is traveling on the road as illustrated in FIG. 2A described above.
Assume that the three-dimensional object determination unit 23 defines a two-dimensional planar region divided into a plurality of partitioned regions 60 in a lattice shape as shown in FIG. 6A. In this case, the three-dimensional real space is divided into a plurality of partitioned spaces extending in the up-down direction, which is a prismatic region perpendicular to the road surface with the partitioned region 60 as a cross section. The three-dimensional object determination unit 23 projects (votes) the plurality of detection points in the real space detected as shown in FIG. 2B to the corresponding divided areas 60 (also called ballot boxes) as shown in FIG. 6B. ). That is, regardless of the height position in the three-dimensional space, the detection points existing in the same partition space are projected onto one partition region 60. Next, the three-dimensional object determination unit 23 determines the number of detection points projected in each of the divided areas 60, and obtains a divided area 60 on which a number of detection points equal to or greater than a predetermined threshold is projected. Then, the three-dimensional object determination unit 23 groups (groups) the adjacent areas into one group and determines the three-dimensional object as an area where the obtained detection points are equal to or larger than the threshold value.

例えば、物標除外部22において、第2の物標である街路樹52の検出点52aを除外しないで立体物判定部23における処理を行った場合には、図6Cにおいて斜線で網掛けされた街路樹52の検出点を含めた区分領域62が、立体物が存在する領域であると判定される。
立体物判定部23は、立体物が存在すると判定した区分領域62について、それぞれ検出点の位置情報に基づいて、道路面に最も近い検出点から道路面から最も遠い検出点までを1つのまとまった立体物であると解釈する。
この立体物判定部23によって1つとして解釈された立体物は、図7Aに示すように、歩行者51および街路樹52の両方を含む大きな矩形枠で表される1つの立体物62aとして特定される。
For example, in the target exclusion unit 22, when the processing in the three-dimensional object determination unit 23 is performed without excluding the detection point 52a of the roadside tree 52 that is the second target, it is shaded with a diagonal line in FIG. 6C. It is determined that the divided area 62 including the detection point of the street tree 52 is an area where a three-dimensional object exists.
The three-dimensional object determination unit 23 collects a single region from the detection point closest to the road surface to the detection point farthest from the road surface, based on the position information of the detection points for each of the divided regions 62 determined to have a three-dimensional object. Interpreted as a three-dimensional object.
The three-dimensional object interpreted as one by the three-dimensional object determination unit 23 is specified as one solid object 62a represented by a large rectangular frame including both the pedestrian 51 and the roadside tree 52, as shown in FIG. 7A. The

一方、物標除外部22において、第2の物標である街路樹52の検出点52aを除外して立体物判定部23における処理を行った場合には、図6Dにおいて斜線で網掛けされた街路樹52の検出点を含めない区分領域61が、立体物が存在する領域であると判定される。
立体物判定部23は、立体物が存在すると判定した区分領域61について、それぞれ検出点の位置情報に基づいて、道路面に最も近い検出点から道路面から最も遠い検出点までを1つのまとまった立体物であると解釈する。
よって、この場合の立体物判定部23によって1つとして解釈された立体物は、図7Bに示すように、歩行者51だけを含む小さな矩形枠で表される1つの立体物61aとして特定される。
On the other hand, in the target excluding unit 22, when the processing in the three-dimensional object determining unit 23 is performed by excluding the detection point 52a of the road tree 52 that is the second target, it is shaded in FIG. 6D. It is determined that the segment area 61 that does not include the detection point of the roadside tree 52 is an area where a three-dimensional object exists.
The three-dimensional object determination unit 23 collects a single region from the detection point closest to the road surface to the detection point farthest from the road surface based on the position information of the detection points for each of the divided regions 61 determined to have a three-dimensional object. Interpreted as a three-dimensional object.
Therefore, the three-dimensional object interpreted as one by the three-dimensional object determination unit 23 in this case is specified as one solid object 61a represented by a small rectangular frame including only the pedestrian 51 as shown in FIG. 7B. .

なお、上述した物標情報取得部10、物標検出部21、および立体物判定部23が行う処理は、立体物の特定に関する既存の技術である。従って、本実施形態で述べた構成や処理手法などはあくまで一例に過ぎず、特許文献1に記載されている技術(三次元の実空間を上下に延在する複数の区分空間に分割し、複数の区分空間のそれぞれについてヒストグラムを作成し、ヒストグラムに基づいて立体物を特定する技術)や、当業者に周知の慣用技術などを用いて、立体物の特定を行っても構わない。   In addition, the process which the target information acquisition part 10 mentioned above, the target detection part 21, and the three-dimensional object determination part 23 perform is the existing technique regarding specification of a three-dimensional object. Accordingly, the configuration and processing method described in the present embodiment are merely examples, and the technique described in Patent Document 1 (a three-dimensional real space is divided into a plurality of partitioned spaces extending vertically, and a plurality of A three-dimensional object may be specified using a technique for creating a histogram for each of the divided spaces and specifying a three-dimensional object based on the histogram) or a conventional technique known to those skilled in the art.

以上のように、本発明の一実施形態に係る車両の周辺監視装置1によれば、車両から所定の範囲内の距離に、障害物となり得ない物標と障害物となり得る物標とが同時に検出された場合であっても、特定の物標から所定の基準幅以上の空間幅wを介して存在し、また所定の基準高さhを超える物標が存在する場合には、当該物標を検出結果から除外することを行う。
これにより、障害物としてなり得ない物標と障害物となり得る物標とが1つの立体物として特定されることを回避することができるので、正確な立体物に基づいた精度の高い衝突回避などの運転支援制御を行うことが可能となる。
As described above, according to the vehicle periphery monitoring device 1 according to the embodiment of the present invention, a target that cannot be an obstacle and a target that can be an obstacle are simultaneously at a distance within a predetermined range from the vehicle. Even if it is detected, if there is a target from a specific target through a space width w that is greater than or equal to a predetermined reference width and exceeds a predetermined reference height h, the target Is excluded from the detection result.
As a result, it is possible to avoid the identification of a target that cannot be an obstacle and a target that can be an obstacle as a single three-dimensional object. It becomes possible to perform driving support control.

なお、上述した実施形態では、カメラ11およびカメラ12が車両のフロントガラスの内側に設けられ、車両進行方向の画像を撮影する場合を説明している。しかし、これ以外にも、カメラ11およびカメラ12を車両のリアガラスやサイドガラスの内側に設けて、車両の後方や側方の画像を撮影しても構わない。   In the above-described embodiment, the case where the camera 11 and the camera 12 are provided inside the windshield of the vehicle and the image in the vehicle traveling direction is taken has been described. However, in addition to this, the camera 11 and the camera 12 may be provided inside the rear glass or side glass of the vehicle, and images of the rear and side of the vehicle may be taken.

なお、本発明の実施形態における車両の周辺監視装置を構成する一部または全部の機能ブロックは、中央処理装置(CPU)、記憶装置(メモリ(ROM、RAMなど)、ハードディスクなど)、および入出力装置などのハードウエア資源を用いることで実現され、典型的には集積回路であるIC(LSI、システムLSI、スーパーLSI、ウルトラLSIなどとも称される)として具現化される。これらの機能ブロックは、個別に1チップ化されてもよいし、一部または全部を含むように1チップ化されてもよい。
また、集積回路化の手法は、ICに限るものではなく、専用回路または汎用プロセッサで実現してもよい。また、IC製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、IC内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別の技術により、ICに置き換わる集積回路化の技術(バイオ技術など)が登場すれば、当然その技術を用いて機能ブロックの集積化を行ってもよい。
Note that some or all of the functional blocks constituting the vehicle periphery monitoring device in the embodiment of the present invention are a central processing unit (CPU), a storage device (memory (ROM, RAM, etc.), hard disk, etc.), and input / output. It is realized by using hardware resources such as an apparatus, and is typically embodied as an IC (LSI, system LSI, super LSI, ultra LSI, etc.) that is an integrated circuit. These functional blocks may be individually made into one chip, or may be made into one chip so as to include a part or all of them.
Further, the method of circuit integration is not limited to ICs, and implementation using dedicated circuitry or general purpose processors is also possible. Also, an FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the IC or a reconfigurable processor that can reconfigure the connection and setting of the circuit cells inside the IC may be used.
Further, if integrated circuit technology (such as biotechnology) that replaces ICs appears as a result of the advancement of semiconductor technology or another technology derived therefrom, functional blocks may naturally be integrated using this technology.

また、上述した本発明の一実施形態に係る車両の周辺監視装置が実行する立体物の特定方法は、記憶装置に格納された立体物の特定方法の手順を実行可能な所定のプログラムデータが、CPUによって解釈実行されることで実現されてもよい。この場合、プログラムデータは、CD−ROMやフレキシブルディスクなどの記録媒体を介して記憶装置内に導入されてもよいし、記録媒体上から直接実行されてもよい。なお、記録媒体は、ROMやRAMやフラッシュメモリなどの半導体メモリ、フレキシブルディスクやハードディスクなどの磁気ディスクメモリ、CD−ROMやDVDやBDなどの光ディスクメモリ、およびメモリカードなどをいう。また、記録媒体は、電話回線や搬送路などの通信媒体も含む概念である。   The three-dimensional object specifying method executed by the vehicle periphery monitoring device according to the embodiment of the present invention described above includes predetermined program data that can execute the procedure of the three-dimensional object specifying method stored in the storage device. It may be realized by being interpreted and executed by the CPU. In this case, the program data may be introduced into the storage device via a recording medium such as a CD-ROM or a flexible disk, or may be directly executed from the recording medium. The recording medium refers to a semiconductor memory such as a ROM, a RAM, or a flash memory, a magnetic disk memory such as a flexible disk or a hard disk, an optical disk memory such as a CD-ROM, a DVD, or a BD, and a memory card. The recording medium is a concept including a communication medium such as a telephone line or a conveyance path.

本発明の車両の周辺監視装置は、障害物との衝突回避や自動走行などの車両運転支援システムを搭載した車両などに利用可能であり、特に障害物としてなり得ない物標を物標検出の結果から排除して、運転支援制御における精度の低下を防ぎたい場合などに有用である。   The vehicle periphery monitoring apparatus according to the present invention can be used for a vehicle equipped with a vehicle driving support system such as collision avoidance with an obstacle or automatic driving, and particularly for detecting a target that cannot be an obstacle. This is useful when, for example, it is desired to prevent a decrease in accuracy in driving support control by excluding the result.

1 車両の周辺監視装置
10 物標情報取得部
11、12 カメラ
20 立体物特定部
21 物標検出部
22 物標除外部
23 立体物判定部
51 歩行者
52 街路樹
55 画像領域
51a、52a 検出点
60、61、62 区分領域
61a、62a 立体物
DESCRIPTION OF SYMBOLS 1 Vehicle periphery monitoring apparatus 10 Target information acquisition part 11, 12 Camera 20 Three-dimensional object specific | specification part 21 Target detection part 22 Target exclusion part 23 Three-dimensional object determination part 51 Pedestrian 52 Street tree 55 Image area 51a, 52a Detection point 60, 61, 62 Division area 61a, 62a Three-dimensional object

Claims (6)

車両の周辺を監視する装置であって、
車両の周辺にある物標に関する情報を取得する物標情報取得部と、
前記物標情報取得部で取得された物標のうち、車両からの距離が所定の範囲内にある複数の物標を抽出し、第1の物標から高さ方向に所定幅以上の空間を介して離れている第2の物標を検出結果から除外する物標除外部と、
前記物標除外部から出力される物標の検出結果に基づいて、車両の周辺に存在する立体物を特定する立体物特定部とを備えることを特徴とする、車両の周辺監視装置。
A device for monitoring the periphery of a vehicle,
A target information acquisition unit that acquires information about targets in the vicinity of the vehicle;
Among the targets acquired by the target information acquisition unit, a plurality of targets whose distance from the vehicle is within a predetermined range are extracted, and a space having a predetermined width or more in the height direction from the first target. A target excluding unit for excluding the second target that is separated from the detection result,
A vehicle periphery monitoring device comprising: a three-dimensional object specifying unit that specifies a three-dimensional object existing around the vehicle based on a target detection result output from the target excluding unit.
前記物標検出部は、物標が有する特徴箇所を複数の検出点として検出し、
前記物標除外部は、前記物標検出部で検出された、前記第1の物標が有する複数の検出点の分布領域と前記第2の物標が有する複数の検出点の分布領域とが、高さ方向に所定幅以上の空間を介して離れているか否かを判断することを特徴とする、請求項1に記載の車両の周辺監視装置。
The target detection unit detects a characteristic location of the target as a plurality of detection points,
The target exclusion unit includes a plurality of detection point distribution areas of the first target and a plurality of detection point distribution areas of the second target, which are detected by the target detection unit. The vehicle periphery monitoring device according to claim 1, wherein it is determined whether or not the vehicle is separated through a space having a predetermined width or more in the height direction.
前記物標除外部は、所定の基準高さ以上ある前記第2の物標を検出結果から除外することを特徴とする、請求項2に記載の車両の周辺監視装置。   The vehicle periphery monitoring device according to claim 2, wherein the target exclusion unit excludes the second target having a predetermined reference height or more from a detection result. 前記所定の基準高さは、前記車両から所定の範囲内の距離にある複数の物標が有する検出点の高さ分布状況に基づいて決定されることを特徴とする、請求項3に記載の車両の周辺監視装置。   The said predetermined reference height is determined based on the height distribution situation of the detection point which the several target in the distance within the predetermined range from the said vehicle has, The characterized by the above-mentioned. Vehicle periphery monitoring device. 前記第1の物標は、道路面上の物標であることを特徴とする、請求項1に記載の車両の周辺監視装置。   The vehicle periphery monitoring device according to claim 1, wherein the first target is a target on a road surface. 前記立体物特定部は、三次元実空間を分割して形成される上下方向に延在する複数の区分空間のそれぞれについて、前記検出された物標に基づいたヒストグラムを作成し、当該ヒストグラムに基づいて立体物を特定することを特徴とする、請求項1に記載の車両の周辺監視装置。   The three-dimensional object specifying unit creates a histogram based on the detected target for each of a plurality of partitioned spaces extending in the vertical direction formed by dividing a three-dimensional real space, and based on the histogram The vehicle periphery monitoring device according to claim 1, wherein a three-dimensional object is specified by the method.
JP2012025277A 2012-02-08 2012-02-08 Periphery monitoring device for vehicle Pending JP2013161434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012025277A JP2013161434A (en) 2012-02-08 2012-02-08 Periphery monitoring device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012025277A JP2013161434A (en) 2012-02-08 2012-02-08 Periphery monitoring device for vehicle

Publications (1)

Publication Number Publication Date
JP2013161434A true JP2013161434A (en) 2013-08-19

Family

ID=49173585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012025277A Pending JP2013161434A (en) 2012-02-08 2012-02-08 Periphery monitoring device for vehicle

Country Status (1)

Country Link
JP (1) JP2013161434A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092564A1 (en) * 2016-11-17 2018-05-24 株式会社デンソー Vehicle control device, and vehicle control method
CN108765362A (en) * 2017-04-20 2018-11-06 优信数享(北京)信息技术有限公司 A kind of vehicle checking method and device
US10740592B2 (en) 2017-09-29 2020-08-11 Toyota Jidosha Kabushiki Kaisha Three-dimensional object ground-contact determining apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092564A1 (en) * 2016-11-17 2018-05-24 株式会社デンソー Vehicle control device, and vehicle control method
JP2018079846A (en) * 2016-11-17 2018-05-24 株式会社デンソー Vehicle control device and vehicle control method
CN109963759A (en) * 2016-11-17 2019-07-02 株式会社电装 Controller of vehicle and control method for vehicle
CN109963759B (en) * 2016-11-17 2022-07-05 株式会社电装 Vehicle control device and vehicle control method
CN108765362A (en) * 2017-04-20 2018-11-06 优信数享(北京)信息技术有限公司 A kind of vehicle checking method and device
CN108765362B (en) * 2017-04-20 2023-04-11 优信数享(北京)信息技术有限公司 Vehicle detection method and device
US10740592B2 (en) 2017-09-29 2020-08-11 Toyota Jidosha Kabushiki Kaisha Three-dimensional object ground-contact determining apparatus
DE102018124033B4 (en) 2017-09-29 2023-08-10 Toyota Jidosha Kabushiki Kaisha Ground contact determination device for a three-dimensional object

Similar Documents

Publication Publication Date Title
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
US10776637B2 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
WO2017158958A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
US8867792B2 (en) Environment recognition device and environment recognition method
CN103455812A (en) Target recognition system and target recognition method
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
US10832431B2 (en) Image processing apparatus, object recognition apparatus, equipment control system, image processing method, and computer-readable recording medium
JP2007527569A (en) Imminent collision detection based on stereoscopic vision
US10546383B2 (en) Image processing device, object recognizing device, device control system, image processing method, and computer-readable medium
EP3324359B1 (en) Image processing device and image processing method
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP2013250907A (en) Parallax calculation device, parallax calculation method and parallax calculation program
JP6516012B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JP2013161434A (en) Periphery monitoring device for vehicle
JP6992356B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
Darms et al. Data fusion strategies in advanced driver assistance systems
JP2013161433A (en) Periphery monitoring device for vehicle
JP7062904B2 (en) Information processing equipment, image pickup equipment, equipment control system, mobile body, information processing method and program
CN112286178B (en) Identification system, vehicle control system, identification method, and storage medium
JP6416654B2 (en) White line detector