JP5145585B2 - Target detection device - Google Patents

Target detection device Download PDF

Info

Publication number
JP5145585B2
JP5145585B2 JP2007152291A JP2007152291A JP5145585B2 JP 5145585 B2 JP5145585 B2 JP 5145585B2 JP 2007152291 A JP2007152291 A JP 2007152291A JP 2007152291 A JP2007152291 A JP 2007152291A JP 5145585 B2 JP5145585 B2 JP 5145585B2
Authority
JP
Japan
Prior art keywords
target
parallax
acquisition means
image
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007152291A
Other languages
Japanese (ja)
Other versions
JP2008304344A (en
Inventor
振程 胡
圭一 内村
哲元 陸
Original Assignee
国立大学法人 熊本大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 熊本大学 filed Critical 国立大学法人 熊本大学
Priority to JP2007152291A priority Critical patent/JP5145585B2/en
Publication of JP2008304344A publication Critical patent/JP2008304344A/en
Application granted granted Critical
Publication of JP5145585B2 publication Critical patent/JP5145585B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、レーザレーダと、ステレオカメラまたは光飛行時間型距離センサとを利用して物標を検出する物標検出装置に関する。   The present invention relates to a target detection apparatus that detects a target using a laser radar and a stereo camera or an optical time-of-flight distance sensor.

自動車社会の交通事故、交通渋滞、燃料消費、排気ガスなどの問題を解決するために、自動車に高度な知能を持たせ、ドライバーによる自動車の運転を支援し自動化することにより、安全で、円滑で、環境に調和した自動車交通が実現できる可能性がある。このような自動車の知能化、安全化システムが活発に研究開発されている。   In order to solve problems such as traffic accidents, traffic jams, fuel consumption, exhaust gas, etc. in the automobile society, by providing advanced intelligence to automobiles, and supporting and automating driving by drivers, it is safe and smooth. There is a possibility that automobile traffic in harmony with the environment can be realized. Such intelligent and safety systems for automobiles are actively researched and developed.

歩行者検出は、自動車の予防安全(アクティブセーフティー)における重要な基盤技術である。歩行者を事前に検出できれば、自動車と歩行者とが衝突する前に自動車の速度を下げたり、歩行者を保護する装置を動作させたり、歩行者の傷害の度合いを軽減することが可能となる。また、自動車の周囲に歩行者がいるような道路環境では、歩行者事故の危険が伴う自動追従機能を停止させ、ドライバー主体の運転に切り替えることも可能となる。   Pedestrian detection is an important basic technology in active safety of automobiles. If a pedestrian can be detected in advance, it is possible to reduce the speed of the automobile before the collision between the automobile and the pedestrian, operate a device that protects the pedestrian, and reduce the degree of injury to the pedestrian. . Also, in a road environment where there are pedestrians around the vehicle, it is possible to stop the automatic follow-up function with the risk of a pedestrian accident and switch to driver-driven driving.

従来では、レーダや超音波などの車載センサを用いた障害物の検出、車間距離保持などのシステムが研究開発され、また画像センサを使用した白線認識や先行車両検出などの技術が実用化しつつある。しかし、レーダセンサは対象物(歩行者、自転車、看板、停止車両等)を区分できず、走行環境認識技術に乏しいという問題がある。さらに、検出領域が狭いので、隣接車線からの追い越し車両やカーブ路の先行車両などに対しての計測は困難である。一方、画像センサは検出対象が車両であるのか、歩行者であるのか、それが自車線上に存在するのかなどの対象認識機能において優れているが、相対距離、相対速度の検出精度が低い。   Conventionally, systems such as obstacle detection and on-vehicle distance maintenance using in-vehicle sensors such as radar and ultrasonic waves have been researched and developed, and technologies such as white line recognition using image sensors and detection of preceding vehicles are being put into practical use. . However, the radar sensor cannot classify objects (pedestrians, bicycles, signboards, stopped vehicles, etc.), and there is a problem that the running environment recognition technology is poor. Furthermore, since the detection area is narrow, it is difficult to measure overtaking vehicles from adjacent lanes or preceding vehicles on curved roads. On the other hand, the image sensor is excellent in the object recognition function such as whether the detection target is a vehicle, a pedestrian, or whether it is on the own lane, but the detection accuracy of the relative distance and the relative speed is low.

このような単一センサの欠点を補うため、従来ではセンサフュージョンによる障害物認識に関して様々な研究が行われてきた。センサ類別としては、ミリ波レーダ、レーザレーダ、超音波センサ、単眼視カメラセンサ、ステレオカメラセンサなどが挙げられる。   In order to make up for the shortcomings of such a single sensor, various studies have been conducted on obstacle recognition by sensor fusion. Examples of sensor classification include millimeter wave radar, laser radar, ultrasonic sensor, monocular camera sensor, and stereo camera sensor.

例えば、特許文献1の技術は、ミリ波レーダとステレオカメラによる画像取得手段を備えている。この技術では、まず、ミリ波レーダから出力されるパワーに基づいて画像認識エリアを特定する。次に、その特定された画像認識エリアのみに限定して物体検出のためのエッジ検出、視差計算等の画像処理を実行し、画像処理時間を短縮しようとするものである。   For example, the technique of Patent Document 1 includes image acquisition means using a millimeter wave radar and a stereo camera. In this technique, first, the image recognition area is specified based on the power output from the millimeter wave radar. Next, image processing such as edge detection and parallax calculation for object detection is executed only in the specified image recognition area to reduce the image processing time.

また、特許文献2の技術は、車両周囲の物体の存在を検出するレーダの出力に基づいて車両走行における障害物を検出し、それらを撮影するステレオカメラによりレーダで検出した障害物の判断基準値を変更する判断基準値変更手段を備えている。これにより、障害物の存在可能性に基づいて、判断基準値を変更し適切な障害物認識を可能としている。   Further, the technique of Patent Document 2 detects obstacles in traveling of a vehicle based on the output of a radar that detects the presence of objects around the vehicle, and determines the obstacle reference value detected by the radar using a stereo camera that captures the obstacles. Is provided with a judgment reference value changing means for changing. Thereby, based on the possibility of the presence of an obstacle, the judgment reference value is changed to enable appropriate obstacle recognition.

また、特許文献3の技術では、カメラとレーダから取得できる可能な限りの多くの情報を用いることで、誤認識を排除し、より高精度なセンサフュージョンを行っている。まず、ステレオ画像とミリ波レーダでの情報により、各センサでのフュージョン立体物を設定する。また、互いのセンサで取得した立体物の同一確率を演算し、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物を決定する。次に、フュージョン立体確認部では、画像立体物単体のフュージョン立体物、ミリ波立体物単体のフュージョン立体物、画像立体物とミリ波立体物との組み合わせによるフュージョン立体物の全ての立体物に判定を行い、画像情報を基に予め定めておいた横方向の応答性遅れによるゴースト判定、壁反射によるマルチパスによるゴースト判定、および、先行車からの反射波によるゴースト判定の条件を満たすミリ波立体物単体のフュージョン立体物を虚像であると判断する。この虚像との判定結果は設定時間維持され、このようにして虚像と判断された立体物は、その後の制御対象からは除かれる。   In the technique of Patent Document 3, as much information as possible that can be acquired from the camera and the radar is used to eliminate misrecognition and perform more accurate sensor fusion. First, a fusion three-dimensional object at each sensor is set based on information from a stereo image and millimeter wave radar. Moreover, the same probability of the three-dimensional object acquired with the mutual sensor is calculated, and the fusion three-dimensional object by the combination of the image three-dimensional object and the millimeter wave three-dimensional object is determined. Next, in the fusion solid confirmation unit, determination is made for all three-dimensional objects of the fusion solid object by combining the three-dimensional fusion object of the image solid object, the fusion solid object of the millimeter wave solid object, and the combination of the image solid object and the millimeter wave solid object. Millimeter-wave solids that satisfy the conditions for ghost determination based on lateral responsiveness delay based on image information, multipath ghost determination based on wall reflection, and ghost determination based on reflected waves from the preceding vehicle The fusion solid object of a single object is determined to be a virtual image. The determination result of this virtual image is maintained for a set time, and the three-dimensional object determined as a virtual image in this way is excluded from the subsequent control targets.

また、特許文献4の技術では、ステレオセンサを用いて、世界座標系における対象物表面上の点の3次元座標を算出する。Z軸方向への投影点の個数の加算を行って、均等間隔格子占有マップにおいて点の個数の特徴量を求める。また、特徴量を用いて人物が存在するかどうかを判定する。   Moreover, in the technique of patent document 4, the three-dimensional coordinate of the point on the target object surface in a world coordinate system is calculated using a stereo sensor. By adding the number of projection points in the Z-axis direction, the feature quantity of the number of points is obtained in the evenly spaced grid occupation map. Further, it is determined whether or not a person exists using the feature amount.

また、特許文献5の技術では、上記の分解能問題に対して、物体表面上の測定点を所定の水平平面または鉛直平面にそれぞれ投影し、水平平面または鉛直平面内のそれぞれに予め定義されたセンサの測定分解能より粗いグリッドセル内の測定点の数を累積することによって、3次元ヒストグラムの2値化によってクラスタリング処理を施し、障害物マップを生成する。   Further, in the technique of Patent Document 5, with respect to the resolution problem described above, measurement points on the object surface are projected onto a predetermined horizontal plane or vertical plane, respectively, and sensors that are defined in advance in the horizontal plane or vertical plane respectively. By accumulating the number of measurement points in the grid cell that are coarser than the measurement resolution, a clustering process is performed by binarization of the three-dimensional histogram to generate an obstacle map.

また、特許文献6の技術では、障害物の特性と検出装置の特性を考慮した障害物の判定を行い、対象物の正確な判定を可能としている。対向車、先行車のように比較的速度の高い物体はレーダの認識結果を用いることで、雨天や霧等で視界が悪い状態でも遠方からこれらを判別することができる。また、静止物(低速移動物を含む。)についてはレーダと画像認識双方で認識した物体のみを障害物と判定することで、システムからみた不要検出を防止する。歩行者については、レーダで検出することが難しいことから、画像認識結果を用いて判定することで検出が行えるようにする。歩行者、特に人体、着衣等はミリ波に対する反射特性が望ましいとはいえないので、ミリ波レーダで安定して検出することが難しい。一方、画像認識手段では安定して検出することが可能である。そのため、ミリ波による捕捉を行えず、画像認識のみで認識を行えたものを、単独画像物標として確保する。さらに、その物標自体に対して移動速度と大きさによる判定を行う。例えば、走行速度10km/h未満で、高さが50〜250cm、幅50cm以下などの設定を満たす場合は歩行者と判定する。また、ミリ波、画像両者で検出された物体に関しては、障害物とすることで、誤検出を抑制する。この技術では、ミリ波レーダと画像のどちらか片方で検出した場合に対しては、それらセンサの特性を用いて対象物識別を行うことで、ミリ波と画像のそれぞれの長所、短所を生かしたセンサフュージョンを行うことができる。   In the technique of Patent Document 6, an obstacle is determined in consideration of the characteristics of the obstacle and the characteristics of the detection device, thereby enabling accurate determination of the object. By using a radar recognition result for an object with relatively high speed such as an oncoming vehicle or a preceding vehicle, these can be discriminated from a distance even when the visibility is poor due to rain or fog. For stationary objects (including low-speed moving objects), only objects recognized by both radar and image recognition are determined as obstacles, thereby preventing unnecessary detection from the viewpoint of the system. About a pedestrian, since it is difficult to detect with a radar, it can detect by determining using an image recognition result. Since pedestrians, particularly human bodies, clothes, and the like, do not have desirable millimeter wave reflection characteristics, it is difficult to stably detect them with millimeter wave radar. On the other hand, the image recognition means can detect stably. Therefore, what cannot be captured by millimeter waves and is recognized only by image recognition is secured as a single image target. Furthermore, the target itself is determined based on the moving speed and size. For example, when the traveling speed is less than 10 km / h and the settings such as the height of 50 to 250 cm and the width of 50 cm or less are satisfied, it is determined as a pedestrian. Moreover, regarding the object detected by both the millimeter wave and the image, erroneous detection is suppressed by making it an obstacle. This technology takes advantage of the advantages and disadvantages of millimeter waves and images by using the characteristics of these sensors to identify objects when detected using either millimeter wave radar or images. Sensor fusion can be performed.

特開2001−296357号公報JP 2001-296357 A 特開2005−345251号公報JP-A-2005-345251 特開2006−047057号公報JP 2006-047057 A 特開2006−236025号公報JP 2006-236025 A 特開2001−242934号公報JP 2001-242934 A 特開2005−202878号公報Japanese Patent Laid-Open No. 2005-202878

しかし、特許文献1の技術では、歩行者のようなミリ波レーダ信号が反射しにくい対象物への検出と認識が困難となる。また、特許文献2の技術は、路上における障害物の存在のみを認識するものであり、歩道や路側帯に存在する歩行者等を対象としていない。特許文献3の技術では、各センサの検出精度を考慮せず単純な組み合わせを行うため、遠方にある障害物の検出が困難である。また、レーダセンサの分解能より、互いに近接する障害物同士の分離ができない。特許文献4の技術では、三角測量の原理によってステレオ視の分解能は距離に反比例するので、遠距離にある対象物の占有マップへの投影精度が低下し発散してしまう。特許文献5の技術では、特許文献4の技術と同様、遠距離にある対象物の投影が発散し、対象物同士の領域が占有マップ上につながってしまい、容易に分割できない。特許文献6の技術では、単独画像物標として、高い精度で認識するには、赤外線画像、ステレオ視等の使用し、より多くの情報が必要となり、コストの増加や、演算時間の増加が問題となる。   However, with the technique of Patent Document 1, it is difficult to detect and recognize an object on which a millimeter wave radar signal such as a pedestrian is difficult to reflect. Moreover, the technique of patent document 2 recognizes only the presence of an obstacle on the road, and does not target a pedestrian or the like existing on a sidewalk or a roadside belt. In the technique of Patent Document 3, since a simple combination is performed without considering the detection accuracy of each sensor, it is difficult to detect an obstacle located far away. Further, due to the resolution of the radar sensor, obstacles that are close to each other cannot be separated. In the technique of Patent Document 4, since the resolution of stereo vision is inversely proportional to the distance due to the principle of triangulation, the projection accuracy on the occupation map of the object at a long distance is lowered and diverges. In the technique of Patent Document 5, similarly to the technique of Patent Document 4, the projection of objects at a long distance diverges, and the areas of the objects are connected on the occupation map, and cannot be easily divided. In the technique of Patent Document 6, in order to recognize as a single image target with high accuracy, an infrared image, stereo vision, and the like are used, and more information is required, which increases the cost and the calculation time. It becomes.

本発明はかかる問題点に鑑みてなされたものであり、その第1の目的は、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することの可能な物標検出装置を提供することにある。また、第2の目的は、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することの可能な物標検出装置を提供することにある。   The present invention has been made in view of such problems, and a first object thereof is to detect targets such as vehicles, pedestrians, and obstacles that are close to each other in a short time with a simple configuration. The object is to provide a possible target detection device. In addition, a second object is a target detection apparatus that can detect a target such as a vehicle, a pedestrian, and an obstacle existing in the distance of the vehicle with an accuracy equivalent to that of a target in the vicinity of the vehicle with a simple configuration. Is to provide.

本発明の第1の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方のステレオ画像を取得するステレオカメラと、レーザレーダで取得したレーダ情報およびステレオカメラで取得したステレオ画像を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(A1)〜(A7)の各手段を有している。
(A1)レーダ情報と、ステレオ画像と、レーダ情報から導出された第1視差と、ステレオ画像から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補のステレオ画像上の位置および幅ならびに高さを導出すると共に、ステレオカメラにおける3次元座標系の3次元座標とをステレオ画像の画素ごとに導出する位置等取得手段
(A2)位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像をステレオ画像から切り出すと共に、切り出した2次元画像から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さを修正する位置等修正手段
(A3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(A4)種類判別手段および物標追跡手段で種類が判別された各物標候補のステレオ画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(A5)新たに取得したステレオ画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得したステレオ画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを修正すると共に、特定物標のステレオカメラにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得したステレオ画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を新たに取得したステレオ画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得したステレオ画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(A6)物標リストにおいて、物標追跡手段で導出された特定物標のステレオ画像上の位置および幅と、高さと、物標候補領域の2次元画像と、ステレオカメラにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(A7)新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
A first target detection apparatus of the present invention includes a laser radar that acquires radar information in front of a vehicle, a stereo camera that acquires a stereo image in front of the vehicle, radar information acquired by a laser radar, and stereo acquired by a stereo camera. And a control unit for processing an image. Here, the control unit has the following means (A1) to (A7).
(A1) Each target candidate from the radar information, the stereo image, the first parallax derived from the radar information, and the second parallax derived from the stereo image or the second parallax corrected by the parallax correcting means The position, width, and height on the stereo image are derived, and the position etc. obtaining means for deriving the 3D coordinates of the 3D coordinate system in the stereo camera for each pixel of the stereo image (A2) Using the position, width, and height of each target candidate on the stereo image, the two-dimensional image of each target candidate region is cut out from the stereo image, and the parallax derived from the cut-out two-dimensional image is second After cutting out from parallax, out of the cut out two-dimensional image, out of the second parallax, the parallax derived from the cut out two-dimensional image and the cut out two-dimensional of the first parallax The stereo of each target candidate derived by the position acquisition means using the first partial image of the part that is the same or substantially the same as each other by comparing with the parallax of the target candidate in the region corresponding to the image Position etc. correction means for correcting the position, width and height on the image (A3) Type discrimination means for discriminating the type of each target candidate using the two-dimensional image or the first partial image cut out by the position etc. correction means. (A4) The position and width, height, type, two-dimensional image of the target candidate area of each target candidate whose type has been determined by the type determining unit and the target tracking unit, and a stereo camera Target list registration means for registering the three-dimensional coordinates of the three-dimensional coordinate system in the target list (A5) An area including the predicted position of each target candidate expected to exist in the newly acquired stereo image 2D images of Cut out from the newly acquired stereo image based on the position and width on the stereo image of each target candidate recorded in the list, the height, the type, and the 3D coordinates of the 3D coordinate system in the stereo camera. The correlation between each target candidate expected to be included in the cut-out two-dimensional image and each target candidate recorded in the target list is evaluated by a predetermined method. When it is evaluated that the correlation is extremely high, it is derived from the two-dimensional image of the region including the predicted position among the two-dimensional images of the region including the predicted position of the highly correlated target candidate (specific target). Of the first parallax derived from the newly acquired radar information and the parallax of the target candidate in the region corresponding to the two-dimensional image of the region including the predicted position, both are the same or substantially the same For the same parallax The position, width, and height of the specific target on the newly acquired stereo image are corrected using the corresponding second partial image, and the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera of the specific target are acquired. , Using the position and width and height on the newly acquired stereo image of the specific target obtained by the correction, cutting out the two-dimensional image of the target candidate area of the specific target from the newly acquired stereo image, In addition, if the correlation between the two is not very high but is evaluated as relatively high, the position of the target candidate (quasi-specific target) with relatively high correlation on the newly acquired stereo image and After acquiring the width and height, the two-dimensional image of the target candidate area, and the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera by performing the same process as the above process on the specific target Target tracking means for discriminating the type of the quasi-specific target using the acquired two-dimensional image of the target candidate area of the quasi-specific target (A6) In the target list, the specific target derived by the target tracking means Target list update means (A7) for updating the position and width on the stereo image, the height, the two-dimensional image of the target candidate area, and the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera. Of the second parallax derived from the stereo image, the first parallax derived from the parallax derived from the two-dimensional image of the target candidate area of the specific target derived by the target tracking means and the newly acquired radar information. A parallax in which both of them are the same or almost the same as the parallax of the target candidates in the area corresponding to the two-dimensional image of the target candidate area of the specific target clipped by the target tracking means. Parallax correcting means for changing to zero

本発明の第1の物標検出装置では、物標を検出するために、ステレオカメラの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第1部分画像を用いて、位置等取得手段で導出された各物標候補のステレオ画像上の位置および幅ならびに高さが修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補が背景画像に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、各物標候補の経時変化を追跡する際に、物標候補の位置および幅と、高さと、前記ステレオカメラにおける3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。また、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で切り出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。これにより、新たに取得したステレオ画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。   In the first target detection apparatus of the present invention, a laser radar is used in addition to the stereo camera in order to detect the target. As a result, it is possible to detect and recognize a target such as a pedestrian that is difficult to reflect a millimeter wave radar signal. Further, the position, width, and height of each target candidate derived by the position etc. acquiring unit on the stereo image are corrected using the first partial image. Here, since the first partial image corresponds to the two-dimensional image of the target candidate area obtained by removing the background image, the target candidate is mixed into the background image, and there is an error in the position of the target candidate. It can be eliminated. Further, when tracking the temporal change of each target candidate, not only the position and width of the target candidate, the height, and the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera are used, Since the type is also used, the detection and recognition of the target can be performed with high accuracy. In addition, when it is evaluated that the correlation is high, the two-dimensional image of the target candidate region of the specific target extracted by the target tracking unit out of the second parallax derived from the newly acquired stereo image Target candidates in the region corresponding to the two-dimensional image of the target candidate region of the specific target extracted by the target tracking means out of the parallax derived from the first parallax derived from the newly acquired radar information The parallax in which both are the same or substantially the same as each other is changed to zero. As a result, the specific target is deleted in the second parallax derived from the newly acquired stereo image, and that portion becomes the background. It is possible to exclude it from the object from which it is derived.

本発明の第2の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、レーザレーダで取得したレーダ情報および光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(B1)〜(B7)の各手段を有している。
(B1)レーダ情報と、単一画像と、レーダ情報から導出された第1視差と、単一画像および被写体までの距離から導出された第2視差または視差修正手段で修正された後の第2視差とから各物標候補の単一画像上の位置および幅ならびに高さを導出すると共に、光飛行時間型距離センサにおける3次元座標系の3次元座標とを単一画像の画素ごとに導出する位置等取得手段
(B2)位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを利用して各物標候補領域の2次元画像を単一画像から切り出すと共に、切り出した2次元画像およびこれに対応する被写体までの距離から導出される視差を第2視差から切り出したのち、切り出した2次元画像のうち、第2視差のうち当該切り出した2次元画像およびこれに対応する被写体までの距離から導出された視差と第1視差のうち当該切り出した2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像を用いて、位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さを修正する位置等修正手段
(B3)位置等修正手段で切り出された2次元画像または第1部分画像を用いて各物標候補の種類を判別する種類判別手段
(B4)種類判別手段および物標追跡手段で種類が判別された各物標候補の単一画像上の位置および幅と、高さと、種類と、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを物標リストに登録する物標リスト登録手段
(B5)新たに取得した単一画像内に存在していると予想される各物標候補の予想位置を含む領域の2次元画像を、物標リストに記録されている各物標候補のステレオ画像上の位置および幅と、高さと、種類と、ステレオカメラにおける3次元座標系の3次元座標とに基づいて、新たに取得した単一画像から切り出し、切り出した2次元画像に含まれていると予想される各物標候補と、物標リストに記録されている各物標候補との相関性を所定の方法により評価し、その結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補(特定物標)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて特定物標の新たに取得した単一画像上の位置および幅ならびに高さを修正すると共に、特定物標の光飛行時間型距離センサにおける3次元座標系の3次元座標を取得し、修正により得られた特定物標の新たに取得した単一画像上の位置および幅ならびに高さを利用して特定物標の物標候補領域の2次元画像を前記新たに取得した単一画像から切り出し、また、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補(準特定物標)の新たに取得した単一画像上の位置および幅ならびに高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを、特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標の物標候補領域の2次元画像を用いて準特定物標の種類を判別する物標追跡手段
(B6)物標リストにおいて、物標追跡手段で導出された特定物標の単一画像上の位置および幅と、高さと、物標候補領域の2次元画像と、光飛行時間型距離センサにおける3次元座標系の3次元座標とを更新する物標リスト更新手段
(B7)新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する視差修正手段
The second target detection apparatus of the present invention is acquired by a laser radar that acquires radar information in front of the vehicle, an optical time-of-flight distance sensor that acquires a single image in front of the vehicle and the distance to the subject, and laser radar. And a control unit for processing the radar information and the single image acquired by the optical time-of-flight distance sensor and the distance to the subject. Here, the control unit has the following means (B1) to (B7).
(B1) Radar information, a single image, a first parallax derived from the radar information, and a second parallax derived from the single image and the distance to the subject or the second after being corrected by the parallax correcting means The position, width, and height of each target candidate on the single image are derived from the parallax, and the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor are derived for each pixel of the single image. Position etc. acquisition means (B2) Using the position, width and height of each target candidate on the single image derived by the position etc. acquisition means, a two-dimensional image of each target candidate area is cut out from the single image. In addition, after the cut-out two-dimensional image and the parallax derived from the distance to the subject corresponding to the cut-out two-dimensional parallax are cut out from the second parallax, to this The parallax derived from the distance to the corresponding subject and the parallax of the target candidate in the area corresponding to the cut out two-dimensional image of the first parallax are compared with each other and are the same or substantially the same. Using the first partial image, position candidate correction means (B3) for correcting the position, width and height of each target candidate derived by the position acquisition means on the single image was cut out by the position correction means. Type discriminating means for discriminating the type of each target candidate using the two-dimensional image or the first partial image (B4) on the single image of each target candidate whose type is discriminated by the type discriminating means and the target tracking means. Target list registration means for registering the position, width, height, type, two-dimensional image of the target candidate area, and the three-dimensional coordinates of the three-dimensional coordinate system in the time-of-flight distance sensor in the target list ( B5) In a newly acquired single image The position, width, height, and type of a stereo image of each target candidate recorded in the target list is converted into a two-dimensional image of the area including the predicted position of each target candidate that is expected to exist. And a target candidate that is expected to be included in the cut out two-dimensional image from the newly acquired single image based on the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera. When the correlation with each target candidate recorded in the list is evaluated by a predetermined method and, as a result, the correlation between both is evaluated to be extremely high, the target candidate (specific target with high correlation) ) Of the region including the predicted position in (2), the parallax derived from the two-dimensional image of the region including the predicted position and the corresponding distance to the subject and the newly acquired radar information. The expected position of one parallax The specific target is newly acquired using the second partial image corresponding to the parallax that is the same or almost the same as each other by comparing the parallax of the target candidate in the area corresponding to the two-dimensional image of the including area While correcting the position, width, and height on a single image, the three-dimensional coordinates of the three-dimensional coordinate system in the time-of-flight distance sensor of the specific target are acquired, and the new specific target obtained by the correction is newly acquired. Using the position, width and height on the acquired single image, a two-dimensional image of the target candidate area of the specific target is cut out from the newly acquired single image, and the correlation between both is extremely high If it is evaluated as relatively high although it cannot be said, the position and width and height of the newly acquired target image (quasi-specific target) on the single image that has a relatively high correlation and the target candidate 2D image of area and time-of-flight distance After acquiring the three-dimensional coordinates of the three-dimensional coordinate system in the sensor by performing the same processing as the above-described processing for the specific target, the two-dimensional image of the target candidate area of the acquired semi-specific target is used as a quasi-standard. Target tracking means for discriminating the type of the specific target (B6) In the target list, the position and width of the specific target derived by the target tracking means on the single image, the height, and the target candidate area Target list update means (B7) for updating the two-dimensional image and the three-dimensional coordinates of the three-dimensional coordinate system in the time-of-flight distance sensor. The second image derived from the newly acquired single image and the distance to the subject. Among the parallaxes, the second derived from the two-dimensional image of the target candidate area of the specific target derived by the target tracking means and the parallax derived from the distance to the subject corresponding thereto and the newly acquired radar information Target pursuit out of one parallax The parallax that compares the parallax of the target candidates in the area corresponding to the two-dimensional image of the target candidate area of the specific target cut out by the means and changes the parallax that is the same or substantially the same as each other to zero Correction means

本発明の第2の物標検出装置では、物標を検出するために、光飛行時間型距離センサの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第1部分画像を用いて、位置等取得手段で導出された各物標候補の単一画像上の位置および幅ならびに高さが修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補が背景画像に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、各物標候補の経時変化を追跡する際に、物標候補の位置および幅と、高さと、前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。また、相関性が高いと評価された場合には、新たに取得した単一画像および被写体までの距離から導出された第2視差のうち、物標追跡手段で導出された特定物標の物標候補領域の2次元画像およびこれに対応する被写体までの距離から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された前記特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。これにより、新たに取得した単一画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得した単一画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。   In the second target detection apparatus of the present invention, a laser radar is used in addition to the optical time-of-flight distance sensor to detect the target. As a result, it is possible to detect and recognize a target such as a pedestrian that is difficult to reflect a millimeter wave radar signal. Further, the position, width and height of each target candidate derived by the position etc. acquiring unit on the single image are corrected using the first partial image. Here, since the first partial image corresponds to the two-dimensional image of the target candidate area obtained by removing the background image, the target candidate is mixed into the background image, and there is an error in the position of the target candidate. It can be eliminated. Further, when tracking the temporal change of each target candidate, not only using the position and width of the target candidate, the height, and the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor, Since the types of target candidates are also used, it is possible to detect and recognize the target with high accuracy. If the correlation is evaluated to be high, the target of the specific target derived by the target tracking means out of the newly acquired single image and the second parallax derived from the distance to the subject. The target of the specific target cut out by the target tracking means out of the parallax derived from the two-dimensional image of the candidate area and the distance to the subject corresponding thereto and the first parallax derived from the newly acquired radar information Contrast with the parallax of the target candidate in the area corresponding to the two-dimensional image of the target candidate area, the parallax where both are the same or substantially the same is changed to zero. As a result, the specific target is deleted in the second parallax derived from the newly acquired single image, and that portion becomes the background. Therefore, the position and width of the specific target on the newly acquired single image In addition, the height can be excluded from the target to be derived.

本発明の第3の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方のステレオ画像を取得するステレオカメラと、レーザレーダで取得したレーダ情報およびステレオカメラで取得したステレオ画像を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(C1)〜(C9)の各手段を有している。
(C1)ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得する第1位置情報取得手段
(C2)ステレオ画像における各画素を、ステレオ画像から導出された第2視差およびステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差およびステレオ画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、ステレオ画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(C3)直線L1と直線L2との交差点のx座標Vを導出し、このx座標Vと、ステレオカメラの焦点距離fとを用いてステレオカメラの俯角αを導出する俯角情報取得手段
(C4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(C5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、ステレオ画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(C6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(C7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差とステレオカメラにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(C8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(C9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補のステレオ画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅をステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
The third target detection apparatus of the present invention includes a laser radar that acquires radar information in front of the vehicle, a stereo camera that acquires a stereo image in front of the vehicle, radar information acquired by the laser radar, and stereo acquired by the stereo camera. And a control unit for processing an image. Here, the control unit has the following means (C1) to (C9).
(C1) First position information acquisition means for acquiring the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera for each pixel of the stereo image (C2) The second parallax and stereo derived from the stereo image for each pixel in the stereo image Among the plurality of cells in which the ordinate of the image is divided at a predetermined interval, the image is distributed to cells including the second parallax of each pixel and the ordinate of the stereo image, the second parallax is set as the x axis, and the ordinate of the stereo image is The z-axis value is binarized in the three-dimensional distribution when the y-axis and the number of pixels per cell are the z-axis, and the road surface area intersecting the straight line L2 where the second parallax is zero in the xy plane equivalent linear acquisition means (C3) for detecting the inclined straight line L1 which derives the x coordinate V 0 which the intersection of the straight lines L1 and L2, and the x-coordinate V 0, with the focal length f of the stereo camera Depression angle information acquisition means (C4) for deriving the depression angle α of the teleo camera The second parallax and x coordinate of each point on the straight line L1 and the second parallax of each pixel having the parallax and x coordinate of each point near the straight line L1 are made zero Using the second parallax corrected by the parallax information deleting unit (C5) and the abscissa of the three-dimensional coordinates obtained by the first position information acquiring unit, each pixel in the stereo image is corrected. The second parallax and the three-dimensional coordinate abscissa are distributed to cells including the second parallax and the three-dimensional coordinate abscissa of each pixel among a plurality of cells divided by a predetermined interval. The maximum ordinate of the three-dimensional coordinates of the pixels included in each cell in the three-dimensional distribution with the x-axis, the second parallax as the y-axis, and the number of pixels (occupancy) for each cell as the z-axis Values and average values for each cell Occupation degree information acquisition means for calculating (C6) In the three-dimensional distribution derived by the occupancy degree information acquisition means, the z-axis value is smoothed and binarized, and the z-axis value is higher than a predetermined threshold value. Using the width and area in the x-axis direction and the maximum value and average value of the cells included in the mass, the mass is extracted as a target candidate according to a predetermined rule determined for each detection target, and on the xy plane First target acquisition means (C7) for acquiring the center position and width After correcting the radar information obtained by the laser radar using the depression angle α, the first parallax and the three-dimensional in the stereo camera are obtained from the corrected radar information. Second position information acquisition means (C8) for acquiring the three-dimensional coordinates of the coordinate system The abscissa of the three-dimensional coordinates obtained by the second position information acquisition means is the x-axis and is obtained by the second position information acquisition means. Let the first parallax be the y-axis Second target acquisition means (C9) for acquiring the center position and width of each target candidate on the xy plane in accordance with a predetermined rule, the xy plane of each target candidate obtained by the first target acquisition means Each target obtained by the first target acquisition means by comparing the upper center position and width with the center position and width on the xy plane of each target candidate obtained by the second target acquisition means. The presence / absence of the candidate is determined, and the position and width of each target candidate determined to be present on the stereo image are obtained, the center position and width on the xy plane obtained by the first target acquisition means, and the second target acquisition. The center position and width on the xy plane obtained by the means are weighted and averaged according to a predetermined rule, and then the center position and width on the xy plane obtained by the weighted average are converted into a position and width on the stereo image. Further, the height of each target candidate determined to be present The third target deriving means for obtaining from the ordinate of the three-dimensional coordinates obtained in location information acquiring means

本発明の第3の物標検出装置では、物標を検出するために、ステレオカメラの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第2視差をx軸とし、ステレオ画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理することにより得られた直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差がゼロに補正される。これにより、路面視差が削除されるので、物標候補が背景画像である路面に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、直線L1と直線L2との交差点のx座標Vと、ステレオカメラの焦点距離fとを用いて導出されたステレオカメラの俯角αを利用してレーダ情報が補正される。これにより、レーダ情報を、第1視差や、ステレオカメラにおける3次元座標系の3次元座標に変換する際に誤差が生じることをなくすることができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、占用度情報取得手段で得られた各物標候補の存否が判定される。ここで、xy平面における奥行き情報は視差で表されているので、遠方において誤差の発散が生じることがない。 In the third target detection apparatus of the present invention, a laser radar is used in addition to the stereo camera in order to detect the target. As a result, it is possible to detect and recognize a target such as a pedestrian that is difficult to reflect a millimeter wave radar signal. In addition, the second parallax is obtained by binarizing the z-axis value in a three-dimensional distribution when the stereo image has the ordinate of the y-axis and the number of pixels per cell is the z-axis. The second parallax and the x coordinate of each point on the straight line L1 and the second parallax of each pixel having the parallax and x coordinate of each point near the straight line L1 are corrected to zero. Thereby, since the road surface parallax is deleted, it is possible to prevent the target candidate from being mixed with the road surface as the background image and causing an error in the position of the target candidate. Further, the radar information is corrected using the stereo camera depression angle α derived using the x coordinate V 0 of the intersection of the straight line L1 and the straight line L2 and the focal length f of the stereo camera. Thereby, it is possible to eliminate an error when the radar information is converted into the first parallax or the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera. Also, the center position and width of each target candidate obtained by the first target acquisition means on the xy plane, and the center position and width of each target candidate obtained by the second target acquisition means on the xy plane. And the presence / absence of each target candidate obtained by the occupancy level information obtaining means is determined. Here, since the depth information on the xy plane is represented by parallax, no error divergence occurs in the distance.

本発明の第4の物標検出装置は、車両前方のレーダ情報を取得するレーザレーダと、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、レーザレーダで取得したレーダ情報および光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部とを備えたものである。ここで、制御部は、以下に示した(D1)〜(D9)の各手段を有している。
(D1)光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得する第1位置情報取得手段
(D2)単一画像における各画素を、単一画像および被写体までの距離から導出された第2視差および単一画像の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および単一画像の縦座標が含まれるセルに振り分け、第2視差をx軸とし、単一画像の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出する直線取得手段
(D3)直線L1と直線L2との交差点のx座標Vを導出し、このx座標Vと、光飛行時間型距離センサの焦点距離fとを用いて光飛行時間型距離センサの俯角αを導出する俯角情報取得手段
(D4)直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正する視差情報削除手段
(D5)視差情報削除手段により補正された後の第2視差および第1位置情報取得手段で得られた3次元座標の横座標を用いて、単一画像における各画素を、第2視差および3次元座標の横座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差および3次元座標の横座標が含まれるセルに振り分け、3次元座標の横座標をx軸とし、第2視差をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の3次元座標の縦座標の最大値および平均値を各セルごとに算出する占用度情報取得手段
(D6)占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、固まりに含まれるセルの最高値および平均値とを用いて、検出対象物ごとに決められた所定ルールで固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得する第1物標取得手段
(D7)レーザレーダによって得られたレーダ情報を俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得する第2位置情報取得手段
(D8)第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得する第2物標取得手段
(D9)第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の単一画像上の位置および幅を、第1物標取得手段で得られたxy平面上の中心位置および幅と、第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、第1位置情報取得手段で得られた3次元座標の縦座標から取得する第3物標導出手段
The fourth target detection apparatus of the present invention is acquired by a laser radar that acquires radar information in front of the vehicle, an optical time-of-flight distance sensor that acquires a single image in front of the vehicle and the distance to the subject, and laser radar. And a control unit for processing the radar information and the single image acquired by the optical time-of-flight distance sensor and the distance to the subject. Here, the control unit has the following means (D1) to (D9).
(D1) First position information acquisition means for acquiring the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor for each pixel of the single image (D2) The second parallax derived from the distance to and the ordinate of the single image is distributed to cells including the second parallax of each pixel and the ordinate of the single image among a plurality of cells separated by a predetermined interval; When the second parallax is the x axis, the ordinate of the single image is the y axis, and the number of pixels per cell is the z axis, the z axis value is binarized in the xy plane. Straight line acquisition means (D3) for detecting an oblique straight line L1 corresponding to a road surface area intersecting with the straight line L2 where the second parallax is zero. The x coordinate V 0 of the intersection of the straight line L1 and the straight line L2 is derived, and this x coordinate and V 0, the focal length of the optical time-of-flight distance sensor Depression angle information acquisition means (D4) for deriving the depression angle α of the optical time-of-flight distance sensor using f and the second parallax and x coordinate of each point on the straight line L1 and the parallax and x coordinate of each point near the straight line L1 The parallax information deleting means for correcting the second parallax of each pixel to zero (D5) The second parallax corrected by the parallax information deleting means and the abscissa of the three-dimensional coordinates obtained by the first position information acquiring means Using each pixel in the single image, the second parallax and the abscissa of the three-dimensional coordinate of each pixel are included in a plurality of cells in which the abscissa of the second parallax and the three-dimensional coordinate is divided at a predetermined interval. Included in each cell in a three-dimensional distribution when the abscissa of the three-dimensional coordinates is the x-axis, the second parallax is the y-axis, and the number of pixels (occupancy) for each cell is the z-axis. Maximum value of the three-dimensional coordinate ordinate of the pixel Occupation degree information acquisition means (D6) for calculating the average value for each cell In the three-dimensional distribution derived by the occupancy degree information acquisition means, the z-axis value is smoothed and binarized, and the z-axis value is a predetermined value. Extracts clusters as target candidates using predetermined rules determined for each detection target using the x-axis width and area of the clusters of cells higher than the threshold and the maximum and average values of the cells included in the clusters. Then, first target acquisition means (D7) for acquiring the center position and width on the xy plane, the radar information obtained by the laser radar is corrected using the depression angle α, and then the first radar information is obtained from the corrected radar information. Second position information acquisition means (D8) for acquiring the parallax and the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor. The abscissa of the three-dimensional coordinates obtained by the second position information acquisition means is the x-axis. In the second position information acquisition means Second target acquisition means (D9) for acquiring the center position and width of each target candidate on the xy plane according to a predetermined rule when the obtained first parallax is the y-axis. The first object is obtained by comparing the center position and width of the obtained target candidates on the xy plane with the center position and width of the target candidates obtained by the second target acquisition means on the xy plane. The presence or absence of each target candidate obtained by the target acquisition means is determined, and the position and width on the single image of each target candidate determined to be present on the xy plane obtained by the first target acquisition means The center position and width on the xy plane obtained by the weighted average after the weighted average of the center position and width and the center position and width on the xy plane obtained by the second target acquisition means are weighted and averaged. Each target acquired by converting to a position and width on one image and determined to exist The third target deriving means for obtaining the height of the complement, the ordinate of the three-dimensional coordinates obtained by the first position information obtaining means

本発明の第4の物標検出装置では、物標を検出するために、光飛行時間型距離センサの他にレーザレーダが用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となる。また、第2視差をx軸とし、単一画像の縦座標をy軸としセルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化することにより得られた直線L1上の各点の第2視差およびx座標ならびに直線L1近傍の各点の視差およびx座標を有する各画素の第2視差がゼロに補正される。これにより、路面視差が削除されるので、物標候補が背景画像である路面に紛れてしまい、物標候補の位置等に誤差が生じることをなくすることができる。また、直線L1と直線L2との交差点のx座標Vと、光飛行時間型距離センサの焦点距離fとを用いて導出された光飛行時間型距離センサの俯角αを利用してレーダ情報が補正される。これにより、レーダ情報を、第1視差や、光飛行時間型距離センサにおける3次元座標系の3次元座標に変換する際に誤差が生じることをなくすることができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否が判定される。ここで、xy平面における奥行き情報は視差で表されているので、遠方において誤差の発散が生じることがない。 In the fourth target detection apparatus of the present invention, a laser radar is used in addition to the optical time-of-flight distance sensor to detect the target. As a result, it is possible to detect and recognize a target such as a pedestrian that is difficult to reflect a millimeter wave radar signal. Also obtained by binarizing the z-axis value in a three-dimensional distribution where the second parallax is the x-axis, the ordinate of the single image is the y-axis, and the number of pixels per cell is the z-axis. The second parallax and x coordinate of each point on the straight line L1 and the second parallax of each pixel having the parallax and x coordinate of each point near the straight line L1 are corrected to zero. Thereby, since the road surface parallax is deleted, it is possible to prevent the target candidate from being mixed with the road surface as the background image and causing an error in the position of the target candidate. Also, radar information is obtained by using the depression angle α of the optical time-of-flight distance sensor derived using the x coordinate V 0 of the intersection of the straight line L1 and the straight line L2 and the focal length f of the optical time-of-flight distance sensor. It is corrected. Thereby, it is possible to eliminate the occurrence of an error when the radar information is converted into the first parallax or the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor. Also, the center position and width of each target candidate obtained by the first target acquisition means on the xy plane, and the center position and width of each target candidate obtained by the second target acquisition means on the xy plane. And the presence / absence of each target candidate obtained by the height information acquisition means is determined. Here, since the depth information on the xy plane is represented by parallax, no error divergence occurs in the distance.

本発明の第1の物標検出装置によれば、物標を検出するために、ステレオカメラの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差において特定物標を削除するようにしたので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士がステレオ画面上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。従って、本発明では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。   According to the first target detection apparatus of the present invention, in order to detect a target, a laser radar is used in addition to a stereo camera, and a millimeter wave radar signal such as a pedestrian as well as a vehicle and an obstacle is detected. Since it is possible to detect and recognize a target that is difficult to reflect, it is possible to detect a target such as a vehicle, a pedestrian, and an obstacle located far away from the vehicle with a simple configuration. In addition, when the correlation is evaluated to be high, the specific target is deleted in the second parallax derived from the newly acquired stereo image, and thus the specific target is newly acquired. It is possible to exclude the upper position, width, and height from the objects to be derived. As a result, it is possible not only to greatly reduce the time required for calculation processing compared to the case where a specific target is a target for deriving a position, etc., but also when target candidates are close to each other on a stereo screen. Even if it exists, each position, width, height, type, etc. can be derived. Therefore, in the present invention, targets such as vehicles, pedestrians, and obstacles that are close to each other can be detected in a short time with a simple configuration.

本発明の第2の物標検出装置によれば、物標を検出するために、光飛行時間型距離センサの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、相関性が高いと評価された場合には、新たに取得した単一画像および被写体までの距離から導出された第2視差において特定物標を削除するようにしたので、特定物標を、新たに取得した単一画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士が単一画像上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。従って、本発明では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。   According to the second target detection apparatus of the present invention, in order to detect a target, a laser radar is used in addition to the optical time-of-flight distance sensor, and not only a vehicle or an obstacle but also a pedestrian. Targets such as vehicles, pedestrians, and obstacles that are far away from the vehicle can be detected with a simple configuration because it is possible to detect and recognize targets that are difficult to reflect millimeter-wave radar signals. it can. In addition, when it is evaluated that the correlation is high, the specific target is deleted in the second parallax derived from the newly acquired single image and the distance to the subject. It is possible to exclude the position, width, and height on the newly acquired single image from the targets to be derived. This makes it possible not only to significantly reduce the time required for calculation processing compared to the case where a specific target is the target for deriving the position, etc., but also when target candidates are close to each other on a single image Even so, the position, width, height, type, etc. of each can be derived. Therefore, in the present invention, targets such as vehicles, pedestrians, and obstacles that are close to each other can be detected in a short time with a simple configuration.

本発明の第3の物標検出装置によれば、物標を検出するために、ステレオカメラの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否を判定するようにしたので、遠方において誤差の発散が生じることがない。従って、本発明では、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することができる。   According to the third target detection apparatus of the present invention, in order to detect a target, a laser radar is used in addition to a stereo camera, and not only a vehicle or an obstacle but also a millimeter wave radar signal such as a pedestrian. Since it is possible to detect and recognize a target that is difficult to reflect, it is possible to detect a target such as a vehicle, a pedestrian, and an obstacle located far away from the vehicle with a simple configuration. Also, the center position and width of each target candidate obtained by the first target acquisition means on the xy plane, and the center position and width of each target candidate obtained by the second target acquisition means on the xy plane. In contrast, since the presence or absence of each target candidate obtained by the height information acquisition means is determined, the divergence of the error does not occur far away. Therefore, according to the present invention, it is possible to detect a target such as a vehicle, a pedestrian, and an obstacle that are located far away with a simple configuration with the same accuracy as a target near the vehicle.

本発明の第4の物標検出装置によれば、物標を検出するために、光飛行時間型距離センサの他にレーザレーダを用いて、車両や障害物だけでなく、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識をすることができるようにしたので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、高さ情報取得手段で得られた各物標候補の存否を判定するようにしたので、遠方において誤差の発散が生じることがない。従って、本発明では、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を車両近傍の物標と同等の精度で検出することができる。   According to the fourth target detection apparatus of the present invention, in order to detect a target, a laser radar is used in addition to the optical time-of-flight distance sensor, and not only a vehicle or an obstacle but also a pedestrian. Targets such as vehicles, pedestrians, and obstacles that are far away from the vehicle can be detected with a simple configuration because it is possible to detect and recognize targets that are difficult to reflect millimeter-wave radar signals. it can. Also, the center position and width of each target candidate obtained by the first target acquisition means on the xy plane, and the center position and width of each target candidate obtained by the second target acquisition means on the xy plane. In contrast, since the presence or absence of each target candidate obtained by the height information acquisition means is determined, the divergence of the error does not occur far away. Therefore, according to the present invention, it is possible to detect a target such as a vehicle, a pedestrian, and an obstacle that are located far away with a simple configuration with the same accuracy as a target near the vehicle.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係るセンサフュージョン(物標検出装置)の概略構成を表したものである。このセンサフュージョンは、自動車やバイクなどの前方走行車や、歩行者、障害物などの物標を検出するシステムであり、例えば、自動車Cに搭載されるものである。   FIG. 1 shows a schematic configuration of a sensor fusion (target detection apparatus) according to an embodiment of the present invention. This sensor fusion is a system for detecting a forward traveling vehicle such as an automobile or a motorcycle, a target such as a pedestrian or an obstacle, and is mounted on the automobile C, for example.

このセンサフュージョンは、レーザレーダ1、ステレオカメラ2、制御部3、記憶部4を備えている。   This sensor fusion includes a laser radar 1, a stereo camera 2, a control unit 3, and a storage unit 4.

制御部3は、例えば、DSP(Digital Signal Processor)などにより構成され、ダレーザレーダ1およびステレオカメラ2によって得られた情報を処理して自動車Cの前方の物標の位置や種類などを所定の演算により特定するようになっている。記憶部4は、例えば、RAM(Random Access Memory)およびHD(hard disk)からなり、記憶部4には、センサフュージョンを校正するためのプログラムや、物標を検出するためのプログラムなどが格納されており、制御部3で得られた演算結果(例えば後述の物標リストなど)などが随時格納される。   The control unit 3 is configured by, for example, a DSP (Digital Signal Processor) and the like, and processes information obtained by the dalaser radar 1 and the stereo camera 2 to determine the position and type of the target ahead of the car C by a predetermined calculation. It has come to identify. The storage unit 4 includes, for example, a RAM (Random Access Memory) and an HD (hard disk), and the storage unit 4 stores a program for calibrating sensor fusion, a program for detecting a target, and the like. The calculation results obtained by the control unit 3 (for example, a target list to be described later) are stored as needed.

レーザレーダ1は、例えば自動車Cのバンパの中央部分などに取り付けられており、自動車Cの前方にレーザ光を放射すると共に、自動車Cの前方に放射したレーザ光の反射光を検出し、さらに、検出した反射光から自動車Cの前方に存在する物標の方位θ、距離dおよび相対速度vなどを計測するようになっている。   The laser radar 1 is attached to, for example, a central portion of a bumper of the automobile C, and radiates laser light in front of the automobile C, detects reflected light of the laser light emitted in front of the automobile C, and From the detected reflected light, the azimuth θ, the distance d, the relative speed v, and the like of the target existing in front of the automobile C are measured.

なお、一般に、レーザレーダは、ミリ波レーダに比べて高い検知能力を有しており、歩行者等の電波を反射しにくい物標についても測定可能である。また、視野角、分解能、追従性についても、一般に、レーザレーダの方がミリ波レーダよりも優れている。また、コストについても、一般に、レーザレーダの方がミリ波レーダよりも安価である。そこで、本実施の形態では、歩行者の検知と、コストとを重視してレーザレーダ1を用いる。   In general, the laser radar has a higher detection capability than the millimeter wave radar, and can measure a target such as a pedestrian that hardly reflects radio waves. In general, the laser radar is superior to the millimeter wave radar in terms of viewing angle, resolution, and followability. In terms of cost, laser radar is generally cheaper than millimeter wave radar. Therefore, in the present embodiment, the laser radar 1 is used with emphasis on pedestrian detection and cost.

ステレオカメラ2は、右カメラ21および左カメラ22を備えている。右カメラ21および左カメラ22は、例えば、電荷結合素子(CCD)からなり、例えば自動車Cのフロントガラスの内壁であって、互いに所定の間隔を隔てると共に、路面から同じ高さのところに取り付けられている。これにより、このステレオカメラ2は、自動車Cの前方を互いに異なる視点から撮影して、右カメラ21で撮影された2次元画像と左カメラ22で撮影された2次元画像とからなるステレオ画像を取得するようになっている。なお、右カメラ21および左カメラ22の光軸が互いに平行となっており、かつ各々の画像面が同一平面上にあることが好ましい。   The stereo camera 2 includes a right camera 21 and a left camera 22. The right camera 21 and the left camera 22 are composed of, for example, a charge coupled device (CCD), and are, for example, the inner walls of the windshield of the automobile C, are spaced from each other by a predetermined distance, and are mounted at the same height from the road surface. ing. As a result, the stereo camera 2 captures the front of the car C from different viewpoints, and obtains a stereo image composed of a two-dimensional image captured by the right camera 21 and a two-dimensional image captured by the left camera 22. It is supposed to be. In addition, it is preferable that the optical axes of the right camera 21 and the left camera 22 are parallel to each other, and the respective image planes are on the same plane.

次に、本実施の形態のセンサフュージョンにおける物標の検出方法について説明する。   Next, a method for detecting a target in the sensor fusion according to the present embodiment will be described.

図2は、記憶部4に格納されている、物標を検出するためのプログラムによって実行される各機能ブロックを表したものであり、図3は、図2に表された各機能のうち位置等取得手段10に含まれる各機能ブロックを表したものである。   FIG. 2 shows each functional block executed by a program for detecting a target stored in the storage unit 4, and FIG. 3 shows the position of each function shown in FIG. Each functional block included in the equal acquisition means 10 is represented.

まず、図2、図3に表した各機能ブロックについて説明する前に、(1)ステレオカメラ2およびレーザレーダ1の3次元座標系と、(2)占有フュージョンマップ(OFM:Occupancy Grid Map)と、(3)U−Disparity平面およびV−Disparity平面とについて説明する。   First, before describing each functional block shown in FIGS. 2 and 3, (1) a three-dimensional coordinate system of the stereo camera 2 and the laser radar 1, and (2) an occupancy fusion map (OFM) (3) The U-Disparity plane and the V-Disparity plane will be described.

(ステレオカメラ2およびレーザレーダ1の3次元座標系)
例えば、自動車Cの前方の物標T上の微小領域が右カメラ21の画面上の2次元座標(Xr,Yr)に投影されると共に、左カメラ22の画面上の2次元座標(Xl,Yl)に投影されたとする。このとき、これらの2次元座標(Xr,Yr),(Xl,Yl)を、ステレオカメラ2の3次元座標系の3次元座標(X,Y,Z)に変換する際には次の式(1)〜(4)を用いる。
(3D coordinate system of stereo camera 2 and laser radar 1)
For example, a small area on the target T in front of the car C is projected onto the two-dimensional coordinates (Xr, Yr) on the screen of the right camera 21 and the two-dimensional coordinates (Xl, Yl) on the screen of the left camera 22. ). At this time, when these two-dimensional coordinates (Xr, Yr), (Xl, Yl) are converted into three-dimensional coordinates (X, Y, Z) of the three-dimensional coordinate system of the stereo camera 2, the following formula ( 1) to (4) are used.

X=((Xl+Xr)/2)×(L/dc)…(1)
Y=Yl×L/dc…(2)
Z=f×L/dc…(3)
dc=Xl−Xr…(4)
X = ((Xl + Xr) / 2) × (L / dc) (1)
Y = Yl × L / dc (2)
Z = f × L / dc (3)
dc = X1-Xr (4)

ここで、dc(=Xl−Xr)が左右画像間のずれであり、両眼視差(または単に視差)という。Lはステレオカメラ2の基線長、すなわち、右カメラ21および左カメラ22のそれぞれの中心位置間の距離である。fはステレオカメラ2の焦点距離である。これらLおよびfは既知の値であるので、上の式(1)〜(4)により、左右画像上の投影座標から、上記微小領域の3次元座標(X,Y,Z)を求めることが出来る。また、ステレオカメラ2の3次元座標系の原点は、右カメラ21および左カメラ22のそれぞれの中心位置間の中点となっている。なお、式(3)から、奥行きZcについては視差がわかれば計算により求めることができる。このように,ステレオ画像の視差dcから奥行きZcを求め、物標の3次元空間における位置を検出する方法をステレオ視という。   Here, dc (= X1−Xr) is a shift between the left and right images, and is referred to as binocular parallax (or simply parallax). L is the baseline length of the stereo camera 2, that is, the distance between the center positions of the right camera 21 and the left camera 22. f is the focal length of the stereo camera 2. Since these L and f are known values, the three-dimensional coordinates (X, Y, Z) of the minute region can be obtained from the projected coordinates on the left and right images by the above equations (1) to (4). I can do it. Further, the origin of the three-dimensional coordinate system of the stereo camera 2 is a midpoint between the center positions of the right camera 21 and the left camera 22. It should be noted that the depth Zc can be obtained by calculation if the parallax is known from the equation (3). A method for obtaining the depth Zc from the parallax dc of the stereo image and detecting the position of the target in the three-dimensional space is called stereo vision.

また、自動車Cの前方の物標T上の微小領域がレーザレーダ1によって捕らえられたとする。このとき、レーザレーダ1が受信したレーダ情報(θ,dc,v)をレーダ座標系の3次元座標(Xm,Ym,Zm)へ変換する際には以下の式(5)〜(7)を用いる。   Further, it is assumed that a minute area on the target T in front of the automobile C is captured by the laser radar 1. At this time, when converting the radar information (θ, dc, v) received by the laser radar 1 into the three-dimensional coordinates (Xm, Ym, Zm) of the radar coordinate system, the following equations (5) to (7) are used. Use.

Xm=dc×sinθ…(5)
Ym=dc×cosθ×sinξ…(6)
Zm=dc×cosθ…(7)
Xm = dc × sin θ (5)
Ym = dc × cos θ × sin ξ (6)
Zm = dc × cos θ (7)

ここで、ξはレーザレーダ1の俯角である。なお、レーザレーダ1の3次元座標系の原点は、レーザレーダ1の中心位置となっている。   Here, ξ is the depression angle of the laser radar 1. Note that the origin of the three-dimensional coordinate system of the laser radar 1 is the center position of the laser radar 1.

上記したように、レーザレーダ1およびステレオカメラ2のそれぞれの3次元座標系の原点は、これらレーザレーダ1およびステレオカメラ2の設置する場所の違いに起因して多少ずれている。しかし、そのずれを補正する変換行列Nを用いることにより、レーダ座標系の3次元座標(Xm,Ym,Zm)をステレオカメラ2の3次元座標系の3次元座標(X,Y,Z)へ変換することができる。このとき用いる式を以下に示す。   As described above, the origins of the three-dimensional coordinate systems of the laser radar 1 and the stereo camera 2 are slightly deviated due to the difference in location where the laser radar 1 and the stereo camera 2 are installed. However, by using the transformation matrix N that corrects the deviation, the three-dimensional coordinates (Xm, Ym, Zm) of the radar coordinate system are changed to the three-dimensional coordinates (X, Y, Z) of the three-dimensional coordinate system of the stereo camera 2. Can be converted. The formula used at this time is shown below.

λ×[X,Y,Z]=N[Xm,Ym,Zm]…(8)   λ × [X, Y, Z] = N [Xm, Ym, Zm] (8)

ここで、λは斎次カメラ座標系用係数である。また、変換行列Nは、レーザレーダ1およびステレオカメラ2に対してキャリブレーションを行うことにより算出することができる。   Here, λ is a coefficient for the Saisei camera coordinate system. Further, the conversion matrix N can be calculated by calibrating the laser radar 1 and the stereo camera 2.

(占有フュージョンマップ(OFM))
OFMは、一般的には、物標表面の各点の3次元座標に基づいて測定点を水平平面に投影し、座標軸を等間隔で区切ることにより水平平面内内に形成される格子状に配置されたセル内に投影される測定点の数を累積することによって得られるものであり、このOFMに対してクラスタリング処理を行うことにより物標を抽出することができる。
(Occupied Fusion Map (OFM))
OFM is generally arranged in a grid formed within a horizontal plane by projecting measurement points onto the horizontal plane based on the three-dimensional coordinates of each point on the target surface and dividing the coordinate axes at equal intervals. It is obtained by accumulating the number of measurement points projected in the cell, and a target can be extracted by performing a clustering process on this OFM.

もっとも、従来、OFMを取得する際には、水平平面を投影用フュージョンマップとして用いていたため、セルに投影し加算する際に、ステレオ視の遠近誤差の相違に起因して遠方で発散したり、ステレオカメラ単独で物標の位置を計測した場合には遠方の障害物領域を特定しにくくなり、また、物標同士の領域がつながり易く物標同士を分割しにくいという問題があった。そこで、本実施の形態では、OFMを取得する際に、U−Disparity平面を投影用フュージョンマップとして用いる。   However, conventionally, when acquiring an OFM, the horizontal plane was used as a projection fusion map, so when projecting and adding to a cell, it diverges in the distance due to the difference in stereo vision perspective error, When the position of a target is measured with a stereo camera alone, it is difficult to specify a distant obstacle area, and there is a problem that the areas of the targets are easily connected and it is difficult to divide the targets. Therefore, in the present embodiment, when the OFM is acquired, the U-Disparity plane is used as a projection fusion map.

(U−Disparity平面およびV−Disparity平面)
このX−Disparity平面とは、横軸xをステレオカメラ2の3次元座標系の横座標とし、縦軸yを視差とするxy平面のことである(図5(A),(B)、図6(A),(B)参照)。座標軸を等間隔で区切ることによりこのxy平面内に形成される格子状に配置されたセルは、実世界では縦軸y方向において不均等なサイズを持っている。そのため、自動車Cに近づくほど、解像度が大きくなり、実サイズが小さくなる。
(U-Disparity plane and V-Disparity plane)
The X-Disparity plane is an xy plane in which the horizontal axis x is the abscissa of the three-dimensional coordinate system of the stereo camera 2 and the vertical axis y is parallax (FIGS. 5A and 5B). 6 (A) and (B)). Cells arranged in a grid formed in the xy plane by dividing coordinate axes at equal intervals have unequal sizes in the y-axis direction in the real world. Therefore, the closer to the car C, the larger the resolution and the smaller the actual size.

上記X−Disparity平面の他に、V−Disparity平面というxy平面もある。このV−Disparity平面とは、横軸xを視差とし、縦軸yをステレオカメラ2の3次元座標系の縦座標とするxy平面のことである(図4(A),(B)参照)。   In addition to the X-Disparity plane, there is an xy plane called a V-Disparity plane. The V-Disparity plane is an xy plane in which the horizontal axis x is parallax and the vertical axis y is the ordinate of the three-dimensional coordinate system of the stereo camera 2 (see FIGS. 4A and 4B). .

これらU−Disparity平面およびV−Disparity平面上にステレオ画像から導出された視差画像を投影することにより、3次元分布を直線で表現できるため、3次元分布の解析が簡単になる。   By projecting a parallax image derived from a stereo image onto the U-Disparity plane and the V-Disparity plane, the three-dimensional distribution can be expressed by a straight line, so that the analysis of the three-dimensional distribution is simplified.

次に、図2を参照して、物標の検出方法について説明する。   Next, a method for detecting a target will be described with reference to FIG.

まず、制御部3は、レーザレーダ1からレーダ情報A0を取得すると共に、ステレオカメラ2からステレオ画像B0を取得したのち、レーダ情報A0から第1視差C0を導出すると共に、ステレオ画像B0から第2視差D0を導出する。   First, the control unit 3 acquires the radar information A0 from the laser radar 1, acquires the stereo image B0 from the stereo camera 2, and then derives the first parallax C0 from the radar information A0 and the second from the stereo image B0. The parallax D0 is derived.

次に、位置等取得手段10において、レーダ情報A0と、ステレオ画像B0と、第1視差C0と、第2視差D0または後述の視差修正手段80で修正された後の第2視差E0とから各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を導出すると共に、ステレオカメラ2における3次元座標系の3次元座標J0とをステレオ画像B0の画素ごとに導出する。   Next, in the position etc. acquiring means 10, each of the radar information A0, the stereo image B0, the first parallax C0, and the second parallax E0 after being corrected by the second parallax D0 or the parallax correcting means 80 described later. The position F0, the width G0, and the height H0 of the target candidate T on the stereo image B0 are derived, and the three-dimensional coordinate J0 of the three-dimensional coordinate system in the stereo camera 2 is derived for each pixel of the stereo image B0.

次に、位置等修正手段20において、位置等取得手段10で導出された各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を利用して各物標候補領域の2次元画像K0をステレオ画像B0から切り出すと共に、切り出した2次元画像K0から導出される視差を第2視差D0から切り出す。   Next, the position correction means 20 uses the position F0, the width G0, and the height H0 on the stereo image B0 of each target candidate T derived by the position etc. acquisition means 10 to obtain 2 of each target candidate area. The dimensional image K0 is cut out from the stereo image B0, and the parallax derived from the cut out two-dimensional image K0 is cut out from the second parallax D0.

次に、切り出した2次元画像B0のうち、第2視差D0のうち当該切り出した2次元画像B0から導出された視差と第1視差A0のうち当該切り出した2次元画像B0に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる部分の第1部分画像N0を用いて、位置等取得手段10で導出された各物標候補Tのステレオ画像B0上の位置F0および幅G0ならびに高さH0を修正して、新たな位置F1および幅G1ならびに高さH1を取得する。   Next, in the cut-out two-dimensional image B0, the disparity derived from the cut-out two-dimensional image B0 in the second disparity D0 and the region corresponding to the cut-out two-dimensional image B0 in the first disparity A0 On the stereo image B0 of each target candidate T derived by the position etc. acquiring means 10 using the first partial image N0 of the part that is the same or almost the same as each other in comparison with the parallax of the target candidate. The position F0, the width G0, and the height H0 are corrected to obtain a new position F1, the width G1, and the height H1.

次に、種類判別手段30において、位置等修正手段20で切り出された2次元画像K0または第1部分画像N0を用いて各物標候補Tの種類P0を判別する。   Next, the type discriminating unit 30 discriminates the type P0 of each target candidate T using the two-dimensional image K0 or the first partial image N0 cut out by the position correcting unit 20.

例えば、物標候補Tが歩行者であるか否かを判定する初期判定として、例えばモデルマッチングを行う。例えば、典型的な歩行者の輪郭およびその対称輪郭のセットを複数種類用意し、さらに各セットの遠近中の輪郭のセットも用意し、これらを用いてエッジベースのモデルマッチングを行うことで初期判定を行う。その結果、マッチング率が高かった物標候補Tについては、物標追跡手段60にまわし、マッチング率があまり高くなかった物標候補Tについては、次の詳細判定にまわし、マッチング率が低かった物標候補Tについては、削除する。なお、初期判定において、第1部分画像N0を用いた場合には、背景による影響をなくすることができるので、その分だけマッチング率を向上させることができる。   For example, model matching is performed as an initial determination for determining whether or not the target candidate T is a pedestrian. For example, multiple types of typical pedestrian contours and their symmetrical contour sets are prepared, and each set of perspective contours is also prepared, and these are used for initial judgment by edge-based model matching. I do. As a result, the target candidate T having a high matching rate is sent to the target tracking means 60, and the target candidate T having a low matching rate is sent to the next detailed determination, and the matching rate is low. The target candidate T is deleted. In the initial determination, when the first partial image N0 is used, the influence of the background can be eliminated, and the matching rate can be improved accordingly.

詳細判定では、例えば、2次元画像K0または第1部分画像N0の各ピクセルのエッジの大きさと方向を用いて識別を行う。具体的には、それぞれのエッジにおける歩行者である確率と非歩行者である確率を用いて、画像全体での歩行者である確率と非歩行者である確率を算出し、その比率により歩行者の識別を行うことが可能である。   In the detailed determination, for example, identification is performed using the edge size and direction of each pixel of the two-dimensional image K0 or the first partial image N0. Specifically, using the probability of being a pedestrian and the probability of being a non-pedestrian at each edge, the probability of being a pedestrian and the probability of being a non-pedestrian in the entire image is calculated, and the pedestrian is calculated based on the ratio. Can be identified.

次に、物標リスト登録手段40において、種類判別手段30で種類が判別された各物標候補Tのステレオ画像B0上の位置F1および幅G1と、高さH1と、種類P0と、物標候補領域の2次元画像K0と、ステレオカメラ2における3次元座標系の3次元座標M0とを物標リスト50に登録する。   Next, in the target list registration unit 40, the position F1 and the width G1, the height H1, the type P0, and the target on the stereo image B0 of each target candidate T whose type has been determined by the type determination unit 30. The two-dimensional image K0 of the candidate area and the three-dimensional coordinate M0 of the three-dimensional coordinate system in the stereo camera 2 are registered in the target list 50.

次に、物標追跡手段60において、新たに取得したステレオ画像B1内に存在していると予想される各物標候補Tの予想位置を含む領域の2次元画像を、物標リスト50に記録されている各物標候補Tのステレオ画像B0上の位置F2および幅G2と、高さH2と、種類P2と、ステレオカメラ2における3次元座標系の3次元座標M2とに基づいて、新たに取得したステレオ画像B1から切り出し、切り出した2次元画像に含まれていると予想される各物標候補Tと、物標リスト50に記録されている各物標候補Tとの相関性を所定の方法により評価する。   Next, in the target tracking unit 60, a two-dimensional image of a region including the predicted position of each target candidate T that is predicted to exist in the newly acquired stereo image B1 is recorded in the target list 50. Based on the position F2 and width G2 on the stereo image B0 of each target candidate T, the height H2, the type P2, and the three-dimensional coordinates M2 of the three-dimensional coordinate system in the stereo camera 2 The correlation between each target candidate T that is cut out from the acquired stereo image B1 and is expected to be included in the cut out two-dimensional image and each target candidate T that is recorded in the target list 50 is determined in advance. Evaluate by method.

ここで、上記予想位置を、例えば、過去に取得された複数のステレオ画像における各物標候補Tの位置から得られる速度ベクトルを用いて導出することが可能である。また、相関性については、例えば、物標リスト50に含まれる各物標候補Tの2次元画像を正規化してグレースケールモデルに変換し、このグレースケールモデルと、物標追跡手段60から導出される各物標候補Tの予想位置を中心とする所定のサイズの2次元画像との相関スコアを求め、この相関スコアの大きさに応じて評価することが可能である。   Here, it is possible to derive the predicted position using, for example, a velocity vector obtained from the position of each target candidate T in a plurality of stereo images acquired in the past. Further, the correlation is derived from, for example, the two-dimensional image of each target candidate T included in the target list 50 and converted to a gray scale model, and this gray scale model and the target tracking means 60. It is possible to obtain a correlation score with a two-dimensional image of a predetermined size centered on the predicted position of each target candidate T and evaluate it according to the magnitude of this correlation score.

そして、評価の結果、双方の相関性が極めて高いと評価した場合には、相関性の高い物標候補T(特定物標T1)の予想位置を含む領域の2次元画像のうち、当該予想位置を含む領域の2次元画像から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち当該予想位置を含む領域の2次元画像に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差に対応する第2部分画像を用いて、特定物標T1の位置F2および幅G2ならびに高さH2を、新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3に修正する。さらに、特定物標T1のステレオカメラ2における3次元座標系の3次元座標M3を取得し、修正により得られた特定物標T1の新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3を利用して、特定物標T1の物標候補領域の2次元画像K3を、新たに取得したステレオ画像B1から切り出す。   As a result of the evaluation, when it is evaluated that the correlation between the two is extremely high, the predicted position in the two-dimensional image of the region including the predicted position of the target candidate T (specific target T1) having a high correlation is obtained. Target candidates in a region corresponding to the two-dimensional image of the region including the predicted position among the parallax derived from the two-dimensional image of the region including the first parallax C1 derived from the newly acquired radar information A1 Using the second partial image corresponding to the parallax in which both of them are the same or substantially the same as the parallax of T, the position F2 and the width G2 and the height H2 of the specific target T1 are newly acquired. The position is corrected to a position F3, a width G3 and a height H3 on the image B1. Furthermore, the three-dimensional coordinate M3 of the three-dimensional coordinate system in the stereo camera 2 of the specific target T1 is acquired, and the position F3 and the width G3 on the newly acquired stereo image B1 of the specific target T1 obtained by the correction and the high The two-dimensional image K3 of the target candidate area of the specific target T1 is cut out from the newly acquired stereo image B1 using the height H3.

また、評価の結果、双方の相関性が極めて高いとは言えないものの比較的高いと評価した場合には、相関性の比較的高い物標候補T(準特定物標T2)の新たに取得したステレオ画像B1上の位置F4および幅G4ならびに高さH4と、物標候補領域の2次元画像K4と、ステレオカメラ2における3次元座標系の3次元座標M4とを、前記特定物標に対する上記処理と同様の処理を行うことにより取得したのち、取得した準特定物標T2の物標候補領域の2次元画像K4を用いて準特定物標T2の種類P4を判別する。   In addition, as a result of the evaluation, if the correlation between the two is not very high but is evaluated as relatively high, a target candidate T (quasi-specific target T2) having a relatively high correlation is newly acquired. The position F4 and width G4 and height H4 on the stereo image B1, the two-dimensional image K4 of the target candidate region, and the three-dimensional coordinate M4 of the three-dimensional coordinate system in the stereo camera 2 are processed for the specific target. After obtaining by performing the same processing as, the type P4 of the semi-specific target T2 is determined using the two-dimensional image K4 of the target candidate area of the obtained semi-specific target T2.

次に、物標リスト登録手段40において、上記物標追跡手段60で種類が判別された各物標候補T(順特定物標T2)のステレオ画像B1上の位置F4および幅G4と、高さH4と、種類P4と、物標候補領域の2次元画像K4と、ステレオカメラ2における3次元座標系の3次元座標M4とを物標リスト50に登録する。   Next, in the target list registration means 40, the position F4 and width G4 on the stereo image B1 of each target candidate T (order specific target T2) whose type has been determined by the target tracking means 60, and the height. H4, the type P4, the two-dimensional image K4 of the target candidate area, and the three-dimensional coordinates M4 of the three-dimensional coordinate system in the stereo camera 2 are registered in the target list 50.

なお、物標リスト50に含まれる物標のうち物標追跡手段60において相関性が高い対応領域が見つからない物標が所定の条件を満たしたときには、当該物標を物標リスト50から削除することが好ましい。   When a target for which a corresponding area with high correlation is not found in the target tracking unit 60 among the targets included in the target list 50 satisfies a predetermined condition, the target is deleted from the target list 50. It is preferable.

次に、物標リスト更新手段70は、物標リスト50において、物標追跡手段60で導出された特定物標T1のステレオ画像B1上の位置F3および幅G3と、高さH3と、物標候補領域の2次元画像K3と、ステレオカメラ2における3次元座標系の3次元座標M3とを更新する。   Next, the target list update unit 70 includes a position F3 and a width G3 on the stereo image B1 of the specific target T1 derived by the target tracking unit 60 in the target list 50, a height H3, and a target. The two-dimensional image K3 of the candidate area and the three-dimensional coordinate M3 of the three-dimensional coordinate system in the stereo camera 2 are updated.

次に、視差修正手段80において、新たに取得したステレオ画像B1から導出された第2視差D1のうち、物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち物標追跡手段60で切り出された特定物標T1の物標候補領域の2次元画像K3に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更する。   Next, in the parallax correction means 80, the 2D image K3 of the target candidate area of the specific target T1 cut out by the target tracking means 60 out of the second parallax D1 derived from the newly acquired stereo image B1. Corresponding to the two-dimensional image K3 of the target candidate area of the specific target T1 cut out by the target tracking means 60 out of the first parallax C1 derived from the newly acquired radar information A1. Contrast with the parallax of the target candidate T in the area is changed to zero so that both are the same or substantially the same.

このとき、新たに取得したステレオ画像B1から導出された第2視差D1のうち、物標追跡手段60で切り出された準特定物標T2の物標候補領域の2次元画像K4から導出される視差と、新たに取得したレーダ情報A1から導出された第1視差C1のうち物標追跡手段60で切り出された準特定物標T2の物標候補領域の2次元画像K4に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる視差をゼロに変更してもよい。   At this time, among the second parallax D1 derived from the newly acquired stereo image B1, the parallax derived from the two-dimensional image K4 of the target candidate area of the semi-specific target T2 cut out by the target tracking means 60. And an object in an area corresponding to the two-dimensional image K4 of the target candidate area of the semi-specific target T2 extracted by the target tracking means 60 out of the first parallax C1 derived from the newly acquired radar information A1. Contrast with the parallax of the target candidate T may be changed to zero when both are the same or substantially the same.

次に、図3を参照して、図2の位置等取得手段10の詳細について説明する。   Next, the details of the position etc. acquiring means 10 of FIG. 2 will be described with reference to FIG.

まず、第1位置情報取得手段110において、ステレオカメラ2における3次元座標系の3次元座標m0をステレオ画像B0の画素ごとに取得する。   First, the first position information acquisition unit 110 acquires the three-dimensional coordinate m0 of the three-dimensional coordinate system in the stereo camera 2 for each pixel of the stereo image B0.

次に、直線取得手段111において、ステレオ画像B0における各画素を、ステレオ画像B0から導出された第2視差D0または後述の視差修正手段80で修正された後の第2視差E0およびステレオ画像B0の縦座標が所定の間隔で区切られた複数のセルのうち各画素の第2視差D0,E0およびステレオ画像B0の縦座標が含まれるセルに振り分ける。   Next, in the straight line acquisition unit 111, each pixel in the stereo image B0 is converted into the second parallax D0 derived from the stereo image B0 or the second parallax E0 and the stereo image B0 after being corrected by the parallax correcting unit 80 described later. Among a plurality of cells whose ordinates are separated by a predetermined interval, the cells are distributed to cells including the second parallax D0, E0 of each pixel and the ordinate of the stereo image B0.

続いて、第2視差をx軸とし、ステレオ画像B0の縦座標をy軸とし、セルごとの画素の数をz軸としたときの3次元分布(図4(A)参照)においてz軸の値を2値化処理し、xy平面において第2視差D0,E0がゼロとなる直線L2(y軸)と交差する路面領域に相当する斜めの直線L1を検出する。   Subsequently, in the three-dimensional distribution (see FIG. 4A) where the second parallax is the x axis, the ordinate of the stereo image B0 is the y axis, and the number of pixels per cell is the z axis (see FIG. 4A), The value is binarized, and an oblique straight line L1 corresponding to a road surface area intersecting with the straight line L2 (y axis) where the second parallaxes D0 and E0 are zero in the xy plane is detected.

次に、俯角情報取得手段112において、直線L1と直線L2(y軸)との交差点のx座標Vを導出し(図4(B)参照)、このx座標Vと、ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出する。 Next, the depression angle information acquisition unit 112 derives the x coordinate V 0 of the intersection of the straight line L1 and the straight line L2 (y axis) (see FIG. 4B), and the x coordinate V 0 and the focal point of the stereo camera. The depression angle α of the stereo camera is derived using the distance f.

次に、視差情報削除手段113において、直線L1上の各点の第2視差D0,E0およびx座標ならびに直線L1近傍の各点の視差D0,E0およびx座標を有する各画素の第2視差をゼロに補正する。   Next, in the parallax information deletion unit 113, the second parallax of each pixel having the second parallax D0, E0 and x coordinate of each point on the straight line L1 and the parallax D0, E0 and x coordinate of each point near the straight line L1 is obtained. Correct to zero.

次に、占用度情報取得手段114において、視差情報削除手段113により補正された後の第2視差Q0および第1位置情報取得手段110で得られた3次元座標の横座標m1を用いて、ステレオ画像B0における各画素を、第2視差Q0および3次元座標の横座標m1が所定の間隔で区切られた複数のセルのうち各画素の第2視差Q0および3次元座標の横座標m1が含まれるセルに振り分ける。続いて、3次元座標の横座標m1をx軸とし、第2視差Q0をy軸とし、各セルごとの画素の数(占用度)をz軸としたときの3次元分布R0において、各セルに含まれる画素の3次元座標の縦座標m1の最大値S0および平均値S1を各セルごとに算出する。   Next, the occupancy degree information acquisition unit 114 uses the second parallax Q0 corrected by the parallax information deletion unit 113 and the abscissa m1 of the three-dimensional coordinates obtained by the first position information acquisition unit 110 to perform stereo. Each pixel in the image B0 includes the second parallax Q0 and the abscissa m1 of the three-dimensional coordinate of each pixel among a plurality of cells in which the second parallax Q0 and the abscissa m1 of the three-dimensional coordinate are separated at a predetermined interval. Sort into cells. Subsequently, in the three-dimensional distribution R0 where the abscissa m1 of the three-dimensional coordinates is the x-axis, the second parallax Q0 is the y-axis, and the number of pixels (occupancy) for each cell is the z-axis, each cell The maximum value S0 and the average value S1 of the ordinate m1 of the three-dimensional coordinates of the pixels included in are calculated for each cell.

次に、第1物標取得手段115において、占用度情報取得手段114で導出された3次元分布R0において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、上記固まりに含まれるセルの最高値S0および平均値S1とを用いて、検出対象物ごとに決められた所定ルールで上記固まりを物標候補Tとして抽出し、そのxy平面上の中心位置U0および幅U1を取得する(図5(A),(B)参照)。   Next, in the first target acquisition unit 115, in the three-dimensional distribution R0 derived by the occupation level information acquisition unit 114, the z-axis value is smoothed and binarized, and the z-axis value is higher than a predetermined threshold value. Using the width and area of the cell mass in the x-axis direction and the maximum value S0 and the average value S1 of the cells included in the mass, the mass is converted into a target candidate T according to a predetermined rule determined for each detection target. To obtain the center position U0 and the width U1 on the xy plane (see FIGS. 5A and 5B).

ここで、第1物標取得手段115において、例えば、上記所定の閾値の初期値として経験値を使用し、各物標候補Tの認識後に得られた占用度の大きさに応じた値を随時使用することが可能である。   Here, in the first target acquisition unit 115, for example, an empirical value is used as the initial value of the predetermined threshold, and a value corresponding to the degree of occupancy obtained after the recognition of each target candidate T is obtained as needed. It is possible to use.

次に、第2位置情報取得手段116において、レーザレーダ1によって得られたレーダ情報A0を俯角αを利用して補正したのち、補正後のレーダ情報A1から第1視差C0とステレオカメラ2における3次元座標系の3次元座標V0とを取得する。   Next, in the second position information acquisition unit 116, the radar information A0 obtained by the laser radar 1 is corrected using the depression angle α, and then the first parallax C0 and 3 in the stereo camera 2 are determined from the corrected radar information A1. The three-dimensional coordinate V0 of the dimensional coordinate system is acquired.

次に、第2物標取得手段117において、第2位置情報取得手段116で得られた3次元座標V0の横座標をx軸とし、第2位置情報取得手段116で得られた第1視差C0をy軸としたときに、所定のルールで各物標候補Tのxy平面上の中心位置U2および幅U3を取得する(図6(A),(B)参照)。   Next, in the second target acquisition unit 117, the abscissa of the three-dimensional coordinate V0 obtained by the second position information acquisition unit 116 is the x axis, and the first parallax C0 obtained by the second position information acquisition unit 116 is obtained. Is the y-axis, the center position U2 and the width U3 of each target candidate T on the xy plane are acquired according to a predetermined rule (see FIGS. 6A and 6B).

次に、第3物標導出手段118において、第1物標取得手段115で得られた各物標候補Tのxy平面上の中心位置U0および幅U1と、第2物標取得手段117で得られた各物標候補Tのxy平面上の中心位置U2および幅U3とを対比して、第1物標取得手段115で得られた各物標候補Tの存否を判定する。その結果、存在すると判定した各物標候補Tのステレオ画像B0上の位置F0および幅G0を、第1物標取得手段115で得られたxy平面上の中心位置U0および幅U1と、第2物標取得手段117で得られたxy平面上の中心位置U2および幅U3とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅をステレオ画像B0上の位置および幅に変換することにより取得する。さらに、存在すると判定した各物標候補Tの高さH0を、第1位置情報取得手段110で得られた3次元座標の縦座標m2から取得する。   Next, the third target deriving unit 118 obtains the center position U0 and the width U1 on the xy plane of each target candidate T obtained by the first target obtaining unit 115 and the second target obtaining unit 117. The presence or absence of each target candidate T obtained by the first target acquisition means 115 is determined by comparing the center position U2 and the width U3 on the xy plane of each target candidate T obtained. As a result, the position F0 and the width G0 of each target candidate T determined to be present on the stereo image B0, the center position U0 and the width U1 on the xy plane obtained by the first target acquisition means 115, and the second The center position U2 and the width U3 on the xy plane obtained by the target acquisition means 117 are weighted and averaged according to a predetermined rule, and the center position and width on the xy plane obtained by the weighted average are positions on the stereo image B0. And by converting to width. Further, the height H0 of each target candidate T determined to be present is acquired from the ordinate m2 of the three-dimensional coordinate obtained by the first position information acquisition unit 110.

なお、第3物標導出手段118において、レーザレーダ1およびステレオカメラ2の、第1物標取得手段110のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決めることが可能である。   Note that the third target deriving unit 118 can determine a weighted average rule according to the measurement resolution of the laser radar 1 and the stereo camera 2 on the xy plane of the first target acquiring unit 110.

また、第3物標導出手段118において、レーダゴーストを検出するようにしてもよい。具体的には、第2物標取得手段116で取得された各物標候補Tのうち存在すると判定した物標候補Tを除いた残留物標候補のステレオ画像B0上の位置および幅と、あらかじめ規定された高さH0とを利用して、ステレオ画像B0から残留物標候補の2次元画像を切り出す。続いて、切り出した2次元画像のうち、第2視差D0のうち当該切り出した2次元画像から導出された視差と第1視差C0のうち当該切り出した2次元画像に対応する領域内の物標候補Tの視差とを対比して双方が互いに同一またはほぼ同一となる部分の画素数が所定の閾値より小さい場合には、その残留物標候補が存在すると判定する。そして、存在すると判定した残留物標候補のステレオ画像B0上の位置F0および幅G0を、第2物標取得手段117で得られたxy平面上の中心位置U2および幅U3をステレオ画像B0上の位置および幅に変換することにより取得する。   The third target deriving unit 118 may detect a radar ghost. Specifically, among the target candidates T acquired by the second target acquisition means 116, the positions and widths of the residual target candidates on the stereo image B0 excluding the target candidates T determined to exist, A two-dimensional image of the residual target candidate is cut out from the stereo image B0 using the specified height H0. Subsequently, among the cut-out two-dimensional images, the target candidates in the region corresponding to the cut-out two-dimensional image of the first parallax C0 and the parallax derived from the cut-out two-dimensional image of the second parallax D0. In contrast to the parallax of T, when the number of pixels in a portion where both are the same or substantially the same is smaller than a predetermined threshold value, it is determined that the residual target candidate exists. Then, the position F0 and width G0 on the stereo image B0 of the residual target candidate determined to exist are displayed on the stereo image B0, and the center position U2 and width U3 on the xy plane obtained by the second target acquisition unit 117 are displayed on the stereo image B0. Obtained by converting to position and width.

本実施の形態のセンサフュージョンでは、物標を検出するために、ステレオカメラ2の他にレーザレーダ1が用いられる。これにより、歩行者のようなミリ波レーダ信号が反射しにくい物標の検出や認識が可能となるので、簡易な構成で、車両遠方に存在する車両、歩行者、障害物などの物標を検出することができる。また、上記した第1部分画像を用いて、特定物標T1の位置F2および幅G2ならびに高さH2が、新たに取得したステレオ画像B1上の位置F3および幅G3ならびに高さH3に修正される。ここで、第1部分画像は物標候補領域の2次元画像から背景画像が除去されたものに相当することから、物標候補Tが背景画像に紛れてしまい、物標候補Tの位置等に誤差が生じることをなくすることができる。   In the sensor fusion of the present embodiment, the laser radar 1 is used in addition to the stereo camera 2 in order to detect a target. This makes it possible to detect and recognize targets such as pedestrians that are difficult to reflect millimeter-wave radar signals, so it is possible to select targets such as vehicles, pedestrians, and obstacles that are far away from the vehicle with a simple configuration. Can be detected. In addition, using the first partial image described above, the position F2 and the width G2 and the height H2 of the specific target T1 are corrected to the position F3 and the width G3 and the height H3 on the newly acquired stereo image B1. . Here, since the first partial image corresponds to the two-dimensional image of the target candidate region obtained by removing the background image, the target candidate T is confused with the background image, and the position of the target candidate T is determined. It is possible to eliminate an error.

また、本実施の形態では、各物標候補Tの経時変化を追跡する際に、物標候補Tの位置および幅と、高さと、ステレオカメラ2における3次元座標系の3次元座標とを用いるだけでなく、物標候補の種類も用いているので、物標の検出や認識を高精度に行うことができる。   In the present embodiment, the position and width of the target candidate T, the height, and the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera 2 are used when tracking the temporal change of each target candidate T. In addition, since the types of target candidates are also used, it is possible to detect and recognize the target with high accuracy.

また、本実施の形態では、相関性が高いと評価された場合には、新たに取得したステレオ画像から導出された第2視差のうち、物標追跡手段で切り出された特定物標の物標候補領域の2次元画像から導出される視差と新たに取得したレーダ情報から導出された第1視差のうち物標追跡手段で切り出された特定物標の物標候補領域の2次元画像に対応する領域内の物標候補の視差とを対比して双方が互いに同一またはほぼ同一となる視差がゼロに変更される。例えば、図7(A)から図7(B)のように変更される。これにより、新たに取得したステレオ画像から導出された第2視差において特定物標が削除され、その部分が背景となるので、特定物標を、新たに取得したステレオ画像上の位置および幅ならびに高さを導出する対象から除外することが可能となる。これにより、特定物標を、位置等を導出する対象としている場合と比べて演算処理に要する時間を大幅に短縮することができるだけでなく、物標候補同士がステレオ画面上で互いに近接した場合であってもそれぞれの位置、幅、高さ、種類などを導出することができる。   In the present embodiment, when the correlation is evaluated to be high, the target of the specific target extracted by the target tracking unit out of the second parallax derived from the newly acquired stereo image. Corresponds to the two-dimensional image of the target candidate area of the specific target extracted by the target tracking means out of the parallax derived from the two-dimensional image of the candidate area and the first parallax derived from the newly acquired radar information Contrast with the parallax of the target candidates in the area is changed to zero, which is the same or almost the same as each other. For example, the configuration is changed from FIG. 7A to FIG. 7B. As a result, the specific target is deleted in the second parallax derived from the newly acquired stereo image, and that portion becomes the background. It is possible to exclude it from the object from which it is derived. As a result, it is possible not only to greatly reduce the time required for calculation processing compared to the case where a specific target is a target for deriving a position, etc., but also when target candidates are close to each other on a stereo screen. Even if it exists, each position, width, height, type, etc. can be derived.

従って、本実施の形態では、簡易な構成で、互いに近接する車両、歩行者、障害物などの物標同士を短時間で検出することができる。   Therefore, in the present embodiment, targets such as vehicles, pedestrians, and obstacles that are close to each other can be detected in a short time with a simple configuration.

[変形例]
上記実施の形態では、ステレオカメラ2を用いていたが、その代わりに、例えば、車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサを用いることも可能である。ただし、この場合には、上記実施の形態において、「ステレオ画像」を「単一画像」に読み替えることが必要となる。また、上記実施の形態において「ステレオ画像から切り出した2次元画像から導出される視差」は、単一画像から切り出した2次元画像およびこれに対応する被写体までの距離から導出することが可能である。
[Modification]
In the above embodiment, the stereo camera 2 is used, but instead, for example, an optical time-of-flight distance sensor that acquires a single image ahead of the vehicle and a distance to the subject can be used. However, in this case, it is necessary to replace “stereo image” with “single image” in the above embodiment. In the above embodiment, “parallax derived from a two-dimensional image cut out from a stereo image” can be derived from a two-dimensional image cut out from a single image and a distance to the corresponding subject. .

[実施例]
上記実施の形態およびその変形例に係るセンサフュージョンによる物標検出の有効性を検証するために、シミュレーション環境(障害物の少ない駐車場)での歩行者検知を行った。対象歩行者は、表1に示したような動作を行った。また、センサを車載した車両を停止した状態での撮影、低速走行状態での撮影の違いを含めた計10シーンを対象とした。また、表2に示したように、実道路環境に存在する様々な歩行者を対象として実験を行った。市街地を走行しながら撮影したシーンから、信号、細道、歩道上等の歩行者の計10シーンを選出し、評価シーンとした。
[Example]
In order to verify the effectiveness of the target detection by the sensor fusion according to the above embodiment and its modification, pedestrian detection was performed in a simulation environment (a parking lot with few obstacles). The target pedestrian performed an operation as shown in Table 1. In addition, a total of 10 scenes including the difference between shooting in a state in which a vehicle equipped with a sensor is stopped and shooting in a low-speed traveling state are targeted. In addition, as shown in Table 2, experiments were conducted on various pedestrians existing in an actual road environment. A total of 10 scenes of pedestrians such as traffic lights, narrow paths, and sidewalks were selected from scenes shot while traveling in the city, and used as evaluation scenes.

Figure 0005145585
Figure 0005145585

Figure 0005145585
Figure 0005145585

シミュレーション環境での実験結果を表3、表4に示した。シミュレーション環境では、周辺の偽障害物が少ないため、高い検出率および認識率を得ることができた。   The experimental results in the simulation environment are shown in Tables 3 and 4. In the simulation environment, there were few false obstacles in the vicinity, so a high detection rate and recognition rate could be obtained.

Figure 0005145585
Figure 0005145585

Figure 0005145585
Figure 0005145585

また、実道路環境での実験結果を表5、表6に示した。路上実験のROI平均検出率は85.19%で、認識率は72.09%となった。原画像、視差画像の精度が低下した場合に、シミュレーション環境の場合よりも認識率が低下する。日光、影の関係から輝度値が上下どちらかに大きく変動している場合は、画像自体が悪化してしまうので、ステレオカメラにおける対象物のテクスチャー消失により視差が計測されない場合や、ノイズを多く含んだ視差画像になる場合がある。これらのシーンでは視差画像の精度低下が、直接、認識率低下へつながっている。この問題を解決するためには、カメラ撮影による画像取得後,視差計算の前処理として輝度値の自動計測とその結果による自動補正を行う必要がある。もしくは、それらの演算による負荷を避けるために、自動輝度調整機能を備えるカメラを使用するという解決手段も考えられる。   Tables 5 and 6 show the results of experiments in an actual road environment. The ROI average detection rate of the road experiment was 85.19%, and the recognition rate was 72.09%. When the accuracy of the original image and the parallax image is reduced, the recognition rate is lower than in the simulation environment. If the brightness value fluctuates up or down due to the relationship between sunlight and shadows, the image itself will deteriorate, so the parallax may not be measured due to the texture loss of the object in the stereo camera, or it may contain a lot of noise. There may be a parallax image. In these scenes, the reduction in the accuracy of the parallax images directly leads to a reduction in the recognition rate. In order to solve this problem, it is necessary to perform automatic measurement of luminance values and automatic correction based on the result as preprocessing of parallax calculation after image acquisition by camera photography. Alternatively, in order to avoid a load due to these calculations, a solution means that a camera having an automatic brightness adjustment function is used can be considered.

Figure 0005145585
Figure 0005145585

Figure 0005145585
Figure 0005145585

また,レーダの横方向の動作に対する応答性遅れも路上環境における認識率低下の要因の1つである。レーダの検出点が歩行者などの対象物からずれることにより,ROIの領域を正確に取ることができず、歩行者の認識を行えない場合がある。検出点のずれは、検出点が実際よりも遅れることで発生するので、レーダの検出点の軌跡を調べることにより実際の位置の予測を行い、視差画像を用いてレーダの距離に相当する粒子の位置を見つけることによりROI領域の補正が行えると考えられる。   In addition, delay in response to the lateral movement of the radar is one of the factors that reduce the recognition rate in the road environment. When the radar detection point deviates from an object such as a pedestrian, the ROI region may not be accurately taken and the pedestrian may not be recognized. Since the detection point shift occurs when the detection point is delayed from the actual position, the actual position is predicted by examining the locus of the detection point of the radar, and the parallax image is used to predict the particle corresponding to the radar distance. It is considered that the ROI region can be corrected by finding the position.

図8は、シミュレーション実験における処理速度の分布図を示し、図9は、実道路環境における処理速度の分布図を示した。これらの図の横軸の単位は10ミリ秒である。シミュレーション実験では平均175ミリ秒/フレームの処理速度に達成したが、対象物候補の数が少ないので、OFM構築、ROI検出個数および識別用ROI数が少ないためと思われる。一方、実道路環境では障害物候補が多いので、ROI検出やターゲットマッチングなどに時間がかかり、1フレームの平均処理時間が265ミリ秒となった。   FIG. 8 shows a processing speed distribution diagram in the simulation experiment, and FIG. 9 shows a processing speed distribution map in an actual road environment. The unit of the horizontal axis in these figures is 10 milliseconds. In the simulation experiment, an average processing speed of 175 milliseconds / frame was achieved. However, since the number of object candidates is small, it is considered that the OFM construction, the number of ROI detections, and the number of ROIs for identification are small. On the other hand, since there are many obstacle candidates in an actual road environment, it took time for ROI detection and target matching, and the average processing time for one frame was 265 milliseconds.

以上、実施の形態および実施例を挙げて本発明を説明したが、本発明は、これらに限定されるものではなく、種々の変形が可能である。   While the present invention has been described with reference to the embodiment and examples, the present invention is not limited to these, and various modifications are possible.

本発明の一実施の形態に係るセンサフュージョンの概略構成図である。It is a schematic block diagram of the sensor fusion which concerns on one embodiment of this invention. 図1のセンサフュージョンにおける物標の検出方法について説明するための機能ブロック図である。It is a functional block diagram for demonstrating the detection method of the target in the sensor fusion of FIG. 図2の位置等取得手段内の機能ブロック図である。It is a functional block diagram in the position etc. acquisition means of FIG. V−Disparity平面について説明するための概念図である。It is a conceptual diagram for demonstrating a V-Disparity plane. ステレオカメラ座標系におけるU−Disparity平面について説明するための概念図である。It is a conceptual diagram for demonstrating the U-Disparity plane in a stereo camera coordinate system. レーザレーダ座標系におけるU−Disparity平面について説明するための概念図である。It is a conceptual diagram for demonstrating the U-Disparity plane in a laser radar coordinate system. 第2視差から物標候補を削除する様子を模式的に表した模式図である。It is the schematic diagram which represented typically a mode that the target candidate was deleted from 2nd parallax. シミュレーション実験における処理速度の分布図である。It is a distribution map of processing speed in a simulation experiment. 実道路環境における処理速度の分布図である。It is a distribution map of processing speed in a real road environment.

符号の説明Explanation of symbols

1…レーザレーダ、2…ステレオカメラ、21…右カメラ、22…左カメラ、3…制御部、4…記憶部。   DESCRIPTION OF SYMBOLS 1 ... Laser radar, 2 ... Stereo camera, 21 ... Right camera, 22 ... Left camera, 3 ... Control part, 4 ... Memory | storage part.

Claims (6)

車両前方のレーダ情報を取得するレーザレーダと、
車両前方のステレオ画像を取得するステレオカメラと、
前記レーザレーダで取得したレーダ情報および前記ステレオカメラで取得したステレオ画像を処理する制御部と
を備え、
前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記ステレオカメラにおける3次元座標系の3次元座標をステレオ画像の画素ごとに取得し、
前記直線取得手段は、前記ステレオ画像における各画素を、前記ステレオ画像から導出された第2視差および前記ステレオ画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記ステレオ画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記ステレオ画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記ステレオカメラの焦点距離fとを用いて前記ステレオカメラの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記ステレオ画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値をセルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を、前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記ステレオカメラにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記ステレオ画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記ステレオ画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする物標検出装置。
A laser radar for acquiring radar information in front of the vehicle;
A stereo camera for acquiring a stereo image in front of the vehicle;
A control unit that processes radar information acquired by the laser radar and a stereo image acquired by the stereo camera, and
The control unit includes first position information acquisition means, straight line acquisition means, depression angle information acquisition means, parallax information deletion means, occupation degree information acquisition means, first target acquisition means, and second position information acquisition. Means, second target acquisition means, and third target acquisition means,
The first position information acquisition means acquires the three-dimensional coordinates of the three-dimensional coordinate system in the stereo camera for each pixel of the stereo image,
The straight line acquisition unit is configured to determine each pixel in the stereo image as a second parallax of a plurality of cells in which a second parallax derived from the stereo image and a ordinate of the stereo image are divided at a predetermined interval. 3 when the parallax and the ordinate of the stereo image are allocated to the cell, the second parallax is the x axis, the ordinate of the stereo image is the y axis, and the number of pixels per cell is the z axis. Binarizing the z-axis value in the dimensional distribution, detecting an oblique straight line L1 corresponding to a road surface area intersecting with the straight line L2 where the second parallax is zero in the xy plane,
The depression angle information acquisition means derives the x coordinate V0 of the intersection of the straight line L1 and the straight line L2, and derives the depression angle α of the stereo camera using the x coordinate V0 and the focal length f of the stereo camera. And
The parallax information deleting unit corrects the second parallax and the x coordinate of each point on the straight line L1 and the second parallax of each pixel having the parallax and x coordinate of each point near the straight line L1 to zero,
The degree-of-occupation information acquisition unit uses the second parallax corrected by the parallax information deletion unit and the abscissa of the three-dimensional coordinates obtained by the first position information acquisition unit, so that each pixel in the stereo image Are allocated to cells including the second parallax of each pixel and the abscissa of the three-dimensional coordinate among the plurality of cells in which the second parallax and the abscissa of the three-dimensional coordinate are separated at a predetermined interval, In the three-dimensional distribution in which the abscissa of the dimensional coordinate is the x-axis, the second parallax is the y-axis, and the number of pixels (occupancy) per cell is the z-axis, the 3 of the pixels included in each cell. Calculate the maximum and average ordinates of dimensional coordinates for each cell,
The first target acquisition means smoothes and binarizes the z-axis value in the three-dimensional distribution derived by the occupancy degree information acquisition means, and the cell target has a z-axis value higher than a predetermined threshold. Using the width and area in the x-axis direction and the maximum value and the average value of the cells included in the mass, the mass is extracted as a target candidate according to a predetermined rule determined for each detection target, Obtain the center position and width on the xy plane,
The second position information acquisition unit corrects the radar information obtained by the laser radar using the depression angle α, and then calculates the first parallax and the three-dimensional coordinate system of the stereo camera from the corrected radar information. Get 3D coordinates,
The second target acquisition means uses the abscissa of the three-dimensional coordinates obtained by the second position information acquisition means as the x axis and the first parallax obtained by the second position information acquisition means as the y axis. Sometimes, the center position and width of each target candidate on the xy plane is acquired according to a predetermined rule.
The third target deriving unit includes a center position and a width on the xy plane of each target candidate obtained by the first target obtaining unit, and each target candidate obtained by the second target obtaining unit. Is compared with the center position and the width on the xy plane to determine the presence or absence of each target candidate obtained by the first target acquisition means, and on the stereo image of each target candidate determined to be present Predetermined rules for the position and width are the center position and width on the xy plane obtained by the first target acquisition means and the center position and width on the xy plane obtained by the second target acquisition means. Is obtained by converting the center position and width on the xy plane obtained by the weighted average to the position and width on the stereo image, and further, the height of each target candidate determined to exist is obtained. , The vertical seat of the three-dimensional coordinates obtained by the first position information acquisition means It is obtained from target detection device object according to claim.
前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項1に記載の物標検出装置。
The first target acquisition means uses an empirical value as an initial value of the predetermined threshold, and uses a value according to the degree of occupancy obtained after recognition of each target candidate as needed. The target detection apparatus according to claim 1.
前記第3物標導出手段は、前記レーザレーダおよび前記ステレオカメラの、前記第1物
標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項1に記載の物標検出装置。
2. The third target deriving unit determines a weighted average rule according to respective measurement resolutions of the laser radar and the stereo camera on the xy plane of the first target acquiring unit. The target detection apparatus described in 1.
車両前方のレーダ情報を取得するレーザレーダと、
車両前方の単一画像および被写体までの距離を取得する光飛行時間型距離センサと、
前記レーザレーダで取得したレーダ情報および前記光飛行時間型距離センサで取得した単一画像および被写体までの距離を処理する制御部と
を備え、
前記制御部は、第1位置情報取得手段と、直線取得手段と、俯角情報取得手段と、視差情報削除手段と、占用度情報取得手段と、第1物標取得手段と、第2位置情報取得手段と、第2物標取得手段と、第3物標取得手段とを有し、
前記第1位置情報取得手段は、前記光飛行時間型距離センサにおける3次元座標系の3次元座標を単一画像の画素ごとに取得し、
前記直線取得手段は、前記単一画像における各画素を、前記単一画像および被写体までの距離から導出された第2視差および前記単一画像の縦座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記単一画像の縦座標が含まれるセルに振り分け、前記第2視差をx軸とし、前記単一画像の縦座標をy軸とし、前記セルごとの画素の数をz軸としたときの3次元分布においてz軸の値を2値化処理し、xy平面において前記第2視差がゼロとなる直線L2と交差する路面領域に相当する斜めの直線L1を検出し、
前記俯角情報取得手段は、前記直線L1と前記直線L2との交差点のx座標V0を導出し、このx座標V0と、前記光飛行時間型距離センサの焦点距離fとを用いて前記光飛行時間型距離センサの俯角αを導出し、
前記視差情報削除手段は、前記直線L1上の各点の第2視差およびx座標ならびに前記直線L1近傍の各点の視差およびx座標を有する各画素の第2視差をゼロに補正し、
前記占用度情報取得手段は、前記視差情報削除手段により補正された後の第2視差および前記第1位置情報取得手段で得られた3次元座標の横座標を用いて、前記単一画像における各画素を、第2視差および前記3次元座標の横座標が所定の間隔で区切られた複数のセルのうち前記各画素の第2視差および前記3次元座標の横座標が含まれるセルに振り分け、前記3次元座標の横座標をx軸とし、第2視差をy軸とし、前記セルごとの画素の数(占用度)をz軸としたときの3次元分布において、各セルに含まれる画素の前記3次元座標の縦座標の最大値および平均値をセルごとに算出し、
前記第1物標取得手段は、前記占用度情報取得手段で導出された3次元分布において、z軸の値を平滑化および二値化し、z軸の値が所定の閾値より高いセルの固まりのx軸方向の幅および面積と、前記固まりに含まれるセルの前記最高値および前記平均値とを用いて、検出対象物ごとに決められた所定ルールで前記固まりを物標候補として抽出し、そのxy平面上の中心位置および幅を取得し、
前記第2位置情報取得手段は、前記レーザレーダによって得られたレーダ情報を、前記俯角αを利用して補正したのち、補正後のレーダ情報から第1視差と前記光飛行時間型距離センサにおける3次元座標系の3次元座標とを取得し、
前記第2物標取得手段は、前記第2位置情報取得手段で得られた3次元座標の横座標をx軸とし、前記第2位置情報取得手段で得られた第1視差をy軸としたときに、所定のルールで各物標候補のxy平面上の中心位置および幅を取得し、
前記第3物標導出手段は、前記第1物標取得手段で得られた各物標候補のxy平面上の中心位置および幅と、前記第2物標取得手段で得られた各物標候補のxy平面上の中心位置および幅とを対比して、前記第1物標取得手段で得られた各物標候補の存否を判定し、存在すると判定した各物標候補の前記単一画像上の位置および幅を、前記第1物標取得手段で得られたxy平面上の中心位置および幅と、前記第2物標取得手段で得られたxy平面上の中心位置および幅とを所定のルールで加重平均したのち加重平均により得られたxy平面上の中心位置および幅を前記単一画像上の位置および幅に変換することにより取得し、さらに、存在すると判定した各物標候補の高さを、前記第1位置情報取得手段で得られた3次元座標の縦座標から取得する
ことを特徴とする物標検出装置。
A laser radar for acquiring radar information in front of the vehicle;
A time-of-flight distance sensor that acquires a single image in front of the vehicle and the distance to the subject;
A control unit for processing radar information acquired by the laser radar and a single image acquired by the optical time-of-flight distance sensor and a distance to the subject,
The control unit includes first position information acquisition means, straight line acquisition means, depression angle information acquisition means, parallax information deletion means, occupation degree information acquisition means, first target acquisition means, and second position information acquisition. Means, second target acquisition means, and third target acquisition means,
The first position information acquisition means acquires the three-dimensional coordinates of the three-dimensional coordinate system in the optical time-of-flight distance sensor for each pixel of a single image,
The straight line acquisition means includes a plurality of cells in which each pixel in the single image is divided into a second parallax derived from a distance to the single image and a subject and a ordinate of the single image at predetermined intervals. Are distributed to cells including the second parallax of each pixel and the ordinate of the single image, the second parallax is the x-axis, the ordinate of the single image is the y-axis, and the pixel for each cell The z-axis value is binarized in the three-dimensional distribution when the number of is the z-axis, and an oblique straight line L1 corresponding to a road surface area intersecting the straight line L2 where the second parallax is zero in the xy plane Detect
The depression angle information acquisition means derives the x coordinate V0 of the intersection of the straight line L1 and the straight line L2, and uses the x coordinate V0 and the focal distance f of the optical time-of-flight distance sensor to calculate the optical flight time. Deriving the depression angle α of the mold distance sensor,
The parallax information deleting unit corrects the second parallax and the x coordinate of each point on the straight line L1 and the second parallax of each pixel having the parallax and x coordinate of each point near the straight line L1 to zero,
The occupancy degree information acquisition means uses the second parallax corrected by the parallax information deletion means and the abscissa of the three-dimensional coordinates obtained by the first position information acquisition means, Distributing the pixels to a cell including the second parallax of each pixel and the abscissa of the three-dimensional coordinate among a plurality of cells in which the second parallax and the abscissa of the three-dimensional coordinate are divided at a predetermined interval, In the three-dimensional distribution in which the abscissa of the three-dimensional coordinate is the x-axis, the second parallax is the y-axis, and the number of pixels (occupancy) per cell is the z-axis, the pixels included in each cell Calculate the maximum and average 3D coordinate ordinates for each cell,
The first target acquisition means smoothes and binarizes the z-axis value in the three-dimensional distribution derived by the occupancy degree information acquisition means, and the cell target has a z-axis value higher than a predetermined threshold. Using the width and area in the x-axis direction and the maximum value and the average value of the cells included in the mass, the mass is extracted as a target candidate according to a predetermined rule determined for each detection target, Obtain the center position and width on the xy plane,
The second position information acquisition means corrects the radar information obtained by the laser radar using the depression angle α, and then calculates the first parallax and the time-of-flight distance sensor 3 from the corrected radar information. Get the 3D coordinates of the 3D coordinate system,
The second target acquisition means uses the abscissa of the three-dimensional coordinates obtained by the second position information acquisition means as the x axis and the first parallax obtained by the second position information acquisition means as the y axis. Sometimes, the center position and width of each target candidate on the xy plane is acquired according to a predetermined rule.
The third target deriving unit includes a center position and a width on the xy plane of each target candidate obtained by the first target obtaining unit, and each target candidate obtained by the second target obtaining unit. On the xy plane, the presence or absence of each target candidate obtained by the first target acquisition means is determined, and the target candidate determined to be present on the single image The center position and width on the xy plane obtained by the first target acquisition means and the center position and width on the xy plane obtained by the second target acquisition means It is obtained by converting the center position and width on the xy plane obtained by weighted average after the rule to the position and width on the single image, and further, the height of each target candidate determined to exist Is obtained from the ordinate of the three-dimensional coordinates obtained by the first position information acquisition means. Target detection device which is characterized in that to.
前記第1物標取得手段は、前記所定の閾値の初期値として経験値を使用し、前記各物標候補の認識後に得られた占用度の大きさに応じた値を随時使用する
ことを特徴とする請求項に記載の物標検出装置。
The first target acquisition means uses an empirical value as an initial value of the predetermined threshold, and uses a value according to the degree of occupancy obtained after recognition of each target candidate as needed. The target detection apparatus according to claim 4 .
前記第3物標導出手段は、前記レーザレーダおよび前記光飛行時間型距離センサの、前記第1物標取得手段のxy平面におけるそれぞれの計測分解能に応じて加重平均のルールを決める
ことを特徴とする請求項に記載の物標検出装置。
The third target deriving unit determines a weighted average rule according to each measurement resolution of the laser radar and the optical time-of-flight distance sensor in the xy plane of the first target acquiring unit. The target detection apparatus according to claim 4 .
JP2007152291A 2007-06-08 2007-06-08 Target detection device Expired - Fee Related JP5145585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007152291A JP5145585B2 (en) 2007-06-08 2007-06-08 Target detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007152291A JP5145585B2 (en) 2007-06-08 2007-06-08 Target detection device

Publications (2)

Publication Number Publication Date
JP2008304344A JP2008304344A (en) 2008-12-18
JP5145585B2 true JP5145585B2 (en) 2013-02-20

Family

ID=40233198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007152291A Expired - Fee Related JP5145585B2 (en) 2007-06-08 2007-06-08 Target detection device

Country Status (1)

Country Link
JP (1) JP5145585B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10942529B2 (en) * 2016-11-24 2021-03-09 Tencent Technology (Shenzhen) Company Limited Aircraft information acquisition method, apparatus and device

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5439949B2 (en) * 2009-05-22 2014-03-12 コニカミノルタ株式会社 Stereo measurement system and video playback system
FR2947657B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
FR2947656B1 (en) * 2009-07-06 2016-05-27 Valeo Vision METHOD FOR DETECTING AN OBSTACLE FOR A MOTOR VEHICLE
JP2011166316A (en) * 2010-02-05 2011-08-25 Nippon Telegr & Teleph Corp <Ntt> Imaging method, imaging display device and remote face-to-face communication device
JP5545022B2 (en) * 2010-05-14 2014-07-09 トヨタ自動車株式会社 Obstacle recognition device
JP5632762B2 (en) * 2011-01-25 2014-11-26 パナソニック株式会社 POSITIONING INFORMATION FORMING DEVICE, DETECTING DEVICE, AND POSITIONING INFORMATION FORMING METHOD
CN103164851B (en) * 2011-12-09 2016-04-20 株式会社理光 Lane segmentation object detecting method and device
KR101641491B1 (en) * 2014-01-02 2016-07-29 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
JP6287231B2 (en) * 2014-01-14 2018-03-07 株式会社リコー Ranging device and robot picking system
DE102014111126A1 (en) 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Method for generating an environment map of an environmental area of a motor vehicle, driver assistance system and motor vehicle
EP3358364A4 (en) * 2015-09-30 2019-03-13 Sony Corporation Signal processing device, signal processing method, program, and object detection system
EP3358368A4 (en) * 2015-09-30 2019-03-13 Sony Corporation Signal processing apparatus, signal processing method, and program
KR101875517B1 (en) * 2016-12-16 2018-07-09 (주)넥스트칩 Method and apparatus for processing a image
CN109636837B (en) * 2018-12-21 2023-04-28 浙江大学 Method for evaluating calibration accuracy of external parameters of monocular camera and millimeter wave radar
JP2020160914A (en) * 2019-03-27 2020-10-01 株式会社豊田自動織機 Object detection device
KR102332509B1 (en) * 2020-05-22 2021-11-29 현대모비스 주식회사 Method and apparatus for rear cross collision warning

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3669205B2 (en) * 1999-05-17 2005-07-06 日産自動車株式会社 Obstacle recognition device
JP3853571B2 (en) * 2000-06-06 2006-12-06 三菱電機株式会社 Tracking processing device
JP4032843B2 (en) * 2002-06-25 2008-01-16 富士重工業株式会社 Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP4539388B2 (en) * 2005-03-16 2010-09-08 パナソニック電工株式会社 Obstacle detection device
JP2006292621A (en) * 2005-04-13 2006-10-26 Toyota Motor Corp Object detection apparatus
JP4918676B2 (en) * 2006-02-16 2012-04-18 国立大学法人 熊本大学 Calibration apparatus and calibration method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10942529B2 (en) * 2016-11-24 2021-03-09 Tencent Technology (Shenzhen) Company Limited Aircraft information acquisition method, apparatus and device

Also Published As

Publication number Publication date
JP2008304344A (en) 2008-12-18

Similar Documents

Publication Publication Date Title
JP5145585B2 (en) Target detection device
US10690770B2 (en) Navigation based on radar-cued visual imaging
JP6550881B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6662388B2 (en) Image processing device, imaging device, device control system, distribution data generation method, and program
EP2639781A1 (en) Vehicle with improved traffic-object position detection
JP6150164B2 (en) Information detection apparatus, mobile device control system, mobile object, and information detection program
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JPH05265547A (en) On-vehicle outside monitoring device
CN108535727B (en) Method of tracking a plurality of objects in the vicinity of a host vehicle
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
JP5743020B2 (en) Three-dimensional object detection device
WO2014017601A1 (en) Three-dimensional object detection device and three-dimensional object detection method
Nuevo et al. Estimating surrounding vehicles' pose using computer vision
KR20210062672A (en) Method and processing unit for determining information related to objects in the surrounding environment of the vehicle
JP2012146146A (en) Moving object detection apparatus
Ponsa et al. On-board image-based vehicle detection and tracking
Tsai et al. Accurate and fast obstacle detection method for automotive applications based on stereo vision
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
Kim et al. An intelligent and integrated driver assistance system for increased safety and convenience based on all-around sensing
US11861914B2 (en) Object recognition method and object recognition device
JP4703963B2 (en) Outside-of-vehicle monitoring device and travel control device equipped with this out-of-vehicle monitoring device
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
JP7371053B2 (en) Electronic devices, mobile objects, imaging devices, and control methods, programs, and storage media for electronic devices
JP7165630B2 (en) Recognition system, vehicle control system, recognition method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20120730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees