JP6565650B2 - Object detection apparatus and object detection method - Google Patents

Object detection apparatus and object detection method Download PDF

Info

Publication number
JP6565650B2
JP6565650B2 JP2015239391A JP2015239391A JP6565650B2 JP 6565650 B2 JP6565650 B2 JP 6565650B2 JP 2015239391 A JP2015239391 A JP 2015239391A JP 2015239391 A JP2015239391 A JP 2015239391A JP 6565650 B2 JP6565650 B2 JP 6565650B2
Authority
JP
Japan
Prior art keywords
contour line
contour
predicted
pattern
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015239391A
Other languages
Japanese (ja)
Other versions
JP2017107327A (en
Inventor
純 金武
純 金武
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015239391A priority Critical patent/JP6565650B2/en
Publication of JP2017107327A publication Critical patent/JP2017107327A/en
Application granted granted Critical
Publication of JP6565650B2 publication Critical patent/JP6565650B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出装置等に関する。   The present invention relates to an object detection device and the like.

車両のような移動体に外界を映すカメラを取り付け、撮影画像から物体を検出する方法として、オプティカルフローを用いた従来技術1がある。従来技術1は、各撮影画像から物体の特徴点をそれぞれ抽出し、時系列順に各撮影画像の各特徴点を対応付けることで、位置ずれ量を算出し、物体が路面模様であるか、立体物であるかを判定する。以下の説明では、適宜、位置ずれ量を、フロー量と表記する。   As a method of detecting an object from a photographed image by attaching a camera that reflects the outside world to a moving body such as a vehicle, there is the related art 1 using an optical flow. Prior Art 1 extracts feature points of an object from each captured image, associates each feature point of each captured image in time series order, calculates a positional deviation amount, and determines whether the object has a road surface pattern or a three-dimensional object. It is determined whether it is. In the following description, the misregistration amount is appropriately expressed as a flow amount.

立体物のフロー量は、路面模様のフロー量よりも大きくなる。このため、従来技術1では、フロー量が閾値以上である場合には、物体が立体物であると判定し、フロー量が閾値未満である場合には、物体が路面模様であると判定する。   The flow amount of the three-dimensional object is larger than the flow amount of the road surface pattern. For this reason, in the related art 1, when the flow amount is equal to or greater than the threshold value, it is determined that the object is a three-dimensional object, and when the flow amount is less than the threshold value, it is determined that the object is a road surface pattern.

図18は、立体物のフロー量と路面模様のフロー量とを説明するための図である。図18に示すように、車両10には、カメラが取り付けられており、車両10が移動する前の時刻1のカメラをカメラ11aとし、車両10が移動した後の時刻2のカメラをカメラ11bとする。カメラ11aと立体物50の着目点50aとを通る線分を、線分1とする。カメラ11bと着目点50aとを通る線分を、線分2aとする。カメラ11bと路面模様55の点55aとを通る線分を、線分2bとする。   FIG. 18 is a diagram for explaining the flow amount of the three-dimensional object and the flow amount of the road surface pattern. As shown in FIG. 18, a camera is attached to the vehicle 10, and the camera at time 1 before the vehicle 10 moves is referred to as a camera 11a, and the camera at time 2 after the vehicle 10 moves is referred to as a camera 11b. To do. A line segment passing through the camera 11a and the point of interest 50a of the three-dimensional object 50 is defined as a line segment 1. A line segment passing through the camera 11b and the point of interest 50a is defined as a line segment 2a. A line segment passing through the camera 11b and the point 55a of the road surface pattern 55 is defined as a line segment 2b.

カメラ11aがカメラ11bに移動した場合の、仮想的な路面模様の視差変化F1は、第1交点と第2交点との差となる。第1交点は路面5と線分1との交点であり、第2交点は線分2bと路面5との交点である。   When the camera 11a moves to the camera 11b, the parallax change F1 of the virtual road surface pattern is the difference between the first intersection and the second intersection. The first intersection is an intersection between the road surface 5 and the line segment 1, and the second intersection is an intersection between the line segment 2 b and the road surface 5.

仮想的な立体物の視差変化F2は、第1交点と第3交点との差となる。第3交点は、線分2aと路面5との交点である。視差変化F2の方が、視差変化F1よりも、1Aだけ大きいため、立体物のフロー量が、路面模様のフロー量よりも大きくなることがわかる。   The parallax change F2 of the virtual three-dimensional object is the difference between the first intersection and the third intersection. The third intersection is an intersection between the line segment 2 a and the road surface 5. Since the parallax change F2 is larger by 1A than the parallax change F1, it can be seen that the flow amount of the three-dimensional object is larger than the flow amount of the road surface pattern.

ここで、フロー量の大きさから立体物を識別する場合に、特徴点1点のみで立体物と路面とを識別するとノイズの影響を受ける。このため、従来技術1では、特徴点の塊を抽出し、フロー量が閾値以上となる特徴点が近傍領域に一定数以上あれば、物体を立体物として判定する。   Here, when identifying a three-dimensional object from the magnitude of the flow amount, if a three-dimensional object and a road surface are identified by only one feature point, it is affected by noise. For this reason, in the prior art 1, a cluster of feature points is extracted, and an object is determined as a three-dimensional object if there are a certain number or more of feature points having a flow amount greater than or equal to a threshold value in the vicinity region.

しかし、従来技術1では、カメラの移動方向と立体物の形状方向が同じ場合、特徴点の時系列対応が一意に定まらず、フロー量を正しく算出することができず、物体が立体物であるか否かを適切に判定できない場合がある。   However, in the related art 1, when the moving direction of the camera and the shape direction of the three-dimensional object are the same, the time series correspondence of the feature points is not uniquely determined, the flow amount cannot be calculated correctly, and the object is a three-dimensional object. It may not be possible to properly determine whether or not.

図19は、従来技術1の問題を説明するための図である。図19に示すように、画像中央に物体60があり、物体60に向かってカメラが直進すると、物体60は矢印の方向に移動する。例えば、時刻1において物体60から特徴点60aを検出し、時刻2において物体60から特徴点60bを検出したものとする。特徴点の移動方向と、物体形状方向が一致すると、各特徴点の対応が一意に定まらず、結果として物体が立体物であるか否かを判定できない。例えば、時刻1で検出した特徴点60aが、時刻2で検出した特徴点60bに対応するのか、その他の特徴点60c,60dに対応するのかが一意に定まらない。   FIG. 19 is a diagram for explaining the problem of the prior art 1. As shown in FIG. 19, when an object 60 is in the center of the image and the camera goes straight toward the object 60, the object 60 moves in the direction of the arrow. For example, it is assumed that the feature point 60a is detected from the object 60 at time 1 and the feature point 60b is detected from the object 60 at time 2. When the moving direction of the feature point matches the object shape direction, the correspondence of each feature point is not uniquely determined, and as a result, it cannot be determined whether or not the object is a three-dimensional object. For example, it is not uniquely determined whether the feature point 60a detected at time 1 corresponds to the feature point 60b detected at time 2 or the other feature points 60c and 60d.

図19に示した問題を解消する従来技術2がある。図20は、従来技術2を説明するための図である。従来技術2は、物体の端点を特徴点として抽出し、特徴点を対応付ける。端点であれば、特徴点の移動方向と物体形状方向が一致しても、各特徴点の対応が一意に定まる。従来技術2は、物体の輪郭線を抽出し、抽出した隅を端点として特定する。図20に示す例では、時刻1において物体60から特徴点61a,61bを検出し、時刻2において物体60から特徴点61c,61dを検出したとする。この場合には、特徴点61aと特徴点61cとを対応付けることができ、特徴点61bと特徴点61dとを対応付けることができる。   There is a prior art 2 that solves the problem shown in FIG. FIG. 20 is a diagram for explaining the related art 2. Prior art 2 extracts the end points of the object as feature points and associates the feature points. If it is an end point, even if the moving direction of the feature point coincides with the object shape direction, the correspondence of each feature point is uniquely determined. Prior art 2 extracts an outline of an object and identifies the extracted corner as an end point. In the example illustrated in FIG. 20, it is assumed that feature points 61 a and 61 b are detected from the object 60 at time 1 and feature points 61 c and 61 d are detected from the object 60 at time 2. In this case, the feature point 61a and the feature point 61c can be associated with each other, and the feature point 61b and the feature point 61d can be associated with each other.

ここで、従来技術2で抽出する輪郭線の方向は斜めを含んだ垂直方向である。立体物の特性として輪郭線が垂直方向に写るため垂直方向の輪郭線が支配的となり、水平方向の輪郭線がある場合でもカメラの移動方向と異なる場合が多く、対応が一意に定まりやすい。以下の説明では、縦方向の輪郭線を、輪郭線と表記する。   Here, the direction of the contour line extracted by the conventional technique 2 is a vertical direction including a slant. As a characteristic of the three-dimensional object, the contour line appears in the vertical direction, so that the vertical contour line is dominant, and even if there is a horizontal contour line, it is often different from the moving direction of the camera, and the correspondence is easily determined uniquely. In the following description, the vertical contour line is referred to as a contour line.

図21は、輪郭線を抽出する処理を説明するための図である。従来技術2では、画像から得られた各特徴点62について、縦方向に隣接する特徴点62を同一物体の特徴点としてつなげることで、輪郭線63を抽出する。   FIG. 21 is a diagram for explaining a process of extracting a contour line. In the prior art 2, for each feature point 62 obtained from the image, the feature point 62 adjacent in the vertical direction is connected as the feature point of the same object, thereby extracting the outline 63.

特開2014−104853号公報JP 2014-104853 A 国際公開第2014/017318号International Publication No. 2014/017318

しかしながら、上述した従来技術では、画像から特定した対象の輪郭線の一部に欠けがあると、物体が路面上の模様か、静止立体物かを判定することができないという問題がある。   However, in the above-described conventional technology, there is a problem in that it is not possible to determine whether an object is a pattern on a road surface or a stationary solid object if a part of a contour line of an object specified from an image is missing.

図22および図23は、従来技術2の問題点を説明するための図である。実際に輪郭線を抽出すると、カメラと物体との距離が遠い場合には、解像度不足により背景と輪郭線との境界付近でぼけが生じ、輪郭線に欠けが生じる。図22に示すように、時刻1において、物体60から輪郭線65aが検出されるが、解像度不足により、欠け66が発生する。一方、時刻2において、物体65がカメラに近づくと、物体65が大きく写るため、物体65から輪郭線65bが検出される。   FIG. 22 and FIG. 23 are diagrams for explaining the problems of the prior art 2. When the contour line is actually extracted, when the distance between the camera and the object is long, blurring occurs near the boundary between the background and the contour line due to insufficient resolution, and the contour line is missing. As shown in FIG. 22, at time 1, a contour line 65a is detected from the object 60. However, a lack 66 occurs due to insufficient resolution. On the other hand, when the object 65 approaches the camera at time 2, the object 65 is enlarged, and thus the contour 65 b is detected from the object 65.

図22に示した欠け66の存在により、物体のフロー量が正しく検出できず、物体が、路面上の模様か、立体物であるかを判定できなくなる。   Due to the presence of the chip 66 shown in FIG. 22, the flow amount of the object cannot be detected correctly, and it cannot be determined whether the object is a pattern on the road surface or a three-dimensional object.

図23に示すように、時刻1により実際に検出された輪郭線は、輪郭線65aとなるが、適切な端点は、端点67となる。ここで、仮に、輪郭線を輪郭線65aとすると、時刻1と時刻2との物体のフロー量は、フロー量2Aとなる。一方、端点67に基づく適切なフロー量は、フロー量2Bとなる。このため、欠けが発生すると、適切なフロー量2Bと比較して、フロー量2Aが大きくなる。   As shown in FIG. 23, the contour line actually detected at time 1 is the contour line 65 a, but the appropriate end point is the end point 67. Here, assuming that the contour line is the contour line 65a, the flow amount of the object at time 1 and time 2 is the flow amount 2A. On the other hand, the appropriate flow amount based on the end point 67 is the flow amount 2B. For this reason, when chipping occurs, the flow amount 2A becomes larger than the appropriate flow amount 2B.

適切なフロー量2Bと比較して、フロー量2Aが大きくなると、立体物のフロー量に類似するため、物体65が路面上の模様であるにもかかわらず、物体65が立体物であると誤判定する場合がある。   When the flow amount 2A is larger than the appropriate flow amount 2B, it is similar to the flow amount of the three-dimensional object. Therefore, although the object 65 is a pattern on the road surface, the object 65 is erroneously a three-dimensional object. It may be judged.

1つの側面では、本発明は、画像から特定した対象の輪郭線の一部に欠けがある場合であっても、対象が路面上の模様か、静止立体物かを判定することができる物体検出装置および物体検出方法を提供することを目的とする。   In one aspect, the present invention is an object detection capable of determining whether a target is a pattern on a road surface or a stationary solid object even when a part of the outline of the target specified from the image is missing. An object is to provide an apparatus and an object detection method.

第1の案では、物体検出装置は、特定部と、算出部と、判定部とを有する。特定部は、第一のタイミングで撮像された画像に写る対象物の第一輪郭線を特定する。また、特定部は、第一のタイミングとは異なる第二のタイミングで撮像された画像に写る対象物の第二輪郭線を特定する。算出部は、車両の移動方向、移動速度、及び、前記第一のタイミングと前記第二のタイミングとの時間差を用いて、対象物が路面の模様の場合に第一輪郭線が第二のタイミングで撮影されるべき模様予測輪郭線を算出する。算出部は、対象物が立体物の場合に第一輪郭線が第二のタイミングで撮影されるべき立体物予測輪郭線を算出する。判定部は、模様予測輪郭線と立体物予測輪郭線の内、模様予測輪郭線の長さが立体物予測輪郭線の長さよりも第二輪郭線の長さに近い場合には対象物を路面の模様と判定する。判定部は、立体物予測輪郭線の長さが模様予測輪郭線の長さよりも第二輪郭線の長さに近い場合には対象物を立体物と判定する。   In the first plan, the object detection apparatus includes a specifying unit, a calculation unit, and a determination unit. The specifying unit specifies the first contour line of the object shown in the image captured at the first timing. Further, the specifying unit specifies a second contour line of the object that appears in an image captured at a second timing different from the first timing. The calculation unit uses the moving direction of the vehicle, the moving speed, and the time difference between the first timing and the second timing, and when the object is a road surface pattern, the first contour line is the second timing. The pattern predicted contour line to be photographed is calculated. The calculation unit calculates a three-dimensional object predicted contour that the first contour should be photographed at the second timing when the target is a three-dimensional object. When the length of the pattern predicted contour is closer to the length of the second contour than the length of the three-dimensional predicted contour among the pattern predicted contour and the three-dimensional predicted contour, Judged as a pattern. The determination unit determines that the target object is a three-dimensional object when the length of the three-dimensional object predicted contour line is closer to the length of the second contour line than the length of the pattern predicted contour line.

画像から特定した対象の輪郭線の一部に欠けがある場合であっても、対象が路面上の模様か、静止立体物かを判定することができる。   Even when a part of the contour line of the target specified from the image is missing, it can be determined whether the target is a pattern on the road surface or a stationary solid object.

図1は、物体が路面の場合において輪郭線に欠けがある場合とない場合との特性を説明するための図である。FIG. 1 is a diagram for explaining the characteristics when the object is a road surface and when there is no outline in the outline. 図2は、物体が立体物の場合において輪郭線に欠けがある場合と無い場合との特性を説明するための図である。FIG. 2 is a diagram for explaining the characteristics when the object is a three-dimensional object and when there is no outline in the outline. 図3は、本実施例1に係る物体検出装置の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating the configuration of the object detection apparatus according to the first embodiment. 図4は、本実施例1に係る輪郭線DBのデータ構造の一例を示す図である。FIG. 4 is a diagram illustrating an example of the data structure of the contour line DB according to the first embodiment. 図5は、本実施例1に係る特定部が輪郭線を特定する処理を示すフローチャートである。FIG. 5 is a flowchart illustrating a process in which the specifying unit according to the first embodiment specifies the contour line. 図6は、本実施例1に係る輪郭線照合部が輪郭線を照合する処理を示すフローチャートである。FIG. 6 is a flowchart illustrating a process in which the contour line matching unit according to the first embodiment matches the contour line. 図7は、本実施例1に係る輪郭線照合部が実行する類似度判定処理を示すフローチャートである。FIG. 7 is a flowchart illustrating the similarity determination process executed by the contour line matching unit according to the first embodiment. 図8は、本実施例1に係る算出部が予測輪郭線を算出する処理を示すフローチャートである。FIG. 8 is a flowchart illustrating a process in which the calculation unit according to the first embodiment calculates a predicted contour line. 図9は、本実施例1に係る判定部の処理を示すフローチャートである。FIG. 9 is a flowchart illustrating the process of the determination unit according to the first embodiment. 図10は、本実施例1に係る物体検出装置の処理手順を示すフローチャートである。FIG. 10 is a flowchart illustrating the processing procedure of the object detection apparatus according to the first embodiment. 図11は、本実施例2に係る物体検出装置の構成を示す機能ブロック図である。FIG. 11 is a functional block diagram illustrating the configuration of the object detection apparatus according to the second embodiment. 図12は、本実施例2に係る算出部の処理を説明するための図(1)である。FIG. 12 is a diagram (1) for explaining the process of the calculation unit according to the second embodiment. 図13は、本実施例2に係る算出部の処理を説明するための図(2)である。FIG. 13 is a diagram (2) for explaining the process of the calculation unit according to the second embodiment. 図14は、本実施例2に係る算出部が予測輪郭線を算出する処理を示すフローチャートである。FIG. 14 is a flowchart illustrating a process in which the calculation unit according to the second embodiment calculates a predicted contour line. 図15は、本実施例2に係る判定部の処理を示すフローチャートである。FIG. 15 is a flowchart illustrating the process of the determination unit according to the second embodiment. 図16は、本実施例2に係る物体検出装置の処理手順を示すフローチャートである。FIG. 16 is a flowchart illustrating the processing procedure of the object detection apparatus according to the second embodiment. 図17は、物体検出プログラムを実行するコンピュータの一例を示す図である。FIG. 17 is a diagram illustrating an example of a computer that executes an object detection program. 図18は、立体物のフロー量と路面模様のフロー量とを説明するための図である。FIG. 18 is a diagram for explaining the flow amount of the three-dimensional object and the flow amount of the road surface pattern. 図19は、従来技術1の問題を説明するための図である。FIG. 19 is a diagram for explaining the problem of the prior art 1. 図20は、従来技術2を説明するための図である。FIG. 20 is a diagram for explaining the related art 2. 図21は、輪郭線を抽出する処理を説明するための図である。FIG. 21 is a diagram for explaining a process of extracting a contour line. 図22は、従来技術2の問題点を説明するための図(1)である。FIG. 22 is a diagram (1) for explaining the problems of the conventional technique 2. 図23は、従来技術2の問題点を説明するための図(2)である。FIG. 23 is a diagram (2) for explaining the problems of the conventional technique 2.

以下に、本願の開示する物体検出装置および物体検出方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of an object detection apparatus and an object detection method disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

移動中の車両のカメラによって、過去の時刻で撮影された画像から特定した物体の輪郭線が、現在時刻で撮影された画像のどの位置にどの長さで写るのかを、車両の移動量を用いることで、予測することができる。このとき、以下の特性がある。   The moving amount of the vehicle is used to indicate at which position in the image taken at the current time the contour line of the object identified from the image taken at the past time by the camera of the moving vehicle. Thus, it can be predicted. At this time, there are the following characteristics.

特性:物体が路面の模様であると仮定した場合の現在時刻の物体の輪郭線を示す模様予測輪郭線と、物体が立体物であると仮定した場合の現在時刻の物体の輪郭線を示す立体物予測輪郭線とを比較すると、模様予測輪郭線が立体物予測輪郭線よりも常に長くなる。   Characteristic: A predicted pattern contour indicating the contour of the object at the current time when the object is assumed to be a road surface pattern, and a solid indicating the contour of the object at the current time when the object is assumed to be a three-dimensional object. When comparing with the predicted object contour line, the predicted pattern contour line is always longer than the predicted solid object contour line.

上記の特性に着目すると、現在時刻の実際の輪郭線の長さと、模様予測輪郭線の長さと、立体物予測輪郭線の長さとの大小関係は、条件に応じて下記に示すようになる。   Focusing on the above characteristics, the magnitude relationship among the actual contour length at the current time, the pattern predicted contour length, and the three-dimensional object predicted contour length is as follows according to the conditions.

(1)物体が「路面」の場合、輪郭線の欠けの有無によって、現在時刻の実際の輪郭線の長さと、模様予測輪郭線の長さと、立体物予測輪郭線の長さとの大小関係は、下記の通りとなる。
(1−1)過去の時刻で特定した輪郭線に欠けがない場合:立体物予測輪郭線の長さ<模様予測輪郭線の長さ=現在時刻の実際の輪郭線の長さ
(1−2)過去の時刻で特定した輪郭線に欠けがある場合:立体物予測輪郭線の長さ<模様予測輪郭線の長さ<現在時刻の実際の輪郭線の長さ
(1) When the object is a “road surface”, the size relationship between the actual contour length at the current time, the pattern predicted contour length, and the three-dimensional object predicted contour length depends on whether or not the contour is missing. It becomes as follows.
(1-1) When the outline specified at the past time is not missing: the length of the three-dimensional object predicted outline <the length of the pattern predicted outline = the actual outline length at the current time (1-2 ) If the outline specified at the past time is missing: the length of the three-dimensional object prediction outline <the length of the pattern prediction outline <the length of the actual outline at the current time

図1は、物体が路面の場合において輪郭線に欠けがある場合とない場合との特性を説明するための図である。図1の(1−1)について説明する。輪郭線70は、過去の時刻で特定した欠けの無い輪郭線である。輪郭線71は、現在時刻の実際の輪郭線である。輪郭線72aは、輪郭線70に基づき予測された立体物予測輪郭線である。輪郭線72bは、輪郭線70に基づき予測された模様予測輪郭線である。図1に示すように、輪郭線71の長さは、輪郭線72aの長さよりも、輪郭線72bの長さの方に近くなる。   FIG. 1 is a diagram for explaining the characteristics when the object is a road surface and when there is no outline in the outline. (1-1) in FIG. 1 will be described. The contour line 70 is a contour line having no chip specified at a past time. The contour line 71 is an actual contour line at the current time. The contour line 72 a is a three-dimensional object predicted contour line predicted based on the contour line 70. The contour line 72 b is a pattern predicted contour line predicted based on the contour line 70. As shown in FIG. 1, the length of the contour line 71 is closer to the length of the contour line 72b than the length of the contour line 72a.

図1の(1−2)について説明する。輪郭線75は、過去の時刻で特定した欠けのある輪郭線である。輪郭線76は、現在時刻の実際の輪郭線である。輪郭線77aは、輪郭線75に基づき予測された立体物予測輪郭線である。輪郭線77bは、輪郭線75に基づき予測された模様予測輪郭線である。図1に示すように、輪郭線76の長さは、輪郭線77aの長さよりも、輪郭線77bの長さの方に近くなる。   (1-2) in FIG. 1 will be described. The contour line 75 is a contour line having a defect identified at a past time. The contour line 76 is an actual contour line at the current time. The contour line 77 a is a three-dimensional object predicted contour line predicted based on the contour line 75. The contour line 77 b is a pattern predicted contour line predicted based on the contour line 75. As shown in FIG. 1, the length of the contour line 76 is closer to the length of the contour line 77b than the length of the contour line 77a.

立体物予測輪郭線の長さは、模様予測輪郭線の長さよりも短くなる。過去の時刻で、輪郭線に欠けが無い場合には、模様予測輪郭線の長さと、現在時刻の実際の輪郭線の長さとが等しくなる。過去の時刻で、輪郭線に欠けがある場合には、模様予測輪郭線の長さが、現在時刻の実際の輪郭線の長さよりも短くなるが、立体物予測輪郭線の長さと模様予測輪郭線の長さとの大小関係は変化しない。このため、欠けの有無に関係無く、物体が路面の場合には、立体物予測輪郭線の長さよりも、模様予測輪郭線の長さの方が、現在時刻の実際の輪郭線の長さに近くなる。   The length of the three-dimensional object predicted contour line is shorter than the length of the pattern predicted contour line. If there is no missing outline at the past time, the length of the predicted pattern outline is equal to the actual outline length at the current time. If the outline is missing at the past time, the length of the predicted pattern outline is shorter than the actual outline length at the current time. The magnitude relationship with the length of the line does not change. For this reason, when the object is a road surface regardless of the presence or absence of a chip, the length of the pattern predicted contour is longer than the length of the three-dimensional predicted contour. Get closer.

(2)物体が「立体物」の場合、輪郭線の欠けの有無によって、現在時刻の実際の輪郭線の長さと、模様予測輪郭線の長さと、立体物予測輪郭線の長さとの大小関係は、下記の通りとなる。
(2−1)過去の時刻で特定した輪郭線に欠けが無い場合:立体物予測輪郭線の長さ=現在時刻の実際の輪郭線の長さ<模様予測輪郭線の長さ
(2−2)過去の時刻で特定した輪郭線に欠けがある場合:立体物予測輪郭線の長さ<現在時刻の実際の輪郭線の長さ<模様予測輪郭線の長さ
(2) When the object is a “three-dimensional object”, the relationship between the actual contour length at the current time, the pattern predicted contour length, and the three-dimensional object predicted contour length depending on whether the contour line is missing or not. Is as follows.
(2-1) When the outline specified at the past time is not missing: the length of the three-dimensional object prediction outline = the actual outline length at the current time <the length of the pattern prediction outline (2-2 ) If there is a missing outline specified in the past time: Length of the three-dimensional object prediction outline <Length of the actual outline at the current time <Length of the pattern prediction outline

図2は、物体が立体物の場合において輪郭線に欠けがある場合と無い場合との特性を説明するための図である。図2の(2−1)について説明する。輪郭線80は、過去の時刻で特定した欠けの無い輪郭線である。輪郭線81は、現在時刻の実際の輪郭線である。輪郭線82aは、輪郭線80に基づき予測された立体物予測輪郭線である。輪郭線82bは、輪郭線80に基づき予測された模様予測輪郭線である。図2に示すように、輪郭線81の長さは、輪郭線82bの長さよりも、輪郭線82aの長さの方に近くなる。   FIG. 2 is a diagram for explaining the characteristics when the object is a three-dimensional object and when there is no outline in the outline. (2-1) in FIG. 2 will be described. The contour line 80 is a contour line having no chip specified at a past time. The contour line 81 is an actual contour line at the current time. The contour line 82 a is a three-dimensional object predicted contour line predicted based on the contour line 80. The contour line 82 b is a pattern predicted contour line predicted based on the contour line 80. As shown in FIG. 2, the length of the contour line 81 is closer to the length of the contour line 82a than the length of the contour line 82b.

図2の(2−2)について説明する。輪郭線85は、過去の時刻で特定した欠けのある輪郭線である。輪郭線86は、現在時刻の実際の輪郭線である。輪郭線87aは、輪郭線85に基づき予測された立体物予測輪郭線である。輪郭線87bは、輪郭線85に基づき予測された模様予測輪郭線である。図2に示すように、輪郭線86の長さは、輪郭線87bの長さよりも、輪郭線87aの長さの方に近くなる。   (2-2) in FIG. 2 will be described. The contour line 85 is a contour line having a defect identified at a past time. The contour line 86 is an actual contour line at the current time. The contour line 87 a is a three-dimensional object predicted contour line predicted based on the contour line 85. The contour line 87 b is a pattern predicted contour line predicted based on the contour line 85. As shown in FIG. 2, the length of the contour line 86 is closer to the length of the contour line 87a than the length of the contour line 87b.

物体が立体物であれば、模様物予測輪郭線の長さよりも、立体物予測輪郭線の長さの方が、現在時刻の実際の輪郭線の長さに近くなる。ただし、過去の時刻の輪郭線の欠けが大きく、現在時刻の輪郭線の欠けが無いと状況は現実的にほぼ起こらないため、欠けが小さいものとして、上記(2−2)を定義している。   If the object is a three-dimensional object, the length of the three-dimensional object predicted contour is closer to the actual contour length at the current time than the length of the pattern predicted contour. However, if the outline of the past time is largely missing and the outline of the current time is not missing, the situation does not occur practically. Therefore, the above (2-2) is defined as having little missing. .

本実施例1に係る物体検出装置は、上記(1−1)、(1−2)、(2−1)、(2−2)で説明した内容に基づき、物体が立体物であるか路面の模様であるかを下記のように判定する。物体検出装置は、立体物予測輪郭線の長さと、模様予測輪郭線の長さと、現在時刻の実際の輪郭線の長さとを比較し、実際の輪郭線の長さが、立体物予測輪郭線の長さよりも、模様予測輪郭線の長さに近い場合には、物体が路面であると判定する。一方、物体検出装置は、実際の輪郭線の長さが、模様予測輪郭線の長さよりも、立体物予測輪郭線の長さに近い場合には、物体が立体物であると判定する。   The object detection apparatus according to the first embodiment determines whether the object is a three-dimensional object based on the contents described in (1-1), (1-2), (2-1), and (2-2). It is determined whether it is a pattern of as follows. The object detection device compares the length of the three-dimensional object prediction contour, the length of the pattern prediction contour, and the actual contour length of the current time. If it is closer to the length of the pattern predicted contour line than the length of, it is determined that the object is a road surface. On the other hand, the object detection device determines that the object is a three-dimensional object when the actual length of the contour line is closer to the length of the three-dimensional object predicted contour line than the length of the pattern predicted contour line.

次に、本実施例1に係る物体検出装置の構成の一例について説明する。図3は、本実施例1に係る物体検出装置の構成を示す機能ブロック図である。図3に示すように、この物体検出装置100は、カメラ110と、移動量検出部120と、輪郭線DB(database)130と、映像入力部140と、特定部150と、輪郭線照合部160と、算出部170と、判定部180と、出力部190とを有する。   Next, an example of the configuration of the object detection apparatus according to the first embodiment will be described. FIG. 3 is a functional block diagram illustrating the configuration of the object detection apparatus according to the first embodiment. As illustrated in FIG. 3, the object detection apparatus 100 includes a camera 110, a movement amount detection unit 120, a contour DB (database) 130, a video input unit 140, a specification unit 150, and a contour matching unit 160. A calculation unit 170, a determination unit 180, and an output unit 190.

カメラ110は、車両の移動体に設置され、撮像方向の映像を撮影するカメラである。カメラ110は、撮影した映像データを映像入力部140に出力する。例えば、映像データは、時系列順に、複数の画像フレームが連続する情報である。   The camera 110 is a camera that is installed on a moving body of a vehicle and captures an image in the imaging direction. The camera 110 outputs the captured video data to the video input unit 140. For example, video data is information in which a plurality of image frames are continuous in chronological order.

移動量検出部120は、車両の移動量を検出し、検出した移動量の情報を、輪郭線照合部160、算出部170に出力する。車両の移動量は、車両の移動方向、移動速度が含まれる。移動量検出部120は、車両に設置された各種のセンサを用いて、移動量を検出する。   The movement amount detection unit 120 detects the movement amount of the vehicle and outputs information on the detected movement amount to the contour line matching unit 160 and the calculation unit 170. The moving amount of the vehicle includes the moving direction and moving speed of the vehicle. The movement amount detection unit 120 detects the movement amount using various sensors installed in the vehicle.

輪郭線DB130は、各画像フレームから検出される輪郭線の情報を記憶する記憶部である。図4は、本実施例1に係る輪郭線DBのデータ構造の一例を示す図である。図4に示すように、この輪郭線DB130は、輪郭線番号と、始点座標と、終点座標と、フレーム識別番号とを対応付ける。   The contour DB 130 is a storage unit that stores information on contour lines detected from each image frame. FIG. 4 is a diagram illustrating an example of the data structure of the contour line DB according to the first embodiment. As shown in FIG. 4, the contour DB 130 associates contour numbers, start point coordinates, end point coordinates, and frame identification numbers.

輪郭線番号は、輪郭線を一意に識別する番号である。始点座標は、輪郭線の始点座標である。終点座標は、輪郭線の終点座標である。フレーム識別番号は、画像フレームを一意に識別する番号である。図4の1行目のレコードに示す例では、輪郭線識別番号「101」の輪郭線の始点座標が「x1,y1」、終点座標が「x2,y2」であり、この輪郭線が、フレーム識別番号「F01」の画像フレームに存在することを示している。   The contour line number is a number that uniquely identifies the contour line. The starting point coordinates are the starting point coordinates of the contour line. The end point coordinates are the end point coordinates of the contour line. The frame identification number is a number that uniquely identifies an image frame. In the example shown in the record in the first row in FIG. 4, the start point coordinates of the contour line with the contour line identification number “101” are “x1, y1” and the end point coordinates are “x2, y2”. It indicates that it exists in the image frame with the identification number “F01”.

図3の説明に戻る。映像入力部140は、カメラ110から映像データの入力を受け付ける処理部である。映像入力部140は、受け付けた映像データを、特定部150に出力する。映像入力部140は、映像データがアナログの映像データである場合には、デジタルの映像データに変換し、デジタルの映像データを、特定部150に出力する。また、映像入力部140は、映像データがカラーの映像データである場合には、モノクロの映像データに変換し、モノクロの映像データを、特定部150に出力する。   Returning to the description of FIG. The video input unit 140 is a processing unit that receives input of video data from the camera 110. The video input unit 140 outputs the received video data to the specifying unit 150. When the video data is analog video data, the video input unit 140 converts the video data into digital video data, and outputs the digital video data to the specifying unit 150. Further, when the video data is color video data, the video input unit 140 converts the video data into monochrome video data, and outputs the monochrome video data to the specifying unit 150.

特定部150は、映像データを基にして、第一のタイミングにおいて画像フレームに写る物体の第一輪郭線を特定し、第二のタイミングにおいて画像フレームに写る第二輪郭線を特定する処理部である。例えば、第一のタイミングは、現在時刻から所定時間前の過去の時刻に対応する。第二のタイミングは、現在時刻に対応する。   The identifying unit 150 is a processing unit that identifies the first contour line of the object that appears in the image frame at the first timing based on the video data, and identifies the second contour line that appears in the image frame at the second timing. is there. For example, the first timing corresponds to a past time that is a predetermined time before the current time. The second timing corresponds to the current time.

特定部150は、画像フレームから特徴点を抽出する処理、輪郭線を特定する処理を順に実行する。   The specifying unit 150 sequentially executes a process of extracting feature points from the image frame and a process of specifying a contour line.

特定部150が、画像フレームから特徴点を抽出する処理について説明する。特定部150は、映像入力部140から取得した映像データの各画像フレームに対してエッジ検出を行い、特徴点画像を生成する。特定部150は、Sobel等の一般的な微分オペレータを作用させて、微分処理によって得られるエッジ強度と予め定めたエッジ強度閾値とを比較し、エッジ強度閾値以上となるエッジを抽出する。特定部150は、抽出したエッジについて、隣接する横方向の画素2つのエッジ強度を比較して、ピーク値となればエッジ点とする細線化処理を行う。特定部150は、抽出したエッジ点を特徴点として抽出する。   A process in which the specifying unit 150 extracts feature points from the image frame will be described. The specifying unit 150 performs edge detection on each image frame of the video data acquired from the video input unit 140, and generates a feature point image. The specifying unit 150 operates a general differential operator such as Sobel, compares the edge strength obtained by the differential processing with a predetermined edge strength threshold, and extracts an edge that is equal to or greater than the edge strength threshold. The specifying unit 150 compares the edge strengths of two adjacent horizontal pixels with respect to the extracted edge, and performs a thinning process to obtain an edge point when the peak value is reached. The identifying unit 150 extracts the extracted edge points as feature points.

特定部150が、画像フレームに含まれる物体の輪郭線を特定する処理について説明する。特定部150は、上記処理により抽出した特徴点を繋げることで輪郭線を特定する処理部である。特定部150は、特定した輪郭線の情報を輪郭線DB130に登録する。例えば、特定部150は、輪郭線に、輪郭線番号を付与し、輪郭線番号と、始点座標と、終点座標と、フレーム識別番号とを対応付けて、輪郭線照合部160に出力する。   A process in which the specifying unit 150 specifies the contour line of the object included in the image frame will be described. The specifying unit 150 is a processing unit that specifies a contour line by connecting feature points extracted by the above processing. The identifying unit 150 registers the identified contour information in the contour DB 130. For example, the specifying unit 150 assigns a contour line number to the contour line, associates the contour line number, the start point coordinates, the end point coordinates, and the frame identification number, and outputs them to the contour line collation unit 160.

図5は、本実施例1に係る特定部が輪郭線を特定する処理を示すフローチャートである。図5に示すように、特定部150は、未処理の特徴点Aを選択する(ステップS10)。特定部150は、特徴点Aの1ライン上の隣接画素に接続可能な特徴点Bが存在するか否かを判定する(ステップS11)。   FIG. 5 is a flowchart illustrating a process in which the specifying unit according to the first embodiment specifies the contour line. As shown in FIG. 5, the specifying unit 150 selects an unprocessed feature point A (step S10). The identifying unit 150 determines whether there is a feature point B that can be connected to an adjacent pixel on one line of the feature point A (step S11).

特定部150は、特徴点Aの1ライン上の隣接画素に接続可能な特徴点Bが存在しない場合には(ステップS11,No)、ステップS19に移行する。一方、特定部150は、特徴点Aの1ライン上の隣接画素に接続可能な特徴点Bが存在する場合には(ステップS11,Yes)、特徴点Bが複数であるか否かを判定する(ステップS12)。   When there is no feature point B that can be connected to an adjacent pixel on one line of the feature point A (No in step S11), the specifying unit 150 proceeds to step S19. On the other hand, when there is a feature point B that can be connected to an adjacent pixel on one line of the feature point A (step S11, Yes), the specifying unit 150 determines whether there are a plurality of feature points B. (Step S12).

特定部150は、特徴点Bが複数でない場合には(ステップS12,No)、ステップS14に移行する。一方、特定部150は、特徴点Bが複数である場合には(ステップS12,Yes)、最適点を複数の特徴点Bから選択する(ステップS13)。ステップS13において、特定部150は、特徴点Bのうち、エッジの強度および傾きが、特徴点Aのエッジの強度および傾きに最も類似するものを、最適点として選択する。   If there are not a plurality of feature points B (No at Step S12), the specifying unit 150 proceeds to Step S14. On the other hand, when there are a plurality of feature points B (step S12, Yes), the specifying unit 150 selects an optimum point from the plurality of feature points B (step S13). In step S <b> 13, the specifying unit 150 selects, as the optimum point, the feature point B whose edge strength and inclination are most similar to the edge strength and inclination of the feature point A.

特定部150は、選択した特徴点Bの輪郭線番号が未登録でない場合には(ステップS14,No)、ステップS19に移行する。一方、特定部150は、選択した特徴点Bの輪郭線番号が未登録である場合には(ステップS14,Yes)、特徴点Aと同じライン上で特徴点Bに接続可能な特徴点Cが存在するか否かを判定する(ステップS15)。   If the contour number of the selected feature point B is not unregistered (No at Step S14), the specifying unit 150 proceeds to Step S19. On the other hand, when the contour line number of the selected feature point B is not registered (step S14, Yes), the specifying unit 150 determines that the feature point C that can be connected to the feature point B on the same line as the feature point A. It is determined whether or not it exists (step S15).

特定部150は、特徴点Bと同じライン上で特徴点Bに接続可能な特徴点Cが存在しない場合には(ステップS15,No)、特徴点A,Bに、同一の輪郭線番号を割り当て(ステップS16)、ステップS19に移行する。   If there is no feature point C that can be connected to the feature point B on the same line as the feature point B (step S15, No), the specifying unit 150 assigns the same contour line number to the feature points A and B. (Step S16), the process proceeds to Step S19.

一方、特定部150は、特徴点Bと同じライン上で特徴点Bに接続可能な特徴点Cが存在する場合には(ステップS15,Yes)、特徴点Cが特徴点Aよりも、特徴点Bに接続する特徴点として適切であるか否かを判定する(ステップS17)。特定部150は、特徴点Cが特徴点Aよりも適切でない場合には(ステップS17,No)、ステップS16に移行する。例えば、特定部150は、特徴点Bの強度および傾きが、特徴点Cの強度および傾きよりも、特徴点Aの強度および傾きに類似している場合に、特徴点Cが特徴点Aよりも適切でないと判定する。   On the other hand, when there is a feature point C that can be connected to the feature point B on the same line as the feature point B (step S15, Yes), the specifying unit 150 determines that the feature point C is a feature point rather than the feature point A. It is determined whether or not the feature point connected to B is appropriate (step S17). If the feature point C is not more appropriate than the feature point A (No at Step S17), the specifying unit 150 proceeds to Step S16. For example, the specifying unit 150 determines that the feature point C is more than the feature point A when the strength and inclination of the feature point B are more similar to the strength and inclination of the feature point A than the feature point C. Judge that it is not appropriate.

特定部150は、特徴点Cが特徴点Aよりも適切である場合には(ステップS17,Yes)、特徴点B,Cに同一の輪郭線番号を割り当てる(ステップS18)。   When the feature point C is more appropriate than the feature point A (Yes in step S17), the specifying unit 150 assigns the same contour line number to the feature points B and C (step S18).

特定部150は、全特徴点について処理が終了していない場合には(ステップS19,No)、ステップS10に移行する。特定部150は、全特徴点について処理が終了した場合には(ステップS19,Yes)、処理を終了する。   If the processing has not been completed for all feature points (No at Step S19), the specifying unit 150 proceeds to Step S10. When the processing has been completed for all feature points (Yes in step S19), the specifying unit 150 ends the processing.

図3の説明に戻る。輪郭線照合部160は、特定部150が特定した現在時刻の輪郭線と、輪郭線DB130に格納された過去の輪郭線を車両の移動量に応じて移動させた輪郭線とを比較し、同一の輪郭線が存在するか否かを照合する処理部である。輪郭線照合部160は、同一の輪郭線が存在する場合には、現在時刻の輪郭線の情報を、輪郭線DB130に登録し、照合した過去の輪郭線の情報を、輪郭線DB130から削除する。一方、輪郭線照合部160は、同一の輪郭線が存在せず、輪郭線がロストした場合には、ロストした輪郭線の情報を輪郭線DB130から削除する。   Returning to the description of FIG. The contour line matching unit 160 compares the contour line of the current time specified by the specifying unit 150 with the contour line obtained by moving the past contour line stored in the contour line DB 130 according to the amount of movement of the vehicle. It is a process part which collates whether there exists any outline. If there is an identical contour line, the contour line matching unit 160 registers the contour line information at the current time in the contour line DB 130 and deletes the past contour line information that has been collated from the contour line DB 130. . On the other hand, when the same contour line does not exist and the contour line is lost, the contour line matching unit 160 deletes the lost contour line information from the contour DB 130.

輪郭線照合部160は、照合に成功した現在時刻の輪郭線の情報と、過去の時刻の輪郭線の情報とを、算出部170に出力する。   The contour line collation unit 160 outputs information on the contour line at the current time when the collation is successful and information on the contour line at the past time to the calculation unit 170.

図6は、本実施例1に係る輪郭線照合部が輪郭線を照合する処理を示すフローチャートである。図6に示すように、輪郭線照合部160は、輪郭線に対応する画像フレームが2フレーム以降であるか否かを判定する(ステップS20)。輪郭線照合部160は、2フレーム以降でない場合には(ステップS20,No)、ステップS30に移行する。一方、輪郭線照合部160は、2フレーム以降である場合には(ステップS20,Yes)、ステップS21に移行する。   FIG. 6 is a flowchart illustrating a process in which the contour line matching unit according to the first embodiment matches the contour line. As shown in FIG. 6, the contour line matching unit 160 determines whether or not there are two or more image frames corresponding to the contour line (step S20). If it is not two frames or more (step S20, No), the contour line matching unit 160 proceeds to step S30. On the other hand, if there are two or more frames (step S20, Yes), the contour line matching unit 160 proceeds to step S21.

輪郭線照合部160は、時系列線分の移動方向を算出する(ステップS21)。例えば、輪郭線照合部160は、車両の移動量(並進量、回転量)およびカメラ110の設置パラメータから、エピポーラ拘束と呼ばれる幾何学条件を用いて、時系列線分の移動量を算出する。   The contour line matching unit 160 calculates the moving direction of the time series line segment (step S21). For example, the contour line matching unit 160 calculates the movement amount of the time-series line segment from the movement amount (translation amount, rotation amount) of the vehicle and the installation parameters of the camera 110 using a geometric condition called epipolar constraint.

輪郭線照合部160は、移動方向に線分が存在するか否かを判定する(ステップS22)。例えば、輪郭線照合部160は、過去の時刻の輪郭線を基準とした時系列線分の移動方向に、現在時刻の輪郭線が存在する場合には、移動方向に線分が存在すると判定する。   The contour line matching unit 160 determines whether or not there is a line segment in the movement direction (step S22). For example, the contour line matching unit 160 determines that there is a line segment in the movement direction when the contour line at the current time exists in the movement direction of the time-series line segment based on the contour line at the past time. .

輪郭線照合部160は、移動方向に線分が存在する場合には(ステップS22,Yes)、ステップS23に移行する。輪郭線照合部160は、移動方向に線分が存在しない場合には(ステップS22,No)、ステップS26に移行する。   When there is a line segment in the movement direction (step S22, Yes), the contour line matching unit 160 proceeds to step S23. When there is no line segment in the movement direction (No at Step S22), the contour line matching unit 160 proceeds to Step S26.

輪郭線照合部160は、過去の時刻の輪郭線と、現在時刻の輪郭線との類似度を算出する(ステップS23)。輪郭線照合部160は、類似度が閾値以上でない場合には(ステップS24,No)、ステップS26に移行する。一方、輪郭線照合部160は、類似度が閾値以上である場合には(ステップS24,Yes)、過去の時刻の輪郭線と現在時刻の輪郭線とが同一の線分であるとして、輪郭線情報を更新する(ステップS25)。ステップS25において、輪郭線照合部160は、現在の輪郭線の輪郭線識別番号、始点座標、終点座標、フレーム識別番号を、輪郭線DB130に登録する。輪郭線照合部160は、過去の輪郭線の輪郭線識別番号、始点座標、終点座標、フレーム識別番号を、輪郭線DB130から除去する。   The contour line matching unit 160 calculates the similarity between the contour line at the past time and the contour line at the current time (step S23). If the similarity is not greater than or equal to the threshold (No at Step S24), the contour line matching unit 160 proceeds to Step S26. On the other hand, when the similarity is equal to or greater than the threshold (Yes in step S24), the contour matching unit 160 determines that the contour at the past time and the contour at the current time are the same line segment. Information is updated (step S25). In step S <b> 25, the contour line matching unit 160 registers the contour line identification number, the start point coordinates, the end point coordinates, and the frame identification number of the current contour line in the contour line DB 130. The contour line matching unit 160 removes the contour line identification number, the start point coordinates, the end point coordinates, and the frame identification number of the past contour lines from the contour line DB 130.

ステップS26の説明に移行する。輪郭線照合部160は、ロスト回数を算出する(ステップS26)。例えば、ステップS26において、輪郭線照合部160は、過去の輪郭線について、移動方向に現在時刻の輪郭線が存在しない場合や、類似度が閾値以上でない場合には、過去の輪郭線のロスト回数に所定値を加算する。   The process proceeds to step S26. The contour line matching unit 160 calculates the number of lost times (step S26). For example, in step S <b> 26, the contour matching unit 160 determines that the past contour is lost if the contour at the current time does not exist in the movement direction or the similarity is not equal to or greater than the threshold. A predetermined value is added to.

輪郭線照合部160は、ロスト回数が閾値以上でない場合には(ステップS27,No)、ステップS29に移行する。一方、輪郭線照合部160は、ロスト回数が閾値以上である場合には(ステップS27,Yes)、輪郭線DB130から、該当輪郭線を除去し(ステップS28)、ステップS29に移行する。   If the number of lost times is not greater than or equal to the threshold (No at Step S27), the contour line matching unit 160 proceeds to Step S29. On the other hand, if the number of lost times is equal to or greater than the threshold (Yes at Step S27), the contour line matching unit 160 removes the corresponding contour line from the contour line DB 130 (Step S28), and proceeds to Step S29.

輪郭線照合部160は、ループ処理が終了していない場合には(ステップS29,No)、ステップS21に移行する。一方、輪郭線照合部160は、ループ処理が終了した場合には(ステップS29,Yes)、未対応の現在時刻の輪郭線の情報を輪郭線DB130に新規登録する(ステップS30)。   If the loop processing has not ended (No at Step S29), the contour line matching unit 160 proceeds to Step S21. On the other hand, when the loop processing is completed (Yes at Step S29), the contour line matching unit 160 newly registers information on the contour line at the unsupported current time in the contour DB 130 (Step S30).

続いて、図6のステップS23,S24で説明した、輪郭線照合部160が、類似度を算出し、類似度が閾値以上であるか否かを判定する類似度判定処理の処理手順について説明する。図7は、本実施例1に係る輪郭線照合部が実行する類似度判定処理を示すフローチャートである。図7に示すように、輪郭線照合部160は、移動方向に移動させた過去の時刻の輪郭線と、現在時刻の輪郭線との重複位置を算出する(ステップS40)。   Next, the processing procedure of the similarity determination process in which the contour line matching unit 160 described in steps S23 and S24 in FIG. 6 calculates the similarity and determines whether the similarity is equal to or greater than a threshold value will be described. . FIG. 7 is a flowchart illustrating the similarity determination process executed by the contour line matching unit according to the first embodiment. As shown in FIG. 7, the contour line matching unit 160 calculates the overlapping position of the contour line of the past time moved in the movement direction and the contour line of the current time (step S40).

輪郭線照合部160は、移動させた過去の時刻の輪郭線のスケール調整を行い(ステップS41)、過去の時刻の輪郭線および現在時刻の輪郭線の重心を算出する(ステップS42)。輪郭線照合部160は、各輪郭線の横方向のずれ量を現在のy座標について算出する(ステップS43)。   The contour line matching unit 160 adjusts the scale of the contour line at the past time moved (step S41), and calculates the contour line at the past time and the center of gravity of the contour line at the current time (step S42). The contour line matching unit 160 calculates the amount of horizontal displacement of each contour line for the current y coordinate (step S43).

輪郭線照合部160は、全てのy座標について処理が終了していない場合には(ステップS44,No)、ステップS43に移行する。輪郭線照合部160は、全てのy座標について処理が終了した場合には(ステップS44,Yes)、ずれ量の合計量が閾値以内であるか否かを判定する(ステップS45)。   If the processing has not been completed for all the y coordinates (No in step S44), the contour line matching unit 160 proceeds to step S43. When the processing has been completed for all y coordinates (step S44, Yes), the contour line matching unit 160 determines whether or not the total amount of deviation is within a threshold value (step S45).

輪郭線照合部160は、ずれ量の合計量が閾値以内である場合には(ステップS45,Yes)、該当する過去の時刻の輪郭線と、現在時刻の輪郭線との類似度が閾値以上であると判定する(ステップS46)。一方、ずれ量の合計値が閾値以内でない場合には(ステップS45,No)、類似度が閾値未満であると判定する(ステップS47)。   If the total amount of deviation is within the threshold (Yes in step S45), the contour matching unit 160 determines that the similarity between the corresponding contour at the past time and the contour at the current time is greater than or equal to the threshold. It is determined that there is (step S46). On the other hand, when the total value of the deviation amounts is not within the threshold (No in step S45), it is determined that the similarity is less than the threshold (step S47).

図3の説明に戻る。算出部170は、過去の時刻の輪郭線の情報と、車両の移動量に関する情報とを基にして、図1および図2等で説明した模様予測輪郭線と、立体物予測輪郭線とを算出する処理部である。移動量に関する情報は、例えば、車両の移動方向、移動速度、フレーム間時間を含む。フレーム間時間は、過去の時刻から現在時刻までの時間に対応する。算出部170は、過去の時刻の輪郭線の情報と、模様予測輪郭線の情報と、立体物予測輪郭線の情報とを、判定部180に出力する。   Returning to the description of FIG. The calculation unit 170 calculates the pattern prediction contour and the three-dimensional object prediction contour described with reference to FIGS. 1 and 2 and the like based on the contour information of the past time and the information on the movement amount of the vehicle. Is a processing unit. The information regarding the moving amount includes, for example, the moving direction, moving speed, and interframe time of the vehicle. The interframe time corresponds to the time from the past time to the current time. The calculation unit 170 outputs the contour information of the past time, the pattern prediction contour information, and the three-dimensional object prediction contour information to the determination unit 180.

算出部170が、過去の時刻の輪郭線に基づいて、模様予測輪郭線を算出する処理の一例について説明する。なお、過去の時刻の輪郭線は、現在時刻の輪郭線と照合に成功した、過去の時刻の輪郭線とする。   An example of processing in which the calculation unit 170 calculates the pattern predicted contour line based on the contour line at the past time will be described. Note that the contour line of the past time is the contour line of the past time that has been successfully matched with the contour line of the current time.

算出部170は、物体が路面の模様であると仮定し、過去の時刻の輪郭線の下端および上端の3次元座標を算出する。例えば、算出部170は、過去の時刻の輪郭線の画像フレームと、この画像フレームの次の画像フレームに含まれる同一の輪郭線とを用いて、ステレオ画像の原理を基にして、過去の時刻の輪郭線の下端および上端の3次元座標を算出する。   The calculation unit 170 assumes that the object is a road surface pattern, and calculates the three-dimensional coordinates of the lower end and the upper end of the contour line at a past time. For example, the calculation unit 170 uses the image frame of the contour line of the past time and the same contour line included in the next image frame of this image frame, based on the principle of the stereo image, The three-dimensional coordinates of the lower end and the upper end of the contour line are calculated.

算出部170は、車両の移動速度とフレーム間時間とを乗算することで、移動距離を算出し、移動距離および移動方向に合わせて、過去の時刻の輪郭線の下端および上端を移動させることで、現在時刻の輪郭線の下端および上端を算出する。算出部170は、算出した下端および上端を結んだ線分を、模様予測輪郭線として算出する。   The calculating unit 170 calculates a moving distance by multiplying the moving speed of the vehicle and the time between frames, and moves the lower end and the upper end of the contour line of the past time according to the moving distance and the moving direction. Then, the lower end and the upper end of the contour line at the current time are calculated. The calculation unit 170 calculates a line segment connecting the calculated lower and upper ends as a pattern predicted contour line.

算出部170が、過去の時刻の輪郭線に基づいて、立体物予測輪郭線を算出する処理の一例について説明する。算出部170は、路面が立体物であると仮定し、過去の時刻の輪郭線の下端および上端の3次元座標を算出する。輪郭線の下端の3次元座標を算出する処理は、上記の模様予測輪郭線を算出する処理と同様である。   An example of processing in which the calculation unit 170 calculates a three-dimensional object predicted contour line based on the contour line at a past time will be described. The calculation unit 170 assumes that the road surface is a three-dimensional object, and calculates the three-dimensional coordinates of the lower end and the upper end of the contour line at the past time. The process of calculating the three-dimensional coordinates of the lower end of the contour line is the same as the process of calculating the pattern predicted contour line.

算出部170は、過去の時刻の輪郭線の下端を算出した後に、下端と上端との3次元座標の奥行きが同じであるという制約を設けて、上端の3次元座標を算出する。例えば、下端および上端の3次元座標のx軸の値、y軸の値は同じ値となる。算出部170は、ステレオ画像の原理を基に上端のz軸の値を算出しても良いし、カメラ設定パラメータと、画像フレーム上の座標位置とを基にした幾何学的な関係から、z軸の値を算出しても良い。   After calculating the lower end of the contour line at the past time, the calculation unit 170 calculates the upper end three-dimensional coordinate with a restriction that the depth of the lower end and the upper end of the three-dimensional coordinate are the same. For example, the x-axis value and the y-axis value of the three-dimensional coordinates of the lower end and the upper end are the same value. The calculation unit 170 may calculate the z-axis value at the upper end based on the principle of the stereo image, or from the geometrical relationship based on the camera setting parameter and the coordinate position on the image frame, z An axis value may be calculated.

算出部170は、車両の移動速度とフレーム間時間とを乗算することで、移動距離を算出し、移動距離および移動方向に合わせて、過去の時刻の輪郭線の下端および上端を移動させることで、現在時刻の輪郭線の下端および上端を算出する。算出部170は、算出した下端および上端を結んだ線分を、立体物予測輪郭線として算出する。   The calculating unit 170 calculates a moving distance by multiplying the moving speed of the vehicle and the time between frames, and moves the lower end and the upper end of the contour line of the past time according to the moving distance and the moving direction. Then, the lower end and the upper end of the contour line at the current time are calculated. The calculation unit 170 calculates a line segment connecting the calculated lower and upper ends as a three-dimensional object predicted contour line.

図8は、本実施例1に係る算出部が予測輪郭線を算出する処理を示すフローチャートである。予測輪郭線は、模様予測輪郭線、立体物予測輪郭線に対応する。図8に示すように、算出部170は、選択した過去の時刻の輪郭線が、輪郭線照合に成功しているか否かを判定する(ステップS50)。算出部170は、輪郭線照合に成功していない場合には(ステップS50,No)、ステップS57に移行する。   FIG. 8 is a flowchart illustrating a process in which the calculation unit according to the first embodiment calculates a predicted contour line. The predicted contour corresponds to a pattern predicted contour and a three-dimensional object predicted contour. As illustrated in FIG. 8, the calculation unit 170 determines whether or not the selected contour line at the past time has succeeded in contour line collation (step S50). If the contour matching is not successful (No at Step S50), the calculating unit 170 proceeds to Step S57.

一方、算出部170は、選択した過去の時刻の輪郭線が、輪郭線照合に成功している場合には(ステップS50,Yes)、過去の時刻の輪郭線の下端を路面とした場合の3次元座標を算出する(ステップS51)。算出部170は、過去の時刻の輪郭線の上端を路面とした場合の3次元座標を算出する(ステップS52)。   On the other hand, when the selected contour line at the past time has succeeded in contour matching (step S50, Yes), the calculation unit 170 determines that the lower end of the contour line at the past time is the road surface. Dimensional coordinates are calculated (step S51). The calculation unit 170 calculates the three-dimensional coordinates when the upper end of the contour line at the past time is taken as the road surface (step S52).

算出部170は、過去の時刻の輪郭線の上端を立体物とした場合の3次元座標を算出する(ステップS53)。算出部170は、過去の時刻の3次元座標から現在時刻の3次元座標を算出する(ステップS54)。算出部170は、現在時刻の3次元座標から画像位置を算出する(ステップS55)。   The calculation unit 170 calculates the three-dimensional coordinates when the upper end of the contour line at the past time is a three-dimensional object (step S53). The calculation unit 170 calculates the three-dimensional coordinates of the current time from the three-dimensional coordinates of the past time (step S54). The calculation unit 170 calculates the image position from the three-dimensional coordinates of the current time (step S55).

算出部170は、上端・下端の画像位置を結んだ線分を予測輪郭線とする(ステップS56)。算出部170は、輪郭線DB130の輪郭線のループ処理を終了するか否かを判定する(ステップS57)。算出部170は、ループ処理を終了しない場合には(ステップS57,No)、ステップS50に移行する。算出部170は、ループ処理を終了する場合には(ステップS57,Yes)、処理を終了する。   The calculation unit 170 sets a line segment connecting the upper and lower image positions as a predicted contour line (step S56). The calculation unit 170 determines whether or not to end the loop processing of the contour line in the contour line DB 130 (step S57). If the calculation unit 170 does not end the loop process (No at Step S57), the calculation unit 170 proceeds to Step S50. If the calculation unit 170 ends the loop process (step S57, Yes), the calculation unit 170 ends the process.

図3の説明に戻る。判定部180は、現在時刻の輪郭線の長さと、模様予測輪郭線の長さと、立体物予測輪郭線の長さとを比較して、現在時刻の輪郭線が、路面の模様であるか、立体物であるかを判定する処理部である。判定部180は、判定結果を、出力部190に出力する。   Returning to the description of FIG. The determination unit 180 compares the length of the contour line at the current time, the length of the pattern predicted contour line, and the length of the three-dimensional object predicted contour line, and determines whether the contour line at the current time is a road surface pattern or It is a processing part which determines whether it is a thing. The determination unit 180 outputs the determination result to the output unit 190.

判定部180は、現在時刻の輪郭線の長さが、立体物予測輪郭線の長さよりも模様予測輪郭線の長さに近い場合に、現在時刻の輪郭線が、路面の模様であると判定する。一方、判定部180は、現在時刻の輪郭線の長さが、模様予測輪郭線の長さよりも立体物予測輪郭線の長さに近い場合に、現在時刻の輪郭線が、立体物であると判定する。   The determination unit 180 determines that the contour of the current time is a road surface pattern when the length of the contour of the current time is closer to the length of the predicted pattern contour than the length of the three-dimensional object predicted contour. To do. On the other hand, when the length of the contour line at the current time is closer to the length of the three-dimensional object predicted contour line than the length of the pattern predicted contour line, the determination unit 180 determines that the contour line at the current time is a three-dimensional object. judge.

具体的に、判定部180は、現在時刻の輪郭線の長さと、模様予測輪郭線の長さとの第1差分値を算出する。判定部180は、現在時刻の輪郭線の長さと、立体物予測輪郭線の長さとの第2差分値を算出する。判定部180は、第1差分値が、第2差分値よりも小さい場合に、現在時刻の輪郭線が、路面の模様であると判定する。判定部180は、第2差分値が、第1差分値よりも小さい場合に、現在時刻の輪郭線が、立体物であると判定する。   Specifically, the determination unit 180 calculates a first difference value between the length of the contour line at the current time and the length of the pattern predicted contour line. The determination unit 180 calculates a second difference value between the length of the contour line at the current time and the length of the three-dimensional object predicted contour line. When the first difference value is smaller than the second difference value, the determination unit 180 determines that the contour line at the current time is a road surface pattern. The determination unit 180 determines that the contour line at the current time is a three-dimensional object when the second difference value is smaller than the first difference value.

図9は、本実施例1に係る判定部の処理を示すフローチャートである。図9に示すように、判定部180は、過去の時刻の輪郭線が照合に成功していない場合には(ステップS60,No)、ステップS64に移行する。一方、判定部180は、過去の時刻の輪郭線が照合に成功している場合には(ステップS60,Yes)、ステップS61に移行する。   FIG. 9 is a flowchart illustrating the process of the determination unit according to the first embodiment. As illustrated in FIG. 9, when the outline of the past time has not been successfully collated (No in Step S60), the determination unit 180 proceeds to Step S64. On the other hand, when the outline of the past time has been successfully collated (Yes at Step S60), the determination unit 180 proceeds to Step S61.

判定部180は、立体物予測輪郭線の長さが、模様予測輪郭線の長さより、現在時刻の輪郭線の長さに近い場合には(ステップS61,Yes)、輪郭線が立体物の輪郭線であると判定し(ステップS62)、ステップS64に移行する。   When the length of the three-dimensional object predicted contour line is closer to the current time contour length than the pattern predicted contour length (step S61, Yes), the determination unit 180 determines that the contour line is the contour of the three-dimensional object. It determines with it being a line (step S62), and transfers to step S64.

判定部180は、立体物予測輪郭線の長さが、模様予測輪郭線の長さより、現在時刻の輪郭線の長さに近くない場合には(ステップS61,No)、輪郭線が路面の模様の輪郭線であると判定し(ステップS63)、ステップS64に移行する。   When the length of the three-dimensional object predicted contour is not closer to the length of the contour at the current time than the length of the predicted pattern contour (step S61, No), the determination unit 180 determines that the contour is a road surface pattern. (Step S63), and the process proceeds to step S64.

判定部180は、輪郭線DB130の輪郭線のループ処理を終了しない場合には(ステップS64,No)、ステップS60に移行する。判定部180は、輪郭線DB130の輪郭線のループ処理を終了する場合には(ステップS64,Yes)、処理を終了する。   If the determination unit 180 does not end the contour loop processing in the contour DB 130 (step S64, No), the determination unit 180 proceeds to step S60. The determination unit 180 ends the processing when the loop processing of the contour line in the contour DB 130 is ended (step S64, Yes).

図3の説明に戻る。出力部190は、判定部180から判定結果を取得し、現在時刻の輪郭線のうち、立体物と判定された輪郭線の情報を外部装置に出力する装置である。   Returning to the description of FIG. The output unit 190 is a device that acquires a determination result from the determination unit 180 and outputs information of a contour line determined to be a three-dimensional object out of the contour lines at the current time to an external device.

次に、本実施例1に係る物体検出装置100の処理手順について説明する。図10は、本実施例1に係る物体検出装置の処理手順を示すフローチャートである。図10に示すように、物体検出装置100は、カメラ110から映像データを取得する(ステップS101)。物体検出装置100の特定部150は、特徴点を抽出し(ステップS102)、輪郭線を抽出する(ステップS103)。   Next, a processing procedure of the object detection apparatus 100 according to the first embodiment will be described. FIG. 10 is a flowchart illustrating the processing procedure of the object detection apparatus according to the first embodiment. As illustrated in FIG. 10, the object detection apparatus 100 acquires video data from the camera 110 (step S101). The specifying unit 150 of the object detection apparatus 100 extracts feature points (step S102) and extracts contour lines (step S103).

物体検出装置100の算出部170は、模様予測輪郭線と立体物予測輪郭線とを作成する(ステップS104)。物体検出装置100の判定部180は、輪郭線が立体物であるか路面の模様であるかを判定する(ステップS105)。   The calculation unit 170 of the object detection apparatus 100 creates a pattern predicted contour line and a three-dimensional object predicted contour line (step S104). The determination unit 180 of the object detection apparatus 100 determines whether the contour line is a three-dimensional object or a road surface pattern (step S105).

判定部180は、判定結果を出力する(ステップS106)。物体検出装置100は、処理を継続する場合には(ステップS107,Yes)、ステップS101に移行する。物体検出装置100は、処理を継続しない場合には(ステップS107,No)、処理を終了する。   The determination unit 180 outputs the determination result (step S106). When the object detection apparatus 100 continues the process (step S107, Yes), the object detection apparatus 100 proceeds to step S101. If the object detection apparatus 100 does not continue the process (No at Step S107), the object detection apparatus 100 ends the process.

次に、本実施例1に係る物体検出装置100の効果について説明する。物体検出装置100は、立体物予測輪郭線の長さと、模様予測輪郭線の長さと、現在時刻の実際の輪郭線の長さとを比較し、実際の輪郭線の長さが、立体物予測輪郭線の長さよりも、模様予測輪郭線の長さに近い場合には、物体が路面であると判定する。一方、物体検出装置100は、実際の輪郭線の長さが、模様予測輪郭線の長さよりも、立体物予測輪郭線の長さに近い場合には、物体が立体物であると判定する。これにより、画像から特定した物体の輪郭線の一部に欠けがある場合であっても、対象が路面上の模様か、静止立体物かを判定することができる。   Next, the effect of the object detection apparatus 100 according to the first embodiment will be described. The object detection apparatus 100 compares the length of the three-dimensional object predicted contour, the length of the pattern predicted contour, and the actual contour length at the current time. When the length of the predicted pattern contour is closer to the length of the line, it is determined that the object is a road surface. On the other hand, the object detection apparatus 100 determines that the object is a three-dimensional object when the actual length of the contour line is closer to the length of the three-dimensional object predicted contour line than the length of the pattern predicted contour line. As a result, even if a part of the outline of the object specified from the image is missing, it is possible to determine whether the target is a pattern on the road surface or a stationary solid object.

図11は、本実施例2に係る物体検出装置の構成を示す機能ブロック図である。図11に示すように、この物体検出装置200は、カメラ210と、移動量検出部220と、輪郭線DB(database)230と、映像入力部240と、特定部250と、輪郭線照合部260と、算出部270と、判定部280と、出力部290とを有する。   FIG. 11 is a functional block diagram illustrating the configuration of the object detection apparatus according to the second embodiment. As shown in FIG. 11, the object detection apparatus 200 includes a camera 210, a movement amount detection unit 220, a contour DB (database) 230, a video input unit 240, a specification unit 250, and a contour matching unit 260. A calculation unit 270, a determination unit 280, and an output unit 290.

図11において、カメラ210、移動量検出部220、輪郭線DB230、映像入力部240に関する説明は、図3に示したカメラ110、移動量検出部120、輪郭線DB130、映像入力部140に関する説明と同様である。また、特定部250、輪郭線照合部26に関する説明は、図3に示した特定部150、輪郭線照合部160に関する説明と同様である。   In FIG. 11, the description regarding the camera 210, the movement amount detection unit 220, the contour line DB 230, and the video input unit 240 is the description regarding the camera 110, the movement amount detection unit 120, the contour line DB 130, and the video input unit 140 shown in FIG. 3. It is the same. Moreover, the description regarding the specific | specification part 250 and the outline collation part 26 is the same as the description regarding the specific part 150 and the outline collation part 160 which were shown in FIG.

算出部270は、過去の時刻の輪郭線の情報と、車両の移動量に関する情報を基にして、模様予測輪郭線と、立体物予測輪郭線とを算出する処理部である。算出部270が、模様予測輪郭線および立体物予測輪郭線を算出する処理は、実施例1で説明した算出部170が、模様予測輪郭線および立体物予測輪郭線を算出する処理と同様である。   The calculation unit 270 is a processing unit that calculates a pattern predicted contour line and a three-dimensional object predicted contour line based on information on the contour line of the past time and information on the movement amount of the vehicle. The process in which the calculation unit 270 calculates the pattern predicted contour and the three-dimensional object predicted contour is the same as the process in which the calculation unit 170 described in the first embodiment calculates the pattern predicted contour and the three-dimensional object predicted contour. .

算出部270は、上記処理に加えて、過去の時刻の輪郭線の輝度値を基にして、模様予測輪郭線の輝度値および立体物予測輪郭線の輝度値を予測する。   In addition to the above processing, the calculation unit 270 predicts the luminance value of the pattern predicted contour line and the luminance value of the three-dimensional object predicted contour line based on the luminance value of the contour line at the past time.

算出部270は、過去の時刻の輪郭線の情報と、模様予測輪郭線の情報と、立体物予測輪郭線の情報とを、判定部280に出力する。   The calculating unit 270 outputs the contour information of the past time, the pattern predicted contour information, and the three-dimensional object predicted contour information to the determination unit 280.

算出部270が、過去の時刻の輪郭線の輝度値を基にして、模様予測輪郭線の輝度値を予測する処理の一例について説明する。図12は、本実施例2に係る算出部の処理を説明するための図(1)である。図12に示す輪郭線90は、過去の時刻の輪郭線を示し、輪郭線94は、模様予測輪郭線を示す。説明の便宜上、輪郭線90は、ピクセル90a〜90eを有し、輪郭線94は、ピクセル94a〜94mを有するものとする。輪郭線90の各ピクセル90a〜90eには、過去の時刻の画像フレームに基づく輝度値が設定されている。輪郭線94の各ピクセル94a〜94mの輝度値は、初期状態では、ブランクとなる。   An example of processing in which the calculation unit 270 predicts the luminance value of the pattern predicted contour line based on the luminance value of the contour line at the past time will be described. FIG. 12 is a diagram (1) for explaining the process of the calculation unit according to the second embodiment. An outline 90 shown in FIG. 12 indicates an outline at a past time, and an outline 94 indicates a pattern prediction outline. For convenience of explanation, it is assumed that the contour line 90 includes pixels 90a to 90e, and the contour line 94 includes pixels 94a to 94m. In each of the pixels 90a to 90e of the outline 90, a luminance value based on an image frame at a past time is set. The luminance values of the pixels 94a to 94m of the contour line 94 are blank in the initial state.

算出部270は、輪郭線90の各ピクセル90a〜90eの輝度値を、輪郭線94の各ピクセル94a〜94mに均等の間隔で分布させる。図12に示す例では、算出部270は、ピクセル90aの輝度値を、ピクセル94aの輝度値に設定し、ピクセル90bの輝度値を、ピクセル94dの輝度値に設定し、ピクセル90cの輝度値を、ピクセル94gの輝度値に設定する。算出部270は、ピクセル90dの輝度値を、ピクセル94jの輝度値に設定し、ピクセル90eの輝度値を、ピクセル94mの輝度値に設定する。   The calculation unit 270 distributes the luminance values of the pixels 90a to 90e of the contour line 90 to the pixels 94a to 94m of the contour line 94 at equal intervals. In the example shown in FIG. 12, the calculation unit 270 sets the luminance value of the pixel 90a to the luminance value of the pixel 94a, sets the luminance value of the pixel 90b to the luminance value of the pixel 94d, and sets the luminance value of the pixel 90c. , The luminance value of the pixel 94g is set. The calculation unit 270 sets the luminance value of the pixel 90d to the luminance value of the pixel 94j, and sets the luminance value of the pixel 90e to the luminance value of the pixel 94m.

算出部270は、輪郭線94の各ピクセル94a〜94mのうち、ブランクとなっているピクセルの輝度値については、前後のピクセルの輝度値に基づく補間演算により、輝度値を算出する。例えば、算出部270は、ピクセル94b,94cの輝度値を、ピクセル94aの輝度値と、ピクセル94dの輝度値との補間演算により算出する。   The calculation unit 270 calculates the luminance value of the blank pixel among the pixels 94a to 94m of the contour line 94 by interpolation based on the luminance values of the preceding and succeeding pixels. For example, the calculation unit 270 calculates the luminance values of the pixels 94b and 94c by interpolation between the luminance value of the pixel 94a and the luminance value of the pixel 94d.

続いて、算出部270が、過去の時刻の輪郭線の輝度値を基にして、立体物予測輪郭線の輝度値を予測する処理の一例について説明する。図13は、本実施例2に係る算出部の処理を説明するための図(2)である。図13に示す輪郭線90は、過去の時刻の輪郭線を示し、輪郭線95は、立体物予測輪郭線を示す。説明の便宜上、輪郭線90は、ピクセル90a〜90eを有し、輪郭線95は、ピクセル95a〜95iを有するものとする。輪郭線90の各ピクセル90a〜90eには、過去の時刻の画像フレームに基づく輝度値が設定されている。輪郭線95の各ピクセル95a〜95iの輝度値は、初期状態では、ブランクとなる。   Next, an example of processing in which the calculation unit 270 predicts the luminance value of the three-dimensional object predicted contour line based on the luminance value of the contour line at the past time will be described. FIG. 13 is a diagram (2) for explaining the process of the calculation unit according to the second embodiment. An outline 90 illustrated in FIG. 13 indicates an outline at a past time, and an outline 95 indicates a three-dimensional object prediction outline. For convenience of explanation, it is assumed that the contour line 90 includes pixels 90a to 90e, and the contour line 95 includes pixels 95a to 95i. In each of the pixels 90a to 90e of the outline 90, a luminance value based on an image frame at a past time is set. The luminance values of the pixels 95a to 95i of the contour line 95 are blank in the initial state.

算出部270は、輪郭線90の各ピクセル90a〜90eの輝度値を、輪郭線95の各ピクセル95a〜95iに均等の間隔で分布させる。図13に示す例では、算出部270は、ピクセル90aの輝度値を、ピクセル95aの輝度値に設定し、ピクセル90bの輝度値を、ピクセル95cの輝度値に設定し、ピクセル90cの輝度値を、ピクセル95eの輝度値に設定する。算出部270は、ピクセル90dの輝度値を、ピクセル95gの輝度値に設定し、ピクセル90eの輝度値を、ピクセル95iの輝度値に設定する。   The calculation unit 270 distributes the luminance values of the pixels 90a to 90e of the contour line 90 to the pixels 95a to 95i of the contour line 95 at equal intervals. In the example shown in FIG. 13, the calculation unit 270 sets the luminance value of the pixel 90a to the luminance value of the pixel 95a, sets the luminance value of the pixel 90b to the luminance value of the pixel 95c, and sets the luminance value of the pixel 90c. , The luminance value of the pixel 95e is set. The calculation unit 270 sets the luminance value of the pixel 90d to the luminance value of the pixel 95g, and sets the luminance value of the pixel 90e to the luminance value of the pixel 95i.

算出部270は、輪郭線95の各ピクセル95a〜95iのうち、ブランクとなっているピクセルの輝度値については、前後のピクセルの輝度値に基づく補間演算により、輝度値を算出する。例えば、算出部270は、ピクセル95bの輝度値を、ピクセル95aの輝度値と、ピクセル95cの輝度値との補間演算により算出する。   Of the pixels 95a to 95i of the contour line 95, the calculation unit 270 calculates the luminance value of the blank pixel by interpolation based on the luminance values of the previous and subsequent pixels. For example, the calculation unit 270 calculates the luminance value of the pixel 95b by interpolation between the luminance value of the pixel 95a and the luminance value of the pixel 95c.

算出部270が、図12および図13で説明した処理を実行することで、模様予測輪郭線の輝度値および立体物予測輪郭線の輝度値を算出する。一般的に、模様予測輪郭線が、立体物予測輪郭線より長いため、模様予測輪郭線の方が立体物予測輪郭線よりもぼやけた輪郭線となる。   The calculation unit 270 calculates the luminance value of the pattern predicted contour line and the luminance value of the three-dimensional object predicted contour line by executing the processing described with reference to FIGS. In general, since the pattern predicted contour is longer than the three-dimensional object predicted contour, the pattern predicted contour is more blurred than the three-dimensional object predicted contour.

図14は、本実施例2に係る算出部が予測輪郭線を算出する処理を示すフローチャートである。図14に示すように、算出部270は、選択した過去の時刻の輪郭線が、輪郭線照合に成功しているか否かを判定する(ステップS70)。算出部270は、輪郭線照合に成功していない場合には(ステップS70,No)、ステップS76に移行する。   FIG. 14 is a flowchart illustrating a process in which the calculation unit according to the second embodiment calculates a predicted contour line. As illustrated in FIG. 14, the calculation unit 270 determines whether or not the selected contour line at the past time has succeeded in contour line collation (step S <b> 70). If the contour matching is not successful (step S70, No), the calculation unit 270 proceeds to step S76.

一方、算出部270は、選択した過去の時刻の輪郭線が、輪郭線照合に成功している場合には(ステップS70,Yes)、過去の時刻の画像フレームに含まれる輪郭線の輝度値を記録する(ステップS71)。   On the other hand, when the selected contour line at the past time has succeeded in the contour matching (Yes in step S70), the calculation unit 270 calculates the brightness value of the contour line included in the image frame at the past time. Recording is performed (step S71).

算出部270は、過去の時刻の輪郭線について、立体物/路面とした場合の輪郭線の3次元座標を算出する(ステップS72)。算出部270は、過去の時刻の輪郭線の3次元座標から、現在時刻の下端・上端の3次元座標を算出する(ステップS73)。   The calculation unit 270 calculates the three-dimensional coordinates of the contour line when the contour line at the past time is a solid object / road surface (step S72). The calculation unit 270 calculates the three-dimensional coordinates of the lower end and the upper end of the current time from the three-dimensional coordinates of the contour line of the past time (step S73).

算出部270は、現在時刻の下端・上端の3次元座標から模様予測輪郭線および立体物予測輪郭線の輝度値を算出部する(ステップS74)。算出部270は、模様予測輪郭線の輝度値および立体物予測輪郭線の輝度値を算出する(ステップS75)。   The calculating unit 270 calculates the luminance values of the pattern predicted contour and the three-dimensional object predicted contour from the three-dimensional coordinates at the lower end and the upper end of the current time (step S74). The calculation unit 270 calculates the luminance value of the pattern predicted contour line and the luminance value of the three-dimensional object predicted contour line (step S75).

算出部270は、輪郭線DB230の輪郭線のループ処理を終了するか否かを判定する(ステップS76)。算出部270は、ループ処理を終了しない場合には(ステップS76,No)、ステップS70に移行する。算出部270は、ループ処理を終了する場合には(ステップS76,Yes)、処理を終了する。   The calculating unit 270 determines whether or not to end the contour loop processing of the contour DB 230 (step S76). When the loop process is not finished (No at Step S76), the calculation unit 270 proceeds to Step S70. The calculation unit 270 ends the process when the loop process ends (Yes in step S76).

図11の説明に戻る。判定部280は、現在時刻の輪郭線と、模様予測輪郭線とを比較して、第1重複率と、第1輝度差を算出し、第1重複率および第1輝度差から第1スコアを算出する。判定部280は、現在時刻の輪郭線と、立体物予測輪郭線とを比較して、第2重複率と、第2輝度差を算出し、第2重複率および第2輝度差から第2スコアを算出する。判定部280は、第1スコアおよび第2スコアを基にして、現在時刻の輪郭線が、立体物であるか路面の模様であるかを判定する。判定部280は、判定結果を出力部290に出力する。   Returning to the description of FIG. The determination unit 280 compares the contour line of the current time with the pattern prediction contour line, calculates the first overlap rate and the first luminance difference, and calculates the first score from the first overlap rate and the first luminance difference. calculate. The determination unit 280 compares the contour line of the current time with the three-dimensional object predicted contour line, calculates the second overlap rate and the second luminance difference, and calculates the second score from the second overlap rate and the second luminance difference. Is calculated. The determination unit 280 determines whether the contour line at the current time is a solid object or a road surface pattern based on the first score and the second score. The determination unit 280 outputs the determination result to the output unit 290.

判定部280が、第1スコアを算出する処理について説明する。判定部280は、現在時刻の輪郭線と、模様予測輪郭線との重複位置を摂動範囲内で調整し、最も重複率が高くなる位置を特定する。判定部280は、特定した最も高い重複率を第1重複率とする。判定部280は、第1重複率と、重複スコアテーブルとを比較して、第1重複率のスコアを算出する。重複スコアテーブルは、重複率をスコアに変換するテーブルであり、重複率が大きいほど、大きなスコアを与える。   A process in which the determination unit 280 calculates the first score will be described. The determination unit 280 adjusts the overlapping position of the contour line of the current time and the pattern predicted contour line within the perturbation range, and specifies the position where the overlapping ratio is the highest. The determination unit 280 sets the identified highest duplication rate as the first duplication rate. The determination unit 280 compares the first duplication rate and the duplication score table to calculate a score for the first duplication rate. The duplication score table is a table for converting the duplication rate into a score, and a larger score is given as the duplication rate is larger.

判定部280は、最も重複率が高くなる現在時刻の輪郭線と、模様予測輪郭線とを固定し、現在時刻の輪郭線と模様予測輪郭線との輝度値の差分値をピクセル毎に算出し、各差分値を合計することで、第1輝度差を算出する。判定部280は、第1輝度差と、輝度差スコアテーブルとを比較して、第1輝度差のスコアを算出する。輝度差スコアテーブルは、輝度差をスコアに変換するテーブルであり、輝度差が小さいほど、大きなスコアを与える。   The determination unit 280 fixes the contour line at the current time at which the duplication rate is the highest and the pattern prediction contour line, and calculates a difference value between the current time contour line and the pattern prediction contour line for each pixel. Then, the first luminance difference is calculated by summing the difference values. The determination unit 280 compares the first luminance difference with the luminance difference score table, and calculates a first luminance difference score. The luminance difference score table is a table for converting a luminance difference into a score, and a larger score is given as the luminance difference is smaller.

判定部280は、上記により求めた第1重複率のスコアと、第1輝度差のスコアとを合計することで、第1スコアを算出する。   The determination unit 280 calculates the first score by summing the score of the first overlap rate obtained as described above and the score of the first luminance difference.

判定部280が、第2スコアを算出する処理について説明する。判定部280は、現在時刻の輪郭線と、立体物予測輪郭線との重複位置を摂動範囲内で調整し、最も重複率が高くなる位置を特定する。判定部280は、特定した最も高い重複率を第2重複率とする。判定部280は、第2重複率と、重複スコアテーブルとを比較して、第2重複率のスコアを算出する。   A process in which the determination unit 280 calculates the second score will be described. The determination unit 280 adjusts the overlapping position of the contour line of the current time and the three-dimensional object predicted contour line within the perturbation range, and specifies the position where the overlapping ratio is the highest. The determination unit 280 sets the identified highest duplication rate as the second duplication rate. The determination unit 280 compares the second duplication rate and the duplication score table to calculate a score for the second duplication rate.

判定部280は、最も重複率が高くなる現在時刻の輪郭線と、立体物予測輪郭線とを固定し、現在時刻の輪郭線と立体物予測輪郭線との輝度値の差分値をピクセル毎に算出し、各差分値を合計することで、第2輝度差を算出する。判定部280は、第2輝度差と、輝度差スコアテーブルとを比較して、第2輝度差のスコアを算出する。   The determination unit 280 fixes the contour line of the current time at which the duplication rate is the highest and the three-dimensional object predicted contour line, and sets the difference value of the luminance value between the current time contour line and the three-dimensional object predicted contour line for each pixel. The second luminance difference is calculated by calculating and summing each difference value. The determination unit 280 compares the second luminance difference and the luminance difference score table to calculate a second luminance difference score.

判定部280は、上記により求めた第2重複率のスコアと、第2輝度差のスコアとを合計することで、第2スコアを算出する。   The determination unit 280 calculates the second score by summing the score of the second overlap ratio obtained above and the score of the second luminance difference.

判定部280は、第1スコアが第2スコアよりも大きい場合には、現在時刻の輪郭線が、路面の模様であると判定する。一方、判定部280は、第1スコアが第2スコアよりも大きくない場合には、現在時刻の輪郭線が立体物であると判定する。   When the first score is greater than the second score, the determination unit 280 determines that the contour line at the current time is a road surface pattern. On the other hand, when the first score is not greater than the second score, the determination unit 280 determines that the contour line at the current time is a three-dimensional object.

図15は、本実施例2に係る判定部の処理を示すフローチャートである。図15に示すように、判定部280は、過去の時刻の輪郭線が照合に成功していない場合には(ステップS80,No)、ステップS88に移行する。一方、判定部280は、過去の時刻の輪郭線が照合に成功している場合には(ステップS80,Yes)、ステップS81に移行する。   FIG. 15 is a flowchart illustrating the process of the determination unit according to the second embodiment. As illustrated in FIG. 15, when the outline of the past time has not been successfully collated (No in step S80), the determination unit 280 proceeds to step S88. On the other hand, the determination part 280 transfers to step S81, when the outline of the past time has succeeded in collation (step S80, Yes).

判定部280は、現在時刻の輪郭線と、模様予測輪郭線とを比較して、第1重複率および第1輝度差を算出する(ステップS81)。判定部280は、第1重複率および第1輝度差を基にして、第1スコアを算出する(ステップS82)。   The determination unit 280 compares the contour line at the current time with the pattern predicted contour line, and calculates the first overlap rate and the first luminance difference (step S81). The determination unit 280 calculates a first score based on the first overlap rate and the first luminance difference (step S82).

判定部280は、現在時刻の輪郭線と、立体物予測輪郭線とを比較して、第2重複率および第2輝度差を算出する(ステップS83)。判定部280は、第2重複率および第2輝度差を基にして、第2スコアを算出する(ステップS84)。   The determination unit 280 compares the contour line at the current time with the three-dimensional object predicted contour line, and calculates the second overlap rate and the second luminance difference (step S83). The determination unit 280 calculates a second score based on the second overlap rate and the second luminance difference (Step S84).

判定部280は、第1スコアが第2スコアよりも大きいか否かを判定する(ステップS85)。判定部280は、第1スコアが第2スコアよりも大きい場合には(ステップS85,Yes)、現在時刻の輪郭線が路面の模様であると判定し(ステップS86)、ステップS88に移行する。   The determination unit 280 determines whether or not the first score is greater than the second score (step S85). If the first score is greater than the second score (Yes at Step S85), the determination unit 280 determines that the contour line at the current time is a road surface pattern (Step S86), and proceeds to Step S88.

一方、判定部280は、第1スコアが第2スコアよりも大きくない場合には(ステップS85,No)、現在時刻の輪郭線が立体物であると判定し(ステップS87)、ステップS88に移行する。   On the other hand, when the first score is not greater than the second score (No at Step S85), the determination unit 280 determines that the contour line at the current time is a three-dimensional object (Step S87), and proceeds to Step S88. To do.

判定部280は、輪郭線DB230の輪郭線のループ処理を終了していない場合には(ステップS88,No)、ステップS80に移行する。一方、判定部280は、輪郭線DB230の輪郭線のループ処理を終了した場合には(ステップS88,Yes)、処理を終了する。   If the determination unit 280 has not finished the loop processing of the contour line in the contour DB 230 (step S88, No), the determination unit 280 proceeds to step S80. On the other hand, when the loop processing of the contour line in the contour DB 230 is completed (Yes in step S88), the determination unit 280 ends the processing.

次に、本実施例2に係る物体検出装置200の処理手順について説明する。図16は、本実施例2に係る物体検出装置の処理手順を示すフローチャートである。図16に示すように、物体検出装置200は、カメラ210から映像データを取得する(ステップS201)。物体検出装置200の特定部250は、特徴点を抽出し(ステップS202)、輪郭線を抽出する(ステップS203)。   Next, a processing procedure of the object detection apparatus 200 according to the second embodiment will be described. FIG. 16 is a flowchart illustrating the processing procedure of the object detection apparatus according to the second embodiment. As shown in FIG. 16, the object detection apparatus 200 acquires video data from the camera 210 (step S201). The specifying unit 250 of the object detection apparatus 200 extracts feature points (step S202) and extracts contour lines (step S203).

物体検出装置200の算出部270は、模様予測輪郭線と立体物予測輪郭線とを作成する(ステップS204)。物体検出装置200の判定部280は、第1スコアおよび第2スコアを基にして、輪郭線が立体物であるか路面の模様であるかを判定する(ステップS205)。   The calculation unit 270 of the object detection device 200 creates a pattern predicted contour and a three-dimensional object predicted contour (step S204). The determination unit 280 of the object detection apparatus 200 determines whether the contour line is a three-dimensional object or a road surface pattern based on the first score and the second score (step S205).

判定部280は、判定結果を出力する(ステップS206)。物体検出装置200は、処理を継続する場合には(ステップS207,Yes)、ステップS201に移行する。物体検出装置200は、処理を継続しない場合には(ステップS207,No)、処理を終了する。   The determination unit 280 outputs a determination result (step S206). When the object detection apparatus 200 continues the process (step S207, Yes), the object detection apparatus 200 proceeds to step S201. If the object detection apparatus 200 does not continue the process (No at Step S207), the object detection apparatus 200 ends the process.

次に、本実施例2に係る物体検出装置200の効果について説明する。物体検出装置200は、第1重複率および第1輝度差を基にして模様予測輪郭線の第1スコアを算出し、第2重複率および第2輝度差を基にして立体物予測輪郭線の第2スコアを算出し、第1スコアおよび第2スコアを基にして、物体が立体物であるか路面の模様であるかを判定する。実施例2の物体検出装置200は、実施例1の処理に加えて、各輪郭線の輝度値の差を更に用いて、判定を行うため、より正確に、物体が立体物であるか路面の模様であるかを判定することができる。   Next, effects of the object detection apparatus 200 according to the second embodiment will be described. The object detection apparatus 200 calculates the first score of the pattern predicted contour based on the first overlap rate and the first luminance difference, and calculates the three-dimensional object predicted contour based on the second overlap rate and the second luminance difference. A second score is calculated, and it is determined whether the object is a three-dimensional object or a road surface pattern based on the first score and the second score. In addition to the processing of the first embodiment, the object detection apparatus 200 of the second embodiment further uses the difference in luminance value of each contour line to perform the determination, and thus more accurately determines whether the object is a three-dimensional object or the road surface. Whether it is a pattern can be determined.

次に、上記実施例に示した物体検出装置100,200と同様の機能を実現する物体検出プログラムを実行するコンピュータの一例について説明する。図17は、物体検出プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an object detection program that realizes the same functions as those of the object detection apparatuses 100 and 200 described in the above embodiment will be described. FIG. 17 is a diagram illustrating an example of a computer that executes an object detection program.

図17に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。   As illustrated in FIG. 17, the computer 300 includes a CPU 301 that executes various arithmetic processes, an input device 302 that receives input of data from a user, and a display 303. The computer 300 includes a reading device 304 that reads a program and the like from a storage medium, an interface device 305 that exchanges data with other computers via a network, and a camera 306. The computer 300 also includes a RAM 307 that temporarily stores various types of information and a hard disk device 308. The devices 301 to 308 are connected to the bus 309.

ハードディスク装置308は、特定プログラム308a、照合プログラム308b、算出プログラム308c、判定プログラム308dを有する。CPU301は、特定プログラム308a、照合プログラム308b、算出プログラム308c、判定プログラム308dを読み出してRAM307に展開する。   The hard disk device 308 has a specific program 308a, a collation program 308b, a calculation program 308c, and a determination program 308d. The CPU 301 reads the specific program 308a, the collation program 308b, the calculation program 308c, and the determination program 308d and develops them in the RAM 307.

特定プログラム308aは、特定プロセス307aとして機能する。照合プログラム308bは、照合プロセス307bとして機能する。算出プログラム308cは、算出プロセス307cとして機能する。判定プログラム308dは、判定プロセス307dとして機能する。   The specific program 308a functions as a specific process 307a. The collation program 308b functions as a collation process 307b. The calculation program 308c functions as a calculation process 307c. The determination program 308d functions as a determination process 307d.

特定プロセス307aの処理は、特定部150,250の処理に対応する。照合プロセス307bの処理は、輪郭線照合部160,260の処理に対応する。算出プロセス307cの処理は、算出部170,270の処理に対応する。判定プロセス307dの処理は、判定部180,280の処理に対応する。   The processing of the specific process 307a corresponds to the processing of the specifying units 150 and 250. The processing of the matching process 307b corresponds to the processing of the contour matching units 160 and 260. The processing of the calculation process 307c corresponds to the processing of the calculation units 170 and 270. The processing of the determination process 307d corresponds to the processing of the determination units 180 and 280.

なお、特定プログラム308a、照合プログラム308b、算出プログラム308c、判定プログラム308dについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a〜308dを読み出して実行するようにしてもよい。   Note that the specific program 308a, the collation program 308b, the calculation program 308c, and the determination program 308d are not necessarily stored in the hard disk device 308 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 300. Then, the computer 300 may read and execute each of the programs 308a to 308d.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)第一のタイミングで撮像された画像に写る対象物の第一輪郭線を特定し、前記第一のタイミングとは異なる第二のタイミングで撮像された画像に写る対象物の第二輪郭線を特定する特定部と、
車両の移動方向、移動速度、及び、前記第一のタイミングと前記第二のタイミングとの時間差を用いて、対象物が路面の模様の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき模様予測輪郭線と、対象物が立体物の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき立体物予測輪郭線とを算出する算出部と、
前記模様予測輪郭線と前記立体物予測輪郭線の内、前記模様
予測輪郭線の長さが前記立体物予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を路面の模様と判定し、前記立体物予測輪郭線の長さが前記模様予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を立体物と判定する判定部と
を有することを特徴とする物体検出装置。
(Supplementary note 1) The first contour line of the object shown in the image taken at the first timing is specified, and the second object shown in the image taken at the second timing different from the first timing is specified. A specific part for specifying an outline,
The first contour line is photographed at the second timing when the object is a road surface pattern using the moving direction of the vehicle, the moving speed, and the time difference between the first timing and the second timing. A calculation unit that calculates a pattern prediction contour to be performed and a three-dimensional object prediction contour to be photographed at the second timing when the object is a three-dimensional object;
Of the predicted pattern contour and the three-dimensional object predicted contour, if the length of the pattern predicted contour is closer to the length of the second contour than the length of the three-dimensional predicted contour, A determination unit that determines a road surface pattern, and determines the target object as a three-dimensional object when the length of the three-dimensional object predicted contour line is closer to the length of the second contour line than the length of the pattern predicted contour line; An object detection apparatus comprising:

(付記2)前記特定部は、前記第一輪郭線の輝度値および前記第二輪郭線の輝度値を更に特定し、前記算出部は、前記第一輪郭線の輝度値を基にして、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に算出し、前記判定部は、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に用いて、対象物が路面の模様であるか立体物であるかを判定することを特徴とする付記1に記載の物体検出装置。 (Supplementary Note 2) The specifying unit further specifies the luminance value of the first contour line and the luminance value of the second contour line, and the calculation unit is configured to determine the luminance value of the first contour line based on the luminance value of the first contour line. The brightness value of the pattern predicted contour and the brightness value of the three-dimensional object predicted contour are further calculated, and the determination unit further uses the brightness value of the pattern predicted contour and the brightness value of the three-dimensional object predicted contour, The object detection apparatus according to appendix 1, wherein it is determined whether the object is a road surface pattern or a three-dimensional object.

(付記3)前記判定部は、前記第二輪郭線と前記模様予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記模様予測輪郭線の輝度値との差分値から第1スコアを算出し、前記第二輪郭線と前記立体物予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記立体物予測輪郭線の輝度値との差分値から第2スコアを算出し、前記第1スコアと前記第2スコアとを基にして、対象物が路面の模様であるか立体物であるかを判定することを特徴とする付記2に記載の物体検出装置。 (Additional remark 3) The said determination part is calculated from the overlap value of the said 2nd outline and the said pattern prediction outline, and the difference value of the luminance value of the said 2nd outline, and the luminance value of the said pattern prediction outline. 1 score is calculated, and the second rate is calculated based on the overlap ratio between the second contour line and the three-dimensional object predicted contour line, and the difference value between the luminance value of the second contour line and the luminance value of the three-dimensional object predicted contour line. The object detection apparatus according to appendix 2, wherein a score is calculated, and it is determined whether the target object is a road surface pattern or a three-dimensional object based on the first score and the second score. .

(付記4)コンピュータが実行する物体検出方法であって、
第一のタイミングで撮像された画像に写る対象物の第一輪郭線を特定し、
前記第一のタイミングとは異なる第二のタイミングで撮像された画像に写る対象物の第二輪郭線を特定し、
車両の移動方向、移動速度、及び、前記第一のタイミングと前記第二のタイミングとの時間差を用いて、対象物が路面の模様の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき模様予測輪郭線と、対象物が立体物の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき立体物予測輪郭線とを算出し、
前記模様予測輪郭線と前記立体物予測輪郭線の内、前記模様予測輪郭線の長さが前記立体物予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を路面の模様と判定し、
前記立体物予測輪郭線の長さが前記模様予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を立体物と判定する
処理を実行することを特徴とする物体検出方法。
(Appendix 4) An object detection method executed by a computer,
Identify the first contour line of the object in the image taken at the first timing,
Identify the second contour line of the object in the image captured at a second timing different from the first timing;
The first contour line is photographed at the second timing when the object is a road surface pattern using the moving direction of the vehicle, the moving speed, and the time difference between the first timing and the second timing. A pattern predicted contour to be performed, and a three-dimensional object predicted contour to be photographed at the second timing when the object is a three-dimensional object;
Of the predicted pattern contour and the three-dimensional object predicted contour, if the length of the pattern predicted contour is closer to the length of the second contour than the length of the three-dimensional predicted contour, Judged as a road pattern,
An object that executes a process of determining a target object as a three-dimensional object when the length of the three-dimensional object predicted contour is closer to the length of the second contour than the length of the pattern predicted contour Detection method.

(付記5)前記コンピュータは、前記第一輪郭線の輝度値および前記第二輪郭線の輝度値を更に特定し、前記算出する処理は、前記第一輪郭線の輝度値を基にして、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に算出し、前記判定する処理は、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に用いて、対象物が路面の模様であるか立体物であるかを判定することを特徴とする付記4に記載の物体検出方法。 (Supplementary Note 5) The computer further specifies the luminance value of the first contour line and the luminance value of the second contour line, and the calculation process is performed based on the luminance value of the first contour line. The brightness value of the pattern predicted contour and the brightness value of the three-dimensional object predicted contour are further calculated, and the determination process further uses the brightness value of the pattern predicted contour and the brightness value of the three-dimensional object predicted contour. The object detection method according to appendix 4, wherein it is determined whether the object is a road surface pattern or a solid object.

(付記6)前記コンピュータは、前記第二輪郭線と前記模様予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記模様予測輪郭線の輝度値との差分値から第1スコアを算出し、前記第二輪郭線と前記立体物予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記立体物予測輪郭線の輝度値との差分値から第2スコアを算出し、前記第1スコアと前記第2スコアとを基にして、対象物が路面の模様であるか立体物であるかを判定することを特徴とする付記5に記載の物体検出方法。 (Additional remark 6) The said computer is 1st from the difference value of the overlapping rate of said 2nd outline and said pattern prediction outline, and the luminance value of said 2nd outline, and the luminance value of said pattern prediction outline. A score is calculated, and the second score is calculated based on the overlap ratio between the second contour line and the three-dimensional object predicted contour line, and the difference value between the luminance value of the second contour line and the luminance value of the three-dimensional object predicted contour line. The object detection method according to appendix 5, wherein the object is determined to be a road surface pattern or a three-dimensional object based on the first score and the second score.

100,200 物体検出装置
110,210 カメラ
120,220 移動量検出部
130,230 輪郭線DB
140,240 映像入力部
150,250 特定部
160,260 輪郭線照合部
170,270 算出部
180,280 判定部
190,290 出力部
100, 200 Object detection device 110, 210 Camera 120, 220 Movement amount detection unit 130, 230 Contour DB
140,240 Video input unit 150,250 Identification unit 160,260 Contour line matching unit 170,270 Calculation unit 180,280 Determination unit 190,290 Output unit

Claims (4)

第一のタイミングで撮像された画像に写る対象物の第一輪郭線を特定し、前記第一のタイミングとは異なる第二のタイミングで撮像された画像に写る対象物の第二輪郭線を特定する特定部と、
車両の移動方向、移動速度、及び、前記第一のタイミングと前記第二のタイミングとの時間差を用いて、対象物が路面の模様の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき模様予測輪郭線と、対象物が立体物の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき立体物予測輪郭線とを算出する算出部と、
前記模様予測輪郭線と前記立体物予測輪郭線の内、前記模様
予測輪郭線の長さが前記立体物予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を路面の模様と判定し、前記立体物予測輪郭線の長さが前記模様予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を立体物と判定する判定部と
を有することを特徴とする物体検出装置。
The first contour line of the object captured in the image captured at the first timing is identified, and the second contour line of the object captured in the image captured at the second timing different from the first timing is identified. Specific part to do,
The first contour line is photographed at the second timing when the object is a road surface pattern using the moving direction of the vehicle, the moving speed, and the time difference between the first timing and the second timing. A calculation unit that calculates a pattern prediction contour to be performed and a three-dimensional object prediction contour to be photographed at the second timing when the object is a three-dimensional object;
Of the predicted pattern contour and the three-dimensional object predicted contour, if the length of the pattern predicted contour is closer to the length of the second contour than the length of the three-dimensional predicted contour, A determination unit that determines a road surface pattern, and determines the target object as a three-dimensional object when the length of the three-dimensional object predicted contour line is closer to the length of the second contour line than the length of the pattern predicted contour line; An object detection apparatus comprising:
前記特定部は、前記第一輪郭線の輝度値および前記第二輪郭線の輝度値を更に特定し、前記算出部は、前記第一輪郭線の輝度値を基にして、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に算出し、前記判定部は、前記模様予測輪郭線の輝度値および前記立体物予測輪郭線の輝度値を更に用いて、対象物が路面の模様であるか立体物であるかを判定することを特徴とする請求項1に記載の物体検出装置。   The specifying unit further specifies a luminance value of the first contour line and a luminance value of the second contour line, and the calculation unit is configured to determine the pattern predicted contour line based on the luminance value of the first contour line. And the determination unit further uses the luminance value of the pattern prediction contour line and the luminance value of the three-dimensional object prediction contour line so that the object is a road surface. The object detection apparatus according to claim 1, wherein it is determined whether the pattern is a solid pattern or a three-dimensional object. 前記判定部は、前記第二輪郭線と前記模様予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記模様予測輪郭線の輝度値との差分値から第1スコアを算出し、前記第二輪郭線と前記立体物予測輪郭線との重複率、および、前記第二輪郭線の輝度値と前記立体物予測輪郭線の輝度値との差分値から第2スコアを算出し、前記第1スコアと前記第2スコアとを基にして、対象物が路面の模様であるか立体物であるかを判定することを特徴とする請求項2に記載の物体検出装置。   The determination unit calculates a first score from an overlap rate between the second contour line and the pattern predicted contour line, and a difference value between a luminance value of the second contour line and a luminance value of the pattern predicted contour line. Then, the second score is calculated from the overlap rate between the second contour line and the three-dimensional object predicted contour line, and the difference value between the luminance value of the second contour line and the luminance value of the three-dimensional object predicted contour line. 3. The object detection apparatus according to claim 2, wherein it is determined whether the target object is a road surface pattern or a three-dimensional object based on the first score and the second score. コンピュータが実行する物体検出方法であって、
第一のタイミングで撮像された画像に写る対象物の第一輪郭線を特定し、
前記第一のタイミングとは異なる第二のタイミングで撮像された画像に写る対象物の第二輪郭線を特定し、
車両の移動方向、移動速度、及び、前記第一のタイミングと前記第二のタイミングとの時間差を用いて、対象物が路面の模様の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき模様予測輪郭線と、対象物が立体物の場合に前記第一輪郭線が前記第二のタイミングで撮影されるべき立体物予測輪郭線とを算出し、
前記模様予測輪郭線と前記立体物予測輪郭線の内、前記模様予測輪郭線の長さが前記立体物予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を路面の模様と判定し、
前記立体物予測輪郭線の長さが前記模様予測輪郭線の長さよりも前記第二輪郭線の長さに近い場合には対象物を立体物と判定する
処理を実行することを特徴とする物体検出方法。
An object detection method executed by a computer,
Identify the first contour line of the object in the image taken at the first timing,
Identify the second contour line of the object in the image captured at a second timing different from the first timing;
The first contour line is photographed at the second timing when the object is a road surface pattern using the moving direction of the vehicle, the moving speed, and the time difference between the first timing and the second timing. A pattern predicted contour to be performed, and a three-dimensional object predicted contour to be photographed at the second timing when the object is a three-dimensional object;
Of the predicted pattern contour and the three-dimensional object predicted contour, if the length of the pattern predicted contour is closer to the length of the second contour than the length of the three-dimensional predicted contour, Judged as a road pattern,
An object that executes a process of determining a target object as a three-dimensional object when the length of the three-dimensional object predicted contour is closer to the length of the second contour than the length of the pattern predicted contour Detection method.
JP2015239391A 2015-12-08 2015-12-08 Object detection apparatus and object detection method Expired - Fee Related JP6565650B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015239391A JP6565650B2 (en) 2015-12-08 2015-12-08 Object detection apparatus and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015239391A JP6565650B2 (en) 2015-12-08 2015-12-08 Object detection apparatus and object detection method

Publications (2)

Publication Number Publication Date
JP2017107327A JP2017107327A (en) 2017-06-15
JP6565650B2 true JP6565650B2 (en) 2019-08-28

Family

ID=59059670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015239391A Expired - Fee Related JP6565650B2 (en) 2015-12-08 2015-12-08 Object detection apparatus and object detection method

Country Status (1)

Country Link
JP (1) JP6565650B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
JP5226641B2 (en) * 2009-10-14 2013-07-03 東芝アルパイン・オートモティブテクノロジー株式会社 Obstacle detection device for vehicle
JP6328369B2 (en) * 2012-11-27 2018-05-23 クラリオン株式会社 In-vehicle control device
JP2015184929A (en) * 2014-03-24 2015-10-22 株式会社東芝 Three-dimensional object detection apparatus, three-dimensional object detection method and three-dimensional object detection program

Also Published As

Publication number Publication date
JP2017107327A (en) 2017-06-15

Similar Documents

Publication Publication Date Title
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP4516516B2 (en) Person detection device, person detection method, and person detection program
KR101457313B1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP4855556B1 (en) Moving object detection apparatus, moving object detection method, moving object detection program, moving object tracking apparatus, moving object tracking method, and moving object tracking program
KR20170133269A (en) Video processing apparatus, video processing method, and program
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
JP4874150B2 (en) Moving object tracking device
US20170177970A1 (en) Image processing method, image processing apparatus, image processing system, production apparatus, and recording medium
JP2008250999A (en) Object tracing method, object tracing device and object tracing program
CN112308879A (en) Image processing apparatus, method of tracking target object, and storage medium
WO2014129018A1 (en) Character recognition device, character recognition method, and recording medium
JP2008288684A (en) Person detection device and program
JP2008035301A (en) Mobile body tracing apparatus
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP6565650B2 (en) Object detection apparatus and object detection method
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP6393495B2 (en) Image processing apparatus and object recognition method
JP5470529B2 (en) Motion detection device, motion detection method, and motion detection program
CN109977740B (en) Depth map-based hand tracking method
KR101837482B1 (en) Image processing method and apparatus, and interface method and apparatus of gesture recognition using the same
JP6464706B2 (en) Object detection method, object detection program, and object detection apparatus
JP2014106754A (en) Finger direction specifying system, finger direction specifying method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees