JP6464706B2 - Object detection method, object detection program, and object detection apparatus - Google Patents

Object detection method, object detection program, and object detection apparatus Download PDF

Info

Publication number
JP6464706B2
JP6464706B2 JP2014247177A JP2014247177A JP6464706B2 JP 6464706 B2 JP6464706 B2 JP 6464706B2 JP 2014247177 A JP2014247177 A JP 2014247177A JP 2014247177 A JP2014247177 A JP 2014247177A JP 6464706 B2 JP6464706 B2 JP 6464706B2
Authority
JP
Japan
Prior art keywords
edge
edge feature
feature
contour line
symmetry
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014247177A
Other languages
Japanese (ja)
Other versions
JP2016110384A (en
Inventor
純 金武
純 金武
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014247177A priority Critical patent/JP6464706B2/en
Publication of JP2016110384A publication Critical patent/JP2016110384A/en
Application granted granted Critical
Publication of JP6464706B2 publication Critical patent/JP6464706B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体検出方法等に関する。   The present invention relates to an object detection method and the like.

車両のような移動体に外界を映すカメラを取り付け、撮影映像から物体を検出する方法として、オプティカルフローを用いた従来技術1がある。図20は、従来技術1を説明するための図である。この従来技術1では、撮影画像に含まれる各時刻の画像から特徴点を抽出し、時間変化に伴う特徴点の位置ずれ量を算出する。以下の説明では、特徴点の位置ずれ量を、フロー量と表記する。図20に示す例では、従来技術1は、時刻tの画像10から特徴点10aを検出し、時刻t+1の画像11から特徴点11aを検出する。従来技術1は、特徴点10aと特徴点11aとの位置ずれ量を、フロー量として算出する。   As a method for detecting an object from a photographed image by attaching a camera that reflects the outside world to a moving body such as a vehicle, there is a related art 1 using an optical flow. FIG. 20 is a diagram for explaining the related art 1. In this prior art 1, feature points are extracted from images at each time included in a photographed image, and the amount of positional deviation of the feature points with time change is calculated. In the following description, the amount of misregistration of feature points is expressed as a flow amount. In the example illustrated in FIG. 20, the related art 1 detects the feature point 10 a from the image 10 at time t and detects the feature point 11 a from the image 11 at time t + 1. Prior art 1 calculates the amount of displacement between the feature point 10a and the feature point 11a as a flow amount.

従来技術1は、フロー量が閾値以上であるか否かに応じて、画像10,11に含まれる物体が立体物であるかを判定する。例えば、従来技術1は、フロー量が閾値以上である場合には、物体1が立体物であると判定する。従来技術1は、フロー量が閾値未満である場合には、物体1が路面模様であると判定する。従来技術1が利用する閾値は、移動体の移動量や画像位置によって算出される。   Prior art 1 determines whether an object included in images 10 and 11 is a three-dimensional object according to whether or not the flow amount is equal to or greater than a threshold value. For example, the related art 1 determines that the object 1 is a three-dimensional object when the flow amount is equal to or greater than a threshold value. Prior art 1 determines that object 1 is a road surface pattern when the flow amount is less than the threshold value. The threshold value used by the prior art 1 is calculated based on the moving amount of the moving body and the image position.

ここで、従来技術1では、フロー量の大きさから立体物を識別するが、特徴点1点のみで立体物と路面とを識別するのはノイズの影響を受ける。このため、従来技術1は、物体から特徴点の塊を抽出して、フロー量が閾値以上となる特徴点数が一定数以上であれば、物体が立体物であると判定することで、ノイズの影響を軽減する。   Here, in the prior art 1, a three-dimensional object is identified from the magnitude of the flow amount. However, identifying a three-dimensional object and a road surface with only one feature point is affected by noise. For this reason, the prior art 1 extracts a cluster of feature points from an object, and determines that the object is a three-dimensional object if the number of feature points with a flow amount equal to or greater than a threshold value is greater than or equal to a certain number. Reduce the impact.

しかし、従来技術1の原理的な課題として、ある時刻の特徴点と、続く時刻の特徴点とを一意に対応付けることができない。例えば、画像12について、ある時刻の物体を物体2とし、続く時刻の物体を物体3とする。また、従来技術1は、物体2から特徴点12aを抽出し、物体3から特徴点12b,12c,12dを抽出したとする。この場合には、特徴点12aが、特徴点12b〜12dのうち何れの特徴点と対応するのかを特定することがでないため、フロー量を算出することができない。一般的に、物体の形状は垂直方向であるため、物体の形状の方向と特徴点の移動方向とが一致する画像中央部では、物体の検出が困難である。   However, as a fundamental problem of Prior Art 1, it is not possible to uniquely associate a feature point at a certain time with a feature point at a subsequent time. For example, in the image 12, an object at a certain time is defined as an object 2, and an object at a subsequent time is defined as an object 3. Further, it is assumed that the conventional technique 1 extracts the feature point 12a from the object 2 and extracts the feature points 12b, 12c, and 12d from the object 3. In this case, since it is not possible to specify which of the feature points 12b to 12d corresponds to the feature point 12a, the flow amount cannot be calculated. In general, since the shape of an object is a vertical direction, it is difficult to detect the object at the center of the image where the direction of the shape of the object matches the moving direction of the feature point.

上記従来技術1の課題を解決する従来技術として、従来技術2が存在する。従来技術2は、物体の端点を用いた照合を行う。図21は、従来技術2を説明するための図(1)である。端点であれば、特徴点の移動方向と物体の形状が同じになっても各時刻の特徴点を一意に対応付けることができる。図21に示す例では、従来技術2は、時刻tの画像20から端点20aおよび20bを検出し、時刻t+1の画像21から端点21aおよび21bを検出する。また、端点を用いているため、従来技術2では、端点20aと端点21aとを一意に対応付け、端点20bと端点21bとを一意に対応付けることができる。   Conventional technique 2 exists as a conventional technique for solving the problems of conventional technique 1. Prior art 2 performs collation using the end points of the object. FIG. 21 is a diagram (1) for explaining the related art 2. If it is an end point, the feature point at each time can be uniquely associated even if the moving direction of the feature point is the same as the shape of the object. In the example illustrated in FIG. 21, the related art 2 detects the end points 20 a and 20 b from the image 20 at time t, and detects the end points 21 a and 21 b from the image 21 at time t + 1. In addition, since the end points are used, in the related art 2, the end points 20a and 21a can be uniquely associated, and the end points 20b and 21b can be uniquely associated.

従来技術2では、端点を求める場合に、複数の特徴点を縦方向につなげることで輪郭線を生成し、生成した輪郭線の上端および下端を端点として検出する。図22は、従来技術2を説明するための図(2)である。図22に示す例では、従来技術2は、物体4の特徴点30〜39を検出し、縦方向に隣接する各特徴点30〜39をつなげることで、輪郭線3Aを検出する。   In the prior art 2, when an end point is obtained, a contour line is generated by connecting a plurality of feature points in the vertical direction, and the upper end and the lower end of the generated contour line are detected as end points. FIG. 22 is a diagram (2) for explaining the prior art 2. In the example illustrated in FIG. 22, the related art 2 detects the contour 3 </ b> A by detecting the feature points 30 to 39 of the object 4 and connecting the feature points 30 to 39 adjacent in the vertical direction.

なお、横方向の輪郭線は、立体物の幅に依存するため、検出することは難しい。例えば、ポールのような狭い立体物は横方向の輪郭線を検出することができない。また、路面模様の白線が立体物を跨いで遠方まで続いている場合にも、立体物の横方向の輪郭線を抽出することは難しい。このため、従来技術2では、縦方向の輪郭線を検出し、端点を検出する。   In addition, since the outline of a horizontal direction is dependent on the width | variety of a solid object, it is difficult to detect. For example, a narrow three-dimensional object such as a pole cannot detect a horizontal outline. In addition, it is difficult to extract a horizontal outline of a three-dimensional object even when a white line of a road surface pattern extends across the three-dimensional object to a distance. For this reason, in the prior art 2, the outline in the vertical direction is detected, and the end point is detected.

特開2007−334859号公報JP 2007-334859 A 特開2008−77624号公報JP 2008-77624 A

しかしながら、上述した従来技術では、立体物を安定して検出することができないという問題がある。   However, the above-described conventional technique has a problem that a three-dimensional object cannot be detected stably.

図23は、従来技術の問題点を説明するための図である。例えば、明るさの変化、物体と背景との見え方などにより、輝度差が小さくなり、物体の輪郭線上であっても、特徴点が検出されない箇所が発生する場合がある。特徴点が検出されないと、例えば、輪郭線の途切れの発生や、端点位置で特徴点が検出されないことによって、正確な端点が得られない場合がある。   FIG. 23 is a diagram for explaining the problems of the prior art. For example, the brightness difference may become small due to changes in brightness, the way the object looks in the background, and the like, and there may be places where feature points are not detected even on the outline of the object. If a feature point is not detected, an accurate end point may not be obtained due to, for example, the occurrence of a break in the contour line or the feature point not being detected at the end point position.

図23に示す例では、物体4から特徴点41〜47が検出され、一部の箇所から特徴点が検出されていない。例えば、特徴点43〜44の間に、特徴点が検出されていない。従来技術2により、輪郭線を生成すると、特徴点43と特徴点44との距離が離れているため、特徴点43と特徴点44との間に輪郭線が生成されず、輪郭線4Aおよび4Bが生成され、輪郭線が途切れてしまい、正確な端点を検出することができない。このように、正確に端点を検出することができないと、各時刻の画像から検出した端点を正確に対応付けることができず、正確なフロー量を算出できなくなり、この結果、立体物を安定して検出することができない。   In the example shown in FIG. 23, the feature points 41 to 47 are detected from the object 4, and the feature points are not detected from some parts. For example, no feature point is detected between the feature points 43 to 44. When the contour line is generated according to the conventional technique 2, the distance between the feature point 43 and the feature point 44 is long, so that no contour line is generated between the feature point 43 and the feature point 44, and the contour lines 4A and 4B. Is generated, the outline is interrupted, and an accurate end point cannot be detected. As described above, if the end points cannot be accurately detected, the end points detected from the images at the respective times cannot be accurately associated, and an accurate flow amount cannot be calculated. It cannot be detected.

1つの側面では、立体物を安定して検出することができる物体検出方法、物体検出プログラムおよび物体検出装置を提供することを目的とする。   An object of one aspect is to provide an object detection method, an object detection program, and an object detection apparatus that can detect a three-dimensional object stably.

第1の案では、コンピュータは、下記の処理を実行する。コンピュータは、移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出する。コンピュータは、抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した第2エッジ特徴を基にして、第1エッジ特徴を一次補間する。コンピュータは、一次補間を行った複数の第1エッジ特徴を比較して、対称性を持つ第1エッジ特徴の組を判定する。コンピュータは、判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間する。コンピュータは、一次補間または二次補間を行った第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する。   In the first plan, the computer executes the following processing. The computer extracts edge features from a plurality of images taken at different shooting times by a camera installed on the moving body. The computer determines, based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time, and the determined second edge feature is determined. Based on this, the first edge feature is linearly interpolated. The computer compares a plurality of first edge features subjected to linear interpolation to determine a set of first edge features having symmetry. When the end point position of the first edge feature is not the same end point position, the computer performs second-order interpolation on the other end point position based on the end point position of one of the first edge features. . The computer determines whether or not the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to primary interpolation or secondary interpolation.

本発明の1実施態様によれば、立体物を安定して検出することができる。   According to one embodiment of the present invention, a three-dimensional object can be detected stably.

図1は、本実施例に係る物体検出装置が行う一次補間処理を説明するための図である。FIG. 1 is a diagram for explaining primary interpolation processing performed by the object detection apparatus according to the present embodiment. 図2は、途切れ箇所を補間できない複数時刻の輪郭線の一例を示す図である。FIG. 2 is a diagram illustrating an example of contour lines at a plurality of times at which discontinuities cannot be interpolated. 図3は、本実施例に係る物体検出装置が行う二次補間処理を説明するための図である。FIG. 3 is a diagram for explaining secondary interpolation processing performed by the object detection apparatus according to the present embodiment. 図4は、本実施例に係る物体検出装置の構成を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating the configuration of the object detection apparatus according to the present embodiment. 図5は、輪郭線情報テーブルのデータ構造の一例を示す図である。FIG. 5 is a diagram illustrating an example of a data structure of the contour line information table. 図6は、輪郭線抽出部の処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure of the contour line extraction unit. 図7は、エッジ点Aの1ライン上の隣接画素を説明するための図である。FIG. 7 is a diagram for explaining adjacent pixels on one line of the edge point A. FIG. 図8は、輪郭線統合部の一次補間処理の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing the processing procedure of the primary interpolation processing of the contour line integration unit. 図9は、類似度判定処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure of similarity determination processing. 図10は、輪郭線統合部が類似度を算出する処理を補足説明するための図である。FIG. 10 is a diagram for supplementarily explaining processing in which the contour line integration unit calculates similarity. 図11は、輪郭線統合部が実行する一次補間処理を示す図である。FIG. 11 is a diagram illustrating a primary interpolation process executed by the contour line integration unit. 図12は、対称性判定部の二次補間処理の処理手順を示すフローチャートである。FIG. 12 is a flowchart illustrating a processing procedure of the secondary interpolation processing of the symmetry determining unit. 図13は、対称度合いを算出する処理の処理手順を示すフローチャートである。FIG. 13 is a flowchart illustrating a processing procedure for calculating the degree of symmetry. 図14は、対称度合いを算出する処理を補足説明するための図(1)である。FIG. 14 is a diagram (1) for supplementarily explaining the process of calculating the degree of symmetry. 図15は、対称度合いを算出する処理を補足説明するための図(2)である。FIG. 15 is a diagram (2) for supplementarily explaining the process of calculating the degree of symmetry. 図16は、対称度合いを算出する処理を補足説明するための図(3)である。FIG. 16 is a diagram (3) for supplementarily explaining the process of calculating the degree of symmetry. 図17は、対称性判定部が実行する二次補間処理を示す図である。FIG. 17 is a diagram illustrating a secondary interpolation process executed by the symmetry determining unit. 図18は、本実施例に係る物体検出装置の処理手順を示すフローチャートである。FIG. 18 is a flowchart illustrating the processing procedure of the object detection apparatus according to the present embodiment. 図19は、物体検出プログラムを実行するコンピュータの一例を示す図である。FIG. 19 is a diagram illustrating an example of a computer that executes an object detection program. 図20は、従来技術1を説明するための図である。FIG. 20 is a diagram for explaining the related art 1. 図21は、従来技術2を説明するための図(1)である。FIG. 21 is a diagram (1) for explaining the related art 2. 図22は、従来技術2を説明するための図(2)である。FIG. 22 is a diagram (2) for explaining the prior art 2. 図23は、従来技術の問題点を説明するための図である。FIG. 23 is a diagram for explaining the problems of the prior art.

以下に、本願の開示する物体検出方法、物体検出プログラムおよび物体検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of an object detection method, an object detection program, and an object detection device disclosed in the present application will be described in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

本実施例に係る物体検出装置の処理について説明する。物体検出装置は、複数時刻の輪郭線から同一物体の輪郭線を統合する一次補間処理と、物体の対称性を用いて、輪郭線を相互補間する二次補間処理を行う。   Processing of the object detection apparatus according to the present embodiment will be described. The object detection apparatus performs a primary interpolation process for integrating the contour lines of the same object from the contour lines at a plurality of times, and a secondary interpolation process for interpolating the contour lines using the symmetry of the object.

一次補間処理について説明する。図1は、本実施例に係る物体検出装置が行う一次補間処理を説明するための図である。ある時刻の輪郭線から途切れた輪郭線の補間を行うことは難しいが、別の時刻では移動体の移動によって明るさや物体の見え方が変化するため、物体の見え方が異なり、抽出される輪郭線が時刻によって異なる。物体検出装置は、複数時刻の輪郭線を統合することで、ある時刻では途切れていた箇所を補間することが可能となる。   The primary interpolation process will be described. FIG. 1 is a diagram for explaining primary interpolation processing performed by the object detection apparatus according to the present embodiment. It is difficult to interpolate a contour line that has been interrupted from the contour line at a certain time, but the brightness and the appearance of the object change depending on the movement of the moving object at another time, so the appearance of the object differs and the extracted contour Lines vary with time. The object detection device can interpolate a portion that has been interrupted at a certain time by integrating contour lines at a plurality of times.

図1に示す例では、物体検出装置は、時刻t-2のフレームに含まれる物体5から、輪郭線51,52,53を抽出し、途切れ箇所6aが発生する。物体検出装置は、時刻t-1のフレームに含まれる物体5から、輪郭線54,55,56を抽出し、途切れ箇所6bが発生する。物体検出装置は、時刻tのフレームに含まれる物体5から、輪郭線57,58を抽出し、途切れ箇所6cが発生する。   In the example shown in FIG. 1, the object detection apparatus extracts contour lines 51, 52, and 53 from the object 5 included in the frame at time t-2, and the discontinuity 6a occurs. The object detection device extracts the contour lines 54, 55, and 56 from the object 5 included in the frame at time t-1, and the discontinuity 6b is generated. The object detection device extracts the contour lines 57 and 58 from the object 5 included in the frame at time t, and the discontinuity 6c occurs.

物体検出装置は、複数時刻の各輪郭線51〜58を統合することで、統合輪郭線60を生成する。物体検出装置は、統合輪郭線60と、時刻t-2のフレームの輪郭線51〜53とを比較して、途切れ箇所6aを補間することで、輪郭線61を生成する。物体検出装置は、統合輪郭線60と、時刻t-1のフレームの輪郭線54〜56とを比較して、途切れ箇所6bを補間することで、輪郭線62を生成する。物体検出装置は、統合輪郭線60と、時刻tのフレームの輪郭線57,58とを比較して、途切れ箇所6cを補間することで、輪郭線63を生成する。   The object detection device generates the integrated contour 60 by integrating the contours 51 to 58 at a plurality of times. The object detection device compares the integrated contour line 60 with the contour lines 51 to 53 of the frame at time t-2, and generates the contour line 61 by interpolating the discontinuity 6a. The object detection device compares the integrated contour line 60 with the contour lines 54 to 56 of the frame at time t-1 and interpolates the discontinuity portion 6b to generate the contour line 62. The object detection device compares the integrated contour 60 with the contours 57 and 58 of the frame at time t, and generates the contour 63 by interpolating the discontinuity 6c.

しかし、複数時刻の輪郭線を統合しても、途切れ箇所を補間できない場合がある。図2は、途切れ箇所を補間できない複数時刻の輪郭線の一例を示す図である。図2に示す例では、物体検出装置は、時刻t-2のフレームに含まれる物体7から、輪郭線71,72を抽出し、途切れ箇所8aが発生する。物体検出装置は、時刻t-1のフレームに含まれる物体7から輪郭線73,74を抽出し、途切れ箇所8bが発生する。物体検出装置は、時刻tのフレームに含まれる物体7から輪郭線75,76を抽出し、途切れ箇所8cが発生する。   However, even if a plurality of contour lines are integrated, there is a case where the interrupted portion cannot be interpolated. FIG. 2 is a diagram illustrating an example of contour lines at a plurality of times at which discontinuities cannot be interpolated. In the example illustrated in FIG. 2, the object detection device extracts contour lines 71 and 72 from the object 7 included in the frame at time t−2, and the discontinuity 8a occurs. The object detection device extracts the contour lines 73 and 74 from the object 7 included in the frame at time t-1, and a discontinuity 8b occurs. The object detection device extracts the contour lines 75 and 76 from the object 7 included in the frame at time t, and a discontinuity 8c occurs.

物体検出装置は、複数時刻の各輪郭線71〜76を統合することで、統合輪郭線80を生成する。しかし、統合輪郭線80にも途切れ箇所80a,80bが発生する。このため、係る途切れ箇所80a,80bの影響により、統合輪郭線80を用いても、各時刻の輪郭線を補間することができない。このような場合には、物体検出装置は、二次補間処理を実行する。   The object detection device generates an integrated contour 80 by integrating the contours 71 to 76 at a plurality of times. However, interrupted portions 80a and 80b also occur in the integrated contour line 80. For this reason, due to the influence of the discontinuous points 80a and 80b, the contour line at each time cannot be interpolated even if the integrated contour line 80 is used. In such a case, the object detection device executes a secondary interpolation process.

図3は、本実施例に係る物体検出装置が行う二次補間処理を説明するための図である。物体検出装置は、同一時刻のフレーム内において、2本の輪郭線が対称であるか否かを判定する。物体検出装置は、2本の輪郭線が対称である場合には、対称となる各輪郭線の形状および端点の位置を同じになるため、各輪郭線の途切れ箇所を補間する。   FIG. 3 is a diagram for explaining secondary interpolation processing performed by the object detection apparatus according to the present embodiment. The object detection device determines whether or not the two contour lines are symmetric within the frame at the same time. When the two contour lines are symmetric, the object detection apparatus interpolates the discontinuity portion of each contour line because the shape of each symmetric contour and the position of the end point are the same.

図3に示す例では、物体検出装置は、ある時刻のフレームに含まれる物体8から、輪郭線85aを抽出し、途切れ箇所86aが発生する。物体検出装置は、物体8から、輪郭線85bを抽出し、途切れ箇所86bが発生する。ここで、物体検出装置は、輪郭線85aと輪郭線85bとが対称であると判定した場合には、途切れ箇所86aを、輪郭線85bによって補間することで、輪郭線87aを生成する。また、物体検出装置は、輪郭線85aと輪郭線85bとが対称であると判定した場合には、途切れ箇所86bを、輪郭線85aによって補間することで、輪郭線87bを生成する。なお、物体検出装置は、各輪郭線が対称性を持たない輪郭線の組については、二次補間処理を実行しない。   In the example illustrated in FIG. 3, the object detection device extracts the contour line 85a from the object 8 included in the frame at a certain time, and a discontinuity point 86a is generated. The object detection device extracts the contour line 85b from the object 8, and a discontinuous portion 86b is generated. Here, when it is determined that the contour line 85a and the contour line 85b are symmetric, the object detection device generates the contour line 87a by interpolating the discontinuity portion 86a with the contour line 85b. If the object detection device determines that the contour line 85a and the contour line 85b are symmetric, the object detection device generates the contour line 87b by interpolating the discontinuity portion 86b with the contour line 85a. Note that the object detection apparatus does not execute the secondary interpolation process for a set of contour lines in which each contour line has no symmetry.

上記のように、物体検出装置が、一次補間処理および二次補間処理を実行することで、輪郭線に途切れ箇所や端点位置に誤りがあっても正しく輪郭線を抽出することができ、これにより、立体物を安定して検出することが可能になる。   As described above, the object detection device executes the primary interpolation process and the secondary interpolation process, so that the contour line can be correctly extracted even if there is an error in the discontinuity point or the end point position in the contour line. It becomes possible to detect a solid object stably.

次に、本実施例に係る物体検出装置の構成について説明する。図4は、本実施例に係る物体検出装置の構成を示す機能ブロック図である。図4に示すように、物体検出装置100は、カメラ90に接続される。物体検出装置100は、記憶部110、映像入力部120、特徴点抽出部130、輪郭線抽出部140、輪郭線統合部150、対称性判定部160、立体物判定部170、結果出力部180を有する。   Next, the configuration of the object detection apparatus according to the present embodiment will be described. FIG. 4 is a functional block diagram illustrating the configuration of the object detection apparatus according to the present embodiment. As shown in FIG. 4, the object detection device 100 is connected to a camera 90. The object detection apparatus 100 includes a storage unit 110, a video input unit 120, a feature point extraction unit 130, a contour line extraction unit 140, a contour line integration unit 150, a symmetry determination unit 160, a three-dimensional object determination unit 170, and a result output unit 180. Have.

カメラ90は、車両等の移動体に設置される単眼の撮影装置である。カメラ90は、撮影範囲の映像情報を、物体検出装置100に出力する。映像情報は、時刻毎のフレームを含む。   The camera 90 is a monocular imaging device installed on a moving body such as a vehicle. The camera 90 outputs video information of the shooting range to the object detection device 100. The video information includes a frame for each time.

記憶部110は、輪郭線情報テーブル110aを記憶する。記憶部110は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。   The storage unit 110 stores an outline information table 110a. The storage unit 110 corresponds to a storage device such as a semiconductor memory element such as a random access memory (RAM), a read only memory (ROM), and a flash memory.

輪郭線情報テーブル110aは、フレームから検出される輪郭線の情報を保持するテーブルである。図5は、輪郭線情報テーブルのデータ構造の一例を示す図である。図5に示すように、この輪郭線情報テーブルは、フレーム識別番号と、輪郭線番号と、始点座標と、終点座標とを対応付ける。フレーム識別番号は、映像情報に含まれるフレームを一意に識別する情報である。輪郭線番号は、輪郭線を一意に識別する情報である。始点座標および終点座標は、輪郭線の始点座標と終点座標を示す情報である。なお、輪郭線情報テーブル110aは、輪郭線に関するその他の情報を対応付けて保持してもよい。   The contour line information table 110a is a table that holds information on contour lines detected from a frame. FIG. 5 is a diagram illustrating an example of a data structure of the contour line information table. As shown in FIG. 5, this outline information table associates frame identification numbers, outline numbers, start point coordinates, and end point coordinates. The frame identification number is information that uniquely identifies a frame included in the video information. The contour line number is information for uniquely identifying the contour line. The start point coordinates and end point coordinates are information indicating the start point coordinates and end point coordinates of the contour line. Note that the contour line information table 110a may hold other information related to the contour line in association with each other.

映像入力部120は、カメラ90から映像情報の入力を受け付けるインタフェースである。映像入力部120は、映像情報を特徴点抽出部130に出力する。映像入力部120は、映像情報がアナログ映像である場合には、デジタル変換する。映像入力部120は、映像情報がカラー画像である場合には、モノクロ画像に変換する。映像入力部120は、モノクロ画像のデジタル映像を、特徴点抽出部130に出力する。   The video input unit 120 is an interface that receives input of video information from the camera 90. The video input unit 120 outputs the video information to the feature point extraction unit 130. The video input unit 120 performs digital conversion when the video information is an analog video. If the video information is a color image, the video input unit 120 converts it to a monochrome image. The video input unit 120 outputs a digital video of a monochrome image to the feature point extraction unit 130.

特徴点抽出部130は、映像情報に含まれる各画像フレームから、特徴点を抽出する処理部である。特徴点抽出部130は、抽出部の一例である。例えば、特徴点抽出部130は、画像フレームからエッジ抽出を行い、特徴点画像を生成する。特徴点抽出部130は、特徴点画像の情報を、輪郭線抽出部140に出力する。例えば、特徴点画像には、エッジ点毎に、エッジ点の座標、エッジ点の強度の情報が対応付けられる。   The feature point extraction unit 130 is a processing unit that extracts feature points from each image frame included in the video information. The feature point extraction unit 130 is an example of an extraction unit. For example, the feature point extraction unit 130 performs edge extraction from the image frame and generates a feature point image. The feature point extraction unit 130 outputs the feature point image information to the contour line extraction unit 140. For example, the feature point image is associated with edge point coordinates and edge point intensity information for each edge point.

特徴点抽出部130は、Sobelのような一般的な微分オペレータを作用させ、微分処理によって得られるエッジの強度と予め定めた強度閾値とを比較し、閾値以上となるエッジを抽出する。特徴点抽出部130は、画像フレームから抽出したエッジについて隣接横画素2つのエッジ強度を比較し、ピーク値となればエッジ点とする細線化を行ってもよい。   The feature point extraction unit 130 operates a general differential operator such as Sobel, compares the edge strength obtained by the differential processing with a predetermined strength threshold, and extracts an edge that is equal to or greater than the threshold. The feature point extraction unit 130 may compare the edge strengths of two adjacent horizontal pixels with respect to the edge extracted from the image frame, and may perform thinning as an edge point if the peak value is reached.

輪郭線抽出部140は、特徴点画像を基にして、特徴点座標上のエッジ点をつなげることで、輪郭線を抽出する処理部である。図6は、輪郭線抽出部の処理手順を示すフローチャートである。図6に示すように、輪郭線抽出部140は、特徴点画像上の未処理のエッジ点を選択する(ステップS101)。ステップS101において選択されたエッジ点を、便宜上、エッジ点Aと表記する。   The contour line extraction unit 140 is a processing unit that extracts a contour line by connecting edge points on feature point coordinates based on a feature point image. FIG. 6 is a flowchart illustrating a processing procedure of the contour line extraction unit. As shown in FIG. 6, the contour line extraction unit 140 selects an unprocessed edge point on the feature point image (step S101). The edge point selected in step S101 is denoted as edge point A for convenience.

輪郭線抽出部140は、エッジ点Aの1ライン上の隣接画素に接続可能なエッジ点が存在するか否かを判定する(ステップS102)。ステップS101における接続可能なエッジ点を、便宜上、エッジ点Bと表記する。図7は、エッジ点Aの1ライン上の隣接画素を説明するための図である。例えば、エッジ点Aを基準にすると、1ライン上の隣接画素は、図7の領域89aに対応する。図7に示す例では、領域89aに、エッジ点Bが存在している。   The contour line extraction unit 140 determines whether there is an edge point that can be connected to an adjacent pixel on one line of the edge point A (step S102). The connectable edge point in step S101 is referred to as an edge point B for convenience. FIG. 7 is a diagram for explaining adjacent pixels on one line of the edge point A. FIG. For example, with the edge point A as a reference, adjacent pixels on one line correspond to the region 89a in FIG. In the example shown in FIG. 7, the edge point B exists in the area 89a.

図6の説明に戻る。輪郭線抽出部140は、エッジ点Aの1ライン上の隣接画素に接続可能なエッジ点が存在しない場合には(ステップS102,No)、ステップS110に移行する。一方、輪郭線抽出部140は、エッジ点Aの1ライン上の隣接画素に接続可能なエッジ点Bが存在する場合には(ステップS102,Yes)、エッジ点Bが複数存在するか否かを判定する(ステップS103)。   Returning to the description of FIG. If there is no edge point that can be connected to an adjacent pixel on one line of the edge point A (No in step S102), the contour line extraction unit 140 proceeds to step S110. On the other hand, when there is an edge point B that can be connected to an adjacent pixel on one line of the edge point A (step S102, Yes), the contour line extraction unit 140 determines whether there are a plurality of edge points B. Determination is made (step S103).

輪郭線抽出部140は、エッジ点Bが複数存在するか否かを判定する(ステップS103)。輪郭線抽出部140は、エッジ点Bが複数存在しない場合には(ステップS103,No)、ステップS105に移行する。一方、輪郭線抽出部140は、エッジ点Bが複数存在する場合には(ステップS103,Yes)、最適なエッジ点Bを選択する。ステップS103において、例えば、輪郭線抽出部140は、複数のエッジ点Bの強度および傾きと、エッジ点Aの強度および傾きとを比較して、エッジ点Aの強度および傾きに最も類似するエッジ点Bを、最適なエッジ点として選択する。例えば、輪郭線抽出部140は、エッジ点Bの傾きは、エッジ点Aとエッジ点Bとを結んだ線分の傾きとし、エッジ点Aの傾きは、かかるエッジ点Aを有する輪郭線上の点と、エッジ点とを結んだ線分の傾きとする。   The contour line extraction unit 140 determines whether or not there are a plurality of edge points B (step S103). If there are not a plurality of edge points B (No at Step S103), the contour line extracting unit 140 proceeds to Step S105. On the other hand, when there are a plurality of edge points B (Yes in step S103), the contour line extraction unit 140 selects an optimum edge point B. In step S103, for example, the contour line extraction unit 140 compares the strength and inclination of the plurality of edge points B with the strength and inclination of the edge point A, and the edge point that is most similar to the strength and inclination of the edge point A B is selected as the optimal edge point. For example, the contour line extraction unit 140 determines the slope of the edge point B as the slope of the line segment connecting the edge point A and the edge point B, and the slope of the edge point A is a point on the contour line having the edge point A. And the slope of the line segment connecting the edge points.

輪郭線抽出部140は、エッジ点Bの輪郭線番号が未登録であるか否かを判定する(ステップS105)。輪郭線抽出部140は、エッジ点Bの輪郭線番号が未登録でない場合には(ステップS105,No)、ステップS110に移行する。   The contour line extraction unit 140 determines whether or not the contour number of the edge point B is unregistered (step S105). If the contour line number of the edge point B is not yet registered (No at Step S105), the contour line extracting unit 140 proceeds to Step S110.

一方、エッジ点Bの輪郭線番号が未登録である場合には(ステップS105,Yes)、エッジ点Aと同じライン上で、エッジ点Bに接続可能なエッジ点Cが存在するか否かを判定する(ステップS106)。例えば、図7に示す例では、エッジ点Aと同じライン上にエッジ点Cが存在する。また、エッジ点Cの1ライン上の隣接画像は、領域89bとなり、領域89bには、エッジ点Bが存在する。この場合には、エッジ点Aと同じライン上で、エッジ点Bに接続可能なエッジ点Cが存在することになる。   On the other hand, when the contour line number of the edge point B is not registered (step S105, Yes), it is determined whether or not there is an edge point C that can be connected to the edge point B on the same line as the edge point A. Determination is made (step S106). For example, in the example illustrated in FIG. 7, the edge point C exists on the same line as the edge point A. An adjacent image on one line of the edge point C is an area 89b, and the edge point B exists in the area 89b. In this case, an edge point C that can be connected to the edge point B exists on the same line as the edge point A.

図6の説明に戻る。輪郭線抽出部140は、エッジ点Aと同じライン上でエッジ点Bに接続可能なエッジ点Cが存在する場合には(ステップS106,Yes)、ステップS107に移行する。一方、輪郭線抽出部140は、エッジ点Aと同じライン上でエッジ点Bに接続可能なエッジ点Cが存在しない場合には(ステップS106,No)、ステップS109に移行する。   Returning to the description of FIG. If there is an edge point C that can be connected to the edge point B on the same line as the edge point A (step S106, Yes), the contour line extraction unit 140 proceeds to step S107. On the other hand, when there is no edge point C that can be connected to the edge point B on the same line as the edge point A (No in step S106), the contour line extraction unit 140 proceeds to step S109.

ステップS107について説明する。輪郭線抽出部140は、エッジ点Bの接続対象として、エッジ点Cの方がより最適であるか否かを判定する(ステップS107)。例えば、輪郭線抽出部140は、エッジ点Aの強度および傾きと、エッジ点Bの強度および傾きと、エッジ点Cの強度および傾きを比較する。輪郭線抽出部140は、エッジ点Bの強度および傾きに対して、エッジ点Cの強度および傾きの方が、エッジ点Aの強度および傾きよりも類似している場合に、エッジ点Cの方がより最適であると判定する。   Step S107 will be described. The contour line extraction unit 140 determines whether or not the edge point C is more optimal as the connection target of the edge point B (step S107). For example, the contour line extraction unit 140 compares the strength and inclination of the edge point A, the strength and inclination of the edge point B, and the strength and inclination of the edge point C. The contour line extraction unit 140 determines that the edge point C is stronger when the strength and inclination of the edge point C are more similar to the strength and inclination of the edge point A. Is determined to be more optimal.

輪郭線抽出部140は、エッジ点Bの接続対象として、エッジ点Cの方がより最適である場合には(ステップS107,Yes)、エッジ点Bおよびエッジ点Cの情報を更新し(ステップS108)、ステップS110に移行する。ステップS108において、輪郭線抽出部140は、接続元のエッジ点Cに既に輪郭線番号が登録されている場合には、エッジ点Cに登録されている輪郭線番号を、エッジ点Bに登録する。輪郭線抽出部140は、エッジ点Cに輪郭線番号が登録されていない場合には、ユニークな輪郭線番号を、エッジ点Bおよびエッジ点Cに登録する。一方、輪郭線抽出部140は、エッジ点Bの接続対象として、エッジ点Cの方がより最適でない場合には(ステップS107,No)、ステップS109に移行する。   When the edge point C is more optimal as the connection target of the edge point B (Yes in step S107), the contour line extraction unit 140 updates the information on the edge point B and the edge point C (step S108). ), The process proceeds to step S110. In step S <b> 108, the contour line extraction unit 140 registers the contour line number registered in the edge point C in the edge point B when the contour line number is already registered in the connection source edge point C. . If no contour line number is registered for the edge point C, the contour line extraction unit 140 registers a unique contour line number for the edge point B and the edge point C. On the other hand, when the edge point C is not more optimal as the connection target of the edge point B (No in step S107), the contour line extraction unit 140 proceeds to step S109.

ステップS109について説明する。輪郭線抽出部140は、エッジ点Bおよびエッジ点Aの情報を更新し(ステップS109)、ステップS110に移行する。ステップS109において、輪郭線抽出部140は、接続元のエッジ点Aに既に輪郭線番号が登録されている場合には、エッジ点Aに登録されている輪郭線番号を、エッジ点Bに登録する。輪郭線抽出部140は、エッジ点Aに輪郭線番号が登録されていない場合には、ユニークな輪郭線番号を、エッジ点Aおよびエッジ点Cに登録する。   Step S109 will be described. The contour line extraction unit 140 updates the information of the edge point B and the edge point A (step S109), and proceeds to step S110. In step S <b> 109, the contour line extraction unit 140 registers the contour line number registered in the edge point A in the edge point B when the contour line number is already registered in the connection source edge point A. . The contour line extraction unit 140 registers the unique contour line number in the edge point A and the edge point C when the contour line number is not registered in the edge point A.

ステップS110について説明する。輪郭線抽出部140は、処理を終了するか否かを判定する(ステップS110)。輪郭線抽出部140は、処理を終了しない場合には(ステップS110,No)、ステップS101に移行する。一方、輪郭線抽出部140は、処理を終了する場合には(ステップS110,Yes)、輪郭線を抽出する処理を終了する。   Step S110 will be described. The contour line extraction unit 140 determines whether or not to end the process (step S110). If the contour extraction unit 140 does not terminate the process (No at Step S110), the contour line extraction unit 140 proceeds to Step S101. On the other hand, when the process ends (step S110, Yes), the contour extraction unit 140 ends the process of extracting the contour.

輪郭線抽出部140は、図6に示した処理を、特徴点画像上の各エッジ点について行い、最終的なエッジ点の連結数が閾値以上となる線分を、輪郭線として抽出する。輪郭線抽出部140は、抽出した輪郭線の情報を、輪郭線情報テーブル110aに登録する。例えば、輪郭線抽出部140は、フレーム識別番号と、輪郭線番号と、輪郭線の始点座標および終点座標とを対応付けて、輪郭線情報テーブル110aに登録する。なお、輪郭線抽出部140は、輪郭線に含まれる各エッジ点の識別情報と、各エッジ点の座標とを対応付けて、輪郭線情報テーブル110aに登録してもよい。また、輪郭線抽出部140は、現時刻の特徴点画像から抽出した輪郭線の情報を、輪郭線統合部150に出力する。   The contour line extraction unit 140 performs the processing shown in FIG. 6 for each edge point on the feature point image, and extracts a line segment having a final connection number of edge points equal to or greater than a threshold value as a contour line. The contour extraction unit 140 registers the extracted contour information in the contour information table 110a. For example, the contour line extraction unit 140 associates the frame identification number, the contour line number, and the start point coordinates and end point coordinates of the contour line, and registers them in the contour line information table 110a. Note that the contour line extraction unit 140 may associate the identification information of each edge point included in the contour line with the coordinates of each edge point and register them in the contour line information table 110a. In addition, the contour extraction unit 140 outputs information on the contour extracted from the feature point image at the current time to the contour integration unit 150.

輪郭線統合部150は、図1を用いて説明した一次補間処理を実行する処理部である。輪郭線統合部150は、一次補間部に対応する。輪郭線統合部150は、現時刻の輪郭線と、輪郭線情報テーブル110aに登録されている輪郭線とを比較して、同一の物体から抽出された輪郭線を統合する補間を行う。輪郭線統合部150は、初期フレームから抽出された輪郭線については、時系列線分として、輪郭線情報テーブル110aに登録されるため、一次補間処理を実行しない。以下の説明では、輪郭線情報テーブル110aに登録される輪郭線の情報を、適宜、時系列線分と表記する。また、現時刻のフレームから抽出した輪郭線を適宜、現在線分と表記する。   The contour integration unit 150 is a processing unit that executes the primary interpolation processing described with reference to FIG. The contour line integration unit 150 corresponds to a primary interpolation unit. The contour line integration unit 150 compares the current contour line with the contour line registered in the contour line information table 110a, and performs interpolation for integrating the contour lines extracted from the same object. The contour line integration unit 150 does not perform the primary interpolation process because the contour line extracted from the initial frame is registered in the contour line information table 110a as a time-series line segment. In the following description, the information on the contour line registered in the contour line information table 110a is appropriately expressed as a time-series line segment. Further, the contour line extracted from the frame at the current time is appropriately described as a current line segment.

輪郭線統合部150は、2フレーム以降のフレームから抽出された輪郭線については、現在線分と、輪郭線情報テーブル110aに登録された時系列線分とを比較して、同一の物体から抽出された輪郭線を統合し、一次補間を行う。   The contour integration unit 150 extracts the contour lines extracted from the second and subsequent frames from the same object by comparing the current line segment with the time-series line segments registered in the contour line information table 110a. The contours thus formed are integrated and linear interpolation is performed.

図8は、輪郭線統合部の一次補間処理の処理手順を示すフローチャートである。図8に示すように、輪郭線統合部150は、現時刻のフレームが2フレーム以降であるか否かを判定する(ステップS201)。輪郭線統合部150は、現時刻のフレームが2フレーム以降でない場合には(ステップS201,No)、ステップS208に移行する。   FIG. 8 is a flowchart showing the processing procedure of the primary interpolation processing of the contour line integration unit. As illustrated in FIG. 8, the contour line integration unit 150 determines whether or not the current time frame is two or more frames (step S <b> 201). If the current time frame is not two frames or more (step S201, No), the contour line integration unit 150 proceeds to step S208.

一方、輪郭線統合部150は、現時刻のフレームが2フレーム以降である場合には(ステップS201,Yes)、時系列線分の移動方向を算出する(ステップS202)。ステップS202において、輪郭線統合部150は、移動体の並進量、回転量およびカメラの設置パラメータからエピポーラ拘束と呼ばれる幾何学条件を用いて、時系列線分の移動方向を算出する。輪郭線統合部150は、移動体の並進量および回転量の情報を、移動体から取得するものとする。また、カメラの設置パラメータは、記憶部110に記憶されているものとする。   On the other hand, when there are two or more frames at the current time (step S201, Yes), the contour line integration unit 150 calculates the moving direction of the time series line segment (step S202). In step S202, the contour line integration unit 150 calculates the moving direction of the time-series line segment using a geometric condition called epipolar constraint from the translation amount, rotation amount, and camera installation parameter of the moving body. The contour line integration unit 150 acquires information on the translation amount and the rotation amount of the moving body from the moving body. The camera installation parameters are stored in the storage unit 110.

輪郭線統合部150は、時系列線分の移動方向に現在線分が存在するか否かを判定する(ステップS203)。輪郭線統合部150は、時系列線分の移動方向に現在線分が存在しない場合には(ステップS203,No)、ステップS210に移行する。   The contour line integration unit 150 determines whether or not a current line segment exists in the moving direction of the time-series line segment (step S203). If the current line segment does not exist in the moving direction of the time-series line segment (No at Step S203), the contour line integration unit 150 proceeds to Step S210.

一方、輪郭線統合部150は、時系列線分の移動方向に現在線分が存在する場合には(ステップS203,Yes)、類似度判定処理を実行する(ステップS204)。ステップS204の類似度判定処理の具体的な処理については後述する。   On the other hand, when there is a current line segment in the moving direction of the time-series line segment (Yes in step S203), the contour line integration unit 150 executes similarity determination processing (step S204). Specific processing of the similarity determination processing in step S204 will be described later.

輪郭線統合部150は、類似度が閾値以上であるか否かを判定する(ステップS205)。輪郭線統合部150は、類似度が閾値以上でない場合には(ステップS205,No)、ステップS210に移行する。   The contour integration unit 150 determines whether or not the similarity is equal to or greater than a threshold value (step S205). If the similarity is not greater than or equal to the threshold (No at Step S205), the contour integration unit 150 proceeds to Step S210.

輪郭線統合部150は、類似度が閾値以上である場合には(ステップS205,Yes)、時系列線分と現在線分とを統合した統合輪郭線を生成し、現在線分を補間する(ステップS206)。輪郭線統合部150は、時系列線分のループ処理が終了したか否かを判定する(ステップS207)。輪郭線統合部150は、時系列線分のループ処理が終了していない場合には(ステップS207,No)、ステップS202に移行する。   If the similarity is greater than or equal to the threshold (Yes in step S205), the contour line integration unit 150 generates an integrated contour line that integrates the time-series line segment and the current line segment, and interpolates the current line segment ( Step S206). The contour line integration unit 150 determines whether or not the loop processing of the time series line segment has been completed (step S207). If the loop processing of the time-series line segment has not been completed (No at Step S207), the contour line integration unit 150 proceeds to Step S202.

一方、輪郭線統合部150は、時系列線分ループ処理が終了した場合には(ステップS207,Yes)、統合されていない現在線分が存在するか否かを判定する(ステップS208)。輪郭線統合部150は、統合されていない現在線分が存在しない場合には(ステップS208,No)、処理を終了する。一方、輪郭線統合部150は、統合されていない現在線分が存在する場合には(ステップS208,Yes)、時系列線分に現在線分を追加し(ステップS209)、処理を終了する。ステップS209において、例えば、輪郭線統合部150は、現在線分の情報を、輪郭線情報テーブル110aに登録する。   On the other hand, when the time series line segment loop processing is completed (Yes in step S207), the contour line integration unit 150 determines whether there is a current line segment that is not integrated (step S208). When there is no current line segment that is not integrated (No in step S208), the contour line integration unit 150 ends the process. On the other hand, when there is a current line segment that is not integrated (Yes in step S208), the contour line integration unit 150 adds the current line segment to the time-series line segment (step S209), and ends the process. In step S209, for example, the contour line integration unit 150 registers information on the current line segment in the contour line information table 110a.

ステップS210の説明に移行する。輪郭線統合部150は、時系列線分に対するロスト回数を更新する(ステップS210)。ステップS210において、輪郭線統合部150は、時系列線分に対するロスト回数に1を加算する。輪郭線統合部150は、時系列線分のロスト回数が閾値以上であるか否かを判定する(ステップS211)。   The process proceeds to step S210. The contour line integration unit 150 updates the number of lost times for the time series line segment (step S210). In step S210, the contour line integration unit 150 adds 1 to the number of lost times for the time-series line segment. The contour line integration unit 150 determines whether or not the lost count of the time series line segment is equal to or greater than a threshold value (step S211).

輪郭線統合部150は、時系列線分のロスト回数が閾値以上である場合には(ステップS211,Yes)、時系列線分を輪郭線情報テーブル110aから除去し(ステップS212)、ステップS207に移行する。一方、時系列線分のロスト回数が閾値未満である場合には(ステップS211,No)、ステップS207に移行する。   The contour line integration unit 150 removes the time series line segment from the contour line information table 110a (step S212) when the number of lost times of the time series line is greater than or equal to the threshold (step S211, Yes). Transition. On the other hand, when the number of lost times of the time series line segment is less than the threshold value (No at Step S211), the process proceeds to Step S207.

次に、図8のステップS204に示した類似度判定処理の処理手順について説明する。図9は、類似度判定処理の処理手順を示すフローチャートである。図9に示すように、輪郭線統合部150は、時系列線分と現在線分との重複位置を算出する(ステップS301)。輪郭線統合部150は、時系列線分と現在線分とのスケール調整を行う(ステップS302)。ステップS302において、輪郭線統合部150は、時系線分の端点と現在線分の端点とを比較して、短い方の線分を、長い方の線分に合わせるスケール調整を行う。   Next, the processing procedure of the similarity determination process shown in step S204 of FIG. 8 will be described. FIG. 9 is a flowchart showing a processing procedure of similarity determination processing. As shown in FIG. 9, the contour line integration unit 150 calculates the overlapping position of the time-series line segment and the current line segment (step S301). The contour line integration unit 150 adjusts the scale of the time series line segment and the current line segment (step S302). In step S <b> 302, the contour line integration unit 150 compares the end point of the time-series line segment with the end point of the current line segment, and performs scale adjustment to match the shorter line segment with the longer line segment.

輪郭線統合部150は、スケール調整を行った時系列線分と現在線分との重心位置を算出し、時系列線分の重心位置と現在線分の重心位置とを合わせる(ステップS303)。輪郭線統合部150は、y座標を選択し、横方向のずれ量を算出する(ステップS304)。輪郭線統合部150は、y座標の処理が終了したか否かを判定する(ステップS305)。   The contour line integration unit 150 calculates the centroid position of the time-series line segment and the current line segment on which the scale adjustment has been performed, and matches the centroid position of the time-series line segment and the centroid position of the current line segment (step S303). The contour line integration unit 150 selects the y coordinate and calculates the amount of lateral displacement (step S304). The contour integration unit 150 determines whether or not the y-coordinate processing has been completed (step S305).

輪郭線統合部150は、y座標の処理が終了していない場合には(ステップS305,No)、ステップS304に移行する。一方、輪郭線統合部150は、y座標の処理が終了した場合には(ステップS305,Yes)、各y座標のずれ量を基にして、類似度を算出する(ステップS306)。   If the y-coordinate processing has not ended (No at Step S305), the contour integration unit 150 proceeds to Step S304. On the other hand, when the y-coordinate processing is completed (Yes in step S305), the contour integration unit 150 calculates the similarity based on the amount of deviation of each y-coordinate (step S306).

輪郭線統合部150が、類似度を算出する処理の一例について説明する。図10は、輪郭線統合部が類似度を算出する処理を補足説明するための図である。図10において、線分88aは時系列線分に対応し、線分88bは現在線分に対応する。輪郭線統合部150は、時系列線分88aと現在線分88bとを、各端点が合うようにスケール調整し、重心位置88cで重ね合わる。輪郭線統合部150は、網掛け部分89に示す、ずれ量を算出する。例えば、輪郭線統合部150は、ずれ量が小さいほど、類似度が大きくなるような算出式を用いて、時系列線分と現在線分との類似度を算出する。   An example of processing in which the contour line integration unit 150 calculates the similarity will be described. FIG. 10 is a diagram for supplementarily explaining processing in which the contour line integration unit calculates similarity. In FIG. 10, a line segment 88a corresponds to a time series line segment, and a line segment 88b corresponds to a current line segment. The contour line integration unit 150 adjusts the scale of the time-series line segment 88a and the current line segment 88b so that the end points match each other, and overlaps them at the center of gravity position 88c. The contour line integration unit 150 calculates the shift amount indicated by the shaded portion 89. For example, the contour line integration unit 150 calculates the similarity between the time-series line segment and the current line segment using a calculation formula in which the similarity increases as the deviation amount decreases.

輪郭線統合部150が実行する一次補間処理の一例について説明する。図11は、輪郭線統合部が実行する一次補間処理を示す図である。図11に示す線分90aは、時系列線分を示し、線分90bは現在線分を示す。時系列線分90aと現在線分90bとの類似度を閾値以上とする。輪郭線統合部150は、両線分90a,90bの端点の移動方向線と、両線分90a,90bの延長線とが交わる点の内、最上端と最下端との点を、補間後の端点として、各線分90a,90bを補間する。例えば、輪郭線統合部150は、時系列線分90aの端点を、点92aまで延長することで補間し、補間後の時系列線分91aを生成する。輪郭線統合部150は、現在線分90bの端点を、点91bまで延長することで補間し、補間後の現在線分92bを生成する。   An example of primary interpolation processing executed by the contour line integration unit 150 will be described. FIG. 11 is a diagram illustrating a primary interpolation process executed by the contour line integration unit. A line segment 90a shown in FIG. 11 indicates a time-series line segment, and a line segment 90b indicates a current line segment. The similarity between the time-series line segment 90a and the current line segment 90b is set to be equal to or greater than a threshold value. The contour integration unit 150 interpolates the points at the uppermost end and the lowermost end of the points where the movement direction lines of the end points of both line segments 90a, 90b and the extended lines of both line segments 90a, 90b intersect. As the end points, the line segments 90a and 90b are interpolated. For example, the contour line integration unit 150 performs interpolation by extending the end point of the time series line segment 90a to the point 92a, and generates a time series line segment 91a after interpolation. The contour line integration unit 150 performs interpolation by extending the end point of the current line segment 90b to the point 91b, and generates a current line segment 92b after the interpolation.

図4の説明に戻る。対称性判定部160は、図3を用いて説明した二次補間処理を実行する処理部である。対称性判定部160は、二次補間部に対応する。対称性判定部160は、輪郭線情報テーブル110aに登録された輪郭線の情報を参照し、同一時刻のフレームから抽出された各輪郭線について、対称性の高い輪郭線の組を判定する。対称性判定部160は、対称性の高い輪郭線の組について、それぞれの端点位置を、長い方の端点位置に合わせることで補間を行う。   Returning to the description of FIG. The symmetry determination unit 160 is a processing unit that executes the secondary interpolation processing described with reference to FIG. The symmetry determination unit 160 corresponds to a secondary interpolation unit. The symmetry determination unit 160 refers to the information on the contour line registered in the contour line information table 110a, and determines a set of contour lines with high symmetry for each contour line extracted from the frame at the same time. The symmetry determination unit 160 performs interpolation by matching each end point position with the longer end point position for a set of contour lines having high symmetry.

図12は、対称性判定部の二次補間処理の処理手順を示すフローチャートである。図12に示すように、対称性判定部160は、ある輪郭線Aについて、他の輪郭線Bとの対称度合いを算出する(ステップS401)。ステップS401の対称度合いを算出する具体的な処理については後述する。   FIG. 12 is a flowchart illustrating a processing procedure of the secondary interpolation processing of the symmetry determining unit. As shown in FIG. 12, the symmetry determination unit 160 calculates the degree of symmetry of a certain contour line A with another contour line B (step S401). Specific processing for calculating the degree of symmetry in step S401 will be described later.

対称性判定部160は、輪郭線Aに対する対称度合いが閾値以上となる輪郭線Bが存在するか否かを判定する(ステップS402)。対称性判定部160は、対称度合いが閾値以上となる輪郭線Bが存在しない場合には(ステップS402,No)、ステップS404に移行する。一方、対称性判定部160は、対称度合いが閾値以上となる輪郭線Bが存在する場合には(ステップS402,Yes)、輪郭線B側に輪郭線Aの輪郭線番号を記録する(ステップS403)。ステップS403において、例えば、対称性判定部160は、輪郭線Bに対応付けられる拡張領域に、輪郭線Aの輪郭線番号を記録する。   The symmetry determination unit 160 determines whether or not there is a contour line B whose degree of symmetry with respect to the contour line A is greater than or equal to a threshold value (step S402). The symmetry determination unit 160 proceeds to step S404 when there is no contour line B having a degree of symmetry equal to or greater than the threshold (No in step S402). On the other hand, when there is a contour line B whose degree of symmetry is equal to or greater than the threshold (Yes in step S402), the symmetry determining unit 160 records the contour line number of the contour line A on the contour line B side (step S403). ). In step S <b> 403, for example, the symmetry determining unit 160 records the contour line number of the contour line A in the extended region associated with the contour line B.

対称性判定部160は、輪郭線のループ処理が終了したか否かを判定する(ステップS404)。対称性判定部160は、輪郭線のループ処理が終了してない場合には(ステップS404,No)、ステップS401に移行する。   The symmetry determination unit 160 determines whether or not the contour loop processing has ended (step S404). When the contour loop processing has not been completed (No at Step S404), the symmetry determining unit 160 proceeds to Step S401.

一方、対称性判定部160は、輪郭線のループ処理が終了した場合には(ステップS404,Yes)、各輪郭線の拡張領域に記録された輪郭線番号を参照する(ステップS405)。対称性判定部160は、輪郭線番号が存在するか否かを判定する(ステップS406)。対称性判定部160は、輪郭線番号が存在しない場合には(ステップS406,No)、ステップS411に移行する。   On the other hand, when the contour loop processing is completed (Yes in step S404), the symmetry determining unit 160 refers to the contour number recorded in the extension region of each contour (step S405). The symmetry determination unit 160 determines whether or not there is a contour line number (step S406). If the contour line number does not exist (No at Step S406), the symmetry determining unit 160 proceeds to Step S411.

対称性判定部160は、輪郭線番号が存在する場合には(ステップS406,Yes)、複数の輪郭線番号があるか否かを判定する(ステップS407)。対称性判定部160は、複数の輪郭線番号がない場合には(ステップS407,No)、ステップS411に移行する。   When the contour line number exists (step S406, Yes), the symmetry determining unit 160 determines whether there are a plurality of contour line numbers (step S407). When there is no plurality of contour line numbers (No at Step S407), the symmetry determining unit 160 proceeds to Step S411.

一方、対称性判定部160は、複数の輪郭線番号がある場合には(ステップS407,Yes)、輪郭線Aと輪郭線Bとがお互いに接続可能であるか否かを判定する(ステップS408)。ステップS408について、例えば、対称性判定部160は、輪郭線Aの傾きと、輪郭線Bの傾きとの差が、所定の傾き未満である場合に、輪郭線Aと輪郭線Bとが接続可能であると判定する。また、対称性判定部160は、輪郭線Aに含まれる各エッジ点のエッジ強度の平均値と、輪郭線Bに含まれる各エッジ点のエッジ強度の平均値との差が、所定の閾値未満である場合に、輪郭線Aと輪郭線Bとが接続可能であると判定してもよい。   On the other hand, when there are a plurality of contour line numbers (step S407, Yes), the symmetry determination unit 160 determines whether the contour line A and the contour line B can be connected to each other (step S408). ). For step S408, for example, the symmetry determining unit 160 can connect the contour line A and the contour line B when the difference between the tilt of the contour line A and the tilt of the contour line B is less than a predetermined tilt. It is determined that Further, the symmetry determining unit 160 determines that the difference between the average value of the edge strengths of the edge points included in the contour line A and the average value of the edge strengths of the edge points included in the contour line B is less than a predetermined threshold value. In this case, the contour line A and the contour line B may be determined to be connectable.

対称性判定部160は、お互いに接続可能でない場合には(ステップS408,No)、ステップS411に移行する。一方、対称性判定部160は、お互いに接続可能である場合には(ステップS408,Yes)、輪郭線Aおよび輪郭線Bを統合する(ステップS409)。対称性判定部160は、対称となった輪郭線全ての端点位置を揃えることで、補間を行う(ステップS410)。   If the symmetry determining unit 160 is not connectable to each other (No at Step S408), the symmetry determining unit 160 proceeds to Step S411. On the other hand, the symmetry determination unit 160 integrates the contour line A and the contour line B (step S409) when they can be connected to each other (step S408, Yes). The symmetry determination unit 160 performs interpolation by aligning the end point positions of all the contour lines that are symmetric (step S410).

対称性判定部160は、輪郭線のループ処理が終了したか否かを判定する(ステップS411)。対称性判定部160は、輪郭線のループ処理が終了していない場合には(ステップS411,No)、ステップS405に移行する。一方、対称性判定部160は、輪郭線のループ処理が終了している場合には(ステップS411,Yes)、処理を終了する。   The symmetry determination unit 160 determines whether or not the contour loop processing has been completed (step S411). If the contour loop processing has not ended (No at Step S411), the symmetry determining unit 160 proceeds to Step S405. On the other hand, the symmetry determination unit 160 ends the processing when the contour loop processing has ended (step S411, Yes).

次に、図12のステップS401に示した対称性判定部160が、対称度合いを算出する処理の処理手順について説明する。図13は、対称度合いを算出する処理の処理手順を示すフローチャートである。図13に示すように、対称性判定部160は、輪郭線Aおよび輪郭線Bの2輪郭線について、重複位置および重複率を算出する(ステップS501)。   Next, the process procedure of the process in which the symmetry determination unit 160 shown in step S401 in FIG. 12 calculates the degree of symmetry will be described. FIG. 13 is a flowchart illustrating a processing procedure for calculating the degree of symmetry. As illustrated in FIG. 13, the symmetry determination unit 160 calculates the overlapping position and the overlapping rate for the two contour lines of the contour line A and the contour line B (step S501).

図14は、対称度合いを算出する処理を補足説明するための図(1)である。図14に示す例では、輪郭線200aを、輪郭線Aとし、輪郭線200bを、輪郭線Bとする。この場合には、重複位置は、201に対応する位置となる。また、重複率は、輪郭線200bを基準にすると、輪郭線200bの長さのうち、重複位置201の占める割合を示す。   FIG. 14 is a diagram (1) for supplementarily explaining the process of calculating the degree of symmetry. In the example illustrated in FIG. 14, the contour line 200 a is the contour line A, and the contour line 200 b is the contour line B. In this case, the overlapping position is a position corresponding to 201. Further, the overlapping rate indicates a ratio of the overlapping position 201 in the length of the contour line 200b, based on the contour line 200b.

図13の説明に戻る。対称性判定部160は、2輪郭線に重複位置が存在するか否かを判定する(ステップS502)。対称性判定部160は、2輪郭線に重複位置がない場合には(ステップS502,No)、対称度合いを算出する処理を終了する。   Returning to the description of FIG. The symmetry determining unit 160 determines whether or not there is an overlapping position on the two contour lines (step S502). When there is no overlapping position on the two contour lines (No in step S502), the symmetry determining unit 160 ends the process of calculating the degree of symmetry.

一方、対称性判定部160は、2輪郭線に重複位置が存在する場合には(ステップS502,Yes)、2輪郭線の類似度を算出する(ステップS503)。ステップS503において、対称性判定部160は、例えば、図9に示した処理と同様にして、2輪郭線の類似度を算出する。   On the other hand, when the overlapping position exists in the two contour lines (Yes in step S502), the symmetry determining unit 160 calculates the similarity between the two contour lines (step S503). In step S503, the symmetry determination unit 160 calculates the similarity between the two contour lines, for example, in the same manner as the process illustrated in FIG.

対称性判定部160は、重複箇所のy座標を選択し(ステップS504)、横方向の中点を算出する(ステップS505)。対称性判定部160は、中点を基準として、横方向の対称位置について、明るさ差分積分値を算出する(ステップS506)。   The symmetry determination unit 160 selects the y coordinate of the overlapping portion (step S504), and calculates the horizontal midpoint (step S505). The symmetry determination unit 160 calculates the brightness difference integral value for the laterally symmetrical position with the midpoint as a reference (step S506).

図15は、対称度合いを算出する処理を補足説明するための図(2)である。図15に示す例では、輪郭線200aを、輪郭線Aとし、輪郭線200bを、輪郭線Bとする。重複箇所を201とする。また、選択されたy座標に対応するラインを205とし、中点を210とする。対称性判定部160は、対称関係にある中点210から輪郭線200aまでの各画素の明るさと、中点210から輪郭線200bまでの各画素の明るさとの差分をそれぞれ算出し、算出した差分を合計することで、明るさ差分積分値を算出する。対称性判定部160は、ライン毎に明るさ差分積分値を算出し、各明るさ差分積分値を合計したものを、最終的な明るさ差分積分値とする。   FIG. 15 is a diagram (2) for supplementarily explaining the process of calculating the degree of symmetry. In the example illustrated in FIG. 15, the contour line 200 a is the contour line A, and the contour line 200 b is the contour line B. The overlapping part is 201. Further, a line corresponding to the selected y coordinate is set to 205, and a midpoint is set to 210. The symmetry determination unit 160 calculates the difference between the brightness of each pixel from the midpoint 210 to the contour line 200a and the brightness of each pixel from the midpoint 210 to the contour line 200b, and the calculated difference. Are integrated to calculate the brightness difference integral value. The symmetry determination unit 160 calculates a brightness difference integral value for each line, and sums each brightness difference integral value as a final brightness difference integral value.

図13の説明に戻る。対称性判定部160は、横方向の処理が終了したか否かを判定する(ステップS507)。ステップS507について、例えば、対称性判定部160は、重複箇所に含まれる全てのy座標を選択した場合には、横方向の処理が終了したと判定する。対称性判定部160は、横方向の処理が終了していない場合には(ステップS507,No)、ステップS506に移行する。   Returning to the description of FIG. The symmetry determination unit 160 determines whether or not the horizontal processing has been completed (step S507). For example, in step S507, the symmetry determination unit 160 determines that the processing in the horizontal direction has ended when all the y coordinates included in the overlapping portion have been selected. The symmetry determination unit 160 proceeds to step S506 when the horizontal processing has not been completed (No in step S507).

一方、対称性判定部160は、横方向の処理が終了した場合には(ステップS507,Yes)、y座標の明るさの平均値を算出する(ステップS508)。   On the other hand, when the process in the horizontal direction is completed (Yes in step S507), the symmetry determining unit 160 calculates the average value of the brightness of the y coordinate (step S508).

図16は、対称度合いを算出する処理を補足説明するための図(3)である。図16に示す例では、輪郭線200aを、輪郭線Aとし、輪郭線200bを、輪郭線Bとする。重複箇所を201とする。また、重複箇所201には、y座標として、y1〜y5が存在し、y1〜y5に対応するラインをそれぞれライン211〜215とする。対称性判定部160は、ライン211に含まれる画素の明るさの第1平均値を算出する。対称性判定部160は、ライン212〜215についても同様に、明るさの第1平均値を算出する。また、対称性判定部160は、各ライン211〜215の第1平均値を加算し、ライン数で除算することで、ライン全体の第2平均値を算出する。この第2平均値を、y座標の明るさの平均値とする。   FIG. 16 is a diagram (3) for supplementarily explaining the process of calculating the degree of symmetry. In the example shown in FIG. 16, the contour line 200 a is the contour line A, and the contour line 200 b is the contour line B. The overlapping part is 201. In addition, y1 to y5 exist as the y coordinate in the overlapping portion 201, and the lines corresponding to y1 to y5 are defined as lines 211 to 215, respectively. The symmetry determination unit 160 calculates the first average value of the brightness of the pixels included in the line 211. Similarly, the symmetry determination unit 160 calculates the first average value of brightness for the lines 212 to 215. In addition, the symmetry determining unit 160 calculates the second average value of the entire line by adding the first average values of the lines 211 to 215 and dividing by the number of lines. Let this 2nd average value be the average value of the brightness of ay coordinate.

図13の説明に戻る。対称性判定部160は、重複箇所の全y座標の処理が終了したか否かを判定する(ステップS509)。対称性判定部160は、重複箇所の全y座標の処理が終了していない場合には(ステップS509,No)、ステップS504に移行する。   Returning to the description of FIG. The symmetry determination unit 160 determines whether or not the processing of all the y-coordinates at the overlapping portion has been completed (step S509). The symmetry determination unit 160 proceeds to step S504 when the processing of all the y-coordinates of the overlapping portion has not been completed (No in step S509).

一方、対称性判定部160は、重複箇所の全y座標の処理が終了した場合には(ステップS509,Yes)、対称度合いを算出する(ステップS510)。ステップS510について、例えば、対称性判定部160は、式(1)に基づいて、対称度合いを算出する。例えば、式(1)について、明るさの連続性乖離値は、図16で説明した、各ラインの第1平均値と第2平均値との差分値を合計した値に対応する。   On the other hand, the symmetry determination unit 160 calculates the degree of symmetry when the processing of all the y-coordinates of the overlapping portion is completed (Yes in step S509) (step S510). For step S510, for example, the symmetry determination unit 160 calculates the degree of symmetry based on Expression (1). For example, in Equation (1), the brightness continuity deviation value corresponds to the value obtained by summing the difference values between the first average value and the second average value of each line described in FIG.

対称度合い=重複率−2輪郭線の類似度−明るさ差分積分値−明るさの連続性乖離量・・・(1)   Degree of symmetry = overlap rate-2 similarity between contour lines-brightness difference integral value-brightness continuity deviation amount (1)

対称性判定部160が実行する二次補間処理の一例について説明する。図17は、対称性判定部が実行する二次補間処理を示す図である。図17に示す例では、輪郭線220aと輪郭線230とが対称性を持ち、輪郭線220bと輪郭線230とが対称性を持つものとする。対称性判定部160は、輪郭線220aと輪郭線220bとの間の途切れ箇所を、輪郭線230によって補うことで、輪郭線240を生成する。対称性判定部160は、輪郭線情報テーブル110aに登録された輪郭線220aおよび輪郭線220bの情報を削除し、代わりに、輪郭線240の情報を、輪郭線情報テーブル110aに登録する。   An example of the secondary interpolation process performed by the symmetry determination unit 160 will be described. FIG. 17 is a diagram illustrating a secondary interpolation process executed by the symmetry determining unit. In the example illustrated in FIG. 17, it is assumed that the contour line 220a and the contour line 230 have symmetry, and the contour line 220b and the contour line 230 have symmetry. The symmetry determination unit 160 generates a contour 240 by supplementing the discontinuity between the contour 220a and the contour 220b with the contour 230. The symmetry determination unit 160 deletes the information on the contour line 220a and the contour line 220b registered in the contour line information table 110a, and instead registers the information on the contour line 240 in the contour line information table 110a.

なお、対称性判定部160が輪郭線の二次補間処理を行った後に、二次補間処理により補間された輪郭線を基にして、輪郭線統合部150が、再度、一次補間処理を実行してもよい。   Note that, after the symmetry determination unit 160 performs the secondary interpolation processing of the contour line, the contour integration unit 150 executes the primary interpolation processing again based on the contour line interpolated by the secondary interpolation processing. May be.

図4の説明に戻る。立体物判定部170は、輪郭線情報テーブル110aを基にして、立体物が存在するか否かを判定する処理部である。立体物判定部170は、判定結果の情報を、結果出力部180に出力する。例えば、立体物判定部170は、現在線分の端点位置と、時系列線分の端点位置とを比較して、フロー量を算出する。立体物判定部170は、フロー量が閾値以上である場合には、現在線分の抽出元に立体物が存在すると判定する。一方、立体物判定部170は、フロー量が閾値未満である場合には、立体物が存在しないと判定する。   Returning to the description of FIG. The three-dimensional object determination unit 170 is a processing unit that determines whether a three-dimensional object exists based on the contour line information table 110a. The three-dimensional object determination unit 170 outputs information on the determination result to the result output unit 180. For example, the three-dimensional object determination unit 170 calculates the flow amount by comparing the end point position of the current line segment with the end point position of the time series line segment. The three-dimensional object determination unit 170 determines that a three-dimensional object exists at the extraction source of the current line segment when the flow amount is equal to or greater than the threshold value. On the other hand, the three-dimensional object determination unit 170 determines that there is no three-dimensional object when the flow amount is less than the threshold value.

結果出力部180は、立体物判定部170からの判定結果に基づき、輪郭線のうち立体物と判定された輪郭線の情報を、表示装置等に出力する処理部である。   The result output unit 180 is a processing unit that outputs information on a contour line determined to be a three-dimensional object out of contour lines based on the determination result from the three-dimensional object determination unit 170 to a display device or the like.

次に、本実施例に係る物体検出装置の処理手順について説明する。図18は、本実施例に係る物体検出装置の処理手順を示すフローチャートである。図18に示すように、物体検出装置100の映像入力部120は、映像入力を受け付ける(ステップS601)。   Next, a processing procedure of the object detection apparatus according to the present embodiment will be described. FIG. 18 is a flowchart illustrating the processing procedure of the object detection apparatus according to the present embodiment. As shown in FIG. 18, the video input unit 120 of the object detection apparatus 100 accepts video input (step S601).

物体検出装置100の特徴点抽出部130は、画像フレームからエッジ抽出を行い、特徴点画像を生成する(ステップS602)。物体検出装置100の輪郭線抽出部140は、特徴点画像を基にして、輪郭線抽出を実行する(ステップS603)。ステップS603における輪郭線抽出の処理手順は、上述した図6の処理手順に対応する。   The feature point extraction unit 130 of the object detection apparatus 100 performs edge extraction from the image frame to generate a feature point image (step S602). The contour extraction unit 140 of the object detection device 100 executes contour extraction based on the feature point image (step S603). The processing procedure for contour extraction in step S603 corresponds to the processing procedure in FIG.

物体検出装置100の輪郭線統合部150は、一次補間処理を実行する(ステップS604)。ステップS604における一次補間処理の処理手順は、上述した図11の処理手順に対応する。   The contour line integration unit 150 of the object detection apparatus 100 executes primary interpolation processing (step S604). The processing procedure of the primary interpolation processing in step S604 corresponds to the processing procedure of FIG.

物体検出装置100の対称性判定部160は、対称性を判定し、二次補間処理を実行する(ステップS605)。ステップS605における二次補間処理の処理手順は、上述した図12の処理手順に対応する。   The symmetry determination unit 160 of the object detection apparatus 100 determines symmetry and executes a secondary interpolation process (step S605). The processing procedure of the secondary interpolation processing in step S605 corresponds to the processing procedure of FIG.

物体検出装置100の立体物判定部170は、輪郭線情報テーブル110aを基にして、立体物判定を実行する(ステップS606)。物体検出装置100の結果出力部180は、判定結果を出力する(ステップS607)。   The three-dimensional object determination unit 170 of the object detection apparatus 100 executes the three-dimensional object determination based on the contour line information table 110a (step S606). The result output unit 180 of the object detection apparatus 100 outputs the determination result (step S607).

次に、本実施例に係る物体検出装置100の効果について説明する。物体検出装置100は、複数時刻で撮影された同一の被写体の輪郭線を統合する一次補間処理および対称性の輪郭線の組に基づいて輪郭線の途切れを補間する二次補間処理を実行した後に、補間後の輪郭線を基にして、立体物判定を実行する。このため、物体検出装置100によれば、輪郭線の途切れの発生や、端点位置で特徴点が検出されない場合であっても、立体物を安定して検出することができる。   Next, the effect of the object detection apparatus 100 according to the present embodiment will be described. After the object detection apparatus 100 executes a primary interpolation process for integrating the contour lines of the same subject photographed at a plurality of times and a secondary interpolation process for interpolating the discontinuity of the contour line based on a set of symmetrical contour lines. The solid object determination is executed based on the contour line after the interpolation. For this reason, according to the object detection apparatus 100, it is possible to stably detect a three-dimensional object even when the outline is interrupted or the feature point is not detected at the end point position.

物体検出装置100は、輪郭線の中点を算出し、中点から一方の輪郭線に至る画像の明るさと、中点から他方の輪郭線に至る画像の明るさとの差分値に基づいて、輪郭線の組が対称性を有するか否かを判定する。このため、輪郭線の組が対称性を有するか否かを精度よく判定することができる。   The object detection device 100 calculates the midpoint of the contour line, and based on the difference value between the brightness of the image from the midpoint to one contour line and the brightness of the image from the midpoint to the other contour line, It is determined whether the set of lines has symmetry. For this reason, it can be accurately determined whether or not the set of contour lines has symmetry.

物体検出装置100は、各輪郭線の間の画像について、画像の縦方向の明るさの連続性に基づいて、各輪郭線が対称性を有するか否かを判定する。このため、輪郭線の組が対称性を有するか否かを精度よく判定することができる。   The object detection device 100 determines whether or not each contour line has symmetry based on the continuity of brightness in the vertical direction of the image between the contour lines. For this reason, it can be accurately determined whether or not the set of contour lines has symmetry.

次に、上記実施例に示した物体検出装置100と同様の機能を実現する物体検出プログラムを実行するコンピュータの一例について説明する。図19は、物体検出プログラムを実行するコンピュータの一例を示す図である。   Next, an example of a computer that executes an object detection program that realizes the same function as that of the object detection apparatus 100 described in the above embodiment will be described. FIG. 19 is a diagram illustrating an example of a computer that executes an object detection program.

図19に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置305と、カメラ306とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM307と、ハードディスク装置308とを有する。そして、各装置301〜308は、バス309に接続される。   As illustrated in FIG. 19, the computer 300 includes a CPU 301 that executes various arithmetic processes, an input device 302 that receives input of data from a user, and a display 303. The computer 300 includes a reading device 304 that reads a program and the like from a storage medium, an interface device 305 that exchanges data with other computers via a network, and a camera 306. The computer 300 also includes a RAM 307 that temporarily stores various types of information and a hard disk device 308. The devices 301 to 308 are connected to the bus 309.

ハードディスク装置308は、抽出プログラム308a、一次補間プログラム308b、二次補間プログラム308c、判定プログラム308dを有する。CPU301は、ハードディスク装置308の抽出プログラム308a、一次補間プログラム308b、二次補間プログラム308c、判定プログラム308dを読み出してRAM307に展開する。   The hard disk device 308 has an extraction program 308a, a primary interpolation program 308b, a secondary interpolation program 308c, and a determination program 308d. The CPU 301 reads the extraction program 308 a, the primary interpolation program 308 b, the secondary interpolation program 308 c, and the determination program 308 d of the hard disk device 308 and develops them in the RAM 307.

抽出プログラム308aは、抽出プロセス307aとして機能する。一次補間プログラム308bは、一次補間プロセス307bとして機能する。二次補間プログラム308cは、二次補間プロセス307cとして機能する。判定プログラム308dは、判定プロセス307dとして機能する。   The extraction program 308a functions as an extraction process 307a. The primary interpolation program 308b functions as a primary interpolation process 307b. The secondary interpolation program 308c functions as a secondary interpolation process 307c. The determination program 308d functions as a determination process 307d.

例えば、抽出プロセス307aは、特徴点抽出部130に対応する。一次補間プロセス307bは、輪郭線統合部150に対応する。二次補間プロセス307cは、対称性判定部160に対応する。判定プロセス307dは、立体物判定部170に対応する。   For example, the extraction process 307 a corresponds to the feature point extraction unit 130. The primary interpolation process 307 b corresponds to the contour line integration unit 150. The secondary interpolation process 307 c corresponds to the symmetry determination unit 160. The determination process 307d corresponds to the three-dimensional object determination unit 170.

なお、各プログラム308a〜307dについては、必ずしも最初からハードディスク装置308に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム308a〜307dを読み出して実行するようにしてもよい。   The programs 308a to 307d are not necessarily stored in the hard disk device 308 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 300. Then, the computer 300 may read and execute each of the programs 308a to 307d.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)コンピュータが実行する物体検出方法であって、
移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出し、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間し、
前記一次補間を行った複数の第1エッジ特徴を比較して、対称性を持つ第1エッジ特徴の組を判定し、
判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間し、
前記一次補間または前記二次補間を行った第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する
処理を実行することを特徴とする物体検出方法。
(Appendix 1) An object detection method executed by a computer,
Extract edge features from multiple images taken by different cameras at different shooting times.
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. Linearly interpolating the first edge feature,
A plurality of first edge features subjected to the primary interpolation are compared to determine a set of first edge features having symmetry;
For the determined set of first edge features, when the end point position of the first edge feature is not the same end point position, the other end point position is secondarily interpolated based on the end point position of one first edge feature;
An object that executes a process of determining whether or not the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the secondary interpolation. Detection method.

(付記2)前記対称性を持つ第1エッジ特徴の組を判定する処理は、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記1に記載の物体検出方法。 (Supplementary Note 2) The process of determining the set of first edge features having the symmetry calculates the midpoint of each first edge feature, the brightness of the image from the midpoint to one first edge feature, The supplementary note 1, wherein it is determined whether or not each of the first edge features is symmetric based on a difference value with respect to an image brightness from the midpoint to the other first edge feature. Object detection method.

(付記3)前記対称性を持つ第1エッジ特徴の組を判定する処理は、各第1エッジ特徴の間の画像について、該画像の縦方向の明るさの連続性に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記1または2に記載の物体検出方法。 (Additional remark 3) The process which determines the 1st edge feature set which has the said symmetry is based on the continuity of the brightness of the vertical direction of this image about the image between each 1st edge feature, said each said 1st The object detection method according to appendix 1 or 2, wherein it is determined whether or not one edge feature has symmetry.

(付記4)コンピュータに、
移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出し、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間し、
前記一次補間を行った複数の第1エッジ特徴を比較して、対称性を持つ第1エッジ特徴の組を判定し、
判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間し、
前記一次補間または前記二次補間を行った第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する
処理を実行させることを特徴とする物体検出プログラム。
(Appendix 4)
Extract edge features from multiple images taken by different cameras at different shooting times.
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. Linearly interpolating the first edge feature,
A plurality of first edge features subjected to the primary interpolation are compared to determine a set of first edge features having symmetry;
For the determined set of first edge features, when the end point position of the first edge feature is not the same end point position, the other end point position is secondarily interpolated based on the end point position of one first edge feature;
An object for executing a process of determining whether or not the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the secondary interpolation. Detection program.

(付記5)前記対称性を持つ第1エッジ特徴の組を判定する処理は、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記4に記載の物体検出プログラム。 (Supplementary Note 5) The process of determining the first edge feature group having the symmetry calculates the midpoint of each first edge feature, and the brightness of the image from the midpoint to one first edge feature, The supplementary note 4 is characterized in that it is determined whether or not each of the first edge features is symmetric based on a difference value with respect to an image brightness from the midpoint to the other first edge feature. Object detection program.

(付記6)前記対称性を持つ第1エッジ特徴の組を判定する処理は、各第1エッジ特徴の間の画像について、該画像の縦方向の明るさの連続性に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記4または5に記載の物体検出プログラム。 (Additional remark 6) The process which determines the 1st edge feature set which has the said symmetry is based on the continuity of the brightness of the vertical direction of this image about the image between each 1st edge feature, said each said 1st 6. The object detection program according to appendix 4 or 5, wherein it is determined whether or not one edge feature has symmetry.

(付記7)移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出する抽出部と、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間する一次補間部と、
前記一次補間された複数の第1エッジ特徴を比較して、対称性を持つ第1エッジ特徴の組を判定し、判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間する二次補間部と、
前記一次補間または前記二次補間された第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する判定部と
を有することを特徴とする物体検出装置。
(Supplementary note 7) An extraction unit that extracts edge features from a plurality of images taken by a camera installed on a moving body at different shooting times;
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. A primary interpolation unit for linearly interpolating the first edge feature;
A plurality of first-interpolated first edge features are compared to determine a set of first edge features having symmetry, and for the determined first edge feature set, end points having the same end point position of the first edge feature A second-order interpolation unit that performs second-order interpolation on the other end point position based on the end point position of one of the first edge features when it is not a position;
A determination unit that determines whether the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the quadratic interpolation. Detection device.

(付記8)前記第2補間部は、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記7に記載の物体検出装置。 (Supplementary Note 8) The second interpolation unit calculates the midpoint of each first edge feature, the brightness of the image from the midpoint to one first edge feature, and the other first edge feature from the midpoint The object detection apparatus according to appendix 7, wherein the first edge feature is determined based on a difference value with respect to the brightness of the image that reaches the first point.

(付記9)前記第2補間部は、各第1エッジ特徴の間の画像について、該画像の縦方向の明るさの連続性に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする付記7または8に記載の物体検出装置。 (Supplementary Note 9) For the image between the first edge features, the second interpolation unit determines whether the first edge features have symmetry based on the continuity of brightness in the vertical direction of the images. 9. The object detection device according to appendix 7 or 8, wherein the object detection device determines whether or not.

100 物体検出装置
110 記憶部
120 映像入力部
130 特徴点抽出部
140 輪郭線抽出部
150 輪郭線統合部
160 対称性判定部
170 立体物判定部
180 結果出力部
DESCRIPTION OF SYMBOLS 100 Object detection apparatus 110 Memory | storage part 120 Image | video input part 130 Feature point extraction part 140 Contour line extraction part 150 Contour line integration part 160 Symmetry determination part 170 Three-dimensional object determination part 180 Result output part

Claims (4)

コンピュータが実行する物体検出方法であって、
移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出し、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間し、
前記一次補間を行った複数の第1エッジ特徴を比較し、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することで、対称性を持つ第1エッジ特徴の組を判定し、
判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間し、
前記一次補間または前記二次補間を行った第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する
処理を実行することを特徴とする物体検出方法。
An object detection method executed by a computer,
Extract edge features from multiple images taken by different cameras at different shooting times.
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. Linearly interpolating the first edge feature,
The plurality of first edge features subjected to the primary interpolation are compared , the midpoint of each first edge feature is calculated, the brightness of the image from the midpoint to one first edge feature, and the midpoint to the other A set of first edge features having symmetry is determined by determining whether or not each of the first edge features has symmetry based on a difference value from the brightness of the image reaching the first edge feature. And
For the determined set of first edge features, when the end point position of the first edge feature is not the same end point position, the other end point position is secondarily interpolated based on the end point position of one first edge feature;
An object that executes a process of determining whether or not the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the secondary interpolation. Detection method.
前記対称性を持つ第1エッジ特徴の組を判定する処理は、各第1エッジ特徴の間の画像について、該画像の縦方向の明るさの連続性に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することを特徴とする請求項に記載の物体検出方法。 The process of determining the set of first edge features having the symmetry is performed on the images between the first edge features based on the continuity of brightness in the vertical direction of the images. The object detection method according to claim 1 , wherein it is determined whether or not there is symmetry. コンピュータに、
移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出し、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間し、
前記一次補間を行った複数の第1エッジ特徴を比較し、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することで、対称性を持つ第1エッジ特徴の組を判定し、
判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間し、
前記一次補間または前記二次補間を行った第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する
処理を実行させることを特徴とする物体検出プログラム。
On the computer,
Extract edge features from multiple images taken by different cameras at different shooting times.
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. Linearly interpolating the first edge feature,
The plurality of first edge features subjected to the primary interpolation are compared , the midpoint of each first edge feature is calculated, the brightness of the image from the midpoint to one first edge feature, and the midpoint to the other A set of first edge features having symmetry is determined by determining whether or not each of the first edge features has symmetry based on a difference value from the brightness of the image reaching the first edge feature. And
For the determined set of first edge features, when the end point position of the first edge feature is not the same end point position, the other end point position is secondarily interpolated based on the end point position of one first edge feature;
An object for executing a process of determining whether or not the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the secondary interpolation. Detection program.
移動体に設置されたカメラによって撮影された撮影時刻の異なる複数の画像からエッジ特徴をそれぞれ抽出する抽出部と、
抽出したエッジ特徴を基にして、第1撮影時刻に撮影された第1エッジ特徴に対応する第2撮影時刻に撮影された第2エッジ特徴を判定し、判定した前記第2エッジ特徴を基にして、前記第1エッジ特徴を一次補間する一次補間部と、
前記一次補間された複数の第1エッジ特徴を比較し、各第1エッジ特徴の中点を算出し、前記中点から一方の第1エッジ特徴に至る画像の明るさと、前記中点から他方の第1エッジ特徴に至る画像の明るさとの差分値に基づいて、前記各第1エッジ特徴が対称性を有するか否かを判定することで、対称性を持つ第1エッジ特徴の組を判定し、判定した第1エッジ特徴の組について、第1エッジ特徴の端点位置が同じ端点位置でない場合に、一方の第1エッジ特徴の端点位置に基づいて、他方の端点位置を二次補間する二次補間部と、
前記一次補間または前記二次補間された第1エッジ特徴の組を基にして、第1エッジ特徴が立体物のエッジ特徴であるか否かを判定する判定部と
を有することを特徴とする物体検出装置。
An extraction unit that extracts edge features from a plurality of images with different shooting times taken by a camera installed on a moving body;
Based on the extracted edge feature, the second edge feature photographed at the second photographing time corresponding to the first edge feature photographed at the first photographing time is determined, and based on the determined second edge feature. A primary interpolation unit for linearly interpolating the first edge feature;
The plurality of first-interpolated first edge features are compared , the midpoint of each first edge feature is calculated, the brightness of the image from the midpoint to one first edge feature, and the midpoint to the other By determining whether or not each of the first edge features is symmetric based on a difference value from the brightness of the image reaching the first edge feature, a set of symmetric first edge features is determined. In the determined first edge feature set, when the end point position of the first edge feature is not the same end point position, a secondary that interpolates the other end point position based on the end point position of one of the first edge features An interpolation unit;
A determination unit that determines whether the first edge feature is an edge feature of a three-dimensional object based on the set of first edge features subjected to the primary interpolation or the quadratic interpolation. Detection device.
JP2014247177A 2014-12-05 2014-12-05 Object detection method, object detection program, and object detection apparatus Expired - Fee Related JP6464706B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014247177A JP6464706B2 (en) 2014-12-05 2014-12-05 Object detection method, object detection program, and object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014247177A JP6464706B2 (en) 2014-12-05 2014-12-05 Object detection method, object detection program, and object detection apparatus

Publications (2)

Publication Number Publication Date
JP2016110384A JP2016110384A (en) 2016-06-20
JP6464706B2 true JP6464706B2 (en) 2019-02-06

Family

ID=56124315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014247177A Expired - Fee Related JP6464706B2 (en) 2014-12-05 2014-12-05 Object detection method, object detection program, and object detection apparatus

Country Status (1)

Country Link
JP (1) JP6464706B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110519560B (en) * 2019-08-01 2021-06-08 悉地国际设计顾问(深圳)有限公司 Intelligent early warning method, device and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4070450B2 (en) * 2001-12-10 2008-04-02 ダイハツ工業株式会社 Forward vehicle recognition device and recognition method
JP4915655B2 (en) * 2006-10-27 2012-04-11 パナソニック株式会社 Automatic tracking device
JP4788798B2 (en) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 Object detection device
JP5911062B2 (en) * 2012-04-26 2016-04-27 株式会社メガチップス Object detection apparatus and program

Also Published As

Publication number Publication date
JP2016110384A (en) 2016-06-20

Similar Documents

Publication Publication Date Title
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
JP5258859B2 (en) Runway estimation apparatus and program
JP5521676B2 (en) Image processing apparatus and image processing program
JP6307873B2 (en) Object line detection apparatus, method, and program
JP2005037378A (en) Depth measurement method and depth measurement device
JP6025467B2 (en) Image processing apparatus and image processing method
KR20150059701A (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
JP6561670B2 (en) Step detecting device and step detecting method
CN106295640A (en) The object identification method of a kind of intelligent terminal and device
JP6873644B2 (en) Image processing equipment, image processing methods, and programs
JP6526527B2 (en) Identification device and authentication system
JP4296617B2 (en) Image processing apparatus, image processing method, and recording medium
US10380743B2 (en) Object identifying apparatus
JP2018092354A (en) Object detection apparatus and method for detecting objects
JP7448035B2 (en) Information processing device, three-dimensional position estimation method, and program
JP6464706B2 (en) Object detection method, object detection program, and object detection apparatus
JP6221283B2 (en) Image processing apparatus, image processing method, and image processing program
KR102466942B1 (en) Apparatus and method for registering face posture for face recognition
US8824734B2 (en) Device, method and recording to determine depressed portions of image regions using shortcut line analysis
JP5470529B2 (en) Motion detection device, motion detection method, and motion detection program
JP2011171991A (en) Image processing apparatus, electronic device, image processing method and image processing program
JP5891751B2 (en) Inter-image difference device and inter-image difference method
KR101607504B1 (en) Stereo Matching Method using Summed Area Table Scheme
JP6688091B2 (en) Vehicle distance deriving device and vehicle distance deriving method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181224

R150 Certificate of patent or registration of utility model

Ref document number: 6464706

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees