JP2016015043A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2016015043A
JP2016015043A JP2014137127A JP2014137127A JP2016015043A JP 2016015043 A JP2016015043 A JP 2016015043A JP 2014137127 A JP2014137127 A JP 2014137127A JP 2014137127 A JP2014137127 A JP 2014137127A JP 2016015043 A JP2016015043 A JP 2016015043A
Authority
JP
Japan
Prior art keywords
tracking
image
unit
change
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014137127A
Other languages
Japanese (ja)
Inventor
小川 雅弘
Masahiro Ogawa
雅弘 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014137127A priority Critical patent/JP2016015043A/en
Publication of JP2016015043A publication Critical patent/JP2016015043A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device capable of reducing the risk of losing sight of an object and appropriately tracking the object.SOLUTION: An object recognition device of the present invention detects an object from an image obtained by imaging surroundings of an own vehicle; extracts feature points of the object; compares a plurality of image continuous in time series for an object image, thereby calculating a tracking score that becomes a lower value as changes in moving amounts and moving directions of the extracted feature points are greater; compares the tracking score with a tracking threshold for tracking, thereby tracking the object for which the tracking score is equal to or greater than the tracking threshold; stores object images of the tracked object; calculates a degree of change of the object on the basis of the stored object images; and executes threshold update processing for changing a value the tracking threshold to be lower if the calculated degree of change is equal to or higher than a predetermined value and maintaining the value of the tracking threshold if the degree of change is lower than the predetermined value.

Description

本発明は、対象物認識装置に関する。   The present invention relates to an object recognition apparatus.

従来の対象物認識装置としては、例えば、特許文献1に記載の技術が報告されている。特許文献1に記載の技術では、移動体の種類や移動体の位置関係に関わらず、撮影画像内において移動体が写っている領域を追跡している。具体的には、特許文献1に記載の技術では、撮像された画像を複数の領域に区分し、区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する。そして、特許文献1に記載の技術では、所定時間の間隔で撮像された少なくとも2枚の画像に基づいて、追跡可能領域の画像上の移動量を検出し、追跡可能領域の移動量と、所定時間における自車両移動量とに基づいて、追跡可能領域内の追跡対象の実空間上の位置を算出する。そして、特許文献1に記載の技術では、算出された追跡対象の位置と自車両移動量に基づいて、追跡可能領域が静止物領域か移動体領域かを判定している。   As a conventional object recognition apparatus, for example, a technique described in Patent Document 1 has been reported. In the technique described in Patent Document 1, a region in which a moving body is captured in a captured image is tracked regardless of the type of the moving body and the positional relationship between the moving bodies. Specifically, in the technique described in Patent Document 1, a captured image is divided into a plurality of areas, and a trackable area that can track a moving body is detected from the divided areas. In the technique described in Patent Document 1, the amount of movement of the traceable area on the image is detected based on at least two images captured at predetermined time intervals, Based on the amount of movement of the vehicle in time, the position of the tracking target in the trackable area in the real space is calculated. In the technique described in Patent Document 1, it is determined whether the trackable area is a stationary object area or a moving body area based on the calculated position of the tracking target and the own vehicle movement amount.

特開2004−362334号公報JP 2004-362334 A

しかしながら、従来の対象物認識装置(特許文献1等)においては、移動体を追跡する際に用いる追跡閾値が予め設定された固定値であるため、当該追跡閾値が想定していない急な対象物の移動量及び移動方向における変化があると、対象物の追跡を失敗しやすくなり、追跡対象として認識していた対象物をロストしてしまう可能性がある。   However, in the conventional object recognition device (Patent Document 1, etc.), the tracking threshold value used when tracking a moving object is a fixed value set in advance, and therefore, a steep object that the tracking threshold value is not assumed. If there is a change in the amount and direction of movement, tracking of the object is likely to fail, and the object that has been recognized as the tracking object may be lost.

本発明は、上記の事情に鑑みてなされたものであって、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡可能な対象物認識装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and even if there is a sudden change in the moving amount and moving direction with respect to an object recognized as a tracking target, An object of the present invention is to provide an object recognition apparatus that can appropriately track an object by reducing the possibility of being lost.

本発明の対象物認識装置は、自車両の周辺を撮像した画像を取得する画像取得部と、前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記対象物検出部により検出された前記対象物を含む部分領域として画像内に設定される対象物画像について比較することで、前記特徴点抽出部により抽出された前記特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出部と、前記追跡スコア算出部により算出された前記追跡スコアと追跡用の追跡閾値とを比較することで、当該追跡スコアが当該追跡閾値以上である対象物を追跡する対象物追跡部と、前記対象物追跡部により追跡できた前記対象物の対象物画像を蓄積する画像蓄積部と、前記画像蓄積部に蓄積された前記対象物画像に基づいて前記対象物の変化度を計算する変化度計算部と、前記変化度計算部により計算された前記変化度が所定値以上である場合は前記追跡閾値の値が低くなるように変更し、前記変化度が所定値未満である場合は前記追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新部と、を備えることを特徴とする。   An object recognition apparatus according to the present invention includes an image acquisition unit that acquires an image obtained by capturing an image of the periphery of the host vehicle, and an object that detects an object existing around the host vehicle from the image acquired by the image acquisition unit. An object detection unit, a feature point extraction unit that extracts feature points of the object detected by the object detection unit, and a plurality of images that are sequentially acquired by the image acquisition unit and that are sequentially acquired in time series, By comparing the object image set in the image as a partial region including the object detected by the object detection unit, the movement amount and movement direction of the feature point extracted by the feature point extraction unit By comparing the tracking score calculated by the tracking score calculation unit with the tracking threshold for tracking, a tracking score calculation unit that calculates a tracking score that becomes a lower value as the change increases is obtained. An object tracking unit that tracks an object that is equal to or greater than the tracking threshold; an image accumulation unit that accumulates an object image of the object that can be tracked by the object tracking unit; and the image accumulation unit that accumulates the object image. A degree-of-change calculating unit that calculates the degree of change of the object based on the object image, and the tracking threshold value is lowered when the degree of change calculated by the degree-of-change calculating unit is equal to or greater than a predetermined value. And a tracking threshold update unit that executes a threshold update process for maintaining the value of the tracking threshold when the degree of change is less than a predetermined value.

本発明にかかる対象物認識装置は、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できるという効果を奏する。   The object recognition device according to the present invention reduces the possibility of losing an object even when there is a sudden change in the amount and direction of movement of the object recognized as a tracking object. The object can be suitably tracked.

図1は、実施形態にかかる対象物認識装置の構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of an object recognition apparatus according to an embodiment. 図2は、特徴点が抽出された対象物の一例を示す図である。FIG. 2 is a diagram illustrating an example of an object from which feature points are extracted. 図3は、特徴点が抽出された対象物の一例を示す図である。FIG. 3 is a diagram illustrating an example of an object from which feature points are extracted. 図4は、追跡閾値の設定例を示す図である。FIG. 4 is a diagram illustrating a setting example of the tracking threshold. 図5は、実施形態にかかる対象物認識装置の処理の一例を示す図である。FIG. 5 is a diagram illustrating an example of processing performed by the object recognition apparatus according to the embodiment. 図6は、実施形態にかかる対象物認識装置の処理の一例を示す図であるFIG. 6 is a diagram illustrating an example of processing of the object recognition device according to the embodiment.

以下に、本発明にかかる対象物認識装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。   Embodiments of an object recognition apparatus according to the present invention will be described below in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or those that are substantially the same.

[実施形態]
本実施形態にかかる対象物の構成について図1乃至図4を参照しながら説明する。図1は、実施形態にかかる対象物認識装置の構成の一例を示すブロック図である。図2及び図3は、特徴点が抽出された対象物の一例を示す図である。図4は、追跡閾値の設定例を示す図である。
[Embodiment]
The configuration of the object according to the present embodiment will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram illustrating an example of a configuration of an object recognition apparatus according to an embodiment. 2 and 3 are diagrams illustrating an example of an object from which feature points are extracted. FIG. 4 is a diagram illustrating a setting example of the tracking threshold.

図1に示すように、カメラ1は、自車両周辺を撮影し、自車両周辺が映し出されている画像データを生成する機器である。カメラ1は、例えば可視光領域または赤外線領域にて撮像可能なCCDカメラまたはCMOSカメラ等である。カメラ1は、車両の前方、側方、後方等の車両周辺を撮像可能な任意の位置に設置される。   As shown in FIG. 1, the camera 1 is a device that captures the periphery of the host vehicle and generates image data in which the periphery of the host vehicle is projected. The camera 1 is, for example, a CCD camera or a CMOS camera that can capture an image in the visible light region or the infrared region. The camera 1 is installed at an arbitrary position where the surroundings of the vehicle such as the front, side, and rear of the vehicle can be imaged.

対象物認識装置2は、例えば車両に搭載された自動車制御用コンピュータなどを用いて構成されたものであり、車両に搭載されているカメラ1と、車室内の運転者等に対して音声を出力するスピーカ3と、車両の挙動を制御するアクチュエータ4と、通信可能に接続されている。   The object recognition device 2 is configured using, for example, an automobile control computer mounted on a vehicle, and outputs a sound to the camera 1 mounted on the vehicle, a driver in the vehicle interior, and the like. The speaker 3 that controls the vehicle and the actuator 4 that controls the behavior of the vehicle are communicably connected.

対象物認識装置2は、画像取得部2aと、対象物検出部2bと、特徴点抽出部2cと、追跡スコア算出部2dと、対象物追跡部2eと、画像蓄積部2fと、変化度計算部2gと、追跡閾値更新部2hと、飛出し判定部2iと、注意喚起部2jと、車両制御部2kと、を少なくとも備える。   The object recognition device 2 includes an image acquisition unit 2a, an object detection unit 2b, a feature point extraction unit 2c, a tracking score calculation unit 2d, an object tracking unit 2e, an image storage unit 2f, and a degree of change calculation. Unit 2g, tracking threshold update unit 2h, pop-up determination unit 2i, alerting unit 2j, and vehicle control unit 2k.

画像取得部2aは、自車両の周辺を撮像した画像を取得する画像取得手段である。画像取得部2aは、カメラ1から入力される画像データを、自車両の周辺を撮像した画像として取得する。画像取得部2aは、カメラ1から入力される画像データを順次取得することで、異なる時刻で自車両の周辺を撮像した複数の画像を取得する。   The image acquisition unit 2a is an image acquisition unit that acquires an image of the periphery of the host vehicle. The image acquisition unit 2a acquires the image data input from the camera 1 as an image obtained by imaging the periphery of the host vehicle. The image acquisition unit 2a sequentially acquires image data input from the camera 1, thereby acquiring a plurality of images obtained by imaging the periphery of the host vehicle at different times.

対象物検出部2bは、画像取得部2aにより取得された画像から自車両の周辺に存在する対象物を検出する対象物検出手段である。本実施形態において、対象物とは、後述する飛出し検出を行うために追跡対象とする移動体を意味する。移動体としては、例えば、自車両の周辺に存在する歩行者、自転車、相手車両等を含む。なお、対象物検出手法としては、パターンマッチング等の当該分野で公知の手法が用いられる。対象物検出部2bは、検出した対象物の2次元位置(縦座標、横座標)、好ましくは3次元位置(縦座標、横座標、高さ)を取得する。   The object detection unit 2b is an object detection unit that detects an object existing around the host vehicle from the image acquired by the image acquisition unit 2a. In the present embodiment, the object means a moving object to be tracked in order to detect pop-out detection described later. Examples of the moving body include pedestrians, bicycles, opponent vehicles, and the like that exist around the host vehicle. As the object detection technique, a technique known in the field such as pattern matching is used. The object detection unit 2b acquires a two-dimensional position (ordinate, abscissa), preferably a three-dimensional position (ordinate, abscissa, height) of the detected object.

特徴点抽出部2cは、対象物検出部2bにより検出された対象物の特徴点を抽出する特徴点抽出手段である。本実施形態において、対象物の特徴点とは、追跡対象とする対象物と、背景や障害物等とを明確に区別可能な特徴量を有する画像上の画素領域を意味する。特徴量は、例えば、色、形状、テクスチャ等の特徴を示す量である。なお、特徴点抽出手法としては、SIFTやSURF等の当該分野で既知の手法が用いられる。   The feature point extraction unit 2c is a feature point extraction unit that extracts feature points of the object detected by the object detection unit 2b. In the present embodiment, the feature point of an object means a pixel region on an image having a feature amount that can clearly distinguish an object to be tracked from a background or an obstacle. The feature amount is an amount indicating features such as color, shape, texture, and the like. As a feature point extraction method, a method known in the field such as SIFT or SURF is used.

ここで、図2を参照して、特徴点抽出部2cにより抽出された特徴点の一例について説明する。図2において、対象物は歩行者であり、当該歩行者を含む部分領域として画像内に対象物画像が設定されている。このような場合、例えば、特徴点抽出部2cは、対象物画像に含まれる歩行者に関して、追跡対象とする歩行者と、背景や障害物等とを明確に区別可能な特徴量を有する画像上の画素領域として、5つの特徴点1〜5を抽出する。なお、特徴点抽出部2cにより抽出される特徴点の数は、図2のように5つに限定されず、後述の追跡スコア算出部2dにより適切な追跡スコアを算出可能な数であればよい。また、本実施形態において、対象物画像は、図2に示すように、対象物検出部2bにより検出された対象物の輪郭を含み、且つ、特徴点抽出部2cにより抽出された特徴点を含むように、画像取得部2aにより取得された画像から切り出される部分領域であればよく、対象物画像の大きさ及び形状については特に限定されない。   Here, an example of the feature points extracted by the feature point extraction unit 2c will be described with reference to FIG. In FIG. 2, the object is a pedestrian, and the object image is set in the image as a partial area including the pedestrian. In such a case, for example, the feature point extraction unit 2c has a feature amount that can clearly distinguish a pedestrian to be tracked from a background, an obstacle, and the like regarding a pedestrian included in the object image. Five feature points 1 to 5 are extracted as the pixel region. Note that the number of feature points extracted by the feature point extraction unit 2c is not limited to five as shown in FIG. 2, but may be any number as long as an appropriate tracking score can be calculated by the tracking score calculation unit 2d described later. . In the present embodiment, the object image includes the outline of the object detected by the object detection unit 2b and the feature points extracted by the feature point extraction unit 2c, as shown in FIG. In this way, it is only necessary to be a partial region cut out from the image acquired by the image acquisition unit 2a, and the size and shape of the object image are not particularly limited.

図1に戻り、追跡スコア算出部2dは、画像取得部2aにより順次取得された時系列的に前後する複数の画像を、対象物検出部2bにより検出された対象物を含む部分領域として画像内に設定される対象物画像について比較することで、特徴点抽出部2cにより抽出された特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出手段である。本実施形態において、例えば、画像取得部2aにより第1の時刻で取得された画像を第1の画像とし、第1の時刻よりも後の時刻である第2の時刻で取得される画像を第2の画像とした場合、これら第1の画像と第2の画像が、時系列的に前後する複数の画像となる。より具体的には、第1の画像は、現在から所定時間前の画像であり、第2の画像は、現在の画像となる。なお、当該時系列的に前後する複数の画像の一部又は全部は、後述する画像蓄積部2fに蓄積された対象物画像であってもよい。   Returning to FIG. 1, the tracking score calculation unit 2d includes a plurality of images that are sequentially acquired by the image acquisition unit 2a in the time series as partial areas including the target detected by the target detection unit 2b. Is a tracking score calculation means for calculating a tracking score that becomes a lower value as the change in the moving amount and moving direction of the feature point extracted by the feature point extracting unit 2c is larger. . In the present embodiment, for example, the image acquired at the first time by the image acquisition unit 2a is set as the first image, and the image acquired at the second time that is later than the first time is the first image. In the case of the second image, the first image and the second image are a plurality of images that move back and forth in time series. More specifically, the first image is an image a predetermined time before the current time, and the second image is the current image. It should be noted that some or all of the plurality of images that move back and forth in time series may be object images stored in the image storage unit 2f described later.

具体的には、追跡スコア算出部2dは、時系列的に前後する複数の対象物画像における特徴点の移動量及び移動方向の変化量を数値化して追跡スコアを算出する。ここで、追跡スコア算出部2dは、特徴点の移動量及び移動方向の変化量が大きいほど、時系列的に前後する複数の対象物画像間において対象物の特徴点を追跡できる可能性が低くなると予測して、追跡スコアが低い値となるように算出する。一方、追跡スコア算出部2dは、特徴点の移動量及び移動方向の変化量が小さいほど、時系列的に前後する複数の対象物画像間において対象物の特徴点を追跡できる可能性が高くなると予測して、追跡スコアが高い値となるように算出する。追跡スコア算出部2dにより算出された追跡スコアは、後述の対象物追跡部2eにより対象物を追跡できたか否かを判定する際に用いられる。   Specifically, the tracking score calculation unit 2d calculates the tracking score by quantifying the moving amount of the feature point and the changing amount of the moving direction in a plurality of object images that move back and forth in time series. Here, the tracking score calculation unit 2d is less likely to be able to track the feature point of the target object between the plurality of target images that are moved back and forth in time series as the movement amount of the feature point and the change amount of the movement direction are larger. As a result, the tracking score is calculated to be a low value. On the other hand, the tracking score calculation unit 2d is more likely to be able to track a feature point of a target object between a plurality of target images moving back and forth in time series as the movement amount of the feature point and the change amount of the movement direction are smaller. Predict and calculate the tracking score to be a high value. The tracking score calculated by the tracking score calculation unit 2d is used when determining whether or not the target tracking unit 2e described later has tracked the target.

対象物追跡部2eは、追跡スコア算出部2dにより算出された追跡スコアと追跡用の追跡閾値とを比較することで、追跡スコアが追跡閾値以上である対象物を追跡する対象物追跡手段である。具体的には、対象物追跡部2eは、追跡スコアが追跡閾値以上である対象物については追跡できたと判定し、一方、追跡スコアが追跡閾値未満である対象物については追跡できずにロストした判定する。本実施形態において、追跡閾値の初期値には、予め実験等により決定された適切な値が設定されるものとする。なお、追跡閾値の初期値については、後述の追跡閾値更新部2hによって対象物の変化度に応じて更新される。   The object tracking unit 2e is an object tracking unit that tracks an object whose tracking score is equal to or greater than the tracking threshold by comparing the tracking score calculated by the tracking score calculating unit 2d with the tracking threshold for tracking. . Specifically, the object tracking unit 2e determines that an object having a tracking score equal to or higher than the tracking threshold can be tracked, while an object having a tracking score less than the tracking threshold is lost without being tracked. judge. In the present embodiment, an appropriate value determined in advance through experiments or the like is set as the initial value of the tracking threshold. Note that the initial value of the tracking threshold is updated according to the degree of change of the object by a tracking threshold update unit 2h described later.

ここで、図2及び図3を参照し、一例として、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像として、追跡スコア算出部2d及び対象物追跡部2eの処理を説明する。図2と同様に、図3において、対象物として検出された歩行者を含む部分領域として画像内に対象物画像が設定されており、当該歩行者に対して特徴点抽出部2cにより5つの特徴点1〜5が抽出されているものとする。このような場合、図2及び図3に示すように、追跡スコア算出部2dは、画像取得部2aにより順次取得された時系列的に前後する第1の画像(図2参照)中の対象物画像と第2の画像(図3参照)中の対象物画像について比較する。   Here, referring to FIG. 2 and FIG. 3, as an example, the image shown in FIG. 2 is used as the first image, the image shown in FIG. 3 is used as the second image, and the tracking score calculation unit 2d and the object tracking unit 2e. The process will be described. Similar to FIG. 2, in FIG. 3, an object image is set in the image as a partial region including a pedestrian detected as an object, and five feature points are extracted from the pedestrian by the feature point extraction unit 2 c. It is assumed that points 1 to 5 have been extracted. In such a case, as shown in FIG. 2 and FIG. 3, the tracking score calculation unit 2d is the target in the first image (see FIG. 2) that is sequentially acquired by the image acquisition unit 2a. The object images in the image and the second image (see FIG. 3) are compared.

具体的には、追跡スコア算出部2dは、第1の画像中の対象物画像と第2の画像中の対象物画像とを比較する際に、第1の画像と第2の画像間において共通する同一の特徴点について着目し、この特徴点に関する移動量及び移動方向の変化量を数値化して追跡スコアを算出する。例えば、第1の画像と第2の画像間において共通する同一の特徴点のうち第1の特徴点について着目した場合、追跡スコア算出部2dは、第1の画像における特徴点1を基準として、第2の画像における特徴点1までの移動量及び移動方向の変化量を数値化して追跡スコアを算出する。同様に、追跡スコア算出部2dは、特徴点1以外の他の特徴点2〜5についても、同一の特徴点ごとに追跡スコアを算出する。追跡スコア算出部2dは、特徴点1〜5についてそれぞれ算出された追跡スコアを集計して平均値をとり、当該平均値を第1の画像と第2の画像とを比較した場合の最終的な追跡スコアとして算出する。そして、対象物追跡部2eは、追跡スコア算出部2dにより算出された特徴点1〜5に関する追跡スコアの平均値と、追跡用の追跡閾値とを比較する。このとき、対象物追跡部2eは、追跡スコアの平均値が追跡閾値以上である場合は、追跡対象としていた対象物について追跡できていると判定し、一方、追跡スコアの平均値が追跡閾値未満である場合は、追跡対象としていた対象物を追跡できずにロストしたと判定する。   Specifically, the tracking score calculation unit 2d is common between the first image and the second image when comparing the object image in the first image with the object image in the second image. Focusing on the same feature point, the amount of movement and the amount of change in the movement direction related to the feature point are digitized to calculate a tracking score. For example, when focusing on the first feature point among the same feature points common between the first image and the second image, the tracking score calculation unit 2d uses the feature point 1 in the first image as a reference. The tracking score is calculated by quantifying the amount of movement up to the feature point 1 and the amount of change in the direction of movement in the second image. Similarly, the tracking score calculation unit 2d calculates a tracking score for each of the same feature points for the feature points 2 to 5 other than the feature point 1. The tracking score calculation unit 2d collects the tracking scores calculated for the feature points 1 to 5, respectively, takes an average value, and compares the average value with the first image and the second image. Calculate as a tracking score. Then, the object tracking unit 2e compares the average value of the tracking score for the feature points 1 to 5 calculated by the tracking score calculation unit 2d with the tracking threshold for tracking. At this time, when the average value of the tracking score is equal to or greater than the tracking threshold, the target tracking unit 2e determines that the tracking target is tracked, while the average tracking score is less than the tracking threshold In the case of, it is determined that the object that was the tracking target is lost without being tracked.

図1に戻り、画像蓄積部2fは、対象物追跡部2eにより追跡できた対象物の対象物画像を蓄積する画像蓄積手段である。画像蓄積部2fは、対象物追跡部2eにより追跡できた対象物を含むように画像から切り出された対象物画像を、当該対象物を含む画像が取得された時刻に対応付けて、自動車制御用コンピュータのメモリ内に格納して、追跡対象物画像データベースを構築する。画像蓄積部2fに蓄積された対象物画像は、後述する変化度計算部2gにより対象物の変化度を計算する際や、上述の追跡スコア算出部2dにより時系列的に前後する複数の対象物画像を比較する際等に用いられる。   Returning to FIG. 1, the image accumulating unit 2 f is an image accumulating unit that accumulates the object image of the object tracked by the object tracking unit 2 e. The image accumulating unit 2f associates the object image cut out from the image so as to include the object tracked by the object tracking unit 2e with the time when the image including the object is acquired. A tracking object image database is constructed by storing in a computer memory. The object image accumulated in the image accumulating unit 2f is a plurality of objects that are moved back and forth in time series by the tracking score calculating unit 2d described above when calculating the degree of change of the object by the degree-of-change calculating unit 2g described later. Used when comparing images.

変化度計算部2gは、画像蓄積部2fに蓄積された対象物画像に基づいて対象物の変化度を計算する変化度計算手段である。本実施形態において、変化度計算部2gは、画像蓄積部2fに蓄積された時系列的に前後する複数の対象物画像を比較して、これらの対象物画像間における対象物の形状情報の変化から、対象物の姿勢等の見かけ上の変化を示す変化度を計算する。変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が大きいほど、対象物の見かけ上の変化が大きくなると予測して、対象物の変化度の値が大きくなるように計算する。一方、変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が小さいほど、対象物の見かけ上の変化が小さくなると予測して、対象物の変化度の値が小さくなるように計算する。変化度計算部2gにより計算された対象物の変化度は、後述の追跡閾値更新部2hにより対象物の変化度に応じて追跡閾値を更新する際に用いられる。   The degree-of-change calculator 2g is a degree-of-change calculator that calculates the degree of change of the object based on the object image accumulated in the image accumulator 2f. In the present embodiment, the degree-of-change calculation unit 2g compares a plurality of target images that are accumulated in time series in the image storage unit 2f and changes the shape information of the target object between these target images. From this, the degree of change indicating the apparent change in the posture of the object is calculated. The degree-of-change calculation unit 2g predicts that the apparent change of the target object increases as the difference in shape information between the target object images to be compared increases, so that the value of the degree of change of the target object increases. calculate. On the other hand, the degree-of-change calculation unit 2g predicts that the apparent change of the object becomes smaller as the difference in shape information between the object images to be compared becomes smaller, and the value of the degree of change of the object becomes smaller. Calculate as follows. The degree of change of the object calculated by the degree-of-change calculator 2g is used when the tracking threshold is updated according to the degree of change of the object by the tracking threshold update unit 2h described later.

追跡閾値更新部2hは、変化度計算部2gにより計算された対象物の変化度が所定値以上である場合は追跡閾値の値が低くなるように変更し、対象物の変化度が所定値未満である場合は追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新手段である。追跡閾値更新部2hは、対象物の変化度が所定値以上である場合は、少なくとも前フレームで対象物を追跡する際に使用した追跡閾値の値と比べて低くなるように変更する。追跡閾値更新部2hは、対象物の変化度の大きさが大きくなるほど、追跡閾値の値が低くなるように変更する。本実施形態において、対象物の変化度に関する所定値には、予め実験等により決定された適切な値が設定されるものとする。   The tracking threshold update unit 2h changes the tracking threshold value to be lower when the change degree of the object calculated by the change degree calculation part 2g is equal to or greater than a predetermined value, and the change degree of the object is less than the predetermined value. Is a tracking threshold update means for executing a threshold update process for maintaining the value of the tracking threshold. When the change degree of the target is equal to or greater than a predetermined value, the tracking threshold update unit 2h changes the tracking threshold to be lower than the tracking threshold value used when tracking the target in at least the previous frame. The tracking threshold value updating unit 2h changes the tracking threshold value to be lower as the degree of change of the object increases. In the present embodiment, an appropriate value determined in advance through experiments or the like is set as the predetermined value regarding the degree of change of the object.

ここで、図4を参照して、追跡閾値更新部2hにより対象物の変化度に応じて更新された追跡閾値の一例について説明する。図4のグラフでは、追跡スコア算出部2dにより所定フレームごとに算出された追跡スコアの平均値がプロットされている。図4において、追跡閾値の初期値は、第1フレーム及び第2フレームにおいて対象物追跡部2eにより追跡スコアと比較する際に用いられているが、第3フレーム以降では、追跡閾値更新部2hにより更新された追跡閾値が用いられている。以下、図4の例において、第1フレームから第5フレームまでに実行される各種処理について説明する。   Here, with reference to FIG. 4, an example of the tracking threshold updated by the tracking threshold update unit 2h according to the degree of change of the object will be described. In the graph of FIG. 4, the average value of the tracking score calculated for each predetermined frame by the tracking score calculation unit 2d is plotted. In FIG. 4, the initial value of the tracking threshold is used when the object tracking unit 2e compares the tracking score with the tracking score in the first frame and the second frame. An updated tracking threshold is used. In the following, various processes executed from the first frame to the fifth frame in the example of FIG. 4 will be described.

図4に示すように、第1フレームでは、対象物検出部2bにより検出された対象物を含む部分領域としての対象物画像が画像蓄積部2fにより蓄積される。また、第1フレームでは、特徴点抽出部2cにより抽出された特徴点の情報量に応じて追跡スコア算出部2dにより第1フレームの追跡スコアが算出される。そして、算出された第1フレームの追跡スコアの値を基準として、当該追跡スコアの値よりも高い値を有する追跡閾値の初期値が設定されるものとする。   As shown in FIG. 4, in the first frame, an object image as a partial region including the object detected by the object detection unit 2b is accumulated by the image accumulation unit 2f. In the first frame, the tracking score of the first frame is calculated by the tracking score calculation unit 2d according to the information amount of the feature point extracted by the feature point extraction unit 2c. Then, with the calculated tracking score value of the first frame as a reference, an initial value of the tracking threshold having a value higher than the tracking score value is set.

ここで、図4において、対象物追跡部2eは、第1フレーム及び第2フレーム間で対象物が追跡できているか否かを判定する際には、追跡閾値の初期値と第2フレームの追跡スコアとを比較する。ここでは、第2フレームの追跡スコアは追跡閾値の初期値以上となるため、対象物追跡部2eは、第1フレーム及び第2フレーム間で対象物を追跡できていると判定する。そして、第2フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第2フレームでは、第3フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第1フレームの対象物画像と第2フレームの対象物画像とを比較した結果、第1フレーム及び第2フレームの対象物画像間において、形状情報の差異が比較的大きく、対象物の見かけ上の変化が比較的大きくなると予測されたものとする。この場合、対象物の変化度の値は比較的大きな値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値以上であると判定して、第2フレームで用いた追跡閾値の初期値よりも低い値を有するように、第3フレーム用の追跡閾値を変更する。   Here, in FIG. 4, when the object tracking unit 2e determines whether or not the object can be tracked between the first frame and the second frame, the initial value of the tracking threshold and the tracking of the second frame are performed. Compare the score. Here, since the tracking score of the second frame is equal to or greater than the initial value of the tracking threshold, the object tracking unit 2e determines that the object can be tracked between the first frame and the second frame. The object image that can be tracked in the second frame is accumulated by the image accumulating unit 2f. Further, in the second frame, in order to set the tracking threshold for the third frame, the degree of change of the object is calculated, and threshold update processing is executed on the tracking threshold according to the degree of change. Here, as a result of comparing the object image of the first frame and the object image of the second frame stored in the image storage unit 2f by the degree-of-change calculator 2g, the object image of the first frame and the second frame are compared. It is assumed that the difference in shape information is relatively large and the apparent change of the object is predicted to be relatively large. In this case, since the value of the degree of change of the target object is relatively large, the tracking threshold update unit 2h determines that the calculated degree of change of the target object is equal to or greater than a predetermined value, and performs the second frame. The tracking threshold for the third frame is changed so as to have a value lower than the initial value of the used tracking threshold.

また、図4において、対象物追跡部2eは、第2フレーム及び第3フレーム間で対象物が追跡できているか否かを判定する際には、第2フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第3フレーム用の追跡閾値と、第3フレームの追跡スコアとを比較する。ここでは、第3フレームの追跡スコアは第3フレーム用の追跡閾値以上となるため、対象物追跡部2eは、第2フレーム及び第3フレーム間で対象物を追跡できていると判定する。そして、第3フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第3フレームでは、第4フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第2フレームの対象物画像と第3フレームの対象物画像とを比較した結果、第2フレーム及び第3フレームの対象物画像間において、形状情報の差異が比較的大きく、対象物の見かけ上の変化が比較的大きくなると予測されたものとする。この場合、対象物の変化度の値は比較的大きな値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値以上であると判定して、第3フレームで用いた追跡閾値よりも低い値を有するように、第4フレーム用の追跡閾値を変更する。   In FIG. 4, when the object tracking unit 2e determines whether the object can be tracked between the second frame and the third frame, the object is tracked by the tracking threshold update unit 2h in the second frame. The tracking threshold for the third frame set according to the degree of change of the third frame is compared with the tracking score of the third frame. Here, since the tracking score of the third frame is equal to or greater than the tracking threshold for the third frame, the object tracking unit 2e determines that the object can be tracked between the second frame and the third frame. Then, the object image that can be tracked in the third frame is accumulated by the image accumulating unit 2f. In the third frame, in order to set the tracking threshold for the fourth frame, the degree of change of the object is calculated, and the threshold update process is executed on the tracking threshold according to the degree of change. Here, as a result of comparing the object image of the second frame and the object image of the third frame stored in the image storage unit 2f by the degree-of-change calculator 2g, the object images of the second frame and the third frame are compared. It is assumed that the difference in shape information is relatively large and the apparent change of the object is predicted to be relatively large. In this case, since the value of the degree of change of the target object is relatively large, the tracking threshold update unit 2h determines that the calculated degree of change of the target object is equal to or greater than a predetermined value, and performs the third frame. The tracking threshold for the fourth frame is changed to have a lower value than the used tracking threshold.

また、図4において、対象物追跡部2eは、第3フレーム及び第4フレーム間で対象物が追跡できているか否かを判定する際には、第3フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第4フレーム用の追跡閾値と、第4フレームの追跡スコアとを比較する。ここでは、第4フレームの追跡スコアは第4フレーム用の追跡閾値以上となるため、対象物追跡部2eは、第3フレーム及び第4フレーム間で対象物を追跡できていると判定する。そして、第4フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第4フレームでは、第5フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第3フレームの対象物画像と第4フレームの対象物画像とを比較した結果、第3フレーム及び第4フレームの対象物画像間において、形状情報の差異が比較的小さく、対象物の見かけ上の変化が比較的小さくなると予測されたものとする。この場合、対象物の変化度の値は比較的小さい値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値未満であると判定して、第4フレームで用いた追跡閾値を変更せずに維持し、第5フレーム用の追跡閾値として設定する。   In FIG. 4, when the object tracking unit 2e determines whether the object can be tracked between the third frame and the fourth frame, the object is tracked by the tracking threshold update unit 2h in the third frame. The tracking threshold for the fourth frame set according to the degree of change of the fourth frame is compared with the tracking score of the fourth frame. Here, since the tracking score of the fourth frame is equal to or greater than the tracking threshold for the fourth frame, the object tracking unit 2e determines that the object can be tracked between the third frame and the fourth frame. Then, the object image that can be tracked in the fourth frame is accumulated by the image accumulating unit 2f. In the fourth frame, in order to set the tracking threshold for the fifth frame, the degree of change of the object is calculated, and the threshold update process is performed on the tracking threshold according to the degree of change. Here, as a result of comparing the object image of the third frame and the object image of the fourth frame stored in the image storage unit 2f by the degree-of-change calculator 2g, the object image of the third frame and the fourth frame are compared. It is assumed that the difference in shape information is relatively small and the apparent change of the object is predicted to be relatively small. In this case, since the value of the degree of change of the object is a relatively small value, the tracking threshold update unit 2h determines that the calculated degree of change of the object is less than the predetermined value, and in the fourth frame The tracking threshold used is kept unchanged and set as the tracking threshold for the fifth frame.

なお、図4において、対象物追跡部2eは、第4フレーム及び第5フレーム間で対象物が追跡できているか否かを判定する際には、第4フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第5フレーム用の追跡閾値と、第5フレームの追跡スコアとを比較する。ここでは、第5フレームの追跡スコアは第5フレーム用の追跡閾値未満となるため、対象物追跡部2eは、第4フレーム及び第5フレーム間で対象物を追跡できずにロストしたと判定する。   In FIG. 4, when the object tracking unit 2e determines whether the object can be tracked between the fourth frame and the fifth frame, the object is detected by the tracking threshold update unit 2h in the fourth frame. The tracking threshold for the fifth frame set in accordance with the degree of change in is compared with the tracking score of the fifth frame. Here, since the tracking score of the fifth frame is less than the tracking threshold for the fifth frame, the object tracking unit 2e determines that the object cannot be tracked between the fourth frame and the fifth frame and is lost. .

図1に戻り、飛出し判定部2iは、対象物追跡部2eにより追跡できた対象物画像に対して飛出し検出を行い、対象物の飛出しの有無を判定する飛出し判定手段である。例えば、飛出し判定部2iは、時系列的に前後する複数の画像(例えば、第1の画像と第2の画像)間で、対象物画像に対して、その対象物画像内に含まれる特徴点の移動量や移動方向などに基づく特徴点の変化量を、当該分野で公知の手法を用いて算出する。そして、飛出し判定部2iは、対象物画像について算出した変化量が、所定の飛出し検出用閾値以上である場合に、対象物の飛出しが有ると判定し、所定の飛出し検出用閾値未満である場合に、対象物の飛出しは無いと判定する。なお、本実施形態において、飛出し検出用閾値には、対象物を追跡できているか否かを判定するための追跡用の追跡閾値の値とは明確に区別可能な程度に当該追跡閾値よりも大きな値が設定されているものとする。この飛出し検出用閾値には、予め実験等により決定された適切な値が設定される。   Returning to FIG. 1, the jump determination unit 2 i is a jump determination unit that performs jump detection on the object image tracked by the target tracking unit 2 e and determines whether or not the target has jumped. For example, the popping-out determination unit 2i includes a feature image included in the object image with respect to the object image among a plurality of images (for example, the first image and the second image) that move back and forth in time series. The amount of change of the feature point based on the amount of movement of the point, the direction of movement, etc. is calculated using a method known in the field. Then, when the amount of change calculated for the target image is equal to or greater than a predetermined pop-up detection threshold, the pop-out determination unit 2i determines that there is a target pop-out, and the predetermined pop-up detection threshold If it is less than that, it is determined that there is no object jumping out. In the present embodiment, the pop-up detection threshold value is more than the tracking threshold value so that it can be clearly distinguished from the tracking threshold value for tracking to determine whether or not the object can be tracked. It is assumed that a large value is set. The pop-up detection threshold is set to an appropriate value determined in advance through experiments or the like.

本実施形態において、対象物の飛出しとは、交通環境において危険な対象物の変化を意味する。このような危険な対象物の変化としては、例えば、歩行者や自転車が急に動きを変えて道路に出てくるという変化、併走車両やバイクが急に車線変更して自車線に割り込んでくるという変化、前方車両が急にUターンを開始するという変化、前方車両が道路脇の店等に入るために急に右左折を開始するという変化等を含むが、これらに限定されない。   In the present embodiment, the jumping out of the object means a change of the dangerous object in the traffic environment. Examples of such a change in dangerous objects include a change in which a pedestrian or a bicycle suddenly changes movement and comes out on the road, or a side-by-side vehicle or motorcycle suddenly changes lanes and enters the own lane. A change in which the preceding vehicle suddenly starts a U-turn, a change in which the preceding vehicle suddenly starts a right / left turn to enter a store on the road, and the like, but is not limited thereto.

注意喚起部2jは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行う注意喚起手段である。例えば、注意喚起部2jは、対象物が飛出してくると予測される方向に運転者の注意が向くように促す音声情報やブザー音等を出力する。   The alerting unit 2j alerts the driver of the host vehicle by outputting a voice through the speaker 3 when the target determining unit 2i determines that the target has jumped out. It is an arousal means For example, the alerting unit 2j outputs audio information, a buzzer sound, and the like that prompt the driver to pay attention in a direction in which the object is predicted to fly out.

車両制御部2kは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行う車両制御手段である。例えば、車両制御部2kは、自車両が対象物を回避できるように、アクチュエータ4を介して操舵制御や減速制御等を行う。   The vehicle control unit 2k controls the behavior of the vehicle via the actuator 4 so that the host vehicle avoids the target when the jump determination unit 2i determines that the target jumps out. Vehicle control means for performing control. For example, the vehicle control unit 2k performs steering control, deceleration control, and the like via the actuator 4 so that the host vehicle can avoid the object.

続いて、図5及び図6を参照して、上述した対象物認識装置2において実行される処理について説明する。なお、以下の処理において、車両周辺に存在する対象物として、歩行者を一例に説明するが、これに限定されない。   Subsequently, processing executed in the above-described object recognition device 2 will be described with reference to FIGS. 5 and 6. In the following processing, a pedestrian will be described as an example of an object existing around the vehicle, but the present invention is not limited to this.

まず、図5を参照して、対象物認識装置2により実行される追跡閾値の初期値の設定処理の一例について説明する。   First, an example of a process for setting an initial value of the tracking threshold executed by the object recognition device 2 will be described with reference to FIG.

図5に示すように、画像取得部2aは、カメラ1から入力される時刻t=0の画像データを自車両の周辺を撮像した画像として取得する(ステップST11)。   As shown in FIG. 5, the image acquisition unit 2a acquires the image data at time t = 0 input from the camera 1 as an image obtained by imaging the periphery of the host vehicle (step ST11).

そして、対象物検出部2bは、ステップS11で画像取得部2aにより取得された画像から自車両の周辺に存在する対象物として歩行者を検出する(ステップST12)。   And the target object detection part 2b detects a pedestrian as a target object which exists in the circumference | surroundings of the own vehicle from the image acquired by the image acquisition part 2a by step S11 (step ST12).

そして、特徴点抽出部2cは、ステップST12で対象物検出部2bにより検出された対象物としての歩行者の特徴点を抽出する(ステップST13)。例えば、図2に示すような画像が、ステップST11で画像取得部2aにより取得されたとすると、ステップST13において、特徴点抽出部2cは、図2に示すように、歩行者に関して特徴点1〜5を抽出する。   And the feature point extraction part 2c extracts the pedestrian's feature point as a target object detected by the target object detection part 2b in step ST12 (step ST13). For example, if an image as shown in FIG. 2 is acquired by the image acquisition unit 2a in step ST11, in step ST13, the feature point extraction unit 2c, as shown in FIG. To extract.

そして、画像蓄積部2fは、ステップST12で対象物検出部2bにより検出された対象物としての歩行者を含む部分領域を、ステップST11で画像取得部2aにより取得された画像から切り出し、対象物画像として蓄積する(ステップST14)。例えば、図2に示すような画像が、ステップST11で画像取得部2aにより取得されたとすると、ステップST14において、画像蓄積部2fは、図2の画像内の対象物画像を、ステップST11で画像取得部2aが画像を取得した時刻に対応付けて蓄積する。   Then, the image accumulating unit 2f cuts out a partial area including the pedestrian as the object detected by the object detecting unit 2b in step ST12 from the image acquired by the image acquiring unit 2a in step ST11, and extracts the object image. (Step ST14). For example, if an image as shown in FIG. 2 is acquired by the image acquisition unit 2a in step ST11, in step ST14, the image storage unit 2f acquires the object image in the image of FIG. 2 in step ST11. The unit 2a stores the image in association with the time when the image is acquired.

そして、対象物認識装置2は、ステップST13で特徴点抽出部2cにより抽出された特徴点の情報量に応じて時刻t=0における追跡スコアを算出し、算出された追跡スコアの値を基準として、当該追跡スコアの値よりも高い値を有する追跡閾値の初期値を設定する(ステップST15)。その後、本処理を終了する。   Then, the object recognition device 2 calculates a tracking score at time t = 0 according to the information amount of the feature points extracted by the feature point extraction unit 2c in step ST13, and uses the calculated tracking score value as a reference. Then, an initial value of the tracking threshold having a value higher than the value of the tracking score is set (step ST15). Thereafter, this process is terminated.

次に、図6を参照して、対象物認識装置2により実行される対象物追跡処理や追跡閾値更新処理の一例について説明する。図6に示す処理は、図5に示した追跡閾値の初期値の設定処理を終了後、画像取得部2aにより画像が順次取得されるたびに繰り返し実行される。   Next, an example of the object tracking process and the tracking threshold update process executed by the object recognition device 2 will be described with reference to FIG. The process shown in FIG. 6 is repeatedly executed every time images are sequentially acquired by the image acquisition unit 2a after the tracking threshold initial value setting process shown in FIG. 5 is completed.

図6に示すように、画像取得部2aは、カメラ1から入力される次のフレームの画像データを自車両の周辺を撮像した画像として取得する(ステップST21)。例えば、第1の時刻に取得された第1の画像とすると、ステップST21において、画像取得部2aは、第1の時刻より後の時刻である第2に時刻に取得される第2の画像を、次のフレームの画像データとして取得する。   As shown in FIG. 6, the image acquisition unit 2a acquires the image data of the next frame input from the camera 1 as an image obtained by imaging the periphery of the host vehicle (step ST21). For example, assuming that the first image is acquired at the first time, in step ST21, the image acquisition unit 2a selects the second image acquired at the second time which is a time after the first time. And obtained as image data of the next frame.

そして、対象物検出部2bは、ステップST21で画像取得部2aにより取得された画像から自車両の周辺に存在する対象物として歩行者を検出する(ステップST22)。   And the target object detection part 2b detects a pedestrian as a target object which exists in the circumference | surroundings of the own vehicle from the image acquired by the image acquisition part 2a by step ST21 (step ST22).

そして、特徴点抽出部2cは、ステップST22で対象物検出部2bにより検出された対象物としての歩行者の特徴点を抽出する(ステップST23)。例えば、図3に示すような画像が、ステップST22で画像取得部2aにより取得されたとすると、ステップST23において、特徴点抽出部2cは、図3に示すように、歩行者に関して特徴点1〜5を抽出する。   And the feature point extraction part 2c extracts the pedestrian's feature point as a target object detected by the target object detection part 2b in step ST22 (step ST23). For example, if an image as shown in FIG. 3 is acquired by the image acquisition unit 2a in step ST22, in step ST23, the feature point extraction unit 2c, as shown in FIG. To extract.

そして、追跡スコア算出部2dは、画像蓄積部2fに保存されている前回の対象物に関する特徴点を読み出して、追跡スコアを算出する(ステップST24)。具体的には、ステップST24において、追跡スコア算出部2dは、画像蓄積部2fに蓄積された対象物画像から、ステップST21で次フレームの画像を取得した際の時刻より前の時刻に保存した対象物画像を検索し、当該対象物画像に含まれる特徴点を読み出す。そして、追跡スコア算出部2dは、この画像蓄積部2fに保存されている前回の対象物に関する特徴点と、ステップST23で特徴点抽出部2cにより抽出された特徴点と、を比較して、特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する。   Then, the tracking score calculation unit 2d reads the feature points regarding the previous object stored in the image storage unit 2f, and calculates the tracking score (step ST24). Specifically, in step ST24, the tracking score calculation unit 2d saves the object stored at a time earlier than the time when the image of the next frame was acquired in step ST21 from the object image accumulated in the image accumulation unit 2f. An object image is searched and feature points included in the object image are read out. Then, the tracking score calculation unit 2d compares the feature points relating to the previous object stored in the image storage unit 2f with the feature points extracted by the feature point extraction unit 2c in step ST23, and the feature points are compared. A tracking score that is lower as the change in the amount and direction of movement of the point is larger is calculated.

例えば、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像とすると、ステップST24において、追跡スコア算出部2dは、上述の図5のステップST14で蓄積した図2の対象物画像における特徴点1〜5と、ステップST23で抽出した図3の対象物画像における特徴点1〜5と、を同一の特徴点ごとに比較し、各特徴点に関する追跡スコアを算出する。そして、追跡スコア算出部2dは、算出した各特徴点に関する追跡スコアの平均値を、次の処理で用いる最終的な追跡スコアとして出力する。   For example, if the image shown in FIG. 2 is the first image and the image shown in FIG. 3 is the second image, in step ST24, the tracking score calculation unit 2d stores FIG. 2 accumulated in step ST14 of FIG. The feature points 1 to 5 in the object image of FIG. 3 and the feature points 1 to 5 in the object image of FIG. 3 extracted in step ST23 are compared for each identical feature point, and a tracking score for each feature point is calculated. . Then, the tracking score calculation unit 2d outputs the calculated average value of the tracking score for each feature point as a final tracking score used in the next process.

そして、対象物追跡部2eは、ステップST24で追跡スコア算出部2dにより算出された追跡スコアと、上述の図5のステップST15で設定された追跡用の追跡閾値(例えば、図4に示すような追跡閾値の初期値)とを比較することで、追跡閾値に基づいて、ステップST22で対象物検出部2bにより検出された対象物が、前回と同一の対象物であるか否かを判定する(ステップST25)。具体的には、ステップST25において、対象物追跡部2eは、追跡スコアが追跡閾値以上である場合は(ステップST25:Yes)、前回と同一の対象物であると予測し、追跡対象として認識していた対象物を追跡できたと判定する。この場合、次のステップST26の処理へ移行する。一方、ステップST25において、対象物追跡部2eは、追跡スコアが追跡閾値未満である場合は(ステップST25:No)、前回と同一の対象物ではないと予測し、追跡対象として認識していた対象物を追跡できずにロストしたと判定する。この場合、本処理を終了する。   Then, the object tracking unit 2e uses the tracking score calculated by the tracking score calculation unit 2d in step ST24 and the tracking threshold value for tracking set in step ST15 of FIG. 5 (for example, as shown in FIG. 4). (Initial value of the tracking threshold value) is compared with each other to determine whether or not the object detected by the object detection unit 2b in step ST22 is the same object as the previous time based on the tracking threshold value ( Step ST25). Specifically, in step ST25, when the tracking score is equal to or higher than the tracking threshold (step ST25: Yes), the object tracking unit 2e predicts that the object is the same as the previous object and recognizes it as the tracking object. It is determined that the target object has been tracked. In this case, the process proceeds to the next step ST26. On the other hand, in step ST25, when the tracking score is less than the tracking threshold (step ST25: No), the target tracking unit 2e predicts that the target is not the same target as the previous time and recognizes it as the tracking target It is determined that the object was lost because it could not be tracked. In this case, this process ends.

そして、ステップST25において、前回と同一の対象物であると予測された場合(ステップST25:Yes)、画像蓄積部2fは、追跡できている対象物としての歩行者を含む部分領域を、ステップST21で画像取得部2aにより取得された画像から切り出し、対象物画像として蓄積する(ステップST26)。例えば、図3に示すような画像が、ステップST21で画像取得部2aにより取得されたとすると、ステップST26において、画像蓄積部2fは、図3の画像内の対象物画像を、ステップST21で画像取得部2aが画像を取得した時刻に対応付けて蓄積する。   If it is predicted in step ST25 that the object is the same as the previous object (step ST25: Yes), the image accumulating unit 2f determines a partial region including a pedestrian as a tracked object in step ST21. Then, it is cut out from the image acquired by the image acquisition unit 2a and accumulated as the object image (step ST26). For example, if an image as shown in FIG. 3 is acquired by the image acquisition unit 2a in step ST21, in step ST26, the image storage unit 2f acquires an object image in the image of FIG. 3 in step ST21. The unit 2a stores the image in association with the time when the image is acquired.

そして、変化度計算部2gは、画像蓄積部2fに蓄積された対象物画像に基づいて対象物の変化度を計算する(ステップST27)。例えば、画像蓄積部2fに蓄積された対象物画像が、図2の対象物画像及び図3の対象物画像とすると、ステップST27において変化度計算部2gは、図2の対象物画像内の対象物の形状情報と、図3の対象物画像内の対象物の形状情報と、を比較して、これらの対象物画像間における対象物の形状情報の変化から、対象物の姿勢等の見かけ上の変化を示す変化度を計算する。変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が大きいほど、対象物の見かけ上の変化が大きくなると予測して、対象物の変化度の値が大きくなるように計算する。一方、変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が小さいほど、対象物の見かけ上の変化が小さくなると予測して、対象物の変化度の値が小さくなるように計算する。   Then, the degree-of-change calculator 2g calculates the degree of change of the object based on the object image stored in the image storage unit 2f (step ST27). For example, if the target image stored in the image storage unit 2f is the target image in FIG. 2 and the target image in FIG. 3, the degree-of-change calculation unit 2g in step ST27 determines the target image in the target image in FIG. The shape information of the object is compared with the shape information of the object in the object image of FIG. 3, and from the change of the shape information of the object between these object images, the appearance of the object is apparent Calculate the degree of change indicating the change in. The degree-of-change calculation unit 2g predicts that the apparent change of the target object increases as the difference in shape information between the target object images to be compared increases, so that the value of the degree of change of the target object increases. calculate. On the other hand, the degree-of-change calculation unit 2g predicts that the apparent change of the object becomes smaller as the difference in shape information between the object images to be compared becomes smaller, and the value of the degree of change of the object becomes smaller. Calculate as follows.

そして、追跡閾値更新部2hは、ステップST27で変化度計算部2gにより計算された対象物の変化度が所定値以上である場合は追跡閾値の値が低くなるように変更し、対象物の変化度が所定値未満である場合は追跡閾値の値を維持する閾値更新処理を実行する(ステップST28)。追跡閾値更新部2hは、上述の図4に示すように、対象物の変化度が所定値以上である場合は、少なくとも前フレームで対象物を追跡する際に使用した追跡閾値の値と比べて低くなるように変更する。追跡閾値更新部2hは、対象物の変化度の大きさが大きくなるほど、追跡閾値の値が低くなるように変更する。   Then, the tracking threshold value update unit 2h changes the tracking threshold value to be lower when the degree of change of the object calculated by the degree of change calculation unit 2g in step ST27 is a predetermined value or more, and changes the object. If the degree is less than the predetermined value, threshold update processing for maintaining the value of the tracking threshold is executed (step ST28). As shown in FIG. 4 described above, the tracking threshold update unit 2h compares the tracking threshold value used when tracking the object in at least the previous frame when the degree of change of the object is a predetermined value or more. Change to lower. The tracking threshold value updating unit 2h changes the tracking threshold value to be lower as the degree of change of the object increases.

ステップST28において設定された追跡閾値は、次フレーム以降用の追跡閾値としてステップST25において対象物追跡処理を行う際に使用される。例えば次のフレームのステップST25において、対象物追跡部2eは、ステップST24で追跡スコア算出部2dにより次のフレームの画像の特徴点に基づいて算出された追跡スコアと、前のフレームでステップST28において変更または維持された追跡用の追跡閾値(例えば、図4に示すような、対象物の変化度に応じて更新された追跡閾値)とを比較することで、追跡閾値に基づいて、ステップST22で対象物検出部2bにより検出された対象物が、前回と同一の対象物であるか否かを判定する。   The tracking threshold set in step ST28 is used when performing the object tracking process in step ST25 as a tracking threshold for the next frame and thereafter. For example, in step ST25 of the next frame, the object tracking unit 2e detects the tracking score calculated based on the feature point of the image of the next frame by the tracking score calculation unit 2d in step ST24, and in step ST28 in the previous frame. In step ST22 based on the tracking threshold by comparing with a tracking threshold for tracking that has been changed or maintained (for example, a tracking threshold updated according to the degree of change of the object as shown in FIG. 4). It is determined whether or not the object detected by the object detection unit 2b is the same object as the previous object.

以上説明したように、本実施形態に係る対象物認識装置2によれば、従来技術では固定値であった対象物の追跡用の追跡閾値を、フレームごとに対象物の変化度に応じて適切な値となるように更新することができる。これにより、本実施形態に係る対象物認識装置2によれば、予め設定された固定値を有する追跡閾値が想定していない急な対象物の移動量及び移動方向における変化があると、対象物の追跡を失敗しやすくなるという状況が発生することを低減させることが可能となる。その結果、本実施形態に係る対象物認識装置2によれば、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できる。   As described above, according to the object recognition device 2 according to the present embodiment, the tracking threshold for tracking an object, which was a fixed value in the conventional technology, is appropriately set according to the degree of change of the object for each frame. It can be updated to be a correct value. Thereby, according to the target object recognition apparatus 2 according to the present embodiment, if there is a sudden change in the moving amount and moving direction of the target object that the tracking threshold value having a preset fixed value is not assumed, It is possible to reduce the occurrence of a situation in which tracking of the user is likely to fail. As a result, according to the object recognition device 2 according to the present embodiment, the object is detected even when there is a sudden change in the movement amount and the movement direction with respect to the object recognized as the tracking object. The object can be suitably tracked by reducing the possibility of being lost.

なお、本実施形態において、ステップST28の処理の後、飛出し判定部2iは、ステップST25で対象物追跡部2eにより追跡できた対象物画像に対して飛出し検出を行い、対象物の飛出しの有無を判定してもよい。また、この飛出し判定の処理の後、注意喚起部2jは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行ってもよい。また、この飛出し判定の処理の後、車両制御部2kは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行ってもよい。   In the present embodiment, after the process of step ST28, the jump determination unit 2i performs a jump detection on the target image tracked by the target tracking unit 2e in step ST25, and the target jumps out. You may determine the presence or absence of. In addition, after the jump determination process, the alerting unit 2j outputs a sound through the speaker 3 when the jump determination unit 2i determines that the target has jumped out, and thereby the host vehicle The driver may be alerted. In addition, after the jump determination processing, the vehicle control unit 2k controls the behavior of the vehicle via the actuator 4 when the jump determination unit 2i determines that the target has jumped out. Vehicle control may be performed so that the host vehicle avoids the object.

1 カメラ
2 対象物認識装置
2a 画像取得部
2b 対象物検出部
2c 特徴点抽出部
2d 追跡スコア算出部
2e 対象物追跡部
2f 画像蓄積部
2g 変化度計算部
2h 追跡閾値更新部
2i 飛出し判定部
2j 注意喚起部
2k 車両制御部
3 スピーカ
4 アクチュエータ
DESCRIPTION OF SYMBOLS 1 Camera 2 Object recognition apparatus 2a Image acquisition part 2b Object detection part 2c Feature point extraction part 2d Tracking score calculation part 2e Object tracking part 2f Image storage part 2g Change degree calculation part 2h Tracking threshold update part 2i Pop-out determination part 2j Alerting part 2k Vehicle control part 3 Speaker 4 Actuator

Claims (1)

自車両の周辺を撮像した画像を取得する画像取得部と、
前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、
前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、
前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記対象物検出部により検出された前記対象物を含む部分領域として画像内に設定される対象物画像について比較することで、前記特徴点抽出部により抽出された前記特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出部と、
前記追跡スコア算出部により算出された前記追跡スコアと追跡用の追跡閾値とを比較することで、当該追跡スコアが当該追跡閾値以上である対象物を追跡する対象物追跡部と、
前記対象物追跡部により追跡できた前記対象物の対象物画像を蓄積する画像蓄積部と、
前記画像蓄積部に蓄積された前記対象物画像に基づいて前記対象物の変化度を計算する変化度計算部と、
前記変化度計算部により計算された前記変化度が所定値以上である場合は前記追跡閾値の値が低くなるように変更し、前記変化度が所定値未満である場合は前記追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新部と、
を備えることを特徴とする対象物認識装置。
An image acquisition unit for acquiring an image obtained by imaging the periphery of the host vehicle;
An object detection unit for detecting an object existing around the host vehicle from the image acquired by the image acquisition unit;
A feature point extraction unit for extracting feature points of the object detected by the object detection unit;
Comparing a plurality of images that are sequentially acquired by the image acquisition unit and that move back and forth in time series with respect to an object image set in the image as a partial region including the object detected by the object detection unit. Then, a tracking score calculation unit that calculates a tracking score that becomes a lower value as the movement amount and movement direction of the feature point extracted by the feature point extraction unit is larger, and
By comparing the tracking score calculated by the tracking score calculation unit with a tracking threshold for tracking, an object tracking unit that tracks an object whose tracking score is equal to or higher than the tracking threshold;
An image accumulating unit for accumulating an object image of the object that can be tracked by the object tracking unit;
A degree-of-change calculator that calculates the degree of change of the object based on the object image stored in the image storage unit;
When the degree of change calculated by the degree-of-change calculator is equal to or greater than a predetermined value, the tracking threshold value is changed to be low, and when the degree of change is less than a predetermined value, the value of the tracking threshold is changed. A tracking threshold update unit that executes a threshold update process to maintain;
An object recognition apparatus comprising:
JP2014137127A 2014-07-02 2014-07-02 Object recognition device Pending JP2016015043A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014137127A JP2016015043A (en) 2014-07-02 2014-07-02 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137127A JP2016015043A (en) 2014-07-02 2014-07-02 Object recognition device

Publications (1)

Publication Number Publication Date
JP2016015043A true JP2016015043A (en) 2016-01-28

Family

ID=55231172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137127A Pending JP2016015043A (en) 2014-07-02 2014-07-02 Object recognition device

Country Status (1)

Country Link
JP (1) JP2016015043A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020160658A (en) * 2019-03-26 2020-10-01 株式会社富士通アドバンストエンジニアリング Information processing device, information processing method, and program
WO2020217368A1 (en) * 2019-04-25 2020-10-29 日本電気株式会社 Information processing device, information processing method, and information processing program
WO2022091166A1 (en) * 2020-10-26 2022-05-05 日本電気株式会社 Tracking apparatus, tracking system, tracking method, and recording medium
US11741665B2 (en) 2019-09-19 2023-08-29 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium storing image processing program
US11872983B2 (en) 2018-04-23 2024-01-16 Denso Corporation Vehicle collision prediction apparatus

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11872983B2 (en) 2018-04-23 2024-01-16 Denso Corporation Vehicle collision prediction apparatus
JP2020160658A (en) * 2019-03-26 2020-10-01 株式会社富士通アドバンストエンジニアリング Information processing device, information processing method, and program
JP7310206B2 (en) 2019-03-26 2023-07-19 富士通株式会社 Information processing device, information processing method, and program
WO2020217368A1 (en) * 2019-04-25 2020-10-29 日本電気株式会社 Information processing device, information processing method, and information processing program
JPWO2020217368A1 (en) * 2019-04-25 2020-10-29
US11741665B2 (en) 2019-09-19 2023-08-29 Fujifilm Business Innovation Corp. Image processing apparatus and non-transitory computer readable medium storing image processing program
JP7423951B2 (en) 2019-09-19 2024-01-30 富士フイルムビジネスイノベーション株式会社 Image processing device and image processing program
WO2022091166A1 (en) * 2020-10-26 2022-05-05 日本電気株式会社 Tracking apparatus, tracking system, tracking method, and recording medium

Similar Documents

Publication Publication Date Title
US10796171B2 (en) Object recognition apparatus, object recognition method, and object recognition program
JP6398347B2 (en) Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system
JP7025912B2 (en) In-vehicle environment recognition device
JP5197679B2 (en) Object detection apparatus and program
JP2016015043A (en) Object recognition device
JP5999127B2 (en) Image processing device
US11804048B2 (en) Recognizing the movement intention of a pedestrian from camera images
JP6340957B2 (en) Object detection apparatus and object detection program
JP2018097582A (en) Driving support device and driving support method
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
JPWO2016006029A1 (en) Signal detection device and signal detection method
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2009132259A (en) Vehicle surrounding-monitoring device
CN111497741B (en) Collision early warning method and device
JP6436357B2 (en) Pedestrian motion identification device for vehicle
JP2009237898A (en) Image recognition device
US8160300B2 (en) Pedestrian detecting apparatus
JP5838940B2 (en) Image processing apparatus and vehicle control system
JP2005196590A (en) Pedestrian extractor
JP6165120B2 (en) Traveling line recognition device
JP6069938B2 (en) Pop-up detection device
JP7161981B2 (en) Object tracking program, device and method capable of switching object tracking means
JP2012118683A (en) Pedestrian recognition device
JP5780249B2 (en) Image processing apparatus and vehicle control system using the image processing apparatus
JP2010072947A (en) Obstacle detection device