JP2016015043A - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP2016015043A JP2016015043A JP2014137127A JP2014137127A JP2016015043A JP 2016015043 A JP2016015043 A JP 2016015043A JP 2014137127 A JP2014137127 A JP 2014137127A JP 2014137127 A JP2014137127 A JP 2014137127A JP 2016015043 A JP2016015043 A JP 2016015043A
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- image
- unit
- change
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、対象物認識装置に関する。 The present invention relates to an object recognition apparatus.
従来の対象物認識装置としては、例えば、特許文献1に記載の技術が報告されている。特許文献1に記載の技術では、移動体の種類や移動体の位置関係に関わらず、撮影画像内において移動体が写っている領域を追跡している。具体的には、特許文献1に記載の技術では、撮像された画像を複数の領域に区分し、区分された各領域のうち、移動体を追跡可能な追跡可能領域を検出する。そして、特許文献1に記載の技術では、所定時間の間隔で撮像された少なくとも2枚の画像に基づいて、追跡可能領域の画像上の移動量を検出し、追跡可能領域の移動量と、所定時間における自車両移動量とに基づいて、追跡可能領域内の追跡対象の実空間上の位置を算出する。そして、特許文献1に記載の技術では、算出された追跡対象の位置と自車両移動量に基づいて、追跡可能領域が静止物領域か移動体領域かを判定している。 As a conventional object recognition apparatus, for example, a technique described in Patent Document 1 has been reported. In the technique described in Patent Document 1, a region in which a moving body is captured in a captured image is tracked regardless of the type of the moving body and the positional relationship between the moving bodies. Specifically, in the technique described in Patent Document 1, a captured image is divided into a plurality of areas, and a trackable area that can track a moving body is detected from the divided areas. In the technique described in Patent Document 1, the amount of movement of the traceable area on the image is detected based on at least two images captured at predetermined time intervals, Based on the amount of movement of the vehicle in time, the position of the tracking target in the trackable area in the real space is calculated. In the technique described in Patent Document 1, it is determined whether the trackable area is a stationary object area or a moving body area based on the calculated position of the tracking target and the own vehicle movement amount.
しかしながら、従来の対象物認識装置(特許文献1等)においては、移動体を追跡する際に用いる追跡閾値が予め設定された固定値であるため、当該追跡閾値が想定していない急な対象物の移動量及び移動方向における変化があると、対象物の追跡を失敗しやすくなり、追跡対象として認識していた対象物をロストしてしまう可能性がある。 However, in the conventional object recognition device (Patent Document 1, etc.), the tracking threshold value used when tracking a moving object is a fixed value set in advance, and therefore, a steep object that the tracking threshold value is not assumed. If there is a change in the amount and direction of movement, tracking of the object is likely to fail, and the object that has been recognized as the tracking object may be lost.
本発明は、上記の事情に鑑みてなされたものであって、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡可能な対象物認識装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and even if there is a sudden change in the moving amount and moving direction with respect to an object recognized as a tracking target, An object of the present invention is to provide an object recognition apparatus that can appropriately track an object by reducing the possibility of being lost.
本発明の対象物認識装置は、自車両の周辺を撮像した画像を取得する画像取得部と、前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記対象物検出部により検出された前記対象物を含む部分領域として画像内に設定される対象物画像について比較することで、前記特徴点抽出部により抽出された前記特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出部と、前記追跡スコア算出部により算出された前記追跡スコアと追跡用の追跡閾値とを比較することで、当該追跡スコアが当該追跡閾値以上である対象物を追跡する対象物追跡部と、前記対象物追跡部により追跡できた前記対象物の対象物画像を蓄積する画像蓄積部と、前記画像蓄積部に蓄積された前記対象物画像に基づいて前記対象物の変化度を計算する変化度計算部と、前記変化度計算部により計算された前記変化度が所定値以上である場合は前記追跡閾値の値が低くなるように変更し、前記変化度が所定値未満である場合は前記追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新部と、を備えることを特徴とする。 An object recognition apparatus according to the present invention includes an image acquisition unit that acquires an image obtained by capturing an image of the periphery of the host vehicle, and an object that detects an object existing around the host vehicle from the image acquired by the image acquisition unit. An object detection unit, a feature point extraction unit that extracts feature points of the object detected by the object detection unit, and a plurality of images that are sequentially acquired by the image acquisition unit and that are sequentially acquired in time series, By comparing the object image set in the image as a partial region including the object detected by the object detection unit, the movement amount and movement direction of the feature point extracted by the feature point extraction unit By comparing the tracking score calculated by the tracking score calculation unit with the tracking threshold for tracking, a tracking score calculation unit that calculates a tracking score that becomes a lower value as the change increases is obtained. An object tracking unit that tracks an object that is equal to or greater than the tracking threshold; an image accumulation unit that accumulates an object image of the object that can be tracked by the object tracking unit; and the image accumulation unit that accumulates the object image. A degree-of-change calculating unit that calculates the degree of change of the object based on the object image, and the tracking threshold value is lowered when the degree of change calculated by the degree-of-change calculating unit is equal to or greater than a predetermined value. And a tracking threshold update unit that executes a threshold update process for maintaining the value of the tracking threshold when the degree of change is less than a predetermined value.
本発明にかかる対象物認識装置は、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できるという効果を奏する。 The object recognition device according to the present invention reduces the possibility of losing an object even when there is a sudden change in the amount and direction of movement of the object recognized as a tracking object. The object can be suitably tracked.
以下に、本発明にかかる対象物認識装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるもの、あるいは実質的に同一のものが含まれる。 Embodiments of an object recognition apparatus according to the present invention will be described below in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In addition, constituent elements in the following embodiments include those that can be easily assumed by those skilled in the art or those that are substantially the same.
[実施形態]
本実施形態にかかる対象物の構成について図1乃至図4を参照しながら説明する。図1は、実施形態にかかる対象物認識装置の構成の一例を示すブロック図である。図2及び図3は、特徴点が抽出された対象物の一例を示す図である。図4は、追跡閾値の設定例を示す図である。
[Embodiment]
The configuration of the object according to the present embodiment will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram illustrating an example of a configuration of an object recognition apparatus according to an embodiment. 2 and 3 are diagrams illustrating an example of an object from which feature points are extracted. FIG. 4 is a diagram illustrating a setting example of the tracking threshold.
図1に示すように、カメラ1は、自車両周辺を撮影し、自車両周辺が映し出されている画像データを生成する機器である。カメラ1は、例えば可視光領域または赤外線領域にて撮像可能なCCDカメラまたはCMOSカメラ等である。カメラ1は、車両の前方、側方、後方等の車両周辺を撮像可能な任意の位置に設置される。 As shown in FIG. 1, the camera 1 is a device that captures the periphery of the host vehicle and generates image data in which the periphery of the host vehicle is projected. The camera 1 is, for example, a CCD camera or a CMOS camera that can capture an image in the visible light region or the infrared region. The camera 1 is installed at an arbitrary position where the surroundings of the vehicle such as the front, side, and rear of the vehicle can be imaged.
対象物認識装置2は、例えば車両に搭載された自動車制御用コンピュータなどを用いて構成されたものであり、車両に搭載されているカメラ1と、車室内の運転者等に対して音声を出力するスピーカ3と、車両の挙動を制御するアクチュエータ4と、通信可能に接続されている。
The
対象物認識装置2は、画像取得部2aと、対象物検出部2bと、特徴点抽出部2cと、追跡スコア算出部2dと、対象物追跡部2eと、画像蓄積部2fと、変化度計算部2gと、追跡閾値更新部2hと、飛出し判定部2iと、注意喚起部2jと、車両制御部2kと、を少なくとも備える。
The
画像取得部2aは、自車両の周辺を撮像した画像を取得する画像取得手段である。画像取得部2aは、カメラ1から入力される画像データを、自車両の周辺を撮像した画像として取得する。画像取得部2aは、カメラ1から入力される画像データを順次取得することで、異なる時刻で自車両の周辺を撮像した複数の画像を取得する。
The
対象物検出部2bは、画像取得部2aにより取得された画像から自車両の周辺に存在する対象物を検出する対象物検出手段である。本実施形態において、対象物とは、後述する飛出し検出を行うために追跡対象とする移動体を意味する。移動体としては、例えば、自車両の周辺に存在する歩行者、自転車、相手車両等を含む。なお、対象物検出手法としては、パターンマッチング等の当該分野で公知の手法が用いられる。対象物検出部2bは、検出した対象物の2次元位置(縦座標、横座標)、好ましくは3次元位置(縦座標、横座標、高さ)を取得する。
The
特徴点抽出部2cは、対象物検出部2bにより検出された対象物の特徴点を抽出する特徴点抽出手段である。本実施形態において、対象物の特徴点とは、追跡対象とする対象物と、背景や障害物等とを明確に区別可能な特徴量を有する画像上の画素領域を意味する。特徴量は、例えば、色、形状、テクスチャ等の特徴を示す量である。なお、特徴点抽出手法としては、SIFTやSURF等の当該分野で既知の手法が用いられる。
The feature point extraction unit 2c is a feature point extraction unit that extracts feature points of the object detected by the
ここで、図2を参照して、特徴点抽出部2cにより抽出された特徴点の一例について説明する。図2において、対象物は歩行者であり、当該歩行者を含む部分領域として画像内に対象物画像が設定されている。このような場合、例えば、特徴点抽出部2cは、対象物画像に含まれる歩行者に関して、追跡対象とする歩行者と、背景や障害物等とを明確に区別可能な特徴量を有する画像上の画素領域として、5つの特徴点1〜5を抽出する。なお、特徴点抽出部2cにより抽出される特徴点の数は、図2のように5つに限定されず、後述の追跡スコア算出部2dにより適切な追跡スコアを算出可能な数であればよい。また、本実施形態において、対象物画像は、図2に示すように、対象物検出部2bにより検出された対象物の輪郭を含み、且つ、特徴点抽出部2cにより抽出された特徴点を含むように、画像取得部2aにより取得された画像から切り出される部分領域であればよく、対象物画像の大きさ及び形状については特に限定されない。
Here, an example of the feature points extracted by the feature point extraction unit 2c will be described with reference to FIG. In FIG. 2, the object is a pedestrian, and the object image is set in the image as a partial area including the pedestrian. In such a case, for example, the feature point extraction unit 2c has a feature amount that can clearly distinguish a pedestrian to be tracked from a background, an obstacle, and the like regarding a pedestrian included in the object image. Five feature points 1 to 5 are extracted as the pixel region. Note that the number of feature points extracted by the feature point extraction unit 2c is not limited to five as shown in FIG. 2, but may be any number as long as an appropriate tracking score can be calculated by the tracking
図1に戻り、追跡スコア算出部2dは、画像取得部2aにより順次取得された時系列的に前後する複数の画像を、対象物検出部2bにより検出された対象物を含む部分領域として画像内に設定される対象物画像について比較することで、特徴点抽出部2cにより抽出された特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出手段である。本実施形態において、例えば、画像取得部2aにより第1の時刻で取得された画像を第1の画像とし、第1の時刻よりも後の時刻である第2の時刻で取得される画像を第2の画像とした場合、これら第1の画像と第2の画像が、時系列的に前後する複数の画像となる。より具体的には、第1の画像は、現在から所定時間前の画像であり、第2の画像は、現在の画像となる。なお、当該時系列的に前後する複数の画像の一部又は全部は、後述する画像蓄積部2fに蓄積された対象物画像であってもよい。
Returning to FIG. 1, the tracking
具体的には、追跡スコア算出部2dは、時系列的に前後する複数の対象物画像における特徴点の移動量及び移動方向の変化量を数値化して追跡スコアを算出する。ここで、追跡スコア算出部2dは、特徴点の移動量及び移動方向の変化量が大きいほど、時系列的に前後する複数の対象物画像間において対象物の特徴点を追跡できる可能性が低くなると予測して、追跡スコアが低い値となるように算出する。一方、追跡スコア算出部2dは、特徴点の移動量及び移動方向の変化量が小さいほど、時系列的に前後する複数の対象物画像間において対象物の特徴点を追跡できる可能性が高くなると予測して、追跡スコアが高い値となるように算出する。追跡スコア算出部2dにより算出された追跡スコアは、後述の対象物追跡部2eにより対象物を追跡できたか否かを判定する際に用いられる。
Specifically, the tracking
対象物追跡部2eは、追跡スコア算出部2dにより算出された追跡スコアと追跡用の追跡閾値とを比較することで、追跡スコアが追跡閾値以上である対象物を追跡する対象物追跡手段である。具体的には、対象物追跡部2eは、追跡スコアが追跡閾値以上である対象物については追跡できたと判定し、一方、追跡スコアが追跡閾値未満である対象物については追跡できずにロストした判定する。本実施形態において、追跡閾値の初期値には、予め実験等により決定された適切な値が設定されるものとする。なお、追跡閾値の初期値については、後述の追跡閾値更新部2hによって対象物の変化度に応じて更新される。
The
ここで、図2及び図3を参照し、一例として、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像として、追跡スコア算出部2d及び対象物追跡部2eの処理を説明する。図2と同様に、図3において、対象物として検出された歩行者を含む部分領域として画像内に対象物画像が設定されており、当該歩行者に対して特徴点抽出部2cにより5つの特徴点1〜5が抽出されているものとする。このような場合、図2及び図3に示すように、追跡スコア算出部2dは、画像取得部2aにより順次取得された時系列的に前後する第1の画像(図2参照)中の対象物画像と第2の画像(図3参照)中の対象物画像について比較する。
Here, referring to FIG. 2 and FIG. 3, as an example, the image shown in FIG. 2 is used as the first image, the image shown in FIG. 3 is used as the second image, and the tracking
具体的には、追跡スコア算出部2dは、第1の画像中の対象物画像と第2の画像中の対象物画像とを比較する際に、第1の画像と第2の画像間において共通する同一の特徴点について着目し、この特徴点に関する移動量及び移動方向の変化量を数値化して追跡スコアを算出する。例えば、第1の画像と第2の画像間において共通する同一の特徴点のうち第1の特徴点について着目した場合、追跡スコア算出部2dは、第1の画像における特徴点1を基準として、第2の画像における特徴点1までの移動量及び移動方向の変化量を数値化して追跡スコアを算出する。同様に、追跡スコア算出部2dは、特徴点1以外の他の特徴点2〜5についても、同一の特徴点ごとに追跡スコアを算出する。追跡スコア算出部2dは、特徴点1〜5についてそれぞれ算出された追跡スコアを集計して平均値をとり、当該平均値を第1の画像と第2の画像とを比較した場合の最終的な追跡スコアとして算出する。そして、対象物追跡部2eは、追跡スコア算出部2dにより算出された特徴点1〜5に関する追跡スコアの平均値と、追跡用の追跡閾値とを比較する。このとき、対象物追跡部2eは、追跡スコアの平均値が追跡閾値以上である場合は、追跡対象としていた対象物について追跡できていると判定し、一方、追跡スコアの平均値が追跡閾値未満である場合は、追跡対象としていた対象物を追跡できずにロストしたと判定する。
Specifically, the tracking
図1に戻り、画像蓄積部2fは、対象物追跡部2eにより追跡できた対象物の対象物画像を蓄積する画像蓄積手段である。画像蓄積部2fは、対象物追跡部2eにより追跡できた対象物を含むように画像から切り出された対象物画像を、当該対象物を含む画像が取得された時刻に対応付けて、自動車制御用コンピュータのメモリ内に格納して、追跡対象物画像データベースを構築する。画像蓄積部2fに蓄積された対象物画像は、後述する変化度計算部2gにより対象物の変化度を計算する際や、上述の追跡スコア算出部2dにより時系列的に前後する複数の対象物画像を比較する際等に用いられる。
Returning to FIG. 1, the
変化度計算部2gは、画像蓄積部2fに蓄積された対象物画像に基づいて対象物の変化度を計算する変化度計算手段である。本実施形態において、変化度計算部2gは、画像蓄積部2fに蓄積された時系列的に前後する複数の対象物画像を比較して、これらの対象物画像間における対象物の形状情報の変化から、対象物の姿勢等の見かけ上の変化を示す変化度を計算する。変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が大きいほど、対象物の見かけ上の変化が大きくなると予測して、対象物の変化度の値が大きくなるように計算する。一方、変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が小さいほど、対象物の見かけ上の変化が小さくなると予測して、対象物の変化度の値が小さくなるように計算する。変化度計算部2gにより計算された対象物の変化度は、後述の追跡閾値更新部2hにより対象物の変化度に応じて追跡閾値を更新する際に用いられる。
The degree-of-
追跡閾値更新部2hは、変化度計算部2gにより計算された対象物の変化度が所定値以上である場合は追跡閾値の値が低くなるように変更し、対象物の変化度が所定値未満である場合は追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新手段である。追跡閾値更新部2hは、対象物の変化度が所定値以上である場合は、少なくとも前フレームで対象物を追跡する際に使用した追跡閾値の値と比べて低くなるように変更する。追跡閾値更新部2hは、対象物の変化度の大きさが大きくなるほど、追跡閾値の値が低くなるように変更する。本実施形態において、対象物の変化度に関する所定値には、予め実験等により決定された適切な値が設定されるものとする。
The tracking
ここで、図4を参照して、追跡閾値更新部2hにより対象物の変化度に応じて更新された追跡閾値の一例について説明する。図4のグラフでは、追跡スコア算出部2dにより所定フレームごとに算出された追跡スコアの平均値がプロットされている。図4において、追跡閾値の初期値は、第1フレーム及び第2フレームにおいて対象物追跡部2eにより追跡スコアと比較する際に用いられているが、第3フレーム以降では、追跡閾値更新部2hにより更新された追跡閾値が用いられている。以下、図4の例において、第1フレームから第5フレームまでに実行される各種処理について説明する。
Here, with reference to FIG. 4, an example of the tracking threshold updated by the tracking
図4に示すように、第1フレームでは、対象物検出部2bにより検出された対象物を含む部分領域としての対象物画像が画像蓄積部2fにより蓄積される。また、第1フレームでは、特徴点抽出部2cにより抽出された特徴点の情報量に応じて追跡スコア算出部2dにより第1フレームの追跡スコアが算出される。そして、算出された第1フレームの追跡スコアの値を基準として、当該追跡スコアの値よりも高い値を有する追跡閾値の初期値が設定されるものとする。
As shown in FIG. 4, in the first frame, an object image as a partial region including the object detected by the
ここで、図4において、対象物追跡部2eは、第1フレーム及び第2フレーム間で対象物が追跡できているか否かを判定する際には、追跡閾値の初期値と第2フレームの追跡スコアとを比較する。ここでは、第2フレームの追跡スコアは追跡閾値の初期値以上となるため、対象物追跡部2eは、第1フレーム及び第2フレーム間で対象物を追跡できていると判定する。そして、第2フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第2フレームでは、第3フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第1フレームの対象物画像と第2フレームの対象物画像とを比較した結果、第1フレーム及び第2フレームの対象物画像間において、形状情報の差異が比較的大きく、対象物の見かけ上の変化が比較的大きくなると予測されたものとする。この場合、対象物の変化度の値は比較的大きな値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値以上であると判定して、第2フレームで用いた追跡閾値の初期値よりも低い値を有するように、第3フレーム用の追跡閾値を変更する。
Here, in FIG. 4, when the
また、図4において、対象物追跡部2eは、第2フレーム及び第3フレーム間で対象物が追跡できているか否かを判定する際には、第2フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第3フレーム用の追跡閾値と、第3フレームの追跡スコアとを比較する。ここでは、第3フレームの追跡スコアは第3フレーム用の追跡閾値以上となるため、対象物追跡部2eは、第2フレーム及び第3フレーム間で対象物を追跡できていると判定する。そして、第3フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第3フレームでは、第4フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第2フレームの対象物画像と第3フレームの対象物画像とを比較した結果、第2フレーム及び第3フレームの対象物画像間において、形状情報の差異が比較的大きく、対象物の見かけ上の変化が比較的大きくなると予測されたものとする。この場合、対象物の変化度の値は比較的大きな値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値以上であると判定して、第3フレームで用いた追跡閾値よりも低い値を有するように、第4フレーム用の追跡閾値を変更する。
In FIG. 4, when the
また、図4において、対象物追跡部2eは、第3フレーム及び第4フレーム間で対象物が追跡できているか否かを判定する際には、第3フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第4フレーム用の追跡閾値と、第4フレームの追跡スコアとを比較する。ここでは、第4フレームの追跡スコアは第4フレーム用の追跡閾値以上となるため、対象物追跡部2eは、第3フレーム及び第4フレーム間で対象物を追跡できていると判定する。そして、第4フレームで追跡できた対象物画像は、画像蓄積部2fにより蓄積される。また、第4フレームでは、第5フレーム用の追跡閾値を設定するため、対象物の変化度を計算し、当該変化度に応じて追跡閾値に対して閾値更新処理が実行される。ここでは、変化度計算部2gにより、画像蓄積部2fに蓄積された第3フレームの対象物画像と第4フレームの対象物画像とを比較した結果、第3フレーム及び第4フレームの対象物画像間において、形状情報の差異が比較的小さく、対象物の見かけ上の変化が比較的小さくなると予測されたものとする。この場合、対象物の変化度の値は比較的小さい値が算出されるため、追跡閾値更新部2hは、算出した対象物の変化度が所定値未満であると判定して、第4フレームで用いた追跡閾値を変更せずに維持し、第5フレーム用の追跡閾値として設定する。
In FIG. 4, when the
なお、図4において、対象物追跡部2eは、第4フレーム及び第5フレーム間で対象物が追跡できているか否かを判定する際には、第4フレームにおいて追跡閾値更新部2hにより対象物の変化度に応じて設定した第5フレーム用の追跡閾値と、第5フレームの追跡スコアとを比較する。ここでは、第5フレームの追跡スコアは第5フレーム用の追跡閾値未満となるため、対象物追跡部2eは、第4フレーム及び第5フレーム間で対象物を追跡できずにロストしたと判定する。
In FIG. 4, when the
図1に戻り、飛出し判定部2iは、対象物追跡部2eにより追跡できた対象物画像に対して飛出し検出を行い、対象物の飛出しの有無を判定する飛出し判定手段である。例えば、飛出し判定部2iは、時系列的に前後する複数の画像(例えば、第1の画像と第2の画像)間で、対象物画像に対して、その対象物画像内に含まれる特徴点の移動量や移動方向などに基づく特徴点の変化量を、当該分野で公知の手法を用いて算出する。そして、飛出し判定部2iは、対象物画像について算出した変化量が、所定の飛出し検出用閾値以上である場合に、対象物の飛出しが有ると判定し、所定の飛出し検出用閾値未満である場合に、対象物の飛出しは無いと判定する。なお、本実施形態において、飛出し検出用閾値には、対象物を追跡できているか否かを判定するための追跡用の追跡閾値の値とは明確に区別可能な程度に当該追跡閾値よりも大きな値が設定されているものとする。この飛出し検出用閾値には、予め実験等により決定された適切な値が設定される。
Returning to FIG. 1, the
本実施形態において、対象物の飛出しとは、交通環境において危険な対象物の変化を意味する。このような危険な対象物の変化としては、例えば、歩行者や自転車が急に動きを変えて道路に出てくるという変化、併走車両やバイクが急に車線変更して自車線に割り込んでくるという変化、前方車両が急にUターンを開始するという変化、前方車両が道路脇の店等に入るために急に右左折を開始するという変化等を含むが、これらに限定されない。 In the present embodiment, the jumping out of the object means a change of the dangerous object in the traffic environment. Examples of such a change in dangerous objects include a change in which a pedestrian or a bicycle suddenly changes movement and comes out on the road, or a side-by-side vehicle or motorcycle suddenly changes lanes and enters the own lane. A change in which the preceding vehicle suddenly starts a U-turn, a change in which the preceding vehicle suddenly starts a right / left turn to enter a store on the road, and the like, but is not limited thereto.
注意喚起部2jは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行う注意喚起手段である。例えば、注意喚起部2jは、対象物が飛出してくると予測される方向に運転者の注意が向くように促す音声情報やブザー音等を出力する。
The alerting
車両制御部2kは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行う車両制御手段である。例えば、車両制御部2kは、自車両が対象物を回避できるように、アクチュエータ4を介して操舵制御や減速制御等を行う。
The
続いて、図5及び図6を参照して、上述した対象物認識装置2において実行される処理について説明する。なお、以下の処理において、車両周辺に存在する対象物として、歩行者を一例に説明するが、これに限定されない。
Subsequently, processing executed in the above-described
まず、図5を参照して、対象物認識装置2により実行される追跡閾値の初期値の設定処理の一例について説明する。
First, an example of a process for setting an initial value of the tracking threshold executed by the
図5に示すように、画像取得部2aは、カメラ1から入力される時刻t=0の画像データを自車両の周辺を撮像した画像として取得する(ステップST11)。
As shown in FIG. 5, the
そして、対象物検出部2bは、ステップS11で画像取得部2aにより取得された画像から自車両の周辺に存在する対象物として歩行者を検出する(ステップST12)。
And the target
そして、特徴点抽出部2cは、ステップST12で対象物検出部2bにより検出された対象物としての歩行者の特徴点を抽出する(ステップST13)。例えば、図2に示すような画像が、ステップST11で画像取得部2aにより取得されたとすると、ステップST13において、特徴点抽出部2cは、図2に示すように、歩行者に関して特徴点1〜5を抽出する。
And the feature point extraction part 2c extracts the pedestrian's feature point as a target object detected by the target
そして、画像蓄積部2fは、ステップST12で対象物検出部2bにより検出された対象物としての歩行者を含む部分領域を、ステップST11で画像取得部2aにより取得された画像から切り出し、対象物画像として蓄積する(ステップST14)。例えば、図2に示すような画像が、ステップST11で画像取得部2aにより取得されたとすると、ステップST14において、画像蓄積部2fは、図2の画像内の対象物画像を、ステップST11で画像取得部2aが画像を取得した時刻に対応付けて蓄積する。
Then, the
そして、対象物認識装置2は、ステップST13で特徴点抽出部2cにより抽出された特徴点の情報量に応じて時刻t=0における追跡スコアを算出し、算出された追跡スコアの値を基準として、当該追跡スコアの値よりも高い値を有する追跡閾値の初期値を設定する(ステップST15)。その後、本処理を終了する。
Then, the
次に、図6を参照して、対象物認識装置2により実行される対象物追跡処理や追跡閾値更新処理の一例について説明する。図6に示す処理は、図5に示した追跡閾値の初期値の設定処理を終了後、画像取得部2aにより画像が順次取得されるたびに繰り返し実行される。
Next, an example of the object tracking process and the tracking threshold update process executed by the
図6に示すように、画像取得部2aは、カメラ1から入力される次のフレームの画像データを自車両の周辺を撮像した画像として取得する(ステップST21)。例えば、第1の時刻に取得された第1の画像とすると、ステップST21において、画像取得部2aは、第1の時刻より後の時刻である第2に時刻に取得される第2の画像を、次のフレームの画像データとして取得する。
As shown in FIG. 6, the
そして、対象物検出部2bは、ステップST21で画像取得部2aにより取得された画像から自車両の周辺に存在する対象物として歩行者を検出する(ステップST22)。
And the target
そして、特徴点抽出部2cは、ステップST22で対象物検出部2bにより検出された対象物としての歩行者の特徴点を抽出する(ステップST23)。例えば、図3に示すような画像が、ステップST22で画像取得部2aにより取得されたとすると、ステップST23において、特徴点抽出部2cは、図3に示すように、歩行者に関して特徴点1〜5を抽出する。
And the feature point extraction part 2c extracts the pedestrian's feature point as a target object detected by the target
そして、追跡スコア算出部2dは、画像蓄積部2fに保存されている前回の対象物に関する特徴点を読み出して、追跡スコアを算出する(ステップST24)。具体的には、ステップST24において、追跡スコア算出部2dは、画像蓄積部2fに蓄積された対象物画像から、ステップST21で次フレームの画像を取得した際の時刻より前の時刻に保存した対象物画像を検索し、当該対象物画像に含まれる特徴点を読み出す。そして、追跡スコア算出部2dは、この画像蓄積部2fに保存されている前回の対象物に関する特徴点と、ステップST23で特徴点抽出部2cにより抽出された特徴点と、を比較して、特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する。
Then, the tracking
例えば、図2に示す画像を第1の画像とし、図3に示す画像を第2の画像とすると、ステップST24において、追跡スコア算出部2dは、上述の図5のステップST14で蓄積した図2の対象物画像における特徴点1〜5と、ステップST23で抽出した図3の対象物画像における特徴点1〜5と、を同一の特徴点ごとに比較し、各特徴点に関する追跡スコアを算出する。そして、追跡スコア算出部2dは、算出した各特徴点に関する追跡スコアの平均値を、次の処理で用いる最終的な追跡スコアとして出力する。
For example, if the image shown in FIG. 2 is the first image and the image shown in FIG. 3 is the second image, in step ST24, the tracking
そして、対象物追跡部2eは、ステップST24で追跡スコア算出部2dにより算出された追跡スコアと、上述の図5のステップST15で設定された追跡用の追跡閾値(例えば、図4に示すような追跡閾値の初期値)とを比較することで、追跡閾値に基づいて、ステップST22で対象物検出部2bにより検出された対象物が、前回と同一の対象物であるか否かを判定する(ステップST25)。具体的には、ステップST25において、対象物追跡部2eは、追跡スコアが追跡閾値以上である場合は(ステップST25:Yes)、前回と同一の対象物であると予測し、追跡対象として認識していた対象物を追跡できたと判定する。この場合、次のステップST26の処理へ移行する。一方、ステップST25において、対象物追跡部2eは、追跡スコアが追跡閾値未満である場合は(ステップST25:No)、前回と同一の対象物ではないと予測し、追跡対象として認識していた対象物を追跡できずにロストしたと判定する。この場合、本処理を終了する。
Then, the
そして、ステップST25において、前回と同一の対象物であると予測された場合(ステップST25:Yes)、画像蓄積部2fは、追跡できている対象物としての歩行者を含む部分領域を、ステップST21で画像取得部2aにより取得された画像から切り出し、対象物画像として蓄積する(ステップST26)。例えば、図3に示すような画像が、ステップST21で画像取得部2aにより取得されたとすると、ステップST26において、画像蓄積部2fは、図3の画像内の対象物画像を、ステップST21で画像取得部2aが画像を取得した時刻に対応付けて蓄積する。
If it is predicted in step ST25 that the object is the same as the previous object (step ST25: Yes), the
そして、変化度計算部2gは、画像蓄積部2fに蓄積された対象物画像に基づいて対象物の変化度を計算する(ステップST27)。例えば、画像蓄積部2fに蓄積された対象物画像が、図2の対象物画像及び図3の対象物画像とすると、ステップST27において変化度計算部2gは、図2の対象物画像内の対象物の形状情報と、図3の対象物画像内の対象物の形状情報と、を比較して、これらの対象物画像間における対象物の形状情報の変化から、対象物の姿勢等の見かけ上の変化を示す変化度を計算する。変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が大きいほど、対象物の見かけ上の変化が大きくなると予測して、対象物の変化度の値が大きくなるように計算する。一方、変化度計算部2gは、比較対象の対象物画像間において、形状情報の差異が小さいほど、対象物の見かけ上の変化が小さくなると予測して、対象物の変化度の値が小さくなるように計算する。
Then, the degree-of-
そして、追跡閾値更新部2hは、ステップST27で変化度計算部2gにより計算された対象物の変化度が所定値以上である場合は追跡閾値の値が低くなるように変更し、対象物の変化度が所定値未満である場合は追跡閾値の値を維持する閾値更新処理を実行する(ステップST28)。追跡閾値更新部2hは、上述の図4に示すように、対象物の変化度が所定値以上である場合は、少なくとも前フレームで対象物を追跡する際に使用した追跡閾値の値と比べて低くなるように変更する。追跡閾値更新部2hは、対象物の変化度の大きさが大きくなるほど、追跡閾値の値が低くなるように変更する。
Then, the tracking threshold
ステップST28において設定された追跡閾値は、次フレーム以降用の追跡閾値としてステップST25において対象物追跡処理を行う際に使用される。例えば次のフレームのステップST25において、対象物追跡部2eは、ステップST24で追跡スコア算出部2dにより次のフレームの画像の特徴点に基づいて算出された追跡スコアと、前のフレームでステップST28において変更または維持された追跡用の追跡閾値(例えば、図4に示すような、対象物の変化度に応じて更新された追跡閾値)とを比較することで、追跡閾値に基づいて、ステップST22で対象物検出部2bにより検出された対象物が、前回と同一の対象物であるか否かを判定する。
The tracking threshold set in step ST28 is used when performing the object tracking process in step ST25 as a tracking threshold for the next frame and thereafter. For example, in step ST25 of the next frame, the
以上説明したように、本実施形態に係る対象物認識装置2によれば、従来技術では固定値であった対象物の追跡用の追跡閾値を、フレームごとに対象物の変化度に応じて適切な値となるように更新することができる。これにより、本実施形態に係る対象物認識装置2によれば、予め設定された固定値を有する追跡閾値が想定していない急な対象物の移動量及び移動方向における変化があると、対象物の追跡を失敗しやすくなるという状況が発生することを低減させることが可能となる。その結果、本実施形態に係る対象物認識装置2によれば、追跡対象として認識していた対象物に対して急な移動量及び移動方向における変化があった場合であっても、対象物をロストする可能性を低減させて対象物を好適に追跡できる。
As described above, according to the
なお、本実施形態において、ステップST28の処理の後、飛出し判定部2iは、ステップST25で対象物追跡部2eにより追跡できた対象物画像に対して飛出し検出を行い、対象物の飛出しの有無を判定してもよい。また、この飛出し判定の処理の後、注意喚起部2jは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、スピーカ3を介して音声を出力することで、自車両の運転者に対して注意喚起を行ってもよい。また、この飛出し判定の処理の後、車両制御部2kは、飛出し判定部2iにより対象物の飛出しが有ると判定された場合、アクチュエータ4を介して車両の挙動を制御することで、自車両が対象物を回避するように車両制御を行ってもよい。
In the present embodiment, after the process of step ST28, the
1 カメラ
2 対象物認識装置
2a 画像取得部
2b 対象物検出部
2c 特徴点抽出部
2d 追跡スコア算出部
2e 対象物追跡部
2f 画像蓄積部
2g 変化度計算部
2h 追跡閾値更新部
2i 飛出し判定部
2j 注意喚起部
2k 車両制御部
3 スピーカ
4 アクチュエータ
DESCRIPTION OF SYMBOLS 1
Claims (1)
前記画像取得部により取得された前記画像から前記自車両の周辺に存在する対象物を検出する対象物検出部と、
前記対象物検出部により検出された前記対象物の特徴点を抽出する特徴点抽出部と、
前記画像取得部により順次取得された時系列的に前後する複数の画像を、前記対象物検出部により検出された前記対象物を含む部分領域として画像内に設定される対象物画像について比較することで、前記特徴点抽出部により抽出された前記特徴点の移動量及び移動方向の変化が大きいほど低い値となる追跡スコアを算出する追跡スコア算出部と、
前記追跡スコア算出部により算出された前記追跡スコアと追跡用の追跡閾値とを比較することで、当該追跡スコアが当該追跡閾値以上である対象物を追跡する対象物追跡部と、
前記対象物追跡部により追跡できた前記対象物の対象物画像を蓄積する画像蓄積部と、
前記画像蓄積部に蓄積された前記対象物画像に基づいて前記対象物の変化度を計算する変化度計算部と、
前記変化度計算部により計算された前記変化度が所定値以上である場合は前記追跡閾値の値が低くなるように変更し、前記変化度が所定値未満である場合は前記追跡閾値の値を維持する閾値更新処理を実行する追跡閾値更新部と、
を備えることを特徴とする対象物認識装置。 An image acquisition unit for acquiring an image obtained by imaging the periphery of the host vehicle;
An object detection unit for detecting an object existing around the host vehicle from the image acquired by the image acquisition unit;
A feature point extraction unit for extracting feature points of the object detected by the object detection unit;
Comparing a plurality of images that are sequentially acquired by the image acquisition unit and that move back and forth in time series with respect to an object image set in the image as a partial region including the object detected by the object detection unit. Then, a tracking score calculation unit that calculates a tracking score that becomes a lower value as the movement amount and movement direction of the feature point extracted by the feature point extraction unit is larger, and
By comparing the tracking score calculated by the tracking score calculation unit with a tracking threshold for tracking, an object tracking unit that tracks an object whose tracking score is equal to or higher than the tracking threshold;
An image accumulating unit for accumulating an object image of the object that can be tracked by the object tracking unit;
A degree-of-change calculator that calculates the degree of change of the object based on the object image stored in the image storage unit;
When the degree of change calculated by the degree-of-change calculator is equal to or greater than a predetermined value, the tracking threshold value is changed to be low, and when the degree of change is less than a predetermined value, the value of the tracking threshold is changed. A tracking threshold update unit that executes a threshold update process to maintain;
An object recognition apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014137127A JP2016015043A (en) | 2014-07-02 | 2014-07-02 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014137127A JP2016015043A (en) | 2014-07-02 | 2014-07-02 | Object recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016015043A true JP2016015043A (en) | 2016-01-28 |
Family
ID=55231172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014137127A Pending JP2016015043A (en) | 2014-07-02 | 2014-07-02 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016015043A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020160658A (en) * | 2019-03-26 | 2020-10-01 | 株式会社富士通アドバンストエンジニアリング | Information processing device, information processing method, and program |
WO2020217368A1 (en) * | 2019-04-25 | 2020-10-29 | 日本電気株式会社 | Information processing device, information processing method, and information processing program |
WO2022091166A1 (en) * | 2020-10-26 | 2022-05-05 | 日本電気株式会社 | Tracking apparatus, tracking system, tracking method, and recording medium |
US11741665B2 (en) | 2019-09-19 | 2023-08-29 | Fujifilm Business Innovation Corp. | Image processing apparatus and non-transitory computer readable medium storing image processing program |
US11872983B2 (en) | 2018-04-23 | 2024-01-16 | Denso Corporation | Vehicle collision prediction apparatus |
-
2014
- 2014-07-02 JP JP2014137127A patent/JP2016015043A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11872983B2 (en) | 2018-04-23 | 2024-01-16 | Denso Corporation | Vehicle collision prediction apparatus |
JP2020160658A (en) * | 2019-03-26 | 2020-10-01 | 株式会社富士通アドバンストエンジニアリング | Information processing device, information processing method, and program |
JP7310206B2 (en) | 2019-03-26 | 2023-07-19 | 富士通株式会社 | Information processing device, information processing method, and program |
WO2020217368A1 (en) * | 2019-04-25 | 2020-10-29 | 日本電気株式会社 | Information processing device, information processing method, and information processing program |
JPWO2020217368A1 (en) * | 2019-04-25 | 2020-10-29 | ||
US11741665B2 (en) | 2019-09-19 | 2023-08-29 | Fujifilm Business Innovation Corp. | Image processing apparatus and non-transitory computer readable medium storing image processing program |
JP7423951B2 (en) | 2019-09-19 | 2024-01-30 | 富士フイルムビジネスイノベーション株式会社 | Image processing device and image processing program |
WO2022091166A1 (en) * | 2020-10-26 | 2022-05-05 | 日本電気株式会社 | Tracking apparatus, tracking system, tracking method, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10796171B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
JP6398347B2 (en) | Image processing apparatus, recognition object detection method, recognition object detection program, and moving object control system | |
JP7025912B2 (en) | In-vehicle environment recognition device | |
JP5197679B2 (en) | Object detection apparatus and program | |
JP2016015043A (en) | Object recognition device | |
JP5999127B2 (en) | Image processing device | |
US11804048B2 (en) | Recognizing the movement intention of a pedestrian from camera images | |
JP6340957B2 (en) | Object detection apparatus and object detection program | |
JP2018097582A (en) | Driving support device and driving support method | |
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
JPWO2016006029A1 (en) | Signal detection device and signal detection method | |
JP2008168811A (en) | Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program | |
JP2009132259A (en) | Vehicle surrounding-monitoring device | |
CN111497741B (en) | Collision early warning method and device | |
JP6436357B2 (en) | Pedestrian motion identification device for vehicle | |
JP2009237898A (en) | Image recognition device | |
US8160300B2 (en) | Pedestrian detecting apparatus | |
JP5838940B2 (en) | Image processing apparatus and vehicle control system | |
JP2005196590A (en) | Pedestrian extractor | |
JP6165120B2 (en) | Traveling line recognition device | |
JP6069938B2 (en) | Pop-up detection device | |
JP7161981B2 (en) | Object tracking program, device and method capable of switching object tracking means | |
JP2012118683A (en) | Pedestrian recognition device | |
JP5780249B2 (en) | Image processing apparatus and vehicle control system using the image processing apparatus | |
JP2010072947A (en) | Obstacle detection device |