JP2020144758A - Moving object detector, moving object detection method, and computer program - Google Patents
Moving object detector, moving object detection method, and computer program Download PDFInfo
- Publication number
- JP2020144758A JP2020144758A JP2019042550A JP2019042550A JP2020144758A JP 2020144758 A JP2020144758 A JP 2020144758A JP 2019042550 A JP2019042550 A JP 2019042550A JP 2019042550 A JP2019042550 A JP 2019042550A JP 2020144758 A JP2020144758 A JP 2020144758A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- feature points
- similar
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像に映る移動物体を検出する精度を高める。【解決手段】特徴点検出部20は、撮像装置12により撮像された画像における特徴点を抽出し、複数の画像に亘る複数の特徴点の動きを検出する。物体検出部24は、動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する。追跡部26は、複数の画像に亘る移動物体の動きを追跡する。物体検出部24は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する。物体検出部24は、類似領域を含むように複数の候補領域を合成し、合成した領域を上記或る画像に映る移動物体の領域として検出する。【選択図】図3PROBLEM TO BE SOLVED: To improve the accuracy of detecting a moving object reflected in an image. A feature point detection unit (20) extracts feature points in an image captured by an image pickup device (12) and detects movements of a plurality of feature points over a plurality of images. The object detection unit 24 detects a moving object reflected in an image by grouping a plurality of feature points having similar movements. The tracking unit 26 tracks the movement of a moving object over a plurality of images. When a plurality of candidate regions of a moving object are detected by grouping a plurality of feature points in a certain image, the object detection unit 24 has a feature point among the pixels around the feature point for each of the plurality of feature points. Extract a similar area in which areas of pixels similar to are communicated with each other. The object detection unit 24 synthesizes a plurality of candidate regions so as to include similar regions, and detects the combined region as a region of a moving object reflected in the certain image. [Selection diagram] Fig. 3
Description
本開示はデータ処理技術に関し、特に移動物体検出装置、移動物体検出方法およびコンピュータプログラムに関する。 The present disclosure relates to data processing techniques, in particular to moving object detection devices, moving object detection methods and computer programs.
画像に映る移動する物体(「移動物体」とも呼ぶ。)を検出する方法として、複数の画像に亘る特徴点の動きベクトルを求め、各特徴点の動きベクトルをもとに複数の特徴点をクラスタリングすることにより、画像上の移動物体の領域を検出する方法がある。 As a method of detecting a moving object (also referred to as a "moving object") reflected in an image, a motion vector of a feature point over a plurality of images is obtained, and a plurality of feature points are clustered based on the motion vector of each feature point. By doing so, there is a method of detecting the area of a moving object on the image.
これまでの移動物体検出方法では、実際には1つの移動物体が映る画像から複数の移動物体を検出してしまい、その結果、移動物体を正しく追跡できないことがあった。 In the conventional moving object detection method, a plurality of moving objects are actually detected from an image showing one moving object, and as a result, the moving object may not be tracked correctly.
本開示はこうした課題に鑑みてなされたものであり、1つの目的は、画像に映る移動物体の検出精度を高めることにある。 The present disclosure has been made in view of these problems, and one object is to improve the detection accuracy of moving objects reflected in an image.
上記課題を解決するために、本発明のある態様の移動物体検出装置は、撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する特徴点検出部と、特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する物体検出部と、複数の画像に亘る、物体検出部により検出された移動物体の動きを追跡する追跡部と、を備える。物体検出部は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を或る画像に映る移動物体の領域として検出する合成部と、を含む。 In order to solve the above problems, the moving object detection device of an embodiment of the present invention extracts feature points in an image captured by the image pickup device, and has a plurality of feature points over a plurality of images captured at different times. A feature point detection unit that detects movement, an object detection unit that detects a moving object that appears in an image by grouping a plurality of feature points with similar movements detected by the feature point detection unit, and a plurality of images. , A tracking unit that tracks the movement of a moving object detected by the object detecting unit. When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, the object detection unit sets each of the plurality of feature points as a feature point among the pixels around the feature point. A plurality of candidate regions are combined so as to include a similar region extraction unit that extracts a similar region in which similar pixel regions are communicated and a similar region extracted by the similar region extraction unit, and the combined region is combined into a certain image. Includes a compositing unit that detects as an area of a moving object that appears.
本発明の別の態様は、移動物体検出方法である。この方法は、撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する処理と、複数の画像に亘る移動物体の動きを追跡する処理と、をコンピュータが実行し、移動物体を検出する処理は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を或る画像に映る移動物体の領域として検出する処理と、を含む。 Another aspect of the present invention is a moving object detection method. This method extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times, and a process of detecting the movement of a plurality of feature points having similar movements. A computer executes a process of detecting a moving object reflected in an image by grouping and a process of tracking the movement of the moving object over a plurality of images, and a plurality of processes of detecting the moving object are performed in a certain image. When a plurality of candidate regions for moving objects are detected by grouping the feature points of, for each of the plurality of feature points, the regions of the pixels around the feature points that are similar to the feature points are communicated with each other. It includes a process of extracting a region and a process of synthesizing a plurality of candidate regions so as to include the extracted similar regions and detecting the combined region as a region of a moving object appearing in a certain image.
なお、以上の構成要素の任意の組合せ、本開示の表現を、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本開示の態様として有効である。 It should be noted that any combination of the above components and the expression of the present disclosure converted between a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present disclosure.
本開示によれば、画像に映る移動物体の検出精度を高めることができる。 According to the present disclosure, it is possible to improve the detection accuracy of a moving object appearing in an image.
図1は、車両における移動物体検出の従来例を示す。まず、撮像装置により撮像された画像(言い換えれば映像の各フレーム)内の特徴点(コーナー点等)を検出する。次に、現フレームで検出した特徴点と前フレームで検出した特徴点とを照合することにより特徴点を追跡し、特徴点の動きベクトルを求める(例1)。動きベクトルは、移動ベクトルとも言え、移動距離と移動方向を含む。 FIG. 1 shows a conventional example of detecting a moving object in a vehicle. First, feature points (corner points, etc.) in the image (in other words, each frame of the image) captured by the imaging device are detected. Next, the feature points are tracked by collating the feature points detected in the current frame with the feature points detected in the previous frame, and the motion vector of the feature points is obtained (Example 1). The motion vector can be said to be a motion vector, and includes a travel distance and a travel direction.
次に、近傍範囲にあって、かつ、動きベクトルが同じ複数の特徴点をグループ化し(クラスタリングとも言える)、グループ化された特徴点の集団(以下「特徴点群」とも呼ぶ。)の動きベクトルを算出する(例2)。次に、近傍範囲にあって、かつ、動きベクトルが同じ複数の特徴点群をグループ化する。グループ化した結果を囲む枠(領域とも言える)を移動物体の「検知枠」として出力する(例3)。 Next, a motion vector of a group of feature points (hereinafter, also referred to as "feature point cloud") in which a plurality of feature points in a neighborhood range and having the same motion vector are grouped (also referred to as clustering). Is calculated (Example 2). Next, a plurality of feature point groups that are in the neighborhood range and have the same motion vector are grouped. A frame (which can be said to be an area) surrounding the grouped results is output as a "detection frame" for a moving object (Example 3).
複数のフレームに亘る検知枠の動きを時系列で追跡する。具体的には、検知枠の幅、高さ、画像内での座標等、検知枠を特定可能な要素を使用して検知枠の動きを追跡する(例4)。追跡された検知枠の動きをもとに、次フレームでの検知枠の移動方向、移動距離および移動速度を予測し、その予測結果と、自車位置および自車速度をもとに、衝突予想時間(Time-To-Collision、TTC)を算出する(例5)。TTCを運転制御装置へ入力することにより、TTCに応じた車両制御(緊急ブレーキ等)を実行する。 The movement of the detection frame over multiple frames is tracked in chronological order. Specifically, the movement of the detection frame is tracked using elements that can identify the detection frame, such as the width and height of the detection frame and the coordinates in the image (Example 4). Based on the tracked movement of the detection frame, the movement direction, movement distance, and movement speed of the detection frame in the next frame are predicted, and the collision prediction is based on the prediction result and the own vehicle position and the own vehicle speed. Calculate the time (Time-To-Collision, TTC) (Example 5). By inputting the TTC to the driving control device, vehicle control (emergency braking, etc.) according to the TTC is executed.
図2(a)−図2(f)は、移動物体検出の事例を示す。図2(a)−図2(f)は、車載カメラにより撮像された画像6を含み、他車(すなわち移動物体)が徐々に接近してくる様子を時系列に示している。図2(c)や図2(e)に示すように、他車の像を1つの検知枠7により検出できれば、他車の動きを精度よく追跡することができる。
FIG. 2A-FIG. 2F shows an example of detecting a moving object. FIGS. 2 (a) and 2 (f) include an
しかし、図2(d)や図2(g)等に示すように、他車の像に対する検知枠7が複数に分裂すると、他車の動きを追跡する精度が低下してしまう。また、図2(f)や図2(g)に示すように、他車の特徴点と背景の特徴点とを1つのグループにクラスタリングする場合、検知枠7の大きさが不正確となって、やはり他車の動きを追跡する精度が低下してしまう。
However, as shown in FIGS. 2 (d) and 2 (g), if the
このような課題を解決するため、実施例では、画像に映る1つの移動物体に対して検出された複数の検知枠を1つの検知枠に統合することで移動物体の検出精度を高める移動物体検出装置を提案する。 In order to solve such a problem, in the embodiment, the moving object detection that improves the detection accuracy of the moving object by integrating a plurality of detection frames detected for one moving object shown in the image into one detection frame. Propose a device.
図3は、実施例の運転支援システム10の構成を示す。運転支援システム10は、車両に搭載されるデータ処理システムであり、撮像装置12、移動物体検出装置14、運転制御装置16を備える。これらの装置は、CAN(Controller Area Network)、イーサネット(登録商標)、MOST(Media Oriented Systems Transport)等、公知の車載ネットワークを介して接続される。
FIG. 3 shows the configuration of the driving support system 10 of the embodiment. The driving support system 10 is a data processing system mounted on a vehicle, and includes an
撮像装置12は、車両の周囲を撮像し、撮像結果の画像を出力する。移動物体検出装置14は、撮像装置12から出力された画像に映る移動物体を検出する。運転制御装置16は、移動物体検出装置14から出力された移動物体に関する情報をもとに、車両の挙動を制御する。移動物体検出装置14および運転制御装置16は、ECU(Electronic Control Unit)として実装されてもよい。図3には不図示だが、運転制御装置16は、エンジン、ブレーキ、ステアリング等を制御する複数のECUと接続されてもよい。
The
実施例では、移動物体検出装置14が出力する移動物体に関する情報は、移動物体に対するTTCを含む。運転制御装置16は、TTCが所定の閾値より小さい場合、具体的には、算出したTTC時間が通常停止時間より短い場合、自動緊急ブレーキ(Autonomous Emergency Braking、AEB)を作動させる。上記の所定の閾値は、車両が走行中に自動緊急ブレーキを作動させずに車両を停止させる場合に、ブレーキの作動開始から停止位置(停止完了)までに要する時間であってもよい。
In the embodiment, the information about the moving object output by the moving
図3は、移動物体検出装置14の機能ブロックを示すブロック図を含む。移動物体検出装置14は、特徴点検出部20、特徴点バッファ22、物体検出部24、追跡部26、TTC算出部28を備える。
FIG. 3 includes a block diagram showing a functional block of the moving
本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU及びメモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。例えば、移動物体検出装置14の複数の機能ブロックに対応する複数のモジュールを含むコンピュータプログラムが、移動物体検出装置14のROMに記憶されてもよい。運転支援システム10のCPUは、このコンピュータプログラムをRAMに読み出して実行することにより、上記複数の機能ブロックの機能を発揮してもよい。
Each block shown in the block diagram of the present disclosure can be realized by an element or a mechanical device such as a CPU and a memory of a computer in terms of hardware, and can be realized by a computer program or the like in terms of software. , Draws a functional block realized by their cooperation. It is understood by those skilled in the art that these functional blocks can be realized in various forms by combining hardware and software. For example, a computer program including a plurality of modules corresponding to a plurality of functional blocks of the moving
特徴点検出部20は、撮像装置12から出力された画像(映像の1フレームとも言える)における特徴点を抽出する。特徴点検出部20は、公知のエッジ検出法やコーナー検出法を用いて特徴点を抽出してもよい。また、特徴点検出部20は、撮像装置12から順次出力された複数の画像(言い換えれば異なる時刻に撮像された複数の画像)に亘る複数の特徴点の動きベクトルを検出する。
The feature
特徴点バッファ22は、撮像装置12から出力された画像ごとに、その特徴点に関するデータ(画像内の座標や特徴量等)を記憶する。
The
物体検出部24は、特徴点検出部20により検出された複数の特徴点を特徴点バッファ22から取得し、各特徴点の動きベクトルをもとに複数の特徴点をグループ化することにより画像に映る移動物体を検出する。物体検出部24は、検出した移動物体に関するデータ(例えば後述の統合枠に関するデータ)を追跡部26へ出力する。物体検出部24の詳細な構成は後述する。
The
追跡部26は、撮像装置12から順次出力された複数の画像に亘る、物体検出部24により検出された移動物体の動きを追跡し、移動物体の移動方向、移動距離および移動速度を算出する。追跡部26は、これらのデータをTTC算出部28へ出力する。
The
TTC算出部28は、追跡部26により算出された移動物体の移動方向、移動距離および移動速度をもとに、移動物体の将来時点の移動方向、移動距離および移動速度を推定する。TTC算出部28は、その推定結果と、自車位置および自車速度をもとに、移動物体に対するTTCを算出する。TTC算出部28は、自車位置および自車速度を車載ネットワークを介して車載センサ等から取得してもよい。また、特徴点検出部20、追跡部26、TTC算出部28は、公知技術により実現されてもよい。
The
物体検出部24の構成を詳細に説明する。物体検出部24は、クラスタリング部30、類似領域抽出部32、合成部34を含む。クラスタリング部30は、撮像装置12から出力された画像(ここでは「対象画像」とも呼ぶ。)において、特徴点検出部20により検出された動きベクトルの値が同一または類似(言い換えれば差異が所定の閾値以下)の複数の特徴点をグループ化することにより移動物体の候補領域を検出する。上記閾値は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。
The configuration of the
類似領域抽出部32は、クラスタリング部30により対象画像から移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれ(「対象特徴点」とも呼ぶ。)について、対象特徴点の周囲の画素のうち対象特徴点と類似する画素(「類似点」とも呼ぶ。)の領域を連通させた領域(「類似領域」とも呼ぶ。)を対象画像から抽出する。
When a plurality of candidate regions of moving objects are detected from the target image by the
具体的には、類似領域抽出部32は、対象画像から新たな類似点を探索する際、対象特徴点または検出済の類似点の周囲にある画素のうち同じ方向にある複数の画素をグループ化し、複数の画素のグループと対象特徴点との相違度を計算する。相違度の計算(言い換えれば類似度の計算)では、テクスチャ、質感、色、コントラスト、エントロピー等を比較してもよい。また、類似領域抽出部32は、公知の空間濃度レベル依存法(SGLDM)、濃度レベル差分法(GLDM)または濃度ヒストグラム法(GLHM)を用いて対象画像のテクスチャ解析を行ってもよい。
Specifically, when searching for a new similarity from the target image, the similarity
図4(a)−(d)は、類似領域を抽出する例を示す。図4(a)−(d)の各ブロック(各格子の点)は、対象画像内の画素を示している。図4(a)に示すように、類似領域抽出部32は、対象特徴点62の上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。実施例では、1つの画素群は3画素とする。画素群の特徴量は、各画素の特徴量の平均値であってもよい。類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群の中心画素を類似点として検出し、図4(a)では類似点64aを検出する。
FIGS. 4 (a)-(d) show an example of extracting a similar region. Each block (point of each grid) in FIGS. 4 (a)-(d) shows a pixel in the target image. As shown in FIG. 4A, the similar
図4(b)は、図4(a)に続く処理を示す。類似領域抽出部32は、類似点64aの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(b)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64aの右に位置する画素群を特定し、類似点64bを検出する。
FIG. 4B shows the processing following FIG. 4A. The similar
図4(c)は、図4(b)に続く処理を示す。類似領域抽出部32は、類似点64bの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(c)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64bの上下および右に位置する画素群を特定し、類似点64c、類似点64dおよび類似点64eを検出する。
FIG. 4C shows the processing following FIG. 4B. The similar
図4(d)は、図4(c)に続く処理を示す。類似領域抽出部32は、類似点64eの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(d)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64eの右に位置する画素群を特定し、類似点64fを検出する。
FIG. 4D shows the processing following FIG. 4C. The similar
このように、類似領域抽出部32は、対象特徴点62に対する類似点の探索を繰り返す。類似領域抽出部32は、或る類似点(例えば類似点64f)の上下左右に位置する4つの画素群のいずれも対象特徴点62との相違度が所定の閾値より大きければ、その類似点(例えば類似点64f)を起点とする探索を終了する。図4に関連する説明で用いた相違度の閾値は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。
In this way, the similar
類似領域抽出部32は、対象特徴点62を起点として、探索により検出した1つ以上の類似点を連通させた領域を類似領域として抽出する。図4(a)−(d)の例では、対象特徴点62、類似点64a、類似点64b、類似点64c、類似点64d、類似点64e、類似点64fを結んだ領域を類似領域として抽出する。
The similar
図3に戻り、合成部34は、類似領域抽出部32により抽出された類似領域が、クラスタリング部30により検出された複数の候補領域に亘る場合、その類似領域を含むように複数の候補領域を合成する。合成部34は、合成した領域を対象画像に映る移動物体の領域として検出し、移動物体の領域に関する情報を追跡部26へ出力する。移動物体の領域に関する情報は、対象画像において移動物体の領域が占める座標の情報であってもよい。
Returning to FIG. 3, when the similar region extracted by the similar
図5(a)−(c)は、検知枠を合成する例を示す。図5(a)は、クラスタリング部30が対象画像40から検出した検知枠を示している。同図は、1台の車両から検知枠42と検知枠44が検出されたことを示している。図5(b)は、類似領域抽出部32が対象画像40から抽出した類似領域46と類似領域48を示している。
FIGS. 5 (a)-(c) show an example of synthesizing detection frames. FIG. 5A shows a detection frame detected by the
類似領域46と類似領域48はともに、検知枠42と検知枠44の両方に跨っている。そのため、合成部34は、図5(c)に示すように、類似領域46と類似領域48の両方を含むように検知枠42と検知枠44を合成し、合成した結果である統合枠50を生成する。合成部34は、対象画像40に映る移動物体の領域を示す情報として、対象画像40における統合枠50の位置を示す情報(座標情報等)を追跡部26へ出力する。
Both the
合成部34は、対象画像40に映る移動物体の領域を検出する際、類似領域抽出部32により抽出された類似領域が所定のサイズより小さい場合、その類似領域を移動物体の領域から除外する。図5(c)の例では、検知枠44の右側部分(すなわち背景が映る部分)からは上記所定のサイズ以上の類似領域が抽出されない。そのため、合成部34は、検知枠44の右側部分を統合枠50から除外する。
When detecting the region of the moving object reflected in the
なお、上記所定のサイズ(すなわち閾値)は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。また、合成部34は、統合枠50に含まれない特徴点の情報を削除してもよく、または、統合枠50に含まれない特徴点の情報を追跡部26へ出力することを抑制してもよい。
An appropriate value may be determined for the predetermined size (that is, the threshold value) based on the knowledge of the developer and an experiment using the driving support system 10. Further, the
以上の構成による運転支援システム10の動作を図3を参照しつつ説明する。
車両に搭載された撮像装置12は、車両の周囲の様子を示す映像を移動物体検出装置14へ出力する。特徴点検出部20は、撮像装置12から出力された映像のフレームごとに特徴点を検出し、各特徴点の動きベクトルを検出する。特徴点バッファ22は、映像のフレームごとの特徴点の情報を記憶する。
The operation of the driving support system 10 with the above configuration will be described with reference to FIG.
The
クラスタリング部30は、映像のフレームごとに、動きベクトルの値が類似する複数の特徴点をグループ化することにより、各フレームに映る移動物体の候補領域を検出する。クラスタリング部30により検出された移動物体の候補領域が1つであれば、物体検出部24は、その候補領域を移動物体の領域として追跡部26へ出力する。
The
一方、或るフレームから移動物体の候補領域が複数検出された場合、類似領域抽出部32は、そのフレームから各特徴点に対する類似領域を抽出する。合成部34は、類似領域が複数の候補領域に跨る場合、類似領域を含むようにそれら複数の候補領域を合成し、合成した領域を当該フレームに映る移動物体の領域として検出する。また、合成部34は、抽出された類似領域が所定サイズより小さい場合、その類似領域を移動物体の領域から除外する。物体検出部24は、合成部34により検出された移動物体の領域を追跡部26へ出力する。
On the other hand, when a plurality of candidate regions for moving objects are detected from a certain frame, the similar
追跡部26は、複数のフレームに亘る移動物体の動きを追跡する。TTC算出部28は、複数のフレームに亘る移動物体の動きをもとに将来時点(例えば次フレーム)での移動物体の動きを推定する。TTC算出部28は、その推定結果をもとに、移動物体に対するTTCを算出して運転制御装置16へ出力する。運転制御装置16は、TTCをもとに車両の挙動を制御し、例えば、衝突回避のために緊急ブレーキを作動させる。
The
実施例の移動物体検出装置14によると、画像に映る移動物体を検出する精度を高めることができ、言い換えれば、画像から移動物体の領域を正しく検出できる。例えば、1つの移動物体を複数の移動物体として検出してしまうことを抑制できる。この結果、時系列での移動物体の動きを正しく検出でき、また、将来時点での移動物体の動きを推定する精度を高めることができる。
According to the moving
また、移動物体検出装置14によると、小さい類似領域を移動物体の領域から除外することにより、移動物体以外の特徴点領域(背景領域等)を誤って移動物体と検出することを抑制できる。これにより、移動物体の検出精度を一層高めることができる。さらにまた、類似領域の抽出において、1つの画素ではなく画素のグループと特徴点とを比較する。これにより、類似判定(言い換えれば相違度判定)の計算量を低減することができる。
Further, according to the moving
以上、本開示を実施例をもとに説明した。この実施例は例示であり、実施例の各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the examples. This embodiment is an example, and it will be understood by those skilled in the art that various modifications are possible for each component of the embodiment or a combination of each processing process, and that such modifications are also within the scope of the present disclosure. is there.
上記実施例の移動物体検出装置14は、移動物体の時系列での動きを追跡して、その追跡結果をもとに移動物体に対するTTCを算出し、TTCを運転制御装置16へ出力した。変形例として、移動物体検出装置14は、移動物体の時系列での動きを追跡した結果を外部装置へ出力してもよく、その外部装置が、TTCの算出等、追跡結果に基づく所定のデータ処理を実行してもよい。
The moving
上記実施例の移動物体検出装置14は車両に搭載された。変形例として、移動物体検出装置14(または移動物体検出装置14の機能)は、車両以外の装置であって、移動物体に関するデータ処理を実行する装置(サーバ等)に搭載されてもよい。また、移動物体検出装置14は、移動物体検出装置14を搭載した装置の外部に設置された撮像装置12(例えば建物に固定された監視カメラ等)により撮像された画像を通信網を介して受け付けてもよく、その画像から移動物体を検出してもよい。
The moving
上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the examples and modifications described above is also useful as an embodiment of the present disclosure. The new embodiments resulting from the combination have the effects of the combined examples and the modifications. It is also understood by those skilled in the art that the functions to be fulfilled by each of the constituent elements described in the claims are realized by a single component or a cooperation thereof shown in the examples and modifications.
実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する特徴点検出部と、
前記特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する物体検出部と、
前記複数の画像に亘る、前記物体検出部により検出された移動物体の動きを追跡する追跡部と、
を備え、
前記物体検出部は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、
前記類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する合成部と、を含む、
移動物体検出装置。
[項目2]
前記合成部は、前記類似領域抽出部により抽出された類似領域が所定のサイズより小さい場合、その類似領域を前記移動物体の領域から除外する、
項目1に記載の移動物体検出装置。
[項目3]
前記類似領域抽出部は、特徴点または前記類似する画素の周囲にある画素のうち同じ方向にある複数の画素をグループ化し、前記複数の画素のグループと特徴点との相違度を計算する、
項目1または2に記載の移動物体検出装置。
[項目4]
前記撮像装置は、車両で用いられる、
項目1に記載の移動物体検出装置。
[項目5]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータが実行し、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
移動物体検出方法。
[項目6]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータに実行させ、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
コンピュータプログラム。
The techniques described in the examples and modifications may be specified by the following items.
[Item 1]
A feature point detection unit that extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times.
An object detection unit that detects a moving object reflected in the image by grouping a plurality of feature points having similar movements detected by the feature point detection unit.
A tracking unit that tracks the movement of a moving object detected by the object detection unit over the plurality of images, and a tracking unit.
With
The object detection unit
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points A similar area extraction unit that extracts similar areas that communicate the areas,
It includes a compositing unit that synthesizes a plurality of candidate regions so as to include the similar regions extracted by the similar region extraction unit and detects the synthesized region as a region of a moving object appearing in the certain image.
Moving object detector.
[Item 2]
When the similar region extracted by the similar region extraction unit is smaller than a predetermined size, the synthesis unit excludes the similar region from the region of the moving object.
The moving object detection device according to item 1.
[Item 3]
The similar region extraction unit groups a plurality of pixels in the same direction among the pixel around the feature point or the similar pixel, and calculates the degree of difference between the group of the plurality of pixels and the feature point.
The moving object detection device according to item 1 or 2.
[Item 4]
The image pickup device is used in a vehicle.
The moving object detection device according to item 1.
[Item 5]
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
The computer runs,
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Moving object detection method.
[Item 6]
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
Let the computer run
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Computer program.
10 運転支援システム、 12 撮像装置、 14 移動物体検出装置、 20 特徴点検出部、 24 物体検出部、 26 追跡部、 32 類似領域抽出部、 34 合成部。 10 Driving support system, 12 Imaging device, 14 Moving object detection device, 20 Feature point detection section, 24 Object detection section, 26 Tracking section, 32 Similar area extraction section, 34 Synthesis section.
Claims (6)
前記特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する物体検出部と、
前記複数の画像に亘る、前記物体検出部により検出された移動物体の動きを追跡する追跡部と、
を備え、
前記物体検出部は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、
前記類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する合成部と、を含む、
移動物体検出装置。 A feature point detection unit that extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times.
An object detection unit that detects a moving object reflected in the image by grouping a plurality of feature points having similar movements detected by the feature point detection unit.
A tracking unit that tracks the movement of a moving object detected by the object detection unit over the plurality of images, and a tracking unit.
With
The object detection unit
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points A similar area extraction unit that extracts similar areas that communicate the areas,
It includes a compositing unit that synthesizes a plurality of candidate regions so as to include the similar regions extracted by the similar region extraction unit and detects the synthesized region as a region of a moving object appearing in the certain image.
Moving object detector.
請求項1に記載の移動物体検出装置。 When the similar region extracted by the similar region extraction unit is smaller than a predetermined size, the synthesis unit excludes the similar region from the region of the moving object.
The moving object detection device according to claim 1.
請求項1または2に記載の移動物体検出装置。 The similar region extraction unit groups a plurality of pixels in the same direction among the pixel around the feature point or the similar pixel, and calculates the degree of difference between the group of the plurality of pixels and the feature point.
The moving object detection device according to claim 1 or 2.
請求項1に記載の移動物体検出装置。 The image pickup device is used in a vehicle.
The moving object detection device according to claim 1.
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータが実行し、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
移動物体検出方法。 A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
The computer runs,
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Moving object detection method.
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータに実行させ、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
コンピュータプログラム。 A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
Let the computer run
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019042550A JP2020144758A (en) | 2019-03-08 | 2019-03-08 | Moving object detector, moving object detection method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019042550A JP2020144758A (en) | 2019-03-08 | 2019-03-08 | Moving object detector, moving object detection method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020144758A true JP2020144758A (en) | 2020-09-10 |
Family
ID=72354300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019042550A Pending JP2020144758A (en) | 2019-03-08 | 2019-03-08 | Moving object detector, moving object detection method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020144758A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221750A (en) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | Vehicle tracking method, device, equipment and storage medium |
WO2022044727A1 (en) | 2020-08-28 | 2022-03-03 | 株式会社カネカ | Method for purifying useful substance |
-
2019
- 2019-03-08 JP JP2019042550A patent/JP2020144758A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022044727A1 (en) | 2020-08-28 | 2022-03-03 | 株式会社カネカ | Method for purifying useful substance |
CN113221750A (en) * | 2021-05-13 | 2021-08-06 | 杭州飞步科技有限公司 | Vehicle tracking method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112997187B (en) | Two-dimensional object boundary box information estimation based on bird's eye view point cloud | |
CN110163904B (en) | Object labeling method, movement control method, device, equipment and storage medium | |
US12315181B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
Hu et al. | Moving object detection and tracking from video captured by moving camera | |
EP3093820B1 (en) | Vehicle-surroundings recognition device | |
JP5782088B2 (en) | System and method for correcting distorted camera images | |
WO2020104423A1 (en) | Method and apparatus for data fusion of lidar data and image data | |
JP7135665B2 (en) | VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM | |
Wang et al. | Overtaking vehicle detection using dynamic and quasi-static background modeling | |
CN110268417B (en) | Method for identifying objects in camera images | |
KR20200132468A (en) | Advanced driver assist device and method of detecting object in the same | |
US20120257056A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN113096151B (en) | Method and apparatus for detecting motion information of object, device and medium | |
JP2008046903A (en) | Object number detection device and object number detection method | |
EP4213128A1 (en) | Obstacle detection device, obstacle detection system, and obstacle detection method | |
US11593949B2 (en) | Method of detecting moving objects via a moving camera, and related processing system, device and computer-program product | |
JP6436357B2 (en) | Pedestrian motion identification device for vehicle | |
WO2010109831A1 (en) | Drive recorder | |
CN114943750B (en) | Target tracking method, device and electronic equipment | |
KR102359083B1 (en) | Device for detecting moving object and method thereof | |
JP2020144758A (en) | Moving object detector, moving object detection method, and computer program | |
US10417507B2 (en) | Freespace detection apparatus and freespace detection method | |
EP4414746A1 (en) | Multi-object detection and tracking | |
WO2017077261A1 (en) | A monocular camera cognitive imaging system for a vehicle | |
JP2016004382A (en) | Motion information estimation device |