JP2020144758A - Moving object detector, moving object detection method, and computer program - Google Patents

Moving object detector, moving object detection method, and computer program Download PDF

Info

Publication number
JP2020144758A
JP2020144758A JP2019042550A JP2019042550A JP2020144758A JP 2020144758 A JP2020144758 A JP 2020144758A JP 2019042550 A JP2019042550 A JP 2019042550A JP 2019042550 A JP2019042550 A JP 2019042550A JP 2020144758 A JP2020144758 A JP 2020144758A
Authority
JP
Japan
Prior art keywords
moving object
feature points
similar
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019042550A
Other languages
Japanese (ja)
Inventor
騰龍 谷
Masatatsu Tani
騰龍 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019042550A priority Critical patent/JP2020144758A/en
Publication of JP2020144758A publication Critical patent/JP2020144758A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像に映る移動物体を検出する精度を高める。【解決手段】特徴点検出部20は、撮像装置12により撮像された画像における特徴点を抽出し、複数の画像に亘る複数の特徴点の動きを検出する。物体検出部24は、動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する。追跡部26は、複数の画像に亘る移動物体の動きを追跡する。物体検出部24は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する。物体検出部24は、類似領域を含むように複数の候補領域を合成し、合成した領域を上記或る画像に映る移動物体の領域として検出する。【選択図】図3PROBLEM TO BE SOLVED: To improve the accuracy of detecting a moving object reflected in an image. A feature point detection unit (20) extracts feature points in an image captured by an image pickup device (12) and detects movements of a plurality of feature points over a plurality of images. The object detection unit 24 detects a moving object reflected in an image by grouping a plurality of feature points having similar movements. The tracking unit 26 tracks the movement of a moving object over a plurality of images. When a plurality of candidate regions of a moving object are detected by grouping a plurality of feature points in a certain image, the object detection unit 24 has a feature point among the pixels around the feature point for each of the plurality of feature points. Extract a similar area in which areas of pixels similar to are communicated with each other. The object detection unit 24 synthesizes a plurality of candidate regions so as to include similar regions, and detects the combined region as a region of a moving object reflected in the certain image. [Selection diagram] Fig. 3

Description

本開示はデータ処理技術に関し、特に移動物体検出装置、移動物体検出方法およびコンピュータプログラムに関する。 The present disclosure relates to data processing techniques, in particular to moving object detection devices, moving object detection methods and computer programs.

画像に映る移動する物体(「移動物体」とも呼ぶ。)を検出する方法として、複数の画像に亘る特徴点の動きベクトルを求め、各特徴点の動きベクトルをもとに複数の特徴点をクラスタリングすることにより、画像上の移動物体の領域を検出する方法がある。 As a method of detecting a moving object (also referred to as a "moving object") reflected in an image, a motion vector of a feature point over a plurality of images is obtained, and a plurality of feature points are clustered based on the motion vector of each feature point. By doing so, there is a method of detecting the area of a moving object on the image.

国際公開第2017/038123号International Publication No. 2017/038123

これまでの移動物体検出方法では、実際には1つの移動物体が映る画像から複数の移動物体を検出してしまい、その結果、移動物体を正しく追跡できないことがあった。 In the conventional moving object detection method, a plurality of moving objects are actually detected from an image showing one moving object, and as a result, the moving object may not be tracked correctly.

本開示はこうした課題に鑑みてなされたものであり、1つの目的は、画像に映る移動物体の検出精度を高めることにある。 The present disclosure has been made in view of these problems, and one object is to improve the detection accuracy of moving objects reflected in an image.

上記課題を解決するために、本発明のある態様の移動物体検出装置は、撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する特徴点検出部と、特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する物体検出部と、複数の画像に亘る、物体検出部により検出された移動物体の動きを追跡する追跡部と、を備える。物体検出部は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を或る画像に映る移動物体の領域として検出する合成部と、を含む。 In order to solve the above problems, the moving object detection device of an embodiment of the present invention extracts feature points in an image captured by the image pickup device, and has a plurality of feature points over a plurality of images captured at different times. A feature point detection unit that detects movement, an object detection unit that detects a moving object that appears in an image by grouping a plurality of feature points with similar movements detected by the feature point detection unit, and a plurality of images. , A tracking unit that tracks the movement of a moving object detected by the object detecting unit. When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, the object detection unit sets each of the plurality of feature points as a feature point among the pixels around the feature point. A plurality of candidate regions are combined so as to include a similar region extraction unit that extracts a similar region in which similar pixel regions are communicated and a similar region extracted by the similar region extraction unit, and the combined region is combined into a certain image. Includes a compositing unit that detects as an area of a moving object that appears.

本発明の別の態様は、移動物体検出方法である。この方法は、撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、動きが類似する複数の特徴点をグループ化することにより画像に映る移動物体を検出する処理と、複数の画像に亘る移動物体の動きを追跡する処理と、をコンピュータが実行し、移動物体を検出する処理は、或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を或る画像に映る移動物体の領域として検出する処理と、を含む。 Another aspect of the present invention is a moving object detection method. This method extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times, and a process of detecting the movement of a plurality of feature points having similar movements. A computer executes a process of detecting a moving object reflected in an image by grouping and a process of tracking the movement of the moving object over a plurality of images, and a plurality of processes of detecting the moving object are performed in a certain image. When a plurality of candidate regions for moving objects are detected by grouping the feature points of, for each of the plurality of feature points, the regions of the pixels around the feature points that are similar to the feature points are communicated with each other. It includes a process of extracting a region and a process of synthesizing a plurality of candidate regions so as to include the extracted similar regions and detecting the combined region as a region of a moving object appearing in a certain image.

なお、以上の構成要素の任意の組合せ、本開示の表現を、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本開示の態様として有効である。 It should be noted that any combination of the above components and the expression of the present disclosure converted between a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present disclosure.

本開示によれば、画像に映る移動物体の検出精度を高めることができる。 According to the present disclosure, it is possible to improve the detection accuracy of a moving object appearing in an image.

車両における移動物体検出の従来例を示す図である。It is a figure which shows the conventional example of the moving object detection in a vehicle. 図2(a)−図2(f)は、移動物体検出の事例を示す図である。2 (a) -FIG. 2 (f) is a diagram showing an example of detecting a moving object. 実施例の運転支援システムの構成を示す図である。It is a figure which shows the structure of the driving support system of an Example. 図4(a)−(d)は、類似領域を抽出する例を示す図である。4 (a)-(d) are diagrams showing an example of extracting similar regions. 図5(a)−(c)は、検知枠を合成する例を示す図である。5 (a)-(c) are diagrams showing an example of synthesizing detection frames.

図1は、車両における移動物体検出の従来例を示す。まず、撮像装置により撮像された画像(言い換えれば映像の各フレーム)内の特徴点(コーナー点等)を検出する。次に、現フレームで検出した特徴点と前フレームで検出した特徴点とを照合することにより特徴点を追跡し、特徴点の動きベクトルを求める(例1)。動きベクトルは、移動ベクトルとも言え、移動距離と移動方向を含む。 FIG. 1 shows a conventional example of detecting a moving object in a vehicle. First, feature points (corner points, etc.) in the image (in other words, each frame of the image) captured by the imaging device are detected. Next, the feature points are tracked by collating the feature points detected in the current frame with the feature points detected in the previous frame, and the motion vector of the feature points is obtained (Example 1). The motion vector can be said to be a motion vector, and includes a travel distance and a travel direction.

次に、近傍範囲にあって、かつ、動きベクトルが同じ複数の特徴点をグループ化し(クラスタリングとも言える)、グループ化された特徴点の集団(以下「特徴点群」とも呼ぶ。)の動きベクトルを算出する(例2)。次に、近傍範囲にあって、かつ、動きベクトルが同じ複数の特徴点群をグループ化する。グループ化した結果を囲む枠(領域とも言える)を移動物体の「検知枠」として出力する(例3)。 Next, a motion vector of a group of feature points (hereinafter, also referred to as "feature point cloud") in which a plurality of feature points in a neighborhood range and having the same motion vector are grouped (also referred to as clustering). Is calculated (Example 2). Next, a plurality of feature point groups that are in the neighborhood range and have the same motion vector are grouped. A frame (which can be said to be an area) surrounding the grouped results is output as a "detection frame" for a moving object (Example 3).

複数のフレームに亘る検知枠の動きを時系列で追跡する。具体的には、検知枠の幅、高さ、画像内での座標等、検知枠を特定可能な要素を使用して検知枠の動きを追跡する(例4)。追跡された検知枠の動きをもとに、次フレームでの検知枠の移動方向、移動距離および移動速度を予測し、その予測結果と、自車位置および自車速度をもとに、衝突予想時間(Time-To-Collision、TTC)を算出する(例5)。TTCを運転制御装置へ入力することにより、TTCに応じた車両制御(緊急ブレーキ等)を実行する。 The movement of the detection frame over multiple frames is tracked in chronological order. Specifically, the movement of the detection frame is tracked using elements that can identify the detection frame, such as the width and height of the detection frame and the coordinates in the image (Example 4). Based on the tracked movement of the detection frame, the movement direction, movement distance, and movement speed of the detection frame in the next frame are predicted, and the collision prediction is based on the prediction result and the own vehicle position and the own vehicle speed. Calculate the time (Time-To-Collision, TTC) (Example 5). By inputting the TTC to the driving control device, vehicle control (emergency braking, etc.) according to the TTC is executed.

図2(a)−図2(f)は、移動物体検出の事例を示す。図2(a)−図2(f)は、車載カメラにより撮像された画像6を含み、他車(すなわち移動物体)が徐々に接近してくる様子を時系列に示している。図2(c)や図2(e)に示すように、他車の像を1つの検知枠7により検出できれば、他車の動きを精度よく追跡することができる。 FIG. 2A-FIG. 2F shows an example of detecting a moving object. FIGS. 2 (a) and 2 (f) include an image 6 captured by an in-vehicle camera, and show in chronological order how another vehicle (that is, a moving object) is gradually approaching. As shown in FIGS. 2 (c) and 2 (e), if the image of the other vehicle can be detected by one detection frame 7, the movement of the other vehicle can be accurately tracked.

しかし、図2(d)や図2(g)等に示すように、他車の像に対する検知枠7が複数に分裂すると、他車の動きを追跡する精度が低下してしまう。また、図2(f)や図2(g)に示すように、他車の特徴点と背景の特徴点とを1つのグループにクラスタリングする場合、検知枠7の大きさが不正確となって、やはり他車の動きを追跡する精度が低下してしまう。 However, as shown in FIGS. 2 (d) and 2 (g), if the detection frame 7 for the image of the other vehicle is divided into a plurality of parts, the accuracy of tracking the movement of the other vehicle is lowered. Further, as shown in FIGS. 2 (f) and 2 (g), when the feature points of another vehicle and the feature points of the background are clustered into one group, the size of the detection frame 7 becomes inaccurate. After all, the accuracy of tracking the movement of other vehicles is reduced.

このような課題を解決するため、実施例では、画像に映る1つの移動物体に対して検出された複数の検知枠を1つの検知枠に統合することで移動物体の検出精度を高める移動物体検出装置を提案する。 In order to solve such a problem, in the embodiment, the moving object detection that improves the detection accuracy of the moving object by integrating a plurality of detection frames detected for one moving object shown in the image into one detection frame. Propose a device.

図3は、実施例の運転支援システム10の構成を示す。運転支援システム10は、車両に搭載されるデータ処理システムであり、撮像装置12、移動物体検出装置14、運転制御装置16を備える。これらの装置は、CAN(Controller Area Network)、イーサネット(登録商標)、MOST(Media Oriented Systems Transport)等、公知の車載ネットワークを介して接続される。 FIG. 3 shows the configuration of the driving support system 10 of the embodiment. The driving support system 10 is a data processing system mounted on a vehicle, and includes an imaging device 12, a moving object detection device 14, and a driving control device 16. These devices are connected via a known in-vehicle network such as CAN (Controller Area Network), Ethernet (registered trademark), and MOST (Media Oriented Systems Transport).

撮像装置12は、車両の周囲を撮像し、撮像結果の画像を出力する。移動物体検出装置14は、撮像装置12から出力された画像に映る移動物体を検出する。運転制御装置16は、移動物体検出装置14から出力された移動物体に関する情報をもとに、車両の挙動を制御する。移動物体検出装置14および運転制御装置16は、ECU(Electronic Control Unit)として実装されてもよい。図3には不図示だが、運転制御装置16は、エンジン、ブレーキ、ステアリング等を制御する複数のECUと接続されてもよい。 The image pickup device 12 takes an image of the surroundings of the vehicle and outputs an image of the image pickup result. The moving object detection device 14 detects a moving object reflected in the image output from the image pickup device 12. The driving control device 16 controls the behavior of the vehicle based on the information about the moving object output from the moving object detecting device 14. The moving object detection device 14 and the operation control device 16 may be mounted as an ECU (Electronic Control Unit). Although not shown in FIG. 3, the operation control device 16 may be connected to a plurality of ECUs that control the engine, brakes, steering, and the like.

実施例では、移動物体検出装置14が出力する移動物体に関する情報は、移動物体に対するTTCを含む。運転制御装置16は、TTCが所定の閾値より小さい場合、具体的には、算出したTTC時間が通常停止時間より短い場合、自動緊急ブレーキ(Autonomous Emergency Braking、AEB)を作動させる。上記の所定の閾値は、車両が走行中に自動緊急ブレーキを作動させずに車両を停止させる場合に、ブレーキの作動開始から停止位置(停止完了)までに要する時間であってもよい。 In the embodiment, the information about the moving object output by the moving object detecting device 14 includes the TTC for the moving object. The operation control device 16 activates the automatic emergency brake (Autonomous Emergency Braking, AEB) when the TTC is smaller than a predetermined threshold value, specifically, when the calculated TTC time is shorter than the normal stop time. The above-mentioned predetermined threshold value may be the time required from the start of operation of the brake to the stop position (completion of stop) when the vehicle is stopped without activating the automatic emergency brake while the vehicle is running.

図3は、移動物体検出装置14の機能ブロックを示すブロック図を含む。移動物体検出装置14は、特徴点検出部20、特徴点バッファ22、物体検出部24、追跡部26、TTC算出部28を備える。 FIG. 3 includes a block diagram showing a functional block of the moving object detection device 14. The moving object detection device 14 includes a feature point detection unit 20, a feature point buffer 22, an object detection unit 24, a tracking unit 26, and a TTC calculation unit 28.

本開示のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU及びメモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。例えば、移動物体検出装置14の複数の機能ブロックに対応する複数のモジュールを含むコンピュータプログラムが、移動物体検出装置14のROMに記憶されてもよい。運転支援システム10のCPUは、このコンピュータプログラムをRAMに読み出して実行することにより、上記複数の機能ブロックの機能を発揮してもよい。 Each block shown in the block diagram of the present disclosure can be realized by an element or a mechanical device such as a CPU and a memory of a computer in terms of hardware, and can be realized by a computer program or the like in terms of software. , Draws a functional block realized by their cooperation. It is understood by those skilled in the art that these functional blocks can be realized in various forms by combining hardware and software. For example, a computer program including a plurality of modules corresponding to a plurality of functional blocks of the moving object detection device 14 may be stored in the ROM of the moving object detection device 14. The CPU of the driving support system 10 may exert the functions of the plurality of functional blocks by reading the computer program into the RAM and executing the program.

特徴点検出部20は、撮像装置12から出力された画像(映像の1フレームとも言える)における特徴点を抽出する。特徴点検出部20は、公知のエッジ検出法やコーナー検出法を用いて特徴点を抽出してもよい。また、特徴点検出部20は、撮像装置12から順次出力された複数の画像(言い換えれば異なる時刻に撮像された複数の画像)に亘る複数の特徴点の動きベクトルを検出する。 The feature point detection unit 20 extracts feature points in an image (which can be said to be one frame of an image) output from the image pickup apparatus 12. The feature point detection unit 20 may extract feature points by using a known edge detection method or corner detection method. Further, the feature point detection unit 20 detects motion vectors of a plurality of feature points over a plurality of images (in other words, a plurality of images captured at different times) sequentially output from the image pickup apparatus 12.

特徴点バッファ22は、撮像装置12から出力された画像ごとに、その特徴点に関するデータ(画像内の座標や特徴量等)を記憶する。 The feature point buffer 22 stores data (coordinates in the image, feature amount, etc.) related to the feature point for each image output from the image pickup device 12.

物体検出部24は、特徴点検出部20により検出された複数の特徴点を特徴点バッファ22から取得し、各特徴点の動きベクトルをもとに複数の特徴点をグループ化することにより画像に映る移動物体を検出する。物体検出部24は、検出した移動物体に関するデータ(例えば後述の統合枠に関するデータ)を追跡部26へ出力する。物体検出部24の詳細な構成は後述する。 The object detection unit 24 acquires a plurality of feature points detected by the feature point detection unit 20 from the feature point buffer 22, and groups the plurality of feature points based on the motion vector of each feature point into an image. Detects reflected moving objects. The object detection unit 24 outputs data related to the detected moving object (for example, data related to the integrated frame described later) to the tracking unit 26. The detailed configuration of the object detection unit 24 will be described later.

追跡部26は、撮像装置12から順次出力された複数の画像に亘る、物体検出部24により検出された移動物体の動きを追跡し、移動物体の移動方向、移動距離および移動速度を算出する。追跡部26は、これらのデータをTTC算出部28へ出力する。 The tracking unit 26 tracks the movement of the moving object detected by the object detecting unit 24 over a plurality of images sequentially output from the imaging device 12, and calculates the moving direction, moving distance, and moving speed of the moving object. The tracking unit 26 outputs these data to the TTC calculation unit 28.

TTC算出部28は、追跡部26により算出された移動物体の移動方向、移動距離および移動速度をもとに、移動物体の将来時点の移動方向、移動距離および移動速度を推定する。TTC算出部28は、その推定結果と、自車位置および自車速度をもとに、移動物体に対するTTCを算出する。TTC算出部28は、自車位置および自車速度を車載ネットワークを介して車載センサ等から取得してもよい。また、特徴点検出部20、追跡部26、TTC算出部28は、公知技術により実現されてもよい。 The TTC calculation unit 28 estimates the moving direction, moving distance, and moving speed of the moving object at a future point in time based on the moving direction, moving distance, and moving speed of the moving object calculated by the tracking unit 26. The TTC calculation unit 28 calculates the TTC for a moving object based on the estimation result, the own vehicle position, and the own vehicle speed. The TTC calculation unit 28 may acquire the own vehicle position and the own vehicle speed from an in-vehicle sensor or the like via an in-vehicle network. Further, the feature point detection unit 20, the tracking unit 26, and the TTC calculation unit 28 may be realized by a known technique.

物体検出部24の構成を詳細に説明する。物体検出部24は、クラスタリング部30、類似領域抽出部32、合成部34を含む。クラスタリング部30は、撮像装置12から出力された画像(ここでは「対象画像」とも呼ぶ。)において、特徴点検出部20により検出された動きベクトルの値が同一または類似(言い換えれば差異が所定の閾値以下)の複数の特徴点をグループ化することにより移動物体の候補領域を検出する。上記閾値は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。 The configuration of the object detection unit 24 will be described in detail. The object detection unit 24 includes a clustering unit 30, a similar region extraction unit 32, and a synthesis unit 34. The clustering unit 30 has the same or similar motion vector values (in other words, a predetermined difference) detected by the feature point detection unit 20 in the image output from the image pickup device 12 (also referred to as “target image” here). A candidate region for a moving object is detected by grouping a plurality of feature points (below the threshold value). An appropriate value may be determined for the above threshold value by the knowledge of the developer or an experiment using the driving support system 10.

類似領域抽出部32は、クラスタリング部30により対象画像から移動物体の候補領域が複数検出された場合、複数の特徴点のそれぞれ(「対象特徴点」とも呼ぶ。)について、対象特徴点の周囲の画素のうち対象特徴点と類似する画素(「類似点」とも呼ぶ。)の領域を連通させた領域(「類似領域」とも呼ぶ。)を対象画像から抽出する。 When a plurality of candidate regions of moving objects are detected from the target image by the clustering unit 30, the similar region extraction unit 32 describes each of the plurality of feature points (also referred to as “target feature points”) around the target feature points. A region (also referred to as a "similar region") in which a region of pixels similar to the target feature point (also referred to as a "similar point") is communicated is extracted from the target image.

具体的には、類似領域抽出部32は、対象画像から新たな類似点を探索する際、対象特徴点または検出済の類似点の周囲にある画素のうち同じ方向にある複数の画素をグループ化し、複数の画素のグループと対象特徴点との相違度を計算する。相違度の計算(言い換えれば類似度の計算)では、テクスチャ、質感、色、コントラスト、エントロピー等を比較してもよい。また、類似領域抽出部32は、公知の空間濃度レベル依存法(SGLDM)、濃度レベル差分法(GLDM)または濃度ヒストグラム法(GLHM)を用いて対象画像のテクスチャ解析を行ってもよい。 Specifically, when searching for a new similarity from the target image, the similarity region extraction unit 32 groups a plurality of pixels in the same direction among the pixels around the target feature point or the detected similarity point. , Calculate the degree of difference between a group of multiple pixels and the target feature point. In the calculation of the degree of difference (in other words, the calculation of the degree of similarity), texture, texture, color, contrast, entropy and the like may be compared. Further, the similar region extraction unit 32 may perform texture analysis of the target image by using a known spatial density level dependence method (SGLDM), density level difference method (GLDM), or density histogram method (GLHM).

図4(a)−(d)は、類似領域を抽出する例を示す。図4(a)−(d)の各ブロック(各格子の点)は、対象画像内の画素を示している。図4(a)に示すように、類似領域抽出部32は、対象特徴点62の上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。実施例では、1つの画素群は3画素とする。画素群の特徴量は、各画素の特徴量の平均値であってもよい。類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群の中心画素を類似点として検出し、図4(a)では類似点64aを検出する。 FIGS. 4 (a)-(d) show an example of extracting a similar region. Each block (point of each grid) in FIGS. 4 (a)-(d) shows a pixel in the target image. As shown in FIG. 4A, the similar region extraction unit 32 calculates the degree of difference between the four pixel groups located on the top, bottom, left, and right of the target feature point 62 and the target feature point 62. In the embodiment, one pixel group is 3 pixels. The feature amount of the pixel group may be an average value of the feature amount of each pixel. The similarity region extraction unit 32 detects the central pixel of the pixel group whose degree of difference from the target feature point 62 is equal to or less than a predetermined threshold value as a similarity point, and detects the similarity point 64a in FIG. 4A.

図4(b)は、図4(a)に続く処理を示す。類似領域抽出部32は、類似点64aの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(b)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64aの右に位置する画素群を特定し、類似点64bを検出する。 FIG. 4B shows the processing following FIG. 4A. The similar region extraction unit 32 calculates the degree of difference between the four pixel groups located on the top, bottom, left, and right of the similarity point 64a and the target feature point 62. In FIG. 4B, the similarity region extraction unit 32 identifies a pixel group located to the right of the similarity point 64a as a pixel group whose degree of difference from the target feature point 62 is equal to or less than a predetermined threshold value, and determines the similarity point 64b. To detect.

図4(c)は、図4(b)に続く処理を示す。類似領域抽出部32は、類似点64bの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(c)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64bの上下および右に位置する画素群を特定し、類似点64c、類似点64dおよび類似点64eを検出する。 FIG. 4C shows the processing following FIG. 4B. The similar region extraction unit 32 calculates the degree of difference between the four pixel groups located on the top, bottom, left, and right of the similarity point 64b and the target feature point 62. In FIG. 4C, the similarity region extraction unit 32 identifies pixel groups located above, below, and to the right of the similarity point 64b as pixel groups whose degree of difference from the target feature point 62 is equal to or less than a predetermined threshold value, and the similarity points. 64c, similarity 64d and similarity 64e are detected.

図4(d)は、図4(c)に続く処理を示す。類似領域抽出部32は、類似点64eの上下左右に位置する4つの画素群と、対象特徴点62との相違度を計算する。図4(d)では、類似領域抽出部32は、対象特徴点62との相違度が所定の閾値以下の画素群として、類似点64eの右に位置する画素群を特定し、類似点64fを検出する。 FIG. 4D shows the processing following FIG. 4C. The similar region extraction unit 32 calculates the degree of difference between the four pixel groups located on the top, bottom, left, and right of the similarity point 64e and the target feature point 62. In FIG. 4D, the similarity region extraction unit 32 identifies a pixel group located to the right of the similarity point 64e as a pixel group whose degree of difference from the target feature point 62 is equal to or less than a predetermined threshold value, and determines the similarity point 64f. To detect.

このように、類似領域抽出部32は、対象特徴点62に対する類似点の探索を繰り返す。類似領域抽出部32は、或る類似点(例えば類似点64f)の上下左右に位置する4つの画素群のいずれも対象特徴点62との相違度が所定の閾値より大きければ、その類似点(例えば類似点64f)を起点とする探索を終了する。図4に関連する説明で用いた相違度の閾値は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。 In this way, the similar region extraction unit 32 repeats the search for similar points with respect to the target feature point 62. If any of the four pixel groups located on the top, bottom, left, and right of a certain similarity point (for example, the similarity point 64f) has a degree of difference from the target feature point 62 larger than a predetermined threshold value, the similarity area extraction unit 32 has the similarity (for example, the similarity point For example, the search starting from the similarity point 64f) is completed. The threshold value of the degree of difference used in the explanation related to FIG. 4 may be appropriately determined by the knowledge of the developer and the experiment using the driving support system 10.

類似領域抽出部32は、対象特徴点62を起点として、探索により検出した1つ以上の類似点を連通させた領域を類似領域として抽出する。図4(a)−(d)の例では、対象特徴点62、類似点64a、類似点64b、類似点64c、類似点64d、類似点64e、類似点64fを結んだ領域を類似領域として抽出する。 The similar region extraction unit 32 extracts a region in which one or more similar points detected by the search are communicated with each other, starting from the target feature point 62, as a similar region. In the example of FIGS. 4A-(d), the region connecting the target feature points 62, the similarity 64a, the similarity 64b, the similarity 64c, the similarity 64d, the similarity 64e, and the similarity 64f is extracted as the similarity region. To do.

図3に戻り、合成部34は、類似領域抽出部32により抽出された類似領域が、クラスタリング部30により検出された複数の候補領域に亘る場合、その類似領域を含むように複数の候補領域を合成する。合成部34は、合成した領域を対象画像に映る移動物体の領域として検出し、移動物体の領域に関する情報を追跡部26へ出力する。移動物体の領域に関する情報は、対象画像において移動物体の領域が占める座標の情報であってもよい。 Returning to FIG. 3, when the similar region extracted by the similar region extraction unit 32 extends over the plurality of candidate regions detected by the clustering unit 30, the synthesis unit 34 sets a plurality of candidate regions so as to include the similar region. Synthesize. The synthesizing unit 34 detects the synthesized area as the area of the moving object reflected in the target image, and outputs information about the area of the moving object to the tracking unit 26. The information about the area of the moving object may be the information of the coordinates occupied by the area of the moving object in the target image.

図5(a)−(c)は、検知枠を合成する例を示す。図5(a)は、クラスタリング部30が対象画像40から検出した検知枠を示している。同図は、1台の車両から検知枠42と検知枠44が検出されたことを示している。図5(b)は、類似領域抽出部32が対象画像40から抽出した類似領域46と類似領域48を示している。 FIGS. 5 (a)-(c) show an example of synthesizing detection frames. FIG. 5A shows a detection frame detected by the clustering unit 30 from the target image 40. The figure shows that the detection frame 42 and the detection frame 44 were detected from one vehicle. FIG. 5B shows a similar region 46 and a similar region 48 extracted from the target image 40 by the similar region extraction unit 32.

類似領域46と類似領域48はともに、検知枠42と検知枠44の両方に跨っている。そのため、合成部34は、図5(c)に示すように、類似領域46と類似領域48の両方を含むように検知枠42と検知枠44を合成し、合成した結果である統合枠50を生成する。合成部34は、対象画像40に映る移動物体の領域を示す情報として、対象画像40における統合枠50の位置を示す情報(座標情報等)を追跡部26へ出力する。 Both the similar region 46 and the similar region 48 straddle both the detection frame 42 and the detection frame 44. Therefore, as shown in FIG. 5C, the synthesis unit 34 synthesizes the detection frame 42 and the detection frame 44 so as to include both the similar region 46 and the similar region 48, and combines the integrated frame 50, which is the result of the synthesis. Generate. The synthesis unit 34 outputs information (coordinate information, etc.) indicating the position of the integrated frame 50 in the target image 40 to the tracking unit 26 as information indicating the region of the moving object reflected in the target image 40.

合成部34は、対象画像40に映る移動物体の領域を検出する際、類似領域抽出部32により抽出された類似領域が所定のサイズより小さい場合、その類似領域を移動物体の領域から除外する。図5(c)の例では、検知枠44の右側部分(すなわち背景が映る部分)からは上記所定のサイズ以上の類似領域が抽出されない。そのため、合成部34は、検知枠44の右側部分を統合枠50から除外する。 When detecting the region of the moving object reflected in the target image 40, the synthesis unit 34 excludes the similar region from the region of the moving object when the similar region extracted by the similar region extraction unit 32 is smaller than a predetermined size. In the example of FIG. 5C, a similar region having a predetermined size or larger is not extracted from the right side portion (that is, the portion where the background is reflected) of the detection frame 44. Therefore, the synthesis unit 34 excludes the right side portion of the detection frame 44 from the integration frame 50.

なお、上記所定のサイズ(すなわち閾値)は、開発者の知見や、運転支援システム10を用いた実験により適切な値が定められてよい。また、合成部34は、統合枠50に含まれない特徴点の情報を削除してもよく、または、統合枠50に含まれない特徴点の情報を追跡部26へ出力することを抑制してもよい。 An appropriate value may be determined for the predetermined size (that is, the threshold value) based on the knowledge of the developer and an experiment using the driving support system 10. Further, the synthesis unit 34 may delete the information of the feature points not included in the integration frame 50, or suppress the output of the information of the feature points not included in the integration frame 50 to the tracking unit 26. May be good.

以上の構成による運転支援システム10の動作を図3を参照しつつ説明する。
車両に搭載された撮像装置12は、車両の周囲の様子を示す映像を移動物体検出装置14へ出力する。特徴点検出部20は、撮像装置12から出力された映像のフレームごとに特徴点を検出し、各特徴点の動きベクトルを検出する。特徴点バッファ22は、映像のフレームごとの特徴点の情報を記憶する。
The operation of the driving support system 10 with the above configuration will be described with reference to FIG.
The image pickup device 12 mounted on the vehicle outputs an image showing the surroundings of the vehicle to the moving object detection device 14. The feature point detection unit 20 detects feature points for each frame of the image output from the image pickup apparatus 12, and detects a motion vector of each feature point. The feature point buffer 22 stores information on feature points for each frame of the video.

クラスタリング部30は、映像のフレームごとに、動きベクトルの値が類似する複数の特徴点をグループ化することにより、各フレームに映る移動物体の候補領域を検出する。クラスタリング部30により検出された移動物体の候補領域が1つであれば、物体検出部24は、その候補領域を移動物体の領域として追跡部26へ出力する。 The clustering unit 30 detects a candidate region of a moving object reflected in each frame by grouping a plurality of feature points having similar motion vector values for each frame of the video. If there is only one candidate region for the moving object detected by the clustering unit 30, the object detection unit 24 outputs the candidate region as a region for the moving object to the tracking unit 26.

一方、或るフレームから移動物体の候補領域が複数検出された場合、類似領域抽出部32は、そのフレームから各特徴点に対する類似領域を抽出する。合成部34は、類似領域が複数の候補領域に跨る場合、類似領域を含むようにそれら複数の候補領域を合成し、合成した領域を当該フレームに映る移動物体の領域として検出する。また、合成部34は、抽出された類似領域が所定サイズより小さい場合、その類似領域を移動物体の領域から除外する。物体検出部24は、合成部34により検出された移動物体の領域を追跡部26へ出力する。 On the other hand, when a plurality of candidate regions for moving objects are detected from a certain frame, the similar region extraction unit 32 extracts similar regions for each feature point from the frame. When the similar region spans a plurality of candidate regions, the synthesizing unit 34 synthesizes the plurality of candidate regions so as to include the similar region, and detects the synthesized region as a region of a moving object reflected in the frame. Further, when the extracted similar region is smaller than a predetermined size, the synthesis unit 34 excludes the similar region from the region of the moving object. The object detection unit 24 outputs the region of the moving object detected by the synthesis unit 34 to the tracking unit 26.

追跡部26は、複数のフレームに亘る移動物体の動きを追跡する。TTC算出部28は、複数のフレームに亘る移動物体の動きをもとに将来時点(例えば次フレーム)での移動物体の動きを推定する。TTC算出部28は、その推定結果をもとに、移動物体に対するTTCを算出して運転制御装置16へ出力する。運転制御装置16は、TTCをもとに車両の挙動を制御し、例えば、衝突回避のために緊急ブレーキを作動させる。 The tracking unit 26 tracks the movement of a moving object over a plurality of frames. The TTC calculation unit 28 estimates the movement of the moving object at a future time point (for example, the next frame) based on the movement of the moving object over a plurality of frames. The TTC calculation unit 28 calculates the TTC for the moving object based on the estimation result and outputs it to the operation control device 16. The driving control device 16 controls the behavior of the vehicle based on the TTC, and activates, for example, an emergency brake for collision avoidance.

実施例の移動物体検出装置14によると、画像に映る移動物体を検出する精度を高めることができ、言い換えれば、画像から移動物体の領域を正しく検出できる。例えば、1つの移動物体を複数の移動物体として検出してしまうことを抑制できる。この結果、時系列での移動物体の動きを正しく検出でき、また、将来時点での移動物体の動きを推定する精度を高めることができる。 According to the moving object detection device 14 of the embodiment, the accuracy of detecting the moving object reflected in the image can be improved, in other words, the region of the moving object can be correctly detected from the image. For example, it is possible to prevent one moving object from being detected as a plurality of moving objects. As a result, the movement of the moving object in the time series can be correctly detected, and the accuracy of estimating the movement of the moving object at a future point in time can be improved.

また、移動物体検出装置14によると、小さい類似領域を移動物体の領域から除外することにより、移動物体以外の特徴点領域(背景領域等)を誤って移動物体と検出することを抑制できる。これにより、移動物体の検出精度を一層高めることができる。さらにまた、類似領域の抽出において、1つの画素ではなく画素のグループと特徴点とを比較する。これにより、類似判定(言い換えれば相違度判定)の計算量を低減することができる。 Further, according to the moving object detection device 14, by excluding a small similar region from the region of the moving object, it is possible to prevent the feature point region (background region or the like) other than the moving object from being mistakenly detected as a moving object. As a result, the detection accuracy of moving objects can be further improved. Furthermore, in the extraction of similar regions, a group of pixels instead of one pixel is compared with the feature points. As a result, the amount of calculation for similarity determination (in other words, difference degree determination) can be reduced.

以上、本開示を実施例をもとに説明した。この実施例は例示であり、実施例の各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。 The present disclosure has been described above based on the examples. This embodiment is an example, and it will be understood by those skilled in the art that various modifications are possible for each component of the embodiment or a combination of each processing process, and that such modifications are also within the scope of the present disclosure. is there.

上記実施例の移動物体検出装置14は、移動物体の時系列での動きを追跡して、その追跡結果をもとに移動物体に対するTTCを算出し、TTCを運転制御装置16へ出力した。変形例として、移動物体検出装置14は、移動物体の時系列での動きを追跡した結果を外部装置へ出力してもよく、その外部装置が、TTCの算出等、追跡結果に基づく所定のデータ処理を実行してもよい。 The moving object detection device 14 of the above embodiment tracks the movement of the moving object in time series, calculates the TTC for the moving object based on the tracking result, and outputs the TTC to the operation control device 16. As a modification, the moving object detection device 14 may output the result of tracking the movement of the moving object in time series to an external device, and the external device may output predetermined data based on the tracking result such as calculation of TTC. The process may be executed.

上記実施例の移動物体検出装置14は車両に搭載された。変形例として、移動物体検出装置14(または移動物体検出装置14の機能)は、車両以外の装置であって、移動物体に関するデータ処理を実行する装置(サーバ等)に搭載されてもよい。また、移動物体検出装置14は、移動物体検出装置14を搭載した装置の外部に設置された撮像装置12(例えば建物に固定された監視カメラ等)により撮像された画像を通信網を介して受け付けてもよく、その画像から移動物体を検出してもよい。 The moving object detection device 14 of the above embodiment was mounted on a vehicle. As a modification, the moving object detection device 14 (or the function of the moving object detection device 14) may be mounted on a device (server or the like) that is a device other than the vehicle and executes data processing related to the moving object. Further, the moving object detection device 14 accepts an image captured by an image pickup device 12 (for example, a surveillance camera fixed to a building) installed outside the device equipped with the moving object detection device 14 via a communication network. Alternatively, a moving object may be detected from the image.

上述した実施例および変形例の任意の組み合わせもまた本開示の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。 Any combination of the examples and modifications described above is also useful as an embodiment of the present disclosure. The new embodiments resulting from the combination have the effects of the combined examples and the modifications. It is also understood by those skilled in the art that the functions to be fulfilled by each of the constituent elements described in the claims are realized by a single component or a cooperation thereof shown in the examples and modifications.

実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する特徴点検出部と、
前記特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する物体検出部と、
前記複数の画像に亘る、前記物体検出部により検出された移動物体の動きを追跡する追跡部と、
を備え、
前記物体検出部は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、
前記類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する合成部と、を含む、
移動物体検出装置。
[項目2]
前記合成部は、前記類似領域抽出部により抽出された類似領域が所定のサイズより小さい場合、その類似領域を前記移動物体の領域から除外する、
項目1に記載の移動物体検出装置。
[項目3]
前記類似領域抽出部は、特徴点または前記類似する画素の周囲にある画素のうち同じ方向にある複数の画素をグループ化し、前記複数の画素のグループと特徴点との相違度を計算する、
項目1または2に記載の移動物体検出装置。
[項目4]
前記撮像装置は、車両で用いられる、
項目1に記載の移動物体検出装置。
[項目5]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータが実行し、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
移動物体検出方法。
[項目6]
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータに実行させ、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
コンピュータプログラム。
The techniques described in the examples and modifications may be specified by the following items.
[Item 1]
A feature point detection unit that extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times.
An object detection unit that detects a moving object reflected in the image by grouping a plurality of feature points having similar movements detected by the feature point detection unit.
A tracking unit that tracks the movement of a moving object detected by the object detection unit over the plurality of images, and a tracking unit.
With
The object detection unit
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points A similar area extraction unit that extracts similar areas that communicate the areas,
It includes a compositing unit that synthesizes a plurality of candidate regions so as to include the similar regions extracted by the similar region extraction unit and detects the synthesized region as a region of a moving object appearing in the certain image.
Moving object detector.
[Item 2]
When the similar region extracted by the similar region extraction unit is smaller than a predetermined size, the synthesis unit excludes the similar region from the region of the moving object.
The moving object detection device according to item 1.
[Item 3]
The similar region extraction unit groups a plurality of pixels in the same direction among the pixel around the feature point or the similar pixel, and calculates the degree of difference between the group of the plurality of pixels and the feature point.
The moving object detection device according to item 1 or 2.
[Item 4]
The image pickup device is used in a vehicle.
The moving object detection device according to item 1.
[Item 5]
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
The computer runs,
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Moving object detection method.
[Item 6]
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
Let the computer run
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Computer program.

10 運転支援システム、 12 撮像装置、 14 移動物体検出装置、 20 特徴点検出部、 24 物体検出部、 26 追跡部、 32 類似領域抽出部、 34 合成部。 10 Driving support system, 12 Imaging device, 14 Moving object detection device, 20 Feature point detection section, 24 Object detection section, 26 Tracking section, 32 Similar area extraction section, 34 Synthesis section.

Claims (6)

撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する特徴点検出部と、
前記特徴点検出部により検出された動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する物体検出部と、
前記複数の画像に亘る、前記物体検出部により検出された移動物体の動きを追跡する追跡部と、
を備え、
前記物体検出部は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する類似領域抽出部と、
前記類似領域抽出部により抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する合成部と、を含む、
移動物体検出装置。
A feature point detection unit that extracts feature points in an image captured by an imaging device and detects the movement of a plurality of feature points over a plurality of images captured at different times.
An object detection unit that detects a moving object reflected in the image by grouping a plurality of feature points having similar movements detected by the feature point detection unit.
A tracking unit that tracks the movement of a moving object detected by the object detection unit over the plurality of images, and a tracking unit.
With
The object detection unit
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points A similar area extraction unit that extracts similar areas that communicate the areas,
It includes a compositing unit that synthesizes a plurality of candidate regions so as to include the similar regions extracted by the similar region extraction unit and detects the synthesized region as a region of a moving object appearing in the certain image.
Moving object detector.
前記合成部は、前記類似領域抽出部により抽出された類似領域が所定のサイズより小さい場合、その類似領域を前記移動物体の領域から除外する、
請求項1に記載の移動物体検出装置。
When the similar region extracted by the similar region extraction unit is smaller than a predetermined size, the synthesis unit excludes the similar region from the region of the moving object.
The moving object detection device according to claim 1.
前記類似領域抽出部は、特徴点または前記類似する画素の周囲にある画素のうち同じ方向にある複数の画素をグループ化し、前記複数の画素のグループと特徴点との相違度を計算する、
請求項1または2に記載の移動物体検出装置。
The similar region extraction unit groups a plurality of pixels in the same direction among the pixel around the feature point or the similar pixel, and calculates the degree of difference between the group of the plurality of pixels and the feature point.
The moving object detection device according to claim 1 or 2.
前記撮像装置は、車両で用いられる、
請求項1に記載の移動物体検出装置。
The image pickup device is used in a vehicle.
The moving object detection device according to claim 1.
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータが実行し、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
移動物体検出方法。
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
The computer runs,
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Moving object detection method.
撮像装置により撮像された画像における特徴点を抽出し、異なる時刻に撮像された複数の画像に亘る複数の特徴点の動きを検出する処理と、
動きが類似する複数の特徴点をグループ化することにより前記画像に映る移動物体を検出する処理と、
前記複数の画像に亘る移動物体の動きを追跡する処理と、
をコンピュータに実行させ、
前記移動物体を検出する処理は、
或る画像において複数の特徴点をグループ化することにより移動物体の候補領域が複数検出された場合、前記複数の特徴点のそれぞれについて、特徴点の周囲の画素のうち特徴点と類似する画素の領域を連通させた類似領域を抽出する処理と、
抽出された類似領域を含むように複数の候補領域を合成し、合成した領域を前記或る画像に映る移動物体の領域として検出する処理と、を含む、
コンピュータプログラム。
A process of extracting feature points in an image captured by an imaging device and detecting the movement of a plurality of feature points over a plurality of images captured at different times.
A process of detecting a moving object appearing in the image by grouping a plurality of feature points having similar movements, and
The process of tracking the movement of a moving object over a plurality of images, and
Let the computer run
The process of detecting the moving object is
When a plurality of candidate regions for moving objects are detected by grouping a plurality of feature points in a certain image, for each of the plurality of feature points, among the pixels around the feature points, pixels similar to the feature points The process of extracting similar areas that communicate the areas, and
A process of synthesizing a plurality of candidate regions so as to include an extracted similar region and detecting the combined region as a region of a moving object reflected in the certain image is included.
Computer program.
JP2019042550A 2019-03-08 2019-03-08 Moving object detector, moving object detection method, and computer program Pending JP2020144758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019042550A JP2020144758A (en) 2019-03-08 2019-03-08 Moving object detector, moving object detection method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019042550A JP2020144758A (en) 2019-03-08 2019-03-08 Moving object detector, moving object detection method, and computer program

Publications (1)

Publication Number Publication Date
JP2020144758A true JP2020144758A (en) 2020-09-10

Family

ID=72354300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019042550A Pending JP2020144758A (en) 2019-03-08 2019-03-08 Moving object detector, moving object detection method, and computer program

Country Status (1)

Country Link
JP (1) JP2020144758A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221750A (en) * 2021-05-13 2021-08-06 杭州飞步科技有限公司 Vehicle tracking method, device, equipment and storage medium
WO2022044727A1 (en) 2020-08-28 2022-03-03 株式会社カネカ Method for purifying useful substance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022044727A1 (en) 2020-08-28 2022-03-03 株式会社カネカ Method for purifying useful substance
CN113221750A (en) * 2021-05-13 2021-08-06 杭州飞步科技有限公司 Vehicle tracking method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
CN112997187B (en) Two-dimensional object boundary box information estimation based on bird's eye view point cloud
CN110163904B (en) Object labeling method, movement control method, device, equipment and storage medium
US12315181B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
Hu et al. Moving object detection and tracking from video captured by moving camera
EP3093820B1 (en) Vehicle-surroundings recognition device
JP5782088B2 (en) System and method for correcting distorted camera images
WO2020104423A1 (en) Method and apparatus for data fusion of lidar data and image data
JP7135665B2 (en) VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM
Wang et al. Overtaking vehicle detection using dynamic and quasi-static background modeling
CN110268417B (en) Method for identifying objects in camera images
KR20200132468A (en) Advanced driver assist device and method of detecting object in the same
US20120257056A1 (en) Image processing apparatus, image processing method, and image processing program
CN113096151B (en) Method and apparatus for detecting motion information of object, device and medium
JP2008046903A (en) Object number detection device and object number detection method
EP4213128A1 (en) Obstacle detection device, obstacle detection system, and obstacle detection method
US11593949B2 (en) Method of detecting moving objects via a moving camera, and related processing system, device and computer-program product
JP6436357B2 (en) Pedestrian motion identification device for vehicle
WO2010109831A1 (en) Drive recorder
CN114943750B (en) Target tracking method, device and electronic equipment
KR102359083B1 (en) Device for detecting moving object and method thereof
JP2020144758A (en) Moving object detector, moving object detection method, and computer program
US10417507B2 (en) Freespace detection apparatus and freespace detection method
EP4414746A1 (en) Multi-object detection and tracking
WO2017077261A1 (en) A monocular camera cognitive imaging system for a vehicle
JP2016004382A (en) Motion information estimation device