JP6384082B2 - Moving object detection apparatus, moving object detection method, and program - Google Patents

Moving object detection apparatus, moving object detection method, and program Download PDF

Info

Publication number
JP6384082B2
JP6384082B2 JP2014063957A JP2014063957A JP6384082B2 JP 6384082 B2 JP6384082 B2 JP 6384082B2 JP 2014063957 A JP2014063957 A JP 2014063957A JP 2014063957 A JP2014063957 A JP 2014063957A JP 6384082 B2 JP6384082 B2 JP 6384082B2
Authority
JP
Japan
Prior art keywords
region
moving object
image
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014063957A
Other languages
Japanese (ja)
Other versions
JP2015185138A (en
Inventor
村下 君孝
君孝 村下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014063957A priority Critical patent/JP6384082B2/en
Publication of JP2015185138A publication Critical patent/JP2015185138A/en
Application granted granted Critical
Publication of JP6384082B2 publication Critical patent/JP6384082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動物体検出装置、移動物体検出方法、及びプログラムに関する。   The present invention relates to a moving object detection device, a moving object detection method, and a program.

自動車産業において、「事故を起こさない自動車」を提供することは、究極の目標の1つである。この目標の達成のために、駐車場や見通しの悪い交差点での発進時に前方又は左右の死角を確認するためのモニタ装置を備えた車両が提案されている。また、駐車場で後退発進する際に車両の後方を確認するためのモニタ装置として、バックカメラを備えた車両も提案されている。   Providing “cars that do not cause accidents” in the automobile industry is one of the ultimate goals. In order to achieve this goal, there has been proposed a vehicle equipped with a monitor device for confirming a blind spot on the front or left and right when starting at a parking lot or an intersection with poor visibility. In addition, a vehicle equipped with a back camera has been proposed as a monitor device for confirming the rear of the vehicle when starting backward in a parking lot.

死角を確認するモニタ装置は、プリズムミラー又は魚眼カメラを用いて、ドライバが目視し難い車両の前方下部又は側方の画像を撮像し、画面に表示する。バックカメラも、魚眼レンズ等を用いて車両の後方の広角画像を撮像し、画面に表示する。   The monitor device for confirming the blind spot uses a prism mirror or a fisheye camera to capture an image of the front lower part or the side of the vehicle that is difficult for the driver to see and displays the image on the screen. The back camera also captures a wide-angle image behind the vehicle using a fisheye lens or the like and displays it on the screen.

図1は、バックカメラを用いたモニタ装置の例を示している。車両101が後退発進する際に、バックカメラ102は、車両101の後方の撮像範囲103を撮像し、図2に示すように、画面に表示する。これにより、ドライバは、後方左手から撮像範囲103に入ってくる車両104を認識して、衝突を回避することができる。   FIG. 1 shows an example of a monitor device using a back camera. When the vehicle 101 starts moving backward, the back camera 102 images the imaging range 103 behind the vehicle 101 and displays it on the screen as shown in FIG. Thereby, the driver can recognize the vehicle 104 entering the imaging range 103 from the rear left hand and avoid a collision.

さらに、車両の周囲の状況から他の物体との衝突の危険性をドライバに通知することで事故を抑制する移動物検知システムが提案されている(例えば、非特許文献1を参照)。この移動物検知システムは、ドライバによる安全確認をサポートするため、カメラが撮像した映像を画像処理し、移動物体を検知した場合、ドライバに通知して注意を促す。   Furthermore, a moving object detection system that suppresses an accident by notifying a driver of the danger of a collision with another object from the situation around the vehicle has been proposed (see, for example, Non-Patent Document 1). In order to support safety confirmation by the driver, this moving object detection system performs image processing on the image captured by the camera, and notifies the driver to call attention when a moving object is detected.

移動物体の検出には、オプティカルフローが使用されることが多い。オプティカルフローに基づく移動物体検出方法では、画像内の各画素の特徴量が計算され、所定の条件に合致する特徴量を持つ画素が特徴点として認識され、その特徴点の時間変動が画像内での特徴点の移動として計算される。所定の条件としては、例えば、特徴量が一定値以上であること等が用いられる。   An optical flow is often used for detecting a moving object. In the moving object detection method based on the optical flow, the feature amount of each pixel in the image is calculated, the pixel having the feature amount that meets a predetermined condition is recognized as a feature point, and the temporal variation of the feature point is detected in the image. It is calculated as the movement of the feature point. As the predetermined condition, for example, that the feature amount is equal to or greater than a certain value is used.

車両が静止しているとき、画像内の静止物体の特徴点はすべて静止しているため、特徴点の移動(フロー)が検出された場合、その特徴点を移動物体の特徴点とみなすことができる。車両から遠ざかる移動物体のフローは、画像の中心から外側へ向かう外向きフローとして検出され、車両に近づく移動物体のフローは、画像の外側から中心へ向かう内向きフローとして検出される。このようなフローを検出することで、映像に移動物体が映っているか否かを判定することができる。   When the vehicle is stationary, all the feature points of the stationary object in the image are stationary. Therefore, when the movement of the feature point (flow) is detected, the feature point can be regarded as the feature point of the moving object. it can. The flow of a moving object that moves away from the vehicle is detected as an outward flow that goes outward from the center of the image, and the flow of a moving object that approaches the vehicle is detected as an inward flow that goes from the outside of the image to the center. By detecting such a flow, it can be determined whether or not a moving object is shown in the video.

一方、車両が移動しているときは、それに伴って静止物体の特徴点も移動する。例えば、車両がカメラの前方へ向かって直進しているとき、静止物体、車両から遠ざかる移動物体、及び車両に近づく移動物体のすべてのフローが外向きフローとして検出される場合がある。この場合でも、特徴点の移動が車両の移動によって生じたものと等しいか否かを判別することで、その特徴点が静止物体か移動物体かを判別することができる。   On the other hand, when the vehicle is moving, the feature point of the stationary object is moved accordingly. For example, when the vehicle is traveling straight ahead of the camera, all flows of a stationary object, a moving object moving away from the vehicle, and a moving object approaching the vehicle may be detected as an outward flow. Even in this case, it is possible to determine whether the feature point is a stationary object or a moving object by determining whether the movement of the feature point is equal to that caused by the movement of the vehicle.

画像内の非検知領域としてマスク領域を設定し、マスク領域では画像処理を行わないようにする画像処理システムも知られている(例えば、特許文献1を参照)。   There is also known an image processing system in which a mask area is set as a non-detection area in an image and image processing is not performed in the mask area (see, for example, Patent Document 1).

移動体の周囲の状況を撮像した画像の限定した検出領域を探索して他の移動体を検出し、両移動体間における衝突の可能性を予測して警報を発する衝突防止装置も知られている(例えば、特許文献2を参照)。   There is also known a collision prevention device that searches for a limited detection area of an image obtained by imaging the situation around a moving body, detects other moving bodies, predicts the possibility of a collision between both moving bodies, and issues an alarm. (For example, refer to Patent Document 2).

立体観測不能領域内に、移動情報の共通する画素が縦方向に連続する立体特徴領域が含まれる場合、その立体特徴領域に対応する物体は平面体であると判定する車両用画像処理装置も知られている(例えば、特許文献3を参照)。   A vehicle image processing apparatus that determines that an object corresponding to a stereoscopic feature area is a planar body when the stereoscopic feature impossible area includes a stereoscopic feature area in which pixels having common movement information are continuous in the vertical direction is known. (For example, see Patent Document 3).

特開2010−9134号公報JP 2010-9134 A 特開2000−285245号公報JP 2000-285245 A 特開2009−187181号公報JP 2009-187181 A

“移動物検知”、[online]、日産自動車株式会社、[平成26年2月14日検索]、インターネット<URL:http://www.nissan-global.com/JP/TECHNOLOGY/OVERVIEW/mod.html>“Moving object detection”, [online], Nissan Motor Co., Ltd., [Search on February 14, 2014], Internet <URL: http://www.nissan-global.com/JP/TECHNOLOGY/OVERVIEW/mod. html>

上述した従来の移動物体検出方法には、以下のような問題がある。
オプティカルフローに基づく移動物体検出方法によれば、車両が移動しているときであっても、車両の移動の向き(前進、後退、右旋回、左旋回等)と速度が分かれば、大まかな背景の動きベクトルが分かる。背景の動きベクトルが分かれば、車両の移動に伴う背景の移動と他の移動物体とを分離することができる。
The conventional moving object detection method described above has the following problems.
According to the moving object detection method based on the optical flow, even when the vehicle is moving, if the direction of movement of the vehicle (forward, backward, right turn, left turn, etc.) and the speed are known, it can be roughly determined. The background motion vector is known. If the background motion vector is known, it is possible to separate the background movement and other moving objects as the vehicle moves.

しかし、特徴点の追跡に失敗すると、静止物体の特徴点であっても背景の動きベクトルとは異なる動きを示すことがあり、背景の静止物体を移動物体として誤検出する可能性がある。例えば、背景の地面上に金網状の蓋(グレーチング)があるシーンでは、車両が直進や旋回を行うと、以下の理由により、誤追跡が生じることがある。
(1)網の縦線と横線とが交差する交点では、縦方向及び横方向のいずれのエッジ特徴量も大きいため、コーナー抽出オペレータにより特徴点として抽出されやすい。
(2)網は同じ形状が繰り返される幾何学模様であり、ある交点の近傍領域には類似する複数の交点が存在するため、特徴点を追跡する際に、別の交点を誤って同じ交点とみなす誤追跡が生じやすい。
However, if the tracking of the feature points fails, even the feature points of the stationary object may show a motion different from the background motion vector, and the background stationary object may be erroneously detected as a moving object. For example, in a scene with a wire mesh lid (grating) on the background ground, if the vehicle goes straight or turns, mistracking may occur for the following reasons.
(1) At the intersection where the vertical line and the horizontal line of the mesh intersect, the edge feature amount in both the vertical direction and the horizontal direction is large, so that it is easily extracted as a feature point by the corner extraction operator.
(2) The net is a geometric pattern in which the same shape is repeated, and there are a plurality of similar intersections in the vicinity of an intersection. Therefore, when tracking a feature point, another intersection is mistakenly identified as the same intersection. Mistaken tracking is likely to occur.

このように、特徴点の誤追跡が生じると、背景の動きベクトルとは異なるフローが生成されるため、移動物体が存在しないにもかかわらず、移動物体が存在すると判定されてしまう。   As described above, when a feature point is mistracked, a flow different from the background motion vector is generated, so that it is determined that a moving object exists even though the moving object does not exist.

なお、かかる問題は、背景にグレーチングが含まれる場合に限らず、他の幾何学模様が含まれる場合においても生ずるものである。また、かかる問題は、路面上を走行する車両に限らず、空間内を移動する他の移動体においても生ずるものである。   Such a problem occurs not only when the background includes a grating but also when another geometric pattern is included. In addition, such a problem occurs not only in a vehicle traveling on a road surface but also in other moving bodies that move in space.

1つの側面において、本発明の目的は、撮像装置により撮像される画像から移動物体を検出する際の誤検出を抑制することである。   In one aspect, an object of the present invention is to suppress erroneous detection when a moving object is detected from an image captured by an imaging device.

1つの案では、移動物体検出装置は、記憶部及び判定部を含む。
記憶部は、撮像装置により撮像される画像を記憶する。判定部は、記憶部を参照して、画像内の第1の領域が第1の領域の周辺に存在する第2の領域と相関しているか否かを判定する。第1の領域が第2の領域と相関している場合、判定部は、その画像に基づく移動物体の検出において第1の領域と画像内の第1の領域以外の第3の領域とを区別するための制御情報を出力する。
In one plan, the moving object detection device includes a storage unit and a determination unit.
The storage unit stores an image captured by the imaging device. The determination unit refers to the storage unit to determine whether or not the first region in the image is correlated with the second region existing around the first region. When the first area is correlated with the second area, the determination unit distinguishes the first area from the third area other than the first area in the image in detecting the moving object based on the image. Control information to output.

実施形態の移動物体検出装置によれば、撮像装置により撮像される画像から移動物体を検出する際の誤検出を抑制することができる。   According to the moving object detection device of the embodiment, it is possible to suppress erroneous detection when a moving object is detected from an image captured by the imaging device.

バックカメラを用いたモニタ装置を示す図である。It is a figure which shows the monitor apparatus using a back camera. モニタ装置の画像を示す図である。It is a figure which shows the image of a monitor apparatus. オプティカルフロー計算処理のフローチャートである。It is a flowchart of an optical flow calculation process. 特徴点の誤追跡を示す図である。It is a figure which shows the mistracking of a feature point. 移動物体検出装置の機能的構成図である。It is a functional block diagram of a moving object detection apparatus. 画像処理のフローチャートである。It is a flowchart of an image process. 移動物体検出装置の第1の具体例を示す図である。It is a figure which shows the 1st specific example of a moving object detection apparatus. 判定部の機能的構成図である。It is a functional block diagram of a determination part. 第1の移動物体検出処理のフローチャートである。It is a flowchart of a 1st moving object detection process. 追跡困難領域特定処理のフローチャートである。It is a flowchart of a tracking difficult area | region specific process. 対象画素の近傍領域を示す図である。It is a figure which shows the vicinity area | region of an object pixel. 近傍領域の相違度を示す図である。It is a figure which shows the difference degree of a near region. 移動物体検出装置の第2の具体例を示す図である。It is a figure which shows the 2nd specific example of a moving object detection apparatus. 第2の移動物体検出処理のフローチャートである。It is a flowchart of a 2nd moving object detection process. 移動物体検出装置の第3の具体例を示す図である。It is a figure which shows the 3rd specific example of a moving object detection apparatus. 第3の移動物体検出処理のフローチャートである。It is a flowchart of a 3rd moving object detection process. 移動物体検出装置の第4の具体例を示す図である。It is a figure which shows the 4th specific example of a moving object detection apparatus. 第4の移動物体検出処理のフローチャートである。It is a flowchart of a 4th moving object detection process. 情報処理装置のハードウェア構成図である。It is a hardware block diagram of information processing apparatus.

以下、図面を参照しながら、実施形態を詳細に説明する。
オプティカルフローに基づく移動物体検出方法によれば、車両が移動しているときであっても、車両の移動の向き(前進、後退、右旋回、左旋回等)と速度が分かれば、大まかな背景の動きベクトルが分かる。背景の動きベクトルが分かれば、車両の移動に伴う背景の移動と他の移動物体とを分離することができる。
Hereinafter, embodiments will be described in detail with reference to the drawings.
According to the moving object detection method based on the optical flow, even when the vehicle is moving, if the direction of movement of the vehicle (forward, backward, right turn, left turn, etc.) and the speed are known, it can be roughly determined. The background motion vector is known. If the background motion vector is known, it is possible to separate the background movement and other moving objects as the vehicle moves.

図3は、画像処理装置によるオプティカルフロー計算処理の例を示すフローチャートである。まず、画像処理装置は、コーナー抽出オペレータを用いて、映像に含まれる対象フレームの画像から物体の角(コーナー)の画素を抽出し、抽出した画素を特徴点として記録する(ステップ301)。   FIG. 3 is a flowchart illustrating an example of an optical flow calculation process performed by the image processing apparatus. First, the image processing apparatus extracts a corner pixel of an object from an image of a target frame included in a video using a corner extraction operator, and records the extracted pixel as a feature point (step 301).

次に、画像処理装置は、対象フレームの画像内の特徴点を含む領域と後続フレームの画像とを比較し、抽出した特徴点が後続フレームの画像内でどこに位置しているかを計算することで、特徴点を追跡する(ステップ302)。例えば、対象フレームがi番目のフレーム(iは1以上の整数)である場合、i+1番目のフレーム、i+2番目のフレームのように、対象フレームより所定間隔だけ後に撮像されたフレームが、後続フレームとして用いられる。   Next, the image processing apparatus compares the region including the feature point in the image of the target frame with the image of the subsequent frame, and calculates where the extracted feature point is located in the image of the subsequent frame. The feature points are tracked (step 302). For example, when the target frame is the i-th frame (i is an integer equal to or greater than 1), frames captured after a predetermined interval from the target frame, such as the i + 1-th frame and the i + 2-th frame, are used as subsequent frames. Used.

次に、画像処理装置は、追跡終了条件が満たされたか否かを判定し(ステップ303)、追跡終了条件が満たされていない場合(ステップ303,NO)、後続フレームを新たな対象フレームとして用いてステップ302の処理を繰り返す。そして、追跡終了条件が満たされた場合(ステップ303,YES)、画像処理装置は、処理を終了する。   Next, the image processing apparatus determines whether or not the tracking end condition is satisfied (step 303). When the tracking end condition is not satisfied (step 303, NO), the subsequent frame is used as a new target frame. Step 302 is repeated. When the tracking end condition is satisfied (step 303, YES), the image processing apparatus ends the process.

画像内の特徴点の位置を所定間隔で追跡することで、特徴点の位置の時間変動に基づいて、その特徴点を有する物体の動きを求めることができる。そして、背景の動きベクトルに基づいて、静止物体の特徴点の動きと移動物体の特徴点の動きとを分離することで、移動物体を検出することができる。   By tracking the position of the feature point in the image at a predetermined interval, the motion of the object having the feature point can be obtained based on the temporal variation of the position of the feature point. Then, the moving object can be detected by separating the movement of the feature point of the stationary object and the movement of the feature point of the moving object based on the motion vector of the background.

しかし、特徴点の追跡に失敗すると、静止物体の特徴点であっても背景の動きベクトルとは異なる動きを示すことがあり、背景の静止物体を移動物体として誤検出する可能性がある。例えば、背景の地面上に金網状の蓋(グレーチング)があるシーンでは、車両が直進や旋回を行うと、以下の理由により、誤追跡が生じることがある。
(1)網の縦線と横線とが交差する交点では、縦方向及び横方向のいずれのエッジ特徴量も大きいため、コーナー抽出オペレータにより特徴点として抽出されやすい。
(2)網は同じ形状が繰り返される幾何学模様であり、ある交点の近傍領域には類似する複数の交点が存在するため、特徴点を追跡する際に、別の交点を誤って同じ交点とみなす誤追跡が生じやすい。
However, if the tracking of the feature points fails, even the feature points of the stationary object may show a motion different from the background motion vector, and the background stationary object may be erroneously detected as a moving object. For example, in a scene with a wire mesh lid (grating) on the background ground, if the vehicle goes straight or turns, mistracking may occur for the following reasons.
(1) At the intersection where the vertical line and the horizontal line of the mesh intersect, the edge feature amount in both the vertical direction and the horizontal direction is large, so that it is easily extracted as a feature point by the corner extraction operator.
(2) The net is a geometric pattern in which the same shape is repeated, and there are a plurality of similar intersections in the vicinity of an intersection. Therefore, when tracking a feature point, another intersection is mistakenly identified as the same intersection. Mistaken tracking is likely to occur.

図4は、このような誤追跡の例を示している。対象フレーム401にグレーチング411の画像が含まれている場合、グレーチング411の複数の交点が特徴点として抽出される。それらの交点のうち、対象フレーム401の下端から距離Dだけ離れている1つの交点412が追跡対象となった場合、後続フレーム402の画像内において、下端から距離Dだけ離れた位置の近傍領域414内で対応する交点が探索される。   FIG. 4 shows an example of such mistracking. When the image of the grating 411 is included in the target frame 401, a plurality of intersections of the grating 411 are extracted as feature points. When one intersection point 412 that is separated from the lower end of the target frame 401 by the distance D among the intersection points becomes a tracking target, a neighboring region 414 at a position that is separated from the lower end by the distance D in the image of the subsequent frame 402. The corresponding intersection point is searched for.

その結果、交点412の代わりに、近傍領域414に存在する別の交点413が交点412であると誤認識されることがある。この場合、交点412の正しい動きベクトル415の代わりに、交点413へ向かう動きベクトル416が、交点412のフローとして生成される。   As a result, instead of the intersection 412, another intersection 413 existing in the neighborhood 414 may be erroneously recognized as the intersection 412. In this case, instead of the correct motion vector 415 at the intersection 412, a motion vector 416 toward the intersection 413 is generated as a flow of the intersection 412.

このように、特徴点の誤追跡が生じると、背景の動きベクトルとは異なるフローが生成されるため、移動物体が存在しないにもかかわらず、移動物体が存在すると判定されてしまう。   As described above, when a feature point is mistracked, a flow different from the background motion vector is generated, so that it is determined that a moving object exists even though the moving object does not exist.

なお、かかる問題は、背景にグレーチングが含まれる場合に限らず、他の幾何学模様が含まれる場合においても生ずるものである。また、かかる問題は、路面上を走行する車両に限らず、空間内を移動する他の移動体においても生ずるものである。   Such a problem occurs not only when the background includes a grating but also when another geometric pattern is included. In addition, such a problem occurs not only in a vehicle traveling on a road surface but also in other moving bodies that move in space.

図5は、実施形態の移動物体検出装置の機能的構成例を示している。図5の移動物体検出装置501は、記憶部511及び判定部512を含む。記憶部511は、撮像装置により撮像される画像を記憶する。判定部512は、記憶部511を参照して、実施形態に係る画像処理を行う。   FIG. 5 illustrates a functional configuration example of the moving object detection device of the embodiment. A moving object detection device 501 in FIG. 5 includes a storage unit 511 and a determination unit 512. The storage unit 511 stores an image captured by the imaging device. The determination unit 512 performs image processing according to the embodiment with reference to the storage unit 511.

図6は、図5の移動物体検出装置501が行う画像処理の例を示すフローチャートである。まず、判定部512は、記憶部511を参照して、画像内の第1の領域が第1の領域の周辺に存在する第2の領域と相関しているか否かを判定する(ステップ601)。第1の領域が第2の領域と相関している場合、判定部512は、その画像に基づく移動物体の検出において第1の領域と画像内の第1の領域以外の第3の領域とを区別するための制御情報を生成し、その制御情報を出力する(ステップ602)。   FIG. 6 is a flowchart illustrating an example of image processing performed by the moving object detection device 501 in FIG. First, the determination unit 512 refers to the storage unit 511 to determine whether or not the first region in the image correlates with the second region existing around the first region (step 601). . When the first region is correlated with the second region, the determination unit 512 determines the first region and the third region other than the first region in the image in the detection of the moving object based on the image. Control information for distinguishing is generated, and the control information is output (step 602).

このような画像処理によれば、撮像装置により撮像される画像から移動物体を検出する際の誤検出を抑制することができる。   According to such image processing, it is possible to suppress erroneous detection when a moving object is detected from an image captured by the imaging device.

移動物体検出装置501は、例えば、移動体に搭載されたカメラ等の撮像装置により撮像される映像を用いて画像処理を行う。撮像装置を搭載する移動体は、車両のように路面上を移動する物体であってもよく、ロボット、鉄道車両、航空機、船舶、又は動物であってもよい。   The moving object detection device 501 performs image processing using, for example, an image captured by an imaging device such as a camera mounted on a moving body. The moving body on which the imaging device is mounted may be an object that moves on the road surface, such as a vehicle, or may be a robot, a railway vehicle, an aircraft, a ship, or an animal.

移動物体検出装置501は、車載装置のように、移動体に搭載される装置であってもよく、サーバのように、移動体に搭載されない装置であってもよい。   The moving object detection device 501 may be a device mounted on a moving body such as an in-vehicle device, or may be a device not mounted on a moving body such as a server.

図7は、図5の移動物体検出装置501の第1の具体例を示している。図7の移動物体検出装置701は、記憶部511、判定部512、特徴点抽出部711、追跡部712、及び検出部713を含む。   FIG. 7 shows a first specific example of the moving object detection device 501 of FIG. The moving object detection device 701 in FIG. 7 includes a storage unit 511, a determination unit 512, a feature point extraction unit 711, a tracking unit 712, and a detection unit 713.

記憶部511は、撮像装置により撮像される映像を記憶する。映像には、複数のフレームに対応する複数の画像が含まれる。   The storage unit 511 stores video captured by the imaging device. The video includes a plurality of images corresponding to a plurality of frames.

判定部512は、図8に示すように、領域抽出部801、近傍領域設定部802、相関計算部803、及び領域判定部804を含む。領域抽出部801は、映像に含まれる複数のフレームのうち対象フレームの画像内の画素を抽出するとともに、その画素を含む画像領域をテンプレート領域として抽出する。近傍領域設定部802は、テンプレート領域を含む画像領域を、抽出された画素の近傍領域として設定する。   As shown in FIG. 8, the determination unit 512 includes a region extraction unit 801, a neighborhood region setting unit 802, a correlation calculation unit 803, and a region determination unit 804. The area extracting unit 801 extracts pixels in the image of the target frame from among a plurality of frames included in the video, and extracts an image area including the pixels as a template area. The neighborhood area setting unit 802 sets an image area including the template area as a neighborhood area of the extracted pixel.

相関計算部803は、近傍領域内の領域とテンプレート領域とが相関しているか否かを示す指標を計算する。領域判定部804は、計算された指標に基づいてテンプレート領域と相関している領域を追跡困難領域と判定し、追跡困難領域と追跡困難領域以外の領域とを区別するための制御情報を生成して出力する。   The correlation calculation unit 803 calculates an index indicating whether or not the region in the neighborhood region and the template region are correlated. The region determination unit 804 determines a region correlated with the template region as a difficult tracking region based on the calculated index, and generates control information for distinguishing the difficult tracking region from a region other than the difficult tracking region. Output.

誤追跡は、追跡対象の特徴点を含む画像領域の近傍に、類似する画像情報を有する別の画像領域が存在する場合に発生しやすいため、テンプレート領域と相関している領域では、特徴点の追跡に失敗する可能性が高いと考えられる。そこで、このような領域を追跡困難領域と判定して特徴点抽出処理の対象から除外することで、誤追跡の発生を抑制することが可能になる。   Mistracking is likely to occur when another image area having similar image information exists in the vicinity of the image area including the feature point to be tracked. There is a high probability that tracking will fail. Therefore, it is possible to suppress the occurrence of mistracking by determining such a region as a difficult-to-track region and excluding it from the feature point extraction target.

特徴点抽出部711は、判定部512から出力される制御情報に基づいて、映像に含まれる各フレームの画像内の領域のうち、追跡困難領域以外の領域から特徴点を抽出する。追跡部712は、対象フレームより後の時刻の後続フレームから抽出された特徴点を追跡して、特徴点の位置の時間変動を計算する。検出部713は、特徴点の位置の時間変動から移動物体を含む画像領域を検出し、検出結果を出力する。   Based on the control information output from the determination unit 512, the feature point extraction unit 711 extracts feature points from regions other than the difficult-to-track region among the regions in the image of each frame included in the video. The tracking unit 712 tracks a feature point extracted from a subsequent frame at a time later than the target frame, and calculates a temporal variation in the position of the feature point. The detection unit 713 detects an image region including a moving object from the time variation of the position of the feature point, and outputs a detection result.

なお、追跡困難領域は、対象フレームの画像内の一部分に過ぎず、背景の静止物体の画像領域であることが多いため、追跡困難領域を検出対象から除外しても移動物体の検出精度が著しく低下することはないと考えられる。   The hard-to-track area is only a part of the image of the target frame and is often an image area of a background stationary object. Therefore, even if the hard-to-track area is excluded from the detection target, the detection accuracy of the moving object is remarkably high. It is not expected to decrease.

図9は、図7の移動物体検出装置701が行う移動物体検出処理の例を示すフローチャートである。まず、判定部512は、映像に含まれる各フレームの画像内の追跡困難領域を特定し、追跡困難領域と追跡困難領域以外の領域とを区別するための制御情報を出力する(ステップ901)。   FIG. 9 is a flowchart illustrating an example of a moving object detection process performed by the moving object detection device 701 in FIG. First, the determination unit 512 identifies a difficult-to-track region in the image of each frame included in the video, and outputs control information for distinguishing between the difficult-to-track region and a region other than the difficult-to-track region (step 901).

次に、特徴点抽出部711は、制御情報に基づいて、映像に含まれる各フレームの画像内の領域のうち、追跡困難領域以外の領域から特徴点を抽出する(ステップ902)。特徴点抽出処理には、Harrisオペレータ、Kanade-Lucas-Tomasi(KLT)法等のコーナー抽出オペレータを用いることができる。   Next, based on the control information, the feature point extraction unit 711 extracts feature points from regions other than the hard-to-track regions among the regions in the image of each frame included in the video (step 902). For the feature point extraction processing, a corner extraction operator such as a Harris operator or Kanade-Lucas-Tomasi (KLT) method can be used.

次に、追跡部712は、対象フレームから抽出された各特徴点が後続フレームの画像内でどこに位置しているかを計算することで、特徴点を追跡する(ステップ903)。後続フレームとしては、例えば、対象フレームより所定間隔だけ後に撮像されたフレームが用いられる。   Next, the tracking unit 712 tracks the feature points by calculating where each feature point extracted from the target frame is located in the image of the subsequent frame (step 903). As the subsequent frame, for example, a frame captured after a predetermined interval from the target frame is used.

次に、追跡部712は、追跡終了条件が満たされたか否かを判定し(ステップ904)、追跡終了条件が満たされていない場合(ステップ904,NO)、後続フレームを新たな対象フレームとして用いてステップ903の処理を繰り返す。追跡処理には、オプティカルフロー等を用いることができ、追跡終了条件としては、追跡したフレームの数が所定値に到達したことや、所定のフレームが後続フレームとして処理されたこと等を用いることができる。   Next, the tracking unit 712 determines whether or not the tracking end condition is satisfied (step 904), and when the tracking end condition is not satisfied (step 904, NO), the subsequent frame is used as a new target frame. Step 903 is repeated. An optical flow or the like can be used for the tracking process, and the tracking end condition may be that the number of tracked frames has reached a predetermined value or that a predetermined frame has been processed as a subsequent frame. it can.

追跡終了条件が満たされた場合(ステップ904,YES)、追跡部712は、特徴点の追跡を終了する。なお、ステップ903及びステップ904の処理は、抽出されたすべての特徴点に対して行われる。検出部713は、各特徴点の位置の時間変動から移動物体を含む画像領域を検出し、検出結果を出力する(ステップ905)。   When the tracking end condition is satisfied (step 904, YES), the tracking unit 712 ends the tracking of the feature points. Note that the processing in step 903 and step 904 is performed on all extracted feature points. The detection unit 713 detects an image area including a moving object from the time variation of the position of each feature point, and outputs a detection result (step 905).

検出部713は、例えば、特徴点の位置の時間変動が所定のベクトルを表している場合に、その特徴点が移動物体の画像領域に含まれると判定することができる。所定のベクトルとしては、例えば、撮像装置を搭載する移動体自身の移動ベクトルとは異なるベクトルを用いることができる。   For example, when the time variation of the position of the feature point represents a predetermined vector, the detection unit 713 can determine that the feature point is included in the image area of the moving object. As the predetermined vector, for example, a vector that is different from the movement vector of the moving body itself on which the imaging device is mounted can be used.

移動物体検出装置701の後段には、危険防止のための制御装置を設けてもよい。この制御装置は、移動物体検出装置701から出力される検出結果に基づいて、音声や映像により危険をドライバに通知したり、車両の緊急ブレーキを作動させたりすることができる。   A control device for preventing danger may be provided at the subsequent stage of the moving object detection device 701. Based on the detection result output from the moving object detection device 701, this control device can notify the driver of the danger by voice or video, or can activate the emergency brake of the vehicle.

図10は、図9のステップ901で判定部512が行う追跡困難領域特定処理の例を示すフローチャートである。まず、領域抽出部801は、図11に示すように、対象フレームの画像内の1つの画素を対象画素1101として選択する(ステップ1001)。そして、領域抽出部801は、対象画素1101の周辺の画素を走査して、対象画素1101を含むm×n画素(m及びnは、1以上の整数)の画像領域をテンプレート領域1102として抽出する。画素の走査には、例えば、ラスタースキャン等を用いることができる。   FIG. 10 is a flowchart illustrating an example of the difficult-to-track region specifying process performed by the determination unit 512 in step 901 of FIG. First, as shown in FIG. 11, the region extraction unit 801 selects one pixel in the image of the target frame as the target pixel 1101 (step 1001). Then, the area extraction unit 801 scans pixels around the target pixel 1101 and extracts an image area of m × n pixels (m and n are integers of 1 or more) including the target pixel 1101 as the template area 1102. . For example, raster scanning can be used for pixel scanning.

次に、近傍領域設定部802は、テンプレート領域1102を含む、対象画素の近傍領域1103を設定する(ステップ1002)。そして、相関計算部803は、近傍領域1103内のテンプレート領域1102と同じ形状の画像領域1104と、テンプレート領域1102との相違度Xを計算する。相違度Xとしては、例えば、差分絶対値和(SAD)、差分2乗和(SSD)のような、2つの領域の間における画像情報の差分を示す指標を用いることができる。   Next, the neighborhood area setting unit 802 sets the neighborhood area 1103 of the target pixel including the template area 1102 (step 1002). Then, the correlation calculation unit 803 calculates the difference X between the image area 1104 having the same shape as the template area 1102 in the neighboring area 1103 and the template area 1102. As the degree of difference X, for example, an index indicating a difference in image information between two regions, such as a sum of absolute differences (SAD) and a sum of squared differences (SSD), can be used.

SADを用いた場合、相違度Xは、次式により求めることができる。   When SAD is used, the dissimilarity X can be obtained by the following equation.

式(1)のAx,yは、画像領域1104内の座標(x,y)における画素の画素値を表す(x=1〜m,y=1〜n)。Bx,yは、テンプレート領域1102内の同じ位置における画素の画素値を表す。画素値としては、例えば、輝度、色(RGB等)、色差信号等を用いることができる。   Ax, y in Expression (1) represents pixel values of pixels at coordinates (x, y) in the image area 1104 (x = 1 to m, y = 1 to n). Bx, y represents the pixel value of the pixel at the same position in the template area 1102. As the pixel value, for example, luminance, color (RGB, etc.), color difference signal, or the like can be used.

SSDを用いた場合、相違度Xは、次式により求めることができる。   When SSD is used, the dissimilarity X can be obtained by the following equation.

相違度Xは、画像領域1104の画像情報とテンプレート領域1102の画像情報とが相違するほど大きくなり、2つの画像情報が類似するほど0に近くなる。したがって、相違度Xが大きいほど、画像領域1104とテンプレート領域1102との相関が低くなり、相違度Xが小さいほど、画像領域1104とテンプレート領域1102との相関が高くなる。   The degree of difference X increases as the image information in the image area 1104 differs from the image information in the template area 1102, and approaches 0 as the two image information are similar. Therefore, the larger the difference degree X, the lower the correlation between the image area 1104 and the template area 1102, and the smaller the difference degree X, the higher the correlation between the image area 1104 and the template area 1102.

近傍領域1103内の各画素を画像領域1104の中心画素1105として用いて相違度Xの計算を繰り返すことで、複数の相違度Xが計算される。ただし、対象画素1101を中心画素1105として用いた場合、画像領域1104がテンプレート領域1102と一致するため、この場合は相違度Xの計算から除外される。   A plurality of dissimilarities X are calculated by repeating the calculation of the dissimilarity X using each pixel in the neighborhood area 1103 as the central pixel 1105 of the image area 1104. However, when the target pixel 1101 is used as the central pixel 1105, the image area 1104 matches the template area 1102, and in this case, the difference X is excluded from the calculation.

また、対象画素1101に近い領域は、幾何学模様の画像領域であるか否かに関わらず、テンプレート領域1102と類似する可能性が高いため、このような領域も相違度Xの計算から除外することが望ましい。そこで、例えば、対象画素1101から所定距離以上離れている画素を中心画素1105として用いて、相違度Xが計算される。   In addition, an area close to the target pixel 1101 is likely to be similar to the template area 1102 regardless of whether or not it is an image area of a geometric pattern. Therefore, such an area is also excluded from the calculation of the dissimilarity X. It is desirable. Therefore, for example, the dissimilarity X is calculated using a pixel that is a predetermined distance or more away from the target pixel 1101 as the central pixel 1105.

次に、領域判定部804は、計算された複数の相違度Xの各々を閾値と比較し(ステップ1003)、いずれかの相違度Xが閾値より小さい場合(ステップ1003,YES)、対象画素1101は追跡困難領域に属すると判定する(ステップ1004)。一方、すべての相違度Xが閾値以上である場合(ステップ1003,NO)、領域判定部804は、対象画素1101は追跡困難領域に属さないと判定する。   Next, the region determination unit 804 compares each of the plurality of calculated dissimilarities X with a threshold (step 1003), and if any dissimilarity X is smaller than the threshold (step 1003, YES), the target pixel 1101 Is determined to belong to a difficult-to-follow area (step 1004). On the other hand, when all the dissimilarities X are equal to or greater than the threshold (NO in step 1003), the region determination unit 804 determines that the target pixel 1101 does not belong to the difficult-to-track region.

テンプレート領域1102から所定距離以上離れている画像領域1104とテンプレート領域1102との相違度Xに基づいて、追跡困難領域であるか否かを判定することで、追跡困難領域の検出精度を向上させることができる。   Improving the detection accuracy of a difficult-to-track region by determining whether or not it is a difficult-to-track region based on the difference X between the image region 1104 and the template region 1102 that are separated from the template region 1102 by a predetermined distance or more. Can do.

次に、領域判定部804は、対象フレームの画像内のすべての画素の処理が終了したか否かをチェックする(ステップ1005)。未処理の画素がある場合(ステップ1005,NO)、判定部512は、次の画素についてステップ1001以降の処理を繰り返す。   Next, the area determination unit 804 checks whether or not the processing of all the pixels in the image of the target frame has been completed (step 1005). When there is an unprocessed pixel (step 1005, NO), the determination unit 512 repeats the processing after step 1001 for the next pixel.

そして、すべての画素の処理が終了した場合(ステップ1005,YES)、領域判定部804は、追跡困難領域に属すると判定した画素の集合を示す制御情報を生成して出力する(ステップ1006)。この制御情報が示す画素の集合は、対象フレームの画像内の追跡困難領域を表しており、追跡困難領域と追跡困難領域以外の領域とを区別するために用いられる。   Then, when the processing of all the pixels is completed (step 1005, YES), the region determination unit 804 generates and outputs control information indicating a set of pixels determined to belong to the difficult-to-track region (step 1006). A set of pixels indicated by the control information represents a difficult-to-track area in the image of the target frame, and is used to distinguish the difficult-to-track area from areas other than the difficult-to-track area.

例えば、近傍領域1103にグレーチング等の幾何学模様の画像が含まれている場合、対象画素1101の周辺に多数の同じ形状が存在するため、相違度Xが小さくなりやすい。このため、幾何学模様の画像領域内の画素は、追跡困難領域に属すると判定される可能性が高くなる。グレーチング以外にも、フェンス、レンガ敷きの路面、横断歩道等の画像を含む領域は、追跡困難領域に属すると判定される可能性が高い。   For example, when an image of a geometric pattern such as a grating is included in the neighborhood area 1103, since the same shape exists around the target pixel 1101, the dissimilarity X tends to be small. For this reason, there is a high possibility that the pixels in the image area of the geometric pattern belong to the difficult tracking area. In addition to the grating, there is a high possibility that a region including an image such as a fence, a brick road surface, and a pedestrian crossing belongs to a difficult-to-follow region.

図12は、テンプレート領域1102のサイズが5×5画素であり、近傍領域1103のサイズが15×11画素である場合に計算される相違度Xの例を示している。この例では、対象画素1101に近い5×5画素の領域が相違度Xの計算から除外され、140個の相違度Xが計算されている。閾値が440である場合、計算された相違度Xのうち、印*により示される相違度Xが閾値より小さい。したがって、対象画素1101は追跡困難領域に属すると判定される。   FIG. 12 shows an example of the degree of difference X calculated when the size of the template area 1102 is 5 × 5 pixels and the size of the neighboring area 1103 is 15 × 11 pixels. In this example, an area of 5 × 5 pixels close to the target pixel 1101 is excluded from the calculation of the dissimilarity X, and 140 dissimilarities X are calculated. When the threshold is 440, the difference X indicated by the mark * among the calculated differences X is smaller than the threshold. Therefore, it is determined that the target pixel 1101 belongs to the difficult tracking area.

ところで、近傍領域1103は、テンプレート領域1102を中心とする領域である必要はなく、左右上下等の所定方向に偏った領域であってもよい。例えば、撮像装置を搭載する車両が移動している場合、その移動先に対応する領域が後続フレームの画像に含まれ、追跡対象となる可能性が高い。そこで、撮像装置の移動方向に基づいて近傍領域1103を設定することが望ましい。   By the way, the neighborhood area 1103 does not need to be an area centered on the template area 1102, and may be an area biased in a predetermined direction such as left, right, up, down, or the like. For example, when a vehicle on which an imaging device is mounted is moving, an area corresponding to the moving destination is included in the image of the subsequent frame and is likely to be a tracking target. Therefore, it is desirable to set the neighborhood region 1103 based on the moving direction of the imaging device.

例えば、車両が直進している場合はテンプレート領域1102の上側の領域を多く含み、車両が後退している場合はテンプレート領域1102の下側の領域を多く含むような、近傍領域1103を設定してもよい。また、車両が右旋回している場合はテンプレート領域1102の右側の領域を多く含み、車両が左旋回している場合はテンプレート領域1102の左側の領域を多く含むような、近傍領域1103を設定してもよい。   For example, the neighborhood area 1103 is set so that it includes a large area above the template area 1102 when the vehicle is traveling straight, and includes a large area below the template area 1102 when the vehicle is moving backward. Also good. In addition, a neighborhood area 1103 is set so that it includes many areas on the right side of the template area 1102 when the vehicle is turning right, and includes many areas on the left side of the template area 1102 when the vehicle is turning left. Also good.

このように、撮像装置の移動方向に基づいて近傍領域1103を設定することで、移動先に対応する領域での誤追跡の発生を抑制することができる。   In this way, by setting the neighborhood area 1103 based on the moving direction of the imaging apparatus, it is possible to suppress the occurrence of erroneous tracking in the area corresponding to the movement destination.

図13は、図5の移動物体検出装置501の第2の具体例を示している。図13の移動物体検出装置1301は、記憶部511、判定部512、特徴点抽出部711、追跡部712、及び検出部713を含む。   FIG. 13 shows a second specific example of the moving object detection device 501 of FIG. A moving object detection device 1301 of FIG. 13 includes a storage unit 511, a determination unit 512, a feature point extraction unit 711, a tracking unit 712, and a detection unit 713.

図14は、図13の移動物体検出装置1301が行う移動物体検出処理の例を示すフローチャートである。まず、判定部512は、記憶部511が記憶する各フレームの画像内の追跡困難領域を特定し、追跡困難領域と追跡困難領域以外の領域とを区別するための制御情報を出力する(ステップ1401)。次に、特徴点抽出部711は、各フレームの画像から特徴点を抽出する(ステップ1402)。   FIG. 14 is a flowchart illustrating an example of a moving object detection process performed by the moving object detection device 1301 of FIG. First, the determination unit 512 identifies a difficult-to-track region in the image of each frame stored in the storage unit 511, and outputs control information for distinguishing the difficult-to-follow region from regions other than the difficult-to-follow region (step 1401). ). Next, the feature point extraction unit 711 extracts feature points from the image of each frame (step 1402).

次に、追跡部712は、制御情報に基づいて、対象フレームの画像内の領域のうち、追跡困難領域以外の領域から抽出された特徴点を第1の追跡処理により追跡し、追跡困難領域から抽出された特徴点を第2の追跡処理により追跡する(ステップ1403)。このとき、追跡部712は、各特徴点が後続フレームの画像内でどこに位置しているかを計算することで、各特徴点の時間変動を求める。   Next, based on the control information, the tracking unit 712 tracks feature points extracted from regions other than the hard-to-track region among the regions in the image of the target frame by the first tracking process. The extracted feature points are tracked by the second tracking process (step 1403). At this time, the tracking unit 712 calculates the time variation of each feature point by calculating where each feature point is located in the image of the subsequent frame.

第2の追跡処理としては、例えば、第1の追跡処理よりも特徴点の誤追跡が発生しにくい追跡処理が用いられる。例えば、第1の追跡処理が第1のテンプレートを用いたテンプレートマッチングにより追跡を行う場合、第2の追跡処理は、第1のテンプレートより大きな面積を有する第2のテンプレートを用いたテンプレートマッチングにより追跡を行うことができる。追跡困難領域の特徴点を追跡する際に、より大きな面積を有する第2のテンプレートを用いることで、幾何学模様が存在しない領域が第2のテンプレート内に含まれるようになり、図4に示したような誤追跡が発生しにくくなる。   As the second tracking process, for example, a tracking process that is less likely to cause erroneous tracking of feature points than the first tracking process is used. For example, when the first tracking process performs tracking by template matching using the first template, the second tracking process tracks by template matching using the second template having a larger area than the first template. It can be performed. By using the second template having a larger area when tracking the feature points of the hard-to-track region, a region in which no geometric pattern exists is included in the second template, which is shown in FIG. Such mistracking is less likely to occur.

このように、特徴点が追跡困難領域に含まれるか否かに応じて追跡処理を切り替えることで、誤追跡の発生を抑制することが可能になる。   As described above, it is possible to suppress the occurrence of mistracking by switching the tracking process according to whether or not the feature point is included in the difficult-to-track region.

次に、追跡部712は、追跡終了条件が満たされたか否かを判定し(ステップ1404)、追跡終了条件が満たされていない場合(ステップ1404,NO)、後続フレームを新たな対象フレームとして用いてステップ1403の処理を繰り返す。   Next, the tracking unit 712 determines whether or not the tracking end condition is satisfied (step 1404). If the tracking end condition is not satisfied (NO in step 1404), the subsequent frame is used as a new target frame. Step 1403 is repeated.

追跡終了条件が満たされた場合(ステップ1404,YES)、追跡部712は、特徴点の追跡を終了する。なお、ステップ1403及びステップ1404の処理は、抽出されたすべての特徴点に対して行われる。検出部713は、各特徴点の位置の時間変動から移動物体を含む画像領域を検出し、検出結果を出力する(ステップ1405)。   When the tracking end condition is satisfied (step 1404, YES), the tracking unit 712 ends the feature point tracking. Note that the processing of step 1403 and step 1404 is performed on all extracted feature points. The detection unit 713 detects an image area including a moving object from the time variation of the position of each feature point, and outputs a detection result (step 1405).

図15は、図5の移動物体検出装置501の第3の具体例を示している。図15の移動物体検出装置1501は、記憶部511、判定部512、特徴点抽出部711、追跡部712、検出部713、及び選択部1511を含む。   FIG. 15 shows a third specific example of the moving object detection device 501 of FIG. 15 includes a storage unit 511, a determination unit 512, a feature point extraction unit 711, a tracking unit 712, a detection unit 713, and a selection unit 1511.

図16は、図15の移動物体検出装置1501が行う移動物体検出処理の例を示すフローチャートである。まず、特徴点抽出部711は、記憶部511が記憶する各フレームの画像から特徴点を抽出する(ステップ1601)。次に、追跡部712は、対象フレームから抽出された各特徴点が後続フレームの画像内でどこに位置しているかを計算することで、特徴点を追跡する(ステップ1602)。   FIG. 16 is a flowchart illustrating an example of a moving object detection process performed by the moving object detection device 1501 of FIG. First, the feature point extraction unit 711 extracts feature points from each frame image stored in the storage unit 511 (step 1601). Next, the tracking unit 712 tracks the feature points by calculating where each feature point extracted from the target frame is located in the image of the subsequent frame (step 1602).

次に、追跡部712は、追跡終了条件が満たされたか否かを判定し(ステップ1603)、追跡終了条件が満たされていない場合(ステップ1603,NO)、後続フレームを新たな対象フレームとして用いてステップ1602の処理を繰り返す。   Next, the tracking unit 712 determines whether or not the tracking end condition is satisfied (step 1603). When the tracking end condition is not satisfied (step 1603, NO), the subsequent frame is used as a new target frame. Step 1602 is repeated.

追跡終了条件が満たされた場合(ステップ1603,YES)、追跡部712は、特徴点の追跡を終了する。なお、ステップ1602及びステップ1603の処理は、抽出されたすべての特徴点に対して行われる。検出部713は、各特徴点の位置の時間変動から移動物体を含む画像領域を検出し、検出領域として出力する(ステップ1604)。   If the tracking end condition is satisfied (step 1603, YES), the tracking unit 712 ends the feature point tracking. Note that the processing in step 1602 and step 1603 is performed on all extracted feature points. The detection unit 713 detects an image area including a moving object from the time variation of the position of each feature point, and outputs it as a detection area (step 1604).

次に、判定部512は、検出領域のうち追跡困難領域を特定し、追跡困難領域と追跡困難領域以外の領域とを区別するための制御情報を出力する(ステップ1605)。このとき、判定部512は、検出部713から出力される検出領域内の画素を対象画素として用いて図10の追跡困難領域特定処理を行うことで、追跡困難領域を特定することができる。   Next, the determination unit 512 specifies a difficult tracking area among the detection areas, and outputs control information for distinguishing the difficult tracking area from a region other than the difficult tracking area (step 1605). At this time, the determination unit 512 can identify the difficult tracking region by performing the difficult tracking region specifying process of FIG. 10 using the pixels in the detection region output from the detection unit 713 as target pixels.

そして、選択部1511は、制御情報に基づいて、検出領域のうち追跡困難領域以外の領域を選択し、選択した検出領域を検出結果として出力する。追跡困難領域を検出結果から除外することで、誤検出を抑制することが可能になる。   Based on the control information, the selection unit 1511 selects a region other than the hard-to-track region from the detection regions, and outputs the selected detection region as a detection result. By excluding the difficult tracking area from the detection result, it is possible to suppress erroneous detection.

図15の移動物体検出装置1501によれば、追跡困難領域特定処理の対象を移動物体の検出領域に限定できるため、図7の移動物体検出装置701又は図13の移動物体検出装置1301と比較して、追跡困難領域特定処理の負荷が低減される。   According to the moving object detection device 1501 in FIG. 15, the target of the difficult tracking area specifying process can be limited to the detection region of the moving object. Therefore, compared with the moving object detection device 701 in FIG. 7 or the moving object detection device 1301 in FIG. Thus, the load of the difficult tracking area specifying process is reduced.

図17は、図5の移動物体検出装置501の第4の具体例を示している。図17の移動物体検出装置1701は、記憶部511、判定部512、特徴点抽出部711、追跡部712、検出部713、及び選択部1711を含む。   FIG. 17 shows a fourth specific example of the moving object detection device 501 of FIG. A moving object detection apparatus 1701 in FIG. 17 includes a storage unit 511, a determination unit 512, a feature point extraction unit 711, a tracking unit 712, a detection unit 713, and a selection unit 1711.

図18は、図17の移動物体検出装置1701が行う移動物体検出処理の例を示すフローチャートである。まず、特徴点抽出部711は、記憶部511が記憶する各フレームの画像から特徴点を抽出する(ステップ1801)。   FIG. 18 is a flowchart illustrating an example of a moving object detection process performed by the moving object detection device 1701 in FIG. First, the feature point extraction unit 711 extracts feature points from each frame image stored in the storage unit 511 (step 1801).

次に、判定部512は、抽出された特徴点のうち追跡困難領域に属する特徴点を特定し、追跡困難領域と追跡困難領域以外の領域とを区別するための制御情報を出力する(ステップ1802)。このとき、判定部512は、特徴点抽出部711から出力される各特徴点に対応する画素を対象画素として用いて図10の追跡困難領域特定処理を行うことで、追跡困難領域に属する特徴点を特定することができる。   Next, the determination unit 512 identifies feature points belonging to the hard-to-track region among the extracted feature points, and outputs control information for distinguishing the hard-to-track region from regions other than the hard-to-track region (step 1802). ). At this time, the determination unit 512 uses the pixel corresponding to each feature point output from the feature point extraction unit 711 as a target pixel, and performs the difficult tracking region specifying process in FIG. Can be specified.

そして、選択部1711は、制御情報に基づいて、抽出された特徴点のうち追跡困難領域以外の領域に属する特徴点を選択し、選択した特徴点を追跡部712へ出力する。   Based on the control information, the selection unit 1711 selects a feature point belonging to a region other than the hard-to-track region from the extracted feature points, and outputs the selected feature point to the tracking unit 712.

次に、追跡部712は、対象フレーム内の追跡困難領域以外の各特徴点が後続フレームの画像内でどこに位置しているかを計算することで、特徴点を追跡する(ステップ1803)。追跡困難領域を追跡処理の対象から除外することで、誤追跡の発生を抑制することが可能になる。   Next, the tracking unit 712 tracks the feature point by calculating where each feature point other than the difficult-to-track region in the target frame is located in the image of the subsequent frame (step 1803). By excluding the difficult tracking area from the target of the tracking process, it becomes possible to suppress the occurrence of erroneous tracking.

次に、追跡部712は、追跡終了条件が満たされたか否かを判定し(ステップ1804)、追跡終了条件が満たされていない場合(ステップ1804,NO)、後続フレームを新たな対象フレームとして用いてステップ1803の処理を繰り返す。   Next, the tracking unit 712 determines whether or not the tracking end condition is satisfied (step 1804). If the tracking end condition is not satisfied (NO in step 1804), the subsequent frame is used as a new target frame. Step 1803 is repeated.

追跡終了条件が満たされた場合(ステップ1804,YES)、追跡部712は、特徴点の追跡を終了する。なお、ステップ1803及びステップ1804の処理は、追跡困難領域以外の領域に属するすべての特徴点に対して行われる。検出部713は、各特徴点の位置の時間変動から移動物体を含む画像領域を検出し、検出結果を出力する(ステップ1805)。   When the tracking end condition is satisfied (step 1804, YES), the tracking unit 712 ends the tracking of the feature points. Note that the processing in step 1803 and step 1804 is performed for all feature points belonging to a region other than the hard-to-track region. The detection unit 713 detects an image region including a moving object from the time variation of the position of each feature point, and outputs a detection result (step 1805).

図17の移動物体検出装置1701によれば、追跡困難領域特定処理の対象を特徴点に限定できるため、図7の移動物体検出装置701又は図13の移動物体検出装置1301と比較して、追跡困難領域特定処理の負荷が低減される。さらに、図15の移動物体検出装置1501よりも負荷が低減されることが期待できる。   According to the moving object detection device 1701 in FIG. 17, since the target of the difficult tracking area specifying process can be limited to the feature points, tracking is performed as compared with the moving object detection device 701 in FIG. 7 or the moving object detection device 1301 in FIG. 13. The load of the difficult area specifying process is reduced. Furthermore, it can be expected that the load is reduced as compared with the moving object detection device 1501 of FIG.

図5の移動物体検出装置501、図7の移動物体検出装置701、図13の移動物体検出装置1301、図15の移動物体検出装置1501、及び図17の移動物体検出装置1701の構成は一例に過ぎない。移動物体検出装置の用途や条件に応じて、一部の構成要素を省略又は変更してもよい。   The moving object detection device 501 in FIG. 5, the moving object detection device 701 in FIG. 7, the moving object detection device 1301 in FIG. 13, the moving object detection device 1501 in FIG. 15, and the moving object detection device 1701 in FIG. Not too much. Depending on the application and conditions of the moving object detection apparatus, some components may be omitted or changed.

例えば、移動物体検出装置701、移動物体検出装置1301、又は移動物体検出装置1501において、特徴点抽出部711、追跡部712、及び検出部713が装置外部のハードウェア回路として実装される場合も考えられる。この場合は、特徴点抽出部711、追跡部712、及び検出部713を省略することができる。   For example, in the moving object detection device 701, the moving object detection device 1301, or the moving object detection device 1501, the feature point extraction unit 711, the tracking unit 712, and the detection unit 713 may be mounted as hardware circuits outside the device. It is done. In this case, the feature point extraction unit 711, the tracking unit 712, and the detection unit 713 can be omitted.

移動物体検出装置701、移動物体検出装置1301、移動物体検出装置1501、又は移動物体検出装置1701が移動体に搭載される装置である場合は、記憶部511が記憶する映像を撮像する撮像装置を含んでいてもよい。   In the case where the moving object detection device 701, the moving object detection device 1301, the moving object detection device 1501, or the moving object detection device 1701 is mounted on a moving object, an imaging device that captures an image stored in the storage unit 511 is used. May be included.

図6、図9、図10、図14、図16、及び図18に示したフローチャートは一例に過ぎず、移動物体検出装置の構成や条件に応じて一部の処理を省略又は変更してもよい。例えば、図10のステップ1002において、相関計算部803は、近傍領域1103内の各画素を中心画素1105として用いて相違度Xを計算する代わりに、閾値より小さな相関値Xが得られた時点で、残りの画素に対する計算を省略することもできる。この場合、対象画素1101は追跡困難領域に属すると判定される。   The flowcharts shown in FIGS. 6, 9, 10, 14, 16, and 18 are merely examples, and some processes may be omitted or changed depending on the configuration and conditions of the moving object detection device. Good. For example, in step 1002 of FIG. 10, the correlation calculation unit 803 obtains a correlation value X smaller than the threshold value instead of calculating the dissimilarity X using each pixel in the neighboring area 1103 as the central pixel 1105. The calculation for the remaining pixels can be omitted. In this case, it is determined that the target pixel 1101 belongs to the difficult tracking area.

また、ステップ1002において、相関計算部803は、画像領域1104とテンプレート領域1102との相違度Xを計算する代わりに、2つの領域の類似度を計算することもできる。   In step 1002, the correlation calculation unit 803 can calculate the similarity between the two areas instead of calculating the degree of difference X between the image area 1104 and the template area 1102.

類似度は、画像領域1104の画像情報とテンプレート領域1102の画像情報とが類似するほど大きくなり、2つの画像情報が相違するほど小さくなる。したがって、類似度が大きいほど、画像領域1104とテンプレート領域1102との相関が高くなり、類似度が小さいほど、画像領域1104とテンプレート領域1102との相関が低くなる。   The similarity increases as the image information in the image area 1104 and the image information in the template area 1102 are similar, and decreases as the two image information differ. Therefore, the larger the similarity is, the higher the correlation between the image region 1104 and the template region 1102 is. The smaller the similarity is, the lower the correlation between the image region 1104 and the template region 1102 is.

この場合、ステップ1003において、領域判定部804は、計算された複数の類似度の各々を閾値と比較し、いずれかの類似度が閾値より大きい場合、対象画素1101は追跡困難領域に属すると判定する。一方、すべての類似度が閾値以下である場合、領域判定部804は、対象画素1101は追跡困難領域に属さないと判定する。   In this case, in step 1003, the region determination unit 804 compares each of the plurality of calculated similarities with a threshold value, and determines that the target pixel 1101 belongs to a difficult-to-track region if any of the similarities is greater than the threshold value. To do. On the other hand, when all the similarities are equal to or less than the threshold value, the area determination unit 804 determines that the target pixel 1101 does not belong to the difficult-to-track area.

また、ステップ1003において、複数の相違度X又は複数の類似度を閾値と比較する代わりに、相違度X又は類似度の統計値を閾値と比較してもよい。統計値としては、例えば、平均値、最大値、最小値、最頻値等を用いることができる。   Further, in step 1003, instead of comparing a plurality of dissimilarities X or a plurality of similarities with a threshold, a statistical value of the dissimilarity X or the similarity may be compared with a threshold. As the statistical value, for example, an average value, a maximum value, a minimum value, a mode value, or the like can be used.

図11に示したテンプレート領域1102、近傍領域1003、及び画像領域1104は一例に過ぎず、移動物体検出装置の構成や条件に応じて変更してもよい。例えば、矩形領域の代わりに、多角形、円、楕円等の他の形状の領域を用いることもできる。   The template area 1102, the neighborhood area 1003, and the image area 1104 shown in FIG. 11 are merely examples, and may be changed according to the configuration and conditions of the moving object detection apparatus. For example, instead of a rectangular area, an area having another shape such as a polygon, a circle, or an ellipse can be used.

図5の移動物体検出装置501、図7の移動物体検出装置701、図13の移動物体検出装置1301、図15の移動物体検出装置1501、及び図17の移動物体検出装置1701は、ハードウェア回路として実装することができる。また、各移動物体検出装置の一部又は全部の構成要素を、情報処理装置(コンピュータ)を用いて実現することもできる。   The moving object detection device 501 in FIG. 5, the moving object detection device 701 in FIG. 7, the moving object detection device 1301 in FIG. 13, the moving object detection device 1501 in FIG. 15, and the moving object detection device 1701 in FIG. Can be implemented as Also, some or all of the components of each moving object detection device can be realized using an information processing device (computer).

例えば、図7の移動物体検出装置701は、記憶部511及び判定部512を含む情報処理装置と、特徴点抽出部711、追跡部712、及び検出部713を含むハードウェア回路とを含んでいてもよい。この場合、情報処理装置による追跡困難領域特定処理は、ハードウェア回路による移動物体検出処理の前処理として実行される。図13の移動物体検出装置1301も、同様に、情報処理装置とハードウェア回路とを含んでいてもよい。   For example, the moving object detection apparatus 701 in FIG. 7 includes an information processing apparatus including a storage unit 511 and a determination unit 512, and a hardware circuit including a feature point extraction unit 711, a tracking unit 712, and a detection unit 713. Also good. In this case, the difficult-to-follow area specifying process by the information processing apparatus is executed as a pre-process of the moving object detection process by the hardware circuit. Similarly, the moving object detection device 1301 of FIG. 13 may include an information processing device and a hardware circuit.

図15の移動物体検出装置1501は、記憶部511、判定部512、及び選択部1511を含む情報処理装置と、特徴点抽出部711、追跡部712、及び検出部713を含むハードウェア回路とを含んでいてもよい。この場合、情報処理装置による追跡困難領域特定処理は、ハードウェア回路による移動物体検出処理の後処理として実行される。   15 includes an information processing apparatus including a storage unit 511, a determination unit 512, and a selection unit 1511, and a hardware circuit including a feature point extraction unit 711, a tracking unit 712, and a detection unit 713. May be included. In this case, the difficult-to-follow area specifying process by the information processing apparatus is executed as a post-process of the moving object detection process by the hardware circuit.

特徴点抽出部711、追跡部712、及び検出部713がGraphics Processing Unit(GPU)として実装されると、追跡困難領域の画素と追跡困難領域以外の領域の画素とを区別して処理することが困難な場合がある。このような場合には、図15の構成を採用して、追跡困難領域特定処理を後処理として実装することが有効である。   When the feature point extraction unit 711, the tracking unit 712, and the detection unit 713 are implemented as a graphics processing unit (GPU), it is difficult to distinguish and process pixels in a difficult tracking region and pixels in a region other than the difficult tracking region. There are cases. In such a case, it is effective to adopt the configuration shown in FIG. 15 and implement the difficult tracking area specifying process as a post-process.

図17の移動物体検出装置1701は、情報処理装置のみを用いて実現してもよい。特徴点抽出部711、追跡部712、及び検出部713が情報処理装置を用いて実現される場合は、移動物体検出処理をカスタマイズできるため、図17の構成を採用することが有効である。   The moving object detection device 1701 in FIG. 17 may be realized using only an information processing device. When the feature point extraction unit 711, the tracking unit 712, and the detection unit 713 are realized using an information processing device, it is effective to employ the configuration of FIG. 17 because the moving object detection process can be customized.

図5の移動物体検出装置501、図7の移動物体検出装置701、及び図13の移動物体検出装置1301の一部又は全部の構成要素は、例えば、図19に示すような情報処理装置を用いて実現可能である。図15の移動物体検出装置1501及び図17の移動物体検出装置1701の一部又は全部の構成要素も、図19の情報処理装置を用いて実現可能である。   For example, an information processing apparatus as shown in FIG. 19 is used as a part or all of the components of the moving object detection apparatus 501 in FIG. 5, the moving object detection apparatus 701 in FIG. 7, and the moving object detection apparatus 1301 in FIG. Is feasible. Some or all of the components of the moving object detection device 1501 in FIG. 15 and the moving object detection device 1701 in FIG. 17 can also be realized using the information processing apparatus in FIG.

図19の情報処理装置は、Central Processing Unit(CPU)1901、メモリ1902、入力装置1903、出力装置1904、補助記憶装置1905、媒体駆動装置1906、及びネットワーク接続装置1907を含む。これらの構成要素はバス1908により互いに接続されている。   19 includes a Central Processing Unit (CPU) 1901, a memory 1902, an input device 1903, an output device 1904, an auxiliary storage device 1905, a medium drive device 1906, and a network connection device 1907. These components are connected to each other by a bus 1908.

メモリ1902は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1902は、記憶部511として用いることができる。   The memory 1902 is, for example, a semiconductor memory such as a read only memory (ROM), a random access memory (RAM), or a flash memory, and stores programs and data used for processing. The memory 1902 can be used as the storage unit 511.

CPU1901(プロセッサ)は、例えば、メモリ1902を利用してプログラムを実行することにより、判定部512、特徴点抽出部711、追跡部712、又は検出部713として動作し、移動物体検出処理を行う。CPU1901は、領域抽出部801、近傍領域設定部802、相関計算部803、領域判定部804、選択部1511、又は選択部1711としても動作する。   The CPU 1901 (processor) operates as the determination unit 512, the feature point extraction unit 711, the tracking unit 712, or the detection unit 713, for example, by executing a program using the memory 1902, and performs a moving object detection process. The CPU 1901 also operates as the region extraction unit 801, the neighborhood region setting unit 802, the correlation calculation unit 803, the region determination unit 804, the selection unit 1511, or the selection unit 1711.

入力装置1903は、例えば、キーボード、ポインティングデバイス等であり、ユーザ又はオペレータからの指示や情報の入力に用いられる。出力装置1904は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザ又はオペレータへの問い合わせや処理結果の出力に用いられる。出力される処理結果には、例えば、移動物体の検出結果を示す情報が含まれる。   The input device 1903 is, for example, a keyboard, a pointing device, or the like, and is used for inputting an instruction or information from a user or an operator. The output device 1904 is, for example, a display device, a printer, a speaker, or the like, and is used to output an inquiry to a user or an operator or a processing result. The output processing result includes, for example, information indicating the detection result of the moving object.

補助記憶装置1905は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1905は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1905にプログラム及びデータを格納しておき、それらをメモリ1902にロードして使用することができる。   The auxiliary storage device 1905 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The auxiliary storage device 1905 may be a hard disk drive. The information processing apparatus can store programs and data in the auxiliary storage device 1905 and load them into the memory 1902 for use.

媒体駆動装置1906は、可搬型記録媒体1909を駆動し、その記録内容にアクセスする。可搬型記録媒体1909は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1909は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。ユーザ又はオペレータは、この可搬型記録媒体1909にプログラム及びデータを格納しておき、それらをメモリ1902にロードして使用することができる。   The medium driving device 1906 drives a portable recording medium 1909 and accesses the recorded contents. The portable recording medium 1909 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 1909 may be a compact disk read only memory (CD-ROM), a digital versatile disk (DVD), a universal serial bus (USB) memory, or the like. A user or an operator can store programs and data in the portable recording medium 1909 and load them into the memory 1902 for use.

このように、移動物体検出処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ1902、補助記憶装置1905、及び可搬型記録媒体1909のような、物理的な(非一時的な)記録媒体が含まれる。   As described above, a computer-readable recording medium that stores a program and data used for the moving object detection processing includes physical (non-temporary) such as the memory 1902, the auxiliary storage device 1905, and the portable recording medium 1909. Recording medium).

ネットワーク接続装置1907は、Local Area Network(LAN)、インターネット等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置は、ネットワーク接続装置1907を介して、ユーザ端末から処理要求及び映像を受信し、移動物体の検出結果を示す情報をユーザ端末へ送信することができる。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1907を介して受け取り、それらをメモリ1902にロードして使用することもできる。   The network connection device 1907 is a communication interface that is connected to a communication network such as a local area network (LAN) or the Internet and performs data conversion accompanying communication. The information processing apparatus can receive a processing request and video from the user terminal via the network connection apparatus 1907, and can transmit information indicating the detection result of the moving object to the user terminal. The information processing apparatus can also receive a program and data from an external apparatus via the network connection apparatus 1907 and load them into the memory 1902 for use.

なお、情報処理装置が図19のすべての構成要素を含む必要はなく、用途や条件に応じて一部の構成要素を省略することも可能である。例えば、情報処理装置がユーザ端末から通信ネットワーク経由で処理要求及び映像を受信する場合は、入力装置1903及び出力装置1904を省略してもよい。また、情報処理装置が可搬型記録媒体1909にアクセスしない場合は、媒体駆動装置1906を省略してもよく、情報処理装置が通信ネットワークに接続されない場合は、ネットワーク接続装置1907を省略してもよい。   Note that the information processing apparatus does not have to include all the components illustrated in FIG. 19, and some components may be omitted depending on the application and conditions. For example, when the information processing apparatus receives a processing request and video from a user terminal via a communication network, the input device 1903 and the output device 1904 may be omitted. Further, if the information processing apparatus does not access the portable recording medium 1909, the medium driving apparatus 1906 may be omitted, and if the information processing apparatus is not connected to the communication network, the network connection apparatus 1907 may be omitted. .

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。   Although the disclosed embodiments and their advantages have been described in detail, those skilled in the art can make various modifications, additions and omissions without departing from the scope of the present invention as explicitly set forth in the claims. Let's go.

101 車両
102 バックカメラ
103 撮像範囲
401 対象フレーム
402 後続フレーム
411 グレーチング
412、413 交点
414、1103 近傍領域
415、416 動きベクトル
501、701、1301、1501、1701 移動物体検出装置
511 記憶部
512 判定部
711 特徴点抽出部
712 追跡部
713 検出部
801 領域抽出部
802 近傍領域設定部
803 相関計算部
804 領域判定部
1101 対象画素
1102 テンプレート領域
1104 画像領域
1105 中心画素
1511、1711 選択部
1901 CPU
1902 メモリ
1903 入力装置
1904 出力装置
1905 補助記憶装置
1906 媒体駆動装置
1907 ネットワーク接続装置
1908 バス
1909 可搬型記録媒体
DESCRIPTION OF SYMBOLS 101 Vehicle 102 Back camera 103 Imaging range 401 Target frame 402 Subsequent frame 411 Grating 412, 413 Intersection 414, 1103 Neighborhood area 415, 416 Motion vector 501, 701, 1301, 1501, 1701 Moving object detection device 511 Storage unit 512 Determination unit 711 Feature point extraction unit 712 Tracking unit 713 Detection unit 801 Region extraction unit 802 Neighboring region setting unit 803 Correlation calculation unit 804 Region determination unit 1101 Target pixel 1102 Template region 1104 Image region 1105 Central pixel 1511, 1711 Selection unit 1901 CPU
1902 Memory 1903 Input device 1904 Output device 1905 Auxiliary storage device 1906 Medium drive device 1907 Network connection device 1908 Bus 1909 Portable recording medium

Claims (10)

撮像装置により撮像される画像を記憶する記憶部と、
前記画像内の画素から対象画素を選択し、前記対象画素を含む第1の領域を抽出し、前記第1の領域が前記第1の領域の周辺に存在する第2の領域と相関しているか否かを判定し、前記第1の領域が前記第2の領域と相関している場合、前記対象画素が第3の領域に属すると判定し、前記第1の領域が前記第2の領域と相関していない場合、前記対象画素が前記第3の領域以外の第4の領域に属すると判定し、前記画像に基づく移動物体の検出において前記第の領域に属すると判定された複数の対象画素と前記第の領域に属すると判定された複数の対象画素とを区別するための制御情報を出力する判定部と、
を備えることを特徴とする移動物体検出装置。
A storage unit for storing an image captured by the imaging device;
Whether a target pixel is selected from the pixels in the image, a first region including the target pixel is extracted, and the first region correlates with a second region existing around the first region If the first region is correlated with the second region, it is determined that the target pixel belongs to the third region, and the first region is the second region. If not correlated, the target pixel is determined to belong to a fourth region other than the third region , and a plurality of targets determined to belong to the third region in detection of a moving object based on the image a determination unit which outputs control information for distinguishing a plurality of target pixels which are determined to belong to the pixel fourth region,
A moving object detection apparatus comprising:
前記判定部は、前記第1の領域の画像情報と前記第2の領域の画像情報とが類似している場合、前記第1の領域が前記第2の領域と相関していると判定することを特徴とする請求項1記載の移動物体検出装置。   The determination unit determines that the first area is correlated with the second area when the image information of the first area is similar to the image information of the second area. The moving object detection device according to claim 1. 前記判定部は、前記撮像装置の移動方向に基づいて前記第2の領域を決定することを特徴とする請求項1又は2記載の移動物体検出装置。   The moving object detection device according to claim 1, wherein the determination unit determines the second region based on a moving direction of the imaging device. 前記第2の領域は、前記第1の領域から所定距離以上離れていることを特徴とする請求項1乃至3のいずれか1項に記載の移動物体検出装置。   4. The moving object detection device according to claim 1, wherein the second region is separated from the first region by a predetermined distance or more. 5. 前記制御情報に基づいて、前記第の領域から特徴点を抽出する特徴点抽出部と、
前記特徴点の時間変動から前記移動物体を検出し、前記移動物体の検出結果を出力する検出部と、
をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の移動物体検出装置。
A feature point extraction unit that extracts feature points from the fourth region based on the control information;
A detection unit that detects the moving object from time variation of the feature point and outputs a detection result of the moving object;
The moving object detection apparatus according to claim 1, further comprising:
前記画像から特徴点を抽出する特徴点抽出部と、
前記特徴点の時間変動から前記移動物体を検出し、検出した移動物体を含む検出領域を出力する検出部と、
前記制御情報に基づいて、前記検出領域のうち前記第の領域を選択し、前記第の領域を含む前記移動物体の検出結果を出力する選択部と、
をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の移動物体検出装置。
A feature point extraction unit for extracting feature points from the image;
A detection unit that detects the moving object from time variation of the feature point and outputs a detection area including the detected moving object;
A selection unit that selects the fourth region of the detection regions based on the control information and outputs a detection result of the moving object including the fourth region;
The moving object detection apparatus according to claim 1, further comprising:
前記画像から特徴点を抽出する特徴点抽出部と、
前記制御情報に基づいて、前記特徴点のうち前記第の領域から抽出された特徴点を選択する選択部と、
選択された特徴点の時間変動から前記移動物体を検出し、前記移動物体の検出結果を出力する検出部と、
をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の移動物体検出装置。
A feature point extraction unit for extracting feature points from the image;
A selection unit that selects a feature point extracted from the fourth region among the feature points based on the control information;
A detection unit that detects the moving object from time variation of the selected feature point and outputs a detection result of the moving object;
The moving object detection apparatus according to claim 1, further comprising:
前記画像から特徴点を抽出する特徴点抽出部と、
前記制御情報に基づいて、前記第の領域から抽出された特徴点を第1の追跡処理により追跡し、前記第1の領域から抽出された特徴点を前記第1の追跡処理とは異なる第2の追跡処理により追跡し、前記第1の追跡処理又は前記第2の追跡処理に基づいて特徴点の時間変動を求める追跡部と、
前記特徴点の時間変動から前記移動物体を検出し、前記移動物体の検出結果を出力する検出部と、
をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の移動物体検出装置。
A feature point extraction unit for extracting feature points from the image;
Based on the control information, feature points extracted from the fourth area are tracked by a first tracking process, and feature points extracted from the first area are different from the first tracking process. A tracking unit that performs tracking by two tracking processes and obtains temporal variation of feature points based on the first tracking process or the second tracking process;
A detection unit that detects the moving object from time variation of the feature point and outputs a detection result of the moving object;
The moving object detection apparatus according to claim 1, further comprising:
移動物体検出装置によって実行される移動物体検出方法であって、
撮像装置により撮像される画像を記憶する記憶部を参照して、前記画像内の画素から対象画素を選択し、前記対象画素を含む第1の領域を抽出し、
前記第1の領域が前記第1の領域の周辺に存在する第2の領域と相関しているか否かを判定し、
前記第1の領域が前記第2の領域と相関している場合、前記対象画素が第3の領域に属すると判定し、前記第1の領域が前記第2の領域と相関していない場合、前記対象画素が前記第3の領域以外の第4の領域に属すると判定し、
前記画像に基づく移動物体の検出において前記第の領域に属すると判定された複数の対象画素と前記第の領域に属すると判定された複数の対象画素とを区別するための制御情報を生成する、
ことを特徴とする移動物体検出方法。
A moving object detection method executed by a moving object detection device,
With reference to a storage unit that stores an image captured by the imaging device, a target pixel is selected from the pixels in the image, and a first region including the target pixel is extracted,
It determines whether the first region is correlated with a second region which exists in the periphery of the first region,
When the first region is correlated with the second region, the target pixel is determined to belong to the third region, and when the first region is not correlated with the second region, Determining that the target pixel belongs to a fourth region other than the third region;
Generates control information for distinguishing a plurality of target pixels determined to belong to the third region and a plurality of target pixels determined to belong to the fourth region in detection of a moving object based on the image To
A moving object detection method characterized by the above.
撮像装置により撮像される画像を記憶する記憶部を参照して、前記画像内の画素から対象画素を選択し、前記対象画素を含む第1の領域を抽出し、
前記第1の領域が前記第1の領域の周辺に存在する第2の領域と相関しているか否かを判定し、
前記第1の領域が前記第2の領域と相関している場合、前記対象画素が第3の領域に属すると判定し、前記第1の領域が前記第2の領域と相関していない場合、前記対象画素が前記第3の領域以外の第4の領域に属すると判定し、
前記画像に基づく移動物体の検出において前記第の領域に属すると判定された複数の対象画素と前記第の領域に属すると判定された複数の対象画素とを区別するための制御情報を生成する、
処理をコンピュータに実行させるプログラム。
With reference to a storage unit that stores an image captured by the imaging device, a target pixel is selected from the pixels in the image, and a first region including the target pixel is extracted,
Determines whether the first region is correlated with a second region which exists in the periphery of the first region,
When the first region is correlated with the second region, the target pixel is determined to belong to the third region, and when the first region is not correlated with the second region, Determining that the target pixel belongs to a fourth region other than the third region;
Generates control information for distinguishing a plurality of target pixels determined to belong to the third region and a plurality of target pixels determined to belong to the fourth region in detection of a moving object based on the image To
A program that causes a computer to execute processing.
JP2014063957A 2014-03-26 2014-03-26 Moving object detection apparatus, moving object detection method, and program Active JP6384082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014063957A JP6384082B2 (en) 2014-03-26 2014-03-26 Moving object detection apparatus, moving object detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014063957A JP6384082B2 (en) 2014-03-26 2014-03-26 Moving object detection apparatus, moving object detection method, and program

Publications (2)

Publication Number Publication Date
JP2015185138A JP2015185138A (en) 2015-10-22
JP6384082B2 true JP6384082B2 (en) 2018-09-05

Family

ID=54351539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014063957A Active JP6384082B2 (en) 2014-03-26 2014-03-26 Moving object detection apparatus, moving object detection method, and program

Country Status (1)

Country Link
JP (1) JP6384082B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6151677B2 (en) * 2014-10-16 2017-06-21 セコム株式会社 Object detection device
JP7236857B2 (en) 2018-12-14 2023-03-10 株式会社デンソーテン Image processing device and image processing method
JP7141940B2 (en) 2018-12-14 2022-09-26 株式会社デンソーテン Image processing device and image processing method
JP7359541B2 (en) 2018-12-14 2023-10-11 株式会社デンソーテン Image processing device and image processing method
JP2020095620A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP2020095623A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7252750B2 (en) 2018-12-14 2023-04-05 株式会社デンソーテン Image processing device and image processing method
JP7203587B2 (en) 2018-12-14 2023-01-13 株式会社デンソーテン Image processing device and image processing method
JP7203586B2 (en) 2018-12-14 2023-01-13 株式会社デンソーテン Image processing device and image processing method
JP7226986B2 (en) 2018-12-14 2023-02-21 株式会社デンソーテン Image processing device and image processing method
JP2020095631A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP2020095624A (en) 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP7195131B2 (en) 2018-12-14 2022-12-23 株式会社デンソーテン Image processing device and image processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3775200B2 (en) * 2000-10-06 2006-05-17 日産自動車株式会社 Inter-vehicle distance estimation device
JP2004145592A (en) * 2002-10-24 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> Motion vector extraction device, method and program, and its recording medium
JP4743617B2 (en) * 2006-04-14 2011-08-10 Kddi株式会社 Feature point extraction device
JP6057629B2 (en) * 2012-09-07 2017-01-11 キヤノン株式会社 Image processing apparatus, control method thereof, and control program

Also Published As

Publication number Publication date
JP2015185138A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6384082B2 (en) Moving object detection apparatus, moving object detection method, and program
CN107851318B (en) System and method for object tracking
JP5407898B2 (en) Object detection apparatus and program
JP4967666B2 (en) Image processing apparatus and method, and program
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
EP2924654A2 (en) Image processing apparatus and image processing method
JP2008172441A (en) Detection device, method, and program
JP2016148962A (en) Object detection device
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP7104916B2 (en) Moving object detection device and moving object detection method
JP2007249841A (en) Image recognition device
US20170151943A1 (en) Method, apparatus, and computer program product for obtaining object
CN110730966A (en) System and method for pedestrian detection
JP2008257378A (en) Object detection device
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP2017207874A (en) Image processing apparatus, imaging apparatus, moving body device control system, image processing method, and program
JP2013205410A (en) Outside recognition device for vehicle, and vehicle system using the same
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2006140636A (en) Obstacle detecting device and method
JP6564218B2 (en) Outside environment recognition device
JP2008171141A (en) Image processor, method, and program
JP2015185135A (en) Parking recognition device, parking recognition method and program
JP4575315B2 (en) Object detection apparatus and method
US10304205B2 (en) Image processing apparatus, method of controlling the same, and storage medium
JP5125214B2 (en) Obstacle detection method and obstacle detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180723

R150 Certificate of patent or registration of utility model

Ref document number: 6384082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150