JP4710562B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP4710562B2 JP4710562B2 JP2005331682A JP2005331682A JP4710562B2 JP 4710562 B2 JP4710562 B2 JP 4710562B2 JP 2005331682 A JP2005331682 A JP 2005331682A JP 2005331682 A JP2005331682 A JP 2005331682A JP 4710562 B2 JP4710562 B2 JP 4710562B2
- Authority
- JP
- Japan
- Prior art keywords
- speed
- frames
- traceable
- calculated
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 25
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 27
- 238000001514 detection method Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Description
本発明は、カメラで撮像した画像を処理する画像処理装置、および画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for processing an image captured by a camera.
次のような車両周辺監視装置が特許文献1によって知られている。この車両周辺監視装置は、前回のフレーム撮影時の画像における所望点の輝度値と、今回のフレーム撮影時の画像における所望点に対応する点での輝度値に基づいて、移動物体の速度変化が滑らかであることを条件にして作成されるエネルギー汎関数を用いてオプティカルフローを算出する。そして、算出したオプティカルフローに基づいて、画像内に存在する物体の部位を検出し、検出した物体の部位をフレーム間で追跡して車両周囲の状況を監視する。
The following vehicle periphery monitoring device is known from
しかしながら、従来の車両周辺監視装置においては、算出したオプティカルフローに基づいて画像内に存在する物体の部位を検出し、検出した物体の部位をフレーム間で追跡することによって画像周囲の状況を監視していた。このため、オプティカルフローに基づいて画像内に存在する物体の部位を検出した場合には、その部位が単一の物体で構成されているのか、あるいは複数の物体で構成されているのかを特定することができなかった。このため、その部位が複数物体で構成されている場合には当該部位のフレーム間での動きを正確に追跡できない可能性があるという問題が生じていた。 However, in the conventional vehicle periphery monitoring device, the area around the image is monitored by detecting the part of the object present in the image based on the calculated optical flow and tracking the detected part of the object between frames. It was. For this reason, when a part of an object existing in an image is detected based on the optical flow, it is specified whether the part is composed of a single object or a plurality of objects. I couldn't. For this reason, when the site | part is comprised with multiple objects, the problem that the movement between the frames of the said site | part may not be tracked correctly has arisen.
本発明は、撮像手段で撮像される画像内に存在するフレーム間での追跡が可能な部位(追跡可能部位)を検出し、検出した前記追跡可能部位のフレーム間での移動速度を算出し、各フレームの画像内で追跡可能部位と関連する部位を注目部位として抽出し、注目部位のフレーム間での移動速度を算出し、算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した注目部位のフレーム間での移動速度を推定し、算出した追跡可能部位のフレーム間での移動速度、および推定した誤差を加味した注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定し、差分が前記所定の閾値より小さい場合に、算出した注目部位のフレーム間での移動速度を補正することを特徴とする。
The present invention detects a part (traceable part) that can be traced between frames existing in an image captured by the imaging means, calculates a movement speed between the detected frames of the traceable part, the site associated with trackable site within images of each frame is extracted as a target site, and calculates the moving velocity between the attention site frame, to estimate the error of the moving speed between frames of the calculated area of interest The movement speed between the frames of the target region taking into account the error is estimated, and the difference between the movement speeds between the frames of the calculated target region in consideration of the estimated error by comparing with a predetermined threshold value, whether or not it is necessary to correct the moving speed between frames of the calculated area of interest is determined, if the difference is smaller than the predetermined threshold value, between the frames of the calculated area of interest And correcting the moving speed of the.
本発明によれば、注目部位のフレーム間での移動速度の補正が必要か否かを判定し、その判定結果に基づいて注目部位のフレーム間での移動速度を補正するようにした。これによって、注目部位が複数物体で構成されている場合であっても、その注目部位の正確な移動速度を算出することができ、注目部位のフレーム間での動きを正確に追跡することができる。 According to the present invention, it is determined whether or not it is necessary to correct the movement speed between frames of the site of interest, and the movement speed between frames of the site of interest is corrected based on the determination result. As a result, even when the attention site is composed of a plurality of objects, the accurate movement speed of the attention site can be calculated, and the movement of the attention site between frames can be accurately tracked. .
図1は、本実施の形態における画像処理装置の一実施の形態の構成を示すブロック図である。画像処理装置100は、カメラ101と、制御装置102とを備えている。カメラ101は、例えばCCDやCMOSなどの撮像素子を備え、レンズを通して入力される被写体像を連続して撮像し、撮像した画像データを制御装置102へ出力する。
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present embodiment. The
制御装置102は、CPUやその他周辺回路で構成され、撮像素子101から連続して入力される各フレームの画像データを処理して、画像内に存在する物体のフレーム間での動きを追跡する。このために、制御装置102は、追跡可能部位検出部102aと、速度算出部102bと、速度誤差推定部102cと、速度推定部102dと、速度補正部102eとを機能的に有している。
The
追跡可能部位検出部102aは、画像内に存在する物体のフレーム間での動きを追跡するための対象となる物体の部位(追跡可能部位)を検出する。この処理は、画像中の正確な二次元の移動量および移動速度を算出するために必要となる。
The traceable
例えば、公知の手法である連続するフレーム間における局所領域のブロック間マッチング、または濃度勾配法を使用した場合には、濃度値が均一な部位のフレーム間における追跡はできない。また、1次元方向にしか濃度勾配を持たない領域の追跡は、連続するフレーム間での対応関係が走査する順番に大きく依存するため、フレーム間で誤対応を生じる可能性があるために正確な移動量や速度が算出されない可能性がある。そこで、連続する画像間における正確な移動量および移動速度を計測するためには、各注目対象(注目部位)について、少なくとも二次元以上の方向に濃度勾配を有し、画像中の正確な速度が計測できる部位を追跡可能部位として特定する必要がある。 For example, when the matching between local blocks between consecutive frames or the density gradient method, which is a well-known method, is used, tracking between frames of a part having a uniform density value cannot be performed. In addition, tracking of a region having a density gradient only in a one-dimensional direction depends on the order in which the correspondence between consecutive frames greatly scans. Movement amount and speed may not be calculated. Therefore, in order to measure an accurate movement amount and movement speed between successive images, each target object (target site) has a density gradient in at least two dimensions, and the accurate speed in the image is It is necessary to specify a part that can be measured as a traceable part.
追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して画像内に存在するコーナーエッジを抽出し、抽出したコーナーエッジを追跡可能部位として検出する。具体的には、次のように処理する。
The traceable
まず、図2(a)に示すような、画像内に設定したマスク2a内における濃度分布とマスク2aの中心の濃度との類似度を計算する。マスク2aの移動可能範囲はあらかじめ指定した領域のみに制限するようにする。例えば、追跡可能部位検出部102aは、マスク2aの中心 (x0,y0) の色とマスク内(x,y) の濃度分布との類似度cを濃度空間における距離dを用いて次式(1)により算出する。なお、次式(1)において、thは色が類似しているか判別するための閾値である。
次に、次式(2)により、マスク内で類似度の総和をとることによってマスク中心のコーナーエッジらしさsを算出する。
式(2)によって算出されるマスク中心のコーナーエッジらしさsは、マスク中心 (x0,y0) がコーナーエッジから離れるにしたがって大きな値をとるため、次式(3)により反転処理を行う。次式(3)において、gはコーナーエッジ付近とそれ以外との差を強調するために設定するパラメータである。
これによって、図2(a)に示すように画像内のコーナーエッジ付近においては、コーナーエッジらしさRが大きく算出され、図2(b)に示すように、画像内のコーナーエッジから離れた点では、コーナーエッジらしさRは小さく算出されることになる。次に、この式(3)によって算出される反転後のコーナーエッジらしさRを用いて画像を2値化することによって、画像内に存在するコーナーエッジを抽出することができる。そして、追跡可能部位検出部102aは、抽出したコーナーエッジを追跡可能部位として検出する。
As a result, the corner edge likelihood R is greatly calculated in the vicinity of the corner edge in the image as shown in FIG. 2 (a), and at a point away from the corner edge in the image as shown in FIG. 2 (b). The corner edge likelihood R is calculated to be small. Next, the corner edge existing in the image can be extracted by binarizing the image by using the inverted corner edge likelihood R calculated by the equation (3). Then, the traceable
速度算出部102bは、追跡可能部位検出部102aで検出した追跡可能部位の連続するフレーム間での対応関係を特定し、追跡可能部位のフレーム間での移動量を算出する。そして算出した移動量と、フレーム間の時間間隔とに基づいて、追跡可能部位のフレーム間での移動速度(追跡可能部位の移動速度)を算出する。具体的には、連続するフレームの画像に対して公知のオプティカルフロー算出処理を行って、オプティカルフローを算出することにより追跡可能部位の移動速度を算出する。例えば、速度算出部102bは、図3に示すように、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジ51のx方向(横方向)の移動速度51aとy方向(縦方向)の移動速度51bを算出する。
The
さらに、速度算出部102bは、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジと濃度勾配とが連続している点を画像内から抽出し、抽出した点を注目部位として設定する。これによって、二次元の速度を計測できる追跡可能部位と連続して動く注目部位を画像内から検出することができる。
Furthermore, the
そして、設定した注目部位を対象として、公知のオプティカルフロー算出処理を用いて、連続するフレーム間での対応関係を特定し、当該注目部位のフレーム間での移動量を算出する。そして算出したフレーム間での移動量と、フレーム間の時間間隔とに基づいて、注目部位のフレーム間での特定方向の移動速度(注目部位の移動速度)を算出する。例えば,図3に示すように、注目部位52におけるx方向の速度52aを算出する。
Then, using a known optical flow calculation process for the set attention site, the correspondence between consecutive frames is specified, and the movement amount of the attention site between frames is calculated. Based on the calculated amount of movement between frames and the time interval between frames, a moving speed in a specific direction between the frames of the attention site (movement speed of the attention site) is calculated. For example, as shown in FIG. 3, the
速度誤差推定部102cは、速度算出部102bで算出された注目部位の特定方向の移動速度の誤差を推定する。なお、本実施の形態では、注目部位のx方向の移動速度の誤差を推定する方法について説明するが、y方向の移動速度の誤差についても同様に推定できる。
The speed error estimation unit 102c estimates an error in the movement speed in a specific direction of the site of interest calculated by the
ここで注目部位の移動速度の誤差について説明する。例えば、図3に示すエッジe(t)とエッジe(t+1)とが連続するフレーム間で対応している場合に、注目部位52を含むエッジと追跡可能部位51を含むエッジとの連続性から両点が同じエッジを形成する部位であると判断されたものとする。このとき、時刻tにおけるエッジe(t)が時刻t+1においてe(t+1)に移動した際(エッジが斜め下に動いたとき)に、注目部位52のx方向速度52aを算出した場合について考える。この場合、上述したように、1次元方向にしか濃度勾配を持たない領域の追跡は、連続するフレーム間での対応関係が走査する順番に大きく依存し、フレーム間で誤対応を生じる可能性があるため、注目部位52のx方向速度52aは誤差を含んで算出されることになる。
Here, an error in the movement speed of the target region will be described. For example, when the edge e (t) and the edge e (t + 1) shown in FIG. 3 correspond between successive frames, the continuity between the edge including the
速度誤差推定部102cは、この算出された注目部位52のx方向速度52aに含まれる誤差を推定するために、次のように処理を行う。まず、速度誤差推定部102cは、注目部位52の傾きを算出する。注目部位52の傾きは,例えば、Sobelフィルタなどのエッジ検出フィルタを用いて注目部位52を含むエッジを検出し、その縦エッジの強度Iv、および横エッジの強度Ihをそれぞれ算出する。そして、算出した縦エッジの強度Ivと横エッジの強度Ihとに基づいて、縦横エッジの強度比Iv/Iを算出し、次式(4)によりエッジの傾きθを算出する。なお、次式(4)においては、ここで,エッジがx軸に平行な場合にθ=0となるものとする。
次に、速度誤差推定部102cは、注目部位52を含むエッジの縦方向移動量に起因するエッジの横方向移動誤差を算出する。具体的には、式(4)で算出したエッジの角度に基づいて、エッジが縦方向に移動成分を有した場合のその縦方向移動量および移動速度が横方向移動量および移動速度に与える影響(誤差)を算出する。すなわち、図3に示すように、追跡可能部位51の縦方向移動速度51bおよび注目部位52の傾きに基づいて、エッジが縦方向に移動することにより注目部位52に生じる速度誤差53を算出する。
Next, the speed error estimating unit 102c calculates an edge lateral movement error caused by the amount of vertical movement of the edge including the
速度推定部102dは、速度算出部102bで算出された注目部位52のx方向速度52aから、速度誤差推定部102cで算出(推定)した注目部位52に生じる速度誤差53を引くことによって、注目部位52のx方向速度54を推定する。
The
以上の説明においては、注目部位52は、濃度変化の連続性より追跡可能部位51と同じエッジe(t)およびe(t+1)に属すると仮定して処理を行ってきた。この場合、追跡可能部位51と注目部位52とが同一対象の輪郭を形成する部位であれば、両部位のx方向速度51aおよび54はほぼ同じとなる。しかし、背景と手前の対象のエッジが重なる場合、例えば図4に示すように背景の壁から検出されるエッジと人物から検出されるエッジが重なる場合には、注目部位52の推定されたx方向速度54は追跡可能部位のx方向速度51aと異なる速度が推定されることになる。
In the above description, the processing has been performed on the assumption that the
そこで速度補正部102eは、正確な移動量および速度が観測されている追跡可能部位51の横方向速度51aと注目部位の推定速度54とを用いて、注目部位52が追跡可能部位51と同じ対象に属する部位か否かを判定し、その判定結果に基づいて、注目部位52のx方向速度52aの補正を行う。
Therefore, the
速度補正部102eは、まず、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値と、所定の閾値Thとを比較する。そして、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値が所定の閾値Th以下である場合には、注目部位52は追跡可能部位51と同じ対象に属する部位であると判定し、注目部位52のx方向速度52aを追跡可能部位51の横方向速度51aに置き換えて補正する。
The
これに対して、追跡可能部位51の横方向速度51aと注目部位の推定速度54との差分の絶対値が所定の閾値Thより大きい場合には、注目部位52は追跡可能部位51と同じ対象に属さない部位であると判定し、注目部位52をコーナーエッジ、すなわち追跡可能部位として設定し、再度上述した処理を実行する。
On the other hand, when the absolute value of the difference between the
このように、追跡可能部位検出部102aによって二次元の速度を計測できる部位を追跡可能部位として特定し、その追跡可能部位の速度を算出し、その算出された結果から追跡可能部位に連続する注目部位の速度を推定して、追跡可能部位と注目部位との速度の整合性を判定するようにした。これによって、追跡可能部位と注目部位とが同一の対象に属する部位か、あるいは異なる対象に属する部位かを精度高く判定することができる。また、整合性の判定結果に基づいて、注目部位の速度を補正するようにしたため、複数対象から構成される部位においても、その正確な速度を算出することができる。
In this way, the part capable of measuring the two-dimensional velocity by the traceable
図5は、本実施の形態における画像処理装置の処理を示すフローチャートである。図5に示す処理は、カメラ101から画像の入力が開始されると起動するプログラムとして、制御装置102により実行される。
FIG. 5 is a flowchart showing processing of the image processing apparatus according to the present embodiment. The processing shown in FIG. 5 is executed by the
ステップS10において、追跡可能部位検出部102aは、上述したように、画像内にマスクを設定し、マスク中心のコーナーエッジらしさsを算出することによって、コーナーエッジを検出し、検出したコーナーエッジを追跡可能部位として設定する。その後ステップS20へ進み、速度算出部102bは、追跡可能部位検出部102aで検出した追跡可能部位の連続するフレーム間での速度を算出して、ステップS30へ進む。
In step S10, as described above, the traceable
ステップS30では、速度算出部102bは、追跡可能部位検出部102aで追跡可能部位として検出したコーナーエッジと濃度勾配とが連続している点を画像内から抽出できたか否かを判断する。抽出できないと判断した場合には、後述するステップS110へ進む。これに対して抽出できたと判断した場合には、ステップS40へ進む。ステップS40では、抽出した点を注目部位として設定して、ステップS50へ進む。
In step S30, the
ステップS50では、速度算出部102bは、設定した注目部位の連続するフレーム間での速度を算出する。その後、ステップS60へ進み、注目部位を含むエッジの傾きを算出して、ステップS70へ進む。ステップS70では、速度誤差推定部102cは、上述したように、注目部位を含むエッジの移動誤差を算出する。その後、ステップS80へ進み、速度推定部102dは、速度算出部102bで算出された注目部位の速度から、速度誤差推定部102cで推定した注目部位に生じる速度誤差を引くことによって、注目部位の速度を推定する。その後、ステップS90へ進む。
In step S50, the
ステップS90では、速度補正部102eは、上述したように、正確な移動量および速度が観測されている追跡可能部位の速度と注目部位の推定速度とを用いて、注目部位が追跡可能部位と同じ対象に属する部位か否かを判定して、注目部位の速度を補正する必要があるか否かを判断する。補正の必要があると判断した場合には、ステップS100へ進む。ステップS100では、速度補正部102eは、注目部位の速度を追跡可能部位の速度に置き換えて補正する。その後、ステップS110へ進む。
In step S90, as described above, the
これに対して、補正の必要がないと判断した場合には、ステップS130へ進む。ステップS130では、速度補正部102eは、注目部位52を追跡可能部位として設定して、ステップS50へ戻る。
On the other hand, if it is determined that no correction is necessary, the process proceeds to step S130. In step S130, the
ステップS110では、カメラ101から入力されてくる画像が停止したか否かを判断する。画像の入力が停止されていないと判断した場合には、ステップS120へ進む。ステップS120では、カメラ101から入力されてくる次フレームの画像を処理対象として設定して、ステップS10へ戻る。これに対して、画像の入力が停止したと判断した場合には、処理を終了する。
In step S110, it is determined whether the image input from the
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)追跡可能部位検出部102aによって二次元の速度を計測できる部位を追跡可能部位として特定し、その追跡可能部位の速度を算出し、その算出された結果から追跡可能部位に連続して動く注目部位の速度を推定して、追跡可能部位と注目部位との速度の整合性を判定するようにした。これによって、追跡可能部位と注目部位とが同一の対象に属する部位か、あるいは異なる対象に属する部位かを精度高く判定することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) A part where a two-dimensional velocity can be measured by the traceable
(2)また、整合性の判定結果に基づいて、注目部位の速度を補正するようにしたため、複数対象から構成される部位においても、その正確な速度を算出することができる。 (2) Moreover, since the speed of the region of interest is corrected based on the consistency determination result, the accurate speed can be calculated even in a region composed of a plurality of objects.
(3)追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して、画像内に存在するコーナーエッジを抽出するようにした。これによって、従来の技術を活用して、精度高く画像内に存在するコーナーエッジを抽出することができる。
(3) The traceable
―変形例―
なお、上述した実施の形態の画像処理装置は、以下のように変形することもできる。
(1)上述した実施の形態では、追跡可能部位検出部102aは、カメラ101から入力される画像に対して、公知のSUSANオペレータを利用して、画像内に存在するコーナーエッジを抽出し、抽出したコーナーエッジを追跡可能部位として検出する例について説明した。しかしこれに限定されず、その他の方法によって追跡可能部位を検出してもよい。例えば、次のような処理を行って、画像内に存在する追跡可能部位を検出してもよい。
-Modification-
The image processing apparatus according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, the traceable
まず、追跡可能部位検出部102aは、カメラ101から入力される画像全体を所定の面積を有する領域に分割する。例えば、画像全体を5×5ピクセルの領域に分割する。そして、分割した各領域に対してエッジ抽出処理を行い、各領域内に存在するエッジを抽出する。その後、それぞれの領域内で抽出した各エッジの角度を算出し、それぞれの領域に含まれる各エッジの角度の分散を算出する。そして、各領域で算出したエッジの角度分散と、あらかじめ設定された所定の閾値とを比較して、エッジの角度分散が閾値以上の大きさを有する領域を追跡可能部位として抽出する。
First, the traceable
これによって、エッジの角度の分散が閾値以上の大きさを有する領域は、少なくとも二次元以上の濃度勾配方向がその領域内に含まれることを意味しており、この領域においてはフレーム間の対応関係を特定することができるため、フレーム間での物体の追跡が可能となることを加味して、追跡可能部位を精度高く検出することができる。 As a result, an area having an edge angle variance greater than or equal to a threshold means that the density gradient direction of at least two dimensions is included in the area, and in this area, the correspondence between frames Therefore, the traceable part can be detected with high accuracy, considering that the object can be tracked between frames.
(2)上述した実施の形態では、注目部位の速度を算出するために、公知のオプティカルフロー算出処理を用いて、連続するフレーム間での対応関係を特定し、当該注目部位のフレーム間での移動量を算出する例について説明した。しかしこれに限定されず、注目部位が濃度勾配を有し、かつ注目部位位置からエッジが検出される場合は、そのエッジが注目部位に滞留する時間を計測することによって注目部位の速度を算出してもよい。 (2) In the above-described embodiment, in order to calculate the speed of the attention site, a known optical flow calculation process is used to identify the correspondence between successive frames, and An example of calculating the movement amount has been described. However, the present invention is not limited to this, and when the site of interest has a concentration gradient and an edge is detected from the site of interest, the speed of the site of interest is calculated by measuring the time that the edge stays in the site of interest. May be.
(3)上述した実施の形態では、速度補正部102eは、追跡可能部位の速度と注目部位の推定速度との差分の絶対値と、所定の閾値Thとを比較し、その比較結果に応じて注目部位の速度の補正を行う例について説明した。しかしこれに限定されず、追跡可能部位の速度と注目部位の推定速度との差分の絶対値と、所定の閾値Thとを比較するに当たって、追跡可能部位および注目部位を微小な領域に限定し、微小な領域同士で追跡可能部位の速度と注目部位の推定速度との差分の絶対値を算出するようにしてもよい。これによって、追跡可能部位と注目部位の少なくとも一方が、濃度勾配方向が一様ではない部位、すなわち曲線的に濃度勾配を有する部位である場合でも、各微小領域における濃度勾配方向を直線近似することができるので、正確な速度検証を行うことができる。
(3) In the above-described embodiment, the
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、追跡可能部位検出部102aは追跡可能部位検出手段に、速度算出部102bは追跡可能部位速度算出手段、注目部位抽出手段、および注目部位速度算出手段に相当する。速度誤差推定部102c、および速度推定部102dは移動速度推定手段に、速度補正部102eは判定手段、および補正手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。
The correspondence between the constituent elements of the claims and the embodiment will be described. The
100 画像処理装置
101 カメラ
102 制御装置
102a 追跡可能部位検出部
102b 速度算出部
102c 速度誤差推定部
102d 速度推定部
102e 速度補正部
DESCRIPTION OF
Claims (6)
前記追跡可能部位検出手段で検出した前記追跡可能部位のフレーム間での移動速度を算出する追跡可能部位速度算出手段と、
各フレームの画像内で前記追跡可能部位と関連する部位を注目部位として抽出する注目部位抽出手段と、
前記注目部位のフレーム間での移動速度を算出する注目部位速度算出手段と、
前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した前記注目部位のフレーム間での移動速度を推定する移動速度推定手段と、
前記追跡可能部位速度算出手段で算出した前記追跡可能部位のフレーム間での移動速度、および前記移動速度推定手段で推定した誤差を加味した前記注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定する判定手段と、
前記判定手段において、前記差分が前記所定の閾値より小さい場合に、前記注目部位速度算出手段で算出した注目部位のフレーム間での移動速度を補正する補正手段とを備えることを特徴とする画像処理装置。 A traceable part detecting means for detecting a part (traceable part) that can be traced between frames existing in an image imaged by the imaging means;
A traceable part speed calculating means for calculating a moving speed between frames of the traceable part detected by the traceable part detecting means;
And attention site extracting means for extracting a region as a target site associated with said trackable site within images of each frame,
Attention site speed calculating means for calculating a moving speed between frames of the attention site;
A movement speed estimation unit that estimates an error of a movement speed between frames of the attention part calculated by the attention part speed calculation unit, and estimates a movement speed between frames of the attention part in consideration of the error;
A difference between a movement speed between frames of the traceable part calculated by the traceable part speed calculation unit and a movement speed between frames of the target part in consideration of an error estimated by the movement speed estimation unit A determination unit that determines whether or not it is necessary to correct the movement speed between frames of the target region calculated by the target region speed calculation unit by comparing with a threshold ;
Oite said determining means, when the difference is smaller than the predetermined threshold value, characterized in that it comprises a correcting means for correcting the moving speed between the attention area speed calculation region of interest calculated by means frame Image processing device.
前記追跡可能部位検出手段は、画像中に設定した所定領域内に含まれるエッジの角度を算出し、当該所定領域内におけるエッジの角度の分散に基づいて、前記追跡可能部位を検出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The traceable part detecting means calculates an angle of an edge included in a predetermined area set in the image, and detects the traceable part based on variance of the angle of the edge in the predetermined area. An image processing apparatus.
前記追跡可能部位検出手段は、画像内から抽出したコーナーエッジを前記追跡可能部位として検出することを特徴とする画像処理装置。 The image processing apparatus according to claim 1.
The traceable part detecting means detects a corner edge extracted from an image as the traceable part.
前記判定手段が、前記差分が前記所定の閾値より小さい場合に、同じ対象に属する部位であると判定することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 3,
The image processing apparatus , wherein the determination unit determines that the parts belong to the same target when the difference is smaller than the predetermined threshold .
前記判定手段は、前記追跡可能部位および前記注目部位を微小な範囲に限定し、微小な範囲に限定した追跡可能部位のフレーム間での移動速度、および微小な範囲に限定した注目部位のフレーム間での移動速度に基づいて、前記注目部位速度算出手段で算出された注目部位のフレーム間での移動速度の補正が必要か否かを判定することを特徴とする画像処理装置。 In the image processing device according to any one of claims 1 to 4,
The determination unit limits the traceable part and the attention part to a minute range, the movement speed between frames of the traceable part limited to the minute range, and the frames of the attention part limited to the minute range. An image processing apparatus that determines whether or not it is necessary to correct the moving speed between frames of the target region calculated by the target region speed calculating unit based on the moving speed at the point.
撮像された画像内に存在するフレーム間での追跡が可能な部位(追跡可能部位)を検出するステップと、Detecting a part (traceable part) that can be traced between frames existing in the captured image;
検出した前記追跡可能部位のフレーム間での移動速度を算出するステップと、Calculating a moving speed between frames of the detected traceable part;
各フレームの画像内で前記追跡可能部位と関連する部位を注目部位として抽出するステップと、Extracting a part related to the traceable part in the image of each frame as a target part;
前記注目部位のフレーム間での移動速度を算出するステップと、Calculating a moving speed between frames of the site of interest;
算出した注目部位のフレーム間での移動速度の誤差を推定し、誤差を加味した前記注目部位のフレーム間での移動速度を推定するステップと、Estimating the movement speed error between frames of the calculated target region, and estimating the movement speed between frames of the target region taking into account the error;
算出した前記追跡可能部位のフレーム間での移動速度、および推定した誤差を加味した前記注目部位のフレーム間での移動速度の差分と所定の閾値とを比較することにより、算出した注目部位のフレーム間での移動速度の補正が必要か否かを判定するステップと、By comparing the calculated movement speed between frames of the traceable part and the difference in movement speed between frames of the part of interest in consideration of the estimated error with a predetermined threshold, the calculated frame of the part of interest Determining whether or not the movement speed needs to be corrected between,
前記差分が前記所定の閾値より小さい場合に、算出した注目部位のフレーム間での移動速度を補正するステップとを有することを特徴とする画像処理方法。And a step of correcting the calculated movement speed of the target region between frames when the difference is smaller than the predetermined threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005331682A JP4710562B2 (en) | 2005-11-16 | 2005-11-16 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005331682A JP4710562B2 (en) | 2005-11-16 | 2005-11-16 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007140763A JP2007140763A (en) | 2007-06-07 |
JP4710562B2 true JP4710562B2 (en) | 2011-06-29 |
Family
ID=38203555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005331682A Expired - Fee Related JP4710562B2 (en) | 2005-11-16 | 2005-11-16 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4710562B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009017462A (en) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | Driving support system and vehicle |
KR101046935B1 (en) | 2010-07-05 | 2011-07-07 | (주)베라시스 | Apparatus and method for measuring driving speed of a vehicle |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH096947A (en) * | 1995-06-23 | 1997-01-10 | Toyota Central Res & Dev Lab Inc | Object tracking device |
JP2001141425A (en) * | 1999-11-12 | 2001-05-25 | Laboratories Of Image Information Science & Technology | Three-dimensional shape measuring device |
JP2002027480A (en) * | 2000-07-10 | 2002-01-25 | Fujitsu Ltd | Dynamic image processing method and apparatus thereof |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
JP2003306102A (en) * | 2002-04-11 | 2003-10-28 | Toshiba Corp | Passing vehicle detection device, and rear side alarm device for drive supporting system |
JP2005250910A (en) * | 2004-03-04 | 2005-09-15 | Keio Gijuku | Mobile object detection method and mobile object detection system |
-
2005
- 2005-11-16 JP JP2005331682A patent/JP4710562B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH096947A (en) * | 1995-06-23 | 1997-01-10 | Toyota Central Res & Dev Lab Inc | Object tracking device |
JP2001141425A (en) * | 1999-11-12 | 2001-05-25 | Laboratories Of Image Information Science & Technology | Three-dimensional shape measuring device |
JP2002027480A (en) * | 2000-07-10 | 2002-01-25 | Fujitsu Ltd | Dynamic image processing method and apparatus thereof |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
JP2003306102A (en) * | 2002-04-11 | 2003-10-28 | Toshiba Corp | Passing vehicle detection device, and rear side alarm device for drive supporting system |
JP2005250910A (en) * | 2004-03-04 | 2005-09-15 | Keio Gijuku | Mobile object detection method and mobile object detection system |
Also Published As
Publication number | Publication date |
---|---|
JP2007140763A (en) | 2007-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6458734B2 (en) | Passenger number measuring device, passenger number measuring method, and passenger number measuring program | |
JP5075672B2 (en) | Object detection apparatus and method | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
KR101618814B1 (en) | Method and Apparatus for Monitoring Video for Estimating Gradient of Single Object | |
JP5885398B2 (en) | Image processing apparatus and image processing method | |
KR100355125B1 (en) | Face-image processing apparatus | |
JP2005128619A (en) | Object measurement apparatus, object measurement method, and program | |
US11210773B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
JP2015206798A (en) | distance calculation device | |
JP2014009975A (en) | Stereo camera | |
KR20060064504A (en) | System for detecting targets and method thereof | |
CN108369739B (en) | Object detection device and object detection method | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP2018205870A (en) | Object tracking method and device | |
JP3988574B2 (en) | Image processing device | |
JP2010122078A (en) | Height detection system, and automatic ticket gate using the same | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
JP4710562B2 (en) | Image processing apparatus and image processing method | |
US9478032B2 (en) | Image monitoring apparatus for estimating size of singleton, and method therefor | |
JP2010003253A (en) | Motion estimation device | |
JP6165513B2 (en) | Hand gesture tracking system | |
JP4356140B2 (en) | Image motion vector measuring method and apparatus | |
JP2012221043A (en) | Image processing method and monitoring device | |
JP2004295416A (en) | Image processing apparatus | |
KR102453392B1 (en) | Method and Apparatus for Video Denoising Considering Moving Object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110203 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4710562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |