JP2016224627A - Image processing device, image processing method, and program - Google Patents
Image processing device, image processing method, and program Download PDFInfo
- Publication number
- JP2016224627A JP2016224627A JP2015109010A JP2015109010A JP2016224627A JP 2016224627 A JP2016224627 A JP 2016224627A JP 2015109010 A JP2015109010 A JP 2015109010A JP 2015109010 A JP2015109010 A JP 2015109010A JP 2016224627 A JP2016224627 A JP 2016224627A
- Authority
- JP
- Japan
- Prior art keywords
- image
- smoothing
- tracking
- contrast
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009499 grossing Methods 0.000 claims abstract description 62
- 238000000034 method Methods 0.000 abstract description 50
- 238000003706 image smoothing Methods 0.000 abstract description 28
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Abstract
Description
本発明は、画像内の対象をトラッキングする画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for tracking an object in an image.
同一シーンを連続撮影した動画像では、画像内において、撮影対象物の位置が変化する場合がある。
その場合において、動画像を構成する各画像内で、撮影対象物がどの領域に位置しているのかを追跡(トラッキング)するトラッキング技術が知られている。
In a moving image obtained by continuously shooting the same scene, the position of the shooting target may change in the image.
In that case, a tracking technique is known that tracks (tracks) in which region the photographic object is located in each image constituting the moving image.
トラッキング技術として、ブロックマッチング法が知られているが、これは動画像を構成する各画像内において撮影対象物の輝度パターンが大きく変化しないことを前提に、各画像において撮影対象物と輝度パターンが最も一致する位置を求める手法である。
ブロックマッチング法を用いた画像処理装置として、例えば、特許文献1には、追跡対象点が動画像を構成する画像間でどのように移動したのか推定し、その推定の結果得られる動きベクトルの確度が所定の閾値以上であることを条件に、追跡対象点が移動したものと判定する画像処理装置が記載されている。
As a tracking technique, a block matching method is known. This is based on the premise that the luminance pattern of the shooting target does not change significantly in each image constituting the moving image. This is a method for obtaining the most consistent position.
As an image processing apparatus using a block matching method, for example,
但し、特許文献1に記載された画像処理装置では、トラッキング処理を実行する上で、トラッキング処理の対象とする画像間で輝度が変化しないことを前提としている。
そのため、例えば、図10に示すような、陽炎等の大気の密度揺らぎが発生している空間を撮影した動画像において、撮影対象物(図10では、水平で濃さが均一の2本の線分)をトラッキングする場合、その動画像を構成する画像には、図10Bの楕円領域に示すように、ランダムな変形とランダムかつ非一様なボケが生じる。これにより各画像間で輝度が変化する(即ち、図10B1と図10B2では、線とその周辺の輝度が変化する)ことから、正確なトラッキングを行うことができない。
However, in the image processing apparatus described in
Therefore, for example, in a moving image obtained by photographing a space in which atmospheric density fluctuations such as a hot flame as shown in FIG. 10 are taken, an object to be photographed (in FIG. 10, two lines with horizontal and uniform darkness). In the case of tracking (minute), random deformation and random and non-uniform blur occur in the image constituting the moving image, as shown in the elliptical area of FIG. 10B. As a result, the luminance changes between the images (that is, the luminance of the line and its surroundings changes in FIGS. 10B1 and 10B2), and thus accurate tracking cannot be performed.
即ち、特許文献1に記載された画像処理装置では、撮影された動画像を構成する画像に、大気の密度揺らぎが発生している場合(即ち、ランダムな変形とランダムかつ非一様なボケが生じている場合)、トラッキング処理を実行する上で、その精度を担保することができない。
In other words, in the image processing apparatus described in
本発明は、前記従来の問題に鑑みてなされたものであって、その目的は、動画像を構成する画像において、ランダムな変形とランダムかつ非一様なボケが生じている場合であっても、トラッキング処理の精度を向上させることである。 The present invention has been made in view of the above-described conventional problems, and the object thereof is even when random deformation and random and non-uniform blur are generated in an image constituting a moving image. It is to improve the accuracy of the tracking process.
本発明は、動画像を構成する第一の画像から、トラッキング対象領域を設定する領域設定手段と、前記領域設定手段により設定されたトラッキング対象領域の各画素のコントラスト値と、前記動画像を構成する第二の画像の各画素のコントラスト値を計算するコントラスト計算手段と、前記コントラスト計算手段により計算された、前記トラッキング対象領域の各画素のコントラスト値に基づいて前記トラッキング対象領域を平滑化する第一平滑化手段と、前記コントラスト計算手段により計算された、前記第二の画像の各画素のコントラスト値に基づいて前記第二の画像を平滑化する第二平滑化手段と、前記第一平滑化手段により平滑化された前記トラッキング対象領域と類似する領域を前記第二平滑化手段により平滑化された前記第二の画像からトラッキングするトラッキング手段と、を有する画像処理装置である。 The present invention comprises, from a first image constituting a moving image, an area setting means for setting a tracking target area, a contrast value of each pixel of the tracking target area set by the area setting means, and the moving image. A contrast calculating means for calculating a contrast value of each pixel of the second image to be smoothed, and a first smoothing of the tracking target area based on the contrast value of each pixel of the tracking target area calculated by the contrast calculating means. One smoothing means, second smoothing means for smoothing the second image based on the contrast value of each pixel of the second image calculated by the contrast calculating means, and the first smoothing An area similar to the tracking target area smoothed by the second smoothing means is smoothed by the second smoothing means. And tracking means for tracking the image, an image processing apparatus having a.
本発明の画像処理装置によれば、動画像を構成する画像において、ランダムな変形とランダムかつ非一様なボケが生じている場合であっても、トラッキング処理の精度を向上させることができる。 According to the image processing apparatus of the present invention, it is possible to improve the accuracy of tracking processing even when random deformation and random and non-uniform blur occur in an image constituting a moving image.
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の実施形態に係る画像処理装置1の概略ブロック図である。
画像処理装置1は、図1に示すように、外部ストレージデバイス2と接続される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a schematic block diagram of an
The
画像処理装置1は、画像処理装置1に実装される撮影ユニット12(図2)により撮影された画像、又は外部ストレージデバイス2から転送された画像において、ユーザによりトラッキング対象とする領域が指定されると、トラッキング処理を実行する。
画像処理装置1は、トラッキング処理の実行結果を画像処理装置1に記憶し、必要に応じて外部ストレージデバイス2に転送する。
In the
The
図2は、本発明の実施形態に係る画像処理装置1のハードウェア概略構成図である。
画像処理装置1は、制御ユニット11、撮影ユニット12、ネットワークインタフェース(I/F)13、主記憶ユニット14、副記憶ユニット15、入力ユニット16、表示ユニット17を有する。
FIG. 2 is a schematic hardware configuration diagram of the
The
制御ユニット11は、CPU(Central Processing Unit)等のプロセッサであり、主記憶ユニット14に記憶されるプログラムを実行することで、各々のユニットを制御する。
撮影ユニット12は、例えば、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary MOS)イメージセンサ等の撮影素子であり、被写体を撮影すると、画像データを出力する。
The
The photographing
ネットワークインタフェース13は、例えば、LAN(Local Area Network)ケーブル等の有線通信手段、Wi−Fi(登録商標)、Bluetooth(登録商標)等の無線通信手段により、画像処理装置1と外部ストレージデバイス2とを接続するためのインタフェースである。
ネットワークインタフェース13は、制御ユニット11により、外部ストレージデバイス2から画像を取得する場合、また外部ストレージデバイス2にトラッキング処理の結果を送信する場合等に用いられる。
The
The
主記憶ユニット14は、例えば、ハードディスクドライブ(Hard Disk Drive;HDD)、ソリッドステートドライブ(Solid State Drive;SSD)等の記憶装置である。
主記憶ユニット14は、各種画像(例えば、撮影ユニット12により撮影された画像、外部ストレージデバイス2から転送された画像等)、制御ユニット11において実行されるプログラム、またトラッキング処理の結果等を記憶する。
The
The
副記憶ユニット15は、RAM(Random Access Memory)等の揮発性のメモリである。
副記憶ユニット15は、プログラムをロードするとき、またプログラムの計算結果を一時的に格納するときに用いられる。
The
The
入力ユニット16は、キーパッド等の入力装置であり、ユーザがソフトウェアを操作する場合(即ち、プログラムを実行する場合)、またトラッキング領域を指定する場合等に用いられる。
なお、入力ユニット16として、キーボード、マウス等の入力装置を、画像処理装置1に接続して用いることができる。
The
Note that as the
表示ユニット17は、液晶ディスプレイ(Liquid Crystal Display;LCD)等の表示装置である。
表示ユニット17は、各種画像、ソフトウェアの操作画面を表示する。
The
The
次に、画像処理装置1の機能構成について、図面を参照して説明する。
図3は、本発明の実施形態に係る画像処理装置1の機能ブロック図である。
画像取得部101は、主記憶ユニット14に記憶された画像(即ち、撮影ユニット12により撮影された画像、外部ストレージデバイス2から転送された画像)を、トラッキング処理の対象とする画像として取得する。
領域設定部102は、トラッキング処理の対象とする領域を設定(選択)する。
Next, the functional configuration of the
FIG. 3 is a functional block diagram of the
The
The area setting
コントラスト計算部103は、各画素のコントラスト値を計算する。
コントラスト計算部103における処理は、図6及び図7を用いて後述する。
画像平滑化部104は、コントラスト計算部103において計算されたコントラスト値に基づいて、平滑化を実行する。
画像平滑化部104における処理は、図8及び図9を用いて後述する。
The
The processing in the
The
The processing in the
トラッキング部105は、領域設定部102により設定された領域が、トラッキング処理の対象となる他方の画像でどの座標に位置しているかをトラッキングする。
具体的には、例えば、領域設定部102において選択された領域の輝度値のヒストグラムと、トラッキング処理の対象となる他方の画像の部分領域(即ち、領域設定部102において選択された領域と同一形状及び同一サイズ)の輝度値のヒストグラムの類似度を算出し、その類似度を用いたブロックマッチングにより、トラッキングする。
なお、輝度値のヒストグラムの類似度の算出に関しては、後述する。
The
Specifically, for example, the histogram of the luminance value of the region selected by the
The calculation of the similarity of histograms of luminance values will be described later.
ユーザは、主記憶ユニット14に記憶されたトラッキング処理の実行結果を、表示ユニット17において表示したり、また外部ストレージデバイス2に転送したりすることができる。
なお、画像取得部101、領域設定部102、コントラスト計算部103、画像平滑化部104、トラッキング部105は、画像処理装置1のコンピュータにプログラムを読み取らせることにより生成される機能実現手段である。
The user can display the execution result of the tracking process stored in the
Note that the
図4は、本発明の実施形態に係る画像処理装置1における処理全体の概要を示す図である。
なお、図4に示す処理は、同一シーンを撮影した同一サイズの画像が複数枚、主記憶ユニット14に記憶されていることを前提に開始される処理である。
また、図4は、最初に取得した画像(即ち、1枚目に取得した画像)において、ユーザにより設定された領域が、次に取得した画像(即ち、2枚目以降に取得した画像)において、どの領域に移動したのかをトラッキングする処理として例示したものである。
FIG. 4 is a diagram showing an overview of the entire processing in the
Note that the process shown in FIG. 4 is a process that is started on the assumption that a plurality of images of the same size obtained by photographing the same scene are stored in the
Also, FIG. 4 shows that in the first acquired image (that is, the first image acquired), the region set by the user is the next acquired image (that is, the image acquired after the second image). This is an example of a process for tracking which region it has moved to.
ここで、最初に取得した画像とは例えば、時間的に最初に位置する画像のことであり、この画像を第一画像(本発明の第一の画像に対応)という。図4では、第一画像に関する画像処理を、図4の上側に示している。
また、次に取得した画像とはトラッキング処理を実行する対象となる画像のことであり、この画像をターゲット画像という。図4では、ターゲット画像に関する画像処理を、図4の下側に示している。
なお、ターゲット画像は、本発明の第二の画像に対応する。
Here, the first acquired image is, for example, an image positioned first in time, and this image is referred to as a first image (corresponding to the first image of the present invention). In FIG. 4, image processing relating to the first image is shown on the upper side of FIG.
The next acquired image is an image to be subjected to tracking processing, and this image is referred to as a target image. In FIG. 4, image processing relating to the target image is shown on the lower side of FIG.
The target image corresponds to the second image of the present invention.
画像処理装置1は、第一画像において、トラッキング対象とする領域が設定されると、設定された領域を対象として、画素毎に、その画素のコントラスト値に応じて平滑化処理を実行する。
なお、第一画像に対して、画像平滑化部104により平滑化処理が実行された画像を第一平滑化画像という。
また、ここでの画像平滑化部104は、本発明の第一平滑化手段に対応する。
When an area to be tracked is set in the first image, the
An image obtained by performing the smoothing process on the first image by the
Moreover, the
画像処理装置1は、ターゲット画像に対して、画素毎に、その画素のコントラスト値に応じて平滑化処理を実行する。
なお、ターゲット画像に対して、画像平滑化部104により平滑化処理が実行された画像をターゲット平滑化画像という。
また、ここでの画像平滑化部104は、本発明の第二平滑化手段に対応する。
The
Note that an image obtained by performing the smoothing process on the target image by the
Moreover, the
画像処理装置1は、第一平滑化画像の選択領域に類似する領域を、ターゲット平滑化画像からトラッキング(探索)する。
このように、第一画像及びターゲット画像に対して平滑化処理を実行することで、第一画像におけるトラッキング対象領域と、ターゲット画像内のトラッキング対象が存在する領域には同程度の均質なボケが付与される(即ち、同様の輝度分布となる)ことから、輝度値が類似する領域をターゲット画像から探索することで、トラッキング対象画像の変形にロバストなトラッキングを実現することができる。
The
As described above, by performing the smoothing process on the first image and the target image, the tracking target area in the first image and the area where the tracking target exists in the target image have the same degree of uniform blur. Since it is given (that is, has a similar luminance distribution), tracking robust to deformation of the tracking target image can be realized by searching the target image for regions having similar luminance values.
図5は、本発明の実施形態に係る画像処理装置1における処理全体の手順を示すフロー図である。
図5は、第一画像においてユーザにより設定(選択)された領域が、ターゲット画像において、どの領域に移動したのかをトラッキングする処理の手順として例示したものである。
なお、図5に示す処理は、ターゲット画像、即ち、トラッキング処理の対象とする画像が、主記憶ユニット14に記憶されていることを前提に実行される処理である。
FIG. 5 is a flowchart showing a procedure of the entire processing in the
FIG. 5 shows an example of a processing procedure for tracking which region set (selected) by the user in the first image has moved to which region in the target image.
The process shown in FIG. 5 is a process that is executed on the assumption that the target image, that is, the image to be tracked is stored in the
画像取得部101は、第一画像を取得する(S101)。
領域設定部102は、第一画像において、ユーザにより選択された領域を、トラッキング対象領域として設定する(S102)。
なお、ここで、トラッキング対象領域は、矩形、円形等の任意の形状、またフリーハンドで選択することができる。
The
The
Here, the tracking target area can be selected by an arbitrary shape such as a rectangle or a circle, or by freehand.
コントラスト計算部103は、第一画像の各画素のコントラスト値を計算する(S103)。
なお、コントラスト計算部103における処理は、図6及び図7を用いて後述する。
また、ステップS103における、コントラスト値の計算処理は、ステップS102において選択された領域を対象として実行される。
The
The processing in the
Further, the contrast value calculation processing in step S103 is executed for the region selected in step S102.
画像平滑化部104は、第一画像の各画素のコントラスト値に基づいて、第一画像に対して、画素毎に平滑化処理を実行する(S104)。
なお、画像平滑化部104における処理は、図8及び図9を用いて後述する。
また、ステップS104における平滑化処理は、ステップS102において設定された領域を対象として実行される。
The
The processing in the
In addition, the smoothing process in step S104 is executed for the region set in step S102.
画像取得部101は、主記憶ユニット14にトラッキング処理の対象とする画像が記憶されているか否かを判定する(S105)。
画像取得部101は、トラッキング対象となる画像が記憶されていると判定すると(S105 Yes)、その画像(即ち、ターゲット画像)を取得する(S106)。
なお、ステップS105において、ターゲット画像が記憶されていないと判定すると(S105 No)、画像処理装置1は、処理を終了する。
The
If the
If it is determined in step S105 that the target image is not stored (No in S105), the
コントラスト計算部103は、ターゲット画像の各画素のコントラスト値を計算する(S107)。
なお、ステップS107における、コントラスト値の計算処理は、ステップS106において取得した画像全体を対象として実行される。
The
Note that the contrast value calculation processing in step S107 is executed for the entire image acquired in step S106.
画像平滑化部104は、ターゲット画像の各画素のコントラスト値に基づいて、ターゲット画像に対して、画素毎に平滑化処理を実行する(S108)。
なお、ステップS108における平滑化処理は、ステップS106において取得した画像全体を対象として実行される。
The
Note that the smoothing process in step S108 is executed for the entire image acquired in step S106.
トラッキング部105は、第一平滑化画像の選択された領域が、ターゲット平滑化画像のどこに位置するか、トラッキングする(S109)。
画像処理装置1は、ステップS109においてトラッキング処理が終了すると、処理をステップS105に返す。
The
When the tracking process ends in step S109, the
図6は、本発明の実施形態に係る画像処理装置1のコントラスト計算部103における処理を示す図である。
コントラスト計算部103は、コントラスト値を計算する対象となる画素を選択し、その対象画素周辺のコントラスト値を計算する。
コントラスト計算部103は、予め作成しておいたコントラスト配列の対象画素と同じ位置に、計算したコントラスト値を格納する。
FIG. 6 is a diagram showing processing in the
The
The
図7は、本発明の実施形態に係る画像処理装置1のコントラスト計算部103における処理の手順を示すフロー図である。
コントラスト計算部103は、コントラスト値を計算する対象となる画像の画素と同じサイズの数値データ配列をメモリ上に確保し、初期値として「−1」を挿入する(S201)。
FIG. 7 is a flowchart showing a processing procedure in the
The
コントラスト計算部103は、コントラスト値の計算対象とする画像に関して、コントラスト値を計算していない画素があるか否かを判定する(S202)。
コントラスト計算部103は、コントラスト値を計算していない画素があると判定すると(S202 Yes)、その計算していない画素の一つを指定(選択)する(S203)。
The
If the
コントラスト計算部103は、ステップS203において選択した画素周辺のコントラスト値を計算する(S204)。
具体的には、コントラスト計算部103は、その画素の周辺を、画素(x、y)を中心とする一辺が2×l+1の矩形として設定し、対象とする画素のコントラスト値を、その矩形内の画素の輝度値の標準偏差として計算する。
なお、標準偏差は次式で計算される。また、コントラスト値は、輝度値の分散、輝度値のトータルバリエーションから計算することもできる。
Specifically, the
The standard deviation is calculated by the following formula. The contrast value can also be calculated from the distribution of luminance values and the total variation of luminance values.
ここで、上式において、関数f(x+j、y+k)は、座標(x+j、y+k)における、画像の輝度値を表す関数である。
また、変数μは、画像の領域(ここでは、座標(x+j、y+k)を中心とした1辺が2×l+1の正方形領域)の輝度値の平均を示している。
Here, in the above equation, the function f (x + j, y + k) is a function representing the luminance value of the image at the coordinates (x + j, y + k).
Further, the variable μ represents an average of luminance values of an image area (here, a square area having one side of 2 × l + 1 centered on coordinates (x + j, y + k)).
コントラスト計算部103は、ステップS204において計算したコントラスト値を、コントラスト配列の対応する領域(即ち、対象画素と同じ位置)に書き込む(S205)。
なお、画素(x、y)とコントラスト配列の位置iの対応付けは、画像の幅をwとして、次式で計算される。
Note that the association between the pixel (x, y) and the position i of the contrast array is calculated by the following equation with the width of the image as w.
図8は、本発明の実施形態に係る画像処理装置1の画像平滑化部104における処理を示す図である。
画像平滑化部104は、平滑化の対象とする画素に関して、その画素のコントラスト値に応じた平滑化フィルタを作成する。
画像平滑化部104は、平滑化処理の適用対象領域の輝度情報を読み込み、平滑化処理を実行する。
画像平滑化部104は、予め作成しておいた平滑化画像の対象画素と同じ位置に、平滑化処理を実行することにより算出された輝度値を格納する。
FIG. 8 is a diagram showing processing in the
The
The
The
図9は、本発明の実施形態に係る画像処理装置1の画像平滑化部104における処理の手順を示すフロー図である。
画像平滑化部104は、ステップS201(図7)において、コントラスト値の計算対象とした画像と同じサイズの空の平滑化画像を生成する(S301)。
FIG. 9 is a flowchart showing a processing procedure in the
In step S201 (FIG. 7), the
画像平滑化部104は、平滑化処理の対象とする画像に関して、平滑化処理を実行していない画素があるか否かを判定する(S302)。
画像平滑化部104は、平滑化処理を実行していない画素があると判定すると(S302 Yes)、処理が実行されていない画素の一つを指定(選択)する(S303)。
The
If the
画像平滑化部104は、ステップS303において選択した画素のコントラスト値を、ステップS205(図7)において生成したコントラスト配列から取得する(S304)。
なお、画素(x、y)とコントラスト配列の位置iは、前述の数2により、対応付けられる。
The
Note that the pixel (x, y) and the position i of the contrast array are associated with each other by the above-described
画像平滑化部104は、その画素の周辺を、画素(x、y)を中心とする一辺が2×l+1の矩形(即ち、ガウシアンカーネル)として設定し、シグマ値がコントラスト値のガウシアンフィルタ(即ち、平滑化フィルタ)を生成する(S305)。
なお、シグマ値とはばらつきの度合いを示す値であり、シグマ値が大きいガウシアンフィルタほど、フィルタリング処理後の画像をぼかすことができる。
また、ここでは、平滑化フィルタの例としてガウシアンフィルタを示したが、平滑化フィルタとして、コントラスト値に比例したサイズをもつ値が一定の平滑化フィルタを生成してもよい。
The
The sigma value is a value indicating the degree of variation, and the Gaussian filter having a larger sigma value can blur the image after the filtering process.
Although a Gaussian filter is shown here as an example of the smoothing filter, a smoothing filter having a constant value having a size proportional to the contrast value may be generated as the smoothing filter.
画像平滑化部104は、ステップS303で指定した画素に対して、ステップS305で生成した平滑化フィルタを用いて、平滑化処理(フィルタリング処理)を実行する(S306)。
画像平滑化部104は、平滑化処理の実行結果である輝度値を、ステップS301において生成した空の平滑化画像の、ステップS303において指定した画素の位置に書き込む(S307)。
The
The
画像処理装置1は、トラッキング部105により、第一平滑化画像の選択された領域の輝度値のヒストグラムと、ターゲット平滑化画像の比較対象とする領域の輝度値のヒストグラムとを比較し、その類似性を評価し、その類似度を用いたブロックマッチングにより、トラッキング処理を実行する(即ち、最も類似度の高い領域を探索する)。
The
具体的には、H(k)を輝度値がkのピクセルの数を返す、輝度値のヒストグラムを示す関数として、第一平滑化画像の選択された領域の輝度値のヒストグラムを示す関数をHF(k)、またターゲット平滑化画像の比較対象とする領域の輝度値のヒストグラムを示す関数をHT(k)と定義し、輝度値kを変化させたときの、HF(k)とHT(k)の差分により類似性を評価する。
即ち、輝度値のヒストグラムの類似性は次式で示すことができ、変数rが最も小さい領域を最も類似性の高い領域として評価する。
なお、Lminは輝度値の最小値、Lmaxは輝度値の最大値を示している。
That is, the similarity of histograms of luminance values can be expressed by the following equation, and the region having the smallest variable r is evaluated as the region having the highest similarity.
Note that Lmin represents the minimum luminance value, and Lmax represents the maximum luminance value.
以上、説明したように、本発明の画像処理装置によれば、動画像を構成する画像においてランダムな変形とランダムかつ非一様なボケが生じている場合であっても、最初に取得した画像(即ち、第一の画像)及びトラッキング対象とする画像(即ち、第二の画像)に対して平滑化処理を実行し、同程度の均質なボケを付与することで、トラッキング処理の精度を向上させることができる。 As described above, according to the image processing apparatus of the present invention, even when random deformation and random and non-uniform blur occur in an image constituting a moving image, the first acquired image Smoothing processing is performed on the image (that is, the first image) and the image to be tracked (that is, the second image), and the degree of tracking processing is improved by applying the same degree of uniform blur. Can be made.
1…画像処理装置、2…外部ストレージデバイス、11…制御ユニット、12…撮影ユニット、13…ネットワークインタフェース、14…主記憶ユニット、15…副記憶ユニット、16…入力ユニット、17…表示ユニット、101…画像取得部、102…領域設定部、103…コントラスト計算部、104…画像平滑化部、105…トラッキング部。
DESCRIPTION OF
Claims (12)
前記領域設定手段により設定されたトラッキング対象領域の各画素のコントラスト値と、前記動画像を構成する第二の画像の各画素のコントラスト値を計算するコントラスト計算手段と、
前記コントラスト計算手段により計算された、前記トラッキング対象領域の各画素のコントラスト値に基づいて前記トラッキング対象領域を平滑化する第一平滑化手段と、
前記コントラスト計算手段により計算された、前記第二の画像の各画素のコントラスト値に基づいて前記第二の画像を平滑化する第二平滑化手段と、
前記第一平滑化手段により平滑化された前記トラッキング対象領域と類似する領域を前記第二平滑化手段により平滑化された前記第二の画像からトラッキングするトラッキング手段と、
を有する画像処理装置。 A region setting means for setting a tracking target region from the first image constituting the moving image;
Contrast calculation means for calculating the contrast value of each pixel of the tracking target area set by the area setting means and the contrast value of each pixel of the second image constituting the moving image;
First smoothing means for smoothing the tracking target area based on the contrast value of each pixel of the tracking target area calculated by the contrast calculating means;
Second smoothing means for smoothing the second image based on the contrast value of each pixel of the second image calculated by the contrast calculating means;
Tracking means for tracking an area similar to the tracking target area smoothed by the first smoothing means from the second image smoothed by the second smoothing means;
An image processing apparatus.
前記トラッキング手段は、前記第一平滑化手段により平滑化された前記トラッキング対象領域と輝度値が類似する領域を前記第二平滑化手段により平滑化された前記第二の画像からトラッキングする画像処理装置。 The image processing apparatus according to claim 1,
The tracking means tracks an area similar in luminance value to the tracking target area smoothed by the first smoothing means from the second image smoothed by the second smoothing means. .
前記コントラスト値が、前記コントラスト計算手段により計算対象とされる画素の周辺の所定の範囲内の輝度値の標準偏差である画像処理装置。 In the image processing apparatus according to claim 1 or 2,
An image processing apparatus, wherein the contrast value is a standard deviation of luminance values within a predetermined range around a pixel to be calculated by the contrast calculation means.
前記コントラスト値が、前記コントラスト計算手段により計算対象とされる画素の周辺の所定の範囲内の輝度値の分散である画像処理装置。 In the image processing apparatus according to claim 1 or 2,
An image processing apparatus, wherein the contrast value is a variance of luminance values within a predetermined range around a pixel to be calculated by the contrast calculation means.
前記コントラスト値が、前記コントラスト計算手段により計算対象とされる画素の周辺の所定の範囲内の輝度値のトータルバリエーションである画像処理装置。 In the image processing apparatus according to claim 1 or 2,
An image processing apparatus, wherein the contrast value is a total variation of luminance values within a predetermined range around a pixel to be calculated by the contrast calculation means.
前記トラッキング手段が輝度値のヒストグラムの類似度によるブロックマッチングによりトラッキングする画像処理装置。 The image processing apparatus according to any one of claims 1 to 5,
An image processing apparatus in which the tracking means performs tracking by block matching based on similarity of histograms of luminance values.
前記第一平滑化手段が前記トラッキング対象領域の各画素のコントラスト値に応じたサイズの平滑化フィルタであり、前記第二平滑化手段が前記第二の画像の各画素のコントラスト値に応じたサイズの平滑化フィルタである画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The first smoothing means is a smoothing filter having a size corresponding to the contrast value of each pixel of the tracking target area, and the second smoothing means is a size corresponding to the contrast value of each pixel of the second image. An image processing apparatus that is a smoothing filter.
前記第一平滑化手段が前記トラッキング対象領域の各画素のコントラスト値に応じたガウシアンカーネルを用いたガウシアンフィルタであり、前記第二の画像の各画素のコントラスト値に応じたガウシアンカーネルを用いたガウシアンフィルタである画像処理装置。 The image processing apparatus according to any one of claims 1 to 6,
The first smoothing means is a Gaussian filter using a Gaussian kernel corresponding to the contrast value of each pixel of the tracking target area, and uses a Gaussian kernel corresponding to the contrast value of each pixel of the second image. An image processing apparatus that is a filter.
前記領域設定手段により設定されるトラッキング対象領域がユーザによりフリーハンド又は所定の形状で設定された領域である画像処理装置。 The image processing apparatus according to any one of claims 1 to 8,
An image processing apparatus in which the tracking target area set by the area setting unit is an area set freehand or in a predetermined shape by a user.
コントラスト計算手段による、前記領域設定工程において設定されたトラッキング対象領域の各画素のコントラスト値を計算する第一のコントラスト計算工程と、
第一平滑化手段による、前記第一のコントラスト計算工程において計算された、前記トラッキング対象領域の各画素のコントラスト値に基づいて前記トラッキング対象領域を平滑化する第一の平滑化工程と、
コントラスト計算手段による、前記動画像を構成する第二の画像の各画素のコントラスト値を計算する第二のコントラスト計算工程と、
第二平滑化手段による、前記第二のコントラスト計算工程において計算された、前記第二の画像の各画素のコントラスト値に基づいて前記第二の画像を平滑化する第二の平滑化工程と、
トラッキング手段による、前記第一の平滑化工程において平滑化された前記トラッキング対象領域と類似する領域を、前記第二の平滑化工程において平滑化された前記第二の画像からトラッキングするトラッキング工程と、
を有する画像処理方法。 An area setting step for setting a tracking target area from the first image constituting the moving image by the area setting means;
A first contrast calculation step of calculating a contrast value of each pixel of the tracking target region set in the region setting step by a contrast calculation unit;
A first smoothing step of smoothing the tracking target region based on a contrast value of each pixel of the tracking target region calculated in the first contrast calculating step by the first smoothing unit;
A second contrast calculating step of calculating a contrast value of each pixel of the second image constituting the moving image by the contrast calculating means;
A second smoothing step of smoothing the second image based on the contrast value of each pixel of the second image calculated by the second smoothing means in the second contrast calculating step;
A tracking step for tracking a region similar to the tracking target region smoothed in the first smoothing step by the tracking unit from the second image smoothed in the second smoothing step;
An image processing method.
前記トラッキング工程は、前記第一平滑化工程において平滑化された前記トラッキング対象領域と輝度値が類似する領域を前記第二平滑化工程において平滑化された前記第二の画像からトラッキングする画像処理方法。 The image processing method according to claim 10,
In the tracking step, an image processing method for tracking a region similar in luminance value to the tracking target region smoothed in the first smoothing step from the second image smoothed in the second smoothing step .
動画像を構成する第一の画像から、トラッキング対象領域を設定する領域設定手段、
前記領域設定手段により設定されたトラッキング対象領域の各画素のコントラスト値と、前記動画像を構成する第二の画像の各画素のコントラスト値を計算するコントラスト計算手段、
前記コントラスト計算手段により計算された、前記トラッキング対象領域の各画素のコントラスト値に基づいて前記トラッキング対象領域を平滑化する第一平滑化手段、
前記コントラスト計算手段により計算された、前記第二の画像の各画素のコントラスト値に基づいて前記第二の画像を平滑化する第二平滑化手段、並びに
前記第一平滑化手段により平滑化された前記トラッキング対象領域と類似する領域を前記第二平滑化手段により平滑化された前記第二の画像からトラッキングするトラッキング手段として機能させるためのプログラム。 The computer of the image processing device
A region setting means for setting a tracking target region from the first image constituting the moving image;
Contrast calculation means for calculating the contrast value of each pixel of the tracking target area set by the area setting means and the contrast value of each pixel of the second image constituting the moving image;
First smoothing means for smoothing the tracking target area based on the contrast value of each pixel of the tracking target area calculated by the contrast calculation means;
Second smoothing means for smoothing the second image based on the contrast value of each pixel of the second image calculated by the contrast calculating means, and smoothed by the first smoothing means A program for causing a region similar to the tracking target region to function as tracking means for tracking from the second image smoothed by the second smoothing means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015109010A JP2016224627A (en) | 2015-05-28 | 2015-05-28 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015109010A JP2016224627A (en) | 2015-05-28 | 2015-05-28 | Image processing device, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016224627A true JP2016224627A (en) | 2016-12-28 |
Family
ID=57748143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015109010A Pending JP2016224627A (en) | 2015-05-28 | 2015-05-28 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016224627A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276596A (en) * | 1999-03-25 | 2000-10-06 | Nec Corp | Automatic tracking device |
JP2010057157A (en) * | 2008-07-29 | 2010-03-11 | Ricoh Co Ltd | Image processing unit, noise reduction method, program, and storage medium |
-
2015
- 2015-05-28 JP JP2015109010A patent/JP2016224627A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276596A (en) * | 1999-03-25 | 2000-10-06 | Nec Corp | Automatic tracking device |
JP2010057157A (en) * | 2008-07-29 | 2010-03-11 | Ricoh Co Ltd | Image processing unit, noise reduction method, program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9697416B2 (en) | Object detection using cascaded convolutional neural networks | |
EP3537378B1 (en) | Image processing apparatus and method for object boundary stabilization in an image of a sequence of images | |
WO2019041519A1 (en) | Target tracking device and method, and computer-readable storage medium | |
US10241317B2 (en) | Image processing apparatus and imaging apparatus | |
US9613404B2 (en) | Image processing method, image processing apparatus and electronic device | |
US20180295273A1 (en) | Device and method for detecting regions in an image | |
CN111357034A (en) | Point cloud generation method, system and computer storage medium | |
CN114298902A (en) | Image alignment method and device, electronic equipment and storage medium | |
JP2018195084A (en) | Image processing apparatus, image processing method, program, and storage medium | |
CN109661815A (en) | There are the robust disparity estimations in the case where the significant Strength Changes of camera array | |
CN114390201A (en) | Focusing method and device thereof | |
US20190005323A1 (en) | Information processing apparatus for tracking processing | |
WO2019123554A1 (en) | Image processing device, image processing method, and recording medium | |
JP2018113660A (en) | Information processing device, information processing method, and system | |
JP6229554B2 (en) | Detection apparatus and detection method | |
CN110047126B (en) | Method, apparatus, electronic device, and computer-readable storage medium for rendering image | |
WO2020082686A1 (en) | Image processing method and apparatus, and computer-readable storage medium | |
WO2018092422A1 (en) | Image processing device and image processing method | |
JP2016224627A (en) | Image processing device, image processing method, and program | |
JP6451300B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
JP2022076346A (en) | Image processing device, image processing method, and program | |
JP6600090B2 (en) | Image processing apparatus, image processing method, and program | |
CN116579907B (en) | Wafer image acquisition method, device, equipment and readable storage medium | |
JP2019176261A (en) | Image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191001 |