JP4210292B2 - Image change prediction method and image change prediction apparatus - Google Patents

Image change prediction method and image change prediction apparatus Download PDF

Info

Publication number
JP4210292B2
JP4210292B2 JP2006111000A JP2006111000A JP4210292B2 JP 4210292 B2 JP4210292 B2 JP 4210292B2 JP 2006111000 A JP2006111000 A JP 2006111000A JP 2006111000 A JP2006111000 A JP 2006111000A JP 4210292 B2 JP4210292 B2 JP 4210292B2
Authority
JP
Japan
Prior art keywords
image
change
prediction
change amount
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006111000A
Other languages
Japanese (ja)
Other versions
JP2007285762A (en
Inventor
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006111000A priority Critical patent/JP4210292B2/en
Publication of JP2007285762A publication Critical patent/JP2007285762A/en
Application granted granted Critical
Publication of JP4210292B2 publication Critical patent/JP4210292B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、時系列な画像の変化を予測する画像変化予測方法および画像変化予測装置に関わる。   The present invention relates to an image change prediction method and an image change prediction apparatus for predicting time-series image changes.

映像やセンサーが観測される気象情報からの気象予測を行う分野において、気象現象に代表される非定常な挙動パターンが扱われる。この挙動パターンは、気流、雲物理、放熱、湿度、温度、気圧、潜熱、等、さまざまな気象物理量が絡み合い特徴的なパターンとなる。気象レーダ画像には、こういった特徴的なパターンが時々刻々観測され、経験者による視覚的かつ直感的なパターンの近未来の変化を予測することが現業で行われている。気象レーダ上では、2次元画像の場合、気流の上昇と下降に伴った対流現象がパターンの見え・隠れとなって映し出される。   Unsteady behavior patterns represented by meteorological phenomena are handled in the field of weather prediction from weather information observed by images and sensors. This behavior pattern becomes a characteristic pattern in which various meteorological physical quantities such as airflow, cloud physics, heat radiation, humidity, temperature, atmospheric pressure, and latent heat are entangled. In the weather radar image, such characteristic patterns are observed every moment, and it is practiced to predict the near-future changes of the visual and intuitive patterns by experienced persons. On the weather radar, in the case of a two-dimensional image, the convection phenomenon accompanying the rise and fall of the air current is projected and displayed as a pattern.

計算機を用いる予測方法としては、連続した2枚の画像を用いて、画像処理分野でよく用いられているパターンマッチング法が適用されている。   As a prediction method using a computer, a pattern matching method often used in the field of image processing is applied using two consecutive images.

信号処理方法では、カルマンフィルターがノイズに埋もれた時系列パターン(データ)からの最尤推定法として広く適用されている。しかし、信号の状態量の確率密度関数が単峰性であることが仮定されている。また、拡張カルマンフィルターや非線形カルマンフィルターなどのモデルもあり、データの急峻な変化への追従性が高められている。データの予測も各種カルマンフィルターを用いることで、ノイズの影響を抑制した精度ある予測が実現されている。   The signal processing method is widely applied as a maximum likelihood estimation method from a time series pattern (data) in which a Kalman filter is buried in noise. However, it is assumed that the probability density function of the signal state quantity is unimodal. There are also models such as an extended Kalman filter and a nonlinear Kalman filter, which improve the ability to follow a sudden change in data. Data prediction also uses various Kalman filters to achieve accurate predictions that suppress the effects of noise.

気象レーダ画像の予測には、これまで移流拡散方程式に基づいた方法がある(特許文献1や特許文献2)。この方法では、2枚の画像を用いて、そこからオプティカルフロー法により動きベクトル(速度)を推定して、その速度により最新の1枚の画像パターンを予測する。
特許第3375038号 特許第3377075号
There are methods for predicting weather radar images based on the advection-diffusion equation (Patent Document 1 and Patent Document 2). In this method, a motion vector (velocity) is estimated from the two images using an optical flow method, and the latest one image pattern is predicted based on the motion vector.
Japanese Patent No. 3375038 Japanese Patent No. 3377075

第1の問題点)レーダパターンからの計算機による予測を行う場合に精度を大きく低下させている要因の一つとなっている。時空間的に分解能の高い情報が精度を決定づけるが、一般に気象レーダ情報を超えた情報はほとんど得られないのが現状である。   First problem) This is one of the factors that greatly reduce the accuracy when the computer predicts the radar pattern. Information with high spatial and temporal resolution determines accuracy, but in general, information exceeding meteorological radar information is hardly obtained.

第2の問題点)非定常性が強いことに加えて、見え・隠れが観測されることを決定論的に予測することは明らかに困難である。   Second problem) In addition to strong nonstationarity, it is clearly difficult to predict deterministically that appearance / hiddenness is observed.

第3の問題点)非定常性が強いことは、過去に類似したパターンがほとんど存在しないことが示唆されており、過去のパターンから現在のパターンと類似したものを検索しても、過去に類似したものがないことから予測することが困難である。   Third problem) The strong non-stationarity suggests that there are almost no patterns similar to the past, and even if a similar pattern to the current pattern is searched from the past patterns, it is similar to the past. It is difficult to predict because there is nothing to do.

第4の問題点)カルマンフィルターが信号の状態量の確率密度関数に対して、単峰性やガウス性を仮定しているため、気象レーダパターンの見え・隠れによるデータの不連続性には、非ガウス分布となるため、単峰性では対応できない。   Fourth problem) Since the Kalman filter assumes unimodality and Gaussianity for the probability density function of the signal state quantity, the discontinuity of data due to the visibility and hiding of weather radar patterns Because it has a non-Gaussian distribution, unimodality cannot be used.

第5の問題点)古い時代の気象現象については、経験者の記憶にしか残っていないことが多く、学習・認識(システム)方法にどのようにその情熱をどのように映させるかが課題である。   Fifth problem) As for weather phenomena in the old era, there are many things that remain only in the memory of experienced people, and how to reflect their passion on the learning and recognition (system) method is a challenge is there.

本発明では、1)確率論的予測方法として、コンピュータビジョンにおいて非定常予測法の一つである、CONDENSATION法と呼ばれる方法に基づいた気象パターン予測方法を適用する。また、2)データの状態量の確率密度関数を多峰性分布のものを扱えるようにする。また、3)移流拡散方程式と速度それぞれに変動量を付加したモデルを用いて、その変動量をCONDENSATION法により推定していく。また、4)変動量をロバスト関数のひとつであるローレンツ分布関数を通じて、過去からの速度の大きさ変化および画像強度の大きさ変化に基づいて更新する。   In the present invention, 1) as a probabilistic prediction method, a weather pattern prediction method based on a method called CONDENSATION method, which is one of non-stationary prediction methods in computer vision, is applied. 2) The probability density function of the state quantity of data can be handled with a multimodal distribution. 3) Using a model in which the amount of variation is added to each of the advection diffusion equation and the velocity, the amount of variation is estimated by the CONDENSATION method. 4) The fluctuation amount is updated based on the change in the magnitude of the velocity and the magnitude of the image intensity from the past through the Lorentz distribution function which is one of the robust functions.

本発明によれば、画像データパターンを観測したときにみられる、画像パターンの強度や形状の、急峻な変化があった場合でも安定かつ精度ある予測を実現できる。   According to the present invention, stable and accurate prediction can be realized even when there is a sharp change in the intensity or shape of an image pattern, which is seen when an image data pattern is observed.

以下、本発明の実施の形態を図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施の形態に係る画像変化予測装置の構成図である。   FIG. 1 is a configuration diagram of an image change prediction apparatus according to the present embodiment.

本装置は、入力手段100、蓄積手段110、速度推定手段120、演算手段130、変化量更新手段140および出力手段150により構成される。   The apparatus includes an input unit 100, a storage unit 110, a speed estimation unit 120, a calculation unit 130, a change amount update unit 140, and an output unit 150.

本装置では、データ入力手段100が、時系列な複数の画像、例えば、気象レーダの画像や一般の画像を入力し、該画像が蓄積手段110に蓄積される。速度推定手段120は、連続する2枚の画像からオプティカルフローより速度を推定し、演算手段130が、最新の画像と当該速度から画像の変化を予測する。なお、演算手段130は、画像強度の予測を移流拡散方程式で行い、速度の予測をナビエ・ストークス方程式および連続方程式で行う。変動量更新手段140は、予測が実際の変化に追随するように、CONDENSATION法により、予測で得られる変化量を更新する。なお、変動量更新手段140は、予測で得られる変化量を、ロバスト関数であるローレンツ分布関数を用いて、過去からの速度変化と画像強度変化に基づいて更新する。そして、出力手段150が変化量更新手段140を介して得られる画像(予測された画像)を出力(表示、印刷など)する。   In this apparatus, the data input unit 100 inputs a plurality of time-series images, for example, weather radar images and general images, and the images are stored in the storage unit 110. The speed estimation unit 120 estimates a speed from an optical flow from two consecutive images, and the calculation unit 130 predicts a change in the image from the latest image and the speed. Note that the computing unit 130 performs image intensity prediction using an advection diffusion equation and velocity prediction using a Navier-Stokes equation and a continuous equation. The fluctuation amount update unit 140 updates the amount of change obtained by the prediction by the CONDENSATION method so that the prediction follows the actual change. Note that the fluctuation amount updating unit 140 updates the amount of change obtained by the prediction based on the speed change and the image intensity change from the past using the Lorentz distribution function which is a robust function. Then, the output unit 150 outputs (displays, prints, etc.) an image (predicted image) obtained via the change amount update unit 140.

これにより、急峻な発達や衰退などによる見え隠れに対する不連続な変化に関わらず安定した予測精度が確保される。また、CONDENSATION法により、不連続性による速度変動や画像強度変動が吸収される。   As a result, stable prediction accuracy is ensured regardless of discontinuous changes with respect to visibility due to steep development or decline. Further, the CONDENSATION method absorbs speed fluctuations and image intensity fluctuations due to discontinuities.

なお、速度推定手段120、演算手段130、変化量更新手段140および出力手段150で装置を構成してもよい。つまり、入力手段100および蓄積手段110を別装置に構成してもよい。   The speed estimation unit 120, the calculation unit 130, the change amount update unit 140, and the output unit 150 may constitute the apparatus. That is, the input unit 100 and the storage unit 110 may be configured as separate devices.

続いて、各手段による処理を詳細に説明する。   Subsequently, processing by each means will be described in detail.

図2は、移流拡散方程式とオプティカルフローによる画像パターンの予測の例についての説明図である。   FIG. 2 is an explanatory diagram of an example of prediction of an image pattern by an advection diffusion equation and an optical flow.

連続した2枚の画像に、気象レーダパターンが時刻n−1と時刻nで観測され、その2枚からオプティカルフロー法(参考文献3)により速度を画素単位に推定する。次に、移流拡散方程式(式(1))により画像パターンの時刻n+1以降の変化を、時間発展を計算することによって得る。   A weather radar pattern is observed in two consecutive images at time n-1 and time n, and the velocity is estimated in pixel units from the two images by the optical flow method (reference document 3). Next, the change of the image pattern after time n + 1 is obtained by calculating the time evolution according to the advection diffusion equation (Equation (1)).

速度を既知な量として、以下に述べる。画像強度をIとし、画素(x,y)、時刻もしくは離散化した時間nとすると、I=I(x,y,n)と定義する(参考文献1)。Δtはここでは1.0とする。Uは2次元速度場ベクトル、λは拡散係数であり、ここでは1.0とする。∇は1次の空間微分演算子、∇・∇は2次の空間微分演算子、[・]はベクトル内積である。

Figure 0004210292
The speed is described below as a known quantity. If the image intensity is I, and pixel (x, y), time or discretized time n is defined as I = I (x, y, n) (Reference Document 1). Here, Δt is 1.0. U is a two-dimensional velocity field vector, λ is a diffusion coefficient, and is 1.0 here. ∇ is a primary spatial differential operator, ∇ / ∇ is a secondary spatial differential operator, and [•] is a vector dot product.
Figure 0004210292

計算は、式(1)を差分法に従って離散化し、2次元画像面および離散時間軸に沿って積分を繰り返すことによりなされる。ただし、初期画像の画像強度Iは入力したときの画像(時刻n)の強度であり、U=(u,v)は速度ベクトルであり、(u,v)は2次元速度成分である。ここでは、所定の時間積分回数が設定され、その回数だけ計算がなされる。演算の安定条件から時間間隔は小さくとり、その分、積分回数を多くするのがよい。拡散効果を期待しなくても、λ<0.0001と小さい値を設定しておくことで、誤差からの振動を抑制して計算の安定化を達成できる。   The calculation is performed by discretizing Equation (1) according to the difference method and repeating the integration along the two-dimensional image plane and the discrete time axis. However, the image intensity I of the initial image is the intensity of the input image (time n), U = (u, v) is a velocity vector, and (u, v) is a two-dimensional velocity component. Here, a predetermined number of time integrations is set, and the calculation is performed by that number. It is better to increase the number of integrations by taking a smaller time interval from the stability condition of the calculation. Even if the diffusion effect is not expected, by setting a small value as λ <0.0001, it is possible to suppress the vibration from the error and achieve the stabilization of the calculation.

観測された気象レーダの時系列画像の動き(移流速度成分)の検出は、オプティカルフロー法によるが、現時刻におけるものなので、特に、渦の移動と移流の未来にかけての動き予測が必要である。さらに、レーダ画像情報だけを用いるため、動き情報は画像パターンが存在している領域だけに限られる問題がある。これは画像パターンを予測する目的では、次の領域(画素)に進むための速度がないことから、大きな移流予測ができないことを意味している。このことから、画像パターンが存在しない領域にも何らか動きを推定する方法が不可欠である。残る問題は、セルの移動や変形が伴うことは、移流速度が変化していくことでもあるが、検出された移流速度をどのように変化させていくかである。そこで、本装置では、2段階の処理を行う。   Detection of the observed weather radar time-series image movement (convection velocity component) is based on the optical flow method, but it is at the current time, so it is particularly necessary to predict the movement of the vortex and the future of the advection. Furthermore, since only radar image information is used, there is a problem that motion information is limited only to a region where an image pattern exists. This means that, for the purpose of predicting an image pattern, there is no speed for proceeding to the next region (pixel), and therefore large advection prediction cannot be performed. Therefore, a method for estimating some motion even in an area where no image pattern exists is indispensable. The remaining problem is how to change the detected advection speed, although the accompanying movement and deformation of the cell also changes the advection speed. Therefore, this apparatus performs a two-stage process.

第一段階では、検出された移流速度を初期値として、移動平均フィルタ(式(2))を繰り返し用いることで、画像全体に移流速度を補間する。   In the first stage, the advection velocity is interpolated in the entire image by repeatedly using the moving average filter (equation (2)) with the detected advection velocity as an initial value.

第二段階では、式(3)つまりナビエ・ストークス(NS)方程式と連続方程式(NS方程式と総称する)により速度変化を予測する。式(3)では、ρ,p,νはそれぞれ密度、圧力(気圧)、粘性係数である。つまり、式(3)により、非線形かつ非定常な速度場予測を行うのである。連続方程式は、速度発散をゼロとすることで、対象に非圧縮性の条件を課すものである。   In the second stage, the speed change is predicted by the equation (3), that is, the Navier-Stokes (NS) equation and the continuous equation (collectively referred to as NS equation). In Equation (3), ρ, p, and ν are density, pressure (atmospheric pressure), and viscosity coefficient, respectively. That is, non-linear and non-stationary velocity field prediction is performed by the equation (3). The continuity equation imposes an incompressible condition on the object by setting the velocity divergence to zero.

式(3)のNS方程式は、これを非線形連立方程式として、HSMAC法(参考文献4)に従って差分法によりSOR法で解くことができる。   The NS equation of equation (3) can be solved by the SOR method by the difference method according to the HSMAC method (reference document 4), using this as a nonlinear simultaneous equation.

なお、NS方程式は、数値流体力学の分野では層流から乱流まで幅広く適用されているが、画像予測ではほとんど用いられていない。

Figure 0004210292
The NS equation is widely applied from laminar flow to turbulent flow in the field of computational fluid dynamics, but is rarely used in image prediction.
Figure 0004210292

図3は、時系列データを予測するCONDENSATION法について示す図である。 本方法は、パーティクルフィルタ(PF)とも呼ばれている。PFでは状態の確率密度関数に単峰性やガウス性という仮定は存在しない。そのため、PFでは任意の確率密度関数を取り扱うことが可能である。これは、気象レーダパターンが急に発達して表れたり、衰退により消える、あるいは、人や車が建物や樹木の間から見え隠れする、といった時空間データとしての不連続性にも頑丈(ロバスト)であるという特徴がある。以下に、PFの概要を述べる。   FIG. 3 is a diagram illustrating the CONDENSATION method for predicting time-series data. This method is also called a particle filter (PF). In PF, there is no assumption of unimodality or Gaussianity in the probability density function of the state. Therefore, an arbitrary probability density function can be handled in the PF. This is robust against discontinuities in spatio-temporal data such as weather radar patterns appearing suddenly developing, disappearing due to decline, or people and cars appearing and hiding between buildings and trees. There is a feature that there is. The outline of PF is described below.

PFは、各時刻における状態ベクトルを逐次的に推定するための手段の一つである。時刻tにおける状態ベクトルを状態空間S中のベクトルxtとし、観測ベクトルをytとする。また、観測ベクトルytの履歴をYt={y1,y2,y3・・・yt}とする。一般の、状態の推定とは、状態ベクトルxtの確率密度関数p(xt/Yt)を推定する問題として定式化される。 The PF is one of means for sequentially estimating the state vector at each time. A state vector at time t is a vector x t in the state space S, and an observation vector is y t . Further, a history of observation vector y t Yt = a {y1, y2, y3 ··· yt }. The general state estimation is formulated as a problem of estimating the probability density function p (x t / Y t ) of the state vector x t .

PFの場合は、図3に示すように、状態空間S中のN個の離散的な仮説stとそれに対応する重みπtを用いて、確率密度関数p(xt/Yt)を多数の離散的な仮説から形成される仮説群{(st;πt)}(i=1・・・N)として表現する。そのため、p(xt/Yt)により任意の非ガウス性の確率密度関数を近似することができる。 For PF, as shown in FIG. 3, using N discrete hypothesis s t and weights [pi t corresponding thereto in the state space S, the probability density function p (x t / Y t) number of This is expressed as a hypothesis group {(s t ; π t )} (i = 1... N) formed from discrete hypotheses. Therefore, an arbitrary non-Gaussian probability density function can be approximated by p (x t / Y t ).

PFの更新の手順を以下に示す。ここでは、予測部と観測部により処理を行う。   The procedure for updating the PF is shown below. Here, processing is performed by the prediction unit and the observation unit.

予測部では、(1−a)仮説群の確率分布に基づく仮説の選択を行った後、(1−b)選択された仮説にあらかじめ定義した動きモデルを適用する。ここで、動きモデルp(xt/Yt)の変数は、移流拡散方程式(式(1))による画像強度変化と、ナビエ・ストークス(NS)方程式および連続方程式(式(3))による速度変化を示す。 In the prediction unit, (1-a) after selecting a hypothesis based on the probability distribution of the hypothesis group, (1-b) applying a predefined motion model to the selected hypothesis. Here, the variables of the motion model p (x t / Y t ) are the image intensity change by the advection diffusion equation (Equation (1)) and the velocity by the Navier-Stokes (NS) equation and the continuous equation (Equation (3)). Showing change.

(1−c)これをN回繰り返すことにより、N個の新たな仮説を生成する。また、観測部では、(2−a)現時刻の観測量から得られる観測モデルをもとに各仮説に対応する重みを決定し、(2−b)現時刻での仮説群を新たに獲得する。なお、(1−b)で使用する動きモデルは一般に、移動と拡散で構成される。移動では予め定めた方法により仮説を移動し、拡散により移動された仮説にランダム雑音を加える。   (1-c) By repeating this N times, N new hypotheses are generated. The observation unit (2-a) determines a weight corresponding to each hypothesis based on the observation model obtained from the observation amount at the current time, and (2-b) newly acquires a hypothesis group at the current time. To do. Note that the motion model used in (1-b) is generally composed of movement and diffusion. In movement, a hypothesis is moved by a predetermined method, and random noise is added to the hypothesis moved by diffusion.

PFの問題点として、仮説の総数を制限したときの精度低下の問題が挙げられる。通常のPFにおいて状態ベクトルの次元が増加したとき、確率密度関数の近似精度を維持するために必要となる仮説の数はほぼ指数関数的に増加する。このため、実時間性を維持できる程度に仮説数を制限すると、状態ベクトルの次元によっては状態空間内の仮説の密度が不足するという現象が発生し、精度が大きく低下することがある。従って、PFを用いて一定水準以上の精度を保つには、仮説の数を減らすための工夫が必要である。   The problem with PF is the problem of reduced accuracy when the total number of hypotheses is limited. When the dimension of the state vector increases in a normal PF, the number of hypotheses required to maintain the approximate accuracy of the probability density function increases almost exponentially. For this reason, if the number of hypotheses is limited to such an extent that the real-time property can be maintained, a phenomenon that the density of hypotheses in the state space is insufficient depending on the dimension of the state vector may occur, and the accuracy may be greatly reduced. Therefore, in order to maintain an accuracy of a certain level or more using PF, a device for reducing the number of hypotheses is necessary.

そのための工夫として、リサンプリングやimportant sampling,partioned samplingなどの手法がある。   For this purpose, there are methods such as resampling, important sampling, and parted sampling.

これらの手法により、計算コストをほとんどそのままに、推定精度を改善することが可能である。   By these methods, it is possible to improve the estimation accuracy with almost the same calculation cost.

仮説群{(st-1 (i);πt-1 (i))}から新たな仮説群{(st (i);πt (i))}を生成
予測部:新たな仮説{st (i)}の生成
(1−a){(st-1 (i);πt-1 (i))}から重みπt-1 (i)をもとに仮説st-1’を選択
(1−b)動きモデルp(xt|xt-1=st-1')から仮説st (i)を生成
(1−c)(1−a)と(1−b)をN回繰り返しN個の仮説{st (i)}を獲得
観測部:重み{π(0)}の計算と{st (i);πt (i)}の決定
(2−a)観測モデルp(yt|xt=st (i)}から重みπt (i)を計算
(2−b)(2−a)をすべてのst (i)に適用し、{st (i);πt (i)}を獲得
上述した動きモデルは、本装置では、式(1)および式(3)が対応する。
Generation of a new hypothesis group {(s t (i) ; π t (i) )} from the hypothesis group {(s t-1 (i) ; π t-1 (i) )} Prediction unit: new hypothesis { Generation of s t (i) } (1-a) {(s t-1 (i) ; π t-1 (i) )} from hypothesis s t-1 based on weight π t-1 (i) (1-b) Generate a hypothesis s t (i) from the motion model p (x t | x t-1 = s t-1 ') (1-c) (1-a) and (1-b ) N times to obtain N hypotheses {s t (i) } Observation unit: calculation of weight {π (0) } and determination of {s t (i) ; π t (i) } (2-a ) Calculate weight π t (i) from observation model p (y t | x t = s t (i) } Apply (2-b) (2-a) to all st (i) , {s t (i) ; π t (i) } is acquired. In the apparatus, the above-described motion model corresponds to Formula (1) and Formula (3).

(拡散制御法)
式(4)のw1とw2は、それぞれ画像強度、速度に関しての変動量を示し、これらが、CONDENSATION法により推定・更新されていく。上述した拡散とは、各種外乱、データの不連続性などによる変化に関するものを示す。本装置では、拡散の幅を一定から状態に応じて、可変させる拡散制御法を適用して、より非定常な変化に対応できるようにする。ここでは、画像強度と速度について、2次元の各画素での時刻tとt−1での変化をz1,z2(式(5))とした場合、式(6)に示すような非線形ロバスト関数にいれて、それに比例する大きさで、拡散の大きさw1,w2を変えるようにする。σは分散であり、経験的に2.0とした。

Figure 0004210292
(Diffusion control method)
In Equation (4), w1 and w2 indicate fluctuation amounts related to image intensity and speed, respectively, and these are estimated and updated by the CONDENSATION method. The diffusion mentioned above refers to changes related to various disturbances, data discontinuities, and the like. In the present apparatus, a diffusion control method that varies the width of the diffusion according to the state from a certain level is applied to cope with a more unsteady change. Here, with respect to image intensity and speed, when the changes at time t and t−1 at each two-dimensional pixel are z1 and z2 (formula (5)), a nonlinear robust function as shown in formula (6) In other words, the diffusion levels w1 and w2 are changed by a size proportional thereto. σ is a variance, and is empirically set to 2.0.
Figure 0004210292

図4は、画像パターンの変化を移流拡散方程式とNS方程式を使って予測した従来法とCONDENSATION法に基づいて予測した本装置の比較例である。   FIG. 4 is a comparative example of the present apparatus in which the change of the image pattern is predicted based on the conventional method using the advection diffusion equation and the NS equation and the CONDENSATION method.

ある時刻での画像パターン200を従来法で予測すると、パターンの急な見え隠れが要因となり、実際の画像パターン200とは異なる形状の画像パターン210が得られる。これに対して、本装置によれば、渦の特徴を含む的確な画像パターン220が得られた。   When the image pattern 200 at a certain time is predicted by the conventional method, an image pattern 210 having a shape different from that of the actual image pattern 200 is obtained due to the sudden appearance and hiding of the pattern. On the other hand, according to the present apparatus, an accurate image pattern 220 including vortex characteristics was obtained.

図5は、急峻に画像強度が変化する画像パターンを人工的に生成してそれを予測した結果の比較例である。本装置によれば、真の位置データとの位置誤差が極めて少なく、急峻な動きと画像強度変化に追随した。それに対して、従来法によれば、画像強度が大きく変化したときには、予測が大きくはずれてしまった。   FIG. 5 is a comparative example of a result of artificially generating and predicting an image pattern in which the image intensity changes sharply. According to this apparatus, the position error with the true position data is extremely small, and it follows a steep movement and a change in image intensity. On the other hand, according to the conventional method, when the image intensity is greatly changed, the prediction is largely off.

以上のように、本装置によれば、時々刻々変化するパターンの発達・衰退に伴ったレーダ画像上の見え・隠れ問題が緩和され、複雑な動きパターンを簡易に精度よく予測できるようになる。なお、気象パターンに限らず、建物や樹木で見え隠れする走行車や歩行者の動きを安定かつ精度よく追従・予測する事象にも適用できるので、汎用性が高い。つまり、実環境変化でよく見られる、車や人の動き監視カメラや防犯システムなどに適用してもよい。   As described above, according to the present apparatus, the visible / hidden problem on the radar image associated with the development and decline of the pattern that changes from moment to moment is alleviated, and a complex motion pattern can be predicted easily and accurately. It can be applied not only to weather patterns, but also to events that follow and predict the movement of traveling vehicles and pedestrians that are visible and hidden in buildings and trees, and is highly versatile. In other words, the present invention may be applied to a vehicle or a human motion monitoring camera or a security system that is often seen in a real environment change.

なお、これまで説明した画像変化予測方法を本装置に実行させるコンピュータプログラムは、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープなどのコンピュータ読み取り可能な記録媒体に格納し、陳列などして流通させたり、当該コンピュータプログラムをインターネットなどの通信網を介して伝送させてもよい。   A computer program that causes the apparatus to execute the image change prediction method described so far is stored in a computer-readable recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, or a magnetic tape, and is displayed. The computer program may be distributed or transmitted via a communication network such as the Internet.

(参考文献1)流体の非線形現象−数理解析とその応用−:池田駿介:朝倉書店
(参考文献2)M.Isard and A.Blake,“Icondensation: Unifying low-level and high-level tracking in a stochastic framework”, Proc. (European Conference on Computer Vision) ECCV '98, pp.893-908, 1998.
(参考文献3)J.L.Barron, D.J.Fleet, and S.S.Beauchemin,“Performance of optical flow techniques”, IJCV, vol.12, no.1, pp.43-77, 1994.
(参考文献4)荒川忠一、“数値流体工学”、東京大学出版会、1995.
(Reference 1) Nonlinear phenomena in fluids-Mathematical analysis and its applications-: Keisuke Ikeda: Asakura Shoten (Reference 2) M. Isard and A. Blake, “Icondensation: Unifying low-level and high-level tracking in a stochastic framework ”, Proc. (European Conference on Computer Vision) ECCV '98, pp.893-908, 1998.
(Reference 3) JLBarron, DJFleet, and SSBeauchemin, “Performance of optical flow techniques”, IJCV, vol.12, no.1, pp.43-77, 1994.
(Reference 4) Tadaichi Arakawa, “Computational Fluid Engineering”, University of Tokyo Press, 1995.

本実施の形態に係る画像変化予測装置の構成図である。It is a block diagram of the image change prediction apparatus which concerns on this Embodiment. 移流拡散方程式とオプティカルフローによる画像パターンの予測の例についての説明図である。It is explanatory drawing about the example of the prediction of the image pattern by an advection diffusion equation and an optical flow. 時系列データを予測するCONDENSATION法について示す図である。It is a figure shown about the CONDENSATION method which estimates time series data. 画像パターンの変化を移流拡散方程式とNS方程式を使って予測した従来法とCONDENSATION法に基づいて予測した本装置の比較例である。It is the comparative example of this apparatus which predicted the change of the image pattern based on the conventional method and the CONDENSATION method which predicted using the advection diffusion equation and NS equation. 急峻に画像強度が変化する画像パターンを人工的に生成してそれを予測した結果の比較例である。This is a comparative example of the result of artificially generating and predicting an image pattern in which the image intensity changes sharply.

符号の説明Explanation of symbols

100 入力手段
110 蓄積手段
120 速度推定手段
130 演算手段
140 変化量更新手段
150 出力手段
100 Input means 110 Storage means 120 Speed estimation means 130 Calculation means 140 Change amount update means 150 Output means

Claims (5)

画像変化予測装置に構成された入力手段が、時系列な複数の画像を入力し、
前記画像変化予測装置に構成された蓄積手段に該画像が蓄積され、
前記画像変化予測装置に構成された速度推定手段が、連続する2つの画像からオプティカルフローにより速度を推定し、
前記画像変化予測装置に構成された演算手段が、最新の画像と前記速度から画像の変化を予測し、
前記画像変化予測装置に構成された変化量更新手段が、前記予測が実際の変化に追随するようにCONDENSATION法により前記予測で得られる変化量を更新し、
前記画像変化予測装置に構成された出力手段が、前記変化量更新手段を介して得られる画像を出力する画像変化予測方法であって、
前記演算手段が、画像強度の予測を移流拡散方程式で行い、速度の予測をナビエ・ストークス方程式および連続方程式で行い、
前記変化量更新手段が、非定常で非線形な変化に対応させるため、確率密度関数に、予測で得られた画像強度の変化量と速度の変化量とをあてはめて、前記CONDENSATION法により前記変化量を更新する際に、
Figure 0004210292
とした場合のz1とz2とを、ロバスト関数に入れて、それに比例する大きさで、前記w1とw2の大きさを変えることを特徴とする画像変化予測方法。
The input means configured in the image change prediction device inputs a plurality of time-series images,
The image is stored in storage means configured in the image change prediction device,
The speed estimation means configured in the image change prediction apparatus estimates the speed by optical flow from two consecutive images,
The calculation means configured in the image change prediction device predicts a change in image from the latest image and the speed,
A change amount updating means configured in the image change prediction device updates a change amount obtained by the prediction by a CONDENSATION method so that the prediction follows an actual change,
The output means configured in the image change prediction apparatus is an image change prediction method for outputting an image obtained via the change amount update means ,
The calculation means performs image intensity prediction using an advection diffusion equation, and speed prediction using a Navier-Stokes equation and a continuous equation,
In order for the change amount updating means to cope with non-stationary and non-linear changes, the change amount of the image intensity and the change amount of the speed obtained by the prediction are applied to the probability density function, and the change amount is determined by the CONDENSATION method. When updating
Figure 0004210292
An image change prediction method characterized in that z1 and z2 in the above case are put into a robust function and the magnitudes of w1 and w2 are changed by a magnitude proportional thereto .
前記変化量更新手段が、前記予測で得られる変化量を、ロバスト関数であるローレンツ分布関数を用いて、過去からの速度変化と画像強度変化に基づいて更新することを特徴とする請求項1記載の画像変化予測方法。   2. The change amount updating unit updates the change amount obtained by the prediction based on a speed change and an image intensity change from the past using a Lorentz distribution function which is a robust function. Image change prediction method. 時系列な複数の画像を入力する入力手段と、該画像が蓄積される蓄積手段と、連続する2つの画像からオプティカルフローにより速度を推定する速度推定手段と、最新の前記画像と前記速度から画像の変化を予測する演算手段と、前記予測が実際の変化に追随するようにCONDENSATION法により前記変化量を更新する変化量更新手段と、前記変化量更新手段を介して得られる画像を出力する出力手段とを備え、
前記演算手段が、画像強度の予測を移流拡散方程式で行い、速度の予測をナビエ・ストークス方程式および連続方程式で行い、
前記変化量更新手段が、非定常で非線形な変化に対応させるため、確率密度関数に、予測で得られた画像強度の変化量と速度の変化量とをあてはめて、前記CONDENSATION法により前記変化量を更新する際に、
Figure 0004210292
とした場合のz1とz2とを、ロバスト関数に入れて、それに比例する大きさで、前記w1とw2の大きさを変えることを特徴とする画像変化予測装置。
Input means for inputting a plurality of time-series images, storage means for storing the images, speed estimation means for estimating the speed by optical flow from two consecutive images, and the latest image and the image from the speed A calculation means for predicting a change in the output, a change amount update means for updating the change amount by a CONDENSATION method so that the prediction follows an actual change, and an output for outputting an image obtained via the change amount update means Means and
The calculation means performs image intensity prediction using an advection diffusion equation, and speed prediction using a Navier-Stokes equation and a continuous equation,
In order for the change amount updating means to cope with non-stationary and non-linear changes, the change amount of the image intensity and the change amount of the speed obtained by the prediction are applied to the probability density function, and the change amount is determined by the CONDENSATION method. When updating
Figure 0004210292
And z1 and z2 in the case of a, placed in robust functions, in magnitude proportional to it, the image change projection apparatus according to claim Rukoto changing the size of the w1 and w2.
前記変化量更新手段が、前記予測で得られる変化量を、ロバスト関数であるローレンツ分布関数を用いて、過去からの速度変化と画像強度変化に基づいて更新することを特徴とする請求項記載の画像変化予測装置。 The change amount update means, a change amount obtained by said prediction, using a Lorentz distribution function is a robust function, according to claim 3, wherein the update based on the speed change and image intensity variation from the past Image change prediction device. 請求項1または2記載の画像変化予測方法を画像変化予測装置に実行させるコンピュータプログラム。 Computer program for executing the image change prediction method according to claim 1 or 2, wherein the image change predictor.
JP2006111000A 2006-04-13 2006-04-13 Image change prediction method and image change prediction apparatus Active JP4210292B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006111000A JP4210292B2 (en) 2006-04-13 2006-04-13 Image change prediction method and image change prediction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006111000A JP4210292B2 (en) 2006-04-13 2006-04-13 Image change prediction method and image change prediction apparatus

Publications (2)

Publication Number Publication Date
JP2007285762A JP2007285762A (en) 2007-11-01
JP4210292B2 true JP4210292B2 (en) 2009-01-14

Family

ID=38757690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006111000A Active JP4210292B2 (en) 2006-04-13 2006-04-13 Image change prediction method and image change prediction apparatus

Country Status (1)

Country Link
JP (1) JP4210292B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4756660B2 (en) * 2008-03-14 2011-08-24 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method
JP4767305B2 (en) * 2008-11-05 2011-09-07 日本電信電話株式会社 Image deformation device, image deformation method, and image deformation program
JP4926163B2 (en) * 2008-12-18 2012-05-09 日本電信電話株式会社 Moving object detection device, moving object detection method, and moving object detection program
JP4756085B2 (en) * 2009-07-08 2011-08-24 日本電信電話株式会社 Image generation apparatus, image generation method, and image generation program
JP2012221339A (en) * 2011-04-12 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Image generating system, image generating method and program

Also Published As

Publication number Publication date
JP2007285762A (en) 2007-11-01

Similar Documents

Publication Publication Date Title
JP7335274B2 (en) Systems and methods for geolocation prediction
US10970558B2 (en) People flow estimation device, people flow estimation method, and recording medium
CN109190720B (en) Intelligent agent reinforcement learning method, device, equipment and medium
US11829886B2 (en) Epistemic and aleatoric deep plasticity based on sound feedback
CN108897836B (en) Method and device for robot to map based on semantics
KR100702663B1 (en) Method for catadioptric vision based localization and mapping in a particle filter framework
JP2014169865A (en) Target tracking device, target tracking program and target tracking method
JP4210292B2 (en) Image change prediction method and image change prediction apparatus
JP2015519837A (en) Video processing apparatus and method for removing haze contained in moving picture
JP7056842B2 (en) State estimator and program
JP4866896B2 (en) Weather forecasting device, weather forecasting method, and weather forecasting program
CN115222777A (en) Unsupervised training of optical flow estimation neural networks
CN112651535A (en) Local path planning method and device, storage medium, electronic equipment and vehicle
Ait Abdelali et al. An adaptive object tracking using Kalman filter and probability product kernel
Gündüz et al. A new YOLO-based method for social distancing from real-time videos
Moras et al. Grid occupancy estimation for environment perception based on belief functions and PCR6
Alaeiyan et al. Hybrid noise removal to improve the accuracy of inertial sensors using lifting wavelet transform optimized by genetic algorithm
Behera et al. Estimation of linear motion in dense crowd videos using Langevin model
WO2020149044A1 (en) Parameter selection device, parameter selection method, and parameter selection program
Altendorfer et al. A new approach to estimate the collision probability for automotive applications
JP2010097507A (en) Device, method, and program for extracting movement object
JP4819866B2 (en) Image tracking device, image tracking method, and image tracking program
JP2023043006A (en) Prediction device, prediction method, and prediction program
JP3377078B2 (en) Convection field change prediction and estimation device
KR20190070235A (en) Method for Estimating 6-DOF Relative Displacement Using Vision-based Localization and Apparatus Therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081014

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081024

R150 Certificate of patent or registration of utility model

Ref document number: 4210292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350