JP2003288603A - Method, device, program, and recording medium for image scene prediction - Google Patents

Method, device, program, and recording medium for image scene prediction

Info

Publication number
JP2003288603A
JP2003288603A JP2002092915A JP2002092915A JP2003288603A JP 2003288603 A JP2003288603 A JP 2003288603A JP 2002092915 A JP2002092915 A JP 2002092915A JP 2002092915 A JP2002092915 A JP 2002092915A JP 2003288603 A JP2003288603 A JP 2003288603A
Authority
JP
Japan
Prior art keywords
image
pattern
prediction
equation
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002092915A
Other languages
Japanese (ja)
Other versions
JP3953350B2 (en
Inventor
Hidetomo Sakaino
英朋 境野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2002092915A priority Critical patent/JP3953350B2/en
Publication of JP2003288603A publication Critical patent/JP2003288603A/en
Application granted granted Critical
Publication of JP3953350B2 publication Critical patent/JP3953350B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a prediction pattern having high precision from image information including a pattern in which shapes and textures change intricately which cannot be approximated using a rigid body model. <P>SOLUTION: Using various sensors, measurement instruments, and the Web as information sources, time-series image data is input by an image input part 1 and accumulated in an image accumulation part 2. A parameter estimation part 3 estimates a speed component which is a parameter required in an advection term based on a so-called optical flow procedure only using the current and part consecutive image data. A prediction calculating part 4 predicts changes in the pattern of the image up to the necessary image future and the output part 5 outputs the predicted image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、WEBやさまざま
な観測源から得られる画像化されたパターンの変化を予
測する方法に関する。
FIELD OF THE INVENTION The present invention relates to a method for predicting changes in imaged patterns obtained from WEB and various observation sources.

【0002】[0002]

【従来の技術】従来、複雑な形状やパターンを含んだ映
像パターンから濃淡値の変化を予測する方法は、ほとん
どが剛体モデルを仮定して、予測の間は、予測開始時の
パターン形状が不変で、初期パターン(初期とは予測開
始する直前の、現在の時間でのパターン)平行移動をし
た結果を予測結果としていた。符号化の分野における、
MPEG4や、気象レーダ、衛星画像、落雷画像等、す
べて、画像を複数のサブブロックに分割して、分割した
個々を独立に平行移動させて予測する方法が主流となっ
ている。
2. Description of the Related Art Conventionally, most of the methods for predicting the change in gray value from a video pattern including a complicated shape or pattern assume a rigid body model, and the pattern shape at the start of prediction does not change during the prediction. Then, the result of the parallel movement of the initial pattern (the pattern at the current time immediately before the start of the prediction) was used as the prediction result. In the field of coding,
The mainstream method is to divide an image into a plurality of sub-blocks, such as MPEG4, a weather radar, a satellite image, and a lightning strike image, and to independently perform parallel translation of each divided block for prediction.

【0003】図14は従来の気象レーダ画像における予
測方法によるものである。4駒を示すが、旋回状の低気
圧性パターンについて、従来法では、連続する時系列画
像(フレーム)間で、相互相関係数により、類似性を計
算して、最も類似している点間を移動ベクトルとし、線
形外挿を行うことをパターン予測としている。しかしな
がら、基本的なパラメータは、画像を複数に分割すると
きの、その数である。4駒は分割数をなし、1枚の初期
画像を分割して得られるサブブロックの数が25、10
0、400の場合であるが、いずれの場合も、不自然に
ブロック間が離れてしまっている問題がある。
FIG. 14 shows a conventional weather radar image prediction method. Although four frames are shown, with respect to a swirling low-pressure pattern, in the conventional method, the similarity is calculated between successive time-series images (frames) by the cross-correlation coefficient, and Is used as the movement vector, and linear extrapolation is used as the pattern prediction. However, the basic parameter is the number of divided images. The number of divisions is 4 frames, and the number of sub-blocks obtained by dividing one initial image is 25, 10.
In both cases, there is a problem that blocks are unnaturally separated from each other.

【0004】[0004]

【発明が解決しようとする課題】上述した従来の方法
は、剛体モデルを仮定しているため、剛体モデルでは容
易に近似できない、形状やテクスチャーが複雑に変化す
るパターンを含んだ映像から精度良く予測パターンを生
成することができなかった。
Since the conventional method described above assumes a rigid body model, it is possible to accurately predict from a video including a pattern in which the shape and texture change intricately, which cannot be easily approximated by the rigid body model. The pattern could not be generated.

【0005】本発明の目的は、剛体モデルでは容易に近
似できない、形状やテクスチャーが複雑に変化するパタ
ーンを含んだ映像情報だけから、精度良く予測パターン
を生成する映像シーン予測方法および装置を提供するこ
とにある。
An object of the present invention is to provide a video scene prediction method and apparatus for accurately generating a prediction pattern only from video information including a pattern whose shape and texture change intricately, which cannot be easily approximated by a rigid body model. Especially.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明の映像シーン予測方法は、時系列の画像情報
を入力するステップと、入力された画像情報を蓄積する
ステップと、入力された時系列画像を、拡散と、移流
と、異なる時系列の時系列画像の差分画像を分類して得
られる発達、衰退、停滞の5つのパターンで近似し、移
流項で必要とされるパラメータである速度成分につい
て、現在と過去の連続した画像の前記パターンの変化だ
けを用いて、オプティカルフローに基づいて推定するス
テップと、必要な予測時間までの予測演算を繰り返すス
テップと、予測結果を表示するステップを有する。
In order to achieve the above object, a video scene prediction method of the present invention comprises a step of inputting time-series image information, a step of accumulating the input image information. The time-series image is approximated by the five patterns of development, decline, and stagnation obtained by classifying diffusion, advection, and difference images of time-series images of different time series, and using the parameters required for the advection term. For a certain velocity component, using only changes in the pattern of the current and past consecutive images, an estimation based on the optical flow, a step of repeating the prediction calculation up to the required prediction time, and a prediction result are displayed. Have steps.

【0007】時系列画像を入力して、移流等の各要素パ
ターンに関する偏微分方程式や差分関数を、時間発展を
含んだ予測方程式で統合し、時間積を繰り返すことで、
(未来の)予測画像を得ることができる。
By inputting a time-series image, integrating partial differential equations and difference functions relating to each element pattern such as advection with a prediction equation including time evolution, and repeating time products,
A (future) predicted image can be obtained.

【0008】本発明は、気象分野では、気象予測として
防災につながり、気象では降水レーダー画像による降水
量の予測、衛星画像ならば、可視画像や赤外画像から雲
と晴予測、落雷画像から落雷予測が、降水と落雷情報を
統合すれば、集中豪雨と雷雲予測ができ、気象以外の一
般映像ならば、木々が揺らぐシーンからの風向きと強さ
のセンシング、波立ちの変化を予測する波浪予測、交通
渋滞や交通流の映像からの車両パターンの予測、人の流
れの予測、医療画像における血流パターンの変化と認知
過程予測、など、重心を明瞭に定義できなく、また、領
域分割が容易でない画像や映像シーンにおいて、未来の
映像情報を予測することで新しい価値をもった情報をつ
くりだすさまざまな分野に適用できる。
In the meteorological field, the present invention leads to disaster prevention as meteorological prediction, and in the case of meteorology, it predicts the amount of precipitation by a precipitation radar image, and if it is a satellite image, it predicts clouds and clear from visible images and infrared images, and from lightning images If the forecast integrates precipitation and lightning strike information, concentrated heavy rain and thundercloud forecasts can be made, and if it is a general image other than weather, sensing of the wind direction and strength from the scene where the trees sway, wave forecasting to predict changes in ripples, It is not possible to clearly define the center of gravity such as prediction of vehicle patterns from traffic congestion and traffic flow images, prediction of human flow, change of blood flow patterns in medical images and prediction of cognitive processes, etc. It can be applied to various fields to create information with new value by predicting future video information in images and video scenes.

【0009】[0009]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings.

【0010】図1は本発明の一実施形態の映像シーン予
測装置のブロック図である。
FIG. 1 is a block diagram of a video scene prediction apparatus according to an embodiment of the present invention.

【0011】本実施形態の映像シーン予測装置は画像入
力部1と画像蓄積部2とパラメータ推定部3と予測演算
部4と表示部5で構成されている。
The video scene prediction apparatus of this embodiment comprises an image input section 1, an image storage section 2, a parameter estimation section 3, a prediction calculation section 4 and a display section 5.

【0012】さまざまなセンサー、観測機器、WEBを
情報源とし、画像入力部1より時系列画像を入力し、画
像蓄積部2に蓄積する。パラメータ推定部3で数理方程
式で必要とされるパラメータを時系列画像が更新される
毎に自動的に推定し、予測演算部4で必要な予測時間ま
で、画像中のパターンの変化を予測し、表示部5で予測
された画像を表示する。
Using various sensors, observation equipment, and WEB as information sources, time series images are input from the image input section 1 and stored in the image storage section 2. The parameter estimation unit 3 automatically estimates the parameters required by the mathematical equation every time the time-series image is updated, and the prediction calculation unit 4 predicts the change in the pattern in the image until the prediction time required. The image predicted by the display unit 5 is displayed.

【0013】図2は、5つの基本時空間パターンモデル
を示す。さまざまに入力される画像パターンを5つの時
空間パターンで近似する。図2(1),(2),
(3),(4),(5)はそれぞれ異方拡散,流れを伴
った移流,衰退・吸い込み,湧き出し・発達,停滞の各
パターンの変化例である。それぞれのパターンは時間と
ともに、特徴的な変化を画素単位で示す。与えられる初
期パターン形状については任意である。
FIG. 2 shows five basic spatiotemporal pattern models. Various input image patterns are approximated by five spatiotemporal patterns. 2 (1), (2),
(3), (4), and (5) are examples of changes in each pattern of anisotropic diffusion, advection with flow, decline / suction, springing / developing, and stagnant. Each pattern shows a characteristic change on a pixel-by-pixel basis over time. The given initial pattern shape is arbitrary.

【0014】図3は、差分近似のオーダーの違いによる
予測パターンの不安定性を示す。入力画像は100×1
00画素数中、中心に濃淡値120の円を生成し、配置
した。円の半径は20画素である。円以外は画素値は2
55である。1画素8ビット階調である。移流方程式
(式1)を用いて、その差分近似のオーダーを変えた場
合のパターンの変化の相違を示す。
FIG. 3 shows the instability of the prediction pattern due to the difference in the order of difference approximation. Input image is 100 × 1
A circle having a gray value of 120 was generated and arranged in the center of the number of 00 pixels. The radius of the circle is 20 pixels. Pixel value is 2 except circles
55. One pixel has 8-bit gradation. Using the advection equation (Equation 1), the difference in the change of the pattern when the order of the difference approximation is changed is shown.

【0015】[0015]

【数1】 移流方程式は、流体力学の分野で広く用いられている基
本方程式の一つである。数式中、濃淡値Iは、2次元の
ある1点の位置
[Equation 1] The advection equation is one of the basic equations widely used in the field of fluid dynamics. In the formula, the grayscale value I is the position of one point in two dimensions.

【0016】[0016]

【外1】 、時間t、速度[Outer 1] , Time t, speed

【0017】[0017]

【外2】 をパラメータとしてもつ。右辺は、演算子[Outside 2] Has as a parameter. The right side is the operator

【0018】[0018]

【外3】 があるが、これは、濃淡値についての1次の空間微分で
ある。差分法で、未来の濃淡値変化は、式(2)のよう
に、時間と空間について離散化し、時間発展を計算すれ
ば容易に得ることができる。初期の画像濃淡値は、ここ
では、円の濃淡値そのものである。時間項は前進差分、
空間項は、1次オーダーの場合である。3次オーダーの
場合は、式(3)となる。離散項において、Δt,Δ
x,Δyは、それぞれ時間,水平,垂直方向の離散幅で
ある。
[Outside 3] , Which is the first-order spatial derivative of the gray value. By the difference method, the future gray value change can be easily obtained by discretizing the time and space and calculating the time evolution, as in Expression (2). The initial image gray value is here the gray value of the circle itself. The time term is the forward difference,
The spatial term is the case of the first order. In the case of the third order, the formula (3) is obtained. In discrete terms, Δt, Δ
x and Δy are discrete widths in the time, horizontal and vertical directions, respectively.

【0019】[0019]

【数2】 このシミュレーションでは、すべて1とした。速度場に
ついては、斜め右下方向に、全面に一定の速度を与えて
いる。数値実験の結果、差分近似のオーダーの相違によ
る予測パターンの相違は、1次近似1と、3次近似2と
なった。同一の速度場と、時間積分幅であっても、1次
近似の場合は途中から振動解が発生してしまっており、
不安定な予測結果がでている。一方、3次近似の場合
は、最後までほとんど振動解が見られず安定であると言
える。このことから、長時間のパターン予測は移流方程
式を3次オーダーのように、高次のオーダーで近似する
のが適当である。ここで、移流基本方程式を導出する。
[Equation 2] In this simulation, all were set to 1. Regarding the velocity field, a constant velocity is applied to the entire surface in the diagonally lower right direction. As a result of the numerical experiment, the difference in the prediction pattern due to the difference in the order of the difference approximation is the first approximation 1 and the third approximation 2. Even if the velocity field and time integration width are the same, in the case of the first-order approximation, the vibration solution has occurred midway,
Unstable forecast results are coming out. On the other hand, in the case of the third-order approximation, almost no vibration solution is seen until the end, and it can be said that it is stable. From this, it is appropriate for long-term pattern prediction to approximate the advection equation in a higher order such as a third order. Here, the basic advection equation is derived.

【0020】ある変量A variable

【0021】[0021]

【外4】 の微小時間における時間と1次元移動の変化するものと
して、式(4)のように、2次オーダまでテイラー展開
する。
[Outside 4] As a change of the time and the one-dimensional movement in the minute time of, the Taylor expansion is performed up to the second order as shown in Expression (4).

【0022】[0022]

【数3】 ここで、[Equation 3] here,

【0023】[0023]

【外5】 が発達や衰退等の変化がない場合、[Outside 5] If there is no change such as development or decline,

【0024】[0024]

【外6】 に対する1次元の移流基本方程式を導出できる。特に、
空間微分を拡張すれば、2次元移流方程式(式(5))
を得る。
[Outside 6] A one-dimensional advection basic equation for can be derived. In particular,
If the spatial differentiation is expanded, the two-dimensional advection equation (Equation (5))
To get

【0025】[0025]

【数4】 次に、式(5)を風上差分方法により離散化すると、式
(6)のようになる。この方法は、流れの方向に応じ
て、前進差分と後退差分を適応的選択して計算すること
で、誤差伝播の影響による差分誤差を制御することを特
徴とする。式(6)は1次オーダである。
[Equation 4] Next, when the equation (5) is discretized by the upwind difference method, the equation (6) is obtained. This method is characterized in that the difference error due to the influence of error propagation is controlled by adaptively selecting and calculating the forward difference and the backward difference according to the flow direction. Equation (6) is a first order.

【0026】[0026]

【数5】 式(6)をテイラー展開してその特性を解析する。[Equation 5] The characteristic is analyzed by expanding the expression (6) by Taylor.

【0027】[0027]

【数6】 式(7)式の右辺第二項が数値拡散項であり、数値解を
平滑化する効果を有する。第3項は数値分散項であり、
数値解を振動させる。次に式(6)から3次元オーダの
風上差分式を導出する。空間上の1点を近傍の3点を用
いて、2次式で補間をすると、式(8)を得る。
[Equation 6] The second term on the right side of the equation (7) is a numerical diffusion term and has an effect of smoothing the numerical solution. The third term is the numerical variance term,
Vibrate the numerical solution. Next, a three-dimensional windward difference equation is derived from equation (6). When one point on the space is interpolated by a quadratic equation using three neighboring points, equation (8) is obtained.

【0028】[0028]

【数7】 式(8)を速度の絶対を用いて、1つにまとめると、式
(9)を得る。
[Equation 7] When the equation (8) is combined into one using the absolute value of the velocity, the equation (9) is obtained.

【0029】[0029]

【数8】 式(9)の特性を見るために、テイラー展開すると、数
値分散項の
[Equation 8] To see the characteristics of equation (9), if you expand it by Taylor expansion,

【0030】[0030]

【数9】 が含まれる。安定化のために、第一項を[Equation 9] Is included. For stabilization, the first term

【0031】[0031]

【数10】 で置き換えて相殺効果をつくる(河村スキーム)。さら
に式(9)の第二項に含まれる4階微分の数値拡散項の
効果を緩和させるために、
[Equation 10] To create an offsetting effect (Kawamura scheme). Furthermore, in order to mitigate the effect of the numerical diffusion term of the fourth derivative included in the second term of Expression (9),

【0032】[0032]

【数11】 で置き換える。これらをまとめて、本明細書で適用して
いる3次オーダの風上差分式(10)を得る。ここで
は、1次元であるが、2次元も場合も同様に導出でき
る。
[Equation 11] Replace with. These are put together to obtain the third-order upwind difference equation (10) applied in this specification. Although it is one-dimensional here, it can be derived similarly in the case of two-dimensional.

【0033】[0033]

【数12】 式(10)をテイラー展開で解析する。αの大きさによ
って、4階微分項に起因する数値拡散効果が大きいこと
がわかる。
[Equation 12] The expression (10) is analyzed by Taylor expansion. It can be seen that the numerical diffusion effect due to the fourth derivative term is large depending on the magnitude of α.

【0034】[0034]

【数13】 図4は等方拡散法と異方拡散法の相違を示す。ここで
は、入力画像(降水)パターンは、気象庁レーダ画像か
ら得られる、降水強度に関する画像であり、雨または雪
の降水量と降水域に関する。8ビット階調であり、表示
上、白ほど強く、黒ほど弱い。降水パターンは、200
0年7月4日、都内で史上2番目の降水量を記録したと
きの、いわゆる集中豪雨パターンである。画像サイズ
は、200×200画素、1画素が2.5km単位。こ
こでは、数値実験として、拡散方程式(式(11))と
異方拡散方程式(式(12))を用いて、入力した初期
画像パターン(集中豪雨パターンを示したときの気象レ
ーダー画像パターンI)がどのように変化するかについ
てシミュレーションする。
[Equation 13] FIG. 4 shows the difference between the isotropic diffusion method and the anisotropic diffusion method. Here, the input image (precipitation) pattern is an image relating to the rainfall intensity, which is obtained from the JMA radar image, and relates to the rainfall amount or the precipitation area of rain or snow. It has 8-bit gradation, and white is stronger and black is weaker in display. The precipitation pattern is 200
This is the so-called heavy rainfall pattern when the second highest rainfall ever recorded in Tokyo on July 4, 2000. The image size is 200 x 200 pixels, and one pixel is 2.5 km unit. Here, as a numerical experiment, the input initial image pattern (the weather radar image pattern I when a concentrated heavy rain pattern is shown) using the diffusion equation (Equation (11)) and the anisotropic diffusion equation (Equation (12)). Simulate how changes in.

【0035】[0035]

【数14】 拡散方程式の右辺は、濃淡値Iについての2次微分項で
ある。拡散係数λである。単位フレーム当たりの、拡散
の広がりの程度を制御する。異方拡散方程式の右辺の第
一項は拡散項と同じ等方性を記述し、第二項は、画像濃
淡値の1次の勾配(エッジ)の大きさに応じて、拡散係
数が変化する。エッジが大きいところは拡散係数を小さ
く、小さいところは拡散係数が大きくなる。この制御機
構により、拡散効果はあるものの、エッジ構造が保たれ
やすくなる利点を有する。なお、図4中のnは式(1
9)における、繰り返し計算した時の途中の回数であ
る。
[Equation 14] The right side of the diffusion equation is the second derivative term for the gray value I. The diffusion coefficient λ. Controls the extent of spread per unit frame. The first term on the right side of the anisotropic diffusion equation describes the same isotropicity as the diffusion term, and the second term changes the diffusion coefficient according to the magnitude of the first-order gradient (edge) of the image gray value. . When the edge is large, the diffusion coefficient is small, and when the edge is small, the diffusion coefficient is large. This control mechanism has an advantage that the edge structure is easily maintained, although it has a diffusion effect. In addition, n in FIG.
It is the number of times in the middle of repeated calculation in 9).

【0036】差分法により、式(11),(12)をそ
れぞれを離散化すると、式(13),(14)になる。
離散項において、Δt,Δx,Δyは、それぞれ時間,
水平,垂直方向の離散幅である。
When equations (11) and (12) are discretized by the difference method, equations (13) and (14) are obtained.
In the discrete term, Δt, Δx, and Δy are time,
It is a discrete width in the horizontal and vertical directions.

【0037】[0037]

【数15】 このシミュレーションでは、すべて1とした。濃淡値I
に関しての時間発展値が予測した濃淡値となる。実際の
降水パターンにおいて、等方拡散(図4(2))と異方
拡散(図4(1))の変化は反復回数が進むにつれて顕
著に違いが生じてくる。異方拡散法は、エッジ構造を保
ったまま平滑化を行うので、見かけのパターンのぼけが
抑制される(参考文献:P.Perona and J.Malik, “Scal
e-space and edge detection using anisotropic diffu
sion”, IEEE Trans. Pattern Analysis and Machine I
ntelligence, vol.12, no.7, pp.629-639, 1990.)。等
方拡散法は均一に平滑化を行う。
[Equation 15] In this simulation, all were set to 1. Gray value I
The time development value of is the predicted gray value. In an actual precipitation pattern, the difference between isotropic diffusion (FIG. 4 (2)) and anisotropic diffusion (FIG. 4 (1)) changes remarkably as the number of iterations increases. The anisotropic diffusion method smooths the edges while preserving the edge structure, thus suppressing the apparent blurring of the pattern (reference: P. Perona and J. Malik, “Scal
e-space and edge detection using anisotropic diffu
sion ”, IEEE Trans. Pattern Analysis and Machine I
ntelligence, vol.12, no.7, pp.629-639, 1990.). The isotropic diffusion method performs uniform smoothing.

【0038】図5は、差分画像の3つの状態(発達,衰
退,停滞)の相違を示す。ここで用いているのは、降水
パターンである。2000年7月8日の、関東に上陸し
た大型台風パターンである。図5(1)上段に、連続し
た台風の降水パターンの実物を示す。10分間の観測時
間の開きがある。下段には、左側に発達と衰退領域とし
て差分計算された結果を示し、右側は停滞である。連続
する時系列画像(図5(1))から差分画像をつくり、
それの正負と大きさで3つの状態(発達、衰退、停滞)
をつくりだすことができる。差分計算は、単純に、それ
ぞれの時刻での降水パターンIの、単位時間Δt当たり
の、濃淡値の変化量である。式(15)に示す、I
(i,j,n)は、画素値(i,j)、離散時刻n番目
での値である。
FIG. 5 shows the difference between the three states (development, decline, stagnation) of the difference image. The precipitation pattern is used here. A large typhoon pattern that landed in Kanto on July 8, 2000. The upper part of Fig. 5 (1) shows the actual precipitation pattern of continuous typhoons. There is a 10-minute observation time gap. In the lower part, the left side shows the result of the difference calculation as the development and decline regions, and the right side is the stagnation. Create a difference image from continuous time series images (Fig. 5 (1)),
There are three states (development, decline, stagnation) depending on the sign and the magnitude of it.
Can be created. The difference calculation is simply the amount of change in the gray value of the precipitation pattern I at each time per unit time Δt. I shown in equation (15)
(I, j, n) is the pixel value (i, j) at the discrete time n.

【0039】[0039]

【数16】 差分をとったときの、濃淡値の差分値のヒストグラム2
をとると、近似的にラプラス分布になることが広く知ら
れている。もう一段階粗く近似すると、ガウス分布(式
(16))として扱いやすくなる。
[Equation 16] Histogram 2 of the difference value of the gray value when the difference is calculated
It is widely known that the Laplace distribution is approximately obtained by taking If it is roughly approximated to another level, it becomes easy to handle as a Gaussian distribution (equation (16)).

【0040】[0040]

【数17】 3つの状態に差分値に基づいて分類するためには、濃度
値に関する3つのしきい値(式(17))が必要とな
る。
[Equation 17] In order to classify the three states based on the difference value, three threshold values (equation (17)) regarding the density value are required.

【0041】[0041]

【数18】 このとき、ガウス分布をモデルとすれば、ヒストグラム
上の標準偏差により分類することができる。すなわち、
標準偏差が1のときは、全体の60%、2のときは90
%のデータが含まれる。このことから、発達や衰退など
は、全体の変化では、起こりにくいと仮定すれば、しき
い値は、標準偏差が平均からみて、1より離れたデータ
セットが対応することになる。停滞は、発達と衰退の中
間的な変化であることから、標準偏差1よりも小さい平
均値付近に分布する。
[Equation 18] At this time, if a Gaussian distribution is used as a model, it can be classified by the standard deviation on the histogram. That is,
When the standard deviation is 1, 60% of the total and when it is 2, 90
% Data is included. From this, assuming that development or decline is unlikely to occur in the whole change, the threshold corresponds to a data set whose standard deviation is more than 1 from the average. Since the stagnation is an intermediate change between development and decline, it is distributed in the vicinity of the average value smaller than the standard deviation 1.

【0042】図6は、正則化係数が一定の場合の推定さ
れる速度場の相違を示す。図5と同じ、台風の、連続す
る2枚の降水パターンを例題として、パターン速度を計
算した。
FIG. 6 shows the difference in the estimated velocity fields when the regularization coefficient is constant. The pattern velocity was calculated by using two consecutive precipitation patterns of a typhoon as in FIG. 5 as an example.

【0043】さまざまな速度推定法の中で、Horn
& Schunckにより提案された、標準正則化理論
に基づいた画素単位の速度場推定法がある。本手法で
は、目的関数として、式(18)に示すように、濃淡値
Iと未知数である速度場についての汎関数である。
Among various speed estimation methods, Horn is
& Schunkk, there is a pixel-based velocity field estimation method based on the standard regularization theory. In the present method, as the objective function, as shown in Expression (18), it is a functional with respect to the grayscale value I and the velocity field that is an unknown number.

【0044】[0044]

【数19】 この関数を最小化するように、速度を計算すればよい
(文献:B.K.P.Horn and B.G.Schunck, “Determining
Optical Flow”, Artifical Intelligence, vol.17, n
o.1, pp.185-203, 1981.)。解き方は、この方程式を2
つの未知数である、速度成分について、オイラー微分を
つくる。その結果、2つの線形方程式をつくれるので、
連立1次方程式をGuass−Seidel法で反復計
算をすれば、容易に速度は得られる。ただし、目的関数
中、重み付け係数ωは、通常経験的に固定値が与えられ
る。なお、時間項について、2つの画像パターンを用い
て計算する。
[Formula 19] The velocity should be calculated so as to minimize this function (reference: BKPHorn and BGSchunck, “Determining
Optical Flow ”, Artifical Intelligence, vol.17, n
o.1, pp.185-203, 1981.). To solve this equation,
Create Euler differentiation for velocity components, which are two unknowns. As a result, two linear equations can be created,
If the simultaneous linear equations are iteratively calculated by the Guass-Seidel method, the speed can be easily obtained. However, the weighting coefficient ω in the objective function is usually given a fixed value empirically. The time term is calculated using two image patterns.

【0045】最大の欠点は、いかに最適な正則化係数を
推定することである。ここでは、画像全体について同じ
正則化係数をおいた場合の、速度場の相違を渦構造をも
つ、台風パターンに適用した場合の結果を6つ示す。係
数が小さいほど、速度場の平滑化が弱く、ノイズが多く
なる。係数が大きいと、速度場の平滑化が強まるが遅い
速度成分は消滅するか、過小評価される欠点が残る。
The biggest drawback is how to estimate the optimal regularization factor. Here, six results are shown when the same regularization coefficient is applied to the entire image and the difference in velocity field is applied to a typhoon pattern having a vortex structure. The smaller the coefficient, the weaker the smoothing of the velocity field and the more noise. When the coefficient is large, the smoothing of the velocity field is strengthened, but the slow velocity component disappears or there is a drawback that it is underestimated.

【0046】図7は、最適正則化係数を推定するための
正弦波パターン(図7(1))と推定例(図7(2))
を示す。ここでは、2次元正弦波の振幅を濃淡値で示し
ている。ただし、異なる波長パターンを8種類例示して
いる。fは周波数、ampは振幅、速度は1画素/フレ
ームである。同じ周波数のパターンでは、縦に1画素/
フレームだけ進行させたパターンを並べて示している。
wavelengthは波長である。最適正則化係数を
推定するために、入力するパターンの画像特徴量毎に、
一定範囲内の正則化係数をすべて探索するしかない。H
orn & Schunck(H&S)法における目的
関数は、濃淡値についての時間と空間の1次微分値が左
右するため、差分法的にみれば、目的関数は、隣接する
数点の濃淡値だけにのみ依存することがわかる。すなわ
ち、入力する既知パターン(図7(1))は、時間と空
間方向にさまざまな正弦波で生成すればよい。既知パタ
ーンの動きも既知とすれば、正則化係数を変えたとき
に、正解の動きと最も近いときの係数が最適係数とみな
せる。速度ベクトルの類似性の評価には、正解ベクトル
と推定されたベクトルとの内積をとればよい。フレーム
当たり1画素ずらした場合の、正解ベクトルと推定され
たベクトルとの内積の値を、さまざまな正則化係数ごと
での結果を図7(2)に示す。複数の曲線は、異なる画
像特徴量をもつ正弦波に対するものである。すなわち、
正弦波を扱うと基本画像特徴量は、振幅、波数、速度の
3つに集約できる。振幅は、濃淡値のばらつきであり、
一定画像サイズの中の、濃淡値の標準偏差を計算すれば
よく、波数もフーリエ変換により容易にその周波数成分
が求まる。速度については既知である。
FIG. 7 shows a sine wave pattern (FIG. 7 (1)) and an estimation example (FIG. 7 (2)) for estimating the optimum regularization coefficient.
Indicates. Here, the amplitude of the two-dimensional sine wave is shown by a gray value. However, eight different wavelength patterns are illustrated. f is frequency, amp is amplitude, and velocity is 1 pixel / frame. With the same frequency pattern, 1 pixel /
The patterns in which only the frame is advanced are shown side by side.
wavelength is the wavelength. In order to estimate the optimal regularization coefficient, for each image feature amount of the input pattern,
There is no choice but to search for all regularization coefficients within a certain range. H
Since the objective function in the Orn & Schunkk (H & S) method depends on the first derivative of time and space with respect to the gray value, the objective function can be seen only by the gray values of several adjacent points when viewed as a difference method. It turns out that it depends. That is, the input known pattern (FIG. 7 (1)) may be generated with various sine waves in the time and space directions. If the movement of the known pattern is also known, when the regularization coefficient is changed, the coefficient closest to the correct movement can be regarded as the optimum coefficient. To evaluate the similarity of velocity vectors, the inner product of the correct vector and the estimated vector may be taken. FIG. 7B shows the result of the inner product of the correct vector and the estimated vector when the pixel is shifted by 1 pixel per frame, for each of various regularization coefficients. The curves are for sinusoids with different image features. That is,
When a sine wave is handled, the basic image feature amount can be aggregated into three values: amplitude, wave number, and velocity. Amplitude is the variation in gray value,
It is sufficient to calculate the standard deviation of the gray value within a fixed image size, and the frequency component of the wave number can be easily obtained by Fourier transform. The speed is known.

【0047】図8は本発明による渦速度の推定結果の例
を示す。図6で説明したような解法により、速度計算が
できる。台風パターン2フレームを用いた。最適な正則
化係数を用いて、H&S法を適用すると、渦構造(図8
(1))が明瞭に検出できる。ここでは、渦の中心まわ
りに速度ベクトルが反時計まわりに推定できた。さら
に、速度成分について、移動平均フィルター(式(1
9))を適用すると、パターンが存在していない領域に
も速度場が生成・補間される(図8(2))。
FIG. 8 shows an example of the vortex velocity estimation result according to the present invention. The velocity can be calculated by the solution method described in FIG. Two frames of typhoon pattern were used. When the H & S method is applied using the optimal regularization coefficient, the vortex structure (Fig.
(1)) can be clearly detected. Here, the velocity vector could be estimated counterclockwise around the center of the vortex. Furthermore, for the velocity component, a moving average filter (equation (1
9)) is applied, the velocity field is generated and interpolated even in the area where the pattern does not exist (FIG. 8 (2)).

【0048】[0048]

【数20】 これは、パターン予測をする場合に、速度がゼロの領域
へはパターンが進行しないために、非ゼロの速度を与え
る必要があるためである。
[Equation 20] This is because when the pattern is predicted, the pattern does not advance to the region where the velocity is zero, and thus it is necessary to give a non-zero velocity.

【0049】図9は、ナビエ・ストークス方程式による
流体的な速度場の再構成と気圧の推定の例である。パタ
ーン予測に必要な速度場を形成するためには、移動平均
フィルター以外もさまざまに考えられる。移動平均フィ
ルターは速度場の低周波数成分が伝播する点はいいのだ
が、流体的な性質は含まれていない。そこで、流体力学
の分野で広く適用されているナビエ・ストークス方程式
(式(20))を適用する。
FIG. 9 shows an example of fluid velocity field reconstruction and pressure estimation by the Navier-Stokes equation. There are various possibilities other than the moving average filter to form the velocity field required for pattern prediction. The moving average filter is good in that low-frequency components of the velocity field propagate, but it does not include fluid properties. Therefore, the Navier-Stokes equation (equation (20)) widely applied in the field of fluid dynamics is applied.

【0050】[0050]

【数21】 本方程式は速度と気圧(圧力)の2つを主変数にもつ。
速度場を初期値1として速度と気圧を推定すると、図示
したような結果になる(図9(2))。台風パターンの
場合、移動した直後には、高い気圧(白色)が、渦中心
には、低気圧域が存在することが推定できている。
[Equation 21] This equation has two main variables, velocity and pressure (pressure).
When the velocity and the atmospheric pressure are estimated with the velocity field being the initial value 1, the results shown in the figure are obtained (FIG. 9 (2)). In the case of a typhoon pattern, it can be estimated that a high atmospheric pressure (white) exists immediately after the movement and a low pressure area exists at the center of the vortex.

【0051】ここで、ナビエ・ストークス(NS)方程
式の解法を示す。
Here, a method of solving the Navier-Stokes (NS) equation will be shown.

【0052】本文中、NS方程式についていは、HSM
AC法と呼ばれる方法で解いている。この方法では、N
S式と連続式を圧力(もしくは気圧)に関して調整をし
ながら、非線形連立方程式を反復的に解いていく、NS
式は、速度と圧力の2つの独立変数を含む。流れの対象
を非圧縮流体と仮定すると、離散化した連続式はゼロが
速度場に対する条件となる(式(21))。計算格子点
上、圧力変数は1メッシュ毎に1変数、速度変数につい
ては、その垂直・水平成分を格子点上に配置するものと
する。
In the text, the NS equation is described in HSM
It is solved by a method called AC method. In this way, N
NS is used to solve nonlinear simultaneous equations iteratively while adjusting the S and continuous equations with respect to pressure (or atmospheric pressure).
The equation contains two independent variables, velocity and pressure. Assuming that the target of the flow is an incompressible fluid, zero is a condition for the velocity field in the discretized continuous equation (equation (21)). On the calculation grid point, one pressure variable is arranged for each mesh, and for the velocity variable, its vertical and horizontal components are arranged on the grid point.

【0053】[0053]

【数22】 また、降水パターンへ外部力はここではないものとする
(式(22))。
[Equation 22] Further, it is assumed that the external force is not here to the precipitation pattern (equation (22)).

【0054】[0054]

【数23】 次に、未来の速度場を得るために、時間に関して、前進
差分化する(式(23))
[Equation 23] Next, in order to obtain the velocity field of the future, the forward difference is made with respect to time (Equation (23)).

【0055】[0055]

【数24】 本明細書では、オプティカルフローにより推定された速
度成分をNS式を解くときの初期値として与え、圧力に
ついては全領域ゼロとして推定している。境界条件は、
画像輪郭部に連続条件を課している。また、粘性係数と
密度については経験的に決定した。
[Equation 24] In this specification, the velocity component estimated by the optical flow is given as an initial value when the NS equation is solved, and the pressure is estimated as zero in all regions. The boundary condition is
The continuous condition is imposed on the image contour. The viscosity coefficient and density were empirically determined.

【0056】各メッシュ毎に、圧力の傾きを考えた場
合、その傾きに沿って速度の方向と大きさが決定され
る。式(21)が各メッシュ毎に満たされるように、圧
力を調整するような解法をとる。式(24)、(25)
を用いて、メッシュ毎に速度成分と圧力を微少量ずつ、
全メッシュについて反復的に計算をすすめる。条件式
(21)が一定微小値未満になり続ける。
When the pressure gradient is considered for each mesh, the direction and magnitude of the velocity are determined along the gradient. A solution is adopted in which the pressure is adjusted so that the equation (21) is satisfied for each mesh. Formulas (24) and (25)
Using, the velocity component and the pressure in small amounts for each mesh,
Repeat the calculation for all meshes. Conditional expression (21) continues to be less than a fixed minute value.

【0057】[0057]

【数25】 収束した結果が、ある離散時間から次の時間ステップま
での、速度成分と圧力が予測できる。時間積分を所定回
数繰り返せばよい。
[Equation 25] The converged result can predict the velocity component and the pressure from one discrete time to the next time step. The time integration may be repeated a predetermined number of times.

【0058】図10は、特異値分解による速度場の補正
の例である。別の渦パターンの例である(図10
(1))。推定された速度場(図10(2))には部分
的にノイズが含まれており、速度場が乱れている。した
がって、特異値分解を適用する。この方法は情報圧縮技
法の一つであるが、2次元速度場をそのまま特異値分解
して、速度の主成分を検出する(図10(3))。適用
前(図10(2))と後(図10(3))の速度場をそ
れぞれ拡大して図示する(図10(4),(5))。明
らかに、ノイズ成分が緩和されていることがわかる。未
来の速度場は、ノイズを含まない主成分との相関が高
い。特異値分解については、式(26)に示すように、
元の速度場はそれを行列
FIG. 10 shows an example of velocity field correction by singular value decomposition. It is an example of another vortex pattern (FIG. 10).
(1)). The estimated velocity field (FIG. 10 (2)) partially contains noise, and the velocity field is disturbed. Therefore, singular value decomposition is applied. Although this method is one of the information compression techniques, the two-dimensional velocity field is directly subjected to singular value decomposition to detect the principal component of velocity (FIG. 10 (3)). The velocity fields before (FIG. 10 (2)) and after (FIG. 10 (3)) are respectively enlarged and shown (FIGS. 10 (4) and (5)). Clearly, the noise component is found to be relaxed. Future velocity fields are highly correlated with noise-free principal components. For singular value decomposition, as shown in equation (26),
Original velocity field matrix it

【0059】[0059]

【外7】 と見なすと、特異値の累積値が80%以上のときの、次
元数KN個で近似される。SVD(Singular Value Dec
omposition:特異値分解)ではノイズと重要な情報量に
おいて客観的な指標をおくことができる。
[Outside 7] If the cumulative value of singular values is 80% or more, the number of dimensions is approximated by KN. SVD (Singular Value Dec
In omposition: singular value decomposition), objective indicators can be set for noise and the amount of important information.

【0060】[0060]

【外8】 はそれぞれ特異値、上三角、下三角行列である(参考:
Numerical Recipes in C:技術評論社)。
[Outside 8] Are singular values, upper triangular and lower triangular matrix, respectively (reference:
Numerical Recipes in C: Technical Review Company).

【0061】[0061]

【数26】 以下に画像パターンを予測するために必要な主な方程式
を列挙する。式(27)は5つの基本時空間パターンを
統一的に偏微分方程式系としてまとめたものである。画
像の濃淡値Iは位置と時間の関数である。式(27)を
時間項について前進差分法により、次のフレーム(時
間)の濃淡値の変化を計算できる形に変形すると式(2
8)になる。式(28)の右辺のSTEはここでは、3
つあり、式(29)に示す。上から、移流、異方拡散、
差分(湧き出し、停滞、吸い込み)である。3つそれぞ
れが、式(30)〜(33)で与えられる。移流項の中
の速度項については、式(37)〜(41)の結果が使
われる。式(28)に含まれる各数式は式(29)〜式
(36)である。式(29)は移流方程式、異方拡散方
程式、状態方程式である。式(30)、式(31)は異
方拡散方程式である。数(33)は移流方程式である。
ここでは3次オーダーの近似精度のものを示す。式(3
6)は連続するフレームからの差分画像による状態方程
式である。状態を識別するために、差分値をガウス分布
で統計的に近似する(式(34))。そのとき、しきい
値は式(35)になる。
[Equation 26] The main equations required to predict the image pattern are listed below. Expression (27) is a unified set of five basic spatiotemporal patterns as a partial differential equation system. The image gray value I is a function of position and time. If Equation (27) is transformed into a form in which the change in the gray value of the next frame (time) can be calculated by the forward difference method for the time term, Equation (2)
8). The STE on the right side of Expression (28) is 3 here.
There is one, and is shown in formula (29). From the top, advection, anisotropic diffusion,
It is the difference (well, stagnation, suction). Each of the three is given by equations (30)-(33). For the velocity term in the advection term, the results of equations (37)-(41) are used. The respective mathematical expressions included in Expression (28) are Expression (29) to Expression (36). Expression (29) is an advection equation, an anisotropic diffusion equation, and a state equation. Equations (30) and (31) are anisotropic diffusion equations. The number (33) is the advection equation.
Here, the third-order approximation accuracy is shown. Expression (3
6) is a state equation based on difference images from consecutive frames. In order to identify the state, the difference value is statistically approximated by a Gaussian distribution (equation (34)). At that time, the threshold value is given by Expression (35).

【0062】[0062]

【数27】 式(37)はH&S法に基づいた標準正則化理論に基づ
いた定式化であり、速度を画素単位に推定できる。この
とき、ωは正則化係数であり、画素ごとに最適な値が与
えられるべきである。式(38)は移動平均フィルタ
ー、式(39)、式(40)、式(41)はナビエ・ス
トークス方程式と連続式である。流体的な速度場と気圧
場を推定するために適用される。
[Equation 27] Formula (37) is a formulation based on the standard regularization theory based on the H & S method, and the velocity can be estimated in pixel units. At this time, ω is a regularization coefficient, and an optimum value should be given for each pixel. The equation (38) is a moving average filter, and the equations (39), (40), and (41) are the Navier-Stokes equation and the continuous equation. It is applied to estimate fluid velocity and pressure fields.

【0063】[0063]

【数28】 数(42)は最適正則化係数を算出する式であり、右辺
は、波数k、濃淡値の標準偏差SDであり、ここでは、
画像サイズが32×32画素の場合である。画像をサブ
ブロックに分割し、各ブロック毎にH&S法の計算に必
要な最適な正則化係数が与えられる。
[Equation 28] The number (42) is an equation for calculating the optimum regularization coefficient, and the right side is the wave number k and the standard deviation SD of the gray value, and here,
This is a case where the image size is 32 × 32 pixels. The image is divided into sub-blocks, and each block is given an optimum regularization coefficient necessary for the calculation of the H & S method.

【0064】式(43)は特異値分解であり、左辺の行
列Aが特異値W、上三角行列U、下三角行列Vに分解さ
れ、項数KNだけで行列Aを近似できる。ここでは2次
元の速度場を行列Aで近似する。
Equation (43) is a singular value decomposition. The matrix A on the left side is decomposed into a singular value W, an upper triangular matrix U and a lower triangular matrix V, and the matrix A can be approximated only by the number of terms KN. Here, the two-dimensional velocity field is approximated by the matrix A.

【0065】[0065]

【数29】 図11は、予測精度の統計評価実験の結果である。6つ
の方法で降水パターンに対して予測精度を評価した場合
の結果である。予測パターンは、式(16)を時間発展
的に解いていけばよい。変数Iは画像パターンの濃淡値
が画素単位に含まれる。時間n,n+1は、初期の入力
画像は連続した2つの画像パターンが対応する。
[Equation 29] FIG. 11 shows the result of a statistical evaluation experiment of prediction accuracy. It is a result when the prediction accuracy is evaluated for the precipitation pattern by six methods. For the prediction pattern, equation (16) may be solved in a time evolution manner. The variable I includes the gray value of the image pattern in pixel units. At times n and n + 1, two continuous image patterns correspond to the initial input image.

【0066】ここでは、本発明による方法をDT法と呼
ぶ。予測には、現在と一つ過去の画像を用いる。横軸3
時間先まで、10分毎、縦軸は、雨量誤差であり、一画
素当りの値である。最も悪いのは、従来法であり、相互
相関法(CC)と線形外挿法を組み合わせた場合であ
る。続いて、持続予報である。比較のために、H&Sで
の最適正則化係数の効果を示すために、速度場を別の従
来法である、NAGEL法、ANANDAN法で行って
みると、従来法とあまり差異が見られない。速度場の予
測方法について、ナビエ・ストークス(NS)方程式と
特異値分解の有無についての比較をさらに行う。最も精
度がいいのが、すべての効果を含めた場合であり、続い
て、NS方程式と特異値分解を適用しない場合である。
従来法と比較して3時間後で40%前後の誤差が改善さ
れた。
Here, the method according to the present invention is called the DT method. For the prediction, the images of the present and one past are used. Horizontal axis 3
Up to the time ahead, every 10 minutes, the vertical axis is the rainfall error, which is the value per pixel. The worst is the conventional method, which is a combination of the cross correlation method (CC) and the linear extrapolation method. Next is the continuous forecast. For comparison, when the velocity field is subjected to another conventional method, that is, the NAGEL method and the ANANDAN method, in order to show the effect of the optimum regularization coefficient in H & S, there is not much difference from the conventional method. Regarding the method of predicting the velocity field, we will further compare the Navier-Stokes (NS) equation with and without singular value decomposition. The best accuracy is when all effects are included, followed by when the NS equation and singular value decomposition are not applied.
The error was improved by about 40% after 3 hours as compared with the conventional method.

【0067】図12は、一般シーンでの予測画像の例で
ある。式(16)を時間発展的に解いていけばよい。変
数Iは画像パターンの濃淡値が画素単位に含まれる。時
間n,n+1は、初期の入力画像は連続した2つの画像
パターンが対応する。
FIG. 12 is an example of a predicted image in a general scene. It suffices to solve the equation (16) in a time evolution manner. The variable I includes the gray value of the image pattern in pixel units. At times n and n + 1, two continuous image patterns correspond to the initial input image.

【0068】一般シーンに対して、DT法を用いて予測
した場合を示す。画像サイズは180×120画素
(1,2)と300×300画素(3)である。
A case where a general scene is predicted using the DT method is shown. The image size is 180 × 120 pixels (1, 2) and 300 × 300 pixels (3).

【0069】実際の画像はいずれも、家庭用のビデオ画
像である。ビデオレートで入力した、連続画像2枚だけ
を使って、予測画像(未来画像)を本発明により生成す
る。気象パターンと異なるのは、サンプリングレイトと
画像サイズである。3種類のシーンごとに、左から、実
画像、予測画像と速度場、実画像と予測画像の濃淡値の
誤差である。上から、煙が拡散するシーン、木々が風で
揺らぐシーン、ズームインしていくシーンである。5フ
レーム先の予測結果を示す。いずれのシーンも予測誤差
をほとんど生じていない。降水パターンや一般シーンな
ど、局所的なモデリングの有効性が確認できた。従来法
で行っても、このような非線形、非定常な動きのあるシ
ーンでは、1フレーム先の予測でもほとんどうまく予測
画像を生成できない。
All actual images are home video images. The predicted image (future image) is generated by the present invention using only two continuous images input at the video rate. What is different from the weather pattern is the sampling rate and the image size. For each of the three types of scenes, from the left are the error of the gray value between the real image, the predicted image and the velocity field, and the real image and the predicted image. From top to bottom, smoke is scattered, trees are swayed by the wind, and zoomed in. The prediction result of 5 frames ahead is shown. There is almost no prediction error in any of the scenes. The effectiveness of local modeling such as precipitation patterns and general scenes was confirmed. Even with the conventional method, in a scene having such non-linear and non-stationary motion, a predicted image cannot be generated very well even with prediction one frame ahead.

【0070】図13は、衛星、降水、落雷の3つのレー
ダから観測される、時系列の画像化されたパターンを用
いて、それぞれの変化を予測する方法を説明するもので
ある。いずれも、200×200画素サイズ、10分間
のデータとする。1画素8ビット階調。衛星パターン
は、可視、赤外、水蒸気、降水は降水量と降水域に関し
て、落雷は、落雷位置、落雷数、落雷強度に関して観測
され、いずれも、時系列2次元パターンとして扱うこと
ができる。予測の方法は、それぞれのパターンについ
て、図12で述べた方法に基づく。差分画像情報につい
ては、予測開始時と1つ前の、2つの連続した画像パタ
ーンを用いる。
FIG. 13 illustrates a method of predicting the respective changes using time-series imaged patterns observed from three radars of satellite, precipitation and lightning strike. In each case, the data has a size of 200 × 200 pixels and 10 minutes. 1 pixel 8-bit gradation. The satellite patterns are visible, infrared, water vapor, precipitation is observed with respect to precipitation amount and precipitation area, and lightning strikes are observed with respect to lightning strike position, number of lightning strikes, and lightning intensity, and all can be treated as a time-series two-dimensional pattern. The prediction method is based on the method described in FIG. 12 for each pattern. For the difference image information, two consecutive image patterns, one at the start of prediction and one before, are used.

【0071】各パターンの組合せとその効果は次の通り
である。 1.衛星レーダの可視と赤外、降水レーダ、落雷レー
ダ:画像内1地点で、晴、曇、雨がわかる(図13
(1))。衛星レーダでは、昼間は可視、夜間は赤外パ
ターンを使い分ける。可視は曇か晴かは分別できる情報
として利用する。一方、夜間は太陽光がないために、暗
くなるので、赤外パターンで代用する。可視と赤外は比
較的類似性が高い場合がある。1地点で、落雷があった
かどうかに加えて、どの程度の雨量で生じたのか、ある
いは、雲は濃かったのか、薄かったのかも、総合に情報
を統合すれば有効な生活情報としての予測(予報)につ
ながる。 2.降水レーダ、落雷レーダ:落雷情報は基本的に、点
列の集合体であるため、落雷情報の移動速度を画像から
検出する際は、フレーム間でうまく対応点がとれないた
め、相関の高い、降水パターンの移動速度を代用する
(図13(2))。また、降水パターンの強度が高い領
域(降水量が多い)と落雷数、落雷電流はほぼ同領域に
ある。いわゆる、雷曇予測に適合する。 3.衛星レーダの水蒸気、降水レーダ:集中豪雨に関し
ては、降水パターンからわかるが、その兆候について
は、ある程度雨が強くなってからでないと予測できな
い。そこで、水蒸気パターンを使って、ある領域を大量
の水蒸気が通過してから、数時間以内に同領域で集中豪
雨が発生する可能性を予測する(図13(3))。降水
パターン予測時に、DT法の中の、発達項に、水蒸気パ
ターンを予測させて、量が多かった領域と時間を記憶し
ておいて、発達項に降水量が多くなるように制御すれば
容易に実現できる。
The combination of each pattern and its effect are as follows. 1. Satellite radar visible and infrared, precipitation radar, lightning strike radar: clear, cloudy, and rain can be seen at one point in the image (Fig. 13
(1)). Satellite radar uses visible patterns during the day and infrared patterns during the night. It is used as information that can distinguish whether the visibility is cloudy or cloudy. On the other hand, since there is no sunlight at night, it becomes dark, so an infrared pattern is used instead. Visible and infrared may be relatively similar. In addition to whether there was a lightning strike at one location, how much rainfall occurred, whether the cloud was dense or whether it was thin, it is possible to predict the effective living information by integrating the information comprehensively (forecast ) Leads to. 2. Precipitation radar, lightning strike radar: Since lightning strike information is basically an aggregate of point sequences, when detecting the moving speed of lightning strike information from an image, it is difficult to find corresponding points between frames, so there is a high correlation. The moving speed of the precipitation pattern is substituted (FIG. 13 (2)). Moreover, the region where the intensity of the precipitation pattern is high (the amount of precipitation is large), the number of lightning strikes, and the lightning current are almost in the same region. It is suitable for so-called thundercloud prediction. 3. Water vapor / precipitation radar of satellite radar: Concentrated heavy rainfall can be understood from the precipitation pattern, but the sign can be predicted only after the rain becomes strong to some extent. Therefore, using a steam pattern, it is predicted that a heavy rain will occur in the same area within a few hours after a large amount of steam has passed through the area (FIG. 13 (3)). When predicting the precipitation pattern, it is easy to predict the water vapor pattern in the development term in the DT method, memorize the region and time where the amount was large, and control so that the precipitation amount increases in the development term. Can be realized.

【0072】なお、以上説明した映像シーン予測方法は
専用のハードウェアにより実現されるもの以外に、その
機能を実現するためのプログラムを、コンピュータ読み
取り可能な記録媒体に記録して、この記録媒体に記録さ
れたプログラムをコンピュータシステムに読み込ませ、
実行するものであってもよい。コンピュータ読み取り可
能な記録媒体とは、フロッピー(登録商標)ディスク、
光磁気ディスク、CD−ROM等の記録媒体、コンピュ
ータシステムに内蔵されるハードディスク装置等の記憶
装置を指す。さらに、コンピュータ読み取り可能な記録
媒体は、インターネットを介してプログラムを送信する
場合のように、短時間の間、動的にプログラムを保持す
るもの(伝送媒体もしくは伝送波)、その場合のサーバ
となるコンピュータシステム内部の揮発性メモリのよう
に、一定時間プログラムを保持しているものも含む。
In addition to the above-described video scene prediction method realized by dedicated hardware, a program for realizing the function is recorded in a computer-readable recording medium, and this recording medium is recorded in the recording medium. Load the recorded program into the computer system,
It may be executed. A computer-readable recording medium is a floppy (registered trademark) disk,
A recording medium such as a magneto-optical disk or a CD-ROM, or a storage device such as a hard disk device built in a computer system. Further, the computer-readable recording medium dynamically holds the program for a short time (transmission medium or transmission wave) such as when transmitting the program via the Internet, and serves as a server in that case. It also includes a volatile memory that holds a program for a certain period of time, such as a volatile memory inside a computer system.

【0073】また、本願発明は気象予測に限定されるも
のではなく、映像中に移動物体がある一般的な画像の予
測に適用可能である。
Further, the present invention is not limited to the weather prediction, but can be applied to the prediction of a general image in which a moving object is present in the video.

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
次のような効果がある。複雑な映像シーンであっても局
所的に5つの基本的な時空間パターン(拡散、移流、差
分画像(衰退、発達、停滞))で近似することから、対
象に依存せず、予測シーンを生成できる。シーン中の対
象の変化が非線形で非定常であっても適用対象を選ば
す、各時空間パターンが時間と空間方向に変化するが、
一つの偏微分方程式で統合するために、近傍のさまざま
な変化を考慮した予測が可能となっており、その結果予
測誤差の大幅な低減ができる。また、速度における最適
正則化係数や差分画像などは、シーンを予測するときど
きで、変わることから未来の画像の変化のパラメータも
信頼できるものとなっている。
As described above, according to the present invention,
It has the following effects. Even if it is a complicated video scene, it is possible to generate a prediction scene without depending on the target, because it is locally approximated by five basic spatiotemporal patterns (diffusion, advection, difference image (decay, development, stagnation)). it can. Even if the change of the object in the scene is non-linear and non-stationary, the application target is selected, and each spatiotemporal pattern changes in the time and space directions,
Since it is integrated by one partial differential equation, it is possible to make a prediction considering various changes in the neighborhood, and as a result, the prediction error can be greatly reduced. Further, since the optimal regularization coefficient in the speed and the difference image are changed at every scene prediction, the parameter of the change of the future image can be reliable.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態の映像シーン予測装置の構
成図である。
FIG. 1 is a configuration diagram of a video scene prediction device according to an embodiment of the present invention.

【図2】5つの基本時空間パターンモデルを示す図であ
る。
FIG. 2 is a diagram showing five basic spatiotemporal pattern models.

【図3】差分近似のオーダーの違いによる予測パターン
の不安定性を示す図である。
FIG. 3 is a diagram showing instability of a prediction pattern due to a difference in order of difference approximation.

【図4】等方拡散法と異方拡散法の相違を示す図であ
る。
FIG. 4 is a diagram showing a difference between an isotropic diffusion method and an anisotropic diffusion method.

【図5】差分画像の3つの状態の相違を示す図である。FIG. 5 is a diagram showing a difference between three states of a difference image.

【図6】正則化係数が一定の場合の推定される速度場の
相違を示す図である。
FIG. 6 is a diagram showing a difference in estimated velocity fields when the regularization coefficient is constant.

【図7】最適正則化係数を推定するための正弦波パター
ンと推定例を示す図である。
FIG. 7 is a diagram showing a sine wave pattern for estimating an optimum regularization coefficient and an estimation example.

【図8】本発明による渦速度の推定結果の例を示す図で
ある。
FIG. 8 is a diagram showing an example of an estimation result of a vortex velocity according to the present invention.

【図9】ナビエ・ストークス方程式による流体的な速度
場の再構成と気圧の推定の例を示す図である。
FIG. 9 is a diagram showing an example of fluid velocity field reconstruction and atmospheric pressure estimation by Navier-Stokes equations.

【図10】特異値分解による速度場の補正の例を示す図
である。
FIG. 10 is a diagram showing an example of velocity field correction by singular value decomposition.

【図11】予測精度の統計評価実験の結果を示す図であ
る。
FIG. 11 is a diagram showing a result of a statistical evaluation experiment of prediction accuracy.

【図12】一般シーンでの予測画像の例を示す図であ
る。
FIG. 12 is a diagram showing an example of a predicted image in a general scene.

【図13】衛星、降水、落雷の3つのレーダから観測さ
れる、時系列の画像化されたパターンを用いてそれぞれ
の変化を予測する方法を説明する図である。
FIG. 13 is a diagram illustrating a method of predicting respective changes using time-series imaged patterns observed from three radars of a satellite, precipitation, and lightning strike.

【図14】気象レーダ画像における従来の予測方法を示
す図である。
FIG. 14 is a diagram showing a conventional prediction method for a weather radar image.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 画像蓄積部 3 パラメータ推定部 4 予測演算部 5 表示部 1 Image input section 2 Image storage section 3 parameter estimation unit 4 Prediction calculator 5 Display

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 さまざまな観測源から得られた画像化さ
れたパターンの変化を予測する方法であって、 時系列の画像情報を入力するステップと、入力された画
像情報を蓄積するステップと、入力された時系列画像
を、拡散と、移流と、異なる時刻の時系列画像の差分画
像を分類して得られる発達、衰退、停滞の5つのパター
ンで近似し、移流項で必要とされるパラメータである速
度成分について、現在と過去の連続した画像の前記パタ
ーンの変化だけを用いて、オプティカルフローに基づい
て推定するパラメータ推定ステップと、必要な予測時間
まで予測計算を繰り返す予測演算ステップと、予測画像
を表示する表示ステップを有する映像シーン予測方法。
1. A method of predicting changes in imaged patterns obtained from various observation sources, the method comprising inputting time-series image information, and storing the input image information. The input time-series image is approximated by five patterns of development, decline, and stagnation obtained by classifying diffusion, advection, and difference images of time-series images at different times, and the parameters required for the advection term For a velocity component that is, using only the change in the pattern of the current and past consecutive images, a parameter estimation step for estimating based on the optical flow, a prediction calculation step for repeating the prediction calculation until a required prediction time, and a prediction A video scene prediction method having a display step of displaying an image.
【請求項2】 前記予測演算ステップにおいて、移流項
と拡散項を含んだ主変数を画像の画素ごとの濃淡値情報
とする偏微分方程式を用いたパターンの変化を予測す
る、請求項1に記載の方法。
2. The pattern change using a partial differential equation in which the main variable including an advection term and a diffusion term is grayscale value information for each pixel of an image is predicted in the prediction calculation step. the method of.
【請求項3】 前記移流項における微分項を持つ関数
を、差分法により、計算機上の離散格子点で、1次、2
次、3次のいずれかのオーダーで近似する、請求項2に
記載の方法。
3. A function having a differential term in the advection term is first-ordered or second-ordered at a discrete lattice point on a computer by a difference method.
The method according to claim 2, wherein the order is approximated to any one of the next order and the third order.
【請求項4】 前記拡散項に等方拡散法または異方拡散
法を適用する、請求項2に記載の方法。
4. The method according to claim 2, wherein an isotropic diffusion method or an anisotropic diffusion method is applied to the diffusion term.
【請求項5】 前記偏微分方程式を、差分法により、離
散化近似で解く、請求項2に記載の方法。
5. The method according to claim 2, wherein the partial differential equation is solved by discretization approximation by a difference method.
【請求項6】 前記予測演算ステップにおいて、複数の
異なる入力源から入力された画像情報のうち、相関の高
い情報を統合しながら予測する、請求項1から5のいず
れか1項に記載の方法。
6. The method according to claim 1, wherein, in the prediction calculation step, prediction is performed while integrating highly correlated information among image information input from a plurality of different input sources. .
【請求項7】 前記予測演算ステップにおいて、速度を
ナビエ・ストークス方程式および/または移動平均フィ
ルターを用いて予測する、請求項1から6のいずれか1
項に記載の方法。
7. The method according to claim 1, wherein in the predicting calculation step, the velocity is predicted by using Navier-Stokes equation and / or moving average filter.
The method described in the section.
【請求項8】 前記画像情報が気象情報である、請求項
1から7のいずれか1項に記載の方法。
8. The method according to claim 1, wherein the image information is weather information.
【請求項9】 衛星レーダ、降水レーダ、落雷レーダの
3つのレーダの情報を用い、衛星レーダでは昼間は可視
の画像パターン、夜間は赤外の画像パターンを用い、降
水レーダの画像パターンと落雷レーダの画像パターンか
ら予測演算を行い、これらを統合して画像内1地点での
晴、曇、雨、落雷を予測する、請求項8に記載の方法。
9. An image pattern of a precipitation radar and a lightning strike radar using information of three radars of a satellite radar, a precipitation radar and a lightning strike radar. The satellite radar uses an image pattern visible in the daytime and an image pattern of infrared rays at the nighttime. 9. The method according to claim 8, wherein a predictive calculation is performed from the image pattern of 1., and these are integrated to predict fine, cloudy, rain, or lightning strike at one point in the image.
【請求項10】 降水レーダと落雷レーダの2つのレー
ダの情報を用い、各レーダから得られた降水パターン、
落雷パターンから予測演算を行い、落雷パターンの移動
速度を検出する際には降水パターンの移動速度を代用す
ることにより、画像1地点での雷雲を予測する、請求項
8に記載の方法。
10. A precipitation pattern obtained from each radar using information from two radars, a precipitation radar and a lightning strike radar,
The method according to claim 8, wherein a predictive calculation is performed from the lightning strike pattern, and when detecting the moving speed of the lightning strike pattern, the moving speed of the precipitation pattern is substituted to predict the thundercloud at one point in the image.
【請求項11】 衛星レーダと降水レーダの2つのレー
ダの情報を用い、衛星レーダから得られた水蒸気パター
ンから予測演算を行い、その後降水レーダで得られた降
水パターンから予測演算を行うことで、画像1地点での
集中豪雨を予測する、請求項8記載の方法。
11. A prediction calculation is performed from a water vapor pattern obtained from the satellite radar by using information of two radars, a satellite radar and a precipitation radar, and then a prediction calculation is performed from a precipitation pattern obtained from the precipitation radar. The method according to claim 8, wherein a heavy rainfall at one point in the image is predicted.
【請求項12】 さまざまな観測源から得られた画像化
されたパターンの変化を予測する装置であって、 時系列の画像情報を入力する画像入力手段と、入力され
た画像情報を蓄積する画像蓄積手段と、入力された時系
列画像を、拡散と、移流と、異なる時刻の時系列画像の
差分画像を分類して得られる発達、衰退、停滞の5つの
パターンで近似し、移流項で必要とされるパラメータで
ある速度成分について、現在と過去の連続した画像だけ
を用いて、オプティカルフローに基づいて推定するパラ
メータ推定手段と、必要な予測時間まで予測計算を繰り
返す予測演算手段と、予測画像を表示する表示手段を有
する映像シーン予測装置。
12. An apparatus for predicting changes in imaged patterns obtained from various observation sources, comprising image input means for inputting time-series image information and images for accumulating the input image information. Necessary for the advection term by approximating the accumulating means and the input time-series image with the diffusion, advection and five patterns of development, decline and stagnation obtained by classifying difference images of time-series images at different times. For the velocity component which is the parameter, the parameter estimation means for estimating based on the optical flow using only the current and past consecutive images, the prediction calculation means for repeating the prediction calculation until the required prediction time, and the predicted image A video scene prediction device having display means for displaying.
【請求項13】 請求項1から11のいずれか1項に記
載の映像シーン予測方法をコンピュータに実行させるた
めの映像シーン予測プログラム。
13. A video scene prediction program for causing a computer to execute the video scene prediction method according to any one of claims 1 to 11.
【請求項14】 請求項13に記載の映像シーン予測プ
ログラムを記録した記録媒体。
14. A recording medium on which the video scene prediction program according to claim 13 is recorded.
JP2002092915A 2002-03-28 2002-03-28 Video scene prediction method, apparatus, program, and recording medium Expired - Lifetime JP3953350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002092915A JP3953350B2 (en) 2002-03-28 2002-03-28 Video scene prediction method, apparatus, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002092915A JP3953350B2 (en) 2002-03-28 2002-03-28 Video scene prediction method, apparatus, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2003288603A true JP2003288603A (en) 2003-10-10
JP3953350B2 JP3953350B2 (en) 2007-08-08

Family

ID=29237598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002092915A Expired - Lifetime JP3953350B2 (en) 2002-03-28 2002-03-28 Video scene prediction method, apparatus, program, and recording medium

Country Status (1)

Country Link
JP (1) JP3953350B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Image encoding apparatus, image decoding apparatus and image decoding method
JP2008269097A (en) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting water surface wave behavior
JP2009110379A (en) * 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Pattern prediction unit, pattern prediction method, and pattern prediction program
JP2009147614A (en) * 2007-12-13 2009-07-02 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method for delivering and displaying change in situation
JP2011018160A (en) * 2009-07-08 2011-01-27 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for image generation
CN101188702B (en) * 2007-12-19 2012-10-10 康佳集团股份有限公司 A weather forecast service system based on TV
JP2012221339A (en) * 2011-04-12 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Image generating system, image generating method and program
JP2015088114A (en) * 2013-11-01 2015-05-07 日本電信電話株式会社 Data estimation method and data estimation device
JP2015227783A (en) * 2014-05-30 2015-12-17 大成建設株式会社 Stream regime calculation system and turbidity diffusion calculation system
CN108646319A (en) * 2018-08-09 2018-10-12 深圳市雅码科技有限公司 A kind of heavy showers forecasting procedure and system in short-term
JP2020085494A (en) * 2018-11-16 2020-06-04 ヤフー株式会社 Information processor, information processing method, and information processing program
WO2024095369A1 (en) * 2022-11-01 2024-05-10 国立大学法人北海道大学 Prediction device and prediction method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008092301A (en) * 2006-10-02 2008-04-17 Toshiba Corp Image encoding apparatus, image decoding apparatus and image decoding method
US8320691B2 (en) 2006-10-02 2012-11-27 Kabushiki Kaisha Toshiba Image coding apparatus, image decoding apparatus, and image decoding method
JP2008269097A (en) * 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting water surface wave behavior
JP4527747B2 (en) * 2007-04-17 2010-08-18 日本電信電話株式会社 Water surface wave behavior detection device, water surface wave behavior detection method, and water surface wave behavior detection program
JP2009110379A (en) * 2007-10-31 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Pattern prediction unit, pattern prediction method, and pattern prediction program
JP4499775B2 (en) * 2007-10-31 2010-07-07 日本電信電話株式会社 Pattern prediction apparatus, pattern prediction method, and pattern prediction program
JP2009147614A (en) * 2007-12-13 2009-07-02 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method for delivering and displaying change in situation
JP4653154B2 (en) * 2007-12-13 2011-03-16 日本電信電話株式会社 Status change distribution display device and method thereof
CN101188702B (en) * 2007-12-19 2012-10-10 康佳集团股份有限公司 A weather forecast service system based on TV
JP2011018160A (en) * 2009-07-08 2011-01-27 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for image generation
JP2012221339A (en) * 2011-04-12 2012-11-12 Nippon Telegr & Teleph Corp <Ntt> Image generating system, image generating method and program
JP2015088114A (en) * 2013-11-01 2015-05-07 日本電信電話株式会社 Data estimation method and data estimation device
JP2015227783A (en) * 2014-05-30 2015-12-17 大成建設株式会社 Stream regime calculation system and turbidity diffusion calculation system
CN108646319A (en) * 2018-08-09 2018-10-12 深圳市雅码科技有限公司 A kind of heavy showers forecasting procedure and system in short-term
CN108646319B (en) * 2018-08-09 2021-11-09 深圳市雅码科技有限公司 Short-time strong rainfall forecasting method and system
JP2020085494A (en) * 2018-11-16 2020-06-04 ヤフー株式会社 Information processor, information processing method, and information processing program
JP7036704B2 (en) 2018-11-16 2022-03-15 ヤフー株式会社 Information processing equipment, information processing methods, and information processing programs
WO2024095369A1 (en) * 2022-11-01 2024-05-10 国立大学法人北海道大学 Prediction device and prediction method

Also Published As

Publication number Publication date
JP3953350B2 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
EP1602941B1 (en) Meteorological radar precipitation pattern prediction method and apparatus
US9258531B2 (en) System and method for video-quality enhancement
Denis et al. SAR image regularization with fast approximate discrete minimization
Sakaino Spatio-temporal image pattern prediction method based on a physical model with time-varying optical flow
CN111008585B (en) Ship target detection method based on self-adaptive layered high-resolution SAR image
JP3953350B2 (en) Video scene prediction method, apparatus, program, and recording medium
Arab Amiri et al. Spatial and temporal monthly precipitation forecasting using wavelet transform and neural networks, Qara-Qum catchment, Iran
JP4866896B2 (en) Weather forecasting device, weather forecasting method, and weather forecasting program
CN108732570A (en) The nowcasting method of disastrous convection weather based on particle filter blending algorithm
Zhou et al. Nonlocal means filtering based speckle removal utilizing the maximum a posteriori estimation and the total variation image prior
Mageed Fractal Dimension (D f) of Ismail’s Fourth Entropy (H IV⁽ q, a 1, a 2,.., a k⁾) with Fractal Applications to Algorithms, Haptics, and Transportation
JP3375038B2 (en) Precipitation pattern change prediction method and apparatus
JP3377075B2 (en) 2D precipitation forecasting device
Huang et al. Segmenting SAR satellite images with the multilayer level set approach
JP3377074B2 (en) Precipitation change prediction device
Johnson et al. A novel framework for objective detection and tracking of TC center from noisy satellite imagery
JP3390975B2 (en) Image flow velocity estimation method and apparatus, and recording medium storing image flow velocity estimation program
JP3377076B2 (en) Local rain area prediction method and apparatus
JP3351458B2 (en) Annihilation rain pattern predictor
JP3351457B2 (en) Rain area growth / extinction prediction device
KR101468861B1 (en) Active attentional sampling method for accelerating foreground detection from video, and computer-readable recording medium for the same
JPH10227872A (en) Meteorological image forecast method, equipment and record medium recording meteorological image forecast program
JP3377073B2 (en) Precipitation area development and attenuation prediction device
Maki et al. Construction of three-dimensional weather radar data from volcanic eruption clouds
Vidyadharan et al. Precipitation Nowcasting using Data-driven Reduced-order Model

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070424

R150 Certificate of patent or registration of utility model

Ref document number: 3953350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100511

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110511

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120511

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130511

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140511

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term