JP3565087B2 - 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 - Google Patents

時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 Download PDF

Info

Publication number
JP3565087B2
JP3565087B2 JP13000499A JP13000499A JP3565087B2 JP 3565087 B2 JP3565087 B2 JP 3565087B2 JP 13000499 A JP13000499 A JP 13000499A JP 13000499 A JP13000499 A JP 13000499A JP 3565087 B2 JP3565087 B2 JP 3565087B2
Authority
JP
Japan
Prior art keywords
image
time
series
feature amount
image feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP13000499A
Other languages
English (en)
Other versions
JP2000322556A (ja
Inventor
和弘 大塚
力 堀越
治彦 児島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13000499A priority Critical patent/JP3565087B2/ja
Publication of JP2000322556A publication Critical patent/JP2000322556A/ja
Application granted granted Critical
Publication of JP3565087B2 publication Critical patent/JP3565087B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体に係り、特に、ビデオカメラや気象レーダ装置、リモートセンシング等により得られる時系列画像を入力とし、入力された時系列画像の未来の画像を予測する技術において、気象レーダ装置などから得られる時系列の気象画像を入力とし、観測時点から未来の画像を得ることで、局所短時間の降水量の空間分布の予報などへの応用が可能な時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体に関する。
【0002】
【従来の技術】
従来の時系列画像の予測技術としては、まず、直前に、数フレームから画像中の運動物体が存在する領域を抽出し、その動き情報(速度ベクトル)を推定し、この動き情報を用いて抽出した運動物体の領域を画像上で移動させることにより行う方法がある。
【0003】
ここでは、時系列画像の予測技術の典型的な応用である短時間の降水量分布の予測の例をとって考えると、文献[1] 遊馬芳雄、菊地勝弘、今久:“簡易気象レーダーによるエコーの移動速度について”,北海道大学地球物理学研究報告,Vol,44, October, 1984, PP.23−34 や、文献[2] 遊馬芳雄、菊地勝弘、今久:“簡易気象レーダーによる降雪の短時間予測実験(その1)”、北海道大学地球物理学研究報告,Vol.44, October,1984, pp.35−51にある相互相関法が広く知られている。
【0004】
上記文献[1] 、[2] の手法では、一定時間毎に観測された時系列をなす気象画像から、その真近に観測された2つの時刻の気象画像を用い、一方をずらして、画像間の相互相関値を計算し、それが最大となるずれ幅から、画像中のパターンの移動速度を推定している。さらに、推定された移動速度を用いてパターンを外挿させることにより未来の画像中のパターンの分布の予測を提供している。気象レーダ装置のレーダエコー反射強度の空間分布を気象画像として用いる場合、画像中のパターンはエコーパターンと呼ばれ、その画像中での分布は降水強度の空間的な分布に対応し、また、画像中の各点の濃淡値は降水強度に対応している。
【0005】
具体的には、図9に示すように、時間間隔Δtをおいて計測された2枚の気象レーダ画像R,Rから、次式により相互相関値を求める。但し、レーダ画像上の格子点(i,j)における画像の濃度値を各々、R(i,j),R(i,j)とし、相関をとる領域を(A,B)、相関値を計算する際の2枚のレーダ画像のズレを(k,h)とする(図9において斜線は相関値をとる領域を示し、中央の太線の矢印はエコーパターンの移動方向を表す)。
【0006】
【数1】
Figure 0003565087
【0007】
上述の計算によって求められた相互相関値は、例えば、図10に示すようになる。そこで、格子点上にある相互相関値の最大値をとる点(K,H)での相互相関値σK,H 、及び、その近傍の四点の相互相関値σ−x,σ+x,σ−y,σ+yに対して二次関数による補間を行い、補間の結果相互相関値が最大となる点(格子点とは限らない)とのずれ(k’,h’)を次式により求める(図11、但し、X成分のみを示す)。
【0008】
【数2】
Figure 0003565087
【0009】
以上より、2枚の画像は(K+k’,H+h’)だけずらした場合に相互相関値が最大となる。このことから、エコーパターンの移動ベクトルは次の式(6)、式(7)より求めることができる。この移動ベクトルは、降水域の移動方向及び速度を表している。但し、V,Vは、それぞれ移動量のx成分、y成分を示す。
【0010】
【数3】
Figure 0003565087
【0011】
次に、ある時刻に計測された気象レーダ画像中のエコーパターンを、式(6)、式(7)により求められる移動ベクトルを用いて外挿することで、計測時刻以後のレーダ画像を予測する。
気象レーダ画像I(i,j)を入力画像とし、第1の手段を用いて算出した移動ベクトルから入力画像I(i,j)が計測された時刻からΔT時間後の予測画像J(i,j)を求める。予測画像J(i,j)は、水平方向の移動量S,垂直方向の移動量S
= ΔT・V (8)
= ΔT・V (9)
に基づき、入力画像I(i,j)を平行移動したものと定義する。しかし、この移動量は整数値とは限らず、移動した画像の格子点からのずれを
【0012】
【数4】
Figure 0003565087
【0013】
と定義する。
但し、入力画像からの対応がない予測画像Jの格子点、つまり、平行移動の結果として予測画像に空いた隙間については0の値をとるものとする。
なお、V>0かつV>0以外の場合についても同様にして予測画像を求めることができる。
【0014】
【発明が解決しようとする課題】
しかしながら、従来の時系列画像予測方法では、直前、数フレーム内のパターンの動き及び変化の傾向が、この先も継続するという仮定に基づいているため、この仮定が成り立つ短い時間内でのみ妥当な予測画像ができ、また、観測していた画像系列内に存在しない物体の出現予測など、時間的に急激に画像パターンが変化する場合には予測ができないという問題がある。
【0015】
本発明は、上記の点に鑑みなされたもので、過去に測定された時系列画像をデータベースに蓄積し、予測対象の時系列画像と類似する過去の画像系列を、画像特徴量についての類似尺度に基づき検索し、検索された過去の画像系列の画像特徴量の時間変化に基づき、予測対象の時刻の画像特徴量を予測し、その画像特徴量から画像を再構成することで、時間的に急激に画像パターンが変化するような時系列画像に対しても高精度の予測画像を提供することが可能な時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体を提供することを目的とする。
【0016】
【課題を解決するための手段】
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測方法において、
時系列画像を入力する画像入力ステップ(ステップ1) と、
時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップ(ステップ2)と、
予測対象である予測対象時系列画像を入力する予測対象画像入力ステップと、
予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップ(ステップ3)と、
画像特徴量記憶手段に格納されている時系列画像と、計算された予測対象画像特徴量が類似する時系列画像を検索する画像検索ステップと、
検索された画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する未来画像特徴量予測ステップ(ステップ4)と、
予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する予測画像出力ステップ(ステップ5)と、からなり、
未来画像特徴量予測ステップにおいて、
画像検索ステップで検索された画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、予測対象時刻の画像特徴量として計算する。
【0017】
本発明(請求項2)は、予測画像出力ステップにおいて、未来の画像を再構成する際に、
未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる。
【0018】
本発明(請求項3)は、時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測方法において、
時系列画像を入力する画像入力ステップと、
時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
予測対象である予測対象時系列画像を入力する予測対象画像入力ステップと、
予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
画像特徴量記憶手段に格納されている時系列画像と、計算された予測対象画像特徴量が類似する時系列画像を検索する画像検索ステップと、
検索された画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する未来画像特徴量予測ステップと、
予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する予測画像出力ステップと、からなり、
未来画像特徴量予測ステップにおいて、
画像検索ステップで検索された画像特徴量記憶手段中の時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算し、
予測対象として入力された予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算し、
計算された差分ベクトルを行列を用いて写像し、予測対象時刻での差分ベクトルを計算し、
差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算する。
【0019】
本発明(請求項4)は、予測画像出力ステップにおいて、未来の画像を再構成する際に、
未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる。
図2は、本発明の原理構成図である。
【0020】
本発明(請求項5)は、時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測装置であって、
時系列画像を入力する時系列画像入力手段101と、
時系列画像入力手段101により入力された時系列画像の画像特徴量を抽出する画像特徴量抽出手段202と、
画像特徴量抽出手段202により抽出された画像特徴量を蓄積する画像特徴量記憶手段203と、
予測対象である予測対象時系列画像を入力する予測対象時系列画像入力手段102と、
予測対象時系列画像入力手段により入力された予測対象時系列画像の予測対象画像特徴量を計算する画像特徴量計算手段207と、
画像特徴量記憶手段203に格納されている時系列画像と、画像特徴量計算手段207で計算された予測対象画像特徴量が類似する時系列画像を検索する検索手段204と、
検索手段で検索された画像特徴量記憶手段203中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測手段205と、
予測手段205で予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する画像再構成手段206と、からなり、
予測手段205は、
検索手段204で検索された画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、予測対象時刻の画像特徴量として計算する、手段を有する
【0021】
本発明(請求項6)は、画像再構成手段において、未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる手段を有する。
【0022】
本発明(請求項7)は、時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測装置であって、
時系列画像を入力する時系列画像入力手段と
時系列画像入力手段により入力された時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出手段と、
画像特徴量抽出手段により抽出された画像特徴量を蓄積する画像特徴量記憶手段と、
予測対象である予測対象時系列画像を入力する予測対象時系列画像入力手段と、
予測対象時系列画像入力手段により入力された予測対象時系列画像の予測対象画像特徴量を計算する画像特徴量計算手段と、
画像特徴量記憶手段に格納されている時系列画像と、画像特徴量計算手段で計算された予測対象画像特徴量が類似する時系列画像を検索する検索手段と、
検索手段で検索された画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測手段と
予測手段で予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する画像再構成手段と、からなり、
予測手段は、
検索手段で検索された画像特徴量記憶手段中の時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算する手段と、
予測対象として入力された予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算する手段と
計算された差分ベクトルを行列を用いて写像し、予測対象時刻での差分ベクトルを計算する手段と、
差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算する手段と、を有する。
【0023】
本発明(請求項8)は、画像再構成手段において、
未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる手段を有する。
【0024】
本発明(請求項9)は、時系列画像を入力し、該時系列画像の未来の画像を予測するプログラムを格納した時系列画像予測プログラムを格納した記憶媒体であって、
コンピュータに、
時系列画像を入力させる時系列画像入力ステップと、
時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
予測対象である予測対象時系列画像を入力させる予測対象画像入力ステップと、
予測対象時系列画像入力ステップにおいて入力された予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
画像特徴量記憶手段に格納されている時系列画像と、画像特徴量計算ステップで計算された予測対象画像特徴量が類似する時系列画像を検索する検索ステップと、
検索ステップで検索された画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測ステップと、
予測ステップで予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力させる画像再構成ステップと、を実行させ、
予測ステップにおいて、
画像検索ステップで検索された画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、予測対象時刻の画像特徴量として計算するステップを実行させる、プログラムを格納する。
【0025】
本発明(請求項10)は、画像再構成ステップにおいて、未来の画像を再構成する際に、
未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせるステップを実行させる。
【0026】
本発明(請求項11)は、時系列画像を入力し、該時系列画像の未来の画像を予測するプログラムを格納した時系列画像予測プログラムを格納した記憶媒体であって、
コンピュータに、
時系列画像を入力させる時系列画像入力ステップと、
時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
予測対象である予測対象時系列画像を入力させる予測対象画像入力ステップと、
予測対象時系列画像入力ステップにおいて入力された予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
画像像特徴量記憶手段に格納されている時系列画像と、画像特徴量計算ステップで計算された予測対象画像特徴量が類似する時系列画像を検索する検索ステップと、
検索ステップで検索された画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測ステップと、
予測ステップで予測された未来の画像特徴量から、未来の画像を再構成し、予測画像として出力させる画像再構成ステップと、を実行させ、
予測ステップにおいて、
画像検索ステップで検索された画像特徴量記憶手段中の時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算ステップと、
予測対象として入力された予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算するステップと、
計算された差分ベクトルを行列を用いて写像し、予測対象時刻での差分ベクトルを計算するステップと、
差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算するステップと、を実行させる。
【0027】
本発明(請求項12)は、画像再構成ステップにおいて、未来の画像を再構成する際に、
未来の画像特徴量ベクトルとの距離が小さい、画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせるステップを実行させる。
【0030】
従来は、気象などの自然現象を観測した時系列画像は、複雑にパターンが変化し、パターンの背後にある現象のモデルや原理が不明確であり、時系列画像のみからは正確にモデルのパラメータの推定が困難である。このような対象に対しては、直前の時系列画像の情報から予測を行う方法では十分対応できないが、本発明によれば、過去の時系列画像をデータベースに大量に蓄積し、その各時刻の画像を複数の画像特徴量ベクトルに変換し、その特徴量ベクトルの相違により、データベース中の画像との間の類似度を判定して、類似時系列画像を検索し、検索された過去の時系列画像の画像特徴量の変化に基づいて未来の画像特徴量を予測している。そのため、従来、モデル化が困難であった複雑な画像パターンに対しても精度よく未来の画像を予測することが可能となる。
【0031】
また、本発明は、膨大なデータ量をもつ時系列画像から、画像中のパターンの特性を表現する望ましい画像特徴量を予め選択し、その画像特徴量の類似性に基づいて検索を行っている。そのため、時系列画像の元のデータの次元と比較して、大幅に少ない次元数の画像特徴量のベクトルを用いて処理が行われるため、検索に要する計算コストが削減することが可能となる。また、冗長性の大きい元データ同士の類似度を直接計算する場合と比較して、より、利用用途に叶った的確な検索が可能となり、検索時に各特徴についての類似度の度合いを利用者に提示することにより、検索されたデータの各特性を利用者が把握することが可能となる。
【0032】
また、本発明は、予測された画像特徴量に類似する画像特徴量をもつ画像をデータベース中から選択し、その画像の特徴量と、予測された画像特徴量との距離の逆数により重み付けを行って、選択された過去の画像の各画素の濃淡値を足し合わせることで予測画像を再構成している。そのため、データベース中の単一の画像を予測画像として選択し、出力する場合と比べて、統計的に高い予測精度の予測画像を生成することが可能となる。
【0033】
【発明の実施の形態】
図3は、本発明の時系列画像予測装置の構成を示す。
同図に示す時系列画像予測装置は、入力部100と処理部200と出力部300から構成される。
入力部100は、データベースに蓄積するための時系列画像を入力する時系列画像入力部101、予測対象となる時系列画像を入力する予測対象時系列画像入力部102からなる。これら入力の例としては、ビデオカメラや、衛星、レーダなどの撮影装置から得られる画像や、または、物理量の空間分布を画像化したもの(例えば、気圧分布など)が考えられる。
【0034】
処理部200は、時系列画像入力部101により入力される時系列画像を記憶するデータベースである時系列画像記憶部201、時系列画像記憶部201に蓄積されている時系列画像から一定時間間隔に、画像特徴を計算する画像特徴抽出部202と、画像特徴抽出部202で計算される画像特徴のベクトルの時系列を蓄積するデータベースである画像特徴記憶部203と、予測対象時系列画像入力部102を通して入力され、画像特徴抽出部202により計算される時系列画像の特徴量を入力とし、これと画像特徴記憶部203に記憶されている過去の時系列画像の特徴量のそれぞれと比較し、これと画像特徴記憶部203に記憶されている過去の時系列画像の特徴量のそれぞれと比較し、類似する時系列画像を検索する検索部204と、検索部204で得られた、過去の時系列画像の特徴量から、予測対象の時刻における入力された画像の特徴量の予測を行う特徴量予測部205と、特徴量予測部205で予測された画像特徴量に対応する画像を再構成することで予測画像を生成する予測画像生成部206から構成される。
【0035】
出力部300は、処理部200から出力される検索結果の画像系列をディスプレイ装置やファイル装置等に出力する。
図4は、本発明の時系列予測装置に動作を示すフローチャートである。
ステップ101) 時系列画像入力部101からデータベース構築用の時系列画像が入力されると、入力された時系列画像を時系列画像記憶部201に記憶する。
【0036】
ステップ102) 画像特徴抽出部202において、時系列画像記憶部201中の時系列画像から一定時間毎に画像特徴量を計算し、画像特徴量記憶部203に記憶する。
ステップ103) 予測対象時系列画像入力部102から予測対象時系列画像が入力されると、画像特徴抽出部202において、当該予測対象時系列画像の特徴量を抽出する。
【0037】
ステップ104) 検索部204は、予測対象時系列画像の特徴量に基づいて像特徴量記憶部203から類似時系列画像を検索する。
ステップ105) 特徴量予測部205は、検索部204において検索された時系列画像の特徴量に基づいて、予測対象時刻の画像の特徴量を予測する。
ステップ106) 予測画像生成部206は、特徴量予測部205で予測された画像の特徴量より、予測画像を再構成し、出力部300に出力する。
【0038】
【実施例】
以下、図面と共に本発明の実施例を説明する。
本実施例では、図3の処理部200を中心に具体的に説明する。
時系列画像記憶部201は、時系列画像入力部101を通して入力される時系列の画像系列を蓄積するデータベースである。画像系列は時間的に切れ目なく継続しているもの、及び任意の区間連続している画像系列の集合を入力、蓄積することができ、画像フレームの時刻またはフレーム番号を指定することで、対応する画像が取り出せるものとする。
【0039】
画像特徴抽出部202では、時系列画像記憶部201に記憶されている画像系列、及び予測対象時系列画像入力部102を通じて入力される画像系列から、一定の時間間隔でデータの性質を表現する一つまたは、複数の特徴量ベクトルを計算する。
ここでは、例として画像中のパターンの濃淡値の空間分布を表すメッシュ特徴と、パターンの動き分布を表す速度ベクトル場と、パターン表面の細かい動きやテクスチャーを表現するテンポラルテクスチャ特徴の3つの特徴ベクトルを計算する例を示す。なお、以下で説明する以外の画面特徴量も使用可能である。
【0040】
図5は、本発明の一実施例の時系列画像を対象データとする場合の特徴量ベクトルの例を説明するための図である。
メッシュ特徴は、ある時刻tにおいて、図5(a)の例のように得られた画像を、図5(b)のようにメッシュに区切り、各メッシュ内の画像の濃淡値の平均値を要素とする1次元の特徴量ベクトルx(t)である。また、図5(b)のような各メッシュ中に含まれるパターンの平均的な速度ベクトルを図5(c)のような速度ベクトル場を計算し、その各成分を要素とする1次元ベクトルを速度ベクトル場の特徴量ベクトルx(t)とする。
【0041】
さらに、テンポラルテクスチャ特徴は、パターン画面の細かい動きやテクスチャを表現する画像特徴であり、パターンの生成・消滅を伴う非剛体の動きパターンについて、その性質を定量化することができる。それは、複数の画像フレームに含まれるパターンの動き成分の確率密度分布を計算し、その分布から時系列画像の局所的な時空間領域中に含まれる動きの多様性や、画像要素の配置の規則性などの画像特徴を計算している。ここでは、優勢な速度の大きさ、動きの一様性、隠蔽率、輪郭配置の方向性、輪郭配置の粗さ、輪郭のコントラストなどの量を要素とするベクトルを一定時間毎に計算し、特徴量ベクトルx(t)とする。
【0042】
時系列画像記憶部201に含まれるデータについて得られた特徴量ベクトルは、画像特徴量記憶部203に記憶される。なお、その際、各特徴量ベクトル毎に、その分散、平均についての正規化を行い、また、検索問い合わせ用の予測対象時系列画像入力部102から入力された問い合わせデータ系列から得られた特徴量ベクトルについても、同じパラメータで正規化を行う。
【0043】
画像特徴量記憶部203では、画像特徴抽出部202により計算された特徴量ベクトルを記憶し、検索部205、及び予測画像生成部206からの要求に応じて、要求された時刻に対応する特徴量ベクトルを出力する。
検索部204では、予測対象時系列画像入力部102を通して入力され、画像特徴量抽出部202により計算される時系列画像の特徴量を入力とし、これと画像特徴量記憶部203に記憶されている過去の時系列画像の特徴量のそれぞれと比較し、類似する時系列画像の検索を行い、特徴量予測部205へ出力を行う。
【0044】
ここでは、その一例として以下の方法を示す。
いま、予測対象時系列画像として、予測対象時系列画像入力部102から時刻 Tに観測された画像を含むL時間ステップの画像系列{T−H+1,…,T−1,T}を入力すると考える。ここでこの画像系列としてTを表記する。そこで、時刻Tの画像系列と時系列画像記憶部201に記憶されている過去の時刻tの部分データ系列{t−L+1,…,t−1,t}との間について、各特徴量ベクトルkに関する類似度
D(T,t)={D(T,t)|k=1,2,3}
を計算する方法を示す。本実施例では、2つの部分系列の間の時間伸縮を補正するためにDPマッチングを用いた方法を用い、次のように計算する。
【0045】
【数5】
Figure 0003565087
【0046】
ただし、ηは定数とし、|・|はユークリッドノルムである。また、V(T)は、問い合わせデータ系列のパターン変化の速さであり、
(T)=|x(T)−x(T−1)|. (14)
のように計算できる。このV(T)を用いて、2つの時刻間のパターン変化の速さに依らない正規化された非類似度d(m,n)を計算し、それを問い合わせデータの時間ステップ幅Lについて、和が最小となるような非類似度D(T,t)を計算する。
【0047】
次に、以上で定義した方法を用いて、問い合わせデータTと、元データ系列記憶部201中の各時刻のデータとの間の非類似度を、それぞれの特徴量ベクトルkについて計算する。そして、検索されるデータ系列の候補として、各特徴量ベクトルの非類似度について、利用者が与える閾値ξ={ξ,ξ,ξ}を満たすデータ系列の集合Sを求める。
【0048】
【数6】
Figure 0003565087
【0049】
ここで、Sの各要素を検索候補と呼ぶ。
次に、検索候補集合S中の各要素について、各特徴量ベクトルの非類似度を統合して、総合的な非類似度を求める。ここではその一例として、非類似度D(T,t)についての多項式の関数fとして、総合的な非類似度Y(t)を求める。
【0050】
(t)=f(D(T,t)) (16)
関数fとしては、各非類似度D(T,t)の重み付き和等が使用できる。
次に、検索結果の画像系列の最大数Kと、検索結果の画像系列が満たしているべき総合的な非類似度の閾値eTHを与えて、以下のように画像系列を選択する。
={q,q,…,q} (17)
但し、 Y(q)≦Y(qi+1
p=max {i|i≦K,Y’(q)≦eTH },
特徴量予測部205では、検索部204で検索された過去の時系列画像の特徴量から、予測対象の時刻における入力された画像の特徴量の予測を行う。
【0051】
ここでは、その例として、次の2つの方法を説明する。なお、以下の方法以外の方法も使用可能である。
一つ目の方法は、検索されたデータベース中の時系列画像の予測時間分先の時刻T+ηの画像特徴量を、検索された画像系列と予測対象の画像系列との類似度に比例して重み付けをして足し合わせたものを予測対象時刻の画像特徴量として計算する方法である。具体的には、前述の検索部204の説明において、検索された過去の時系列画像の集合Cの時刻に対応する画像特徴量{x(q),x(q),…,x(q)}の予測対象時系列画像の時刻Tから予測時間ステップ先T+ηの時刻における特徴量値
{x(q+η),x(q+η),…,x(q+η)}
を、重みを付けて平均するという方法により、時刻T+ηにおける画像特徴量の予測値
【0052】
【数7】
Figure 0003565087
【0053】
を次のように計算する。
【0054】
【数8】
Figure 0003565087
【0055】
ここで、w(q)は、検索された各画像の重みであり、検索時における予測対象時系列画像と検索候補の時系列画像との間の非類似度の逆数に比例している。また、もう一つの方法としては、検索されたデータベース中の時系列画像の画像特徴量のベクトルの集合中の、任意の2つの画像特徴量の間のベクトルの差分が、予測時間先においてはどのように変化するかという写像関係を取得し、予測対象として入力された時系列画像の画像特徴量ベクトルx(T)と最も類似する検索された画像の画像特徴量のベクトルx(q)との間の差分から、予測対象時刻先における差分ベクトルを計算し、対応する時刻での画像特徴量のベクトルx(q+T)との和から、画像特徴量の予測値を計算する方法が利用できる。
【0056】
具体的には、検索結果の画像系列に対応する特徴量ベクトルの集合
X={x(q),x(q),…,x(q)}
中の2つのベクトルの組み合わせ(x(q),x(q))、(但し、|q−q|>△、△は定数)について、2つの特徴量ベクトル間の変位ベクトル
z(q,q)=x(q)−x(q) (20)
と、2つの特徴ベクトルの予測対象時間先における変位ベクトル
z’(q,q)=x(q+η)−x(q+η) (21)
との間の関係が、
z’(q,q)=G(q,q) (22)
のように局所線形変換Gにより表されると仮定とし、検索結果の集合C中の2つのベクトル間の組み合わせについて、
【0057】
【数9】
Figure 0003565087
【0058】
が最小となるような行列Gを最小2乗法により計算する。
そして、得られた行列Gを用いて、特徴量の予測値
【0059】
【数10】
Figure 0003565087
【0060】
と計算できる。
このようにして各種の画像特徴量k毎に対象となる予測時間T+ηにおける画像特徴量の予測値
【0061】
【数11】
Figure 0003565087
【0062】
が得られ、これは、予測画像生成部206へと出力される。
予測画像生成部206では、特徴量予測部205で予測された画像特徴量に対応する画像を再構成することで予測画像を生成し、出力部300へ出力を行う。その具体的な方法の一例と以下の方法を示す。但し、以下の方法以外の方法も利用可能である。
【0063】
まず、画像特徴量の予測値
【0064】
【数12】
Figure 0003565087
【0065】
に類似する画像特徴量記憶部205に含まれる特徴量を選択する。その一つの方法として、前述の検索部204で検索され、特徴量予測部205において、画像特徴量の予測を求める際に用いた画像系列の集合を用いる方法がある。
これは、画像特徴量の予測値
【0066】
【数13】
Figure 0003565087
【0067】
と、データベース中の画像系列の集合
X={x(q+η),x(q+η),…,x(q+η)}
のそれぞれとの間の距離を計算し、その逆数として各画像特徴量に対応する時系列画像記憶部201に記憶されている画像の重みW(q+η)を計算する。
【0068】
【数14】
Figure 0003565087
【0069】
次に、得られた重みW(q+η)を用いて、各画像特徴量x(q+η)に対応する時系列画像記憶されている画像I(q+η)の各画素の濃淡値を加重平均し、予測画像
【0070】
【数15】
Figure 0003565087
【0071】
を再構成する。
【0072】
【数16】
Figure 0003565087
【0073】
得られた予測画像
【0074】
【数17】
Figure 0003565087
【0075】
は、出力部300へ出力される。
以下で、気象レーダ画像を対象とした具体的な例を説明する。
図6は、本発明の一実施例の予測対象の時系列画像の例を説明するための図であり、予測対象として入力した時系列画像の始めと最後のフレームを示す。但し、単位時間ステップは1時間であり、問い合わせデータ系列(予測対象として入力した時系列画像)は3時間分のデータを含み、36フレームで構成される。
【0076】
画像特徴抽出部202の説明で述べた通り、特徴量ベクトルとして、メッシュ特徴、速度ベクトル場、テンポラルテクスチャ特徴の3種を用いた。また、時系列画像記憶部201には、およそ9000時間分(12万フレーム)の時系列画像を記憶した。
図7は、本発明の一実施例の図6の予測対象の時系列画像に対して得られた検索結果の画像系列の様子を説明するための図であり、図6について得られた類似画像系列を上位5位まで示す。予測対象である時系列画像には、線状のパターンが、その形状を若干崩しながら、陸地へ接近する様子が示されているが、検索された時系列画像にも、同じような傾向を持ったパターンが得られたことが確認できる。
【0077】
図8は、本発明の一実施例の図6の予測対象の時系列画像に対して得られた2時間後から3時間後の累積雨量分布の予測と実際とを説明するための図である。同図(a)には、図6の最終フレームの時刻から、2時間先から3時間先の累積雨量分布の予測を示す。なお、ここでは、レーダ画像中の濃淡値と雨量値とは単調増加の関係にあるものとして変換を行った。または、同図(b)には、後から観測された実際の雨量分布を示す。この例のパターンでは、始め線状で海上に存在したパターンが、南下しつつ形状を崩し、3時間後には広く陸地に広がり、また、海上には筋状のパターンが出現しているが、予測においても、同様のパターンが現れ、本発明による予測の有効性が分かる。
【0078】
なお、本発明は、データを保存し、それらを自由に読み出し可能なハードディスクやそれに準ずる装置と、データを処理する際に必要なバックアップやそれに準ずる装置と、所望の情報を表示、出力するディスプレイファイル装置などの装置を備え、それらを予め定められた手順に基づいて制御する中央演算装置などを備えたコンピュータやそれに準る装置を元に、上述した実施例での各部の処理の一部もしくは全部、ないしは、図4のフローチャートに示した手順、もしくは、アルゴリズムを記述した処理プログラムやそれに準る物を、当該コンピュータに対して与え、制御、実行させることで実現することが可能である。ここで、当該処理プログラムやそれに準るものを、コンピュータが実行する際に読み出して実行できるCD−ROM、フレキシブルディスク(FD)、光磁気ディスク(MO)あるいは、それらに準る記憶媒体に記録して、配布することが可能である。
【0079】
なお、本発明は、上記の実施例に限定されることなく、特許請求の範囲内で種々変更・応用が可能である。
【0080】
【発明の効果】
上述のように、本発明では、予測対象の時系列画像を入力し、予めデータベースに蓄積されている過去の時系列画像の集合の中から予測対象の時系列画像に類似する画像を画像特徴量の類似性から検索し、さらに、検索された過去の時系列画像の画像特徴量の変化に基づいて、予測対象の時系列画像の未来の画像特徴量の予測を行い、最後に、予測された画像特徴量に類似するデータベース中の過去の画像を用いて、画像を再構成することで予測画像を生成している。
【0081】
そのため、従来は、画像中のパターンの挙動のモデル化が困難である自然現象を観測したような複雑で、急激に画像パターンが変化するような時系列画像に対しても精度の高い予測画像を提供することができる。
【図面の簡単な説明】
【図1】本発明の原理を説明するための図である。
【図2】本発明の原理構成図である。
【図3】本発明の時系列画像即装置の構成図である。
【図4】本発明の時系列画像予測装置の処理部の動作を示すフローチャートである。
【図5】本発明の一実施例の時系列画像を対象データとする場合の特徴量ベクトルの例を説明するための図である。
【図6】本発明の一実施例の予測対象の時系列画像の例を説明するための図である。
【図7】本発明の一実施例の図6の予測対象の時系列画像に対して得られた検索結果の画像系列の様子を説明するための図である。
【図8】本発明の一実施例の図6の予測対象の時系列画像に対して得られた2時間後から3時間後の累積雨量分布の予測と実際とを説明するための図である。
【図9】従来の相互の相関手法の処理を示す図である。
【図10】従来の相互相関手法により求められた相関値分布の一例を示す図である。
【図11】従来の相関分布から二次補間により最大値をとる点k’を算出する方法を示す図である。
【符号の説明】
100 入力部
101 時系列画像入力手段、時系列画像入力部
102 予測対象時系列画像入力手段、予測対象時系列画像入力部
200 処理部
201 時系列画像記憶部
202 画像特徴量抽出手段、画像特徴抽出部
203 画像特徴量記憶手段、画像特徴量記憶部
204 検索手段、検索部
205 予測手段、特徴量予測部
206 画像再構成手段、予測画像生成部
300 出力部

Claims (12)

  1. 時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測方法において、
    時系列画像を入力する画像入力ステップと、
    前記時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
    予測対象である予測対象時系列画像を入力する予測対象画像入力ステップと、
    前記予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
    前記画像特徴量記憶手段に格納されている時系列画像と、計算された前記予測対象画像特徴量が類似する時系列画像を検索する画像検索ステップと、
    検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する未来画像特徴量予測ステップと、
    予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する予測画像出力ステップと、からなり、
    前記未来画像特徴量予測ステップにおいて、
    前記画像検索ステップで検索された前記画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と前記予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、前記予測対象時刻の画像特徴量として計算する、ことを特徴とする時系列画像予測方法。
  2. 前記予測画像出力ステップにおいて、前記未来の画像を再構成する際に、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる請求項1記載の時系列画像予測方法。
  3. 時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測方法において、
    時系列画像を入力する画像入力ステップと、
    前記時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
    予測対象である予測対象時系列画像を入力する予測対象画像入力ステップと、
    前記予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
    前記画像特徴量記憶手段に格納されている時系列画像と、計算された前記予測対象画像特徴量が類似する時系列画像を検索する画像検索ステップと、
    検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する未来画像特徴量予測ステップと、
    予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する予測画像出力ステップと、からなり、
    前記未来画像特徴量予測ステップにおいて、
    前記画像検索ステップで検索された前記画像特徴量記憶手段中の前記時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算し、
    予測対象として入力された前記予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算し、
    計算された差分ベクトルを前記行列を用いて写像し、予測対象時刻での差分ベクトルを 計算し、
    前記差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算することを特徴とする時系列画像予測方法。
  4. 前記予測画像出力ステップにおいて、前記未来の画像を再構成する際に、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる請求項3記載の時系列画像予測方法。
  5. 時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測装置であって、
    時系列画像を入力する時系列画像入力手段と、
    前記時系列画像入力手段により入力された前記時系列画像の画像特徴量を抽出する画像特徴量抽出手段と、
    前記画像特徴量抽出手段により抽出された前記画像特徴量を蓄積する画像特徴量記憶手段と、
    予測対象である予測対象時系列画像を入力する予測対象時系列画像入力手段と、
    前記予測対象時系列画像入力手段により入力された前記予測対象時系列画像の予測対象画像特徴量を計算する画像特徴量計算手段と、
    前記画像特徴量記憶手段に格納されている時系列画像と、前記画像特徴量計算手段で計算された前記予測対象画像特徴量が類似する時系列画像を検索する検索手段と、
    前記検索手段で検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測手段と、
    前記予測手段で予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する画像再構成手段と、からなり、
    前記予測手段は、
    前記検索手段で検索された前記画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と前記予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、前記予測対象時刻の画像特徴量として計算する、手段を有することを特徴とする時系列画像予測装置。
  6. 前記画像再構成手段は、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる手段を有する請求項5記載の時系列画像予測装置。
  7. 時系列画像を入力し、該時系列画像の未来の画像を予測する時系列画像予測装置であって、
    時系列画像を入力する時系列画像入力手段と、
    前記時系列画像入力手段により入力された前記時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出手段と、
    前記画像特徴量抽出手段により抽出された前記画像特徴量を蓄積する画像特徴量記憶手段と、
    予測対象である予測対象時系列画像を入力する予測対象時系列画像入力手段と、
    前記予測対象時系列画像入力手段により入力された前記予測対象時系列画像の予測対象画像特徴量を計算する画像特徴量計算手段と、
    前記画像特徴量記憶手段に格納されている時系列画像と、前記画像特徴量計算手段で計算された前記予測対象画像特徴量が類似する時系列画像を検索する検索手段と、
    前記検索手段で検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測手段と、
    前記予測手段で予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力する画像再構成手段と、からなり、
    前記予測手段は、
    記検索手段で検索された前記画像特徴量記憶手段中の前記時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算する手段と、
    予測対象として入力された前記予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算する手段と
    計算された差分ベクトルを前記行列を用いて写像し、予測対象時刻での差分ベクトルを計算する手段と、
    前記差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算する手段と、を有することを特徴とする時系列画像予測装置。
  8. 前記画像再構成手段は、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせる手段を有する請求項7記載の時系列画像予測装置。
  9. 時系列画像を入力し、該時系列画像の未来の画像を予測するプログラムを格納した時系列画像予測プログラムを格納した記憶媒体であって、
    コンピュータに、
    時系列画像を入力させる時系列画像入力ステップと、
    前記時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
    予測対象である予測対象時系列画像を入力させる予測対象画像入力ステップと、
    前記予測対象時系列画像入力ステップにおいて入力された前記予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
    前記画像特徴量記憶手段に格納されている時系列画像と、前記画像特徴量計算ステップで計算された前記予測対象画像特徴量が類似する時系列画像を検索する検索ステップと、
    前記検索ステップで検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測ステップと、
    前記予測ステップで予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力させる画像再構成ステップと、を実行させ、
    前記予測ステップにおいて、
    前記画像検索ステップで検索された前記画像特徴量記憶手段中の複数の時系列画像の対象予測時間分先の時刻の画像特徴量を、検索された該時系列画像と前記予測対象画像との非類似度に逆比例して重み付けして、足し合わせたものを、前記予測対象時刻の画像特徴量として計算するステップを実行させる、プログラムを格納したことを特徴とする時系列画像予測プログラムを格納した記憶媒体。
  10. 前記画像再構成ステップにおいて、前記未来の画像を再構成する際に、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡 値を画素毎に足し合わせるステップを実行させる請求項9記載の時系列画像予測プログラムを格納した記憶媒体。
  11. 時系列画像を入力し、該時系列画像の未来の画像を予測するプログラムを格納した時系列画像予測プログラムを格納した記憶媒体であって、
    コンピュータに、
    時系列画像を入力させる時系列画像入力ステップと、
    前記時系列画像の画像特徴量を抽出し、画像特徴量記憶手段に蓄積する画像特徴量抽出ステップと、
    予測対象である予測対象時系列画像を入力させる予測対象画像入力ステップと、
    前記予測対象時系列画像入力ステップにおいて入力された前記予測対象時系列画像の予測対象画像特徴量を計算する特徴量計算ステップと、
    前記画像像特徴量記憶手段に格納されている時系列画像と、前記画像特徴量計算ステップで計算された前記予測対象画像特徴量が類似する時系列画像を検索する検索ステップと、
    前記検索ステップで検索された前記画像特徴量記憶手段中の時系列画像の画像特徴量に基づいて、予測対象として入力された予測対象時系列画像の未来の画像特徴量を予測する予測ステップと、
    前記予測ステップで予測された前記未来の画像特徴量から、未来の画像を再構成し、予測画像として出力させる画像再構成ステップと、を実行させ、
    前記予測ステップにおいて、
    前記画像検索ステップで検索された前記画像特徴量記憶手段中の前記時系列画像の画像特徴量ベクトルの集合中の2つの画像特徴量ベクトルの差分と、対象とする予測時間先における該2つの画像特徴量ベクトルとの間の差分の間の写像関係を表現する行列を計算ステップと、
    予測対象として入力された前記予測対象時系列画像の画像特徴量ベクトルと、該予測対象時系列画像の画像特徴量ベクトルに最も類似する検索された画像の画像特徴量ベクトルとの間の差分を計算するステップと、
    計算された差分ベクトルを前記行列を用いて写像し、予測対象時刻での差分ベクトルを計算するステップと、
    前記差分ベクトルと最も類似する検索された画像の予測対象時刻先における画像特徴量のベクトルとの和を計算し、画像特徴量の予測値を計算するステップと、を実行させることを特徴とする時系列画像予測プログラムを格納した記憶媒体。
  12. 前記画像再構成ステップにおいて、前記未来の画像を再構成する際に、
    前記未来の画像特徴量ベクトルとの距離が小さい、前記画像特徴量記憶手段に存在する画像の画像特徴量を検索し、該距離の逆数に比例した重み付けで、検索された画像の濃淡値を画素毎に足し合わせるステップを実行させる請求項11記載の時系列画像予測プログラムを格納した記憶媒体。
JP13000499A 1999-05-11 1999-05-11 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 Expired - Fee Related JP3565087B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13000499A JP3565087B2 (ja) 1999-05-11 1999-05-11 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13000499A JP3565087B2 (ja) 1999-05-11 1999-05-11 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体

Publications (2)

Publication Number Publication Date
JP2000322556A JP2000322556A (ja) 2000-11-24
JP3565087B2 true JP3565087B2 (ja) 2004-09-15

Family

ID=15023781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13000499A Expired - Fee Related JP3565087B2 (ja) 1999-05-11 1999-05-11 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体

Country Status (1)

Country Link
JP (1) JP3565087B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4100250B2 (ja) * 2003-05-19 2008-06-11 日産自動車株式会社 障害物検出装置および障害物検出方法
JP5576711B2 (ja) * 2010-05-14 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
WO2018052875A1 (en) * 2016-09-15 2018-03-22 Google Llc Image depth prediction neural networks
EP3975542A4 (en) 2019-05-21 2022-07-06 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM
JP7239511B2 (ja) * 2020-02-26 2023-03-14 株式会社日立製作所 画像予測システム
CN111860949B (zh) * 2020-06-12 2022-06-03 深圳市新产业眼科新技术有限公司 基于时序图像的预测方法及装置
CN113484247B (zh) * 2021-07-07 2022-03-25 南京大学 一种基于多源时间序列遥感影像的页岩油气燃烧提取方法

Also Published As

Publication number Publication date
JP2000322556A (ja) 2000-11-24

Similar Documents

Publication Publication Date Title
US5974360A (en) Method and equipment for weather image prediction
JP2006260527A (ja) 画像マッチング方法およびこれを用いた画像補間方法
Evans Glacier surface motion computation from digital image sequences
WO2021044122A1 (en) Scene representation using image processing
JP3565087B2 (ja) 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体
JP2004535871A (ja) 組織構造および組織構造の時間変化を定量化するためのシステムおよび方法
Xiong et al. Contextual sa-attention convolutional LSTM for precipitation nowcasting: A spatiotemporal sequence forecasting view
JP4070618B2 (ja) 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
Cuomo et al. Use of deep learning for weather radar nowcasting
JP3953350B2 (ja) 映像シーン予測方法、装置、プログラム、および記録媒体
JPH1114760A (ja) 気象画像予測方法、装置および気象画像予測プログラムを記録した記録媒体
JPH11258359A (ja) 気象予報支援方法、装置、および気象予報支援プログラムを記録した記録媒体
JPH11328407A (ja) 時系列画像予測方法、装置、および時系列画像予測プログラムを記録した記録媒体
WO2014171544A1 (ja) 時系列予測の導出装置、導出方法及び導出プログラム
US20230017138A1 (en) System and Method for Generating Training Images
Sakaino et al. Integrated physics-based nowcasting model for precipitation radar image sequence
JP3727762B2 (ja) コンピュータによる降雨予測方法及び降雨予測プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000305940A (ja) 時系列データ検索方法及び装置及び時系列データ検索プログラムを格納した記憶媒体
KR20210132998A (ko) 인공 신경망을 이용한 영상 내 객체 추적 장치 및 방법
JP3377076B2 (ja) 局所雨域予測方法および装置
Bigdeli et al. DTM generation from the point cloud using a progressive geodesic morphology and a modified Particle Swarm Optimization
JP3377074B2 (ja) 降水量変化予測装置
JP2000339329A (ja) 画像監視警報方法及び装置及び画像監視警報プログラムを格納した記憶媒体
CN116400356B (zh) 一种基于同质区域联合的层析sar三维成像方法
JPH11345342A (ja) 時系列画像検索方法、装置、および時系列画像検索プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040531

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees