JP2569219B2 - 動画像予測方式 - Google Patents

動画像予測方式

Info

Publication number
JP2569219B2
JP2569219B2 JP2407938A JP40793890A JP2569219B2 JP 2569219 B2 JP2569219 B2 JP 2569219B2 JP 2407938 A JP2407938 A JP 2407938A JP 40793890 A JP40793890 A JP 40793890A JP 2569219 B2 JP2569219 B2 JP 2569219B2
Authority
JP
Japan
Prior art keywords
image
affine transformation
moment
time
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2407938A
Other languages
English (en)
Other versions
JPH03296876A (ja
Inventor
隆 鳥生
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPH03296876A publication Critical patent/JPH03296876A/ja
Application granted granted Critical
Publication of JP2569219B2 publication Critical patent/JP2569219B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • G06F17/175Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method of multidimensional data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、動画像予測方式に係
り、更に詳しくは、離散的な時刻1、2、・・・、n−
1、nにおける時系列画像情報が存在するときに、時刻
n−1、nの2枚の画像情報から時刻n以降の任意の時
刻tの画像を、画像中の物体の動きを観測して予測する
動画像予測方式に関する。
【0002】
【従来の技術】動く物体をロボットが加工するような場
合に、ロボットの次の瞬間の動作を決定し、ロボットを
制御するためには、次の瞬間の物体の位置を予測する必
要がある。
【0003】従来、動画像の予測方式としては、画像を
構成する画素の明度を使用する方式がある。第7図は従
来方式の説明図である。
【0004】画像上の画素を位置(x,y)で記述し、
時刻n−1における画素(x,y)の明度をI1 (x,
y)、時刻nにおける画素(x,y)の明度をI2
(x,y)とする。このとき、時刻n以降の時刻tの画
素(x,y)の明度を次式で予測する。
【0005】
【数1】
【0006】すなわち、画素ごとに、過去の該画素の明
度の線形和として未来の画像の画素の明度を予測するこ
とになる。
【0007】
【発明が解決しようとする課題】しかしながら、従来の
方式は、画像中の物体の位置や形が時刻nおよび時刻n
−1の間のフレーム間で大きく変化した場合に、物体の
動きに追従できず、誤った予測をしてしまうという問題
がある。この問題について、第7図を使って説明する。
【0008】同図に示すように、時刻n−1では台形の
物体があり、これが時刻nでは少し細い四角形に変形
し、しかも位置が大きく変わっている。このような画像
の場合でも、従来の方式では、各画素の明度変化を線形
に延長して未来の画像を予測していた。すなわち、○印
の位置の画素はn−1の時刻では灰色、nの時刻でも灰
色であり、変化がないので、t>nの時刻tにおいても
○印の位置の画素は灰色になる。また、+印の画素は時
刻n−1では灰色、時刻nでは白色と変化しているの
で、時刻tには白色になる。一方、△印の位置の画素は
時刻n−1では白色、時刻nでは灰色なので、t>nの
時刻tでは、さらに濃い灰色になると予測される。
【0009】このように各画素について時刻tの明度を
予測すると、時刻tの画像に示してあるように、時刻n
−1および時刻nの物体が重なる部分は、灰色になり、
時刻nの四角形のうち両物体の重なり部分以外の部分は
より濃い灰色に、それ以外の部分は白色になる。
【0010】しかし、以上のように明度を線形に予測す
る従来の方式では、物体の形の変化や位置の変化にはう
まく追従できないことが分かる。本発明は、画像を構成
する物体の形や位置の変化にうまく追従して将来の動き
を予測可能にすることを目的とする。
【0011】
【課題を解決するための手段】第1図は、本発明のブロ
ック図である。本発明は、時刻n−1の画像1入力I1
(1)および時刻nの画像2入力I2 (2)から、時刻
n以降の時刻tの画像を予測することを前提とする。
【0012】まず、モーメント特徴抽出手段5を有す
る。モーメント特徴抽出手段5は、画像1入力I1
(1)および画像2入力I2 (2)をそれぞれ構成する
物体を楕円で近似するモーメント特徴と抽出し、画像1
のモーメント特徴F1 (3)および画像2のモーメント
特徴F2 (4)として出力する。
【0013】次に、アフィン変換決定手段6を有する。
アフィン変換決定手段6は、時刻n−1の画像1のモー
メント特徴F1 を、時刻nの画像2のモーメント特徴F
2 に変換するようなアフィン変換Gを決定する。
【0014】アフィン変換連続化手段7は、前記アフィ
ン変換決定手段6で求めたアフィン変換Gを、時刻n以
降の任意の時刻の画像を求めるとき使用できるように時
刻tに関して連続な関数に変換する。このとき、時刻n
−1をt=0とし、この時刻では何の変換もしない恒等
変換G(0)、時刻nをt=1とし、この時刻ではアフ
ィン変換決定手段6で求めたアフィン変換Gになるよう
(G(1)=G)、連続化する。
【0015】最後に、画像予測手段8は、前記アフィン
変換連続化手段7で求めた時間tに関して連続なアフィ
ン変換G(t)を原画像に施す。t>1に関して求める
ことにより、時刻n以降の任意のtについての画像が予
測できる。
【0016】アフィン変換G(t)をt>1について原
画像に施す場合には、画像1I1 (1)に施す方法、あ
るいは、画像2I2 (2)に連続化前のアフィン変換G
を施して得られる画像にアフィン変換G(t)を施す方
法、あるいは画像2I2 (2)にG(t−1)を施す方
法のいずれか一つ採ることが可能である。
【0017】
【作用】動画像を予測する場合には、予測実行前に得ら
れる時刻n−1(nは整数)の画像1I1 (1)と、時
刻nの画像2I2 (2)をもとにして、時刻n以降の任
意の時刻の画像を予測する。このとき、時刻n−1をt
=0、時刻nをt=1とし、画像を予測する時刻はt>
1の任意の時刻である。
【0018】まず、画像1I1 (1)と画像2I2
(2)のデータをモーメント特徴抽出手段5に入力す
る。モーメント特徴抽出手段5は、それぞれの画像につ
いて、画像を構成する物体を楕円近似するようなモーメ
ントである一次モーメントと二次モーメントを算出す
る。そして、画像1については画像1のモーメント特徴
1 (3)を、画像2については画像2のモーメント特
徴F2 (4)をアフィン変換決定手段6に出力する。モ
ーメント特徴F1 (3)およびモーメント特徴F2
(4)は、それぞれ画像を構成する物体の慣性主軸がな
す角度と、慣性主軸まわりのモーメントと、慣性主軸に
直交する軸のまわりのモーメントからなる。
【0019】アフィン変換決定手段6は、モーメント特
徴抽出手段5が出力する画像1のモーメント特徴F1
(3)と画像2のモーメント特徴F2 (4)をもとに、
画像1を画像2に変換するようなアフィン変換Gを算出
する。すなわち、画像1のモーメント特徴F1 を画像2
のモーメント特徴F2 に結びつける。このとき、x軸お
よびy軸方向の平行移動と伸縮、原点を中心とした回転
によって画像1を画像2に結び付けるアフィン変換Gを
求めることになる。
【0020】次に、前記アフィン変換決定手段6が算出
したアフィン変換Gはアフィン変換連続化手段7に入力
される。アフィン変換連続化手段7は、画像1のモーメ
ント特徴F1 を、任意の時刻t(t>1)におけるモー
メント特徴F(t)に変換する時間的に連続なアフィン
変換G(t)を求める。単位時間後(t=1のとき)に
はF(t)がF2 に一致することを利用し、時間的に連
続なアフィン変換G(t)を得る。
【0021】最後に、画像予測手段8は、前記アフィン
変換連続化手段7によって求めた連続化済みのアフィン
変換G(t)を使用して、2枚目の画像2以降(t>
1)の任意の時刻tの画像を推定する。このとき、連続
化済みのアフィン変換G(t)は、時間変数tに関し
て、一次式、指数関数、三角関数などの初等関数の組み
合わせなので、時刻tの定義域を単純に拡大するたけ
で、G(t)を1<tの時刻に解析接続できる。
【0022】このことから、まず、アフィン変換G
(t)をt>1の範囲のtに関して、時刻n−1(t=
0)の画像1に対して施すことにより、時刻n(t=
1)以降の任意の時刻tの画像を得ることができる。
【0023】また、第2の方法としては、連続化前のア
フィン変換Gの逆変換、すなわち、画像2を画像1に変
換するような変換G-1を画像2に施し、この結果得られ
る画像に対して連続化済みのアフィン変換G(t)をt
>1の範囲で施して、将来の任意の時刻tの画像を予測
する方法がある。
【0024】また、第3の方法としては、t>1のtに
関して、G(t−1)を画像2に施して、将来の任意の
時刻tの画像を予測する方法がある。以下、第2図を使
用して、モーメント特徴とアフィン変換、アフィン変換
の連続化、画像の予測の原理を説明する。
【0025】第2図は、モーメント特徴とアフィン変換
の説明図である。ここでは、物体の位置や形の変化に追
従するために1枚目の画像(時刻n−1の画像I1 )1
を2枚目の画像(時刻nの画像I2 )2に変換するよう
なアフィン変換Gを求めることを考える。
【0026】まず、1枚目、2枚目のそれぞれの画像か
ら、重心、慣性主軸、該慣性主軸まわり、および、該慣
性主軸に直交する軸まわりのモーメントを算出する。1
枚目の画像I1 (x,y)1、および、2枚目の画像I
2 (x,y)2の重心を(x1,1)、(x2,2)、それ
ぞれの画像の慣性主軸がx軸となす角をθ1 、θ2 、該
慣性主軸まわりのモーメントをEXP(κ1 )、EXP
(κ2 )、該慣性主軸に直交する軸のまわりのモーメン
トをEXP(λ1 )、EXP(λ2 )とする。
【0027】ここで、画像1については、
【0028】
【数2】
【0029】また、画像2については、
【0030】
【数3】
【0031】次に、これらのモーメントについてのアフ
ィン変換を考える。ここで、x軸方向にX、y軸方向に
Yだけ平行移動させる変換をT(X,Y)、原点を中心
にθだけ回転させる変換をR(θ)、x軸方向にexp
(κ) 倍、y軸方向にexp(λ) 倍だけ伸縮させる変換を
M(κ,λ)と表す。これらの変換は画像空間に作用す
ると同時に、特徴空間にも作用する演算(アフィン変
換)である。
【0032】このとき、1枚目の画像の特徴F=(X1,
1,θ1,κ1,λ1)および2枚目の画像の特徴F=(X2,
2,θ2,κ2,λ2)は、第2図に示すように、特徴空間の
原点F0 =(0,0,0,0,0)に対して、
【0033】
【数4】
【0034】
【数5】
【0035】
【数6】
【0036】
【数7】
【0037】の変換を施せば得られる。(3)、(5)式にお
いて、M(κ,λ)はX軸方向にexp(κ) 倍だけ、y軸
方向にexp(λ) 倍だけ伸縮させる伸縮、R(θ)はθだ
け回転させる回転、T(x,y)は原点を(x,y)に
移動させる平行移動を表す。この結果、(2)、(4)式よ
り、2枚目の画像の特徴F2 は1枚目の画像の特徴F1
に対して次の変換を施した結果に等しくなる。
【0038】
【数8】
【0039】(6) 式によって、画像1を画像2に変換す
るようなアフィン変換、すなわち、G21 -1が得られ
ることになる。次に、該アフィン変換G21 -1を、1
枚目の画像から2枚目の画像への変換だけでなく、任意
の時刻への変換に使用できるようにするために、求めた
該アフィン変換G21 -1を時間的に連続化することの
原理を説明する。
【0040】式(6) を基に、1枚目の画像のモーメント
特徴F1 を、任意の時刻における特徴F(t)に変換す
る時間的に連続なアフィン変換G(t)を求める。t=
0ではF(t)=F1 、単位時間後(t=1)にはF
(t)=F2 になることを利用すると次式が得られる。
【0041】
【数9】
【0042】(7) 式を満たす変換は無数に存在するが、
そのなかから次の条件を満たすものを求めることとす
る。
【0043】
【数10】
【0044】但し、Aは時間に依存しない変換上記の
(8) 式は無限小変換Aによって特徴が逐次的に変化する
ことを意味する。すなわち、
【0045】
【数11】
【0046】但し、h は時間刻みの幅≒0である。従っ
て、G(t)はG2 *G1 -1=exp(A)を満たす無限小変
換Aを用いて、次式で求まる。
【0047】
【数12】
【0048】上記の(7) 式、(9) 式は、任意の時刻tに
おける物体の位置や形状を表現しており、これから、物
体の位置や形状の時間変化など、物体の運動状態を捕ら
えることができる。
【0049】時間について連続なアフィン変換G(t)
は時間変換tに関して、一次式、指数関数、三角関数な
どの初等関数の組み合わせなので、定義域を単純に拡大
するだけで、G(t)を1<tの時刻に解析接続でき
る。次に、1<tの任意の時刻の画像を推定する原理を
説明する。
【0050】1枚目の画像をI1(x,y)、2枚目の画像を
2(x,y)とする。このとき、任意の時刻tにおける画像
は上記の(9)式で決まるアフィン変換をI1(x,y)を施
すことで求まる。つまり、
【0051】
【数13】
【0052】但し、t>1 しかし、G(1)*I1(x,y)とI2(x,y)とは必ずしも一
致しない。そこで、時刻n以降の画像を予測するために
は、(10)式のようにI1(x,y)を使うのではなく、I
2(x,y)を使うほうがよい。そのためには、I1(x,y)が近
似的にG-1(1)*I2(x,y)に等しいことを利用して、
(10)式の代わりに、
【0053】
【数14】
【0054】但し、t>1を使用することができる。ま
た、(11)式のなかで、
【0055】
【数15】
【0056】
【数16】
【0057】が成り立ち、さらにG(1)=Gであることか
ら、(11)式は、
【0058】
【数17】
【0059】但しt>1と変形できる。
【0060】
【実施例】以下、第3図乃第6図を参照しながら実施例
を説明する。第3図は、本発明の一実施例のシステム構
成図である。
【0061】全体としては、画像情報をディジタル・デ
ータとして取り込む入力部と、各種の計算を実行するC
PU部、データ等を格納するメモリ部からなる。入力部
10は、時系列的に入力される画像をディジタル・デー
タに変換し、システムに取り込む。すなわち、時刻n−
1、時刻n、・・・の画像を取り込み、ディジタル・デ
ータに変換する。
【0062】メモリ部には、画像メモリa11、画像メ
モリb12、モーメント・メモリa13、モーメント・
メモリb14がある。どのメモリもFIFO(firs
t−in first−out)のRAMなどで構成で
きる。画像メモリa,b(11、12)は入力部10が
取り込んだ画像データが格納し、モーメント・メモリ
a,b(13、14)は画像データから算出したモーメ
ント特徴のデータが格納される。
【0063】CPU部は、処理内容から4つの部分に分
かれる。すなわち、モーメント算出部15と、アフィン
変換決定部a16、アフィン変換連続化部17、アフィ
ン変換実行部18である。
【0064】モーメント算出部15は、画像メモリb1
2に格納されている画像データを読み出し、該画像の特
徴を表すモーメント・データを算出する。アフィン変換
決定部a16は、モーメント・メモリa、b(13、1
4)に格納されている二つの時刻の画像のモーメント特
徴を入力とし、両モーメント特徴を結び付けるアフィン
変換を決定する。次に、アフィン変換決定部a16で決
定されたアフィン変換はアフィン変換連続化部17に入
力され、時間的に連続的なアフィン変換を求める。そし
て、最後に、アフィン変換連続化部17で求めた時間的
に連続なアフィン変換を画像メモリa11に格納されて
いる画像データを入力として、アフィン変換実行部18
が任意の時刻tの画像を予測する。
【0065】次に、本システムの動作を同図、および第
3図の動作説明図に沿って説明する。まず、入力部10
に1枚目の画像(時刻n−1の画像)が取り込まれ、デ
ィジタル・データに変換され、画像メモリb12に格納
される(S1)。すなわち、ディジタル画像データI1
(x,y)が画像メモリb12に蓄積される。
【0066】時刻n−1の画像データI1 (x,y)が
画像メモリb12に蓄積されると、このデータは、次
に、画像メモリa11およびモーメント算出部15に出
力され、この時点で入力部10に時刻nの画像が取り込
まれる。すなわち、画像メモリa11には時刻n−1の
画像データI1 (x,y)が格納され、次の時刻の画像
データI2 (x,y)が画像メモリb12に格納される
ことになる(S2)。
【0067】一方、モーメント算出部15は、画像メモ
リb12から出力された画像データI1 (x,y)をも
とに、時刻n−1の画像のモーメント特徴F1 (X1,
1,θ1,κ1,λ1 )を算出する(S3)。ここで、(X1,
1,)は画像I1 (x,y)の重心、θ1 は慣性主軸が
x軸となす角、κ1 は慣性主軸まわりのモーメントを表
す数値、λ1 は慣性主軸に直交する軸のまわりのモーメ
ントを表す数値である。算出されたモーメント特徴F1
(X1,1,θ1,κ1,λ1 )はモーメント・メモリb14
に格納される。
【0068】次の時点では、画像メモリb12から時刻
nの画像データI2 (x,y)が出力され、モーメント
算出部15に入力され、モーメント特徴F2 (X2,2,
θ2,κ2,λ2 )を算出する(S4)。また、同時に、モ
ーメント・メモリb14から画像1のモーメント特徴F
1 (X1,1,θ1,κ1,λ1 )が出力され、モーメント・
メモリa13に格納される。
【0069】ここで、画像2のモーメント特徴F2 (X
2,2,θ2,κ2,λ2 )のなかの(X2,2)は画像I2
(x,y)の重心、θ2 は慣性主軸がx軸となす角、κ
2 は慣性主軸まわりのモーメントを表す数値、λ2 は慣
性主軸に直交する軸のまわりのモーメントを表す数値で
ある。算出したモーメント特徴F2 (X2,2,θ2,κ2,
λ2 )はモーメント・メモリb14に格納される。
【0070】すなわち、この時点で、画像メモリa11
には時刻n−1の画像データI1 (x,y)が、また、
画像メモリb12には時刻nの画像データI2 (x,
y)が、モーメント・メモリa13には時刻n−1のモ
ーメント特徴F1 (X1,1,θ1,κ1,λ1 )が、モーメ
ント・メモリb14には時刻nのモーメント特徴F2
(X2,2,θ2,κ2,λ2 )が格納されることになる。
【0071】次に、モーメント・メモリa13、モーメ
ント・メモリb14に格納されている時刻n−1および
時刻nの画像のモーメント特徴F1 およびF2 はアフィ
ン変換決定部a16に入力され、モーメント特徴F1
モーメント特徴F2 に変換するようなアフィン変換を算
出する(S5)。
【0072】アフィン変換決定部a16は、
【作用】の
項で説明したように、まず、特徴空間の原点F0 (0,
0,0,0,0)に対してF1 およびF2 がどのような
位置にあるかを、x方向、y方向への平行移動T(X,
Y)、原点を中心とした回転R(θ)、x方向、y方向
への伸縮M(κ,λ)を使って表す。すなわち、
【0073】
【数18】
【0074】
【数19】
【0075】
【数20】
【0076】
【数21】
【0077】となるG1 およびG2 を得る。そして、
【0078】
【数22】
【0079】が成り立つので、求めたG1 およびG2
ら、アフィン変換G21 -1を求める。そして、アフィ
ン変換G=G21 -1として、Gを出力し、アフィン変
換連続化部17に送る。
【0080】アフィン変換連続化部17は、G21 -1
=exp(A)を満たす無限小変換Aを求め、時間的に連続な
アフィン変換であるG(t)を次式のように定める(S
6)。すなわち、
【0081】
【数23】
【0082】そして、G(t)をアフィン変換実行部1
8に送る。アフィン変換実行部18は、アフィン変換連
続化部17で求めた時間的に連続なアフィン変換G
(t)と画像メモリa11に格納されている1枚目の画
像のデータI1 (x,y)を入力として、1枚目の画像
データをもとに2枚目の画像以降の画像I(x,y;t)を予
測する(S7)。すなわち、t>1の任意のtに関し
て、
【0083】
【数24】
【0084】を実行することによって、時刻n以降の任
意の時刻tの画像が予測できる。第5図は第二の実施例
のシステム構成図である。本実施例は、時刻nの2枚目
の画像データI2(x,y)を基に時刻n以降の任意時刻の画
像を予測するものである。第一の実施例では、I2(x,y)
とG*I1(x,y)が近似的に等しいものとして、1枚目の
画像データI1 を基に時刻n以降の任意時刻の画像を予
測したが、I2(x,y)とG*I1(x,y)は必ずしも一致しな
いので、時刻n以降の画像を予測するためにはI2(x,y)
を基にする方が望ましいからである。
【0085】この実施例では、入力部10、画像メモリ
b12、モーメント・メモリa13、モーメント・メモ
リb14、モーメント算出部15、アフィン変換決定部
a16、アフィン変換連続化部17は第一の実施例と同
様に存在し、同様の処理を実行する。しかしながら、本
実施例では、第一の実施例に存在した画像メモリa11
はなく、第一の実施例には存在しなかったアフィン変換
決定部b19が存在する。また、アフィン変換実行部1
8の処理は以上の相違により、第一の実施例とは異なる
処理を実行する。
【0086】まず、時刻n−1の1枚目の画像が入力部
10に入力され、ディジタル・データI1 (x,y)に
変換される。そして、該ディジタル・データI1 (x,
y)は画像メモリb12に格納されたうえ、モーメント
算出部15に送られる。
【0087】モーメント算出部15では、ディジタル・
データI1 (x,y)からモーメント特徴F1 (X1,
1,θ1,κ1,λ1 )を算出し、算出したF1 データをモー
メント・メモリb14に送り出す。モーメント・メモリ
bにはこの時点では時刻n−1の1枚目の画像のモーメ
ント特徴F1 が格納されることになる。
【0088】画像メモリb12に格納された1枚目の画
像データI1 (x,y)がモーメント算出部15に出力
された時点で、時刻nの2枚目の画像が入力可能にな
る。まず、入力部10に取り込まれ、ディジタル・デー
タI2 (x,y)に変換したうえ、画像メモリb12に
格納される。これによって、画像メモリb12には時刻
nの2枚目の画像データI2 (x,y)が蓄積され、時
刻n−1の1枚目の画像データI1 (x,y)は破棄さ
れる。
【0089】画像メモリb12に格納された2枚目の画
像データI2 (x,y)は次に、モーメント算出部15
に送られる。モーメント算出部15では、モーメント特
徴F2 (X2,2,θ2,κ2,λ2 )を算出する。算出した
2枚目の画像のモーメント特徴F2 はモーメント・メモ
リb14に送られるが、この時点で、モーメント・メモ
リb14に格納されていた1枚目の画像のモーメント特
徴F1 はモーメント・メモリa13に送られ、蓄積され
る。これによって、モーメント・メモリa13には1枚
目の画像のモーメント特徴F1 が、モーメント・メモリ
b14には2枚目の画像のモーメント特徴F2 が格納さ
れることになる。
【0090】モーメント・メモリaおよびb(13およ
び14)にそれぞれモーメント特徴F1 およびF2 が格
納された時点で、アフィン変換決定部aおよびb(16
および19)を起動される。どちらも、モーメント特徴
1 およびF2 を入力とする。そして、アフィン変換決
定部a16は、1枚目の画像のモーメント特徴F1 を2
枚目の画像のモーメント特徴F2 に変換するようなアフ
ィン変換Gを求める。一方、アフィン変換決定部b19
は、2枚目の画像のモーメント特徴F2 を1枚目の画像
のモーメント特徴F1 に変換するようなアフィン変換G
-1を求める。G-1は、アフィン変換Gの逆変換である。
【0091】アフィン変換決定部a16で算出されたア
フィン変換Gは次にアフィン変換連続化部17に送ら
れ、アフィン変換連続化部17は、時間的に連続なアフ
ィン変換G(t)を求める。この方法は第一の実施例と
同様で(9)式によって求める。
【0092】最後に、アフィン変換実行部18で、時刻
n以降(t>1)の任意の時刻tの画像を予測する。ア
フィン変換実行部18の入力は、アフィン変換連続化部
17で求めた時間的に連続なアフィン変換G(t)と、
2枚目の画像のモーメント特徴を1枚目の画像のモーメ
ント特徴に変換するアフィン変換G-1、および2枚目の
画像データI2 (x,y)である。
【0093】アフィン変換実行部18は、I1(x,y)が近
似的にG-1*I2(x,y)に等しいことを利用して、(1
0)式の代わりに、
【0094】
【数25】
【0095】但し、t>1を使用して予測する。すなわ
ち、時刻n以降の任意の時刻t(t>1)のG(t)
を、時刻nの2枚目の画像に前記逆変換G-1を施して得
られる画像に対して施す。
【0096】第6図は、第三の実施例のシステム構成図
である。第三の実施例は、第二の実施例をより簡単化し
たものである。(11)式は、
【0097】
【数26】
【0098】
【数27】
【0099】を適用すことにより次式のように変換でき
る。すなわち、
【0100】
【数28】
【0101】であり、t>1の任意の時刻tの画像を予
測するための(14)式が得られる。第6図は、この式
によって画像を予測するシステムの構成図である。入力
部10、画像メモリb12、モーメント算出部15、モ
ーメント・メモリa13、モーメント・メモリb14、
アフィン変換決定部a16、アフィン変換連続化部17
は第一、第二の実施例と同様に存在し、同様の処理を実
行する。アフィン変換実行部18は、第一、第二の実施
例とは異なり、(14)式に従った画像予測処理を実行
する。
【0102】1枚目の画像、2枚目の画像のモーメント
特徴F1 、F2 の算出までは第二の実施例と全く同様で
ある。すなわち、まず、1枚目の画像を入力部10に取
り込み、画像データI1 (x,y)に変換して、画像メ
モリb12に蓄積する。画像メモリb12に蓄積した画
像データI1 (x,y)は、次に、モーメント算出部1
5に送られ、モーメント算出部15は、1枚目の画像の
モーメント特徴F1 (X1,1,θ1,κ1,λ1 )を算出し
て、モーメント・メモリb14に格納する。
【0103】次に、入力部10には2枚目の画像が取り
込まれ、画像データI2 (x,y)に変換して、画像メ
モリb12に蓄積する。この時点で、画像メモリb12
に格納されていた1枚目の画像データI1 (x,y)は
破棄される。画像メモリb12に蓄積した画像データI
2 (x,y)は、次に、モーメント算出部15に送ら
れ、モーメント算出部15は、2枚目の画像のモーメン
ト特徴F2 (X2,2,θ2,κ2,λ2 )を算出して、モー
メント・メモリb14に格納する。この時点で、モーメ
ント・メモリb14にそれまで格納されていた1枚目の
画像のモーメント特徴F1 はモーメント・メモリa13
に送られ、蓄積する。
【0104】モーメント・メモリa、b(13、14)
にそれぞれモーメント特徴F1 、F2 が格納されると、
次に、アフィン変換決定部a16が起動される。アフィ
ン変換決定部a16は、モーメント特徴F1 、F2 を入
力とし、モーメント特徴F1 をモーメント特徴F2 に変
換するようなアフィン変換Gを求める。アフィン変換決
定部a16で算出されたアフィン変換Gは次にアフィン
変換連続化部17に送られ、アフィン変換連続化部17
は、時間的に連続なアフィン変換G(t)を求める。こ
の方法は第一の実施例と同様で(9)式によって求め
る。
【0105】最後に、アフィン変換実行部18で、時刻
n以降(t>1)の任意の時刻tの画像を予測する。ア
フィン変換実行部18の入力は、アフィン変換連続化部
17で求めた時間的に連続なアフィン変換G(t)と、
2枚目の画像データI2 (x,y)である。そして、前
記の(14)式に従って、2枚目の画像以降の任意の時
刻t(t>1)の画像I(x,y;t)を予測する。
【0106】
【発明の効果】本発明によれば、物体の動きを観測して
得られる動画像をもとに、その物体の動きを予測し、未
来の画像の状態を予測することが可能になる。
【図面の簡単な説明】
【図1】本発明の機能ブロック図である。
【図2】モーメント特徴とアフィン変換の説明図であ
る。
【図3】一実施例のシステム構成図である。
【図4】一実施例の動作説明図である。
【図5】第二の実施例のシステム構成図である。
【図6】第三の実施例のシステム構成図である。
【図7】従来方式の説明図である。
【符号の説明】
1 画像1入力I1 2 画像2入力I2 3 画像1のモーメント特徴F1 4 画像2のモーメント特徴F2 5 モーメント特徴抽出手段 6 アフィン変換決定手段 7 アフィン変換連続化手段 8 画像予測手段

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】ある時刻の画像情報入力I1 (画像1入
    力)(1)と、該画像1力I1 (1)以降の次の画像情
    報入力I2 (画像2入力)(2)からなる動画像情報か
    ら、任意の時刻tの画像を予測する動画像予測システム
    において、 画像1入力I1 (1)および画像2入力I2 (2)を楕
    円で近似したときの重心座標、長軸方向、長径、短径を
    表す二次以下のモーメント(それぞれ、画像1のモーメ
    ント特徴1 (3)および画像2のモーメント特徴F2
    (4))を算出するモーメント特徴抽出手段(5)と、 前記モーメント特徴抽出手段(5)によって抽出した画
    像1のモーメント特徴F1 (3)で表される長軸方向と
    x軸のなす角度だけ回転させる回転と該モーメント特徴
    1 (3)で表される長径の指数倍だけX軸方向に該モ
    ーメント特徴F1 (3)で表される短径の指数倍だけy
    軸方向に伸縮させる伸縮と原点を該モーメント特徴F1
    (3)で表される重心に移動させる平行移動とを合成し
    て得られるアフィン変換G1 を算出し、また、前記モー
    メント特徴抽出手段(5)によって抽出した画像2のモ
    ーメント特徴F2 (4)で表される長軸方向とx軸のな
    す角度だけ回転させる回転と該モーメント特徴F2
    (4)で表される長径の指数倍だけX軸方向に該モーメ
    ント特徴F2 (4)で表される短径の指数倍だけy軸方
    向に伸縮させる伸縮と原点を該モーメント特徴F2
    (4)で表される重心に移動させる平行移動とを合成し
    て得られるアフィン変換G2 を算出し、さらに、該アフ
    ィン変換G1 の逆変換と該アフィン変換G2 を合成する
    ことによって、モーメント特徴F1 (3)をモーメント
    特徴F2 (4)に変換するアフィン変換Gを決定するア
    フィン変換決定手段(6)と、 前記アフィン変換決定手段(6)で決定したアフィン変
    換Gを基に、G=exp(A)を満たす無限小変換Aを
    求め、任意の時刻tに対してG(t)=exp(At)
    によってG(t)を算出するアフィン変換連続化手段
    (7)と、 前記アフィン変換連続化手段(7)によって求めた連続
    化済みのアフィン変換G(t)を画像1入力I1 に施す
    ことにより、任意の時刻tの画像を予測する画像予測手
    段(8)とを有することを特徴とする動画像予測方式。
  2. 【請求項2】前記画像予測手段(8)は前記アフィン変
    換決定手段(6)によって求めたアフィン変換Gの逆変
    換を画像2入力I2 (2)に施して得られる画像に前記
    アフィン変換連続化手段(7)によって求めたG(t)
    を施すことにより、任意の時刻tの画像を予測すること
    を特徴とする請求項1記載の動画像予測方式。
  3. 【請求項3】前記アフィン変換連続化手段(7)は任意
    時刻tに対してG(t)=exp(A(t−1))によ
    ってG(t)を算出し、前記画像予測手段(8)は、該
    アフィン変換連続化手段(7)によって求めたG(t)
    を画像2入力I2 (2)に施すことにより任意時刻tの
    画像を予測することを特徴とする請求項1記載の動画像
    予測方式。
JP2407938A 1990-01-31 1990-12-27 動画像予測方式 Expired - Lifetime JP2569219B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2-20599 1990-01-31
JP2059990 1990-01-31

Publications (2)

Publication Number Publication Date
JPH03296876A JPH03296876A (ja) 1991-12-27
JP2569219B2 true JP2569219B2 (ja) 1997-01-08

Family

ID=12031737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2407938A Expired - Lifetime JP2569219B2 (ja) 1990-01-31 1990-12-27 動画像予測方式

Country Status (6)

Country Link
US (1) US5214504A (ja)
EP (1) EP0440218B1 (ja)
JP (1) JP2569219B2 (ja)
AU (1) AU641464B2 (ja)
CA (1) CA2035304C (ja)
DE (1) DE69131111T2 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US5901246A (en) * 1995-06-06 1999-05-04 Hoffberg; Steven M. Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5325475A (en) * 1992-09-09 1994-06-28 Massachusetts Institute Of Technology Computer method and apparatus for matching between line drawings
JPH06113287A (ja) * 1992-09-30 1994-04-22 Matsushita Electric Ind Co Ltd 画像符号化装置と画像復号化装置
JP3679426B2 (ja) * 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
US5590261A (en) * 1993-05-07 1996-12-31 Massachusetts Institute Of Technology Finite-element method for image alignment and morphing
EP0625853B1 (en) * 1993-05-21 1999-03-03 Nippon Telegraph And Telephone Corporation Moving image encoder and decoder
US5513128A (en) * 1993-09-14 1996-04-30 Comsat Corporation Multispectral data compression using inter-band prediction
US5559551A (en) * 1994-05-30 1996-09-24 Sony Corporation Subject tracking apparatus
US5727141A (en) * 1995-05-05 1998-03-10 Apple Computer, Inc. Method and apparatus for identifying user-selectable regions within multiple display frames
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5784175A (en) * 1995-10-05 1998-07-21 Microsoft Corporation Pixel block correlation process
US5799113A (en) * 1996-01-19 1998-08-25 Microsoft Corporation Method for expanding contracted video images
US5787203A (en) * 1996-01-19 1998-07-28 Microsoft Corporation Method and system for filtering compressed video images
US5764814A (en) * 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes
US5982438A (en) * 1996-03-22 1999-11-09 Microsoft Corporation Overlapped motion compensation for object coding
US5778098A (en) * 1996-03-22 1998-07-07 Microsoft Corporation Sprite coding
US5867221A (en) * 1996-03-29 1999-02-02 Interated Systems, Inc. Method and system for the fractal compression of data using an integrated circuit for discrete cosine transform compression/decompression
US6075875A (en) * 1996-09-30 2000-06-13 Microsoft Corporation Segmentation of image features using hierarchical analysis of multi-valued image data and weighted averaging of segmentation results
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems
AU1941797A (en) * 1997-03-17 1998-10-12 Mitsubishi Denki Kabushiki Kaisha Image encoder, image decoder, image encoding method, image decoding method and image encoding/decoding system
US6400831B2 (en) 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6499060B1 (en) 1999-03-12 2002-12-24 Microsoft Corporation Media coding for loss recovery with remotely predicted data units
SG89282A1 (en) * 1999-05-28 2002-06-18 Kent Ridge Digital Labs Motion information extraction system
FR2817438A1 (fr) * 2000-11-24 2002-05-31 Thomson Multimedia Sa Procede d'affichage d'images video sur panneau d'affichage a plasma et panneau d'affichage correspondant
US7577198B2 (en) * 2003-09-07 2009-08-18 Microsoft Corporation Number of reference fields for an interlaced forward-predicted field
US8085844B2 (en) * 2003-09-07 2011-12-27 Microsoft Corporation Signaling reference frame distances
JP3601793B1 (ja) * 2003-11-05 2004-12-15 任天堂株式会社 移動時間算出プログラム及び情報記録媒体
US8634413B2 (en) 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
US8797391B2 (en) * 2011-01-14 2014-08-05 Himax Media Solutions, Inc. Stereo image displaying method
WO2015174093A1 (ja) 2014-05-16 2015-11-19 パナソニックIpマネジメント株式会社 車載用表示装置、車載用表示装置の制御方法、プログラム
CN111667502B (zh) * 2020-05-06 2023-08-25 北京理工大学 根据单张运动模糊图像生成高速视频的方法与装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4435837A (en) * 1981-03-05 1984-03-06 President And Fellows Of Harvard College Pattern recognition and orientation system
FR2538653B1 (fr) * 1982-05-28 1989-03-31 Thomson Csf Procede d'estimation des translations subies par des objets representes dans une sequence d'images et dispositif mettant en oeuvre ce procede
FR2590701B1 (fr) * 1985-11-22 1988-01-15 Labo Electronique Physique Procede et dispositif d'estimation de mouvement dans une sequence d'images
US5070465A (en) * 1987-02-25 1991-12-03 Sony Corporation Video image transforming method and apparatus
US4855822A (en) * 1988-01-26 1989-08-08 Honeywell, Inc. Human engineered remote driving system
GB8909498D0 (en) * 1989-04-26 1989-06-14 British Telecomm Motion estimator
US4958224A (en) * 1989-08-15 1990-09-18 Hughes Aircraft Company Forced correlation/mixed mode tracking system

Also Published As

Publication number Publication date
DE69131111D1 (de) 1999-05-20
CA2035304C (en) 1996-10-15
DE69131111T2 (de) 1999-08-05
AU641464B2 (en) 1993-09-23
EP0440218B1 (en) 1999-04-14
CA2035304A1 (en) 1991-08-01
AU7015291A (en) 1991-08-01
US5214504A (en) 1993-05-25
JPH03296876A (ja) 1991-12-27
EP0440218A2 (en) 1991-08-07
EP0440218A3 (en) 1993-05-05

Similar Documents

Publication Publication Date Title
JP2569219B2 (ja) 動画像予測方式
EP2403235B1 (en) Image correction device and image correction method
WO2019084804A1 (zh) 一种视觉里程计及其实现方法
JP3874985B2 (ja) 画像演算装置
WO2003075224A1 (fr) Dispositif de combinaison/conversion d'image
WO2009154294A1 (ja) 移動量抽出装置及びプログラム、画像補正装置及びプログラム並びに記録媒体
WO2010151215A1 (en) Real time video stabilization
JPH10240945A (ja) 画像処理装置
JP4570764B2 (ja) 運動情報認識システム
JPH10336599A (ja) フレーム間補間画像処理装置
JP2000348159A (ja) 画像合成処理方法、撮像装置、画像縮小処理方法及び記録媒体
JP7027776B2 (ja) 移動ベクトル算出方法、装置、プログラム、及びノイズ除去処理を含む移動ベクトル算出方法
US7522189B2 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
JP7401246B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP4017578B2 (ja) 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
RU2407058C2 (ru) Вычисление параметров преобразования для обработки изображений
JP2007166198A (ja) フレームレート変換方法および装置
JP4547321B2 (ja) 動きベクトル検出装置及び撮像装置
WO1998012869A1 (fr) Appareil de mesure de mouvement
JP6762737B2 (ja) 画像処理装置
Russo et al. Blurring prediction in monocular slam
JP6316030B2 (ja) 撮像装置及びその制御方法
Zhao et al. Image-based robot motion simulation
JP7207396B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4582993B2 (ja) 動画像合成方法および装置並びにプログラム

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960903