JP3924794B2 - 画像圧縮符号化装置及び画像圧縮符号化方法 - Google Patents

画像圧縮符号化装置及び画像圧縮符号化方法 Download PDF

Info

Publication number
JP3924794B2
JP3924794B2 JP51248198A JP51248198A JP3924794B2 JP 3924794 B2 JP3924794 B2 JP 3924794B2 JP 51248198 A JP51248198 A JP 51248198A JP 51248198 A JP51248198 A JP 51248198A JP 3924794 B2 JP3924794 B2 JP 3924794B2
Authority
JP
Japan
Prior art keywords
viewpoint position
code amount
region
unit
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP51248198A
Other languages
English (en)
Inventor
観 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of JP3924794B2 publication Critical patent/JP3924794B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/149Data rate or code amount at the encoder output by estimating the code amount by means of a model, e.g. mathematical model or statistical model
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/192Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding the adaptation method, adaptation tool or adaptation type being iterative or recursive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/37Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability with arrangements for assigning different transmission priorities to video input data or to video coded data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

技術分野
本発明は、画像データを符号化して圧縮する画像圧縮符号化装置及び画像圧縮符号化方法に関する。
背景技術
近年、映像のディジタル化及び画像圧縮技術の進歩に伴い、色々な画像圧縮符号化が行なわれるようになってきた。しかし、従来は、所定単位の画像データに割り当てられる符号量がある一定量で固定されていたり(固定レートの場合)、画像の細かさによって所定単位の画像データに割り当てられる符号量を変化させる可変レートの場合であっても、最大に割り当てられる符号量が決まっていたりして、ある一定時間内での符号量の最大値が決められており、連続して複雑な画面が続くときには、符号量の制限を受けていた。当然ながら、画面に割り当てられる符号量の増減は、画質の善し悪しにつながる。そこで、従来は、画面上の複雑な所により多くの符号量を割り当てる等の方法によって、一枚の画面全体としては同一の符号量としながら、復号時における画質劣化が最小となるように符号量を制御することが行われていた。
しかし、視聴者の画質劣化の感じ方は、一枚の画面中のどこに注目するかで変わってくる。一方、視聴者が注視するのは、その画面中の重要な部分であって、その部分が、その画面中の複雑な部分に当たるとは限らない。そのため、画面上の複雑な所により多くの符号量を割り当てる方法では、次のような不具合が生じる。すなわち、例えば複雑な背景の中に主人公がいる場合等では、複雑な背景の方に多くの符号が割り当てられ、結果として視聴者が注視する主人公に割り当てられる符号量が少なくなり、復号時に視聴者は画質劣化を感じることになる。
これに対処するに、操作者が、画面毎に、画面内における符号量の割り当てを任意に変えることができるようにすることが考えられる。しかし、符号量の割り当ての異なる領域を、画面毎に操作者が設定するのは、多大な労力が必要になると共に、生中継等のリアルタイム性が要求されるような状況では、このような操作は不可能である。
ところで、特開平7−44110号公報には、利用者の視点の位置を検出し、1画面中における視点位置近傍の一定の領域を高解像度で表示し、他の領域を低解像度で表示する技術が示されている。この技術は、言い換えると、1画面中における視点位置近傍の領域に割り当てる符号量を多くし、他の領域に割り当てる符号量を少なくする技術と言える。この技術によれば、各画面を限られた符号量内でリアルタイムに符号化しながら、復号時に利用者の感じる画質劣化を抑えることが可能となる。
しかしながら、常に、視点近傍の領域に割り当てる符号量を多くし、他の領域に割り当てる符号量を少なくするようにした場合には、他の領域がそれほど複雑ではなく、割り当てる符号量を少なくしなくとも、発生する符号量がそれほど多くならない場合すなわち符号量に余裕がある場合であっても、他の領域に割り当てる符号量は必ず少なくされ、他の領域の画質が不必要に劣化してしまうという問題点がある。
また、画面中において視聴者が注視する領域の大きさは一定とは限らない。従って、割り当てる符号量を多くする領域の大きさを一定にした場合には、次のような問題が生じる。すなわち、視聴者が注視する領域が符号量を多くする領域よりも大きい場合には、視聴者が注視する領域のうちの中心側の領域では符号量が多く割り当てられて画質の劣化が小さく、視聴者が注視する領域のうちの周辺側の領域では割り当てられる符号量が少なくなり、画質の劣化が大きくなり、視聴者にとっては見にくい画面、すなわち画質の劣化した画面となってしまう。逆に、視聴者が注視する領域が符号量を多くする領域よりも小さい場合には、視聴者が注視する領域以外の領域にも多くの符号量が割り当てられてしまい、その結果、視聴者が注視する領域に割り当てられる符号量が少なくなってしまう事態が生じ得る。
本発明は、上述したような問題点に鑑みてなされたものであり、画像データを限られた符号量内でリアルタイムに符号化して圧縮でき、且つ、復号時にできるだけ利用者にとって視覚的に高画質な画像が得られるようにした画像圧縮符号化装置及び画像圧縮符号化方法を提供することを目的とするものである。
発明の開示
本発明は、入力画像データを圧縮して符号化する符号化手段と、前記入力画像データが出力される画面上における視点位置を検出する視点位置検出手段と、前記視点位置検出手段によって視点位置が断続的に検出されたときには各視点位置の検出時点間で時間的に連続するように、前記視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域を設定する領域設定手段と、前記領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限する符号量制限手段とを備えたことを特徴とする。
このような構成において、視点位置検出手段によって、入力画像データに基づく画面上における操作者の視点位置が検出され、領域設定手段によって、入力画像データに基づく画面上で、視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域が設定され、視点位置検出手段によって視点位置が断続的に検出されたときは、各視点位置の検出時点間で視点位置近傍領域は時間的に連続して設定されるようにする。また、符号化手段によって入力画像データが符号化されて圧縮され、符号量制限手段によって領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、視点位置近傍領域に割り当てられる符号量よりも少なくなるように、領域に応じて符号量の割り当てを変えることによって、符号化手段によって発生される符号量が制限される。従って画質を不必要に劣化させることがなく、画像データを限られた符号量内でリアルタイムに符号化して圧縮でき、且つ、復号時にできるだけ利用者にとって視覚的に高画質な画像を得ることが可能となると共に、例えば操作者が画面内の複数の場所を順次、視点を変えて繰り返し注視した場合にも、注視した複数の場所の近傍にそれぞれ、時間的に連続して視点位置近傍領域を設定することができ、より視覚的に高画質な画像を得ることが可能となる、という効果を奏する。
また本発明は、入力画像データを圧縮符号化する符号化手段と、前記入力画像データが出力される画面上における視点位置を検出する視点位置検出手段と、前記視点位置検出手段で検出される前記視点位置の近傍に視点位置近傍領域を設定する領域設定手段と、前記領域設定手段で設定される視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるように、前記視点位置近傍領域に応じて符号量の割り当てを制限する符号量制限手段と備え、前記領域設定手段は、複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出手段で最初に視点位置が検出されたときと、前記画像単位が開始されたときとの間で前記視点位置近傍が連続して設定されるようにするか、あるいは、前記領域設定手段は、複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出手段で最後に視点位置が検出されたときと、前記画像単位が終了されたときとの間で前記視点位置近傍領域が連続して設定されるようにすることを特徴とする。
このような構成において、視点位置検出手段によって、入力画像データに基づく画面上における操作者の視点位置が検出され、領域設定手段によって、入力画像データに基づく画面上で、視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域が設定されるまた、符号化手段によって入力画像データが符号化されて圧縮され、符号制限手段によって、領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、視点位置近傍領域に割り当てられる符号量よりも少なくなるように、領域に応じて符号量の割り当てを変えることによって、符号化手段によって発生される符号量が制限される。従って画像データを限られた符号量内でリアルタイムに符号化して圧縮でき、且つ、復号時にできるだけ利用者にとって視覚的に高画質な画像を得ることが可能となると共にシーンの切り替わり後や切り替わり前において視点位置が安定していないときにおいても視点位置近傍領域を設定することができ、より視覚的に高画質な画像を得ることが可能となる、という効果を奏する。
ここで、前記符号量制限手段は、前記視点位置近傍領域以外の領域に割り当てられる符号量を、前記視点位置近傍領域から離れる方向に向かって段階的に減少させることが好ましい。これによって、視点位置近傍領域の境界部が目立つことを避けることができ、より視覚的に高画質な画像を得ることが可能となる。
また、前記符号量制限手段によって領域に応じて符号量の割り当てを変えることを行うか否かを選択する選択手段をさらに備えることが好ましい。これによって、操作者が、必要に応じて、領域に応じて符号量の割り当てを変えることを行うか否かを選択することが可能となり、使い勝手が向上する。
【図面の簡単な説明】
図1は、本発明の一実施の形態に係る画像圧縮符号化装置の構成を示すブロック図である。
図2は、図1における位置検出部の詳細な構成を示すブロック図である。
図3は、本発明の一実施の形態に係る画像圧縮符号化装置で利用する眼球運動測定器の構成を示す説明図である。
図4は、図3に示した眼球運動測定器の動作原理について説明するための説明図である。
図5は、本発明の一実施の形態に係る画像圧縮符号化装置における視点補正の概略について説明するための説明図である。
図6は、本発明の一実施の形態に係る画像圧縮符号化装置におけるビデオ信号の符号化時の操作者の操作について説明するための説明図である。
図7は、本発明の一実施の形態に係る画像圧縮符号化装置においてモニタ画面に表示するマーカを示す説明図である。
図8は、図1における位置処理部の動作を説明するための流れ図である。
図9は、図1における位置処理部の動作を説明するための流れ図である。
図10は、図1における位置処理部の動作を説明するための流れ図である。
図11は、図1における位置処理部の動作を説明するための流れ図である。
図12は、図1における位置処理部の動作を説明するための流れ図である。
図13は、図1における位置処理部の動作を説明するための流れ図である。
図14は、図1における位置処理部の動作を説明するための流れ図である。
図15は、図1における位置処理部の動作を説明するための流れ図である。
図16は、図1における位置処理部の動作を説明するための流れ図である。
図17は、図1における位置処理部の動作を説明するための流れ図である。
図18は、図1における位置処理部の動作を説明するための流れ図である。
図19は、図1における位置処理部の動作を説明するための流れ図である。
発明を実施するための最良の形態
以下、本発明に係る好ましい実施の形態について、図面を参照しながら詳細に説明する。
本実施の形態に係る画像圧縮符号化装置では、入力画像データに基づく画面上における操作者の視点位置を検出する視点位置検出手段として、眼球運動測定器を用いるが、始めに、この眼球運動測定器について説明する。
図3は、眼球運動測定器の構成を示す説明図である。この眼球運動測定器は、赤外線を発光する発光ダイオード(以下、LEDと記す。)lと、水平方向に2分割された受光部2A,2Bを有する2分割光検出器2とを備えている。図3A,図3Bでは、便宜上、LED1と2分割光検出器2とを別々に示しているが、これらは、実際には一体化され、ゴーグル状の保持部材によって、眼球3の中央部の下側の位置に配置されるように保持されている。なお、2分割光検出器2は、操作者が保持部材を装着したとき、受光部2Aが操作者から見て右側、受光部2Bが操作者から見て左側に配置されるようになっている。操作者が保持部材を装着したとき、図3Aに示したように、LEDlは、眼球lの下側の視野外の位置から眼球1に向けて赤外線を照射し、図3Bに示したように、2分割光検出器2は、眼球1からの反射光を検出するようになっている。
ここで、図4を参照して、図3に示した眼球運動測定器の動作原理について説明する。図4Aは、操作者の視点が右方向に移動したときの眼球3の状態を示したものである。眼球中心部(黒目)3aは、眼球周辺部(白目)3bに比べて光の反射率が小さいので、図4Aに示した状態では、受光部2Aに戻ってくる光量は、受光部2Bに戻ってくる光量に比べて少なくなる。図4Bは、操作者の視点が左方向に移動したときの眼球3の状態を示したものである。この状態では、受光部2Bに戻ってくる光量は、受光部2Aに戻ってくる光量に比べ少なくなる。従って、受光部2Aの出力と受光部2Bの出力との差から、眼球3の水平方向の移動、言い換えると視点の水平方向の移動を検出することが可能となる。
図4Cは、操作者の視点が上方向に移動したときの眼球3の状態を示したものである。この状態では、受光部2A,2Bに戻ってくる各光は共に多くなる。図4Dは、操作者の視点が下方向に移動したときの眼球3の状態を示したものである。この状態では、受光部2A,2Bに戻ってくる各光は共に少なくなる。従って、受光部2Aの出力と受光部2Bの出力の和から、眼球3の垂直方向の移動、言い換えると視点の垂直方向の移動を検出することが可能となる。
このようにして、受光部2A,2Bの出力の差と和から、操作者の視点の位置を検出することが可能となる。以上が眼球運動測定器の動作原理であるが、実際には、操作者毎に眼球3での反射光量が違うので、操作者の頭の位置を固定して、画面上の予め決められた数点の位置を注視してもらい、そのときの受光部2A,2Bの出力に基づいて、視点位置の補正(以下、視点補正と言う。)を行うことになる。
ここで、図5を参照して、視点補正の概略について説明する。ここでは、画面5上を横方向(x方向)に640、縦方向(y方向)に480に分割し、画面5の左上を原点として、横方向の位置をm、縦方向の位置をnで表し、画面上の任意の点の位置をP(m,n)で表す。視点補正時には、例えば以下の9点、すなわち、P(10,10)、P(320,10)、P(630,10)、P(10,240)、P(320,240)、P(630,240)、P(10,470)、P(320,470)、P(630,470)に、順次、マーカ6を表示し、眼球運動測定器が取り付けられた保持部材8を装着した操作者7に、マーカ6によって示される各点を注視してもらい、そのときの受光部2A,2Bの出力に基づいて、視点補正が行われる。
図1は、本実施の形態に係る画像圧縮符号化装置の構成を示すブロック図である。この画像圧縮符号化装置は、ビデオ信号10を入力し、このビデオ信号10を符号化して圧縮する圧縮部11と、この圧縮部11の出力データを所定時間遅延する遅延器12と、この遅延器12から出力データが入力されて、必要に応じて、視点位置近傍領域以外の領域に割り当てられる符号量が、視点位置近傍領域に割り当てられる符号量よりも少なくなるように、領域に応じて符号量の割り当てを変えることによって、符号量の削減を行って、符号データ14を出力する符号量削減部13とを備えている。圧縮部11は、例えば、MPEG(Moving picture Experts Group)規格で採用されているように、空間的相関を利用した離散コサイン変換(以下、DCTと記す。)処理と時間的相関を利用した双方向予測符号化とを用いてビデオ信号の圧縮処理を行うようになっている。この場合、圧縮部11は、所定の画素ブロック単位でDCT処理を行い、DCT処理後の係数を量子化し、更に、量子化データを可変長符号化して符号データを出力するようになっている。なお、可変長符号化は符号量削減部13で行うようにし、圧縮部11は量子化データを出力するようにしても良い。
画像圧縮符号化装置は、更に、操作者がシーンの切り替わり目のタイミング等を指示するためのチェンジ用スイッチ16と、符号量削減部13において領域に応じて符号量の割り当てを変えることを中断する指示を与えるための中断用スイッチ17と、視点位置近傍領域のサイズを変えるためのサイズ可変用レバー18とを備えている。
画像圧縮符号化装置は、更に、2分割光検出器2の各受光部2A,2Bの出力信号に基づいて操作者の視点位置を検出する位置検出部20と、この位置検出部20から出力される位置情報に基づいて、視点位置近傍領域の中心位置を決定する処理を行う位置処理部21と、サイズ可変用レバー18の出力信号を、位置処理部21における処理時間相当分だけ遅延する遅延器22と、この遅延器22の出力信号に基づいて、視点位置近傍領域のサイズを決定する処理を行うサイズ処理部23とを備えている。
画像圧縮符号化装置は、更に、位置検出部20からの位置情報とサイズ可変用レバー18の出力信号から画面上のマーカの位置と大きさを決め、ビデオ信号10にマーカ表示用の信号を重畳して、モニタ用出力ビデオ信号25として出力するマーカ挿入部24を備えている。
画像圧縮符号化装置は、更に、圧縮部11の出力データを入力し、現在の画面と前画面との相関を調べる相関検出部26と、この相関検出部26の出力データとチェンジ用スイッチ16の出力信号とカメラ切替に用いる図示しないスイッチャからの切替信号28とを入力し、シーンの切り替わり目のタイミングを決定する切替処理部27と、画像圧縮符号化装置全体を制御するシステムコントロール部30とを備えている。
システムコントロール部30には、圧縮部11,位置処理部21およびサイズ処理部23および切替処理部27の各出力データ、チェンジ用スイッチ16および中断用スイッチ17の各出力信号が入力され、更に、図示しないスイッチ等を介して入力される切替選択信号31および視点補正モード信号32、図示しないインタフェースを介して入力される規定符号量データ33が入力されるようになっている。また、システムコントロール部30は、符号量削減部13に対して符号量削減制御信号35を出力すると共に、マーカ挿入部24および切替処理部27を制御するようになっている。
位置処理部21には、中断用スイッチ17の出力信号および切替処理部27の出力データも入力されるようになっている。また、サイズ処理部23には、位置処理部21および切替処理部27の各出力データも入力されるようになっている。
位置処理部21,サイズ処理部23,相関検出部26,切替処理部27およびシステムコントロール部30は、例えばマイクロコンピュータによって構成される。
図2は、図1における位置検出部20の詳細な構成を示すブロック図である。この位置検出部20は、2分割光検出器2における受光部2A,2Bの電流一電圧変換された後の信号の差信号を生成する減算器41と、受光部2A,2Bの電流一電圧変換された後の信号の和信号を生成する加算器42と、減算器41の出力信号を例えば8ビットのディジタル信号に変換するアナログ−ディジタル(以下、A/Dと記す。)変換器(1)43と、加算器42の出力信号を例えば8ビットのディジタル信号に変換するA/D変換器(2)44と、A/D変換器(1)43の出力信号をA/D変換器(2)44の出力信号によって割算する割算器45とを備えている。割算器45の出力信号およびA/D変換器(2)44の出力信号はシステムコントロール部30に入力されるようになっている。システムコントロール部30は、視点補正時には、割算器45の出力信号およびA/D変換器(2)44の出力信号と、システムコントロール部30が発生するマーカ6(図5)の位置情報とに基づいて、マーカ6によって示される各位置における基準値に変換するための補正値を計算し、この補正値を、割算器45およびA/D変換器(2)44の各出力値に対応付けて出力するようになっている。
位置検出部20は、更に、視点補正時にシステムコントロール部30より出力される割算器45の出力信号に対する補正値を記憶し、ビデオ信号10の符号化時に、割算器45の出力信号に応じて補正値を出力するRAM(ランダム・アクセス・メモリ)(1)47と、視点補正時にシステムコントロール部30より出力されるA/D変換器(2)44の出力信号に対する補正値を記憶し、ビデオ信号10の符号化時に、A/D変換器(2)44の出力信号に応じて補正値を出力するRAM(2)48と、ビデオ信号10の符号化時に、割算器45の出力信号に、RAM(1)47より出力される補正値を掛ける掛算器(1)49と、ビデオ信号10の符号化時に、A/D変換器(2)44の出力信号に、RAM(2)48より出力される補正値を掛ける掛算器(2)50と、掛算器(1)49の出力信号を画面上の横方向の位置情報に変換するためのROM(リード・オンリ・メモリ)(1)51と、掛算器(2)50の出力信号を画面上の縦方向の位置情報に変換するためのROM(2)52とを備えている。ROM51,52の出力情報は、システムコントロール部30に入力されると共に、図1における位置処理部21に送られるようになっている。
次に、本実施の形態に係る画像圧縮符号化装置の動作について説明する。まず、視点補正時の動作について説明する。視点補正の動作を実行するか否かは、システムコントロール部30に入力される視点補正モード信号32によって指示される。視点補正時には、システムコントロール部30からマーカ挿入部24に対して、マーカ6の挿入を指示する制御信号が送られ、この制御信号に応じて、マーカ挿入部24は、マーカ6が画面上の予め規定された位置に挿入されるように、ビデオ信号10にマーカ6の表示用の信号を重畳して、モニタ用出力ビデオ信号25として出力する。操作者は、画面上のマーカ6に視点が合ったときにチェンジ用スイッチ16をオンにする。システムコントロール部30は、チェンジ用スイッチ16がオンにされると、そのときの割算器45およびA/D変換器(2)44の各出力信号とマーカ6の位置情報とに基づいて補正値を計算し、この補正値を割算器45およびA/D変換器(2)44の各出力値に対応付けて、RAM47,48に記憶させる。次に、チェンジ用スイッチ16がオンにされると、システムコントロール部30は、制御信号によって、マーカ6の位置を順次切り替える。以上の操作を繰り返し、順に、図5に示した9箇所での測定を終えると、補正値が全て計算されたことになる。
次に、本実施の形態に係る画像圧縮符号化装置におけるビデオ信号の符号化時の動作について説明する。この動作は、視点補正モード信号32によって視点補正の動作が指示されているとき以外のときに実行される。まず、図6を参照して、ビデオ信号の符号化時における操作者の操作について説明する。ビデオ信号の符号化時、眼球運動測定器が取り付けられた保持部材8を装着した操作者7は、自分自身の視点と、チェンジ用スイッチ16,中断用スイッチ17およびサイズ可変用レバー18を操作する。すなわち、操作者7は、画面5上に現れるマーカ61を見ながら視点を変えると共に、サイズ可変用レバー18によって、符号量を多く割り当てる領域である視点位置近傍領域の大きさ(サイズ)を指定する。画面5上には、視点位置を示す視点位置用マーカ61が表示され、その周囲に、視点位置近傍領域の範囲を示す、例えば矩形の枠状の範囲指定用マーカ62が表示される。操作者7が視点を動かすと、マーカ61,62は、共に視点に追従して画面5上を移動する。また、操作者7がサイズ可変用レバー18を操作すると、マーカ62の大きさが変化する。図7A〜図7Dに、マーカ62の大きさが異なる4種類の状態について、マーカ61,62の表示例を示す。また、操作者7は、画面5に表示されている映像のシーンが切り替わったときには、チェンジ用スイッチ16をオンにすることによって、シーンの切り替わりのタイミングを指示する。更に、操作者7は、画面5上に特に重要な部分がない場合等には、中断用スイッチ17をオンにすることにより、視点位置近傍領域に符号量を多く割り当てることを中断することができる。
ビデオ信号の符号化時には、2分割光検出器2における受光部2A,2Bの電流一電圧変換された後の信号が、図2に示した位置検出部20に順次入力される。位置検出部20では、減算器41および加算器42によって差信号および和信号が生成され、この差信号および和信号は、それぞれA/D変換器43,44によってディジタル信号に変換される。また、割算器45によって、A/D変換器(1)43の出力信号はA/D変換器(2)44の出力信号によって割算される。割算器45の出力信号は、RAM(1)47と掛算器(1)49に入力され、A/D変換器(2)44の出力信号は、RAM(2)48と掛算器(2)50に入力される。掛算器(1)49は、割算器45の出力信号に、RAM(1)47より出力される補正値を掛けて補正し、掛算器(2)50は、A/D変換器(2)44の出力信号に、RAM(2)48より出力される補正値を掛けて補正する。掛算器47,48の各出力信号は、それぞれROM51,52によって画面上の横方向および縦方向の位置情報に変換され、この位置情報が位置処理部21とマーカ挿入部24に送られる。
マーカ挿入部24は、位置検出部20からの位置情報とサイズ可変用レバー18の出力信号から画面上のマーカ61,62の位置と大きさを決め、ビデオ信号10にマーカ表示用の信号を重畳して、モニタ用出力ビデオ信号25として出力する。このモニタ用出力ビデオ信号25に基づいて、モニタには、ビデオ信号10に基づく画面上にマーカ61,62が重畳されて表示される。一方、位置処理部21では、後で詳しく説明するように、視点位置近傍領域の中心位置を決定する処理が行われる。
また、サイズ可変用レバー18の出力信号は、遅延器22によって、位置処理部21における処理時間相当分だけ遅延されてサイズ処理部23に入力され、このサイズ処理部23では、視点位置近傍領域のサイズを決定する処理が行われる。なお、サイズ処理部23では、位置処理部21の出力データに基づいて、視点位置が一定のときは、サイズ変動の高域分をカットするようになっている。これにより、手の微小な動きによるサイズ変動を抑制することができる。
符号化されるビデオ信号10は、圧縮部11によって符号化されて圧縮され、この圧縮部11の出力データは、遅延器12によって、位置処理部21およびサイズ処理部23における処理時間相当分だけ遅延されて符号量削減部13に入力される。
また、圧縮部11の出力データは、相関検出部26にも入力され、この相関検出部26によって、現在の画面と前画面との相関が調べられる。ここでは、相関検出部26は、現在の画面と前画面とで、圧縮部11においてDCT変換された係数のうちの低域分の差分を取って、この差分が大きい(低域分の変化が大きい)ときに相関が小さいと判断する。相関検出部26の出力データは切替処理部27に入力される。切替処理部27には、この他に、チェンジ用スイッチ16の出力信号とスイッチャからの切替信号28とが入力される。切替処理部27は、システムコントロール部30に入力されている切替選択信号31が操作者のスイッチのモードになっているときには、相関検出部26の出力データとチェンジ用スイッチ16の出力信号とに基づいて、シーンの切り替わり目のタイミングを決定する。具体的には、切替処理部27は、チェンジ用スイッチ16かオンになった時刻を原点にとって、−1.0〜0秒の間で、前画面と比べてDCT係数のうちの低減分の変化が大きい(相関が小さい)画面をシーンの切り替わり目の画面として選択する。また、−1.0〜0秒の区間での相関の変化が少ない場合には、−0.33秒をシーンの切り替わり目とする。
また、切替処理部27は、システムコントロール部30に入力されている切替選択信号31がカメラモードになっているときは、カメラ切替に用いるスイッチャからの切替信号28の入力のタイミングをシーンの切り替わり目とする。
シーンの切り替わり目を示す切替処理部27の出力データであるシーン切替信号は、システムコントロール部30,位置処理部21,およびサイズ処理部23に入力される。位置処理部21は、後で詳しく説明するように、位置検出部20によって視点位置が所定の位置関係の下で断続的に検出されるときには、各視点位置の検出時点間で視点位置近傍領域が時間的に連続して設定されるように内挿処理を行う。この内挿処理は、シーン単位で行われる。更に、位置処理部21は、所定の条件下で、一つのシーン内における最初の視点位置の検出時点とシーンの開始時との間で視点位置近傍領域が時間的に連続して設定されるように内挿処理を行うと共に、所定の条件下で、一つのシーン内における最後の視点位置の検出時点とシーンの終了時との間で視点位置近傍領域が時間的に連続して設定されるように内挿処理を行う。サイズ処理部23も、位置処理部21と同様の内挿処理を行う。
システムコントロール部30は、圧縮部11の出力データによる所定時間当たりの符号量と、規定符号量データ33によって予め規定されている符号量の規定値とを比較し、圧縮部11の出力データによる所定時間当たりの符号量が規定値を越えた場合にのみ、符号量削減部13に対して符号量削減制御信号35を出力して、符号量削減部13から出力される所定時間当たりの符号量が規定値を越えないように、符号量削減部13に対して符号量の削減を行わせる。このとき、システムコントロール部30は、位置処理部21の出力データとサイズ処理部23の出力データとに基づいて視点位置近傍領域を設定し、この視点位置近傍領域以外の領域に割り当てられる符号量が、視点位置近傍領域に割り当てられる符号量よりも少なくなるように、領域に応じて符号量の割り当てを変える。符号量の削減は、DCT処理後の係数のうちの高域側から順に、その係数に割り当てられるビット数を順次減らしていくことによって行う。ただし、視点位置近傍領域の境界部が目立つことを避けるため、符号量の削減は、視点位置近傍領域から外側に向かって段階的に行う。例えば、視点位置近傍領域から外側に向かって、DCT処理を行う画素ブロック毎に、順次1ビットずつ割り当てビット数を減少させる。このように、必要に応じて符号量の削減が行われて符号量削減部13より出力される符号データ14が、画像圧縮符号化装置の出力データとして外部に出力される。この出力データは、例えば通信網へ送信されたり、記録媒体に記録されたりする。
以下、図8ないし図19の流れ図を参照して、位置処理部21における位置処理について詳しく説明する。この位置処理は一定の単位時間t毎に行うこととする。単位時間tは、例えば500ms(1/2秒)とする。位置処理の処理内容は、大きく分けて、視点が固定されている場合に視点位置を特定するためのポイント処理、視点が移動している場合に視点位置の移動ベクトルを求めるベクトル処理、視点位置近傍領域に符号量を多く割り当てることを中断する中断処理の3種類からなる。以下、ポイント処理によって決定される視点位置をポイントP(i,p(i))で表し、ベクトル処理によって決定されるベクトルをV(i,v(i))で表し、中断処理の状況をN(i,n(i))で表す。なお、iは、シーンが変わってからの時間を表し、i番目の時間は、シーンが変わってからi/2〜(i+1)/2秒の間の処理を意味する。p(i)、v(i)、n(i)は、それぞれ同一単位時間t内で、いくつ目の処理に当たるかを示す。視点移動時には、後述するように内挿処理が行なわれるので、同一単位時間t内で複数のポイント処理、ベクトル処理が行なわれる。p(i)=0、v(i)=0のときは、内挿処理を行っていない実際の視点位置を表し、p(i)≠0、v(i)≠0のときは、内挿処理によるものであることを表す。また、中断処理は内挿処理を施しても、同一単位時間t内では中断処理が行なわれるか行なわれないかのどちらかである。しかし、後述するように中断用スイッチ17のオンのタイミングで、中断処理を行うか行わないかが分かれるため、中断処理を行わないときおよび中断用スイッチ17が押されているとき(オンになっているとき)をn(i)=1で表し、中断処理を行なうときをn(i)=0で表す。
図8に示したように、位置処理では、まず、p(i)、v(i)、n(i)を全てクリアし(0とし)(ステップS101)、同様にiをクリアする(0とする)(ステップS102)。次に、i+lを新たにiとし(ステップS103)、シーンの切り替わりか否かを判断する(ステップS104)。シーンの切り替わり情報は切替処理部27から得ている。シーンが切り替わった場合(Y)には、後述するエンド処理(図15〜図19)に移る。シーンが切り替わっていない場合(N)には、中断用スイッチ17の状態を確認する(ステップS105)。中断用スイッチ17が押されている(オンになっている)場合には、後述する中断用スイッチ処理(図14)に移る。中断用スイッチ17が押されていない(オフになっている)場合には、視点移動距離が小さいか大きいかを判断する(ステップS106)。ここでは、単位時間t内における視点移動距離を求め、この視点移動距離が画面上の画素で20×20以内の場合には視点移動距離が小さいと判断し、それ以外の場合には視点移動距離が大きいと判断するものとする。視点移動距離か小さい場合には、視点は固定されているものとして、後述するポイント処理(図9)に移る。視点移動距離が大きい場合には、視点の移動速度が高速か低速かを判断する(ステップS107)。ここでは、視点の移動速度をフレーム(1/30秒)間の移動距離に基づいて判断し、単位時間t内において、フレーム間で100画素以上、縦方向または横方向に移動したときがある場合には、視点の移動速度が高速であると判断し、それ以外の場合には視点の移動速度か低速であると判断するものとする。視点の移動速度が高速の場合には、視点移動中と見なして、単位時間t内における処理を行わず、ステップS103に戻ってiを更新する。なお、フレーム間で100画素以上、縦方向または横方向に移動するような高速の移動物は、画面上では人間の目がついて行けないので、視点位置近傍領域に符号量を多く割り当てる処理を行う必要性はない。視点の移動速度が低速の場合には、後述するベクトル処理(図11,図12)に移る。
図9に示したポイント処理では、まず、単位時間t内の視点位置の平均(視点平均位置)を求め、これを単位時間t内における処理によって決定されるポイントP(i,p(i))=(mi0,ni0)とする(ステップS201)。なお、視点平均位置は、例えば、フレーム毎の視点位置を平均して求める。また、mi0は画面上の横方向の位置、niOは画面上の縦方向の位置とする。次に、内挿処理を行うか否かを判断する。連続して同じ点の近傍を見ているときは、内挿処理は不要なので、ここでは、一つ前の単位時間tにおける処理によって決定されたポイントとの距離に基づいて、内挿処理を行うか否かを判断する。ポイント間の距離は、横方向,縦方向それぞれの位置の差の2乗を加算した値PD(x,y)を用いる。なお、x,yは、各ポイント決定時のiを表している。PD(x,y)は、以下の式で表される。
PD(x,y)=(mx0−my02+(nx0−ny02
具体的には、まず、変数j=1とし(ステップS202)、次に、PD(i,i−j)が、一定距離PDrefより小さいか否かを判断する(ステップS203)。ここで、PDrefは1800とする。PD(i,i−j)がPDrefより小さい場合(Y)には、連続して同じ点の近傍を見ていると見なして、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。一方、PD(i,i−j)がPDref以上の場合(N)には、現処理時のポイント近傍に以前に見ていた場所があるか否かを判断する。これは、一定時間TDmax(ここでは、5秒とする。)内に、以前のポイント処理によって決定されたポイントまたは以前のベクトル処理によって決定されたベクトルの終点位置があるか否かを判断して行う。なお、ベクトル処理では、ベクトルV(i,v(i))を始点と終点で表し、内挿処理ではないv(i)=0のとき、ベクトルV(i,v(i))は次式で表される。なお、始点の位置を(msi0,nsi0)、終点の位置を(mei0,nei0)とする。
V(i,v(i))=(msi0,nsi0,mei0,nei0
現処理時のポイント近傍に以前に見ていた場所があるか否かの判断は、具体的には、以下のようにして行う。すなわち、まず、j+1を新たにjとし(ステップS204)、ti−ti-jがTDmaxを越えるかまたはi=jか、それ以外かを判断する(ステップS205)。それ以外である場合、すなわちti−ti-jがTDmax以内であり、且つi=jではない場合(N)は、PD(i,i−J)が一定距離PDrefよりも小さいかまたは現処理時のポイントと以前のベクトル処理によって決定されたベクトルの終点との距離VED(i,i−j)が一定距離PDrefよりも小さいか、それ以外かを判断する(ステップS206)。なお、VED(x,y)は、以下の式で表される。
VED(x,y)=(mx0−mey02+(nx0−ney02
PD(i,i−j)がPDrefよりも小さいかまたはVED(i,i−j)がPDrefよりも小さい場合(ステップS206;Y)は、ポイントの内挿処理(図10)を行う。PD(i,i−j)がPDrefよりも小さいかまたはVED(i,i−j)がPDrefよりも小さい場合以外の場合(ステップS206;N)は、N(i−j,0)があるか否かを判断する(ステップS207)。N(i−j,0)があれば(Y)、中断処理がなされていることになるので、それ以前の部分とは切り離される。すなわち、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。N(i−i,0)がなければ(N)、ステップS204に戻る。
このように、現処理時のポイント近傍に以前に見ていた場所がある場合には、内挿処理が行われ、現処理時のポイント近傍には、時間的に連続して視点位置近傍領域が設定され、必要に応じて、視点位置近傍領域に符号量を多く割り当てる処理が行われることになる。これにより、例えば、操作者が画面内の複数の場所を順次、視点を変えて繰り返し注視した場合に、注視した複数の場所の近傍にそれぞれ、時間的に連続して視点位置近傍領域が設定されることになる。
一定時間TDmax内またはシーンの開始時までの間に、現処理時のポイント近傍に以前に見ていた場所が見つからなかった場合(ステップS205;Y)には、シーンが切り替わってからの時間iが規定時間TS以内か否かを判断する(ステップS208)。シーンが切り替わってからの時間iが規定時間TSを越えている場合(N)は、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。シーンが切り替わってからの時間iが規定時間TS以内の場合(ステップS208;Y)は、処理用に、i=1におけるポイントP(1,p(l))の位置を、現処理時におけるポイントの位置(mi0,ni0)と同じにして(ステップS209)、ポイントの内挿処理(図10)へ移り、シーンの開始時から現処理時までの間、ポイントの内挿処理を行う。
図10は、ポイントの内挿処理を示したものである。このポイントの内挿処理では、まず、変数k=0とし(ステップS301)、次に、k+1を新たにkとし(ステップS302)、次に、k=jか否かを判断する(ステップS303)。k=jではない場合(N)には、p(i−k)+lを新たにp(i−k)とする(ステップS304)。すなわち、処理回数を1インクリメントする。次に、i−j=0か否かを判断する(ステップS305)。i−j=0の場合(Y)は、シーンの開始時から現処理時までの間、現処理時におけるポイントを埋めていく。すなわち、ポイントの内挿値P(i−k,p(i−k))を、現処理時におけるポイントの位置(mi0,ni0)を同じにして、この内挿値を加え(ステップS306)、ステップS302に戻る。i−j=0ではない場合(ステップS305;N)は、P(i,0)およびP(i−j,0)があるか否かを判断する(ステップS307)。p(i,0)およびP(i−j,0)がある場合(Y)、すなわち現処理時におけるポイントと以前(i−j)の処理時におけるポイントとの間で内挿処理を行う場合は、2つのポイントは非常に近い位置関係にあるので、ポイントの内挿値P(i−k,p(i−k))を、2点間の中心値((mi0+m(i-j)0)/2,(ni0+n(i-l)0)/2)として、この内挿値を加え(ステップS308)、ステップS302に戻る。P(i,0)およびP(i−j,0)がある場合以外の場合(ステップS307;N)は、P(i,0)およびV(i−j,0)があるか否かを判断する(ステップS309)。P(i,0)およびV(i−j,0)がある場合(Y)、すなわち現処理時におけるポイントと以前(i−j)の処理時におけるベクトルの終点との間で内挿処理を行う場合は、2点は非常に近い位置関係にあるので、ポイントの内挿値P(i−k,p(i−k))を、2点間の中心値((mi0+me(i-j)0)/2,(ni0+ne(i-j)0)/2)として、この内挿値を加え(ステップS310)、ステップS302に戻る。P(i,0)およびV(i−j,0)がある場合以外の場合(ステップS309;N)は、現処理時におけるベクトルの始点と以前(i−j)の処理時におけるポイントとの間での内挿処理となる。この場合も、2点は非常に近い位置関係にあるので、ポイントの内挿値P(i−k,P(i−k))を、2点間の中心値((msi0+m(i-j)0)/2,(nsi0+n(i-j)0)/2)として、この内挿値を加え(ステップS311)、ステップS302に戻る。k=jとなったら(ステップS303;Y)、ポイントの内挿処理を終了し、ステップS103(図8)に戻る。
図11および図12は、ベクトル処理を示したものである。まず、単位時間t内の視点位置ベクトルの平均(平均視点移動ベクトル)を求め、これを単位時間t内における処理によって決定されるベクトルV(i,v(i))とする(ステップS401)。平均視点移動ベクトルは、例えば、単位時間t内における各フレーム間での視点移動のベクトルの平均を求め、この平均のベクトルを、この平均のベクトルの中心を基準にして15倍することによって求められる。次に、ポイント処理の場合と同様に、内挿処理を行うか否かを判断する。すなわち、視点が、同じものを追って連続的に移動しているときには、内挿処理は不要なので、ここでは、現処理時におけるベクトルの始点と一つ前の処理によって決定されたベクトルの終点との距離に基づいて、内挿処理を行うか否かを判断する。現処理時におけるベクトルの始点と一つ前の処理によって決定されたベクトルの終点との距離は、横方向,縦方向それぞれの位置の差の2乗を加算した値VD(x,y)を用いる。なお、x,yは、各ベクトル決定時のiを表している。VD(x,y)は、以下の式で表される。
VD(x、y)=(msx0−mey02+(nsx0−ney02
具体的には、まず、変数j=lとし(ステップS402)、次に、VD(i,i−j)が、一定距離VDrefより小さいか否かを判断する(ステップS403)。ここで、VDrefは、PDrefと同様に、1800とする。VD(i,i−j)がVDrefより小さい場合(Y)には、ベクトルが連続していると見なして、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。一方、VD(i,i−j)がVDref以上の場合(N)には、j+1を新たにjとし(ステップS404)、ti−ti-jがTDmaxを越えるかまたはi=jか、それ以外かを判断する(ステップS405)。それ以外である場合、すなわちti−ti-jがTDmax内であり、且つi=jではない場合(N)は、現処理時のベクトルと、以前のベクトル処理によって決定されたベクトルまたは以前のポイント処理によって決定されたポイントとの連続性を判断する。
具体的には、まず、図12に示したように、V(i−j,0)があるか否かを判断する(ステップS407)。V(i−j,0)がある場合(Y)は、現処理時のベクトルと以前のベクトル処理によって決定されたベクトルとの連続性を判断する。ベクトル処理の場合は、以前のベクトルから予測した現処理時のベクトルの始点と現処理時の実際のベクトルの始点との差、または、現処理時のベクトルから予測した以前のベクトルの始点と以前の実際のベクトルの始点との差によってベクトルの連続性を判断する。ここでは、現処理時のベクトルから予測した以前のベクトルの始点と以前の実際のベクトルの始点との差によってベクトルの連続性を判断することとする。この場合、現処理時のベクトルから予測した以前のベクトルの始点(以下、ベクトル始点予測値と言う。)mcij,ncijは、現処理時のベクトルを、そのまま時間差分戻すことによって求めることができ、以下の式で表される。
mcxy=msx0−(x−y)×(mex0−msx0
ncxy=nsx0−(x−y)×(nex0−nsx0
このベクトル始点予測値mcxy,ncxyと以前の実際のベクトルの始点との距離を表すVCD(x,y)は、以下の式で表される。
VCD(x,y)=(mcxy−msy02+(ncxy−nsy02
従って、V(i−j,0)がある場合(ステップS407;Y)は、VCD(i,i−j)がPDrefよりも小さいか否かを判断する(ステップS408)。VCD(i,i−j)がPDrefよりも小さい場合(Y)は、ベクトルの内挿処理(図13)を行う。V(i−j,0)がない場合(ステップS407;N)またはVCD(i,i−j)がPDref以上の場合(ステップS408;N)は、P(i−j,0)があるか否かを判断する(ステップS409)。P(i−j,0)がある場合(Y)は、現処理時のベクトルと以前のポイント処理によって決定されたポイントとの連続性を判断する。
ここで、現処理時のベクトルの始点と以前のポイントとの距離VSD(x,y)と、ベクトル始点予測値mcxy,ncxyと以前のポイントとの距離を表すVSCD(x,y)を、以下の式のように定義する。
VSCD(x,y)=(msxy−my02+(nsxy−ny02
VSD(x,y)=(mcx0−my02+(ncx0−ny02
P(i−j,0)がある場合(ステップS409;Y)は、まず、VSD(i,i−j)がPDrefよりも小さいか否かを判断する(ステップS410)。VSD(i,i−j)がPDrefよりも小さい場合(Y)は、ポイントの内挿処理(図10)を行う。VSD(i,i−j)がPDref以上の場合(N)は、VSCD(i,i−j)かPDrefよりも小さいか否かを判断する(ステップS411)。VSCD(i,i−j)がPDrefよりも小さい場合(Y)は、ベクトルの内挿処理(図13)を行う。
P(i−j,0)がない場合(ステップS409;N)またはVSCD(i,i−j)がPDref以上の場合(ステップS411;N)は、N(i−j,0)があるか否かを判断する(ステップS412)。N(i−j,0)があれば(Y)、中断処理がなされていることになるので、それ以前の部分とは切り離される。すなわち、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。N(i−j,0)がなければ(N)、ステップS404(図11)に戻る。
このように、現処理時のベクトルと、以前のベクトル処理によって決定されたベクトルまたは以前のポイント処理によって決定されたポイントとの問に連続性がある場合には、内挿処理が行われて時間的に連続して視点位置近傍領域が設定されることになる。これにより、例えば、操作者が画面内で移動する対象と他の対象(停止したものでも移動するものでも良い。)とを交互に注視した場合に、注視した複数の対象に対してそれぞれ、時間的に連続して視点位置近傍領域が設定されることになる。
ポイント処理と同様に、内挿処理が行なわれない場合(ステップS405;Y)には、シーンが切り替わってからの時間iが規定時間TS以内か否かを判断する(図11ステップS406)。シーンが切り替わってからの時間iが規定時間TSを越えている場合(N)は、内挿処理を行わず、ステップS103(図8)に戻って、次の単位時間tにおける処理に移るためiを更新する。シーンが切り替わってからの時間iが規定時間TS以内の場合(ステップS406;Y)は、ベクトルの内挿処理(図13)へ移り、シーンの開始時から現処理時までの間、ベクトルの内挿処理を行う。
図13は、ベクトルの内挿処理を示したものである。このベクトルの内挿処理では、まず、変数k=0とし(ステップS501)、次に、k+1を新たにkとし(ステップS502)、次に、k=jか否かを判断する(ステップS503)。k=jではない場合(N)には、v(i−k)+1を新たにv(i−k)とする(ステップS504)。すなわち、処理回数を1インクリメントする。次に、i−j=0か、否かを判断する(ステップS505)。i−j=0の場合(Y)は、シーンの開始時から現処理時までの間、ベクトルの内挿値を加えて現処理時における視点に至るベクトルを埋めていき(ステップS506)、ステップS502に戻る。ベクトルの内挿値は、現処理時のベクトルを延長したものになる。よって、時間的に遡るに従って、順番に、あるベクトルの始点を一つ前のベクトルの終点に置き換えて一つ前のベクトルの終点を作成すると共に、作成した終点から現処理時のベクトルの終点と始点との差分だけ遡って、一つ前のベクトルの始点を作成していくようにすれぱ良い。ベクトルの内挿値V(i−k,v(i−k))は、具体的には、以下の式で表される。
V(i−k,v(i−k))
=(ms0i-k,ns0i-k,me0i-k,me0i-k
ただし、
ms0i-k=msi-k+1 v(i-k+1)−(msi0−mei0
ns0i-k=nsi-k+1 v(i-k+1)−(nsi0−nei0
me0i-k=msi-k+1 v(i-k+1)
ne0i-k=nsi-k+1 v(i-k+1)
である。
i−j=0ではない場合(ステップS505;N)は、V(i−.j,0)があるか否かを判断する(ステップS507)。V(1−j,0)がある場合(Y)、すなわち現処理時のベクトルと以前(i−j)の処理時のベクトルとの問で内挿処理を行う場合は、現処理時のベクトルの始点と、以前のベクトルの終点とを結び、その間をかかった単位時間毎に分けて、各ベクトルの内挿値を求め、このベクトルの内挿値を加えて(ステップS508)、ステップS502に戻る。ベクトルの内挿値V(i−k,v(i−k))は、具体的には、以下の式で表される。
V(i−k,v(i−k))
=(msvi-k,nsvi-k,mevi-k,nevi-k
ただし、
msvi-k
=msi-k+1 v(i-k+1)−(msi0−mei-j0)/(j−1)
nsvi-k
=nsi-k+1 v(i-k+1)−(nsi0−nei-j0)/(j−1)
mevi-k=msi-k+1 v(i-k+1)
nevi-k=nsi-k+1 v(i-k+1)
である。
V−(i−j,0)がない場合(ステップS507;N)は、すなわち現処理時のベクトルと以前(i−j)の処理時のポイントとの間で内挿処理を行う場合は、現処理時のベクトルの始点と、以前のポイントとを結び、その間をかかった単位時間毎に分けて、各ベクトルの内挿値を求め、このベクトルの内挿値を加えて(ステップ509)、ステップS502に戻る。ベクトルの内挿値V(i−k,v(i−k))は、具体的には、以下の式で表される。
V(i−k,v(i−k))
=(mspi-k,nspi-k,mepi-k,nepi-k
ただし、
mspi-k
=msi-k+1 v(i-k+1)−(msi0−mi-j0)/(j−1)
nspi-k
=nsi-k+1 v(i-k+1)−(nsi0−ni-j0)/(j−1)
mepi-k=msi-k+1 v(i-k+1)
nepi-k=nsi-k+1 v(i-k+1)
である。
k=jとなったら(ステップS503;Y)、ベクトルの内挿処理を終了し、ステップS103(図8)に戻る。
図14は、中断用スイッチ処理を示したものである。この中断用スイッチ処理では、中断処理の内挿処理を行う。この内挿処理は、中断用スイッチ17のオン状態がシーン切替時から続いているときに、シーン切替後一定時間以内にオフにされた場合に、シーン切替後はオフ状態と見なす処理と、中断用スイッチ17のオフ状態がシーン切替時から続いているときに、シーン切替後一定時間以内にオンにされた場合に、シーン切替時からオン状態と見なす処理の2種類である。中断用スイッチ処理では、まず、シーンが切り替わってからの時間iと規定時間TSとを比較する(ステップS601)。iが規定時間TSより小さいときは、n(i)=1、すなわちN(i,1)として(ステップS602)、ステップS106(図8)に戻る。なお、中断用スイッチ17が押されておらず、且つ内挿処理されないときは、n(i)=lのままで、中断処理は行われない。ステップS602の処理により、中断用スイッチ17のオン状態がシーン切替時から続いているときに、シーン切替後規定時間TS以内にオフにされた場合には、シーン切替後はオフ状態と見なされ、シーン切替後から中断処理は行われない。
ステップS601において、iが規定時間TSと等しいときは、n(i)=0、すなわちN(i,0)とし(ステップS603)、中断処理を行うようにして、内挿処理に移る。この内挿処理では、まず、前回の処理時における中断処理の状況を確認し、n(i−1)=0、すなわちN(i−l,0)があるか否かを判断する(ステップS604)。N(i−1,0)がある場合(Y)には、そのまま中断処理を続行するようにしてステップSl 06(図8)に戻る。N(i−l,0)がない場合(N)には、まず、j=0とし(ステップS605)、次に、j+lを新たにjとし(ステップS606)、N(i−j,1)があるか否かを判断する(ステップS6,07)。N(i−j,1)がある場合(Y)には、N(i−j,0)に変更、すなわち中断処理を内挿する(ステップS608)。次に、i=jか否かを判断し(ステップS609)、i=jてなければ(N)、ステップS606に戻る。N(i−j,1)がない場合(ステップS607;N)およびi=jの場合(ステップS609;Y)は、ステップS106(図8)に戻る。このような処理により、中断用スイッチ17のオフ状態がシーン切替時から続いているときに、シーン切替後規定時間TS以内にオンにされた場合には、シーン切替時からオン状態と見なされ、シーン切替時から中断処理が行われる。
ステップS601において、iが規定時間TSより大きいときは、N(i,0)とし(スナッブS610)、中断処理を行うようにして、ステップSl06(図8)に戻る。
図15ないし図19は、エンド処理を示したものである。このエンド処理では、シーンの切り替わり目を示す切替処理部27からのシーン切替信号が入力されると、シーンの終了時から所定のエンド処理時間TE前までに、内挿処理によって内挿されたポイントまたはベクトルがある場合には、シーンの切り替わり目まで内挿処理が行われる。ここでは、エンド処理時間TEを5秒とする。
このエンド処理では、まず、j=0とし(ステップS701)、次に、j+1を新たにjとし(ステップS702)、次に、i−jがTEよりも大きいか否かを判断する(ステップS703)。i−jがTEよりも大きくない場合(N)は、N(i−j,0)があるか否かを判断する(ステップS704)。N(i−1,0)がない場合(N)には、ステップS702に戻る。N(i−1,0)がある場合(Y)にはステップS705に進み、内挿処理はj以降について行われる。i−jがTEよりも大きい場合(ステップS703;Y)もステップS705に進む。
ステップS705以降では、まず、エンド処理時間内で内挿したポイントを検索する。具体的には、ステップS705で、変数k=0とし、次に、k+1を新たにkとし(ステップS706)、次に、k=jか否かを判断する(ステップS707)。k=jではない場合(N)には、変数qを、q=p(i−k−1)とし(ステップS708)、P(i−k−1,q)、すなわち内挿したポイントがあるか否かを判断する(ステップS709)。内挿したポイントP(i−k−1,q)がなければ(N)、q−1を新たにqとし(ステップS710)、q=0か否かを判断し(ステップS711)、q=0てなければ(N)、ステップS709に戻り、q=0であれば(Y)、ステップS706に戻る。内挿したポイントP(i−k−1,q)があれば(ステップS709;Y)、図17に示す処理に進む。内挿したポイントP(i−k−1,0)が見つからず、k=jとなった場合(ステップS707;Y)は、図16に示す内挿したベクトルの検索処理に進む。
図16に示した処理では、エンド処理時間内で内挿したベクトルを検索する。具体的には、ステップS712で、変数k=0とし、次に、k+1を新たにkとし(ステップS713)、次に、k=jか否かを判断する(ステップS714)。k=jではない場合(N)には、変数qを、q=v(i−k−1)とし(ステップS715)、V(i−k−1,q)、すなわち内挿したベクトルがあるか否かを判断する(ステップS716)。内挿したベクトルV(i−k−1,q)がなければ(N)、q−lを新たにqとし(ステップS717)、q=0か否かを判断し(スナップS718)、q=0てなければ(N)、ステップS716に戻り、q=0であれば(Y)、ステップS713に戻る。内挿したポイントV(i−k−1,q)があれば(ステップS716;Y)、図18に示す処理に進む。内挿したベクトルV(i−k−1,q)が見つからず、k=jとなった場合(ステップS714;Y)は、符号化を終了するか否かを判断し(ステップS719)、符号化を終了する場合(Y)には位置処理部21における位置処理を終了し、符号化を終了しない場合(N)には、次のシーンにおける位置処理のため、ステップS101(図8)に戻り、p(i)、v(i)、n(i)およびiをクリアする。
図17に示した処理では、まず、図15に示した処理で検索されたポイントP(i−k−l,q)の次の単位時間において入力されている内挿していないポイントP(i−k,0)があるか否かを判断する(ステップS801)。そのポイントP(i−k,0)があれば(Y)、そのポイントと検索されたポイントP(i−k−1,q)との距離PDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さいか否かを判断する(ステップS802)。なお、PDNは、以下の式で表される。
PDN(x,y,z,a)
=(mxz−myz2+(nxa−nya2
PDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さい場合(ステップS802;Y)は、内挿したポイントP(i−k−1,q)は、内挿していないポイントP(i−k,0)を用いた内挿処理によって内挿されたポイントであることが分かる。この場合には、ステップS803以降の処理によって、P(i−k,0)のポイントをシーンの切り替わり目まで内挿する。具体的には、変数r=0とし(ステップS803)、次にr+1を新たにrとし(ステップS804)、r=kか否かを判断する(ステップS805)。r=kでなければ(N)、p(i−r)+1を新たにp(i−r)とし(ステップS806)、すなわち、処理回数をlインクリメントし、ポイントの内挿値P(i−r,p(i−r))を、ポイントP(i−k,0)と同じ値(mi-k0,ni-k0)とし、この内挿値を加えて(ステップS807)、ステップS804に戻る。ステップS804〜S807の処理を、r=kとなるまで繰り返すことにより、内挿していないポイントP(i−k,0)の次の単位時間からシーンの切り替わり目まで、P(i−k,0)のポイントが内挿される。r=kとなったら(ステップS805;Y)は、ステップS706(図15)に戻る。
検索されたポイントP(i−k−l,q)の次の単位時間において入力されている内挿していないポイントP(i−k,0)がない場合(ステップS801;N)すなわち次の単位時間において入力されているのがベクトル、または内挿値のみの場合、およびPDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さくない場合(ステップS802;N)は、内挿処理を行わずにステップS706(図15)に戻る。
図18に示した処理では、まず、図16に示した処理で検索されたベクトルV(i−k−l,q)の次の単位時間において入力されている内挿していないポイントP(i−k,0)があるか否かを判断する(ステップS901)。そのポイントP(i−k,0)があれば(Y)、そのポイントと検索されたベクトルV(i−k−l,q)の終点との距離VEDN(i−k,0,i−k−1,q)がPDrefのl/2よりも小さいか否かを判断する(ステップS902)。なお、VEDNは、以下の式で表される。
VEDN(x,y,z,a)
=(mxz−meyz2+(nxa−neya2
VEDN(i−k,0,i−k−1,q)がPDrefのl/2よりも小さい場合(ステップS902;Y)は、内挿したベクトルV(i−k−1,q)は、内挿していないポイントP(i−k,0)を用いた内挿処理によって内挿されたベクトルであることが分かる。
この場合には、ステップS903以降の処理によって、p(i−k,0)のポイントをシーンの切り替わり目まで内挿する。具体的には、変数r=0とし(ステップS903)、次にr+1を新たにrとし(ステップS904)、r=kか否かを判断する(ステップS905)。r=kでなければ(N)、P(i−r)+1を新たにp(i−r)とし(ステップS906)、すなわち、処理回数を1インクリメントし、ポイントの内挿値P(i−r,p(i−r))を、ポイントP(i−k,0)と同じ値(mi-k0,ni-k0)とし、この内挿値を加えて(ステップS907)、ステップS904に戻る。ステップS904〜S907の処理を、r=kとなるまで繰り返すことにより、内挿していないポイントP(i−k,0)の次の単位時間からシーンの切り替わり目まで、P(i−k,0)のポイントが内挿される。r=kとなったら(ステップS905;Y)は(ステップS713(図16)に戻る。
検索されたベクトルV(i−k−1,q)の次の単位時間において入力されている内挿していないポイントP(i−k,0)がない場合(ステップS901;N)は、図19に示す処理に進む。また、VEDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さくない場合(ステップS902;N)は、内挿処理を行わずにステップS713(図16)に戻る。
図19に示した処理では、まず、図16に示した処理で検索されたベクトルV(i−k−1,q)の次の単位時間において入力されている内挿していないベクトルV(i−k,0)があるか否かを判断する(ステップS908)。そのベクトルV(i−k,0)があれば(Y)、そのベクトルの始点と検索されたベクトルV(i−k−1,q)の終点との距離VDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さいか否かを判断する(ステップS909)。なお、VDNは、以下の式で表される。
VDN(x,y,z,a)
=(msxz−meyz2+(nsxa−neya2
VDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さい場合(ステップS909;Y)は、内挿したベクトルV(i−k−1,q)は、内挿していないベクトルV(i−k,0)を用いた内挿処理によって内挿されたベクトルであることが分かる。この場合には、ステップS910以降の処理によって、シーンの切り替わり目までベクトルの内挿を行う。具体的には、変数r=kとし(ステップS910)、次にr−1を新たにrとし(ステップS911)、r=0か否かを判断する(ステップS912)。r=0でなければ(N)、p(i−r)+1を新たにp(i−r)とし(ステップS913)、すなわち、処理回数を1インクリメントし、ベクトルの内挿値V(i−r,v(i−r))を求め、このベクトルの内挿値を加えて(ステップS914)、ステップS911に戻る。ベクトルの内挿値V(i−r,v(i−r))は、具体的には、以下の式で表される。
V(i−r,v(i−r))
=(mski-r,nski-r,meki-r,neki-r
ただし、
mski-r=msi-r+1 v(i-r+1)−(msi-k0−mi-k0
nski-r=nsi-r+1 v(i-r+1)−(nsi-k0−ni-k0
meki-r=msi-r+1 v(i-r+1)
neki-r=nsi-r+1 v(i-r+1)
である。
ステップS911〜S914の処理を、r=0となるまで繰り返すことにより、内挿していないベクトルV(i−k,0)の次の単位時間からシーンの切り替わり目まで、ベクトルの内挿が行われる。r=0となったら(ステップS912;Y)は、ステップS713(図16)に戻る。
検索されたベクトルV(i−k−1,q)の次の単位時間において入力されている内挿していないベクトルV(i−k,0)がない場合(スナッブS908;N)すなわち次の単位時間において入力されているのが内挿値のみの場合、およびVDN(i−k,0,i−k−1,q)がPDrefの1/2よりも小さくない場合(ステップS909;N)は、内挿処理を行わずにステップS713(図16)に戻る。
以上、図8ないし図19を参照して説明した処理によって決定された各単位時間毎のポイントの値およびベクトルの値は、フレーム毎のポイント値に変換され、このフレーム毎のポイント値が、視点位置近傍領域の中心位置となる。なお、単位時間におけるポイントの値は、そのままフレーム毎のポイント値となる。一方、単位時間におけるベクトルの値をフレーム毎のポイント値に変換するには、単位時間におけるベクトルをフレーム毎のベクトルに分割し、フレーム毎のベクトルの始点と終点との中点をフレーム毎のポイント値とすれば良い。
以上、位置処理部21における位置処理について説明したが、サイズ処理部23におけるサイズ処理も、位置処理と略同様である。
すなわち、サイズ処理では、位置処理におけるポイントの代わりに単位時間における視点位置近傍領域のサイズの固定値が定義され、位置処理におけるベクトルの代わりに単位時間における視点位置近傍領域のサイズの変化値が定義される。そして、サイズ処理においても、位置処理の場合と同様に、サイズの固定値と変化値の内挿処理が行われる。なお、サイズ処理において、位置処理と大きく異なる点は、サイズ可変用レバー18の出力信号は、視点の動作よりも遅れるので、単位時間内における後半部分における値のみを用いて、サイズの固定値と変化値を決定する点である。サイズ処理によって得られるサイズの値は、位置処理によって決定される視点位置近傍領域の中心位置(フレーム毎のポイント値)のそれぞれに対応するように決定される。従って、視点位置近傍領域を表す情報として、フレーム毎に、ポイント(m,n)とサイズ(s)による3次元値(m,n,s)が得られる。なお、中断処理が行われているときには、サイズの値sは0とされる。システムコントロール部30は、このようにして得られた視点位置近傍領域を表す情報(m,n,s)に基づいて、符号量削減制御信号35を生成し符号量削減部13に送る。
以上説明したように本実施の形態に係る画像圧縮符号化装置によれば、操作者の視点位置を検出し、この視点位置とサイズ可変用レバー18の出力とに基づいて視点位置近傍領域を設定し、この視点位置近傍領域以外の領域に割り当てられる符号量が、視点位置近傍領域に割り当てられる符号量よりも少なくなるように、領域に応じて符号量の割り当てを変えることができるので、簡単な操作で、画像データを限られた符号量内でリアルタイムに符号化して圧縮し、且つ復号時にできるだけ利用者にとって視覚的に高画質な画像を得ることが可能となる。しかも、圧縮部11の出力データによる所定時間当たりの符号量が規定値を越えた場合にのみ、領域に応じて符号量の割り当てを変える処理を行うようにしたので、符号量に余裕があるときに画質を不必要に劣化させることがなく、限られた符号量を有効に利用して画像データを符号化できると共に、復号時にできるだけ利用者にとって視覚的に高画質な画像を得ることが可能となる。
また、本実施の形態に係る画像圧縮符号化装置によれば、視点位置近傍領域のサイズを変えることができるようにしたので、多くの符号量が割り当てられる領域を適切な大きさに設定することが可能となり、この点からも、限られた符号量を有効に利用して画像データを符号化できると共に、復号時にできるだけ利用者にとって視覚的に高画質な画像を得ることが可能となる。
また、本実施の形態に係る画像圧縮符号化装置によれば、視点位置近傍領域から外側に向かって段階的に符号量の削減を行うようにしたので、視点位置近傍領域の境界部が目立つことを避けることができる。
また、本実施の形態に係る画像圧縮符号化装置によれば、種々のポイントおよびベクトルの内挿処理を行うようにしたので、操作者が画面内の複数の場所を順次、視点を変えて繰り返し注視した場合に、注視した複数の場所の近傍にそれぞれ、時間的に連続して視点位置近傍領域を設定することができ、また、シーンの切り替わり前後において視点位置が安定していないときにおいても視点位置近傍領域を設定することができ、その結果、視点位置近傍領域が断続的に設定されることを防止でき、復号時に利用者にとって視覚的に高画質な画像を得ることが可能となる。
なお、本発明は上記実施の形態に限定されず、例えば、圧縮部11における符号化の方式は、DCT処理と双方向予測符号化とを用いる方式に限らず、他の方式でも良い。また、符号量の削滅の方法は、DCT処理後の係数に割り当てられるビット数を滅らす方法に限らず、例えば画素の削減等の他の方法でも良い。この他、本発明の要旨を逸脱しない範囲で種々の変更が可能である。

Claims (18)

  1. 入力画像データを圧縮して符号化する符号化手段と、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出手段と、
    前記視点位置検出手段によって視点位置が断続的に検出されたときには各視点位置の検出時点間で時間的に連続するように、前記視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域を設定する領域設定手段と、
    前記領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限する符号量制限手段と
    を備えたことを特徴とする画像圧縮符号化装置。
  2. 前記符号量制限手段は、前記視点位置近傍領域以外の領域に割り当てられる符号量を、前記視点位置近傍領域から離れる方向に向かって段階的に減少させることを特徴とする請求の範囲第1項記載の画像圧縮符号化装置。
  3. 前記符号量制限手段によって領域に応じて符号量の割り当てを変えることを行うか否かを選択する選択手段をさらに備えたことを特徴とする請求の範囲第1項記載の画像圧縮符号化装置。
  4. 前記領域設定手段で設定される視点位置近傍領域の大きさを変える領域可変手段をさらに備えたことを特徴とする請求の範囲第1項記載の画像圧縮符号化装置。
  5. 前記符号量制限手段は、前記符号化手段によって発生される符号量が所定量を超えるとき、前記視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限することを特徴とする請求の範囲第1項記載の画像圧縮符号化装置。
  6. 入力画像データを圧縮して符号化する符号化ステップと、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出ステップと、
    前記視点位置検出ステップによって視点位置が断続的に検出されたときには各視点位置の検出時点間で時間的に連続するように、前記視点位置検出ステップによって検出される視点位置の近傍に視点近傍領域を設定する領域設定ステップと、
    前記領域設定ステップによって設定される前記視点位置近傍領域以外の領域に割り当てる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるように前記符号化ステップで発生される符号量を制限する符号量制限ステップと
    を備えたことを特徴とする画像圧縮符号化方法。
  7. 入力画像データを圧縮して符号化する符号化手段と、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出手段と、
    複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出手段で最初に視点位置が検出されたときと前記画像単位が開始されたときとの間で連続するように、前記視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域を設定する領域設定手段と、
    前記領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限する符号量制限手段と
    を備えたことを特徴とする画像圧縮符号化装置。
  8. 前記符号量制限手段は、前記視点位置近傍領域以外の領域に割り当てられる符号量を、前記視点位置近傍領域から離れる方向に向かって段階的に減少させることを特徴とする請求の範囲第7項記載の画像圧縮符号化装置。
  9. 前記符号量制限手段によって領域に応じて符号量の割り当てを変えることを行うか否かを選択する選択手段をさらに備えたことを特徴とする請求の範囲第7項記載の画像圧縮符号化装置。
  10. 前記領域設定手段で設定される視点位置近傍領域の大きさを変える領域可変手段をさらに備えたことを特徴とする請求の範囲第7項記載の画像圧縮符号化装置。
  11. 前記符号量制限手段は、前記符号化手段によって発生される符号量が所定量を超えるとき、前記視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限することを特徴とする請求の範囲第7項記載の画像圧縮符号化装置。
  12. 入力画像データを圧縮して符号化する符号化ステップと、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出ステップと、
    複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出ステップで最初に視点位置が検出されたときと前記画像単位が開始されたときとの間で連続するように、前記視点位置検出ステップによって検出される視点位置の近傍に視点近傍領域を設定する領域設定ステップと、
    前記領域設定ステップによって設定される前記視点位置近傍領域以外の領域に割り当てる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるように前記符号化ステップで発生される符号量を制限する符号量制限ステップと
    を備えたことを特徴とする画像圧縮符号化方法。
  13. 入力画像データを圧縮して符号化する符号化手段と、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出手段と、
    複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出手段で最後に視点位置が検出されたときと前記画像単位が終了されたときとの間で連続するように、前記視点位置検出手段によって検出される視点位置の近傍に視点位置近傍領域を設定する領域設定手段と、
    前記領域設定手段によって設定される視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限する符号量制限手段と
    を備えたことを特徴とする画像圧縮符号化装置。
  14. 前記符号量制限手段は、前記視点位置近傍領域以外の領域に割り当てられる符号量を、前記視点位置近傍領域から離れる方向に向かって段階的に減少させることを特徴とする請求の範囲第13項記載の画像圧縮符号化装置。
  15. 前記符号量制限手段によって領域に応じて符号量の割り当てを変えることを行うか否かを選択する選択手段をさらに備えたことを特徴とする請求の範囲第13項記載の画像圧縮符号化装置。
  16. 前記領域設定手段で設定される視点位置近傍領域の大きさを変える領域可変手段をさらに備えたことを特徴とする請求の範囲第13項記載の画像圧縮符号化装置。
  17. 前記符号量制限手段は、前記符号化手段によって発生される符号量が所定量を超えるとき、前記視点位置近傍領域以外の領域に割り当てられる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるよう前記符号化手段によって発生される符号量を制限することを特徴とする請求の範囲第13項記載の画像圧縮符号化装置。
  18. 入力画像データを圧縮して符号化する符号化ステップと、
    前記入力画像データが出力される画面上における視点位置を検出する視点位置検出ステップと、
    複数のフレームまたは複数のフィールドからなる画像単位内において前記視点位置検出ステップで最後に視点位置が検出されたときと前記画像単位が終了されたときとの間で連続するように、前記視点位置検出ステップによって検出される視点位置の近傍に視点近傍領域を設定する領域設定ステップと、
    前記領域設定ステップによって設定される前記視点位置近傍領域以外の領域に割り当てる符号量が、前記視点位置近傍領域に割り当てられる符号量よりも少なくなるように前記符号化ステップで発生される符号量を制限する符号量制限ステップと
    を備えたことを特徴とする画像圧縮符号化方法。
JP51248198A 1996-09-04 1997-09-04 画像圧縮符号化装置及び画像圧縮符号化方法 Expired - Lifetime JP3924794B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25220596 1996-09-04
PCT/JP1997/003107 WO1998010592A1 (en) 1996-09-04 1997-09-04 Image compression encoder and image compression encoding method

Publications (1)

Publication Number Publication Date
JP3924794B2 true JP3924794B2 (ja) 2007-06-06

Family

ID=17233969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51248198A Expired - Lifetime JP3924794B2 (ja) 1996-09-04 1997-09-04 画像圧縮符号化装置及び画像圧縮符号化方法

Country Status (3)

Country Link
US (1) US6246799B1 (ja)
JP (1) JP3924794B2 (ja)
WO (1) WO1998010592A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3560217B2 (ja) * 1998-04-30 2004-09-02 ソニー株式会社 データ符号化装置、データ符号化方法及びデータ伝送方法
CA2460349A1 (en) * 2001-07-11 2003-02-06 Daniel Kilbank System and method for compressing data
WO2003091842A2 (en) * 2002-04-23 2003-11-06 Daniel Kilbank System and method for using microlets in communications
JP4571489B2 (ja) * 2002-04-23 2010-10-27 ノキア コーポレイション ビデオ符号化システムにおける量子化器パラメータを表示するための方法および装置
US7408486B2 (en) * 2003-04-21 2008-08-05 Qbit Corporation System and method for using a microlet-based modem
EP2081155B1 (en) * 2008-01-21 2011-11-16 Telefonaktiebolaget LM Ericsson (publ) Prediction-based image processing

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5335313A (en) * 1976-09-13 1978-04-01 Nippon Telegr & Teleph Corp <Ntt> Picture image communication system
JPH02100488A (ja) 1988-10-06 1990-04-12 Fuji Xerox Co Ltd 画像伝送装置
JP2647929B2 (ja) 1988-10-28 1997-08-27 日本電信電話株式会社 2地点間画像符号化方式
DE3933346C1 (ja) * 1989-10-06 1991-04-04 Ant Nachrichtentechnik Gmbh, 7150 Backnang, De
US5592228A (en) * 1993-03-04 1997-01-07 Kabushiki Kaisha Toshiba Video encoder using global motion estimation and polygonal patch motion estimation
DE69416717T2 (de) * 1993-05-21 1999-10-07 Nippon Telegraph & Telephone Bewegtbildkoder und -dekoder
JP3169783B2 (ja) * 1995-02-15 2001-05-28 日本電気株式会社 動画像の符号化・復号システム
KR0171118B1 (ko) * 1995-03-20 1999-03-20 배순훈 비디오신호 부호화 장치
KR0159370B1 (ko) * 1995-03-20 1999-01-15 배순훈 물체의 경계를 고려한 영상 부호화방법 및 장치
KR100249028B1 (ko) * 1995-03-20 2000-03-15 전주범 정지영상을 가진 영상신호를 부호화/복호화하기 위한 부호화/복호화시스템
US5881175A (en) * 1996-06-07 1999-03-09 Daewoo Electronics Co., Ltd. Method and apparatus for encoding an image signal by using the contour signal thereof
KR100239307B1 (ko) * 1997-01-10 2000-01-15 전주범 윤곽선 영상 부호화기

Also Published As

Publication number Publication date
WO1998010592A1 (en) 1998-03-12
US6246799B1 (en) 2001-06-12

Similar Documents

Publication Publication Date Title
KR100334722B1 (ko) Mpeg 데이터를 이용한 입체영상생성방법 및 그 장치
US6084914A (en) Video coding device and video decoding device
EP0731608B1 (en) Image encoder and decoder with area selection
JP5960693B2 (ja) 低いダイナミックレンジ画像から高いダイナミックレンジ画像の生成
CA2452632C (en) Method for sub-pixel value interpolation
US7254264B2 (en) Method and device for generating 3D images
KR101227601B1 (ko) 시차 벡터 예측 방법, 그 방법을 이용하여 다시점 동영상을부호화 및 복호화하는 방법 및 장치
JP5029062B2 (ja) 多視点動画像伝送システム
KR100209793B1 (ko) 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
JP3924794B2 (ja) 画像圧縮符号化装置及び画像圧縮符号化方法
KR20210011452A (ko) 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램
JP6468847B2 (ja) 画像復号装置、画像復号方法、及びプログラム
JP6763469B1 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法及び画像復号プログラム
JP3946781B2 (ja) 画像情報変換装置及び方法
JP4470280B2 (ja) 画像信号処理装置及び画像信号処理方法
JPH0332185A (ja) 動画像符号化装置及び動画像復号化装置
JP2000165909A (ja) 画像圧縮処理方法及び画像圧縮処理装置
EP1128679A1 (en) Method and apparatus for generating stereoscopic image using MPEG data
KR20230015392A (ko) Gci를 시그널링하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독 가능한 기록 매체
JP4001143B2 (ja) 係数生成装置および方法
JP4406517B2 (ja) 画像表示制御方法及びそのシステム及びそれを構成する装置
JP2008016986A (ja) 動画像符号化装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060711

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6