JPWO2007013194A1 - 画像情報圧縮方法及び自由視点テレビシステム - Google Patents

画像情報圧縮方法及び自由視点テレビシステム Download PDF

Info

Publication number
JPWO2007013194A1
JPWO2007013194A1 JP2007526814A JP2007526814A JPWO2007013194A1 JP WO2007013194 A1 JPWO2007013194 A1 JP WO2007013194A1 JP 2007526814 A JP2007526814 A JP 2007526814A JP 2007526814 A JP2007526814 A JP 2007526814A JP WO2007013194 A1 JPWO2007013194 A1 JP WO2007013194A1
Authority
JP
Japan
Prior art keywords
encoding
frame
image information
frames
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007526814A
Other languages
English (en)
Other versions
JP4825983B2 (ja
Inventor
正幸 谷本
正幸 谷本
藤井 俊彰
俊彰 藤井
健詞 山本
健詞 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2007526814A priority Critical patent/JP4825983B2/ja
Publication of JPWO2007013194A1 publication Critical patent/JPWO2007013194A1/ja
Application granted granted Critical
Publication of JP4825983B2 publication Critical patent/JP4825983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

複数台のカメラによって取得された画像情報の符号化において圧縮効率を向上させることができる画像情報圧縮方法及びこの方法を適用したFTVシステムであって、画像情報圧縮方法は、奇数番目のカメラ#1,#3によって取得された動画像のフレームFR(#1,n−1)〜FR(#1,n+1),FR(#3,n−1)〜FR(#3,n+1)を符号化処理するステップと、偶数番目のカメラ#2によって取得された動画像のフレームに対応する視点補間画像FRint(#2,n)を生成するステップと、カメラ#2によって取得された画像の符号化処理に際し、異なる時刻のフレームFR(#2,n−1),FR(#2,n+1)を参照して符号化処理する場合と、視点補間画像FRint(#2,n)を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップとを有する。

Description

本発明は、複数台のカメラによって取得された画像情報の符号化において符号化圧縮効率を向上させることができる画像情報圧縮方法及びこの方法を適用した自由視点テレビシステムに関するものである。
本出願の発明者は、見る者があたかもその場にいるかのように、自由に視点を変えて3次元シーンを見ることのできる自由視点テレビ(Free viewpoint TV:FTV)を提案しており(例えば、非特許文献1〜4参照)、さらに、15台のカメラで取得した実写画像をもとにして水平面内で自由に視点を移動させてシーンを見ることができるFTVの実験装置を完成させている(例えば、非特許文献1参照)。
谷本正幸、「自由視点テレビ」、日本工業出版、画像ラボ、2005年2月号、23〜28頁 岡慎也、ナ バンチャンプリム、藤井俊彰、谷本正幸、「自由視点テレビのための光線空間情報圧縮」、信学技報、CS2003−141、7〜12頁、2003年12月 谷本正幸、「5.自由視点テレビFTV、〜多視点画像処理を使って〜」、映像メディア情報学会誌、Vol.58、No.7、pp.898−901、2004年 岡慎也、ナ バンチャンプリム、藤井俊彰、谷本正幸、「自由視点テレビのための動的光線空間の情報圧縮」、3D Image Conference 2004、139〜142頁、2004年
なお、非特許文献2の9頁左欄には、「光線空間は時間軸にも空間軸にも画像同士が非常に類似しているため、動き(視差)予測を両軸に適応することによって高い圧縮率を得ることが可能であると考えられる。」との記載がある。また、非特許文献3の899頁左欄には「光線空間を補間すること」の記載があり、900頁左欄には「補間は光線空間全体にではなく必要な部分のみに行えばよい。」との記載がある。また、非特許文献4の140頁左欄には「動的光線空間は時間、空間領域に大きな相関を持っていることが予想できる。」との記載があり、140頁右欄から141頁左欄には参照画像の例が示されている。
図1は、FTVシステムの基本的な構成を概念的に示す図である。図1に示されるFTVシステムは、カメラによる撮影(ステップST1)、画像の補間処理(ステップST2又はST2a)、画像情報の圧縮処理(ステップST3)、及び入力された視点から見た画像の表示(ステップST4及びST5)を行う。FTVシステムでは、3次元実空間に存在する被写体101の画像情報を複数台のカメラ(図1には、符号102〜102の5台を示すが、実際にはより多くのカメラが用いられる。)によって取得し(ステップST1)、複数台のカメラによって取得した画像(図1には、符号103〜103の5つ画像を示すが、実際にはより多くの画像が用いられる。)を光線空間103に互いに配列し、FTV信号とする。なお、図1において、xは、水平視野方向、yは、垂直視野方向、u(=tanθ)は、視域方向を示す。複数台のカメラ102の配置の仕方には、図2(a)に示されるように、直線上に互いに平行な方向を向けて並ぶ直線配置、図2(b)に示されるように、円周上に円周の内側を向けて並ぶ円周配置(又は円弧配置)、図2(c)に示されるように、平面上に互いに平行な方向を向けて並ぶ平面配置、図2(d)に示されるように、球面上に球面の内側を向けて並ぶ球面配置(又は半球面配置)、図2(e)に示されるように、円筒上に円筒の内側を向けて並ぶ円筒配置等がある。複数台のカメラ102の配置は、水平方向の自由視点のみを実現する場合には、図2(a)に示される直線配置又は図2(b)に示される円周配置とし、水平方向と垂直方向の両方の自由視点を実現する場合には、図2(c)に示される平面配置、図2(d)に示される円筒配置、又は図2(e)に示される球面配置とする。
また、光線空間法では、3次元実空間の1本の光線を、それを表すパラメータを座標とする多次元空間の1点で表す。この仮想的な多次元空間を光線空間という。光線空間全体は、3次元空間のすべての光線を過不足なく表現する。光線空間は、多くの視点から撮影された画像を集めることによって作られる。光線空間の点の値は、画像の画素値と同じであるから、画像から光線空間への変換は、単なる座標変換である。図3(a)に示されるように、実空間中の基準面106を通過する光線107は通過位置(x,y)と通過方向(θ,φ)の4つのパラメータによって一意に表現することができる。図3(a)において、Xは、3次元実空間における水平方向の座標軸であり、Yは、垂直方向の座標軸であり、Zは、奥行き方向の座標軸である。また、θは、基準面106の法線に対する水平方向の角度、すなわち、基準面106に対する水平方向の出射角であり、φは、基準面106の法線に対する垂直方向の角度、すなわち、基準面106に対する垂直方向の出射角である。これにより、この3次元実空間内の光線情報を輝度f(x,y,θ,φ)と表すことができる。ここでは、説明を分かりやすくするために、垂直方向の視差(角度φ)を無視する。図3(a)に示されるように、基準面106に向けて、且つ、水平に配置された多数のカメラで撮影された画像は、図3(b)に示されるように、x,y,u(=tanθ)の軸を持つ3次元空間において、点線で描かれる断面103〜103に位置していることになる。図3(b)に示される光線空間103から任意の面を切り取ることによって、実空間における水平方向の任意の視点から見た画像を生成することが可能となる。例えば、図4(a)に示される光線空間103から断面103aを切り出すと、図4(b)に示されるような画像がディスプレイ105に表示され、図4(a)に示される光線空間103から断面103bを切り出すと、図4(c)に示されるような画像がディスプレイ105に表示される。
また、光線空間103に配列された画像(断面103〜103)の間にはデータがないため、これを補間によって作る(図1のステップST2又はST2a)。なお、補間は、光線空間の全体についてではなく、必要な部分についてのみ行えばよい。また、補間を行う場所は、VOD(Video On Demend)のような用途では画像情報の送信側(ステップST2)となり、放送のような用途では画像情報の受信側(ステップST2a)となる。
画像情報の圧縮(図1のステップST3)は、FTVシステムの各構成が同じ場所にある場合には、必須の処理ではないが、カメラとユーザーとが別の場所に存在し、インターネット等を利用して画像情報を配信する場合には必須の処理となる。従来の画像情報圧縮方法としては、例えば、H.264/AVC規格に準拠したものがある(例えば、特許文献1参照)。
特開2003−348595号公報(図1及び図2)
しかしながら、FTVシステムにおいて配信される画像情報は、従来のTVシステムにおける画像情報に比べて、カメラの台数分だけ情報量が多くなる。このため、従来の画像情報圧縮方法を用いるのみでは、圧縮効率が不十分であり、画像情報の伝送を伴うFTVシステムを実用化するためには、さらに効率的な圧縮を行うことができる画像情報圧縮方法が必要不可欠である。
そこで、本発明は、上記従来技術の課題を解決するためになされたものであり、その目的は、複数台のカメラによって取得された画像情報の符号化において符号化圧縮効率を向上させることができる画像情報圧縮方法及びこの方法を適用したFTVシステムを提供することである。
本発明の画像情報圧縮方法は、
3台以上のカメラの中から選択された2台以上のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理するステップと、
前記選択されたカメラによって取得された画像情報に基づいて、前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームに対応する第1の視点補間画像を生成するステップと、
前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理するステップとを有し、
前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理する前記ステップが、前記選択されたカメラ以外のカメラによって取得された画像情報であって符号化対象のフレームと異なる時刻のフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記第1の視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
ことを特徴とするものである。
また、本発明の他の画像情報圧縮方法は、
複数台のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化によって符号化処理するステップと、
前記複数台のカメラによって取得された動画像のフレームであって、前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記時間的相関を利用したフレーム間予測符号化と同じアルゴリズムによる同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理するステップとを有する
ことを特徴とするものである。
さらに、本発明のFTVシステムは、
上記画像情報圧縮方法を実行する画像情報符号化装置と、
前記画像情報符号化装置に映像信号を供給する複数台のカメラと、
前記画像情報符号化装置から出力された符号化情報を復号する画像情報復号装置と、
見る者の視点位置を入力するユーザーインターフェースと、
前記複数台のカメラによって撮影された同時刻の画像から、前記ユーザーインターフェースによって入力された視点から見た画像を抽出する画像情報抽出部と
を有することを特徴とするものである。
本発明の画像情報圧縮方法及びFTVシステムによれば、複数台のカメラによって取得された動画像のフレームを、同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理するので、符号化圧縮効率を向上させることができるという効果を得ることができる。
また、本発明の他の画像情報圧縮方法及びFTVシステムによれば、選択された2台以上のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理し、選択されたカメラ以外のカメラによって取得された動画像のフレームに対応する第1の視点補間画像を生成し、選択されたカメラ以外のカメラによって取得された画像情報であって符号化対象のフレームと異なる時刻のフレームの画像情報を参照して符号化処理する場合と、第1の視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するので、出力される画像情報の符号化圧縮効率を向上させることができるという効果を得ることができる。
FTVシステムの基本的な構成を概念的に示す図である。 (a)〜(e)は複数台のカメラの配置例を示す図であり、(a)は直線配置、(b)は円周配置、(c)は平面配置、(d)は円筒配置、(e)は球面配置を示す。 (a)は実空間上における物体、直線配置されたカメラ、基準面、及び光線を示す図であり、(b)は光線空間を示す図である。 (a)は光線空間を示す図であり、(b)は光線空間から切り出された画像を示す図であり、(c)は光線空間から切り出された他の画像を示す図である。 本発明の画像情報圧縮方法を実施することができる画像情報符号化装置の構成を概略的に示すブロック図である。 複数台のカメラによって撮影された動画像のフレームが時間軸方向に並び、且つ、同時刻のフレームがカメラの配列順に並ぶことを概念的に示す図である。 図5に示される画像情報符号化装置の動作を示すフローチャートである。 図7に示される補間画像生成・補償ステップの動作の一例を示すフローチャートである。 図7に示される選択ステップの動作の一例を示すフローチャートである。 本発明の画像情報圧縮方法によって符号化された画像情報を復号することができる画像情報復号装置の構成を概略的に示すブロック図である。 図10に示される画像情報復号装置の動作を示すフローチャートである。 図10に示される補間画像生成・補償ステップの動作の一例を示すフローチャートである。 本発明の第1の実施形態の画像情報圧縮方法の説明図(その1)である。 本発明の第1の実施形態の画像情報圧縮方法の説明図(その2)である。 本発明の第2の実施形態の画像情報圧縮方法の説明図(その1)である。 本発明の第2の実施形態の画像情報圧縮方法の説明図(その2)である。 本発明の第2の実施形態の画像情報圧縮方法の説明図(その3)である。 本発明の第2の実施形態の画像情報圧縮方法の説明図(その4)である。 本発明の第3の実施形態の画像情報圧縮方法の説明図である。 本発明の第4の実施形態の画像情報圧縮方法の説明図である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その1)である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その2)である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その3)である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その4)である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その5)である。 本発明の第5の実施形態の画像情報圧縮方法の説明図(その6)である。 本発明の第6の実施形態の画像情報圧縮方法において光線空間の水平断面の一例を示す図である。 本発明の第6の実施形態の画像情報圧縮方法における動きベクトルの予測方法の説明図である。 本発明の第6の実施形態の比較例としてのH.264/AVCにおける動きベクトルの予測方法の説明図である。 (a)及び(b)は、実空間上の点と光線空間の水平断面における直線の関係を示す説明図である。FTVシステムの基本的な構成を概念的に示す図である。 本発明の第7の実施形態のFTVシステムの基本的な構成を概念的に示す図である。
符号の説明
101 被写体(物体)
102,102〜102 カメラ
103 光線空間
103〜103 実写画像
103a,103b 光線空間の垂直断面
104 ユーザーインターフェース
105 ディスプレイ
106 基準面
107 光線
200 画像情報符号化装置
201〜201 入力端子
202〜202 A/D変換部
203 画面並べ替えバッファ
204 加算器
205 直交変換部
206 量子化部
207 可変符号化部
208 蓄積バッファ
209 出力端子
210 レート制御部
211 逆量子化部
212 逆直交変換部
213 マルチカメラフレームメモリ
214 符号化処理部
215 動き予測・補償部
216 補間画像生成・補償部
217 選択部
250 FTVシステムの送信側の装置
300 画像情報復号装置
301 入力端子
302 蓄積バッファ
303 可変復号部
304 逆量子化部
305 逆直交変換部
306 加算器
307 画面並べ替えバッファ
308〜308 D/A変換部
309〜309 出力端子
310 マルチカメラフレームメモリ
311 復号処理部
312 動き予測・補償部
313 補間画像生成・補償部
314 選択部
350 FTVシステムの受信側の装置
351 画像情報抽出部
#1,#2,#3,…,#n,#n+1,… カメラ番号
FR フレーム(画像)
FR(#1,n−1) カメラ#1によって取得されたt=n−1時のフレーム
FR(#1,n) カメラ#1によって取得されたt=n時のフレーム
FR(#1,n+1) カメラ#1によって取得されたt=n+1時のフレーム
FR(#2,n−1) カメラ#2によって取得されたt=n−1時のフレーム
FR(#2,n) カメラ#2によって取得されたt=n時のフレーム
FR(#2,n+1) カメラ#2によって取得されたt=n+1時のフレーム
FR(#3,n−1) カメラ#3によって取得されたt=n−1時のフレーム
FR(#3,n) カメラ#3によって取得されたt=n時のフレーム
FR(#3,n+1) カメラ#3によって取得されたt=n+1時のフレーム
FRint(#2,n) フレームFR(#2,n)に対応する視点補間画像
FRint1(#2,n) フレームFR(#2,n)に対応する視点補間画像
FRint2(#2,n) フレームFR(#2,n)に対応する視点補間画像
t 時間軸
S 空間軸
GOP グループ・オブ・ピクチャ(所定数のフレームからなる時間軸t方向の画像グループ)
複数の同時刻のフレームからなる空間軸S方向の画像グループ
I フレーム内符号化フレーム(Iピクチャ)
P フレーム間予測符号化フレーム(Pピクチャ)
B フレーム間双方向予測符号化フレーム(Bピクチャ)
<本発明の画像情報圧縮方法を実施する装置の説明>
図5は、本発明の画像情報圧縮方法を実施することができる画像情報符号化装置200の構成を概略的に示すブロック図である。
図5に示されるように、画像情報符号化装置200は、N個(Nは2以上の整数)の入力端子201〜201と、N個のA/D変換部202〜202と、画面並べ替えバッファ203と、加算器204と、直交変換部205と、量子化部206と、可変符号化部207と、蓄積バッファ208と、出力端子209と、レート制御部210とを備えている。また、画像情報符号化装置200は、逆量子化部211と、逆直交変換部212と、マルチカメラフレーム213と、動き予測・補償部215と、補間画像生成・補償部216と、動き予測・補償部215及び補間画像生成・補償部216の出力信号のいずれかを選択的に出力する選択部217とを備えている。動き予測・補償部215、補間画像生成・補償部216、及び選択部217は、本発明の画像情報圧縮方法を実施する符号化処理部214を構成している。図5に示される画像情報符号化装置200は、複数台のカメラからの画像情報を受信できる点、及び、本発明の画像情報圧縮方法を実施できる符号化処理部214を備えている点が、上記特許文献1に開示されている従来の画像情報符号化装置と相違する。
画像情報符号化装置200の入力端子201〜201のそれぞれには、配置位置及び撮影方向が既知であるN台のカメラによって取得されたアナログ映像信号が入力される。N台のカメラは、通常は解像度等の性能が同一のものであり、例えば、図2(a)〜(e)に示されるように規則的に配置されている。ただし、実際のFTVシステムにおいては、通常、カメラの台数は、数十台、百数十台、又はそれ以上の台数になる。また、カメラの配置は、図2(a)〜(e)に示されるものに限定されない。入力端子201〜201に入力されたアナログ映像信号はそれぞれ、A/D変換部202〜202でデジタル映像信号に変換され、画面並べ替えバッファ203に保持される。なお、変形例として、入力端子201〜201にデジタル映像信号が入力される場合は、A/D変換部202〜202は不要である。
図6は、複数台のカメラ#1〜#5によって撮影された動画像のフレーム(「画像(ピクチャ)」とも言う。)FRが時間軸t方向に並び、且つ、カメラ#1〜#5によって取得された同時刻のフレームがカメラの配列順に空間軸S方向に並ぶことを概念的に示す図である。図6に示されるように、各カメラ#1〜#5によって撮影された動画像のフレームFRは、時間軸t方向に時系列的に並んで所定数のフレームからなる画像グループであるGOP(Group of Pictures)を構成する。また、図6に示されるように、各カメラ#1〜#5によって撮影された動画像の同時刻に撮影されたフレーム、すなわち、同時刻のフレームは、カメラの配列順である空間軸S方向(図6においては水平方向)に並ぶ所定数の同時刻のフレームの画像グループGを構成する。
画像情報符号化装置200の画面並べ替えバッファ203は、A/D変換部202〜202から供給された画像情報のGOP構造に応じて、フレームの並べ替えを行う。画面並べ替えバッファ203は、フレーム内符号化(イントラ符号化)が行われる画像に対しては、フレーム全体の画像情報を直交変換部205に供給する。直交変換部205は、画像情報に対して離散コサイン変換等の直交変換を施し、変換係数を量子化部206に供給する。量子化部206は、直交変換部205から供給された変換係数に対して量子化処理を施す。
可変符号化部207は、量子化部206から供給された量子化された変換係数や量子化スケール等から符号化モードを決定し、この符号化モードに対して可変長符号化、又は算術符号化等の可変符号化を施し、画像符号化単位のヘッダ部に挿入される情報を形成する。そして、可変符号化部207は、符号化された符号化モードを蓄積バッファ208に供給して蓄積させる。この符号化された符号化モードは、画像圧縮情報として出力端子209から出力される。また、可変符号化部207は、量子化された変換係数に対して可変長符号化又は算術符号化等の可変符号化を施し、符号化された変換係数を蓄積バッファ208に供給して蓄積させる。この符号化された変換係数は、画像圧縮情報として出力端子209より出力される。
量子化部206の挙動は、蓄積バッファ208に蓄積された変換係数のデータ量に基づいて、レート制御部210によって制御される。また、量子化部206は、量子化後の変換係数を逆量子化部211に供給し、逆量子化部211は、その量子化後の変換係数を逆量子化する。逆直交変換部212は、逆量子化された変換係数に対して逆直交変換処理を施して復号画像情報を生成し、その情報をマルチカメラフレームメモリ213に供給して蓄積させる。
また、画面並べ替えバッファ203は、フレーム間予測符号化(インター符号化)が行われる画像に関しては、画像情報を符号化処理部214に供給する。符号化処理部214は、後述する本発明の第1〜第6の実施形態の画像情報圧縮方法を用いて画像情報に符号化処理を施す。符号化処理部214は、生成した参照画像情報を加算器204に供給し、加算器204は、参照画像情報を対応する画像情報との差分信号に変換する。また、符号化処理部214は、同時に動きベクトル情報を可変符号化部207に供給する。
可変符号化部207は、量子化部206からの量子化された変換係数及び量子化スケール、並びに符号化処理部214から供給された動きベクトル情報等に基づいて符号化モードを決定し、その決定した符号化モードに対して可変長符号化又は算術符号化等の可変符号化を施し、画像符号化単位のヘッダ部に挿入される情報を生成する。そして、可変符号化部207は、符号化された符号化モードを蓄積バッファ208に供給して蓄積させる。この符号化された符号化モードは、画像圧縮情報として出力される。
また、可変符号化部207は、その動きベクトル情報に対して可変長符号化又は算術符号化等の可変符号化処理を施し、画像符号化単位のヘッダ部に挿入される情報を生成する。また、イントラ符号化と異なり、インター符号化の場合、直交変換部205に入力される画像情報は、加算器204より得られた差分信号である。なお、その他の処理については、イントラ符号化による画像圧縮の場合と同様である。
図7は、図5に示される画像情報符号化装置200の符号化処理を示すフローチャートである。図7に示されるように、画像情報符号化装置200は、A/D変換部202〜202によって、入力されたアナログ映像信号のA/D変換を行い(ステップST11)、画面並べ替えバッファ203によって画面の並べ替えを行い(ステップST12)、その後、動き予測・補償部215による動き予測・補償(ステップST21)、補間画像生成・補償部216による補間画像の生成・補償(ステップST22)、選択部217による補間画像を参照する符号化又は動き予測・補償による符号化のいずれを選択するかの決定(ステップST23)を行う。ただし、従来の画像情報の圧縮符号化処理(例えば、H.264/AVC規格に準拠した処理)を行う場合、後述する第1の実施形態の場合には、補間画像生成・補償部216による補間画像の生成・補償を行う必要はない。
その後、直交変換部205によって生成された画像情報を直交変換し(ステップST23)、量子化部206及びレート制御部210によって量子化及び量子化レート制御を行い(ステップST25,26)、可変符号化部207により可変符号化を行い(ステップST27)、逆量子化部211により逆量子化を行い(ステップST28)、逆直交変換部212により逆直交変換(ステップST29)を行う。ステップST21〜ST29の処理を、フレーム内の所定画素数からなるブロックのすべてに対して行い、ステップST11及びST12と全ブロックについてのステップST21〜ST29の処理を、全フレームに対して行う。
図8は、図7に示される補間画像生成・補償ステップST22の動作の一例を示すフローチャートである。補間画像生成・補償に際しては、ブロック内の各画素で奥行き推定をして補間画素(例えば、画素値0〜255)を生成し、生成された補間画素の画素値に基づく評価値Eを算出し、ブロックの奥行き範囲における評価値Eの最小値Eminを求める(ステップST221〜ST223)。ここで、生成された補間画素の画素値をIint(i,j)、奥行きをDint(i,j)と定義し、(i,j)は画像上の位置を示し、符号化される画像の画素値をIen(i,j)と定義したときに、評価値Eは、例えば、
abs(Iint(i,j)−Ien(i,j))
とすることができる。ここで、abs(・)は、括弧内の絶対値を示す。ただし、評価値Eの定義は、
abs(Iint(i,j)−Ien(i,j))
−abs(Dint(i,j)−Dint(i−1,j))
としてもよい。なお、本発明において、評価値Eは、上記定義に限定されず、他の定義を採用することもできる。
次に、最小値Eminとなる奥行きを用いて補間画素を生成する(ステップST224)。ステップST221〜ST224の処理を、ブロック内画素の全体に対して行い、補間画素によって生成された推定ブロックが実際のブロックとどの程度似ているかを示す指標である評価値Jintを算出する(ステップST225)。ここで、評価値Jは、ブロック内の推定画素の集合SestをIint(i,j)、a<i<b、c<j<dとし、符号化する画像の画素の集合TenをIen(i,j)、a<i<b、c<j<dとすると、評価値Jintは、例えば、
Σ{abs(Iint(i,j)−Ien(i,j))}、a<i<b、c<j<d
と定義できる。または、評価値Jintは、例えば、
Σ{abs(Iint(i,j)−Ien(i,j))*abs(Iint(i,j)−Ien(i,j))}、a<i<b、c<j<d
と定義することができる。ここで、a、b、c、dは、ブロックの範囲を示す値である。なお、以上に説明した補間方法は、一例に過ぎず、本発明における補間方法としては、何を用いてもよく、装置の製造者又は使用者が、既知のフレーム補間方法の中から自由に選択できるように構成してもよい。
図9は、図7に示される補間画像又は動き予測補償のいずれかの選択ステップの動作の一例を示すフローチャートである。図9に示されるように、補間画像又は動き予測補償のいずれかの選択ステップにおいては、評価値Jintを算出するが、評価値Jintが動き予測補償を採用した場合の評価値Jmotより大きい場合には、動き予測補償を採用し、評価値Jintが動き予測補償を採用した場合の評価値Jmot以下の場合には、補間画像を選択する(ステップST231〜ST233)。ただし、従来の画像情報の圧縮符号化処理(例えば、H.264/AVC規格に準拠した処理)を行う場合、又は、後述する第1の実施形態の画像情報圧縮方法を行う場合には、動き予測補償により符号化された画像情報を選択する。
図10は、画像情報符号化装置200に対応する画像情報復号装置300の構成を概略的に示すブロック図である。
図10に示されるように、画像情報復号装置300は、入力端子301と、蓄積バッファ302と、可変復号部203と、逆量子化部304と、逆直交変換部305と、加算器306と、画面並べ替えバッファ307と、N個のD/A変換部308〜308と、N個の出力端子309〜309とを備えている。また、画像情報復号装置300は、マルチカメラフレームメモリ310と、動き予測・補償部312と、補間画像生成・補償部313と、動き予測・補償部312及び補間画像生成・補償部313の出力の内のいずれかを選択的に出力する選択部314とを備えている。動き予測・補償部312、補間画像生成・補償部313、及び選択部314は、画像情報復号を実施する復号処理部311を構成している。図10に示される画像情報復号装置300は、本発明の画像情報圧縮方法によって符号化された画像情報を復号できる復号処理部311を備えている点、及び、複数のカメラからの画像情報に相当する複数のアナログ映像信号を出力できる点が、上記特許文献1に開示されている画像情報復号装置と相違する。なお、変形例として、N個の出力端子309〜309からデジタル映像信号を出力する場合は、N個のD/A変換部308〜308は不要となる。
図10に示した画像情報復号装置300において、入力端子301から入力された画像圧縮情報は、蓄積バッファ302において一時的に格納された後、可変復号部303に転送される。可変復号部303は、定められた画像圧縮情報のフォーマットに基づき、画像圧縮情報に対して可変長復号又は算術復号等の処理を施し、ヘッダ部に格納された符号化モード情報を取得し逆量子化部304等に供給する。また同様に、可変復号部303は、量子化された変換係数を取得し逆量子化部304に供給する。さらに、可変復号部303は、復号するフレームがインター符号化されたものである場合には、画像圧縮情報のヘッダ部に格納された動きベクトル情報についても復号し、その情報を復号処理部311に供給する。
逆量子化部304は、可変復号部303から供給された量子化後の変換係数を逆量子化し、変換係数を逆直交変換部305に供給する。逆直交変換部305は、定められた画像圧縮情報のフォーマットに基づき、変換係数に対して逆離散コサイン変換等の逆直交変換を施す。ここで、対象となるフレームがイントラ符号化されたものである場合、逆直交変換処理が施された画像情報は、画面並べ替えバッファ307に格納され、D/A変換部308〜308におけるD/A変換処理の後に、出力端子309〜309から出力される。
また、対象となるフレームがインター符号化されたものである場合、復号処理部311は、可変復号処理が施された動きベクトル情報とマルチカメラフレームメモリ310に格納された画像情報とに基づいて参照画像を生成し、加算器306に供給する。加算器306は、この参照画像と逆直交変換部305からの出力とを合成する。なお、その他の処理については、イントラ符号化されたフレームと同様である。
図11は、図10に示される画像情報復号装置300の符号化処理を示すフローチャートである。図11に示されるように、画像情報復号装置300は、入力信号の可変復号(ステップST31)、逆量子化(ステップST32)、逆直交変換(ステップST33)後、画像情報が動き予測補償されたものであれば、動き予測補償を用いて復号し(ステップST34,ST35)、補間画像を用いて補償したものであれば補間画像を用いた復号をする(ステップST36,ST37)。ステップST31〜ST37の処理を、全ブロックについて行い、さらに、ステップST31〜ST37の処理を全ブロックについて行う処理を、全フレームについて行う。その後、得られた復号データに基づいて、画面の並べ替え(ステップST41)、D/A変換(ステップST42)を行う。
図12は、図10に示される補間画像生成・補償ステップST37の動作の一例を示すフローチャートである。図12のステップST371〜ST374の処理は、図8のステップST221〜ST224の処理と同様である。補間画像生成・補償に際しては、ブロック内の各画素で奥行き推定をして補間画素(例えば、画素値0〜255)を生成し、生成された補間画素の画素値に基づく評価値Eを算出し、ブロックの奥行き範囲における評価値Eの最小値Eminを求める(ステップST371〜ST373)。その後、最小値Eminとなる奥行きを用いて補間画素を生成する(ステップST374)。ステップST221〜ST224の処理を、ブロック内画素の全体に対して行う。
以上は、本発明の画像情報圧縮方法を実施することができる画像情報符号化装置200と、本発明の画像情報圧縮方法によって符号化された画像情報を復号することができる画像情報復号装置300を例示して説明したが、本発明の画像情報圧縮方法を実施することができる画像情報符号化装置200及び画像情報復号装置300は、上記構成のものに限定されず、他の構成の装置にも本発明の画像情報圧縮方法を適用できる。次に、本発明の画像情報圧縮方法の実施形態及び本発明の画像情報圧縮方法を適用したFTVシステムを説明する。
<第1の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第1の実施形態の画像情報圧縮方法を説明する。第1の実施形態の画像情報圧縮方法は、後述する視点間予測符号化を適用したものであり、例えば、図5に示されるマルチカメラフレームメモリ213と、符号化処理部214の動き予測・補償部215によって実行される。
図13及び図14は、本発明の第1の実施形態の画像情報圧縮方法の説明図(その1及び2)である。図13及び図14において、tは、時間軸を示し、Sは、カメラの配列順又はカメラの配列方向の空間軸を示す。また、図13及び図14において、#1〜#7はカメラの配列順に付されたカメラ番号を示す。ただし、第1の実施形態においては、カメラの台数は、2台以上であれば、図示された台数以外の台数であってもよい。また、カメラの配置は、図2(a)〜(e)の中のいずれかの配置、又は、それ以外の配置であってもよい。また、図13及び図14において、Iは、フレーム内符号化フレーム(Iピクチャ)、Pは、フレーム間予測符号化フレーム(Pピクチャ)、Bは、フレーム間双方向予測符号化フレーム(Bピクチャ)を示す。図13及び図14において、空間軸S方向に並ぶフレームは、同時刻のフレームである。また、図13及び図14において、時間軸t方向に並ぶ所定数のフレームは、所定数のフレームから構成される画像グループであるGOPを構成している。例えば、カメラ#1については、時間軸t方向に並ぶI,B,B,P,B,B,P,…の所定数のピクチャによってGOPが構成されている。
第1の実施形態の画像情報圧縮方法においては、先ず、図13に示されるように、複数台のカメラによって取得された動画像の時間軸t方向に並ぶフレームの画像情報を、フレーム内符号化(イントラ符号化)及びフレーム間の時間的相関を利用したフレーム間予測符号化(インター符号化)によって符号化処理する。時間的相関を利用したフレーム間予測符号化は、例えば、H.264/AVC規格に準拠した符号化方式である。ただし、時間的相関を利用したフレーム間予測符号化は、上記方式に限定されず、他の符号化方式を採用してもよい。符号化処理の結果、例えば、図13に示されるような、動画像のフレーム、すなわち、符号化された画像が得られる。時間軸t方向に並ぶ所定数のフレームによって構成されるGOP内の時間的に最初のフレームの符号化処理は、フレーム内符号化によって行われており、最初のフレームはIピクチャである。また、同じGOP内の最初のフレーム以外のフレームの符号化処理は、時間的相関を利用したフレーム間予測符号化によって行われており、符号化された画像は、Pピクチャ又はBピクチャである。
次に、複数台のカメラによって取得された動画像のフレームであって、カメラの配列順に空間軸S方向に並ぶ同時刻のフレームの画像情報を、時間的相関を利用したフレーム間予測符号化と同じアルゴリズムによる同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する。この同時刻のフレーム間の相関を利用したフレーム間予測符号化は、空間軸S方向に並ぶ同時刻の所定数のフレームによって構成される画像グループ(図6に示されるG)単位で実行される。このように、同時刻のフレーム間の相関を利用したフレーム間予測符号化は、各視点(例えば、隣接する各カメラ位置)で取得したフレーム間の相関を利用したフレーム間予測符号化であることから、「視点間予測符号化」と称する。第1の実施形態においては、同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理されるフレームは、GOP内のフレームの最初のフレーム、すなわち、Iピクチャである。この視点間予測符号化の処理により、図14に示されるように、GOP内の最初のフレームがカメラの配列方向の空間軸S方向に、I,B,B,P,B,B,P,…ピクチャに符号化される。
以上に説明した視点間予測符号化を、複数台のカメラによって取得された各GOPの最初のフレームについて、実行する。このように、第1の実施形態の画像情報圧縮方法は、互いの位置関係が既知である複数台のカメラによって同時刻に撮影された画像間には、H.264/AVC規格等において用いられている時間的相関に類似した空間的相関が存在することに着目し、特に情報量の大きい、GOPの最初のフレーム(Iピクチャ)に、視点間予測符号化処理を施すことを提案するものである。このように、第1の実施形態の画像情報圧縮方法を用いれば、空間軸S方向に並ぶ、GOP内の最初のフレームに対して、時間軸t方向に並ぶフレームに対するフレーム間予測符号化と同じアルゴリズムに基づくフレーム間予測符号化、すなわち、視点間予測符号化を施すので、符号化圧縮効率を向上させることができる。
また、視点間予測符号化処理は、時間軸t方向に並ぶフレームに対するフレーム間予測符号化と同じアルゴリズムに基づく処理であるので、視点間予測符号化処理には既存の動き予測・補償部215を転用することも可能である。このため、第1の実施形態の画像情報圧縮方法を実施するために、大幅な構成(回路又はソフトウエア)の追加は必要なく、1の実施形態の画像情報圧縮方法はコスト面でも有利である。
<第2の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第2の実施形態の画像情報圧縮方法を説明する。第2の実施形態の画像情報圧縮方法は、後述する視点補間を利用するものであり、図5に示されるマルチフレームメモリ213と、符号化処理部214の動き予測・補償部215、補間画像生成・補償部216、及び選択部217によって実行される。
図15から図18までは、本発明の第2の実施形態の画像情報圧縮方法の説明図(その1〜4)である。図15から図18までにおいて、tは、時間軸を示し、Sは、カメラの配列順又はカメラの配列方向の空間軸である。また、図には、カメラ#1〜#5によって取得されたフレームのみを示すが、カメラの台数はフレーム補間を行うことが可能な台数、すなわち、3台(符号化対象のフレームを撮影するカメラが1台と、符号化対象のフレームに対応する補間画像を生成するために参照するフレームを撮影するカメラが2台の、合計3台)以上であれば、何台であってもよい。また、図において、I、P、Bはそれぞれ、Iピクチャ、Pピクチャ、Bピクチャである。また、図15から図17までにおいて、空間軸S方向に並ぶフレームは同時刻のフレームである。
第2の実施形態の画像情報圧縮方法においては、先ず、図15に示されるように、奇数番目のカメラ#1,#3,#5,…を選択し、選択されたカメラ#1,#3,#5,…によって取得された動画像の時間軸t方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理する。
次に、図16に示されるように、選択された奇数番目のカメラ#1,#3,#5,…によって取得された画像情報に基づいて、選択されたカメラ以外のカメラである偶数番目のカメラ#2,#4,…によって取得された動画像の時間軸t方向に並ぶフレームに対応する補間画像を生成する。すなわち、隣接するカメラの撮影画像に基づくフレーム補間を実行する。このように、隣接するカメラによって(すなわち、隣接する視点から)撮影された同時刻のフレームに基づいて、補間画像を生成する処理を「視点補間」と称し、視点補間によって生成された画像を「視点補間画像」と称する。なお、視点補間に用いる補間方法は、どのような補間方法であってもよく、本発明の画像情報圧縮方法を実施する装置に要求される性能又は装置使用者の要望などの各種要因に基づいて、既知のフレーム補間方法の中から選択すればよい。また、撮影対象の動きに特定の法則性があることがわかっている場合には、撮影対象の動きに適した補間方法を選択すればよい。また、図16に示される視点補間画像を生成する前又は後に、GOP内の最初のフレームに対して、上記第1の実施形態において説明した視点間予測符号化を実行して、最初のフレームの情報量を圧縮してもよい。
次に、図17に示されるように、選択されたカメラ以外の偶数番目のカメラ#2,#4,…によって取得された動画像の時間軸t方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理する。
この際、画像情報符号化装置200の選択部217は、選択されたカメラ以外の偶数番目のカメラ#2,#4,…によって取得された画像であって符号化対象のフレームと異なる時刻のフレームの画像を参照して符号化処理する場合と、符号化対象のフレームに対応する視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力する。この処理の説明図を図18に示す。図18において、FR(#1,n−1)は、カメラ#1によって取得されたt=n−1時のフレームであり、FR(#1,n)は、カメラ#1によって取得されたt=n時のフレームであり、FR(#1,n+1)は、カメラ#1によって取得されたt=n+1時のフレームである。また、FR(#2,n−1)は、カメラ#2によって取得されたt=n−1時のフレームであり、FR(#2,n)は、カメラ#2によって取得されたt=n時のフレームであり、FR(#2,n+1)は、カメラ#2によって取得されたt=n+1時のフレームである。さらに、FR(#3,n−1)は、カメラ#3によって取得されたt=n−1時のフレームであり、FR(#3,n)は、カメラ#3によって取得されたt=n時のフレームであり、FR(#3,n+1)は、カメラ#3によって取得されたt=n+1時のフレームである。また、FRint(#2,n)は、フレームFR(#2,n)の隣接フレームFR(#1,n)とFR(#3,n)に基づいて生成された、フレームFR(#2,n)に対応する視点補間画像である。
なお、図18においては、符号化対象のフレームFR(#2,n)が、異なる時刻のフレームとして、フレームFR(#2,n−1)とFR(#2,n+1)を参照(太い実線で描かれている。)しているが、参照するフレームはフレームFR(#2,n−1)とFR(#2,n+1)に限らない。符号化対象のフレームFR(#2,n)が、フレームFR(#2,n−1)若しくはFR(#2,n+1)の一方を参照する場合、又は、図示されたフレーム以外の異なる時間のフレームを参照する場合もある。そして、図5に示される選択部217は、異なる時間のフレームを参照してフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理する場合(例えば、H.264/AVCによる処理を実行する場合)と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint(#2,n)を参照してフレームFR(#2,n)の符号化処理をする場合(例えば、視点補間画像をフレームFR(#2,n)の符号化された画像情報とする場合)の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択して出力する。
このような処理を行う理由は、符号化対象のフレームFR(#2,n)がどの画像に似ているかという問題を考えた場合に、同じカメラ#2で撮影した異なる時間のフレームが、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint(#2,n)よりも似ている場合と、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint(#2,n)が同じカメラ#2で撮影した異なる時間のフレームよりも似ている場合とがあり、いずれの場合であるかは、撮影対象の瞬間の動きによって異なるからである。第2の実施形態の画像情報圧縮方法は、このように、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint(#2,n)が、同じカメラ#2で撮影した異なる時間のフレームよりも符号化対象のフレームFR(#2,n)に似ている場合があるという点に着目し、視点補間画像FRint(#2,n)をも参照の対象と、複数の圧縮方法の中の最も符号化圧縮効率の高い方法を選ぶことによって、符号化圧縮効率を向上させるものである。
以上に説明したように、第2の実施形態の画像情報圧縮方法によれば、選択されたカメラ以外のカメラ#2,#4,…によって取得された画像情報であって符号化対象のフレームFR(#2,n)と異なる時刻のフレームの画像情報を参照して符号化処理する場合と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint(#2,n)を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するので、出力される画像情報の符号化圧縮効率を向上させることができる。
なお、上記説明においては、選択されたカメラが奇数番目(#1、#3、#5、#7、…)のカメラであり、選択されたカメラ以外のカメラが偶数番目(#2、#4、#6、…)のカメラである場合を説明したが、選択されたカメラが偶数番目のカメラであり、選択されたカメラ以外のカメラが奇数番目のカメラであってもよい。また、図18には、白抜きの矢印で示されるように内挿補間によって視点補間画像を生成する場合を示しているが、外挿補間によって視点補間画像を生成してもよい。
また、選択されたカメラは、偶数番目又は奇数番目に限定されず、例えば、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラ(具体的には、#1、#4、#7、…)とし、残りのカメラを選択されたカメラ以外のカメラ(具体的には、#2、#3、#5、#6、…)とする等の、他の方法を採用してもよい。例えば、選択されたカメラの一部のグループは、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)とし、残りのグループの部分では、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとすることもできる。また、更に他の変形例としては、選択されたカメラの一部のグループは、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとし、残りのグループの部分では、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)としてもよい。すなわち、偶数番目又は奇数番目のカメラを選択されたカメラとする方法と、所定台数毎の1台を選択されたカメラとする方法とを組み合わせた方法を採用することもできる。
<第3の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第3の実施形態の画像情報圧縮方法を説明する。第3の実施形態の画像情報圧縮方法は、視点補間を利用するものであり、図5に示されるマルチフレームメモリ213と、符号化処理部214の動き予測・補償部215、補間画像生成・補償部216、及び選択部217によって実行される。第3の実施形態の画像情報圧縮方法は、上記第2の実施形態の画像情報圧縮方法の改良型であり、複数の視点補間画像を参照する点が上記第2の実施形態の画像情報圧縮方法と相違する。
図19は、本発明の第3の実施形態の画像情報圧縮方法の説明図である。図19において、FR(#1,n−1)は、カメラ#1によって取得されたt=n−1時のフレームであり、FR(#1,n)は、カメラ#1によって取得されたt=n時のフレームであり、FR(#1,n+1)は、カメラ#1によって取得されたt=n+1時のフレームである。また、FR(#2,n−1)は、カメラ#2によって取得されたt=n−1時のフレームであり、FR(#2,n)は、カメラ#2によって取得されたt=n時のフレームであり、FR(#2,n+1)は、カメラ#2によって取得されたt=n+1時のフレームである。さらに、FR(#3,n−1)は、カメラ#3によって取得されたt=n−1時のフレームであり、FR(#3,n)は、カメラ#3によって取得されたt=n時のフレームであり、FR(#3,n+1)は、カメラ#3によって取得されたt=n+1時のフレームである。また、図19において、FRint1(#2,n)は、第1の補間方法を用いて生成された、フレームFR(#2,n)に対応する視点補間画像(図では、補間画像1とする。)であり、FRint2(#2,n)は、第1の補間方法と異なる第2の補間方法を用いて生成された、フレームFR(#2,n)に対応する視点補間画像(図では、補間画像2とする。)である。図19には、2種類の視点補間画像FRint1(#2,n)とFRint2(#2,n)を示しているが、3種類以上の補間方法を用いることによって3種類以上の補間画像を生成してもよい。なお、第1の補間方法、第2の補間方法は、特定の方法に限定されるものはなく、装置に要求される性能、装置使用者が要求する性能などの各種要因に基づいて決定すればよく、既知のフレーム補間方法の中から自由に選択すればよい。また、撮影対象の動きに特定の法則性があることがわかっている場合には、撮影対象の動きに適した補間方法を選択すればよい。
なお、図19においては、符号化対象のフレームFR(#2,n)が、異なる時刻のフレームとして、フレームFR(#2,n−1)とFR(#2,n+1)を参照(太い実線で描かれている。)する場合を示しているが、参照するフレームはフレームFR(#2,n−1)とFR(#2,n+1)に限らない。符号化対象のフレームFR(#2,n)が、フレームFR(#2,n−1)若しくはFR(#2,n+1)の一方を参照する場合、又は、図示されたフレーム以外の異なる時間のフレームを参照する場合もある。そして、図5に示される選択部217は、異なる時間のフレームを参照してフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理する場合(例えば、H.264/AVCによる処理を実行する場合)と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint1(#2,n)を参照してフレームFR(#2,n)の符号化処理をする場合(例えば、視点補間画像FRint1(#2,n)をフレームFR(#2,n)の符号化された画像情報とする場合)と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint2(#2,n)を参照してフレームFR(#2,n)の符号化処理をする場合(例えば、視点補間画像FRint1(#2,n)をフレームFR(#2,n)の符号化された画像情報とする場合)の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択して出力する。
このような処理を行う理由は、符号化対象のフレームFR(#2,n)がどの画像に似ているかという問題を考えた場合に、同じカメラ#2で撮影した異なる時間のフレームが、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint1(#2,n)及びFRint2(#2,n)よりも似ている場合と、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint1(#2,n)が同じカメラ#2で撮影した異なる時間のフレーム及び視点補間画像FRint2(#2,n)よりも似ている場合と、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint2(#2,n)が同じカメラ#2で撮影した異なる時間のフレーム及び視点補間画像FRint1(#2,n)よりも似ている場合とがあり、いずれの場合であるかは、撮影対象の瞬間の動きによって異なるからである。第2の実施形態の画像情報圧縮方法は、このように、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像FRint1(#2,n)又はFRint2(#2,n)が、同じカメラ#2で撮影した異なる時間のフレームよりも符号化対象のフレームFR(#2,n)に似ている場合があるという点に着目し、視点補間画像FRint1(#2,n)及びFRint2(#2,n)をも参照の対象とすることによって、符号化圧縮効率を向上させるものである。
以上説明したように、第3の実施形態の画像情報圧縮方法によれば、選択されたカメラ以外のカメラ#2,#4,…によって取得された画像情報であって符号化対象のフレームFR(#2,n)と異なる時刻のフレームの画像情報を参照して符号化処理する場合と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint1(#2,n)を参照して符号化処理する場合と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint2(#2,n)を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するので、出力される画像情報の符号化圧縮効率を向上させることができる。
なお、上記説明においては、選択されたカメラが奇数番目のカメラであり、それ以外のカメラが偶数番目のカメラである場合を説明したが、選択されたカメラが偶数番目のカメラであり、それ以外のカメラが奇数番目のカメラとしてもよい。また、図19には、白抜きの矢印で示されるように内挿補間によって視点補間画像を生成する場合を示しているが、外挿補間によって視点補間画像を生成してもよい。
また、選択されたカメラは、偶数番目又は奇数番目に限定されず、例えば、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとする等の、他の方法を採用してもよい。例えば、選択されたカメラの一部のグループは、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)とし、残りのグループの部分では、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとすることもできる。また、更に他の変形例としては、選択されたカメラの一部のグループは、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとし、残りのグループの部分では、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)としてもよい。
なお、第3の実施形態において、上記以外の点は、上記第2の実施形態の場合と同じである。
<第4の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第4の実施形態の画像情報圧縮方法を説明する。第4の実施形態の画像情報圧縮方法は、視点補間を利用するものであり、図5に示されるマルチフレームメモリ213と、符号化処理部214の動き予測・補償部215、補間画像生成・補償部216、及び選択部217によって実行される。第4の実施形態の画像情報圧縮方法は、上記第2の実施形態の画像情報圧縮方法の改良型であり、視点補間画像に加えて同時刻の隣接画像をも参照する点が上記第2の実施形態の画像情報圧縮方法と相違する。
図20は、本発明の第4の実施形態の画像情報圧縮方法の説明図である。図20において、FR(#1,n−1)は、カメラ#1によって取得されたt=n−1時のフレームであり、FR(#1,n)は、カメラ#1によって取得されたt=n時のフレームであり、FR(#1,n+1)は、カメラ#1によって取得されたt=n+1時のフレームである。また、FR(#2,n−1)は、カメラ#2によって取得されたt=n−1時のフレームであり、FR(#2,n)は、カメラ#2によって取得されたt=n時のフレームであり、FR(#2,n+1)は、カメラ#2によって取得されたt=n+1時のフレームである。さらに、FR(#3,n−1)は、カメラ#3によって取得されたt=n−1時のフレームであり、FR(#3,n)は、カメラ#3によって取得されたt=n時のフレームであり、FR(#3,n+1)は、カメラ#3によって取得されたt=n+1時のフレームである。図20において、FRint(#2,n)は、符号化対象のフレームFR(#2,n)に対応する視点補間画像である。
なお、図20においては、符号化対象のフレームFR(#2,n)が、異なる時刻のフレームとして、フレームFR(#2,n−1)とFR(#2,n+1)を参照(図20において、太い実線で描かれている。)しているが、参照するフレームはフレームFR(#2,n−1)とFR(#2,n+1)に限らない。符号化対象のフレームFR(#2,n)が、フレームFR(#2,n−1)又はFR(#2,n+1)の一方を参照する場合、又は、図示されたフレーム以外の異なる時間のフレームを参照する場合もある。
そして、図5に示される選択部217は、異なる時間のフレームを参照してフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理する場合(例えば、H.264/AVCによる処理を実行する場合)と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint(#2,n)を参照してフレームFR(#2,n)の符号化処理をする場合と、符号化対象のフレームFR(#2,n)に隣接するフレームFR(#1,n)又はFR(#3,n)を参照してフレームFR(#2,n)の符号化処理をする場合(例えば、H.264/AVCによる処理と同じアルゴリズムを空間軸S方向に適用する場合)の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択して出力する。
このような処理を行う理由は、符号化対象のフレームがどの画像に似ているかという問題を考えた場合に、同じカメラ#2で撮影した異なる時間のフレームが最もよく似ている場合と、隣接カメラ#1、#3で撮影した同時刻フレームに基づく視点補間画像が最もよく似ている場合と、隣接カメラ#1、#3で撮影した同時刻フレームが最もよく似ている場合とがあり、いずれの場合であるかは、撮影対象の瞬間の動きによって異なるからである。第4の実施形態の画像情報圧縮方法は、この点に着目して、同じカメラで撮影した異なる時間のフレーム、隣接カメラで撮影した同時刻フレームに基づく視点補間画像、隣接カメラで撮影した同時刻フレームのうちの、最も似ている画像を用いて、符号化対象フレームの符号化を行っている。
以上説明したように、第4の実施形態の画像情報圧縮方法によれば、選択されたカメラ以外のカメラ#2,#4,…によって取得された画像情報であって符号化対象のフレームFR(#2,n)と異なる時刻のフレームの画像情報を参照して符号化処理する場合と、符号化対象のフレームFR(#2,n)に対応する視点補間画像FRint(#2,n)を参照して符号化処理する場合と、符号化対象のフレームFR(#2,n)に隣接するフレームFR(#1,n)及びFR(#3,n)を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するので、出力される画像情報の符号化圧縮効率を向上させることができる。
なお、上記説明においては、選択されたカメラが奇数番目のカメラであり、それ以外のカメラが偶数番目のカメラである場合を説明したが、選択されたカメラが偶数番目のカメラであり、それ以外のカメラが奇数番目のカメラとしてもよい。また、図20には、白抜きの矢印で示されるように内挿補間によって視点補間画像を生成する場合を示しているが、外挿補間によって視点補間画像を生成してもよい。
また、選択されたカメラは、偶数番目又は奇数番目に限定されず、例えば、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとする等の、他の方法を採用してもよい。例えば、選択されたカメラの一部のグループは、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)とし、残りのグループの部分では、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとすることもできる。また、更に他の変形例としては、選択されたカメラの一部のグループは、カメラ番号が#3n−2で示される3台に1台のカメラを選択されたカメラとし、残りのカメラを選択されたカメラ以外のカメラとし、残りのグループの部分では、偶数番目(#2、#4、#6、…)又は奇数番目(#1、#3、#5、…)としてもよい。
さらに、第4の実施形態に、第3の実施形態を組み合わせて、視点補間画像を複数種類生成してもよい。
なお、第4の実施形態において、上記以外の点は、上記第2の実施形態の場合と同じである。
<第5の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第5の実施形態の画像情報圧縮方法を説明する。第5の実施形態の画像情報圧縮方法は、第1の実施形態の画像情報圧縮方法に改良を加えたものである。第5の実施形態の画像情報圧縮方法は、GOP内の時間的に最初のフレームに対して行う視点間予測符号化に際して、補間画像をも参照する点が、第1の実施形態の画像情報圧縮方法と相違する。第5の実施形態の画像情報圧縮方法は、図5に示されるマルチフレームメモリ213と、符号化処理部214の動き予測・補償部215、補間画像生成・補償部216、及び選択部217によって実行される。
図21から図26までは、本発明の第5の実施形態の画像情報圧縮方法の説明図である。図21から図26までにおいて、tは、時間軸方向を示し、Sは、カメラの配列順又はカメラの配列方向に対応する空間軸である。また、図には、カメラ#1〜#9について示すが、カメラの数は9台に限定されない。また、図において、Iは、Iピクチャ、Pは、Pピクチャ、Bは、Bピクチャを示す。また、Pは、補間画像をも参照したPピクチャ)、Bは、補間画像をも参照したBピクチャを示す。
第5の実施形態の画像情報圧縮方法においては、先ず、図21に示されるように、複数台のカメラによって取得された動画像の時間軸t方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化によって符号化処理(例えば、H.264/AVCによる処理)する。その結果、例えば、図21に示されるように、動画像のフレームの画像情報が得られる。時間軸t方向に並ぶ所定数のフレームによって構成されるGOP内の時間的に最初のフレームの符号化処理は、フレーム内符号化によって行われており、最初のフレームはIピクチャである。また、同じGOP内の最初のフレーム以外のフレームの符号化処理は、時間的相関を利用したフレーム間予測符号化によって行われる。
次に、図22に示されるように、GOP内の最初のフレームについて、空間軸S方向に第1の実施形態の画像情報圧縮方法で説明した視点間予測符号化処理、すなわち、カメラの配列順に並ぶ同時刻のフレームの画像情報を、同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する。図21及び図22の処理は、上記第1の実施形態の場合と同じである。
次に、図23に示されるように、GOP内の最初のフレームから、IピクチャであるフレームFR(#1,1)を第1の基準フレームとして選択し、PピクチャであるフレームFR(#3,1)を第2の基準フレームとして選択する。フレームFR(#1,1)とフレームFR(#3,1)に基づく補間(外挿)によって、視点補間画像FRintを生成する。次に、カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理(第1の実施形態の視点間予測符号化)する場合と、符号化対象のフレームに対応する視点補間画像FRintを参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を、符号化対象のフレーム(例えば、FR(#5,1))の符号化された画像情報、例えば、Piピクチャとする。次に、フレームFR(#3,1)の画像と、生成されたPiピクチャに基づく外挿補間によって、視点補間画像FRintを順次生成し、同様の処理を繰り返す。ここで、視点補間画像は、図24に示されるように、異なる補間方法によってフレームFRint1(#n+4,1)及びFRint2(#n+4,1)のように複数種類作成してもよい。さらに、図24に示されるように、GOP内の最初のフレームにおいて、Iピクチャ、Pピクチャ、Piピクチャが生成された後に、補間フレームFRint1(#n+1,1)及びFRint2(#n+1,1)、又は、補間フレームFRint1(#n+3,1)及びFRint2(#n+3,1)を作成する。次に、カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理(第1の実施形態の視点間予測符号化)する場合と、符号化対象のフレームに対応する視点補間画像FRint1(#n+1,1)若しくはFRint2(#n+1,1)、又は、補間フレームFRint1(#n+3,1)若しくはFRint2(#n+3,1)FRintを参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を、符号化対象のフレーム(例えば、FR(#4,1))の符号化された画像情報、例えば、Biピクチャとする。
次に、カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理する場合と、符号化対象のフレームに対応する視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力する。その結果、図25に示されるように、t=1時の最初のフレームが、符号化効率の最も高い方法で符号化される。
次に、図6に示されるように、次のGOPに対して同様の処理を繰り返す。
このような処理を行う理由は、GOP内の最初のフレームおいて、符号化対象のフレームがどの画像に似ているかという問題を考えた場合に、隣接カメラで撮影した同時刻フレームに基づいて第1の実施形態の視点間予測符号化を実施することによって符号化された画像が最もよく似ている場合と、隣接カメラで撮影した基準フレームに基づいて作成された補間画像が最もよく似ている場合とがあり、いずれの場合であるかは、撮影対象の瞬間の動きによって異なるからである。第5の実施形態の画像情報圧縮方法は、この点に着目して、隣接カメラで撮影した同時刻フレームに基づいて第1の実施形態の視点間予測符号化を実施することによって符号化された画像が最もよく似ている場合と、隣接カメラで撮影した基準フレームに基づいて作成された補間画像が最もよく似ている場合のうちの、最も似ている画像を用いて、符号化対象フレームの符号化を行っている。
以上説明したように、第5の実施形態の画像情報圧縮方法によれば、第1の実施形態の視点間予測符号化を実施することによって符号化された画像が最もよく似ている場合と、隣接カメラで撮影した基準フレームに基づいて作成された補間画像が最もよく似ている場合のうちの、最も似ている画像を用いて、符号化対象フレームの符号化を行っているので、出力される画像情報の符号化圧縮効率を向上させることができる。
なお、第5の実施形態において、上記以外の点は、上記第1の実施形態の場合と同じである。
<第6の実施形態の画像情報圧縮方法の説明>
以下に、本発明の第6の実施形態の画像情報圧縮方法を説明する。図27は、本発明の第6の実施形態の画像情報圧縮方法において参照する光線空間の水平断面の一例を示す図である。また、図28は、本発明の第6の実施形態の画像情報圧縮方法における動きベクトルの予測方法の説明図である。また、図29は、本発明の第6の実施形態の比較例としてのH.264/AVCにおける動きベクトルの予測方法の説明図である。
第6の実施形態の画像情報圧縮方法は、第1の実施形態の画像情報圧縮方法に改良を加えたものである。第6の実施形態の画像情報圧縮方法は、複数台のカメラが互いに平行に1列に直線配置されていることを前提とする。第6の実施形態の画像情報圧縮方法は、カメラの配列順に並ぶ同時刻のフレームの画像情報を、同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理するステップ(第1の実施形態における視点間予測符号化のステップ)における動き補償予測符号化において用いられる動きベクトルを、光線空間を水平方向に切断したときの水平断面画像(EPI:Epipolar Plane Image)に現れる直線に基づいて求めることを特徴としている。第6の実施形態の画像情報圧縮方法は、図5に示されるマルチフレームメモリ213と、符号化処理部214の動き予測・補償部215によって実行される。
H.264/AVCによる画像の符号化では、図29に示されるように、カメラによって取得された動画像のフレームFR内の該当ブロックBLenに隣接する符号化済の隣接ブロックBLnei1,BLnei2,BLnei3から動きベクトルを予測している。この方法は、該当ブロックBLenと参照ブロックBLnei1,BLnei2,BLnei3とが大きく異なる場合に、多くのビットを発生させてしまう欠点がある。
そこで、第6の実施形態の画像情報圧縮方法においては、複数台のカメラが互いに平行に1列に直線配置されており、複数台のカメラによって取得された動画像の同時刻のフレームを、複数台のカメラの配列順に互いに平行に立てて並べることによって光線空間を構成した場合には、光線空間における水平断面構造が直線構造の集まりで表現される性質を利用する。この性質は、フレームの動きが、連続して起こる、且つ、動きが重複する領域(図27において直線が交差する領域)では、直線の傾きの大きい直線で表現されている点を優先する。傾きの大きい直線は、3次元空間中の手前の点に相当する。
ここで、複数台のカメラの配列順に互いに平行に立てて並べることによって光線空間を構成した場合には、光線空間における水平断面構造が直線構造の集まりで表現される性質を、図3(a)及び(b)と図30(a)及び(b)を参考にしながら説明する。縦方向の視差(φ)を無視して、yが一定である断面を考えて、図30(a)に示されるように、(X,Z)を実空間における一点Pの座標とし、x,z,θを光線が基準面106を通過する位置及び角度とする。このとき、X=x+Z・tanθの関係が成り立つ。すなわち、実空間で一点を通る光線群は光線空間の水平断面(y=一定の断面)上では直線に並ぶという特徴を持っている。図30(b)は、実空間上の点xを光線空間の水平断面上に示している。
このように、第6の実施形態の画像情報圧縮方法においては、図29に示されるように、隣接ブロックの動きベクトルと用いないので、適切な動きベクトルを予測できる。第6の実施形態によれば、適切な動きベクトルを予測できるので、画像圧縮効率を向上させることができる。
なお、以上の説明においては、第6の実施形態の画像情報圧縮方法を第1の実施形態に適用した場合を説明したが、第6の実施形態の画像情報圧縮方法を、第2〜第5の実施形態に適用することもできる。
<第7の実施形態のFTVシステムの説明>
図30は、本発明の第7の実施形態のFTVシステムの基本的な構成を概念的に示す図である。図30において、図1に示される構成と同一又は対応する構成には、同じ符号を付す。
第7の実施形態のFTVシステムは、送信側の装置250と、受信側の装置350とが離れた場所にあり、送信側の装置250から受信側の装置350まで、例えば、インターネットなどを用いて、FTV信号を伝送するシステムである。
図30に示されるように、送信側の装置250は、複数台のカメラ(図30には、符号102〜102の5台を示すが、実際にはより多くのカメラが用いられる。)と、複数台のカメラによって取得された映像情報を圧縮符号化する、上記実施の形態1〜6において説明された構成及び機能を有する画像情報符号化装置200とを備えている。画像情報符号化装置200で圧縮符号化された画像情報は、図示しない通信装置によって受信側の装置350に送られる。
また、受信側の装置350は、図示しない受信装置と、上記実施の形態1において説明された画像情報復号装置300と、画像情報復号装置300からの出力信号に基づいて光線空間103を形成し、ユーザーインターフェース104から入力された視点位置に応じて光線空間103から断面を抽出して表示する。
図3(a),(b)及び図4(a)〜(c)に示されるように、例えば、光線空間法を用いることにより、光線空間103から任意の面を切り取ることによって、実空間における水平方向の任意の視点から見た画像を生成することが可能である。例えば、図4(a)に示される光線空間103から断面103aを切り出すと、図4(b)に示されるような画像が生成され、図4(a)に示される光線空間103から断面103bを切り出すと、図4(c)に示されるような画像が生成される。
以上説明したように、第7の実施形態のFTVシステムにおいては、上記第1〜第6の実施形態で説明された画像情報圧縮方法を用いているので、FTVシステムにおけるFTV信号の符号化圧縮効率を向上させることができる。

Claims (20)

  1. 3台以上のカメラの中から選択された2台以上のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化を用いて符号化処理するステップと、
    前記選択されたカメラによって取得された画像情報に基づいて、前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームに対応する第1の視点補間画像を生成するステップと、
    前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理するステップと
    を有し、
    前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理する前記ステップが、前記選択されたカメラ以外のカメラによって取得された画像情報であって符号化対象のフレームと異なる時刻のフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記第1の視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
    ことを特徴とする画像情報圧縮方法。
  2. 前記第1の視点補間画像を生成する前記ステップにおいて、前記第1の視点補間画像が、1つのフレームに対して異なる補間方法を用いて複数種類生成され、
    前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理する前記ステップが、前記選択されたカメラ以外のカメラによって取得された画像情報であって符号化対象のフレームと異なる時刻のフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する複数種類の前記第1の視点補間画像のいずれかを参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
    ことを特徴とする請求項1に記載の画像情報圧縮方法。
  3. 前記選択されたカメラ以外のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を符号化処理する前記ステップが、前記選択されたカメラ以外のカメラによって取得された画像情報であって符号化対象のフレームと異なる時刻のフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記第1の視点補間画像を参照して符号化処理する場合と、前記選択されたカメラによって取得された画像情報であって符号化対象のフレームと同時刻のフレームの画像情報を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
    ことを特徴とする請求項1に記載の画像情報圧縮方法。
  4. 前記カメラによって取得された動画像のフレームであって、前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記時間的相関を利用したフレーム間予測符号化と同じアルゴリズムによる同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理するステップをさらに有する
    ことを特徴とする請求項1に記載の画像情報圧縮方法。
  5. 前記時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化によって符号化処理する前記ステップにおいて、
    前記時間軸方向に並ぶ所定数のフレームによって構成される画像グループ内の時間的に最初のフレームの前記符号化処理が、フレーム内符号化によって行われ、
    前記画像グループ内の前記最初のフレーム以外のフレームの前記符号化処理が、時間的相関を利用したフレーム間予測符号化によって行われる
    ことを特徴とする請求項4に記載の画像情報圧縮方法。
  6. 前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップにおいて、
    前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化されるフレームが、前記カメラの配列順に並ぶ複数の前記最初のフレームである
    ことを特徴とする請求項4に記載の画像情報圧縮方法。
  7. 前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップが、
    前記カメラの配列順に並ぶ前記同時刻のフレームの中から2つ以上の基準フレームを選択するステップと、
    前記基準フレーム又は前記基準フレームに基づいて生成されたフレームに基づいて、前記カメラの配列順に並ぶ同時刻のフレームの中のいずれかに対応する第2の視点補間画像を生成するステップと、
    前記カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記第2の視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップとを含む
    ことを特徴とする請求項6に記載の画像情報圧縮方法。
  8. 前記第2の視点補間画像を生成する前記ステップにおいて、前記第2の視点補間画像が、1つのフレームに対して異なる補間方法を用いて複数種類生成され、
    前記カメラの配列順に並ぶ同時刻のフレームの中の前記基準フレーム以外のフレームの画像情報を符号化処理する前記ステップが、前記カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記複数種類の第2の視点補間画像のいずれかを参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
    ことを特徴とする請求項7に記載の画像情報圧縮方法。
  9. 前記複数台のカメラが互いに平行に1列に直線配置されており、
    前記複数台のカメラによって取得された動画像の同時刻のフレームを、前記複数台のカメラの配列順に互いに平行に立てて並べることによって光線空間を構成し、
    前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップが、前記フレームの一部によって構成されるブロックの動きベクトルを用いる動き補償予測符号化によって実行され、
    前記動きベクトルを、前記光線空間を水平方向に切断したときの水平断面画像に現れる直線に基づいて求める
    ことを特徴とする請求項4に記載の画像情報圧縮方法。
  10. 複数台のカメラによって取得された動画像の時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化によって符号化処理するステップと、
    前記複数台のカメラによって取得された動画像のフレームであって、前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記時間的相関を利用したフレーム間予測符号化と同じアルゴリズムによる同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理するステップと
    を有することを特徴とする画像情報圧縮方法。
  11. 前記時間軸方向に並ぶフレームの画像情報を、フレーム内符号化及びフレーム間の時間的相関を利用したフレーム間予測符号化によって符号化処理する前記ステップにおいて、
    時間軸方向に並ぶ所定数のフレームによって構成される画像グループ内の時間的に最初のフレームの前記符号化処理が、フレーム内符号化によって行われ、
    前記画像グループ内の前記最初のフレーム以外のフレームの前記符号化処理が、時間的相関を利用したフレーム間予測符号化によって行われる
    ことを特徴とする請求項10に記載の画像情報圧縮方法。
  12. 前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップにおいて、
    前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理されるフレームが、前記カメラの配列順に並ぶ複数の前記最初のフレームである
    ことを特徴とする請求項10に記載の画像情報圧縮方法。
  13. 前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップが、
    前記カメラの配列順に並ぶ前記同時刻のフレームの中から2つ以上の基準フレームを選択するステップと、
    前記基準フレーム又は前記基準フレームに基づいて生成されたフレームに基づいて、前記カメラの配列順に並ぶ同時刻のフレームの中のいずれかに対応する視点補間画像を生成するステップと、
    前記カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記視点補間画像を参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップとを含む
    ことを特徴とする請求項12に記載の画像情報圧縮方法。
  14. 前記視点補間画像を生成する前記ステップにおいて、前記視点補間画像が、1つのフレームに対して異なる補間方法を用いて複数種類生成され、
    前記カメラの配列順に並ぶ同時刻のフレームの中の前記基準フレーム以外のフレームの画像情報を符号化処理する前記ステップが、前記カメラの配列順に並ぶ同時刻のフレームの中の符号化対象のフレームと異なるフレームの画像情報を参照して符号化処理する場合と、前記符号化対象のフレームに対応する前記複数種類の視点補間画像のいずれかを参照して符号化処理する場合の中で、最も符号化圧縮効率が高くなる場合の符号化処理結果を選択的に出力するステップを含む
    ことを特徴とする請求項13に記載の画像情報圧縮方法。
  15. 前記複数台のカメラが互いに平行に1列に直線配置されており、
    前記複数台のカメラによって取得された動画像の同時刻のフレームを、前記複数台のカメラの配列順に互いに平行に立てて並べることによって光線空間を構成し、
    前記カメラの配列順に並ぶ同時刻のフレームの画像情報を、前記同時刻のフレーム間の相関を利用したフレーム間予測符号化によって符号化処理する前記ステップが、前記フレームの一部によって構成されるブロックの動きベクトルを用いる動き補償予測符号化によって実行され、
    前記動きベクトルを、前記光線空間を水平方向に切断したときの水平断面画像に現れる直線に基づいて求める
    ことを特徴とする請求項10に記載の画像情報圧縮方法。
  16. 請求項1に記載の画像情報圧縮方法を実行する画像情報符号化装置と、
    前記画像情報符号化装置に映像信号を供給する複数台のカメラと、
    前記画像情報符号化装置から出力された符号化情報を復号する画像情報復号装置と、
    見る者の視点位置を入力するユーザーインターフェースと、
    前記複数台のカメラによって撮影された同時刻の画像から、前記ユーザーインターフェースによって入力された視点から見た画像を抽出する画像情報抽出部と
    を有することを特徴とする自由視点テレビシステム。
  17. 前記画像情報抽出部が、前記カメラによって撮影された同時刻の画像であって、前記画像情報復号装置によって復号された画像情報に基づく画像を、前記カメラの配列順に立てて互いに平行に並べて構成された光線空間を、前記ユーザーインターフェースによって入力された視点位置に基づいた面で切断することによって前記視点位置から見た画像情報を抽出することを特徴とする請求項16に記載の自由視点テレビシステム。
  18. 前記カメラが、直線上に互いに平行な方向を向けて並ぶ直線配置、円周上に円周の内側を向けて並ぶ円周配置、平面上に互いに平行な方向を向けて並ぶ平面配置、球面上に球面の内側を向けて並ぶ球面配置、及び円筒上に円筒の内側を向けて並ぶ円筒配置のいずれかの配置で設置されていることを特徴とする請求項16に記載の自由視点テレビシステム。
  19. 前記カメラが、直線上に互いに平行な方向を向けて並ぶ直線配置で設置されており、
    前記光線空間を切断する前記面が、前記光線空間内の垂直平面である
    ことを特徴とする請求項17に記載の自由視点テレビシステム。
  20. 前記カメラが、円周上に円周の内側を向けて並ぶ円周配置で設置されており、
    前記光線空間を切断する前記面が、前記光線空間内の水平平面で正弦波曲線となる面である
    ことを特徴とする請求項17に記載の自由視点テレビシステム。
JP2007526814A 2005-07-26 2006-01-12 画像情報圧縮方法及び自由視点テレビシステム Active JP4825983B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007526814A JP4825983B2 (ja) 2005-07-26 2006-01-12 画像情報圧縮方法及び自由視点テレビシステム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005215928 2005-07-26
JP2005215928 2005-07-26
PCT/JP2006/300257 WO2007013194A1 (ja) 2005-07-26 2006-01-12 画像情報圧縮方法及び自由視点テレビシステム
JP2007526814A JP4825983B2 (ja) 2005-07-26 2006-01-12 画像情報圧縮方法及び自由視点テレビシステム

Publications (2)

Publication Number Publication Date
JPWO2007013194A1 true JPWO2007013194A1 (ja) 2009-02-05
JP4825983B2 JP4825983B2 (ja) 2011-11-30

Family

ID=37683102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007526814A Active JP4825983B2 (ja) 2005-07-26 2006-01-12 画像情報圧縮方法及び自由視点テレビシステム

Country Status (2)

Country Link
JP (1) JP4825983B2 (ja)
WO (1) WO2007013194A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609906B2 (en) * 2006-04-04 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring and displaying 3D light fields
US9479768B2 (en) * 2009-06-09 2016-10-25 Bartholomew Garibaldi Yukich Systems and methods for creating three-dimensional image media
JP5243359B2 (ja) * 2009-07-02 2013-07-24 日本放送協会 立体画像生成システムおよびプログラム
JP2011087194A (ja) * 2009-10-16 2011-04-28 Sony Corp 画像処理装置および画像処理方法
WO2013038679A1 (ja) * 2011-09-13 2013-03-21 パナソニック株式会社 符号化装置、復号装置、再生装置、符号化方法、及び復号方法
JP5926451B2 (ja) * 2013-04-11 2016-05-25 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
US9392248B2 (en) 2013-06-11 2016-07-12 Google Inc. Dynamic POV composite 3D video system
EP3142365A1 (en) * 2015-09-14 2017-03-15 Thomson Licensing Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product
RU2018113737A (ru) * 2015-09-17 2019-10-17 Томсон Лайсенсинг Способ кодирования содержимого светового поля
EP3145191A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Method for encoding a light field content

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698312A (ja) * 1992-09-16 1994-04-08 Fujitsu Ltd 画像高能率符号化方式
JP3426668B2 (ja) * 1993-11-19 2003-07-14 三洋電機株式会社 動画像符号化方法
JPH07154799A (ja) * 1993-11-26 1995-06-16 Sanyo Electric Co Ltd 動画像符号化方法
JPH09245195A (ja) * 1996-03-08 1997-09-19 Canon Inc 画像処理方法およびその装置
JPH09261653A (ja) * 1996-03-18 1997-10-03 Sharp Corp 多視点画像符号化装置
JP3477023B2 (ja) * 1996-04-05 2003-12-10 松下電器産業株式会社 多視点画像伝送方法および多視点画像表示方法
JPH10224795A (ja) * 1997-01-31 1998-08-21 Nippon Telegr & Teleph Corp <Ntt> 動画像符号化方法、復号方法、符号化器および復号器
JP2002016945A (ja) * 2000-06-29 2002-01-18 Toppan Printing Co Ltd 画像軽量化手法を用いた三次元画像表現システム

Also Published As

Publication number Publication date
WO2007013194A1 (ja) 2007-02-01
JP4825983B2 (ja) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4825983B2 (ja) 画像情報圧縮方法及び自由視点テレビシステム
JP6687015B2 (ja) 画像処理装置および画像処理方法
US10528004B2 (en) Methods and apparatus for full parallax light field display systems
JP6688469B2 (ja) 画像処理装置および画像処理方法
KR100667830B1 (ko) 다시점 동영상을 부호화하는 방법 및 장치
KR100481732B1 (ko) 다 시점 동영상 부호화 장치
Ho et al. Overview of multi-view video coding
Oh et al. H. 264-based depth map sequence coding using motion information of corresponding texture video
CN100512431C (zh) 用于编码和解码立体视频的方法和装置
JP2007180981A (ja) 画像符号化装置、画像符号化方法、及び画像符号化プログラム
US20120114036A1 (en) Method and Apparatus for Multiview Video Coding
KR100738867B1 (ko) 다시점 동영상 부호화/복호화 시스템의 부호화 방법 및시점간 보정 변이 추정 방법
JP2013538474A (ja) 3次元画像に対する視差の算出
JP4825984B2 (ja) 画像情報圧縮方法、画像情報圧縮装置、及び自由視点テレビシステム
WO2015098948A1 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JPWO2009001791A1 (ja) 映像符号化方法及び復号方法、それらの装置、それらのプログラム並びにプログラムを記録した記録媒体
JP6445026B2 (ja) 3dビデオコーディングにおけるカメラパラメータ処理方法および装置
US20110268193A1 (en) Encoding and decoding method for single-view video or multi-view video and apparatus thereof
JP2008034892A (ja) 多視点画像符号化装置
JP2007180982A (ja) 画像復号装置、画像復号方法、及び画像復号プログラム
KR20120095611A (ko) 다시점 비디오 부호화/복호화 방법 및 장치
Kimata et al. Low‐delay multiview video coding for free‐viewpoint video communication
Zhang et al. Light field image coding with disparity correlation based prediction
Grewatsch et al. Evaluation of motion compensation and coding strategies for compression of depth map sequences
KR20200098495A (ko) 전방향 비디오를 나타내는 멀티-뷰 비디오 시퀀스를 인코딩 및 디코딩하기 위한 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Ref document number: 4825983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350