JP2012147470A - 多視点映像の符号化、復号化方法及び装置 - Google Patents

多視点映像の符号化、復号化方法及び装置 Download PDF

Info

Publication number
JP2012147470A
JP2012147470A JP2012057571A JP2012057571A JP2012147470A JP 2012147470 A JP2012147470 A JP 2012147470A JP 2012057571 A JP2012057571 A JP 2012057571A JP 2012057571 A JP2012057571 A JP 2012057571A JP 2012147470 A JP2012147470 A JP 2012147470A
Authority
JP
Japan
Prior art keywords
prediction
picture
inter
view
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012057571A
Other languages
English (en)
Other versions
JP5647161B2 (ja
Inventor
Jong-Bom Choe
チェー,ジョン−ボム
Wo-Son Sim
シム,ウ−ソン
Hak-Sop Song
ソン,ハク−ソプ
Yong-Ho Moon
ムン,ヨン−ホ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2012147470A publication Critical patent/JP2012147470A/ja
Application granted granted Critical
Publication of JP5647161B2 publication Critical patent/JP5647161B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】 さらに速く、効率的に多視点映像の符号化、復号化を行える多視点映像の符号化、復号化方法及び装置を提供する。
【解決手段】 多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測の参照ピクチャーであるか否かを決定し、決定結果によって視点間予測及び時間的予測のうち、少なくとも1つを利用して多視点映像シーケンスを符号化する。
【選択図】 図2

Description

本発明は、多視点映像の符号化、復号化方法及び装置に係り、さらに詳細には、多視点映像の符号化、復号化のために必要な視点間予測(inter−view predicition)及び時間的予測(temporal prediction)をさらに速く行うための多視点映像の符号化、復号化方法及び装置に関する。
多視点映像符号化では、多視点映像を提供する複数のカメラから入力された映像を同時に符号化する。多視点映像を時間的相関関係(temporal correlation)及びカメラ間(inter−view)の空間的相関関係(spatial correlation)を利用して圧縮符号化する。
図1は、従来技術による多視点映像のシーケンスを示す。図1において、横軸は時間軸であり、縦軸は視点軸である。多視点映像の符号化では、基本視点の映像に対して周期的にイントラピクチャー(I picture)を生成し、該生成されたイントラピクチャーに基づいて時間的予測(temporal prediction)または視点間(inter−view prediction)予測を行って他のピクチャーを予測符号化する。
時間的予測とは、同じ視点、すなわち、同じ行にある映像間に時間的な相関関係を利用する予測である。視点間予測は、同じ時間、すなわち、同じ列にある映像間に空間的な相関関係を利用する予測である。
図1において、それぞれの行は多視点映像のそれぞれの視点に対する映像シーケンスを経時的に示す。それぞれの行は、上から順次に視点0、視点1、視点2、...の映像シーケンスとなる。ここで、視点0を基本視点とし、よって最初行の映像シーケンスは、基本視点の映像シーケンスとなる。基本視点の映像シーケンスに含まれたピクチャーは、時間的予測のみを行って予測符号化され、視点間予測は行わない。
また、それぞれの列は、同じ時間での多視点映像を示す。示された列のうち、イントラピクチャーを含んでいる列110、120、130に含まれているピクチャーをアンカーピクチャーと称する。アンカーピクチャーは、視点間予測のみを利用して予測符号化する。
イントラピクチャーを含んでいる列110、120、130を除外した残りの列140、150に含まれているピクチャーは、非アンカーピクチャー(non−anchor pictures)と称する。非アンカーピクチャーは、時間的予測及び視点間予測を利用して予測符号化する。
図1に示されたシーケンスのうち、第2行の第5列に位置したピクチャー141を例として説明する。ピクチャー141に含まれたブロックを各々視点間予測及び時間的予測を利用して予測する。ブロック単位で予測方法が異なりうるために、ピクチャー141を予測するには、隣接した奇数行に含まれているピクチャー142、143及び時間的に前後のピクチャー111、121をいずれも参照せねばならない。
同様に、非アンカーピクチャーは、視点間予測及び時間的予測のために4つのピクチャーを参照して予測符号化せねばならないので、従来技術によって多視点映像を符号化する場合、符号化の速度が遅い。
本発明が解決しようとする技術的課題は、多視点映像のシーケンスをさらに速く、効率的に符号化、復号化する多視点映像符号化、復号化方法及び装置を提供するところにあり、前記方法を実行させるためのプログラムを記録したコンピュータで読取り可能な記録媒体を提供するところにある。
前記技術的課題を解決するための本発明による多視点映像の符号化方法は、前記多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測のために、前記シーケンスに含まれている他のピクチャーにより参照される参照ピクチャーであるか否かを決定する段階と、前記決定に基づいて視点間予測及び時間的予測のうち、少なくとも1つを利用して、前記ピクチャーを符号化する段階を含む。
本発明による望ましい実施例によれば、前記符号化する段階は、前記参照ピクチャーであるか否かを示す前記ピクチャー各々についてのパラメータを符号化する段階を含む。
前記技術的課題を解決するための本発明による多視点映像の符号化装置は、前記多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測のために、前記シーケンスに含まれている他のピクチャーにより参照される参照ピクチャーであるか否かを決定する決定部と、前記決定に基づいて視点間予測及び時間的予測のうち、少なくとも1つを利用して、前記ピクチャーを符号化する符号化部を含む。
本発明によるさらに望ましい実施例によれば、前記符号化部は、前記決定に基づいて前記それぞれのピクチャーが視点間予測及び時間的予測のうち、少なくとも1つのために参照する参照ピクチャーについての情報を符号化することを特徴とする。
前記技術的課題を解決するための本発明による多視点映像の復号化方法は、前記多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測のために、前記シーケンスに含まれている他のピクチャーにより参照される参照ピクチャーであるか否かを示す情報及び前記シーケンスについてのデータを含むビットストリームを受信する段階と、前記受信されたビットストリームから前記情報及び前記シーケンスについてのデータを抽出する段階と、前記抽出された情報に基づいて前記シーケンスについてのデータを復号化する段階を含む。
本発明によるさらに望ましい実施例によれば、前記情報は、前記ピクチャー各々についてのパラメータに含まれていることを特徴とする。
前記技術的課題を解決するための本発明による多視点映像の復号化装置は、前記多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測のために、前記シーケンスに含まれている他のピクチャーにより参照される参照ピクチャーであるか否かを示す情報及び前記シーケンスについてのデータを含むビットストリームを受信し、前記受信されたビットストリームから前記情報及び前記シーケンスについてのデータを抽出する抽出部と、前記抽出された情報に基づいて前記シーケンスについてのデータを復号化する復号化部を含む。
前記技術的課題を解決するための本発明による多視点映像の符号化方法は、時間的レベルに基づいて視点間予測及び時間的予測を利用して符号化するピクチャーを前記多視点映像のシーケンスから選択する段階と、前記選択されたピクチャーは、視点間予測及び時間的予測を利用して符号化して、前記シーケンスに含まれた残りのピクチャーは時間的予測または時間的予測を利用して符号化する段階と、を含む。
本発明によるさらに望ましい実施例によれば、前記選択する段階は、前記シーケンスに含まれたピクチャーのうち、前記時間的レベルが所定値以下である非アンカーピクチャーを選択する段階を含む。
本発明によるさらに望ましい実施例によれば、前記符号化する段階は、前記選択されたピクチャーについての情報を符号化する段階を含む。
前記技術的課題を解決するための本発明による多視点映像の符号化装置は、時間的レベルに基づいて視点間予測及び時間的予測を利用して符号化するピクチャーを前記多視点映像のシーケンスから選択する選択部と、前記選択されたピクチャーは、視点間予測及び時間的予測を利用して符号化し、前記シーケンスに含まれた残りのピクチャーは時間的予測または時間的予測を利用して符号化する符号化部と、を含む。
前記技術的課題を解決するための本発明による多視点映像の復号化方法は、前記多視点映像のシーケンスのうち、視点間予測及び時間的予測を利用して符号化されたピクチャーについての情報及び前記多視点映像のシーケンスについてのデータを含むビットストリームを受信する段階と、前記受信されたビットストリームから前記情報を抽出する段階と、前記抽出された情報に基づいて前記シーケンスについてのデータを復号化する段階と、を含む。
本発明によるさらに望ましい実施例によれば、前記情報は、シーケンスパラメータまたはSEIメッセージに含まれていることを特徴とする。
前記技術的課題を解決するための本発明による多視点映像の復号化装置は、前記多視点映像のシーケンスのうち、視点間予測及び時間的予測を利用して符号化されたピクチャーについての情報及び前記多視点映像のシーケンスについてのデータを含むビットストリームを受信し、前記受信されたビットストリームから前記情報を抽出する抽出部と、前記抽出された情報に基づいて前記シーケンスについてのデータを復号化する復号化部、を含む。
前記技術的課題を解決するための本発明は、前記多視点映像符号化及び復号化方法を実行させるためのプログラムを記録したコンピュータで読取り可能な記録媒体を提供する。
本発明によれば、多視点映像符号化及び復号化過程で多視点映像シーケンスに含まれた一部にピクチャーのみ視点間予測を利用して予測符号化及び復号化できて、符号化及び復号化の速度が速くなる。
また、視点間予測を利用しないピクチャーを予測する場合、参照せねばならないピクチャーの数が少ないので、予測符号化及び復号化過程で必要なメモリを効率よく利用しうる。
従来技術による多視点映像のシーケンスを示す図面である。 本発明の一実施例による多視点映像の符号化装置を示す図面である。 多視点映像シーケンスの時間的レベルを示す図面である。 本発明の一実施例による多視点映像シーケンスを示す図面である。 本発明の一実施例による多視点映像シーケンス及び時間的レベルを示す図面である。 本発明の一実施例によるNAL(Network Abstraction Layer)単位ヘッダの構文を示す図面である。 本発明の一実施例によるシーケンスパラメータセットの構文を示す図面である。 本発明の一実施例によるシーケンスパラメータセットの構文を示す図面である。 本発明の一実施例によるSEIメッセージを示す図面である。 本発明の一実施例によるSEIメッセージを示す図面である。 本発明の一実施例による多視点映像の符号化方法を説明するためのフローチャートである。 本発明の他の実施例による多視点映像の符号化方法を説明するためのフローチャートである。 本発明の一実施例による多視点映像復号化装置を示す図面である。 本発明の一実施例による多視点映像の復号化方法を説明するためのフローチャートである。
以下、図面を参照して本発明の望ましい実施例を詳細に説明する。
図2は、本発明の一実施例による多視点映像の符号化装置を示す。図2を参照すれば、本発明による多視点映像の符号化装置200は、制御部210及び符号化部220を含む。
本発明の一実施例によれば、制御部210は、多視点映像シーケンスに含まれたピクチャーが視点間予測のために、シーケンスに含まれた他のピクチャーにより参照される参照ピクチャーであるか否かを決定する。
多視点映像シーケンスは、時間的に隣接したピクチャー間に存在する時間的相関関係及び隣接した視点のピクチャー間に存在する空間的な相関関係を利用して予測符号化される。シーケンスによって、時間的相関関係は高く、一方、空間的相関関係は低いシーケンスがありえる。この場合、空間的相関関係を利用する視点間予測を、図1と同様に、あらゆる非アンカーピクチャーに対して行うのは、多視点映像の符号化に消耗される時間のみ大きくするだけで、圧縮率の向上には別に影響を及ぼさない。
したがって、本発明による多視点映像符号化装置200は、非アンカーピクチャーをいずれも視点間予測で予測符号化するものではなく、一部の非アンカーピクチャーに対してのみ視点間予測を行う。このために、制御部210は、シーケンスに含まれたピクチャーが各々視点間予測の参照ピクチャーとして機能しているか否かを判断する。換言すれば、視点間予測を行って予測符号化される他のピクチャーによって参照されるか否かを決定する。
本発明の他の実施例によれば、制御部210は、時間的レベル(temporal level)に基づいて視点間予測及び時間的予測を利用して符号化するピクチャーを多視点映像のシーケンスから選択する。ピクチャー各々に対して、他のピクチャーにより視点間予測のために参照されるか否かを決定する代わりに、積極的にいかなるピクチャーを、視点間予測を用いて符号化するかを選択する。従来の技術によれば、あらゆる非アンカーピクチャーが視点間予測及び時間的予測を利用して予測符号化される。しかし、本発明によって一部の非アンカーピクチャーのみ視点間予測を利用して符号化するために、時間的レベルに基づいて視点間予測及び時間的予測を利用して、符号化するピクチャーを多視点映像のシーケンスから選択する。
時間的レベルとは、映像シーケンスを複数のレベルに区分し、映像の復号化時に一部の時間的レベルのみを選択して復号化可能にすることによって、時間的スケーラビティを提供するためのパラメータである。図3を参照して詳細に説明する。
図3は、多視点映像シーケンスの時間的レベルを示す。多視点映像シーケンスの最初映像処理単位を例として説明する。図3を参照すれば、多視点映像シーケンスでアンカーピクチャー310、312の時間的レベルは‘0’である。アンカーピクチャー310、312の間に位置したピクチャー314の時間的レベルは‘1’であり、時間的レベルが‘0’であるピクチャーと時間的レベルが‘1’であるピクチャーとの間に位置したピクチャー316、318の時間的レベルは‘2’である。残りのピクチャーの時間的レベルは‘3’である。
図4Aは、本発明の一実施例による多視点映像シーケンスを示す。
制御部210が多視点映像シーケンスに含まれたピクチャー各々に対して、視点間予測のための参照如何を決定するか、視点間予測及び時間的予測を利用して符号化するピクチャーを選択した結果によって生成される多視点映像シーケンスを示す。図4Aに図示された多視点映像シーケンスは、視点間予測が選択的に行われる図1に示された従来技術による多視点映像シーケンスとは異なる多視点映像シーケンスとなる。
例えば、多視点映像シーケンスの第2行及び第2列に位置したピクチャー144は、図1に示された従来の技術によれば、最初行の第2列に位置したピクチャー145及び第3行及び第2列に位置したピクチャー146を視点間予測のために参照する。換言すれば、最初行の第2列に位置したピクチャー145及び第3行及び第2列に位置したピクチャー146は、視点間予測の参照ピクチャーとなる。
しかし、本発明の一実施例による多視点映像シーケンスでは、第2行及び第2列に位置したピクチャー420は、最初行の第2列に位置したピクチャー422及び第3行の第2列に位置したピクチャー424を視点間予測のために参照しない。第2行の第3列のピクチャー426及び第2行の第3列のピクチャー428を時間的予測のために参照するだけである。
図1に示されたような従来技術による多視点映像シーケンスの非アンカーピクチャーのうち、奇数行に含まれているピクチャーは、いずれも視点間予測のために他のピクチャーにより参照されたが、図4Aに示された本発明の一実施例による多視点映像シーケンスでは奇数行に含まれている非アンカーピクチャーの一部のみが視点間予測のために他のピクチャーにより参照される。換言すれば、図4Aに示された例では、奇数行に含まれている非アンカーピクチャーのうち、奇数列に位置した非アンカーピクチャーのみ視点間予測を利用して符号化する。
図4Bは、本発明の一実施例による多視点映像シーケンス及び時間的レベルを示す。図4Bは、図4Aに示された多視点映像シーケンスのようにシーケンスに含まれた一部のピクチャーのみ視点間予測を利用して符号化する場合、この一部のピクチャーを選択する方法を説明する。
図4Bは、時間的レベルに基づいて視点間予測のために参照されるピクチャーを決定した場合を例として説明する。図4Bでは、時間的レベルが3である非アンカーピクチャーは視点間予測を利用して符号化しないと決定する。換言すれば、非アンカーピクチャーのうち、時間的レベルが所定値以下である一部のピクチャーのみを、視点間予測及び時間的予測を利用して符号化するピクチャーとして選択する。
制御部210の決定または選択基準になる時間的レベルは、多視点映像シーケンスの特徴によって異なり、図4Bに示された例に限定されない。例えば、多視点映像を撮影するカメラ間の距離が大きいために、視点間に存在する空間的相関関係が大きくない場合には、あらゆる非アンカーピクチャーを視点間予測を行って予測する必要がない。この場合、時間的レベルが‘1’以下であるピクチャーのみを視点間予測を利用して予測し、極端な場合には、視点間予測を利用せず、非アンカーピクチャーを予測するように実施例を構成しうる。
また図2を参照すれば、本発明の一実施例によれば、符号化部220は、制御部210の決定または選択結果に基づいて多視点映像シーケンスを符号化する。換言すれば、決定部210の決定または選択結果に基づいて視点間予測及び時間的予測のうち、少なくとも1つを利用して多視点映像シーケンスを予測符号化する。
多視点映像シーケンスに含まれているそれぞれのピクチャーを予測して、それぞれのピクチャーの予測値を原本ピクチャーから減算して多視点映像シーケンスの残差データを生成する。
符号化部220の予測実行時、所定のメモリに参照ピクチャーを保存して参照して、視点間予測または時間的予測を行う。従来技術によれば、非アンカーピクチャーを予測する時視点間予測及び時間的予測のためのピクチャーをいずれもメモリに保存していなければならない。しかし、本発明によれば、制御部210で視点間予測を行わないと決定したピクチャーに対しては、視点間予測のための参照ピクチャーをメモリに保存しておく必要はない。
例えば、図4Aに示された第2行及び第2列に位置したピクチャー420を符号化するに当たって、ピクチャー420の上部及び下部に隣接した視点に位置したピクチャー422、424は視点間予測の参照ピクチャーではないので、このピクチャー422、424をメモリに保存する必要はない。これにより、メモリをさらに効率よく利用できるようになる。
制御部210で視点間予測に参照されないと決定されたピクチャーは、視点間予測のためには参照しないので、全体的な予測の速度も速くなる。
また図2を参照すれば、本発明の一実施例によれば、符号化部220は、多視点映像シーケンスを予測符号化するに当たって、制御部210で決定された視点間予測の参照ピクチャーであるか否かを示すパラメータも符号化してビットストリームに挿入する。制御部210で各ピクチャーに対して視点間予測のために参照されるか否かを決定すれば、符号化部220は、制御部210で決定した結果についての情報を符号化する。
視点間予測のために他のピクチャーによる参照如何はそれぞれのピクチャーごとに決定されるので、視点間予測のために、他のピクチャーによる参照如何を示す情報をそれぞれのピクチャーについてのパラメータに含める。
図5は、本発明の一実施例によるNAL(Network Abstraction Layer)単位ヘッダの構文を示す。
NAL単位は、映像データのパケット化単位である。一般的に1つのNAL単位には、1つのピクチャーについてのデータが含まれるので、NAL単位ヘッダにそれぞれのピクチャーが視点間予測のために、他のピクチャーによる参照如何を示す情報を含めて符号化する。
図5を参照すれば、従来技術によるNAL単位ヘッダに‘nal_ref_idc_view’構文を追加し、他のピクチャーにより視点間予測のために参照されるか否かを示す。例えば、‘nal_ref_idc_view=1’であれば、視点間予測のために他のピクチャーにより参照されることを意味し、‘nal_ref_idc_view=0’であれば、視点間予測のために他のピクチャーにより参照されないことを意味する。
‘nal_ref_idc_view’に新たビットを割当てられたので、‘reserved_zero_four_bits’構文も追加して余裕ビット(reserved bits)の個数を変える。
再び図2を参照すれば、符号化部220が符号化を行う時には、それぞれのピクチャーが視点間予測及び時間的予測のために参照するピクチャーについての情報も符号化する。‘RefPicList’構文が、このような情報を示す。制御部210で、それぞれのピクチャーが視点間予測の参照ピクチャーとして機能しているか否かを決定した。したがって、符号化部220で多視点映像シーケンスが符号化される時、視点間予測の参照ピクチャーとして機能しないピクチャーは他のピクチャーにより参照されない。
したがって、符号化部220がそれぞれのピクチャーに対して参照ピクチャーについての情報を符号化する時には、制御部210で視点間予測のために参照しないと決定されたピクチャーを除いては、‘RefPiclist’を生成しうる。
例えば、図4Aに示されたピクチャー420を符号化するに当たって、従来技術によれば、上部及び下部の隣接した視点のピクチャー422、424も参照ピクチャーであり、これについての情報が‘RefPicList’に共に含まれた。しかし、本発明によれば、ピクチャー420の参照ピクチャーには、上部及び下部の隣接した視点のピクチャー422、424は、参照ピクチャーでないと制御部210で決定されたので、‘RefPicList’に含まれない。
本発明による他の実施例によれば、符号化部220は、制御部210がいかなるピクチャーを視点間予測及び時間的予測を利用して符号化するために選択したピクチャーについての情報も共に符号化してビットストリームに挿入する。
図6Aないし図6Bを参照して詳細に説明する。
図6Aは、本発明の一実施例によるシーケンスパラメータセットの構文を示す。図6Aを参照すれば、符号化部220は、制御部210が選択したピクチャーを特定するための情報をシーケンスパラメータセットに含めて符号化しうる。本発明によるシーケンスパラメータセットは、‘temporal_level_max’及び‘use_interview_pred_temporal_level[i]’構文を含む。
‘temporal_level_max’は、多視点映像符号化装置200により符号化される多視点映像シーケンスの時間的レベルが何段階であるかを示す情報である。図3Bに示された多視点映像シーケンスは‘0’から‘3’までの時間的レベルを有するので、‘temporal_level_max’は‘3’である。
‘use_interview_pred_temporal_level[i]’は、視点間予測及び時間的予測を利用して予測符号化されたピクチャーを特定するための情報である。ここで、‘i’は時間的レベルを意味する。図4Bのように時間的レベルが‘1’及び‘2’であるピクチャーに対してのみ視点間予測を行う場合‘use_interview_pred_temporal_level[1]=1’、 ‘use_interview_pred_temporal_level[2]=1’、 ‘use_interview_pred_temporal_level[3]=0’に構文を設定しうる。値‘0’及び‘1’は、当該時間的レベルに含まれたピクチャーが視点間予測を利用して予測を行っているか否かを示すフラッグ(fag)情報である。
時間的レベルが‘0’である場合、アンカーピクチャーであることを意味し、アンカーピクチャーの場合には視点間予測のみを利用して予測符号化するために、‘use_interview_pred_temporal_level[0]’は別途に設定しない。
図6Bは、本発明のさらに他の実施例によるシーケンスパラメータセットの構文を示す。
図4Bで、制御部210は、時間的レベルのみを基準として視点間予測及び時間的予測を利用して予測符号化するピクチャーを選択した。換言すれば、特定の時間的レベルに含まれているピクチャーは、いずれも時間的予測を行っていない。しかし、時間的レベルだけでなく、それぞれの視点を基準にピクチャーを選択しうる。
例えば、視点1のシーケンスに含まれているピクチャーは、時間的レベルが1、2であるピクチャーに対して、視点間予測及び時間的予測を行い、視点3のシーケンスに含まれているピクチャーは、時間的レベルが1である場合にのみ視点間予測及び時間的予測を行える。換言すれば、視点ごとに個別的に視点間予測及び時間的予測を行うピクチャーを選択するものである。この場合、それぞれの視点ごとに選択されたピクチャーを特定するための構文が必要である。
図4Bを参照すれば、シーケンスパラメータセットは、‘temporal_level_max’及び‘use_interview_pred_temporal_level[i][j]’構文を含む。
‘temporal_level_max’は、図6Aと関連して‘temporal_level_max’と同一であるが、‘use_interview_pred_temporal_level[i][j]’は、図6Aと関連して前述した‘use_interview_pred_temporal_level[i]’と相異なる。
‘use_interview_pred_temporal_level[i][j]’で、‘i’は視点を意味し、‘j’は時間的レベルを意味する。前述した例の通り、視点1のシーケンスに含まれたピクチャーは、時間的レベルが‘1’、 ‘2’であるピクチャーのみ視点間予測及び時間的予測を行い、視点3のシーケンスに含まれたピクチャーは、時間的レベルが‘1’であるピクチャーのみ視点間予測及び時間的予測を行う場合を例として説明する。
この場合、‘use_interview_pred_temporal_level[1][1]=1’であり、
‘use_interview_pred_temporal_level[1][2]=1’であり、
‘use_interview_pred_temporal_level[1][3]=0’である。
‘use_interview_pred_temporal_level[3][1]=1’であり、
‘use_interview_pred_temporal_level[3][2]=0’であり、
‘use_interview_pred_temporal_level[3][3]=0’である。
ここで、値‘0’及び‘1’は、図6Aと同様に視点間予測を利用して予測を行っているか否かを示すフラッグ(fag)情報である。
図6Cは、本発明の一実施例によるSEIメッセージ(supplemental enhancement information message)を示す。図6Cを参照すれば、符号化部220は、制御部210が選択したピクチャーを特定するための情報をSEIメッセージに含めて符号化しうる。
SEIメッセージは、動映像符号化階層(video coding layer)の復号化過程で必要な付加的な情報を示すものであって、各ピクチャーのタイミング情報、パン/スキャン機能に関する情報、ランダムアクセスを行うために必要な情報などを含むことができる。SEIメッセージは、ユーザが独自に定義する情報も含みうるが、本発明の一実施例によるSEIメッセージは、制御部210が視点間予測を行うために選択したピクチャーを特定するための情報を含む。
図6Cで、‘temporal_level_max’及び‘use_interview_prediction_temporal_level[i]’は、図6Aと関連して前述した構文と同一である。
図6Dは、本発明の他の実施例によるSEIメッセージを示す。図6Dで、‘temporal_level_max’及び‘use_interview_prediction_temporal_level[i][j]’は、図6Bと関連して前述した構文と同一である。
図7は、本発明の一実施例による多視点映像の符号化方法を説明するためのフローチャートである。図7を参照すれば、段階710で本発明による多視点映像符号化装置は、多視点映像のシーケンスに含まれたそれぞれのピクチャーが視点間予測の参照ピクチャーであるか否かを決定する。それぞれのピクチャーが視点間予測のためにシーケンスに含まれた他のピクチャーにより参照されるか否かを決定する。
本発明の一実施例による多視点映像符号化方法は非アンカーピクチャーをいずもれ視点間予測を利用して予測符号化せず、一部非アンカーピクチャーに対してのみ視点間予測を行う。したがって、視点間予測のために他のピクチャーにより参照されるピクチャーも一部に限定されるので、このために段階710ではそれぞれのピクチャーに対して視点間予測のために他のピクチャーにより参照されるか否かを決定する。望ましくは、時間的レベルに基づいて視点間予測の参照ピクチャーを決定する。
段階720で本発明による多視点映像符号化装置は、段階710での決定に基づいて、視点間予測及び時間的予測のうち、少なくとも1つを利用して多視点映像シーケンスのピクチャーを符号化する。
多視点映像シーケンスに含まれているそれぞれのピクチャーを視点間予測及び時間的予測のうち、少なくとも1つを利用して予測し、それぞれのピクチャーの予測値を原本ピクチャーから減算して、多視点映像シーケンスの残差データを生成する。
視点間予測実行時、視点間予測の参照ピクチャーではないと段階710で決定されたピクチャーは参照せず、視点間予測を行えるために、予測の速度及びメモリ利用の効率性が向上する。
多視点映像シーケンスを符号化するに当たって、段階710で視点間予測の参照ピクチャーとして決定されたピクチャーについての情報も共に符号化してビットストリームに挿入する。多視点映像シーケンスのピクチャー各々についてのパラメータに視点間予測の参照ピクチャーであるか否かを示す情報を挿入する。NAL単位ヘッダに含めて符号化することは前述した。
図8は、本発明の他の実施例による多視点映像の符号化方法を説明するためのフローチャートである。図8を参照すれば、段階810で本発明による多視点映像符号化装置は、時間的レベルに基づいて視点間予測及び時間的予測を利用して符号化するピクチャーを選択する。多視点映像の視点ごとに個別的に視点間予測及び時間的予測を利用して符号化するピクチャーをも選択しうる。時間的レベルが所定値以下である非アンカーピクチャーを選択することによって、視点間予測及び時間的予測を行うピクチャーを選択する。
段階820で、多視点映像符号化装置は、段階810での選択結果に基づいて多視点映像シーケンスを符号化する。段階810で選択されたピクチャーは、視点間予測及び時間的予測を利用して予測符号化し、選択されたピクチャーを除外した残りのピクチャーは視点間予測または時間的予測を利用して予測符号化する。従来技術によれば、多視点映像シーケンスに含まれたあらゆる非アンカーピクチャーを視点間予測及び時間的予測を利用して予測符号化したが、本発明の一実施例によれば、非アンカーピクチャーのうち、一部のピクチャーのみ視点間予測及び時間的予測を利用して予測符号化することによって、多視点映像の符号化速度が速くなる。
多視点映像シーケンスの符号化時、段階810で視点間予測を行うために選択されたピクチャーについての情報も共に符号化してビットストリームに挿入する。シーケンスパラメータセットまたはSEIメッセージの形で情報を符号化してビットストリームに挿入できるということは前述した。
図9は、本発明の一実施例による多視点映像復号化装置を示す。図9を参照すれば、本発明による多視点映像復号化装置900は、抽出部910及び復号化部920を含む。
抽出部910は、本発明による多視点映像符号化方法により符号化された多視点映像シーケンスについてのデータを含んでいるビットストリームを受信する。ここで、多視点映像シーケンスについてのデータは、多視点映像シーケンスの残差データであり、ビットストリームには多視点映像シーケンスのそれぞれのピクチャーが視点間予測の参照ピクチャーであるか否かについての情報または視点間予測及び時間的予測を利用して符号化されたピクチャーについての情報を含んでいる。
ビットストリームを受信した抽出部910は、受信されたビットストリームから情報を抽出する。視点間予測の参照ピクチャーであるか否かについてのそれぞれのピクチャーについてのパラメータまたは視点間予測及び時間的予測を利用して符号化されたピクチャーであることを示すパラメータを抽出する。NAL単位ヘッダまたはシーケンスパラメータまたはSEIメッセージに含まれている情報を抽出する。
復号化部920は、抽出部910で抽出された情報に基づいて多視点映像シーケンスについてのデータを復号化する。ビットストリームに含まれている多視点映像シーケンスについてのデータは残差データである。
したがって、復号化部920は、抽出部910で抽出された情報に基づいて視点間予測及び時間的予測のうち、少なくとも1つを利用して、多視点映像シーケンスのそれぞれのピクチャーを予測し、予測結果を多視点映像シーケンスの残差データと加算して多視点映像シーケンスを復元する。
復号化部920で予測実行時、所定のメモリに参照ピクチャーを保存して予測を行う。しかし、本発明による多視点映像復号化装置900は、視点間予測の実行時、抽出部910で抽出された情報によって視点間予測の参照ピクチャーではないピクチャーはメモリに保存しない。したがって、予測実行時、メモリに保存せねばならない参照ピクチャーの数が減るので、メモリをさらに効率的に利用しうる。
また、あらゆる非アンカーピクチャーに対して視点間予測を行わないので、予測速度が向上する。ランダムアクセスの場合にも、早いアクセスが可能となる。例えば、図4Aに示された第2行及び第2列に位置したピクチャー420をランダムアクセスする場合を説明すれば、上部及び下部に隣接した視点に位置するピクチャー422、424は、視点間予測の参照ピクチャーではないものと既に決定されているので、視点間予測のために復号化する必要がない。したがって、早い予測が可能となって、早いアクセスも可能となる。
図10は、本発明の一実施例による多視点映像の復号化方法を説明するためのフローチャートである。図10を参照すれば、段階1010で本発明による多視点映像復号化装置は、多視点映像のシーケンスについてのデータを含むビットストリームを受信する。シーケンスについてのデータは、多視点映像シーケンスの残差データである。
段階1020で、多視点映像復号化装置は、段階1010で受信したビットストリームからシーケンスに含まれたそれぞれのピクチャーが視点間予測の参照ピクチャーであるか否かを示す情報または視点間予測及び時間的予測を利用して符号化されたピクチャーについての情報を抽出する。シーケンスについてのデータ、すなわち、残差データも抽出する。多視点映像シーケンスのNAL単位ヘッダまたはシーケンスパラメータまたはSEIメッセージに含まれている情報を抽出する。
段階1030で、多視点映像復号化装置は、段階1020で抽出された情報に基づいて多視点映像シーケンスを復号化する。抽出された情報に基づいて視点間予測及び時間的予測のうち、少なくとも1つを利用して予測し、予測結果に段階1020で抽出した残差データを加算して多視点映像シーケンスを復元する。
予測実行時、抽出された情報によって、視点間予測の参照ピクチャーではないと決定されたピクチャーは、視点間予測で参照しない。視点間予測をさらに速く効率よく行えるために、多視点映像の復号化速度も速くなる。
前述したように、本発明は、たとえ限定された実施例と図面により説明されたとしても、本発明が前記の実施例に限定されるものではなく、本発明が属する技術分野で当業者ならば、このような記載から多様な修正及び変形が可能である。したがって、本発明の思想は、特許請求の範囲によってのみ把握され、これと均等であるか、等価的な変形は、いずれも本発明の思想の範ちゅうに属するものである。また、本発明によるシステムは、コンピュータで読取り可能な記録媒体にコンピュータで読取り可能なコードとして具現することが可能である。コンピュータで読取り可能な記録媒体は、コンピュータシステムによって読取り可能なデータが保存されるあらゆる種類の記録装置または伝送媒体を含む。記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、光データ保存装置などがある。伝送媒体は、キャリアウェーブ(例えば、インターネットを介した伝送)を含みうる。またコンピュータで読取り可能な記録媒体は、ネットワークで連結されたコンピュータシステムに分散され、分散方式によってコンピュータで読取り可能なコードが保存され、実行されうる。

Claims (6)

  1. 多視点(multi-view)映像の符号化方法において、
    時間的レベル(temporal level)に基づいて視点間予測(inter-view prediction)及び時間的予測(temporal prediction)を利用して符号化するピクチャーを前記多視点映像のシーケンスから選択する段階と、
    前記選択されたピクチャーは、視点間予測及び時間的予測を利用して符号化し、前記シーケンスに含まれた残りのピクチャーは、視点間予測または時間的予測を利用して符号化する段階と、を含むことを特徴とする多視点映像符号化方法。
  2. 前記選択する段階は、
    前記シーケンスに含まれたピクチャーのうち、前記時間的レベルが所定値以下である非アンカーピクチャー(non-anchor)を選択する段階を含むことを特徴とする請求項1に記載の多視点映像符号化方法。
  3. 前記選択する段階は、
    前記時間的レベルに基づいて前記シーケンスの視点ごとに視点間予測及び時間的予測を利用して符号化するピクチャーを選択する段階を含むことを特徴とする請求項1に記載の多視点映像符号化方法。
  4. 前記符号化する段階は、
    前記選択されたピクチャーについての情報を符号化する段階を含むことを特徴とする請求項1に記載の多視点映像符号化方法。
  5. 前記符号化する段階は、
    前記情報を含むシーケンスパラメータ(sequence parameter)またはSEIメッセージ(Supplemental Enhancement Information message)を符号化する段階を含むことを特徴とする請求項4に記載の多視点映像符号化方法。
  6. 請求項1ないし5のうち、いずれか一項に記載の方法を実行させるためのプログラムを記録したコンピュータで読取り可能な記録媒体。
JP2012057571A 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置 Expired - Fee Related JP5647161B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US90761407P 2007-04-11 2007-04-11
US60/907,614 2007-04-11
US90775307P 2007-04-16 2007-04-16
US60/907,753 2007-04-16
KR1020070065664A KR101301181B1 (ko) 2007-04-11 2007-06-29 다시점 영상의 부호화, 복호화 방법 및 장치
KR10-2007-0065664 2007-06-29
KR10-2007-0068186 2007-07-06
KR1020070068186A KR100996850B1 (ko) 2007-04-11 2007-07-06 다시점 영상의 부호화, 복호화 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010502926A Division JP2010524381A (ja) 2007-04-11 2008-03-06 多視点映像の符号化、復号化方法及び装置

Publications (2)

Publication Number Publication Date
JP2012147470A true JP2012147470A (ja) 2012-08-02
JP5647161B2 JP5647161B2 (ja) 2014-12-24

Family

ID=40152508

Family Applications (7)

Application Number Title Priority Date Filing Date
JP2010502926A Pending JP2010524381A (ja) 2007-04-11 2008-03-06 多視点映像の符号化、復号化方法及び装置
JP2012057575A Expired - Fee Related JP5667110B2 (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057576A Pending JP2012124961A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057574A Pending JP2012147471A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057573A Pending JP2012124959A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057572A Pending JP2012165403A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057571A Expired - Fee Related JP5647161B2 (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置

Family Applications Before (6)

Application Number Title Priority Date Filing Date
JP2010502926A Pending JP2010524381A (ja) 2007-04-11 2008-03-06 多視点映像の符号化、復号化方法及び装置
JP2012057575A Expired - Fee Related JP5667110B2 (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057576A Pending JP2012124961A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057574A Pending JP2012147471A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057573A Pending JP2012124959A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置
JP2012057572A Pending JP2012165403A (ja) 2007-04-11 2012-03-14 多視点映像の符号化、復号化方法及び装置

Country Status (6)

Country Link
EP (5) EP2464119B1 (ja)
JP (7) JP2010524381A (ja)
KR (6) KR101301181B1 (ja)
CN (6) CN102892003B (ja)
MX (1) MX2009010933A (ja)
SG (6) SG179464A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124961A (ja) * 2007-04-11 2012-06-28 Samsung Electronics Co Ltd 多視点映像の符号化、復号化方法及び装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101158491B1 (ko) 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
JP5614900B2 (ja) * 2009-05-01 2014-10-29 トムソン ライセンシングThomson Licensing 3d映像符号化フォーマット
US8780999B2 (en) * 2009-06-12 2014-07-15 Qualcomm Incorporated Assembling multiview video coding sub-BITSTREAMS in MPEG-2 systems
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
US20130162774A1 (en) 2010-09-14 2013-06-27 Dong Tian Compression methods and apparatus for occlusion data
WO2012096176A1 (en) 2011-01-12 2012-07-19 Panasonic Corporation Methods and apparatuses for encoding and decoding video using multiple reference pictures
RU2480941C2 (ru) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Способ адаптивного предсказания кадра для кодирования многоракурсной видеопоследовательности
WO2012108181A1 (en) * 2011-02-08 2012-08-16 Panasonic Corporation Methods and apparatuses for encoding and decoding video using multiple reference pictures
US9105076B2 (en) 2011-03-08 2015-08-11 Sony Corporation Image processing apparatus, image processing method, and program
KR101626683B1 (ko) * 2011-08-30 2016-06-01 인텔 코포레이션 멀티뷰 비디오 코딩 방안
KR102057194B1 (ko) * 2012-01-19 2019-12-19 삼성전자주식회사 시점 변환을 위한 다시점 비디오 예측 방법 및 그 장치, 시점 변환을 위한 다시점 비디오 예측 복원 방법 및 그 장치
WO2013115562A1 (ko) * 2012-01-30 2013-08-08 삼성전자 주식회사 시점변환을 위한 예측구조에 기초한 다시점 비디오 부호화 방법 및 그 장치, 시점변환을 위한 예측구조에 기초한 다시점 비디오 복호화 방법 및 그 장치
JP5743968B2 (ja) * 2012-07-02 2015-07-01 株式会社東芝 動画像復号方法及び動画像符号化方法
CA2892477C (en) * 2012-12-04 2020-12-22 Sectago Gmbh Security device
WO2014092445A2 (ko) * 2012-12-11 2014-06-19 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
BR112015017059A2 (pt) * 2013-01-17 2018-09-25 Samsung Electronics Co., Ltd. método decodificador de vídeo, método codificador de vídeo, aparelho decodificador de vídeo, aparelho codificador de vídeo, e mídia de gravação legível por computador.
FR3042368A1 (fr) * 2015-10-08 2017-04-14 Orange Procede de codage et de decodage multi-vues, dispositif de codage et de decodage multi-vues et programmes d'ordinateur correspondants

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147961A (ja) * 2011-01-19 2012-08-09 Heiwa Corp 遊技機の基板ユニット

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100760258B1 (ko) * 2004-12-10 2007-09-19 한국전자통신연구원 범용적 다시점 동영상 부호화/복호화 장치 및 방법
US7728878B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
KR100779875B1 (ko) * 2005-01-14 2007-11-27 주식회사 휴맥스 다-시점 코딩을 위한 참조 프레임 순서 설정 방법 및 그방법을 기록한 기록매체
KR100732961B1 (ko) * 2005-04-01 2007-06-27 경희대학교 산학협력단 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치
US8228994B2 (en) * 2005-05-20 2012-07-24 Microsoft Corporation Multi-view video coding based on temporal and view decomposition
KR100728009B1 (ko) 2005-08-22 2007-06-13 삼성전자주식회사 다시점 동영상을 부호화하는 방법 및 장치
US8559515B2 (en) * 2005-09-21 2013-10-15 Samsung Electronics Co., Ltd. Apparatus and method for encoding and decoding multi-view video
KR101174901B1 (ko) * 2005-11-28 2012-08-17 세종대학교산학협력단 다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
PL2008460T3 (pl) * 2006-03-30 2017-10-31 Lg Electronics Inc Sposób i urządzenie do dekodowania/kodowania sygnału wideo
KR20070098429A (ko) * 2006-03-30 2007-10-05 엘지전자 주식회사 비디오 신호의 디코딩 방법
KR20080007086A (ko) * 2006-07-14 2008-01-17 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
KR101301181B1 (ko) * 2007-04-11 2013-08-29 삼성전자주식회사 다시점 영상의 부호화, 복호화 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147961A (ja) * 2011-01-19 2012-08-09 Heiwa Corp 遊技機の基板ユニット

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN7012001751; Chen,Ying;Wang,Ye-Kui;Hannuksela,Miska: 'MVC Reference Picture Management' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT- , 20061020 *
JPN7012001752; Chen,Ying;Wang,Ye-Kui;Hannuksela,Miska; Li,Houqiang: 'On MVC reference picture marking' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT- , 20070113 *
JPN7013003109; Vetro, Anthony et al: 'Joint Draft 2.0 on Multiview Video Coding' Joint Video Team (JVT) of ISO/IEC MPEG & ITU-T VCEG(ISO/IEC JTC1/SC29/WG11 and ITU-T SG16 Q.6) JVT- , 20070306 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012124961A (ja) * 2007-04-11 2012-06-28 Samsung Electronics Co Ltd 多視点映像の符号化、復号化方法及び装置

Also Published As

Publication number Publication date
KR101144874B1 (ko) 2012-05-15
CN101682779A (zh) 2010-03-24
EP2464119B1 (en) 2018-02-21
JP2012165403A (ja) 2012-08-30
SG179465A1 (en) 2012-04-27
JP2012124959A (ja) 2012-06-28
SG179467A1 (en) 2012-04-27
CN102984514A (zh) 2013-03-20
KR20080092210A (ko) 2008-10-15
EP2464120A1 (en) 2012-06-13
CN102984514B (zh) 2015-11-11
MX2009010933A (es) 2009-11-02
CN102892003A (zh) 2013-01-23
KR101301181B1 (ko) 2013-08-29
SG179461A1 (en) 2012-04-27
JP5667110B2 (ja) 2015-02-12
SG179466A1 (en) 2012-04-27
EP2464119A1 (en) 2012-06-13
SG179462A1 (en) 2012-04-27
KR20100097086A (ko) 2010-09-02
CN102984516A (zh) 2013-03-20
JP2012124960A (ja) 2012-06-28
KR20080092209A (ko) 2008-10-15
KR20110009649A (ko) 2011-01-28
JP2012124961A (ja) 2012-06-28
CN102892003B (zh) 2016-03-16
EP2464123B1 (en) 2018-02-21
EP2464122B1 (en) 2018-02-21
EP2464120B1 (en) 2018-02-21
KR101266170B1 (ko) 2013-05-21
EP2464121B1 (en) 2018-02-21
CN102892002B (zh) 2016-03-16
EP2464123A1 (en) 2012-06-13
JP2010524381A (ja) 2010-07-15
JP2012147471A (ja) 2012-08-02
CN102892002A (zh) 2013-01-23
JP5647161B2 (ja) 2014-12-24
SG179464A1 (en) 2012-04-27
CN102984515A (zh) 2013-03-20
EP2464122A1 (en) 2012-06-13
CN102984516B (zh) 2015-10-14
KR101266169B1 (ko) 2013-05-21
KR20110009648A (ko) 2011-01-28
KR100996850B1 (ko) 2010-11-26
KR101217635B1 (ko) 2013-01-02
CN101682779B (zh) 2014-09-17
EP2464121A1 (en) 2012-06-13
CN102984515B (zh) 2016-03-09

Similar Documents

Publication Publication Date Title
JP5667110B2 (ja) 多視点映像の符号化、復号化方法及び装置
US8554002B2 (en) Method and apparatus for encoding and decoding and multi-view image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140813

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R150 Certificate of patent or registration of utility model

Ref document number: 5647161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees