JP2009284298A - Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method - Google Patents

Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method Download PDF

Info

Publication number
JP2009284298A
JP2009284298A JP2008135224A JP2008135224A JP2009284298A JP 2009284298 A JP2009284298 A JP 2009284298A JP 2008135224 A JP2008135224 A JP 2008135224A JP 2008135224 A JP2008135224 A JP 2008135224A JP 2009284298 A JP2009284298 A JP 2009284298A
Authority
JP
Japan
Prior art keywords
model
image
prediction
data
model data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008135224A
Other languages
Japanese (ja)
Inventor
Toru Yokoyama
徹 横山
Muneaki Yamaguchi
宗明 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008135224A priority Critical patent/JP2009284298A/en
Priority to PCT/JP2009/002041 priority patent/WO2009141969A1/en
Publication of JP2009284298A publication Critical patent/JP2009284298A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible to utilize a plurality of models or to flexibly change kinds of the models in a model-based encoding/decoding process. <P>SOLUTION: A model-based prediction system includes a model data storage section 122 for storing model data of a plurality of models to be used for model-based prediction and a model matching section 123 for deforming a plurality of model data items while using a predetermined parameter and for selecting a model optimal for an input image, and generates a model-based prediction image. The model data include model names, element types, element data, attribute data sets and model parameter initial values, and an encoded stream 106 stores in the model-based prediction image information indicative of the model used for prediction and the parameter used for deforming the model. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画像信号を高効率で符号化・復号化する動画像符号化装置、動画像復号化装置、動画像符号化方法及び動画像復号化方法に関する。   The present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, and a moving image decoding method that encode and decode a moving image signal with high efficiency.

従来の動画像符号化技術としては、時間方向での画像ピクチャ間の相関性や、ピクチャ内の画素間の相関性などを利用して冗長な情報量を削減し、可変長符号化を行うことにより、情報量を圧縮する符号化方式が実用化されている。このような符号化方式(ここでは、「波形符号化方式」と呼ぶ)は、符号化対象が限定されないという利点がある反面、情報量の圧縮率に限界がある。   As a conventional moving image coding technique, the amount of redundant information is reduced by using the correlation between image pictures in the time direction and the correlation between pixels in the picture, and variable length coding is performed. Thus, an encoding method for compressing the amount of information has been put into practical use. Such an encoding method (referred to herein as a “waveform encoding method”) has an advantage that the encoding target is not limited, but has a limit on the compression rate of the information amount.

これに対し、符号化対象の3次元モデルなどを用いたモデルベース符号化方式が提案されている。この方式は、符号化対象の予測画像を3次元モデルのパラメータにより表現することができるため、波形符号化方式に比べて圧縮率を大幅に向上することが可能である。   On the other hand, a model-based encoding method using a three-dimensional model to be encoded has been proposed. In this method, since the prediction image to be encoded can be expressed by the parameters of the three-dimensional model, the compression rate can be significantly improved as compared with the waveform encoding method.

特許文献1には、波形符号化とモデルベース符号化を組み合わせ、符号化対象ブロックに応じてこれら符号化方式を選択するような、ハイブリッド符号化方法が記載されている。また特許文献2には、三次元モデルに基づいて二次元テンプレートを生成することで対象領域を抽出する構成のモデルベース符号化方式が記載されている。   Patent Document 1 describes a hybrid encoding method in which waveform encoding and model-based encoding are combined and these encoding methods are selected according to the encoding target block. Further, Patent Document 2 describes a model-based encoding method configured to extract a target region by generating a two-dimensional template based on a three-dimensional model.

特開平3−253190号公報JP-A-3-253190 特開2004−320799号公報JP 2004-320799 A

モデルベース符号化方式は、近年の計算機の処理速度向上や、画像認識、解析、コンピュータグラフィックスの進歩により実現性が高まっている。すなわち、符号化対象の画像を解析し、適切なモデルを選択し、そのモデルのパラメータを調整することで、符号化対象の画像に近い画像をモデルから構成することが技術的に可能となってきている。入力画像に近い画像をモデルから生成できれば、このモデルから得られる生成画像と入力画像との差分情報とモデルのパラメータ情報のみによって入力画像を復号化できるため、情報量の大幅な圧縮が期待できる。   The model-based encoding method has become more feasible due to recent improvements in computer processing speed, image recognition, analysis, and computer graphics. In other words, it has become technically possible to construct an image close to the encoding target image by analyzing the encoding target image, selecting an appropriate model, and adjusting the model parameters. ing. If an image close to the input image can be generated from the model, the input image can be decoded only by the difference information between the generated image obtained from the model and the input image and the parameter information of the model, so that a large amount of information can be expected to be compressed.

しかしながら、特許文献1、2に記載されるような従来のモデルベース符号化やこれを用いたハイブリッド符号化では、符号化装置と復号化装置とで、使用する3次元モデルに関するデータ(モデルデータ)を予め共有していることを前提としている。よって、モデルベース符号化の利点を活かせる符号化対象は、共有する唯一のモデルに限定されてしまうという問題があった。   However, in conventional model-based coding as described in Patent Documents 1 and 2 and hybrid coding using the same, data (model data) relating to a three-dimensional model used by the coding device and the decoding device. Is pre-shared. Therefore, there is a problem that the encoding target that can make use of the advantages of model-based encoding is limited to a single shared model.

本発明の目的は、上記の課題を鑑み、モデルベース符号化、復号化において、複数のモデルを利用することやモデルの種類を柔軟に変更することを可能とする動画像符号化、復号化装置及びその方法を実現することにある。   In view of the above-described problems, an object of the present invention is a video encoding / decoding device that can use a plurality of models and flexibly change model types in model-based encoding / decoding. And to realize the method.

上記目的を達成するため、本発明による動画像符号化装置は予測画像としてモデルベース予測画像を生成するためのモデルベース予測系統を備え、モデルベース予測系統は、モデルベース予測に用いる複数のモデルのモデルデータを格納するモデルデータ格納部と、複数のモデルデータを所定のパラメータを用いて変形し入力画像に最適なモデルを選択するモデルマッチング部と、変形されたモデルデータを2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成する2次元画像合成部と、2次元モデル画像を参照し入力画像のモデルベース動き予測ベクトルとモデルベース予測画像を生成するモデルベース動き予測部とを有する。   In order to achieve the above object, a video encoding apparatus according to the present invention includes a model-based prediction system for generating a model-based prediction image as a prediction image, and the model-based prediction system includes a plurality of models used for model-based prediction. A model data storage unit that stores model data, a model matching unit that modifies a plurality of model data using predetermined parameters and selects an optimal model for an input image, and projects the deformed model data on a two-dimensional plane Alternatively, a two-dimensional image synthesis unit that synthesizes a two-dimensional model image by cutting along a two-dimensional plane, and a model-based motion prediction unit that generates a model-based motion prediction vector and a model-based prediction image of an input image with reference to the two-dimensional model image And have.

ここでモデルデータには、モデル名、要素型、要素データ、属性データセット、モデルパラメータ初期値が含まれ、パラメータによるモデルの操作ルールは予め定義されている。   Here, the model data includes a model name, an element type, element data, an attribute data set, and model parameter initial values, and model operation rules based on parameters are defined in advance.

また出力する符号化ストリームには、予測差分画像の情報とともに、モデルベース予測画像において予測に用いたモデルを示す情報と、モデルの変形に用いたパラメータと、モデルベース動き予測ベクトルと、2次元平面に関する情報を格納する。   The encoded stream to be output includes information on the prediction difference image, information indicating the model used for prediction in the model-based prediction image, parameters used for model deformation, a model-based motion prediction vector, and a two-dimensional plane. Stores information about

さらに、モデルベース予測に用いるモデル一覧を提示し、一覧の中で必要なモデルのモデルデータを外部から取得する装置制御部を備える。   Furthermore, a model list used for model-based prediction is presented, and a device control unit that obtains model data of a necessary model in the list from the outside is provided.

また入力画像の解像度に応じてモデルベース予測に用いるモデルデータの階層レベルを変換するモデル制御部を備え、モデル制御部は、階層レベルに従いモデルデータの構成要素の大きさと数の変換及び属性値の変換を行う。   In addition, a model control unit that converts the hierarchical level of the model data used for model-based prediction according to the resolution of the input image, the model control unit converts the size and number of components of the model data according to the hierarchical level, and changes the attribute value Perform conversion.

本発明による動画像復号化装置は、予測画像としてモデルベース予測画像を生成するためのモデルベース予測系統を備え、モデルベース予測系統は、モデルベース予測に用いる複数のモデルのモデルデータを格納するモデルデータ格納部と、符号化ストリームから取得した予測に用いたモデルを示す情報とモデルの変形に用いたパラメータを元に、該当するモデルデータを変形するモデル変形部と、符号化ストリームから取得した2次元平面に関する情報を元に、2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成する2次元画像合成部と、2次元モデル画像と符号化ストリームから取得したモデルベース動き予測ベクトルを用いてモデルベース予測画像を生成するモデルベース動き補償部とを有する。   A moving picture decoding apparatus according to the present invention includes a model-based prediction system for generating a model-based prediction image as a prediction image, and the model-based prediction system stores model data of a plurality of models used for model-based prediction. Based on the data storage unit, the information indicating the model used for prediction obtained from the encoded stream and the parameters used for the model deformation, the model deforming unit for deforming the corresponding model data, and 2 acquired from the encoded stream Based on information about the two-dimensional plane, a two-dimensional image synthesis unit that synthesizes a two-dimensional model image by projecting on the two-dimensional plane or cutting along the two-dimensional plane, and a model-based motion obtained from the two-dimensional model image and the encoded stream A model-based motion compensation unit that generates a model-based prediction image using the prediction vector.

本発明による動画像符号化方法は、予測画像としてモデルベース予測画像を生成するために、モデルベース予測に用いる複数のモデルのモデルデータを格納しておき、複数のモデルデータを所定のパラメータを用いて変形し入力画像に最適なモデルを選択し、変形されたモデルデータを2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成し、2次元モデル画像を参照し入力画像のモデルベース動き予測ベクトルとモデルベース予測画像を生成する。   In order to generate a model-based prediction image as a prediction image, the moving image encoding method according to the present invention stores model data of a plurality of models used for model-based prediction, and uses the plurality of model data using predetermined parameters. Select the model that is most suitable for the input image and deform it, project the deformed model data on the 2D plane, or cut the 2D plane and synthesize the 2D model image, refer to the 2D model image and input image Model-based motion prediction vectors and model-based prediction images are generated.

本発明による動画像復号化方法は、予測画像としてモデルベース予測画像を生成するために、モデルベース予測に用いる複数のモデルのモデルデータを格納しておき、符号化ストリームから取得した予測に用いたモデルを示す情報とモデルの変形に用いたパラメータを元に、該当するモデルデータを変形し、符号化ストリームから取得した2次元平面に関する情報を元に、2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成し、2次元モデル画像と符号化ストリームから取得したモデルベース動き予測ベクトルを用いてモデルベース予測画像を生成する。   The moving image decoding method according to the present invention stores model data of a plurality of models used for model-based prediction in order to generate a model-based predicted image as a predicted image, and used the prediction obtained from the encoded stream. Based on the information indicating the model and the parameters used for the deformation of the model, the corresponding model data is deformed and projected on the two-dimensional plane or based on the information about the two-dimensional plane acquired from the encoded stream. The two-dimensional model image is synthesized by cutting, and a model-based prediction image is generated using the two-dimensional model image and the model-based motion prediction vector acquired from the encoded stream.

本発明によれば、符号化対象に応じて符号化効率の向上に有効なモデルを適宜選択して用いることができるので、様々な入力画像に対して符号化時の圧縮率を大幅に向上させる効果がある。   According to the present invention, a model effective for improving the encoding efficiency can be appropriately selected and used according to the encoding target, so that the compression rate at the time of encoding can be greatly improved for various input images. effective.

以下、図面を参照して本発明の各実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

実施例1は本発明による動画像符号化装置に関するもので、複数のモデルを用いて、波形符号化とモデルベース符号化を組み合わせたハイブリッド符号化を行う。本実施例の動画像符号化装置は、フレームが時間方向に配置されるような一般的な動画像のみならず、X線CTやMRIなどの画像診断装置における3次元画像にも適用可能であることを予め記しておく。モデルベース符号化は、TV会議や医用画像診断装置など撮像対象が限定されている場合などにおいて特に有効である。   The first embodiment relates to a moving picture coding apparatus according to the present invention, and performs hybrid coding using a combination of waveform coding and model-based coding using a plurality of models. The moving image encoding apparatus according to the present embodiment can be applied not only to a general moving image in which frames are arranged in the time direction but also to a three-dimensional image in an image diagnosis apparatus such as X-ray CT or MRI. This is noted in advance. Model-based encoding is particularly effective when the imaging target is limited, such as a TV conference or a medical image diagnostic apparatus.

図1は、本発明による動画像符号化装置の一実施例を示す構成図である。
動画像符号化装置100は、予測画像格納部114に格納される予測画像116と入力画像101との予測差分画像117を生成する差分器102、予測差分画像117をDCTなどの直交変換を行う変換部103、変換後の信号を量子化する量子化部104、量子化後の信号を符号化する可変長符号化部105を有し、符号化ストリーム106を出力する。
FIG. 1 is a block diagram showing an embodiment of a moving picture coding apparatus according to the present invention.
The video encoding apparatus 100 includes a subtractor 102 that generates a prediction difference image 117 between the prediction image 116 stored in the prediction image storage unit 114 and the input image 101, and a conversion that performs orthogonal transformation such as DCT on the prediction difference image 117. Unit 103, quantization unit 104 that quantizes the converted signal, and variable length encoding unit 105 that encodes the quantized signal, and outputs encoded stream 106.

本実施例の動画像符号化装置100は、上記の予測画像116を生成するために3通りの予測処理系統を有する。第1の系統は画面間予測によるもので、次の入力画像のための参照画像を得るため、量子化部104で出力された量子化信号を逆量子化する逆量子化部107、逆量子化信号を逆変換して予測差分画像を得る逆変換部108、逆変換後の予測差分画像と予測画像格納部114からの予測画像を加算する加算器109、加算後の画像からブロックノイズを除去した参照画像を得るデブロック処理部110を有する。そして、得られた参照画像を格納する参照画像格納部111、参照画像と入力画像101との間の動き予測を行う動き予測部112を有する。第2の系統は画面内予測によるもので、入力画像101から画面内予測を行う画面内予測部118を有する。第3の系統はモデルベース予測によるもので、モデルベース画像生成部120と、モデルベース動き予測部125を有する。モデルベース予測については後述する。   The moving image encoding apparatus 100 according to the present embodiment has three types of prediction processing systems in order to generate the predicted image 116 described above. The first system is based on inter-screen prediction, and in order to obtain a reference image for the next input image, an inverse quantization unit 107 that inversely quantizes the quantized signal output from the quantization unit 104, and inverse quantization An inverse transform unit 108 that inversely transforms the signal to obtain a prediction difference image, an adder 109 that adds the prediction difference image after the inverse transformation and the prediction image from the prediction image storage unit 114, and block noise is removed from the image after the addition A deblocking processing unit 110 for obtaining a reference image is included. A reference image storage unit 111 that stores the obtained reference image, and a motion prediction unit 112 that performs motion prediction between the reference image and the input image 101 are included. The second system is based on intra-screen prediction, and has an intra-screen prediction unit 118 that performs intra-screen prediction from the input image 101. The third system is based on model-based prediction, and includes a model-based image generation unit 120 and a model-based motion prediction unit 125. Model-based prediction will be described later.

予測画像比較部113では上記3通りの予測処理系統、すなわち、動き予測部112からの画面間予測画像、画面内予測部118からの画面内予測画像、及びモデルベース動き予測部125からのモデルベース予測画像のうち、最も予測効率が高いと推測される予測画像を選択する。予測効率の指標としては、例えば予測誤差エネルギーなどが挙げられるが、その他として近傍のブロックの予測方式(画面間予測か画面内予測かモデルベース予測か)との類似性などを考慮して予測画像(すなわち予測方式)を選択してもよい。   In the predicted image comparison unit 113, the above three prediction processing systems, that is, the inter-screen prediction image from the motion prediction unit 112, the intra-screen prediction image from the intra-screen prediction unit 118, and the model base from the model base motion prediction unit 125 are used. A prediction image estimated to have the highest prediction efficiency is selected from the prediction images. As an index of prediction efficiency, for example, prediction error energy can be cited, but other than that, a prediction image is taken into consideration such as similarity to a prediction method of neighboring blocks (inter-screen prediction, intra-screen prediction or model-based prediction). (That is, the prediction method) may be selected.

選択された予測画像は、フィルタ処理部113により必要に応じて予測画像のブロック境界において低域通過型フィルタをかける。これはブロック境界の両側で予測方式が異なるとブロックノイズが目立ちやすくなるため、これを除去するためである。予測方式が異なっている場合の他、モデルベース予測で用いられているモデルが異なる場合にもフィルタ処理を施しても良い。フィルタ処理を施された最終的な予測画像116は予測画像格納部115に格納され、入力画像101との予測差分画像117を生成するために用いられる。
なお、予測画像比較部113で選択した予測方式に関する情報126は、可変長符号化部105に送られ、符号化ストリーム106の一部に格納される。
The selected prediction image is subjected to a low-pass filter at the block boundary of the prediction image by the filter processing unit 113 as necessary. This is because block noise tends to be conspicuous if the prediction method is different on both sides of the block boundary. Filter processing may be performed not only when the prediction method is different but also when the model used in model-based prediction is different. The final predicted image 116 subjected to the filter process is stored in the predicted image storage unit 115 and used to generate a predicted difference image 117 from the input image 101.
Note that the information 126 related to the prediction method selected by the predicted image comparison unit 113 is sent to the variable length coding unit 105 and stored in a part of the coded stream 106.

本実施例では第3の系統であるモデルベース予測の構成に特徴があり、以下詳細に説明する。モデルベース画像生成部120は、モデル制御部121、モデルデータ格納部122、モデルマッチング部123、及び2次元画像合成部124を有する。モデル制御部121は、各部の動作の制御を行う。モデルデータ格納部122は、モデルベース予測に用いるモデルデータを格納するが、格納するモデルデータは符号化対象に応じて決められ、必要なモデルデータを全て格納している。もし必要なモデルデータが存在しない場合には、モデルデータが存在しない旨のメッセージを通知し、外部から取得することも可能である。   This embodiment is characterized by the configuration of model-based prediction, which is the third system, and will be described in detail below. The model base image generation unit 120 includes a model control unit 121, a model data storage unit 122, a model matching unit 123, and a two-dimensional image synthesis unit 124. The model control unit 121 controls the operation of each unit. The model data storage unit 122 stores model data used for model-based prediction. The model data to be stored is determined according to the encoding target, and stores all necessary model data. If the necessary model data does not exist, a message indicating that the model data does not exist can be notified and acquired from the outside.

モデルマッチング部123では、予め定められたモデルパラメータの値を変えてモデルデータを変形する。2次元画像合成部124では、変形されたモデルデータを2次元平面に投影、あるいは2次元平面で切断し、2次元平面のモデル画像を合成する。合成されたモデル画像はモデルマッチング部123にて入力画像101と比較される。モデルマッチング部123は比較により変形情報の抽出を行い、再びモデルパラメータの値を更新してモデルデータを変形する。このような処理を繰り返すことにより、入力画像101に対して最適なモデルパラメータと、この最適なモデルパラメータをモデルに適応したときの2次元のモデル画像が生成される。   The model matching unit 123 changes the model data by changing the value of a predetermined model parameter. The two-dimensional image synthesis unit 124 projects the deformed model data on a two-dimensional plane or cuts the two-dimensional plane to synthesize a two-dimensional plane model image. The combined model image is compared with the input image 101 by the model matching unit 123. The model matching unit 123 extracts deformation information by comparison, updates the model parameter value again, and deforms the model data. By repeating such processing, an optimal model parameter for the input image 101 and a two-dimensional model image when the optimal model parameter is applied to the model are generated.

このようなモデルパラメータの抽出例は、例えば参考文献1に報告がなされている。参考文献1では、1つの顔モデルを前提としているが、本実施例のモデルマッチング部123では、モデルデータ格納部122に格納された複数のモデルに対して同様のモデルパラメータ抽出処理を行い、最適なモデルを選択することが可能である。
[参考文献1]金子、羽鳥、小池:「形状変化の検出と3次元モデルに基づく顔動画像の符号化」、電子情報通信学会論文誌(B)、J71−B、pp.1554−1556(昭和63年12月)。
An example of such model parameter extraction is reported in Reference Document 1, for example. In Reference Document 1, it is assumed that one face model is used. However, the model matching unit 123 according to the present embodiment performs the same model parameter extraction process on a plurality of models stored in the model data storage unit 122 to obtain the optimum model. It is possible to select a simple model.
[Reference Document 1] Kaneko, Hatori, Koike: “Detection of shape change and encoding of moving face image based on three-dimensional model”, IEICE Transactions (B), J71-B, pp. 11-27. 1554-1556 (December 1988).

モデルベース動き予測部125では、上記のように得られた2次元モデル画像を参照画像と見立て、入力画像101からの動き予測処理を行う。この動き予測アルゴリズムに関しては、既知のアルゴリズムを用いることが可能であり、動き予測部112と処理を共通化してもよい。また、2次元モデル画像生成に用いたモデルパラメータの情報127は、モデルベース画像生成部120から可変長符号化部105に送られ、符号化ストリーム106の一部に格納される。   The model-based motion prediction unit 125 regards the two-dimensional model image obtained as described above as a reference image, and performs motion prediction processing from the input image 101. Regarding this motion prediction algorithm, a known algorithm can be used, and the processing may be shared with the motion prediction unit 112. The model parameter information 127 used for generating the two-dimensional model image is sent from the model base image generation unit 120 to the variable length encoding unit 105 and stored in a part of the encoded stream 106.

図2は、モデルデータ格納部116に格納されるモデルデータの構造の一例を示す図である。モデルデータの各要素について説明する。   FIG. 2 is a diagram illustrating an example of the structure of model data stored in the model data storage unit 116. Each element of the model data will be described.

「ID」とはモデルデータの種類を同定するための番号である。「Version」は同じIDのモデルデータにおけるバージョンを示す番号であり、更新されたモデルデータを識別するために用いる。「モデル名」は、モデルデータに与えられる名称の文字列である。例えば、人間の顔であれば、「顔(男)」「顔(女)」「顔(成人)」「顔(子供)」など、モデルデータの特徴を示す文字列が望ましい。   “ID” is a number for identifying the type of model data. “Version” is a number indicating the version of the model data having the same ID, and is used for identifying the updated model data. “Model name” is a character string of a name given to model data. For example, in the case of a human face, a character string indicating the characteristics of model data such as “face (male)”, “face (female)”, “face (adult)”, “face (child)” is desirable.

「要素型」は、モデルデータを構成する要素の型に関する情報を示す。例えば、3次元表面のモデル化であれば「三角パッチ」「四角パッチ」など、内部を含めた3次元立体のモデル化であれば「ボクセル」などと表す。   The “element type” indicates information related to the types of elements constituting the model data. For example, “triangular patch” or “square patch” is used for modeling a three-dimensional surface, and “voxel” is used for modeling a three-dimensional solid including the interior.

「要素データ」は、モデルデータを構成する個々の要素に関する情報である。「要素データ数」は要素データの数を表し、同図ではM個存在する。そしてM個の各要素のモデル上の位置は「要素の座標値」で表される。ここで「要素の座標値」とは、例えば要素型が三角パッチ面であれば要素である各三角形パッチ面を構成する三点の座標の組を表すものであり、要素型に応じて「要素の座標値」の形式は異なっていてよい。   “Element data” is information relating to individual elements constituting the model data. “Number of element data” represents the number of element data, and there are M elements in the figure. The positions of the M elements on the model are represented by “element coordinate values”. Here, the “element coordinate value” indicates, for example, a set of coordinates of three points constituting each triangular patch surface as an element if the element type is a triangular patch surface. The format of “coordinate values of” may be different.

「属性データセット」は、個々の要素に与える属性データに関する組である。「属性データ数」は属性データの組の数を表し、同図ではN個存在する。個々の「属性データ」は、「属性名」、「属性型」、及びM個の「属性値」から成る。「属性名」は属性の名称を表す文字列であり「色(RGB)」「明るさ」「反射率」「透明度」など、個々の属性の特徴を表す名称が望ましい。「属性型」は個々の属性値の型に関する情報であり、「整数」「2値数」「小数点」などの情報である。「属性値」は、個々の要素に与える属性の値であり、要素の数だけ値が存在しており、この属性値は要素データにおける各要素の座標は対応づけられる必要がある。   The “attribute data set” is a set related to attribute data given to each element. “Number of attribute data” represents the number of sets of attribute data, and there are N attribute data in the figure. Each “attribute data” includes “attribute name”, “attribute type”, and M “attribute values”. The “attribute name” is a character string representing the name of the attribute, and a name representing the characteristics of each attribute such as “color (RGB)”, “brightness”, “reflectance”, and “transparency” is desirable. The “attribute type” is information regarding the type of each attribute value, and is information such as “integer”, “binary number”, “decimal point”. The “attribute value” is an attribute value given to each element, and there are as many values as the number of elements, and this attribute value needs to be associated with the coordinates of each element in the element data.

「モデルパラメータ初期値」は、モデルデータを操作、変形するためのモデルパラメータの初期値である。「パラメータ数」は「パラメータデータ」の数を表す。個々の「パラメータデータ」は「パラメータ名」、「パラメータ型」、「パラメータ値」から成る。   The “model parameter initial value” is an initial value of a model parameter for manipulating and transforming model data. “Number of parameters” represents the number of “parameter data”. Each “parameter data” includes “parameter name”, “parameter type”, and “parameter value”.

「モデルパラメータ」としては、回転角度や縮尺サイズなど、多くのモデルに共通的なパラメータの他、個々のモデルに応じたパラメータを含んでもよい。例えば参考文献2には顔モデルの作成の例が示され、目や鼻、眉毛、口唇など、顔の各部位の特徴点を定義し、この特徴点の位置を移動することにより個々の顔を形成する。上記の例であれば、パラメータ名として「特徴点(目1)」「特徴点(目2)」など、パラメータ型としては「3次元座標」、数値として個々の特徴点座標値を与える。
[参考文献2]特開2003−44873号公報
さらに表情を変えるための表情筋モデルを顔モデルに加えると、個々の筋肉に対して長さや収縮率の値を与え、予め表情筋モデルで定められた運動方程式により特徴点の位置を変える、といった変形操作を行うことも可能である。このように、個々のモデルに応じたモデルパラメータに対して初期値が与えられることにより、モデルの初期状態が定義される。
The “model parameters” may include parameters corresponding to individual models, in addition to parameters common to many models, such as a rotation angle and a scale size. For example, Reference 2 shows an example of creating a face model. Define feature points of each part of the face such as eyes, nose, eyebrows, lips, etc., and move each feature point to move each face. Form. In the above example, “feature point (eye 1)” and “feature point (eye 2)” are given as parameter names, “three-dimensional coordinates” is given as a parameter type, and individual feature point coordinate values are given as numerical values.
[Reference Document 2] Japanese Patent Application Laid-Open No. 2003-44873 When a facial muscle model for changing the facial expression is added to the facial model, length and contraction rate values are given to the individual muscles, and the facial muscle model is determined in advance. It is also possible to perform a deformation operation such as changing the position of the feature point according to the equation of motion. In this way, the initial value of the model parameter corresponding to each model is given, whereby the initial state of the model is defined.

上記の顔の例のように、モデルパラメータを用いてどのように変形するか、といった規則は個々のモデルに依存する。このため、モデル制御部121では、モデルベース画像生成部120が、どのIDのモデルに対して、変形や操作処理を含めて対応可能であるか、の情報を管理しておく必要がある。   As in the face example above, the rules for how to deform using model parameters depend on the individual model. For this reason, in the model control unit 121, it is necessary to manage information about which model of the ID the model base image generation unit 120 can handle, including deformation and operation processing.

その他、モデルデータには、「モデルデータの説明」やモデルデータをダウンロードする際に利用する、モデルの「Size」情報などを含んでもよい。
モデルデータ格納部122には、上記のようなモデルデータが複数格納される。
In addition, the model data may include “Description of model data”, “Size” information of the model used when downloading the model data, and the like.
The model data storage unit 122 stores a plurality of model data as described above.

図3は、本実施例の動画像符号化装置100が出力する符号化ストリーム106の構成を説明する図である。   FIG. 3 is a diagram illustrating the configuration of the encoded stream 106 output from the moving image encoding apparatus 100 according to the present embodiment.

(a)は一般の符号化ストリーム106の全体構造を示し、ストリーム全体に関連するシーケンスヘッダ情報1061、各ピクチャ単位に適応される情報であるピクチャヘッダ1062、及び各ピクチャデータ1063とから構成される。以下、本実施例のモデルベース符号化に関連する情報の格納例を示す。   (A) shows the overall structure of a general encoded stream 106, which is composed of sequence header information 1061 relating to the entire stream, a picture header 1062 which is information adapted to each picture unit, and each picture data 1063. . Hereinafter, a storage example of information related to the model-based encoding of the present embodiment will be shown.

(b)はシーケンスヘッダ1061を示し、ストリームの符号化に用いられたモデルに関するモデルセット情報が格納される。モデルセット情報は、符号化に用いられたモデル数、及び各モデル情報から成る。モデル情報は、モデルを同定する「ID」、「Version」、「URL」、及び「階層レベル」を含む。「ID」と「Version」は、図2で述べたモデルデータの内容と同様である。「URL」は、モデルデータを取得するためのネットワーク上のアドレスである。「URL」は後述するように、復号化時に必要に応じてモデルデータを取得するために用いられる。「階層レベル」については実施例3で後述する。   (B) shows a sequence header 1061 in which model set information relating to a model used for encoding a stream is stored. The model set information includes the number of models used for encoding and each model information. The model information includes “ID”, “Version”, “URL”, and “hierarchy level” for identifying the model. “ID” and “Version” are the same as the contents of the model data described in FIG. “URL” is an address on the network for acquiring model data. As will be described later, “URL” is used to acquire model data as necessary during decoding. The “hierarchy level” will be described later in the third embodiment.

(c)はピクチャヘッダ1062を示し、個々のピクチャ画像を符号化する際、前述のモデル予測画像を生成するために用いられた「モデル数」と、モデルベース予測パラメータが格納される。予測パラメータは、各モデルの「ID」、そのモデルから2次元平面のモデル画像を合成したときの投影面もしくは切断面を示す「ピクチャ面情報」、投影か切断かを表す「投影情報」、及び「モデルパラメータ値」を含む。   (C) shows a picture header 1062, which stores the “number of models” used to generate the above-described model prediction image and model-based prediction parameters when encoding individual picture images. The prediction parameters are “ID” of each model, “picture plane information” indicating a projection plane or a cut plane when a model image of a two-dimensional plane is synthesized from the model, “projection information” indicating whether projection or cutting, and Includes “model parameter values”.

「ピクチャ面情報」とは、2次元平面モデル画像を得るための投影面もしくは切断面を、例えばax+by+cz+d=0と表記したときの係数(a,b,c,d)である。「投影情報」は前述の2次元平面に対して、3次元モデルを投影するのかもしくは切断するのか、投影するのであれば平行投影(平行光線による投影)か透視投影(放射光線による投影)か、等に関する情報である。もし透視投影である場合には、放射光線の光源の位置の座標も格納する。   “Picture plane information” is a coefficient (a, b, c, d) when a projection plane or a cut plane for obtaining a two-dimensional plane model image is expressed as, for example, ax + by + cz + d = 0. “Projection information” is whether the three-dimensional model is projected or cut with respect to the above-described two-dimensional plane, and if it is projected, it is a parallel projection (projection by parallel rays) or a perspective projection (projection by radiation rays), It is information about etc. If the projection is a perspective projection, the coordinates of the position of the light source of the radiation beam are also stored.

「モデルパラメータ値」は、モデルマッチング部123と2次元画像合成部124が最終的にモデルベース予測画像を作成したときのモデルパラメータ値である。   The “model parameter value” is a model parameter value when the model matching unit 123 and the two-dimensional image synthesis unit 124 finally create a model-based predicted image.

(d)はピクチャデータ1063を示し、ピクチャの符号化データが格納される。一般的な動画像符号化では、一枚のピクチャをマクロブロック(図3ではMBと表記)と呼ばれる16×16画素のブロック単位で画像の変換や量子化を行い、予測方式、動きベクトル、符号化データをマクロブロックデータとして格納する。   (D) shows picture data 1063, in which encoded data of a picture is stored. In general moving picture coding, a picture is converted or quantized in units of 16 × 16 pixel blocks called macroblocks (indicated as MB in FIG. 3), and a prediction method, motion vector, code Stored data as macroblock data.

個々のマクロブロックデータには、動き予測方式を示す「MBタイプ」を含む。「MBタイプ」は、当該マクロブロックの予測画像を生成した際、予測画像比較部113にてどの予測方式(画面内予測、画面間予測、もしくはモデルベース予測)を選択したかを表す。   Each macroblock data includes an “MB type” indicating a motion prediction method. “MB type” indicates which prediction method (intra-screen prediction, inter-screen prediction, or model-based prediction) is selected by the predicted image comparison unit 113 when a predicted image of the macroblock is generated.

もしも「MBタイプ」がモデルベース予測方式であることを示している場合には、どのモデルが予測に使用されたかを示す「ID」、モデルベース予測画像を生成したときの動きベクトルを表す「モデルベース動きベクトル」、モデルベース予測画像と入力画像との差分を変換、量子化した「差分画像情報」を格納する。   If “MB type” indicates that the model-based prediction method is used, “ID” indicating which model is used for the prediction, and “model” indicating the motion vector when the model-based prediction image is generated. “Base motion vector”, “difference image information” obtained by converting and quantizing the difference between the model base prediction image and the input image is stored.

本実施例では、モデルベース予測に関する情報を以上に述べたような構成にて符号化ストリーム106に格納して伝送する。   In the present embodiment, information related to model-based prediction is stored in the encoded stream 106 with the configuration described above and transmitted.

次に図4は、本発明による動画像符号化装置の他の実施例を示す構成図である。本実施例の動画像符号化装置150は、前記図1の動画像符号化装置100の構成を動画像符号化部100’として備える他に、ユーザインタフェース部151、符号化装置制御部152、符号化モデルデータベース部153を有する。符号化モデルデータベース部153は、動画像符号化装置150内で利用可能なモデルデータを管理する。さらに符号化装置制御部152は、ネットワーク160を介して外部のモデルデータサーバ170に接続し、必要なモデルデータを取得する。これらの追加構成により、符号化に用いるモデルの選択、及び動画像符号化部100’へのモデルデータの設定の機能を実現する。   Next, FIG. 4 is a block diagram showing another embodiment of the moving picture coding apparatus according to the present invention. The moving picture coding apparatus 150 according to the present embodiment includes the configuration of the moving picture coding apparatus 100 of FIG. 1 as a moving picture coding section 100 ′, a user interface section 151, a coding apparatus control section 152, a code A model model database unit 153. The encoding model database unit 153 manages model data that can be used in the moving image encoding apparatus 150. Furthermore, the encoding device control unit 152 connects to an external model data server 170 via the network 160 and acquires necessary model data. With these additional configurations, functions for selecting a model used for encoding and setting model data in the moving image encoding unit 100 ′ are realized.

本実施例では、次の手順によりモデルデータを設定する。符号化装置制御部152は、ネットワーク160を介してモデルデータサーバ170にアクセスし、メッセージ161により符号化モデルのリストを要求する。モデルデータサーバ170は、メッセージ162により配信可能なモデルリストを符号化装置制御部152へ返信する。このモデルリストには少なくともモデルのID、Version、モデル名が格納されている。   In this embodiment, model data is set according to the following procedure. The encoding device control unit 152 accesses the model data server 170 via the network 160 and requests a list of encoding models by a message 161. The model data server 170 returns a model list that can be distributed by the message 162 to the encoding device control unit 152. This model list stores at least the model ID, version, and model name.

符号化装置制御部152は、受信したモデルリスト内のそれぞれのモデルが、符号化モデルデータベース部153に格納されているかどうかを確認する。そして、ユーザインタフェース部151を介しオペレータに対して、モデルリストの一覧と各々のモデルが既に動画像符号化装置150内に格納済みであるかどうかを通知する。   The encoding device control unit 152 checks whether or not each model in the received model list is stored in the encoding model database unit 153. Then, the list of the model list and whether each model has already been stored in the moving image encoding device 150 is notified to the operator via the user interface unit 151.

図5は、モデルリストの通知画面の一例であり、モデル名とダウンロード済みか否かを表示する。オペレータはこの画面を参照しながら、これから符号化を行おうとする入力画像に使用する適切なモデルを選択する。   FIG. 5 shows an example of a model list notification screen, which displays the model name and whether or not it has been downloaded. While referring to this screen, the operator selects an appropriate model to be used for the input image to be encoded.

もしも選択されたモデルが動画像符号化装置150に存在しない場合には、符号化装置制御部152は、モデルデータサーバ170に対して選択されたモデルのデータをメッセージ161により要求する。このメッセージ161には、要求するモデルのIDを格納する。モデルデータサーバ170は、要求されたモデルデータをメッセージ162により送信する。   If the selected model does not exist in the moving image encoding apparatus 150, the encoding apparatus control unit 152 requests the model data server 170 for data of the selected model using a message 161. This message 161 stores the ID of the requested model. The model data server 170 transmits the requested model data by a message 162.

符号化装置制御部152は、受信したモデルデータをモデルデータベース部153に格納する。もしくはこのモデルデータを、動画像符号化装置150が管理する動的メモリ領域に格納し、このメモリアドレスを動画像符号化部100’に設定する。このモデルデータのメモリアドレスは、動画像符号化部100’内のモデル制御部121に渡される。モデル制御部121は、このメモリアドレスを参照してモデルデータ格納部122にモデルデータをコピーする。あるいは、メモリアドレスを参照してモデルデータを直接取得してもよい。   The encoding device control unit 152 stores the received model data in the model database unit 153. Alternatively, the model data is stored in a dynamic memory area managed by the video encoding device 150, and the memory address is set in the video encoding unit 100 '. The memory address of this model data is passed to the model control unit 121 in the moving image encoding unit 100 '. The model control unit 121 copies model data to the model data storage unit 122 with reference to the memory address. Alternatively, the model data may be obtained directly with reference to the memory address.

以上により、動画像符号化部100’では、動画像符号化装置150にて指定されたモデルデータを、内部での符号化に利用することが可能となる。   As described above, the moving image encoding unit 100 ′ can use the model data specified by the moving image encoding device 150 for internal encoding.

上記の例では、ユーザインタフェース部151を介してオペレータがモデルを選択する例を示したが、動画像符号化装置150の用途によっては、符号化対象に関する情報を与えることで自動的にモデルを選択するよう、符号化装置制御部152を設定することも可能である。   In the above example, an example is shown in which the operator selects a model via the user interface unit 151. However, depending on the use of the video encoding device 150, the model is automatically selected by providing information on the encoding target. It is also possible to set the encoding device control unit 152 to do so.

例えば画像診断装置などの用途であれば、撮像対象の部位や患者の年齢、性別などを別途管理する場合が多い。よってこれらの情報と、利用するモデルの対応付けのルールを予め符号化装置制御部152へ設定することで、オペレータがモデルを選択することなく、符号化装置制御部152が自動的にモデルを選択することが可能である。   For example, in the case of an application such as an image diagnostic apparatus, the part to be imaged, the age and sex of a patient are often separately managed. Therefore, by setting a rule for associating such information with the model to be used in the encoding device control unit 152 in advance, the encoding device control unit 152 automatically selects the model without the operator selecting the model. Is possible.

以上に述べたように、本実施例による動画像符号化装置では、符号化対象に応じてモデルを選択し、このモデルデータを符号化時に外部から取得することができる。よって、様々な符号化対象に対してモデルベース符号化を広く適用することができ、動画像符号化の圧縮率を大幅に向上させる効果がある。   As described above, in the moving picture encoding apparatus according to the present embodiment, a model can be selected according to the encoding target, and this model data can be acquired from the outside during encoding. Therefore, model-based encoding can be widely applied to various encoding targets, and there is an effect of greatly improving the compression rate of moving image encoding.

実施例2は本発明による動画像復号化装置に関するもので、実施例1の動画像符号化装置により生成された符号化ストリームを復号する。その際、復号に必要なモデルデータを予め取得しておく。   Embodiment 2 relates to a moving picture decoding apparatus according to the present invention, and decodes an encoded stream generated by the moving picture encoding apparatus of Embodiment 1. At that time, model data necessary for decoding is acquired in advance.

図6は、本発明による動画像復号化装置の一実施例を示す構成図である。
動画像復号化装置200は、符号化ストリーム201の可変長符号を復号する可変長復号部202と、復号された信号を逆量子化する逆量子化部203と、逆量子化された信号を逆直交変換する逆変換部204と、予測画像格納部214に格納される予測画像215と逆変換部204から出力される予測差分画像216とを加算する加算器205と、加算した画像に対してブロック境界にて低域通過型のフィルタ処理を施すデブロック処理部206を有し、出力画像207を出力する。
FIG. 6 is a block diagram showing an embodiment of the moving picture decoding apparatus according to the present invention.
The video decoding apparatus 200 includes a variable length decoding unit 202 that decodes a variable length code of the encoded stream 201, an inverse quantization unit 203 that inversely quantizes the decoded signal, and an inversely quantized signal. An inverse transform unit 204 that performs orthogonal transform, an adder 205 that adds the predicted image 215 stored in the predicted image storage unit 214 and the prediction difference image 216 output from the inverse transform unit 204, and a block for the added image A deblocking processing unit 206 that performs low-pass filter processing at the boundary and outputs an output image 207.

本実施例の動画像復号化装置200は、上記の予測画像215を生成するために3通りの予測処理系統を有する。第1の系統は画面間予測によるもので、出力画像207をマクロブロック単位で逐次格納する出力画像格納部208と、出力画像格納部208に格納された全マクロブロックの画像データが次ピクチャの参照画像として別途格納される参照画像格納部209と、可変長復号化部202で復号された動きベクトルを用いて参照画像に対して動き補償を行い、画面間予測画像を得る動き補償部210を有する。第2の系統は画面内予測によるもので、出力画像格納部208に格納された処理済みのマクロブロックの画像データを用いて画面内予測を行う画面内予測部211を有する。第3の系統はモデルベース予測によるもので、モデルベース画像生成部220とモデルベース動き補償部225を有する。モデルベース復号化については後述する。   The moving picture decoding apparatus 200 according to the present embodiment has three types of prediction processing systems in order to generate the predicted image 215 described above. The first system is based on inter-screen prediction. The output image storage unit 208 that sequentially stores the output image 207 in units of macroblocks, and the image data of all macroblocks stored in the output image storage unit 208 refer to the next picture. A reference image storage unit 209 separately stored as an image, and a motion compensation unit 210 that performs motion compensation on the reference image using the motion vector decoded by the variable length decoding unit 202 and obtains an inter-screen prediction image . The second system is based on intra-screen prediction, and includes an intra-screen prediction unit 211 that performs intra-screen prediction using image data of processed macroblocks stored in the output image storage unit 208. The third system is based on model-based prediction, and includes a model-based image generation unit 220 and a model-based motion compensation unit 225. Model-based decoding will be described later.

上記3通りの予測処理系統、すなわち、動き補償部210からの画面間予測画像、画面内予測部211からの画面内予測画像、及びモデルベース動き補償部225からのモデルベース予測画像は、予測画像生成部212へ渡される。予測画像生成部212は、可変長復号化部202からマクロブロック毎の「MBタイプ」情報226を受け取り、マクロブロック毎に予測画像を切り替えるスイッチ機能を有する。すなわち、「MBタイプ」が指示する予測方式が画面間予測であれば、動き補償部210からの予測画像をフィルタ処理部213へ転送する。予測方式が画面内予測であれば、画面内予測部211からの予測画像をフィルタ処理部213へ転送する。予測方式がモデルベース予測であれば、モデルベース動き補償部225からの予測画像をフィルタ処理部213へ転送する。   The above three prediction processing systems, that is, the inter-screen prediction image from the motion compensation unit 210, the intra-screen prediction image from the intra-screen prediction unit 211, and the model-based prediction image from the model-based motion compensation unit 225 are predicted images. It is passed to the generation unit 212. The prediction image generation unit 212 has a switch function that receives the “MB type” information 226 for each macroblock from the variable length decoding unit 202 and switches the prediction image for each macroblock. That is, if the prediction method indicated by “MB type” is inter-screen prediction, the prediction image from the motion compensation unit 210 is transferred to the filter processing unit 213. If the prediction method is intra prediction, the prediction image from the intra prediction unit 211 is transferred to the filter processing unit 213. If the prediction method is model-based prediction, the prediction image from the model-based motion compensation unit 225 is transferred to the filter processing unit 213.

フィルタ処理部213では、必要に応じて予測画像のマクロブロック境界の予測画像画素に対して低域通過型のフィルタをかける。これは、予測方式が異なるマクロブロック境界ではブロックノイズが目立ちやすくなるため、これを除去するためである。また境界の両側がモデルベース予測方式でも、予測に用いられたモデルが異なる場合にも、同様にフィルタ処理を施しても良い。   The filter processing unit 213 applies a low-pass filter to the predicted image pixel at the macroblock boundary of the predicted image as necessary. This is because block noise tends to be noticeable at macroblock boundaries with different prediction schemes, and is therefore removed. Further, even when the both sides of the boundary are model-based prediction methods, even when the models used for prediction are different, the filtering process may be performed similarly.

フィルタ処理後の予測画像215は予測画像格納部214へ格納され、予測差分画像216と加算するために用いられる。なおフィルタ処理部213では、マクロブロック境界でフィルタをかけるため、必要に応じて既に予測画像格納部214に格納された予測画像データを取得し、これを変更するようにしてもよい。   The predicted image 215 after the filter processing is stored in the predicted image storage unit 214 and used for adding to the predicted difference image 216. Since the filter processing unit 213 performs filtering at the macroblock boundary, the predicted image data already stored in the predicted image storage unit 214 may be acquired and changed as necessary.

本実施例では第3の系統であるモデルベース予測の構成に特徴があり、以下詳細に説明する。モデルベース画像生成部220は、モデル制御部221、モデルデータ格納部222、モデル変形部223、及び2次元画像合成部224を有する。モデル制御部221は、各部の動作の制御を行う。モデルデータ格納部222は、モデルベース予測に用いるモデルデータを格納するが、使用するモデルデータを復号化対象に応じて切り替えるので、必要なモデルデータを全て格納している。もし必要なモデルデータ存在しない場合には、モデルデータが存在しない旨のメッセージを通知し、外部から取得することも可能である。   This embodiment is characterized by the configuration of model-based prediction, which is the third system, and will be described in detail below. The model base image generation unit 220 includes a model control unit 221, a model data storage unit 222, a model deformation unit 223, and a two-dimensional image synthesis unit 224. The model control unit 221 controls the operation of each unit. The model data storage unit 222 stores model data used for model-based prediction, but stores all necessary model data because the model data to be used is switched according to the decoding target. If the necessary model data does not exist, a message indicating that the model data does not exist can be notified and acquired from the outside.

可変長復号部202は、符号化ストリーム201を解析し、復号に必要な情報228をモデル制御部221へ渡す。まず符号化ストリーム201内のシーケンスヘッダ1061(図3参照)を解析し、復号に必要なモデルセット情報を送る。モデル制御部221は、符号化ストリーム201を復号するために必要なモデルデータが予めモデルデータ格納部222に存在することを確認した上で、各ピクチャの復号処理を行う。   The variable length decoding unit 202 analyzes the encoded stream 201 and passes information 228 necessary for decoding to the model control unit 221. First, the sequence header 1061 (see FIG. 3) in the encoded stream 201 is analyzed, and model set information necessary for decoding is sent. The model control unit 221 confirms that the model data necessary for decoding the encoded stream 201 exists in the model data storage unit 222 in advance, and performs the decoding process on each picture.

また符号化ストリーム201内のピクチャヘッダ1062(図3参照)を読み出し、このピクチャの復号に必要なモデルベース予測パラメータをモデル制御部221へ送る。モデルベース予測パラメータのうち、ピクチャ面情報と投影情報は2次元画像合成部224へ送られ、モデルパラメータ値はモデル変形部223へ送られる。   Also, the picture header 1062 (see FIG. 3) in the encoded stream 201 is read, and model-based prediction parameters necessary for decoding this picture are sent to the model control unit 221. Of the model-based prediction parameters, picture plane information and projection information are sent to the two-dimensional image synthesis unit 224, and model parameter values are sent to the model transformation unit 223.

次に、符号化ストリーム201内のピクチャデータ1063(図3参照)を読み出し、各マクロブロックの復号処理を行う。予測方式を示す「MBタイプ」がモデルベース予測である場合、「ID」と「モデルベース動きベクトル」が復号される。「ID」はモデル制御部221へ、「モデルベース動きベクトル」はモデルベース動き補償部225へ(符号227)それぞれ送られる。ここに「ID」は、マクロブロックの予測に使用されたモデルを示す番号である。また差分画像情報は、逆量子化部203、逆変換部204を介して予測差分画像216に復元される。なお、「MBタイプ」が、モデルベース予測以外の方式(画面内予測もしくは画面間予測)である場合は、従来の復号方式であるので説明を省略する。   Next, the picture data 1063 (see FIG. 3) in the encoded stream 201 is read, and each macroblock is decoded. When the “MB type” indicating the prediction method is model-based prediction, “ID” and “model-based motion vector” are decoded. “ID” is sent to the model control unit 221 and “model base motion vector” is sent to the model base motion compensation unit 225 (reference numeral 227). Here, “ID” is a number indicating a model used for macroblock prediction. The difference image information is restored to the predicted difference image 216 via the inverse quantization unit 203 and the inverse transform unit 204. Note that when the “MB type” is a method other than model-based prediction (intra-screen prediction or inter-screen prediction), the description is omitted because it is a conventional decoding method.

モデル制御部221は、上記「ID」をモデル変形部223へ渡す。モデル変形部223では、「ID」で指定されたモデルのモデルデータをモデルデータ格納部222から取得し、既に取得した「モデルパラメータ値」を用いてこのモデルを変形する。モデルの変形ルールはモデル固有であり、国際標準規格や業界標準、運用規定等により定められており、これらに従い実行する。   The model control unit 221 passes the “ID” to the model deformation unit 223. The model deforming unit 223 acquires model data of the model specified by “ID” from the model data storage unit 222, and deforms the model using the already acquired “model parameter value”. The model transformation rules are specific to the model, and are defined by international standards, industry standards, operational rules, etc., and are executed according to these standards.

2次元画像合成部224は、このようにして変形されたモデルを、「ピクチャ面情報」で指示される平面で投影もしくは切断して、2次元平面のモデル画像を取得する。ここで用いる「投影情報」には、当該平面に対して投影するか、当該平面で切断するか、投影する場合には平行投影か透写投影かの情報、透写投影の場合には光源の位置座標を含まれる。   The two-dimensional image composition unit 224 obtains a model image of a two-dimensional plane by projecting or cutting the model deformed in this way on a plane designated by “picture plane information”. The “projection information” used here includes information on whether the projection is performed on the plane, is cut on the plane, or is parallel projection or projection projection. Includes position coordinates.

得られた2次元のモデル画像はモデルベース動き補償部225に渡される。モデルベース動き補償部225は、モデル画像内の現在のマクロブロック位置から「モデルベース動きベクトル」だけ移動した位置の16×16ブロックの画素値を取得することで、当該マクロブロック位置におけるモデルベース予測画像を作成する。   The obtained two-dimensional model image is passed to the model-based motion compensation unit 225. The model-based motion compensation unit 225 obtains the pixel value of the 16 × 16 block at the position moved by the “model-based motion vector” from the current macroblock position in the model image, so that the model-based prediction at the macroblock position is obtained. Create an image.

次に図7は、本発明による動画像復号化装置の他の実施例を示す構成図である。本実施例の動画像復号化装置250は、前記図6の動画像復号化装置200の構成を動画像復号化部200’として備える他に、ユーザインタフェース部251、復号化装置制御部252、符号化モデルデータベース部253を有する。符号化モデルデータベース部253は、動画像復号化装置250内で復号処理に利用可能なモデルデータを管理する。さらに復号化装置制御部252は、ネットワーク260を介して外部のモデルデータサーバ270に接続し、必要なモデルデータを取得する。これらの追加構成により、符号化ストリームの復号に必要なモデルの取得、及び動画像復号化部200’へモデルデータを供給する機能を実現する。   FIG. 7 is a block diagram showing another embodiment of the moving picture decoding apparatus according to the present invention. The moving picture decoding apparatus 250 according to the present embodiment includes the configuration of the moving picture decoding apparatus 200 in FIG. 6 as a moving picture decoding section 200 ′, a user interface section 251, a decoding apparatus control section 252, and a code. A model model database unit 253. The encoding model database unit 253 manages model data that can be used for decoding processing in the video decoding device 250. Further, the decoding device control unit 252 connects to an external model data server 270 via the network 260 and acquires necessary model data. With these additional configurations, a function of acquiring a model necessary for decoding an encoded stream and supplying model data to the moving picture decoding unit 200 'is realized.

本実施例では、次の手順によりモデルデータを供給する。復号装置制御部252は符号化ストリーム201を復号化する際、そのシーケンスヘッダを解析し、どのモデルデータが必要かの情報を取得する。もし必要なモデルが符号化モデルデータベース部253に存在しない場合には、外部のモデルデータサーバ270からそのモデルデータを取得する。具体的には復号化装置制御部252は、ネットワーク260を介してモデルデータサーバ270にアクセスし、メッセージ261により必要なモデルデータの概要情報を要求する。モデルデータサーバ270は、メッセージ262により要求されたモデルデータの概要情報を復号化装置制御部252へ返信する。この概要情報としては、例えばモデル名やその説明、モデルデータサイズなどが挙げられる。   In this embodiment, model data is supplied by the following procedure. When decoding the encoded stream 201, the decoding device control unit 252 analyzes the sequence header and acquires information on which model data is necessary. If the necessary model does not exist in the encoded model database unit 253, the model data is acquired from the external model data server 270. Specifically, the decoding device control unit 252 accesses the model data server 270 via the network 260 and requests summary information of necessary model data by a message 261. The model data server 270 returns the summary information of the model data requested by the message 262 to the decoding device control unit 252. As this summary information, for example, the model name, its description, model data size and the like can be mentioned.

復号化装置制御部252は、モデルデータの概要情報を取得すると、ユーザインタフェース部251を介して、オペレータに対して復号化のために新たに取得する必要のあるモデルの概要情報の一覧を示し、取得するか否かの選択を促すような画面を提供する。   When the decryption device control unit 252 acquires the summary information of the model data, the decryption device control unit 252 indicates a list of summary information of the model that needs to be newly acquired for decryption to the operator via the user interface unit 251. Provide a screen that prompts the user to select whether or not to acquire.

図8は、モデルデータの概要情報の画面の一例である。オペレータはこのような画面を参照し、これから復号化を行おうとするストリームに必要なモデルの情報を確認しながら、モデルデータを外部から取得するかどうかを指示する。   FIG. 8 is an example of a model data summary information screen. The operator refers to such a screen, and indicates whether or not to acquire model data from the outside while confirming model information necessary for a stream to be decoded.

もしもモデルデータを外部から取得する場合には、復号化装置制御部252は、モデルデータサーバ270に対して、必要なモデルデータをメッセージ261により要求する。このときのメッセージ261には、要求するモデルのIDを格納する。モデルデータサーバ270は、要求されたモデルデータをメッセージ262により送信する。   If the model data is acquired from the outside, the decoding device control unit 252 requests the model data server 270 for necessary model data by using the message 261. The message 261 at this time stores the ID of the requested model. The model data server 270 transmits the requested model data by a message 262.

復号化装置制御部252は、受信したモデルデータをモデルデータベース部253に格納する。もしくはこのモデルデータを、動画像復号化装置250が管理する動的メモリ領域に格納し、このメモリアドレスを動画像復号化部200’に設定する。このモデルデータのメモリアドレスは、動画像復号化部200’内のモデル制御部221に渡される。モデル制御部221は、このメモリアドレスを参照してモデルデータ格納部222にモデルデータをコピーする。あるいは、メモリアドレスを参照してモデルデータを直接取得してもよい。   The decryption device control unit 252 stores the received model data in the model database unit 253. Alternatively, the model data is stored in a dynamic memory area managed by the video decoding device 250, and the memory address is set in the video decoding unit 200 '. The memory address of this model data is passed to the model control unit 221 in the moving image decoding unit 200 '. The model control unit 221 copies model data to the model data storage unit 222 with reference to the memory address. Alternatively, the model data may be obtained directly with reference to the memory address.

以上により、動画像復号化部200’では、動画像復号化装置250にて設定されたモデルデータを、内部での復号化に利用することが可能となる。   As described above, the moving picture decoding unit 200 ′ can use the model data set by the moving picture decoding apparatus 250 for internal decoding.

なお、復号化装置制御部252がモデルデータを取得するタイミングは、必ずしも符号化ストリーム201を解析した後である必要はない。すなわち予め必要なモデルデータの組の情報が分かる場合には、符号化ストリームを取得する以前からモデルデータを取得することも可能である。例えば、地上デジタル放送における番組情報として、予め番組内の符号化ストリームに使用されるモデルセット情報(シーケンスヘッダ内のモデルセット情報に相当)が格納されていれば、予め必要なモデルデータを取得してもよい。   Note that the timing at which the decoding apparatus control unit 252 acquires model data does not necessarily have to be after the encoded stream 201 is analyzed. That is, if the information of the necessary model data set is known in advance, the model data can be acquired before the encoded stream is acquired. For example, if model set information (corresponding to model set information in a sequence header) used for an encoded stream in a program is stored in advance as program information in terrestrial digital broadcasting, necessary model data is acquired in advance. May be.

またモデルデータサーバ270と定期的に交信し、常にモデルデータを最新の状態に更新してもよいし、そこで管理される全てのモデルデータを取得しておくようにしてもよい。例えば画像診断装置などでは、撮像する対象が限定されるため、撮影部位に応じたモデルデータ全てをモデルデータサーバ270に格納しておくことも可能である。このモデルデータを利用する復号化装置250や符号化装置150は、モデルデータサーバ270から定期的にモデルの一覧リストを取得し、追加、更新されたモデルデータがあれば、各々の符号化モデルデータベース部に予めダウンロードしてもよい。   In addition, the model data server 270 may be regularly communicated to constantly update the model data to the latest state, or all model data managed there may be acquired. For example, in an image diagnostic apparatus or the like, since the target to be imaged is limited, it is also possible to store all model data corresponding to the imaging region in the model data server 270. The decoding device 250 and the encoding device 150 that use the model data periodically acquire a list of models from the model data server 270, and if there is added or updated model data, each encoded model database You may download to a part beforehand.

以上に述べたように、本実施例による動画像復号化装置では、復号に必要なモデルデータを予め取得することにより、様々なモデルを用いて符号化されたモデルベース符号化ストリームに対して好適に復号化を行うことが可能となる。   As described above, the moving picture decoding apparatus according to the present embodiment is suitable for a model-based encoded stream encoded using various models by acquiring in advance model data necessary for decoding. It is possible to perform decryption.

実施例3は、動画像符号化及び復号化に用いるモデルデータを、階層レベルに応じて変換して用いることを特徴とする。ここで階層レベルとは、同一のモデルデータに設定する解像度の高低を示す指数である。   The third embodiment is characterized in that model data used for moving picture encoding and decoding is used after being converted according to a hierarchical level. Here, the hierarchical level is an index indicating the level of resolution set in the same model data.

図1の動画像符号化装置100内のモデル制御部121は、入力画像の解像度とこれに適したモデルデータの階層レベルとの対応関係を予め記憶している。そして、符号化対象画像の解像度が低く、モデルデータの階層レベルを低いレベルに切り替える場合には、モデル制御部121は、モデルデータを構成する要素の大きさ(面積や体積)を大きくすることで要素の数を小さくし、これに応じた属性値を再計算してモデルデータ格納部122へ格納する。このようにモデルデータの階層レベルを低くすることで、モデルマッチング部123や2次元画像合成部124における処理量を軽減することができる。モデルデータの階層レベルを変更した場合は、その情報を符号化ストリームに格納しておく。   The model control unit 121 in the moving image coding apparatus 100 in FIG. 1 stores in advance the correspondence between the resolution of the input image and the hierarchical level of the model data suitable for this. When the resolution of the encoding target image is low and the hierarchical level of the model data is switched to a low level, the model control unit 121 increases the size (area or volume) of the elements constituting the model data. The number of elements is reduced, and attribute values corresponding to the number of elements are recalculated and stored in the model data storage unit 122. In this way, by reducing the hierarchical level of the model data, the processing amount in the model matching unit 123 and the two-dimensional image composition unit 124 can be reduced. When the hierarchical level of the model data is changed, the information is stored in the encoded stream.

同様に図6の動画像復号化装置200においては、符号化ストリームから階層レベルの情報を取得する。モデル制御部221は、階層レベルの情報に従い、モデルデータの構成要素の大きさと数の変換及び属性値の変換を行う。これにより、モデル変形部223と2次元画像合成部224における処理量も軽減される。   Similarly, the moving picture decoding apparatus 200 in FIG. 6 acquires layer level information from the encoded stream. The model control unit 221 converts the size and number of the constituent elements of the model data and the attribute value according to the hierarchical level information. Thereby, the processing amount in the model deformation | transformation part 223 and the 2-dimensional image synthetic | combination part 224 is also reduced.

なお、モデルデータの階層レベルを下げるか否かの判定はユーザが判断し、図4のユーザインタフェース部151から指示することでもよい。   Note that the user may determine whether to lower the model data hierarchy level, and may instruct from the user interface unit 151 in FIG. 4.

モデルデータの階層レベルの切り替えに当たり、モデルデータの構成要素の大きさと数の変換、これに対応した属性値の変換は、個々のモデルデータの種類と階層レベルに応じて予めルールを決めておくことが望ましい。   When switching the model data hierarchy level, the size and number of model data components and the corresponding attribute value conversion should be determined in advance according to the type and hierarchy level of each model data. Is desirable.

図9は、モデルデータの変換の一例を示す図で、モデルの要素が三角パッチ面から構成されている場合である。(a)は変換前、(b)は変換後である。(a)の状態から要素の大きさを増やして要素数を減らすため、三角パッチ面A0,A1,A2・・・を構成する頂点を1点置きにサンプリングする。そして、(b)のようにサンプリングされた点を頂点とする新たな三角パッチ面B0,B1の要素を構成する。   FIG. 9 is a diagram showing an example of conversion of model data, in which the model elements are composed of triangular patch surfaces. (A) is before conversion, and (b) is after conversion. In order to reduce the number of elements by increasing the size of the elements from the state of (a), the vertices constituting the triangular patch surfaces A0, A1, A2,. Then, as shown in (b), elements of new triangular patch surfaces B0 and B1 having the sampled points as vertices are formed.

このようにしてモデルデータの要素数と大きさを変更した場合、新たな要素における属性値は、元の要素値から予め定められたルールに従って計算する。例えば同図(b)の要素B0における属性値は、要素B0の基となっている同図(a)の要素A0〜A3の属性値の平均を求めることで得られる。   When the number of elements and the size of the model data are changed in this way, the attribute value in the new element is calculated according to a predetermined rule from the original element value. For example, the attribute value in the element B0 in FIG. 5B is obtained by calculating the average of the attribute values of the elements A0 to A3 in FIG.

また図10は、モデルデータの変換の他の例を示す図で、モデルの要素が立方体のボクセルによって構成されている場合である。この場合も同様に、変換前の(a)のボクセルを構成する頂点を1点置きにサンプリングし、(b)のようにサンプリングされた点を頂点とする新たなボクセル要素を構成する。この新たなボクセル要素における属性値は、(a)の元のボクセル8個分の属性値の平均を求めることで得られる。   FIG. 10 is a diagram illustrating another example of conversion of model data, in which the model elements are configured by cubic voxels. Similarly, in this case, the vertices constituting the voxel before conversion (a) are sampled every other point, and a new voxel element having the sampled points as vertices is formed as shown in (b). The attribute value in this new voxel element is obtained by calculating the average of the attribute values for the eight original voxels in (a).

上記の例では、要素を構成する頂点の間隔を変えることで要素の大きさと数を変換する例を示したが、変換の方法はこれに限定されるものではなく、何らかのルールが予め定義され、一意に新たな要素が得られるものであればよい。   In the above example, the example in which the size and number of elements are converted by changing the interval between the vertices constituting the elements is shown, but the conversion method is not limited to this, and some rules are defined in advance. Any new element can be obtained uniquely.

以上に述べたように、本実施例によれば、動画像符号化及び復号化に必要なモデルデータを、階層レベルに従い要素の大きさと数、及び個々の要素の属性値を変換することで、符号化及び復号化における処理量を軽減する効果がある。   As described above, according to the present embodiment, the model data necessary for video encoding and decoding is converted into the size and number of elements according to the hierarchical level, and the attribute values of individual elements, There is an effect of reducing the processing amount in encoding and decoding.

本発明の動画像符号化装置及び復号化装置は、フレームが時間方向に配置されるような一般的な動画像のみならず、X線CTやMRIなどの画像診断装置における3次元画像にも適用可能である。実施例4は、このような画像診断装置に関する。すなわち画像診断装置では、撮像面の位置(動画像における各フレームの時刻に相当)が3次元空間内に配置されているため、一般的な動画像におけるフレーム時刻情報を、画像診断装置における各撮像面の空間的位置と対応付けが可能である。必要に応じてこのような対応付けに関する情報を付加してもよい。   The moving image encoding apparatus and decoding apparatus of the present invention are applicable not only to general moving images in which frames are arranged in the time direction but also to three-dimensional images in image diagnostic apparatuses such as X-ray CT and MRI. Is possible. Example 4 relates to such an image diagnostic apparatus. That is, in the image diagnostic apparatus, since the position of the imaging surface (corresponding to the time of each frame in the moving image) is arranged in the three-dimensional space, the frame time information in the general moving image is obtained from each imaging in the image diagnostic apparatus. It can be associated with the spatial position of the surface. Information regarding such association may be added as necessary.

図11は、本発明を適用した医用画像診断装置の一実施例を示す構成図である。医用画像診断装置としてはX線CT、MRIなどが挙げられるが、ここではX線CTを例に説明する。   FIG. 11 is a block diagram showing an embodiment of a medical image diagnostic apparatus to which the present invention is applied. Examples of the medical image diagnostic apparatus include X-ray CT and MRI. Here, X-ray CT will be described as an example.

医用画像診断装置300は、撮影した画像のモデルベース符号化と復号化を行う符号化・復号化処理部310の他に、画像取得部320、撮影プロトコル記憶部330、制御部340、ユーザインタフェース部350を備えて構成される。さらに制御部340は、ネットワーク360を介し外部のモデルデータサーバ370に接続されている。画像取得部320は、撮像対象の3次元再構成画像データを取得する。撮影プロトコル記憶部330は、撮影条件を含む撮影プロトコルを記録する。制御部340は、医用画像診断装置300の動作全体を制御する。符号化・復号化処理部310は、画像取得部320で生成された断層画像の符号化や、既に符号化されたストリームからの断層画像の復号を行う。ユーザインタフェース部350は、画像取得部320で生成された断層画像や、符号化・復号化処理部310での断層画像の符号化に用いるモデルの選択、符号化・復号化処理部310で復号された断層画像の表示、撮影プロトコルの入力等に用いられる。   The medical image diagnostic apparatus 300 includes an image acquisition unit 320, an imaging protocol storage unit 330, a control unit 340, a user interface unit, in addition to an encoding / decoding processing unit 310 that performs model-based encoding and decoding of a captured image. 350 is comprised. Furthermore, the control unit 340 is connected to an external model data server 370 via the network 360. The image acquisition unit 320 acquires 3D reconstructed image data to be imaged. The shooting protocol storage unit 330 records a shooting protocol including shooting conditions. The control unit 340 controls the entire operation of the medical image diagnostic apparatus 300. The encoding / decoding processing unit 310 performs encoding of the tomographic image generated by the image acquisition unit 320 and decoding of the tomographic image from the already encoded stream. The user interface unit 350 selects the tomographic image generated by the image acquisition unit 320 and the model used for encoding the tomographic image by the encoding / decoding processing unit 310 and is decoded by the encoding / decoding processing unit 310. This is used for displaying tomographic images and inputting imaging protocols.

画像取得部320の構成及び動作について説明する。画像取得部320は、スキャン制御部321、撮影部322、画像再構成部323、ボリュームデータ記憶部324から構成される。画像取得部320は、撮像対象に対してX線ビームを照射し、撮像対象を透過したX線ビームを検出し、検出されたX線投影データに基づいて3次元ボリュームデータを生成する。   The configuration and operation of the image acquisition unit 320 will be described. The image acquisition unit 320 includes a scan control unit 321, an imaging unit 322, an image reconstruction unit 323, and a volume data storage unit 324. The image acquisition unit 320 irradiates the imaging target with an X-ray beam, detects the X-ray beam transmitted through the imaging target, and generates three-dimensional volume data based on the detected X-ray projection data.

撮影部322は撮像対象物を置く寝台、X線源、X線検出器、データ収集部などから構成され、撮像対象に対してX線ビームを照射し、撮像対象を透過したX線を検出する。X線検出器は、互いに直交する2方向それぞれにアレイ状に配列されたX線検出素子から成る。データ収集部は、X線検出素子と同様にアレイ状に配列されたデータ収集素子から成り、スキャン制御部321が出力する制御信号に応じてデータを収集する。この収集されたデータがX線投影データとなる。   The imaging unit 322 includes a bed on which an imaging target is placed, an X-ray source, an X-ray detector, a data collection unit, and the like. The imaging unit 322 irradiates the imaging target with an X-ray beam and detects X-rays transmitted through the imaging target. . The X-ray detector is composed of X-ray detection elements arranged in an array in two directions orthogonal to each other. The data collection unit includes data collection elements arranged in an array like the X-ray detection elements, and collects data according to a control signal output from the scan control unit 321. This collected data becomes X-ray projection data.

撮影部322はスキャン制御部321の制御の下、撮像対象を置いた寝台を撮像対象の体軸に沿って移動させながらX線源を撮像対象の周りで回線させることで、撮像対象に対して螺旋状となるようなスキャンによる撮影を行う。   The imaging unit 322 controls the imaging target by moving the X-ray source around the imaging target while moving the bed on which the imaging target is placed along the body axis of the imaging target under the control of the scan control unit 321. Take a picture with a spiral scan.

画像再構成部323は、撮影部322により出力されるX線投影データから、X線吸収係数の3次元分布データである3次元画像データ(ボリュームデータ)を再構成する。この再構成処理は、フーリエ変換を用いる方法や逆投影処理を行うなど、既知の方法により実現される。再構成されたボリュームデータは、ボリュームデータ記憶部324に記憶される。   The image reconstruction unit 323 reconstructs three-dimensional image data (volume data) that is three-dimensional distribution data of the X-ray absorption coefficient from the X-ray projection data output from the imaging unit 322. This reconstruction processing is realized by a known method such as a method using Fourier transform or back projection processing. The reconstructed volume data is stored in the volume data storage unit 324.

画像生成部325は、ボリュームデータ記憶部324に記憶されたボリュームデータを用いて、任意の断面画像データを生成する。生成された断面画像は、ユーザインタフェース部350で表示される。   The image generation unit 325 uses the volume data stored in the volume data storage unit 324 to generate arbitrary cross-sectional image data. The generated cross-sectional image is displayed on the user interface unit 350.

符号化・復号化処理部310は、動画像符号化部311と動画像復号化部312、及び符号化モデルデータベース313から構成される。動画像符号化部311は、前記実施例1(図1)による動画像符号化装置100と同等であり、画像取得部320で生成された断層画像のシーケンスを入力して、既に述べた画像符号化処理を行って圧縮された符号化ストリームを生成する。   The encoding / decoding processing unit 310 includes a moving image encoding unit 311, a moving image decoding unit 312, and an encoding model database 313. The moving image encoding unit 311 is equivalent to the moving image encoding apparatus 100 according to the first embodiment (FIG. 1), and inputs the sequence of tomographic images generated by the image acquisition unit 320, and the image code already described. To generate a compressed encoded stream.

動画像復号化装置312は、前記実施例2(図6)による動画像符号化装置200と同等であり、圧縮された符号化ストリームに含まれる任意の断層画像を復号化する。   The moving picture decoding apparatus 312 is equivalent to the moving picture encoding apparatus 200 according to the second embodiment (FIG. 6), and decodes an arbitrary tomographic image included in the compressed encoded stream.

符号化モデルデータベース313は、動画像符号化部311が利用可能なモデルデータと、動画像復号化部312が利用可能なモデルデータとの管理を行う。動作は、図4、図7の符号化モデルデータベース153、253と同様である。   The encoding model database 313 manages model data that can be used by the moving image encoding unit 311 and model data that can be used by the moving image decoding unit 312. The operation is the same as that of the encoding model databases 153 and 253 of FIGS.

ユーザインタフェース部350は、画像取得部320で生成された断層画像や、符号化・復号化処理部310での断層画像の符号化に用いるモデルデータの選択、外部のモデルデータサーバ370からのモデル取得の決定、符号化・復号化処理部310で復号された断層画像の表示、撮影プロトコルの入力等に用いられる。ここでモデルデータの選択やモデルデータサーバ370からのモデル取得の決定などのインタフェースは、図5、図8にて述べた例と同様である。   The user interface unit 350 selects the tomographic image generated by the image acquisition unit 320, the model data used for encoding the tomographic image by the encoding / decoding processing unit 310, and acquires the model from the external model data server 370. Is used to display the tomographic image decoded by the encoding / decoding processing unit 310, input an imaging protocol, and the like. Here, the interface for selecting the model data and determining the model acquisition from the model data server 370 is the same as the example described with reference to FIGS.

本実施例の医用画像診断装置に用いられるモデルデータの一例を説明する。「モデル名」は、モデルデータの特徴を示す文字列であり、例えば、「脳のX線CT画像(水平断面用)」「脳のX線CT画像(矢状断面用)」「腹部MRI画像(標準男性)」「腹部MRI(肥満男性)」などを用意する。この他、「胸部X線CT画像」、「腹部X線CT画像」、「頭部MRI画像」といった、撮像された対象部位に応じて、符号化に用いるモデルを選択できるようにする。これより、様々な撮像対象に対して最適なモデルベース符号化を実行することができる。また、「腹部X線CT」の撮像画像を符号化する場合、標準的な腹部モデルとして、「成人男性」、「成人女性」、「肥満型男性」、「肥満型女性」といった、符号化対象の特質に応じてさらに細分化したモデルを用意することで、より精度の高い予測画像を生成し、圧縮率のさらなる向上が期待できる。   An example of model data used in the medical image diagnostic apparatus of this embodiment will be described. “Model name” is a character string indicating the characteristics of model data. For example, “X-ray CT image of brain (for horizontal section)” “X-ray CT image of brain (for sagittal section)” “abdominal MRI image” (Standard male) "" Abdominal MRI (obese male) "etc. are prepared. In addition, a model to be used for encoding can be selected according to the captured target region, such as “chest X-ray CT image”, “abdominal X-ray CT image”, and “head MRI image”. Thus, it is possible to execute optimal model-based encoding for various imaging targets. In addition, when encoding a captured image of “abdominal X-ray CT”, encoding targets such as “adult male”, “adult female”, “obese male”, and “obese female” are standard abdominal models. By preparing a model that is further subdivided according to the characteristics of the image, a predicted image with higher accuracy can be generated, and further improvement of the compression rate can be expected.

本発明による動画像符号化装置の一実施例を示す構成図(実施例1)。1 is a configuration diagram (Example 1) showing an example of a moving picture encoding apparatus according to the present invention. FIG. モデルデータの構造の一例を示す図。The figure which shows an example of the structure of model data. 符号化ストリームの構成を説明する図。The figure explaining the structure of an encoding stream. 本発明による動画像符号化装置の他の実施例を示す構成図。The block diagram which shows the other Example of the moving image encoder by this invention. モデルリストの通知画面の一例を示す図。The figure which shows an example of the notification screen of a model list. 本発明による動画像復号化装置の一実施例を示す構成図(実施例2)。The block diagram which shows one Example of the moving image decoding apparatus by this invention (Example 2). 本発明による動画像復号化装置の他の実施例を示す構成図。The block diagram which shows the other Example of the moving image decoding apparatus by this invention. モデルデータの概要情報の画面の一例を示す図。The figure which shows an example of the screen of the outline information of model data. モデルデータの変換の一例を示す図(三角パッチ面)(実施例3)。FIG. 10 is a diagram illustrating an example of model data conversion (triangular patch surface) (Example 3); モデルデータの変換の一例を示す図(ボクセル要素)。The figure (voxel element) which shows an example of conversion of model data. 本発明を適用した医用画像診断装置の一実施例を示す構成図(実施例4)。The block diagram (Example 4) which shows one Example of the medical image diagnostic apparatus to which this invention is applied.

符号の説明Explanation of symbols

100…動画像符号化装置
121…モデル制御部
122…モデルデータ格納部
123…モデルマッチング部
124…2次元画像合成部
125…モデルベース動き予測部
150…動画像符号化装置
151…ユーザインタフェース部
152…符号化装置制御部
153…符号化モデルデータベース部
200…動画像復号化装置
221…モデル制御部
222…モデルデータ格納部
223…モデル変形部
224…2次元画像合成部
225…モデルベース動き補償部
250…動画像復号化装置
251…ユーザインタフェース部
252…復号化装置制御部
253…符号化モデルデータベース部。
DESCRIPTION OF SYMBOLS 100 ... Moving image encoding device 121 ... Model control part 122 ... Model data storage part 123 ... Model matching part 124 ... Two-dimensional image synthetic | combination part 125 ... Model base motion estimation part 150 ... Moving image encoding apparatus 151 ... User interface part 152 ... Coding device control unit 153 ... Coding model database unit 200 ... Video decoding device 221 ... Model control unit 222 ... Model data storage unit 223 ... Model transformation unit 224 ... Two-dimensional image synthesis unit 225 ... Model-based motion compensation unit 250 ... moving picture decoding apparatus 251 ... user interface section 252 ... decoding apparatus control section 253 ... coding model database section.

Claims (13)

入力画像に対し予測画像との差分をとり、予測差分画像を直交変換、量子化、可変長符号化して符号化ストリームを出力する動画像符号化装置において、
上記予測画像としてモデルベース予測画像を生成するためのモデルベース予測系統を備え、
該モデルベース予測系統は、
モデルベース予測に用いる複数のモデルのモデルデータを格納するモデルデータ格納部と、
上記複数のモデルデータを所定のパラメータを用いて変形し上記入力画像に最適なモデルを選択するモデルマッチング部と、
変形されたモデルデータを2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成する2次元画像合成部と、
上記2次元モデル画像を参照し上記入力画像のモデルベース動き予測ベクトルと上記モデルベース予測画像を生成するモデルベース動き予測部と、
を有することを特徴とする動画像符号化装置。
In a video encoding device that takes a difference between a prediction image and an input image, orthogonally transforms, quantizes, and variable-length encodes the prediction difference image and outputs an encoded stream.
A model-based prediction system for generating a model-based prediction image as the prediction image is provided,
The model-based prediction system is
A model data storage unit for storing model data of a plurality of models used for model-based prediction;
A model matching unit that transforms the plurality of model data using predetermined parameters and selects an optimal model for the input image; and
A two-dimensional image synthesis unit that synthesizes a two-dimensional model image by projecting the deformed model data on a two-dimensional plane or cutting the two-dimensional plane;
A model-based motion prediction unit that refers to the two-dimensional model image and generates the model-based motion prediction vector of the input image and the model-based prediction image;
A moving picture encoding apparatus comprising:
請求項1記載の動画像符号化装置において、
前記モデルデータには、モデル名、要素型、要素データ、属性データセット、モデルパラメータ初期値が含まれ、前記パラメータによるモデルの操作ルールは予め定義されていることを特徴とする動画像符号化装置。
The moving picture encoding apparatus according to claim 1,
The model data includes a model name, element type, element data, attribute data set, and model parameter initial values, and a model operation rule based on the parameters is defined in advance. .
請求項1または2に記載の動画像符号化装置において、
前記出力する符号化ストリームには、前記予測差分画像の情報とともに、前記モデルベース予測画像において予測に用いたモデルを示す情報と、前記モデルの変形に用いたパラメータと、前記モデルベース動き予測ベクトルと、前記2次元平面に関する情報を格納することを特徴とする動画像符号化装置。
The moving picture encoding apparatus according to claim 1 or 2,
The encoded stream to be output includes information indicating the model used for prediction in the model-based prediction image, parameters used for deformation of the model, the model-based motion prediction vector, and information on the prediction difference image. A moving picture coding apparatus storing information related to the two-dimensional plane.
請求項1または2に記載の動画像符号化装置において、
モデルベース予測に用いるモデル一覧を提示し、一覧の中で必要なモデルのモデルデータを外部から取得する装置制御部を備えることを特徴とする動画像符号化装置。
The moving picture encoding apparatus according to claim 1 or 2,
A moving picture coding apparatus comprising: a device control unit that presents a model list used for model-based prediction and acquires model data of a necessary model in the list from the outside.
請求項1または2に記載の動画像符号化装置において、
前記入力画像の解像度に応じてモデルベース予測に用いるモデルデータの階層レベルを変換するモデル制御部を備え、
該モデル制御部は、階層レベルに従いモデルデータの構成要素の大きさと数の変換及び属性値の変換を行うことを特徴とする動画像符号化装置。
The moving picture encoding apparatus according to claim 1 or 2,
A model control unit that converts a hierarchical level of model data used for model-based prediction according to the resolution of the input image;
The moving picture coding apparatus characterized in that the model control unit performs conversion of size and number of constituent elements of model data and conversion of attribute values according to a hierarchical level.
入力する符号化ストリームの可変長符号を復号化、逆量子化、逆直交変換して予測差分画像とし、予測画像と加算して画像を出力する動画像復号化装置において、
上記予測画像としてモデルベース予測画像を生成するためのモデルベース予測系統を備え、
該モデルベース予測系統は、
モデルベース予測に用いる複数のモデルのモデルデータを格納するモデルデータ格納部と、
上記符号化ストリームから取得した予測に用いたモデルを示す情報と該モデルの変形に用いたパラメータを元に、該当するモデルデータを変形するモデル変形部と、
上記符号化ストリームから取得した2次元平面に関する情報を元に、2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成する2次元画像合成部と、
該2次元モデル画像と上記符号化ストリームから取得したモデルベース動き予測ベクトルを用いて上記モデルベース予測画像を生成するモデルベース動き補償部と、
を有することを特徴とする動画像復号化装置。
In a video decoding device that decodes, dequantizes, and inversely orthogonally transforms a variable length code of an input encoded stream to obtain a prediction difference image, adds the prediction image, and outputs an image.
A model-based prediction system for generating a model-based prediction image as the prediction image is provided,
The model-based prediction system is
A model data storage unit for storing model data of a plurality of models used for model-based prediction;
Based on information indicating the model used for prediction obtained from the encoded stream and parameters used for deformation of the model, a model deformation unit that deforms corresponding model data;
A two-dimensional image synthesis unit that synthesizes a two-dimensional model image by projecting on the two-dimensional plane or cutting on the two-dimensional plane based on information about the two-dimensional plane acquired from the encoded stream;
A model-based motion compensation unit that generates the model-based prediction image using the two-dimensional model image and a model-based motion prediction vector acquired from the encoded stream;
A moving picture decoding apparatus comprising:
請求項6に記載の動画像復号化装置において、
前記符号化ストリームから取得した予測に用いたモデルを示す情報を提示し、復号に必要なモデルデータを外部から取得する装置制御部を備えることを特徴とする動画像復号化装置。
The moving picture decoding apparatus according to claim 6, wherein
A moving picture decoding apparatus comprising: an apparatus control unit that presents information indicating a model used for prediction acquired from the encoded stream, and acquires model data necessary for decoding from the outside.
請求項6に記載の動画像復号化装置において、
前記モデルベース予測に用いるモデルデータの階層レベルを変換するモデル制御部を備え、
該モデル制御部は、前記符号化ストリームから取得した階層レベルの情報に従い、モデルデータの構成要素の大きさと数の変換及び属性値の変換を行うことを特徴とする動画像復号化装置。
The moving picture decoding apparatus according to claim 6, wherein
A model control unit that converts a hierarchical level of model data used for the model-based prediction,
The moving picture decoding apparatus characterized in that the model control unit performs conversion of the size and number of constituent elements of model data and conversion of attribute values according to hierarchical level information acquired from the encoded stream.
入力画像に対し予測画像との差分をとり、予測差分画像を直交変換、量子化、可変長符号化して符号化ストリームを出力する動画像符号化方法において、
上記予測画像としてモデルベース予測画像を生成するために、
モデルベース予測に用いる複数のモデルのモデルデータを格納しておき、
上記複数のモデルデータを所定のパラメータを用いて変形し上記入力画像に最適なモデルを選択し、
変形されたモデルデータを2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成し、
上記2次元モデル画像を参照し上記入力画像のモデルベース動き予測ベクトルと上記モデルベース予測画像を生成することを特徴とする動画像符号化方法。
In a video encoding method that takes a difference between a prediction image and an input image, orthogonally transforms, quantizes, and variable-length-encodes the prediction difference image and outputs an encoded stream.
In order to generate a model-based prediction image as the prediction image,
Store model data of multiple models used for model-based prediction,
Deform the plurality of model data using predetermined parameters to select an optimal model for the input image,
Projecting the deformed model data on the 2D plane or cutting it on the 2D plane to synthesize a 2D model image,
A moving picture coding method comprising generating a model-based motion prediction vector of the input image and the model-based prediction image with reference to the two-dimensional model image.
請求項9記載の動画像符号化方法において、
符号化する際にモデルベース符号化に用いるモデル一覧を提示し、一覧の中で必要なモデルを格納していない場合そのモデルデータを外部から取得することを特徴とする動画像符号化方法。
The moving image encoding method according to claim 9, wherein
A moving picture coding method characterized by presenting a model list used for model-based coding at the time of coding, and acquiring model data from the outside when a necessary model is not stored in the list.
請求項9記載の動画像符号化方法において、
前記入力画像の解像度に応じてモデルベース符号化に用いるモデルデータの階層レベルを変換し、モデルデータの構成要素の大きさと数の変換及び属性値の変換を行うことを特徴とする動画像符号化方法。
The moving image encoding method according to claim 9, wherein
Moving picture coding characterized in that the hierarchical level of model data used for model-based coding is converted in accordance with the resolution of the input image, and the size and number of model data components and attribute values are converted. Method.
入力する符号化ストリームの可変長符号を復号化、逆量子化、逆直交変換して予測差分画像とし、予測画像と加算して画像を出力する動画像復号化方法において、
上記予測画像としてモデルベース予測画像を生成するために、
モデルベース予測に用いる複数のモデルのモデルデータを格納しておき、
上記符号化ストリームから取得した予測に用いたモデルを示す情報と該モデルの変形に用いたパラメータを元に、該当するモデルデータを変形し、
上記符号化ストリームから取得した2次元平面に関する情報を元に、2次元平面上に投影もしくは2次元平面で切断して2次元モデル画像を合成し、
該2次元モデル画像と上記符号化ストリームから取得したモデルベース動き予測ベクトルを用いて上記モデルベース予測画像を生成することを特徴とする動画像復号化方法。
In a video decoding method for decoding, dequantizing, and inverse orthogonal transforming a variable length code of an input encoded stream to obtain a prediction difference image, and adding the prediction image to output an image,
In order to generate a model-based prediction image as the prediction image,
Store model data of multiple models used for model-based prediction,
Based on the information indicating the model used for prediction obtained from the encoded stream and the parameters used for deformation of the model, the corresponding model data is modified,
Based on the information about the two-dimensional plane obtained from the encoded stream, a two-dimensional model image is synthesized by projecting on the two-dimensional plane or cutting on the two-dimensional plane,
A moving picture decoding method, wherein the model base predicted image is generated using the two-dimensional model image and a model base motion prediction vector acquired from the encoded stream.
請求項12に記載の動画像復号化方法において、
復号化する際に前記符号化ストリームから取得した予測に用いたモデルを示す情報を提示し、
復号に必要なモデルデータを格納していない場合そのモデルデータを外部から取得することを特徴とする動画像復号化方法。
The moving picture decoding method according to claim 12,
Presenting information indicating the model used for prediction obtained from the encoded stream when decoding,
A moving picture decoding method, wherein model data necessary for decoding is not stored when the model data is not stored.
JP2008135224A 2008-05-23 2008-05-23 Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method Pending JP2009284298A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008135224A JP2009284298A (en) 2008-05-23 2008-05-23 Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method
PCT/JP2009/002041 WO2009141969A1 (en) 2008-05-23 2009-05-11 Video image encoder, video image decoder, video image encoding method, and video image decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008135224A JP2009284298A (en) 2008-05-23 2008-05-23 Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method

Publications (1)

Publication Number Publication Date
JP2009284298A true JP2009284298A (en) 2009-12-03

Family

ID=41339911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008135224A Pending JP2009284298A (en) 2008-05-23 2008-05-23 Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method

Country Status (2)

Country Link
JP (1) JP2009284298A (en)
WO (1) WO2009141969A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505600A (en) * 2008-10-07 2012-03-01 ユークリッド・ディスカバリーズ・エルエルシー Feature-based video compression
JP2013524681A (en) * 2010-04-09 2013-06-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Intra prediction execution method and apparatus using adaptive filter
JP2013534384A (en) * 2010-07-31 2013-09-02 オ,ス−ミ Intra prediction decoding device
JP2013535919A (en) * 2010-07-31 2013-09-12 オ,ス−ミ Prediction block generator
JP2017017736A (en) * 2010-09-30 2017-01-19 三菱電機株式会社 Image decoding apparatus, image decoding method, image coding apparatus, image coding method, and data structure of coded data

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH082107B2 (en) * 1990-03-02 1996-01-10 国際電信電話株式会社 Method and apparatus for moving picture hybrid coding
JPH05316491A (en) * 1992-05-07 1993-11-26 Seiko Epson Corp Portrait image encoding system
JPH0998416A (en) * 1995-09-29 1997-04-08 Denso Corp Encoder for image signal and recognition device for image
JP3769786B2 (en) * 1995-09-29 2006-04-26 株式会社デンソー Image signal decoding apparatus
JP3593067B2 (en) * 2001-07-04 2004-11-24 沖電気工業株式会社 Information terminal device with image communication function and image distribution system

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012505600A (en) * 2008-10-07 2012-03-01 ユークリッド・ディスカバリーズ・エルエルシー Feature-based video compression
US10560721B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US9838711B2 (en) 2010-04-09 2017-12-05 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623771B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2014207683A (en) * 2010-04-09 2014-10-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2014207684A (en) * 2010-04-09 2014-10-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2014207685A (en) * 2010-04-09 2014-10-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2016140090A (en) * 2010-04-09 2016-08-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Intra-prediction execution method and device using adaptive filter
JP2022141850A (en) * 2010-04-09 2022-09-29 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Video decoding method, video encoding method and recording medium
JP7111859B2 (en) 2010-04-09 2022-08-02 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Video decoding method, video encoding method and recording medium
JP2021106403A (en) * 2010-04-09 2021-07-26 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding method, video encoding method, and recording medium
US10951917B2 (en) 2010-04-09 2021-03-16 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10623769B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2013524681A (en) * 2010-04-09 2013-06-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Intra prediction execution method and apparatus using adaptive filter
US10623770B2 (en) 2010-04-09 2020-04-14 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US11601673B2 (en) 2010-04-09 2023-03-07 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10560722B2 (en) 2010-04-09 2020-02-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP7324909B2 (en) 2010-04-09 2023-08-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Video decoding method and video encoding method
JP2020005277A (en) * 2010-04-09 2020-01-09 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding method, video encoding method and recording medium
US10440393B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10440392B2 (en) 2010-04-09 2019-10-08 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10432968B2 (en) 2010-04-09 2019-10-01 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
US10075734B2 (en) 2010-04-09 2018-09-11 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2018137780A (en) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding device
JP2018137783A (en) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding device
JP2018137781A (en) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding device
US9549204B2 (en) 2010-04-09 2017-01-17 Electronics And Telecommunications Research Instit Method and apparatus for performing intra-prediction using adaptive filter
JP2018137782A (en) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video decoding device
US9661345B2 (en) 2010-04-09 2017-05-23 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2017143542A (en) * 2010-04-09 2017-08-17 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video coding device
US9781448B2 (en) 2010-04-09 2017-10-03 Electronics And Telecommunications Research Institute Method and apparatus for performing intra-prediction using adaptive filter
JP2018137779A (en) * 2010-04-09 2018-08-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute Video coding device
JP2016165128A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Video encoding device
CN106231313B (en) * 2010-07-31 2020-02-04 M&K控股株式会社 Apparatus for encoding image
JP2017011733A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video encoder
JP2017011731A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video encoder
JP2017011729A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video encoder
JP2017011730A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video encoder
JP2017011732A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video encoder
JP2017011727A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video decoder
JP2017011728A (en) * 2010-07-31 2017-01-12 エム アンド ケー ホールディングス インコーポレイテッド Video decoder
JP2016220245A (en) * 2010-07-31 2016-12-22 エム アンド ケー ホールディングス インコーポレイテッド Video decoding device
CN106231314B (en) * 2010-07-31 2020-02-04 M&K控股株式会社 Apparatus for decoding image
JP2013534384A (en) * 2010-07-31 2013-09-02 オ,ス−ミ Intra prediction decoding device
JP2016220246A (en) * 2010-07-31 2016-12-22 エム アンド ケー ホールディングス インコーポレイテッド Video decoding device
CN106231314A (en) * 2010-07-31 2016-12-14 M&K控股株式会社 For the device that image is decoded
CN106231313A (en) * 2010-07-31 2016-12-14 M&K控股株式会社 For the device that image is encoded
JP2016165132A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Video decryption device
JP2016165126A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Image encoding device
JP2016165129A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Video decryption device
JP2016165127A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Image encoding device
JP2016165131A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Video decryption device
JP2016165130A (en) * 2010-07-31 2016-09-08 エム アンド ケー ホールディングス インコーポレイテッド Video decryption device
JP2013535919A (en) * 2010-07-31 2013-09-12 オ,ス−ミ Prediction block generator
JP2017017736A (en) * 2010-09-30 2017-01-19 三菱電機株式会社 Image decoding apparatus, image decoding method, image coding apparatus, image coding method, and data structure of coded data

Also Published As

Publication number Publication date
WO2009141969A1 (en) 2009-11-26

Similar Documents

Publication Publication Date Title
CN109745062B (en) CT image generation method, device, equipment and storage medium
EP3751857A1 (en) A method, an apparatus and a computer program product for volumetric video encoding and decoding
US20080219567A1 (en) Tomosynthesis imaging data compression system and method
TW201531745A (en) Methods for full parallax compressed light field 3D imaging systems
US20230080852A1 (en) Use of tiered hierarchical coding for point cloud compression
Zha et al. Naf: Neural attenuation fields for sparse-view cbct reconstruction
US9936187B2 (en) Multi-resolution lightfield rendering using image pyramids
WO2009141969A1 (en) Video image encoder, video image decoder, video image encoding method, and video image decoding method
US20210092430A1 (en) Video-Based Point Cloud Compression Model to World Signalling Information
JP2022533754A (en) Method, apparatus, and computer program product for volumetric video encoding and decoding
US11792453B2 (en) Coding scheme for immersive video with asymmetric down-sampling and machine learning
JP4964827B2 (en) Multi-view distance information encoding method, decoding method, encoding device, decoding device, encoding program, decoding program, and computer-readable recording medium
US20230084376A1 (en) Information processing device, 3d model generation method, and program
BR102021001287A2 (en) METHOD TO COMPRESS LIGHT-FIELD DATA
JP2010021843A (en) Multi-viewpoint distance information encoding method, decoding method, encoding device, decoding device, encoding program, decoding program and computer-readable recording medium
Munoz-Gómez et al. Correlation modeling for compression of computed tomography images
WO2023023918A1 (en) Decoding method, encoding method, decoder and encoder
Prazeres Static Point Clouds Compression efficiency of MPEG point clouds coding standards
JP2003174590A (en) Image processor, image processing system and control method therefor
US11727536B2 (en) Method and apparatus for geometric smoothing
WO2022102016A1 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and computer program
Prazeres Static Point Clouds Compression Efficiency of Mpeg Point Clouds Coding Standards A practical Comparison between Two Powerful PCC Codec’s
Aly et al. 3D Medical Images Compression
JP6658191B2 (en) Encoding device, encoding method, and program
KR20230012558A (en) Fast recoloring for video-based point cloud coding