JP2004289333A - Data processing apparatus, data processing method, program, and recording medium - Google Patents

Data processing apparatus, data processing method, program, and recording medium Download PDF

Info

Publication number
JP2004289333A
JP2004289333A JP2003076835A JP2003076835A JP2004289333A JP 2004289333 A JP2004289333 A JP 2004289333A JP 2003076835 A JP2003076835 A JP 2003076835A JP 2003076835 A JP2003076835 A JP 2003076835A JP 2004289333 A JP2004289333 A JP 2004289333A
Authority
JP
Japan
Prior art keywords
data
output
image data
compressed image
jpeg2000
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003076835A
Other languages
Japanese (ja)
Other versions
JP4208122B2 (en
Inventor
Akira Takahashi
彰 高橋
Takao Inoue
隆夫 井上
Takanori Yano
隆則 矢野
Hiroyuki Sakuyama
宏幸 作山
Taku Kodama
卓 児玉
Keiichi Ikebe
慶一 池辺
Takashi Maki
隆史 牧
Ikuko Kusatsu
郁子 草津
Shin Aoki
伸 青木
Takeshi Koyama
毅 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003076835A priority Critical patent/JP4208122B2/en
Publication of JP2004289333A publication Critical patent/JP2004289333A/en
Application granted granted Critical
Publication of JP4208122B2 publication Critical patent/JP4208122B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a novel apparatus and method for realizing presentation by utilizing a still picture or a moving picture compressed by the JPEG 2000. <P>SOLUTION: A data acquisition section 101 captures e.g., image data compressed in compliance with the JPEG 2000 from a data source 120 according to an output procedure described in an output procedure file 122. An output data generating section 102 generates image data in compliance with conditions such as a resolution level, image quality, a size and colors defined in the output procedure from the compressed image data, and writes the image data to a video memory section 130 so that the image data are displayed on an image position defined in the output procedure. The image data are displayed on a screen of a display apparatus 131. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、プレゼンテーションなどのために、予め定めた手順に従って静止画や動画などのデータを表示又は配信するためのデータ処理装置及び方法に関する。
【0002】
【従来の技術】
画像、グラフ、表、テキスト、音声などの素材を用いたプレゼンテーションには、Microsoft社のPowerPoint(登録商標)やApple社のKeynote(登録商標)などに代表される、いわゆるプレゼンテーション・ソフトウェアが利用されることが多い。このようなプレゼンテーション・ソフトウェアは、基本的に、各種素材を表示したいサイズなどに加工し、それを表示したい順に順序付けするなど、プレゼンテーションのための資料を予め編集しておくものである。
【0003】
画像は圧縮された状態で蓄積又は伝送されることが多い。静止画の圧縮にはJPEGが、動画の圧縮にはMPEGやMotion−JPEGが広く利用されているが、新しい圧縮方式としてウェーブレット変換を利用するJPEG2000が注目されている(例えば非特許文献1参照)。
【0004】
JPEG2000の圧縮アルゴリズムは基本仕様(ISO/IEC FCD 15444−1)に規定されている。JPEG2000の動画のファィルフォーマットなどは、拡張仕様(ISO/IEC FCD 15444−3)に規定されている。JPEG2000の動画では、各フレームが、前後のフレームから独立した静止画として、JPEG2000の基本仕様に規定されたアルゴリズムにより圧縮される。
【0005】
【非特許文献1】
野水泰之著、「次世代画像符号化方式JPEG2000」、
株式会社トリケップス、2001年2月13日
【0006】
【発明が解決しようとする課題】
JPEG2000の圧縮画像データは、圧縮前の画像と異なった解像度、サイズ、画質、色などで伸長することができ、また、符号状態のままで解像度、サイズ、画質、色などを変更した圧縮画像データに変換することができる。
【0007】
本発明は、このようなJPEG2000の圧縮画像データの特性に着目し、JPEG2000の圧縮画像データを含むデータ群を用いた多様なプレゼンテーションなどを、それらデータを予め編集することなく実行できるようにする新規なデータ処理装置及び方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明によるデータ処理装置は、請求項1に記載のように、時間軸に沿って出力すべきデータの指定及びその出力条件を定義した出力手順と、少なくともJPEG2000による圧縮画像データが含まれるデータ群より、前記出力手順に定義されたデータの指定に従ってデータを取得するデータ取得手段と、前記データ取得手段により取得されたデータから、当該データに関し前記出力手順に定義された出力条件に従った出力データを生成する出力データ生成手段とを有することを特徴とするものである。
【0009】
本発明によるデータ処理装置のもう1つの発明は、請求項2に記載のように、請求項1に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データをイメージデータに伸長するための伸長手段を含み、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記伸長手段によりイメージデータに伸長させ、当該イメージデータを出力データとして出力することにある。
【0010】
本発明によるデータ処理装置のもう1つの特徴は、請求項3に記載のように、請求項2に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データを前記伸長手段に伸長させる前に、当該圧縮画像データのヘッダ情報を、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って書き換える手段を含むことにある。
【0011】
本発明によるデータ処理装置のもう1つの特徴は、請求項4に記載のように、請求項1に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データを符号状態のままで他の圧縮画像データに変換するための変換手段を含み、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記変換手段により変換させ、当該変換後の圧縮画像データを出力データとして出力することにある。
【0012】
本発明によりデータ処理装置のもう1つの特徴は、請求項5に記載のように、請求項4に記載の構成において、前記変換手段は、JPEG2000による圧縮画像データのヘッダ情報の書き換えにより当該圧縮画像データの変換を行うことにある。
【0013】
本発明によるデータ処理装置のもう1つの特徴は、請求項6に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の解像度を変更することにある。
【0014】
本発明によるデータ処理装置のもう1つの特徴は、請求項7に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のサイズを変更することにある。
【0015】
本発明によるデータ処理装置のもう1つの特徴は、請求項8に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の画質を変更することにある。
【0016】
本発明によるデータ処理装置のもう1つの特徴は、請求項9に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のタイル位置を変更することにある。
【0017】
本発明によるデータ処理装置のもう1つの特徴は、請求項10に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の色を不正常にすることにある。
【0018】
本発明によるデータ処理装置のもう1つの特徴は、請求項11に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のROI領域以外の領域を再生不可能にすることにある。
【0019】
本発明によるデータ処理装置のもう1つの特徴は、請求項12に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の色数を変更することにある。
【0020】
本発明によるデータ処理装置のもう1つの特徴は、請求項13に記載のように、請求項2乃至5のいずれか1項に記載の構成において、前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像を変形することにある。
【0021】
本発明によるデータ処理方法は、請求項14に記載のように、時間軸に沿って出力すべきデータの指定及びその出力条件を定義した出力手順を読み込む読み込みステップと、少なくともJPEG2000による圧縮画像データが含まれるデータ群より、前記読み込みステップで読み込まれた前記出力手順に定義されたデータの指定に従ってデータを取り込むデータ取得ステップと、前記データ取得ステップにより取り込まれたデータから、当該データに関し前記出力手順に定義された出力条件に従った出力データを生成する出力データ生成ステップとを有することを特徴とするものである。
【0022】
本発明によるデータ処理方法のもう1つの特徴は、請求項15に記載のように、請求項14に記載の構成において、前記出力データ生成ステップは、JPEG2000による圧縮画像データをイメージデータに伸長するための伸長ステップを含み、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記伸長ステップによりイメージデータに伸長させ、当該イメージデータを出力データとして出力することにある。
【0023】
本発明によるデータ処理方法のもう1つの特徴は、請求項16に記載のように、請求項15に記載の構成において、前記出力データ生成ステップは、JPEG2000による圧縮画像データを前記伸長ステップに伸長させる前に、当該圧縮画像データのヘッダ情報を、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って書き換えるステップを含むことにある。
【0024】
本発明によるデータ処理方法のもう1つの特徴は、請求項17に記載のように、請求項14に記載の構成において、前記出力データ生成ステップは、JPEG2000による圧縮画像データを符号状態で他の圧縮画像データに変換するための変換ステップを含み、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記変換ステップにより変換させ、当該変換後の圧縮画像データを出力データとして出力することにある。
【0025】
本発明によるデータ処理方法のもう1つの特徴は、請求項18に記載のように、請求項17に記載の構成において、前記変換ステップは、JPEG2000による圧縮画像データのヘッダ情報の書き換えにより当該圧縮画像データの変換を行うことにある。
【0026】
【発明の実施の形態】
以下の説明の理解を容易にするため、JPEG2000について概説する。
【0027】
図16は、JPEG2000の圧縮/伸長のアルゴリズムを説明するためのブロック図である。圧縮処理の対象となる画像データデータは、各コンポーネント毎に、重複しない矩形領域(タイル)に分割され、各コンポーネント毎にタイル単位で処理される。ただし、画像全体を1つのタイルとして処理することも可能である。
【0028】
各コンポーネントの各タイル画像は、色空間変換/逆変換部1で、圧縮率の向上を目的として、RGBデータやCMYデータからYCrCbデータへの色空間変換を施される。この色空間変換が省かれる場合もある。
【0029】
色空間変換後のタイル画像は、ウェーブレット変換/逆変換部2により、2次元のウェーブレット変換(離散ウェーブレット変換)を施され、複数のサブバンドに分解される。
【0030】
図17はデコンポジションレベル数が3の場合のウェーブレット変換の説明図である。図17(a)に示すタイル画像(デコンポジションレベル0)に対する2次元ウェーブレット変換により、図17(b)に示すような1LL,1HL,1LH,1HHの各サブバンドに分割される。1LLサブバンドの係数に対し2次元ウェーブレット変換が適用されることにより、図17(c)に示すように2LL,2HL,2LH,2HHのサブバンドに分割される。2LLサブバンドの係数に対し2次元ウェーブレット変換が適用されることにより、図17(d)に示すように3LL,3HL,3LH,3HHのサブバンドに分割される。デコンポジションレベルと解像度レベルとの関係であるが、図17(d)の各サブバンド内に括弧で囲んで示した数字が、そのサブバンドの解像度レベルである。
【0031】
このような低周波成分(LLサブバンド係数)の再帰的分割(オクターブ分割)により得られたウェーブレット係数は、量子化/逆量子化部3でサブバンド毎に量子化される。JPEG2000ではロスレス(可逆)圧縮とロッシー(非可逆)圧縮のいずれも可能であり、ロスレス圧縮の場合には量子化ステップ幅は常に1であり、この段階では実質的に量子化されない。
【0032】
量子化後の各サブバンド係数は、エントロピー符号化/復号化部4でエントロピー符号化される。このエントロピー符号化には、ブロック分割、係数モデリング及び2値算術符号化からなるEBCOT(Embedded Block Coding with Optimized Truncation)と呼ばれるブロックベースのビットプレーン符号化方式が用いられる。量子化後の各サブバンド係数のビットプレーンが、上位ビットから下位ビットへ向かって、コードブロックと呼ばれるブロック毎に符号化される。
【0033】
タグ処理部5において、エントロピー符号化/復号化部4で生成されたコードブロックの符号がまとめられてパケットが作成され、次に、パケットがプログレッション順序に従って並べられるとともに必要なタグ及びタグ情報が付加されることにより、所定フォーマットの符号化データ(圧縮画像データ)が作成される。JPEG2000では、符号順序制御に関して、解像度レベル、位置(プレシンクト)、レイヤ、コンポーネント(色成分)の組み合わせによる5種類のプログレッション順序が定義されている。
【0034】
このようにして生成されるJPEG2000の符号化データのフォーマットを図18に示す。図18に見られるように、符号化データはその始まりを示すSOCマーカと呼ばれるタグで始まり、その後に符号化パラメータや量子化パラメータ等を記述したメインヘッダ(Main Header)と呼ばれるタグ情報が続き、その後に各タイル毎の符号データが続く。各タイル毎の符号データは、SOTマーカと呼ばれるタグで始まり、タイルヘッダ(Tile Header)と呼ばれるタグ情報、SODマーカと呼ばれるタグ、各タイルの符号列を内容とするタイルデータ(Tile Data)で構成される。最後のタイルデータの後に、終了を示すEOCマーカと呼ばれるタグが置かれる。
【0035】
図19にメインヘッダの構成を示す。SIZ,COD,QCDの各マーカセグメントは必須であるが、他のマーカセグメントはオプションである。図20にタイルヘッダの構成を示す。図20において、(a)はタイルデータの先頭に付加されるヘッダの構成を示し、(b)はタイル内が複数に分割されている場合に分割されたタイル部分列の先頭に付加されるヘッダの構成を示す。タイルヘッダでは必須のマーカセグメントはなく、すべてオプションである。SOTマーカセグメントの構成を図21に、SIZマーカセグメントの構成を図22に、CODマーカセグメントの構成を図23に、CRGマーカセグメントの構成を図24に、RGNマーカセグメントの構成を図25にそれぞれ示す。
【0036】
JPEG2000の符号化データの伸長処理は圧縮処理と逆の処理となる。符号化データはタグ処理部5で各コンポーネントの各タイルの符号列に分解される。この符号列はエントロピー符号化/復号化部4によってエントロピー復号される。復号されたウェーブレット係数は量子化/逆量子化部3で逆量子化されたのち、ウェーブレット変換/逆変換部2で2次元の逆ウェーブレット変換を施されることにより、各コンポーネントの各タイルの画像が再生される。各コンポーネントの各タイル画像は色空間変換/逆変換部1で逆色変換処理を施されてRGBなどのコンポーネントから構成されるタイル画像に戻される。
【0037】
さて、JPEG2000においては、画像は複数の領域に分割され、各分割領域は依存関係にない状態で圧縮されるが、分割領域として前記のタイルとコードブロックのほかにプレシンクトがあり、画像≧タイル≧サブバンド≧プレシンクト≧コードブロックの大きさ関係がある。プレシンクトに含まれる全てのコードブロックの符号の一部(例えば最上位から3ビット目までの3枚のビットプレーンの符号)を取り出して集めたものがパケットである。符号が空(から)のパケットも許される。コードブロックの符号をまとめてパケットを生成し、所望のプログレッション順序に従ってパケットを並べることにより符号化データを形成する。図18中の各タイルに関するSOD以下の部分がパケットの集合である。
【0038】
JPEG2000の符号化データはレイヤ構造を持たせることができる。全てのプレシンクト(つまり、全てのコードブロック、全てのサブバンド)のパケットを集めると、画像全域の符号の一部(例えば、画像全域のウェーブレット係数の最上位のビットプレーンから3枚目までのビットプレーンの符号)ができるが、これがレイヤである。したがって、伸長時に復号されるレイヤの数が多いほど再生画像の画質は向上する。つまり、レイヤは画質の単位と言える。全てのレイヤを集めると、画像全域の全てのビットプレーンの符号になる。
【0039】
以上説明したJPEG2000の符号化データを構成するパケットは領域、画質、コンポーネント、解像度の各インデックスを持っているため、符号状態で領域、画質、コンポーネント、解像度の各パラメータで符号の取捨選択が可能である。すなわち、ある符号化データを、伸長することなく、つまり符号状態のままで、符号の選択的削除(及び必要なタグ情報の書き換え)により、再生時の領域、画質、コンポーネント、解像度を変更した符号化データに変換することができる。
【0040】
また、後に具体的に述べるように、JPEG2000符号化データは、符号そのものを変更することなく、タグ情報(ヘッダ情報)の書き換えのみによって、再生時の解像度、画質、コンポーネント、領域を変更した符号化データに変換することもできる。
【0041】
また、JPEG2000は、画像全体の圧縮率を下げることなく、特定の領域の圧縮率を下げる(高画質化する)選択的領域画質向上機能(ROI)がある。JPEG2000の基本仕様では、ROI領域のウェーブレット係数をビットシフトするMax Shift方式と呼ばれるROI方式が規定されている。
【0042】
図1は、本発明の第1の実施形態を説明するためのブロック図である。この実施形態に係るデータ処理装置は、表示装置131に表示されるイメージデータを生成する構成であり、データ取得部101、出力データ生成部102、システム制御部105、出力手順ファイル122を有する。121は出力手順ファイル122を保存するための記憶部である。
【0043】
130は出力データ生成部102が生成したイメージデータ(出力データ)を書き込むビデオメモリ部であり、ここに書き込まれたイメージデータが表示装置131の画面に表示される。120はデータ・ソースであり、少なくともJPEG2000により圧縮された画像(静止画又は動画)データを含むデータ群をファイルとして蓄積している。なお、データ・ソース120は、ローカルな記憶装置であったり、LAN、イントラネット、インターネットなどのネットワーク上のファイルサーバーなどである。
【0044】
システム制御部105は、データ処理装置の全体的な動作を制御する手段である。また、システム制御部105は、出力手順ファイル122に記述された出力手順の内容を取り込んで解釈し、出力手順中に時間軸に沿って定義されたデータの指定及び出力条件を、時間経過に従ってデータ取得部101及び出力データ生成部102へそれぞれ通知する手段でもある。
【0045】
データ取得部101は、システム制御部105より渡されたデータの指定に従って、1つ又は複数のデータソース120に蓄積されているデータ群より必要なデータを取り込み、それを出力データ生成部102に入力する手段である。
【0046】
出力データ生成部103は、データ取得部101より入力されるデータから、システム制御部105より渡された出力条件に従ったイメージデータ(出力データ)を生成する手段であり、データ処理部103とJPEG2000デコーダ104とからなる。JPEG2000デコーダ104は、JPEG2000による圧縮画像データをイメージデータに伸長する手段である。データ処理部103は、圧縮画像データをJPEG2000デコーダ104へ渡してイメージデータに伸長させ、テキストデータをイメージデータへ展開し、得られたイメージデータをビデオメモリ部130に書き込む。データ処理部103は、出力条件に従って、JPEG2000デコーダ104の伸長動作の制御、圧縮画像データのヘッダ情報の書き換え処理、伸長又は展開されたイメージデータの変倍(間引き/補間処理)、ビデオメモリ部130に対するイメージデータの書き込み位置の制御などを行う。
【0047】
出力手順ファイル122に記述されている出力手順は、時間軸に沿って、出力(表示)するデータの指定と、そのデータの出力条件を定義したものである。データの指定とは、例えば当該データのファイル名やURLである。データの出力条件としては、例えば、当該データが圧縮画像データの場合ならば、画像の解像度、サイズ、画質、タイル位置、色、ROI領域、変形など、再生画像の見え方に直接関係する条件のほか、データの出力(表示)時間、画像やテキストのイメージが表示される画面上の位置などが定義される。
【0048】
図2は、このデータ処理装置の動作を説明するための簡略化されたフローチャートである。以下、このフローチャートに沿って動作を説明する。
【0049】
最初に、システム制御部105は出力手順を読み込む(ステップS100)。次に、システム制御部105は、その出力手順の内容を解析し、最初のデータの指定をデータ取得部101に通知し、かつ、当該データに関する出力条件を出力データ生成部102に通知する。また、当該データの種類が動画であるか否かによって当該データに関する制御手順を選択する(ステップS102)。なお、ここでは説明の煩雑化を避けるため、データの種類としてJPEG2000により圧縮された動画又は静止画のデータとテキストデータを想定して説明するが、表やグラフ、音声などのデータを除外するわけではない。
【0050】
データが静止画又はテキストの場合には、そのデータがデータ取得部101によってデータソース120より取り込まれ、出力データ生成部102に入力する(ステップS104)。
【0051】
そのデータがテキストデータの場合、データ処理部103はイメージデータに展開し、それをビデオメモリ部130に書き込むが、この際、出力条件に従ってイメージデータのサイズ及び書き込み位置(画面上での位置)を制御する(ステップS106)。そして、システム制御部105は、当該テキストの出力条件として指定された出力(表示)時間の経過を監視する(ステップS108)。
【0052】
データが静止画の圧縮データの場合、そのデータがデータ取得部101によって取り込まれて出力データ生成部102に入力し(ステップS104)、出力データ生成部102のJPEG2000デコーダ104によりイメージデータに伸長され、それがデータ処理部103により出力条件として指定されたビデオメモリ部130の位置に書き込まれる(ステップS106)。この際、データ処理部103は、出力条件として指定された解像度、サイズ、画質、色数などに従ったイメージデータを生成するために、JPEG2000デコーダ104の伸長動作の制御、各フレームの圧縮画像データのヘッダ情報の書き換え、伸長後のイメージデータの間引き/補間処理などを必要に応じて行うが(つまり、そのような制御又は処理のための手段をデータ処理部103が含んでいる)、これについては後述する。そして、システム制御部105は、当該静止画の出力条件として指定された出力(表示)時間の経過を監視する(ステップS108)。
【0053】
データが動画の圧縮データの場合、各フレームのデータがデータ取得部101によって順に取り込まれて出力データ生成部102に入力し(ステップS110)、出力データ生成部102のJPEG2000デコーダ104によりイメージデータに伸長され、それがデータ処理部103により出力条件として指定されたビデオメモリ部130の位置に書き込まれる(ステップS112)。この際、データ処理部103は、出力条件として指定された解像度、サイズ、画質、色数などに従ったイメージデータを生成するために、JPEG2000デコーダ104の伸長動作の制御、各フレームの圧縮画像データのヘッダ情報の書き換え、伸長後のイメージデータの間引き/補間処理などを必要に応じて行うが(つまり、そのような制御又は処理のための手段をデータ処理部103が含んでいる)、これについては後述する。システム制御部105は、当該動画の出力条件として指定された出力(表示)時間の経過を監視しており(ステップS114)、出力時間が経過するまではステップS110,S112を繰り返し実行させる。
【0054】
出力条件として指定された出力時間を経過すると(ステップS114又はS108、YES)、システム制御部105は出力手順を参照し、次のデータの指定があるかチェックし(ステップS116)、次のデータの指定があるならば、そのデータに関し同様の動作を開始させる。最後のデータまで処理されると(ステップS116,NO)、一連の出力データ生成動作を終了する。
【0055】
ここで、解像度、サイズ、画質、色などの出力条件に従ったイメージデータを生成するためのデータ処理部103による制御又は処理について、より具体的には説明する。
【0056】
JPEG2000においてはLRCP、RLCP、RPCL、PCRL、CPRLの5つのプログレッション順序が定義されている。ここで、Lはレイヤ、Rは解像度レベル、Cはコンポーネント、Pはプリシンクトである。
【0057】
例えばRLCPプログレッションの場合には、パケットの配置(圧縮時)又はパケットの解釈(伸長時)の順序は、R,L,C,Pの順にネストされた次のようなforループで表すことができる。

Figure 2004289333
【0058】
また、LRCPプログレッションの場合、パケットの配置(圧縮時)又はパケットの解釈(伸長時)の順序は、L,R,C,Pの順にネストされた次のようなforループで表すことができる。
Figure 2004289333
【0059】
他のプログレッション順序の場合も同様のネストされたforループにより、パケットの配置順又は解釈順が決まる。
【0060】
したがって、出力データ生成部102において、データ処理部103でJPEG2000デコーダ104の解像度レベルのforループの回数を制御することにより、伸長されるイメージデータの解像度を調整することができる。つまり、例えば図17(d)に示すようなデコンポジションレベル数が3の圧縮画像データの場合、解像度レベル0が指定されたときには3LLサブバンド係数の符号のみを復号してイメージデータを生成させ、解像度レベル1が指定されたときには3LL,3HL,3LH,3HHサブバンド係数の符号のみを復号してイメージデータを生成させ、同様に、解像度レベル3が指定されたときには3LL〜1HHの全サブバンドの係数を復号してイメージデータを生成させる。同様に、レイヤのforループの回数やコンポーネントのforループの回数を制御することにより伸長されるイメージデータの画質や色数も調整することができる。
【0061】
データ処理部103は、出力条件に従った解像度、画質、色数のイメージデータを生成させるために、上述のようなJPEG2000デコーダ104の伸長動作の制御を行う手段を含んでいる。
【0062】
出力条件に従った画像サイズの調整は、いくつかの方法で可能である。例えば、JPEG2000デコーダ104で伸長されたイメージデータに対し、間引き又は補間による変倍処理を行う方法が可能であり、そのための手段がデータ処理部103に含まれている。また、指定された解像度レベルの画像サイズより大きなサイズのイメージデータを生成したい場合に、JPEG2000デコーダ104における伸長過程において、指定された解像度レベルより高いレベルのダミーのサブバンド係数(例えばオール”0”)を挿入して逆ウェーブレット変換を実行させることにより、指定解像度レベルよりサイズの大きいイメージデータを生成できる。このようなダミーのサブバンド係数の挿入を行うための手段もデータ処理部103に含まれる。この場合においても、最終的なサイズ調整に間引き/補間による変倍処理を利用可能であることは当然である。
【0063】
また、JPEG2000デコーダ104の内部動作を直接的に制御する代わりに、圧縮画像データのヘッダ情報を書き換えることにより、JPEG2000デコーダ104の伸長動作を制御することも可能であり、このようなヘッダ情報の書き換えのための手段もデータ処理部103に含まれる。このヘッダ情報の書き換えの具体例を以下に説明する。
【0064】
(A)画像の解像度とサイズを変更する方法: CODマーカセグメント(図23)のSPcodにデコンポジションレベル数が記述されている。このデコンポジションレベル数を小さな値に書き換える。この書き換えにより、デコーダは書き換え後のデコンポジションレベル数までしか伸長を行わないため、再生される画像は元の画像よりサイズが小さな低解像度の画像になる。
【0065】
(B)簡便な画像サイズの変更方法: JPEG2000では、リファレンス・グリッド(reference grid)と呼ばれる座標軸を用いて画像の位置が表現される。メインヘッダ中のSIZマーカセグメント(図22)には、このリファレンス・グリッドの水平、垂直方向のサイズが記述されるXsiz,Ysizというパラメータがある。このXsiz,Ysizの値を書き換える。この書き換えにより、簡便な画像サイズ変更を行うことができる(画像の一部はカットされる)。図3は、その例を模式的に示している。元はXsiz=Ysiz=5であったものを、Xsiz=3、Ysiz=3に書き換えると、図3の(a)のように再生されるべき画像が(b)のように斜線の部分がカットされた小さな画像として再生される。
【0066】
(C)タイルの再生位置を変更する方法: タイルヘッダ中のSOTマーカセグメント(図21)には、ラスター順にタイルに割り当てられたタイル番号(Isot)が記述されているが、その値を書き換える。すなわち、図4の(a)のようにタイル分割されて圧縮された画像の場合に、タイル番号を書き換えることにより、例えば同図(b)のように再生画像上のタイルの並びを不整にすることができる。
【0067】
(D)画像を変形する方法: SIZマーカセグメント(図22)には、コンポーネント毎の水平、垂直方向のサンプル数が記述されるパラメータXRsiz(i)、YRsiz(i)が含まれているが、これを書き換える。この書き換えによって画像を縦横に変形させて再生させることができる。図5は、その例を模式的に示している。XRsiz(i)=YRsiz(i)=2に設定されている場合に、XRsiz(i)=1、YRsiz(i)=2に書き換えると、図5(a)のように再生されるべき画像は、水平方向に膨張した(b)のような画像として再生され、また、XRsiz(i)=4、YRsiz(i)=2に書き換えると水平方向に縮んだ(c)のような画像として再生される。
【0068】
(E)画像を変形させる別の方法: JPEG2000では、リファレンス・グリッドの原点と画像の原点との位置ずれ(オフセット)を指定することができる。SIZマーカセグメントのXOsiz、YOsizが、水平、垂直方向のオフセットが記述されるパラメータである。このXOsiz、YOsizの値を書き換える。図6は、その例を模式的に示している。XOsiz=YOsiz=0であったものをXOsiz=3、YOsiz=0に書き換えることにより、図6の(a)のように再生されるべき画像は、(b)に示すように右にシフトされ右端側が欠落した形で再生される。なお、Xsiz、Ysizの書き換えと併用することも可能である。
【0069】
(F)ROI領域以外を再生させない方法: 前述したように、JPEG2000の基本仕様では、ROI方式としてビットシフトによるMax Shift方式が規定されている。RGNマーカセグメント(図25)には、このビットシフト量が記述されるSPrgnというパラメータがある。このSPrgnを大きな値に書き換える。この書き換えにより、ROI領域のみを再生させることができる。図7は、その例を模式的に示している。(a)のようにROI領域が2ビットだけシフトされている画像(つまり、SPrgn=2)の場合に、SPrgn=10(=ROIシフト分の2ビット+通常の表示分ビット0〜7までの8ビット)に書き換えると、ビット0〜7の8ビット分は再生されない。したがって、再生画像上では、例えば同図(b)に示すように、ROI領域は再生されるが、その他の領域は再生されない。なお、タイルヘッダにRGNマーカセグメントが含まれている場合、その内容がメインヘッダ中のRGNマーカセグメントの内容より優先される。したがって、タイルヘッダ中にRGNマーカセグメントが含まれている符号化データでは、少なくとも、そのRGNマーカセグメントのSPrgnを書き換える必要がある。
【0070】
(G)画像の色再生を不正常にする方法: CODマーカセグメント(図23)にはコンポーネントに関係する符号スタイルのパラメータSGcod がある。このSGcodにはコンポーネントの色変換の有無を表す値も記述されている。この値が0ならば色変換なし、1ならば色変換ありである。この値を書き換える。この書き換えにより、画像は不正常な色で再生される。例えば、RGBからYCbCrへの色変換が行われた符号化データでは、その値は1に設定されているが、これを0に書き換えると、伸長の際にYCbCrからRGBへ戻す逆色変換が行われないため、再生される画像の色が不自然なものになる。同様に、0を1に書き換えた場合にも色再生が不自然になる。
【0071】
(H)画像の色再生を不正常にする別の方法: SIZマーカセグメント(図22)にはコンポーネント数を表すパラメータCsizがある。RGBカラー画像などはCsiz=3に設定されているが、これを2に書き換える。この書き換えにより、不自然な色の画像として再生される。
【0072】
(I)画像の色再生を不正常にする別の方法: CRGマーカセグメント(図24)には、コンポーネント毎の水平、垂直方向のオフセット位置を表すパラメータXcrg(i)、Ycrg(i)が含まれている。このXcrg(i)、Ycrg(i)の値を書き換える。この書き換えにより、コンポーネント間の空間的位置関係が乱れ、いわゆる色ずれを生じた不自然な色の再生画像となる。
【0073】
(J)画像の色数を変更する: SIZマーカセグメント(図22)にはコンポーネント数を表すパラメータCsizがある。RGBカラー画像などはCsiz=3に設定されているが、これを1に書き換える。これにより、カラー画像がモノクロ画像として再生される。
【0074】
次に出力手順の具体例を説明する。出力手順はテーブル形式など任意の形式で記述し得るが、この実施の形態では、汎用性を考慮し、ISO/IEC JTC1 SC29/WG11において標準化作業が進行している、マルチメディア・コンテンツに対するメタデータの表記に関する国際標準規格MPEG−7(Multimedia Content Description Interface;ISO/IEC 15938−1〜8)により記述される。この出力手順はxmlファイルとして保存される。
【0075】
MPEG−7により記述された出力手順の一例を図8乃至13に示す。ここに示す出力手順の内容は次の通りである。
【0076】
(1)最初に出力されるデータとして、sample1.jp2なるファイル名で保存されている圧縮画像データ(JPEG2000で圧縮された静止画)が指定されている。出力条件として、サイズ=240×360画素、解像度=レベル1、表示位置(画面上におけるイメージの左上角の座標)=(100,200)、表示時間=10秒が指定されている。
【0077】
(2)2番目に出力されるデータとして、1番目と同じ圧縮画像データが指定されている。出力条件として、サイズ=120×180画素、解像度=レベル1、表示位置=(100,200)、表示時間=10秒が指定されている。
【0078】
(3)3番目に出力されるデータとして、sample2.mj2なるファイル名で保存されている圧縮画像データ(JPEG2000で圧縮された動画)が指定されている。出力条件として、サイズ=240×360画素、解像度=レベル1、表示位置=(100,200)、表示時間=10秒が指定されている。
【0079】
(4)最後に出力されるデータとして、sample3.txtなるファイル名で保存されているテキストデータが指定されている。出力条件として、サイズ=240×360画素、表示位置=(100,200)、表示時間=10秒が指定されている。
【0080】
したがって、この出力手順の例では、最初に静止画(sample1.jp2)を解像度レベル1で伸長した240×360画素サイズのイメージが表示装置131の画面に10秒間表示され、次に同じ静止画を解像度レベル1で伸長した120×180画素サイズのイメージが画面に10秒間表示され、次に動画(sample2/mj2)を解像度レベル1で伸長した240×360画素サイズのイメージが10秒間表示され、最後にテキスト(sample3.txt)が240×360画素サイズのイメージとして画面に10秒間表示される。各イメージの画面上の表示位置は同じである。
【0081】
ここまでの説明から明らかなように、出力手順の内容によって、さらに多様な形態で静止画、動画、テキストを表示させることができる。例えば、前述のようなヘッダ情報の書き換えなどを利用することにより、静止画又は動画をタイル並びを不整にした状態で表示し、時間とともにタイル並びを正常な状態に近づけ、最終的に正常なタイル並びで表示させることにより、画像に注目させるような表示形態を実現することができる。また、静止画又は動画を初めは低画質、低解像度で表示させ、徐々に画質、解像度を上げて表示させたり、途中まではモノクロで表示させ、最後にカラーで表示させるような表示形態も実現できる。また、静止画又は動画を意図的に色ずれのある形で表示させたり、変形した形で表示させることができる。このように、このデータ処理装置によれば、極めて変化に富んだプレゼンテーションを行うことができる。
【0082】
以上に述べたように、このデータ処理装置は、データソース120に蓄積されている静止画、動画、テキストなどを、それを予め編集することなく、出力手順に従って様々な順序、表示形態で表示させることができるため、プレゼンテーションなどの用途に効果的に利用できる。
【0083】
なお、このデータ処理装置の機能、換言すれば図2に示したデータ処理手順(データ処理方法)は、パソコンなどのコンピュータのハードウェアを利用し、プログラムによって実現することも容易である。この場合にJPEG2000デコーダ104はハードウェアのデコーダを利用することも可能である。そのようなコンピュータ・プログラムと、それが記録された磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子などコンピュータが読み取り可能な各種の記録(記憶)媒体も本発明に含まれる。
【0084】
図14は、本発明の第2の実施形態を説明するためのブロック図である。この実施形態に係るデータ処理装置は、プレゼンテーションなどのためのデータを生成し、それをパソコンなどの外部装置240へ配信する構成であり、データ取得部201、出力データ生成部202、システム制御部205、出力手順ファイル222、送信バッファメモリ部230、送信部2312を有する。221は出力手順ファイル222を保存するための記憶部である。出力手順ファイル122に記述されている出力手順の内容は第1の実施形態と同様である。
【0085】
出力データ生成部102は生成した出力データ(送信データ)を送信バッファメモリ部230に書き込まれ、ここに書き込まれた送信データは送信部231によってインターフェース・ケーブルあるいはLAN、イントラネット、インターネットなどのネットワークを通じてパソコンなどの外部装置131へ送信される。220はデータ・ソースであり、少なくともJPEG2000により圧縮された画像(静止画又は動画)データを含むデータ群をファイルとして蓄積している。データ・ソース120は、ローカルな記憶装置、あるいは、LAN、イントラネット、インターネットなどのネットワーク上に存在するファイルサーバーなどである。
【0086】
システム制御部205は、データ処理装置の全体的な動作を制御する手段である。また、システム制御部205は、出力手順ファイル222に記述された出力手順の内容を取り込んで解析し、出力手順中に時間軸に沿って定義されたデータの指定及び出力条件を、時間経過に従ってデータ取得部201及び出力データ生成部202へそれぞれ通知する手段でもある。
【0087】
データ取得部201は、システム制御部205より通知されたデータの指定に従って、1つ又は複数のデータソース220に蓄積されているデータ群より必要なデータを取り込み、それを出力データ生成部202に入力する手段である。
【0088】
出力データ生成部203は、データ取得部201より入力されたデータから、システム制御部205より通知された出力条件に従った出力データ(送信データ)を生成する手段であり、データ処理部203と符号変換部204とからなる。符号変換部204は、JPEG2000による圧縮画像データを、符号状態のまま、出力条件に従った別の圧縮画像データに変換する手段である。データ処理部203は、圧縮画像データを符号変換部204へ渡して変換させ、変換後の圧縮画像データやテキストデータから送信に適した所定フォーマットの送信データを作成し、それを送信バッファメモリ部230に書き込む手段である。
【0089】
図15は、このデータ処理装置の動作を説明するための簡略化したフローチャートである。以下、このフローチャートに沿って動作を説明する。
【0090】
最初に、システム制御部205は出力手順を読み込む(ステップS200)。次に、システム制御部205は、その出力手順を解析し、最初のデータの指定をデータ取得部201に通知し、かつ、当該データに関する出力条件を出力データ生成部202に通知する。また、当該データの種類が動画であるか否かによって当該データに関する制御手順を選択する(ステップS202)。ここでは、データの種類として、JPEG2000により圧縮された動画又は静止画のデータと、テキストデータを想定して説明する。
【0091】
データが動画以外、つまり静止画又はテキストの場合には、そのデータがデータ取得部201によってデータソース220より取り込まれ、出力データ生成部202に入力する(ステップS204)。
【0092】
そのデータがテキストデータの場合、データ処理部203により、そのテキストデータを内容とする送信データが作成されて送信バッファメモリ部230に書き込まれる(ステップS206)。送信バッファメモリ部230に送信データが書き込まれる都度、その送信データは送信部231により外部装置240へ送信される。そして、システム制御部105は、当該テキストの出力条件として指定された出力時間の経過を監視する(ステップS208)。
【0093】
データが静止画の圧縮データの場合、そのデータがデータ取得部201によって取り込まれて出力データ生成部102に入力し(ステップS204)、出力データ生成部202の符号変換部204により出力条件に従った別の圧縮画像データに変換され、データ処理部203により、その変換後の圧縮画像データを内容とする送信データが作成されて送信バッファメモリ部230に書き込まれ、これが送信部231により送信される(ステップS206)。そして、システム制御部105は、当該静止画の出力条件として指定された出力時間の経過を監視する(ステップS208)。
【0094】
データが動画の圧縮データの場合、各フレームのデータがデータ取得部201によって順に取り込まれて出力データ生成部202に入力し(ステップS210)、出力データ生成部202の符号変換部204により出力条件に従った別の圧縮画像データに変換され、データ処理部203によりその送信データが作成されて送信バッファメモリ部230書き込まれ、送信部231により送信される(ステップS212)。システム制御部205は、当該動画の出力条件として指定された出力時間の経過を監視しており(ステップS214)、出力時間が経過するまではステップS210,S212を繰り返し実行させる。
【0095】
出力条件として指定された出力時間を経過すると(ステップS214又はS208、YES)、システム制御部205は出力手順を参照し、次のデータの指定があるかチェックし(ステップS216)、次のデータの指定があるならば、そのデータに関し同様の動作を開始させる。最後のデータまで処理されると(ステップS216,NO)、一連の動作を終了する。
【0096】
ここで、符号変換部204について説明する。符号変換部204は、2種類の変換手段を含む。第1の変換手段は、第1の実施の形態において述べたように、入力される圧縮画像データを、そのヘッダ情報の書き換えにより出力条件に従った圧縮画像データに変換する手段である。この変換は、符号そのものを扱わないため、次に述べる第2の変換手段による変換にくらべ処理が単純である。
【0097】
第2の変換手段は、入力される圧縮画像データを、不要な符号の廃棄と必要なヘッダ情報の書き換えを行って、出力条件に従った圧縮画像データに変換する手段である。この第2の変換手段では、例えば、解像度レベルを下げる場合には、不要な解像度レベルのサブバンド係数に対応するパケットを実際に廃棄した圧縮画像データを生成する。画質を下げる場合には、マルチレイヤ構成ならば下位のレイヤのパケットを廃棄し、シングルレイヤ構成ならば下位ビットプレーンのパケットを廃棄する。カラーの圧縮画像データをモノクロ化したい場合には、輝度コンポーネントのパケットのみ残し、色差コンポーネントのパケットを廃棄する、等々である。変換後のデータには不要な符号が含まれないため、その送信データのデータ量と送信時間を削減できる利点がある。
【0098】
第1の変換手段、第2の変換手段のいずれによる変換も、伸長して再圧縮することによるものではないため、再圧縮に伴う画質劣化を生じないことに注目すべきである。従来のJPEGの静止画データやMotion−JPEGの動画データでは再圧縮によるジェネレーション的な画質劣化が避けられない。
【0099】
なお、出力条件として画像やテキストの画面上での表示位置が指定され、これを外部装置240へ伝達する必要がある場合には、データ処理部203は、例えば、送信データのヘッダ部分に表示位置データを乗せる。圧縮画像データの場合には、メインヘッダのCOM(コメント)マーカセグメントに表示位置を記述することもできる。また、テキストデータの表示サイズの指定も伝達する必要がある場合には、その送信データのヘッダ部分に記述される。
【0100】
以上の構成であるため、パソコンなどの外部装置240において、受信した圧縮画像データをイメージデータに伸長し、またテキストデータをイメージデータに展開し、そのイメージデータを表示装置へ出力することにより、第1の実施形態と同様に、出力手順に従った画像やテキストの変化に富んだ表示を行うことができる。したがって、このデータ処理装置は、プレゼンテーションなどのためのデータをパソコンなどに配信する用途に効果的に利用できる。
【0101】
なお、この実施形態によるデータ処理装置の機能、換言すれば図2に示したデータ処理手順(データ処理方法)も、パソコンなどのコンピュータのハードウェアを利用し、プログラムによって実現することは容易である。そのようなコンピュータ・プログラムと、それが記録された磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子などコンピュータが読み取り可能な各種の記録(記憶)媒体も本発明に含まれる。
【0102】
【発明の効果】
以上に述べたように、本発明のデータ処理装置及び方法は、少なくともJPEG2000の圧縮画像データを含むデータ群を、予め編集することなく、出力手順に従って様々な順序、表示形態で表示させることができ、また、そのような表示のためのデータをパソコンなどに配信することができるため、プレゼンテーションなどの用途に効果的に利用可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を説明するためのブロック図である。
【図2】第1の実施の形態を説明するためのフローチャートである。
【図3】ヘッダ情報の書き換えを説明するための図である。
【図4】ヘッダ情報の書き換えを説明するための図である。
【図5】ヘッダ情報の書き換えを説明するための図である。
【図6】ヘッダ情報の書き換えを説明するための図である。
【図7】ヘッダ情報の書き換えを説明するための図である。
【図8】MPEG−7により記述された出力手順の例を示す図である。
【図9】図8の続きを示す図である。
【図10】図9の続きを示す図である。
【図11】図10の続きを示す図である。
【図12】図11の続きを示す図である。
【図13】図12の続きを示す図である。
【図14】本発明の第2の実施の形態を説明するためのブロック図である。
【図15】第2の実施の形態を説明するためのフローチャートである。
【図16】JPEG2000のアルゴリズムを説明するためのブロック図である。
【図17】ウェーブレット変換を説明するための図である。
【図18】JPEG2000の符号フォーマットを示す図である。
【図19】メインヘッダの構造を説明するための図である。
【図20】タイルヘッダの構造を説明するための図である。
【図21】SOTマーカセグメントの構造を示す図である。
【図22】SIZマーカセグメントの構造を示す図である。
【図23】CODマーカセグメントの構造を示す図である。
【図24】CRGマーカセグメントの構造を示す図である。
【図25】RGNマーカセグメントの構造を示す図である。
【符号の説明】
101 データ取得部
102 出力データ生成部
103 データ処理部
104 JPEG2000デコーダ
105 システム制御部
120 データ・ソース
122 出力手順ファイル
130 ビデオメモリ部
131 表示装置
201 データ取得部
202 出力データ生成部
203 データ処理部
204 符号変換部
205 システム制御部
220 データ・ソース
222 出力手順ファイル
230 送信バッファメモリ部
231 送信部
240 外部装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a data processing apparatus and method for displaying or distributing data such as still images and moving images according to a predetermined procedure for a presentation or the like.
[0002]
[Prior art]
For presentations using materials such as images, graphs, tables, texts, and audio, so-called presentation software represented by PowerPoint (registered trademark) of Microsoft Corporation or Keynote (registered trademark) of Apple Corporation is used. Often. Such presentation software basically edits materials for presentation in advance, such as processing various materials to a size to be displayed and ordering the materials in the order of display.
[0003]
Images are often stored or transmitted in a compressed state. JPEG is widely used for compressing still images, and MPEG and Motion-JPEG are widely used for compressing moving images. JPEG2000 which uses wavelet transform has attracted attention as a new compression method (for example, see Non-Patent Document 1). .
[0004]
The compression algorithm of JPEG2000 is specified in the basic specification (ISO / IEC FCD 15444-1). The JPEG2000 moving image file format and the like are defined in the extended specification (ISO / IEC FCD15444-3). In a JPEG2000 moving image, each frame is compressed as a still image independent of the preceding and succeeding frames by an algorithm defined in the basic specifications of JPEG2000.
[0005]
[Non-patent document 1]
Yasuyuki Nomizu, "Next Generation Image Coding Method JPEG2000",
Trikeps, Inc., February 13, 2001
[0006]
[Problems to be solved by the invention]
JPEG2000 compressed image data can be decompressed with a different resolution, size, image quality, color, etc. from the image before compression, and compressed image data in which the resolution, size, image quality, color, etc. are changed in the code state Can be converted to
[0007]
The present invention focuses on such characteristics of JPEG2000 compressed image data, and enables a variety of presentations and the like using a data group including JPEG2000 compressed image data to be executed without editing the data in advance. It is an object of the present invention to provide a simple data processing device and method.
[0008]
[Means for Solving the Problems]
A data processing apparatus according to the present invention, as described in claim 1, specifies an output procedure along a time axis to specify data to be output and defines an output condition thereof, and a data group including at least JPEG2000 compressed image data. A data acquisition unit that acquires data in accordance with the specification of the data defined in the output procedure; and, based on the data acquired by the data acquisition unit, output data according to the output condition defined in the output procedure for the data. And output data generating means for generating the data.
[0009]
According to another aspect of the data processing apparatus according to the present invention, the output data generating means is configured to decompress the JPEG2000 compressed image data into image data. And decompressing JPEG2000 compressed image data into image data by the decompression means in accordance with the output conditions defined in the output procedure for the compressed image data, and outputting the image data as output data. .
[0010]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to claim 2, the output data generation unit causes the expansion unit to decompress JPEG2000 compressed image data. The present invention further includes means for rewriting header information of the compressed image data in accordance with an output condition defined in the output procedure for the compressed image data.
[0011]
Another feature of the data processing device according to the present invention is that, in the configuration according to claim 1, the output data generation unit outputs the compressed image data according to JPEG2000 in a code state. Conversion means for converting the compressed image data according to JPEG2000 into the compressed image data according to the output condition defined in the output procedure. Is output as output data.
[0012]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to claim 5, the conversion unit is configured to rewrite the compressed image data by rewriting header information of the compressed image data according to JPEG2000. To convert data.
[0013]
Another feature of the data processing device according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. The present invention relates to changing the resolution of an image.
[0014]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. The present invention relates to changing the size of an image.
[0015]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. The present invention relates to changing the image quality of an image.
[0016]
Another feature of the data processing device according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generating unit is configured to output compressed image data according to JPEG2000. , Is to change the tile position of the image.
[0017]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. The problem is that the color of the image is always incorrect.
[0018]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. Is to make the area other than the ROI area of the image unreproducible.
[0019]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generation unit is configured to output compressed image data based on JPEG2000. Is to change the number of colors of the image.
[0020]
Another feature of the data processing apparatus according to the present invention is that, in the configuration according to any one of claims 2 to 5, the output data generating unit is configured to execute compressed image data according to JPEG2000. The object of the present invention is to deform an image.
[0021]
According to the data processing method of the present invention, a reading step of reading out an output procedure which specifies data to be output along a time axis and defines an output condition thereof, and at least a compressed image data by JPEG2000 From the included data group, a data acquisition step of capturing data in accordance with the specification of the data defined in the output procedure read in the reading step, and from the data captured in the data acquisition step, the output procedure is performed on the data. And an output data generating step of generating output data in accordance with the defined output conditions.
[0022]
Another feature of the data processing method according to the present invention is that, in the configuration according to claim 14, the output data generating step is for decompressing JPEG2000 compressed image data into image data. Decompressing the JPEG2000 compressed image data into image data by the decompression step in accordance with the output condition defined in the output procedure for the compressed image data, and outputting the image data as output data. .
[0023]
Another feature of the data processing method according to the present invention is that, in the configuration according to claim 15, the output data generating step decompresses JPEG2000 compressed image data to the decompression step. The method may further include a step of rewriting header information of the compressed image data in accordance with an output condition defined in the output procedure for the compressed image data.
[0024]
According to another feature of the data processing method according to the present invention, as in claim 17, in the configuration according to claim 14, the output data generating step includes the step of compressing JPEG2000 compressed image data into another compressed state. A conversion step for converting the compressed image data according to the JPEG2000 in accordance with an output condition defined in the output procedure with respect to the compressed image data, and outputting the converted compressed image data. Output as data.
[0025]
Another feature of the data processing method according to the present invention is that, in the configuration according to claim 17, the conversion step is performed by rewriting the header information of the compressed image data according to JPEG2000. To convert data.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
In order to facilitate understanding of the following description, JPEG2000 will be outlined.
[0027]
FIG. 16 is a block diagram for explaining the compression / decompression algorithm of JPEG2000. Image data to be subjected to compression processing is divided into non-overlapping rectangular areas (tiles) for each component, and is processed in tile units for each component. However, it is also possible to process the entire image as one tile.
[0028]
Each tile image of each component is subjected to color space conversion from RGB data or CMY data to YCrCb data by a color space conversion / inverse conversion unit 1 for the purpose of improving a compression ratio. In some cases, this color space conversion is omitted.
[0029]
The tile image after the color space conversion is subjected to a two-dimensional wavelet transform (discrete wavelet transform) by the wavelet transform / inverse transform unit 2 to be decomposed into a plurality of subbands.
[0030]
FIG. 17 is an explanatory diagram of the wavelet transform when the number of decomposition levels is three. The tile image (decomposition level 0) shown in FIG. 17A is divided into 1LL, 1HL, 1LH, and 1HH sub-bands as shown in FIG. 17B by two-dimensional wavelet transform. By applying the two-dimensional wavelet transform to the coefficients of the 1LL subband, the coefficients are divided into 2LL, 2HL, 2LH, and 2HH subbands as shown in FIG. By applying the two-dimensional wavelet transform to the coefficients of the 2LL subband, the coefficients are divided into 3LL, 3HL, 3LH, and 3HH subbands as shown in FIG. Regarding the relationship between the decomposition level and the resolution level, the number enclosed in parentheses in each subband in FIG. 17D is the resolution level of that subband.
[0031]
Wavelet coefficients obtained by such recursive division (octave division) of the low-frequency components (LL subband coefficients) are quantized by the quantization / dequantization unit 3 for each subband. In JPEG2000, both lossless (reversible) compression and lossy (irreversible) compression are possible. In the case of lossless compression, the quantization step width is always 1, and quantization is not substantially performed at this stage.
[0032]
Each of the quantized subband coefficients is entropy-encoded by an entropy encoding / decoding unit 4. For this entropy coding, a block-based bit plane coding method called EBCOT (Embedded Block Coding with Optimized Truncation) including block division, coefficient modeling, and binary arithmetic coding is used. The bit plane of each subband coefficient after quantization is encoded for each block called a code block from the upper bits to the lower bits.
[0033]
In the tag processing unit 5, packets of the code blocks generated by the entropy encoding / decoding unit 4 are put together to create a packet. Next, the packets are arranged in the progression order, and necessary tags and tag information are added. As a result, encoded data (compressed image data) in a predetermined format is created. In JPEG2000, five types of progression order based on a combination of a resolution level, a position (precinct), a layer, and a component (color component) are defined for code order control.
[0034]
FIG. 18 shows the format of the encoded data of JPEG2000 generated in this manner. As shown in FIG. 18, the encoded data starts with a tag called an SOC marker indicating the start of the encoded data, followed by tag information called a main header (Main Header) that describes an encoding parameter, a quantization parameter, and the like. After that, code data for each tile follows. Code data for each tile starts with a tag called an SOT marker, tag information called a tile header (Tile Header), a tag called an SOD marker, and tile data (Tile Data) containing a code string of each tile. Is done. After the last tile data, a tag called an EOC marker indicating the end is placed.
[0035]
FIG. 19 shows the configuration of the main header. Each marker segment of SIZ, COD and QCD is required, but other marker segments are optional. FIG. 20 shows the configuration of the tile header. In FIG. 20, (a) shows the configuration of a header added to the head of the tile data, and (b) shows the header added to the head of the divided tile partial sequence when the inside of the tile is divided into a plurality. Is shown. There is no mandatory marker segment in the tile header and all are optional. FIG. 21 shows the configuration of the SOT marker segment, FIG. 22 shows the configuration of the SIZ marker segment, FIG. 23 shows the configuration of the COD marker segment, FIG. 24 shows the configuration of the CRG marker segment, and FIG. 25 shows the configuration of the RGN marker segment. Show.
[0036]
Decompression processing of JPEG2000 encoded data is the reverse of compression processing. The encoded data is decomposed by the tag processing unit 5 into a code string of each tile of each component. This code sequence is entropy-decoded by the entropy coding / decoding unit 4. The decoded wavelet coefficients are inversely quantized by the quantization / dequantization unit 3 and then subjected to two-dimensional inverse wavelet transform by the wavelet transform / inverse transforming unit 2 to obtain an image of each tile of each component. Is played. Each tile image of each component is subjected to inverse color conversion processing by the color space conversion / inverse conversion unit 1 and returned to a tile image composed of components such as RGB.
[0037]
Now, in JPEG2000, an image is divided into a plurality of regions, and each divided region is compressed in a state where there is no dependency, but there is a precinct as a divided region in addition to the tile and the code block, and the image ≧ tile ≧ There is a relationship of subband ≧ precinct ≧ code block. A packet is obtained by extracting and collecting a part of the codes of all the code blocks included in the precinct (for example, the codes of three bit planes from the highest bit to the third bit). Packets with an empty code are also allowed. Packets are generated by grouping the codes of the code blocks, and the encoded data is formed by arranging the packets in a desired progression order. The portion below the SOD for each tile in FIG. 18 is a set of packets.
[0038]
JPEG2000 encoded data can have a layer structure. When packets of all precincts (that is, all code blocks and all subbands) are collected, a part of the code of the entire image (for example, the bits from the most significant bit plane to the third bit of the wavelet coefficient of the entire image) Plane sign), which is the layer. Therefore, as the number of layers decoded at the time of decompression increases, the image quality of the reproduced image improves. That is, a layer can be said to be a unit of image quality. When all the layers are collected, the codes of all the bit planes in the entire image are obtained.
[0039]
Since the packets constituting the JPEG2000 encoded data described above have respective indexes of area, image quality, component, and resolution, it is possible to select codes according to parameters of area, image quality, component, and resolution in the code state. is there. That is, a code in which the area, image quality, component, and resolution at the time of reproduction are changed by selectively deleting the code (and rewriting necessary tag information) without expanding the coded data, that is, in the code state. It can be converted to coded data.
[0040]
As will be specifically described later, JPEG2000 encoded data is obtained by changing the resolution, image quality, component, and area during reproduction only by rewriting the tag information (header information) without changing the code itself. It can also be converted to data.
[0041]
JPEG2000 also has a selective region image quality improvement function (ROI) that lowers the compression ratio of a specific region (increases image quality) without lowering the compression ratio of the entire image. The basic specification of JPEG2000 defines an ROI method called a Max Shift method for bit-shifting a wavelet coefficient in an ROI area.
[0042]
FIG. 1 is a block diagram for explaining a first embodiment of the present invention. The data processing apparatus according to this embodiment is configured to generate image data to be displayed on the display device 131, and includes a data acquisition unit 101, an output data generation unit 102, a system control unit 105, and an output procedure file 122. Reference numeral 121 denotes a storage unit for storing the output procedure file 122.
[0043]
A video memory unit 130 writes the image data (output data) generated by the output data generation unit 102, and the image data written here is displayed on the screen of the display device 131. A data source 120 stores a data group including at least image (still image or moving image) data compressed by JPEG2000 as a file. The data source 120 is a local storage device, a file server on a network such as a LAN, an intranet, and the Internet.
[0044]
The system control unit 105 is a unit that controls the overall operation of the data processing device. Further, the system control unit 105 fetches and interprets the contents of the output procedure described in the output procedure file 122, and designates data specification and output conditions defined along the time axis during the output procedure according to the passage of time. It is also a means for notifying the acquisition unit 101 and the output data generation unit 102, respectively.
[0045]
The data acquisition unit 101 captures necessary data from a data group stored in one or more data sources 120 according to the specification of the data passed from the system control unit 105, and inputs the data to the output data generation unit 102. It is a means to do.
[0046]
The output data generation unit 103 is a unit that generates image data (output data) in accordance with the output conditions passed from the system control unit 105 from the data input from the data acquisition unit 101. The data processing unit 103 and the JPEG2000 And a decoder 104. The JPEG2000 decoder 104 is means for expanding JPEG2000 compressed image data into image data. The data processing unit 103 passes the compressed image data to the JPEG2000 decoder 104 to decompress the image data into image data, expands the text data into image data, and writes the obtained image data to the video memory unit 130. The data processing unit 103 controls the decompression operation of the JPEG2000 decoder 104, rewrites the header information of the compressed image data, scales the decompressed or expanded image data (thinning / interpolation processing), and the video memory unit 130 according to the output conditions. Control of the writing position of the image data with respect to.
[0047]
The output procedure described in the output procedure file 122 defines the data to be output (displayed) and defines the output conditions of the data along the time axis. The designation of data is, for example, a file name or a URL of the data. Data output conditions include, for example, if the data is compressed image data, conditions directly related to the appearance of the reproduced image, such as image resolution, size, image quality, tile position, color, ROI area, and deformation. In addition, data output (display) time, a position on the screen where an image or text image is displayed, and the like are defined.
[0048]
FIG. 2 is a simplified flowchart for explaining the operation of the data processing device. Hereinafter, the operation will be described with reference to this flowchart.
[0049]
First, the system control unit 105 reads an output procedure (step S100). Next, the system control unit 105 analyzes the contents of the output procedure, notifies the data acquisition unit 101 of the designation of the first data, and notifies the output data generation unit 102 of the output condition regarding the data. Further, a control procedure for the data is selected depending on whether or not the type of the data is a moving image (step S102). Note that, here, for the sake of simplicity, the description will be made on the assumption that moving image or still image data compressed by JPEG2000 and text data are used as data types, but data such as tables, graphs, and audio are excluded. is not.
[0050]
If the data is a still image or text, the data is acquired from the data source 120 by the data acquisition unit 101 and is input to the output data generation unit 102 (step S104).
[0051]
If the data is text data, the data processing unit 103 develops the image data into image data and writes it to the video memory unit 130. At this time, the size and the writing position (position on the screen) of the image data are determined according to the output conditions. Control is performed (step S106). Then, the system control unit 105 monitors the elapse of the output (display) time designated as the output condition of the text (step S108).
[0052]
If the data is compressed data of a still image, the data is captured by the data acquisition unit 101 and input to the output data generation unit 102 (step S104), and is decompressed into image data by the JPEG2000 decoder 104 of the output data generation unit 102. It is written to the position of the video memory unit 130 specified as the output condition by the data processing unit 103 (step S106). At this time, the data processing unit 103 controls the decompression operation of the JPEG2000 decoder 104 and generates compressed image data of each frame in order to generate image data according to the resolution, size, image quality, number of colors, etc. specified as output conditions. Rewriting of the header information and thinning / interpolation processing of the decompressed image data are performed as necessary (that is, the data processing unit 103 includes such control or processing means). Will be described later. Then, the system control unit 105 monitors the elapse of the output (display) time designated as the output condition of the still image (step S108).
[0053]
If the data is compressed data of a moving image, the data of each frame is sequentially captured by the data acquisition unit 101 and input to the output data generation unit 102 (step S110), and decompressed into image data by the JPEG2000 decoder 104 of the output data generation unit 102. Then, it is written to the position of the video memory unit 130 specified as the output condition by the data processing unit 103 (step S112). At this time, the data processing unit 103 controls the decompression operation of the JPEG2000 decoder 104 and generates compressed image data of each frame in order to generate image data according to the resolution, size, image quality, number of colors, etc. specified as output conditions. Rewriting of the header information and thinning / interpolation processing of the decompressed image data are performed as necessary (that is, the data processing unit 103 includes such control or processing means). Will be described later. The system control unit 105 monitors the elapse of the output (display) time specified as the output condition of the moving image (step S114), and repeatedly executes steps S110 and S112 until the output time elapses.
[0054]
When the output time specified as the output condition has elapsed (step S114 or S108, YES), the system control unit 105 refers to the output procedure and checks whether the next data is specified (step S116). If so, a similar operation is started for the data. When the last data has been processed (step S116, NO), a series of output data generation operations ends.
[0055]
Here, control or processing by the data processing unit 103 for generating image data according to output conditions such as resolution, size, image quality, and color will be described more specifically.
[0056]
In JPEG2000, five progression orders of LRCP, RLCP, RPCL, PCRL, and CPRL are defined. Here, L is a layer, R is a resolution level, C is a component, and P is a precinct.
[0057]
For example, in the case of RLCP progression, the order of packet arrangement (at the time of compression) or packet interpretation (at the time of decompression) can be represented by the following for loop nested in the order of R, L, C, P. .
Figure 2004289333
[0058]
In the case of LRCP progression, the order of packet arrangement (at the time of compression) or packet interpretation (at the time of decompression) can be represented by the following for loop nested in the order of L, R, C, and P.
Figure 2004289333
[0059]
In the case of other progression orders, the arrangement order or interpretation order of the packets is determined by the same nested for loop.
[0060]
Therefore, in the output data generation unit 102, the resolution of the decompressed image data can be adjusted by controlling the number of times the for-loop of the resolution level of the JPEG2000 decoder 104 is controlled by the data processing unit 103. That is, for example, in the case of the compressed image data having the number of decomposition levels of 3 as shown in FIG. 17D, when the resolution level 0 is designated, only the code of the 3LL subband coefficient is decoded to generate the image data. When the resolution level 1 is specified, only the codes of the 3LL, 3HL, 3LH, and 3HH subband coefficients are decoded to generate image data. Similarly, when the resolution level 3 is specified, all the subbands of 3LL to 1HH are generated. The coefficients are decoded to generate image data. Similarly, by controlling the number of times of the layer for loop and the number of times of the component for loop, the image quality and the number of colors of the decompressed image data can be adjusted.
[0061]
The data processing unit 103 includes a unit that controls the decompression operation of the JPEG2000 decoder 104 as described above in order to generate image data of resolution, image quality, and number of colors according to the output conditions.
[0062]
Adjustment of the image size according to the output conditions is possible in several ways. For example, a method of performing scaling processing by thinning or interpolation on image data expanded by the JPEG2000 decoder 104 is possible, and a means for that is included in the data processing unit 103. Also, when it is desired to generate image data having a size larger than the image size of the designated resolution level, in the decompression process in the JPEG2000 decoder 104, dummy subband coefficients (for example, all “0”) of a level higher than the designated resolution level are used. ) Is inserted and the inverse wavelet transform is executed, whereby image data larger in size than the specified resolution level can be generated. A means for inserting such dummy subband coefficients is also included in the data processing unit 103. Also in this case, it is natural that the scaling process by thinning / interpolation can be used for the final size adjustment.
[0063]
Also, instead of directly controlling the internal operation of the JPEG2000 decoder 104, the decompression operation of the JPEG2000 decoder 104 can be controlled by rewriting the header information of the compressed image data. Is included in the data processing unit 103. A specific example of rewriting the header information will be described below.
[0064]
(A) Method of Changing Image Resolution and Size: The number of decomposition levels is described in SPcod of the COD marker segment (FIG. 23). This decomposition level number is rewritten to a small value. As a result of this rewriting, the decoder expands only up to the number of decomposition levels after the rewriting, so that the reproduced image is a low-resolution image smaller in size than the original image.
[0065]
(B) Simple method of changing image size: In JPEG2000, the position of an image is represented using a coordinate axis called a reference grid. The SIZ marker segment (FIG. 22) in the main header has parameters Xsiz and Ysiz that describe the horizontal and vertical sizes of this reference grid. The values of Xsiz and Ysiz are rewritten. By this rewriting, a simple image size change can be performed (a part of the image is cut). FIG. 3 schematically shows the example. When the original Xsiz = Ysiz = 5 is rewritten as Xsiz = 3 and Ysiz = 3, the image to be reproduced as shown in FIG. 3A is cut off as shown in FIG. Is reproduced as a small image.
[0066]
(C) Method of Changing the Playback Position of a Tile: The tile number (Isot) assigned to the tile in raster order is described in the SOT marker segment (FIG. 21) in the tile header, but the value is rewritten. That is, in the case of an image that has been tile-divided and compressed as shown in FIG. 4A, by rewriting the tile number, the arrangement of the tiles on the reproduced image is made irregular as shown in FIG. 4B, for example. be able to.
[0067]
(D) Method for Deforming Image: The SIZ marker segment (FIG. 22) includes parameters XRsiz (i) and YRsiz (i) describing the number of samples in the horizontal and vertical directions for each component. Rewrite this. By this rewriting, the image can be transformed vertically and horizontally and reproduced. FIG. 5 schematically shows the example. If XRsiz (i) = YRsiz (i) = 2 and XRsiz (i) = 1 and YRsiz (i) = 2, the image to be reproduced as shown in FIG. Is reproduced as an image like (b) expanded horizontally, and rewritten as XRsiz (i) = 4 and YRsiz (i) = 2, reproduced as an image like (c) contracted in the horizontal direction. You.
[0068]
(E) Another method of deforming an image: In JPEG2000, it is possible to specify a displacement between the origin of the reference grid and the origin of the image. XOsiz and YOsiz of the SIZ marker segment are parameters in which horizontal and vertical offsets are described. The values of XOsiz and YOsiz are rewritten. FIG. 6 schematically shows the example. By rewriting XOsiz = YOsiz = 0 to XOsiz = 3 and YOsiz = 0, the image to be reproduced as shown in FIG. 6A is shifted rightward as shown in FIG. Plays back with missing sides. In addition, it is also possible to use together with rewriting of Xsiz and Ysiz.
[0069]
(F) Method of not Reproducing Data Except for ROI Area: As described above, in the basic specification of JPEG2000, the Max Shift method by bit shift is specified as the ROI method. The RGN marker segment (FIG. 25) has a parameter called SPrgn in which the bit shift amount is described. This SPrgn is rewritten to a large value. By this rewriting, only the ROI area can be reproduced. FIG. 7 schematically shows the example. In the case of an image in which the ROI area is shifted by 2 bits as in (a) (that is, SPrgn = 2), SPrgn = 10 (= 2 bits for ROI shift + normal display bits 0 to 7). (8 bits), 8 bits of bits 0 to 7 are not reproduced. Therefore, on the reproduced image, for example, as shown in FIG. 3B, the ROI area is reproduced, but the other areas are not reproduced. When an RGN marker segment is included in the tile header, its content has priority over the content of the RGN marker segment in the main header. Therefore, in the encoded data in which the RGN marker segment is included in the tile header, it is necessary to rewrite at least SPrgn of the RGN marker segment.
[0070]
(G) Method of Improperly Reproducing Image Color: In the COD marker segment (FIG. 23), there is a code style parameter SGcod related to the component. The SGcod also describes a value indicating the presence or absence of color conversion of the component. If this value is 0, there is no color conversion, and if it is 1, there is color conversion. Rewrite this value. By this rewriting, the image is reproduced with an abnormal color. For example, in the encoded data in which the color conversion from RGB to YCbCr has been performed, the value is set to 1. However, if this value is rewritten to 0, the reverse color conversion from YCbCr to RGB at the time of decompression is performed. As a result, the color of the reproduced image becomes unnatural. Similarly, when 0 is rewritten to 1, color reproduction becomes unnatural.
[0071]
(H) Another method for improperly reproducing the color of an image: The SIZ marker segment (FIG. 22) has a parameter Csiz representing the number of components. Csiz = 3 is set for an RGB color image or the like, but this is rewritten to 2. By this rewriting, an image having an unnatural color is reproduced.
[0072]
(I) Another method for improperly reproducing the color of an image: The CRG marker segment (FIG. 24) includes parameters Xcrg (i) and Ycrg (i) representing the horizontal and vertical offset positions for each component. Have been. The values of Xcrg (i) and Ycrg (i) are rewritten. Due to this rewriting, the spatial positional relationship between the components is disturbed, resulting in a reproduced image of an unnatural color having a so-called color shift.
[0073]
(J) Change the number of colors in the image: The SIZ marker segment (FIG. 22) has a parameter Csiz representing the number of components. Although Csiz = 3 is set for an RGB color image or the like, this is rewritten to 1. Thus, the color image is reproduced as a monochrome image.
[0074]
Next, a specific example of the output procedure will be described. Although the output procedure can be described in any format such as a table format, in this embodiment, metadata for multimedia contents for which standardization work is underway in ISO / IEC JTC1 SC29 / WG11 in consideration of versatility. Is described by the international standard MPEG-7 (Multimedia Content Description Interface; ISO / IEC 15938-1 to 8). This output procedure is saved as an xml file.
[0075]
An example of an output procedure described by MPEG-7 is shown in FIGS. The contents of the output procedure shown here are as follows.
[0076]
(1) As data to be output first, sample1. Compressed image data (still image compressed by JPEG2000) stored under the file name jp2 is specified. As output conditions, size = 240 × 360 pixels, resolution = level 1, display position (the coordinates of the upper left corner of the image on the screen) = (100, 200), and display time = 10 seconds.
[0077]
(2) The same compressed image data as the first is specified as the data to be output second. As output conditions, size = 120 × 180 pixels, resolution = level 1, display position = (100, 200), and display time = 10 seconds.
[0078]
(3) As data to be output third, sample2. The compressed image data (moving image compressed by JPEG2000) stored under the file name mj2 is specified. As output conditions, size = 240 × 360 pixels, resolution = level 1, display position = (100, 200), and display time = 10 seconds.
[0079]
(4) Sample3. The text data stored under the file name txt is specified. As output conditions, size = 240 × 360 pixels, display position = (100, 200), and display time = 10 seconds are specified.
[0080]
Therefore, in the example of this output procedure, first, a 240 × 360 pixel size image obtained by expanding the still image (sample1.jp2) at the resolution level 1 is displayed on the screen of the display device 131 for 10 seconds, and then the same still image is displayed. A 120 × 180 pixel size image expanded at the resolution level 1 is displayed on the screen for 10 seconds, and a 240 × 360 pixel size image obtained by expanding the moving image (sample2 / mj2) at the resolution level 1 is displayed for 10 seconds. The text (sample3.txt) is displayed on the screen as a 240 × 360 pixel size image for 10 seconds. The display position of each image on the screen is the same.
[0081]
As is clear from the above description, still images, moving images, and texts can be displayed in various forms depending on the contents of the output procedure. For example, by using the above-described rewriting of header information, a still image or a moving image is displayed in an irregular tile arrangement, and the tile arrangement approaches a normal state with time, and finally a normal tile is displayed. By displaying the images side by side, it is possible to realize a display mode in which an image is noticed. In addition, a still image or video can be displayed with low image quality and low resolution at first, gradually increase the image quality and resolution, or display in monochrome in the middle, and finally display in color it can. In addition, a still image or a moving image can be intentionally displayed with a color shift or in a deformed form. As described above, according to this data processing device, a presentation that is extremely varied can be performed.
[0082]
As described above, this data processing device displays still images, moving images, texts, and the like stored in the data source 120 in various orders and display forms according to an output procedure without editing them in advance. Can be used effectively for applications such as presentations.
[0083]
The function of the data processing apparatus, in other words, the data processing procedure (data processing method) shown in FIG. 2 can be easily implemented by a program using hardware of a computer such as a personal computer. In this case, the JPEG2000 decoder 104 can use a hardware decoder. The present invention also includes such a computer program and various computer-readable recording (storage) media such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element on which the computer program is recorded.
[0084]
FIG. 14 is a block diagram for explaining the second embodiment of the present invention. The data processing apparatus according to this embodiment generates data for a presentation or the like, and distributes the data to an external device 240 such as a personal computer. The data processing apparatus 201 includes a data acquisition unit 201, an output data generation unit 202, and a system control unit 205. , An output procedure file 222, a transmission buffer memory unit 230, and a transmission unit 2312. A storage unit 221 stores the output procedure file 222. The contents of the output procedure described in the output procedure file 122 are the same as in the first embodiment.
[0085]
The output data generation unit 102 writes the generated output data (transmission data) in the transmission buffer memory unit 230. Etc. to the external device 131. A data source 220 stores a data group including at least image (still image or moving image) data compressed by JPEG2000 as a file. The data source 120 is a local storage device or a file server existing on a network such as a LAN, an intranet, or the Internet.
[0086]
The system control unit 205 is a unit that controls the overall operation of the data processing device. The system control unit 205 also fetches and analyzes the contents of the output procedure described in the output procedure file 222, and designates data designation and output conditions defined along the time axis during the output procedure according to the passage of time. It is also a means for notifying the acquisition unit 201 and the output data generation unit 202, respectively.
[0087]
The data acquisition unit 201 fetches necessary data from a data group stored in one or more data sources 220 according to the specification of the data notified from the system control unit 205 and inputs the data to the output data generation unit 202. It is a means to do.
[0088]
The output data generation unit 203 is a unit that generates output data (transmission data) according to the output condition notified from the system control unit 205 from the data input from the data acquisition unit 201. And a conversion unit 204. The code conversion unit 204 is means for converting the compressed image data according to JPEG2000 into another compressed image data in accordance with the output condition while keeping the code state. The data processing unit 203 passes the compressed image data to the code conversion unit 204 for conversion, creates transmission data of a predetermined format suitable for transmission from the converted compressed image data and text data, and stores the transmission data in the transmission buffer memory unit 230. Means to write to.
[0089]
FIG. 15 is a simplified flowchart for explaining the operation of the data processing device. Hereinafter, the operation will be described with reference to this flowchart.
[0090]
First, the system control unit 205 reads an output procedure (step S200). Next, the system control unit 205 analyzes the output procedure, notifies the data acquisition unit 201 of the designation of the first data, and notifies the output data generation unit 202 of the output condition regarding the data. Further, a control procedure for the data is selected depending on whether the type of the data is a moving image (step S202). Here, the description will be made on the assumption that moving image or still image data compressed by JPEG2000 and text data are used as data types.
[0091]
If the data is other than a moving image, that is, a still image or text, the data is acquired from the data source 220 by the data acquisition unit 201 and input to the output data generation unit 202 (step S204).
[0092]
If the data is text data, the data processing unit 203 creates transmission data having the text data as the content and writes the transmission data into the transmission buffer memory unit 230 (step S206). Each time transmission data is written to the transmission buffer memory unit 230, the transmission data is transmitted to the external device 240 by the transmission unit 231. Then, the system control unit 105 monitors the elapse of the output time specified as the output condition of the text (step S208).
[0093]
When the data is compressed data of a still image, the data is captured by the data acquisition unit 201 and input to the output data generation unit 102 (step S204), and the code conversion unit 204 of the output data generation unit 202 complies with the output condition. The data is converted into another compressed image data, and the data processing unit 203 creates transmission data containing the converted compressed image data as a content, writes the transmission data in the transmission buffer memory unit 230, and transmits this to the transmission unit 231 ( Step S206). Then, the system control unit 105 monitors the elapse of the output time specified as the output condition of the still image (step S208).
[0094]
When the data is compressed data of a moving image, the data of each frame is sequentially taken in by the data acquisition unit 201 and input to the output data generation unit 202 (step S210). The data is converted into another compressed image data, the transmission data is created by the data processing unit 203, written into the transmission buffer memory unit 230, and transmitted by the transmission unit 231 (step S212). The system control unit 205 monitors the elapse of the output time specified as the output condition of the moving image (step S214), and repeatedly executes steps S210 and S212 until the output time elapses.
[0095]
When the output time specified as the output condition has elapsed (step S214 or S208, YES), the system control unit 205 refers to the output procedure and checks whether the next data is specified (step S216). If so, a similar operation is started for the data. When the processing is performed up to the last data (step S216, NO), a series of operations ends.
[0096]
Here, the code conversion unit 204 will be described. The code conversion unit 204 includes two types of conversion means. As described in the first embodiment, the first conversion means is means for converting input compressed image data into compressed image data according to output conditions by rewriting the header information. Since this conversion does not deal with the code itself, the processing is simpler than the conversion by the second conversion unit described below.
[0097]
The second conversion means is means for converting the input compressed image data into compressed image data according to output conditions by discarding unnecessary codes and rewriting necessary header information. In the second conversion means, for example, when lowering the resolution level, compressed image data is generated by actually discarding packets corresponding to subband coefficients of unnecessary resolution levels. To lower the image quality, the lower layer packet is discarded in a multi-layer configuration, and the lower bit plane packet is discarded in a single layer configuration. When it is desired to convert the color compressed image data to monochrome, only the packet of the luminance component is left, and the packet of the color difference component is discarded. Since the converted data does not include an unnecessary code, there is an advantage that the data amount and transmission time of the transmission data can be reduced.
[0098]
It should be noted that since the conversion by either the first conversion means or the second conversion means is not based on decompression and recompression, image quality does not deteriorate due to recompression. With conventional JPEG still image data and Motion-JPEG moving image data, generational image quality degradation due to recompression is inevitable.
[0099]
If the display position of the image or text on the screen is specified as the output condition, and it is necessary to transmit this to the external device 240, the data processing unit 203, for example, displays the display position in the header of the transmission data. Add data. In the case of compressed image data, the display position can be described in a COM (comment) marker segment of the main header. If it is necessary to transmit the designation of the display size of the text data, it is described in the header of the transmission data.
[0100]
With the above configuration, the external device 240 such as a personal computer decompresses the received compressed image data into image data, expands the text data into image data, and outputs the image data to the display device. As in the first embodiment, it is possible to display a variety of images and texts according to the output procedure. Therefore, the data processing device can be effectively used for the purpose of distributing data for a presentation or the like to a personal computer or the like.
[0101]
The functions of the data processing apparatus according to this embodiment, in other words, the data processing procedure (data processing method) shown in FIG. 2 can be easily realized by a program using hardware of a computer such as a personal computer. . The present invention also includes such a computer program and various computer-readable recording (storage) media such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element on which the computer program is recorded.
[0102]
【The invention's effect】
As described above, the data processing apparatus and method of the present invention can display a data group including at least JPEG2000 compressed image data in various orders and display forms according to an output procedure without editing in advance. In addition, since such display data can be distributed to a personal computer or the like, it can be effectively used for applications such as presentations.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a first embodiment of the present invention.
FIG. 2 is a flowchart for explaining the first embodiment.
FIG. 3 is a diagram for explaining rewriting of header information.
FIG. 4 is a diagram for describing rewriting of header information.
FIG. 5 is a diagram for describing rewriting of header information.
FIG. 6 is a diagram for describing rewriting of header information.
FIG. 7 is a diagram for describing rewriting of header information.
FIG. 8 is a diagram showing an example of an output procedure described in MPEG-7.
FIG. 9 is a view showing a continuation of FIG. 8;
FIG. 10 is a view showing a continuation of FIG. 9;
FIG. 11 is a view showing a continuation of FIG. 10;
FIG. 12 is a view showing a continuation of FIG. 11;
FIG. 13 is a view showing a continuation of FIG. 12;
FIG. 14 is a block diagram for explaining a second embodiment of the present invention.
FIG. 15 is a flowchart illustrating a second embodiment.
FIG. 16 is a block diagram for explaining an algorithm of JPEG2000.
FIG. 17 is a diagram illustrating a wavelet transform.
FIG. 18 is a diagram illustrating a code format of JPEG2000.
FIG. 19 is a diagram for explaining a structure of a main header.
FIG. 20 is a diagram illustrating the structure of a tile header.
FIG. 21 is a diagram showing the structure of an SOT marker segment.
FIG. 22 is a diagram showing the structure of an SIZ marker segment.
FIG. 23 is a diagram showing the structure of a COD marker segment.
FIG. 24 is a diagram showing the structure of a CRG marker segment.
FIG. 25 is a diagram showing the structure of an RGN marker segment.
[Explanation of symbols]
101 Data acquisition unit
102 Output data generator
103 Data processing unit
104 JPEG2000 decoder
105 System control unit
120 data sources
122 Output procedure file
130 Video memory section
131 Display device
201 Data acquisition unit
202 Output data generator
203 Data processing unit
204 code converter
205 System control unit
220 data sources
222 Output procedure file
230 Transmission buffer memory
231 transmission unit
240 External device

Claims (20)

時間軸に沿って出力すべきデータの指定及びその出力条件を定義した出力手順と、
少なくともJPEG2000による圧縮画像データが含まれるデータ群より、前記出力手順に定義されたデータの指定に従ってデータを取り込むデータ取得手段と、
前記データ取得手段により取り込まれたデータから、当該データに関し前記出力手順に定義された出力条件に従った出力データを生成する出力データ生成手段とを有することを特徴とするデータ処理装置。
An output procedure that specifies data to be output along the time axis and defines its output conditions;
Data acquisition means for acquiring data from a data group including at least JPEG2000 compressed image data in accordance with the specification of data defined in the output procedure;
An output data generation unit configured to generate, from the data acquired by the data acquisition unit, output data for the data in accordance with an output condition defined in the output procedure.
請求項1に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データをイメージデータに伸長するための伸長手段を含み、
前記出力データ生成手段は、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記伸長手段によりイメージデータに伸長させ、当該イメージデータを出力データとして出力することを特徴とするデータ処理装置。
The data processing device according to claim 1,
The output data generation means includes decompression means for decompressing JPEG2000 compressed image data into image data,
The output data generating means decompresses JPEG2000 compressed image data into image data by the decompression means in accordance with output conditions defined in the output procedure for the compressed image data, and outputs the image data as output data. Characteristic data processing device.
請求項2に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データを前記伸長手段に伸長させる前に、当該圧縮画像データのヘッダ情報を、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って書き換える手段を含むことを特徴とするデータ処理装置。
The data processing device according to claim 2,
The output data generating means includes means for rewriting header information of the compressed image data according to an output condition defined in the output procedure for the compressed image data before decompressing the compressed image data by JPEG2000 by the decompression means. A data processing device characterized by the above-mentioned.
請求項1に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データを符号状態のまま他の圧縮画像データに変換するための変換手段を含み、
前記出力データ生成手段は、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記変換手段により変換させ、当該変換後の圧縮画像データを出力データとして出力することを特徴とするデータ処理装置。
The data processing device according to claim 1,
The output data generation unit includes a conversion unit for converting the compressed image data according to JPEG2000 into another compressed image data in a code state,
The output data generating means converts the compressed image data according to JPEG2000 by the converting means in accordance with an output condition defined in the output procedure for the compressed image data, and outputs the converted compressed image data as output data. A data processing device characterized by the above-mentioned.
請求項4に記載のデータ処理装置において、
前記変換手段は、JPEG2000による圧縮画像データのヘッダ情報の書き換えにより当該圧縮画像データの変換を行うことを特徴とするデータ処理装置。
The data processing device according to claim 4,
The data processing apparatus according to claim 1, wherein said conversion means converts the compressed image data by rewriting header information of the compressed image data according to JPEG2000.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の解像度を変更することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
The data processing apparatus according to claim 1, wherein the output data generation unit changes the resolution of the image with respect to the compressed image data according to JPEG2000.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のサイズを変更することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
The data processing apparatus according to claim 1, wherein the output data generating means changes the size of the image with respect to JPEG2000 compressed image data.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の画質を変更することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
A data processing apparatus according to claim 1, wherein said output data generation means changes the image quality of the compressed image data according to JPEG2000.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のタイル位置を変更することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
The data processing apparatus according to claim 1, wherein the output data generation means changes a tile position of the image with respect to JPEG2000 compressed image data.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の色を不正常にすることを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
A data processing apparatus according to claim 1, wherein said output data generating means irregularly changes the color of the image with respect to JPEG2000 compressed image data.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像のROI領域以外の領域を再生不可能にすることを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
The data processing apparatus according to claim 1, wherein the output data generation unit disables reproduction of an area other than the ROI area of the image with respect to JPEG2000 compressed image data.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像の色数を変更することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
The data processing device according to claim 1, wherein the output data generation means changes the number of colors of the image with respect to JPEG2000 compressed image data.
請求項2乃至5のいずれか1項に記載のデータ処理装置において、
前記出力データ生成手段は、JPEG2000による圧縮画像データに関し、画像を変形することを特徴とするデータ処理装置。
The data processing device according to any one of claims 2 to 5,
A data processing apparatus according to claim 1, wherein said output data generating means deforms an image with respect to JPEG2000 compressed image data.
時間軸に沿って出力すべきデータの指定及びその出力条件が定義された出力手順を読み込む読み込みステップと、
少なくともJPEG2000による圧縮画像データが含まれるデータ群より、前記読み込みステップで読み込まれた前記出力手順に定義されたデータの指定に従ってデータを取り込むデータ取得ステップと、
前記データ取得ステップにより取り込まれたデータから、当該データに関し前記出力手順に定義された出力条件に従った出力データを生成する出力データ生成ステップとを有することを特徴とするデータ処理方法。
A reading step of reading an output procedure in which designation of data to be output along a time axis and its output conditions are defined,
A data acquisition step of taking in data from a data group including at least JPEG2000 compressed image data in accordance with designation of data defined in the output procedure read in the reading step;
An output data generating step of generating, from the data acquired in the data obtaining step, output data for the data in accordance with an output condition defined in the output procedure.
請求項14に記載のデータ処理方法において、
前記出力データ生成ステップは、JPEG2000による圧縮画像データをイメージデータに伸長するための伸長ステップを含み、
前記出力データ生成ステップは、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記伸長ステップによりイメージデータに伸長させ、当該イメージデータを出力データとして出力することを特徴とするデータ処理方法。
The data processing method according to claim 14,
The output data generating step includes a decompression step for decompressing JPEG2000 compressed image data into image data,
The output data generating step decompresses JPEG2000 compressed image data into image data by the decompression step according to output conditions defined in the output procedure for the compressed image data, and outputs the image data as output data. Characteristic data processing method.
請求項15に記載のデータ処理方法において、
前記出力データ生成ステップは、JPEG2000による圧縮画像データを前記伸長ステップに伸長させる前に、当該圧縮画像データのヘッダ情報を、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って書き換えるステップを含むことを特徴とするデータ処理装置。
The data processing method according to claim 15,
The output data generating step includes a step of rewriting header information of the compressed image data according to output conditions defined in the output procedure for the compressed image data before expanding the compressed image data by JPEG2000 to the expansion step. A data processing device characterized by the above-mentioned.
請求項14に記載のデータ処理方法において、
前記出力データ生成ステップは、JPEG2000による圧縮画像データを符号状態のままで他の圧縮画像データに変換するための変換ステップを含み、
前記出力データ生成ステップは、JPEG2000による圧縮画像データを、当該圧縮画像データに関し前記出力手順に定義された出力条件に従って前記変換ステップにより変換させ、当該変換後の圧縮画像データを出力データとして出力することを特徴とするデータ処理方法。
The data processing method according to claim 14,
The output data generating step includes a conversion step for converting the compressed image data according to JPEG2000 into another compressed image data in a code state,
In the output data generating step, the compressed image data according to JPEG2000 is converted by the conversion step in accordance with an output condition defined in the output procedure with respect to the compressed image data, and the converted compressed image data is output as output data. A data processing method characterized by the following.
請求項17に記載のデータ処理方法において、
前記変換ステップは、JPEG2000による圧縮画像データのヘッダ情報の書き換えにより当該圧縮画像データの変換を行うことを特徴とするデータ処理装置。
The data processing method according to claim 17,
The data processing device according to claim 1, wherein the converting step converts the compressed image data by rewriting header information of the compressed image data according to JPEG2000.
請求項14乃至18のいずれか1項に記載のデータ処理方法の処理手順をコンピュータに実行させるためのプログラム。A program for causing a computer to execute a processing procedure of the data processing method according to claim 14. 請求項19に記載のプログラムが記録された、コンピュータが読み取り可能な記録媒体。A computer-readable recording medium on which the program according to claim 19 is recorded.
JP2003076835A 2003-03-20 2003-03-20 Data processing apparatus and data processing method Expired - Fee Related JP4208122B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003076835A JP4208122B2 (en) 2003-03-20 2003-03-20 Data processing apparatus and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003076835A JP4208122B2 (en) 2003-03-20 2003-03-20 Data processing apparatus and data processing method

Publications (2)

Publication Number Publication Date
JP2004289333A true JP2004289333A (en) 2004-10-14
JP4208122B2 JP4208122B2 (en) 2009-01-14

Family

ID=33291753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003076835A Expired - Fee Related JP4208122B2 (en) 2003-03-20 2003-03-20 Data processing apparatus and data processing method

Country Status (1)

Country Link
JP (1) JP4208122B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166046A (en) * 2004-12-08 2006-06-22 Ricoh Co Ltd Image distribution system, server device, client device, cache control method, program and information recording medium
JP2006196968A (en) * 2005-01-11 2006-07-27 Ricoh Co Ltd Code processing apparatus, code processing method, program, and information recording medium
JP2010010802A (en) * 2008-06-24 2010-01-14 Ricoh Co Ltd Image processing apparatus, image processing method, computer program, and information recording medium
JP2012023605A (en) * 2010-07-15 2012-02-02 Sony Corp Image processing device and method
JP2016076761A (en) * 2014-10-03 2016-05-12 株式会社ニコン Image processing apparatus and image processing program
JP2017060007A (en) * 2015-09-16 2017-03-23 キヤノン株式会社 Image processing apparatus, control method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166046A (en) * 2004-12-08 2006-06-22 Ricoh Co Ltd Image distribution system, server device, client device, cache control method, program and information recording medium
JP4629424B2 (en) * 2004-12-08 2011-02-09 株式会社リコー Image distribution system, server device, client device, cache control method, program, and information recording medium
JP2006196968A (en) * 2005-01-11 2006-07-27 Ricoh Co Ltd Code processing apparatus, code processing method, program, and information recording medium
US7697767B2 (en) 2005-01-11 2010-04-13 Ricoh Company, Ltd. Code processing device, code processing method, program, and recording medium
JP4530274B2 (en) * 2005-01-11 2010-08-25 株式会社リコー Code processing apparatus, code processing method, program, and information recording medium
JP2010010802A (en) * 2008-06-24 2010-01-14 Ricoh Co Ltd Image processing apparatus, image processing method, computer program, and information recording medium
JP2012023605A (en) * 2010-07-15 2012-02-02 Sony Corp Image processing device and method
JP2016076761A (en) * 2014-10-03 2016-05-12 株式会社ニコン Image processing apparatus and image processing program
JP2017060007A (en) * 2015-09-16 2017-03-23 キヤノン株式会社 Image processing apparatus, control method, and program

Also Published As

Publication number Publication date
JP4208122B2 (en) 2009-01-14

Similar Documents

Publication Publication Date Title
JP4177583B2 (en) Wavelet processing system, method and computer program
US7526144B2 (en) Image processing method, image expansion method, image output method, image conversion method, image processing apparatus, image expansion apparatus, image output apparatus, image conversion apparatus, and computer-readable storage medium
US7440624B2 (en) Image compression apparatus, image decompression apparatus, image compression method, image decompression method, program, and recording medium
JP2004274760A (en) Communication method for compressed digital image, and product
JP4349816B2 (en) Image processing apparatus, image compression apparatus, image processing method, image compression method, program, and recording medium
JP4392783B2 (en) Movie reproduction system, movie transmission device, movie transmission method, program, and recording medium
JP2004274758A (en) Method and apparatus for converting jpp-stream into jpeg-2000 code stream
JP2004274759A (en) Communication method and device for compressed digital image with limited access and server/client transfer
JP2006311200A (en) Method of transferring structured document code, image processing system, server unit, program and information recording medium
JP2007142614A (en) Image processing apparatus and method, program, and information recording medium
JP4898513B2 (en) Client / server system
JP2001258031A (en) Signal processing method, image coder and image decoder
JP2004104347A (en) Image processing apparatus, image processing method, program, and recording medium
US7660470B2 (en) System and method for generating superimposed image data
JP2004242290A (en) Image processing apparatus and image processing method, image edit processing system, image processing program, and storage medium
JP4208122B2 (en) Data processing apparatus and data processing method
JP2004215021A (en) Image processor, image processing method, program and recording medium
JP2004172766A (en) Image browsing apparatus, image browsing storage method, program, and recording medium
JP4073333B2 (en) Image compression apparatus and image compression method
JP2005092007A (en) Image processing system, image processing method, program and information recording medium
JP3914197B2 (en) Information processing apparatus, information processing method, program, and computer-readable recording medium
JP4059399B2 (en) Image processing apparatus, image processing system, image output control method, program, and recording medium
JP2006303669A (en) Encoded data processor and processing program
JP2004221781A (en) Image processing apparatus
JP4036363B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081015

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081016

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111031

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121031

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131031

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees