JP2007005844A - Coding processor, coding processing method, program and information recording medium - Google Patents

Coding processor, coding processing method, program and information recording medium Download PDF

Info

Publication number
JP2007005844A
JP2007005844A JP2005166587A JP2005166587A JP2007005844A JP 2007005844 A JP2007005844 A JP 2007005844A JP 2005166587 A JP2005166587 A JP 2005166587A JP 2005166587 A JP2005166587 A JP 2005166587A JP 2007005844 A JP2007005844 A JP 2007005844A
Authority
JP
Japan
Prior art keywords
data
encoding
mask
foreground
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005166587A
Other languages
Japanese (ja)
Inventor
Hiroyuki Sakuyama
宏幸 作山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005166587A priority Critical patent/JP2007005844A/en
Publication of JP2007005844A publication Critical patent/JP2007005844A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus or a method for generating JPM coding data having high partial access performance. <P>SOLUTION: Original image data are decomposed into a background and a pair of one ore more foregrounds and mask data (steps 1101-1105). JPEG 2000 coding using tile dividing or precinct dividing is performed for the foregrounds and the mask (steps 1106 and 1107). Thus, partial access using a tile or precinct per unit can be realized for the code of the foregrounds or the code of the mask. Partial access of the code of the mask is also realized by dividing the mask etc. into a plurality of partial regions and individually coding each of the partial regions. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、文字・線画と写真等の混在文書のページ画像等を符号する装置及び方法に係り、より詳しくは、原画像データをそのまま符号化するのではなく、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを符号化する装置及び方法に関する。   The present invention relates to an apparatus and method for encoding a page image of a mixed document such as a character / line drawing and a photograph, and more particularly, background data obtained by decomposing original image data instead of encoding original image data as it is. And an apparatus and method for encoding at least one foreground data and mask data pair.

ここで、本発明において、「原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペア」とは、「原画像データを分解した背景データ1、n個の前景データiとマスクデータiのペア(ただし、nは1以上の整数;i=1,2,...n)において、マスクデータiに従って、前景データiと背景データiの一方を画素毎に選択する方法、又は、前景データiと背景データiの値の加重平均を画素毎にとる方法により背景データi+1を合成する手順を、i=1からi=nまで順に繰り返し、最終的に合成された背景データn+1として原画像データが再現されるもの」と定義される。   Here, in the present invention, “background data obtained by decomposing original image data, at least one foreground data and mask data pair” means “background data 1 obtained by decomposing original image data, n foreground data i and masks” A method of selecting one of foreground data i and background data i for each pixel in accordance with mask data i in a pair of data i (where n is an integer equal to or greater than 1; i = 1, 2,... N), or The procedure for synthesizing the background data i + 1 by the method of taking the weighted average of the values of the foreground data i and the background data i for each pixel is sequentially repeated from i = 1 to i = n, and finally synthesized background data. The original image data is reproduced as n + 1 ”.

なお、以下の説明及び参照する図面において、背景データ、前景データ、マスクデータをそれぞれ背景、前景、マスクと略記することがある。   In the following description and the drawings to be referred to, background data, foreground data, and mask data may be abbreviated as background, foreground, and mask, respectively.

一般に文書は文字・線画と画像の混在で構成される。近年、こうした混在文書を効率的に符号化するために、文書のページ(原画像データ)を背景データ、1又は複数の前景データとマスクデータのペアに分解し、それらデータを別々に符号化する手法が提案されている。   In general, a document is composed of a mixture of characters / line drawings and images. In recent years, in order to efficiently encode such mixed documents, document pages (original image data) are decomposed into background data, one or a plurality of foreground data and mask data pairs, and the data are encoded separately. A method has been proposed.

例えば、MRC(ミクスト・ラスター・コンテント)では、図1に模式的に例示するように、原画像データを文字の色情報である前景データ、文字領域情報であるマスクデータ、画像情報である背景データに分解し、背景データ、前景データ、マスクデータを別々に符号化する。原画像データを再現する場合には、マスクデータに従って前景データ又は背景データを画素毎に選択することにより再現画像を合成する。なお、原画像データを背景データ、2以上の「前景データとマスクデータのペア」に分解し、それぞれのデータを符号化することも可能である。   For example, in MRC (mixed raster content), as schematically illustrated in FIG. 1, the original image data is foreground data that is character color information, mask data that is character region information, and background data that is image information. The background data, the foreground data, and the mask data are encoded separately. When reproducing the original image data, the reproduced image is synthesized by selecting the foreground data or the background data for each pixel in accordance with the mask data. Note that the original image data can be decomposed into background data and two or more “pairs of foreground data and mask data”, and the respective data can be encoded.

MRCに関しては、例えば特許文献1に、原画像の絵柄部分を表す多値の絵柄画像(背景)、原画像の文字・線画部分の色情報を表す多値の文字色画像(前景)、原画像の文字・線画の形状を表す2値の選択データ(マスク)をそれぞれJPEG、Lempel−Ziv、MMRで符号化した符号を取り込み、各符号を伸長し、伸長された絵柄画像データ又は文字色画像データを、伸長された選択データに従って画素毎に選択することにより画像を合成復元する画像処理装置の発明が記載されている。そして、この発明は、同特許文献の段落(0003)〜(0005)等の記載によれば、高圧縮率時の文字・線画の劣化を防止することを主要な目的とするものである。   With respect to MRC, for example, Patent Document 1 discloses a multi-valued picture image (background) representing a picture part of an original image, a multi-valued character color image (foreground) representing color information of a character / line drawing part of the original image, and the original image. Binary selection data (mask) representing the shape of the character / line drawing of JPEG, Lempel-Ziv, and MMR, respectively. Describes an invention of an image processing apparatus that combines and restores an image by selecting an image for each pixel in accordance with the expanded selection data. According to the description of paragraphs (0003) to (0005) of this patent document, the main object of the present invention is to prevent deterioration of characters and line drawings at a high compression rate.

近年、新たな符号化方式JPEG2000の登場とともに、前記MRCモデルの前景データ、マスクデータ、背景データの圧縮方式としてJPEG2000の選択を可能にしたJPM(JPEG2000 Multi Layer)が提案されている。また、ネットワーク環境下で「JPEG2000で符号化された画像中の所望の領域の符号だけを送受信する」仕組みであるJPIP(JPEG2000 Interactive Protocol)が提案されている。以下、これらについて簡単に説明する。   In recent years, along with the advent of a new encoding method JPEG2000, JPM (JPEG2000 Multi Layer) has been proposed which enables selection of JPEG2000 as a compression method for foreground data, mask data, and background data of the MRC model. In addition, JPIP (JPEG2000 Interactive Protocol), which is a mechanism for “transmitting and receiving only a code of a desired region in an image encoded with JPEG2000” in a network environment, has been proposed. These will be briefly described below.

まず、JPMについて説明する。JPMでは、原画像データは、1つの背景データ(BasePage)、1又は複数のレイアウトオブジェクト(Layout Object)と呼ばれる「前景データとマスクデータのペア」に分解される。JPMの背景データは、レイアウトオブジェクトが描画される初期的なページとして扱われる。これら背景データ、前景データ、マスクデータはそれぞれ独立に符号されるが、その符号化方式としてJPEG2000を選択可能である。   First, JPM will be described. In JPM, original image data is decomposed into “background data (BasePage)” and “a pair of foreground data and mask data” called one or a plurality of layout objects (Layout Objects). JPM background data is handled as an initial page on which a layout object is drawn. These background data, foreground data, and mask data are encoded independently, but JPEG2000 can be selected as the encoding method.

例えば、背景データ、前景データ1とマスクデータ1のペア、前景データ2とマスクデータ2のペアに分解された原画像データを再現する場合は、マスクデータ1に従って前景データ1と背景データから背景データ2を合成する。次に、マスクデータ2に従って前景データ2と背景データ2から背景データ3を合成する。この例では、合成された背景データ3が再現画像データとなる。前景データとマスクデータのペアが増加した場合も同様の合成手順の繰り返しにより画像が再現される。   For example, when reproducing original image data that has been decomposed into a background data, a pair of foreground data 1 and mask data 1, and a pair of foreground data 2 and mask data 2, the background data is converted from the foreground data 1 and the background data according to the mask data 1. 2 is synthesized. Next, background data 3 is synthesized from foreground data 2 and background data 2 in accordance with mask data 2. In this example, the synthesized background data 3 is reproduced image data. Even when the number of foreground data and mask data pairs increases, an image is reproduced by repeating the same synthesis procedure.

上に述べた背景データと前景データの合成法としては、
(i)前景データ又は背景データを画素毎に選択する方法、
(ii)前景データと背景データの値の加重平均を画素毎にとる方法、
の2つが可能である。
As a method of combining the background data and foreground data described above,
(I) a method for selecting foreground data or background data for each pixel;
(Ii) a method of taking a weighted average of values of foreground data and background data for each pixel;
Two are possible.

(i)の方法の場合、マスクデータを2値データとし、マスクデータの値が”1”の画素位置で前景データを、”0”の画素位置で背景データをそれぞれ選択させることが可能である。(ii)の方法の場合、マスクデータに例えば8ビットの正の値を持たせ、前景データと背景データの値の加重平均を画素毎にとることが可能である。すなわち、
合成画像=(マスク値/255)×前景+{(255―マスク値)/255}×背景
によって、合成画像の画素値を算出することができる。いずれの合成方法をとるかは、前景データとマスクデータのペアごとに指定可能であり、その指定は各ペア用のヘッダ(後述)に記載される。
In the case of the method (i), the mask data is binary data, and the foreground data can be selected at the pixel position where the mask data value is “1” and the background data can be selected at the pixel position “0”. . In the case of the method (ii), for example, a positive value of 8 bits can be given to the mask data, and a weighted average of the values of the foreground data and the background data can be taken for each pixel. That is,
The composite image = (mask value / 255) × foreground + {(255−mask value) / 255} × background can be used to calculate the pixel value of the composite image. Which combination method is used can be designated for each pair of foreground data and mask data, and the designation is described in a header (described later) for each pair.

次にJPEG2000について説明する。JPEG2000は、2001年に国際標準になったJPEG後継の画像符号化方式であり、その符号化処理は概ね図2に示す流れで行われる。まず、画像は矩形のタイルに分割される(分割数≧1)。各タイルは、輝度・色差等のコンポ−ネントへ色変換される。変換後のコンポ−ネント(タイルコンポ−ネントと呼ばれる)は、ウェーブレット変換によって、LL、HL、LH、HHと略称される4つのサブバンドに分割される。そしてLLサブバンドに対して再帰的にウェーブレット変換(デコンポジション)を繰返すと、最終的に1つのLLサブバンドと複数のHL、LH、HHサブバンドが生成される。   Next, JPEG2000 will be described. JPEG2000 is a JPEG successor image encoding method that became an international standard in 2001, and the encoding process is generally performed according to the flow shown in FIG. First, the image is divided into rectangular tiles (number of divisions ≧ 1). Each tile is color-converted into components such as luminance and color difference. The converted component (referred to as a tile component) is divided into four subbands abbreviated as LL, HL, LH, and HH by wavelet transformation. When the wavelet transform (decomposition) is recursively repeated for the LL subband, one LL subband and a plurality of HL, LH, and HH subbands are finally generated.

次に、各サブバンドはプリシンクトと呼ばれる矩形に分割される(図3参照)。プリシンクトとは、サブバンドを矩形に分割したもので、HL、LH、HH各サブバンドの対応したプリシンクト(合計3個)がひとまとまりとして扱われる。ただし、LLサブバンドを分割した各プリシンクトはそれぞれ単独でプリシンクトとして扱われる。プリシンクトは、大まかには画像中の場所(Position)を表すものである。プリシンクトはサブバンドと同じサイズにできる。プリシンクトをさらに矩形に分割したものがコードブロックである(図3参照)。よって、物理的な大きさの序列は、画像≧タイル>サブバンド≧プリシンクト≧コードブロックとなる。   Next, each subband is divided into rectangles called precincts (see FIG. 3). The precinct is a subband divided into rectangles, and precincts corresponding to each of the HL, LH, and HH subbands (a total of three) are treated as a group. However, each precinct obtained by dividing the LL subband is treated as a precinct independently. The precinct roughly represents a position in the image. The precinct can be the same size as the subband. A code block is obtained by further dividing the precinct into rectangles (see FIG. 3). Therefore, the physical size order is image ≧ tile> subband ≧ precinct ≧ code block.

図4にサブバンド分割の例を示す。LL,HL,LH,HHの接頭の数字は、当該係数が得られるまでに適用されたウェーブレット変換の回数(デコンポジションレベル)を示す。図4には、デコンポジションレベルと解像度レベルの関係も示されている。   FIG. 4 shows an example of subband division. The prefix numbers LL, HL, LH, and HH indicate the number of wavelet transforms (decomposition level) applied until the coefficient is obtained. FIG. 4 also shows the relationship between the decomposition level and the resolution level.

以上の分割の後、各サブバンド係数に対し(9×7変換と呼ばれる非可逆ウェーブレット変換が用いられる場合はサブバンド毎に線形量子化された後)、コードブロック毎かつビットプレーン順にエントロピー符号化(ビットプレーン符号化)が行われる。   After the above division, entropy coding for each subband coefficient (after linear quantization for each subband if an irreversible wavelet transform called 9 × 7 transform is used), for each code block and in bit plane order (Bit-plane encoding) is performed.

プリシンクトに含まれる全てのコードブロックから、ビットプレーンの符号の一部を取り出して集めたもの(例えば、全てのコードブロックのMSBから3枚目までのビットプレーンの符号を集めたもの)にヘッダをつけたものをパケットと呼ぶ。上記「一部」は空(から)でもいいので、パケットの中身が符号的には空(から)ということもある。パケットヘッダには、当該パケットに含まれる符号に関する情報が含まれ、各パケットは独立に扱うことができる。いわばパケットは符号の単位である。   Headers are collected and collected from all code blocks included in the precinct (for example, from the MSB of all code blocks to the third bit plane code) The attached one is called a packet. Since the “part” may be empty, the content of the packet may be empty from the sign. The packet header includes information about codes included in the packet, and each packet can be handled independently. In other words, a packet is a unit of code.

全てのプリシンクト(=全てコードブロック=全てのサブバンド)のパケットを集めると、画像全域の符号の一部(例えば画像全域のウェーブレット係数の、MSBから3枚目までのビットプレーンの符号)ができるが、これをレイヤーと呼ぶ。レイヤーは大まかには画像全体のビットプレーンの符号の一部であるから、復号されるレイヤー数が増えれば画質は上がることになる。すなわち。レイヤーはビット深さ方向に形成された画質の単位である。すべてのレイヤーを集めると、画像全域の全てのビットプレーンの符号になる。   By collecting packets of all precincts (= all code blocks = all subbands), a part of the code of the entire image (for example, the code of the bit plane from the MSB to the third bit of the wavelet coefficients of the entire image) can be created. But this is called a layer. Since the layer is roughly a part of the code of the bit plane of the entire image, the image quality increases as the number of layers to be decoded increases. That is. A layer is a unit of image quality formed in the bit depth direction. If all the layers are collected, it becomes the sign of all the bit planes throughout the image.

図5に、デコンポジションレベル数=2、プリシンクトサイズ=サブバンドサイズとしたときのレイヤーと、それに含まれるパケットの例を示す。パケットは、プリシンクトを単位とするものであるから、プリシンクトサイズ=サブバンドサイズとした場合、HL〜HHサブバンドをまたいだものとなる。なお、図中、いくつかのパケットのみ太線で囲んで示されている。   FIG. 5 shows an example of layers when the number of decomposition levels = 2 and the precinct size = subband size, and packets included in the layers. Since the packet is based on a precinct, when precinct size = subband size, the packet spans HL to HH subbands. In the figure, only some packets are shown surrounded by thick lines.

さて、以上で生成されたパケットやレイヤの区切りに従い、パケットを並べる作業を符号形成とよぶ。以上の様にパケットは
・どのコンポ−ネント(記号C)に属するか、
・どの解像度レベル(記号R)に属するか、
・どのプリシンクト("場所")(記号P)に属するか、
・どのレイヤ(記号L)に属するか
という4つの属性を有する。パケットの配列とは、パケットをどの属性の順に階層的に並べるかを意味する。この配列順をプログレッションオーダと呼び、図6の5通りが規定されている。
Now, the operation of arranging packets according to the packet and layer delimiters generated above is called code formation. As described above, which component (symbol C) the packet belongs to,
-Which resolution level (symbol R) belongs to
Which precinct ("location") (symbol P) belongs to
-It has four attributes, which layer (symbol L) belongs to. The packet arrangement means the order in which packets are arranged hierarchically. This arrangement order is called a progression order, and five patterns in FIG. 6 are defined.

例えば、LRCPプログレッションオーダの場合、次のようなforループ
for(レイヤ){
for(解像度){
for(コンポ−ネント){
for(プリシンクト){
エンコード時:パケットを配置
デコード時:パケットの属性を解釈




により、パケットの配列(エンコード時)又は解釈(デコード時)がなされる。
For example, in the case of LRCP progression order, the following for loop
for (layer) {
for (resolution) {
for (component) {
for (Precinct) {
Encoding: Place packet
When decoding: Interpret packet attributes}
}
}
}
Thus, the packet is arranged (when encoded) or interpreted (when decoded).

各パケットはパケットヘッダを有するが、パケットヘッダには、
・そのパケットが空かどうか、
・そのパケットにどのコードブロックが含まれるか、
・そのパケットに含まれる各コードブロックのゼロビットプレーン数、
・そのパケットに含まれる各コードブロック符号のコーディングパス数(ビットプレーン数)、
・そのパケットに含まれる各コードブロックの符号長、
が記載されているが、レイヤ番号や解像度番号等は一切記載されていない。デコード時に、そのパケットがどのレイヤのどの解像度のものかを判別するには、メインヘッダ中のCODマーカに記載されたプログレッションオーダから上記のようなforループを形成し、そのパケットに含まれる各コードブロックの符号長の和からパケットの切れ目を判別し、各パケットがforループ内のどの位置でハンドリングされたかを見ればよい。これは、パケットヘッダ中の符号長さえ読み出せば、エントロピー符号自体をデコードしなくても、次のパケットを検出できること、すなわち任意のパケットにアクセスできることを意味する。
Each packet has a packet header, which
Whether the packet is empty,
Which code block is included in the packet,
The number of zero bit planes for each code block included in the packet,
-The number of coding passes (number of bit planes) of each code block code included in the packet,
The code length of each code block included in the packet,
Is described, but the layer number, resolution number, etc. are not described at all. In order to determine which resolution of which layer the packet is at the time of decoding, the for loop as described above is formed from the progression order described in the COD marker in the main header, and each code included in the packet It is only necessary to determine the break of the packet from the sum of the code lengths of the blocks and see where each packet is handled in the for loop. This means that if only the code length in the packet header is read, the next packet can be detected without decoding the entropy code itself, that is, an arbitrary packet can be accessed.

さて、以上に説明したようにJPEG2000の符号はパケット単位でのアクセスが可能である。これは、原符号から必要な符号だけを抜き出して、新たな符号を生成できることを意味し、また、原符号から必要に応じて部分的な符号だけを復号できることを意味する。   As described above, the JPEG 2000 code can be accessed in packet units. This means that only necessary codes can be extracted from the original code to generate a new code, and only a partial code can be decoded from the original code as necessary.

例えば、サーバにある大きな画像をクライアント側で表示する場合に、必要な画質だけの符号、必要な解像度だけの符号、見たい場所だけの符号、見たいコンポ−ネントだけの符号をサーバから受信し、復号することができるのである。この様に、サーバにあるJPEG2000の符号から、必要な符号だけを受信するためのプロトコルが前記JPIP(JPEG2000 Interactive Protocol)であり、現在標準化の途上にある。   For example, when a large image on the server is displayed on the client side, a code with only the required image quality, a code with only the required resolution, a code with only the desired location, and a code with only the desired component are received from the server. Can be decrypted. As described above, JPIP (JPEG2000 Interactive Protocol) is a protocol for receiving only necessary codes from JPEG2000 codes in the server, and is currently in the process of standardization.

JPIPでは、クライアントからサーバに、描画したい領域と画質を指定できるようにすることが提案されている。領域が指定された場合、サーバは当該領域をカバーするプリシンクトのパケットを送信する。つまり
for(プリシンクト){
パケットを解釈

というループにおいて、必要なプリシンクトのパケットのみを送信することができる。また、これと同時に画質が指定された場合、
for(レイヤ){
‥‥
for (プリシンクト){
パケットを解釈

‥‥

というループにおいて、必要なレイヤのパケットのみを送信することができる。
JPIP proposes that a client can specify an area to be drawn and an image quality from the server. When an area is designated, the server transmits a precinct packet covering the area. That is
for (Precinct) {
Interpret the packet}
In this loop, only necessary precinct packets can be transmitted. If the image quality is specified at the same time,
for (layer) {
...
for (Precinct) {
Interpret the packet}
...
}
In such a loop, only necessary layer packets can be transmitted.

このような階層的な画像を部分的にアクセスするためのプロトコルは、古くは、画像の多重解像度表現であるFlashPixと、それにアクセスするためのプロトコルであるIIP(Internet Imaging Protocol)に見ることができる。IIPに関する先行技術文献として例えば特許文献2がある。また、JPIPにおけるキャッシュモデル等に関する先行技術文献として例えば特許文献3がある。   Protocols for partially accessing such hierarchical images can be found in the past from FlashPix, which is a multi-resolution representation of images, and IIP (Internet Imaging Protocol), which is a protocol for accessing it. . For example, Patent Document 2 is a prior art document related to IIP. Further, for example, Patent Document 3 is a prior art document related to a cache model in JPIP.

特許第3275807号公報Japanese Patent No. 3275807 特開平11−205786号公報JP-A-11-205786 特開2003−23630号公報JP 2003-23630 A

さて、JPMの符号化データに対し、画像の所望部分のみをJPIPを通じてアクセスしようとした場合、前景、マスク、背景のいずれに関しても、所望部分の符号のみを送受信できることが望ましい。しかし、従来のJPMの符号化データでは、このような部分アクセス性は考慮されていなかった。例えば、マスクデータは多くの場合に2値画像データであるが、従来は、JPMにおいても2値画像データであるマスクデータの圧縮にはFAXで広く利用されているMMRやJBIG等の2値画像用の符号化方式が用いられており、部分アクセスは不可能であった。MRCの符号化データについても同様であった。   Now, when trying to access only a desired part of an image through JPIP with respect to JPM encoded data, it is desirable that only the code of the desired part can be transmitted and received for any of the foreground, mask, and background. However, such partial accessibility is not considered in the conventional encoded data of JPM. For example, the mask data is often binary image data, but conventionally, binary images such as MMR and JBIG widely used in FAX for compressing mask data that is binary image data in JPM. For this reason, partial access was impossible. The same applies to the MRC encoded data.

よって、本発明は、原画像データを分解した背景データ、及び、1以上又は複数の前景データとマスクデータのペアを符号化する装置及び方法において、部分アクセス性の高い符号化データを生成することにある。   Therefore, the present invention generates encoded data with high partial accessibility in an apparatus and method for encoding background data obtained by decomposing original image data and one or more pairs of foreground data and mask data. It is in.

繰り返しになるが、本発明において「原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペア」とは、「原画像データを分解した背景データ1、n個の前景データiとマスクデータiのペア(ただし、nは1以上の整数;i=1,2,...n)において、マスクデータiに従って、前景データiと背景データiの一方を画素毎に選択する方法、又は、前景データiと背景データiの値の加重平均を画素毎にとる方法により背景データi+1を合成する手順を、i=1からi=nまで順に繰り返し、最終的に合成された背景データn+1として原画像データが再現されるもの」と定義されるものである。   Again, in the present invention, “background data obtained by decomposing original image data, at least one pair of foreground data and mask data” means “background data 1 obtained by decomposing original image data, n foreground data i and A method of selecting one of the foreground data i and the background data i for each pixel in accordance with the mask data i in a pair of mask data i (where n is an integer equal to or greater than 1; i = 1, 2,... N); Alternatively, the procedure of synthesizing the background data i + 1 by the method of taking the weighted average of the values of the foreground data i and the background data i for each pixel is repeated in order from i = 1 to i = n, and finally the synthesized background The original image data is reproduced as data n + 1 ”.

部分アクセスを可能にするアプローチは2つ考えられる。1つは、たとえマスクデータが2値画像データであっても、部分アクセスが可能な符号化方式を適用する工夫をすることである。そこで、発明者は、JPMではマスクデータに対してもJPEG2000を適用可能であることに注目した。   There are two approaches that allow partial access. One is to devise an encoding method that allows partial access even if the mask data is binary image data. Therefore, the inventor has noted that JPEG 2000 can be applied to mask data in JPM.

先に述べたように、JPEG2000においては、タイル分割やプリシンクト分割の適用が可能である。そして、マスクデータにタイル分割又はプリシンクト分割を用いるJPEG2000符号化を適用すれば、所望部分の符号へのアクセスが可能となるのである。また、JPEG2000では、ウェーブレット変換を適用しない符号化も可能である。そして、マスクデータが2値画像データである場合には、一般にウェーブレット変換を適用しない方が、マスクデータの符号サイズを小さくすることができる。またマスクデータが多値画像データであっても、例えば3つの値しかとらず、それらの絶対値が0又は2のべき乗に限定されるような場合には、ウェーブレット変換を適用しなければ3つのビットプレーン以外は0で埋まるため一般に符号化効率がよい。   As described above, tile division and precinct division can be applied in JPEG2000. If JPEG2000 encoding using tile division or precinct division is applied to the mask data, it is possible to access the code of the desired portion. In JPEG2000, encoding without applying wavelet transform is also possible. When the mask data is binary image data, generally, the code size of the mask data can be reduced without applying the wavelet transform. Also, even if the mask data is multi-value image data, for example, when there are only three values, and their absolute values are limited to powers of 0 or 2, if the wavelet transform is not applied, Since the bit planes other than the bit plane are filled with 0, the coding efficiency is generally good.

部分アクセスを可能とするもう一つのアプローチは、例えばマスクデータを複数の領域部分に分割し、それら領域部分を個別に(別々の画像として扱って)符号化する方法である。このようにマスクデータそのものを複数の領域部分(別画像)に分割しても、復号の際に、分割した個々の領域部分を統合する仕組みをJPMが備えているので不都合はない。なお、この場合におけるマスクデータに対する符号化方式は、JPEG2000のようなタイル分割やプリシンクト分割などが可能な方式に限定されない。   Another approach that enables partial access is, for example, a method in which mask data is divided into a plurality of region portions, and these region portions are encoded separately (treated as separate images). Thus, even if the mask data itself is divided into a plurality of area portions (different images), there is no inconvenience because the JPM has a mechanism for integrating the divided area portions at the time of decoding. Note that the encoding method for the mask data in this case is not limited to a method capable of tile division or precinct division such as JPEG2000.

本発明は以上の考察を基づいたものである。以下、各請求項に係る発明について順に説明する。   The present invention is based on the above consideration. Hereinafter, the invention according to each claim will be described in order.

請求項1の発明は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段とを有し、前記符号化手段において、マスクデータに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行うことを特徴とする符号化処理装置である。かかる構成によれば、マスクデータに対する部分アクセスが容易になる。   According to the first aspect of the present invention, background data obtained by disassembling original image data, data acquisition means for acquiring at least one pair of foreground data and mask data, and background data, foreground data and mask data acquired by the data acquisition means And an encoding unit that encodes each of the image data, and the encoding unit performs JPEG2000 encoding using tile division or precinct division on the mask data. According to such a configuration, partial access to mask data is facilitated.

請求項2の発明は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段とを有し、前記符号化手段において、マスクデータを複数の領域部分に分割し、各領域部分を個別に符号化することを特徴とする符号化処理装置である。かかる構成によれば、マスクデータへの部分アクセスが容易になる。   According to a second aspect of the present invention, there is provided background data obtained by decomposing original image data, data acquisition means for acquiring at least one pair of foreground data and mask data, and background data, foreground data and mask data acquired by the data acquisition means. Encoding means for encoding each of the regions, wherein the encoding means divides the mask data into a plurality of region portions and individually encodes each region portion. . According to such a configuration, partial access to the mask data is facilitated.

請求項3の発明は、請求項1の発明に係る符号化処理装置であって、前記符号化手段において、マスクデータの各画素位置の絶対値が0又は2のべき乗のみをとる場合に、マスクデータの符号化の際にウェーブレット変換を適用しないことを特徴とする符号化処理装置である。かかる構成によれば、マスクデータの部分アクセスが容易になるとともに、マスクデータの符号化効率を高めることができる。   The invention of claim 3 is the encoding processing apparatus according to the invention of claim 1, wherein the encoding means performs masking when the absolute value of each pixel position of the mask data takes only a power of 0 or 2. An encoding processing apparatus is characterized in that wavelet transform is not applied when data is encoded. According to such a configuration, partial access to the mask data is facilitated, and the coding efficiency of the mask data can be increased.

請求項4の発明は、請求項1又は2の発明に係る符号化処理装置であって、前記符号化手段において、前景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。かかる構成によれば、マスクデータ及び前景データへの部分アクセスが容易になる。   According to a fourth aspect of the invention, there is provided an encoding processing apparatus according to the first or second aspect of the invention, wherein the encoding means performs JPEG2000 encoding using tile division or precinct division on the foreground data, and foreground data. The encoding processing apparatus is characterized in that the division boundary of the mask and the division boundary of the mask data are matched. With this configuration, partial access to the mask data and foreground data is facilitated.

請求項5の発明は、請求項1又は2の発明に係る符号化処理装置であって、前記符号化手段において、前景データを複数の領域部分に分割し、各領域部分を個別に符号化し、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。かかる構成によれば、マスクデータ及び前景データへの部分アクセスが容易になる。   The invention of claim 5 is the encoding processing apparatus according to the invention of claim 1 or 2, wherein the encoding means divides the foreground data into a plurality of area portions, and individually encodes each area portion, The encoding processing apparatus is characterized in that a division boundary of foreground data and a division boundary of mask data are matched. With this configuration, partial access to the mask data and foreground data is facilitated.

さて、JPMにおける背景データ(狭義)は単色のページからなる様規定されている。このような単色の背景データについては、符号化時に領域分割を行わなくとも部分アクセスは容易である。しかし、図1に例示したような単色ではない背景データが許容されるMRCの場合、背景データについても部分アクセスを容易にする工夫が望まれる。請求項6,7の発明は、かかる考察に基づいたもので、背景データについても部分アクセスが容易になる。   Now, the background data (in the narrow sense) in JPM is defined to be composed of single-color pages. Such single-color background data can be easily accessed even if region division is not performed at the time of encoding. However, in the case of MRC that allows background data that is not a single color as illustrated in FIG. 1, a device that facilitates partial access to the background data is desired. The inventions of claims 6 and 7 are based on such consideration, and partial access to the background data is facilitated.

すなわち、請求項6の発明は、請求項1又は2の発明に係る符号化処理装置であって、前記符号化手段において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。   That is, the invention of claim 6 is the encoding processing apparatus according to the invention of claim 1 or 2, wherein the encoding means performs JPEG2000 encoding using tile division or precinct division on background data, An encoding processing apparatus is characterized in that a division boundary of background data and a division boundary of mask data are matched.

また、請求項7の発明は、請求項1又は2の発明に係る符号化処理装置であって、前記符号化手段において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。   The invention of claim 7 is the encoding processing apparatus according to the invention of claim 1 or 2, wherein the encoding means divides the background data into a plurality of area portions and codes each area portion individually. The coding processing apparatus is characterized in that the division boundary of the background data and the division boundary of the mask data are matched.

また、請求項8,9の発明は、マスクデータ、前景データ、背景データのすべてについて部分アクセスを容易にするものである。   The inventions of claims 8 and 9 facilitate partial access to all of mask data, foreground data, and background data.

すなわち、請求項8の発明は、請求項4又は5の発明に係る符号化処理装置であって、前記符号化手段において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。   That is, the invention of claim 8 is the encoding processing apparatus according to the invention of claim 4 or 5, wherein the encoding means performs JPEG2000 encoding using tile division or precinct division on background data, An encoding processing apparatus is characterized in that a division boundary of background data and a division boundary of mask data are matched.

請求項9の発明は、請求項4又は5の発明に係る符号化処理装置であって、前記符号化手段において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。   The invention of claim 9 is the encoding processing apparatus according to the invention of claim 4 or 5, wherein the encoding means divides the background data into a plurality of area parts, and individually encodes each area part, An encoding processing apparatus is characterized in that a division boundary of background data and a division boundary of mask data are matched.

JPMでは、1つの背景データに、前景データとマスクデータのペア(レイアウトオブジェクト)を合成し、その合成画像データを新たな背景データと見なして、次のレイアウトオブジェクトを合成するという手順をとるため、レイアウトオブジェクトが複数ある場合には、全てのレイアウトオブジェクトで部分アクセスのための分割境界を一致させることが望ましい。   In JPM, a pair of foreground data and mask data (layout object) is synthesized with one background data, the synthesized image data is regarded as new background data, and the next layout object is synthesized. When there are a plurality of layout objects, it is desirable that all layout objects have the same dividing boundary for partial access.

よって、請求項10の発明は、請求項4又は5の発明に係る符号化処理装置であって、前景データとマスクデータのペアは複数あり、全てのペアの前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理装置である。かかる構成によれば、前景データとマスクデータのペアが複数ある場合における前景データ及びマスクデータへの部分アクセス性を高めることができる。   Therefore, the invention of claim 10 is the encoding processing device according to the invention of claim 4 or 5, wherein there are a plurality of pairs of foreground data and mask data, and the division boundary of the foreground data of all pairs and the mask data An encoding processing apparatus characterized by matching division boundaries. According to such a configuration, it is possible to improve the partial accessibility to the foreground data and the mask data when there are a plurality of pairs of foreground data and mask data.

JPMでは、異なるレイアウトオブジェクト間でマスクデータや前景データを共有することが可能である。請求項2の発明のようにマスクデータを複数の領域部分に分割し、各領域部分を別画像データとして符号化した場合でも、前景データを1つの画像データ(ただし部分アクセスは可能)として符号化し、これを異なるマスクデータ間で共有させることが可能である。すなわち、前景データを複数の別画像にあえて分割する必要はなく、また、分割しないことによって前景データの符号量が増えるということもない。   In JPM, mask data and foreground data can be shared between different layout objects. Even when the mask data is divided into a plurality of area portions and each area portion is encoded as separate image data as in the invention of claim 2, the foreground data is encoded as one image data (however, partial access is possible). This can be shared between different mask data. That is, it is not necessary to divide the foreground data into a plurality of separate images, and the code amount of the foreground data does not increase by not dividing the foreground data.

かかる点に鑑み、請求項11の発明は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段と、この符号化手段により生成された背景データ、前景データ及びマスクデータの符号を結合して所定フォーマットの符号化データを形成する符号形成手段とを有し、前記符号化手段において、マスクデータは複数の部分領域からなり、それら部分領域をそれぞれ個別に符号化し、前記符号形成手段において、前景データの符号をマスクデータの複数の部分領域の符号間で共有させることを特徴とする符号化処理装置である。かかる構成によれば、符号量の増加を招かず、かつ、前景データを複数の別画像に分ける煩わしさを避けることができる。   In view of such points, the invention of claim 11 provides background data obtained by decomposing the original image data, data acquisition means for acquiring at least one foreground data and mask data pair, background data acquired by the data acquisition means, Encoding means for encoding foreground data and mask data, and code forming means for combining the background data, foreground data and mask data generated by the encoding means to form encoded data in a predetermined format; In the encoding means, the mask data is composed of a plurality of partial areas, and each of the partial areas is individually encoded. In the code forming means, the code of the foreground data is converted into a code of the plurality of partial areas of the mask data. It is an encoding processing device characterized in that it is shared between the two. According to such a configuration, it is possible to avoid the trouble of dividing the foreground data into a plurality of separate images without increasing the code amount.

請求項12乃至19の発明は、請求項1,2,4乃至9の発明の内容に対応した符号化処理方法である。   The inventions of claims 12 to 19 are encoding processing methods corresponding to the contents of the inventions of claims 1, 2, 4 to 9.

すなわち、請求項12の発明は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得工程と、このデータ取得工程により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化工程とを有し、前記符号化工程において、マスクデータに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行うことを特徴とする符号化処理方法である。   That is, the invention of claim 12 provides background data obtained by disassembling the original image data, a data acquisition step of acquiring at least one foreground data and mask data pair, background data acquired by the data acquisition step, foreground data, and An encoding process for encoding each mask data, and JPEG2000 encoding using tile division or precinct division is performed on the mask data in the encoding step.

請求項13の発明は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得工程と、このデータ取得工程により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化工程とを有し、前記符号化工程において、マスクデータを複数の領域部分に分割し、各領域部分を個別に符号化することを特徴とする符号化処理方法である。   According to a thirteenth aspect of the present invention, there is provided a data acquisition step of acquiring background data obtained by decomposing original image data, at least one pair of foreground data and mask data, and background data, foreground data and mask data acquired by the data acquisition step. An encoding process for encoding each of the areas, and in the encoding process, the mask data is divided into a plurality of area portions, and each area portion is individually encoded. .

請求項14の発明は、請求項12又は13の発明に係る符号化処理方法であって、前記符号化工程において、前景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   A fourteenth aspect of the invention is an encoding processing method according to the twelfth or thirteenth aspect of the invention, wherein in the encoding step, foreground data is subjected to JPEG2000 encoding using tile division or precinct division, and foreground data is obtained. This encoding processing method is characterized in that the division boundary of the mask and the division boundary of the mask data are made to coincide.

請求項15の発明は、請求項12又は13の発明に係る符号化処理方法であって、前記符号化工程において、前景データを複数の領域部分に分割し、各領域部分を個別に符号化し、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   The invention of claim 15 is the encoding processing method according to the invention of claim 12 or 13, wherein in the encoding step, the foreground data is divided into a plurality of area portions, and each area portion is individually encoded, The encoding processing method is characterized in that the division boundary of foreground data and the division boundary of mask data are matched.

請求項16の発明は、請求項12又は13の発明に係る符号化処理方法であって、前記符号化工程において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   The invention according to claim 16 is the encoding processing method according to claim 12 or 13, wherein, in the encoding step, the background data is subjected to JPEG2000 encoding using tile division or precinct division, and background data is obtained. This encoding processing method is characterized in that the division boundary of the mask and the division boundary of the mask data are made to coincide.

請求項17の発明は、請求項12又は13の発明に係る符号化処理方法であって、前記符号化工程において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   The invention of claim 17 is the encoding processing method according to the invention of claim 12 or 13, wherein, in the encoding step, the background data is divided into a plurality of area portions, and each area portion is individually encoded, In this encoding method, the division boundary of the background data and the division boundary of the mask data are matched.

請求項18の発明は、請求項14又は15の発明に係る符号化処理方法であって、前記符号化工程において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   The invention according to claim 18 is the encoding processing method according to claim 14 or 15, wherein, in the encoding step, the background data is subjected to JPEG2000 encoding using tile division or precinct division, and background data is obtained. This encoding processing method is characterized in that the division boundary of the mask and the division boundary of the mask data are made to coincide.

請求項19の発明は、請求項14又は15の発明に係る符号化処理方法であって、前記符号化工程において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする符号化処理方法である。   The invention of claim 19 is the encoding processing method according to the invention of claim 14 or 15, wherein in the encoding step, the background data is divided into a plurality of area portions, and each area portion is individually encoded, In this encoding method, the division boundary of the background data and the division boundary of the mask data are matched.

また、請求項20又は21の発明は、請求項1乃至9の発明に係る符号化処理装置をコンピュータを利用し実現可能とするものである。すなわち、請求項20の発明は、請求項1乃至9のいずれか1項の発明に係る符号化処理装置の各手段としてコンピュータを機能させるプログラムである。また、請求項21の発明は、請求項1乃至9のいずれか1項の発明に係る符号化処理装置の各手段としてコンピュータを機能させるプログラムが記録された、コンピュータが読み取り可能な情報記録媒体である。   The invention of claim 20 or 21 makes it possible to implement the encoding processing apparatus according to the invention of claims 1 to 9 using a computer. That is, the invention of claim 20 is a program for causing a computer to function as each means of the encoding processing apparatus according to any one of claims 1 to 9. The invention of claim 21 is a computer-readable information recording medium in which a program for causing a computer to function as each means of the encoding processing device according to any one of claims 1 to 9 is recorded. is there.

以上に説明したように、請求項1乃至19の発明によれば、部分アクセス性の高い符号化データを得ることができる。すなわち、請求項1,2,12,13の発明によれば、マスクデータに対する部分アクセスが容易になる。請求項3の発明によれば、マスクデータの部分アクセスが容易になるとともに、マスクデータの符号化効率を高めることができる。請求項4,5,14,15の発明によれば、マスクデータ及び前景データへの部分アクセスが容易になる。請求項6,7,16,17の発明によれば、マスクデータ及び背景データへの部分アクセスが容易になる。請求項8,9,18,19の発明によれば、マスクデータ、前景データ、背景データのすべてについて部分アクセスが容易になる。さらに、請求項10の発明によれば、前景データとマスクデータのペアが複数ある場合における前景データ及びマスクデータへの部分アクセス性を高めることができる。また、請求項11の発明によれば、符号量の増加を招かず、かつ、前景データを複数の別画像に分ける煩わしさを避けることができる。   As described above, according to the first to nineteenth aspects, encoded data with high partial accessibility can be obtained. That is, according to the first, second, twelfth and thirteenth aspects, partial access to the mask data is facilitated. According to the invention of claim 3, partial access to the mask data is facilitated and the coding efficiency of the mask data can be increased. According to the fourth, fifth, fourteenth and fifteenth inventions, partial access to mask data and foreground data is facilitated. According to the sixth, seventh, sixteenth and seventeenth aspects, partial access to the mask data and the background data is facilitated. According to the eighth, ninth, eighteenth, and nineteenth aspects, partial access to all of the mask data, foreground data, and background data is facilitated. Furthermore, according to the invention of claim 10, it is possible to improve the partial accessibility to the foreground data and the mask data when there are a plurality of pairs of foreground data and mask data. According to the eleventh aspect of the present invention, the code amount is not increased, and the troublesomeness of dividing the foreground data into a plurality of separate images can be avoided.

また、請求項20,21の発明に係るプログラム又は情報記録媒体を利用することにより、コンピュータを用いて請求項1乃至9の発明に係る符号化処理装置を容易に実現することが可能になる。   Further, by using the program or the information recording medium according to the inventions of claims 20 and 21, the encoding processing device according to the inventions of claims 1 to 9 can be easily realized using a computer.

図7は、本発明の実施形態を説明するためのブロック図である。ここに示す符号化処理装置は、原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段100、このデータ取得手段100により取得された背景データ、前景データ、マスクデータを別々に符号化する符号化手段110を備える。この符号化手段110で生成された背景データの符号、前景データの符号及びマスクデータの符号は、個々独立に扱うことは不都合であるので、所定のフォーマットの1つのファイルにまとめられるのが通常である。したがって、本実施形態に係る符号化処理装置においても、符号化手段110によって生成された背景データの符号、前景データの符号及びマスクデータの符号を結合するとともに必要なヘッダを付加することによりJPMフォーマットもしくはMRCフォーマットの符号化データ(ファイル)を形成する符号形成手段111と、その符号化データを外部装置へ出力したり内部の記憶装置に書き出したりする符号出力手段112を備える。   FIG. 7 is a block diagram for explaining an embodiment of the present invention. The encoding processing apparatus shown here includes background data obtained by disassembling original image data, data acquisition means 100 that acquires at least one pair of foreground data and mask data, background data acquired by the data acquisition means 100, and foreground data. The encoding means 110 which encodes mask data separately is provided. Since the background data code, foreground data code and mask data code generated by the encoding means 110 are inconvenient to handle independently, they are usually combined into one file of a predetermined format. is there. Therefore, also in the encoding processing apparatus according to the present embodiment, the JPM format is obtained by combining the background data code, the foreground data code and the mask data code generated by the encoding unit 110 and adding a necessary header. Alternatively, a code forming unit 111 that forms encoded data (file) in the MRC format and a code output unit 112 that outputs the encoded data to an external device or writes it to an internal storage device are provided.

本実施形態に係るデータ取得手段100は、外部より原画像データを入力する手段101と、この手段101により入力された原画像データを背景データ、1又は複数の「前景データとマスクデータのペア」に分解する手段102を含む。また、データ取得手段100は、予め原画像データを分解した背景データ、1又は複数の前景データとマスクデータのペアを外部より入力する手段103を含む。また、データ取得手段100は、JPM又はMRCの符号化データを外部より入力する手段104と、この手段により入力された符号化データを復号して背景データ、1又は複数の前景データとマスクデータのペアを生成する手段105を含む。なお、データ取得手段100として、手段101,102のみを含む形態、手段103のみを含む形態、手段104,105のみ含む形態のいずれをとることも可能であり、そのいずれの形態も本発明に包含される。   The data acquisition unit 100 according to this embodiment includes a unit 101 for inputting original image data from the outside, the original image data input by the unit 101 as background data, one or more “pairs of foreground data and mask data”. Means 102 for disassembling. Further, the data acquisition means 100 includes means 103 for inputting, from the outside, background data obtained by disassembling the original image data in advance, one or a plurality of foreground data and mask data pairs. Further, the data acquisition means 100 is a means 104 for inputting JPM or MRC encoded data from the outside, and decodes the encoded data input by this means to obtain background data, one or more foreground data and mask data. A means 105 for generating a pair is included. The data acquisition means 100 can take any of a form including only the means 101 and 102, a form including only the means 103, and a form including only the means 104 and 105, and both forms are included in the present invention. Is done.

図7は、本発明に係る符号化方法の実施形態を示すものでもあり、データ取得手段100はデータ取得工程に、符号化手段110は符号化工程に、符号形成手段111は符号形成工程に、符号出力手段112は符号出力工程にそれぞれ対応する。そして、データ取得工程については、上に述べたような3つの形態のいずれをとることも可能である。   FIG. 7 also shows an embodiment of the encoding method according to the present invention, where the data acquisition means 100 is in the data acquisition process, the encoding means 110 is in the encoding process, and the code forming means 111 is in the code forming process. The code output means 112 corresponds to the code output process. The data acquisition process can take any of the three forms as described above.

このような本発明に係る符号化処理装置又は方法は、例えば図8に示すようなCPU200、メモリ201、ハードディスク装置202などをシステムバス203で相互接続した如き一般的な構成のコンピュータを利用し、1以上のプログラム(アプリケーションプログラムやデバイスドライバ等)によって実現可能である。   Such an encoding processing apparatus or method according to the present invention uses a computer having a general configuration such that a CPU 200, a memory 201, a hard disk device 202, and the like as shown in FIG. It can be realized by one or more programs (application program, device driver, etc.).

このようなプログラム、すなわち、データ取得手段(又は工程)100、符号化手段(又は工程)110及び符号形成手段(又は工程)111、符号出力手段(又は工程)112としてコンピュータを機能させるプログラムは、通常、ハードディスク装置202に格納されており、必要時にメモリ201にロードされてCPU200により実行されることにより、コンピュータ上で本発明に係る符号化処理装置が構築され、あるいは、本発明に係る符号化処理方法が実施される。このようなプログラム、及び、同プログラムが記録された磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子等のコンピュータが読み取り可能な各種の情報記録(記憶)媒体も本発明に包含される。   Such a program, that is, a program that causes a computer to function as the data acquisition unit (or step) 100, the encoding unit (or step) 110, the code formation unit (or step) 111, and the code output unit (or step) 112, Usually, it is stored in the hard disk device 202, loaded into the memory 201 when necessary, and executed by the CPU 200, whereby the coding processing device according to the present invention is constructed on the computer, or the coding according to the present invention. A processing method is implemented. Such a program and various information recording (storage) media that can be read by a computer, such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element, on which the program is recorded are also included in the present invention.

データ取得手段100の手段101,102を用いる場合、コンピュータにおける処理は例えば次のような流れとなる。(1)ハードディスク装置202に格納されている原画像データが、CPU200からの命令によってメモリ201に読み込まれる。(2)CPU200はメモリ201上の原画像データを読み込み、背景データ、1又は複数の前景データとマスクデータのペアを生成し、それら各データを符号化し、生成された符号を結合したJPMフォーマットもしくはMRCフォーマットの符号化データを生成し、(3)その符号化データをメモリ201の別の領域に書き込む。(4)CPU200からの命令によって、メモリ201上に生成された符号化データはハードディスク装置202に格納される。   When the means 101 and 102 of the data acquisition means 100 are used, the processing in the computer has the following flow, for example. (1) Original image data stored in the hard disk device 202 is read into the memory 201 by a command from the CPU 200. (2) The CPU 200 reads the original image data on the memory 201, generates background data, one or a plurality of foreground data and mask data pairs, encodes each data, and combines the generated codes with the JPM format or MRC format. (3) The encoded data is written in another area of the memory 201. (4) Encoded data generated on the memory 201 in accordance with an instruction from the CPU 200 is stored in the hard disk device 202.

さて、MRC符号化データ(符号ファイル)の典型的なフォーマットは図9に示す通りである。すなわち、MRCの符号化データは、MRC符号であること等を示す全体のヘッダ、1つの背景符号とそのヘッダ、1つ又は2以上の「前景符号とマスク符号のペア」とそのヘッダで構成される。   A typical format of MRC encoded data (code file) is as shown in FIG. That is, the encoded data of MRC is composed of an entire header indicating that it is an MRC code, one background code and its header, one or more “pairs of foreground code and mask code” and its header. The

また、前述のようにJPMは背景データ、前景データ及びマスクデータの符号化方式としてJPEG2000を許容したMRCタイプの符号化方式であり、その符号化データはMRCと同様なフォーマットであり、ヘッダとそれに続く符号の列からなる。   As described above, JPM is an MRC type encoding method that allows JPEG2000 as an encoding method for background data, foreground data, and mask data. The encoded data has the same format as MRC, and includes a header, It consists of a series of following codes.

図10にJPM符号化データ(符号ファイル)の構成例を示すが、点線部分はオプションであるので、実線部分を中心に簡単に説明する。図10において、「JPEG2000 Signature Box」は、当該符号がJPEG2000ファミリーに属することを示す全体のヘッダである。「File Type Box」は当該符号がJPMフォーマットであることを示す全体のヘッダである。「Compound Image Header Box」は、当該符号の全般的な情報を含む全体のヘッダである。「Page Collection box」は、当該符号がマルチページからなる場合に各ページの順番を示す目次的なものである。「Page Box」はページの解像度等を示す全体のヘッダである。ここで、ページとは、画像を順次重ねて(合成して)いくためのキャンバスであり、合成が終わった後の画像と同じ大きさを持つ。JPMの場合、ページには、前景とマスクのペアで構成される「layout object(レイアウト・オブジェクト)」が順次描画される。「Layout Object box」は、前景とマスクのサイズや位置等を示す、前景及びマスク用のヘッダである。「Media Data box」や「Contiguous Codestream box」は、前景やマスクの符号を含む部分である。なお、JPMでは、背景(BasePage)は、レイアウト・オブジェクトが描画される前の初期的なページとして扱われる。   FIG. 10 shows a configuration example of JPM encoded data (code file). Since the dotted line portion is an option, a simple description will be given focusing on the solid line portion. In FIG. 10, “JPEG2000 Signature Box” is an overall header indicating that the code belongs to the JPEG2000 family. “File Type Box” is an entire header indicating that the code is in JPM format. “Compound Image Header Box” is an entire header including general information of the code. “Page Collection box” is a table of contents indicating the order of each page when the code consists of multiple pages. “Page Box” is an overall header indicating the page resolution and the like. Here, the page is a canvas for sequentially superimposing (combining) images, and has the same size as the image after the composition is finished. In the case of JPM, “layout object (layout object)” composed of a pair of foreground and mask is sequentially drawn on the page. “Layout Object box” is a header for the foreground and the mask indicating the size and position of the foreground and the mask. The “Media Data box” and “Contiguous Codestream box” are portions including foreground and mask codes. In JPM, the background (BasePage) is handled as an initial page before the layout object is drawn.

以下、本発明の実施形態を、いくつかの実施例について詳細に説明する。なお、特に断らない限り、データ取得手段100においては、手段101により原画像データを入力し、その原画像データを手段102により背景データと、1又は複数のレイアウトオブジェクト(前景データとマスクデータのペア)に分解するものとして説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to several examples. Unless otherwise specified, in the data acquisition means 100, the original image data is input by the means 101, and the original image data is input by the means 102 as background data and one or more layout objects (a pair of foreground data and mask data). ).

本実施例では、原画像データを、図11に模式的に例示したような背景データ、前景データ1とマスクデータ1のペア、前景データ2とマスクデータ2のペアに分解する。   In this embodiment, the original image data is decomposed into background data, a pair of foreground data 1 and mask data 1, and a pair of foreground data 2 and mask data 2 as schematically illustrated in FIG.

図12は、本実施例における処理の流れを説明するための概略フローチャートである。図中、ステップ1100〜1105はデータ取得手段100中の手段102による処理ステップであり、ステップ1106〜1108は符号化手段110による処理ステップであり、また、ステップ1109は符号形成手段111による処理ステップである。換言すれば、手段102はステップ1100〜1105に対応した手段を含み、また、符号化手段110はステップ1106〜1108に対応した手段を含む。   FIG. 12 is a schematic flowchart for explaining the flow of processing in the present embodiment. In the figure, steps 1100 to 1105 are processing steps by the means 102 in the data acquisition means 100, steps 1106 to 1108 are processing steps by the encoding means 110, and step 1109 is a processing step by the code forming means 111. is there. In other words, the means 102 includes means corresponding to steps 1100 to 1105, and the encoding means 110 includes means corresponding to steps 1106 to 1108.

まず、ステップ1100で、入力された原画像データを4つのタイル(図11参照)に分割する。なお、タイル分割数は増減可能である。本実施例では、タイルが符号化データに対する分割アクセス可能な最小領域となるので、その最小領域の大きさと原画像データのサイズとからタイル分割数を選べばよい。   First, in step 1100, the input original image data is divided into four tiles (see FIG. 11). Note that the number of tile divisions can be increased or decreased. In this embodiment, since the tile is the minimum area that can be divided and accessed for the encoded data, the number of tile divisions may be selected from the size of the minimum area and the size of the original image data.

次のステップ1101で、原画像データの各画素について、文字(線画)を構成する画素(文字画素)であるか、それ以外の画素(非文字画素)であるかの判別を行い、文字画素に対応する位置の値を1、それ以外の画素に対応する位置の値を0にした、原画像データのサイズと同サイズの2値のマスクデータ2を作成する。マスクデータ2の画素と原画像データの画素は1対1に対応しており、マスクデータ2は原画像データと同一の分割境界でタイル分割された形となる(図11参照)。   In the next step 1101, it is determined whether each pixel of the original image data is a pixel (character pixel) constituting a character (line drawing) or other pixel (non-character pixel). A binary mask data 2 having the same size as the size of the original image data is created by setting the corresponding position value to 1 and the position values corresponding to the other pixels to 0. The pixels of the mask data 2 and the pixels of the original image data have a one-to-one correspondence, and the mask data 2 is tiled at the same division boundary as the original image data (see FIG. 11).

ここで、文字画素とそれ以外の画素の判別は公知の像域判別の手法によることができるが、本実施例では例えば次の手法が用いられる。まず、原画像データの各画素に対し、エッジ検出オペレータとして周知のSobelフィルタを作用させる。すなわち、注目画素を中心とした3×3画素に対し、図13に示す第1の重みマトリクス(Sobleオペレータ)を乗算し、その和HSを算出し、同様に図14に示す第2の重みマトリクスを乗算して、その和VSを算出する。そして、HSとVSの2乗和の平方根√(HS^2+VS^2)を、注目画素についてのフィルタの出力値とする。そして、フィルタ出力値が所定の閾値th(例えば30)以上ならば注目画素を文字画素と判断し、マスクデータの対応画素位置に1をセットし、そうでなければ対応画素位置に0をセットする。同様の処理手順を全画素について繰り返すことにより、マスクデータ2を作成する。なお、このステップにおける文字画素/非文字画素の判別結果はステップ1102,1103でも利用される。   Here, discrimination between character pixels and other pixels can be performed by a known image area discrimination method. In this embodiment, for example, the following method is used. First, a Sobel filter known as an edge detection operator is applied to each pixel of the original image data. That is, 3 × 3 pixels centered on the target pixel are multiplied by the first weight matrix (Soble operator) shown in FIG. 13, and the sum HS is calculated. Similarly, the second weight matrix shown in FIG. And the sum VS is calculated. Then, the square root √ (HS ^ 2 + VS ^ 2) of the square sum of HS and VS is set as the output value of the filter for the pixel of interest. If the filter output value is equal to or greater than a predetermined threshold th (for example, 30), the pixel of interest is determined to be a character pixel, and 1 is set to the corresponding pixel position of the mask data, otherwise 0 is set to the corresponding pixel position. . Mask data 2 is created by repeating the same processing procedure for all pixels. The character pixel / non-character pixel discrimination result in this step is also used in steps 1102 and 1103.

次のステップ1102で、原画像データの非文字画素の色を、当該非文字画素の最も近傍に位置する文字画素の色で置換した、多値の前景データ2を作成する。ただし、原画像データそのものは保存されている。この前景データ2は原画像データと同一サイズで、画素は1対1に対応している。前景データ2も、原画像データと同一の分割境界でタイル分割された形となる(図11参照)。   In the next step 1102, multi-value foreground data 2 is created by replacing the color of the non-character pixel of the original image data with the color of the character pixel located closest to the non-character pixel. However, the original image data itself is stored. The foreground data 2 has the same size as the original image data, and the pixels correspond one-to-one. The foreground data 2 is also tiled at the same dividing boundary as the original image data (see FIG. 11).

次のステップ1103で、原画像データの文字画素の色を、当該文字画素の最も近傍に位置する非文字画素の色で置換した、多値の前景データ1を作成する。この前景データ1は原画像データと同一サイズで、画素は1対1に対応している。前景データ1も、原画像データと同一の分割境界でタイル分割された形となる(図11参照)。   In the next step 1103, multivalued foreground data 1 is created by replacing the color of the character pixel of the original image data with the color of the non-character pixel located closest to the character pixel. The foreground data 1 has the same size as the original image data, and the pixels correspond one-to-one. The foreground data 1 is also tiled at the same division boundary as the original image data (see FIG. 11).

次のステップ1104で、原画像データと同一サイズで全画素値を1にセットした2値のマスクデータ1を作成する。このマスクデータ1も、原画像データと画素が1対1に対応し、原画像データと同一の分割境界でタイル分割された形となる(図11参照)。   In the next step 1104, binary mask data 1 having the same size as the original image data and all pixel values set to 1 is created. The mask data 1 also has a form in which the original image data and the pixels have a one-to-one correspondence and are tiled at the same division boundary as the original image data (see FIG. 11).

次のステップ1105で、原画像データと同一サイズの全画素値を0(白)にセットした多値の背景データを作成する。   In the next step 1105, multi-value background data in which all pixel values having the same size as the original image data are set to 0 (white) is created.

以上で、原画像データを分解した(当該原画像データを再現するための)背景データ、前景データ1とマスクデータ2のペア、前景データ1とマスクデータ2のペアが取得された。   Thus, the background data (for reproducing the original image data), the foreground data 1 and mask data 2 pair, and the foreground data 1 and mask data 2 pair obtained by decomposing the original image data are acquired.

次のステップ1106で、多値の前景データ1及び前景データ2に対し、タイル分割を用いるJPEG2000符号化を行う。図15の上段に模式的に示すように、各前景データは4つのタイルに分割されて符号化されるが、各前景データは1つの画像データとして扱われるので、各前景データに対し生成される符号は1つである。このようなタイル分割によって、前景データ1,2の符号は、画像の左上、右上、左下、右下に対し部分アクセス可能となる。なお、この符号化においては、デコンポジションレベル3までのウェーブレット変換が行われるが、デコンポジションレベル数は増減可能である。   In the next step 1106, JPEG2000 encoding using tile division is performed on the multivalued foreground data 1 and foreground data 2. As schematically shown in the upper part of FIG. 15, each foreground data is divided into four tiles and encoded, but each foreground data is handled as one image data, and thus is generated for each foreground data. There is one code. By such tile division, the codes of the foreground data 1 and 2 can partially access the upper left, upper right, lower left, and lower right of the image. In this encoding, wavelet transform up to decomposition level 3 is performed, but the number of decomposition levels can be increased or decreased.

次のステップ1107で、2値のマスクデータ1及びマスクデータ2に対し、タイル分割を用いるJPEG2000符号化を行う。図15の下段に模式的に示すように、各マスクデータは4つのタイルに分割されて符号化されるが、各マスクデータは1つの画像データとして扱われるので、各マスクデータに対し生成される符号は1つである。このようなタイル分割によって、マスクデータ1,2の符号は、画像の左上、右上、左下、右下に対し部分アクセス可能となる。なお、この符号化ではウェーブレット変換は行われない(デコンポジションレベル=0)。ただし、ウェーブレット変換を行うことも可能である。   In the next step 1107, JPEG2000 encoding using tile division is performed on the binary mask data 1 and mask data 2. As schematically shown in the lower part of FIG. 15, each mask data is divided into four tiles and encoded, but each mask data is handled as one image data, and thus is generated for each mask data. There is one code. By such tile division, the codes of the mask data 1 and 2 can partially access the upper left, upper right, lower left, and lower right of the image. In this encoding, wavelet transform is not performed (decomposition level = 0). However, wavelet transformation can also be performed.

次のステップ1108で、背景データをJPM仕様で符号化する(エントロピー符号化は行わず、符号として背景色を指定する)。   In the next step 1108, the background data is encoded according to the JPM specification (entropy encoding is not performed, and the background color is designated as a code).

最後のステップ1109で、前景データ1,2、マスクデータ1,2及び背景の符号を結合し、必要なヘッダを付してJPMフォーマットの符号化データを形成する。   In the final step 1109, the foreground data 1 and 2, the mask data 1 and 2 and the background code are combined, and a necessary header is added to form JPM format encoded data.

以上に述べたように、本実施例では、前景1とマスク1のペア(レイアウトオブジェクト1)のタイル境界すなわち分割境界は一致しており、かつ、前景1とマスク1のペア(レイアウトオブジェクト1)および前景2とマスク2のペア(レイアウトオブジェクト2)においても分割境界は一致している。   As described above, in the present embodiment, the tile boundary of the foreground 1 and mask 1 pair (layout object 1), that is, the dividing boundary is the same, and the foreground 1 and mask 1 pair (layout object 1). In addition, the division boundary also matches in the foreground 2 and mask 2 pair (layout object 2).

なお、本実施例ではステップ1100で原画像データをタイル分割したが、符号化のステップ1106,1107でタイル分割を行うようにしてもよく、かかる態様は当然に本発明に含まれる。   In this embodiment, the original image data is tile-divided at step 1100, but tile division may be performed at encoding steps 1106 and 1107, and such a mode is naturally included in the present invention.

付言すれば、データ取得手段100において、手段103により原画像データを分解した背景、前景、マスクを直接入力する場合、又は、手段104により符号化データを入力し、それを手段105で復号する場合には、ステップ1101〜1105の処理は不要となる。   In other words, in the data acquisition unit 100, when the background, foreground, and mask obtained by decomposing the original image data by the unit 103 are directly input, or when encoded data is input by the unit 104 and decoded by the unit 105 In this case, the processing in steps 1101 to 1105 is not necessary.

本実施例においても、原画像データを図11に模式的に示すような背景データ1,前景データ1,2、マスクデータ1,2に分解するが、タイル分割に代えてプリシンクト分割が用いられる。   Also in this embodiment, the original image data is decomposed into background data 1, foreground data 1, 2 and mask data 1, 2 as schematically shown in FIG. 11, but precinct division is used instead of tile division.

本実施例における処理の全体的な流れは前記実施例1と同様であるので、前記実施例1に係る図12のフローチャートを参照して説明する。   Since the overall flow of processing in the present embodiment is the same as that in the first embodiment, a description will be given with reference to the flowchart of FIG.

本実施例では、原画像データのタイル分割処理(ステップ1100)は行われない。   In this embodiment, the original image data tile division process (step 1100) is not performed.

マスクデータ2の作成処理(ステップ1101)、前景データ2の作成処理(ステップ1102)、前景データ1の作成処理(ステップ1103)、マスクデータ1の作成処理(ステップ1104)は、それぞれがタイル分割されないこと以外は前記実施例1と同様である。背景データの作成処理(ステップ1105)は前記実施例1と同様である。   Mask data 2 creation processing (step 1101), foreground data 2 creation processing (step 1102), foreground data 1 creation processing (step 1103), and mask data 1 creation processing (step 1104) are not tile-divided. Except for this, the second embodiment is the same as the first embodiment. Background data creation processing (step 1105) is the same as in the first embodiment.

ステップ1106の前景データ1,2のJPEG2000符号化では、タイル分割は行われず、図16の上段に模式的に示すようなプリシンクト分割が行われる(つまり、サブバンドは4つのプリシンクトに分割される)。このようなプリシンクト分割によって、前景データ1,2の符号は画像の左上、右上、左下、右下のそれぞれに対し部分アクセス可能となる。   In JPEG2000 encoding of the foreground data 1 and 2 in step 1106, tile division is not performed, and precinct division as schematically illustrated in the upper part of FIG. 16 is performed (that is, the subband is divided into four precincts). . By such precinct division, the foreground data 1 and 2 can be partially accessed in the upper left, upper right, lower left, and lower right of the image.

また、ステップ1107のマスクデータ1,2のJPEG2000符号化では、タイル分割は行われず、図16の下段に模式的に示すようなプリシンクト分割が行われる(つまり、サブバンドは4つのプリシンクトに分割される)。このようなプリシンクト分割によって、マスクデータ1,2の符号は、画像の左上、右上、左下、右下に対し部分アクセス可能となる。   Further, in JPEG2000 encoding of the mask data 1 and 2 in step 1107, tile division is not performed, and precinct division as schematically illustrated in the lower part of FIG. 16 is performed (that is, the subband is divided into four precincts). ) By such precinct division, the codes of the mask data 1 and 2 can partially access the upper left, upper right, lower left, and lower right of the image.

ステップ1108,1109は前記実施例1と同様である。   Steps 1108 and 1109 are the same as those in the first embodiment.

本実施例においては、図16より理解されるように、前景データ1,2及びマスクデータ1,2のすべてについて、プリシンクト境界つまり分割境界は一致している。   In this embodiment, as can be understood from FIG. 16, the precinct boundary, that is, the division boundary is the same for all of the foreground data 1 and 2 and the mask data 1 and 2.

図17は、本実施例における処理の流れを説明するための概略フローチャートである。図中、ステップ1600〜1605はデータ取得手段100中の手段102による処理ステップであり、ステップ1606〜1608は符号化手段110による処理ステップであり、また、ステップ1609は符号形成手段111による処理ステップである。換言すれば、手段102はステップ1600〜1605に対応する手段を含み、また、符号化手段110はステップ1606〜1608に対応する手段を含む。   FIG. 17 is a schematic flowchart for explaining the flow of processing in the present embodiment. In the figure, steps 1600 to 1605 are processing steps by the means 102 in the data acquisition means 100, steps 1606 to 1608 are processing steps by the encoding means 110, and step 1609 is a processing step by the code forming means 111. is there. In other words, the means 102 includes means corresponding to steps 1600 to 1605, and the encoding means 110 includes means corresponding to steps 1606 to 1608.

ステップ1600〜1605の処理内容は図12中の対応したステップ1100〜1105と同様であるので、説明を省略する。   The processing contents of steps 1600-1605 are the same as the corresponding steps 1100-1105 in FIG.

ステップ1606では、多値の前景データ1及び前景データ2に対しタイル分割を用いるJPEG2000符号化を行う。図18の上段に模式的に示すように、各前景データは4つのタイルに分割されて符号化されるが、各前景データは1つの画像データとして扱われるので、各前景データに対し生成される符号は1つである。このようなタイル分割によって、前景データ1,2の符号は、画像の左上、右上、左下、右下に対し部分アクセス可能となる。なお、この符号化においては、デコンポジションレベル3までのウェーブレット変換が行われるが、デコンポジションレベル数は増減可能である。   In step 1606, JPEG2000 encoding using tile division is performed on the multivalued foreground data 1 and foreground data 2. As schematically shown in the upper part of FIG. 18, each foreground data is divided into four tiles and encoded, but each foreground data is handled as one image data, and thus is generated for each foreground data. There is one code. By such tile division, the codes of the foreground data 1 and 2 can partially access the upper left, upper right, lower left, and lower right of the image. In this encoding, wavelet transform up to decomposition level 3 is performed, but the number of decomposition levels can be increased or decreased.

ステップ1607では、マスクデータ1,2をそれぞれ、図18の下段に模式的に示すように、タイル境界と同じ位置で4つの領域部分(画像0,1,2,3)に分割し、各領域部分を個別に(独立した画像として)JBIGで符号化する。したがって、マスクデータ1に対して4つの符号が生成され、マスクデータ2に対し4つの符号が生成される。かくして、マスクデータ1,2の符号について、画像の左上、右上、左下、右下に対し部分アクセス可能となる。   In step 1607, the mask data 1 and 2 are each divided into four area portions (images 0, 1, 2, and 3) at the same position as the tile boundary, as schematically shown in the lower part of FIG. Encode parts individually (as independent images) with JBIG. Therefore, four codes are generated for the mask data 1 and four codes are generated for the mask data 2. Thus, with respect to the codes of the mask data 1 and 2, partial access can be made to the upper left, upper right, lower left and lower right of the image.

ステップ1608で、背景データをJPM仕様で符号化する(エントロピー符号化は行わず、符号として背景色を指定する)。   In step 1608, the background data is encoded according to the JPM specification (entropy encoding is not performed and a background color is designated as a code).

最後のステップ1609で、前景データ1,2、マスクデータ1,2及び背景データの符号を結合し、必要なヘッダを付してJPMフォーマットの符号化データを形成する。ただし、本実施例においては、各マスクデータは4つの独立画像として符号化されているので、レイアウトオブジェクトの構造が前記実施例1,2とは異なる。   In the last step 1609, the codes of the foreground data 1 and 2, mask data 1 and 2 and background data are combined, and a necessary header is added to form encoded data in JPM format. However, in this embodiment, since each mask data is encoded as four independent images, the structure of the layout object is different from those of the first and second embodiments.

すなわち、マスクデータ1の4つの領域部分(分割画像)は、タイリングされた前景データ1をJPMで規定された共有データ(shared data)として4つのレイアウトオブジェクトを構成し、また、マスクデータ2の4つの分割画像は前景データ2を共有データとして4つのレイアウトオブジェクトを構成する(請求項11)。   That is, the four area portions (divided images) of the mask data 1 constitute four layout objects by using the tiled foreground data 1 as shared data defined by JPM. The four divided images constitute four layout objects using the foreground data 2 as shared data (claim 11).

JPMの場合、各レイアウトオブジェクトにIDが振られ、このIDは図10に示した「Layout Object Header box」に記載される。レイアウトオブジェクトは、これまで記載したように原則として”ペア”であるが、「Layout Object Style」として”個別(Separate objects for image and mask components)”を指定すれば、同一IDのレイアウトオブジェクトについて、前景とマスクを別々に扱うことができる(つまり、前景だけにIDが振られた状態になる)。   In the case of JPM, an ID is assigned to each layout object, and this ID is described in “Layout Object Header box” shown in FIG. As described above, layout objects are in principle “pairs”. However, if “Separate objects for image and mask components” is specified as “Layout Object Style”, foreground for layout objects with the same ID And mask can be handled separately (that is, an ID is assigned only to the foreground).

そして、JPMファイル全体のヘッダである「Shared Data Entry box」には、共有されるレイアウトオブジェクト(本例の場合は前景)のIDを記入し、前景を共有したいレイアウトオブジェクトの側は、「Shared Data Reference box」を用い、前景のIDを指定して共有を実現する。   In the “Shared Data Entry box” that is the header of the entire JPM file, the ID of the shared layout object (in this example, the foreground) is entered, and the side of the layout object that wants to share the foreground is “Shared Data Entry box”. Use the “Reference box” to specify the foreground ID and realize sharing.

なお、本実施例においても、図18より理解されるように、前景データ1,2及びマスクデータ1,2のすべてについて分割境界は一致している。   In this embodiment, as can be understood from FIG. 18, the division boundaries coincide for all of the foreground data 1 and 2 and the mask data 1 and 2.

また、ステップ1600を省き、ステップ1606でタイル分割をおこなうことも可能であり、かかる態様も本発明に含まれる。   It is also possible to omit step 1600 and perform tile division in step 1606, and such an aspect is also included in the present invention.

なお、本実施例において、前景データのタイル分割を行わないようにする態様も可能であり、これも本発明に包含される。   In the present embodiment, a mode in which tile division of foreground data is not performed is possible, and this is also included in the present invention.

付言すれば、データ取得手段100において、手段103により原画像データを分解した背景、前景、マスクを直接入力する場合、又は、手段104により符号化データを入力し、それを手段105で復号する場合には、ステップ1601〜1605の処理は不要となる。   In other words, in the data acquisition unit 100, when the background, foreground, and mask obtained by decomposing the original image data by the unit 103 are directly input, or when encoded data is input by the unit 104 and decoded by the unit 105 Therefore, the processing of steps 1601 to 1605 is not necessary.

本実施例における処理の全体的な流れは前記実施例3と同様であるので、前記実施例3に係る図17のフローチャートを参照して説明する。   Since the overall flow of the process in the present embodiment is the same as that in the third embodiment, a description will be given with reference to the flowchart of FIG. 17 relating to the third embodiment.

本実施例では、原画像データのタイル分割処理(ステップ1600)は行われない。   In this embodiment, the original image data tile division process (step 1600) is not performed.

マスクデータ2の作成処理(ステップ1601)、前景データ2の作成処理(ステップ1602)、前景データ1の作成処理(ステップ1603)、マスクデータ1の作成処理(ステップ1604)は、それぞれがタイル分割されないこと以外は前記実施例3と同様である。背景データの作成処理(ステップ1605)は前記実施例3と同様である。   Mask data 2 creation processing (step 1601), foreground data 2 creation processing (step 1602), foreground data 1 creation processing (step 1603), and mask data 1 creation processing (step 1604) are not tile-divided. Except for this, the third embodiment is the same as the third embodiment. Background data creation processing (step 1605) is the same as in the third embodiment.

ステップ1606の前景データ1,2のJPEG2000符号化では、タイル分割に代えて、図19の上段に模式的に示すようなプリシンクト分割が行われる(つまり、サブバンドは4つのプリシンクトに分割される)。このようなプリシンクト分割によって、前景データ1,2の符号は画像の左上、右上、左下、右下のそれぞれに対し部分アクセス可能となる。   In JPEG2000 encoding of the foreground data 1 and 2 in step 1606, precinct division as schematically shown in the upper part of FIG. 19 is performed instead of tile division (that is, the subband is divided into four precincts). . By such precinct division, the foreground data 1 and 2 can be partially accessed in the upper left, upper right, lower left, and lower right of the image.

また、ステップ1607では、マスクデータ1,2は、それぞれ図19の下段に示すように、独立した4つの領域部分(画像0,1,2,3)に分割され、各領域部分は個別に、すなわち独立した画像してJPIGで符号化される。マスクデータの分割境界は、前景データ1,2のプリシンクト境界と一致している。したがって、前景データ1,2、マスクデータ1,2の符号は、いずれも画像の左上、右上、左下、右下に対し部分アクセス可能となる。   In step 1607, the mask data 1 and 2 are each divided into four independent area portions (images 0, 1, 2, and 3) as shown in the lower part of FIG. That is, an independent image is encoded by JPIG. The division boundary of the mask data coincides with the precinct boundary of the foreground data 1 and 2. Therefore, the codes of the foreground data 1 and 2 and the mask data 1 and 2 can partially access the upper left, upper right, lower left, and lower right of the image.

ステップ1608,1609は前記実施例3と同様である。   Steps 1608 and 1609 are the same as those in the third embodiment.

なお、本実施例において、前景データのプリシンクト分割を行わないようにする態様も可能であり、これも本発明に包含される。   In this embodiment, a mode in which the precinct division of the foreground data is not performed is possible, and this is also included in the present invention.

<他の実施例>
前記実施例3,4において、前景データについても複数の領域部分に分割し、各領域部分を個別に符号化することも可能であり、かかる態様も本発明に含まれる。
<Other embodiments>
In the third and fourth embodiments, the foreground data can also be divided into a plurality of area portions, and each area portion can be individually encoded, and such an aspect is also included in the present invention.

また、前記実施例1〜4では、前景およびマスクの分割領域のサイズ及び境界がすべて一致していた。しかし、前景とマスクの分割境界を一致させつつ、それらの分割サイズを異ならせることも可能である。   In the first to fourth embodiments, the sizes and boundaries of the foreground and the divided areas of the mask all match. However, it is also possible to make the division sizes different while matching the division boundary between the foreground and the mask.

例えば、本発明の他の一実施例によれば、マスク(又は前景)の分割領域のサイズは前景(又はマスク)の分割領域のサイズの整数倍とされる。すなわち、図20に模式的に例示するように、前景を8タイルに分割し、マスクを4タイルに分割する。この例に見られるように、部分アクセス可能ならしめるような境界で分割するが、前景とマスクの分割領域のサイズもしくは分割数は同一である必要はないということである。ここではタイル分割の例を挙げたが、プリシンクト分割を行う態様も可能であり、また、前記実施例3,4のようにマスクの分割領域を独立した画像として扱って符号化する態様でも可能である。このような実施例の全体的な処理の流れは前記実施例1又は3と同様でよいので、説明は割愛する。
なお、以上では1つのマスク画像があり、それを複数に分割し、各領域を独立に符号化するという流れで説明した。しかし、最初からマスク画像として、隣接し合う(あるいは重なり合う)複数の領域を想定し、それら複数の領域を個別に符号化し、それら複数のマスク画像の領域間で同一の前景を共有する態様も請求項11に係る発明の意図するところである。
For example, according to another embodiment of the present invention, the size of the divided area of the mask (or foreground) is an integral multiple of the size of the divided area of the foreground (or mask). That is, as schematically illustrated in FIG. 20, the foreground is divided into 8 tiles and the mask is divided into 4 tiles. As can be seen in this example, the image is divided at a boundary where partial access is possible, but the foreground and mask divided regions need not have the same size or number of divisions. Although an example of tile division is given here, a mode in which precinct division is performed is also possible, and a mode in which the divided areas of the mask are treated as independent images as in the third and fourth embodiments is also possible. is there. Since the overall processing flow of such an embodiment may be the same as that of Embodiment 1 or 3, the description thereof is omitted.
In the above description, there is one mask image, which is divided into a plurality of parts, and each region is encoded independently. However, there is also an aspect in which a plurality of adjacent (or overlapping) regions are assumed as mask images from the beginning, the plurality of regions are individually encoded, and the same foreground is shared among the regions of the plurality of mask images. This is the intention of the invention according to Item 11.

また、前記実施例1〜4では、マスクはページ全体をカバーした。しかし、マスクの役割を考えれば明らかなように、マスクは、例えば文字画素の描画に必要な場所だけに存在すれば十分であり、必ずしもページ全体(MRC画像全体)をカバーする必要はない。よって、本発明の他の一実施例によれば、例えば図21の上段に示すように、前景は4タイルに分割されJPEG2000符号化されるが、マスクは、各タイル領域に対応する領域毎に、文字画素の描画に必要な場所をカバーする図21の下段に示すような4つの画像に分割され、それぞれの分割画像が個別にJBIG符号化される。このような実施例の全体的な処理の流れは前記実施例3と同様でよいので、その説明は割愛する。
このように、最初から、重なり合わない複数の領域をマスク画像として想定し、これら複数の領域を個別に符号化し、これらマスク画像間で同一の前景を共有する態様も、請求項11に係る発明の意図するところである。
In Examples 1 to 4, the mask covered the entire page. However, as apparent from the role of the mask, it is sufficient that the mask exists only in a place necessary for drawing character pixels, for example, and it is not always necessary to cover the entire page (the entire MRC image). Therefore, according to another embodiment of the present invention, as shown in the upper part of FIG. 21, foreground is divided into 4 tiles and JPEG2000 encoded, but a mask is provided for each area corresponding to each tile area. The image is divided into four images as shown in the lower part of FIG. 21 that cover a place necessary for drawing character pixels, and each divided image is individually JBIG-encoded. Since the overall processing flow of this embodiment may be the same as that of the third embodiment, the description thereof is omitted.
As described above, an aspect in which a plurality of non-overlapping regions are assumed as mask images from the beginning, the plurality of regions are individually encoded, and the same foreground is shared between the mask images is also the invention according to claim 11. It is the intention of

以上に説明した実施例では、背景が単色のJPMを例としたが、背景が単色でない場合には、背景についても部分アクセス可能なように領域分割をして符号化するのが有効であることは、先に請求項8,9の発明に関連して述べた通りである。例えば、原画像データを図1に示すような前景とマスクと背景(図11中の前景1に対応した背景と、図11中のマスク2に対応したマスクと、図11中の前景2に対応した前景)に分解し、それぞれを前記実施例と同様に分割して符号化することができる。その分割符号化の例を図22〜図25に模式的に示す。   In the embodiment described above, JPM with a single background is taken as an example. However, when the background is not a single color, it is effective to divide and encode the background so that the background can be partially accessed. Is as described above in relation to the inventions of claims 8 and 9. For example, the original image data corresponds to the foreground, mask, and background shown in FIG. 1 (the background corresponding to the foreground 1 in FIG. 11, the mask corresponding to the mask 2 in FIG. 11, and the foreground 2 in FIG. 11). Foreground), and each can be divided and encoded in the same manner as in the previous embodiment. Examples of the division encoding are schematically shown in FIGS.

図22は、前景、マスク、背景に対し分割境界を一致させたタイル分割を用いるJP2000符号化を行う例を模式的に示している。図23は、前景、マスク、背景をプリシンクト分割してJPEG2000で符号化する例を模式的に示している。図24は、前景と背景をタイル分割してJPEG2000で符号化し、マスクをタイル境界に一致させた4つの領域部分(画像0,1,2,3)に分割し、各領域部分を個別にJBIGで符号化する例を模式的に示している。図25は、前景と背景をプリシンクト分割してJPEG2000で符号化し、マスクをプリシンクト境界に一致させた領域部分に分割し、各領域部分を個別にJBIG符号化した例を模式的に示している。   FIG. 22 schematically illustrates an example in which JP2000 encoding is performed using tile division in which the division boundaries are matched with respect to the foreground, the mask, and the background. FIG. 23 schematically shows an example in which the foreground, the mask, and the background are precinct divided and encoded by JPEG2000. In FIG. 24, the foreground and the background are divided into tiles, encoded with JPEG2000, and the mask is divided into four area portions (images 0, 1, 2, and 3) that match the tile boundaries. An example of encoding with is schematically shown. FIG. 25 schematically shows an example in which the foreground and the background are precinct-divided and encoded by JPEG2000, the mask is divided into area portions that match the precinct boundary, and each area portion is individually JBIG-encoded.

このような態様における処理は前記実施例1〜4から容易に類推可能であるため、その説明は割愛する。   Since the process in such an aspect can be easily inferred from Examples 1 to 4, the description thereof is omitted.

また、以上の説明は本発明に係る符号化処理方法の実施形態の説明でもあることは明らかであるので、符号化処理方法の説明は繰り返さない。   Moreover, since it is clear that the above description is also the description of the embodiment of the encoding processing method according to the present invention, the description of the encoding processing method will not be repeated.

MRCにおける原画像と、前景、マスク、背景を説明する図である。It is a figure explaining the original image in MRC, a foreground, a mask, and a background. JPEG2000の符号化処理の流れを説明するためのブロック図である。It is a block diagram for demonstrating the flow of the encoding process of JPEG2000. JPEG2000における画像、タイル、プリシンクト、コードブロックの関係を示す図である。It is a figure which shows the relationship between the image in JPEG2000, a tile, a precinct, and a code block. JPEG2000におけるサブバンド分割の例と各サブバンドの解像度レベルを示す図である。It is a figure which shows the example of the subband division | segmentation in JPEG2000, and the resolution level of each subband. JPEG2000におけるレイヤー分割とレイヤの含まれるパケットを例示する図である。It is a figure which illustrates the packet in which the layer division | segmentation in JPEG2000 and a layer are contained. JPEG2000のプログレッションオーダを示す図である。It is a figure which shows the progression order of JPEG2000. 本発明の実施形態を説明するためのブロック図である。It is a block diagram for demonstrating embodiment of this invention. 本発明をコンピュータを利用し実施する場合の処理の流れを説明するためのブロック図である。It is a block diagram for demonstrating the flow of a process in the case of implementing this invention using a computer. MRC符号化データのフォーマットを説明するための図である。It is a figure for demonstrating the format of MRC encoding data. JPM符号化データのフォーマットを説明するための図である。It is a figure for demonstrating the format of JPM encoded data. 原画像データを分割した背景、マスク1と前景1のペア、マスク2と前景2のペアに分割する例を示す図である。It is a figure which shows the example divided | segmented into the background which divided | segmented original image data, the pair of the mask 1 and the foreground 1, and the pair of the mask 2 and the foreground 2. 本発明の実施例1における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in Example 1 of this invention. Sobelオペレータを示す図である。It is a figure which shows a Sobel operator. Sobelオペレータを示す図である。It is a figure which shows a Sobel operator. 実施例1における前景とマスクの分割符号化を模式的に示す図である。FIG. 5 is a diagram schematically illustrating foreground and mask division coding in the first embodiment. 本発明の実施例2における前景とマスクの分割符号化を模式的に示す図である。It is a figure which shows typically the foreground and the division | segmentation encoding of a mask in Example 2 of this invention. 本発明の実施例3における処理の流れ示すフローチャートである。It is a flowchart which shows the flow of the process in Example 3 of this invention. 実施例3における前景とマスクの分割符号化を模式的に示す図である。It is a figure which shows typically the division | segmentation encoding of a foreground and a mask in Example 3. FIG. 本発明の実施例4における前景とマスクの分割符号化を模式的に示す図である。It is a figure which shows typically the foreground and the division | segmentation encoding of a mask in Example 4 of this invention. 前景とマスクの分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground and a mask. 前景とマスクの分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground and a mask. 前景、マスク及び背景の分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground, a mask, and a background. 前景、マスク及び背景の分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground, a mask, and a background. 前景、マスク及び背景の分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground, a mask, and a background. 前景、マスク及び背景の分割符号化の例を模式的に示す図である。It is a figure which shows typically the example of the division | segmentation encoding of a foreground, a mask, and a background.

符号の説明Explanation of symbols

100 データ取得手段
110 符号化手段
111 符号形成手段
112 符号出力手段
DESCRIPTION OF SYMBOLS 100 Data acquisition means 110 Encoding means 111 Code formation means 112 Code output means

Claims (21)

原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段とを有し、
前記符号化手段において、マスクデータに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行うことを特徴とする符号化処理装置。
Background data obtained by decomposing the original image data, data acquisition means for acquiring at least one pair of foreground data and mask data, and encoding for encoding the background data, foreground data and mask data acquired by the data acquisition means, respectively Means,
An encoding processing apparatus characterized in that the encoding means performs JPEG2000 encoding using tile division or precinct division on mask data.
原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段とを有し、
前記符号化手段において、マスクデータを複数の領域部分に分割し、各領域部分を個別に符号化することを特徴とする符号化処理装置。
Background data obtained by decomposing the original image data, data acquisition means for acquiring at least one pair of foreground data and mask data, and encoding for encoding the background data, foreground data and mask data acquired by the data acquisition means, respectively Means,
In the encoding means, the mask data is divided into a plurality of area portions, and each area portion is individually encoded.
前記符号化手段において、マスクデータの各画素位置の絶対値が0又は2のべき乗のみをとる場合に、マスクデータの符号化の際にウェーブレット変換を適用しないことを特徴とする請求項1記載の符号化処理装置。   The wavelet transform is not applied when the mask data is encoded when the absolute value of each pixel position of the mask data takes only a power of 0 or 2 in the encoding means. Encoding processing device. 前記符号化手段において、前景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項1又は2記載の符号化処理装置。   3. The encoding unit according to claim 1, wherein the encoding unit performs JPEG2000 encoding using tile division or precinct division on the foreground data, and matches the division boundary of the foreground data and the division boundary of the mask data. Encoding processing device. 前記符号化手段において、前景データを複数の領域部分に分割し、各領域部分を個別に符号化し、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項1又は2記載の符号化処理装置。   3. The encoding means according to claim 1, wherein the foreground data is divided into a plurality of area portions, each area portion is individually encoded, and the division boundary of the foreground data and the division boundary of the mask data are matched. The encoding processing apparatus described. 前記符号化手段において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項1又は2記載の符号化処理装置。   3. The encoding unit according to claim 1, wherein the encoding unit performs JPEG2000 encoding using tile division or precinct division on the background data to match the division boundary of the background data and the division boundary of the mask data. Encoding processing device. 前記符号化手段において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項1又は2記載の符号化処理装置。   3. The coding means according to claim 1, wherein the encoding means divides the background data into a plurality of area portions, individually encodes each area portion, and matches the division boundary of the background data and the division boundary of the mask data. The encoding processing apparatus described. 前記符号化手段において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項4又は5記載の符号化処理装置。   6. The encoding unit according to claim 4, wherein the encoding means performs JPEG2000 encoding using tile division or precinct division on the background data, and matches the division boundary of the background data and the division boundary of the mask data. Encoding processing device. 前記符号化手段において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項4又は5記載の符号化処理装置。   6. The encoding means according to claim 4, wherein the background data is divided into a plurality of area portions, each area portion is individually encoded, and the division boundary of the background data is matched with the division boundary of the mask data. The encoding processing apparatus described. 前景データとマスクデータのペアは複数あり、全てのペアの前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項4又は5記載の符号化処理装置。   6. The encoding processing apparatus according to claim 4, wherein there are a plurality of pairs of foreground data and mask data, and the division boundaries of the foreground data of all pairs and the division boundaries of the mask data are made to coincide. 原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得手段と、このデータ取得手段により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化手段と、この符号化手段により生成された背景データ、前景データ及びマスクデータの符号を結合して所定フォーマットの符号化データを形成する符号形成手段とを有し、
前記符号化手段において、マスクデータは複数の部分領域からなり、それら部分領域をそれぞれ個別に符号化し、
前記符号形成手段において、前景データの符号をマスクデータの複数の部分領域の符号間で共有させることを特徴とする符号化処理装置。
Background data obtained by decomposing the original image data, data acquisition means for acquiring at least one pair of foreground data and mask data, and encoding for encoding the background data, foreground data and mask data acquired by the data acquisition means, respectively Means, and code forming means for combining the codes of the background data, foreground data and mask data generated by the encoding means to form encoded data of a predetermined format,
In the encoding means, the mask data consists of a plurality of partial areas, and each of the partial areas is individually encoded,
An encoding processing apparatus, wherein the code forming means shares the code of foreground data among codes of a plurality of partial areas of mask data.
原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得工程と、このデータ取得工程により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化工程とを有し、
前記符号化工程において、マスクデータに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行うことを特徴とする符号化処理方法。
Background data obtained by decomposing the original image data, a data acquisition step for acquiring at least one foreground data and mask data pair, and encoding for encoding the background data, foreground data, and mask data acquired by the data acquisition step, respectively A process,
In the encoding step, JPEG2000 encoding using tile division or precinct division is performed on mask data.
原画像データを分解した背景データ、少なくとも1の前景データとマスクデータのペアを取得するデータ取得工程と、このデータ取得工程により取得された背景データ、前景データ及びマスクデータをそれぞれ符号化する符号化工程とを有し、
前記符号化工程において、マスクデータを複数の領域部分に分割し、各領域部分を個別に符号化することを特徴とする符号化処理方法。
Background data obtained by decomposing the original image data, a data acquisition step for acquiring at least one foreground data and mask data pair, and encoding for encoding the background data, foreground data, and mask data acquired by the data acquisition step, respectively A process,
In the encoding step, the mask data is divided into a plurality of area portions, and each area portion is individually encoded.
前記符号化工程において、前景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項12又は13記載の符号化処理方法。   14. The encoding process according to claim 12 or 13, wherein in the encoding step, JPEG2000 encoding using tile division or precinct division is performed on the foreground data to match the division boundary of the foreground data and the division boundary of the mask data. Encoding method. 前記符号化工程において、前景データを複数の領域部分に分割し、各領域部分を個別に符号化し、前景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項12又は13記載の符号化処理方法。   The foreground data is divided into a plurality of area portions in the encoding step, each area portion is individually encoded, and the foreground data division boundary and the mask data division boundary are made to coincide with each other. The encoding processing method as described. 前記符号化工程において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項12又は13記載の符号化処理方法。   14. The encoding process according to claim 12 or 13, wherein in the encoding step, JPEG2000 encoding using tile division or precinct division is performed on the background data to match the division boundary of the background data and the division boundary of the mask data. Encoding processing method. 前記符号化工程において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項12又は13記載の符号化処理方法。   14. The encoding process according to claim 12, wherein the background data is divided into a plurality of area portions, each area portion is individually encoded, and the division boundary of the background data is matched with the division boundary of the mask data. The encoding processing method as described. 前記符号化工程において、背景データに対しタイル分割又はプリシンクト分割を用いたJPEG2000符号化を行い、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項14又は15記載の符号化処理方法。   16. The encoding process according to claim 14 or 15, wherein, in the encoding step, JPEG2000 encoding using tile division or precinct division is performed on the background data to match the division boundary of the background data and the division boundary of the mask data. Encoding processing method. 前記符号化工程において、背景データを複数の領域部分に分割し、各領域部分を個別に符号化し、背景データの分割境界とマスクデータの分割境界を一致させることを特徴とする請求項14又は15記載の符号化処理方法。   16. In the encoding step, the background data is divided into a plurality of area portions, each area portion is individually encoded, and the division boundary of the background data and the division boundary of the mask data are matched. The encoding processing method as described. 請求項1乃至9のいずれか1項記載の符号化処理装置の各手段としてコンピュータを機能させるプログラム。   A program that causes a computer to function as each unit of the encoding processing device according to any one of claims 1 to 9. 請求項1乃至9のいずれか1項記載の符号化処理装置の各手段としてコンピュータを機能させるプログラムが記録された、コンピュータが読み取り可能な情報記録媒体。   10. A computer-readable information recording medium on which a program for causing a computer to function as each unit of the encoding processing apparatus according to claim 1 is recorded.
JP2005166587A 2005-05-25 2005-06-07 Coding processor, coding processing method, program and information recording medium Pending JP2007005844A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005166587A JP2007005844A (en) 2005-05-25 2005-06-07 Coding processor, coding processing method, program and information recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005152340 2005-05-25
JP2005166587A JP2007005844A (en) 2005-05-25 2005-06-07 Coding processor, coding processing method, program and information recording medium

Publications (1)

Publication Number Publication Date
JP2007005844A true JP2007005844A (en) 2007-01-11

Family

ID=37691062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005166587A Pending JP2007005844A (en) 2005-05-25 2005-06-07 Coding processor, coding processing method, program and information recording medium

Country Status (1)

Country Link
JP (1) JP2007005844A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009267444A (en) * 2008-04-21 2009-11-12 Sharp Corp Image compressing method, image compressing device, image processing apparatus, image forming apparatus, computer program and recording medium
JP2009278163A (en) * 2008-05-12 2009-11-26 Ricoh Co Ltd Image processing apparatus, image processing method, computer program and information recording medium
JP2010062935A (en) * 2008-09-04 2010-03-18 Ricoh Co Ltd Encoding device, encoding method, program, and information recording medium
JP2010130622A (en) * 2008-12-01 2010-06-10 Ricoh Co Ltd Encoding apparatus, encoding method, program, and recording medium
CN109993824A (en) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 Image processing method, intelligent terminal and device with storage function
US10957076B2 (en) 2018-01-31 2021-03-23 Fujitsu Limited Non-transitory computer readable recording medium, storage control method, extraction method, storage control device, and extraction device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069292A (en) * 1998-08-24 2000-03-03 Canon Inc Image processing unit, its method and storage medium
JP2001054112A (en) * 1999-08-11 2001-02-23 Ricoh Co Ltd Image generating method, image generator, image browsing method, image browsing device and recording medium
JP2002064709A (en) * 2000-06-06 2002-02-28 Canon Inc Image processing unit and its method, and its computer program and storage medium
WO2003061292A1 (en) * 2002-01-14 2003-07-24 Hewlett-Packard Company Coder matched layer separation and interpolation for compression of compound documents
JP2004096373A (en) * 2002-08-30 2004-03-25 Nec Access Technica Ltd Image expanding apparatus and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000069292A (en) * 1998-08-24 2000-03-03 Canon Inc Image processing unit, its method and storage medium
JP2001054112A (en) * 1999-08-11 2001-02-23 Ricoh Co Ltd Image generating method, image generator, image browsing method, image browsing device and recording medium
JP2002064709A (en) * 2000-06-06 2002-02-28 Canon Inc Image processing unit and its method, and its computer program and storage medium
WO2003061292A1 (en) * 2002-01-14 2003-07-24 Hewlett-Packard Company Coder matched layer separation and interpolation for compression of compound documents
JP2005515727A (en) * 2002-01-14 2005-05-26 ヒューレット・パッカード・カンパニー Coder-matched layer separation and interpolation for compound document compression
JP2004096373A (en) * 2002-08-30 2004-03-25 Nec Access Technica Ltd Image expanding apparatus and method thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009267444A (en) * 2008-04-21 2009-11-12 Sharp Corp Image compressing method, image compressing device, image processing apparatus, image forming apparatus, computer program and recording medium
JP2009278163A (en) * 2008-05-12 2009-11-26 Ricoh Co Ltd Image processing apparatus, image processing method, computer program and information recording medium
JP2010062935A (en) * 2008-09-04 2010-03-18 Ricoh Co Ltd Encoding device, encoding method, program, and information recording medium
JP2010130622A (en) * 2008-12-01 2010-06-10 Ricoh Co Ltd Encoding apparatus, encoding method, program, and recording medium
CN109993824A (en) * 2017-12-29 2019-07-09 深圳市优必选科技有限公司 Image processing method, intelligent terminal and device with storage function
US10957076B2 (en) 2018-01-31 2021-03-23 Fujitsu Limited Non-transitory computer readable recording medium, storage control method, extraction method, storage control device, and extraction device

Similar Documents

Publication Publication Date Title
US8769395B2 (en) Layout objects as image layers
US8036475B2 (en) Compression for segmented images and other types of sideband information
US20060269151A1 (en) Encoding method and encoding apparatus
US8150179B2 (en) Image processing apparatus
KR100524566B1 (en) Image processing apparatus and method
EP1072015B1 (en) Multiresolution compressed image management system and method
JP4612782B2 (en) Image processing apparatus, method thereof, program, and storage medium
US8625912B2 (en) JPEG 2000-like access using the JPM compound document file format
US20080089413A1 (en) Moving Image Encoding Apparatus And Moving Image Encoding Method
US7440624B2 (en) Image compression apparatus, image decompression apparatus, image compression method, image decompression method, program, and recording medium
US7302105B2 (en) Moving image coding apparatus, moving image decoding apparatus, and methods therefor
JP5413080B2 (en) Image processing apparatus and image processing method
US20030068089A1 (en) Image processing system processing code data
WO2006001490A1 (en) Moving image encoding apparatus and moving image encoding method
US20080244002A1 (en) system including a server and at least a client
JP2007005844A (en) Coding processor, coding processing method, program and information recording medium
JP2004242290A (en) Image processing apparatus and image processing method, image edit processing system, image processing program, and storage medium
JP4089905B2 (en) Image processing apparatus, image processing method, program, and information recording medium
US8081093B2 (en) Code transforming apparatus and code transforming method
US20060056714A1 (en) Image process device, image processing program, and recording medium
JP4073333B2 (en) Image compression apparatus and image compression method
JP4412688B2 (en) Image processing apparatus and method
JP2004274710A (en) Information processor, information processing method, program and computer-readable recording medium
JP2003204439A (en) Image coding apparatus and method therefor
Triantaphillidou et al. Digital image file formats

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101006