JP2008206073A - Image processing apparatus, control method, program, and storage medium - Google Patents
Image processing apparatus, control method, program, and storage medium Download PDFInfo
- Publication number
- JP2008206073A JP2008206073A JP2007042658A JP2007042658A JP2008206073A JP 2008206073 A JP2008206073 A JP 2008206073A JP 2007042658 A JP2007042658 A JP 2007042658A JP 2007042658 A JP2007042658 A JP 2007042658A JP 2008206073 A JP2008206073 A JP 2008206073A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge
- foreground
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像を圧縮符号化する技術に関するものである。 The present invention relates to a technique for compressing and encoding an image.
近年、複写機とプリンターとを統合したデジタル複合機なるものが存在する。これは、紙原稿をスキャンして複写する機能や、パソコンから受信したデータを印刷出力する機能を搭載している。 In recent years, there has been a digital multi-function peripheral in which a copier and a printer are integrated. This is equipped with a function for scanning and copying a paper document and a function for printing out data received from a personal computer.
このような機器においては、スキャンされた画像データとPDL(ページ記述言語)データを混在させて印刷する場合なども有る。その場合、スキャンされた画像データおよびPDLデータを統一的に扱う必要が有る。 In such devices, there are cases where scanned image data and PDL (page description language) data are mixed and printed. In this case, it is necessary to handle scanned image data and PDL data in a unified manner.
例えば、これら全てのデータを一旦ビットマップデータに展開して、JPEG圧縮を用いて圧縮する場合を考える。この場合、原稿の文字部やグラフィックス部には、JPEG圧縮による歪みが生じるであろう。 For example, consider a case where all these data are once expanded into bitmap data and compressed using JPEG compression. In this case, distortion due to JPEG compression will occur in the character portion and graphics portion of the document.
このような文字画像を高画質に表現する方式として、ベクトルデータによる表現方式が知られている。
本発明は、例えば、文字やその他、異なる種類の部分画像が混在した画像を効率良く符号化するために、画像の前景に相当する部分を適切に決定する技術を提供することを目的とする。 An object of the present invention is to provide a technique for appropriately determining a portion corresponding to a foreground of an image in order to efficiently encode, for example, an image in which characters and other types of partial images are mixed.
上記目的を達成するために、本発明の画像処理装置は以下を備える。即ち、画像を入力する入力手段と、前記画像のエッジを検出するエッジ検出手段と、前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段と、前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定手段とを備える。 In order to achieve the above object, an image processing apparatus of the present invention comprises: That is, an input means for inputting an image, an edge detection means for detecting an edge of the image, and by determining the continuity of the same type of image for each line of the image, the start and end points of the same type of image can be obtained. Output means for outputting packet data indicating a color; and determining means for determining that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.
本発明によれば、画像の前景に相当する部分を適切に決定できる。 According to the present invention, a portion corresponding to the foreground of an image can be determined appropriately.
以下、図面に従って本発明に係る実施例を詳細に説明する。 Embodiments according to the present invention will be described below in detail with reference to the drawings.
(第1実施例)
図1は、本発明の符号化部のブロック図である。10はスキャナで読取られた画像(スキャン画像)であり、11はPDLデータを描画した画像(PDL描画画像)である。このPDLデータはディスプレリストに変換される。
(First embodiment)
FIG. 1 is a block diagram of an encoding unit of the present invention.
13は領域分割部であり、14は前景圧縮部であり、15は背景圧縮部であり、12はメモリである。 13 is an area dividing unit, 14 is a foreground compression unit, 15 is a background compression unit, and 12 is a memory.
上記スキャン画像とPDLデータは、13の領域分割部において、前景と背景に分離される。 The scanned image and the PDL data are separated into a foreground and a background in 13 area division units.
前景は前景圧縮部14において、画像のベクトル化を利用した圧縮処理(前景部圧縮処理)を行う。 The foreground is subjected to compression processing using foreground vectorization (foreground portion compression processing) in the foreground compression unit 14.
背景は背景圧縮部15においてビットマップデータの圧縮(背景部圧縮処理)を行う。 For the background, the background compression unit 15 compresses the bitmap data (background portion compression processing).
これら圧縮データはそれぞれメモリ12に記録される。以下、詳細な説明を行う。
These compressed data are recorded in the
スキャン画像10は、ノイズ除去部101でノイズ除去された後、ランパケット生成部102およびエッジ抽出部103に供給される。
The
ランパケット生成部102は、1行毎に、同一色の画素が何個連続しているかを判定する。そしてその判定の結果、始点と終点と色の組合せで構成されるパケットデータを生成する。このパケットデータをランパケットと呼ぶこととする。終点の代わりに、連続数(ラン)の長さを記録してもよい。
The run
エッジ抽出部104では、画像のエッジ部を各種のフィルター演算を用いて求める。
The
始点・終点判定部103では、ベクトル化の対象となるランパケットの候補を抽出する。具体的には、ランパケット生成部102で生成したランパケットの始点と終点の両方が、エッジ抽出部104で抽出した画像のエッジ画素に一致しているかを判定する。そして、一致している場合にはそれが前景部であると判定する。これにより、背景と思われる部分で、単に同じ色の画素が並んでランパケットが作られた箇所と、前景と思われる部分のランパケットとを分けることができる。
The start point / end
前景・背景分離部105では、前景部以外の部分を背景とする。ここでは、原画像から前景部を抜き出し、背景の穴埋め部109でこの部分を周囲画素の平均色で埋める。
In the foreground /
ラベリング部106は、前景部のラベリングを行う処理部である。ここでは、ライン単位に入ってきたパケットデータを、前ラインとの連続性を見ることにより、画素接続している領域を1つの領域として判別する。そして、それぞれの塊に独立した番号を与えていく“ラベリング処理”を行う。
The
107は、ラベル領域毎の輪郭抽出部であり、108は、抽出した輪郭データをベジエ曲線などを用いて近似する部分である。このベジエ曲線と内部の色とを連結して、画像のベクトルデータであるとする。
背景の穴埋め部109では、原画像から前景部を抜き出し、この部分を周囲画素の平均色で埋めた背景画像を生成する。
The background
110は、背景画像をビットマップデータとして圧縮するビットマップ符号化部である。この処理部は、公知のJPEGやJPEG2000等を用いることが可能である。ここで得られた圧縮符号化データは、メモリ12に記録される。
PDL描画画像11は、PDLデータをそれぞれに適した描画方法で、ビットマップデータ(ビットマップ画像)に展開したものである。なお、このPDL描画画像は、ランパケット生成部102およびエッジ抽出部104の処理の後は、スキャン画像10と同様に扱われる。
The
図2は、本実施例における復号部を示す図である。 FIG. 2 is a diagram illustrating a decoding unit in the present embodiment.
12は図1と同様のメモリである。ここでは、ベクトルデータ(ベクトル化データ)とビットマップデータ(ビットマップデータを圧縮符号化したデータ)とを記録している。
前景復号部16は、メモリ12からベクトルデータを読み出し、復号(前景部復号処理)を行う。一方背景復号部17は、メモリ12から圧縮符号化されたビットマップデータを読み出し、復号(背景部復号処理)を行う。これら復号された画像データは、合成部18において合成され、表示器19で表示する。以下、各部の処理を詳細に説明する。
The foreground decoding unit 16 reads the vector data from the
輪郭描画部201は、ベクトルデータをビットマップデータ(ビットマップ画像)の輪郭を表す輪郭データに変換する。このとき、所定の表示倍率に従って、ベクトル座標値を変換しておく。
The
中塗り部202では、指示された色で、上記輪郭の内部を塗りつぶす。この結果は前景描画部203で保持される。
The intermediate coating unit 202 fills the inside of the contour with the instructed color. This result is held in the
一方、ビットマップ復号処理部204は、圧縮符号化されたビットマップデータを復号する。この結果は、背景描画部205で保持される。 On the other hand, the bitmap decoding processing unit 204 decodes the compression-coded bitmap data. This result is held in the background drawing unit 205.
ベクトルデータに基づいて描画された画像は、スムージング部206においてエッジをぼかす処理(スムージング)を行う。 The image drawn based on the vector data is subjected to a process (smoothing) for blurring edges in the smoothing unit 206.
一方、ビットマップデータは、解像度変換部207で、表示倍率のサイズに合わせて解像度変換される。 On the other hand, the resolution of the bitmap data is converted by the resolution conversion unit 207 in accordance with the display magnification size.
合成部208は、スムージング部206と解像度変換部207で得られた画像を合成する。表示部19は、この合成された画像を表示する。
A combining unit 208 combines the images obtained by the smoothing unit 206 and the resolution conversion unit 207. The
図3は、文字を含む領域(文字タイル)を前景と背景に分離する一例である。
31は、入力画像であり、背景の上に文字“H”を含む画像である。
32は、文字部のみ(Hの部分のみ)を表す画像であり、これを前景と呼ぶ。
33は、前景部の輪郭(アウトライン)をベクトルデータに変換する(ベクトル化)する様子を示している。ここではラスタースキャンを行い、最初の有意画素を検出し、その部分から境界の追跡を行う。そして領域の境界を辿っていき、開始点に戻った時点で処理が完了する。
FIG. 3 shows an example in which a region (character tile) including characters is separated into a foreground and a background.
Reference numeral 32 denotes an image representing only the character portion (only the portion H), which is referred to as the foreground.
図3においては、角点の座標を記録しつつ、この間を直線で結べば、元の画像の輪郭が再現できる。また元の画像の内部色を抽出しておき、この色で塗り潰せば、原画像(“H”の色文字)が再現できることになる。図3では、直線のみで全てが構成されているが、曲線を含む場合は、公知のベジエ関数を用いた近似により表現することができる。これをアウトライン・ベクトルと呼ぶ。 In FIG. 3, the contour of the original image can be reproduced by recording the coordinates of the corner points and connecting them with straight lines. If the internal color of the original image is extracted and painted with this color, the original image ("H" color character) can be reproduced. In FIG. 3, all are composed only of straight lines, but when a curve is included, it can be expressed by approximation using a known Bezier function. This is called an outline vector.
一方、34は、入力画像から、前景が抜き取られた画像である。この状態では、本来の背景部分(“H”以外の領域)と抜き取られた画像部分(“H”の領域)の境界に、強いエッジ成分が有るため、JPEG等の圧縮に不向きである。従って、後述の処理を行う。 On the other hand, 34 is an image in which the foreground is extracted from the input image. In this state, there is a strong edge component at the boundary between the original background portion (region other than “H”) and the extracted image portion (region “H”), so that it is not suitable for compression such as JPEG. Therefore, the processing described later is performed.
35は、抜き取られた画像部分(“H”の領域)を周囲画素の平均色で埋めた状態を示す。ここで得られた画像35が後段でビットマップデータとして圧縮(JPEG圧縮)される。なお、ここで平均色を求めるための周囲画素は、予め基準を定めておけば良いが、例えば、“H”の領域に外接する周囲画素のみに基づいて平均色を求めれば良い。
図4は1ライン毎のランパケットを生成する処理を示す図である。 FIG. 4 is a diagram showing a process of generating a run packet for each line.
ここでは、入力された画像をライン単位に処理していく。41が処理の対象となる処理ラインである。42が処理ラインの1ライン前(上)のラインである。43は処理済みライン(処理前ラインよりも更に前のライン)である。44が処理ラインよりも後に処理される予定の処理待ちラインである。 Here, the input image is processed in units of lines. Reference numeral 41 denotes a processing line to be processed. Reference numeral 42 denotes a line one line before (upper) the processing line. Reference numeral 43 denotes a processed line (a line further before the pre-processing line). Reference numeral 44 denotes a processing waiting line scheduled to be processed after the processing line.
まず、処理ラインに対して、ランの始点と終点である(始点45a,終点45a)(始点45b,終点46b)を検出する。 First, the start point and end point (start point 45a, end point 45a) (start point 45b, end point 46b) of the run are detected for the processing line.
次に、前ラインでの検出結果(始点45c、終点46c)(始点45d、終点46d)との接続関係を見て、1つのラベル領域かどうかを判定していくことになる。 Next, it is determined whether or not there is one label area by looking at the connection relationship with the detection results (start point 45c, end point 46c) (start point 45d, end point 46d) in the previous line.
図5は、エッジ抽出部の処理を示す図である。
51は横方向のエッジを除去する1次元フィルターであり、処理部53においてこのフィルターの出力値を絶対値に変換する。
52は縦方向のエッジを除去する1次元フィルターであり、処理部54においてこのフィルターの出力値を絶対値に変換する。
この2つの絶対値を処理部56で加算する。次に、比較器55において、加算された値としきい値57とを比較する。この比較の結果が注目画素のエッジの強度(エッジ抽出結果)となる。
FIG. 5 is a diagram illustrating processing of the edge extraction unit.
Reference numeral 51 denotes a one-dimensional filter for removing horizontal edges, and the
A one-
The two absolute values are added by the
図6にエッジ抽出結果を示す。この例では、文字の周囲の輪郭の画素のみに強いエッジ強度(エッジ抽出結果)が現れている。このエッジ抽出結果(エッジ画素)を使って、ランパケットの前景と背景の分離を行う。 FIG. 6 shows the edge extraction result. In this example, strong edge strength (edge extraction result) appears only in the contour pixels around the character. Using the edge extraction result (edge pixel), the foreground and background of the run packet are separated.
図7に、領域を分割する際の判定の一例を示す。 FIG. 7 shows an example of determination when dividing an area.
同一色の画素のランの始点と終点の両方が一致した場合は、ラベリングの対象となるランパケットデータ(前景データ)であるとして判定し、始点と終点の両方がエッジ画素でない場合は、背景データであると判定する。 If both the start and end points of the same color pixel match, it is determined that the run packet data (foreground data) is the target of labeling. If both the start and end points are not edge pixels, the background data It is determined that
図8は、ライン単位にラベリングを行う方法を示す図である。 FIG. 8 is a diagram illustrating a method of performing labeling for each line.
ラベリングの対象となるパケットデータの処理ライン81と、その1つ前のライン82の始点と終点の座標値の関係に基づいて、複数の接続関係で表せる。83は始点が接続している場合であり、84は終点が接続している場合である。これらは、同じラベル番号で処理できる。また85、86は、重なっている場合であり、これらも同一のラベル番号で処理できる。
Based on the relationship between the processing line 81 of the packet data to be labeled and the coordinate value of the start point and end point of the previous line 82, it can be expressed by a plurality of connection relationships. 83 is the case where the start point is connected, and 84 is the case where the end point is connected. These can be processed with the same label number.
87は複雑なパターンの例であり、前ラインでは、3つの独立したパケットであったものが、処理ラインをみると全てが接続状態であるので、3つとも同じラベル番号で処理できる。これらは、接続関係を管理する接続関係管理テーブルを設けることにより、容易に処理できる。 87 is an example of a complicated pattern. In the previous line, three independent packets are all connected, but all three can be processed with the same label number. These can be easily processed by providing a connection relation management table for managing the connection relation.
図9に示すように、エッジリストからラベリング対象画素への変換は、始点と終点ともにエッジの画素であると判定して良いので、容易にラベリングの対象画素を生成することができる。 As shown in FIG. 9, since the conversion from the edge list to the labeling target pixel may be determined to be the edge pixel at both the start point and the end point, the labeling target pixel can be easily generated.
図10に、輪郭の追跡方法の一例を示す。 FIG. 10 shows an example of a contour tracking method.
注目している境界点を中心にして、前の境界点から反時計回りに次の境界点を探す。 The next boundary point is searched counterclockwise from the previous boundary point with the focused boundary point as the center.
すなわち、注目画素の近傍(周囲)8画素のうち、0から1の画素へ変わる画素を探す操作を行う。この処理を、処理を開始した地点に戻るまで継続して処理する。これにより、ループとして輪郭が抽出できる。 That is, an operation of searching for a pixel that changes from 0 to 1 among 8 pixels near (around) the target pixel is performed. This process is continued until returning to the point where the process is started. Thereby, an outline can be extracted as a loop.
さらに、輪郭の端点を利用して直線や曲線で近似し、近似するベクトルデータを保持することにより、ベクトル化が行われる。 Further, vectorization is performed by approximating with a straight line or a curve using the end points of the contour and holding approximate vector data.
本実施例では、ランパケットの生成条件として同一色の画素の並びということで説明したが、これに限定されない。例えば、ある範囲の変動を許容して、同一色の画素と見なす方法や、クラスタリングなどの画像処理の結果で、同じクラスの画素と判定された画素の並びをランパケットとする方法を適用しても同様の結果が得られる。 In the present embodiment, the run packet generation condition is described as the arrangement of pixels of the same color. However, the present invention is not limited to this. For example, applying a method that allows variation in a certain range to be regarded as pixels of the same color, or a method that uses a sequence of pixels determined as pixels of the same class as a result of image processing such as clustering as a run packet. Gives the same result.
本実施の形態は、画像の前景と背景を分離し、前景と背景を別々に圧縮符号化する画像処理装置において、画像を入力する入力手段(工程)と、上記画像のエッジを検出するエッジ検出手段(工程)と、上記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段(工程)と、上記始点と終点の両方が前記エッジに相当するパケットデータを、上記前景に相当するパケットデータであると決定する決定手段(工程)を備えることを特徴とする。なおこの前景は、文字部または図形部に相当する。 In this embodiment, in an image processing apparatus that separates a foreground and a background of an image and separately compresses and encodes the foreground and the background, an input means (step) for inputting an image and edge detection for detecting an edge of the image Means (step), output means (step) for outputting packet data indicating the start point, end point and color of the same type of image by determining the continuity of the same type of image for each line of the image, and the above It is characterized by comprising determination means (step) for determining that both the start point and the end point are packet data corresponding to the edge as packet data corresponding to the foreground. This foreground corresponds to a character portion or a graphic portion.
なお、上記画像処理装置を制御する制御方法や、上記制御を実行させるプログラム(コンピュータから読み取り可能な状態で記録された)、またはこのプログラムを記憶した記憶媒体なども、本発明の範疇に含まれる。 Note that a control method for controlling the image processing apparatus, a program for executing the control (recorded in a state readable by a computer), a storage medium storing the program, and the like are also included in the scope of the present invention. .
10 スキャン画像
11 PDL描画画像
13 領域分割部
14 前景圧縮処理部
15 背景圧縮処理部
DESCRIPTION OF
Claims (4)
前記画像のエッジを検出するエッジ検出手段と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定手段とを備えることを特徴とする画像処理装置。 An input means for inputting an image;
Edge detecting means for detecting an edge of the image;
For each line of the image, output means for outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
An image processing apparatus comprising: a determination unit that determines that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.
前記画像のエッジを検出するエッジ検出工程と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力工程と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定工程とを備えることを特徴とする制御方法。 An input process for inputting an image;
An edge detection step of detecting an edge of the image;
For each line of the image, an output step of outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
And a determination step of determining that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.
画像を入力する入力工程と、
前記画像のエッジを検出するエッジ検出工程と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力工程と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定工程とを含む、
前記コンピュータから読み取り可能なプログラム。 A program for causing an image processing apparatus to execute the following:
An input process for inputting an image;
An edge detection step of detecting an edge of the image;
For each line of the image, an output step of outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
Determining the packet data in which both the start point and the end point correspond to the edge as data corresponding to the foreground,
A program readable from the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007042658A JP2008206073A (en) | 2007-02-22 | 2007-02-22 | Image processing apparatus, control method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007042658A JP2008206073A (en) | 2007-02-22 | 2007-02-22 | Image processing apparatus, control method, program, and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008206073A true JP2008206073A (en) | 2008-09-04 |
Family
ID=39783031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007042658A Pending JP2008206073A (en) | 2007-02-22 | 2007-02-22 | Image processing apparatus, control method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008206073A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011034410A (en) * | 2009-08-03 | 2011-02-17 | Canon Inc | Clustering processing method, clustering processing apparatus and program |
US8300939B2 (en) | 2009-07-27 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, and program |
US8472720B2 (en) | 2009-07-23 | 2013-06-25 | Canon Kabushiki Kaisha | Image processing method, apparatus and program |
JP2015184014A (en) * | 2014-03-20 | 2015-10-22 | 株式会社イシダ | Weighing apparatus |
-
2007
- 2007-02-22 JP JP2007042658A patent/JP2008206073A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8472720B2 (en) | 2009-07-23 | 2013-06-25 | Canon Kabushiki Kaisha | Image processing method, apparatus and program |
US8300939B2 (en) | 2009-07-27 | 2012-10-30 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, and program |
JP2011034410A (en) * | 2009-08-03 | 2011-02-17 | Canon Inc | Clustering processing method, clustering processing apparatus and program |
US8218881B2 (en) | 2009-08-03 | 2012-07-10 | Canon Kabushiki Kaisha | Clustering processing method, clustering processing apparatus, and non-transitory computer-readable medium |
JP2015184014A (en) * | 2014-03-20 | 2015-10-22 | 株式会社イシダ | Weighing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5132530B2 (en) | Image coding apparatus, image processing apparatus, and control method thereof | |
JP5312166B2 (en) | Image processing apparatus, control method, and program | |
JP2010103681A (en) | Image processing device and method | |
US20140285824A1 (en) | Image processing apparatus, image processing method and program | |
JP4582204B2 (en) | Image processing apparatus, image conversion method, and computer program | |
JP5049921B2 (en) | Image processing apparatus and image processing method | |
US8768051B2 (en) | Image processing method, image processing apparatus, and computer-readable medium | |
JP5893379B2 (en) | Image compression apparatus, image compression method, and computer program | |
JP4582200B2 (en) | Image processing apparatus, image conversion method, and computer program | |
JP2008206073A (en) | Image processing apparatus, control method, program, and storage medium | |
US8810877B2 (en) | Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image | |
US8274515B2 (en) | Vector image generation method, image processing apparatus, and computer-readable storage medium for computer program | |
JP2010146218A (en) | Image processing apparatus, image processing method, computer program | |
JP2008042345A (en) | Image processing method and image processor | |
US8422774B2 (en) | Image processing method, image processing apparatus and program storage medium | |
JP2007088912A (en) | Image processing apparatus and program | |
JP2003046746A (en) | Method and apparatus for processing image | |
JP5517028B2 (en) | Image processing device | |
JP2001169120A (en) | Method, device, and system for image processing | |
JP5424785B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP2005244649A (en) | Image processing apparatus | |
JP2007174522A (en) | Image processing device, image processing method, program code, and storage medium | |
JP6200797B2 (en) | Image processing apparatus and image processing method | |
JP5315637B2 (en) | Image processing apparatus, electronic document system, and program | |
JP2005018465A (en) | Image processor, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |