JP2008206073A - Image processing apparatus, control method, program, and storage medium - Google Patents

Image processing apparatus, control method, program, and storage medium Download PDF

Info

Publication number
JP2008206073A
JP2008206073A JP2007042658A JP2007042658A JP2008206073A JP 2008206073 A JP2008206073 A JP 2008206073A JP 2007042658 A JP2007042658 A JP 2007042658A JP 2007042658 A JP2007042658 A JP 2007042658A JP 2008206073 A JP2008206073 A JP 2008206073A
Authority
JP
Japan
Prior art keywords
image
edge
foreground
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007042658A
Other languages
Japanese (ja)
Inventor
Hideshi Osawa
秀史 大澤
Xiao Yan Dai
暁艶 戴
Hiroki Kishi
裕樹 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007042658A priority Critical patent/JP2008206073A/en
Publication of JP2008206073A publication Critical patent/JP2008206073A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for appropriately determining a portion corresponding to the foreground of an image. <P>SOLUTION: There are provided: an input means for inputting an image; an edge detecting means for detecting an edge of the image; an output means for judging continuity of the same kind of images for each of lines of the image to output packet data indicating a starting point, an ending point and a color of the same kind of images; and a determination means for determining packet data, both the starting point and the ending point of which correspond to the edge, as data corresponding to the foreground. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像を圧縮符号化する技術に関するものである。   The present invention relates to a technique for compressing and encoding an image.

近年、複写機とプリンターとを統合したデジタル複合機なるものが存在する。これは、紙原稿をスキャンして複写する機能や、パソコンから受信したデータを印刷出力する機能を搭載している。   In recent years, there has been a digital multi-function peripheral in which a copier and a printer are integrated. This is equipped with a function for scanning and copying a paper document and a function for printing out data received from a personal computer.

このような機器においては、スキャンされた画像データとPDL(ページ記述言語)データを混在させて印刷する場合なども有る。その場合、スキャンされた画像データおよびPDLデータを統一的に扱う必要が有る。   In such devices, there are cases where scanned image data and PDL (page description language) data are mixed and printed. In this case, it is necessary to handle scanned image data and PDL data in a unified manner.

例えば、これら全てのデータを一旦ビットマップデータに展開して、JPEG圧縮を用いて圧縮する場合を考える。この場合、原稿の文字部やグラフィックス部には、JPEG圧縮による歪みが生じるであろう。   For example, consider a case where all these data are once expanded into bitmap data and compressed using JPEG compression. In this case, distortion due to JPEG compression will occur in the character portion and graphics portion of the document.

このような文字画像を高画質に表現する方式として、ベクトルデータによる表現方式が知られている。
特開2006−344069
As a method for expressing such a character image with high image quality, an expression method using vector data is known.
JP-A-2006-334069

本発明は、例えば、文字やその他、異なる種類の部分画像が混在した画像を効率良く符号化するために、画像の前景に相当する部分を適切に決定する技術を提供することを目的とする。   An object of the present invention is to provide a technique for appropriately determining a portion corresponding to a foreground of an image in order to efficiently encode, for example, an image in which characters and other types of partial images are mixed.

上記目的を達成するために、本発明の画像処理装置は以下を備える。即ち、画像を入力する入力手段と、前記画像のエッジを検出するエッジ検出手段と、前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段と、前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定手段とを備える。   In order to achieve the above object, an image processing apparatus of the present invention comprises: That is, an input means for inputting an image, an edge detection means for detecting an edge of the image, and by determining the continuity of the same type of image for each line of the image, the start and end points of the same type of image can be obtained. Output means for outputting packet data indicating a color; and determining means for determining that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.

本発明によれば、画像の前景に相当する部分を適切に決定できる。   According to the present invention, a portion corresponding to the foreground of an image can be determined appropriately.

以下、図面に従って本発明に係る実施例を詳細に説明する。   Embodiments according to the present invention will be described below in detail with reference to the drawings.

(第1実施例)
図1は、本発明の符号化部のブロック図である。10はスキャナで読取られた画像(スキャン画像)であり、11はPDLデータを描画した画像(PDL描画画像)である。このPDLデータはディスプレリストに変換される。
(First embodiment)
FIG. 1 is a block diagram of an encoding unit of the present invention. Reference numeral 10 denotes an image (scanned image) read by the scanner, and reference numeral 11 denotes an image (PDL drawing image) in which PDL data is drawn. This PDL data is converted into a display list.

13は領域分割部であり、14は前景圧縮部であり、15は背景圧縮部であり、12はメモリである。   13 is an area dividing unit, 14 is a foreground compression unit, 15 is a background compression unit, and 12 is a memory.

上記スキャン画像とPDLデータは、13の領域分割部において、前景と背景に分離される。   The scanned image and the PDL data are separated into a foreground and a background in 13 area division units.

前景は前景圧縮部14において、画像のベクトル化を利用した圧縮処理(前景部圧縮処理)を行う。   The foreground is subjected to compression processing using foreground vectorization (foreground portion compression processing) in the foreground compression unit 14.

背景は背景圧縮部15においてビットマップデータの圧縮(背景部圧縮処理)を行う。   For the background, the background compression unit 15 compresses the bitmap data (background portion compression processing).

これら圧縮データはそれぞれメモリ12に記録される。以下、詳細な説明を行う。   These compressed data are recorded in the memory 12, respectively. Detailed description will be given below.

スキャン画像10は、ノイズ除去部101でノイズ除去された後、ランパケット生成部102およびエッジ抽出部103に供給される。   The scan image 10 is subjected to noise removal by the noise removal unit 101 and then supplied to the run packet generation unit 102 and the edge extraction unit 103.

ランパケット生成部102は、1行毎に、同一色の画素が何個連続しているかを判定する。そしてその判定の結果、始点と終点と色の組合せで構成されるパケットデータを生成する。このパケットデータをランパケットと呼ぶこととする。終点の代わりに、連続数(ラン)の長さを記録してもよい。   The run packet generation unit 102 determines how many pixels of the same color are continuous for each row. As a result of the determination, packet data composed of a combination of the start point, end point, and color is generated. This packet data is called a run packet. Instead of the end point, the length of the continuous number (run) may be recorded.

エッジ抽出部104では、画像のエッジ部を各種のフィルター演算を用いて求める。   The edge extraction unit 104 obtains the edge portion of the image using various filter operations.

始点・終点判定部103では、ベクトル化の対象となるランパケットの候補を抽出する。具体的には、ランパケット生成部102で生成したランパケットの始点と終点の両方が、エッジ抽出部104で抽出した画像のエッジ画素に一致しているかを判定する。そして、一致している場合にはそれが前景部であると判定する。これにより、背景と思われる部分で、単に同じ色の画素が並んでランパケットが作られた箇所と、前景と思われる部分のランパケットとを分けることができる。   The start point / end point determination unit 103 extracts run packet candidates to be vectorized. Specifically, it is determined whether both the start point and end point of the run packet generated by the run packet generation unit 102 match the edge pixels of the image extracted by the edge extraction unit 104. If they match, it is determined to be the foreground part. As a result, it is possible to separate a portion where a run packet is simply formed by arranging pixels of the same color in a portion considered to be the background and a portion of the run packet considered to be the foreground.

前景・背景分離部105では、前景部以外の部分を背景とする。ここでは、原画像から前景部を抜き出し、背景の穴埋め部109でこの部分を周囲画素の平均色で埋める。   In the foreground / background separation unit 105, a part other than the foreground part is used as a background. Here, the foreground portion is extracted from the original image, and this portion is filled with the average color of surrounding pixels by the background hole filling portion 109.

ラベリング部106は、前景部のラベリングを行う処理部である。ここでは、ライン単位に入ってきたパケットデータを、前ラインとの連続性を見ることにより、画素接続している領域を1つの領域として判別する。そして、それぞれの塊に独立した番号を与えていく“ラベリング処理”を行う。   The labeling unit 106 is a processing unit that performs labeling of the foreground part. Here, the region connected to the pixel is determined as one region by observing the continuity of the packet data that has entered the line unit with the previous line. Then, “labeling processing” is performed in which an independent number is given to each block.

107は、ラベル領域毎の輪郭抽出部であり、108は、抽出した輪郭データをベジエ曲線などを用いて近似する部分である。このベジエ曲線と内部の色とを連結して、画像のベクトルデータであるとする。   Reference numeral 107 denotes an outline extraction unit for each label area, and reference numeral 108 denotes a part that approximates the extracted outline data using a Bezier curve or the like. It is assumed that the Bezier curve and the internal color are connected to form vector data of the image.

背景の穴埋め部109では、原画像から前景部を抜き出し、この部分を周囲画素の平均色で埋めた背景画像を生成する。   The background hole filling unit 109 extracts the foreground part from the original image and generates a background image in which this part is filled with the average color of surrounding pixels.

110は、背景画像をビットマップデータとして圧縮するビットマップ符号化部である。この処理部は、公知のJPEGやJPEG2000等を用いることが可能である。ここで得られた圧縮符号化データは、メモリ12に記録される。   Reference numeral 110 denotes a bitmap encoding unit that compresses a background image as bitmap data. This processing unit can use known JPEG, JPEG2000, or the like. The compression encoded data obtained here is recorded in the memory 12.

PDL描画画像11は、PDLデータをそれぞれに適した描画方法で、ビットマップデータ(ビットマップ画像)に展開したものである。なお、このPDL描画画像は、ランパケット生成部102およびエッジ抽出部104の処理の後は、スキャン画像10と同様に扱われる。   The PDL drawing image 11 is obtained by expanding PDL data into bitmap data (bitmap image) by a drawing method suitable for each. The PDL drawing image is handled in the same manner as the scan image 10 after the processing of the run packet generation unit 102 and the edge extraction unit 104.

図2は、本実施例における復号部を示す図である。   FIG. 2 is a diagram illustrating a decoding unit in the present embodiment.

12は図1と同様のメモリである。ここでは、ベクトルデータ(ベクトル化データ)とビットマップデータ(ビットマップデータを圧縮符号化したデータ)とを記録している。   Reference numeral 12 denotes a memory similar to that shown in FIG. Here, vector data (vectorized data) and bitmap data (data obtained by compression-coding bitmap data) are recorded.

前景復号部16は、メモリ12からベクトルデータを読み出し、復号(前景部復号処理)を行う。一方背景復号部17は、メモリ12から圧縮符号化されたビットマップデータを読み出し、復号(背景部復号処理)を行う。これら復号された画像データは、合成部18において合成され、表示器19で表示する。以下、各部の処理を詳細に説明する。   The foreground decoding unit 16 reads the vector data from the memory 12 and performs decoding (foreground part decoding process). On the other hand, the background decoding unit 17 reads the bitmap data compressed and encoded from the memory 12 and performs decoding (background decoding process). These decoded image data are combined in the combining unit 18 and displayed on the display 19. Hereinafter, the processing of each unit will be described in detail.

輪郭描画部201は、ベクトルデータをビットマップデータ(ビットマップ画像)の輪郭を表す輪郭データに変換する。このとき、所定の表示倍率に従って、ベクトル座標値を変換しておく。   The contour drawing unit 201 converts the vector data into contour data representing the contour of bitmap data (bitmap image). At this time, the vector coordinate value is converted in accordance with a predetermined display magnification.

中塗り部202では、指示された色で、上記輪郭の内部を塗りつぶす。この結果は前景描画部203で保持される。   The intermediate coating unit 202 fills the inside of the contour with the instructed color. This result is held in the foreground drawing unit 203.

一方、ビットマップ復号処理部204は、圧縮符号化されたビットマップデータを復号する。この結果は、背景描画部205で保持される。   On the other hand, the bitmap decoding processing unit 204 decodes the compression-coded bitmap data. This result is held in the background drawing unit 205.

ベクトルデータに基づいて描画された画像は、スムージング部206においてエッジをぼかす処理(スムージング)を行う。   The image drawn based on the vector data is subjected to a process (smoothing) for blurring edges in the smoothing unit 206.

一方、ビットマップデータは、解像度変換部207で、表示倍率のサイズに合わせて解像度変換される。   On the other hand, the resolution of the bitmap data is converted by the resolution conversion unit 207 in accordance with the display magnification size.

合成部208は、スムージング部206と解像度変換部207で得られた画像を合成する。表示部19は、この合成された画像を表示する。   A combining unit 208 combines the images obtained by the smoothing unit 206 and the resolution conversion unit 207. The display unit 19 displays the synthesized image.

図3は、文字を含む領域(文字タイル)を前景と背景に分離する一例である。
31は、入力画像であり、背景の上に文字“H”を含む画像である。
32は、文字部のみ(Hの部分のみ)を表す画像であり、これを前景と呼ぶ。
33は、前景部の輪郭(アウトライン)をベクトルデータに変換する(ベクトル化)する様子を示している。ここではラスタースキャンを行い、最初の有意画素を検出し、その部分から境界の追跡を行う。そして領域の境界を辿っていき、開始点に戻った時点で処理が完了する。
FIG. 3 shows an example in which a region (character tile) including characters is separated into a foreground and a background.
Reference numeral 31 denotes an input image, which is an image including the letter “H” on the background.
Reference numeral 32 denotes an image representing only the character portion (only the portion H), which is referred to as the foreground.
Reference numeral 33 denotes a state in which the outline (outline) of the foreground part is converted into vector data (vectorized). Here, a raster scan is performed, the first significant pixel is detected, and the boundary is traced from that portion. Then, the process is completed when the boundary of the area is traced back to the start point.

図3においては、角点の座標を記録しつつ、この間を直線で結べば、元の画像の輪郭が再現できる。また元の画像の内部色を抽出しておき、この色で塗り潰せば、原画像(“H”の色文字)が再現できることになる。図3では、直線のみで全てが構成されているが、曲線を含む場合は、公知のベジエ関数を用いた近似により表現することができる。これをアウトライン・ベクトルと呼ぶ。   In FIG. 3, the contour of the original image can be reproduced by recording the coordinates of the corner points and connecting them with straight lines. If the internal color of the original image is extracted and painted with this color, the original image ("H" color character) can be reproduced. In FIG. 3, all are composed only of straight lines, but when a curve is included, it can be expressed by approximation using a known Bezier function. This is called an outline vector.

一方、34は、入力画像から、前景が抜き取られた画像である。この状態では、本来の背景部分(“H”以外の領域)と抜き取られた画像部分(“H”の領域)の境界に、強いエッジ成分が有るため、JPEG等の圧縮に不向きである。従って、後述の処理を行う。   On the other hand, 34 is an image in which the foreground is extracted from the input image. In this state, there is a strong edge component at the boundary between the original background portion (region other than “H”) and the extracted image portion (region “H”), so that it is not suitable for compression such as JPEG. Therefore, the processing described later is performed.

35は、抜き取られた画像部分(“H”の領域)を周囲画素の平均色で埋めた状態を示す。ここで得られた画像35が後段でビットマップデータとして圧縮(JPEG圧縮)される。なお、ここで平均色を求めるための周囲画素は、予め基準を定めておけば良いが、例えば、“H”の領域に外接する周囲画素のみに基づいて平均色を求めれば良い。   Reference numeral 35 denotes a state in which the extracted image portion (“H” region) is filled with the average color of surrounding pixels. The image 35 obtained here is compressed as bitmap data (JPEG compression) at a later stage. Here, the surrounding pixels for obtaining the average color may be determined in advance. For example, the average color may be obtained based only on the surrounding pixels circumscribing the “H” region.

図4は1ライン毎のランパケットを生成する処理を示す図である。   FIG. 4 is a diagram showing a process of generating a run packet for each line.

ここでは、入力された画像をライン単位に処理していく。41が処理の対象となる処理ラインである。42が処理ラインの1ライン前(上)のラインである。43は処理済みライン(処理前ラインよりも更に前のライン)である。44が処理ラインよりも後に処理される予定の処理待ちラインである。   Here, the input image is processed in units of lines. Reference numeral 41 denotes a processing line to be processed. Reference numeral 42 denotes a line one line before (upper) the processing line. Reference numeral 43 denotes a processed line (a line further before the pre-processing line). Reference numeral 44 denotes a processing waiting line scheduled to be processed after the processing line.

まず、処理ラインに対して、ランの始点と終点である(始点45a,終点45a)(始点45b,終点46b)を検出する。   First, the start point and end point (start point 45a, end point 45a) (start point 45b, end point 46b) of the run are detected for the processing line.

次に、前ラインでの検出結果(始点45c、終点46c)(始点45d、終点46d)との接続関係を見て、1つのラベル領域かどうかを判定していくことになる。   Next, it is determined whether or not there is one label area by looking at the connection relationship with the detection results (start point 45c, end point 46c) (start point 45d, end point 46d) in the previous line.

図5は、エッジ抽出部の処理を示す図である。
51は横方向のエッジを除去する1次元フィルターであり、処理部53においてこのフィルターの出力値を絶対値に変換する。
52は縦方向のエッジを除去する1次元フィルターであり、処理部54においてこのフィルターの出力値を絶対値に変換する。
この2つの絶対値を処理部56で加算する。次に、比較器55において、加算された値としきい値57とを比較する。この比較の結果が注目画素のエッジの強度(エッジ抽出結果)となる。
FIG. 5 is a diagram illustrating processing of the edge extraction unit.
Reference numeral 51 denotes a one-dimensional filter for removing horizontal edges, and the processing unit 53 converts the output value of this filter into an absolute value.
A one-dimensional filter 52 removes vertical edges, and the processing unit 54 converts the output value of this filter into an absolute value.
The two absolute values are added by the processing unit 56. Next, the comparator 55 compares the added value with the threshold value 57. The result of this comparison is the edge strength (edge extraction result) of the target pixel.

図6にエッジ抽出結果を示す。この例では、文字の周囲の輪郭の画素のみに強いエッジ強度(エッジ抽出結果)が現れている。このエッジ抽出結果(エッジ画素)を使って、ランパケットの前景と背景の分離を行う。   FIG. 6 shows the edge extraction result. In this example, strong edge strength (edge extraction result) appears only in the contour pixels around the character. Using the edge extraction result (edge pixel), the foreground and background of the run packet are separated.

図7に、領域を分割する際の判定の一例を示す。   FIG. 7 shows an example of determination when dividing an area.

同一色の画素のランの始点と終点の両方が一致した場合は、ラベリングの対象となるランパケットデータ(前景データ)であるとして判定し、始点と終点の両方がエッジ画素でない場合は、背景データであると判定する。   If both the start and end points of the same color pixel match, it is determined that the run packet data (foreground data) is the target of labeling. If both the start and end points are not edge pixels, the background data It is determined that

図8は、ライン単位にラベリングを行う方法を示す図である。   FIG. 8 is a diagram illustrating a method of performing labeling for each line.

ラベリングの対象となるパケットデータの処理ライン81と、その1つ前のライン82の始点と終点の座標値の関係に基づいて、複数の接続関係で表せる。83は始点が接続している場合であり、84は終点が接続している場合である。これらは、同じラベル番号で処理できる。また85、86は、重なっている場合であり、これらも同一のラベル番号で処理できる。   Based on the relationship between the processing line 81 of the packet data to be labeled and the coordinate value of the start point and end point of the previous line 82, it can be expressed by a plurality of connection relationships. 83 is the case where the start point is connected, and 84 is the case where the end point is connected. These can be processed with the same label number. Reference numerals 85 and 86 denote overlapping cases, and these can also be processed with the same label number.

87は複雑なパターンの例であり、前ラインでは、3つの独立したパケットであったものが、処理ラインをみると全てが接続状態であるので、3つとも同じラベル番号で処理できる。これらは、接続関係を管理する接続関係管理テーブルを設けることにより、容易に処理できる。   87 is an example of a complicated pattern. In the previous line, three independent packets are all connected, but all three can be processed with the same label number. These can be easily processed by providing a connection relation management table for managing the connection relation.

図9に示すように、エッジリストからラベリング対象画素への変換は、始点と終点ともにエッジの画素であると判定して良いので、容易にラベリングの対象画素を生成することができる。   As shown in FIG. 9, since the conversion from the edge list to the labeling target pixel may be determined to be the edge pixel at both the start point and the end point, the labeling target pixel can be easily generated.

図10に、輪郭の追跡方法の一例を示す。   FIG. 10 shows an example of a contour tracking method.

注目している境界点を中心にして、前の境界点から反時計回りに次の境界点を探す。   The next boundary point is searched counterclockwise from the previous boundary point with the focused boundary point as the center.

すなわち、注目画素の近傍(周囲)8画素のうち、0から1の画素へ変わる画素を探す操作を行う。この処理を、処理を開始した地点に戻るまで継続して処理する。これにより、ループとして輪郭が抽出できる。   That is, an operation of searching for a pixel that changes from 0 to 1 among 8 pixels near (around) the target pixel is performed. This process is continued until returning to the point where the process is started. Thereby, an outline can be extracted as a loop.

さらに、輪郭の端点を利用して直線や曲線で近似し、近似するベクトルデータを保持することにより、ベクトル化が行われる。   Further, vectorization is performed by approximating with a straight line or a curve using the end points of the contour and holding approximate vector data.

本実施例では、ランパケットの生成条件として同一色の画素の並びということで説明したが、これに限定されない。例えば、ある範囲の変動を許容して、同一色の画素と見なす方法や、クラスタリングなどの画像処理の結果で、同じクラスの画素と判定された画素の並びをランパケットとする方法を適用しても同様の結果が得られる。   In the present embodiment, the run packet generation condition is described as the arrangement of pixels of the same color. However, the present invention is not limited to this. For example, applying a method that allows variation in a certain range to be regarded as pixels of the same color, or a method that uses a sequence of pixels determined as pixels of the same class as a result of image processing such as clustering as a run packet. Gives the same result.

本実施の形態は、画像の前景と背景を分離し、前景と背景を別々に圧縮符号化する画像処理装置において、画像を入力する入力手段(工程)と、上記画像のエッジを検出するエッジ検出手段(工程)と、上記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段(工程)と、上記始点と終点の両方が前記エッジに相当するパケットデータを、上記前景に相当するパケットデータであると決定する決定手段(工程)を備えることを特徴とする。なおこの前景は、文字部または図形部に相当する。   In this embodiment, in an image processing apparatus that separates a foreground and a background of an image and separately compresses and encodes the foreground and the background, an input means (step) for inputting an image and edge detection for detecting an edge of the image Means (step), output means (step) for outputting packet data indicating the start point, end point and color of the same type of image by determining the continuity of the same type of image for each line of the image, and the above It is characterized by comprising determination means (step) for determining that both the start point and the end point are packet data corresponding to the edge as packet data corresponding to the foreground. This foreground corresponds to a character portion or a graphic portion.

なお、上記画像処理装置を制御する制御方法や、上記制御を実行させるプログラム(コンピュータから読み取り可能な状態で記録された)、またはこのプログラムを記憶した記憶媒体なども、本発明の範疇に含まれる。   Note that a control method for controlling the image processing apparatus, a program for executing the control (recorded in a state readable by a computer), a storage medium storing the program, and the like are also included in the scope of the present invention. .

符号化処理を説明する図Diagram explaining encoding process 復号処理を説明する図Diagram explaining decryption process 前景と背景を分離する様子を示す図Diagram showing how the foreground and background are separated 1ライン毎のランパケットを生成する方法を説明する図The figure explaining the method of producing | generating the run packet for every line エッジ抽出を説明する図Diagram explaining edge extraction エッジ抽出結果を示す図Diagram showing edge extraction results 領域を分割する判定を説明する図The figure explaining the judgment which divides an area ライン単位のラベリングを説明する図Diagram explaining labeling in line units エッジリストからビットマップに変更する様子を示す図Figure showing how to change from edge list to bitmap 輪郭の追跡方法の一例を示す図The figure which shows an example of the tracking method of an outline

符号の説明Explanation of symbols

10 スキャン画像
11 PDL描画画像
13 領域分割部
14 前景圧縮処理部
15 背景圧縮処理部
DESCRIPTION OF SYMBOLS 10 Scan image 11 PDL drawing image 13 Area division part 14 Foreground compression process part 15 Background compression process part

Claims (4)

画像を入力する入力手段と、
前記画像のエッジを検出するエッジ検出手段と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力手段と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定手段とを備えることを特徴とする画像処理装置。
An input means for inputting an image;
Edge detecting means for detecting an edge of the image;
For each line of the image, output means for outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
An image processing apparatus comprising: a determination unit that determines that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.
画像を入力する入力工程と、
前記画像のエッジを検出するエッジ検出工程と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力工程と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定工程とを備えることを特徴とする制御方法。
An input process for inputting an image;
An edge detection step of detecting an edge of the image;
For each line of the image, an output step of outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
And a determination step of determining that both the start point and the end point are packet data corresponding to the edge as data corresponding to the foreground.
画像処理装置に以下の実行を行わせるプログラムであって、
画像を入力する入力工程と、
前記画像のエッジを検出するエッジ検出工程と、
前記画像の各ラインについて、同一種類の画像の連続を判定することにより、同一種類の画像の始点と終点と色を示すパケットデータを出力する出力工程と、
前記始点と終点の両方が前記エッジに相当するパケットデータを、前記前景に相当するデータであると決定する決定工程とを含む、
前記コンピュータから読み取り可能なプログラム。
A program for causing an image processing apparatus to execute the following:
An input process for inputting an image;
An edge detection step of detecting an edge of the image;
For each line of the image, an output step of outputting packet data indicating the start point, end point, and color of the same type of image by determining the continuity of the same type of image,
Determining the packet data in which both the start point and the end point correspond to the edge as data corresponding to the foreground,
A program readable from the computer.
前記請求項3に記載のプログラムをコンピュータから読み取り可能な状態で記憶した記憶媒体。   A storage medium storing the program according to claim 3 in a state readable from a computer.
JP2007042658A 2007-02-22 2007-02-22 Image processing apparatus, control method, program, and storage medium Pending JP2008206073A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007042658A JP2008206073A (en) 2007-02-22 2007-02-22 Image processing apparatus, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007042658A JP2008206073A (en) 2007-02-22 2007-02-22 Image processing apparatus, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2008206073A true JP2008206073A (en) 2008-09-04

Family

ID=39783031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007042658A Pending JP2008206073A (en) 2007-02-22 2007-02-22 Image processing apparatus, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2008206073A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011034410A (en) * 2009-08-03 2011-02-17 Canon Inc Clustering processing method, clustering processing apparatus and program
US8300939B2 (en) 2009-07-27 2012-10-30 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and program
US8472720B2 (en) 2009-07-23 2013-06-25 Canon Kabushiki Kaisha Image processing method, apparatus and program
JP2015184014A (en) * 2014-03-20 2015-10-22 株式会社イシダ Weighing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8472720B2 (en) 2009-07-23 2013-06-25 Canon Kabushiki Kaisha Image processing method, apparatus and program
US8300939B2 (en) 2009-07-27 2012-10-30 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and program
JP2011034410A (en) * 2009-08-03 2011-02-17 Canon Inc Clustering processing method, clustering processing apparatus and program
US8218881B2 (en) 2009-08-03 2012-07-10 Canon Kabushiki Kaisha Clustering processing method, clustering processing apparatus, and non-transitory computer-readable medium
JP2015184014A (en) * 2014-03-20 2015-10-22 株式会社イシダ Weighing apparatus

Similar Documents

Publication Publication Date Title
JP5132530B2 (en) Image coding apparatus, image processing apparatus, and control method thereof
JP5312166B2 (en) Image processing apparatus, control method, and program
JP2010103681A (en) Image processing device and method
US20140285824A1 (en) Image processing apparatus, image processing method and program
JP4582204B2 (en) Image processing apparatus, image conversion method, and computer program
JP5049921B2 (en) Image processing apparatus and image processing method
US8768051B2 (en) Image processing method, image processing apparatus, and computer-readable medium
JP5893379B2 (en) Image compression apparatus, image compression method, and computer program
JP4582200B2 (en) Image processing apparatus, image conversion method, and computer program
JP2008206073A (en) Image processing apparatus, control method, program, and storage medium
US8810877B2 (en) Image processing apparatus, image processing method, and storage medium for eliminating blurring of scanned image
US8274515B2 (en) Vector image generation method, image processing apparatus, and computer-readable storage medium for computer program
JP2010146218A (en) Image processing apparatus, image processing method, computer program
JP2008042345A (en) Image processing method and image processor
US8422774B2 (en) Image processing method, image processing apparatus and program storage medium
JP2007088912A (en) Image processing apparatus and program
JP2003046746A (en) Method and apparatus for processing image
JP5517028B2 (en) Image processing device
JP2001169120A (en) Method, device, and system for image processing
JP5424785B2 (en) Image processing apparatus, image processing method, and computer program
JP2005244649A (en) Image processing apparatus
JP2007174522A (en) Image processing device, image processing method, program code, and storage medium
JP6200797B2 (en) Image processing apparatus and image processing method
JP5315637B2 (en) Image processing apparatus, electronic document system, and program
JP2005018465A (en) Image processor, method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201