JPH07210669A - Image processor and its control method - Google Patents

Image processor and its control method

Info

Publication number
JPH07210669A
JPH07210669A JP6004424A JP442494A JPH07210669A JP H07210669 A JPH07210669 A JP H07210669A JP 6004424 A JP6004424 A JP 6004424A JP 442494 A JP442494 A JP 442494A JP H07210669 A JPH07210669 A JP H07210669A
Authority
JP
Japan
Prior art keywords
image
resolution
processing apparatus
unit
division
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6004424A
Other languages
Japanese (ja)
Inventor
Keita Saito
慶太 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP6004424A priority Critical patent/JPH07210669A/en
Publication of JPH07210669A publication Critical patent/JPH07210669A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PURPOSE:To obtain a satisfactory output image independently of the classification of the image even in the case where a gradation image is expanded or has the resolution increased. CONSTITUTION:When an image 101 having a low resolution is inputted, the input image is divided according to respective gradation values of the image (102), and edges are extracted from each divided image (103). Vector data is generated from edge images of gradation values (105). Extracted vectors are variably magnified based on the increase of the resolution, and the outlines are drawn (106). The insides of outlines are painted out (107), and they are finally synthesized (108).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置及びその制
御方法、詳しくは、入力した画像情報を拡大もしくは解
像度を上げて出力する場合の画像処理装置及びその制御
方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a control method therefor, and more particularly to an image processing apparatus and a control method therefor when input image information is enlarged or resolution is increased.

【0002】[0002]

【従来の技術】従来より、入力した低解像度情報を高解
像度情報に解像度変換する方法として、様々な方法が提
案されている。提案されている従来方法は、対象となる
画像の種類(例えば、各画素ごとに階調情報の持つ多値
画像、疑似中間調により2値化された2値画像、固定閾
値により2値化された2値画像、文字画像等)によっ
て、その変換処理方法が異なっている。
2. Description of the Related Art Conventionally, various methods have been proposed as a method for converting input low resolution information into high resolution information. The proposed conventional method is based on a target image type (for example, a multi-valued image having gradation information for each pixel, a binary image binarized by pseudo halftone, and a binarized by a fixed threshold). The conversion processing method differs depending on the binary image, character image, etc.).

【0003】本発明で対象としている画像は各画素ごと
に階調情報の持つ自然画像等の多値画像であるが、従来
の内挿方法は、内挿点に最も近い同じ画素値を配列する
最近接内挿方法や、内挿点(補間画素)を囲むオリジナ
ル画像の4点(4点の画素値をA,B,C,Dとする)
の距離により、以下の演算によって内挿する画素値Eを
決定する共1時内挿法等が一般的に用いられている。
The image targeted by the present invention is a multi-valued image such as a natural image having gradation information for each pixel. In the conventional interpolation method, the same pixel value closest to the interpolation point is arranged. Closest interpolation method or 4 points of the original image surrounding the interpolation points (interpolation pixels) (pixel values at 4 points are A, B, C and D)
A co-temporal interpolation method or the like is generally used that determines the pixel value E to be interpolated by the following calculation according to the distance.

【0004】 E=(1-i)・(1-j)・A+i・(1-j)・B+j・(1-i)・C+i・j・D (但し、画素間距離を1とした場合に、内挿する画素は
画素Aから横方向にi、縦方向にjの距離の位置にある
とする(従って、i≦1、j≦1)。
E = (1-i). (1-j) .A + i. (1-j) .B + j. (1-i) .C + i.j.D (however, the distance between pixels When 1 is set to 1, the pixel to be interpolated is located at a distance of i from the pixel A in the horizontal direction and j in the vertical direction (hence, i ≦ 1, j ≦ 1).

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来例には以下に示す欠点がある。
However, the above-mentioned conventional example has the following drawbacks.

【0006】内挿点に最も近い同じ画素値を配列する最
近接内挿方法は、構成が簡単であるという利点はある
が、拡大するブロックごとに画素値が決定されるため、
視覚的にブロックの存在が目立ってしまい画質的に劣悪
する。
The closest interpolating method in which the same pixel value closest to the interpolation point is arranged has the advantage that the configuration is simple, but since the pixel value is determined for each block to be enlarged,
The presence of blocks is visually conspicuous and the image quality is poor.

【0007】また、内挿点を囲む4点の距離によって計
算される共1次内挿方法は、自然画像の拡大には一般的
によく用いられている有効な手法であり、平均化され、
スムージングのかかった画質になる。しかしながら、エ
ッジ部や、シャープな画質が要求される部分には、逆に
ぼけた画質になってしまう。さらに、地図等をスキャン
して得られた画像や、文字部を含む自然画像の様な画像
の場合には、補間によるぼけのために、大切な情報が受
け手側に伝わらないという問題がある。
The co-linear interpolation method, which is calculated by the distances of four points surrounding the interpolation point, is an effective method that is generally used for enlarging a natural image and is averaged.
The image quality is smoothed. However, in the edge portion and the portion where sharp image quality is required, the image quality becomes blurred. Further, in the case of an image obtained by scanning a map or the like or an image such as a natural image including a character portion, there is a problem that important information is not transmitted to the receiver side due to blurring due to interpolation.

【0008】[0008]

【課題を解決するための手段】及び[Means for Solving the Problems] and

【作用】本発明はかかる問題点に鑑みなされたものであ
り、階調画像の拡大或は高解像度化を行なった場合であ
っても、画像の種類にかかわらず良好な出力画像を得る
ことを可能にする画像処理装置及びその制御方法を提供
しようとするものである。
The present invention has been made in view of the above problems, and it is possible to obtain a good output image regardless of the kind of the image even when the gradation image is enlarged or the resolution is increased. It is an object of the present invention to provide an image processing apparatus and a control method thereof that enable the image processing apparatus.

【0009】この課題を解決するため、本発明の画像処
理装置は以下に示す構成を備える。すなわち、画像デー
タを拡大、或は、高解像度化する画像処理装置であっ
て、入力した画像データを濃度分布に基づいて分割し、
各分割した画像毎に拡大或は高解像度化した後、それぞ
れの画像を結合して出力する。
In order to solve this problem, the image processing apparatus of the present invention has the following configuration. That is, an image processing device for enlarging or increasing the resolution of image data, in which the input image data is divided based on the density distribution,
After expanding or increasing the resolution of each divided image, the respective images are combined and output.

【0010】また、本発明の画像処理装置の制御方法は
以下に示す工程を備える。すなわち、画像データを拡
大、或は、高解像度化する画像処理装置の制御方法であ
って、入力した画像データを濃度分布に基づいて分割
し、各分割した画像毎に拡大或は高解像度化した後、そ
れぞれの画像を結合して出力する。
Further, the control method of the image processing apparatus of the present invention includes the following steps. That is, a method of controlling an image processing apparatus for enlarging or increasing the resolution of image data, in which input image data is divided based on the density distribution, and each divided image is enlarged or increased in resolution. After that, the respective images are combined and output.

【0011】[0011]

【実施例】以下、添付図面に従って本発明に係る実施例
を詳細に説明する。
Embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0012】図1は実施例における解像度変換システム
の構成の一例を示している。今回は例としてa,b,…
hの8階調における解像度変換システムの場合を示して
いるが、もちろん、階調は何階調であっても構わない。
FIG. 1 shows an example of the configuration of a resolution conversion system in the embodiment. This time, as an example, a, b, ...
The case of the resolution conversion system in 8 gradations of h is shown, but of course, the gradation may be any gradation.

【0013】図中、101は元になる低解像の多値の画
像である。102は画像分解部である。103はエッジ
抽出部である。104は代表点設定部である。105は
ベクトル情報作成部である。106は描画部である。1
07は塗りつぶし部である。108は画像結合部であ
る。
In the figure, reference numeral 101 is an original low-resolution multivalued image. 102 is an image decomposition unit. 103 is an edge extraction unit. Reference numeral 104 is a representative point setting unit. Reference numeral 105 is a vector information creation unit. Reference numeral 106 is a drawing unit. 1
Reference numeral 07 is a filled portion. Reference numeral 108 is an image combining unit.

【0014】上記構成における動作を説明すると以下の
通りである。
The operation of the above configuration will be described below.

【0015】最初に、入力される低解像の画像データ1
01が8階調の画像データであるとする(画素の値とし
て0〜7)。このとき、画面分割部102において、画
像データはa,b,…hの8段階に分割される。次にエ
ッジ抽出部103において、画面の分割部102におい
て分割された8つのプレートそれぞれに対し、エッジ部
分の抽出を行う。次にコントロール点抽出部104にお
いて、エッジ抽出部103において得られたエッジ情報
より、それぞれの辺における代表点の抽出を行う。ここ
で得られた代表点をもとに、ベクトル情報生成部105
においてベクトル化を行い、描画部106において任意
の倍率(ユーザが設定した拡大率)に拡大を行い、描画
する。
First, low resolution image data 1 to be input
It is assumed that 01 is image data of 8 gradations (pixel values 0 to 7). At this time, in the screen division unit 102, the image data is divided into eight stages of a, b, ... H. Next, the edge extraction unit 103 extracts an edge portion from each of the eight plates divided by the screen division unit 102. Next, the control point extraction unit 104 extracts a representative point on each side from the edge information obtained by the edge extraction unit 103. Based on the representative points obtained here, the vector information generation unit 105
Vectorization is performed, and the drawing unit 106 enlarges to an arbitrary magnification (enlargement ratio set by the user) and draws.

【0016】次に、描画部106において描画されたエ
ッジ部分の中を、塗りつぶし部107で、それぞれの階
調値で塗りつぶす。最後に、画像結合部で分割された各
プレーンを、一つに重ね合わせ、高解像度の多値の画像
を生成する。
Next, the inside of the edge portion drawn by the drawing unit 106 is filled with each gradation value by the filling unit 107. Finally, the planes divided by the image combination unit are superimposed on each other to generate a high-resolution multivalued image.

【0017】次に、上記各構成要素について説明する。Next, each of the above components will be described.

【0018】画像分割部102は図2のように入力され
た画像情報を各階調の情報ごとに分割する。ここでは、
簡略化のため入力画像の各濃度値の画像を、それぞれ2
値化し、階調の情報を別に持たせる。これにより、各階
調の画像は2値データとして記憶すれば良いので、メモ
リ効率を上げることが可能になる。ただし、多値の形で
情報を持っていてもよい。
The image dividing unit 102 divides the input image information as shown in FIG. 2 into each gradation information. here,
For simplification, the image of each density value of the input image is 2
It is digitized and gradation information is provided separately. Thereby, the image of each gradation may be stored as binary data, so that the memory efficiency can be improved. However, it may have information in multivalued form.

【0019】次にエッジ抽出部103では、分割された
各階調画像に対する2値画像を図3のように縦横それぞ
れに3倍に拡大を行う。ここで、3倍に拡大を行う理由
は、この例では、ドット単位でコントロール点を生成し
ているので、1ドット×1ドットの点の輪郭情報を得る
ために必要な最低の倍率であるためである。
Next, in the edge extraction unit 103, the binary image for each of the divided gradation images is enlarged three times vertically and horizontally as shown in FIG. Here, the reason for expanding to 3 times is that, in this example, since the control point is generated in dot units, it is the minimum magnification necessary to obtain the contour information of a dot of 1 dot × 1 dot. Is.

【0020】次に、図5に示すように、注目画素に対し
て上下左右の4方向の値が一致した場合(4方向一
致)、注目画素を取り除くという処理を行ない、図4の
ようにエッジ部分の抽出を行う。今回、4方向一致を用
いたのは、場合わけのパターンを減らすため(処理速度
を向上させるため)であり、これ以外に8方向一致等の
方法を用いてもよい。
Next, as shown in FIG. 5, when the values of the target pixel in the four directions of up, down, left, and right match (four-direction match), the process of removing the target pixel is performed, and the edge of Extract parts. This time, the four-direction matching is used to reduce the number of patterns in some cases (to improve the processing speed), and other methods such as eight-direction matching may be used.

【0021】次にコントロール点抽出部104は、エッ
ジ抽出部で抽出されたエッジ情報より、図6に示す3パ
ターンに分けて設定を行う。
Next, the control point extraction unit 104 sets the information in three patterns shown in FIG. 6 based on the edge information extracted by the edge extraction unit.

【0022】図6の(a)が折り返し判断され、(b)
が角部と判断され、(c)の様な部分をその他の部分と
判断する。この3つの場合わけを行い、代表点を設定し
たのが図7である(各パターンの特徴となる点位置は、
各パターン毎に予め決められているものとしている)。
図7において白くなっている部分が代表点とされたとこ
ろである。尚、図6(a)及び同(c)の折れ紛った一
部は、同図(b)と同じであるが、これらの相違は折れ
曲がった後、数ドット以上連続するかどうかで判断する
ものとする。この場合の閾値となるドット数は、入力さ
れる画像の解像度等に依存するので、これらの判断基準
は適宜設定することが可能になっている。また、図6に
示した各パターンは、それぞれが回転された場合を含め
て考慮しており、必ずしも図示の方向(例えば図6
(a)では右方向に突出或は陥没していること)のみ意
味するものではない。
6 (a) is judged to be folded back, and (b) is shown.
Is determined to be a corner portion, and the portion like (c) is determined to be the other portion. FIG. 7 shows that the representative points are set by performing these three cases (the point positions that are the features of each pattern are
It is assumed to be predetermined for each pattern).
The white portion in FIG. 7 is the representative point. 6A and 6C are the same as those in FIG. 6B, the difference between them is determined by whether several dots or more are continuous after being bent. I shall. Since the number of dots serving as the threshold value in this case depends on the resolution of the input image and the like, it is possible to appropriately set these determination criteria. In addition, the respective patterns shown in FIG. 6 are considered including the case where each pattern is rotated, and are not necessarily shown in the illustrated direction (for example, FIG.
In (a), it does not mean only that it protrudes or is depressed to the right.

【0023】ベクトル情報作成部105では、出力解像
度の画像を作成するため、代表点情報を変倍する(勿
論、既に3倍していることを加味する)。
The vector information creating section 105 scales the representative point information in order to create an image of output resolution (of course, taking into account that it has already been tripled).

【0024】描画部106では、変倍された代表点をシ
ョートベクトルで結び、これにより出力画像の輪郭線が
生成される。
In the drawing unit 106, the scaled representative points are connected by a short vector, and thereby the contour line of the output image is generated.

【0025】塗りつぶし部107では、描画部106で
得られた輪郭線内部を塗りつぶすことにより出力する解
像度の滑らかな画像が作成される。
The filling section 107 fills the inside of the outline obtained by the drawing section 106 to create an image with a smooth resolution to be output.

【0026】以上の102から107の作業を、分割さ
れた画像ごとに行い、画像結合部108で結合(論理
和)することにより解像、出力する解像度の多値画像が
得られる。
By performing the above steps 102 to 107 for each of the divided images and combining (logical sum) by the image combining unit 108, a multi-valued image having a resolution to be resolved and output can be obtained.

【0027】以上、図1に基づく動作を説明した。望ま
しくは、図1に示すように、画像分割〜塗り潰しにかか
る処理は、各階調値毎に並列して処理することが望まし
いが、各処理を順次行う例として図15に装置(或はシ
ステム)の具体的な構成を示す。
The operation based on FIG. 1 has been described above. Desirably, as shown in FIG. 1, it is desirable to perform the image division-filling processing in parallel for each gradation value, but as an example of sequentially performing each processing, the apparatus (or system) shown in FIG. 15 is used. The specific configuration of is shown.

【0028】図15において、1は本装置全体の制御を
司るCPU、2はCPU1を後述する処理部として機能
させるためのプログラムを記憶しているROM、3はC
PU1のワークエリア等に使用するRAM、4はハード
ディスク装置等の外部記憶装置である。5は例えば20
0dpi程度で原稿画像を読み取るイメージスキャナで
あり、6はイメージスキャナ5から出力されてきた画像
データをデジタルデータに変換し(例えば8階調)、装
置本体に取りこむ為のスキャナイI/Fである。7は画
像データを記憶する画像メモリであり、8はプリンタI
/F、9はイメージデータを入力して画像を記録するプ
リンタである。尚、このプリンタは600dpiの解像
度(スキャナの3倍の解像度)を持ったレーザビームプ
リンタとし、説明を簡単にするため8階調の画像を記録
することができるものとする。レーザビームプリンタで
多階調画像を記録する技術としては公知のPWM(パル
ス幅変調)方式を採用しているものとし、ここでのこれ
以上の説明は省略する。
In FIG. 15, 1 is a CPU that controls the entire apparatus, 2 is a ROM that stores a program for causing the CPU 1 to function as a processing unit described later, and 3 is a C
RAM 4 used for the work area of PU 1 and the like is an external storage device such as a hard disk device. 5 is 20
Reference numeral 6 denotes an image scanner for reading a document image at about 0 dpi, and reference numeral 6 denotes a scanner I / F for converting image data output from the image scanner 5 into digital data (for example, 8 gradations) and incorporating it into the apparatus main body. Reference numeral 7 is an image memory for storing image data, and 8 is a printer I.
Reference characters / F and 9 are printers for inputting image data and recording images. Note that this printer is a laser beam printer having a resolution of 600 dpi (three times the resolution of a scanner), and for the sake of simplicity, it is possible to record an image of 8 gradations. It is assumed that a well-known PWM (pulse width modulation) method is adopted as a technique for recording a multi-gradation image with a laser beam printer, and a description thereof will be omitted here.

【0029】図15の動作説明を図16のフローチャー
トに従って説明する。尚、同フローチャートに基づくプ
ログラムはROM2に格納されているものである。
The operation of FIG. 15 will be described with reference to the flowchart of FIG. The program based on the flowchart is stored in the ROM 2.

【0030】さて、ステップS1において、イメージス
キャナ5から階調画像を入力し、それを画像メモリ7に
縦、横3倍して一旦格納する。ここで、入力画像は8階
調としているので、1画素当たり3ビットとして格納さ
れる。次いで、変数n(RAM3に予め確保されてい
る)を“0”をセットする。次いで、ステップS3に進
んで、変数nを“1”だけインクメントとし、ステップ
S4で全ての階調値のベクトル抽出が完了したかどうか
を判断する。
In step S1, a gradation image is input from the image scanner 5, and the image is temporarily stored in the image memory 7 after being vertically and horizontally tripled. Here, since the input image has 8 gradations, it is stored as 3 bits per pixel. Next, the variable n (preserved in the RAM 3) is set to "0". Next, in step S3, the variable n is incremented by "1", and it is determined in step S4 whether vector extraction of all gradation values has been completed.

【0031】未完であると判断した場合には、ステップ
S5に進んで、画像メモリ7内の階調値n(最初にこの
ステップに処理を実行する場合には“1”)の画像を分
離し、ステップS6でその分離した階調値nの画像のエ
ッジを先に説明した4方向一致処理を行うことで抽出す
る。尚、実際は、画像メモリ7内に格納されてる画像デ
ータ中の階調値nの画素のみに注目してエッジ部分を抽
出すれば良いので、必ずしも分離抽出する必要はない。
When it is determined that the image is incomplete, the process proceeds to step S5, and the image having the gradation value n ("1" when the process is first executed in this step) in the image memory 7 is separated. In step S6, the edges of the separated image of the gradation value n are extracted by performing the four-direction matching process described above. Actually, it is not necessary to separate and extract the edge portion because it is sufficient to focus only on the pixel of the gradation value n in the image data stored in the image memory 7 to extract the edge portion.

【0032】次にステップS7に進んで、各パターンを
当てはめ、特徴点を選び出し、ベクトルデータを抽出
し、外部記憶装置4にその抽出したデータをファイル形
式で格納する。外部記憶装置4にファイルとして格納す
るのは、コストパフォーマンスの点で外部記憶装置4の
方が有利であるからである。ただし、メモリに余裕があ
る場合や入力画像サイズが小さい場合には、速度の点で
メモリチップを積極的に使用する方が良い。また、この
とき、画像メモリ7には階調値nのエッジ部分が残って
いるので、この部分を削除する。そして、その後、次の
階調値のベクトル抽出のために、ステップS3に戻るこ
とになる。従って、ステップS4の判断が“Yes”に
なったということは、画像メモリ7内は“0”で初期化
されることを意味する。
Next, in step S7, each pattern is fitted, feature points are selected, vector data is extracted, and the extracted data is stored in the external storage device 4 in a file format. The reason why the external storage device 4 is stored as a file is that the external storage device 4 is more advantageous in terms of cost performance. However, if the memory has a margin or the input image size is small, it is better to positively use the memory chip in terms of speed. At this time, since the edge portion having the gradation value n remains in the image memory 7, this portion is deleted. Then, thereafter, the process returns to step S3 to extract the vector of the next gradation value. Therefore, the determination of step S4 being "Yes" means that the image memory 7 is initialized to "0".

【0033】こうして、全ての階調値に対するベクトル
データの抽出が終わると、処理はステップS8に進み、
変数nを再度“0”で初期化し、ステップS9でその値
を“1”だけインクメントとする。
When the extraction of the vector data for all gradation values is completed in this way, the process proceeds to step S8,
The variable n is initialized again with "0", and its value is incremented by "1" in step S9.

【0034】ステップS10では、全ての階調値の画像
の描画が完了したかどうかを変数nの値をもとにして判
断する。未完であると判断した場合には、以下のステッ
プS11、S12の処理を行う。ステップS11では、
外部記憶装置4に記憶されている階調値nのファイルか
らベクトルデータを順に取り出し、それを入力画像の解
像度と出力画像の解像度に基づいて変倍し、画像メモリ
7に描画する。ただし、本実施例では、入力画像の解像
度が200dpi,出力画像(プリンタ10)の出力解
像度が600dpiであり、ベクトル抽出時点で既に縦
横に3倍処理しているので、変倍処理は行なわない。こ
の描画が全て済むと、処理はステップS12に進んで、
描画した輪郭の内部を階調値nで塗り潰す。この後、処
理はステップS9に戻って、処理対象である次の階調値
nの描画を行う。
In step S10, it is determined based on the value of the variable n whether or not the drawing of images of all gradation values has been completed. When it is determined that the processing is not completed, the following steps S11 and S12 are performed. In step S11,
Vector data is sequentially taken out from the file of the gradation value n stored in the external storage device 4, scaled based on the resolution of the input image and the resolution of the output image, and drawn in the image memory 7. However, in this embodiment, the resolution of the input image is 200 dpi, the output resolution of the output image (printer 10) is 600 dpi, and the scaling processing is not performed because the vertical and horizontal triple processing has already been performed at the time of vector extraction. When this drawing is completed, the process proceeds to step S12,
The inside of the drawn contour is filled with a gradation value n. After that, the process returns to step S9 to draw the next gradation value n to be processed.

【0035】こうして、全ての階調値の描画処理が済む
と、画像メモリ7には、全ての階調の画像が展開されて
いることになるので、ステップS13でその内容を順次
プリンタ9に出力する。
In this way, when the drawing processing of all the gradation values is completed, since the images of all the gradations have been developed in the image memory 7, the contents are sequentially output to the printer 9 in step S13. To do.

【0036】以上の結果、本実施例によれば、多値の画
像やカラー画像も2値の画像のように解像度変換するこ
とが可能となり、入力装置の解像度に依存することなく
出力することが可能となる。
As a result, according to the present embodiment, it is possible to convert the resolution of a multi-valued image or a color image like a binary image, and output without depending on the resolution of the input device. It will be possible.

【0037】尚、上記実施例では低解像度画像データを
それより高い解像度の画像データに変換する例を説明し
たが、これによって本願発明が限定されるものではな
い。例えば、入力画像及び出力画像の解像度が同じであ
って、入力画像を拡大処理する場合にもまったく同じ処
理で実現できるからである。
In the above embodiment, an example of converting low resolution image data into image data of higher resolution has been described, but the present invention is not limited to this. This is because, for example, the resolutions of the input image and the output image are the same, and even when the input image is enlarged, the same processing can be implemented.

【0038】また、図15に示すごとく、実施例の装置
は、複写機に適応できるが、同時にイメージスキャナや
プリンタを備えたシステムにも適応できるし、入力画像
がスキャナからの読み取り画像でも、フロッピーディス
クに納められた画像であっても、或は回線を介して受信
した画像であっても良く、出力対象としてはプリンタ、
表示装置、回線(相手先端末に送信するための回線)で
あっても良いのは勿論である。
Further, as shown in FIG. 15, the apparatus of the embodiment can be applied to a copying machine, but at the same time, it can be applied to a system including an image scanner and a printer, and even if an input image is a read image from a scanner, a floppy disk is used. It may be an image stored on a disk or an image received via a line, and the output target is a printer,
It goes without saying that it may be a display device or a line (a line for transmitting to a destination terminal).

【0039】<他の実施例の説明>次に本発明にかかる
他の実施例を説明する。
<Description of Other Embodiments> Next, other embodiments of the present invention will be described.

【0040】[第2の実施例]図10は実施例2の全体
図である。図中、1001は低解像度の多値の画像であ
り、1002は画像分割部、1003はエッジ抽出部、
1004は代表点設定部、1005はベクトル情報作成
部、1006は描画部、1007は塗りつぶし部、10
08は画像結合部である。
[Second Embodiment] FIG. 10 is an overall view of the second embodiment. In the figure, 1001 is a low-resolution multivalued image, 1002 is an image dividing unit, 1003 is an edge extracting unit,
Reference numeral 1004 is a representative point setting unit, 1005 is a vector information creating unit, 1006 is a drawing unit, 1007 is a filling unit, 10
Reference numeral 08 is an image combining unit.

【0041】今回は入力画像として、0x10,0x3
0,0x50,0x70,0x90,0xb0,0xd
0,0xf0(“0x”は16進数を示している)の8
階調の画像であるとする。ここでは8階調における超解
像変換システムの場合を示しているが、勿論、階調は何
階調であっても構わない。
This time, as input images, 0x10, 0x3
0,0x50,0x70,0x90,0xb0,0xd
8 of 0,0xf0 (“0x” indicates a hexadecimal number)
It is assumed that the image has gradation. Here, the case of the super-resolution conversion system with 8 gradations is shown, but of course, the gradation may be any gradation.

【0042】本第2の実施例では、画像分割部1002
において、入力された低解像度の多値画像を上記第1の
実施例のように階調値の情報だけを切り出し分割するの
ではなく、取り出したい階調値以下の情報を切り出す。
すなわち、0x00〜0x10,0x00〜0x30,
0x00〜0x50,0x00〜0x70,0x00〜
0x90,0x00〜0xb0,0x00〜0xd0,
0x00〜0xf0の8つになる。以下にこの分割方法
の特徴を図を用いて説明する。
In the second embodiment, the image division unit 1002
In (1), the input low-resolution multi-valued image is not divided by dividing only the gradation value information as in the first embodiment, but is cut out as information below the gradation value to be extracted.
That is, 0x00-0x10, 0x00-0x30,
0x00-0x50, 0x00-0x70, 0x00-
0x90, 0x00-0xb0, 0x00-0xd0,
There are eight numbers from 0x00 to 0xf0. The features of this dividing method will be described below with reference to the drawings.

【0043】図11の1101は低解像度の画像情報で
ある。この様な画像の場合、第1の実施例の分割方法を
用いて2値化した時に1102,1103の画像とな
り、輪郭情報を取り出すと1104,1105の画像と
なる。
Reference numeral 1101 in FIG. 11 is low resolution image information. In the case of such an image, the images 1102 and 1103 are obtained when binarized by using the division method of the first embodiment, and the images 1104 and 1105 are obtained when the contour information is extracted.

【0044】一方、本第2の実施例の分割方法を用いる
と、2値化した時に1106,1107の画像となり、
輪郭情報を取り出すと1108,1109の画像とな
る。
On the other hand, when the division method of the second embodiment is used, when binarized, the images 1106 and 1107 are obtained,
When the contour information is extracted, the images 1108 and 1109 are obtained.

【0045】第1の実施例の分割方法を用いた場合、1
104の内側の輪郭と1105の輪郭は同じ輪郭であり
ながらそれぞれベクトル化を行う必要があるが、実施例
2の分割方法ではその必要がない。このため、ベクトル
抽出に係る複雑な処理の占める割合が軽減し、結果とし
て実行時間の短縮が行える。ただし、描画処理では、例
えば、n階調の画像描画を行う際、既に描画されている
n−1階調画図の上になる部分には“1”を足し込むよ
うにする。
When the dividing method of the first embodiment is used, 1
Although the inner contour of 104 and the contour of 1105 have the same contour, vectorization needs to be performed respectively, but the division method of the second embodiment does not require this. Therefore, the ratio of the complicated processing related to vector extraction is reduced, and as a result, the execution time can be shortened. However, in the drawing process, for example, when drawing an image of n gradations, "1" is added to the portion which is on the already drawn n-1 gradation image.

【0046】また、今回用いられている輪郭情報生成法
では1104の内側の輪郭と1105の輪郭は別のエッ
ジ情報より生成されるため、第1の実施例の分割方法を
用いるとベクトル化を行った時にエッジ部分がズレてし
まうということが発生してしまうが、この分割方法を用
いることによって、エッジ部分は常に同じ輪郭情報より
生成されるためズレが起こらなくなる。
Further, in the contour information generation method used this time, since the inner contour of 1104 and the contour of 1105 are generated from different edge information, vectorization is performed by using the division method of the first embodiment. When this occurs, the edge portion may be displaced, but by using this division method, the edge portion is always generated from the same contour information, so that the displacement does not occur.

【0047】[実施例3]図12は第3の実施例の全体
図である。図中の1201は低解像度の多値の入力画
像、1202は画像分割部、1203はエッジ抽出部、
1204は代表点設定部、1205はベクトル情報生成
部、1206は描画部、1207は塗りつぶし部、12
08は画像結合部、1209は画像分割検出部である。
[Third Embodiment] FIG. 12 is an overall view of the third embodiment. In the figure, 1201 is a low-resolution multivalued input image, 1202 is an image dividing unit, 1203 is an edge extracting unit,
1204 is a representative point setting unit, 1205 is a vector information generation unit, 1206 is a drawing unit, 1207 is a painting unit, and 12 is a drawing unit.
Reference numeral 08 is an image combining unit, and 1209 is an image division detecting unit.

【0048】本第3の実施例は、第2の実施例のシステ
ムを、階調値が解っていない、階調値が画像が入力され
る場合にも対応できるように改良した装置である。
The third embodiment is an apparatus in which the system of the second embodiment is improved so that it can be applied to the case where an image is inputted with a gradation value whose gradation value is unknown.

【0049】ここでは、例として5階調の画像を挙げ
る。入力画像1201の入力があると、画像分割値検出
部1209は入力されてきた低解像度の画像データに基
づき、その濃度の頻度を求める。この結果、例えば図1
3のようは分布図を得ることが可能になる。
Here, as an example, an image of 5 gradations is taken. When the input image 1201 is input, the image division value detection unit 1209 calculates the frequency of the density based on the input low resolution image data. As a result, for example, FIG.
As shown in 3, it is possible to obtain a distribution map.

【0050】この後、図13のように階調値に対する入
力頻度を調べる。そこで、存在していると判断された階
調値がいくつかある場合、各階調値の中間値(ピークの
中央の値)を計算し、分割するための閾値とする。この
方法を用いることにより、図13のように、各階調値が
1つの値でなく、左右に広がってしまっている場合でも
解像度変換を行うことが可能である。
After that, as shown in FIG. 13, the input frequency for the gradation value is checked. Therefore, when there are some gradation values determined to be present, an intermediate value (value at the center of the peak) of each gradation value is calculated and used as a threshold for division. By using this method, resolution conversion can be performed even when each gradation value is not a single value but spreads to the left and right as shown in FIG.

【0051】以上の結果、入力された画像について階調
の情報を持っている必要がなく、任意の画像を解像度変
換することが可能である。
As a result of the above, it is not necessary to have gradation information for the input image, and it is possible to convert the resolution of any image.

【0052】[第4の実施例]図14は第4の実施例の
全体図である。図中の1401は低解像度のカラー入力
画像、1402は画像分割部、1403はエッジ抽出
部、1404は代表点設定部、1405はベクトル情報
生成部、1406は描画部、1407は塗りつぶし部、
1408は画像結合部、1409は画像分割値検出部、
1410はYUV分割部、1411は高解像度のカラー
出力画像、1412はYUV結合部である。
[Fourth Embodiment] FIG. 14 is an overall view of the fourth embodiment. In the figure, 1401 is a low-resolution color input image, 1402 is an image dividing unit, 1403 is an edge extracting unit, 1404 is a representative point setting unit, 1405 is a vector information generating unit, 1406 is a drawing unit, 1407 is a filling unit, and
1408 is an image combining unit, 1409 is an image division value detecting unit,
Reference numeral 1410 is a YUV dividing unit, 1411 is a high resolution color output image, and 1412 is a YUV combining unit.

【0053】第4の実施例は第3の実施例をカラー画像
に応用した例である。第3の実施例の画像分割値検出1
402の前に、カラー画像をY,U,Vに分解すること
によって、3つの多値の画像となる。ここでは、色空間
としてYUV空間を用いたが、勿論RGB空間や、その
他の色空間であっても構わない。また、色の階調値がす
でに解っている時は、第1の実施例の分割方法を用いて
も構わない。尚、上記第2〜第4の実施例は、上記第1
の実施例で説明したように、複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良い。また、本発明は、システム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
The fourth embodiment is an example in which the third embodiment is applied to a color image. Image division value detection 1 of the third embodiment
Prior to 402, the color image is decomposed into Y, U and V into three multi-valued images. Here, the YUV space is used as the color space, but of course, the RGB space or another color space may be used. Further, when the color gradation value is already known, the division method of the first embodiment may be used. The second to fourth embodiments are the same as the first embodiment.
As described in the above embodiment, the invention may be applied to a system including a plurality of devices or an apparatus including one device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0054】[0054]

【発明の効果】以上説明したように本発明によれば、階
調画像の拡大或は高解像度化を行なった場合であって
も、画像の種類にかかわらず良好な出力画像を得ること
が可能になる。
As described above, according to the present invention, it is possible to obtain a good output image regardless of the type of the image even when the gradation image is enlarged or the resolution is increased. become.

【0055】[0055]

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例における画像処理装置の全体図であ
る。
FIG. 1 is an overall view of an image processing apparatus in this embodiment.

【図2】本実施例における階調分割の1例である。FIG. 2 is an example of gradation division in the present embodiment.

【図3】本実施例における画像拡大の1例である。FIG. 3 is an example of image enlargement in the present embodiment.

【図4】本実施例におけるエッジを抽出の1例である。FIG. 4 is an example of edge extraction in the present embodiment.

【図5】本実施例におけるエッジ抽出で使用しているパ
ターンである。
FIG. 5 is a pattern used in edge extraction in this embodiment.

【図6】本実施例における代表点設定で使用しているパ
ターンである。
FIG. 6 is a pattern used for setting representative points in the present embodiment.

【図7】本実施例における代表点を設定の1例である。FIG. 7 is an example of setting representative points in the present embodiment.

【図8】本実施例における輪郭線生成の1例である。FIG. 8 is an example of contour line generation in the present embodiment.

【図9】本実施例における塗りつぶしの1例である。FIG. 9 is an example of painting in this embodiment.

【図10】実施例2における画像処理装置の全体図であ
る。
FIG. 10 is an overall diagram of an image processing apparatus according to a second embodiment.

【図11】実施例2における分割法を比較している図で
ある。
FIG. 11 is a diagram comparing the division methods in the second embodiment.

【図12】実施例3における画像処理装置の全体図であ
る。
FIG. 12 is an overall diagram of an image processing apparatus according to a third embodiment.

【図13】実施例3における入力された各階調値が広が
っている画像の1例である。
FIG. 13 is an example of an image in which each input gradation value is widened in the third embodiment.

【図14】実施例4における画像処理装置の全体図であ
る。
FIG. 14 is an overall diagram of an image processing apparatus according to a fourth embodiment.

【図15】第1の実施例における具体的な装置への適応
した場合のブロック構成図である。
FIG. 15 is a block configuration diagram in the case of being applied to a specific device in the first embodiment.

【図16】図15の動作を説明するためのフローチャー
トである。
16 is a flowchart for explaining the operation of FIG.

【符号の説明】[Explanation of symbols]

101 低解像度の多値の入力画像 102 画像分割部 103 エッジ抽出部 104 代表点設定部 105 ベクトル情報生成部 106 描画部 107 塗りつぶし部 108 高解像度の多値の出力画像 1209 画像分割値検出部 1410 YUV分割部 1412 YUV結合部。 101 low-resolution multi-valued input image 102 image division unit 103 edge extraction unit 104 representative point setting unit 105 vector information generation unit 106 drawing unit 107 filling unit 108 high-resolution multi-valued output image 1209 image division value detection unit 1410 YUV Split part 1412 YUV coupling part.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/387 101 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 1/387 101

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 画像データを拡大、或は、高解像度化す
る画像処理装置であって、 入力した画像データを濃度分布に基づいて分割し、各分
割した画像毎に拡大或は高解像度化した後、それぞれの
画像を結合して出力することを特徴とする画像処理装
置。
1. An image processing apparatus for enlarging or increasing the resolution of image data, wherein input image data is divided based on a density distribution, and each divided image is enlarged or increased in resolution. After that, the image processing apparatus is characterized by combining and outputting the respective images.
【請求項2】 濃度分布に基づく分割は、画素の濃度値
を基準として分割することを特徴とする請求項第1項に
記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the division based on the density distribution is performed based on the density value of the pixel.
【請求項3】 濃度分布に基づく分割は、画素の濃度値
の分布に基づき、分割する場合の閾値を推測し、当該推
測した閾値に従って入力した画像を分割することを特徴
とする請求項第1項に記載の画像処理装置。
3. The division based on the density distribution is such that a threshold for division is estimated based on the distribution of density values of pixels, and the input image is divided according to the estimated threshold. The image processing device according to item.
【請求項4】 入力した画像を分割する以前に、所定の
色空間で入力画像を分離する分離手段を備え、該手段で
分離された各色成分のそれぞれの画像データに対して前
記分割を行うことを請求項第1項に記載の画像処理装
置。
4. Before the input image is divided, a separating means for separating the input image in a predetermined color space is provided, and the dividing is performed for each image data of each color component separated by the means. The image processing apparatus according to claim 1.
【請求項5】 画像データを拡大、或は、高解像度化す
る画像処理装置の制御方法であって、 入力した画像データを濃度分布に基づいて分割し、各分
割した画像毎に拡大或は高解像度化した後、それぞれの
画像を結合して出力することを特徴とする画像処理装置
の制御方法。
5. A method of controlling an image processing apparatus for enlarging or increasing the resolution of image data, comprising dividing input image data based on a density distribution, and enlarging or increasing each divided image. A method for controlling an image processing apparatus, comprising: combining the images and outputting them after resolution conversion.
【請求項6】 濃度分布に基づく分割は、画素の濃度値
を基準として分割することを特徴とする請求項第5項に
記載の画像処理装置の制御方法。
6. The method of controlling an image processing apparatus according to claim 5, wherein the division based on the density distribution is performed by using the density value of the pixel as a reference.
【請求項7】 濃度分布に基づく分割は、画素の濃度値
の分布に基づき、分割する場合の閾値を推測し、当該推
測した閾値に従って入力した画像を分割することを特徴
とする請求項第5項に記載の画像処理装置の制御方法。
7. The division based on the density distribution is such that a threshold for division is estimated based on the distribution of density values of pixels and the input image is divided according to the estimated threshold. A method for controlling an image processing apparatus according to item.
【請求項8】 入力した画像を分割する以前に、所定の
色空間で入力画像を分離する工程を備え、該工程で分離
された各色成分のそれぞれの画像データに対して前記分
割を行うことを請求項第5項に記載の画像処理装置の制
御方法。
8. A method for separating an input image in a predetermined color space before dividing the input image, wherein the division is performed for each image data of each color component separated in the step. The control method of the image processing apparatus according to claim 5.
JP6004424A 1994-01-20 1994-01-20 Image processor and its control method Withdrawn JPH07210669A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6004424A JPH07210669A (en) 1994-01-20 1994-01-20 Image processor and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6004424A JPH07210669A (en) 1994-01-20 1994-01-20 Image processor and its control method

Publications (1)

Publication Number Publication Date
JPH07210669A true JPH07210669A (en) 1995-08-11

Family

ID=11583886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6004424A Withdrawn JPH07210669A (en) 1994-01-20 1994-01-20 Image processor and its control method

Country Status (1)

Country Link
JP (1) JPH07210669A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289136B1 (en) 1995-03-22 2001-09-11 Canon Kabushiki Kaisha Image processing method and apparatus
US7003176B1 (en) 1999-05-06 2006-02-21 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
WO2011099644A1 (en) * 2010-02-11 2011-08-18 Sharp Kabushiki Kaisha Image processor, display device, and image processing method
CN110751703A (en) * 2019-10-22 2020-02-04 广东智媒云图科技股份有限公司 Winding picture generation method, device, equipment and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289136B1 (en) 1995-03-22 2001-09-11 Canon Kabushiki Kaisha Image processing method and apparatus
US7003176B1 (en) 1999-05-06 2006-02-21 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
US7583859B2 (en) 1999-05-06 2009-09-01 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
WO2011099644A1 (en) * 2010-02-11 2011-08-18 Sharp Kabushiki Kaisha Image processor, display device, and image processing method
JP2013519905A (en) * 2010-02-11 2013-05-30 シャープ株式会社 Image processing apparatus, display apparatus, and image processing method
CN110751703A (en) * 2019-10-22 2020-02-04 广东智媒云图科技股份有限公司 Winding picture generation method, device, equipment and storage medium
CN110751703B (en) * 2019-10-22 2023-05-16 广东智媒云图科技股份有限公司 Winding picture generation method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
US5737455A (en) Antialiasing with grey masking techniques
US6058248A (en) Computerized method for improving data resolution
JP3176195B2 (en) Image processing device
JPH06105160A (en) Image controller
US6289136B1 (en) Image processing method and apparatus
US5539866A (en) Method and apparatus for accurately rendering half-bitted image pixels
JP2967011B2 (en) Image processing method and apparatus
JPH11195113A (en) Image processor, its method and computer-readable storage medium
JP3026706B2 (en) Image processing device
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
JPH07210669A (en) Image processor and its control method
JP3262425B2 (en) Image processing device
JP4164215B2 (en) Image processing method, apparatus, and recording medium
JPH07334648A (en) Method and device for processing image
JP3624153B2 (en) Image processing apparatus and image processing method
JP2001283212A (en) Method of base interpolation by vector transformation
JP3750396B2 (en) Image processing device
JP3624013B2 (en) Image processing method and apparatus
JP4115073B2 (en) Image processing apparatus and image processing method
JPH08251397A (en) Method and device for image processing
JP3054338B2 (en) Image processing apparatus and method
JPH06348834A (en) Image processing device
JPH0744701A (en) Picture processor
JPH10126609A (en) Image processor
JPH07262351A (en) Image processor and control method for the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010403