JPH0793563A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0793563A
JPH0793563A JP5234696A JP23469693A JPH0793563A JP H0793563 A JPH0793563 A JP H0793563A JP 5234696 A JP5234696 A JP 5234696A JP 23469693 A JP23469693 A JP 23469693A JP H0793563 A JPH0793563 A JP H0793563A
Authority
JP
Japan
Prior art keywords
edge
information
color
image
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5234696A
Other languages
Japanese (ja)
Inventor
Keita Saito
慶太 斉藤
Nobutaka Miyake
信孝 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5234696A priority Critical patent/JPH0793563A/en
Publication of JPH0793563A publication Critical patent/JPH0793563A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide an image processor converting color image information of low resolution into image information of high resolution without blurring an edge and image quality. CONSTITUTION:Inputted color space is converted into color space which is capable of resolving luminance and color difference components by a RGB-YUV convertion circuit 1, the edge information of the color difference components is prepared based on the edge information of the luminance components in a color difference edge preparation part 3, the edge preparation of the only luminance components is performed in a luminance edge preparation part 2, the edge is converted into the original color space in a YUV-RGB conversion circuit 4 and the space is outputted. Therefore, the color image information of low resolution can be converted into the information of high resolution without blurring an edge part and image quality. Further, the color slippage due to the deviation of the edge preparation in each color is eliminated and excellent high resolution can be prepared.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置に関し、例
えば、入力したカラーの画像情報を拡大変倍して出力す
るカラープリンタ等の画像出力装置や、解像度の異なる
機種間通信において低解像度情報から高解像度情報に解
像度変換する際に有効な画像処理装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, for example, an image output apparatus such as a color printer for enlarging and scaling input color image information and outputting the low resolution information in communication between models having different resolutions. The present invention relates to an image processing apparatus which is effective in converting resolution from to high resolution information.

【0002】[0002]

【従来の技術】従来より、入力された低解像度情報を高
解像度情報に解像度変換する方法として、様々な方法が
提案されている。提案されている従来方法は、対象とな
る画像の種類(例えば、各画素ごとに階調情報の持つ多
値画像、疑似中間調により2値化された2値画像、固定
閾値により2値化された2値画像、文字画像等)によっ
てその変換処理方法が異なっている。
2. Description of the Related Art Conventionally, various methods have been proposed as a method of converting input low resolution information into high resolution information. The proposed conventional method is based on a target image type (for example, a multi-valued image having gradation information for each pixel, a binary image binarized by pseudo halftone, and a binarized by a fixed threshold). The conversion processing method differs depending on the binary image, character image, etc.).

【0003】各画素ごとに階調情報の持つ自然画像等の
多値画像を主な対象にした従来の内挿方法は、図6に示
すような、内挿点に最も近い同じ画素値を配列する最近
接内挿方法や、図7に示すような、内挿点を囲む4点
(4点の画素値をA,B,C,Dとする)の距離によ
り、以下の演算によって画素値Eを決定する共1時内挿
方法などが一般的に用いられている。
A conventional interpolation method, which mainly targets a multivalued image such as a natural image having gradation information for each pixel, arranges the same pixel value closest to the interpolation point as shown in FIG. Depending on the closest interpolating method and the distance of four points surrounding the interpolation point (pixel values of four points are A, B, C, and D) as shown in FIG. 7, the pixel value E is calculated by the following calculation. A co-temporal interpolation method for determining is generally used.

【0004】E=(1−i)(1−j)A+i・(1−
j)B+j・(1−i)C+ijD (但し、画素間距離を1とした場合に、Aから横方向に
i、縦方向にjの距離があるとする。(i≦1、j≦
1))
E = (1-i) (1-j) A + i. (1-
j) B + j · (1-i) C + ijD (However, when the inter-pixel distance is 1, it is assumed that there is a distance of i from A in the horizontal direction and j in the vertical direction. (i ≦ 1, j ≦
1))

【0005】[0005]

【発明が解決しようとする課題】しかし、上記従来例に
は、以下に示す欠点がある。内挿点にもっとも近い同じ
画素値を配列する最近内挿方法は、構成が簡単であると
いう利点はあるが、対象画像を自然等に用いた場合には
拡大するブロックごとに画素値が決定されるため、視覚
的にブロックが目立ってしまい画質的に劣悪である。
However, the above-mentioned conventional example has the following drawbacks. The recent interpolation method of arranging the same pixel value closest to the interpolation point has the advantage that the configuration is simple, but when the target image is naturally used, the pixel value is determined for each block to be enlarged. Therefore, the blocks are visually conspicuous and the image quality is poor.

【0006】次に内挿点を囲む4点の距離によって計算
されると共に1次内挿方法は、自然画像の拡大には一般
的に良く用いられている方法であるのだが、この方法で
は画質が平均化され、スムージングのかかった画質にな
るが、エッジ部や、シャープな画質が要求される部分に
は、ぼけた画質になってしまう。さらに、地図等をスキ
ャンした画像や、文字部を含む自然画像の様な場合に
は、補間によるぼけの為に大切な情報が受け手に伝わら
ないこともある。
Next, the linear interpolation method, which is calculated by the distances of four points surrounding the interpolation point, is a method that is generally used for enlarging a natural image. Is averaged and the image quality is smoothed, but the image quality is blurred at the edge part and the part where sharp image quality is required. Further, in the case of an image obtained by scanning a map or a natural image including a character portion, important information may not be transmitted to the recipient due to blurring due to interpolation.

【0007】[0007]

【課題を解決するための手段】本発明は上述の課題を解
決することを目的としてなされたもので、上述の課題を
解決する一手段として以下の構成を備える。即ち、入力
画像情報の色空間を輝度と色差成分に分解できる色空間
に変換する第1の変換手段と、該第1の変換手段での変
換色空間において輝度成分のエッジ情報を基に色差成分
のエッジ情報を作成するエッジ情報作成手段とを備え、
入力画像情報のエッジを推測作成する。
The present invention has been made for the purpose of solving the above-mentioned problems, and has the following structure as one means for solving the above-mentioned problems. That is, the first conversion means for converting the color space of the input image information into a color space capable of being decomposed into luminance and color difference components, and the color difference component based on the edge information of the luminance component in the converted color space by the first conversion means. Edge information creating means for creating edge information of
Guess the edges of the input image information.

【0008】[0008]

【作用】以上の構成において、低解像度のカラー画像情
報をエッジ部や画質をぼやけたものとせずに高解像度情
報に変換することができる。このため、例えば高解像度
の出力装置への出力や、解像度が異なる機種間通信にお
いて、出力する装置における解像度で出力することが可
能となる。
With the above arrangement, the low-resolution color image information can be converted into the high-resolution information without blurring the edges or the image quality. Therefore, for example, it is possible to output to a high-resolution output device or to perform communication between models having different resolutions at the resolution of the output device.

【0009】さらに、各色でのエッジ作成時のずれによ
る色ずれを解消し、良好な高解像度画像を作成すること
ができる。
Further, it is possible to eliminate the color misregistration due to the misregistration at the time of edge creation for each color, and to create a good high resolution image.

【0010】[0010]

【実施例】以下、図面を参照して本発明に係る一実施例
を詳細に説明する。 [第1の実施例]本発明の画像処理装置は、主としてカ
ラープリンタ等の画像出力装置内部に具備することが効
果的であるが、画像出力装置以外の画像処理装置、ホス
トコンピュータ内のアプリケーションソフトとして内蔵
することも可能である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described in detail below with reference to the drawings. [First Embodiment] The image processing apparatus of the present invention is effectively provided mainly in an image output apparatus such as a color printer, but image processing apparatuses other than the image output apparatus and application software in the host computer are effective. It is also possible to build in.

【0011】図1は本発明に係る一実施例の構成を表わ
す全体図である。図中1は第1の色変換手段であるRG
B−YUV変換回路であり、入力色空間よりもより冗長
度を減らした色空間、特に、輝度、色差に分解した色空
間への変換を行なう。即ち、入力画像情報の色空間を輝
度と色差成分に分解できる色空間に変換する。例えば、
入力したR(レッド),G(グリーン),B(ブルー)
の信号から、他の色空間、例えばY(輝度),U,V
(色差)の空間に変換する。このRGB−YUV変換回
路第1は演算によるものでも良いし、ROM(リードオ
ンリーメモリ)を利用したLUT(ルックアップテーブ
ル)でも良い。
FIG. 1 is an overall view showing the configuration of an embodiment according to the present invention. Reference numeral 1 in the figure is RG which is a first color conversion means.
This is a B-YUV conversion circuit, which performs conversion into a color space with less redundancy than the input color space, particularly a color space decomposed into luminance and color difference. That is, the color space of the input image information is converted into a color space that can be decomposed into luminance and color difference components. For example,
Input R (red), G (green), B (blue)
Signal from another color space, for example, Y (luminance), U, V
Convert to (color difference) space. The RGB-YUV conversion circuit first may be based on calculation or may be a LUT (look-up table) using a ROM (read only memory).

【0012】2は変換した色空間のうち最も視覚的に影
響の大きい色成分、例えば、輝度、色差に分解した場合
におけるY(輝度)プレーンよりエッジを作成する輝度
エッジ作成部、3は輝度エッジ作成部2で得られた輝度
成分のエッジ部の情報を基に、他の成分(色差成分)の
エッジ部を作成する色差エッジ作成部、4は第2の色変
換手段であるYUV−RGB変換回路であり、RGB−
YUV変換回路1で変化した色空間を入力した色空間へ
変換する。例えばYUV色空間よりRGB色空間へ変換
する回路である。
Reference numeral 2 is a brightness edge creating unit for creating an edge from a Y (brightness) plane when the color components having the largest visual influence in the converted color space, for example, brightness and color difference, are created. A color difference edge creation unit that creates an edge part of another component (color difference component) based on the information of the edge part of the luminance component obtained by the creation unit 2 and YUV-RGB conversion that is a second color conversion unit. Circuit, RGB-
The color space changed by the YUV conversion circuit 1 is converted into the input color space. For example, it is a circuit for converting from the YUV color space to the RGB color space.

【0013】次に、以上の構成を備える本実施例の動作
手順を説明する。RGB−YUV変換回路1にRGBの
カラー画像情報が入力されると、RGB−YUV変換回
路1において、入力画像をYUVの色空間の情報に変換
する。次に輝度エッジ作成部2にて変換されたYUV画
像情報の内、Yプレーンの画像情報を基に解像度方向の
エッジを作成する。次に、色差エッジ作成部3が輝度エ
ッジ作成部2にて作成されたエッジ情報を基にして、
U,Vの画像情報のエッジを作成する。輝度エッジ作成
部2及び色差エッジ作成部3で作成されたYUVの画像
情報は、YUV−RGB変換回路4によって入力色空間
であるRGBの画像情報に変換される。
Next, the operation procedure of this embodiment having the above configuration will be described. When RGB color image information is input to the RGB-YUV conversion circuit 1, the RGB-YUV conversion circuit 1 converts the input image into YUV color space information. Next, of the YUV image information converted by the luminance edge creation unit 2, an edge in the resolution direction is created based on the image information of the Y plane. Next, based on the edge information created by the luminance edge creation unit 2, the color difference edge creation unit 3
Create edges of U and V image information. The YUV image information created by the luminance edge creation unit 2 and the color difference edge creation unit 3 is converted by the YUV-RGB conversion circuit 4 into RGB image information that is the input color space.

【0014】次に図2を用いて輝度エッジ作成部2につ
いての説明を行なう。図2において、破線で囲んだ部分
が輝度エッジ作成部に相当する。図2中5は入力される
低解像度情報を示しており、6はこの低解像度情報の入
力端子である。入力端子6を介して入力した輝度成分情
報は、線形補間手段7に送信される。この線形補間手段
7で線形補間された情報の例を図3に示す。図3におい
て、実線は各低解像度画素を中心としたブロック境界を
示し、太線で囲まれた部分が注目画素Eに対するブロッ
クとなる。また、〇印は低解像度情報の画素を、X印は
補間画素を示している。線形補間手段7で線形補間され
た情報は2値化手段10に送られる。
Next, the luminance edge creating section 2 will be described with reference to FIG. In FIG. 2, the portion surrounded by the broken line corresponds to the luminance edge creating unit. Reference numeral 5 in FIG. 2 indicates low resolution information to be input, and 6 is an input terminal for this low resolution information. The luminance component information input via the input terminal 6 is transmitted to the linear interpolation means 7. An example of the information linearly interpolated by the linear interpolation means 7 is shown in FIG. In FIG. 3, a solid line indicates a block boundary centered on each low resolution pixel, and a portion surrounded by a thick line is a block for the target pixel E. Further, ◯ marks indicate pixels of low resolution information, and X marks indicate interpolation pixels. The information linearly interpolated by the linear interpolation means 7 is sent to the binarization means 10.

【0015】また、入力端子6から入力した低解像度情
報はMAX・MIN検出手段8にも送られ、ここでウイ
ンドウ内の最大値及び最小値が検出される。検出された
最大値(MAX)、及び最小値(MIN)は閾値決定手
段9に送信され、2値に量子化される閾値が決定され
る。本実施例では閾値(TH)を以下の式により決定し
ている。
Further, the low resolution information input from the input terminal 6 is also sent to the MAX / MIN detecting means 8 where the maximum value and the minimum value in the window are detected. The detected maximum value (MAX) and minimum value (MIN) are transmitted to the threshold value determining means 9, and the threshold value quantized into two values is determined. In this embodiment, the threshold value (TH) is determined by the following formula.

【0016】[0016]

【数1】TH=(MAX+MIN)/2 閾値決定手段9で決定された閾値情報と、MAX・MI
N検出手段8で検出された最大値(MAX)、及び最小
値(MIN)は2値化手段10に送信される。2値化手
段10は、線形補間手段7により線形補間の施された注
目画素Eを中心とするブロックの補間情報を、閾値決定
手段9で決定された閾値(TH)に従って2値化する。
2値化手段10では2値化閾値よりも大きな補間画素に
は最大値を割り当て、小さい補間画素には最小値を割り
当てる。この2値化処理がエッジの作成に相当する。
[Mathematical formula-see original document] TH = (MAX + MIN) / 2 The threshold information determined by the threshold determination means 9 and MAX.MI.
The maximum value (MAX) and the minimum value (MIN) detected by the N detection means 8 are transmitted to the binarization means 10. The binarization unit 10 binarizes the interpolation information of the block centered on the target pixel E, which has been linearly interpolated by the linear interpolation unit 7, according to the threshold value (TH) determined by the threshold value determination unit 9.
The binarizing means 10 assigns the maximum value to the interpolation pixels larger than the binarization threshold and assigns the minimum value to the small interpolation pixels. This binarization process corresponds to the creation of an edge.

【0017】2値化手段10で2値化されたY成分のエ
ッジビットマップ情報は13に示した様なブロックの情
報であり、図1の色差エッジ作成部3への出力端子14
に出力され、色差エッジ作成部3に出力される。色差エ
ッジ作成部3は、この輝度エッジ作成部2より伝えられ
た2値化されたY成分のエッジビットマップ情報を基に
U,Vにおけるエッジの作成を行なう。
The edge bitmap information of the Y component binarized by the binarizing means 10 is the information of the block as shown in 13, and the output terminal 14 to the color difference edge creating section 3 of FIG.
Is output to the color difference edge creating unit 3. The color difference edge creating unit 3 creates edges in U and V based on the binarized Y component edge bitmap information transmitted from the luminance edge creating unit 2.

【0018】図2に示す11は出力端子を示し、12に
示した様な2値化代表値「MAX」及び「MIN」で割
り当てたブロックのY成分情報が出力される。次に図1
に示す色差エッジ作成部3について図4を用いて説明を
行なう。図4において、破線で囲んだ部分が色差エッジ
作成部に相当する。図4中15は入力される低解像度情
報を示しており、16はこの低解像度情報の入力端子で
ある。入力端子16を介して入力した色差成分情報は、
線形補間手段17に送信される。この線形補間手段17
で線形補間された情報は上述した輝度エッジ作成部2と
同様例えば図3に示す様になる。線形補間手段17で線
形補間された情報は誤差判定手段22に送られる。
Reference numeral 11 shown in FIG. 2 denotes an output terminal, and Y component information of the block allocated by the binarized representative values "MAX" and "MIN" as shown in 12 is output. Next in FIG.
The color difference edge creation unit 3 shown in FIG. 4 will be described with reference to FIG. In FIG. 4, the portion surrounded by the broken line corresponds to the color difference edge creation unit. Reference numeral 15 in FIG. 4 indicates low resolution information to be input, and 16 is an input terminal for this low resolution information. The color difference component information input via the input terminal 16 is
It is transmitted to the linear interpolation means 17. This linear interpolation means 17
The information linearly interpolated in (1) is, for example, as shown in FIG. The information linearly interpolated by the linear interpolation means 17 is sent to the error determination means 22.

【0019】また、入力端子16から入力した低解像度
情報はMAX・MIN検出手段18にも送られ、ここで
ウインドウ内の最大値及び最小値が検出される。検出さ
れた最大値(MAX)、及び最小値(MIN)はMAX
・MIN配置手段21に送信され、19のY成分エッジ
ビットマップ情報入力端子より入力されたY成分エッジ
ビットマップを基に、最大値(MAX)、及び最小値
(MIN)を配置する。この時、Y成分エッジビットマ
ップの値が「1」の位置に最大値を、「0」の位置に最
小値を入れるブロックのパターンと、その逆の2つのパ
ターンを作成する。作成されたパターンは、誤差判定手
段22に送られる。誤差判定手段22は、線形補間手段
17において線形補間されたデータとMAX・MIN配
置手段21で作られた2つのブロックのパターンの誤差
をそれぞれ算出し、誤差の少ない方のブロックのパター
ンを選択する。
The low resolution information input from the input terminal 16 is also sent to the MAX / MIN detecting means 18, where the maximum and minimum values in the window are detected. The maximum value (MAX) and minimum value (MIN) detected are MAX
The maximum value (MAX) and the minimum value (MIN) are arranged based on the Y component edge bit map transmitted to the MIN arranging means 21 and input from the 19 Y component edge bit map information input terminals. At this time, a pattern of a block in which the maximum value is placed at the position where the Y component edge bitmap value is "1" and a minimum value is placed in the position where it is "0", and two patterns opposite thereto are created. The created pattern is sent to the error determination means 22. The error determining unit 22 calculates the error between the data linearly interpolated by the linear interpolating unit 17 and the pattern of the two blocks created by the MAX / MIN arranging unit 21, and selects the pattern of the block with the smaller error. .

【0020】23は色差情報の出力端子で、24に示し
た様なMAX,MINを割り当てたブロックの情報が出
力される。以上の様にしてエッジを作成したY,U,V
のそれぞれの画像情報を、出力端子23を介してYUV
−RGB変換回路4に送り、元のRGBの画像に変換す
ることによって拡大変倍された画像情報となる。
Reference numeral 23 is an output terminal for color difference information, and the information of the block to which MAX and MIN are assigned as shown in 24 is output. Y, U, V whose edges are created as described above
Image information of each of the YUV through the output terminal 23
-The image information is sent to the RGB conversion circuit 4 to be converted into the original RGB image, and the image information is magnified and scaled.

【0021】以上説明した様に本実施例によれば、低解
像度のカラー画像情報をエッジ部や画質をぼやけたもの
とせずに高解像度情報に変換することができる。このた
め、例えば高解像度の出力装置への出力や、解像度が異
なる機種間通信において、出力する装置における解像度
で出力することが可能となる。さらに、各色でのエッジ
作成時のずれによる色ずれを解消し、良好な高解像度画
像を作成することができる。
As described above, according to this embodiment, it is possible to convert low-resolution color image information into high-resolution information without blurring the edges or the image quality. Therefore, for example, it is possible to output to a high-resolution output device or to perform communication between models having different resolutions at the resolution of the output device. Further, it is possible to eliminate the color misregistration due to the misregistration at the time of edge creation for each color, and to create a good high resolution image.

【0022】[第2実施例]次に、本発明に係る第2実
施例を説明する。図5は本発明に係る第2実施例の構成
を示す全体図である。図5において、25はRGB−Y
UV変換回路、26はYプレーンの画像情報よりエッジ
部を作成する輝度エッジ作成部、27はU,Vの画像情
報より線形補間を行なう線形補間回路、28はYUV−
RGB変換回路である。
[Second Embodiment] Next, a second embodiment according to the present invention will be described. FIG. 5 is an overall view showing the configuration of the second embodiment according to the present invention. In FIG. 5, 25 is RGB-Y
A UV conversion circuit, 26 is a luminance edge creation unit that creates an edge portion from Y plane image information, 27 is a linear interpolation circuit that performs linear interpolation from U and V image information, and 28 is YUV-.
It is an RGB conversion circuit.

【0023】以上の第2実施例において、上述した図1
に示す第1の実施例と異なっている点は、図1に示す第
1の実施例ではYプレーンによって作成されたエッジ情
報を基にU,Vプレーンにおけるエッジ情報を作成して
いたのであるが、第2実施例においてはU,Vプレーン
に関してはエッジの作成を行なわずに単に線形補間を行
なっている点である。
In the second embodiment described above, FIG.
1 is different from the first embodiment shown in FIG. 1 in that in the first embodiment shown in FIG. 1, the edge information in the U and V planes is created based on the edge information created in the Y plane. In the second embodiment, the U and V planes are simply linearly interpolated without creating edges.

【0024】これは、カラーの画像情報をYUVに分解
した時に、エッジ等の視覚的に重要な情報が主にYプレ
ーンに依存しており、U,Vプレーンにはほとんど依存
していないためである。この方法をとることによって、
第1の実施例よりも、回路全体が簡略化することがで
き、かつ第1の実施例と略同様の効果を得ることができ
る。
This is because when color image information is decomposed into YUV, visually important information such as edges mainly depends on the Y plane, and hardly depends on the U and V planes. is there. By taking this method,
The entire circuit can be simplified as compared with the first embodiment, and substantially the same effect as that of the first embodiment can be obtained.

【0025】以上に説明した各実施例においては、輝
度、色差に分解した色空間をY,U,Vを例にして説明
したが、他の輝度、色差分解色空間でも良いことは勿論
である。また、入出力色空間もRGBを例にして説明し
たが、本発明はRGBに限定されるものではない。ま
た、輝度エッジ作成手段も(MAX+MIN)/2によ
り閾値THによる2値化を説明したが、他の方法でも良
いことは、勿論である。
In each of the embodiments described above, the color space separated into luminance and color difference was described by taking Y, U and V as an example, but it goes without saying that other luminance and color difference separated color spaces may be used. . Further, although the input / output color space has been described by taking RGB as an example, the present invention is not limited to RGB. Further, the luminance edge creating means has also been described as being binarized by the threshold value TH by (MAX + MIN) / 2, but it goes without saying that another method may be used.

【0026】尚、本発明は、複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良い。また、本発明は、システム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0027】[0027]

【発明の効果】以上説明したように本発明によれば、入
力色空間を輝度並びに色差成分に分解できる色空間に変
換し、輝度成分のエッジ情報を基に色差成分のエッジ情
報を作成し、または輝度成分のみのエッジ作成を行なう
ことにより、低解像度のカラー画像情報を、エッジ部や
画質をぼやけたものとせずに、高解像度情報に変換する
ことが行なえるので、高解像度の出力装置への出力や、
解像度が異なる機種間通信において、大切な情報を、出
力する装置における解像度で出力することが可能とな
る。
As described above, according to the present invention, an input color space is converted into a color space that can be decomposed into luminance and color difference components, and edge information of color difference components is created based on edge information of luminance components. Alternatively, by creating an edge of only the luminance component, it is possible to convert low-resolution color image information to high-resolution information without blurring the edge part and image quality, and thus to a high-resolution output device. Output of
In communication between models having different resolutions, important information can be output at the resolution of the output device.

【0028】さらに、各色でのエッジ作成時のずれによ
る色ずれを解消し、良好な高解像度を作成することがで
きる。
Further, it is possible to eliminate the color misregistration due to the misregistration at the time of edge creation for each color, and to create a good high resolution.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施例におけるカラー画像解像
度変換システムの構成を示す図である。
FIG. 1 is a diagram showing a configuration of a color image resolution conversion system in an embodiment according to the present invention.

【図2】本実施例における図1に示す輝度エッジ作成部
の詳細構成を示す図である。
FIG. 2 is a diagram showing a detailed configuration of a luminance edge creation unit shown in FIG. 1 in the present embodiment.

【図3】本実施例における線形補間されたデータの構造
を示す図である。
FIG. 3 is a diagram showing a structure of linearly interpolated data in the present embodiment.

【図4】本実施例における図1に示す色差エッジ作成部
の詳細構成を示す図である。
FIG. 4 is a diagram showing a detailed configuration of a color difference edge creation unit shown in FIG. 1 in the present embodiment.

【図5】本発明に係る第2実施例におけるカラー画像解
像度変換システムの構成を示す図である。
FIG. 5 is a diagram showing a configuration of a color image resolution conversion system in a second embodiment according to the present invention.

【図6】従来の内挿方法を説明する図である。FIG. 6 is a diagram illustrating a conventional interpolation method.

【図7】従来の共1次内挿方を説明する図である。FIG. 7 is a diagram illustrating a conventional bi-linear interpolation method.

【符号の説明】[Explanation of symbols]

1,25 RGB,YUV変換回路 2,26 輝度エッジ作成部 3,27 色差エッジ作成部 4,28 YUV−RGB変換回路 5 低解像度情報 6 低解像情報入力端子 7 線形補間回路 8 MAX,MIN検出回路 9 閾値決定回路 10 2値化回路 11 輝度出力端子 12 輝度ブロック情報 13 Y成分エッジビットマップ情報 14 Y成分エッジビットマップ出力端子 15 低解像情報 16 低解像情報入力端子 17 線形補間回路 18 MAX,MIN検出回路 19 Y成分エッジビットマップ入力端子 20 Y成分エッジビットマップ情報 21 MAX,MIN配置回路 22 誤差判定回路 23 色差情報出力端子 24 色差ブロック情報 1,25 RGB, YUV conversion circuit 2,26 Luminance edge creation unit 3,27 Color difference edge creation unit 4,28 YUV-RGB conversion circuit 5 Low resolution information 6 Low resolution information input terminal 7 Linear interpolation circuit 8 MAX, MIN detection Circuit 9 Threshold value determination circuit 10 Binarization circuit 11 Luminance output terminal 12 Luminance block information 13 Y component edge bitmap information 14 Y component edge bitmap output terminal 15 Low resolution information 16 Low resolution information input terminal 17 Linear interpolation circuit 18 MAX, MIN detection circuit 19 Y component edge bitmap input terminal 20 Y component edge bitmap information 21 MAX, MIN arrangement circuit 22 error determination circuit 23 color difference information output terminal 24 color difference block information

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/409 8420−5L G06F 15/66 355 C 4226−5C H04N 1/40 101 D ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Office reference number FI Technical display location H04N 1/409 8420-5L G06F 15/66 355 C 4226-5C H04N 1/40 101 D

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 入力画像情報の色空間を輝度と色差成分
に分解できる色空間に変換する第1の変換手段と、 該第1の変換手段での変換色空間において輝度成分のエ
ッジ情報を基に色差成分のエッジ情報を作成するエッジ
情報作成手段とを備え、 入力画像情報のエッジを推測作成することを特徴とする
画像処理装置。
1. A first conversion means for converting a color space of input image information into a color space capable of being decomposed into a luminance and a color difference component, and based on edge information of a luminance component in the converted color space by the first conversion means. And an edge information creating means for creating edge information of the color difference component, and speculatively creates an edge of the input image information.
【請求項2】 エッジ情報作成手段は、輝度成分のみの
エッジ作成を行なうことを特徴とする請求項1記載の画
像処理装置。
2. The image processing apparatus according to claim 1, wherein the edge information creating means creates an edge of only the luminance component.
【請求項3】 更にエッジ情報作成手段でエッジを推測
作成した画像情報の色空間を入力画像の色空間に変換す
る第2の変換手段を備えることを特徴とする請求項1又
は2のいずれかに記載の画像処理装置。
3. The method according to claim 1, further comprising second conversion means for converting the color space of the image information in which the edges are estimated and created by the edge information creating means into the color space of the input image. The image processing device according to item 1.
JP5234696A 1993-09-21 1993-09-21 Image processor Withdrawn JPH0793563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5234696A JPH0793563A (en) 1993-09-21 1993-09-21 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5234696A JPH0793563A (en) 1993-09-21 1993-09-21 Image processor

Publications (1)

Publication Number Publication Date
JPH0793563A true JPH0793563A (en) 1995-04-07

Family

ID=16974982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5234696A Withdrawn JPH0793563A (en) 1993-09-21 1993-09-21 Image processor

Country Status (1)

Country Link
JP (1) JPH0793563A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1530375A2 (en) * 2003-11-06 2005-05-11 OmniVision Technologies, Inc. Lens correction using processed yuv data
US7003176B1 (en) 1999-05-06 2006-02-21 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
SG126753A1 (en) * 1999-09-16 2006-11-29 Silverbrook Res Pty Ltd Method and apparatus for changing the resolution of a bayer image
JP2008304805A (en) * 2007-06-08 2008-12-18 Canon Inc Image processing apparatus and method
US7595826B2 (en) * 1997-01-08 2009-09-29 Ricoh Company, Ltd. Method a system for improving resolution in color image data generated by a color image sensor
CN109934783A (en) * 2019-03-04 2019-06-25 天翼爱音乐文化科技有限公司 Image processing method, device, computer equipment and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7595826B2 (en) * 1997-01-08 2009-09-29 Ricoh Company, Ltd. Method a system for improving resolution in color image data generated by a color image sensor
US7003176B1 (en) 1999-05-06 2006-02-21 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
US7583859B2 (en) 1999-05-06 2009-09-01 Ricoh Company, Ltd. Method, computer readable medium and apparatus for converting color image resolution
SG126753A1 (en) * 1999-09-16 2006-11-29 Silverbrook Res Pty Ltd Method and apparatus for changing the resolution of a bayer image
EP1530375A2 (en) * 2003-11-06 2005-05-11 OmniVision Technologies, Inc. Lens correction using processed yuv data
EP1530375A3 (en) * 2003-11-06 2008-03-26 OmniVision Technologies, Inc. Lens correction using processed yuv data
JP2008304805A (en) * 2007-06-08 2008-12-18 Canon Inc Image processing apparatus and method
CN109934783A (en) * 2019-03-04 2019-06-25 天翼爱音乐文化科技有限公司 Image processing method, device, computer equipment and storage medium
CN109934783B (en) * 2019-03-04 2021-05-07 天翼爱音乐文化科技有限公司 Image processing method, image processing device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
US6389163B1 (en) Method and apparatus for automatic image segmentation using template matching filters
US6535221B1 (en) Image enhancement method and apparatus for internet printing
EP0803842B1 (en) Binary image forming device
US6137918A (en) Memory efficient method and apparatus to enable tagging of thin antialiased lines
JPH0750752A (en) Method and device for converting picture density
JP3176195B2 (en) Image processing device
US6144461A (en) Method for generating rendering tags to facilitate the printing of antialiased images
EP1171868A1 (en) Improving image display quality by adaptive subpixel rendering
US6034700A (en) Efficient run-based anti-aliasing
US20010048771A1 (en) Image processing method and system for interpolation of resolution
US20040218835A1 (en) Method and circuit for scaling raster images
US6999621B2 (en) Text discrimination method and related apparatus
JPH0793563A (en) Image processor
JPS6156665B2 (en)
US20030112255A1 (en) Method to upscale single-pixel wide text without loss of image sharpness
JP2851724B2 (en) Image processing device
JP3073381B2 (en) Image processing method and apparatus
JP3336046B2 (en) Image area separation device
AU720754B2 (en) A method of smoothing bitmapped characters
JPH01312671A (en) Picture processor
JP3564216B2 (en) Image processing device
JP2972171B2 (en) Halftone area detection method
JPH08251397A (en) Method and device for image processing
JP2978363B2 (en) Halftone image estimation device
JPH08297739A (en) Picture processor and method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001128