JP2000013607A - Image processing utilizing gradation processing - Google Patents

Image processing utilizing gradation processing

Info

Publication number
JP2000013607A
JP2000013607A JP10196761A JP19676198A JP2000013607A JP 2000013607 A JP2000013607 A JP 2000013607A JP 10196761 A JP10196761 A JP 10196761A JP 19676198 A JP19676198 A JP 19676198A JP 2000013607 A JP2000013607 A JP 2000013607A
Authority
JP
Japan
Prior art keywords
image
contour
processing
blur
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10196761A
Other languages
Japanese (ja)
Inventor
Toshiyuki Otsubo
敏之 大坪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP10196761A priority Critical patent/JP2000013607A/en
Publication of JP2000013607A publication Critical patent/JP2000013607A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To relieve the definition deterioration of the entire image at the time of performing gradation processing of the image. SOLUTION: An outline map which separates an outline region that includes an outline included in a processing object image and expands around the outline from non-outline region and shows them is produced by processing the processing object image. And, 1st gradation processing whose gradation intensity is relatively high is preformed to an image part in the non-outline region according to the outline map and also 2nd gradation processing whose gradation intensity is relatively low is performed to an image part in the outline region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、コンピュータを
用いてボカシ処理を利用した画像処理を行う技術に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for performing image processing using a blurring process using a computer.

【0002】[0002]

【従来の技術】被写体の動きが速いシーンや、暗いシー
ンでの撮影には高感度フィルムを利用することが多い。
しかし、高感度フィルムで撮影された写真は、一般に画
像が「粗い」という性質がある。(画像の粗さは、「粒
状性」とも呼ばれている。)特に、高感度フィルムで撮
影された写真画像を拡大すると、粒状性が目立ってしま
うことがある。
2. Description of the Related Art A high-sensitivity film is often used for photographing a scene in which a subject moves fast or a dark scene.
However, photographs taken with high-sensitivity film generally have the property that the image is “coarse”. (The roughness of an image is also called “granularity.”) In particular, when a photographic image taken with a high-sensitivity film is enlarged, the granularity may become conspicuous.

【0003】[0003]

【発明が解決しようとする課題】従来は、写真画像の粒
状性を緩和するために、画像全体に一律にボカシ処理を
行うことがあった。ここで、ボカシ処理とは、平均化フ
ィルタなどを用いて画像をぼかす処理である。しかし、
画像全体に一律にボカシ処理を行うと、画像内の輪郭
(被写体の輪郭)もぼけてしまい、画像全体の鮮鋭度が
劣化してしまうという問題があった。
Heretofore, in order to reduce the graininess of a photographic image, there has been a case where the entire image is uniformly processed. Here, the blurring process is a process of blurring an image using an averaging filter or the like. But,
If the blurring process is performed uniformly on the entire image, the contour in the image (the contour of the subject) is also blurred, and the sharpness of the entire image is degraded.

【0004】このような問題は、印刷紙上に印刷されて
いる網点画像をスキャナで読取り、読み取られた画像に
関してボカシ処理を行う際にも同様に発生する問題であ
った。なお、この場合のボカシ処理は、スキャナで読取
られた画像に含まれるロゼットパターン(亀甲模様)を
除去するために行われるものである。
[0004] Such a problem similarly occurs when a halftone image printed on a printing paper is read by a scanner and a blurring process is performed on the read image. The blurring process in this case is performed to remove a rosette pattern (turtle pattern) included in an image read by the scanner.

【0005】この発明は、従来技術における上述の課題
を解決するためになされたものであり、画像にボカシ処
理を行う際に、画像全体の鮮鋭度の劣化を緩和すること
のできる技術を提供することを目的とする。
The present invention has been made to solve the above-mentioned problems in the prior art, and provides a technique capable of mitigating deterioration in sharpness of the entire image when performing blurring processing on the image. The purpose is to:

【0006】[0006]

【課題を解決するための手段及びその作用・効果】上述
の課題の少なくとも一部を解決するため、本発明の画像
処理方法は、コンピュータを用いて処理対象画像を処理
する方法であって、(a)前記処理対象画像を処理する
ことによって、前記処理対象画像内に含まれる輪郭を含
み前記輪郭の周囲に広がる輪郭領域と、前記輪郭領域以
外の領域である非輪郭領域と、を区分して示す輪郭マッ
プを作成する工程と、(b)前記輪郭マップに従って、
前記処理対象画像内の前記非輪郭領域の画像部分に対し
ては比較的ボカシ強度が高い第1のボカシ処理を行うと
ともに、前記処理対象画像内の前記輪郭領域の画像部分
に対しては比較的ボカシ強度が低い第2のボカシ処理を
行う工程と、を備える。
In order to solve at least a part of the above problems, an image processing method according to the present invention is a method for processing an image to be processed using a computer. a) By processing the processing target image, a contour region including a contour included in the processing target image and extending around the contour is separated from a non-contour region which is a region other than the contour region. Creating a contour map to be shown; and (b) according to the contour map,
The first blur processing having relatively high blur intensity is performed on the image portion of the non-contour area in the processing target image, and the first blur processing is performed relatively on the image part of the contour area in the processing target image. Performing a second blurring process with low blurring strength.

【0007】この画像処理方法では、非輪郭領域には比
較的強いボカシ処理を行い、輪郭領域には比較的弱いボ
カシ処理を行うので、処理対象画像の全体の鮮鋭度が劣
化することを緩和することができる。すなわち、画像全
体の鮮鋭度の劣化を緩和しつつ、粒状性やロゼットパタ
ーン(亀甲模様)を低減することができる。
In this image processing method, relatively strong blur processing is performed on a non-contour area, and relatively weak blur processing is performed on a contour area, so that the overall sharpness of an image to be processed is prevented from deteriorating. be able to. That is, it is possible to reduce the granularity and the rosette pattern (the turtle pattern) while alleviating the deterioration of the sharpness of the entire image.

【0008】なお、上記画像処理方法において、さら
に、(c)前記工程(b)によって得られたボカシ処理
済み画像に対して鮮鋭度強調処理を行う工程、を備える
ようにしてもよい。
The above-mentioned image processing method may further comprise a step (c) of performing a sharpness enhancement process on the blurred image obtained in the step (b).

【0009】こうすれば、ボカシ処理によって劣化した
画像全体の鮮鋭度を向上させることができる。
This makes it possible to improve the sharpness of the entire image deteriorated by the blurring process.

【0010】なお、前記工程(a)は、前記処理対象画
像に第1の平均化フィルタを適用することによって第1
の平均化画像を作成する処理と、前記処理対象画像の画
素値と前記第1の平均化画像の画素値との差分を取るこ
とによって、前記第1の差分画素値を求める処理と、前
記第1の差分画素値を所定のしきい値で2値化すること
によって、前記輪郭マップを作成する処理と、を実質的
に含むようにしてもよい。
The step (a) is performed by applying a first averaging filter to the image to be processed.
A process of generating an averaged image of the image, a process of obtaining the first difference pixel value by taking a difference between a pixel value of the image to be processed and a pixel value of the first averaged image, A process of creating the contour map by binarizing one difference pixel value with a predetermined threshold value may be substantially included.

【0011】こうすれば、処理対象画像の輪郭を含み、
その輪郭の周囲に広がる輪郭領域を表す輪郭マップをう
まく作成することができる。
In this case, the outline of the image to be processed is included,
A contour map representing a contour area extending around the contour can be successfully created.

【0012】また、前記処理対象画像は、複数の色成分
を含み、前記第1の差分画素値は、前記複数の色成分で
構成される合成色の輝度値に比例する値として算出され
るようにしてもよい。
The image to be processed includes a plurality of color components, and the first difference pixel value is calculated as a value proportional to a luminance value of a composite color composed of the plurality of color components. It may be.

【0013】第1の差分画素値を輝度値に相当する値と
して算出すれば、各色成分に関する第1の差分画素値を
用いる場合に比べて、輪郭マップで示される輪郭領域が
輪郭をうまく含むように、より高い確度で輪郭マップを
作成することができる。
When the first difference pixel value is calculated as a value corresponding to a luminance value, the outline region indicated by the outline map includes the outline better than the case where the first difference pixel value for each color component is used. Furthermore, a contour map can be created with higher accuracy.

【0014】上記画像処理方法において、前記第1と第
2のボカシ処理は、それぞれ、前記処理対象画像に第2
の平均化フィルタを適用することによって第2の平均化
画像を作成する処理と、前記処理対象画像の画素値と前
記第2の平均化画像の画素値との差分を取ることによっ
て、第2の差分画素値を求める処理と、前記第2の差分
画素値に所定の調整係数を乗ずることによってボカシ量
を決定する処理と、前記処理対象画像の画素値から前記
ボカシ量を減算することによってボカシ処理済み画像を
作成する処理と、を実質的に含むようにしてもよい。こ
の際、前記第1と第2のボカシ処理は、前記第2の平均
化フィルタの大きさと、前記調整係数の大きさと、のう
ちの少なくとも一方を前記第1と第2のボカシ処理で異
なる値に設定することによって、前記第1のボカシ処理
のボカシ強度が前記第2のボカシ処理のボカシ強度より
も高くなるように調整されている。
In the above-mentioned image processing method, the first and second blurring processes are respectively performed by adding a second
A process of creating a second averaged image by applying the averaging filter, and taking a difference between a pixel value of the image to be processed and a pixel value of the second averaged image to obtain a second averaged image. A process of obtaining a difference pixel value, a process of determining a blur amount by multiplying the second difference pixel value by a predetermined adjustment coefficient, and a blur process by subtracting the blur amount from the pixel value of the processing target image And a process of creating a completed image. At this time, the first and second blurring processes are performed by setting at least one of the size of the second averaging filter and the size of the adjustment coefficient to a different value between the first and second blurring processes. Is set so that the blur intensity of the first blur process is higher than the blur intensity of the second blur process.

【0015】こうすれば、第1と第2のボカシ処理のボ
カシ強度を任意に適切な値に調整することができる。
This makes it possible to adjust the blurring intensity of the first and second blurring processes to an appropriate value.

【0016】本発明による画像処理装置は、前記処理対
象画像を処理することによって、前記処理対象画像内に
含まれる輪郭を含み前記輪郭の周囲に広がる輪郭領域
と、前記輪郭領域以外の領域である非輪郭領域と、を区
分して示す輪郭マップを作成する輪郭抽出部と、前記輪
郭マップに従って、前記処理対象画像内の前記非輪郭領
域の画像部分に対しては比較的ボカシ強度が高い第1の
ボカシ処理を行うとともに、前記処理対象画像内の前記
輪郭領域の画像部分に対しては比較的ボカシ強度が低い
第2のボカシ処理を行うボカシ処理部と、を備える。
An image processing apparatus according to the present invention processes an image to be processed into an outline region including an outline included in the image to be processed and extending around the outline, and an area other than the outline region. A contour extraction unit for creating a contour map indicating the non-contour area, and a first image having a relatively high blur intensity for an image portion of the non-contour area in the processing target image according to the contour map. And a blur processing unit that performs a second blur process with relatively low blur intensity on the image portion of the contour area in the processing target image.

【0017】この画像処理装置によっても、処理対象画
像全体の鮮鋭度の劣化を緩和しつつ、ボカシ処理によっ
て粒状性やロゼットパターン(亀甲模様)を低減するこ
とができる。
According to this image processing apparatus, it is also possible to reduce the graininess and the rosette pattern by using the blurring process while alleviating the deterioration of the sharpness of the entire image to be processed.

【0018】また、本発明による記録媒体は、コンピュ
ータを用いて処理対象画像を処理するためのコンピュー
タプログラムを記録したコンピュータ読み取り可能な記
録媒体であって、前記処理対象画像を処理することによ
って、前記処理対象画像内に含まれる輪郭を含み前記輪
郭の周囲に広がる輪郭領域と、前記輪郭領域以外の領域
である非輪郭領域と、を区分して示す輪郭マップを作成
する輪郭抽出機能と、前記輪郭マップに従って、前記処
理対象画像内の前記非輪郭領域の画像部分に対しては比
較的ボカシ強度が高い第1のボカシ処理を行うととも
に、前記処理対象画像内の前記輪郭領域の画像部分に対
しては比較的ボカシ強度が低い第2のボカシ処理を行う
ボカシ処理機能と、をコンピュータに実現させるための
コンピュータプログラムを記録したコンピュータ読み取
り可能な記録媒体である。
The recording medium according to the present invention is a computer-readable recording medium that records a computer program for processing an image to be processed by using a computer. A contour extraction function for creating a contour map that classifies a contour area including a contour included in a processing target image and extending around the contour, and a non-contour area other than the contour area; According to the map, a first blur processing having a relatively high blur intensity is performed on an image portion of the non-contour area in the processing target image, and an image part of the contour area in the processing target image is processed. Is a computer program for causing a computer to implement a blur processing function of performing a second blur processing having a relatively low blur strength. A computer-readable recording medium recording a beam.

【0019】このような記録媒体に記録されたコンピュ
ータプログラムがコンピュータによって実行されると、
処理対象画像全体の鮮鋭度の劣化を緩和しつつ、ボカシ
処理によって粒状性やロゼットパターン(亀甲模様)を
低減することができる。
When a computer program recorded on such a recording medium is executed by a computer,
The graininess and the rosette pattern (turtle pattern) can be reduced by the blurring process while alleviating the deterioration of the sharpness of the entire image to be processed.

【0020】[0020]

【発明の他の態様】この発明は、以下のような他の態様
も含んでいる。第1の態様は、コンピュータに上記の発
明の各工程または各部の機能を実現させるコンピュータ
プログラムを通信経路を介して供給するプログラム供給
装置としての態様である。こうした態様では、プログラ
ムをネットワーク上のサーバなどに置き、通信経路を介
して、必要なプログラムをコンピュータにダウンロード
し、これを実行することで、上記の方法や装置を実現す
ることができる。
Other Embodiments of the Invention The present invention includes the following other embodiments. A first aspect is an aspect as a program supply device that supplies, via a communication path, a computer program that causes a computer to realize the functions of each step or each part of the above-described invention. In such an embodiment, the above-described method and apparatus can be realized by placing the program on a server or the like on a network, downloading the necessary program to a computer via a communication path, and executing the program.

【0021】[0021]

【発明の実施の形態】A.装置の構成:以下、本発明の
実施の形態を実施例に基づいて説明する。図1は、本発
明の第1実施例としての画像処理装置の構成を示すブロ
ック図である。この画像処理装置は、CPU20と、R
OMおよびRAMを含むメインメモリ22と、フレーム
メモリ26と、キーボード30と、マウス32と、表示
装置34と、ハードディスク36と、モデム38と、こ
れらの各要素を接続するバス40と、を備えるコンピュ
ータである。なお、図1では各種のインターフェイス回
路は省略されている。モデム38は、図示しない通信回
線を介してコンピュータネットワークに接続されてい
る。コンピュータネットワークの図示しないサーバは、
通信回線を介してコンピュータプログラムを画像処理装
置に供給するプログラム供給装置としての機能を有す
る。
DETAILED DESCRIPTION OF THE INVENTION Configuration of Apparatus: Hereinafter, embodiments of the present invention will be described based on examples. FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. This image processing apparatus includes a CPU 20 and an R
A computer including a main memory 22 including an OM and a RAM, a frame memory 26, a keyboard 30, a mouse 32, a display device 34, a hard disk 36, a modem 38, and a bus 40 connecting these components. It is. In FIG. 1, various interface circuits are omitted. The modem 38 is connected to a computer network via a communication line (not shown). The server (not shown) of the computer network
It has a function as a program supply device that supplies a computer program to an image processing device via a communication line.

【0022】メインメモリ22には、ボカシ処理部50
と、輪郭抽出部52と、鮮鋭度強調処理部54と、の機
能をそれぞれ実現するためのコンピュータプログラムが
格納されている。メインメモリ22内には、輪郭抽出部
52で作成される輪郭マップを格納するための輪郭マッ
プ記憶領域56も確保されている。
The main memory 22 has a blur processing section 50.
And computer programs for realizing the functions of the contour extraction unit 52 and the sharpness enhancement processing unit 54, respectively. In the main memory 22, a contour map storage area 56 for storing a contour map created by the contour extracting unit 52 is also secured.

【0023】図1の各処理部50,52,54の機能を
実現するコンピュータプログラムは、フレキシブルディ
スクやCD−ROM等の、コンピュータ読み取り可能な
記録媒体に記録された形態で提供される。コンピュータ
は、その記録媒体からコンピュータプログラムを読み取
って内部記憶装置または外部記憶装置に転送する。ある
いは、通信経路を介してコンピュータにコンピュータプ
ログラムを供給するようにしてもよい。コンピュータプ
ログラムの機能を実現する時には、内部記憶装置に格納
されたコンピュータプログラムがコンピュータのマイク
ロプロセッサによって実行される。また、記録媒体に記
録されたコンピュータプログラムをコンピュータが読み
取って直接実行するようにしてもよい。
A computer program for realizing the functions of the processing units 50, 52, and 54 in FIG. 1 is provided in a form recorded on a computer-readable recording medium such as a flexible disk or a CD-ROM. The computer reads the computer program from the recording medium and transfers it to an internal storage device or an external storage device. Alternatively, a computer program may be supplied to a computer via a communication path. When implementing the functions of the computer program, the computer program stored in the internal storage device is executed by the microprocessor of the computer. Further, a computer may read a computer program recorded on a recording medium and directly execute the computer program.

【0024】この明細書において、コンピュータとは、
ハードウェア装置とオペレーションシステムとを含む概
念であり、オペレーションシステムの制御の下で動作す
るハードウェア装置を意味している。また、オペレーシ
ョンシステムが不要でアプリケーションプログラム単独
でハードウェア装置を動作させるような場合には、その
ハードウェア装置自体がコンピュータに相当する。ハー
ドウェア装置は、CPU等のマイクロプロセッサと、記
録媒体に記録されたコンピュータプログラムを読み取る
ための手段とを少なくとも備えている。コンピュータプ
ログラムは、このようなコンピュータに、上述の各手段
の機能を実現させるプログラムコードを含んでいる。な
お、上述の機能の一部は、アプリケーションプログラム
でなく、オペレーションシステムによって実現されてい
ても良い。
In this specification, a computer is
The concept includes a hardware device and an operation system, and means a hardware device that operates under the control of the operation system. In the case where an operation system is unnecessary and a hardware device is operated by an application program alone, the hardware device itself corresponds to a computer. The hardware device includes at least a microprocessor such as a CPU and means for reading a computer program recorded on a recording medium. The computer program includes a program code that causes such a computer to realize the functions of the above-described units. Some of the functions described above may be realized by an operation system instead of the application program.

【0025】なお、この発明における「記録媒体」とし
ては、フレキシブルディスクやCD−ROM、光磁気デ
ィスク、ICカード、ROMカートリッジ、パンチカー
ド、バーコードなどの符号が印刷された印刷物、コンピ
ュータの内部記憶装置(RAMやROMなどのメモリ)
および外部記憶装置等の、コンピュータが読取り可能な
種々の媒体を利用できる。
The “recording medium” in the present invention includes a flexible disk, a CD-ROM, a magneto-optical disk, an IC card, a ROM cartridge, a punch card, a printed matter on which a code such as a bar code is printed, and an internal storage of a computer. Device (RAM, ROM, etc.)
And various computer-readable media such as an external storage device.

【0026】B.実施例の処理内容:図2は、実施例に
おける全体処理手順を示すフローチャートである。ステ
ップS1〜S3は、輪郭抽出部52が、処理対象となる
原画像(「処理対象画像」とも呼ぶ)を表す画像データ
を処理することによって、原画像内の輪郭を含む輪郭領
域を示す輪郭マップを作成する処理である。図3は、ス
テップS1〜S3の処理内容を示す説明図である。
B. FIG. 2 is a flowchart showing the overall processing procedure in the embodiment. In steps S1 to S3, the contour extraction unit 52 processes the image data representing the original image to be processed (also referred to as a “processing target image”), thereby forming a contour map indicating a contour region including a contour in the original image. Is the process of creating FIG. 3 is an explanatory diagram showing the processing contents of steps S1 to S3.

【0027】まず、ステップS1では、数式1に従って
原画像に予備的なボカシ処理を行うことにより、輪郭抽
出用画像が作成される。
First, in step S1, a preliminary blurring process is performed on an original image according to Equation 1 to create an image for contour extraction.

【0028】[0028]

【数1】 (Equation 1)

【0029】ここで、So(i,j)は原画像の画素値
(原画素値)、Sc(i,j)は輪郭抽出用画像の画素
値(輪郭抽出用画素値)、rは1以上の所定の整数であ
る。また、(i,j)は画像内の画素位置を示す座標値
であるが、以下の説明では(i,j)が省略された記号
が用いられることがある。
Here, So (i, j) is the pixel value of the original image (original pixel value), Sc (i, j) is the pixel value of the image for contour extraction (pixel value for contour extraction), and r is 1 or more. Is a predetermined integer. Although (i, j) is a coordinate value indicating a pixel position in an image, a symbol in which (i, j) is omitted in the following description may be used.

【0030】なお、数式1で与えられる予備的なボカシ
処理は、一辺が(2r+1)画素の単純平均化フィルタ
(「平滑化フィルタ」とも呼ばれる)を用いた平均化処
理である。本実施例では、整数rの値が例えば3に設定
される。
The preliminary blurring process given by Equation 1 is an averaging process using a simple averaging filter having one side of (2r + 1) pixels (also called a “smoothing filter”). In this embodiment, the value of the integer r is set to 3, for example.

【0031】図3(A)には原画像が示されており、図
3(B)には輪郭抽出用画像が示されている。原画像
は、左半分の第1の領域R1と、右半分の第2の領域R
2とに区分されている。第2の領域R2の輪郭OLは、
第1と第2の領域R1,R2の境界に相当している。第
1の領域R1は、比較的濃度の低い領域であり、その中
に数個の島状のノイズ(高濃度部)を含んでいる。第2
の領域R2は、比較的濃度の高い領域である。第2の領
域R2にもいくつかのノイズ(低濃度部)が含まれてい
てもよい。なお、実際には、印刷物をスキャナで読取っ
た画像や写真画像などが原画像として使用されるので、
画像の内容はもっと複雑であるが、図3では図示の便宜
上、簡略化して描かれている。
FIG. 3A shows an original image, and FIG. 3B shows an image for contour extraction. The original image has a left half first region R1 and a right half second region R1.
It is divided into two. The outline OL of the second region R2 is
It corresponds to the boundary between the first and second regions R1 and R2. The first region R1 is a region having a relatively low density, and includes several island-like noises (high-density portions) therein. Second
Is a region having a relatively high density. The second region R2 may also include some noises (low density portions). In addition, since an image or a photographic image obtained by reading a printed matter with a scanner is actually used as an original image,
The contents of the image are more complicated, but are simplified in FIG. 3 for convenience of illustration.

【0032】なお、原画像がカラー画像の場合には、原
画像内の各画素の画素値は、複数の色成分で構成されて
いる。例えば、各画素値がRGBの3つの色成分で構成
されていることがあり、あるいは、CMYKの4つの色
成分で構成されていることもある。本実施例の処理で
は、特に断らない限り、これらの各色成分毎にそれぞれ
同じ処理が実行される。
When the original image is a color image, the pixel value of each pixel in the original image is composed of a plurality of color components. For example, each pixel value may be composed of three RGB color components, or may be composed of four CMYK color components. In the processing of this embodiment, the same processing is executed for each of these color components unless otherwise specified.

【0033】図3(B)に示すように、輪郭抽出用画像
は、第1と第2の領域R1a,R2aの間に、輪郭領域
OLAaを含んでいる。この輪郭領域OLAaは、原画
像における輪郭OLをほぼ中心として、その周囲に広が
る領域である。なお、図3(B)では輪郭領域OLAa
と、その周囲の他の領域R1a,R2aとの境界が明瞭
に描かれているが、実際にはこれらの境界は曖昧であ
る。
As shown in FIG. 3B, the contour extracting image includes a contour area OLAa between the first and second areas R1a and R2a. The outline region OLAa is a region extending around the outline OL in the original image substantially at the center. Note that in FIG. 3B, the outline area OLAa
And the boundaries between the region and other surrounding regions R1a and R2a are clearly drawn, but in reality, these boundaries are ambiguous.

【0034】なお、予備的なボカシ処理を行って輪郭抽
出用画像を作成するのは、原画像に含まれるノイズを緩
和して、ノイズの部分の輪郭が抽出されないようにする
ためである。但し、ステップS1を省略し、原画像を輪
郭抽出用画像としてそのまま使用することも可能であ
る。
The reason why a preliminary blurring process is performed to create an image for contour extraction is to reduce noise included in the original image so that the contour of the noise portion is not extracted. However, it is also possible to omit step S1 and use the original image as it is as an image for contour extraction.

【0035】図2のステップS2では、輪郭抽出部52
が輪郭抽出用画像を処理することによって、輪郭マップ
を作成する。図4は、ステップS2の詳細手順を示すフ
ローチャートである。まず、ステップS11では、以下
の数式2に従って、輪郭抽出用画素値Scに第1の平均
化フィルタを適用することにより、第1の平均化画素値
Sm1を求める。
In step S2 of FIG.
Creates a contour map by processing the contour extraction image. FIG. 4 is a flowchart showing a detailed procedure of step S2. First, in step S11, a first averaged pixel value Sm1 is obtained by applying a first averaging filter to the contour extraction pixel value Sc according to the following Expression 2.

【0036】[0036]

【数2】 (Equation 2)

【0037】ここで、pは1以上の整数であり、例えば
1〜3程度の値が好ましい。本実施例では、整数pを3
に設定している。すなわち、数式2で用いられている第
1の平均化フィルタは、一辺が7画素の単純平均化フィ
ルタである。
Here, p is an integer of 1 or more, for example, a value of about 1 to 3 is preferable. In this embodiment, the integer p is set to 3
Is set to That is, the first averaging filter used in Expression 2 is a simple averaging filter having seven pixels on one side.

【0038】ステップS12では、以下の数式3に従っ
て、輪郭抽出用画素値Scと第1の平均化画素値Sm1
との間の差分(第1の差分)d1が算出される。
In step S12, the contour extraction pixel value Sc and the first averaged pixel value Sm1 are calculated according to the following equation (3).
(First difference) d1 is calculated.

【0039】[0039]

【数3】 (Equation 3)

【0040】なお、第1の差分d1は、各色成分毎に算
出される。例えば、RGBの3つの色成分に対する第1
の差分d1は、それぞれd1R ,d1G ,d1B と書き
表される。
The first difference d1 is calculated for each color component. For example, the first for the three color components of RGB
Are written as d1 R , d1 G and d1 B , respectively.

【0041】ステップS13では、各色成分の第1の差
分d1R ,d1G ,d1B から、これらの色成分で再現
される合成色の輝度値に比例する値(「差分輝度値」と
呼ぶ)が求められる。差分輝度値i_difは、例えば
次の数式4、数式5に従って算出される。
In step S13, from the first differences d1 R , d1 G and d1 B of the respective color components, a value proportional to the luminance value of the composite color reproduced by these color components (referred to as “difference luminance value”). Is required. The difference luminance value i_dif is calculated according to, for example, the following Expressions 4 and 5.

【0042】[0042]

【数4】 (Equation 4)

【0043】[0043]

【数5】 (Equation 5)

【0044】数式4の右辺のkは係数であり、本実施例
ではk=12である。kの値としては、1を含む任意の
値を用いることが可能である。
K on the right side of Equation 4 is a coefficient, and in this embodiment, k = 12. Any value including 1 can be used as the value of k.

【0045】なお、複数の色成分に関する第1の差分か
ら差分輝度値i_difを求める代わりに、輪郭抽出用
画素値Scとして輝度値に相当する値(「画素輝度値」
と呼ぶ)を求めておき、この画素輝度値Scに対して上
述したステップS11,S12の処理を行うようにして
もよい。
Instead of obtaining the difference luminance value i_dif from the first difference relating to a plurality of color components, a value corresponding to the luminance value (“pixel luminance value”) is used as the contour extraction pixel value Sc.
May be obtained in advance, and the processes of steps S11 and S12 described above may be performed on the pixel luminance value Sc.

【0046】図3(C)には、差分輝度値i_difの
分布が示されている。差分輝度値i_difは、輪郭抽
出用画素値Scと第1の平均化画素値Sm1との差分に
対応しているので、輪郭抽出用画素値Scと第1の平均
化画素値Sm1とがほぼ同じである領域では、差分輝度
値i_difはほぼ0である。従って、第1と第2の領
域R1b、R2bのかなりの部分では、差分輝度値i_
difが0に近い値となっている。一方、輪郭領域OL
Abと、第1の領域R1b内の島状のノイズ部分とにお
いては、差分輝度値i_difはやや高い値に保たれて
いる。なお、図3(C)における輪郭領域OLAbは、
図3(B)における輪郭領域OLAaよりもやや広がっ
ている。
FIG. 3C shows the distribution of the difference luminance value i_dif. Since the difference luminance value i_dif corresponds to the difference between the pixel value Sc for contour extraction and the first averaged pixel value Sm1, the pixel value Sc for contour extraction and the first averaged pixel value Sm1 are substantially the same. , The difference luminance value i_dif is almost 0. Therefore, in a significant part of the first and second regions R1b and R2b, the difference luminance value i_
dif is a value close to 0. On the other hand, the outline area OL
The difference luminance value i_dif between Ab and the island-shaped noise portion in the first region R1b is maintained at a slightly high value. Note that the contour area OLAb in FIG.
It is slightly wider than the contour area OLAa in FIG.

【0047】図4のステップs14では、差分輝度値i
_difを所定のしきい値Thで2値化することによっ
て、輪郭マップmapを作成する。すなわち、輪郭マッ
プmapは、以下の数式6のように決定される。
In step s14 of FIG. 4, the difference luminance value i
An outline map map is created by binarizing _dif with a predetermined threshold Th. That is, the contour map map is determined as in the following Expression 6.

【0048】[0048]

【数6】 (Equation 6)

【0049】しきい値Thとしては、例えば差分輝度値
i_difのレンジが0〜255(すなわち8ビット)
の場合には、100程度の値が適切である。
As the threshold value Th, for example, the range of the difference luminance value i_dif is 0 to 255 (ie, 8 bits)
In this case, a value of about 100 is appropriate.

【0050】図3(C)において、砂地で示されている
画像部分(輪郭領域OLAbと第1の領域R1b内のノ
イズ部分)の差分輝度値i_difは、しきい値Thよ
りも大きく、従ってこれらの画像部分では輪郭マップm
apの値が1となる。一方、輪郭領域OLAbとノイズ
部分以外の画像部分では、輪郭マップmapの値が0と
なる。このように、輪郭マップmapは、原画像の輪郭
OLを含む領域である輪郭領域OLAbを表すデータで
あるが、原画像のノイズを含んでいる可能性がある。
In FIG. 3C, the difference luminance value i_dif of the image portion (the outline portion OLAb and the noise portion in the first region R1b) indicated by the sand is larger than the threshold value Th. The contour map m
The value of ap becomes 1. On the other hand, in the image area other than the outline area OLAb and the noise part, the value of the outline map map is 0. As described above, the contour map map is data representing the contour area OLAb which is an area including the contour OL of the original image, but may include noise of the original image.

【0051】そこで、図2のステップS3では、ステッ
プS2で得られた輪郭マップmapに中央値フィルタを
適用することによって、ノイズが除去された最終的な輪
郭マップmap* が求められる。ここで、「中央値フィ
ルタ」とは、フィルタの領域内に存在する複数の値を大
きさ順にならべた時に、その配列の中央に位置する値を
採用するフィルタである。例えば、3×3画素の中央値
フィルタを用いた場合には、その中に含まれる9つの値
の中の5番目の値が採用される。なお、輪郭マップma
pの値は0または1なので、中央値フィルタを適用した
結果の値も0または1である。図3(D)には、ノイズ
除去後の輪郭マップmap* が示されている。この輪郭
マップmap* では、図3(C)に示す第1の領域R1
bに含まれていたノイズが除去されていることが解る。
In step S3 in FIG. 2, a final contour map map * from which noise has been removed is obtained by applying a median filter to the contour map map obtained in step S2. Here, the “median filter” is a filter that employs a value located at the center of the array when a plurality of values existing in the area of the filter are arranged in order of magnitude. For example, when a median filter of 3 × 3 pixels is used, the fifth value among the nine values included therein is adopted. Note that the contour map ma
Since the value of p is 0 or 1, the value resulting from applying the median filter is also 0 or 1. FIG. 3D shows the contour map map * after noise removal. In this contour map map *, the first region R1 shown in FIG.
It can be seen that the noise included in b has been removed.

【0052】図3(A)と図3(D)とを比較すれば解
るように、最終的な輪郭マップmap* の値は、原画像
内に含まれる輪郭とその輪郭の周囲の領域とを含む輪郭
領域OLAcでは1であり、輪郭領域以外の領域である
非輪郭領域R1c,R2cでは0である。すなわち、こ
の輪郭マップmap* は、輪郭領域OLAcと非輪郭領
域R1c、R2cとを区分して示す情報である。
As can be seen by comparing FIG. 3A and FIG. 3D, the final value of the contour map map * is determined by comparing the contour included in the original image and the area around the contour. It is 1 in the included outline area OLAc, and is 0 in the non-outline areas R1c and R2c which are areas other than the outline area. That is, the contour map map * is information indicating the contour area OLAc and the non-contour areas R1c and R2c separately.

【0053】なお、上述したように、本実施例では差分
輝度値i_difを利用して輪郭マップmap* を決定
しているが、各色成分に関する第1の差分d1R ,d1
G ,d1B の一部を用いて輪郭マップmap* を決定す
るようにしてもよい。但し、差分輝度値i_difから
輪郭マップを作成するようにすれば、輪郭マップmap
* で表される輪郭領域OLAc内に、原画像の輪郭OL
がうまく含まれるように、より高い確度で輪郭マップm
ap* を作成することができるという利点がある。
As described above, in this embodiment, the outline map map * is determined using the difference luminance value i_dif, but the first differences d1 R and d1 for each color component are determined.
G, a portion of d1 B may be determined a contour map map * using. However, if the contour map is created from the difference luminance value i_dif, the contour map map
The outline OL of the original image is included in the outline area OLAc represented by *.
Contour map m with higher accuracy so that
The advantage is that ap * can be created.

【0054】図2のステップS4およびS5では、ボカ
シ処理部50が、輪郭マップmap* に従って原画像内
の非輪郭領域R1c,R2cと輪郭領域OLAcとに第
1と第2のボカシ処理をそれぞれ実行する。図5は、ス
テップS4,S5の処理の詳細手順を示すフローチャー
トである。ステップS4,S5では、図5のステップS
21〜S24の処理がそれぞれ実行されるので、以下で
はステップS4,S5の内容をまとめて説明する。
In steps S4 and S5 of FIG. 2, the blur processing section 50 executes the first and second blur processing on the non-contour areas R1c and R2c and the contour area OLAc in the original image according to the contour map map *, respectively. I do. FIG. 5 is a flowchart showing a detailed procedure of the processing in steps S4 and S5. In steps S4 and S5, step S in FIG.
Since the processes of S21 to S24 are respectively executed, the contents of steps S4 and S5 will be described together below.

【0055】ステップS21では、数式7に従って、原
画像の画素値(原画素値)Soに第2の平均化フィルタ
を適用して、第2の平均化画素値Sm2を求める。
In step S21, a second averaging filter is applied to the pixel value (original pixel value) So of the original image according to Equation 7 to obtain a second averaged pixel value Sm2.

【0056】[0056]

【数7】 (Equation 7)

【0057】ここで、qは1以上の整数であり、例えば
1〜3程度の値が好ましい。本実施例では、非輪郭領域
R1c,R2cに対する第1のボカシ処理(ステップS
4)では整数qを3に設定しており、輪郭領域OLAc
に対する第2のボカシ処理(ステップS5)では整数q
を2に設定している。一般に、整数qの値が大きいほど
ボカシ強度が高くなる。従って、非輪郭領域R1c,R
2cの方が輪郭領域OLAcよりも高いボカシ強度でボ
カシ処理がされることになる。なお、「ボカシ強度」と
は、ボカシ処理によって画像がぼける程度のことを意味
する。
Here, q is an integer of 1 or more, and for example, a value of about 1 to 3 is preferable. In the present embodiment, the first blur processing for the non-contour areas R1c and R2c (step S
In 4), the integer q is set to 3 and the contour area OLAc
In the second blur processing (step S5) for
Is set to 2. In general, the greater the value of the integer q, the higher the blur intensity. Therefore, the non-contour areas R1c, R
The blur processing is performed with 2c with a higher blur intensity than the contour area OLAc. The “blur intensity” means the degree to which an image is blurred by the blur processing.

【0058】ステップS22では、以下の数式8に従っ
て、原画素値Scと第2の平均化画素値Sm2との間の
差分(第2の差分)d2が算出される。
In step S22, a difference (second difference) d2 between the original pixel value Sc and the second averaged pixel value Sm2 is calculated according to the following equation (8).

【0059】[0059]

【数8】 (Equation 8)

【0060】ステップS23では、以下の数式9に示す
ように、第2の差分d2に調整係数mを乗じることによ
って、ボカシ量Gが決定される。
In step S23, the blur amount G is determined by multiplying the second difference d2 by the adjustment coefficient m as shown in the following equation (9).

【0061】[0061]

【数9】 (Equation 9)

【0062】本実施例では、非輪郭領域R1c,R2c
のボカシ処理(ステップS4)では調整係数mの値を
0.7に設定し、輪郭領域OLAcのボカシ処理(ステ
ップS5)では調整係数mの値を0.5に設定してい
る。一般に、調整係数mの値が大きいほどボカシ量Gが
大きくなり、ボカシ強度も高くなる。従って、本実施例
では、非輪郭領域R1c,R2cの方が輪郭領域OLA
cよりも高いボカシ強度でボカシ処理されることにな
る。なお、調整係数mとしては1未満の値が好ましい
が、1以上の値に設定することも可能である。
In this embodiment, the non-contour areas R1c, R2c
In the blur processing (step S4), the value of the adjustment coefficient m is set to 0.7, and in the blur processing of the contour area OLAc (step S5), the value of the adjustment coefficient m is set to 0.5. In general, the larger the value of the adjustment coefficient m, the larger the blur amount G and the higher the blur intensity. Accordingly, in the present embodiment, the non-contour areas R1c and R2c are more suitable for the contour area OLA.
The image will be blurred with a blur intensity higher than c. The adjustment coefficient m is preferably a value less than 1, but may be set to a value of 1 or more.

【0063】ステップS24では、次の数式10に従っ
て、原画素値Soからボカシ量Gを減算することによっ
て、ボカシ処理済み画素値Sgrを求める。
In step S24, the blurred pixel value Sgr is obtained by subtracting the blur amount G from the original pixel value So according to the following equation (10).

【0064】[0064]

【数10】 (Equation 10)

【0065】なお、数式8〜10は、以下の1つの数式
11にまとめることが可能である。
Expressions 8 to 10 can be summarized into the following Expression 11.

【0066】[0066]

【数11】 [Equation 11]

【0067】従って、図5のステップS22〜S24の
処理は、数式11を用いた1回の処理で実現することが
できる。この場合には、数式11を用いた1回の処理
が、実質的にステップS22〜S24の処理を含むこと
になる。この例から解るように、上述した実施例のいく
つかの工程の処理をまとめて、1つの工程の中に実質的
にいくつかの処理が含まれるようにすることも可能であ
る。
Therefore, the processing of steps S22 to S24 in FIG. 5 can be realized by one processing using equation (11). In this case, one process using Expression 11 substantially includes the processes of steps S22 to S24. As can be seen from this example, it is also possible to combine the processes of several steps of the above-described embodiment so that one step substantially includes some processes.

【0068】ボカシ処理済み画素値Sgrを求める際に
は、非輪郭領域R1c、R2c(図3(D))ではボカ
シ強度を高く設定し、一方、輪郭領域OLAcではボカ
シ強度を低く設定している。従って、ボカシ処理済み画
像の輪郭領域OLAcでは鮮鋭度が劣化して輪郭OL
(図3(A))が不明瞭になることが防止されており、
また、非輪郭領域R1c,R2cにおいては粒状性やロ
ゼットパターン(亀甲模様)が低減されている。特に、
本実施例では、輪郭OLを中心としてその周囲に広がる
領域を輪郭領域OLAcとして抽出したので、輪郭OL
の部分だけでボカシ強度を低下させた場合に比べて、輪
郭領域と非輪郭領域との間の画像がより滑らかに見える
という利点がある。輪郭領域OLAcの幅は、図4のス
テップS11で使用する第1の平均化フィルタのサイズ
を調整することによって調整可能である。
When obtaining the blurred pixel value Sgr, the blur strength is set high in the non-contour areas R1c and R2c (FIG. 3D), while the blur strength is set low in the contour area OLAc. . Therefore, the sharpness is degraded in the contour area OLAc of the blurred image, and the contour OL is reduced.
(FIG. 3A) is prevented from being unclear,
In the non-contour areas R1c and R2c, the graininess and the rosette pattern (turtle pattern) are reduced. In particular,
In the present embodiment, since the region extending around the outline OL is extracted as the outline region OLAc, the outline OL is extracted.
There is an advantage that the image between the contour region and the non-contour region looks smoother than when the blur intensity is reduced only in the portion. The width of the outline region OLAc can be adjusted by adjusting the size of the first averaging filter used in step S11 of FIG.

【0069】なお、上述したように、ボカシ強度は、ス
テップS21で使用される平均化フィルタのサイズと、
ステップS23で使用される調整係数mの値と、の2つ
の値で調整可能である。従って、これらの2つの値のう
ちの一方は、非輪郭領域と輪郭領域とで共通する値を使
用することも可能である。換言すれば、これらの2つの
値のうちの少なくとも一方を、非輪郭領域と輪郭領域と
で互いに異なる値に設定することによって、ボカシ強度
を調整することが可能である。
As described above, the blur intensity is determined by the size of the averaging filter used in step S21,
The value can be adjusted with the two values of the adjustment coefficient m used in step S23. Therefore, as one of these two values, a value common to the non-contour area and the contour area can be used. In other words, by setting at least one of these two values to be different from each other in the non-contour area and the contour area, it is possible to adjust the blur intensity.

【0070】こうしてステップS4,S5におけるボカ
シ処理が終了すると、図2のステップS6において、鮮
鋭度強調処理部54が、ボカシ処理済みの画像の全体に
対して鮮鋭度強調処理(シャープネス処理)を実行す
る。このように、ボカシ処理の後に鮮鋭度強調処理を行
うようにすれば、ボカシ処理で劣化した鮮鋭度を向上さ
せることができる。なお、鮮鋭度強調処理は、画像処理
の技術分野において周知の処理なので、その詳細は省略
する。
When the blur processing in steps S4 and S5 is completed in this way, in step S6 in FIG. 2, the sharpness enhancement processing section 54 executes the sharpness enhancement processing (sharpness processing) on the entire image after the blur processing. I do. As described above, if the sharpness enhancement processing is performed after the blur processing, the sharpness deteriorated by the blur processing can be improved. Note that the sharpness enhancement processing is a well-known processing in the technical field of image processing, and thus details thereof are omitted.

【0071】以上説明したように、本実施例によれば、
原画像内の非輪郭領域には強いボカシ処理を行い、輪郭
領域には弱いボカシ処理を行うようにしたので、ボカシ
処理によって画像全体の鮮鋭度が劣化してしまうという
現象を緩和することができるという利点がある。
As described above, according to the present embodiment,
Since the strong blur processing is performed on the non-contour area in the original image and the weak blur processing is performed on the contour area, the phenomenon that the sharpness of the entire image is deteriorated by the blur processing can be reduced. There is an advantage.

【0072】なお、この発明は上記の実施例や実施形態
に限られるものではなく、その要旨を逸脱しない範囲に
おいて種々の態様において実施することが可能であり、
例えば次のような変形も可能である。
It should be noted that the present invention is not limited to the above-described examples and embodiments, but can be implemented in various modes without departing from the scope of the invention.
For example, the following modifications are possible.

【0073】(1)上記実施例において、ハードウェア
によって実現されていた構成の一部をソフトウェアに置
き換えるようにしてもよく、逆に、ソフトウェアによっ
て実現されていた構成の一部をハードウェアに置き換え
るようにしてもよい。
(1) In the above embodiment, part of the configuration realized by hardware may be replaced by software, and conversely, part of the configuration realized by software may be replaced by hardware. You may do so.

【0074】(2)上記実施例では、平均化フィルタと
して単純平均フィルタを用いていたが、この代わりに、
重み付き平均フィルタを用いてもよい。また、ボカシ処
理のアルゴリズムとして、上記実施例で用いたアルゴリ
ズム以外のものを使用することも可能である。
(2) In the above embodiment, the simple averaging filter was used as the averaging filter.
A weighted average filter may be used. Further, it is also possible to use an algorithm other than the algorithm used in the above-described embodiment as an algorithm of the blur processing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施例としての画像処理装置の構
成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus as a first embodiment of the present invention.

【図2】実施例における全体処理手順を示すフローチャ
ート。
FIG. 2 is a flowchart showing an overall processing procedure in the embodiment.

【図3】ステップS1〜S3の処理内容を示す説明図。FIG. 3 is an explanatory diagram showing processing contents of steps S1 to S3.

【図4】ステップS2の詳細手順を示すフローチャー
ト。
FIG. 4 is a flowchart showing a detailed procedure of step S2.

【図5】ステップS4,S5の処理の詳細手順を示すフ
ローチャート。
FIG. 5 is a flowchart showing a detailed procedure of steps S4 and S5.

【符号の説明】[Explanation of symbols]

20…CPU 22…メインメモリ 26…フレームメモリ 30…キーボード 32…マウス 34…表示装置 36…ハードディスク 38…モデム 40…バス 50…ボカシ処理部 52…輪郭抽出部 54…鮮鋭度強調処理部 56…輪郭マップ記憶領域 DESCRIPTION OF SYMBOLS 20 ... CPU 22 ... Main memory 26 ... Frame memory 30 ... Keyboard 32 ... Mouse 34 ... Display device 36 ... Hard disk 38 ... Modem 40 ... Bus 50 ... Blur processing part 52 ... Contour extraction part 54 ... Sharpness enhancement processing part 56 ... Contour Map storage area

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 BA29 CA01 CA08 CA16 CB01 CB08 CB16 CC03 CE03 CE04 CH09 DA08 DC16 DC32 5C076 AA01 AA31 BA06 CA10 5C077 LL20 MP07 MP08 PP01 PP03 PP19 PP27 PP41 PP47 PP68 PQ08 PQ22 RR02 RR14 TT09 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 BA29 CA01 CA08 CA16 CB01 CB08 CB16 CC03 CE03 CE04 CH09 DA08 DC16 DC32 5C076 AA01 AA31 BA06 CA10 5C077 LL20 MP07 MP08 PP01 PP03 PP19 PP27 PP41 PP47 PP68 PQ08 PQ22 RR02RR

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータを用いて処理対象画像を処
理する方法であって、(a)前記処理対象画像を処理す
ることによって、前記処理対象画像内に含まれる輪郭を
含み前記輪郭の周囲に広がる輪郭領域と、前記輪郭領域
以外の領域である非輪郭領域と、を区分して示す輪郭マ
ップを作成する工程と、(b)前記輪郭マップに従っ
て、前記処理対象画像内の前記非輪郭領域の画像部分に
対しては比較的ボカシ強度が高い第1のボカシ処理を行
うとともに、前記処理対象画像内の前記輪郭領域の画像
部分に対しては比較的ボカシ強度が低い第2のボカシ処
理を行う工程と、を備える画像処理方法。
1. A method of processing an image to be processed using a computer, comprising: (a) processing the image to be processed to include a contour included in the image to be processed and spread around the outline; A step of creating a contour map indicating the contour area and a non-contour area other than the contour area; and (b) an image of the non-contour area in the processing target image according to the contour map. Performing a first blur process with relatively high blur intensity on the portion and performing a second blur process with relatively low blur intensity on the image portion of the contour region in the processing target image An image processing method comprising:
【請求項2】 請求項1記載の画像処理方法であって、
さらに、(c)前記工程(b)によって得られたボカシ
処理済み画像に対して鮮鋭度強調処理を行う工程、を備
える画像処理方法。
2. The image processing method according to claim 1, wherein:
And (c) performing a sharpness enhancement process on the blurred image obtained in the step (b).
【請求項3】 請求項1または2記載の画像処理方法で
あって、 前記工程(a)は、 前記処理対象画像に第1の平均化フィルタを適用するこ
とによって第1の平均化画像を作成する処理と、 前記処理対象画像の画素値と前記第1の平均化画像の画
素値との差分を取ることによって、前記第1の差分画素
値を求める処理と、 前記第1の差分画素値を所定のしきい値で2値化するこ
とによって、前記輪郭マップを作成する処理と、を実質
的に含む、画像処理方法。
3. The image processing method according to claim 1, wherein in the step (a), a first averaged image is created by applying a first averaging filter to the image to be processed. A process of obtaining the first difference pixel value by calculating a difference between a pixel value of the processing target image and a pixel value of the first averaged image; and calculating the first difference pixel value. An image processing method substantially including a process of creating the contour map by binarizing the image with a predetermined threshold value.
【請求項4】 請求項3記載の画像処理方法であって、 前記処理対象画像は、複数の色成分を含み、 前記第1の差分画素値は、前記複数の色成分で構成され
る合成色の輝度値に比例する値として算出される、画像
処理方法。
4. The image processing method according to claim 3, wherein the processing target image includes a plurality of color components, and the first difference pixel value is a composite color including the plurality of color components. The image processing method is calculated as a value proportional to the luminance value of.
【請求項5】 請求項1ないし4のいずれかに記載の画
像処理方法であって、 前記第1と第2のボカシ処理は、それぞれ、 前記処理対象画像に第2の平均化フィルタを適用するこ
とによって第2の平均化画像を作成する処理と、 前記処理対象画像の画素値と前記第2の平均化画像の画
素値との差分を取ることによって、第2の差分画素値を
求める処理と、 前記第2の差分画素値に所定の調整係数を乗ずることに
よってボカシ量を決定する処理と、 前記処理対象画像の画素値から前記ボカシ量を減算する
ことによってボカシ処理済み画像を作成する処理と、を
実質的に含み、 前記第1と第2のボカシ処理は、前記第2の平均化フィ
ルタの大きさと、前記調整係数の大きさと、のうちの少
なくとも一方を前記第1と第2のボカシ処理で異なる値
に設定することによって、前記第1のボカシ処理のボカ
シ強度が前記第2のボカシ処理のボカシ強度よりも高く
なるように調整されている、画像処理方法。
5. The image processing method according to claim 1, wherein the first and second blurring processes respectively apply a second averaging filter to the processing target image. And a process of obtaining a second difference pixel value by calculating a difference between a pixel value of the processing target image and a pixel value of the second averaged image. A process of determining a blur amount by multiplying the second difference pixel value by a predetermined adjustment coefficient; and a process of creating a blur-processed image by subtracting the blur amount from a pixel value of the processing target image. The first and second blurring processes substantially include at least one of the size of the second averaging filter and the size of the adjustment coefficient, in the first and second blurring processes. Different values for processing The image processing method is adjusted so that the blur intensity of the first blur process is higher than the blur intensity of the second blur process.
【請求項6】 処理対象画像を処理する画像処理装置で
あって、 前記処理対象画像を処理することによって、前記処理対
象画像内に含まれる輪郭を含み前記輪郭の周囲に広がる
輪郭領域と、前記輪郭領域以外の領域である非輪郭領域
と、を区分して示す輪郭マップを作成する輪郭抽出部
と、 前記輪郭マップに従って、前記処理対象画像内の前記非
輪郭領域の画像部分に対しては比較的ボカシ強度が高い
第1のボカシ処理を行うとともに、前記処理対象画像内
の前記輪郭領域の画像部分に対しては比較的ボカシ強度
が低い第2のボカシ処理を行うボカシ処理部と、を備え
る画像処理装置。
6. An image processing apparatus for processing a processing target image, wherein the processing target image is processed, and a contour region including a contour included in the processing target image and extending around the contour is provided. A contour extraction unit that creates a contour map indicating the non-contour area that is an area other than the contour area, and compares the non-contour area image portion in the processing target image according to the contour map. A blur processing unit that performs a first blur processing with a high target blur strength and performs a second blur processing with a relatively low blur strength on an image portion of the contour area in the processing target image. Image processing device.
【請求項7】 コンピュータを用いて処理対象画像を処
理するためのコンピュータプログラムを記録したコンピ
ュータ読み取り可能な記録媒体であって、 前記処理対象画像を処理することによって、前記処理対
象画像内に含まれる輪郭を含み前記輪郭の周囲に広がる
輪郭領域と、前記輪郭領域以外の領域である非輪郭領域
と、を区分して示す輪郭マップを作成する輪郭抽出機能
と、 前記輪郭マップに従って、前記処理対象画像内の前記非
輪郭領域の画像部分に対しては比較的ボカシ強度が高い
第1のボカシ処理を行うとともに、前記処理対象画像内
の前記輪郭領域の画像部分に対しては比較的ボカシ強度
が低い第2のボカシ処理を行うボカシ処理機能と、をコ
ンピュータに実現させるためのコンピュータプログラム
を記録したコンピュータ読み取り可能な記録媒体。
7. A computer-readable recording medium that records a computer program for processing a processing target image using a computer, wherein the processing target image is processed to be included in the processing target image. A contour extraction function for creating a contour map that divides a contour area including a contour and extending around the contour, and a non-contour area other than the contour area; and the processing target image according to the contour map. The first blur processing having a relatively high blur intensity is performed on the image portion of the non-contour region in the image, and the blur intensity is relatively low on the image portion of the contour region in the processing target image. A computer-readable recording program for causing a computer to realize a blur processing function for performing a second blur processing; Recording medium that can be taken.
JP10196761A 1998-06-25 1998-06-25 Image processing utilizing gradation processing Pending JP2000013607A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10196761A JP2000013607A (en) 1998-06-25 1998-06-25 Image processing utilizing gradation processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10196761A JP2000013607A (en) 1998-06-25 1998-06-25 Image processing utilizing gradation processing

Publications (1)

Publication Number Publication Date
JP2000013607A true JP2000013607A (en) 2000-01-14

Family

ID=16363190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10196761A Pending JP2000013607A (en) 1998-06-25 1998-06-25 Image processing utilizing gradation processing

Country Status (1)

Country Link
JP (1) JP2000013607A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
JP2004312421A (en) * 2003-04-08 2004-11-04 Pfu Ltd Image reading apparatus
EP1688882A2 (en) 2005-02-08 2006-08-09 Kabushiki Kaisha Toshiba Gradation interpolating circuit and gradation interpolating method
US7298918B2 (en) 2003-03-24 2007-11-20 Minolta Co., Ltd. Image processing apparatus capable of highly precise edge extraction

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085532A (en) * 2001-09-07 2003-03-20 Communication Research Laboratory Land use classification processing method using sar image
US7298918B2 (en) 2003-03-24 2007-11-20 Minolta Co., Ltd. Image processing apparatus capable of highly precise edge extraction
JP2004312421A (en) * 2003-04-08 2004-11-04 Pfu Ltd Image reading apparatus
EP1688882A2 (en) 2005-02-08 2006-08-09 Kabushiki Kaisha Toshiba Gradation interpolating circuit and gradation interpolating method

Similar Documents

Publication Publication Date Title
US6094511A (en) Image filtering method and apparatus with interpolation according to mapping function to produce final image
JP4707830B2 (en) A method for improving digital images with noise-dependent control of textures
JP3902894B2 (en) Image processing apparatus and image processing method
JP3726653B2 (en) Image processing method, image processing apparatus, and recording medium on which program for executing image processing method is recorded
US7260266B2 (en) Image processing method, image processing apparatus, image processing program and image recording apparatus
US8311356B2 (en) Image processing apparatus and image processing method
JP4368513B2 (en) Image processing method and apparatus, and recording medium
US20040184671A1 (en) Image processing device, image processing method, storage medium, and program
JP4443064B2 (en) Method and apparatus for performing local color correction
JP4262151B2 (en) Image processing method, image processing apparatus, computer program, and storage medium
EP1111906A2 (en) A method for enhancing the edge contrast of a digital image independently from the texture
JP3791199B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP3790879B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP3581270B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2005141477A (en) Image sharpening process and image processor implementing this process
JP2000013607A (en) Image processing utilizing gradation processing
JP2010087769A (en) Method, program and apparatus for processing photographic image
JP4019239B2 (en) Image sharpening method and image sharpening device
JP2003101784A (en) Image processing method, image processor and program
JP2006031682A (en) Lookup table creation device, method and program
JP2000285232A5 (en)
JPH11284860A (en) Image processing method, image processing unit and recording medium recording image processing program and read by computer
JP2001211325A (en) Image processing apparatus
JP5245715B2 (en) Photo image processing method, photo image processing program, and photo image processing apparatus
JP2004304561A (en) Apparatus and method for image processing using compression image data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040330