JPH10340332A - Image processor, image processing method and medium recording image processing control program - Google Patents

Image processor, image processing method and medium recording image processing control program

Info

Publication number
JPH10340332A
JPH10340332A JP9151413A JP15141397A JPH10340332A JP H10340332 A JPH10340332 A JP H10340332A JP 9151413 A JP9151413 A JP 9151413A JP 15141397 A JP15141397 A JP 15141397A JP H10340332 A JPH10340332 A JP H10340332A
Authority
JP
Japan
Prior art keywords
image
image processing
degree
pixel
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9151413A
Other languages
Japanese (ja)
Other versions
JP3921737B2 (en
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP15141397A priority Critical patent/JP3921737B2/en
Priority to US09/093,094 priority patent/US6738527B2/en
Priority to EP10158002A priority patent/EP2199973A3/en
Priority to EP98304509A priority patent/EP0891075A3/en
Publication of JPH10340332A publication Critical patent/JPH10340332A/en
Priority to US10/742,718 priority patent/US7259894B2/en
Priority to US11/491,278 priority patent/US7940426B2/en
Priority to US11/491,305 priority patent/US7755801B2/en
Priority to US11/739,858 priority patent/US7508548B2/en
Application granted granted Critical
Publication of JP3921737B2 publication Critical patent/JP3921737B2/en
Priority to US13/081,027 priority patent/US8553285B2/en
Priority to US13/455,575 priority patent/US8867099B2/en
Priority to US13/719,602 priority patent/US8681380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically select and execute an optimum image processing by deciding image processing contents based on the image data of a picture element judged as an object and performing the image processing based on the decided contents. SOLUTION: An image input device 10 outputs real projection image data for indicating a photograph or the like as the picture elements in a dot matrix shape to the image processor 20 and the image processor 20 decides the contents and degree of the image processing through a prescribed processing and then, executes the image processing. The image processor 20 outputs image-processed image data to an image output device 30 and the image output device 30 outputs the image-processed images by the picture elements in the dot matrix shape. In this case, for the image data outputted by the image processor 20, the picture element of the large degree of the change of the images in the respective picture element is judged as the object, the contents and degree of the image processing are judged based on the conditions of the image data of such an object and the image processing is performed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル写真画像
のような実写画像データに対して最適な画像処理を自動
的に実行する画像処理装置、画像処理方法、画像処理制
御プログラムを記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a medium in which an image processing control program for automatically executing optimum image processing on photographed image data such as digital photographic images. .

【0002】[0002]

【従来の技術】ディジタル画像データに対して各種の画
像処理が行われている。例えば、コントラストを拡大す
るものであるとか、色調を補正するものであるとか、明
るさを補正するといった画像処理である。これらの画像
処理は、通常、マイクロコンピュータで実行可能となっ
ており、操作者がモニタ上で画像を確認して必要な画像
処理を選択したり、画像処理のパラメータなどを決定し
ている。
2. Description of the Related Art Various types of image processing are performed on digital image data. For example, it is an image processing for expanding the contrast, correcting the color tone, or correcting the brightness. Normally, these image processings can be executed by a microcomputer, and an operator checks an image on a monitor and selects necessary image processing, or determines parameters of the image processing.

【0003】[0003]

【発明が解決しようとする課題】近年、画像処理の技法
については各種のものが提案され、実際に効果を発揮し
ている。しかしながら、どの技法でどの程度の処理を行
うかとなると、依然、人間が関与しなければならない。
これは、画像処理の対象となるディジタル画像データに
おいて、どこが重要であるのかを判断することができな
かったためである。
In recent years, various image processing techniques have been proposed and have actually been effective. However, when it comes to how much processing is done with which technique, humans still have to be involved.
This is because it is not possible to determine where the digital image data to be subjected to image processing is important.

【0004】例えば、明るさを補正する画像処理を考え
た場合、画面全体の平均が暗ければ明るく補正し、逆に
平均が明るければ暗く補正するという自動処理を考えた
とする。ここで、夜間撮影した人物像の実写画像データ
があるとする。背景は殆ど真っ暗に近いものの、人物自
体は良好に撮影できていたとする。この実写画像データ
を自動補正すると、背景が真っ暗であるがために明るく
補正しようとしてしまい、昼間の画像のようになってし
まうことになる。
[0004] For example, in consideration of image processing for correcting brightness, it is assumed that automatic processing is performed in which, if the average of the entire screen is dark, the image is corrected to be bright, and if the average is bright, the image is corrected to be dark. Here, it is assumed that there is real image data of a person image taken at night. It is assumed that although the background is almost completely dark, the person itself has been well photographed. When the real image data is automatically corrected, the background is completely dark, and the image is to be corrected to be bright, resulting in a daytime image.

【0005】この場合、人間が関与していれば人物像の
部分だけに注目する。そして、人物像が暗ければ少し明
るく補正するし、逆に、フラッシュなどの効果で明る過
ぎれば暗くする補正を選択する。
In this case, if a human is involved, attention is paid only to the part of the human figure. Then, if the person image is dark, the correction is made slightly brighter, and conversely, if the image is too bright due to the effect of flash or the like, the correction is made darker.

【0006】このように、従来の画像処理では実写画像
データの中の重要な部分(これを、オブジェクトと呼ぶ
ことにする)を判断することができないため、人間が関
与しなければならないという課題があった。
As described above, in the conventional image processing, it is impossible to determine an important part (this is called an object) in the actual photographed image data, so that there is a problem that a human must be involved. there were.

【0007】本発明は、上記課題にかんがみてなされた
もので、デジタル写真画像のような実写画像データにお
ける重要な部分を検出し、自動的に最適な画像処理を選
択して実行することが可能な画像処理装置、画像処理方
法、画像処理制御プログラムを記録した媒体の提供を目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is possible to detect an important portion in photographed image data such as a digital photographic image and automatically select and execute an optimum image processing. It is an object of the present invention to provide a medium storing an image processing apparatus, an image processing method, and an image processing control program.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、ドットマトリクス状の画
素からなる実写画像データを入力して所定の画像処理を
行う画像処理装置であって、各画素での画像の変化度合
いに基づいて同変化度合いの大きな画素をオブジェクト
と判断するオブジェクト判断手段と、オブジェクトと判
断された画素の画像データに基づいて画像処理内容を決
定し、同決定した内容に基づいて画像処理する処理手段
を具備する構成としてある。
According to a first aspect of the present invention, there is provided an image processing apparatus for inputting real image data consisting of pixels in a dot matrix and performing predetermined image processing. Object determination means for determining a pixel having a large degree of change as an object based on the degree of change of an image at each pixel; and determining image processing content based on image data of the pixel determined to be an object, and determining the same. The configuration includes a processing unit that performs image processing based on the content.

【0009】一般的な人物像の写真画像を想定すると、
その人物を中心に捉えて撮影するのが普通である。従っ
て、人物部分にピントが合わせられてシャープな画像と
なっている。画像がシャープであるとその輪郭部分がは
っきりし、画像の変化度合いは大きくなる。このため、
画像の変化度合いが大きな画素はピントを合わせられた
本来のオブジェクトであると想定しても誤りではない可
能性が極めて高い。
Assuming a photographic image of a general human figure,
It is common to take a picture focusing on that person. Therefore, a sharp image is obtained by focusing on the person portion. When the image is sharp, its outline is clear, and the degree of change of the image is large. For this reason,
Even if it is assumed that a pixel having a large degree of change in the image is an original object that has been focused, it is highly likely that it is not an error.

【0010】上記のように構成した請求項1にかかる発
明においては、実写画像データはドットマトリクス状の
画素からなり、画素単位での画像処理が行われるが、こ
れに先だって、オブジェクト判断手段は各画素での画像
の変化度合いに基づいて同変化度合いの大きな画素をオ
ブジェクトと判断する。そして、このようにオブジェク
トと判断された画素の画像データに基づいて処理手段が
画像処理内容を決定し、同決定した内容に基づいて画像
処理する。
In the first aspect of the present invention, the actual image data is composed of pixels in a dot matrix, and image processing is performed on a pixel basis. A pixel having a large degree of change is determined as an object based on the degree of change of the image in the pixel. Then, the processing means determines the image processing content based on the image data of the pixel determined as the object as described above, and performs the image processing based on the determined content.

【0011】オブジェクト判断手段が画像の変化度合い
を判断する手法は適宜各種のものを採用可能である。そ
の一例として、請求項2にかかる発明は、請求項1に記
載の画像処理装置において、上記オブジェクト判断手段
は、隣接する画素間での画像データの差に基づいて画像
の変化度合いを判断する構成としてある。
Various methods can be adopted as appropriate for the object judging means to judge the degree of change of the image. As an example, the invention according to claim 2 is the image processing apparatus according to claim 1, wherein the object determination unit determines a degree of change of an image based on a difference in image data between adjacent pixels. There is.

【0012】上記のように構成した請求項2にかかる発
明においては、画像の変化度合いを判断するにあたり、
オブジェクト判断手段は隣接する画素間での画像データ
の差に基づいて判断する。ドットマトリクス状の画素の
ように一定間隔で並んでいる場合、隣接する画素間のデ
ータの差は一次微分値と比例するため、このような差分
をもってして画像の変化度合いと判断できる。この場
合、差分をベクトルの大きさと考えるとともに、隣接方
向を考慮してベクトルを合成するようにしてもよい。
In the invention according to claim 2 configured as described above, when judging the degree of change of the image,
The object determining means makes a determination based on a difference in image data between adjacent pixels. When the pixels are arranged at regular intervals like pixels in a dot matrix, the difference in data between adjacent pixels is proportional to the primary differential value, and thus such difference can be used to determine the degree of change in the image. In this case, the difference may be considered as the magnitude of the vector, and the vector may be synthesized in consideration of the adjacent direction.

【0013】さらに、請求項3にかかる発明は、請求項
1または請求項2のいずれかに記載の画像処理装置にお
いて、上記オブジェクト判断手段は、画像の変化度合い
が大きいか否かを判断する基準を画像の部位によって変
化させる構成としてある。
According to a third aspect of the present invention, in the image processing apparatus according to any one of the first and second aspects, the object determining means determines whether or not the degree of change of the image is large. Is changed depending on the part of the image.

【0014】写真の構図を想定すると、人物像を中央に
据えて取ることが多い。この場合、画像処理内容を決定
するためにオブジェクトと判断すべき画素は中央部分か
ら選択される方が好ましいと言える。ところで、画像の
変化度合いが大きいか否かは比較となる値との差といえ
るし、このような比較の値が必ずしも一定でなければな
らない理由はない。
Assuming the composition of a photograph, a human figure is often set in the center. In this case, it can be said that it is preferable that the pixel to be determined as an object in order to determine the content of the image processing be selected from the central portion. By the way, it can be said that whether or not the degree of change of the image is large is a difference from a value to be compared, and there is no reason why such a value of the comparison must be always constant.

【0015】そこで、上記のように構成した請求項3に
かかる発明においては、画像の変化度合いが大きいか否
かを判断するにあたり、オブジェクト判断手段はその基
準を画像の部位によって変化させ、部位毎の基準と各画
素における画像の変化度合いとを比較する。
Therefore, in the invention according to claim 3 configured as described above, in determining whether or not the degree of change of the image is large, the object determining means changes the criterion according to the part of the image, and Is compared with the degree of change of the image in each pixel.

【0016】基準を変化させる方針は各種のものを採用
可能である。その一例として一定の傾向を決めておいて
も良いし、他の一例として変化させる傾向自体を画像か
ら読み取るような方針でも良い。前者の一例として、請
求項4にかかる発明は、請求項3に記載の画像処理装置
において、上記オブジェクト判断手段は、上記基準を画
像の中央部の方が周縁部よりも低くする構成としてあ
る。
Various policies can be adopted for changing the standard. As an example, a certain tendency may be determined, or as another example, a policy of changing the tendency itself may be read from an image. As an example of the former, the invention according to claim 4 is the image processing apparatus according to claim 3, wherein the object determination means is configured such that the reference is lower at the center of the image than at the periphery.

【0017】上記のように構成した請求項4にかかる発
明においては、上記基準を画像の中央部の方が周縁部よ
りも低くすることにより、同程度の画像の変化度合いで
あったとしても画像の中央部の方がよりオブジェクトと
して判断されやすくなる。従って、中央部に人物像があ
ればこの人物像の画素がより多くオブジェクトの画素と
して判断されることになる。
In the invention according to claim 4 having the above-described configuration, by setting the reference at the center of the image to be lower than that at the peripheral portion, the image can be changed even if the image has the same degree of change. Is more easily determined as an object at the center. Therefore, if there is a human image at the center, more pixels of this human image are determined as pixels of the object.

【0018】また、基準を変化させる場合の後者の一例
として、請求項5にかかる発明は、請求項3に記載の画
像処理装置において、上記オブジェクト判断手段は、上
記基準を画像の部位毎における上記画像の変化度合いの
分布に基づいて決定する構成としてある。
According to a fifth aspect of the present invention, in the image processing apparatus according to the third aspect of the present invention, the object determining means determines the criterion for each part of an image. The configuration is determined based on the distribution of the degree of change in the image.

【0019】上記のように構成した請求項5にかかる発
明においては、オブジェクト判断手段が画像の部位毎に
おける画像の変化度合いの分布を求め、この分布を求め
てから上記基準を決定する。そして、この後で同基準と
比較してオブジェクトの画素であるか否かを判断する。
In the invention according to claim 5 configured as described above, the object determining means obtains the distribution of the degree of change of the image for each part of the image, and determines the reference after obtaining this distribution. Then, after that, it is determined whether the pixel is a pixel of the object by comparing with the same reference.

【0020】分布に基づいて基準を決定する場合、変化
度合いの大きな画素が多く集まっている部位はオブジェ
クトの可能性が高いものと判断して基準を低くするよう
なものでも良いし、予め変化度合いの分布パターンに応
じた基準設定のパターンを用意しておき、検出された分
布パターンに基づいて基準設定のパターンを選択すると
いうようなものでもよい。
When the reference is determined on the basis of the distribution, a portion where many pixels having a large degree of change are gathered may be determined to have a high possibility of an object, and the reference may be lowered. In this case, a reference setting pattern corresponding to the distribution pattern is prepared, and the reference setting pattern is selected based on the detected distribution pattern.

【0021】一方、処理手段はオブジェクトと判断され
た画素の画像データに基づいて画像処理内容を決定しつ
つ同決定した内容に基づいて画像処理するものであれば
よく、具体的な処理手法などは特に限定されない。例え
ば、オブジェクトとして判断された画素の輝度分布を求
め、輝度分布範囲が狭ければ所定の割合で拡大するよう
に輝度を修正すればコントラストを拡大する画像処理を
実行できる。また、オブジェクトの輝度分布が全体とし
て暗いようであれば、明るくする補正を実行しても良
い。さらに、オブジェクトとして判断された画素の色分
布を求め、グレイバランスがずれていないかを判断し、
ずれているようであればトーンカーブなどを使用してグ
レイバランスを修正することもできる。
On the other hand, the processing means only needs to determine image processing contents based on the image data of the pixel determined to be an object and perform image processing based on the determined contents. There is no particular limitation. For example, image processing for obtaining a luminance distribution of a pixel determined as an object and correcting the luminance so that the luminance distribution is expanded at a predetermined rate if the luminance distribution range is narrow can be executed. If the luminance distribution of the object is dark as a whole, a correction for increasing the brightness may be executed. Further, the color distribution of the pixel determined as the object is obtained, and it is determined whether the gray balance is shifted.
If it is deviated, the gray balance can be corrected using a tone curve or the like.

【0022】画像の変化度合いの大きな画素をオブジェ
クトの画素と判断する手法は、必ずしも実体のある装置
に限られる必要もなく、その一例として、請求項6にか
かる発明は、ドットマトリクス状の画素からなる実写画
像データを入力して所定の画像処理を行う画像処理方法
であって、各画素での画像の変化度合いに基づいて同変
化度合いの大きな画素をオブジェクトと判断するととも
に、オブジェクトと判断された画素の画像データに基づ
いて画像処理内容を決定し、同決定した内容に基づいて
画像処理する構成としてある。
The method of determining a pixel having a large degree of change in an image as a pixel of an object is not necessarily limited to a substantial device, and as an example, the invention according to claim 6 is based on a method of determining pixels from a dot matrix. An image processing method for inputting real image data and performing predetermined image processing, wherein a pixel having a large degree of change is determined to be an object based on a degree of change of an image at each pixel, and is determined to be an object. The image processing content is determined based on the image data of the pixels, and the image processing is performed based on the determined content.

【0023】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。
That is, there is no difference in that the present invention is not necessarily limited to a substantial device and is also effective as a method.

【0024】ところで、上述したようにオブジェクトを
判断して画像処理する画像処理装置は単独で存在する場
合もあるし、ある機器に組み込まれた状態で利用される
こともあるなど、発明の思想としては各種の態様を含む
ものである。また、ハードウェアで実現されたり、ソフ
トウェアで実現されるなど、適宜、変更可能である。
As described above, the image processing apparatus that determines an object and performs image processing as described above may exist alone or may be used while being incorporated in a certain device. Includes various aspects. Further, it can be appropriately changed, for example, by hardware or software.

【0025】発明の思想の具現化例として画像処理装置
を制御するソフトウェアとなる場合には、かかるソフト
ウェアを記録した記録媒体上においても当然に存在し、
利用されるといわざるをえない。
When the software for controlling the image processing apparatus is realized as an embodiment of the idea of the present invention, the software naturally exists on a recording medium on which such software is recorded.
I have to say that it is used.

【0026】その一例として、請求項7にかかる発明
は、コンピュータにてドットマトリクス状の画素からな
る実写画像データを入力して所定の画像処理を行う画像
処理制御プログラムを記録した媒体であって、各画素で
の画像の変化度合いに基づいて同変化度合いの大きな画
素をオブジェクトと判断するとともに、オブジェクトと
判断された画素の画像データに基づいて画像処理内容を
決定し、同決定した内容に基づいて画像処理する構成と
してある。
As an example thereof, the invention according to claim 7 is a medium in which an image processing control program for performing a predetermined image processing by inputting real image data composed of dot matrix pixels by a computer is provided. Based on the degree of change of the image at each pixel, determine the pixel having the same degree of change as an object, determine the image processing content based on the image data of the pixel determined as the object, and based on the determined content. It is configured to perform image processing.

【0027】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、供給方法として通信回線を利用して行う場合でも本
発明が利用されていることには変わりないし、半導体チ
ップに書き込まれたようなものであっても同様である。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is still used even when the supply method is performed using a communication line, and the same applies to a case where the information is written on a semiconductor chip.

【0028】さらに、一部がソフトウェアであって、一
部がハードウェアで実現されている場合においても発明
の思想において全く異なるものはなく、一部を記録媒体
上に記憶しておいて必要に応じて適宜読み込まれるよう
な形態のものとしてあってもよい。
Further, even when a part is realized by software and a part is realized by hardware, there is no difference in the concept of the invention, and it is necessary to store a part on a recording medium. It may be in a form that is appropriately read in accordance with it.

【0029】[0029]

【発明の効果】以上説明したように本発明は、従来は人
間が関与しなければ判断できなかったオブジェクトの判
断を画像の変化度合いの大きな画素として判断すること
により自動化が可能となり、そのオブジェクトに応じて
画像処理内容を適宜変更して最適な画像処理を実行する
ことが可能な画像処理装置を提供することができる。
As described above, according to the present invention, it is possible to automate the judgment of an object, which could not be judged without human involvement, by judging it as a pixel having a large degree of change in the image. Accordingly, it is possible to provide an image processing apparatus capable of appropriately changing image processing contents and executing optimum image processing.

【0030】また、請求項2にかかる発明によれば、隣
接する画素間での画像データの差を求めるだけであるの
で、演算が容易であり、オブジェクト判断のための処理
量を低減できる。
According to the second aspect of the present invention, since only the difference between the image data between adjacent pixels is obtained, the calculation is easy and the processing amount for object determination can be reduced.

【0031】さらに、請求項3にかかる発明によれば、
画像の部位によって画像の変化度合いの評価を変えるた
め、構図などを考慮したより融通の高い判断が可能とな
る。
Further, according to the third aspect of the present invention,
Since the evaluation of the degree of change of the image is changed depending on the part of the image, a more flexible judgment can be made in consideration of the composition and the like.

【0032】さらに、請求項4にかかる発明によれば、
写真の構図としての中央部分に重点をおく判断が可能と
なり、多くの画像データを効率的に処理することが可能
となる。
Further, according to the invention of claim 4,
This makes it possible to make a determination with emphasis on the central part of the composition of the photograph, and to efficiently process a large amount of image data.

【0033】さらに、請求項5にかかる発明によれば、
各画像毎の画像の変化度合いの分布を考慮してオブジェ
クトの判断が可能となり、柔軟な対処が可能となる。
Further, according to the invention of claim 5,
The object can be determined in consideration of the distribution of the degree of change of the image for each image, and flexible measures can be taken.

【0034】さらに、請求項6にかかる発明によれば、
オブジェクトの判断を自動化して画像処理内容を適宜変
更して最適な画像処理を実行することが可能な画像処理
方法を提供でき、請求項7にかかる発明によれば、同様
の処理をコンピュータにて実行する画像処理制御プログ
ラムを記録した媒体を提供することができる。
Further, according to the invention of claim 6,
It is possible to provide an image processing method capable of executing the optimum image processing by automatically changing the content of the image processing by automating the determination of the object. According to the invention according to claim 7, the same processing is performed by a computer. A medium recording an image processing control program to be executed can be provided.

【0035】[0035]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0036】図1は、本発明の一実施形態にかかる画像
処理装置を適用した画像処理システムをブロック図によ
り示しており、図2は具体的ハードウェア構成例を概略
ブロック図により示している。
FIG. 1 is a block diagram showing an image processing system to which an image processing apparatus according to an embodiment of the present invention is applied, and FIG. 2 is a schematic block diagram showing an example of a specific hardware configuration.

【0037】図1において、画像入力装置10は写真な
どをドットマトリクス状の画素として表した実写画像デ
ータを画像処理装置20へ出力し、同画像処理装置20
は所定の処理を経て画像処理の内容と程度を決定してか
ら画像処理を実行する。同画像処理装置20は画像処理
した画像データを画像出力装置30へ出力し、画像出力
装置は画像処理された画像をドットマトリクス状の画素
で出力する。ここにおいて、画像処理装置20が出力す
る画像データは、各画素における画像の変化度合いを求
めて同変化度合いの大きな画素がオブジェクトであると
判断し、このようなオブジェクトの画像データの状況に
即して画像処理の内容及び程度を判定して画像処理され
たものである。従って、画像処理装置20は、このよう
にして各画素における画像の変化度合いを求めて同変化
度合いの大きな画素がオブジェクトであると判断するオ
ブジェクト判断手段と、このようなオブジェクトの画像
データの状況に即して画像処理の内容及び程度を判定し
て画像処理する処理手段とを備えている。
In FIG. 1, an image input device 10 outputs actual image data representing a photograph or the like as pixels in a dot matrix form to an image processing device 20, and the image input device 10
Performs the image processing after determining the content and degree of the image processing through a predetermined process. The image processing device 20 outputs the image-processed image data to the image output device 30, and the image output device outputs the image-processed image as pixels in a dot matrix. Here, the image data output by the image processing apparatus 20 determines the degree of change of the image at each pixel, determines that the pixel having the same degree of change is an object, and matches the state of the image data of such an object. The image processing is performed by determining the content and degree of the image processing. Therefore, the image processing device 20 determines the degree of change of the image at each pixel in this way, and determines that the pixel having the large degree of change is an object, and determines the state of the image data of such an object. Processing means for determining the content and degree of image processing and performing image processing.

【0038】画像入力装置10の具体例は図2における
スキャナ11やデジタルスチルカメラ12あるいはビデ
オカメラ14などが該当し、画像処理装置20の具体例
はコンピュータ21とハードディスク22とキーボード
23とCD−ROMドライブ24とフロッピーディスク
ドライブ25とモデム26などからなるコンピュータシ
ステムが該当し、画像出力装置30の具体例はプリンタ
31やディスプレイ32等が該当する。本実施形態の場
合、画像処理としてオブジェクトを見つけて適切な画像
処理を行なうものであるため、画像データとしては写真
などの実写データが好適である。なお、モデム26につ
いては公衆通信回線に接続され、外部のネットワークに
同公衆通信回線を介して接続し、ソフトウェアやデータ
をダウンロードして導入可能となっている。
A specific example of the image input device 10 corresponds to the scanner 11, the digital still camera 12, or the video camera 14 in FIG. 2, and a specific example of the image processing device 20 is a computer 21, a hard disk 22, a keyboard 23, a CD-ROM. A computer system including a drive 24, a floppy disk drive 25, a modem 26, and the like corresponds to the computer system. Specific examples of the image output device 30 correspond to a printer 31, a display 32, and the like. In the case of the present embodiment, since an object is found as image processing and appropriate image processing is performed, actual image data such as a photograph is suitable as image data. The modem 26 is connected to a public communication line, is connected to an external network via the public communication line, and can download and install software and data.

【0039】本実施形態においては、画像入力装置10
としてのスキャナ11やデジタルスチルカメラ12が画
像データとしてRGB(緑、青、赤)の階調データを出
力するとともに、画像出力装置30としてのプリンタ3
1は階調データとしてCMY(シアン、マゼンダ、イエ
ロー)あるいはこれに黒を加えたCMYKの二値データ
を入力として必要とするし、ディスプレイ32はRGB
の階調データを入力として必要とする。一方、コンピュ
ータ21内ではオペレーティングシステム21aが稼働
しており、プリンタ31やディスプレイ32に対応した
プリンタドライバ21bやディスプレイドライバ21c
が組み込まれている。また、画像処理アプリケーション
21dはオペレーティングシステム21aにて処理の実
行を制御され、必要に応じてプリンタドライバ21bや
ディスプレイドライバ21cと連携して所定の画像処理
を実行する。従って、画像処理装置20としてのこのコ
ンピュータ21の具体的役割は、RGBの階調データを
入力して最適な画像処理を施したRGBの階調データを
作成し、ディスプレイドライバ21cを介してディスプ
レイ32に表示させるとともに、プリンタドライバ21
bを介してCMY(あるいはCMYK)の二値データに
変換してプリンタ31に印刷させることになる。
In this embodiment, the image input device 10
The scanner 11 and the digital still camera 12 output RGB (green, blue, red) gradation data as image data, and the printer 3 as the image output device 30.
1 requires CMY (cyan, magenta, yellow) or CMYK binary data obtained by adding black to the input as gradation data, and the display 32 has RGB data.
Is required as an input. On the other hand, an operating system 21a is running in the computer 21, and a printer driver 21b and a display driver 21c corresponding to the printer 31 and the display 32 are provided.
Is incorporated. The image processing application 21d is controlled by the operating system 21a to execute processing, and executes predetermined image processing in cooperation with the printer driver 21b and the display driver 21c as necessary. Therefore, the specific role of the computer 21 as the image processing apparatus 20 is to input RGB gradation data, create RGB gradation data subjected to optimal image processing, and display the RGB data through the display driver 21c. And the printer driver 21
The data is converted into binary data of CMY (or CMYK) via b and printed by the printer 31.

【0040】このように、本実施形態においては、画像
の入出力装置の間にコンピュータシステムを組み込んで
画像処理を行うようにしているが、必ずしもかかるコン
ピュータシステムを必要とするわけではなく、画像デー
タに対して各種の画像処理を行うシステムであればよ
い。例えば、図3に示すようにデジタルスチルカメラ1
2a内にオブジェクトを判断して画像処理する画像処理
装置を組み込み、変換した画像データを用いてディスプ
レイ32aに表示させたりプリンタ31aに印字させる
ようなシステムであっても良い。また、図4に示すよう
に、コンピュータシステムを介することなく画像データ
を入力して印刷するプリンタ31bにおいては、スキャ
ナ11bやデジタルスチルカメラ12bあるいはモデム
26b等を介して入力される画像データから自動的にオ
ブジェクトを判断して画像処理するように構成すること
も可能である。
As described above, in this embodiment, a computer system is incorporated between image input / output devices to perform image processing. However, such a computer system is not necessarily required, and image data is not necessarily required. Any system can be used as long as it performs various types of image processing. For example, as shown in FIG.
An image processing apparatus that determines an object and performs image processing on the object may be incorporated in 2a, and the converted image data may be used to display on the display 32a or print on the printer 31a. As shown in FIG. 4, in a printer 31b that inputs and prints image data without passing through a computer system, the printer 31b automatically receives image data input through a scanner 11b, a digital still camera 12b, a modem 26b, or the like. It is also possible to adopt a configuration in which an object is determined and image processing is performed.

【0041】上述したオブジェクトの判断とそれに伴う
画像処理は、具体的には上記コンピュータ21内にて図
5などに示すフローチャートに対応した画像処理プログ
ラムで行っている。同図に示すフローチャートにおいて
は、オブジェクトであるか否かの判断を実行している。
The above-described object determination and the associated image processing are performed in the computer 21 by an image processing program corresponding to the flowchart shown in FIG. In the flowchart shown in the figure, it is determined whether or not the object is an object.

【0042】オブジェクトは他の部分と比較して画像が
シャープであるという経験的事実に基づいて、本発明に
おいては画像がシャープな画素がオブジェクトの画素で
あると判断する。画像データがドットマトリクス状の画
素から構成されている場合には、各画素ごとに上述した
RGBの輝度を表す階調データで表されており、画像の
エッジ部分では隣接する画素間での同データの差分は大
きくなる。この差分は輝度勾配であり、これをエッジ度
と呼ぶことにし、ステップS110では各画素でのエッ
ジ度を判定する。図6に示すようなXY直交座標を考察
する場合、画像の変化度合いのベクトルはX軸方向成分
とY軸方向成分とをそれぞれ求めれば演算可能となる。
ドットマトリクス状の画素からなるディジタル画像にお
いては、図7に示すように縦軸方向と横軸方向に画素が
隣接しており、その明るさをf(x,y)で表すものと
する。この場合、f(x,y)はRGBの各輝度である
R(x,y),G(x,y),B(x,y)であった
り、あるいは全体の輝度Y(x,y)であってもよい、
なお、RGBの各輝度であるR(x,y),G(x,
y),B(x,y)と全体の輝度Y(x,y)との関係
は、厳密には色変換テーブルなどを参照しなければ変換
不能であるが、後述するようにして簡易な対応関係を利
用するようにしても良い。
Based on the empirical fact that the image of the object is sharper than other parts, the present invention determines that the pixels of the image that are sharper are the pixels of the object. When the image data is composed of pixels in a dot matrix, each pixel is represented by the above-described gradation data representing the RGB luminance, and the same data between adjacent pixels is used at the edge portion of the image. Becomes larger. This difference is a luminance gradient, which is called an edge degree. In step S110, the edge degree at each pixel is determined. When considering the XY orthogonal coordinates as shown in FIG. 6, the vector of the degree of change of the image can be calculated by obtaining the X-axis direction component and the Y-axis direction component, respectively.
In a digital image composed of pixels in a dot matrix, pixels are adjacent to each other in the vertical and horizontal directions as shown in FIG. 7, and the brightness thereof is represented by f (x, y). In this case, f (x, y) is R (x, y), G (x, y), B (x, y) which is each luminance of RGB, or the whole luminance Y (x, y). May be
Note that R (x, y) and G (x,
The relationship between y), B (x, y) and the overall luminance Y (x, y) cannot be converted unless strictly referring to a color conversion table or the like. The relationship may be used.

【0043】図7に示すものにおいて、X方向の差分値
fxとY方向の差分値fyは、 fx=f(x+1,y)−f(x,y) …(1) fy=f(x,y+1)−f(x,y) …(2) のように表される。従って、これらを成分とするベクト
ルの大きさ|g(x,y)|は、 |g(x,y)|=(fx**2+fy**2)**(1/2) …(3) のように表される。むろん、エッジ度はこの|g(x,
y)|で表される。なお、本来、画素は図8に示すよう
に縦横に升目状に配置されており、中央の画素に注目す
ると八つの隣接画素がある。従って、同様にそれぞれの
隣接する画素との画像データの差分をベクトルで表し、
このベクトルの和を画像の変化度合いと判断しても良
い。
In FIG. 7, the difference value fx in the X direction and the difference value fy in the Y direction are: fx = f (x + 1, y) -f (x, y) (1) fy = f (x, y + 1) -f (x, y) (2) Therefore, the magnitude | g (x, y) | of a vector having these as components is | g (x, y) | = (fx ** 2 + fy ** 2) ** (1/2) (3) It is represented as Of course, the degree of edge is | g (x,
y) | Note that the pixels are originally arranged vertically and horizontally in a grid as shown in FIG. 8, and there are eight adjacent pixels when focusing on the central pixel. Therefore, similarly, the difference between the image data of each of the adjacent pixels is represented by a vector,
The sum of the vectors may be determined as the degree of change in the image.

【0044】以上のようにして各画素についてエッジ度
が求められるので、基本的にはあるしきい値と比較して
エッジ度の方が大きい画素をオブジェクトの画素と判断
すればよい。しかしながら、経験的事実から考察する
と、オブジェクトは構図の中央部分に位置することが多
い。この事実は、中央部分から多くの画素が抽出される
ような仕組みとすることによって実行すべき画像処理の
判断に利用されるようにすることが好ましい効果を得ら
れるということを裏付けるものである。
Since the edge degree is obtained for each pixel as described above, basically, a pixel having a larger edge degree than a certain threshold value may be determined as a pixel of an object. However, considering empirical facts, objects are often located in the center of the composition. This fact confirms that a favorable effect can be obtained by adopting a structure in which a large number of pixels are extracted from the central portion so as to be used for determining image processing to be executed.

【0045】このため、図9に示すように、画像の中の
部分毎に比較するしきい値Th1,Th2,Th3を異
ならせておくようにしている。むろん、この例では、 Th1<Th2<Th3 …(4) なる関係があり、中央に近い部分ほどしきい値は低く、
エッジ度が比較的低くてもオブジェクトと判断されるよ
うになっている。
For this reason, as shown in FIG. 9, the threshold values Th1, Th2, Th3 to be compared for each part in the image are made different. Needless to say, in this example, there is a relationship of Th1 <Th2 <Th3 (4), and the threshold value is lower in the portion closer to the center,
Even if the edge degree is relatively low, it is determined that the object is an object.

【0046】同図に示すように、しきい値を変化させる
ため、領域としては画像の中央から水平方向と垂直方向
に均等に三等分している。そして、ステップS120で
はエッジ度を判定した画素がどの領域にあるかに基づい
て比較のためのしきい値を判定し、ステップS130に
て同エッジ度と同しきい値とを比較して変化度合いが大
きいか否かを判断する。比較の結果、エッジ度の方が大
きければこの画素はオブジェクトの画素であると判断
し、ステップS140にてその画素の画像データをワー
クエリアに保存する。ワークエリアはコンピュータ21
内のRAMであってもよいしハードディスク22であっ
てもよい。
As shown in the figure, in order to change the threshold value, the region is equally divided into three in the horizontal and vertical directions from the center of the image. Then, in step S120, a threshold value for comparison is determined based on the area in which the pixel whose edge degree has been determined is located. In step S130, the edge degree is compared with the threshold value to determine the degree of change. Is determined to be large. As a result of the comparison, if the edge degree is larger, it is determined that the pixel is a pixel of the object, and the image data of the pixel is stored in the work area in step S140. Work area is computer 21
Or a hard disk 22.

【0047】以上のような処理を画像データの各画素に
ついて行うため、ステップS150にて処理の対象画素
を移動させ、ステップS160にて全画素について終了
したと判断されるまで処理を繰り返す。
In order to perform the above processing for each pixel of the image data, the pixel to be processed is moved in step S150, and the processing is repeated until it is determined in step S160 that all the pixels have been completed.

【0048】上述した実施形態においては、しきい値を
変更するにあたって常に画像の中央部分を基準とした領
域の分割を行っているが、エッジ度の分布に基づいて領
域の分割の仕方を変化させるようにしても良い。図10
はこのように領域の分割を適宜変化させるためのフロー
チャートを示しており、図11はこれによって分割され
る領域を示している。
In the above-described embodiment, when the threshold value is changed, the area is always divided with reference to the central part of the image. However, the manner of dividing the area is changed based on the distribution of the edge degree. You may do it. FIG.
FIG. 11 shows a flowchart for appropriately changing the division of the area in this way, and FIG. 11 shows the area divided by this.

【0049】この場合も同様に処理対象となる画素を移
動させながら各画素について以下の処理を実行してい
く。ステップS210で上記エッジ度を判定したら、ス
テップS220では水平軸方向に集計し、ステップS2
30では垂直軸方向に集計する。ステップS240にて
対象画素を移動させ、ステップS250で全画素終了と
判断されるまでループする。
In this case, the following processing is executed for each pixel while moving the pixel to be processed. After the edge degree is determined in step S210, the total is calculated in the horizontal axis direction in step S220.
At 30, the data is totaled in the vertical axis direction. The target pixel is moved in step S240, and the process loops until it is determined in step S250 that all pixels have been completed.

【0050】水平軸方向と垂直軸方向とについて集計が
終了したら、ステップ260では水平軸での最大分布位
置を決定し、ステップS270では垂直軸での最大分布
位置を決定する。図11に示すように、水平軸と垂直軸
でのエッジ度の高い部分を画像の中心と考え、領域を次
のように分割している。
After the summation in the horizontal axis direction and the vertical axis direction is completed, the maximum distribution position on the horizontal axis is determined in step 260, and the maximum distribution position on the vertical axis is determined in step S270. As shown in FIG. 11, a portion having a high edge degree on the horizontal axis and the vertical axis is considered as the center of the image, and the region is divided as follows.

【0051】水平方向と垂直方向とについて、中央から
端までの距離を二等分し、その内側の領域についてしき
い値Th1とし、残りの距離をそれぞれ二等分して内側
の領域についてしきい値Th2とするとともに、外側の
領域についてしきい値Th3とする。ステップS280
ではこのようにして領域を分けることによって比較基準
を決定し、ステップS290ではこの領域としきい値と
の対応のもとで上述したステップS110〜S160と
同じ処理でエッジ度に基づくサンプリングを行ってオブ
ジェクトの画素を判断する。
In the horizontal direction and the vertical direction, the distance from the center to the end is bisected, the threshold value Th1 is set for the inside area, and the remaining distance is divided into two equal parts, and the threshold is set for the inside area. In addition to the value Th2, the threshold value Th3 is set for the outer region. Step S280
In this manner, the comparison criterion is determined by dividing the region in this way. In step S290, sampling based on the edge degree is performed by the same processing as in steps S110 to S160 described above based on the correspondence between this region and the threshold. Is determined.

【0052】この例では、水平軸方向と垂直軸方向のそ
れぞれで中央部分を求めてから領域を二等分ずつしなが
ら分割しているが、エッジ度の分布に基づいて領域の分
割手法を変更することができれば良く、具体的な分割手
法などは適宜変更可能である。
In this example, the center is obtained in each of the horizontal axis direction and the vertical axis direction, and then the area is divided into two equal parts. However, the area dividing method is changed based on the distribution of the edge degree. It is only necessary to be able to perform the division, and a specific division method can be appropriately changed.

【0053】例えば、上述した例では、水平軸方向と垂
直軸方向の集計を画素単位で行っていたが、図12に示
すように、画像を比較的大きな升目に区切り、この升目
の単位で集計し、最大分布位置を決定するとともに、領
域分割を実行するようにしても良い。
For example, in the above-described example, the totaling in the horizontal axis direction and the vertical axis direction is performed in pixel units. However, as shown in FIG. 12, the image is divided into relatively large cells, and the totaling is performed in units of this cell. Then, the maximum distribution position may be determined, and the area division may be performed.

【0054】以上のようにしてオブジェクトの画素を抽
出することができたら、これらの画素の画像データに基
づいて最適な画像処理を決定し、実行する。図13は、
その一例としてコントラストの拡大と明度の補正の画像
処理を実行するためのフローチャートを示している。
When the pixels of the object can be extracted as described above, the optimum image processing is determined and executed based on the image data of these pixels. FIG.
As an example, a flowchart for executing image processing for contrast enhancement and brightness correction is shown.

【0055】本実施形態でのコントラストを拡大するた
めの基本的な手法は、オブジェクトの画像データに基づ
いて輝度分布を求め、この輝度分布が本来の階調幅(2
55階調)の一部分しか利用していないのであれば分布
を拡大するというものである。
The basic method for increasing the contrast in the present embodiment is to obtain a luminance distribution based on the image data of the object, and to determine the luminance distribution based on the original gradation width (2).
If only a part of (55 gradations) is used, the distribution is expanded.

【0056】従って、ステップS310では輝度分布の
ヒストグラムを作成し、ステップS320では拡大する
幅を決定する。拡大幅を決定するにあたり、輝度分布の
両端を求めることを考える。写真画像の輝度分布は図1
4に示すように概ね山形に表れる。むろん、その位置、
形状についてはさまざまである。輝度分布の幅はこの両
端をどこに決めるかによって決定されるが、単に裾野が
延びて分布数が「0」となる点を両端とすることはでき
ない。裾野部分では分布数が「0」付近で変移する場合
があるし、統計的に見れば限りなく「0」に近づきなが
ら推移していくからである。
Accordingly, in step S310, a histogram of the luminance distribution is created, and in step S320, the width to be enlarged is determined. In determining the enlargement width, consider obtaining both ends of the luminance distribution. Fig. 1 shows the brightness distribution of a photographic image.
As shown in FIG. Of course, its position,
The shapes vary. The width of the luminance distribution is determined depending on where the both ends are determined. However, the point where the number of distributions becomes “0” by extending the base cannot be set as the both ends. This is because the number of distributions may change around “0” in the tail part, and the number of distributions changes while approaching “0” without limit statistically.

【0057】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に経た部分
を分布の両端とする。本実施形態においては、同図に示
すように、この分布割合を0.5%に設定している。む
ろん、この割合については、適宜、変更することが可能
である。このように、ある分布割合だけ上端と下端をカ
ットすることにより、ノイズなどに起因して生じている
白点や黒点を無視することもできる。すなわち、このよ
うな処理をしなければ一点でも白点や黒点があればそれ
が輝度分布の両端となってしまうので、255階調の輝
度値であれば、多くの場合において最下端は階調「0」
であるし、最上端は階調「255」となってしまうが、
上端部分から0.5%の画素数だけ内側に入った部分を
端部とすることにより、このようなことが無くなる。
For this reason, the portions extending inward by a certain distribution ratio from the side with the highest luminance and the side with the lowest luminance in the distribution range are defined as both ends of the distribution. In the present embodiment, as shown in the figure, the distribution ratio is set to 0.5%. Of course, this ratio can be changed as appropriate. In this manner, by cutting the upper and lower ends by a certain distribution ratio, white points and black points caused by noise or the like can be ignored. That is, if such processing is not performed, even if there is even one point, a white point or a black point will be at both ends of the luminance distribution. "0"
And the uppermost end is the gradation “255”,
Such a problem is eliminated by setting a portion which is 0.5% of the number of pixels inside from the upper end portion as an end portion.

【0058】実際の処理ではオブジェクトとして抽出し
た画素数に対する0.5%を演算し、再現可能な輝度分
布における上端の輝度値及び下端の輝度値から順番に内
側に向かいながらそれぞれの分布数を累積し、0.5%
の値となった輝度値を求める。以後、この上端側をym
axと呼び、下端側をyminと呼ぶ。
In the actual processing, 0.5% of the number of pixels extracted as an object is calculated, and the number of distributions is accumulated in order from the upper and lower luminance values in the reproducible luminance distribution in order. And 0.5%
Is obtained. Hereafter, this upper end is ym
ax and the lower end side is called ymin.

【0059】再現可能な輝度の範囲を「0」〜「25
5」としたときに、変換前の輝度yと輝度の分布範囲の
最大値ymaxと最小値yminから変換先の輝度Yを次式に
基づいて求める。
The range of reproducible luminance is from "0" to "25".
When “5” is set, the luminance Y to be converted is obtained from the luminance y before the conversion and the maximum value ymax and the minimum value ymin of the luminance distribution range based on the following equation.

【0060】 Y=ay+b …(5) ただし a=255/(ymax−ymin) …(6) b=−a・yminあるいは255−a・ymax …(7) また、上記変換式にてY<0ならばY=0とし、Y>2
55ならばY=255とする。ここにおける、aは傾き
であり、bはオフセットといえる。この変換式によれ
ば、図15に示すように、あるせまい幅を持った輝度分
布を再現可能な範囲まで広げることができる。ただし、
再現可能な範囲を最大限に利用して輝度分布の拡大を図
った場合、ハイライト部分が白く抜けてしまったり、ハ
イシャドウ部分が黒くつぶれてしまうことが起こる。こ
れを防止するため本実施形態においては、再現可能な範
囲を制限している。すなわち、再現可能な範囲の上端と
下端に拡大しない範囲として輝度値で「5」だけ残して
いる。この結果、変換式のパラメータは次式のようにな
る。
Y = ay + b (5) where a = 255 / (ymax−ymin) (6) b = −a · ymin or 255−a · ymax (7) In the above conversion formula, Y <0 Then, Y = 0 and Y> 2
If 55, Y = 255. Here, “a” is a slope, and “b” is an offset. According to this conversion formula, as shown in FIG. 15, a luminance distribution having a certain narrow width can be expanded to a reproducible range. However,
When the luminance distribution is expanded by maximizing the reproducible range, a highlight portion may be lost in white, or a high shadow portion may be lost in black. In order to prevent this, in the present embodiment, the reproducible range is limited. That is, the luminance value “5” is left as a range that does not expand to the upper and lower ends of the reproducible range. As a result, the parameters of the conversion equation are as follows.

【0061】 a=245/(ymax−ymin) …(8) b=5−a・yminあるいは250−a・ymax …(9) そして、この場合にはy<yminと、y>ymaxの範囲に
おいては変換を行わないようにする。
A = 245 / (ymax−ymin) (8) b = 5−a · ymin or 250−a · ymax (9) In this case, in the range of y <ymin and y> ymax Causes no conversion.

【0062】ただし、このままの拡大率(aに対応)を
適用してしまうと、非常に大きな拡大率が得られる場合
も生じてしまう。例えば、夕方のような薄暮の状態では
最も明るい部分から暗い部分までのコントラストの幅が
狭くて当然であるのに、この画像についてコントラスト
を大きく拡大しようとする結果、昼間の画像のように変
換されてしまいかねない。このような変換は希望されな
いので、拡大率には制限を設けておき、aが1.5(〜
2)以上とはならないように制限する。これにより、薄
暮は薄暮なりに表現されるようになる。なお、この場合
は輝度分布の中心位置がなるべく変化しないような処理
を行っておく。
However, if the enlargement ratio (corresponding to a) is applied as it is, a very large enlargement ratio may be obtained. For example, in a twilight state such as in the evening, the width of the contrast from the brightest part to the dark part is naturally narrow, but as a result of trying to greatly increase the contrast of this image, it is converted like a daytime image. I could end up. Since such conversion is not desired, a limit is set for the enlargement ratio, and a is set to 1.5 (to
2) Restrict it so that it does not exceed the above. Thereby, twilight comes to be expressed as twilight. In this case, processing is performed so that the center position of the luminance distribution does not change as much as possible.

【0063】ところで、輝度の変換時に、毎回、上記変
換式(Y=ay+b)を実行するのは非合理的である。
というのは、輝度yの取りうる範囲が「0」〜「25
5」でしかあり得ないため、予め輝度yが取りうる全て
の値に対応して変換後の輝度Yを求めておくことも可能
である。従って、図16に示すようなテーブルとして記
憶しておく。
By the way, it is irrational to execute the above conversion formula (Y = ay + b) every time the luminance is converted.
That is, the possible range of the luminance y is “0” to “25”.
Since it can be only 5 ", the converted luminance Y can be obtained in advance for all possible values of the luminance y. Therefore, it is stored as a table as shown in FIG.

【0064】このような変換テーブルを形成することが
ステップS320の拡大幅決定処理に該当し、画像デー
タを変更することが可能になる。しかし、このような輝
度の範囲の拡大によってコントラストを強調するだけで
なく、合わせて明るさを調整することも極めて有効であ
るため、ステップS330にて画像の明るさを判断し、
補正のためのパラメータを生成する。
Forming such a conversion table corresponds to the enlargement width determination processing in step S320, and it is possible to change image data. However, since it is extremely effective not only to enhance the contrast by expanding the range of brightness but also to adjust the brightness together, the brightness of the image is determined in step S330.
Generate parameters for correction.

【0065】例えば、図17にて実線で示すように輝度
分布の山が全体的に暗い側に寄っている場合には波線で
示すように全体的に明るい側に山を移動させると良い
し、逆に、図18にて実線で示すように輝度分布の山が
全体的に明るい側に寄っている場合には波線で示すよう
に全体的に暗い側に山を移動させると良い。
For example, in the case where the peaks of the luminance distribution as a whole are closer to the dark side as shown by the solid line in FIG. 17, it is better to move the peaks to the brighter side as a whole as shown by the wavy line. Conversely, when the peaks of the luminance distribution are generally shifted to the bright side as shown by the solid line in FIG. 18, it is preferable to move the peaks to the dark side as a whole as indicated by the wavy line.

【0066】各種の実験を行った結果、本実施形態にお
いては、輝度分布におけるメジアンymedを求め、同
メジアンymedが「85」未満である場合に暗い画像
と判断して以下のγ値に対応するγ補正で明るくする。
As a result of conducting various experiments, in this embodiment, the median ymed in the luminance distribution is obtained, and when the median ymed is less than “85”, the image is determined to be a dark image and corresponds to the following γ value. Brighten with gamma correction.

【0067】 γ=ymed/85 …(10) あるいは、 γ=(ymed/85)**(1/2) …(11) とする。Γ = ymed / 85 (10) or γ = (ymed / 85) ** (1/2) (11)

【0068】この場合、γ<0.7となっても、γ=
0.7とする。このような限界を設けておかないと夜の
画像が昼間のようになってしまうからである。なお、明
るくしすぎると全体的に白っぽい画像になってコントラ
ストが弱い画像になりやすいため、彩度を合わせて強調
するなどの処理が好適である。
In this case, even if γ <0.7, γ =
0.7. Unless such a limit is set, a night image looks like daytime. If the image is made too bright, the image becomes whitish as a whole and the image tends to have a low contrast. Therefore, a process such as emphasizing with saturation is preferable.

【0069】一方、メジアンymedが「128」より
大きい場合に明るい画像と判断して以下のγ値に対応す
るγ補正で暗くする。
On the other hand, when the median ymed is larger than “128”, the image is determined to be a bright image and darkened by γ correction corresponding to the following γ value.

【0070】 γ=ymed/128 …(12) あるいは、 γ=(ymed/128)**(1/2) …(13) とする。この場合、γ>1.3となっても、γ=1.3
として暗くなり過ぎないように限界を設けておく。
Γ = ymed / 128 (12) or γ = (ymed / 128) ** (1/2) (13) In this case, even if γ> 1.3, γ = 1.3.
A limit is set so as not to be too dark.

【0071】なお、このγ補正は変換前の輝度分布に対
して行っても良いし、変換後の輝度分布に対して行って
も良い。γ補正をした場合における対応関係を図19に
示しており、γ<1であれば上方に膨らむカーブとな
り、γ>1であれば下方に膨らむカーブとなる。むろ
ん、かかるγ補正の結果も図16に示すテーブル内に反
映させておけばよく、テーブルデータに対して同補正を
行っておく。
Note that this γ correction may be performed on the luminance distribution before conversion or on the luminance distribution after conversion. FIG. 19 shows a correspondence relationship when the γ correction is performed. If γ <1, the curve expands upward, and if γ> 1, the curve expands downward. Of course, the result of the γ correction may be reflected in the table shown in FIG. 16, and the correction is performed on the table data.

【0072】最後に、ステップS340にてコントラス
ト補正と明度補正が必要であるか否かを判断する。この
判断は上述した拡大率(a)とγ値について適当なしき
い値と比較し、拡大率の方が大きかったりγ値が所定範
囲を超えていたら必要性有りと判断する。そして、必要
性有りと判断されれば画像データの変換を行う。すなわ
ち、ステップS310〜ステップS340にて画像処理
の必要性とその程度を判断し、ステップS350にて必
要と判断された画像処理を実行することになり、これら
を実行するハードウェア構成とソフトウェアとによって
処理手段を構成することになる。
Finally, in step S340, it is determined whether contrast correction and brightness correction are necessary. In this determination, the enlargement ratio (a) and the γ value are compared with appropriate thresholds, and if the enlargement ratio is larger or the γ value exceeds a predetermined range, it is determined that the necessity exists. If it is determined that there is a need, the image data is converted. That is, the necessity and the degree of the image processing are determined in steps S310 to S340, and the image processing determined to be necessary in step S350 is executed. This constitutes processing means.

【0073】画像処理が必要であると判断された場合、
(5)式に基づく変換を行うが、同式の変換式は、RG
Bの成分値との対応関係においても当てはめることがで
き、変換前の成分値(R0,G0,B0)に対して変換後
の成分値(R,G,B)は、 R=a・R0+b …(14) G=a・G0+b …(15) B=a・B0+b …(16) として求めることもできる。ここで、輝度y,Yが階調
「0」〜階調「255」であるのに対応してRGBの各
成分値(R0,G0,B0),(R,G,B)も同じ範囲と
なっており、上述した輝度y,Yの変換テーブルをその
まま利用すればよいといえる。
If it is determined that image processing is necessary,
Conversion based on equation (5) is performed, and the conversion equation of the same equation is RG
This can also be applied to the correspondence relationship with the component value of B, and the component value (R, G, B) after conversion is calculated as R = a · R0 + b with respect to the component value (R0, G0, B0) before conversion. (14) G = a · G0 + b (15) B = a · B0 + b (16) Here, corresponding to the luminance y, Y of the gradation "0" to the gradation "255", the RGB component values (R0, G0, B0) and (R, G, B) are also in the same range. It can be said that the conversion table of the luminances y and Y described above may be used as it is.

【0074】従って、ステップS350では全画素の画
像データ(R0,G0,B0)について(14)〜(1
6)式に対応する変換テーブルを参照し、変換後の画像
データ(R,G,B)を得るという処理を繰り返すことに
なる。
Therefore, in step S350, the image data (R0, G0, B0) of all pixels are (14) to (1).
The process of obtaining the converted image data (R, G, B) by referring to the conversion table corresponding to the expression (6) is repeated.

【0075】ところで、この処理手段の場合はコントラ
スト補正と明度補正だけについて判断を行うようにして
いるが、画像処理の具体例はこれに限られるものではな
い。
By the way, in the case of this processing means, the judgment is made only for the contrast correction and the lightness correction, but the specific example of the image processing is not limited to this.

【0076】図20は彩度強調のための画像処理を実行
する場合のフローチャートを示している。
FIG. 20 is a flowchart showing a case where image processing for enhancing saturation is executed.

【0077】まず、オブジェクトと判断された画素の画
素データがその成分要素として彩度を持っていればその
彩度の値を用いて分布を求めることが可能であるが、R
GBの成分値しか持っていないため、本来的には彩度値
が直接の成分値となっている表色空間への変換を行なわ
なければ彩度値を得ることができない。例えば、標準表
色系としてのLuv空間においては、L軸が輝度(明
度)を表し、U軸及びV軸で色相を表している。ここに
おいて、U軸及びV軸においては両軸の交点からの距離
が彩度を表すため、実質的に(U**2+V**2)**(1
/2)が彩度となる。
First, if the pixel data of a pixel determined to be an object has saturation as its component element, the distribution can be obtained using the saturation value.
Since it has only GB component values, saturation values cannot be obtained unless conversion to a color space in which saturation values are directly component values is performed. For example, in a Luv space as a standard color system, the L axis represents luminance (brightness), and the U axis and the V axis represent hue. Here, in the U axis and the V axis, since the distance from the intersection of both axes represents the saturation, substantially (U ** 2 + V ** 2) ** (1
/ 2) is the saturation.

【0078】このような異なる表色空間の間での色変換
は対応関係を記憶した色変換テーブルを参照しつつ、補
間演算を併用しなければならず、演算処理量は膨大とな
ってくる。このような状況に鑑み、本実施形態において
は、画像データとして標準的なRGBの階調データを直
に利用して彩度の代替値Xを次のようにして求めてい
る。
In color conversion between such different color spaces, it is necessary to use an interpolation operation together with referring to a color conversion table in which correspondences are stored, and the amount of operation processing becomes enormous. In view of such a situation, in the present embodiment, the alternative value X of the saturation is obtained as follows by directly using standard RGB gradation data as image data.

【0079】 X=|G+B|−2×R …(17) 本来的には彩度は、R=G=Bの場合に「0」となり、
RGBの単色あるいはいずれか二色の所定割合による混
合時において最大値となる。この性質から直に彩度を適
切に表すのは可能であるものの、簡易な(17)式によ
っても赤の単色および緑と青の混合色である黄であれば
最大値の彩度となり、各成分が均一の場合に「0」とな
る。また、緑や青の単色についても最大値の半分程度に
は達している。むろん、 X’=|R+B|−2×G …(18) X”=|G+R|−2×B …(19) という式にも代替可能である。
X = | G + B | −2 × R (17) The saturation is originally “0” when R = G = B,
The maximum value is obtained at the time of mixing at a predetermined ratio of a single color of RGB or any two colors. Although it is possible to directly represent the saturation directly from this property, the saturation of the maximum value can be obtained by a simple equation (17) if the color is a single color of red and yellow which is a mixed color of green and blue. It is "0" when the components are uniform. In addition, green and blue single colors also reach about half of the maximum value. Of course, X '= | R + B | -2 × G (18) X ″ = | G + R | -2 × B (19)

【0080】ステップS410では、このような彩度の
代替値Xについてのヒストグラムの分布を求める。(1
7)式においては、彩度が最低値「0」〜最大値「51
1」の範囲で分布し、概略的には図21に示すような分
布となる。次なるステップS420では、集計された彩
度分布に基づいてこの画像についての彩度指数というも
のを決定する。本実施形態においては、オブジェクトと
判断された画素数の範囲で、分布数として上位の「16
%」が占める範囲を求める。そして、この範囲内での最
低の彩度「A」がこの画像の彩度を表すものとして次式
に基づいて彩度強調指数Sを決定する。
In step S410, the distribution of the histogram for such an alternative value X of the saturation is obtained. (1
In the equation (7), the saturation ranges from the minimum value “0” to the maximum value “51”.
1 ", and the distribution is roughly as shown in FIG. In the next step S420, a saturation index for this image is determined based on the aggregated saturation distribution. In the present embodiment, within the range of the number of pixels determined to be an object, “16
% ". Then, assuming that the lowest saturation “A” within this range represents the saturation of this image, the saturation enhancement index S is determined based on the following equation.

【0081】すなわち、 A<92なら S=−A×(10/92)+50 …(20) 92≦A<184なら S=−A×(10/46)+60 …(21) 184≦A<230なら S=−A×(10/23)+100 …(22) 230≦Aなら S=0 …(23) とする。図22は、この彩度「A」と彩度強調指数Sと
の関係を示している。図に示すように、彩度指数Sは最
大値「50」〜最小値「0」の範囲で彩度「A」が小さ
いときに大きく、同彩度「A」が大きいときに小さくな
るように徐々に変化していくことになる。
That is, if A <92, S = −A × (10/92) +50 (20) If 92 ≦ A <184, S = −A × (10/46) +60 (21) 184 ≦ A <230 If S = −A × (10/23) +100 (22) If 230 ≦ A, then S = 0 (23). FIG. 22 shows the relationship between the saturation “A” and the saturation enhancement index S. As shown in the drawing, the saturation index S is large when the saturation “A” is small and is small when the saturation “A” is large in the range of the maximum value “50” to the minimum value “0”. It will change gradually.

【0082】彩度強調指数Sに基づいて彩度を強調する
にあたり、上述したように画像データが彩度のパラメー
タを備えているものであれば同パラメータを変換すれば
よいものの、RGBの表色空間を採用している場合に
は、一旦、標準表色系であるLuv空間に変換し、Lu
v空間内で半径方向へ変移させなければならないといえ
る。しかしながら、RGBの画像データを、一旦、Lu
v空間内の画像データに変換し、彩度強調後に再びRG
Bに戻すといった作業が必要となり、演算量が多くなら
ざるを得ない。従って、RGBの階調データをそのまま
利用して彩度強調することにする。
In enhancing the saturation based on the saturation enhancement index S, if the image data has a saturation parameter as described above, the parameter may be converted. When the space is adopted, the space is temporarily converted to the Luv space which is a standard color system, and the Lu space is used.
It can be said that the displacement must be made in the radial direction in the v space. However, once the RGB image data is
After converting to v-space image data and emphasizing saturation,
Work such as returning to B is required, and the amount of calculation must be increased. Therefore, the saturation is enhanced using the RGB gradation data as it is.

【0083】RGB表色空間のように各成分が概略対等
な関係にある色相成分の成分値であるときには、R=G
=Bであればグレイであって無彩度となる。従って、R
GBの各成分における最小値となる成分については各画
素の色相に影響を与えることなく単に彩度を低下させて
いるにすぎないと考えれば、各成分における最小値をす
べての成分値から減算し、その差分値を拡大することに
よって彩度を強調できるといえる。
When each component is a component value of a hue component having a substantially equal relationship as in the RGB color space, R = G
If = B, it is gray and achromatic. Therefore, R
Assuming that the minimum component of each component of GB simply reduces the saturation without affecting the hue of each pixel, the minimum value of each component is subtracted from all component values. It can be said that the saturation can be enhanced by enlarging the difference value.

【0084】まず、上述した彩度強調指数Sから演算に
有利な彩度強調パラメータSratioを、 Sratio=(S+100)/100 …(24) として求める。この場合、彩度強調指数S=0のときに
彩度強調パラメータSratio=1となって彩度強調され
ない。次に、RGB階調データの各成分(R,G,B)
における青(B)の成分値が最小値であったとすると、
この彩度強調パラメータSratioを使用して次のように
変換する。
First, a saturation enhancement parameter Sratio advantageous to the calculation is obtained from the saturation enhancement index S as Sratio = (S + 100) / 100 (24). In this case, when the saturation enhancement index S = 0, the saturation enhancement parameter Sratio = 1 and the saturation enhancement is not performed. Next, each component (R, G, B) of the RGB gradation data
If the component value of blue (B) at is the minimum value,
Using the saturation enhancement parameter Sratio, conversion is performed as follows.

【0085】 R’=B+(R−B)×Sratio …(25) G’=B+(G−B)×Sratio …(26) B’=B …(27) この結果、RGB表色空間とLuv空間との間で一往復
する二度の色変換が不要となるため、演算時間の低減を
はかることができる。この実施形態においては、無彩度
の成分について単純に最小値の成分を他の成分値から減
算する手法を採用しているが、無彩度の成分を減算する
にあたっては別の変換式を採用するものであっても構わ
ない。ただし、(25)〜(27)式のように最小値を
減算するだけの場合には乗除算が伴わないので演算量が
容易となるという効果がある。
R ′ = B + (RB) × Sratio (25) G ′ = B + (GB) × Sratio (26) B ′ = B (27) As a result, the RGB color space and Luv Since it is not necessary to perform two rounds of color conversion to make one round trip to and from the space, the calculation time can be reduced. In this embodiment, a method of simply subtracting the minimum value component from the other component values for the achromatic component is employed, but another conversion formula is employed for subtracting the achromatic component. It does not matter. However, in the case where only the minimum value is subtracted as in the equations (25) to (27), there is an effect that the amount of calculation becomes easy because no multiplication / division is involved.

【0086】(25)〜(27)式を採用する場合で
も、良好な変換が可能であるものの、この場合には彩度
を強調すると輝度も向上して全体的に明るくなるという
傾向がある。従って、各成分値から輝度の相当値を減算
した差分値を対象として変換を行うことにする。
Even when the equations (25) to (27) are adopted, good conversion is possible, but in this case, when the saturation is enhanced, the luminance tends to be improved and the whole image tends to be brighter. Therefore, the conversion is performed on the difference value obtained by subtracting the luminance equivalent value from each component value.

【0087】まず、輝度を求めるために、上述したLu
v空間に色変換したのでは演算量が多大となってしまう
ため、テレビジョンなどの場合に利用されているRGB
から輝度を直に求める次式の変換式を利用する。
First, in order to obtain the luminance, the above Lu is used.
Since the amount of calculation is large if the color conversion is performed in the v space, the RGB used in the case of television etc.
The following conversion formula for directly obtaining the luminance from is used.

【0088】輝度Yは、 Y=0.30R+0.59G+0.11B …(28) 一方、彩度強調は、 R’=R+△R …(29) G’=G+△G …(30) B’=B+△B …(31) とする。この加減値△R,△G,△Bは輝度との差分値
に基づいて次式のように求める。すなわち、 △R=(R−Y)×Sratio …(32) △G=(G−Y)×Sratio …(33) △B=(B−Y)×Sratio …(34) となり、この結果、 R’=R+(R−Y)×Sratio …(35) G’=G+(G−Y)×Sratio …(36) B’=B+(B−Y)×Sratio …(37) として変換可能となる。なお、輝度の保存は次式から明
らかである。
The luminance Y is given by: Y = 0.30R + 0.59G + 0.11B (28) On the other hand, the saturation enhancement is given by: R ′ = R + ΔR (29) G ′ = G + ΔG (30) B ′ = B + △ B (31) The addition and subtraction values △ R, △ G, and 求 め る B are obtained by the following equation based on the difference value with the luminance. That is, ΔR = (R−Y) × Sratio (32) ΔG = (G−Y) × Sratio (33) ΔB = (BY) × Sratio (34) '= R + (R−Y) × Sratio (35) G ′ = G + (G−Y) × Sratio (36) B ′ = B + (B−Y) × Sratio (37) The preservation of the brightness is apparent from the following equation.

【0089】 Y’=Y+△Y …(38) △Y=0.30△R+0.59△G+0.11△B =Sratio{(0.30R+0.59G+0.11B)−Y} =0 …(39) また、入力がグレー(R=G=B)のときには、輝度Y
=R=G=Bとなるので、加減値△R=△G=△B=0
となり、無彩色に色が付くこともない。(35)式〜
(37)式を利用すれば輝度が保存され、彩度を強調し
ても全体的に明るくなることはない。
Y ′ = Y + △ Y (38) ΔY = 0.30 △ R + 0.59 △ G + 0.11 △ B = Sratio {(0.30R + 0.59G + 0.11B) −Y} = 0 (39) When the input is gray (R = G = B), the luminance Y
= R = G = B, the adjustment value △ R = △ G = △ B = 0
And there is no achromatic color. Equation (35)
By using the expression (37), the luminance is preserved, and even if the saturation is emphasized, the entire image does not become bright.

【0090】以上のようにして彩度強調指数Sratioを
求めたら、ステップS430にて所定のしきい値と比較
し、彩度強調が必要な画像であるかを判断する。そし
て、必要であればステップS440にて(35)式〜
(37)式に基づいて全画素について画像データを変換
する。
After the saturation enhancement index Sratio has been obtained as described above, it is compared with a predetermined threshold value in step S430 to determine whether the image requires saturation enhancement. Then, if necessary, in step S440, equations (35) to
The image data is converted for all pixels based on equation (37).

【0091】従って、ステップS410〜S430に
て、彩度強調処理の必要性とその程度を判断し、ステッ
プS430にて必要と判断された場合に彩度強調処理を
実行することになり、これらを実行するハードウェア構
成とソフトウェアとによって処理手段を構成することに
なる。
Therefore, in steps S410 to S430, the necessity and the degree of the saturation emphasis processing are determined, and if it is determined in step S430 that the necessity is high, the saturation emphasis processing is executed. The processing means is constituted by the hardware configuration to be executed and the software.

【0092】また、オブジェクトの画素に基づいて画像
処理の内容と程度を判定するものとして、その対象をエ
ッジ強調処理とすることもできる。図23は、このエッ
ジ強調処理のフローチャートを示している。オブジェク
トの画素が選択されているので、ステップS510では
積算されたエッジ度を画素数で除算することにより、オ
ブジェクトの画素についてのエッジ度を平均化する。す
なわち、このオブジェクト画像のシャープ度合いSL
は、画素数をE(I)pixとすると、
[0092] The content and degree of image processing may be determined based on the pixels of the object, and the object may be subjected to edge enhancement processing. FIG. 23 shows a flowchart of the edge enhancement processing. Since the pixel of the object has been selected, in step S510, the edge degree of the pixel of the object is averaged by dividing the accumulated edge degree by the number of pixels. That is, the sharpness SL of the object image
Is, if the number of pixels is E (I) pix,

【0093】[0093]

【数1】 (Equation 1)

【0094】のようにして演算することができる。この
場合、SLの値が小さい画像ほどシャープネスの度合い
が低い(見た目にぼけた)と判断できるし、SLの値が
大きい画像ほどシャープネスの度合いが高い(見た目に
はっきりとしたもの)と判断できる。
The calculation can be performed as follows. In this case, it can be determined that an image having a smaller SL value has a lower degree of sharpness (visually blurred), and an image having a larger SL value has a higher degree of sharpness (clearly visible).

【0095】一方、画像のシャープさは感覚的なもので
あるため、実験的に得られた最適なシャープ度合いの画
像データについて同様にしてシャープ度合いSLを求
め、その値を理想のシャープ度合いSLoptと設定す
るとともに、ステップS520においてエッジ強調度E
enhanceを、 として求める。ここにおいて、係数ksは画像の大きさ
に基づいて変化するものであり、画像データが図24に
示すように、縦横方向にそれぞれheightドットと
widthドットからなる場合、 ks=min(height,width)/A …(42) のようにして求めている。ここにおいて、min(he
ight,width)はheightドットとwid
thドットのうちのいずれか小さい方を指し、Aは定数
で「768」としている。むろん、これらは実験結果か
ら得られたものであり、適宜変更可能であることはいう
までもない。ただし、基本的には画像が大きいものほど
強調度を大きくするということで良好な結果を得られて
いる。
On the other hand, since the sharpness of the image is intuitive, the sharpness SL is obtained in the same manner for the image data of the optimum sharpness obtained experimentally, and the value is used as the ideal sharpness SLopt. In addition to the setting, in step S520, the degree of edge enhancement E
enhance, Asking. Here, the coefficient ks changes based on the size of the image. When the image data is composed of height dots and width dots in the vertical and horizontal directions, respectively, as shown in FIG. 24, ks = min (height, width) / A ... (42) Here, min (he
height, width) is the height dot and the width
The smaller one of the th dots is indicated, and A is a constant “768”. Of course, these are obtained from the experimental results, and it goes without saying that they can be appropriately changed. However, good results are basically obtained by increasing the degree of emphasis for a larger image.

【0096】このようにしてエッジ強調度Eenhanceを
求めたら、ステップS530にて所定のしきい値と比較
してエッジ強調が必要であるか判断し、必要であると判
断されればステップS540にて全画素についてエッジ
強調処理を実行する。
After the edge enhancement degree Eenhance is obtained in this way, it is determined in step S530 whether or not edge enhancement is necessary by comparing it with a predetermined threshold. If it is determined that edge enhancement is required, in step S540. An edge enhancement process is performed on all pixels.

【0097】エッジ強調処理は、強調前の各画素の輝度
Yに対して強調後の輝度Y’が、 Y’=Y+Eenhance・(Y−Yunsharp) …(43) として演算される。ここで、Yunsharpは各画素の画像
データに対してアンシャープマスク処理を施したもので
あり、ここでアンシャープマスク処理について説明す
る。図25は一例として5×5画素のアンシャープマス
ク41を示している。このアンシャープマスク41は、
中央の「100」の値をマトリクス状の画像データにお
ける処理対象画素Y(x,y)の重み付けとし、その周
縁画素に対して同マスクの升目における数値に対応した
重み付けをして積算するのに利用される。このアンシャ
ープマスク41を利用する場合、
In the edge emphasizing process, the luminance Y 'after emphasis is calculated with respect to the luminance Y of each pixel before emphasis as follows: Y' = Y + Enhance. (Y-Yunsharp) (43) Here, Yunsharp is obtained by performing unsharp mask processing on the image data of each pixel. Here, the unsharp mask processing will be described. FIG. 25 shows an unsharp mask 41 of 5 × 5 pixels as an example. This unsharp mask 41
The value of “100” at the center is used as the weight of the pixel Y (x, y) to be processed in the matrix image data, and the peripheral pixels are weighted according to the numerical values in the cells of the same mask and integrated. Used. When using this unsharp mask 41,

【0098】[0098]

【数2】 (Equation 2)

【0099】なる演算式に基づいて積算する。(44)
式において、「396」とは重み付け係数の合計値であ
り、サイズの異なるアンシャープマスクにおいては、そ
れぞれ升目の合計値となる。また、Mijはアンシャー
プマスクの升目に記載されている重み係数であり、Y
(x,y)は各画素の画像データである。なお、ijに
ついてはアンシャープマスク41に対して横列と縦列の
座標値で示している。
The integration is performed based on the following arithmetic expression. (44)
In the formula, “396” is the total value of the weighting coefficients, and in the case of unsharp masks of different sizes, it is the total value of each cell. Mij is a weight coefficient described in the unsharp mask cell, and Y
(X, y) is image data of each pixel. Note that ij is indicated by horizontal and vertical coordinate values with respect to the unsharp mask 41.

【0100】(43)式に基づいて演算されるエッジ強
調演算の意味するところは次のようになる。Yunsharp
(x,y)は注目画素に対して周縁画素の重み付けを低
くして加算したものであるから、いわゆる「なまった
(アンシャープ)」画像データとしていることになる。
このようにしてなまらせたものはいわゆるローパスフィ
ルタをかけたものと同様の意味あいを持つ。従って、
「Y(x,y)−Yunsharp(x,y)」とは本来の全
成分から低周波成分を引いたことになってハイパスフィ
ルタをかけたものと同様の意味あいを持つ。そして、ハ
イパスフィルタを通過したこの高周波成分に対してエッ
ジ強調度Eenhanceを乗算して「Y(x,y)」に加え
れば同エッジ強調度Eenhanceに比例して高周波成分を
増したことになり、エッジが強調される結果となる。な
お、エッジ強調が必要になる状況を考えるといわゆる画
像のエッジ部分であるから、隣接する画素との間で画像
データの差が大きな場合にだけ演算するようにしてもよ
い。このようにすれば、殆どのエッジ部分でない画像デ
ータ部分でアンシャープマスクの演算を行う必要がなく
なり、処理が激減する。
The meaning of the edge emphasis operation calculated based on the equation (43) is as follows. Yunsharp
Since (x, y) is obtained by adding the peripheral pixel to the target pixel with a lower weight, so-called "unsharp" image data is obtained.
What has been blunted in this way has the same meaning as that obtained by applying a so-called low-pass filter. Therefore,
“Y (x, y) −Yunsharp (x, y)” has the same meaning as a high-pass filter obtained by subtracting a low frequency component from all original components. Then, by multiplying the high-frequency component passed through the high-pass filter by the edge enhancement Eenhance and adding it to “Y (x, y)”, the high-frequency component is increased in proportion to the edge enhancement Eenhance. The result is that the edges are enhanced. In consideration of the situation where edge enhancement is required, since the image is a so-called edge portion of the image, the calculation may be performed only when there is a large difference in image data between adjacent pixels. In this way, it is not necessary to perform the unsharp mask calculation on the image data portion which is not the most edge portion, and the processing is drastically reduced.

【0101】なお、実際の演算は、強調後の輝度Y’と
強調前の輝度Yから、 delta=Y−Y’ …(45) と置き換えれば、変換後のR’G’B’は、 R’=R+delta G’=G+delta B’=B+delta …(46) のように演算可能となる。
Note that the actual calculation is as follows: if the luminance Y ′ after emphasis and the luminance Y before emphasis are replaced by delta = Y−Y ′ (45), R′G′B ′ after conversion becomes '= R + delta G' = G + delta B '= B + delta ... (46)

【0102】従って、このエッジ強調処理では、ステッ
プS510〜S530にて、エッジ強調処理の必要性と
その程度を判断し、ステップS530にて必要と判断さ
れた場合に画像処理を実行することになり、これらを実
行するハードウェア構成とソフトウェアとによって処理
手段を構成することになる。
Accordingly, in this edge enhancement processing, the necessity and the degree of the edge enhancement processing are determined in steps S510 to S530, and if it is determined in step S530 that the image enhancement is necessary, the image processing is executed. The processing means is constituted by a hardware configuration and software for executing these.

【0103】なお、上述したコントラスト補正、明度補
正、彩度強調、エッジ強調のそれぞれについて、画像処
理を行うかを判断している。しかし、必ずしも画像処理
を行うか否かの二者択一の判断を行う必要はない。すな
わち、それぞれにおいて強調程度を設定しており、この
ようにして設定した強調程度で画像処理を行うようにし
ても良い。むろん、この場合でも実行すべき画像処理の
内容とその程度を判定して実行するものと言える。
It is determined whether to perform image processing for each of the above-described contrast correction, lightness correction, saturation enhancement, and edge enhancement. However, it is not always necessary to determine whether to perform image processing. That is, the degree of emphasis is set for each, and image processing may be performed with the degree of emphasis set in this way. Of course, even in this case, it can be said that the content and the degree of the image processing to be executed are determined and executed.

【0104】次に、上記構成からなる本実施形態の動作
を説明する。
Next, the operation of the present embodiment having the above configuration will be described.

【0105】写真画像をスキャナ11で読み込み、プリ
ンタ31にて印刷する場合を想定する。すると、まず、
コンピュータ21にてオペレーティングシステム21a
が稼働しているもとで、画像処理アプリケーション21
dを起動させ、スキャナ11に対して写真の読み取りを
開始させる。読み取られた画像データが同オペレーティ
ングシステム21aを介して画像処理アプリケーション
21dに取り込まれたら、処理対象画素を初期位置に設
定する。続いて、ステップS110にて(1)式〜
(3)式に基づいてエッジ度を判定し、ステップS12
0では処理対象画素の画像全体に対する位置に応じて決
まるしきい値を判定するとともに、ステップS130に
て同しきい値とエッジ度とを比較する。そして、エッジ
度の方が大きい場合には処理対象画素がオブジェクトの
画素であると判断し、ステップS140にて当該画素の
画像データをワークエリアに保存する。以上の処理をス
テップS150にて処理対象画素を移動させながらステ
ップS160にて全画素について実行したと判断される
まで繰り返す。
Assume that a photographic image is read by the scanner 11 and printed by the printer 31. Then, first,
Operating system 21a on computer 21
Is running, the image processing application 21
d is started, and the scanner 11 starts reading a photograph. When the read image data is captured by the image processing application 21d via the operating system 21a, the processing target pixel is set to the initial position. Subsequently, in step S110, equations (1) to
The edge degree is determined based on equation (3), and step S12 is performed.
If it is 0, a threshold determined according to the position of the processing target pixel with respect to the entire image is determined, and the threshold is compared with the edge degree in step S130. If the degree of edge is higher, it is determined that the processing target pixel is a pixel of the object, and the image data of the pixel is stored in the work area in step S140. The above process is repeated while moving the pixel to be processed in step S150 until it is determined in step S160 that all pixels have been executed.

【0106】全画素について実行し終えたら、ワークエ
リアにはオブジェクトと判断された画素についての画像
データが保存されていることになる。従って、このワー
クエリアの画像データから読み取られた写真画像の状況
を判断しても、背景などの影響を受けて画像の質を誤認
することはないといえる。本実施形態においては、ワー
クエリアに画像データそのものを保存するようにした
が、メモリ容量や処理時間の面から考えると必ずしも画
像データをそのものをワークエリアに保存しておく必要
はない。すなわち、このようなオブジェクトとして判断
される画素について輝度分布や彩度代替値分布のヒスト
グラムを作成することになるので、予めステップS14
0にてヒストグラムの情報を蓄積していくようにすれば
よい。
When the execution has been completed for all the pixels, the work area stores image data for the pixels determined to be objects. Therefore, even if the situation of the photographic image read from the image data in the work area is determined, it can be said that the quality of the image is not erroneously recognized due to the influence of the background or the like. In the present embodiment, the image data itself is stored in the work area, but it is not always necessary to store the image data itself in the work area from the viewpoint of memory capacity and processing time. That is, a histogram of the luminance distribution and the saturation alternative value distribution is created for a pixel determined as such an object.
The information of the histogram may be accumulated at 0.

【0107】自動的にコントラスト補正と明度補正を実
行する場合は、このようなステップS140やステップ
S310にて輝度分布のヒストグラムを求めておき、ス
テップS320にて(8)(9)式に基づいて拡大処理
のためのパラメータを決定するとともに、ステップS3
30にて(10)〜(13)式に基づいて明度補正のた
めのパラメータを決定する。そして、ステップS340
ではこれらのパラメータを所定のしきい値と比較し、画
像処理すべきと判断すればステップS350にて上記パ
ラメータに基づいて輝度変換する。この場合、演算量を
減らすために最初に図16に示す輝度の変換テーブルを
作成しておき、(14)〜(16)式に基づいて画像デ
ータを変換する。
When the contrast correction and the brightness correction are automatically executed, a histogram of the luminance distribution is obtained in steps S140 and S310, and in step S320, based on the equations (8) and (9). In addition to determining parameters for the enlargement process, step S3
At 30, a parameter for brightness correction is determined based on the equations (10) to (13). Then, step S340
Then, these parameters are compared with a predetermined threshold value, and if it is determined that image processing is to be performed, luminance conversion is performed based on the parameters in step S350. In this case, a luminance conversion table shown in FIG. 16 is first created in order to reduce the amount of calculation, and image data is converted based on equations (14) to (16).

【0108】この後、画像処理された画像データをディ
スプレイドライバ21cを介してディスプレイ32に表
示し、良好であればプリンタドライバ21bを介してプ
リンタ31にて印刷させる。すなわち、同プリンタドラ
イバ21bはエッジ強調されたRGBの階調データを入
力し、所定の解像度変換を経てプリンタ31の印字ヘッ
ド領域に対応したラスタライズを行なうとともに、ラス
タライズデータをRGBからCMYKへ色変換し、その
後でCMYKの階調データから二値データへ変換してプ
リンタ31へ出力する。
Thereafter, the image data subjected to the image processing is displayed on the display 32 via the display driver 21c. If the image data is good, the image data is printed by the printer 31 via the printer driver 21b. That is, the printer driver 21b receives the RGB tone data of which the edge is emphasized, performs rasterization corresponding to the print head area of the printer 31 through a predetermined resolution conversion, and performs color conversion of the rasterized data from RGB to CMYK. After that, the CMYK gradation data is converted into binary data and output to the printer 31.

【0109】以上の処理により、スキャナ11を介して
読み込まれた写真の画像データは自動的に最適なコント
ラスト補正と明度補正を施されてディスプレイ32に表
示された後、プリンタ31にて印刷される。すなわち、
当該写真画像のオブジェクト部分に基づいてコントラス
ト補正や明度補正が必要であるか否かを判断し、必要で
ある場合にはそれに最適な程度で画像処理することがで
きる。
According to the above processing, the image data of the photograph read through the scanner 11 is automatically subjected to optimal contrast correction and brightness correction, displayed on the display 32, and printed by the printer 31. . That is,
It is determined whether contrast correction or brightness correction is necessary based on the object portion of the photographic image, and if necessary, image processing can be performed to an optimum degree.

【0110】一方、このようなコントラスト補正や明度
補正に限らず、彩度強調やエッジ強調の場合にも、画像
の変化度合いであるエッジ度が大きい画素をオブジェク
トの画素と判断し、オブジェクトの画素の画像データに
基づいて実行すべき画像処理の内容と程度を判断し、必
要な画像処理を実行することになる。
On the other hand, not only in such contrast correction and brightness correction, but also in the case of saturation enhancement or edge enhancement, a pixel having a large degree of edge, which is a degree of change of an image, is determined as a pixel of an object, and a pixel of the object is determined. The content and the degree of the image processing to be executed are determined based on the image data, and the necessary image processing is executed.

【0111】なお、オブジェクトの画素を抽出するにあ
たってはパラメータを決定するために必要なものである
から、全画素についてエッジ度を求めて判断するのでは
なく、サンプリングした画素に対してエッジ度を判定
し、オブジェクトの画素であるか否かを判断するように
しても良い。
Since the extraction of the pixels of the object is necessary to determine the parameters, the determination is not made by determining the edge degree for all the pixels, but by determining the edge degree for the sampled pixels. Alternatively, it may be determined whether or not the object is a pixel.

【0112】このように、画像処理の中枢をなすコンピ
ュータ21はステップS110にて隣接する画素間のデ
ータの差分値から画像の変化度合いであるエッジ度を求
め、ステップS120,S130にてエッジ度の大きい
画像のみ選択してオブジェクトの画素と判断し、ステッ
プS310〜S330にてオブジェクトの画素について
の画像データからコントラスト補正と明度補正のための
最適なパラメータを求めるようにしているため、オブジ
ェクトの画素の画像データに基づいて画像処理の指針が
決定され、自動的に最適な画像処理を実行することがで
きる。
As described above, the computer 21, which is the center of the image processing, obtains the edge degree which is the degree of change of the image from the difference value of the data between adjacent pixels in step S110, and in steps S120 and S130, the edge degree is calculated. Only the large image is selected and determined as the pixel of the object, and in steps S310 to S330, the optimal parameters for the contrast correction and the brightness correction are determined from the image data of the pixel of the object. A guideline for image processing is determined based on the image data, and optimal image processing can be automatically executed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる画像処理装置を適
用した画像処理システムのブロック図である。
FIG. 1 is a block diagram of an image processing system to which an image processing device according to an embodiment of the present invention is applied.

【図2】同画像処理装置の具体的ハードウェアのブロッ
ク図である。
FIG. 2 is a block diagram of specific hardware of the image processing apparatus.

【図3】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 3 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の他の適用例を示す概略
ブロック図である。
FIG. 4 is a schematic block diagram illustrating another application example of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置におけるメイン処理の前
段部分を示すフローチャートである。
FIG. 5 is a flowchart illustrating a first part of a main process in the image processing apparatus of the present invention.

【図6】画像の変化度合いを直交座標の各成分値で表す
場合の説明図である。
FIG. 6 is an explanatory diagram in a case where the degree of change of an image is represented by each component value of rectangular coordinates.

【図7】画像の変化度合いを縦軸方向と横軸方向の隣接
画素における差分値で求める場合の説明図である。
FIG. 7 is an explanatory diagram in a case where the degree of change of an image is obtained by a difference value between adjacent pixels in the vertical axis direction and the horizontal axis direction.

【図8】隣接する全画素間で画像の変化度合いを求める
場合の説明図である。
FIG. 8 is an explanatory diagram in a case where the degree of change of an image is obtained between all adjacent pixels.

【図9】しきい値を変化させる領域を示す図である。FIG. 9 is a diagram showing a region where a threshold value is changed.

【図10】領域を自動分割する場合のフローチャートで
ある。
FIG. 10 is a flowchart for automatically dividing a region.

【図11】領域の設定状況を示す図である。FIG. 11 is a diagram showing an area setting situation.

【図12】変形例にかかる領域の設定状況を示す図であ
る。
FIG. 12 is a diagram showing an area setting situation according to a modification.

【図13】メイン処理の後段部分を示すフローチャート
である。
FIG. 13 is a flowchart showing a latter part of the main processing.

【図14】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。
FIG. 14 is a diagram illustrating edge processing of a luminance distribution and an edge obtained by the edge processing.

【図15】輝度分布の拡大と再現可能な輝度の範囲を示
す図である。
FIG. 15 is a diagram showing an enlarged luminance distribution and a reproducible luminance range.

【図16】輝度分布を拡大する際の変換テーブルを示す
図である。
FIG. 16 is a diagram showing a conversion table when expanding a luminance distribution.

【図17】γ補正で明るくする概念を示す図である。FIG. 17 is a diagram showing a concept of increasing brightness by γ correction.

【図18】γ補正で暗くする概念を示す図である。FIG. 18 is a diagram showing a concept of darkening by γ correction.

【図19】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 19 is a diagram showing a correspondence relationship of luminance changed by γ correction.

【図20】メイン処理の後段部分で彩度強調する場合の
フローチャートである。
FIG. 20 is a flowchart in a case where saturation is emphasized in a latter part of the main processing.

【図21】彩度分布の集計状態の概略図である。FIG. 21 is a schematic diagram of a tallying state of a saturation distribution.

【図22】彩度Aと彩度強調指数Sとの関係を示す図で
ある。
FIG. 22 is a diagram illustrating a relationship between a saturation A and a saturation enhancement index S.

【図23】メイン処理の後段部分でエッジ強調する場合
のフローチャートである。
FIG. 23 is a flowchart in the case where edge enhancement is performed at a later stage of the main processing.

【図24】画像データの大きさと処理対象画素を移動さ
せていく状態を示す図である。
FIG. 24 is a diagram illustrating the size of image data and a state in which a processing target pixel is moved.

【図25】5×5画素のアンシャープマスクを示す図で
ある。
FIG. 25 is a diagram showing an unsharp mask of 5 × 5 pixels.

【符号の説明】[Explanation of symbols]

10…画像入力装置 20…画像処理装置 21…コンピュータ 21a…オペレーティングシステム 21b…プリンタドライバ 21c…ディスプレイドライバ 21d…画像処理アプリケーション 22…ハードディスク 23…キーボード 24…CD−ROMドライブ 25…フロッピーディスクドライブ 26…モデム 30…画像出力装置 41…アンシャープマスク DESCRIPTION OF SYMBOLS 10 ... Image input apparatus 20 ... Image processing apparatus 21 ... Computer 21a ... Operating system 21b ... Printer driver 21c ... Display driver 21d ... Image processing application 22 ... Hard disk 23 ... Keyboard 24 ... CD-ROM drive 25 ... Floppy disk drive 26 ... Modem 30 image output device 41 unsharp mask

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ドットマトリクス状の画素からなる実写
画像データを入力して所定の画像処理を行う画像処理装
置であって、 各画素での画像の変化度合いに基づいて同変化度合いの
大きな画素をオブジェクトと判断するオブジェクト判断
手段と、 オブジェクトと判断された画素の画像データに基づいて
画像処理内容を決定し、同決定した内容に基づいて画像
処理する処理手段を具備することを特徴とする画像処理
装置。
An image processing apparatus for inputting real image data composed of pixels in a dot matrix and performing predetermined image processing, wherein a pixel having a large degree of change is determined based on a degree of change of an image at each pixel. An image processing apparatus comprising: an object determination unit configured to determine an object; and a processing unit configured to determine image processing content based on image data of a pixel determined to be an object, and to perform image processing based on the determined content. apparatus.
【請求項2】 上記請求項1に記載の画像処理装置にお
いて、上記オブジェクト判断手段は、隣接する画素間で
の画像データの差に基づいて画像の変化度合いを判断す
ることを特徴とする画像処理装置。
2. An image processing apparatus according to claim 1, wherein said object judging means judges a degree of change of an image based on a difference in image data between adjacent pixels. apparatus.
【請求項3】 上記請求項1または請求項2のいずれか
に記載の画像処理装置において、上記オブジェクト判断
手段は、画像の変化度合いが大きいか否かを判断する基
準を画像の部位によって変化させることを特徴とする画
像処理装置。
3. The image processing apparatus according to claim 1, wherein the object determining means changes a criterion for determining whether a degree of change of the image is large depending on a part of the image. An image processing apparatus characterized by the above-mentioned.
【請求項4】 上記請求項3に記載の画像処理装置にお
いて、上記オブジェクト判断手段は、上記基準を画像の
中央部の方が周縁部よりも低くすることを特徴とする画
像処理装置。
4. An image processing apparatus according to claim 3, wherein said object determination means sets said reference at a center of an image lower than at a periphery thereof.
【請求項5】 上記請求項3に記載の画像処理装置にお
いて、上記オブジェクト判断手段は、上記基準を画像の
部位毎における上記画像の変化度合いの分布に基づいて
決定することを特徴とする画像処理装置。
5. An image processing apparatus according to claim 3, wherein said object determining means determines said reference based on a distribution of a degree of change of said image for each part of the image. apparatus.
【請求項6】 ドットマトリクス状の画素からなる実写
画像データを入力して所定の画像処理を行う画像処理方
法であって、各画素での画像の変化度合いに基づいて同
変化度合いの大きな画素をオブジェクトと判断するとと
もに、オブジェクトと判断された画素の画像データに基
づいて画像処理内容を決定し、同決定した内容に基づい
て画像処理することを特徴とする画像処理方法。
6. An image processing method for performing predetermined image processing by inputting real image data consisting of pixels in a dot matrix form, wherein a pixel having a large degree of change is determined based on the degree of change of an image at each pixel. An image processing method comprising: determining an image processing content based on image data of a pixel determined to be an object; and performing image processing based on the determined content.
【請求項7】 コンピュータにてドットマトリクス状の
画素からなる実写画像データを入力して所定の画像処理
を行う画像処理制御プログラムを記録した媒体であっ
て、各画素での画像の変化度合いに基づいて同変化度合
いの大きな画素をオブジェクトと判断するとともに、オ
ブジェクトと判断された画素の画像データに基づいて画
像処理内容を決定し、同決定した内容に基づいて画像処
理することを特徴とする画像処理制御プログラムを記録
した媒体。
7. A medium in which an image processing control program for performing a predetermined image processing by inputting real image data composed of dot matrix pixels by a computer is recorded based on a degree of change of an image in each pixel. A pixel having the same degree of change as an object, determining image processing content based on image data of the pixel determined as the object, and performing image processing based on the determined content. Medium on which control programs are recorded.
JP15141397A 1997-06-09 1997-06-09 Image processing apparatus, image processing method, and medium on which image processing control program is recorded Expired - Lifetime JP3921737B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP15141397A JP3921737B2 (en) 1997-06-09 1997-06-09 Image processing apparatus, image processing method, and medium on which image processing control program is recorded
US09/093,094 US6738527B2 (en) 1997-06-09 1998-06-08 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, and image evaluation method and a medium on which an image evaluation program is recorded
EP10158002A EP2199973A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
EP98304509A EP0891075A3 (en) 1997-06-09 1998-06-08 An image processing apparatus and method, and an image evaluation device and method
US10/742,718 US7259894B2 (en) 1997-06-09 2003-12-22 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,305 US7755801B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/491,278 US7940426B2 (en) 1997-06-09 2006-07-24 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US11/739,858 US7508548B2 (en) 1997-06-09 2007-04-25 Image processing method and image processing apparatus
US13/081,027 US8553285B2 (en) 1997-06-09 2011-04-06 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/455,575 US8867099B2 (en) 1997-06-09 2012-04-25 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US13/719,602 US8681380B2 (en) 1997-06-09 2012-12-19 Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15141397A JP3921737B2 (en) 1997-06-09 1997-06-09 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002215349A Division JP3501151B2 (en) 2002-07-24 2002-07-24 Image processing apparatus, image processing method, medium recording image processing control program

Publications (2)

Publication Number Publication Date
JPH10340332A true JPH10340332A (en) 1998-12-22
JP3921737B2 JP3921737B2 (en) 2007-05-30

Family

ID=15518073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15141397A Expired - Lifetime JP3921737B2 (en) 1997-06-09 1997-06-09 Image processing apparatus, image processing method, and medium on which image processing control program is recorded

Country Status (1)

Country Link
JP (1) JP3921737B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
US7869064B2 (en) 2006-02-07 2011-01-11 Seiko Epson Corporation Printing device
US7929797B2 (en) 2006-06-02 2011-04-19 Seiko Epson Corporation Determining if an image is blurred
JP2011156061A (en) * 2010-01-29 2011-08-18 Konami Digital Entertainment Co Ltd Game program, game device, and game control method
US8150190B2 (en) 2006-06-21 2012-04-03 Seiko Epson Corporation Printing device, image data file processing device, method of selecting image data file, and computer program product
CN105006059A (en) * 2015-08-13 2015-10-28 深圳怡化电脑股份有限公司 Method and device for processing banknotes

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7869064B2 (en) 2006-02-07 2011-01-11 Seiko Epson Corporation Printing device
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
JP4513764B2 (en) * 2006-02-20 2010-07-28 セイコーエプソン株式会社 Image determination apparatus and image determination method
US7929797B2 (en) 2006-06-02 2011-04-19 Seiko Epson Corporation Determining if an image is blurred
US8150190B2 (en) 2006-06-21 2012-04-03 Seiko Epson Corporation Printing device, image data file processing device, method of selecting image data file, and computer program product
JP2011156061A (en) * 2010-01-29 2011-08-18 Konami Digital Entertainment Co Ltd Game program, game device, and game control method
CN105006059A (en) * 2015-08-13 2015-10-28 深圳怡化电脑股份有限公司 Method and device for processing banknotes

Also Published As

Publication number Publication date
JP3921737B2 (en) 2007-05-30

Similar Documents

Publication Publication Date Title
JP4870618B2 (en) Image data automatic mapping method and image processing device
JP4492704B2 (en) Edge enhancement processing device, output device, edge enhancement processing method, and computer-readable recording medium
JP4870617B2 (en) Image data automatic mapping method and image processing device
US8553285B2 (en) Image processing apparatus, an image processing method, a medium on which an image processing control program is recorded, an image evaluation device, an image evaluation method and a medium on which an image evaluation program is recorded
US7155060B2 (en) Image processing system, image processing method, and medium having an image processing control program recorded thereon
JPH11146219A (en) Image processing device and method and medium recording image processing program
JP4243362B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP4019204B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3921737B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3501151B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP4161141B2 (en) Edge enhancement processing apparatus, edge enhancement processing method, and computer-readable recording medium recording an edge enhancement processing program
JP3956970B2 (en) Image processing apparatus, image processing method, and medium storing image processing program
JPH10200756A (en) Image processing unit, image processing method, and medium recording image processing program
JP3573143B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3705250B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP3731573B2 (en) Image processing apparatus, image evaluation apparatus, image processing method, image evaluation method, and recording medium recording image processing program
JP4475316B2 (en) Image processing apparatus, recording medium storing image processing program, and image processing method
JP4941575B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP5029779B2 (en) Image processing method, medium storing image processing program, and image processing apparatus
JP3558073B2 (en) Image processing apparatus, image processing method, medium recording image processing control program
JP3570416B2 (en) Image processing apparatus, image processing method, and medium recording image processing control program
JP3918924B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium recording image processing program
JP4557087B2 (en) Image processing apparatus, image processing method, and recording medium
JPH11136514A (en) Picture processor, picture processing method and medium recording picture processing control program
JP2005045844A (en) Image processor, image processing method, and medium with image processing program recorded thereon

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130302

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140302

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term