JPH11341501A - Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program - Google Patents

Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program

Info

Publication number
JPH11341501A
JPH11341501A JP10144129A JP14412998A JPH11341501A JP H11341501 A JPH11341501 A JP H11341501A JP 10144129 A JP10144129 A JP 10144129A JP 14412998 A JP14412998 A JP 14412998A JP H11341501 A JPH11341501 A JP H11341501A
Authority
JP
Japan
Prior art keywords
image
evaluation
subject
image pickup
electrophotographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10144129A
Other languages
Japanese (ja)
Inventor
Naoki Kuwata
直樹 鍬田
Yoshihiro Nakami
至宏 中見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP10144129A priority Critical patent/JPH11341501A/en
Publication of JPH11341501A publication Critical patent/JPH11341501A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain the image pickup device by which photographing is hardly failed by expressing an object image by means of dot matrix shaped pixels, applying numerical tabulation processing to the image so as to evaluate the image and evaluating photographing conditions based on the evaluation of the image. SOLUTION: The image is expressed by dot matrix shaped pixels. An image pickup means C1 forms the object image on an imaging device or the like via an optical path, the means C1 acquires image data in gradation expression of prescribed element colors, and an image evaluating means numerically analyzes the image data. Since each of individual data is provided on each pixel expressed in a dot matrix, some tabulation processing is conducted for the analysis and the result of tabulation is compared with a prescribed evaluation reference and the comparison result gives an evaluation as to the picked-up image. Then the evaluation result as to the picked-up image is inputted to an image pickup condition evaluation means C3, where the evaluation as to the picked-up image is evaluated again to obtain the evaluation as to the image pickup conditions in the image pickup means C1.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、電子写真撮像装
置、電子写真撮像方法、電子写真撮像制御プログラムを
記録した媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electrophotographic imaging apparatus, an electrophotographic imaging method, and a medium recording an electrophotographic imaging control program.

【0002】[0002]

【従来の技術】従来、この種の電子写真撮像装置では、
撮影に失敗しないように各種の自動調整が行われてい
る。例えば、被写体画像の明るさに応じて絞りを調整す
る自動絞り調整機構であるとか、ピント調整を自動化す
るオートフォーカス機構などである。
2. Description of the Related Art Conventionally, in this type of electrophotographic imaging apparatus,
Various automatic adjustments are made so that shooting does not fail. For example, an automatic aperture adjustment mechanism that adjusts the aperture according to the brightness of the subject image, an autofocus mechanism that automates focus adjustment, and the like are used.

【0003】[0003]

【発明が解決しようとする課題】上述した従来の電子写
真撮像装置においては、各種の自動調整が行われている
とはいうものの、実際に写してみると失敗することも多
かった。例えば、逆光条件下で人物像を写した場合は、
背景が明るいので露光調整で光量を低下させてしまうた
め、本来の被写体と言える人物像の顔が暗く映ってしま
う。逆光条件下であるのかどうかは被写体に応じて相対
的な判断に過ぎないので、これを判断することはできな
かった。
In the above-described conventional electrophotographic imaging apparatus, although various automatic adjustments are performed, it often fails when actually photographed. For example, when a person is captured under backlight conditions,
Since the background is bright, the light amount is reduced by the exposure adjustment, so that the face of a human image, which can be said to be the original subject, appears dark. It was not possible to judge whether it was under backlight conditions because it was only a relative judgment according to the subject.

【0004】本発明は、上記課題にかんがみてなされた
もので、写真撮影をより失敗しにくくすることが可能な
電子写真撮像装置、電子写真撮像方法、電子写真撮像制
御プログラムを記録した媒体の提供を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides an electrophotographic imaging apparatus, an electrophotographic imaging method, and a medium in which an electrophotographic imaging control program is recorded, which makes it more difficult for a photographer to fail. With the goal.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、請求項1にかかる発明は、所定の撮影条件を設定し
つつ光学系路を経て被写体画像を撮像し、同被写体画像
をドットマトリクス状の画素で表して各画素毎に色分解
した所定の要素色で階調表現した画像データを取得する
画像撮像手段と、取得された上記画像データについて数
値的な集計処理を行い所定の評価基準に基づいて撮像画
像を評価する画像評価手段と、この評価に基づいて上記
画像撮像手段における上記撮影条件についての評価を行
う撮影条件評価手段とを具備する構成としてある。
According to a first aspect of the present invention, an image of a subject is taken via an optical path while setting predetermined photographing conditions, and the subject image is formed in a dot matrix form. Image capturing means for acquiring image data expressed in gradation by a predetermined elemental color which is represented by pixels and color-separated for each pixel, and performs a numerical tabulation process on the acquired image data to a predetermined evaluation criterion. An image evaluation unit that evaluates a captured image based on the evaluation, and a shooting condition evaluation unit that evaluates the shooting condition in the image imaging unit based on the evaluation.

【0006】上記のように構成した請求項1にかかる発
明においては、まず、画像撮像手段にて所定の撮影条件
を設定しつつ光学系路を経て被写体画像を撮像する。そ
して、同被写体画像をドットマトリクス状の画素で表し
て各画素毎に色分解した所定の要素色で階調表現した画
像データを取得する。すると、画像評価手段がこの取得
された上記画像データについて数値的な集計処理を行
い、所定の評価基準に基づいて撮像画像を評価するの
で、撮影条件評価手段はこの評価に基づいて上記画像撮
像手段における上記撮影条件についての評価を行う。
According to the first aspect of the present invention, first, an image of a subject is taken through an optical path while setting predetermined photographing conditions by the image taking means. Then, the image of the subject is represented by dot matrix pixels, and image data is obtained which is expressed in gradation by a predetermined element color which is color-separated for each pixel. Then, the image evaluation means performs a numerical tabulation process on the obtained image data and evaluates the captured image based on a predetermined evaluation criterion. Are evaluated for the above photographing conditions.

【0007】すなわち、被写体画像をドットマトリクス
状の画素で表現した上で、数値的な集計処理に付して画
像を評価し、その評価に基づいて撮影条件を評価するの
で、従来のようにいわゆる撮影条件だけについての評価
とは一線を画する。画像評価手段は現実に撮影された画
像データについて数値的な集計処理を行って評価する。
具体的な集計処理は様々であって特に限定されるもので
はない。画像データを一旦取得する点でたんに撮影条件
を評価することとの差異が生じる。その好適な一例とし
て、請求項2にかかる発明は、請求項1に記載の電子写
真撮像装置において、上記画像評価手段は、上記画像デ
ータに基づいて被写体画像内におけるオブジェクトの画
素を抽出し、当該オブジェクトの画素についての画像デ
ータを対象として上記集計処理を行って撮像画像を評価
する構成としてある。
That is, an image of a subject is represented by pixels in a dot matrix, the image is evaluated by performing a numerical tabulation process, and photographing conditions are evaluated based on the evaluation. This is different from the evaluation of only the shooting conditions. The image evaluation means evaluates the actually captured image data by performing a numerical tabulation process.
The specific counting process is various and is not particularly limited. The point that image data is once obtained is different from the case where the imaging conditions are simply evaluated. As a preferred example, the invention according to claim 2 is the electrophotographic imaging apparatus according to claim 1, wherein the image evaluation unit extracts a pixel of an object in a subject image based on the image data, and The above-described aggregation process is performed on the image data of the pixels of the object to evaluate the captured image.

【0008】上記のように構成した請求項2にかかる発
明においては、上記画像評価手段は数値的な集計処理の
際に被写体画像内におけるオブジェクトだけを対象とす
る。すなわち、上記画像データに基づいてオブジェクト
を構成する画素を抽出し、かかる画素についての画像デ
ータだけを対象として集計処理を行なう。従来のように
撮影条件を評価するだけであると本来の被写体を判別す
ることは不可能であり、写真の中央部分についての明る
さであるとか全体としての平均的な明るさであるという
ような予め定めた条件でのみ所望の撮影を得られるにと
どまる。しかしながら、画像データを取得すれば各種の
手法によって本来の被写体であるオブジェクトに注目す
ることが可能となり、そのオブジェクトを構成する画素
だけを対象として画像を評価することが可能となる。
[0008] In the invention according to claim 2 configured as described above, the image evaluation means targets only objects in the subject image at the time of numerical totaling processing. That is, the pixels constituting the object are extracted based on the image data, and the tallying process is performed only on the image data of the pixels. It is impossible to discriminate the original subject only by evaluating the shooting conditions as in the past, such as the brightness of the central part of the picture or the average brightness of the whole A desired image can be obtained only under predetermined conditions. However, if the image data is acquired, it is possible to pay attention to the object which is the original subject by various methods, and it is possible to evaluate the image only for the pixels constituting the object.

【0009】オブジェクトであるか否かの判断の一例と
しては、画像のシャープな部分を抽出する手法を採用可
能である。撮影者の心理として被写体についてピントを
調整することが当然であり、その部分は自ずからシャー
プな画像になる。これに対して背景部分はぼけやすい。
従って、画像のシャープな部分がオブジェクトであるこ
とは多い。この場合、従来と異なるのはそのオブジェク
トがどこに存在していても発見できるという点である。
例えば、中央部分にオブジェクトが位置することが多い
というのでは、従来の撮影条件の評価と異ならないが、
撮影範囲の左にいようが、右にいようがシャープな部分
であればオブジェクトを発見できることになる。
As an example of determining whether an image is an object, a method of extracting a sharp portion of an image can be adopted. As a photographer's psychology, it is natural to adjust the focus of the subject, and that part naturally becomes a sharp image. In contrast, the background is easily blurred.
Therefore, a sharp part of an image is often an object. In this case, the difference from the conventional case is that the object can be found no matter where it exists.
For example, if the object is often located in the center, it is not different from the evaluation of the conventional shooting conditions,
An object can be found if it is a sharp part whether it is on the left or right of the shooting range.

【0010】また、手法の一例として、各画素の色度を
利用することも可能である。特定の色によって物体を特
定できることがあるからである。例えば、人物であれば
肌色の部分を探すことによってターゲットと判断して差
し支えない。しかしながら、通常の色画像データであれ
ば明るさの要素も含まれているので肌色を特定すること
は難しい。これに対して色度は色の刺激値の絶対的な割
合を表しており、明るさには左右されない。従って、肌
色の取りうる色度の範囲に入っていれば人物像の画素と
判断できる。むろん、肌色以外にも、木々の緑色の取り
うる範囲であるとか青空の青色が取りうる範囲といった
ものでも同様のことが言える。
As an example of the technique, the chromaticity of each pixel can be used. This is because an object can sometimes be specified by a specific color. For example, a person may be judged as a target by searching for a skin color portion. However, it is difficult to specify the skin color in the case of ordinary color image data because it includes a brightness element. On the other hand, the chromaticity represents the absolute ratio of the color stimulus value, and is not affected by the brightness. Therefore, if it is within the range of chromaticity that can be taken for flesh color, it can be determined that the pixel is a person image. Needless to say, the same applies to the range in which trees can take green color and the range in which blue sky takes blue color, in addition to skin color.

【0011】一方、撮影条件評価手段は、撮像画像の評
価結果に基づいて撮影条件についての評価を行うが、か
かる評価は広義に解するものとする。すなわち、撮影条
件のここが良いとか悪いとかいうことを撮影者に伝える
ことを基本としつつも、その評価結果を実際の撮影に反
映させるようにすることまで含むものとする。その好適
な一例として、請求項3にかかる発明は、請求項1また
は請求項2のいずれかに記載の電子写真撮像装置におい
て、上記画像撮像手段は、上記撮影条件を変更可能であ
るとともに、上記撮影条件評価手段は、撮像画像に基づ
く評価を上記撮影条件に反映させるように同画像撮像手
段における撮影条件を制御する構成としてある。
On the other hand, the photographing condition evaluation means evaluates the photographing conditions based on the evaluation result of the picked-up image, and the evaluation is to be understood in a broad sense. In other words, it is basically based on notifying the photographer that the photographing conditions are good or bad, but also including reflecting the evaluation result in actual photographing. As a preferred example, the invention according to claim 3 is the electrophotographic image pickup apparatus according to any one of claims 1 and 2, wherein the image pickup means can change the photographing conditions, The imaging condition evaluation means is configured to control the imaging conditions in the image imaging means so that the evaluation based on the captured image is reflected in the imaging conditions.

【0012】上記のように構成した請求項3にかかる発
明においては、画像撮像手段の撮影条件を変更可能とし
てあるので、撮像画像の評価を撮影条件に反映させるべ
く、撮影条件評価手段は同画像撮像手段における撮影条
件を制御する。このような能動的な評価については各種
の具体的構成が可能である。その好適な一例として、請
求項4にかかる発明は、請求項3に記載の電子写真撮像
装置において、上記画像撮像手段は、被写体画像を照明
するストロボを備え、上記画像評価手段は、上記被写体
画像における明暗の評価を行ない、上記撮影条件評価手
段は、この画像評価手段が上記被写体画像におけるオブ
ジェクトを暗いと判断したときに上記画像撮像手段にお
けるストロボを動作させる構成としてある。
According to the third aspect of the present invention, since the photographing condition of the image pickup means can be changed, the photographing condition evaluation means is used to reflect the evaluation of the photographed image in the photographing condition. The photographing conditions in the imaging means are controlled. Various specific configurations are possible for such active evaluation. As a preferred example, the invention according to claim 4 is the electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means includes a strobe for illuminating a subject image, and the image evaluation means includes: And the photographing condition evaluating means operates the strobe in the image capturing means when the image evaluating means determines that the object in the subject image is dark.

【0013】上記のように構成した請求項4にかかる発
明においては、画像撮像手段が被写体画像を照明するス
トロボを備えていることを条件として、画像評価手段は
被写体画像の明暗の評価を行ない、被写体画像における
オブジェクトを暗いと判断したときに撮影条件評価手段
はストロボを動作させる。従って、全体的には明るいに
も関わらず、オブジェクトが未だ暗い場合にもストロボ
は発光される。また、他の好適な一例として、請求項5
にかかる発明は、請求項3または請求項4のいずれかに
記載の電子写真撮像装置において、上記画像撮像手段
は、上記光学系路を経て被写体画像を撮像面上に結像さ
れたときにドットマトリクス状の画素で光電気変換する
撮像素子と、この撮像素子の変換出力を所定の増幅率で
増幅する増幅回路とを備え、上記画像評価手段は、上記
被写体画像における明暗の評価を行ない、上記撮影条件
評価手段は、この画像評価手段が上記被写体画像におけ
るオブジェクトを暗いと判断したときに上記増幅回路に
おける増幅率を増加させ、明るいと判断したときに同増
幅率を減少させる構成としてある。
[0013] In the invention according to claim 4 configured as described above, the image evaluation means evaluates the brightness of the subject image, provided that the image pickup means includes a strobe for illuminating the subject image. When it is determined that the object in the subject image is dark, the photographing condition evaluation means operates the strobe. Therefore, the strobe light is emitted even when the object is still dark, though it is bright overall. Further, as another preferable example, claim 5
According to a third aspect of the present invention, in the electrophotographic imaging apparatus according to any one of the third and fourth aspects, the image capturing unit performs dot formation when a subject image is formed on an imaging surface via the optical path. An image pickup device for performing photoelectric conversion by pixels in a matrix, and an amplifier circuit for amplifying the conversion output of the image pickup device at a predetermined amplification factor, wherein the image evaluation means performs light / dark evaluation in the subject image, The photographing condition evaluation means increases the amplification factor in the amplifier circuit when the image evaluation means determines that the object in the subject image is dark, and decreases the amplification factor when it determines that the object is bright.

【0014】上記のように構成した請求項5にかかる発
明においては、画像撮像手段が光学系路を経て被写体画
像を撮像面上に結像されたときにドットマトリクス状の
画素で光電気変換する撮像素子と、この撮像素子の変換
出力を所定の増幅率で増幅する増幅回路とを備えてい
る。従って、この増幅回路における増幅率次第で画像デ
ータとして出力される階調値は変化する。このような場
合に、画像評価手段が被写体画像における明暗の評価を
行ない、被写体画像におけるオブジェクトを暗いと判断
したときに撮影条件評価手段は上記増幅回路における増
幅率を増加させる。従って、暗い場合であっても画像デ
ータの階調値は大きくなって出力される。また、被写体
画像におけるオブジェクトを明るいと判断したときに
は、撮影条件評価手段は上記増幅回路における増幅率を
減少させ、明るい場合であっても画像データの階調値は
小さくなって出力される。
[0014] In the invention according to claim 5 configured as described above, when the image pickup means forms an image of the subject on the image pickup surface via the optical system path, it performs photoelectric conversion with pixels in a dot matrix form. The image pickup device includes an image sensor and an amplifier circuit that amplifies the conversion output of the image sensor at a predetermined amplification factor. Therefore, the gradation value output as image data changes depending on the amplification factor in this amplifier circuit. In such a case, the image evaluation means evaluates the brightness of the subject image, and when the object in the subject image is determined to be dark, the photographing condition evaluation means increases the amplification factor in the amplifier circuit. Therefore, even when the image is dark, the gradation value of the image data is output with a large value. Further, when it is determined that the object in the subject image is bright, the photographing condition evaluation means decreases the amplification factor in the amplifier circuit, and even when the object is bright, the gradation value of the image data is output as being small.

【0015】また、撮影条件を反映させるにあたって機
構的な動作を伴うことも当然に可能であり、その好適な
一例として、請求項6にかかる発明は、請求項3〜請求
項5のいずれかに記載の電子写真撮像装置において、上
記画像撮像手段は、上記光学系路における光量を調整す
る絞りを備え、上記画像評価手段は、上記被写体画像に
おける明暗の評価を行ない、上記撮影条件評価手段は、
この画像評価手段が上記被写体画像におけるオブジェク
トを暗いと判断したときに上記絞りを開かせ、明るいと
判断したときに同絞りを絞る方向に制御する構成として
ある。
In addition, it is naturally possible to involve a mechanical operation in reflecting the photographing conditions. As a preferable example, the invention according to claim 6 is based on any one of claims 3 to 5. In the electrophotographic imaging apparatus according to the aspect, the image capturing unit includes a diaphragm that adjusts a light amount in the optical path, the image evaluation unit performs evaluation of light and dark in the subject image, and the imaging condition evaluation unit includes:
When the image evaluation means determines that the object in the subject image is dark, the aperture is opened, and when it is determined that the object is bright, the aperture is controlled in the direction of decreasing the aperture.

【0016】上記のように構成した請求項6にかかる発
明においては、画像撮像手段が光学系路における光量を
調整する絞りを備えている場合に、画像評価手段は被写
体画像における明暗の評価を行ない、被写体画像におけ
るオブジェクトを暗いと判断すると撮影条件評価手段が
上記絞りを開かせる方向に制御するし、同オブジェクト
を明るい判断すると撮影条件評価手段が上記絞りを絞る
方向に制御する。ここでいう絞りは必ずしも機構的なも
のに限られるものではなく、例えばCCD素子における
荷電時間を調整するものであっても撮影条件を調整する
という意味では全く同等と言える。
In the invention according to claim 6 configured as described above, when the image pickup means has a stop for adjusting the amount of light in the optical path, the image evaluation means evaluates the brightness of the subject image. When the object in the subject image is determined to be dark, the photographing condition evaluation means controls the direction to open the aperture, and when the object is determined to be bright, the imaging condition evaluation means controls the direction to narrow the aperture. The aperture here is not necessarily limited to a mechanical one. For example, even if the aperture is adjusted for the charging time of the CCD element, it can be said that the aperture is completely equivalent in terms of adjusting the photographing conditions.

【0017】また、機構的な動作を伴う他の好適な一例
として、請求項7にかかる発明は、請求項3〜請求項6
のいずれかに記載の電子写真撮像装置において、上記画
像撮像手段は、被写体画像内における所定の被写体にピ
ントを合わせるように上記光学系路を自動調整するオー
トフォーカス機構を備え、上記画像評価手段は、上記被
写体画像における画像のシャープさの評価を行ない、上
記撮影条件評価手段は、この画像評価手段が上記被写体
画像をシャープでないと判断したときに上記オートフォ
ーカス機構においてピント合わせの被写体をオブジェク
トに変化させる構成としてある。
Further, as another preferable example involving a mechanical operation, the invention according to claim 7 is the invention according to claims 3 to 6.
In the electrophotographic imaging apparatus according to any one of the above, the image capturing means includes an auto-focus mechanism that automatically adjusts the optical system path so as to focus on a predetermined subject in the subject image, and the image evaluation means includes Evaluating the sharpness of the image in the subject image, and changing the focusing object to an object in the autofocus mechanism when the image evaluating means determines that the subject image is not sharp. There is a configuration to make it.

【0018】上記のように構成した請求項7にかかる発
明においては、画像撮像手段が被写体画像内における所
定の被写体にピントを合わせるように上記光学系路を自
動調整するオートフォーカス機構を備えている場合に、
画像評価手段は被写体画像における画像のシャープさの
評価を行ない、被写体画像をシャープでないと判断した
ときに撮影条件評価手段が上記オートフォーカス機構に
おいてピント合わせの被写体をオブジェクトに変化させ
る。
In the invention according to claim 7 configured as described above, the image pickup means is provided with an auto-focus mechanism for automatically adjusting the optical system path so as to focus on a predetermined subject in the subject image. In case,
The image evaluation means evaluates the sharpness of the image in the subject image, and when it is determined that the subject image is not sharp, the photographing condition evaluation means changes the focused object to an object in the autofocus mechanism.

【0019】従来のオートフォーカス機構においては焦
点対象を中央に固定せざるをえないが、オブジェクトが
分かるのでこのオブジェクトに対象を合わせる。さら
に、他の好適な一例として、請求項8にかかる発明は、
請求項3〜請求項7のいずれかに記載の電子写真撮像装
置において、上記画像撮像手段は、複数の要素色毎に明
暗についての階調値を生成するとともに個別に出力調整
可能であり、上記画像評価手段は、上記被写体画像にお
けるカラーバランスの評価を行ない、上記撮影条件評価
手段は、この画像評価手段が上記被写体画像のカラーバ
ランスでアンバランスと評価したときに各要素色毎に出
力調整させる構成としてある。
In the conventional auto-focus mechanism, the object to be focused must be fixed at the center, but since the object is known, the object is adjusted to this object. Further, as another preferable example, the invention according to claim 8 is as follows.
8. The electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means generates a tone value for lightness and darkness for each of a plurality of element colors and can individually adjust output. The image evaluation means evaluates the color balance of the subject image, and the photographing condition evaluation means adjusts the output for each element color when the image evaluation means evaluates the color balance of the subject image as unbalanced. There is a configuration.

【0020】上記のように構成した請求項8にかかる発
明においては、画像撮像手段が複数の要素色毎に明暗に
ついての階調値を生成するとともに個別に出力調整可能
である場合において、画像評価手段が被写体画像におけ
るカラーバランスの評価を行ない、被写体画像のカラー
バランスでアンバランスと評価されたときに撮影条件評
価手段が各要素色毎に出力調整させる。このように、被
写体画像をドットマトリクス状の画素で表現した上で、
数値的な集計処理に付して画像を評価し、その評価に基
づいて撮影条件を評価する手法は必ずしも実体のある装
置に限られる必要はなく、その方法としても機能するこ
とは容易に理解できる。このため、請求項9にかかる発
明は、所定の撮影条件を設定しつつ光学系路を経て被写
体画像を撮像し、同被写体画像をドットマトリクス状の
画素で表して各画素毎に色分解した所定の要素色で階調
表現した画像データを取得する電子写真撮像方法であっ
て、上記撮影条件下で被写体画像を撮像して画像データ
を取得する画像撮像工程と、取得された上記画像データ
について数値的な集計処理を行い所定の評価基準に基づ
いて撮像画像を評価する画像評価工程と、この評価に基
づいて上記画像撮像工程における上記撮影条件について
の評価を行う撮影条件評価工程とを具備する構成として
ある。
In the invention according to claim 8 configured as described above, in the case where the image pickup means generates tone values for light and dark for each of a plurality of element colors and is capable of individually adjusting the output, image evaluation is performed. The means evaluates the color balance of the subject image, and when the color balance of the subject image is evaluated as unbalanced, the shooting condition evaluation means adjusts the output for each element color. In this way, after the subject image is represented by pixels in a dot matrix,
It is easy to understand that a method of evaluating an image by performing a numerical tabulation process and evaluating a photographing condition based on the evaluation is not necessarily limited to a substantial device, and also functions as the method. . For this reason, the invention according to claim 9 captures a subject image via an optical system path while setting a predetermined photographing condition, expresses the subject image by dot matrix pixels, and performs color separation for each pixel. An electrophotographic imaging method for acquiring image data expressed in gradations with element colors of: an image imaging step of imaging a subject image under the imaging conditions to acquire image data; and a numerical value for the acquired image data. Comprising: an image evaluation step of performing a comprehensive aggregation process to evaluate a captured image based on a predetermined evaluation criterion; and a shooting condition evaluation step of evaluating the shooting conditions in the image shooting step based on the evaluation. There is.

【0021】すなわち、必ずしも実体のある装置に限ら
ず、その方法としても有効であることに相違はない。と
ころで、このような電子写真撮像装置は単独で存在する
場合もあるし、ある機器に組み込まれた状態で利用され
ることもあるなど、発明の思想としてはこれに限らず、
各種の態様を含むものである。従って、ソフトウェアで
あったりハードウェアであったりするなど、適宜、変更
可能である。発明の思想の具現化例として電子写真撮像
装置のソフトウェアとなる場合には、かかるソフトウェ
アを記録した記録媒体上においても当然に存在し、利用
されるといわざるをえない。
That is, there is no difference that the present invention is not necessarily limited to a substantial device but is also effective as a method. By the way, such an electrophotographic imaging device may exist alone, or may be used in a state of being incorporated in a certain device.
It includes various aspects. Therefore, it can be changed as appropriate, such as software or hardware. When the software of the electrophotographic imaging apparatus is used as an example of realizing the idea of the present invention, the software naturally exists on a recording medium on which the software is recorded, and it must be said that the software is used.

【0022】その一例として、請求項10にかかる発明
は、所定の撮影条件を設定しつつ光学系路を経て被写体
画像を撮像し、同被写体画像をドットマトリクス状の画
素で表して各画素毎に色分解した所定の要素色で階調表
現した画像データを取得する際にコンピュータにて制御
する電子写真撮像制御プログラムを記録した媒体であっ
て、上記撮影条件下で被写体画像を撮像して画像データ
を取得する画像撮像ステップと、取得された上記画像デ
ータについて数値的な集計処理を行い所定の評価基準に
基づいて撮像画像を評価する画像評価ステップと、この
評価に基づいて上記画像撮像工程における上記撮影条件
についての評価を行う撮影条件評価ステップとを具備す
る構成としてある。
As an example thereof, the invention according to claim 10 captures a subject image via an optical path while setting predetermined photographing conditions, and expresses the subject image by pixels in a dot matrix form for each pixel. A medium that stores an electrophotographic imaging control program that is controlled by a computer when acquiring image data expressed by gradation with a predetermined element color that has been color-separated. An image capturing step of acquiring the obtained image data, an image evaluation step of performing a numerical tabulation process on the obtained image data and evaluating a captured image based on a predetermined evaluation criterion, and And a photographing condition evaluation step of evaluating a photographing condition.

【0023】むろん、その記録媒体は、磁気記録媒体で
あってもよいし光磁気記録媒体であってもよいし、今後
開発されるいかなる記録媒体においても全く同様に考え
ることができる。また、一次複製品、二次複製品などの
複製段階については全く問う余地無く同等である。その
他、供給方法として通信回線を利用して行なう場合でも
本発明が利用されていることにはかわりない。さらに、
一部がソフトウェアであって、一部がハードウェアで実
現されている場合においても発明の思想において全く異
なるものではなく、一部を記録媒体上に記憶しておいて
必要に応じて適宜読み込まれるような形態のものとして
あってもよい。
Of course, the recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future. Also, the duplication stages of the primary duplicated product, the secondary duplicated product, and the like are equivalent without any question. In addition, the present invention is not limited to the case where the present invention is used even when the supply is performed using a communication line. further,
The concept of the present invention is not completely different even when part is software and part is realized by hardware, and part is stored on a recording medium and read as needed as needed. Such a form may be adopted.

【0024】[0024]

【発明の効果】以上説明したように本発明は、一旦、被
写体画像を撮影した上で撮影条件を評価することによ
り、撮影の失敗をより防止することが可能な電子写真撮
像装置を提供することができる。また、請求項2にかか
る発明によれば、本来の被写体を抽出した上で画像を評
価するので、失敗の危険性をより低減させることができ
る。さらに、請求項3にかかる発明によれば、評価結果
を撮影条件に反映させるため、自ら撮影条件を調整しな
ければならない場合と比較して操作性を向上させること
ができる。
As described above, the present invention provides an electrophotographic imaging apparatus capable of preventing photographing failure by evaluating a photographing condition after photographing a subject image once. Can be. According to the second aspect of the present invention, since the image is evaluated after extracting the original subject, the risk of failure can be further reduced. Furthermore, according to the third aspect of the present invention, since the evaluation result is reflected in the photographing condition, the operability can be improved as compared with the case where the photographing condition has to be adjusted by itself.

【0025】さらに、請求項4にかかる発明によれば、
逆光のように被写体が暗くなってしまうような場合にも
自動的にストロボを発光させることが可能となる。さら
に、請求項5にかかる発明によれば、画像が暗い場合に
画像データを取得する段階でできるだけ明るくすること
ができる。画像データは以後の過程においてディジタル
処理で修正することも可能であるが、画像データを取得
する段階で量子化範囲を大きく取れるようにすると、修
正処理の範囲が広がることになる。
Further, according to the invention of claim 4,
The strobe can be automatically emitted even when the subject becomes dark like backlight. Further, according to the invention of claim 5, when the image is dark, the image can be made as bright as possible at the stage of acquiring the image data. Although the image data can be corrected by digital processing in the subsequent process, if the quantization range can be made large at the stage of obtaining the image data, the range of the correction processing will be widened.

【0026】さらに、請求項6にかかる発明によれば、
同様に画像が暗い場合に機構的な動作で明るくすること
ができる。さらに、請求項7にかかる発明によれば、固
定的になりがちなオートフォーカス機構でもピント合わ
せの汎用性が広がる。さらに、請求項8にかかる発明に
よれば、カラーバランスのような撮影条件下で大きく影
響を受けやすいようなものについても調整可能となる。
さらに、請求項9にかかる発明によれば、同様の効果を
奏する電子写真撮像方法を提供でき、請求項10にかか
る発明によれば、電子写真撮像制御プログラムを記録し
た媒体を提供することができる。
Further, according to the invention according to claim 6,
Similarly, when an image is dark, the image can be brightened by a mechanical operation. Further, according to the invention of claim 7, the versatility of focusing is widened even with an autofocus mechanism which tends to be fixed. Furthermore, according to the invention according to claim 8, it is possible to adjust an image which is greatly affected under photographing conditions such as color balance.
Further, according to the ninth aspect of the invention, it is possible to provide an electrophotographic imaging method having the same effect, and according to the tenth aspect of the invention, it is possible to provide a medium in which an electrophotographic imaging control program is recorded. .

【0027】[0027]

【発明の実施の形態】以下、図面にもとづいて本発明の
実施形態を説明する。図1は、本発明の一実施形態にか
かる電子写真撮像装置をクレーム対応図により示してい
る。ディジタルスチルカメラのように被写体画像を画像
データに変換する電子写真撮像装置においては、画像は
ドットマトリクス状の画素で表現され、個々の画素につ
いて色や明るさを表している。被写体画像を撮像するた
めに画像撮像手段C1には所定の撮影条件を設定する光
学系路が備えられ、当該画像撮像手段C1はこの光学系
路を経て被写体画像を撮像素子などに結像せしめ、所定
の要素色の階調表現からなる画像データを取得するし、
画像評価手段C2は当該画像データを数値的に分析す
る。ドットマトリクス状の各画素について個別のデータ
を備えているため、当該分析には何らかの集計処理が行
われ、集計結果は所定の評価基準と比較されて撮像画像
についての評価となる。そして、撮像画像についての評
価結果は撮影条件評価手段C3に入力され、この評価に
基づいて上記画像撮像手段C1における上記撮影条件に
ついての評価となるように再評価する。すなわち、撮像
画像が暗いという評価であれば、その原因となりうる撮
影条件を導き出し、再撮影の際に良好となりうるような
評価を与える。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an electrophotographic imaging apparatus according to an embodiment of the present invention in a claim correspondence diagram. In an electrophotographic imaging device that converts a subject image into image data, such as a digital still camera, an image is represented by pixels in a dot matrix, and each pixel represents color and brightness. In order to capture a subject image, the image capturing means C1 is provided with an optical path for setting predetermined photographing conditions. The image capturing means C1 forms a subject image on an image sensor or the like via the optical path, Acquires image data consisting of gradation representations of predetermined element colors,
The image evaluation means C2 numerically analyzes the image data. Since individual data is provided for each pixel in a dot matrix, some sort of tallying processing is performed in the analysis, and the tallying result is compared with a predetermined evaluation criterion to evaluate the captured image. Then, the evaluation result of the captured image is input to the imaging condition evaluation means C3, and based on this evaluation, the image imaging means C1 is re-evaluated so as to evaluate the imaging condition. That is, if the evaluation is that the captured image is dark, an imaging condition that can cause the darkness is derived, and an evaluation that can be good at the time of re-imaging is given.

【0028】図2〜図5は、本電子写真撮像装置を適用
したディジタルスチルカメラの概略構成をブロック図に
より示している。各種の機構的および電子的な制御を行
うのがコントローラ10であり、図3に示すようにその
主たる構成はCPU11とROM12とRAM13とで
あり、これらはバス14を介して相互に接続されるとと
もにI/O15を介して外部の主構成部品と電気的に接
続されている。この主構成部品の一つとして撮像部20
がコントローラ10に接続されている。撮像部20につ
いては図4により詳細に示しており、光学系路21の一
部として測距部21aとオートフォーカス機構21bと
を備えている。本実施形態においては、測距部21aに
て三角法などによって距離を測定し、オートフォーカス
機構21bが測定結果に基づいて焦点合わせを行うよう
にしている。この場合、焦点合わせの対象となるのは予
め予想された中央位置などとなる。また、撮像部20に
は、CCD素子からなる撮像素子22と、この撮像素子
の出力データを所定増幅率で増幅するAGC回路23
と、同AGC回路23のアナログ出力値をディジタルデ
ータに変換するA/Dコンバータ24とが備えられてい
る。これらは個々にコントローラ10と接続されて制御
されるとともに、撮像データはA/Dコンバータ24の
変換データとして画像処理部30に出力されている。
FIGS. 2 to 5 are block diagrams showing the schematic arrangement of a digital still camera to which the present electrophotographic image pickup apparatus is applied. The controller 10 performs various mechanical and electronic controls, and as shown in FIG. 3, its main components are a CPU 11, a ROM 12, and a RAM 13, which are mutually connected via a bus 14 and It is electrically connected to main external components via the I / O 15. The imaging unit 20 is one of the main components.
Are connected to the controller 10. The imaging unit 20 is shown in more detail in FIG. 4, and includes a distance measuring unit 21 a and an autofocus mechanism 21 b as a part of the optical path 21. In this embodiment, the distance is measured by the distance measuring unit 21a by triangulation or the like, and the autofocus mechanism 21b performs focusing based on the measurement result. In this case, the target of focusing is the center position predicted in advance. Further, the imaging unit 20 includes an imaging device 22 including a CCD device and an AGC circuit 23 that amplifies output data of the imaging device at a predetermined amplification rate.
And an A / D converter 24 for converting an analog output value of the AGC circuit 23 into digital data. These are individually connected to and controlled by the controller 10, and the imaging data is output to the image processing unit 30 as conversion data of the A / D converter 24.

【0029】画像処理部30は光学系路21の特性であ
るとか撮像素子22の特性をチューニングするために備
えられたハードウェア回路である。単板のCCD素子の
場合には平面的に赤、緑、青の受光素子を配置せざるを
得ず、縦横二次元に配列された個別の受光素子に赤緑青
(RGB)のフィルタを被せて被写体画像を撮像するこ
とになる。すると、ある画素は緑だけ、他の画素は赤だ
け、次の画素は青だけのデータしか存在しないことにな
ってしまうため、周りの画素から他の要素色のデータを
補完生成することになる。フィルタ補完回路31はこの
ような補完をハードウェアで実現するものであり、単板
CCD素子からなる撮像素子22において必須となる。
The image processing section 30 is a hardware circuit provided for tuning the characteristics of the optical path 21 and the characteristics of the image pickup device 22. In the case of a single-chip CCD element, red, green, and blue light receiving elements must be arranged in a plane, and individual light receiving elements arranged in two dimensions vertically and horizontally are covered with a red, green, and blue (RGB) filter. A subject image is captured. Then, since a certain pixel has only green data, another pixel has only red data, and the next pixel has only blue data, data of other element colors is complementarily generated from surrounding pixels. . The filter complementing circuit 31 implements such complementing by hardware, and is indispensable in the image pickup device 22 composed of a single CCD device.

【0030】単板CCDにおいては各画素の受光感度の
バラツキが大きくないにしてもRGBというフィルタを
被せているので、自ずからその出力特性間には偏重が生
じうる。自動ホワイトバランス回路32はこのような偏
りを解消するものであるが、ハードウェア回路で実現す
るので概略的には平均的となるか特定の範囲のデータ分
布が一定となるようにすることになる。また、γ補正回
路33は撮像素子22の受光感度をフラットにすること
が主たる役割である。
In a single-chip CCD, even if the variation in the light receiving sensitivity of each pixel is not large, since a filter called RGB is put on the CCD, the output characteristics may be naturally biased. Although the automatic white balance circuit 32 eliminates such a bias, it is realized by a hardware circuit, so that it is generally averaged or the data distribution in a specific range is fixed. . The main function of the γ correction circuit 33 is to make the light receiving sensitivity of the image sensor 22 flat.

【0031】フィルタ補完回路31についてはデータが
入力されれば機械的にそのまま実行されるだけである
が、自動ホワイトバランス回路32やγ補正回路33に
ついてはハードウェア回路で設計された補正機能に加え
てコントローラ10からの具体的な指示も入力可能であ
り、後述するようにホワイトバランスについても意図的
にシフトすることが可能であったり、γ補正回路で各要
素色毎に異なるγ補正を掛けるなどして能動的な調整を
可能としている。
When the data is input, the filter complementing circuit 31 is only executed mechanically as it is. However, the automatic white balance circuit 32 and the γ correction circuit 33 have a correction function designed by a hardware circuit. It is also possible to input a specific instruction from the controller 10 as well, and it is possible to intentionally shift the white balance as described later, or to apply a different γ correction to each element color by a γ correction circuit. This enables active adjustment.

【0032】このような画像処理部30を経て画像デー
タは、一旦、DRAM40に保存され、画像評価部50
が同DRAM40から画像データを読み出して所定の集
計処理を行う。集計処理結果は撮像画像の評価値として
コントローラ10に入力され、また、同コントローラ1
0は評価の対象となった画像データをDRAM40から
読み出し、フラッシュメモリ60に保存する。この際、
撮像素子22の出力イメージのままでは画像データが大
きくなりすぎるため、符号化部70にてJPEGなどの
圧縮フォーマットに変換してから保存している。
The image data passing through the image processing unit 30 is temporarily stored in the DRAM 40, and is temporarily stored in the DRAM 40.
Reads out image data from the DRAM 40 and performs a predetermined tallying process. The result of the tallying process is input to the controller 10 as the evaluation value of the captured image.
0 reads out the image data to be evaluated from the DRAM 40 and stores it in the flash memory 60. On this occasion,
Since the image data becomes too large if the output image of the image sensor 22 remains as it is, the image data is stored after being converted into a compression format such as JPEG by the encoding unit 70.

【0033】これらの他、コントローラ10には操作表
示部80が接続され、図示しないシャッターボタンなど
の各種操作子と共にLCDなどの画像表示パネルも備え
られている。むろん、コントローラ10は各操作子の操
作状況を逐次入力しているし、撮像した画像を表示パネ
ルに表示する。また、後述するように撮像画像に対する
評価結果も合わせて同表示パネルに表示している。ま
た、夜間撮影のためにストロボ90も備えられ、上記操
作子で操作されたときあるいはコントローラ10によっ
て所定の判断処理が行われたときに発光するようになっ
ている。
In addition, the controller 10 is connected to an operation display section 80, and is provided with an image display panel such as an LCD together with various operation elements such as a shutter button (not shown). Of course, the controller 10 sequentially inputs the operation status of each operator, and displays the captured image on the display panel. Further, as described later, the evaluation result for the captured image is also displayed on the display panel. Further, a strobe light 90 is provided for night photography, and emits light when operated by the operation element or when predetermined judgment processing is performed by the controller 10.

【0034】本実施形態においては、以上のようなハー
ドウェア構成となっているが、ディジタルスチルカメラ
としての構成は概略において共通するし、他の構成とす
ることも当然に可能である。また、この例ではディジタ
ルスチルカメラとして実現しているが、ディジタルビデ
オカメラなどに組み込んで実現することも可能である。
コントローラ10は本ディジタルスチルカメラの全体的
な制御を行うが、図6および図7は被写体画像撮影時の
概略的な制御手順をフローチャートにより示している。
概略的には、最初に仮画像として画像を入力し、それに
基づいて撮影条件を修正し、画像が適正となれば本撮影
を行うという流れである。
In the present embodiment, the hardware configuration is as described above. However, the configuration as a digital still camera is generally common, and other configurations are naturally possible. Further, in this example, the digital still camera is realized, but the digital still camera can be incorporated and realized.
The controller 10 performs overall control of the present digital still camera. FIGS. 6 and 7 show a schematic control procedure at the time of photographing a subject image by a flowchart.
Schematically, the flow is as follows: first, an image is input as a provisional image, the photographing conditions are corrected based on the image, and the main photographing is performed when the image becomes appropriate.

【0035】ステップ100では仮入力指示が行われ
る。シャッターボタンはフルストロークによって本撮影
の指示となり、ハーフストロークによって仮画像の入力
を指示することとしている。従って、コントローラ10
はハーフストロークを検出すると仮入力の指示有りと判
断する。仮入力の指示があると、コントローラ10はス
テップ105にて仮画像入力を実行する。仮画像入力と
は一般撮影条件での撮影を意味する。従って、測距部2
1aにて被写体までの距離を測定しつつオートフォーカ
ス機構21bにて焦点合わせを行い、撮像素子22にて
明るさを検出しつつ、露出やシャッタースピードを決定
し、適正なタイミングで撮像素子22上での結像イメー
ジに対応した画像データをAGC回路23に出力させ
る。AGC回路23においても予め定められた調整機能
によってゲインを自動調整し、その出力をA/Dコンバ
ータ24にてA/D変換させる。
In step 100, a provisional input instruction is issued. The shutter button gives an instruction for the main shooting by a full stroke, and gives an input of a temporary image by a half stroke. Therefore, the controller 10
Determines that there is a provisional input instruction when a half stroke is detected. When there is a provisional input instruction, the controller 10 executes provisional image input in step 105. The provisional image input means shooting under general shooting conditions. Therefore, the distance measuring unit 2
1a, focusing is performed by the auto-focus mechanism 21b while measuring the distance to the subject, and the exposure and shutter speed are determined while detecting the brightness by the image sensor 22. And outputs the image data corresponding to the image formed by the AGC circuit 23 to the AGC circuit 23. Also in the AGC circuit 23, the gain is automatically adjusted by a predetermined adjustment function, and the output is A / D converted by the A / D converter 24.

【0036】A/D変換後の画像データに基づいて画像
処理部30ではフィルタ補完とホワイトバランスの調整
とγ補正を行うことにより、ハードウェア的には可能な
限りの調整を行った画像データを生成し、DRAM40
に書き込んで仮画像入力を終了する。次に、コントロー
ラ10はステップ110〜125においてオブジェクト
の抽出と集計処理を同時に行う。この集計処理では、図
8に示すように注目画素を逐次全画像データにわたって
移動させながら行っていく。
Based on the A / D-converted image data, the image processing unit 30 performs filter complementation, white balance adjustment, and γ correction so that the image data that has been adjusted as much as possible in terms of hardware can be used. Generated and the DRAM 40
To end the provisional image input. Next, in steps 110 to 125, the controller 10 simultaneously performs object extraction and tallying processing. This totaling process is performed while sequentially moving the pixel of interest over the entire image data as shown in FIG.

【0037】オブジェクトは他の部分と比較して画像が
シャープであるという経験的事実に基づき、本発明にお
いては画像がシャープな画素がオブジェクトの画素であ
ると判断する。画像データは各画素ごとにRGBの輝度
が階調値で表されており、画像のエッジ部分では隣接す
る画素間での同データの差分は大きくなる。この差分は
輝度勾配であり、これをエッジ度と呼ぶことにし、ステ
ップ110では各画素でのエッジ度を判定する。図9に
示すようなXY直交座標を考察する場合、画像の変化度
合いのベクトルはX軸方向成分とY軸方向成分とをそれ
ぞれ求めれば演算可能となる。ドットマトリクス状の画
素からなるディジタル画像においては、図10に示すよ
うに縦軸方向と横軸方向に画素が隣接しており、その明
るさをf(x,y)で表すものとする。この場合、f
(x,y)はRGBの各輝度であるR(x,y),G
(x,y),B(x,y)であったり、あるいは全体の
輝度Y(x,y)であってもよい、なお、RGBの各輝
度であるR(x,y),G(x,y),B(x,y)と
全体の輝度Y(x,y)との関係は、厳密には色変換テ
ーブルなどを参照しなければ変換不能であるが、後述す
るようにして簡易な対応関係を利用するようにしても良
い。
Based on the empirical fact that an object has a sharper image compared to other parts, the present invention determines that pixels whose image is sharp are pixels of the object. In the image data, RGB luminance is represented by a gradation value for each pixel, and the difference of the same data between adjacent pixels is large in an edge portion of the image. This difference is a luminance gradient, which is called an edge degree. In step 110, the edge degree at each pixel is determined. When considering the XY orthogonal coordinates as shown in FIG. 9, the vector of the degree of change of the image can be calculated by obtaining the X-axis direction component and the Y-axis direction component, respectively. In a digital image composed of pixels in the form of a dot matrix, pixels are adjacent to each other in a vertical axis direction and a horizontal axis direction as shown in FIG. 10, and its brightness is represented by f (x, y). In this case, f
(X, y) is R (x, y), G, which is each luminance of RGB.
(X, y), B (x, y), or the entire luminance Y (x, y). Note that R (x, y), G (x , Y), B (x, y) and the overall luminance Y (x, y) cannot be converted without strict reference to a color conversion table or the like. The correspondence may be used.

【0038】図10に示すものにおいて、X方向の差分
値fxとY方向の差分値fyは、 fx=f(x+1,y)−f(x,y) fy=f(x,y+1)−f(x,y) のように表される。従って、これらを成分とするベクト
ルの大きさ|g(x,y)|は、 |g(x,y)|=(fx**2+fy**2)**(1/
2) のように表される。むろん、エッジ度はこの|g(x,
y)|で表される。なお、本来、画素は図11に示すよ
うに縦横に升目状に配置されており、中央の画素に注目
すると八つの隣接画素がある。従って、同様にそれぞれ
の隣接する画素との画像データの差分をベクトルで表
し、このベクトルの和を画像の変化度合いと判断しても
良い。
In FIG. 10, the difference value fx in the X direction and the difference value fy in the Y direction are: fx = f (x + 1, y) -f (x, y) fy = f (x, y + 1) -f It is represented as (x, y). Therefore, the magnitude | g (x, y) | of a vector having these as components is | g (x, y) | = (fx ** 2 + fy ** 2) ** (1 /
2) is expressed as Of course, the degree of edge is | g (x,
y) | Note that, as shown in FIG. 11, pixels are originally arranged vertically and horizontally in a grid pattern, and there are eight adjacent pixels when focusing on the central pixel. Therefore, similarly, the difference between the image data and each adjacent pixel may be represented by a vector, and the sum of the vectors may be determined as the degree of change of the image.

【0039】以上のようにして各画素についてエッジ度
が求められるので、あるしきい値と比較してエッジ度の
方が大きい画素をオブジェクトの画素と判断し、ステッ
プ115にて当該画素の画像データを集計対象とする。
この集計処理については後述する。続いてステップ12
0では対象画素を図8に示すように移動させ、ステップ
125にて全画素について集計が終了したと判断される
までステップ110からの処理を繰り返す。むろん、全
画素について終了したときにはオブジェクト画素を抽出
して集計処理を完了したことになる。
Since the edge degree is obtained for each pixel as described above, a pixel having a larger edge degree than a certain threshold value is determined to be a pixel of an object. Is to be counted.
This counting process will be described later. Then step 12
At 0, the target pixel is moved as shown in FIG. 8, and the processing from step 110 is repeated until it is determined in step 125 that the tallying has been completed for all pixels. Of course, when the processing has been completed for all the pixels, it means that the object pixels have been extracted and the aggregation processing has been completed.

【0040】この例では、オブジェクト画素はシャープ
な画素であるものとの前提で抽出を行ったが、これに限
られるものではない。例えば、スナップ写真であれば人
物が被写体としてのオブジェクトとなる。従って、ある
意味では人物に特有と言える肌色の画素を見つければオ
ブジェクトの抽出といっても差し支えない。従って、各
画素の色度に基づいて肌色らしき画素であるかを判定
し、肌色画素数の集計を行うようにしてもよい。色度に
ついては各画素についてのx−y色度を計算する。い
ま、対象画素のRGB表色系におけるRGB階調データ
が(R,G,B)であるとするときに、 r=R/(R+G+B) g=G/(R+G+B) とおくとすると、XYZ表色系における色度座標xc,
ycとの間には、 xc=(1.1302+1.6387r+0.6215
g)/(6.7846−3.0157r−0.3857
g) yc=(0.0601+0.9399r+4.5306
g)/(6.7846−3.0157r−0.3857
g) なる対応関係が成立する。ここにおいて、色度は明るさ
に左右されることなく色の刺激値の絶対的な割合を表す
ものであるから、色度からその画素がどのような対象物
かを判断することができるといえる。肌色の場合は、
0.35<xc<0.400.33<yc<0.36と
いうような範囲に含まれているから、各画素の色度を求
めたときにこの範囲内であればその画素は人間の肌を示
す画素と考え、オブジェクトを抽出できたと言える。従
って、そのような範囲にあれば集計処理を行えばよい。
In this example, the extraction is performed on the assumption that the object pixels are sharp pixels, but the present invention is not limited to this. For example, in the case of a snapshot, a person is an object as a subject. Therefore, if a skin color pixel that can be said to be peculiar to a person in a sense is found, it can be said that the object is extracted. Therefore, it may be determined whether or not the pixel is a skin color pixel based on the chromaticity of each pixel, and the number of skin color pixels may be totaled. As for the chromaticity, the xy chromaticity of each pixel is calculated. Now, assuming that the RGB gradation data of the target pixel in the RGB color system is (R, G, B), r = R / (R + G + B) g = G / (R + G + B) Chromaticity coordinates xc in the color system,
xc = (1.1302 + 1.6387r + 0.6215)
g) / (6.7846-3.0157r-0.3857)
g) yc = (0.0601 + 0.9399r + 4.5306)
g) / (6.7846-3.0157r-0.3857)
g) The following relationship is established. Here, since the chromaticity represents the absolute ratio of the color stimulus value without being influenced by the brightness, it can be said that it is possible to determine what kind of object the pixel is based on the chromaticity. . For skin color,
Since the chromaticity of each pixel is within the range of 0.35 <xc <0.400.33 <yc <0.36, if the chromaticity of each pixel is within this range, the pixel is human skin. Thus, it can be said that the object was extracted. Therefore, if it is within such a range, the tallying process may be performed.

【0041】ところで、ステップ115の集計処理はス
テップ130の画像評価処理に対応しており、当該評価
処理に応じて集計すべき画像は異なる。従って、先ず、
画像評価処理について説明する。本実施形態において
は、「コントラスト」、「明度」、「カラーバラン
ス」、「彩度」、「シャープネス」の5つの項目につい
て評価を行い、それぞれを表す画像評価値を得るための
集計処理を行っている。まず、コントラストは画像全体
としての輝度の幅を示し、撮像画像についてコントラス
トを失敗と感じるのは概ねコントラストの幅が狭い場合
である。ある画像の各画素における輝度の分布をヒスト
グラムとして集計したものを図12で実線にて示してい
る。実線に示す分布を取る場合、明るい画素の輝度と暗
い画素の輝度との差が少ないが、輝度の分布が一点鎖線
に示すように広がっていれば明るい画素の輝度と暗い画
素の輝度との差が大きくなり、コントラストの幅が広が
ることになる。
Incidentally, the counting process in step 115 corresponds to the image evaluation process in step 130, and the images to be tabulated are different according to the evaluation process. Therefore, first,
The image evaluation processing will be described. In the present embodiment, five items of “contrast”, “brightness”, “color balance”, “saturation”, and “sharpness” are evaluated, and a totaling process is performed to obtain an image evaluation value representing each item. ing. First, the contrast indicates the width of the luminance of the entire image, and the sense of the captured image as a failure is generally when the width of the contrast is narrow. The distribution of the luminance of each pixel of a certain image as a histogram is shown by a solid line in FIG. When the distribution shown by the solid line is taken, the difference between the brightness of the bright pixel and the brightness of the dark pixel is small, but if the brightness distribution spreads as shown by the dashed line, the difference between the brightness of the bright pixel and the brightness of the dark pixel is obtained. Is increased, and the range of contrast is widened.

【0042】従って、このようなヒストグラムを作成す
るとして輝度の最大値から輝度の最小値までの間隔をコ
ントラストの幅として集計処理することが必要である。
ただし、この場合はあくまでも輝度の変換であり、画像
データが輝度を要素として備えていれば直接に集計が可
能であるが、画像データはRGBの階調値(256階
調)で表現されているので、直接には輝度の値を持って
いない。輝度を求めるためにLuv表色空間に色変換す
る必要があるが、演算量などの問題から得策ではないた
め、テレビジョンなどの場合に利用されているRGBか
ら輝度を直に求める次式の変換式を利用する。 Y=0.30R+0.59G+0.11B このようにして輝度を表すとして写真画像の輝度分布は
図13に示すように概ね山形に表れる。むろん、その位
置、形状についてはさまざまである。輝度分布の幅はこ
の両端をどこに決めるかによって決定されるが、単に裾
野が延びて分布数が「0」となる点を両端とすることは
できない。裾野部分では分布数が「0」付近で変移する
場合があるし、統計的に見れば限りなく「0」に近づき
ながら推移していくからである。
Therefore, assuming that such a histogram is created, it is necessary to perform an aggregation process using the interval from the maximum value of the luminance to the minimum value of the luminance as the width of the contrast.
In this case, however, the conversion is a luminance, and if the image data has luminance as an element, the aggregation can be directly performed. However, the image data is represented by RGB gradation values (256 gradations). So it doesn't have a luminance value directly. In order to obtain the luminance, it is necessary to perform color conversion to the Luv color space, but this is not a good solution due to the problem of the amount of calculation and the like. Use expressions. Y = 0.30R + 0.59G + 0.11B Assuming that the luminance is represented in this manner, the luminance distribution of the photographic image appears substantially in a mountain shape as shown in FIG. Of course, the position and shape are various. The width of the luminance distribution is determined depending on where the both ends are determined. However, the point where the number of distributions becomes “0” by extending the base cannot be set as the both ends. This is because the number of distributions may change around “0” in the tail part, and the number of distributions changes while approaching “0” without limit statistically.

【0043】このため、分布範囲において最も輝度の大
きい側と小さい側からある分布割合だけ内側に寄った部
分を分布の両端とする。本実施形態においては、同図に
示すように、この分布割合を0.5%に設定している。
むろん、この割合については、適宜、変更することが可
能である。このように、ある分布割合だけ上端と下端を
カットすることにより、ノイズなどに起因して生じてい
る白点や黒点を無視することもできる。すなわち、この
ような処理をしなければ一点でも白点や黒点があればそ
れが輝度分布の両端となってしまうので、255階調の
輝度値であれば、多くの場合において最下端は階調
「0」であるし、最上端は階調「255」となってしま
うが、上端部分から0.5%の画素数だけ内側に入った
部分を端部とすることにより、このようなことが無くな
る。そして、実際に得られたヒストグラムに基づいて画
素数に対する0.5%を演算し、再現可能な輝度分布に
おける上端の輝度値と下端の輝度値から順番に内側に向
かいながらそれぞれの分布数を累積し、0.5%の値と
なった輝度値を最大輝度Ymaxと最小輝度Yminと
する。
For this reason, a portion which is shifted inward by a certain distribution ratio from the side where the luminance is the largest and the side where the luminance is the smallest in the distribution range is defined as both ends of the distribution. In the present embodiment, as shown in the figure, the distribution ratio is set to 0.5%.
Of course, this ratio can be changed as appropriate. In this manner, by cutting the upper and lower ends by a certain distribution ratio, white points and black points caused by noise or the like can be ignored. That is, if such processing is not performed, even if there is even one point, a white point or a black point will be at both ends of the luminance distribution. Although it is “0” and the uppermost end is a gradation “255”, such a problem can be solved by setting a part inside 0.5% of pixels from the upper end part as an end part. Disappears. Then, 0.5% of the number of pixels is calculated based on the actually obtained histogram, and the number of distributions is accumulated in order from the upper luminance value and the lower luminance value in the reproducible luminance distribution in order. Then, the luminance value having the value of 0.5% is defined as the maximum luminance Ymax and the minimum luminance Ymin.

【0044】輝度分布の幅Ydifは最大輝度Ymax
と最小輝度Yminの差であり、コントラストの評価値
Pcontを100点満点とすると、 Ydif=Ymax−Ymin Pcont=100×Ydif/255 となる。なお、以上のようにして輝度を集計する処理が
ステップ115にて行われ、評価値Pcontを求める
処理がステップ130にて行われることになる。次に、
明度について説明する。ここでいう画像評価値としての
明度は画像全体の明暗の指標を意味しており、上述した
ヒストグラムから求められる分布の中央値(メジアン)
Ymedを使用する。従って、この場合における集計処
理はコントラストのための集計処理と同時に行われる。
一方、画像評価値を分析する際には次のようにする。
The width Ydif of the luminance distribution is equal to the maximum luminance Ymax.
Ymin = Ymax−Ymin Pcont = 100 × Ydif / 255, where the contrast evaluation value Pcont is a perfect score of 100 points. In addition, the process of totalizing the luminance as described above is performed in step 115, and the process of obtaining the evaluation value Pcont is performed in step 130. next,
The lightness will be described. The lightness as the image evaluation value here means an index of the lightness and darkness of the entire image, and is the median (median) of the distribution obtained from the above-described histogram.
Use Ymed. Therefore, the tallying process in this case is performed simultaneously with the tallying process for contrast.
On the other hand, when analyzing the image evaluation value, the following is performed.

【0045】明度の評価値Pbrgtは予め決めておい
た理想値であるYmed_targetを利用して次式
から算出する。 Pbrgt=100−|Ymed−Ymed_targ
et| ここで、Pbrgt<0ならばPbrgt=0とする。
なお、理想値Ymed_targetの実際の値は「1
06」を使用しているが、固定的なものではない。ま
た、好みを反映して変更できるようにしても良い。この
場合、明度を100点満点で表すとともに、中央値Ym
edが理想値Ymed_targetと比較して大きい
か小さいかで画像が明るいか否かを評価する。例えば、
中央値Ymedが「85」であるとすれば理想値Yme
d_targetの「106」よりも小さいので、第一
次的に「暗い」と評価されるし、第二次的に明度の評価
値Pbrgtは「79」と数値的に表現される。図14
はこのようにして明度の評価値Pbrgtが中央値Ym
edに基づいて変化する態様をグラフで示している。な
お、この場合も輝度を集計する処理がステップ115に
て行われ、評価値Pbrgtを求める処理がステップ1
30にて行われることになる。
The lightness evaluation value Pbrgt is calculated from the following equation using Ymed_target which is a predetermined ideal value. Pbrgt = 100− | Ymed−Ymed_targ
et | Here, if Pbrgt <0, then Pbrgt = 0.
Note that the actual value of the ideal value Ymed_target is "1
06 "is used, but it is not fixed. In addition, it may be possible to change it to reflect the preference. In this case, the brightness is represented by a perfect score of 100 and the median Ym
It is evaluated whether the image is bright depending on whether ed is larger or smaller than the ideal value Ymed_target. For example,
If the median Ymed is "85", the ideal value Yme
Since d_target is smaller than “106”, it is primarily evaluated as “dark”, and secondarily the lightness evaluation value Pbrgt is numerically expressed as “79”. FIG.
In this manner, the brightness evaluation value Pbrgt is changed to the median Ym.
An aspect that changes based on ed is shown in a graph. In this case as well, the process of totalizing the luminance is performed in step 115, and the process of obtaining the evaluation value Pbrgt is performed in step 1.
30.

【0046】図15は輝度のヒストグラムを示している
が、実線で示すように輝度分布の山が全体的に暗い側に
寄っている場合には波線で示すように全体的に明るい側
に山が移動するようになるのが好ましいと判断できる。
逆に、図16にて実線で示すように輝度分布の山が全体
的に明るい側に寄っている場合には波線で示すように全
体的に暗い側に山を移動させることが好ましいと判断で
きる。次にカラーバランスについて説明する。ここでい
うカラーバランスとは画像データを構成するR成分、G
成分、B成分の間に一定のアンバランス傾向があるか否
かを指すものとする。例えば、写真が赤っぽく見えると
して、それが撮影時の本当の状況を表しているのであれ
ば構わないが、そうではない場合には何らかの悪影響が
表れていると言える。ただし、このようなアンバランス
は実際のところ本当の状況と比較しなければ分からない
とも言えるので、事後的に評価すること自体が不可能で
あるとも考えられる。
FIG. 15 shows a histogram of the luminance. When the peaks of the luminance distribution are shifted toward the dark side as shown by the solid line, the peaks are shifted to the bright side as a whole by the broken line. It can be determined that it is preferable to move.
Conversely, when the peaks of the luminance distribution are generally shifted to the bright side as shown by the solid line in FIG. 16, it can be determined that it is preferable to move the peaks to the dark side as a whole by the dotted line. . Next, the color balance will be described. The color balance referred to here is the R component, G
It indicates whether or not there is a certain unbalance tendency between the component and the B component. For example, if a photograph looks reddish and it represents the real situation at the time of shooting, it does not matter if it does not, it can be said that some adverse effect has appeared. However, it can be said that such an imbalance cannot be understood unless it is actually compared with the real situation, so it may not be possible to make an ex post evaluation.

【0047】本実施形態において、これを各色毎の度数
分布の均一さから評価することにする。撮影時の状況に
よっては各色成分の度数分布が不均一となることの方が
自然な状況もあり得、そのような場合においては色修正
すべきではない。しかしながら、結果から逆を辿るとす
ると、各色成分の度数分布がある程度似ている状況では
度数分布が均一となっているべきであろうし、度数分布
が似ていなければ均一にすべきでないだろうと判断でき
る。
In the present embodiment, this will be evaluated from the uniformity of the frequency distribution for each color. Depending on the situation at the time of shooting, it may be more natural that the frequency distribution of each color component becomes non-uniform, and in such a case, the color should not be corrected. However, if we look back from the results, it is determined that the frequency distribution should be uniform if the frequency distribution of each color component is somewhat similar, and if the frequency distributions are not similar, it should not be uniform. it can.

【0048】このため、集計処理においては、後で各色
成分毎の度数分布の類似度をチェックするために、各色
成分毎のヒストグラムを作成する。このとき、全階調値
について度数分布を求めるのではなく、256階調の領
域を8〜16分割(n分割)し、各領域に属する度数を
集計していく。8分割する場合であれば、図17に示す
ように、「0〜31」、「32〜63」…「224〜2
55」という8つの領域について度数分布を求めてい
く。従って、ステップ115ではこのヒストグラムを作
成する処理が該当する。
For this reason, in the tabulation process, a histogram is created for each color component in order to later check the similarity of the frequency distribution for each color component. At this time, the frequency distribution is not obtained for all the gradation values, but the region of 256 gradations is divided into 8 to 16 (n division), and the frequencies belonging to each region are totaled. In the case of eight divisions, as shown in FIG. 17, “0 to 31”, “32 to 63”.
The frequency distribution is calculated for eight areas of “55”. Therefore, in step 115, the process of creating this histogram corresponds.

【0049】一方、全画素を対象として各色成分毎に上
述したヒストグラムを作成したら、画像評価値の分析で
は各色毎に各領域に属する画素数(r1、r2…r
n)、(g1、g2…gn)、(b1,b2…bn)
(ここではn=8)を成分としてベクトル化する。RG
Bのそれぞれについて、特徴ベクトルVR,VG,VB
を次のように表すとし、 VR=(r1、r2…rn) Σri=1 VG=(g1、g2…gn) Σgi=1 VB=(b1,b2…bn) Σbi=1 これらの特徴ベクトルの相互相関を求める。相互相関
は、内積として corr_rg=(VR・VG)/|VR|・|VG| corr_gb=(VG・VB)/|VG|・|VB| corr_br=(VB・VR)/|VB|・|VR| で表されるが、ベクトルの内積自体は両ベクトルの類似
度を表すといえ、その値は「0」〜「1」となる。ここ
では、その最小値corr_xに基づいてカラーバラン
スの評価値Pbalnを100点満点で表す。すなわ
ち、Pbaln=100×corr_xのように評価す
る。むろん、この評価値Pbalnを求める処理がステ
ップ130で行われる。
On the other hand, when the above-described histogram is created for each color component for all the pixels, the number of pixels (r1, r2...
n), (g1, g2 ... gn), (b1, b2 ... bn)
(Here, n = 8) is vectorized as a component. RG
B, feature vectors VR, VG, VB
VR = (r1, r2... Rn) Σri = 1 VG = (g1, g2... Gn) Σgi = 1 VB = (b1, b2... Bn) Σbi = 1 Find the correlation. The cross-correlation is expressed as a dot product: corr_rg = (VR · VG) / | VR | · | VG | corr_gb = (VG · VB) / | VG | · | VB | corr_br = (VB · VR) / | VB | · | VR , The inner product of the vectors can be said to represent the similarity between the two vectors, and the value is "0" to "1". Here, the evaluation value Pbaln of the color balance is represented by 100 points based on the minimum value corr_x. That is, evaluation is performed as Pbaln = 100 × corr_x. Of course, the process of obtaining the evaluation value Pbaln is performed in step 130.

【0050】なお、カラーバランスを修正するにはn分
割した各領域毎に行うようにしても良いが、概略的には
各色成分毎に全体的に明るくするか暗くするという対応
で対処できるので、γ曲線を利用したRGB値の修正を
行えばよい。図18はγ補正回路33にてγ曲線を利用
して全体的に輝度を上げたり下げたりする調整状況を示
しているが、カラーバランスで赤成分が大きいというよ
うであればこのγ補正回路におけるγを調整することに
よってバランスの調整を図ることが可能となる。
It should be noted that the color balance may be corrected for each of the n-divided regions. However, it is possible to cope with the problem by roughly increasing or decreasing the overall brightness of each color component. The correction of the RGB values using the γ curve may be performed. FIG. 18 shows an adjustment state in which the overall luminance is increased or decreased by using the γ curve in the γ correction circuit 33. If the red component is large in the color balance, the γ correction circuit 33 By adjusting γ, the balance can be adjusted.

【0051】次に、彩度について説明する。ここでいう
彩度は画像全体としての色鮮やかさを指すものとする。
例えば、原色のものが色鮮やかに写っているかグレーっ
ぽく写っているかといった評価である。彩度自体はLu
v表色空間におけるuv平面内での基準軸からの大きさ
で表されるものの、上述したように表色空間を変換する
演算量は多大であるため、画素の彩度を簡略化して求め
ることにする。これには彩度の代替値Xとして次のよう
に演算する。X=|G+B−2×R|本来的には彩度
は、R=G=Bの場合に「0」となり、RGBの単色あ
るいはいずれか二色の所定割合による混合時において最
大値となる。この性質から直に彩度を適切に表すのは可
能であるものの、簡略化した上式によっても赤の単色お
よび緑と青の混合色であるシアンであれば最大値の彩度
となり、各成分が均一の場合に「0」となる。また、緑
や青の単色についても最大値の半分程度には達してい
る。むろん、 X’=|R+B−2×G| X”=|G+R−2×B| という式にも代替可能である。
Next, the saturation will be described. Here, the saturation refers to the vividness of the entire image.
For example, it is an evaluation as to whether the primary color is captured vividly or grayish. The saturation itself is Lu
Although represented by the size from the reference axis in the uv plane in the v color space, the amount of calculation for converting the color space is enormous as described above. To For this, the following calculation is performed as the saturation alternative value X. X = | G + B−2 × R | Originally, the saturation becomes “0” when R = G = B, and reaches the maximum value when mixing a single color of RGB or a predetermined ratio of any two colors. Although it is possible to directly express the saturation from this property, it is possible to obtain the maximum saturation in the case of cyan, which is a single color of red and a mixed color of green and blue, according to the simplified above equation. Is "0" when is uniform. In addition, green and blue single colors also reach about half of the maximum value. Of course, the expression X '= | R + B−2 × G | X ″ = | G + R−2 × B |

【0052】ステップ115の集計処理では、この彩度
の代替値Xについてのヒストグラムの分布を求めること
になる。この彩度の代替値Xについてのヒストグラムの
分布を求めるとすると彩度が最低値「0」〜最大値「5
11」の範囲で分布するので、概略的には図19に示す
ような分布となる。一方、画像評価値を分析する際に
は、このヒストグラムに基づいて行う。すなわち、集計
されたヒストグラムに基づいてこの画像についての彩度
指数というものを決定する。この彩度の代替値Xの分布
から上位の「16%」が占める範囲を求め、この範囲内
での最低の彩度「S」がこの画像の彩度を表すものとし
て、彩度の評価値Psatuを次のように求める。
In the tallying process of step 115, the distribution of the histogram for the alternative value X of the saturation is obtained. If the distribution of the histogram for the alternative value X of the saturation is obtained, the saturation is from the minimum value “0” to the maximum value “5”.
11 ", the distribution is roughly as shown in FIG. On the other hand, the analysis of the image evaluation value is performed based on this histogram. That is, a saturation index for this image is determined based on the aggregated histogram. A range occupied by the higher-order “16%” is obtained from the distribution of the saturation alternative value X, and the lowest saturation “S” within this range represents the saturation of this image, and the evaluation value of the saturation Psato is obtained as follows.

【0053】Psatu=25×(S**1/2)/4 ただし、S>256なら Psatu=100とする。
このようにして評価値Psatuが得られた場合に、当
該評価値Psatuの値が小さければフィルタを使うな
どして撮影時に彩度強調しておくことが好ましい。むろ
ん、ステップ130にてこの評価値Psatuを得るこ
とになる。最後に、シャープネスについて説明する。画
像評価値としてのシャープネスについては既に利用して
いるエッジ度で評価する。ただ、各画素についてエッジ
度が求められるとしても、全画素のエッジ度を求めて平
均化するだけでは画像のシャープ度合いは求められな
い。背景の領域の占める割合によって平均値は容易に変
化してしまうので好適ではないといえる。このため、そ
の画素がエッジ部分であるか否かを判定し、エッジ部分
である場合にのみ、同エッジ度Ddifを積算する(Σ
Ddif)とともに、エッジ部分の画素数を積算する
(ΣEdge_Pixel)。そして、このエッジ部分
であるか否かの判断は実質的にあるしきい値との比較に
よって行われるのであるから、結局はオブジェクト画素
について集計して平均化すればよいことになる。すなわ
ち、画像評価値を分析する際には、積算しておいたエッ
ジ度(ΣDdif)を画素数(ΣEdge_Pixe
l)で割り、エッジ部分におけるエッジ度の平均値Dd
if_aveを算出する。むろん、このエッジ度の平均
値Ddif_aveが大きいほどシャープな画像という
ことになり、評価値Psharpは、 Psharp=4×Ddif_ave (但し、Psharp>100ならばPsharp=1
00とする。)として表す。従って、ステップ115で
はエッジ度Ddifの積算とエッジ部分の画素数の積算
を行ない、ステップ130ではエッジ度の平均値Ddi
f_aveを求めることになる。
Psatur = 25 × (S ** 1/2) / 4 However, if S> 256, Psatur = 100.
When the evaluation value Psato is obtained in this way, if the value of the evaluation value Psato is small, it is preferable to use a filter or the like to emphasize the saturation at the time of shooting. Of course, in step 130, the evaluation value Psato is obtained. Finally, the sharpness will be described. The sharpness as an image evaluation value is evaluated based on the already used edge degree. However, even if the edge degree is obtained for each pixel, the sharpness degree of the image cannot be obtained only by calculating the edge degrees of all the pixels and averaging them. It can be said that the average value is not suitable because the average value easily changes depending on the ratio of the background region. For this reason, it is determined whether or not the pixel is an edge portion, and only when the pixel is an edge portion, the same edge degree Ddif is integrated (Σ
Ddif) and the number of pixels in the edge portion are integrated (@Edge_Pixel). Since the determination as to whether or not this is an edge portion is made substantially by comparison with a certain threshold value, the object pixels need only be summed up and averaged. That is, when analyzing the image evaluation value, the accumulated edge degree (ΣDdif) is calculated by the number of pixels (ΣEdge_Pixe).
l), and the average value Dd of the edge degree in the edge portion
Calculate if_ave. Of course, the larger the average value Ddif_ave of the edge degree is, the sharper the image is. The evaluation value Psharp is Psharp = 4 × Ddif_ave (where Psharp = 1 if Psharp> 100).
00. ). Therefore, in step 115, the integration of the edge degree Ddif and the number of pixels in the edge portion are performed, and in step 130, the average value Ddi of the edge degree is calculated.
f_ave will be obtained.

【0054】ステップ130で「コントラスト」、「明
度」、「カラーバランス」、「彩度」、「シャープネ
ス」の各項目について評価値を得ることにより、従来の
ように撮影条件だけを観察していただけでは判断できな
かったより具体的な失敗を判断できるようになる。従っ
て、ステップ135では各評価値に基づいて画像が適正
かどうかを判断する。画像が適正でない場合にはステッ
プ140にて撮影条件修正動作処理を実施する。なお、
図20〜図22はこのような評価値を操作表示部80の
画像表示パネルで表示させる状況を示している。この表
示はステップ130にて表示する場合の一例である。図
20に示す例では、それぞれの評価値を得点として「得
点表示」しつつ、記号や言葉を使ってより実感しやすい
ように「記号表示」と「評価文字表示」を行うものであ
る。
In step 130, evaluation values are obtained for each of the items "contrast", "brightness", "color balance", "saturation", and "sharpness" so that only the photographing conditions can be observed as in the conventional case. Then, a more specific failure that could not be determined can be determined. Therefore, in step 135, it is determined whether the image is appropriate based on each evaluation value. If the image is not appropriate, a photographing condition correction operation process is performed in step 140. In addition,
FIGS. 20 to 22 show a situation in which such an evaluation value is displayed on the image display panel of the operation display unit 80. FIG. This display is an example of the case where the display is performed in step 130. In the example shown in FIG. 20, "score display" and "evaluation character display" are performed so that each evaluation value is used as a score and "score display" is used to make it easier to realize using symbols and words.

【0055】「記号表示」と「評価文字表示」では、得
点に基づいてクラス分けして表示する。例えば、「70
〜89」点に対して「良い」あるいは「○」を対応さ
せ、「90」点以上を「大変良い」あるいは「◎」を対
応させ、「50〜69」点に対して「普通」あるいは
「△」を対応させ、「49」点以下を「悪い」あるいは
「×」を対応させている。一方、上述したように各評価
値は100点満点であるので、得点表示の場合には総合
評価を合計点で示しながら、記号表示や評価文字表示に
ついては平均点を算出して同様の態様で表示記号や表示
文字を決定する。
In the "symbol display" and the "evaluation character display", they are classified and displayed based on the score. For example, "70
"-89" points correspond to "good" or "O", "90" points or more correspond to "very good" or "◎", and "50-69" points correspond to "normal" or "normal". “△” is assigned, and “49” or less is assigned as “bad” or “x”. On the other hand, as described above, since each evaluation value is a perfect score, a total score is displayed in the case of a score display, and an average score is calculated in a similar manner for symbol display and evaluation character display while displaying the total score. Determine display symbols and display characters.

【0056】一方、図21の例では評価値をバーグラフ
表示しているし、図22の例では、スターチャート表示
している。スターチャート表示の場合は直線で結ばれる
内部の面積が合計に対応するので敢えて合計を表示して
いない。むろん、これらの表示は一例に過ぎないし、ま
た、必ずしも表示しなければならないわけでもない。図
7に示すように撮影条件修正動作では以上のようにして
求められた評価値に基づいて撮影条件を再評価しつつ、
この撮影条件に反映させている。例えば、ステップ20
0では評価値Pcontや評価値Pbrgtに基づいて
コントラストが低いか否か、および画像が暗いか否かを
判断する。そして、コントラストが低い場合や画像が暗
い場合にはステップ205にてストロボフラグをONに
する。このストロボフラグがONとなっていると、次回
の撮影時にはストロボ90を発光させることになる。こ
のような関係は、画像の評価値について撮影条件を再評
価したところ、コントラストをより高くする余地がある
か、画像をより明るくして撮影する方が好ましいという
結果を得られたと考えることができる。そして、かかる
撮影条件にその評価を反映すべくストロボ90を発光さ
せるという制御を行ったことになる。
On the other hand, in the example of FIG. 21, the evaluation value is displayed as a bar graph, and in the example of FIG. 22, a star chart is displayed. In the case of the star chart display, the total area is not displayed because the internal area connected by a straight line corresponds to the total. Of course, these displays are only examples, and are not necessarily required. As shown in FIG. 7, in the photographing condition correction operation, while re-evaluating the photographing condition based on the evaluation value obtained as described above,
This is reflected in the shooting conditions. For example, step 20
At 0, it is determined whether the contrast is low and whether the image is dark based on the evaluation value Pcont or the evaluation value Pbrgt. If the contrast is low or the image is dark, the flash flag is turned on in step 205. If the strobe flag is ON, the strobe 90 will emit light at the next shooting. It can be considered that such a relationship is obtained by re-evaluating the photographing conditions with respect to the evaluation value of the image, and obtaining a result that there is room for increasing the contrast or that it is preferable to photograph the image brighter. . This means that the flash 90 is controlled so that the evaluation is reflected in the photographing conditions.

【0057】なお、一般的には画像の評価に撮影条件を
反映させることが好ましいとしても、撮影者に対して反
映結果を知らせる方がより親切と言えるため、ステップ
210にてストロボを発光させる旨のメッセージを操作
表示部80の画像表示パネルで表示させることにしてい
る。この例ではストロボ90を発光させることによって
撮影条件に反映させているが、その意味するところは露
光量を大きくするということでもある。従って、光学式
の絞り機構がある場合にはこれを開くことによって撮影
条件に反映させるということも可能である。また、本実
施形態のようにCCD素子からなる撮像素子22を備え
ている場合には、このCCD素子における荷電時間を長
くして露光量を大きくすることも可能である。むろん、
これらの場合において逆の制御も同様に可能である。
Although it is generally preferable to reflect the photographing conditions in the evaluation of the image, it is more kind to inform the photographer of the reflection result. Is displayed on the image display panel of the operation display unit 80. In this example, the photographing conditions are reflected by emitting light from the strobe 90, but this also means that the exposure amount is increased. Therefore, if there is an optical diaphragm mechanism, it can be reflected in the photographing conditions by opening it. Further, when the image pickup device 22 including a CCD device is provided as in the present embodiment, it is possible to increase the exposure time by increasing the charging time of the CCD device. Of course,
In these cases, the reverse control is also possible.

【0058】また、ステップ215では評価値Pbal
nに基づいてカラーバランスの偏りが大きいか否かを判
断する。そして、偏りが大きいときにはステップ220
にて各要素色毎にAGC回路のゲインを個別に調整す
る。例えば、バランスとして赤の成分が他の成分よりも
低いという偏りが分かった場合には赤の画素についての
ゲインを上げればよい。単板CCD素子の場合には各要
素色のフィルタを被せた画素毎にゲインを調整可能とす
ればよいし、3CCD素子の場合には各CCD素子毎に
AGC回路のゲインを調整すればよい。
In step 215, the evaluation value Pbal
It is determined whether or not the color balance is large based on n. If the bias is large, step 220
The gain of the AGC circuit is individually adjusted for each element color. For example, when it is found that the balance is that the red component is lower than the other components, the gain for the red pixel may be increased. In the case of a single CCD element, the gain may be adjusted for each pixel covered with a filter of each element color, and in the case of a three CCD element, the gain of the AGC circuit may be adjusted for each CCD element.

【0059】いずれにしても、画像の評価値に基づいて
撮影条件として自然条件あるいはCCD素子のアンバラ
ンスなどを原因とするカラーバランスの不良を突き止
め、これを撮影条件に反映させたといえる。この場合
も、ステップ225ではカラーバランスをシフトさせる
旨のメッセージを操作表示部80に表示させることにし
ている。次に、ステップ230では評価値Psharp
に基づいてシャープネスが低いか否かを判断する。シャ
ープネスを上げるにはオートフォーカス機構21bにて
焦点位置を変化させればよいが、測距部21aにて三角
法により求めている場合には焦点対象が撮影範囲の中で
の一定位置になっているため、フォーカスを変えるには
撮影範囲をずらすしかない。従って、ステップ235に
てフレーミングを修正する旨の警告を操作表示部80に
て表示することにしている。この場合は、画像の評価に
基づいて通常のオートフォーカスではオブジェクトのシ
ャープネスが低くなってしまうという撮影条件の不備を
評価したと言える。
In any case, it can be said that, based on the evaluation value of the image, a poor color balance caused by natural conditions or unbalance of the CCD element was found as a photographing condition, and this was reflected in the photographing condition. Also in this case, in step 225, a message to shift the color balance is displayed on the operation display unit 80. Next, in step 230, the evaluation value Psharp
It is determined whether or not the sharpness is low based on. To increase the sharpness, the focus position may be changed by the auto-focus mechanism 21b. However, when the distance is measured by the triangulation method in the distance measuring unit 21a, the focus target becomes a fixed position in the shooting range. Therefore, the only way to change the focus is to shift the shooting range. Therefore, a warning to correct framing is displayed on the operation display unit 80 in step 235. In this case, it can be said that, based on the evaluation of the image, the deficiency of the photographing condition that the sharpness of the object is reduced in the normal auto focus is evaluated.

【0060】ただし、オートフォーカスが測距部21a
を利用するものではない場合には、撮影条件を変化させ
てシャープネスを大きくすることも可能である。例え
ば、オートフォーカスが画像データに基づいてリアルタ
イムに空間周波数を求めることによって行われることも
ある。すなわち、画像の一部についての空間周波数を求
め、この空間周波数が高周波側に寄るようにフォーカス
位置を変化させることが可能であり、このようにして自
動的に焦点位置を調整したものの、画像を評価したとこ
ろシャープネスが良好とは言えないとした場合、空間周
波数を求める画像の部位を変化させてみることが可能で
ある。例えば、それまでは画像の中央部分でかかる空間
周波数を求めていたものの、中央よりもやや画像下側の
部位に変化させることが有効となる場合が多い。人物像
を撮影する場合、アップで撮影するのであればオブジェ
クトの中心は画像の中央部位と言えるが、人体全体を撮
影する場合には画像の中央部位から下側にかけての部分
に人体像が収まることが多いからである。また、縦長に
撮影することもあるから、この場合は中央部位から画面
右側にかけての部位に焦点を合わせるということも有効
と言えるから、以下、利用頻度を参考にして順次焦点位
置を変化させていくようにすればよい。
However, the autofocus is performed by the distance measuring unit 21a.
In the case where is not used, it is also possible to increase the sharpness by changing the photographing conditions. For example, autofocus may be performed by obtaining a spatial frequency in real time based on image data. That is, the spatial frequency of a part of the image is obtained, and the focus position can be changed such that the spatial frequency is closer to the high frequency side. If it is determined that the sharpness is not good after the evaluation, it is possible to change the part of the image for which the spatial frequency is to be obtained. For example, the spatial frequency is determined at the center of the image until then, but it is often effective to change the spatial frequency to a part slightly lower than the center of the image. When shooting a human image, the center of the object can be said to be the center of the image if shooting up, but when shooting the entire human body, the human body image will fit in the part from the center of the image to the lower side Because there are many. In addition, since the image may be photographed vertically, in this case, it can be said that it is effective to focus on the region from the central region to the right side of the screen. Therefore, the focus position is sequentially changed with reference to the frequency of use. What should I do?

【0061】最後に、ステップ240では評価値Psa
tuに基づいて鮮やかさが高いか低いかを判断する。鮮
やかさについてはどのような影響であるかを特定するこ
とは全く不明である。すなわち、被写体自身の色合いと
して鮮やかさに欠ける場合もあるし、外部的な要因とし
ては照明条件なども影響し得る。従って、カメラ側で可
能なのは、「何らかの要素によって鮮やかさが低いか
ら、好ましくはカラー強調フィルタを装着することを勧
める」といったことを提案することしかできない。この
ため、ステップ245にてカラー強調フィルタを装着す
べき旨の警告を操作表示部80にて表示する。この場合
も、画像を評価した結果に基づいて、照明条件などの撮
影条件についての評価を行ったと言える。
Finally, at step 240, the evaluation value Psa
It is determined whether the vividness is high or low based on tu. It is completely unknown how to determine the effect of vividness. That is, there is a case where the color of the subject itself lacks vividness, and as an external factor, an illumination condition or the like can also influence. Therefore, what can be done on the camera side can only propose that "it is recommended that a color emphasis filter be installed because the vividness is low due to some factor," and the like. Therefore, in step 245, a warning that the color emphasis filter should be attached is displayed on the operation display unit 80. Also in this case, it can be said that the evaluation of the photographing condition such as the lighting condition was performed based on the result of evaluating the image.

【0062】図23には撮影条件の自動調整項目を表示
し、操作者に対してどの要素に関して自動調整すべきか
否かを選択させるようにしても良い。この場合は、選択
結果をフラグとして記憶し、このフラグをステップ20
0,215,230,240にて参照して上述したよう
な修正動作を行うか否かを判断させればよい。一方、ス
テップ210,225においては撮影条件を修正しつ
つ、各種のメッセージを表示しているが、図20に示す
ように画像に対する評価値等と併せて撮影条件に対する
評価を文字などで表示することにしても良い。例えば、
コントラストが悪いような場合には「照明の弱さを検出
しました。」であるとか「ストロボを発光する方がよい
と思われます。」といった評価を表示するようにしても
良い。むろん、この場合に撮影条件に反映させるための
マニュアル調整方法を合わせて表示するようにしても良
い。かかる表示の変更は概ね図7に示す判定に沿って画
像の評価値から対応するメッセージを表示させるだけで
実現できる。
In FIG. 23, the automatic adjustment items of the photographing conditions may be displayed so that the operator can select which element should be automatically adjusted. In this case, the selection result is stored as a flag, and this flag is stored in step 20.
It may be determined whether or not to perform the above-described correction operation with reference to 0, 215, 230, and 240. On the other hand, in Steps 210 and 225, various messages are displayed while the photographing conditions are corrected. However, as shown in FIG. You may do it. For example,
If the contrast is poor, an evaluation such as "weakness of illumination has been detected" or "it seems better to emit a strobe light" may be displayed. Of course, in this case, a manual adjustment method to be reflected on the photographing condition may be displayed together. Such a change in the display can be realized only by displaying a corresponding message from the evaluation value of the image in accordance with the determination shown in FIG.

【0063】撮影条件修正動作を終了すると再びステッ
プ105にて仮画像を入力し、上述した評価を行なう。
上述したように撮影条件修正動作においては、撮影条件
を修正可能なものと修正不能なものとがある。修正可能
なものについては仮画像を入力し直すことによって修正
されるが、修正不能なものについては依然として画像が
適正でないと判断されてしまいかねない。従って、フロ
ーチャートには明記していないが、修正不能な撮影条件
について警告のメッセージを表示したときにその評価値
に対応してフラグを設定しておき、二度目にステップ1
35にて画像が適正か否かを判定するときには同フラグ
を参照し、フラグが設定されていれば評価値が悪くても
無視するようにしている。
When the photographing condition correcting operation is completed, a provisional image is input again in step 105, and the above-described evaluation is performed.
As described above, in the photographing condition correcting operation, there are those that can correct the photographing conditions and those that cannot. Those that can be corrected are corrected by re-inputting the temporary image, but those that cannot be corrected may still be judged to be improper. Therefore, although not explicitly shown in the flowchart, when a warning message is displayed for a shooting condition that cannot be corrected, a flag is set in accordance with the evaluation value, and a second step 1 is executed.
When it is determined at 35 that the image is appropriate, the flag is referred to, and if the flag is set, it is ignored even if the evaluation value is bad.

【0064】画像が適正となると、ステップ145にて
その条件での画像を本撮影して取り込み、上述したよう
にしてDRAM40に保存され、さらにステップ150
にて符合化部70がJPEGなどの圧縮フォーマットに
変換してフラッシュメモリ60に保存している。次に、
上記構成からなる本実施形態の動作を説明する。撮影者
が、通常のオート撮影以上に失敗のない写真を撮影した
いと希望する場合には、同シャッターボタンをハーフス
トロークしてみる。すると、コントローラ10内のCP
U11はメインルーチンの中のステップ100でこのハ
ーフストロークを検出し、仮入力の指示有りと判断する
とともにステップ105にて仮画像入力を実行する。こ
の仮画像入力では一般撮影条件で撮影を行うため、通常
どおりに測距部21aにて被写体までの距離を測定しつ
つオートフォーカス機構21bにて焦点合わせを行なう
し、撮像素子22にて明るさを検出して露出やシャッタ
ースピードを決定するし、これに基づく適正なタイミン
グと適正なAGC回路23のゲインを自動調整する。
When the image is appropriate, the image under the condition is actually photographed and taken in step 145 and stored in the DRAM 40 as described above.
The encoding unit 70 converts the data into a compression format such as JPEG and stores it in the flash memory 60. next,
The operation of the present embodiment having the above configuration will be described. If the photographer wants to take a picture with no more failures than normal auto shooting, he will try to half-stroke the shutter button. Then, the CP in the controller 10
U11 detects this half stroke at step 100 in the main routine, determines that there is a provisional input instruction, and executes provisional image input at step 105. In this provisional image input, photographing is performed under general photographing conditions. Therefore, focusing is performed by the autofocus mechanism 21b while measuring the distance to the subject by the distance measuring unit 21a as usual, and brightness is measured by the image sensor 22. Is detected to determine the exposure and shutter speed, and an appropriate timing and an appropriate gain of the AGC circuit 23 are automatically adjusted based on the exposure and shutter speed.

【0065】そして、かかる撮影条件の下で撮像素子2
2上での結像イメージに対応した画像データがAGC回
路23に出力され、調整されたゲインで増幅されるとと
もにA/Dコンバータ24にてA/D変換された後、画
像処理部30でフィルタ補完とホワイトバランスの調整
とγ補正とが行われる。これらはハードウェア的に可能
な限りの調整であり、かかる調整を経た画像データがD
RAM40に書き込まれる。
Then, under such photographing conditions, the image sensor 2
2 is output to the AGC circuit 23, amplified by the adjusted gain and A / D converted by the A / D converter 24, and then filtered by the image processing unit 30. Complementation, white balance adjustment, and gamma correction are performed. These adjustments are as much as possible in terms of hardware.
The data is written to the RAM 40.

【0066】次に、コントローラ10はステップ110
〜125においてオブジェクトの抽出と集計処理を同時
に行ない、ステップ130にて集計結果を参照しながら
「コントラスト」、「明度」、「カラーバランス」、
「彩度」、「シャープネス」の5つの項目について画像
評価値を得る。また、得られた画像の評価値に基づいて
ステップ135にて画像が適正であるか否かを判定し、
適正でない場合にはその評価値を利用して撮影条件に反
映させるためにステップ140にて撮影条件修正動作を
実行する。
Next, the controller 10 executes step 110
In steps 125 to 125, object extraction and tabulation processing are performed at the same time, and in step 130, referring to the tabulation results, "contrast", "brightness", "color balance",
Image evaluation values are obtained for five items of “saturation” and “sharpness”. Further, it is determined whether or not the image is appropriate in step 135 based on the evaluation value of the obtained image,
If it is not appropriate, a photographing condition correction operation is executed in step 140 in order to reflect the evaluation value on the photographing condition.

【0067】この撮影条件修正動作を行うことにより、
コントラストが低ければ次回の撮影時にはストロボが発
光されるようになったり、カラーバランスの偏りを修正
されたりする。すなわち、撮影条件だけに着目してハー
ドウェア的には可能な限りの調整を行った上で実際に仮
画像入力で取り込まれた画像を評価したところ、それで
も不良な点があるようであれば、これを更に良好なもの
とするために撮影条件に反映することになる。従って、
そのように反映された撮影条件でステップ145にて本
撮影を行うことにより、写真撮影をより失敗しにくくす
ることができる。また、本撮影された画像データは符合
化部70にて所定の圧縮フォーマットでフラッシュメモ
リ60に対して保存される。
By performing the photographing condition correcting operation,
If the contrast is low, a strobe will be fired at the next photographing, and the bias of the color balance will be corrected. In other words, focusing on only the shooting conditions, adjusting the hardware as much as possible and evaluating the image actually captured by the provisional image input, if there is still a bad point, In order to make this more favorable, it will be reflected in the photographing conditions. Therefore,
By performing the actual photographing in step 145 under the photographing conditions reflected in such a manner, it is possible to make the photographing more difficult to fail. Further, the image data obtained by the actual shooting is stored in the flash memory 60 in the encoding unit 70 in a predetermined compression format.

【0068】このように、ステップ105にて撮像部2
0にて撮像した画像データをDRAM40に保存した
後、コントローラ10内のCPU11はステップ110
〜125にて同画像データに基づいて集計処理を行な
い、ステップ130ではその集計結果に基づいて画像に
ついての評価値を得るようにしており、ステップ135
にて同評価値に基づいて画像が適正か否かを判断しつつ
必要に応じてステップ140にて撮影条件を修正するよ
うにしており、現実に撮影された画像データから撮影条
件に反映させるようにしたのでより写真撮影の失敗が少
なくなる。
As described above, in step 105, the imaging unit 2
After saving the image data taken at step 0 in the DRAM 40, the CPU 11 in the controller 10 proceeds to step 110.
In steps 125 to 125, an aggregation process is performed based on the image data, and in step 130, an evaluation value for the image is obtained based on the aggregation result.
The photographing condition is corrected in step 140 as necessary while judging whether or not the image is appropriate based on the same evaluation value, and the photographing condition is reflected from the actually photographed image data. The number of photographing failures is reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態にかかる電子写真撮像装置
のクレーム対応図である。
FIG. 1 is a diagram corresponding to claims of an electrophotographic imaging apparatus according to an embodiment of the present invention.

【図2】同電子写真撮像装置を適用したディジタルスチ
ルカメラのブロック図である。
FIG. 2 is a block diagram of a digital still camera to which the electrophotographic imaging device is applied.

【図3】同ディジタルスチルカメラにおけるコントロー
ラのブロック図である。
FIG. 3 is a block diagram of a controller in the digital still camera.

【図4】同ディジタルスチルカメラにおける撮像部のブ
ロック図である。
FIG. 4 is a block diagram of an imaging unit in the digital still camera.

【図5】同ディジタルスチルカメラにおける画像処理部
ブロック図である。
FIG. 5 is a block diagram of an image processing unit in the digital still camera.

【図6】同ディジタルスチルカメラにおけるメインルー
チンのフローチャートである。
FIG. 6 is a flowchart of a main routine in the digital still camera.

【図7】同ディジタルスチルカメラにおける撮影条件修
正動作のフローチャートである。
FIG. 7 is a flowchart of a photographing condition correcting operation in the digital still camera.

【図8】処理対象画素を移動させていく状態を示す図で
ある。
FIG. 8 is a diagram illustrating a state in which a processing target pixel is moved.

【図9】画像の変化度合いを直交座標の各成分値で表す
場合の説明図である。
FIG. 9 is an explanatory diagram in a case where the degree of change of an image is represented by each component value of rectangular coordinates.

【図10】画像の変化度合いを縦軸方向と横軸方向の隣
接画素における差分値で求める場合の説明図である。
FIG. 10 is an explanatory diagram in a case where the degree of change of an image is obtained by a difference value between adjacent pixels in the vertical axis direction and the horizontal axis direction.

【図11】隣接する全画素間で画像の変化度合いを求め
る場合の説明図である。
FIG. 11 is an explanatory diagram in a case where the degree of change of an image is obtained between all adjacent pixels.

【図12】輝度分布を拡大する場合の分布範囲を示す図
である。
FIG. 12 is a diagram illustrating a distribution range when a luminance distribution is expanded.

【図13】輝度分布の端部処理と端部処理にて得られる
端部を示す図である。
FIG. 13 is a diagram illustrating edge processing of a luminance distribution and edges obtained by the edge processing.

【図14】明るさの評価値の変化態様を示すグラフであ
る。
FIG. 14 is a graph showing how the evaluation value of brightness changes.

【図15】γ補正で明るくする概念を示す図である。FIG. 15 is a diagram showing a concept of increasing brightness by γ correction.

【図16】γ補正で暗くする概念を示す図である。FIG. 16 is a diagram showing a concept of darkening by γ correction.

【図17】各色成分毎の特徴ベクトルとするための要素
の抽出方法を示す図である。
FIG. 17 is a diagram illustrating a method of extracting an element to be used as a feature vector for each color component.

【図18】γ補正で変更される輝度の対応関係を示す図
である。
FIG. 18 is a diagram showing a correspondence relationship of luminance changed by γ correction.

【図19】彩度分布の集計状態の概略図である。FIG. 19 is a schematic diagram of a tallying state of a saturation distribution.

【図20】総合表示を選択した場合の評価値表示画面を
示す図である。
FIG. 20 is a diagram showing an evaluation value display screen when comprehensive display is selected.

【図21】バーグラフ表示を選択した場合の評価値表示
画面を示す図である。
FIG. 21 is a diagram showing an evaluation value display screen when bar graph display is selected.

【図22】スターチャート表示を選択した場合の評価値
表示画面を示す図である。
FIG. 22 is a diagram showing an evaluation value display screen when star chart display is selected.

【図23】自動調整項目を選択する場合の一覧表示画面
を示す図である。
FIG. 23 is a diagram showing a list display screen when an automatic adjustment item is selected.

【符号の説明】[Explanation of symbols]

10…コントローラ 11…CPU 12…ROM 13…RAM 14…バス 20…撮像部 21…光学系路 21a…測距部 21b…オートフォーカス機構 22…撮像素子 23…AGC回路 24…A/Dコンバータ 30…画像処理部 31…フィルタ補完回路 32…自動ホワイトバランス回路 33…γ補正回路 40…DRAM 50…画像評価部 60…フラッシュメモリ 70…符号化部 80…操作表示部 90…ストロボ DESCRIPTION OF SYMBOLS 10 ... Controller 11 ... CPU 12 ... ROM 13 ... RAM 14 ... Bus 20 ... Imaging part 21 ... Optical system path 21a ... Distance measuring part 21b ... Autofocus mechanism 22 ... Imaging element 23 ... AGC circuit 24 ... A / D converter 30 ... Image processing unit 31 Filter complement circuit 32 Automatic white balance circuit 33 Gamma correction circuit 40 DRAM 50 Image evaluation unit 60 Flash memory 70 Encoding unit 80 Operation display unit 90 Strobe

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 所定の撮影条件を設定しつつ光学系路を
経て被写体画像を撮像し、同被写体画像をドットマトリ
クス状の画素で表して各画素毎に色分解した所定の要素
色で階調表現した画像データを取得する画像撮像手段
と、 取得された上記画像データについて数値的な集計処理を
行い所定の評価基準に基づいて撮像画像を評価する画像
評価手段と、 この評価に基づいて上記画像撮像手段における上記撮影
条件についての評価を行う撮影条件評価手段とを具備す
ることを特徴とする電子写真撮像装置。
An image of a subject is taken through an optical path while setting predetermined photographing conditions, and the subject image is represented by dot-matrix pixels, and a predetermined elemental color obtained by color separation for each pixel. Image capturing means for acquiring the represented image data; image evaluating means for performing numerical tabulation processing on the acquired image data to evaluate a captured image based on a predetermined evaluation criterion; An electrophotographic imaging apparatus comprising: a photographing condition evaluation unit that evaluates the photographing condition in the imaging unit.
【請求項2】 上記請求項1に記載の電子写真撮像装置
において、上記画像評価手段は、上記画像データに基づ
いて被写体画像内におけるオブジェクトの画素を抽出
し、当該オブジェクトの画素についての画像データを対
象として上記集計処理を行って撮像画像を評価すること
を特徴とする電子写真撮像装置。
2. The electrophotographic imaging apparatus according to claim 1, wherein the image evaluation unit extracts a pixel of an object in the subject image based on the image data, and converts the image data of the pixel of the object into an image. An electrophotographic imaging apparatus, wherein the tallying process is performed as a target to evaluate a captured image.
【請求項3】 上記請求項1または請求項2のいずれか
に記載の電子写真撮像装置において、上記画像撮像手段
は、上記撮影条件を変更可能であるとともに、上記撮影
条件評価手段は、撮像画像に基づく評価を上記撮影条件
に反映させるように同画像撮像手段における撮影条件を
制御することを特徴とする電子写真撮像装置。
3. The electrophotographic image pickup apparatus according to claim 1, wherein said image pickup means is capable of changing said photographing condition, and said photographing condition evaluation means is capable of changing a photographed image. An electrophotographic imaging apparatus, wherein an imaging condition in the image imaging means is controlled so that an evaluation based on the image is reflected in the imaging condition.
【請求項4】 上記請求項3に記載の電子写真撮像装置
において、上記画像撮像手段は、被写体画像を照明する
ストロボを備え、上記画像評価手段は、上記被写体画像
における明暗の評価を行ない、上記撮影条件評価手段
は、この画像評価手段が上記被写体画像におけるオブジ
ェクトを暗いと判断したときに上記画像撮像手段におけ
るストロボを動作させることを特徴とする電子写真撮像
装置。
4. The electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means includes a strobe for illuminating a subject image, and the image evaluation means evaluates the brightness of the subject image. An electrophotographic imaging apparatus, wherein the photographing condition evaluation means operates a strobe in the image imaging means when the image evaluation means determines that an object in the subject image is dark.
【請求項5】 上記請求項3または請求項4のいずれか
に記載の電子写真撮像装置において、上記画像撮像手段
は、上記光学系路を経て被写体画像を撮像面上に結像さ
れたときにドットマトリクス状の画素で光電気変換する
撮像素子と、この撮像素子の変換出力を所定の増幅率で
増幅する増幅回路とを備え、上記画像評価手段は、上記
被写体画像における明暗の評価を行ない、上記撮影条件
評価手段は、この画像評価手段が上記被写体画像におけ
るオブジェクトを暗いと判断したときに上記増幅回路に
おける増幅率を増加させ、明るいと判断したときに同増
幅率を減少させることを特徴とする電子写真撮像装置。
5. An electrophotographic image pickup apparatus according to claim 3, wherein said image pickup means is configured to output an image of a subject on an image pickup surface via said optical path. An image sensor that performs photoelectric conversion with pixels in a dot matrix form, and an amplifier circuit that amplifies a conversion output of the image sensor at a predetermined amplification factor, wherein the image evaluation unit performs evaluation of brightness in the subject image, The photographing condition evaluating means increases the amplification factor in the amplifier circuit when the image evaluating means determines that the object in the subject image is dark, and decreases the amplification factor when determining that the object is bright. Electrophotographic imaging device.
【請求項6】 上記請求項3〜請求項5のいずれかに記
載の電子写真撮像装置において、上記画像撮像手段は、
上記光学系路における光量を調整する絞りを備え、上記
画像評価手段は、上記被写体画像における明暗の評価を
行ない、上記撮影条件評価手段は、この画像評価手段が
上記被写体画像におけるオブジェクトを暗いと判断した
ときに上記絞りを開かせ、明るいと判断したときに同絞
りを絞る方向に制御することを特徴とする電子写真撮像
装置。
6. The electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means comprises:
An aperture for adjusting the amount of light in the optical system path; the image evaluation means evaluates brightness of the subject image; and the photographing condition evaluation means determines that the object in the subject image is dark. An electrophotographic imaging apparatus characterized in that the aperture is opened when the shutter is opened, and the aperture is controlled in the direction to stop when it is determined that the aperture is bright.
【請求項7】 上記請求項3〜請求項6のいずれかに記
載の電子写真撮像装置において、上記画像撮像手段は、
被写体画像内における所定の被写体にピントを合わせる
ように上記光学系路を自動調整するオートフォーカス機
構を備え、上記画像評価手段は、上記被写体画像におけ
る画像のシャープさの評価を行ない、上記撮影条件評価
手段は、この画像評価手段が上記被写体画像をシャープ
でないと判断したときに上記オートフォーカス機構にお
いてピント合わせの被写体をオブジェクトに変化させる
ことを特徴とする電子写真撮像装置。
7. The electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means comprises:
An auto-focus mechanism for automatically adjusting the optical system path so as to focus on a predetermined subject in the subject image, wherein the image evaluation means evaluates the sharpness of the image in the subject image, and The electrophotographic imaging apparatus is characterized in that when the image evaluation means determines that the subject image is not sharp, the autofocus mechanism changes the focused subject to an object.
【請求項8】 上記請求項3〜請求項7のいずれかに記
載の電子写真撮像装置において、上記画像撮像手段は、
複数の要素色毎に明暗についての階調値を生成するとと
もに個別に出力調整可能であり、上記画像評価手段は、
上記被写体画像におけるカラーバランスの評価を行な
い、上記撮影条件評価手段は、この画像評価手段が上記
被写体画像のカラーバランスでアンバランスと評価した
ときに各要素色毎に出力調整させることを特徴とする電
子写真撮像装置。
8. The electrophotographic image pickup apparatus according to claim 3, wherein the image pickup means comprises:
It is possible to generate a tone value for lightness and darkness for each of a plurality of element colors and individually adjust the output.
The color balance of the subject image is evaluated, and the photographing condition evaluating means adjusts the output for each element color when the image evaluating means evaluates the color balance of the subject image as unbalanced. Electrophotographic imaging device.
【請求項9】 所定の撮影条件を設定しつつ光学系路を
経て被写体画像を撮像し、同被写体画像をドットマトリ
クス状の画素で表して各画素毎に色分解した所定の要素
色で階調表現した画像データを取得する電子写真撮像方
法であって、上記撮影条件下で被写体画像を撮像して画
像データを取得する画像撮像工程と、 取得された上記画像データについて数値的な集計処理を
行い所定の評価基準に基づいて撮像画像を評価する画像
評価工程と、 この評価に基づいて上記画像撮像工程における上記撮影
条件についての評価を行う撮影条件評価工程とを具備す
ることを特徴とする電子写真撮像方法。
9. An image of a subject is taken through an optical path while setting predetermined photographing conditions, and the subject image is represented by dot matrix pixels, and gradation is determined by a predetermined element color obtained by color separation for each pixel. An electrophotographic imaging method for acquiring expressed image data, comprising: an image imaging step of acquiring an image data by imaging a subject image under the imaging conditions; and performing a numerical tallying process on the acquired image data. An electronic photograph comprising: an image evaluation step of evaluating a captured image based on a predetermined evaluation criterion; and a shooting condition evaluation step of evaluating the shooting conditions in the image shooting step based on the evaluation. Imaging method.
【請求項10】 所定の撮影条件を設定しつつ光学系路
を経て被写体画像を撮像し、同被写体画像をドットマト
リクス状の画素で表して各画素毎に色分解した所定の要
素色で階調表現した画像データを取得する際にコンピュ
ータにて制御する電子写真撮像制御プログラムを記録し
た媒体であって、 上記撮影条件下で被写体画像を撮像して画像データを取
得する画像撮像ステップと、 取得された上記画像データについて数値的な集計処理を
行い所定の評価基準に基づいて撮像画像を評価する画像
評価ステップと、 この評価に基づいて上記画像撮像工程における上記撮影
条件についての評価を行う撮影条件評価ステップとを具
備することを特徴とする電子写真撮像制御プログラムを
記録した媒体。
10. An image of a subject is taken via an optical path while setting predetermined photographing conditions, and the subject image is represented by dot matrix pixels, and gradation is determined by a predetermined element color obtained by color separation for each pixel. A medium storing an electrophotographic imaging control program which is controlled by a computer when acquiring the expressed image data, comprising: An image evaluation step of performing a numerical tabulation process on the image data and evaluating a captured image based on a predetermined evaluation criterion; and a photographic condition evaluation for evaluating the photographic conditions in the image imaging step based on the evaluation. And a recording medium storing an electrophotographic imaging control program.
JP10144129A 1998-05-26 1998-05-26 Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program Pending JPH11341501A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10144129A JPH11341501A (en) 1998-05-26 1998-05-26 Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10144129A JPH11341501A (en) 1998-05-26 1998-05-26 Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program

Publications (1)

Publication Number Publication Date
JPH11341501A true JPH11341501A (en) 1999-12-10

Family

ID=15354889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10144129A Pending JPH11341501A (en) 1998-05-26 1998-05-26 Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program

Country Status (1)

Country Link
JP (1) JPH11341501A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013666A (en) * 2005-06-30 2007-01-18 Victor Co Of Japan Ltd Image processor
JP2008136235A (en) * 2001-10-09 2008-06-12 Seiko Epson Corp Output image adjustment of image data
JP2008206179A (en) * 2001-10-09 2008-09-04 Seiko Epson Corp Output image adjustment of image data
JP2009081885A (en) * 2009-01-05 2009-04-16 Seiko Epson Corp Output adjustment of image data
WO2009098968A1 (en) * 2008-02-07 2009-08-13 Sharp Kabushiki Kaisha Imaging method and imaging system
JP2009188806A (en) * 2008-02-07 2009-08-20 Sharp Corp Imaging method and imaging system
JP2010062912A (en) * 2008-09-04 2010-03-18 Nikon Corp Digital camera
JP2010164826A (en) * 2009-01-16 2010-07-29 Nikon Corp Photometric device, imaging apparatus and photometric method
US7884863B2 (en) 2001-10-09 2011-02-08 Seiko Epson Corporation Image noise reduction device and image noise reduction method
WO2013121980A1 (en) * 2012-02-14 2013-08-22 Necカシオモバイルコミュニケーションズ株式会社 Processing apparatus, processing method, and computer-readable recording medium having processing program recorded therein
JP2017507626A (en) * 2014-02-03 2017-03-16 グーグル インコーポレイテッド Improved video conferencing cross-reference for related applications

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136235A (en) * 2001-10-09 2008-06-12 Seiko Epson Corp Output image adjustment of image data
JP2008206179A (en) * 2001-10-09 2008-09-04 Seiko Epson Corp Output image adjustment of image data
US7884863B2 (en) 2001-10-09 2011-02-08 Seiko Epson Corporation Image noise reduction device and image noise reduction method
JP4600474B2 (en) * 2001-10-09 2010-12-15 セイコーエプソン株式会社 Output image adjustment of image data
JP2007013666A (en) * 2005-06-30 2007-01-18 Victor Co Of Japan Ltd Image processor
JP4588076B2 (en) * 2008-02-07 2010-11-24 シャープ株式会社 Imaging method and imaging system
WO2009098968A1 (en) * 2008-02-07 2009-08-13 Sharp Kabushiki Kaisha Imaging method and imaging system
JP2009188806A (en) * 2008-02-07 2009-08-20 Sharp Corp Imaging method and imaging system
JP2010062912A (en) * 2008-09-04 2010-03-18 Nikon Corp Digital camera
JP2009081885A (en) * 2009-01-05 2009-04-16 Seiko Epson Corp Output adjustment of image data
JP2010164826A (en) * 2009-01-16 2010-07-29 Nikon Corp Photometric device, imaging apparatus and photometric method
WO2013121980A1 (en) * 2012-02-14 2013-08-22 Necカシオモバイルコミュニケーションズ株式会社 Processing apparatus, processing method, and computer-readable recording medium having processing program recorded therein
JP2017507626A (en) * 2014-02-03 2017-03-16 グーグル インコーポレイテッド Improved video conferencing cross-reference for related applications

Similar Documents

Publication Publication Date Title
US10021313B1 (en) Image adjustment techniques for multiple-frame images
CN104717432B (en) Handle method, image processing equipment and the digital camera of one group of input picture
CN101283604B (en) Image processing device with automatic white balance
US8451371B2 (en) Exposure control for an imaging system
JP3412174B2 (en) Automatic exposure control device
CN107888840B (en) High-dynamic-range image acquisition method and device
US7271838B2 (en) Image pickup apparatus with brightness distribution chart display capability
WO2009088080A1 (en) Projector
US20100134643A1 (en) Image processing method, image processing program, image processing device, image processing system, electronic camera and electronic apparatus
US20100195902A1 (en) System and method for calibration of image colors
JP5814799B2 (en) Image processing apparatus and image processing method
GB2432659A (en) Face detection in digital images
JPH11341501A (en) Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program
KR101854432B1 (en) Method and apparatus for detecting and compensating back light frame
JP3510040B2 (en) Image processing method
JP2000148978A (en) Method and device for estimating photographic light source, method and device for processing image and recording medium
JP2003264850A (en) Digital camera
JP2005346474A (en) Image processing method and image processor and program and storage medium
JP2016051982A (en) Image processing system, camera, and image processing program
JP6809559B2 (en) Image processing equipment and image processing program
US11696044B2 (en) Image capturing apparatus, control method, and storage medium
CN102243761B (en) Red eye image detection method and relevant device thereof
JP2020205631A (en) Image processing device and image processing program
JPH10341352A (en) Image processor
JP2003259231A (en) Automatic exposure controller and program thereof