JP2012168641A - Image determination apparatus, image processor, camera and image determination program - Google Patents

Image determination apparatus, image processor, camera and image determination program Download PDF

Info

Publication number
JP2012168641A
JP2012168641A JP2011027628A JP2011027628A JP2012168641A JP 2012168641 A JP2012168641 A JP 2012168641A JP 2011027628 A JP2011027628 A JP 2011027628A JP 2011027628 A JP2011027628 A JP 2011027628A JP 2012168641 A JP2012168641 A JP 2012168641A
Authority
JP
Japan
Prior art keywords
image
learning
unit
determination
evaluator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011027628A
Other languages
Japanese (ja)
Inventor
Nobutaka Hirama
宣孝 平間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011027628A priority Critical patent/JP2012168641A/en
Publication of JP2012168641A publication Critical patent/JP2012168641A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image determination apparatus determining a criterion by learning.SOLUTION: An image determination apparatus comprises: a first storage part 16 memorizing a learning image; a feature extraction part 40 to acquire the concrete value of an indicator about image quality of the learning image; a display 14 displaying the learning image on a predetermined display condition; an input part 32 to acquire a determination result of an evaluator for the learning image displayed by the display; a second storage part 20 memorizing a learning element that is obtained by relating the determination result to the concrete value; and a learning operation part 36 determining a determination reference value of the evaluator about the indicator based on the learning element.

Description

本発明は、画像判断装置、画像処理装置、カメラ及び画像判断プログラムに関する。   The present invention relates to an image determination device, an image processing device, a camera, and an image determination program.

デジタルカメラは、記録媒体に要するコストが比較的安価であり、またゴミを発生させることなく容易に撮影画像を削除可能であること等から、撮影枚数の増大を気にせずに、撮影したいだけ撮影できるという利点を有する。そのため、デジタルカメラによる撮影画像の数は、銀塩カメラに比べて増大する傾向にある。その一方で、撮影者が失敗を怖れずに撮影を行う結果、デジタルカメラの撮影画像には、ブレやボケが発生したような失敗画像が、比較的多く含まれる傾向にある。   Digital cameras have a relatively low cost for recording media and can easily delete shot images without generating dust, so you can shoot as much as you want without having to worry about the increase in the number of shots. It has the advantage of being able to. For this reason, the number of images taken by a digital camera tends to increase as compared to a silver salt camera. On the other hand, as a result of the photographer taking pictures without fear of failure, the photographed images of the digital camera tend to include a relatively large number of failed images in which blurring or blurring has occurred.

撮影者は、失敗画像が印刷されることや、失敗画像によって記録媒体が占有され続けることを防ぐために、カメラの液晶画面やPCのモニタで失敗画像を選別し、これを分別又は削除する作業を行うことができる。しかし、多くの撮影画像に対して、このような目視及び手動による仕分け作業を行うことは、煩雑であり、撮影者の負担となっている。   In order to prevent the failed image from being printed and the recording medium from being occupied by the failed image, the photographer selects the failed image on the camera LCD screen or PC monitor and sorts or deletes it. It can be carried out. However, performing such visual and manual sorting operations for many photographed images is cumbersome and burdens the photographer.

このような問題を解決するための従来技術として、画像データに含まれる高周波成分を抽出すること等により撮影ミスを判断するための指標を算出し、自動的に撮影画像の合否判断を行う技術が提案されている(特許文献1等参照)。   As a conventional technique for solving such a problem, there is a technique for calculating an index for judging a photographing error by extracting a high-frequency component included in image data and automatically determining whether a photographed image is acceptable or not. It has been proposed (see Patent Document 1).

特開2001−256498号公報JP 2001-256498 A

従来技術に係る画像判断技術において、撮影画像を仕分けるための基準となる判断基準は、例えば失敗画像及び成功画像の一般的な傾向を統計的に調査して定められたものにすぎないため、撮影者個人が求める判断基準に対してずれが生じるという問題がある。撮影画像を仕分けるための判断基準は、撮影者の個性、撮影画像の用途、撮影画像の鑑賞サイズ等によって異なるからである。また、仮に撮影者が判断基準を任意に設定できる場合であっても、撮影画像の合否判断には様々な要因が影響するため、如何なる基準が自分に適しているかを撮影者自身が認識し、正しく設定を行うことは、容易ではないと考えられる。   In the image determination technology according to the prior art, the determination criterion that is a criterion for sorting the captured images is only determined by, for example, statistically examining general trends of failed images and successful images. There is a problem that a deviation occurs with respect to the judgment standard required by the individual. This is because the criteria for sorting the photographed images vary depending on the individuality of the photographer, the purpose of the photographed image, the viewing size of the photographed image, and the like. In addition, even if the photographer can arbitrarily set the judgment criteria, since various factors affect the pass / fail judgment of the photographed image, the photographer himself recognizes what kind of criteria is suitable for himself, It is not easy to set correctly.

本発明は、このような実状に鑑みてなされ、その目的は、学習によって判断基準を決定する画像判断装置等を提供することである。   The present invention has been made in view of such a situation, and an object thereof is to provide an image determination device or the like that determines a determination criterion by learning.

上記目的を達成するために、本発明に係る画像判断装置は、
学習画像を記憶する第1記憶部(16)と、
前記学習画像について、画像品質に関する指標の具体値を取得する特徴抽出部(40)と、
前記学習画像を所定の表示条件で表示する表示部(14)と、
前記表示部によって表示された前記学習画像に対する評価者の判断結果を取得する入力部(32)と、
前記判断結果と前記具体値を対応させた学習要素を記憶する第2記憶部(20)と、
前記学習要素から、前記指標に関する前記評価者の判断基準値を決定する学習演算部(36)と、を有する。
In order to achieve the above object, an image determination apparatus according to the present invention includes:
A first storage unit (16) for storing a learning image;
A feature extraction unit (40) for acquiring a specific value of an index relating to image quality for the learning image;
A display unit (14) for displaying the learning image under predetermined display conditions;
An input unit (32) for obtaining a judgment result of an evaluator for the learning image displayed by the display unit;
A second storage unit (20) for storing a learning element that associates the determination result with the specific value;
A learning calculation unit (36) for determining a judgment reference value of the evaluator regarding the index from the learning element.

また、例えば、前記特徴抽出部は主成分分析部(46)を有しても良く、
前記主成分分析部は、画像品質に関する2以上の暫定指標に各々対応する暫定具体値を、2以上の前記学習画像の各々について取得し、前記暫定具体値について主成分分析を行い、2以上の前記暫定指標が統合された主成分に関する前記具体値を算出しても良い。
For example, the feature extraction unit may include a principal component analysis unit (46).
The principal component analysis unit obtains provisional concrete values corresponding to two or more provisional indices relating to image quality for each of the two or more learning images, performs principal component analysis on the provisional concrete values, and performs two or more provisional values. You may calculate the said specific value regarding the main component with which the said temporary parameter | index was integrated.

また、例えば、前記学習演算部は、前記学習要素について判別分析を行い、前記判断基準値を決定しても良い。   Further, for example, the learning calculation unit may perform discriminant analysis on the learning element and determine the determination reference value.

また、例えば、本発明に係る画像判断装置は、前記評価者によって選択された画像鑑賞サイズ情報を取得し、前記画像鑑賞サイズを前記表示条件に反映させる画像サイズ取得部(34)をさらに有しても良い。   For example, the image determination apparatus according to the present invention further includes an image size acquisition unit (34) that acquires the image viewing size information selected by the evaluator and reflects the image viewing size in the display condition. May be.

また、例えば、本発明に係る画像判断装置は、前記学習画像の画像品質を調整する画質調整部(38)をさらに有しても良く、
前記画質調整部は、前記学習画像の前記指標の前記具体値が、予め定められた第1の値になるように前記学習画像の画像品質を調整し、
前記表示部は、前記画質調整部によって調整された前記学習画像を表示しても良い。
Further, for example, the image determination device according to the present invention may further include an image quality adjustment unit (38) for adjusting the image quality of the learning image,
The image quality adjustment unit adjusts the image quality of the learning image so that the specific value of the index of the learning image becomes a predetermined first value;
The display unit may display the learning image adjusted by the image quality adjustment unit.

また、本発明に係る画像処理装置は、上記いずれかに記載の画像判断装置と、
撮影された撮影画像について、画像品質に関する第2指標の第2具体値を取得し、前記撮影画像の前記第2具体値と、前記画像判断装置によって決定された前記判断基準値とを比較して、前記撮影画像を判断する撮影画像判断部(52)と、を有する。
An image processing apparatus according to the present invention includes any one of the image determination apparatuses described above,
A second specific value of a second index relating to image quality is acquired for the captured image, and the second specific value of the captured image is compared with the determination reference value determined by the image determination device. And a photographed image judging section (52) for judging the photographed image.

本発明に係るカメラは、上記に記載の画像処理装置を有する。   A camera according to the present invention has the image processing apparatus described above.

また、本発明に係る画像判断プログラムは、
コンピュータに、
第1記憶部に記憶された学習画像を読み出す手順と、
前記学習画像について、画像品質に関する指標の具体値を算出する手順と、
前記学習画像を所定の表示条件で表示する手順と、
前記表示部によって表示された前記学習画像に対する評価者の判断結果を取得する手順と、
前記判断結果と前記指標の前記具体値とを対応させた学習要素を記憶させる手順と、
前記学習要素から、前記指標に関する前記評価者の判断基準値を決定する手順と、を実行させる。
In addition, an image determination program according to the present invention includes:
On the computer,
A procedure for reading the learning image stored in the first storage unit;
A procedure for calculating a specific value of an index related to image quality for the learning image;
Displaying the learning image under predetermined display conditions;
A procedure for obtaining a judgment result of an evaluator for the learning image displayed by the display unit;
Storing a learning element that associates the determination result with the specific value of the indicator;
And a procedure for determining a judgment reference value of the evaluator regarding the indicator from the learning element.

なお上述の説明では、本発明をわかりやすく説明するために実施形態を示す図面の符号に対応づけて説明したが、本発明は、これに限定されるものでない。後述の実施形態の構成を適宜改良してもよく、また、少なくとも一部を他の構成物に代替させてもよい。さらに、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In the above description, in order to explain the present invention in an easy-to-understand manner, the description is made in association with the reference numerals of the drawings showing the embodiments. However, the present invention is not limited to this. The configuration of the embodiment described later may be improved as appropriate, or at least a part of the configuration may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

図1は、本発明の一実施形態に係る画像判断装置のブロック図である。FIG. 1 is a block diagram of an image determination apparatus according to an embodiment of the present invention. 図2は、図1に示す画像判断装置で行われる学習処理の第1の例を表すフローチャートである。FIG. 2 is a flowchart showing a first example of learning processing performed by the image determination apparatus shown in FIG. 図3は、図2に示す学習処理における判断基準値の決定処理を説明した概念図である。FIG. 3 is a conceptual diagram illustrating a determination reference value determination process in the learning process shown in FIG. 図4は、図1に示す画像判断装置で行われる学習処理の第2の例を表すフローチャートである。FIG. 4 is a flowchart showing a second example of learning processing performed by the image determination apparatus shown in FIG. 図5は、図4に示す学習処理を説明した概念図である。FIG. 5 is a conceptual diagram illustrating the learning process shown in FIG. 図6は、図1に示す画像判断装置で行われる学習処理の第3の例を表すフローチャートである。FIG. 6 is a flowchart illustrating a third example of learning processing performed by the image determination apparatus shown in FIG. 図7は、図6に示す学習処理における学習画像の画像品質の変更手順を説明した概念図である。FIG. 7 is a conceptual diagram illustrating a procedure for changing the image quality of the learning image in the learning process shown in FIG. 図8は、本発明の第2実施形態に係る画像処理装置のブロック図である。FIG. 8 is a block diagram of an image processing apparatus according to the second embodiment of the present invention. 図9は、図8に示す画像処理装置で行われる学習処理と自動判別処理の関係を表す概念図である。FIG. 9 is a conceptual diagram showing the relationship between learning processing and automatic discrimination processing performed in the image processing apparatus shown in FIG. 図10は、図8に示す画像処理装置で行われる自動判別処理の一例を表すフローチャートである。FIG. 10 is a flowchart illustrating an example of automatic determination processing performed by the image processing apparatus illustrated in FIG.

第1実施形態
図1は、本発明の一実施形態に係る画像判断装置10のブロック図である。画像判断装置10は、撮影画像の自動判断処理等に用いる判断基準値を、学習処理により算出する。画像判断装置10は、PC(パーソナルコンピュータ)等に搭載されてもよく、デジタルカメラや携帯電話など、デジタル画像を生成する撮像装置に搭載されても良い。
First Embodiment FIG. 1 is a block diagram of an image determination apparatus 10 according to an embodiment of the present invention. The image determination apparatus 10 calculates a determination reference value used for an automatic determination process of a captured image by a learning process. The image determination device 10 may be mounted on a PC (personal computer) or the like, or may be mounted on an imaging device that generates a digital image, such as a digital camera or a mobile phone.

画像判断装置10は、入力装置12、表示装置14、記憶装置16、画像メモリ18、プログラムメモリ20及び中央処理装置30を有する。入力装置12は、画像判断装置10を使用する評価者が、評価者の判断や意志等を、画像判断装置10に伝えるための操作部である。入力装置12の例としては、画像判断装置10がPCである場合には、マウス、キーボード、タッチパネル等が挙げられ、画像判断装置10が撮像装置である場合には、十字キー、ダイアル、ボタン等が挙げられるが特に限定されない。入力装置12は、評価者の操作に基づき、操作信号を中央処理装置30に出力する。   The image determination device 10 includes an input device 12, a display device 14, a storage device 16, an image memory 18, a program memory 20, and a central processing device 30. The input device 12 is an operation unit that allows an evaluator using the image determination device 10 to transmit the evaluator's determination, will, and the like to the image determination device 10. Examples of the input device 12 include a mouse, a keyboard, a touch panel, and the like when the image determination device 10 is a PC, and a cross key, a dial, a button, and the like when the image determination device 10 is an imaging device. There is no particular limitation. The input device 12 outputs an operation signal to the central processing unit 30 based on the evaluator's operation.

表示装置14は、撮影画像や表示画像等の各種画像や、操作メニュー等を表示するものである。表示装置14の例としては、液晶パネル等が挙げられる。表示装置14も、入力装置12と同様に、中央処理装置30によって制御される。記憶装置16は、各種画像ファイルや、中央処理装置30等を制御するためのプログラム及び当該プログラムに使用するデータ等が記憶される。記憶装置16に記憶される画像ファイルには、画像判断装置10による学習処理に用いられる学習画像や、図8に示す撮影画像判断部52による自動判断処理によって判断される撮影画像等が含まれる。   The display device 14 displays various images such as captured images and display images, operation menus, and the like. Examples of the display device 14 include a liquid crystal panel. The display device 14 is also controlled by the central processing unit 30 in the same manner as the input device 12. The storage device 16 stores various image files, a program for controlling the central processing unit 30 and the like, data used for the program, and the like. The image file stored in the storage device 16 includes a learning image used for learning processing by the image determination device 10, a captured image determined by the automatic determination processing by the captured image determination unit 52 shown in FIG.

プログラムメモリ20には、画像判断装置10に学習処理を行わせるためのプログラムや、図7に示す画像処理装置50に自動判断処理を行わせるためのプログラムが格納される。また、プログラムメモリ20は、学習処理の際に、最終的な判断基準値を算出する過程で得られる学習要素を一時的に記憶する。   The program memory 20 stores a program for causing the image determination apparatus 10 to perform a learning process and a program for causing the image processing apparatus 50 illustrated in FIG. 7 to perform an automatic determination process. Further, the program memory 20 temporarily stores learning elements obtained in the process of calculating the final determination reference value during the learning process.

画像メモリ18は、記憶装置16に記憶されている画像データを、一時的に格納する。中央処理装置30は、画像データに対して各種の演算処理を行う場合や、表示装置14に画像を表示させるような場合において、画像データが画像メモリ18に格納されるように制御を行う。   The image memory 18 temporarily stores the image data stored in the storage device 16. The central processing unit 30 performs control so that the image data is stored in the image memory 18 when performing various arithmetic processes on the image data or when displaying an image on the display device 14.

中央処理装置(CPU)30は、画像判断装置10で行われる学習処理に必要な各種の演算処理を実施する。画像判断装置10において、中央処理装置30は、判断入力処理部32、画像サイズ取得部34、学習演算部36、画質調整部38及び特徴抽出部40等として機能する。   The central processing unit (CPU) 30 performs various arithmetic processes necessary for the learning process performed by the image determination apparatus 10. In the image determination device 10, the central processing unit 30 functions as a determination input processing unit 32, an image size acquisition unit 34, a learning calculation unit 36, an image quality adjustment unit 38, a feature extraction unit 40, and the like.

画像サイズ取得部34は、画像判断装置10のユーザーである評価者によって入力された画像鑑賞サイズ情報を取得する。また、画像サイズ取得部34は、取得された画像鑑賞サイズ情報を、学習画像が表示装置14に表示される際の表示条件(特に表示サイズ)に反映させる。画像鑑賞サイズ情報とは、学習処理の結果を用いて自動判断処理される予定の撮影画像が、どのような条件で鑑賞されるかということに関する情報である。   The image size acquisition unit 34 acquires image viewing size information input by an evaluator who is a user of the image determination device 10. The image size acquisition unit 34 reflects the acquired image appreciation size information on display conditions (particularly display size) when the learning image is displayed on the display device 14. The image appreciation size information is information relating to under what conditions a captured image scheduled to be automatically determined using the learning process result is viewed.

画像サイズ取得部34は、評価者に対して、入力装置12を介して画像鑑賞サイズ情報を入力するように求める。画像サイズ取得部34は、得られた画像鑑賞サイズ情報を用いて、学習画像が表示装置14に表示される際の表示条件を変更する。例えば、画像サイズ取得部34は、学習画像が、その後に行われる自動判断処理によって処理される撮影画像の使用条件と同様又は近似する条件で表示されるように、表示装置14を制御する。   The image size acquisition unit 34 requests the evaluator to input image viewing size information via the input device 12. The image size acquisition unit 34 changes display conditions when the learning image is displayed on the display device 14 using the obtained image appreciation size information. For example, the image size acquisition unit 34 controls the display device 14 so that the learning image is displayed under a condition similar to or approximate to the use condition of the captured image processed by the automatic determination process performed thereafter.

さらに一例を挙げると、画像サイズ取得部34は、画像鑑賞サイズ情報が画像を所定のサイズに拡大して鑑賞する旨の情報であれば、学習画像の表示サイズを、これに合わせて拡大する。反対に、画像サイズ取得部34は、画像鑑賞サイズ情報が画像を縮小して鑑賞する旨の情報であれば、学習画像の表示サイズをこれに合わせて縮小する。このような処理を行うことにより、画像判断装置10における学習処理によって算出される判断基準値は、画像鑑賞サイズ情報を考慮したものとなり、評価者の要求する基準に高い精度で一致する。   For example, if the image appreciation size information is information that the image is enlarged to a predetermined size and viewed, the image size acquisition unit 34 enlarges the display size of the learning image accordingly. On the other hand, if the image appreciation size information is information indicating that the image is to be reduced and viewed, the image size acquisition unit 34 reduces the display size of the learning image accordingly. By performing such a process, the determination reference value calculated by the learning process in the image determination apparatus 10 takes into consideration the image viewing size information and matches the reference required by the evaluator with high accuracy.

画質調整部38は、学習画像の画像品質を調整することができる。画質調整部38は、例えば、画質調整前の学習画像である元画像に対して、ブレ・ボケの軌跡を表すPSF(Point Spread Function)をコンボリューションすることにより、学習画像の画像品質を調整する。画質調整部38によって調整される画像品質としては、エッジ量(エッジ量算出部42によって算出されるものと同様)等が挙げられるが、特に限定されない。   The image quality adjustment unit 38 can adjust the image quality of the learning image. For example, the image quality adjustment unit 38 adjusts the image quality of the learning image by convolving a PSF (Point Spread Function) representing a blur / blur locus with respect to the original image that is the learning image before the image quality adjustment. . The image quality adjusted by the image quality adjustment unit 38 includes an edge amount (similar to that calculated by the edge amount calculation unit 42) and the like, but is not particularly limited.

画質調整部38で使用されるボケのPSFとしては、例えば以下の数式(1−1)で表されるガウス分布が挙げられる。ガウス分布を用いて画質調整を行う場合、画質調整部38では、数式(1−2)で表すように、ガウス分布を正規化する。さらに、画質調整部38では、正規化後のガウス分布を、画質調整前の学習画像の輝度Y(i,j)にコンボリューションする。これにより、画質調整部は、数式(1−3)で示すように、画質調整後の学習画像の輝度Ygaussian(i,j)を得る。なお、数式(1−1)におけるσは標準偏差とし、x=4σとして計算を行うことができるが、特に限定されない。また、数式(1−3)におけるTは転置を表す。 As the blurred PSF used in the image quality adjustment unit 38, for example, a Gaussian distribution represented by the following equation (1-1) can be given. When image quality adjustment is performed using a Gaussian distribution, the image quality adjustment unit 38 normalizes the Gaussian distribution as represented by Expression (1-2). Further, the image quality adjustment unit 38 convolves the normalized Gaussian distribution with the luminance Y (i, j) of the learning image before the image quality adjustment. As a result, the image quality adjustment unit obtains the luminance Y gaussian (i, j) of the learning image after the image quality adjustment, as shown in Expression (1-3). Note that σ in Formula (1-1) can be calculated as a standard deviation and x = 4σ, but is not particularly limited. Moreover, T in Formula (1-3) represents transposition.

Figure 2012168641
Figure 2012168641

学習処理において、画質調整部38によって学習画像の画像品質が調整された場合、表示装置14は、調整後の学習画像を表示する。画質調整部38によって画像品質を調整することにより、画像判断装置10は、同様の構図を有していながら、特定の画像品質に関する指標のみが異なる複数の画像を用いて、学習処理を行うことが可能である。したがって、画像判断装置10は、特定の画像品質に関する指標以外の影響を排除又は抑制した学習処理を行うことが可能であり、評価者の要求する基準に高い精度で一致する判断基準値を得ることができる。なお、画質調整部38が、学習画像のエッジ量が所定の値になるように調整を行った場合、特徴抽出部40は、エッジ量の算出を行う必要がない。なぜなら、特徴抽出部40は、画質調整部38の設定値を読み出すだけで、学習画像のエッジ量を取得できるからである。   In the learning process, when the image quality of the learning image is adjusted by the image quality adjustment unit 38, the display device 14 displays the adjusted learning image. By adjusting the image quality by the image quality adjustment unit 38, the image determination apparatus 10 can perform a learning process using a plurality of images that have the same composition but differ only in the index relating to the specific image quality. Is possible. Therefore, the image determination apparatus 10 can perform a learning process that eliminates or suppresses influences other than the index related to a specific image quality, and obtains a determination reference value that matches the reference required by the evaluator with high accuracy. Can do. When the image quality adjustment unit 38 performs adjustment so that the edge amount of the learning image becomes a predetermined value, the feature extraction unit 40 does not need to calculate the edge amount. This is because the feature extraction unit 40 can acquire the edge amount of the learning image only by reading the setting value of the image quality adjustment unit 38.

特徴抽出部40は、学習処理に使用される学習画像について、その画像品質に関する指標の具体値を取得する。特徴抽出部40は、エッジ量算出部42、データ取得部44及び主成分分析部46を有する。エッジ量算出部42、データ取得部44及び主成分分析部46は、それぞれ異なる方法で、学習画像の画像品質に関する指標の具体値を取得する。   The feature extraction unit 40 acquires a specific value of an index related to the image quality of the learning image used in the learning process. The feature extraction unit 40 includes an edge amount calculation unit 42, a data acquisition unit 44, and a principal component analysis unit 46. The edge amount calculation unit 42, the data acquisition unit 44, and the principal component analysis unit 46 acquire specific values of indices related to the image quality of the learning image by different methods.

特徴抽出部40で取得される画像品質の指標としては特に限定されず、特徴抽出部40は、学習画像が成功画像であるか失敗画像であるかを判断するために有効な任意の指標の具体値を、取得することができる。特徴抽出部40で取得される指標の例としては、後述するエッジ量算出部42、データ取得部44及び主成分分析部46で取得される指標以外にも、DCT係数、ウェーブレット係数、FFT係数の実部などが挙げられる。   The index of image quality acquired by the feature extraction unit 40 is not particularly limited, and the feature extraction unit 40 is a specific index that is effective for determining whether the learning image is a success image or a failure image. A value can be obtained. Examples of indexes acquired by the feature extraction unit 40 include DCT coefficients, wavelet coefficients, and FFT coefficients in addition to the indexes acquired by the edge amount calculation unit 42, the data acquisition unit 44, and the principal component analysis unit 46 described later. For example, the real part.

エッジ量算出部42は、画像品質の指標の1つであるエッジ量を、学習画像から算出する。エッジ量算出部42が、学習処理の対象となる学習画像からエッジ量の具体的な値(具体値)を取得する方法の一例を、数式(2−1)〜数式(2−4)を用いて以下に説明する。   The edge amount calculation unit 42 calculates an edge amount, which is one of image quality indexes, from the learning image. An example of a method in which the edge amount calculation unit 42 acquires a specific value (specific value) of the edge amount from the learning image to be subjected to the learning process is expressed by Equations (2-1) to (2-4). Will be described below.

エッジ量算出部42は、数式(2−1)に示すように、学習画像におけるRGBチャンネルの各数値から、各画素の輝度Y(i,j)を算出する。さらにエッジ量算出部42は、数式(2−2)及び数式(2−3)に示すように、算出された輝度Y(i,j)に対して、エッジ検出フィルタをコンボリューションし、x方向及びy方向のエッジG(i,j)、G(i,j)を算出する。エッジ量算出部42は、エッジ検出フィルタとしてSobelフィルタを用いる。ただし、エッジ量算出部42が使用するエッジ検出フィルタはこれに限定されず、Prewittフィルタ等を用いることもできる。さらに、エッジ量算出部42は、数式(2−4)に示すように、算出されたエッジG(i,j)、G(i,j)から、エッジ方向に依存しないエッジ量G(i,j)を算出する。 The edge amount calculation unit 42 calculates the luminance Y (i, j) of each pixel from the numerical values of the RGB channels in the learning image, as shown in Equation (2-1). Further, the edge amount calculation unit 42 convolves an edge detection filter with respect to the calculated luminance Y (i, j), as shown in Equations (2-2) and (2-3), and performs the x direction. And edges G x (i, j) and G y (i, j) in the y direction are calculated. The edge amount calculation unit 42 uses a Sobel filter as an edge detection filter. However, the edge detection filter used by the edge amount calculation unit 42 is not limited to this, and a Prewitt filter or the like can also be used. Furthermore, the edge amount calculation unit 42 calculates an edge amount G () that does not depend on the edge direction from the calculated edges G x (i, j) and G y (i, j) as shown in Equation (2-4). i, j) is calculated.

Figure 2012168641
Figure 2012168641

データ取得部44は、学習画像に関する画像品質の指標の具体値のうち、学習画像とともに記憶装置16に記録されているものや、画質調整部38において設定済みのエッジ量等を取得する。データ取得部44が取得する指標としては、例えば学習画像が撮影された時のシャッタスピード及びEV値や、画質調整部38における画質調整において設定されたエッジ量などが挙げられる。   The data acquisition unit 44 acquires, among the specific values of the image quality index related to the learning image, those recorded in the storage device 16 together with the learning image, the edge amount set in the image quality adjustment unit 38, and the like. Examples of the index acquired by the data acquisition unit 44 include a shutter speed and an EV value when a learning image is captured, an edge amount set in image quality adjustment in the image quality adjustment unit 38, and the like.

主成分分析部46は、学習画像の画像品質に関する2以上の指標(暫定指標)について主成分分析を行い、学習処理を行う学習画像群の全体の傾向・特徴を表す新たな指標である主成分を算出する。主成分分析部46は、予め2以上の学習画像について学習処理を行うことが解っており、各学習画像について、画像品質に関する2以上の指標の具体値を取得できる場合において行うことができる。以下に、主成分分析部46が学習画像の画像品質に関する指標(主成分)を算出する方法を、表1及び数式(3−1)〜数式(3−3)を用いて説明する。   The principal component analysis unit 46 performs principal component analysis on two or more indices (provisional indices) relating to the image quality of the learning image, and a principal component that is a new index that represents the overall tendency / feature of the learning image group to be subjected to learning processing. Is calculated. It is known that the principal component analysis unit 46 performs learning processing on two or more learning images in advance, and can be performed when specific values of two or more indices related to image quality can be acquired for each learning image. Hereinafter, a method by which the principal component analysis unit 46 calculates an index (principal component) relating to the image quality of the learning image will be described using Table 1 and Equations (3-1) to (3-3).

主成分分析部46は、表1に示すように、画像品質に関する2以上(表1に示す例では3)の暫定指標である指標x,指標y及び指標zに各々対応する具体値(暫定具体値)を、2以上(表1に示す例では10)の学習画像の各々について取得する。主成分分析部46が用いる暫定指標としては、エッジ量、シャッタスピード及びEV値等が挙げられるが、特に限定されない。また、暫定具体値としては、エッジ量算出部42で算出された指標の具体値や、データ取得部44で取得された指標の具体値を用いることができる。   As shown in Table 1, the principal component analysis unit 46 has specific values (provisional specific values) respectively corresponding to the index x, the index y, and the index z which are two or more (3 in the example shown in Table 1) related to image quality. Value) is acquired for each of two or more learning images (10 in the example shown in Table 1). The provisional index used by the principal component analysis unit 46 includes an edge amount, a shutter speed, an EV value, and the like, but is not particularly limited. As the provisional specific value, the specific value of the index calculated by the edge amount calculation unit 42 or the specific value of the index acquired by the data acquisition unit 44 can be used.

Figure 2012168641
Figure 2012168641

次に、主成分分析部46は、数式(3−1)に示す共分散行列Vxyzを求める。数式(3−1)において、変数aは表1における画像の番号に対応しており、dataは画像数を表しており、表1の例を数式(3−1)に適用する場合、dataは10となる。また、数式(3−1)において、表1に示す指標xの具体値はx、指標yの具体値はy、指標zの具体値はzとして表されている。 Next, the principal component analysis unit 46 obtains a covariance matrix V xyz shown in Equation (3-1). In Equation (3-1), the variable a corresponds to the image number in Table 1, data represents the number of images, and when the example of Table 1 is applied to Equation (3-1), data is 10 Further, in Equation (3-1), specific values of the index x are shown in Table 1. Specific values of x a, the index y Specific values of y a, the index z is represented as z a.

Figure 2012168641
Figure 2012168641

さらに、主成分分析部46は、共分散行列Vxyzの固有値λα、λβ、λγと、これらの固有値に対応する固有ベクトルuα、uβ、uγを求める。さらに、主成分分析部46は、算出された各固有ベクトルuα、uβ、uγと、各画像の暫定指標の具体値x、y、z及び画像群の暫定指標毎の平均値から、各画像の主成分の具体値ξα、ψα、ζαを算出する。固有ベクトルuα、uβ、uγの成分を、数式(3−2)に示すようにuα1〜uα3、uβ1〜uβ3、uγ1〜uγ3とすると、各画像の主成分の具体値ξα、ψα、ζαは、数式(3−3)で表すことができる。 Further, the principal component analysis unit 46 obtains eigenvalues λ α , λ β , λ γ of the covariance matrix V xyz and eigenvectors u α , u β , u γ corresponding to these eigenvalues. Further, the principal component analysis unit 46 calculates the calculated eigenvectors u α , u β , u γ , the specific values x a , y a , z a of the provisional indices for each image and the average value for each provisional index of the image group. From these, the specific values ξ α , ψ α , ζ α of the principal components of each image are calculated. Eigenvector u alpha, u beta, the components of u gamma, When u α 1~u α 3, u β 1~u β 3, u γ 1~u γ 3 as shown in Equation (3-2), each The specific values ξ α , ψ α , ζ α of the main components of the image can be expressed by Equation (3-3).

主成分分析部46で算出された各主成分の具体値ξα、ψα、ζαは、学習画像の画像品質に関する指標の具体値として、特徴抽出部40で取得された他の指標の具体値と同様に、学習処理において使用することができる。また、主成分分析部46は、固有値λα、λβ、λγから各主成分の寄与率を算出し、寄与率の高い主成分のみを、学習処理に用いる指標として採用することができる。この場合、主成分分析部46は、累積寄与率が80%を超える主成分もしくは主成分の組合せを、学習処理に用いる指標として採用しても良い。主成分分析部46で算出された各主成分のうち、寄与率の高い一部の主成分のみを学習処理に用いることによって、学習演算部36における判断基準値の演算処理や、学習処理後に実施される自動画像判断処理の演算処理を、高速化することができる。 The specific values ξ α , ψ α , and ζ α of each principal component calculated by the principal component analysis unit 46 are specific values of other indexes acquired by the feature extraction unit 40 as specific values of indexes related to the image quality of the learning image. Like the value, it can be used in the learning process. In addition, the principal component analysis unit 46 can calculate the contribution rate of each principal component from the eigenvalues λ α , λ β , and λ γ, and can adopt only the principal component having a high contribution rate as an index used in the learning process. In this case, the principal component analysis unit 46 may adopt a principal component or a combination of principal components having a cumulative contribution rate exceeding 80% as an index used for the learning process. Of the principal components calculated by the principal component analysis unit 46, only a part of the principal components having a high contribution rate are used for the learning process, so that the judgment reference value is calculated by the learning calculation unit 36 or after the learning process. The calculation processing of the automatic image determination processing that is performed can be speeded up.

判断入力処理部32は、表示装置14によって表示された学習画像に対する評価者の判断結果を取得する。例えば、判断入力処理部32は、評価者に対して、表示装置14によって表示された学習画像が、成功画像であるか失敗画像であるか(すなわちOKかNGか)を判断するように求める。学習画像に対する評価者の判断結果は、入力装置12を介して、判断入力処理部32に入力される。   The determination input processing unit 32 acquires the evaluator's determination result for the learning image displayed by the display device 14. For example, the determination input processing unit 32 requests the evaluator to determine whether the learning image displayed by the display device 14 is a success image or a failure image (that is, OK or NG). The evaluation result of the evaluator for the learning image is input to the determination input processing unit 32 via the input device 12.

さらに、判断入力処理部32は、得られた評価者の判断結果と、当該学習画像について特徴抽出部40で抽出された画像品質に関する指標の具体値を対応させる。さらに、判断入力処理部32は、学習画像の判断結果と指標の具体値とを対応させたものを学習要素として、プログラムメモリ20に記憶させる。この場合、学習要素として記憶される指標の種類は、1種類であっても良く、2種類以上であっても良い。   Further, the determination input processing unit 32 associates the obtained evaluation result of the evaluator with the specific value of the index relating to the image quality extracted by the feature extraction unit 40 for the learning image. Further, the determination input processing unit 32 stores in the program memory 20 as a learning element a correspondence between the determination result of the learning image and the specific value of the index. In this case, the type of index stored as the learning element may be one type or two or more types.

学習演算部36は、プログラムメモリ20に記憶された学習要素から、学習要素の具体値に対応する指標に関する評価者の判断基準値を決定する。例えば、学習処理で採用された指標がエッジ量である場合、プログラムメモリ20に記憶された学習要素は、評価者が如何なるエッジ量の画像をOKと判断し、また如何なるエッジ量の画像をNGと判断したかを、具体的に記録したものである。学習演算部36は、このような学習要素から、あるエッジ量の値を境界として評価者のOK・NGの判断が分かれるという前提の下に、その値を求め、判断基準値とする。   The learning calculation unit 36 determines an evaluator's criterion value for the index corresponding to the specific value of the learning element from the learning element stored in the program memory 20. For example, when the index employed in the learning process is the edge amount, the learning element stored in the program memory 20 determines that the image of the edge amount is OK by the evaluator, and the image of any edge amount is NG. This is a specific record of the judgment. The learning calculation unit 36 obtains a value based on the assumption that an evaluator's OK / NG determination is separated from such a learning element using a certain edge amount value as a boundary, and uses the value as a determination reference value.

学習演算部36は、例えば、線形判別(linear discriminant)等により、判断基準値を決定することができるが、判断基準値の決定方法は特に限定されない。なお、学習処理における判断基準値、具体値、暫定具体値には、一つの値によって構成されるスカラー量等だけでなく、複数の値によって構成される配列等が含まれる。   The learning calculation unit 36 can determine the determination reference value by, for example, linear discriminant, but the determination reference value determination method is not particularly limited. Note that the determination reference value, the specific value, and the provisional specific value in the learning process include not only a scalar amount configured by one value but also an array configured by a plurality of values.

図2は、図1に示す画像判断装置10で行われる学習処理の第1の例を表すフローチャートである。ステップ001では、画像判断装置10による学習処理が開始される。   FIG. 2 is a flowchart showing a first example of learning processing performed by the image determination apparatus 10 shown in FIG. In step 001, learning processing by the image determination apparatus 10 is started.

ステップ002では、図1に示す画像サイズ取得部34が、鑑賞サイズ情報を取得する。画像サイズ取得部34は、表示装置14に選択メニューを表示する等の方法により、評価者に鑑賞サイズ情報の入力を促す。評価者は、印刷サイズ(L版、はがきサイズ、A4等)や、表示サイズ(100%、50%、ブログ用)等の鑑賞サイズ情報を、入力装置12を介して入力する。この際、画像サイズ取得部34は、取得した鑑賞サイズ情報を、プログラムメモリ20に記憶させてもよい。   In step 002, the image size acquisition unit 34 shown in FIG. 1 acquires viewing size information. The image size acquisition unit 34 prompts the evaluator to input viewing size information by a method such as displaying a selection menu on the display device 14. The evaluator inputs viewing size information such as a print size (L version, postcard size, A4, etc.) and a display size (100%, 50%, for a blog) via the input device 12. At this time, the image size acquisition unit 34 may store the acquired viewing size information in the program memory 20.

ステップS003では、図1に示す中央処理装置30が、学習画像を決定する。中央処理装置30は、表示装置14にコメントを表示する等の方法により、評価者に対して、学習処理で使用する学習画像を指定するように促す。評価者は、予め記憶装置16に用意されている画像や、評価者自身が撮影した撮影画像であって記憶装置16に保存されている画像を、学習画像として指定する。中央処理装置30は、評価者によって指定された学習画像を、学習処理に使用する学習画像として特定する。さらに、中央処理装置30は、決定された学習画像を、画像メモリ18に一時的に格納させる。   In step S003, the central processing unit 30 shown in FIG. 1 determines a learning image. The central processing unit 30 prompts the evaluator to specify a learning image to be used in the learning process by a method such as displaying a comment on the display device 14. The evaluator designates an image prepared in advance in the storage device 16 or a captured image taken by the evaluator himself and stored in the storage device 16 as a learning image. The central processing unit 30 specifies the learning image designated by the evaluator as a learning image used for the learning process. Further, the central processing unit 30 temporarily stores the determined learning image in the image memory 18.

この際、評価者は、1つの学習画像を指定しても良いし、複数の学習画像を指定しても良い。また、記憶装置16には、予め学習処理に適したサンプル画像が保存されていても良く、評価者は、このようなサンプル画像の中から、学習画像を選択しても良い。さらに、記憶装置16に保存されるサンプル画像は、撮影シーン(夜景、マクロ、スポーツ等)が異なる複数の画像で構成されていても良い。これにより、評価者は、自動判断処理される予定の撮影画像と同じ撮影シーンの画像を、学習画像として指定することができる。なお、サンプル画像の画像品質は、適度なばらつきを有していることが好ましい。   At this time, the evaluator may specify one learning image or a plurality of learning images. In addition, a sample image suitable for the learning process may be stored in the storage device 16 in advance, and the evaluator may select a learning image from such sample images. Furthermore, the sample image stored in the storage device 16 may be composed of a plurality of images with different shooting scenes (night view, macro, sport, etc.). As a result, the evaluator can specify an image of the same shooting scene as the captured image to be automatically determined as a learning image. In addition, it is preferable that the image quality of a sample image has moderate dispersion | variation.

ステップS004では、特徴抽出部40が、ステップS003で決定された学習画像について、画像品質に関する指標の具体値を取得する。学習処理で使用される指標には様々なものが存在するが、図2に示す第1の例では、画像品質に関する指標として、エッジ量とシャッタスピードが用いられる場合を例に説明を行う。ステップS004では、特徴抽出部40のエッジ量算出部42が、学習画像のエッジ量を算出する。さらに、ステップS004では、データ取得部44が、学習画像とともに記憶装置16に保存されている情報を検索し、学習画像のシャッタスピードを取得する。エッジ量算出部42で算出されたエッジ量の具体値と、データ取得部44で取得されたシャッタスピードの具体値は、プログラムメモリ20に一時的に格納されても良い。   In step S004, the feature extraction unit 40 acquires the specific value of the index related to the image quality for the learning image determined in step S003. There are various indexes used in the learning process. In the first example shown in FIG. 2, the case where the edge amount and the shutter speed are used as an index relating to image quality will be described as an example. In step S004, the edge amount calculation unit 42 of the feature extraction unit 40 calculates the edge amount of the learning image. Further, in step S004, the data acquisition unit 44 searches for information stored in the storage device 16 together with the learning image, and acquires the shutter speed of the learning image. The specific value of the edge amount calculated by the edge amount calculation unit 42 and the specific value of the shutter speed acquired by the data acquisition unit 44 may be temporarily stored in the program memory 20.

ステップS005では、中央処理装置30は、ステップS003で決定された学習画像を表示するように、表示装置14を制御する。この際、中央処理装置30は、ステップS002で取得された鑑賞サイズ情報に基づき、学習画像の表示条件を指定する。例えば、ステップS002で取得された画像鑑賞サイズ情報が画像を200%に拡大して鑑賞する旨の情報であれば、中央処理装置30は、表示装置14が学習画像を200%で表示するように、表示条件を指定する。これにより、表示装置14は、鑑賞サイズ情報に基づく表示条件で、学習画像を表示する。   In step S005, the central processing unit 30 controls the display device 14 to display the learning image determined in step S003. At this time, the central processing unit 30 designates the display condition of the learning image based on the viewing size information acquired in step S002. For example, if the image viewing size information acquired in step S002 is information indicating that the image is to be magnified to 200%, the central processing unit 30 causes the display device 14 to display the learning image at 200%. Specify display conditions. Thereby, the display device 14 displays the learning image under display conditions based on the viewing size information.

ステップS006では、中央処理装置30の判断入力処理部32が、表示装置14によって表示された学習画像に対する評価者の判断結果を取得する。判断入力処理部32は、評価者に対して、表示装置14によって表示された学習画像がOKかNGかを入力するように求め、入力された情報を取得することにより、評価者の判断結果を取得する。   In step S006, the determination input processing unit 32 of the central processing unit 30 acquires the evaluator's determination result for the learning image displayed by the display device 14. The determination input processing unit 32 requests the evaluator to input whether the learning image displayed by the display device 14 is OK or NG, and obtains the input information, thereby obtaining the evaluation result of the evaluator. get.

ステップS007では、判断入力処理部32は、ステップS006で得られた評価者の判断結果と、ステップS004で取得された学習画像のエッジ量及びシャッタスピードの具体値を対応させ、学習要素を生成する。また、判断入力処理部32は、学習画像の判断結果とエッジ量及びシャッタスピードとを対応させた学習要素を、プログラムメモリ20に記憶させる。   In step S007, the determination input processing unit 32 associates the determination result of the evaluator obtained in step S006 with the specific values of the edge amount and shutter speed of the learning image acquired in step S004, and generates a learning element. . The determination input processing unit 32 also stores a learning element that associates the determination result of the learning image with the edge amount and the shutter speed in the program memory 20.

ステップS008では、中央処理装置30は、評価者に対して、学習処理を終了するか否かを入力するように求める。中央処理装置30は、学習処理を終了させる旨の入力情報を取得した場合にはステップS009の処理を行う。それに対し、学習処理を続ける旨の入力情報を取得した場合には、中央処理装置30は、ステップS003の処理に戻り、学習画像を変えてステップS003〜ステップS007の処理を繰り返す。   In step S008, the central processing unit 30 requests the evaluator to input whether to end the learning process. When the central processing unit 30 has acquired input information for ending the learning process, the central processing unit 30 performs the process of step S009. On the other hand, when the input information indicating that the learning process is to be continued is acquired, the central processing unit 30 returns to the process of step S003, changes the learning image, and repeats the processes of steps S003 to S007.

ステップS009では、中央処理装置30の学習演算部36が、プログラムメモリ20に記憶された学習要素から、エッジ量及びシャッタスピードに関する評価者の判断基準値を決定する。図3は、学習演算部36で行われる判断基準値の決定において行われる処理を、概念的に表したものである。図3に示すグラフは、横軸をエッジ量(指標A)とし、縦軸をシャッタスピード(指標B)として、学習要素をプロットしたものである。図3に示す黒丸及び白丸は、ステップS007においてプログラムメモリ20に記憶された学習要素に対応している。   In step S <b> 009, the learning calculation unit 36 of the central processing unit 30 determines the evaluator's determination reference value related to the edge amount and the shutter speed from the learning elements stored in the program memory 20. FIG. 3 conceptually shows processing performed in determination of the determination reference value performed in the learning calculation unit 36. The graph shown in FIG. 3 is a plot of learning elements with the horizontal axis as the edge amount (index A) and the vertical axis as the shutter speed (index B). Black circles and white circles shown in FIG. 3 correspond to learning elements stored in the program memory 20 in step S007.

図3に示すグラフでは、11個の学習要素がプロットされており、これは、ステップS009までに、11個の学習画像について、学習画像の決定(ステップS003)から学習要素の記憶(ステップS007)までの処理が行われたことを意味している。図3に示すグラフにおいて、白丸であるか黒丸であるかは、学習要素における学習画像の判断結果に対応している。すなわち、白丸は、ステップS006において評価者がOKと判断した学習要素であり、黒丸はNGと判断した学習要素である。また、各プロットの横軸の位置は、学習要素のエッジ量(指標A)の具体値に対応しており、各プロットの縦軸の位置は、学習要素のシャッタスピード(指標B)の具体値に対応している。   In the graph shown in FIG. 3, eleven learning elements are plotted, and this is determined by determining learning images (step S003) to storing learning elements (step S007) for eleven learning images by step S009. This means that the process up to has been performed. In the graph shown in FIG. 3, whether it is a white circle or a black circle corresponds to the determination result of the learning image in the learning element. That is, the white circle is a learning element that the evaluator determines to be OK in step S006, and the black circle is a learning element that is determined to be NG. Further, the position of the horizontal axis of each plot corresponds to the specific value of the edge amount (index A) of the learning element, and the position of the vertical axis of each plot represents the specific value of the shutter speed (index B) of the learning element. It corresponds to.

学習演算部36は、線形判別により、評価者は、直線70より右下の領域にある画像をOKと判断し、直線70より左上の領域にある画像をNGと判断すると認定する。さらに、学習演算部36は、評価者がエッジ量(指標A)及びシャッタスピード(指標B)に関して、画像をOKまたはNGに分類する境界である判断基準値は、直線70であると決定する。図3に示す場合において、ステップS009で算出される判断基準値は、一次式の形で表される。ステップS009で算出された判断基準値は、記憶装置16に格納される。   The learning calculation unit 36 determines that the evaluator determines that the image in the lower right region from the straight line 70 is OK and determines that the image in the upper left region from the straight line 70 is NG by the linear discrimination. Further, the learning calculation unit 36 determines that a criterion value that is a boundary for classifying the image into OK or NG with respect to the edge amount (index A) and the shutter speed (index B) by the evaluator is a straight line 70. In the case shown in FIG. 3, the criterion value calculated in step S009 is expressed in the form of a linear expression. The criterion value calculated in step S009 is stored in the storage device 16.

ステップS010では、中央処理装置30が、一連の学習処理を終了させる。   In step S010, the central processing unit 30 ends a series of learning processes.

このように、図1に示す画像判断装置10は、図2で示すような一連の学習処理を行うことにより、特定の個人である評価者の判断傾向を、学習・認識することができる。したがって、画像判断装置10は、評価者個人が求める判断基準に対して高い精度で一致する判断基準値を、評価者になんら専門知識等を要求することなく、決定することができる。   As described above, the image determination apparatus 10 illustrated in FIG. 1 can learn and recognize the determination tendency of the evaluator who is a specific individual by performing a series of learning processes as illustrated in FIG. Therefore, the image determination apparatus 10 can determine a determination reference value that matches with high accuracy the determination reference required by the individual evaluator without requiring any expert knowledge or the like.

また、画像判断装置10は、画像サイズ取得部34によって取得された画像鑑賞サイズ情報を、学習画像を表示する際の表示条件に反映させている。これにより、画像判断装置10は、学習結果を用いて行われる自動判別処理の対象となる撮影画像の用途を考慮に入れて学習処理を行うことが可能である。したがって、画像判断装置10は、目的に応じた判断基準値を決定することができる。   Further, the image determination apparatus 10 reflects the image viewing size information acquired by the image size acquisition unit 34 in the display conditions for displaying the learning image. Accordingly, the image determination apparatus 10 can perform the learning process in consideration of the use of the captured image that is the target of the automatic determination process performed using the learning result. Therefore, the image determination apparatus 10 can determine a determination reference value according to the purpose.

図4は、図1に示す画像判断装置10で行われる学習処理の第2の例を表すフローチャートである。図4におけるステップS101及びステップS102は、図2において説明したステップS001及びステップS002と同様であるため、説明を省略する。   FIG. 4 is a flowchart illustrating a second example of learning processing performed by the image determination apparatus 10 illustrated in FIG. Steps S101 and S102 in FIG. 4 are the same as steps S001 and S002 described in FIG.

図4に示すステップS103では、図1に示す中央処理装置30が、判断基準値の決定(S110)に使用する全ての学習画像によって構成される学習画像群を取得する。中央処理装置30は、表示装置14にコメントを表示する等の方法により、評価者に対して、学習処理で使用する全ての学習画像を指定するように促す。評価者は、学習画像群が格納されているディレクトリを指定する等により、学習画像群を指定する。中央処理装置30は、評価者によって指定された学習画像群を、学習処理に使用する学習画像群として特定する。   In step S103 shown in FIG. 4, the central processing unit 30 shown in FIG. 1 acquires a learning image group composed of all the learning images used for determination criterion value determination (S110). The central processing unit 30 prompts the evaluator to specify all learning images used in the learning process by a method such as displaying a comment on the display device 14. The evaluator designates the learning image group by designating a directory in which the learning image group is stored. The central processing unit 30 specifies the learning image group designated by the evaluator as the learning image group used for the learning process.

ステップS104では、図1に示す中央処理装置30が、学習画像を決定する。中央処理装置30は、ステップS103で取得された学習画像群に含まれる学習画像の中から、自動的に1つの学習画像を選択することができる。ただし、中央処理装置30は、評価者に学習画像群に含まれる学習画像の中から1つの学習画像を選んでもらい、それを学習画像としても良い。   In step S104, the central processing unit 30 shown in FIG. 1 determines a learning image. The central processing unit 30 can automatically select one learning image from the learning images included in the learning image group acquired in step S103. However, the central processing unit 30 may have the evaluator select one learning image from the learning images included in the learning image group and use it as a learning image.

ステップS105では、ステップS103で取得された学習画像群に含まれる学習画像の各々について、特徴抽出部40におけるエッジ量算出部42がエッジ量を算出し、データ取得部44が学習画像のシャッタスピードを取得する。エッジ量算出部42によるエッジ量の算出処理及びデータ取得部44によるシャッタスピードの取得処理は、図2に示すステップS004で説明した処理と同様である。   In step S105, for each of the learning images included in the learning image group acquired in step S103, the edge amount calculation unit 42 in the feature extraction unit 40 calculates the edge amount, and the data acquisition unit 44 determines the shutter speed of the learning image. get. The edge amount calculation processing by the edge amount calculation unit 42 and the shutter speed acquisition processing by the data acquisition unit 44 are the same as the processing described in step S004 shown in FIG.

さらに、ステップS105では、主成分分析部46が、エッジ量算出部42及びデータ取得部44で取得されたエッジ量及びシャッタスピードを取得する。またさらに、主成分分析部46は、学習画像群に含まれる各学習画像のエッジ量及びシャッタスピードの具体値について主成分分析を行い、エッジ量及びシャッタスピードが統合された主成分を算出する。その上で、ステップS105では、ステップS104で決定された学習画像について、主成分の具体値を算出する。   In step S <b> 105, the principal component analysis unit 46 acquires the edge amount and shutter speed acquired by the edge amount calculation unit 42 and the data acquisition unit 44. Furthermore, the principal component analysis unit 46 performs principal component analysis on specific values of the edge amount and shutter speed of each learning image included in the learning image group, and calculates a principal component in which the edge amount and shutter speed are integrated. Then, in step S105, the specific value of the principal component is calculated for the learning image determined in step S104.

図5は、図4に示す学習処理における主成分分析(ステップS105)から判断基準値の決定(ステップS110)までの処理を、概念的に表したものである。ステップS105において、主成分分析部46は、直線72で表される第1主成分を算出する。第1主成分は、図4に示す学習処理における暫定指標であるエッジ量(特徴A)とシャッタスピード(特徴B)が統合された指標である(数式3−3参照)。図4に示す学習処理では、直線72で表される第1主成分の寄与率が高いため、第1主成分のみを指標として使用する。   FIG. 5 conceptually shows processing from principal component analysis (step S105) to determination of a criterion value (step S110) in the learning processing shown in FIG. In step S <b> 105, the principal component analysis unit 46 calculates the first principal component represented by the straight line 72. The first principal component is an index in which the edge amount (feature A) and the shutter speed (feature B), which are provisional indices in the learning process shown in FIG. 4, are integrated (see Formula 3-3). In the learning process shown in FIG. 4, since the contribution ratio of the first principal component represented by the straight line 72 is high, only the first principal component is used as an index.

ステップS104で決定された学習画像について、ステップS105で算出される第1主成分の具体値は、直線72上に配置される点(スカラー量)として表される。なお、第1主成分の具体値を算出するための算出式は、プログラムメモリ20に格納される。   For the learning image determined in step S104, the specific value of the first principal component calculated in step S105 is represented as a point (scalar amount) arranged on the straight line 72. A calculation formula for calculating the specific value of the first principal component is stored in the program memory 20.

ステップS106〜ステップS108に関する処理は、図2において説明したステップS005〜ステップS007と同様であるため、説明を省略する。   The processes related to steps S106 to S108 are the same as steps S005 to S007 described in FIG.

ステップS109では、中央処理装置30は、ステップS103で選択された学習画像群に含まれるすべての学習画像について、学習要素が記憶されたか否かを判断する。中央処理装置30は、すべての学習画像について学習要素が記憶されていると認める場合には、ステップS110の処理を行う。これに対し、学習要素が記憶されていない学習画像が残っていると認められる場合には、中央処理装置30は、学習画像を変えてステップS104〜ステップS108の処理を繰り返す。ただし、中央処理装置30は、入力装置12を介して評価者の意志を取得し、学習要素が記憶されていない学習画像が残っているか否かにかかわらず、ステップS110へ進んでも良い。   In step S109, central processing unit 30 determines whether or not learning elements have been stored for all learning images included in the learning image group selected in step S103. When the central processing unit 30 recognizes that learning elements are stored for all learning images, the central processing unit 30 performs the process of step S110. On the other hand, when it is recognized that the learning image in which the learning element is not stored remains, the central processing unit 30 changes the learning image and repeats the processes of steps S104 to S108. However, the central processing unit 30 may acquire the will of the evaluator via the input device 12, and may proceed to step S110 regardless of whether or not there remains a learning image in which no learning element is stored.

なお、2回目以降のステップS105では、第1回目のループで既に第1主成分を算出しているため、改めて主成分分析を行う必要はなく、新たに選択された学習画像について、第1主成分の具体値を算出するだけで足りる。   In the second and subsequent steps S105, since the first principal component has already been calculated in the first loop, there is no need to perform principal component analysis again, and the first main image is selected for the newly selected learning image. It is sufficient to calculate the specific values of the components.

ステップS110では、中央処理装置30の学習演算部36が、プログラムメモリ20に記憶された学習要素から、第1主成分に関する評価者の判断基準値を決定する。図5に示すように、図4に示す学習処理で取得される学習要素は、第1主成分の具体値と評価者の判断結果を対応させたものである。なお、図5におけるプロット(白丸及び黒丸)の意味は、図3と同様である。   In step S <b> 110, the learning calculation unit 36 of the central processing unit 30 determines the evaluator's determination reference value related to the first principal component from the learning elements stored in the program memory 20. As shown in FIG. 5, the learning element acquired in the learning process shown in FIG. 4 is a correspondence between the specific value of the first principal component and the evaluator's determination result. Note that the meanings of the plots (white circles and black circles) in FIG. 5 are the same as those in FIG.

学習演算部36は、線形判別により、直線72のうち点74より右下の部分にある画像をOKとし、点74より左上の領域にある画像をNGと判断する傾向にあると認定する。さらに、学習演算部36は、評価者が第1主成分に関して、画像をOKまたはNGに分類する境界である判断基準値は、点74であると決定する。図5に示す場合において、ステップS110で算出される判断基準値は、一つの数値で表される。ステップS110で算出された判断基準値は、記憶装置16に格納される。   The learning calculation unit 36 recognizes that the image in the lower right part of the straight line 72 is OK and the image in the upper left area of the straight line 72 has a tendency to be determined as NG by linear discrimination. Further, the learning calculation unit 36 determines that the criterion value that is a boundary for classifying the image into OK or NG for the first principal component is the point 74. In the case illustrated in FIG. 5, the determination reference value calculated in step S <b> 110 is represented by a single numerical value. The criterion value calculated in step S110 is stored in the storage device 16.

ステップS111では、中央処理装置30が、一連の学習処理を終了させる。   In step S111, the central processing unit 30 ends a series of learning processes.

このように、図1に示す画像判断装置10は、主成分分析を用いて学習処理を行うことにより、学習演算部36における判断基準値の演算処理を高速化することができる。   As described above, the image determination apparatus 10 illustrated in FIG. 1 can speed up the calculation process of the determination reference value in the learning calculation unit 36 by performing the learning process using the principal component analysis.

図6は、図1に示す画像判断装置10で行われる学習処理の第3の例を表すフローチャートである。図6におけるステップS201及びステップS202は、図2において説明したステップS001及びステップS002と同様であるため、説明を省略する。   FIG. 6 is a flowchart illustrating a third example of learning processing performed by the image determination apparatus 10 illustrated in FIG. Steps S201 and S202 in FIG. 6 are the same as steps S001 and S002 described in FIG.

ステップS203では、図1に示す中央処理装置30が、学習画像(元画像)を決定する。中央処理装置30は、評価者に対して、予め用意されたサンプル画像から、学習処理に仕様される学習画像(元画像)を選択するように求め、評価者によって選択された画像を、学習画像(元画像)として特定する。   In step S203, the central processing unit 30 shown in FIG. 1 determines a learning image (original image). The central processing unit 30 asks the evaluator to select a learning image (original image) specified for the learning process from the sample images prepared in advance, and the image selected by the evaluator is used as the learning image. Specified as (original image).

この際、評価者は、1つの学習画像(元画像)を指定する。また、学習画像(元画像)として予め用意されるサンプル画像は、ステップS204で行われる画質調整後における画像品質の指標(例えばエッジ量)の具体値が、予め解っているものであることが好ましい。なお、学習画像(元画像)は、画像メモリ18に一時的に格納される。   At this time, the evaluator designates one learning image (original image). The sample image prepared in advance as a learning image (original image) preferably has a specific value of an image quality index (for example, an edge amount) after image quality adjustment performed in step S204. . Note that the learning image (original image) is temporarily stored in the image memory 18.

ステップS204では、図1に示す中央処理装置30の画質調整部38が、ステップS204で特定された学習画像(元画像)の画像品質を調整し、学習画像(画質調整後)を生成する。画質調整部38は、ブレ・ボケの軌跡を表すPSF(Point Spread Function)をコンボリューションすることにより、学習画像(元画像)の画像品質を調整し、学習画像(画質調整後)を生成する。   In step S204, the image quality adjustment unit 38 of the central processing unit 30 shown in FIG. 1 adjusts the image quality of the learning image (original image) specified in step S204 to generate a learning image (after image quality adjustment). The image quality adjustment unit 38 adjusts the image quality of the learning image (original image) by convolving a PSF (Point Spread Function) representing a blur / blur locus, and generates a learning image (after image quality adjustment).

図7は、図6に示す学習処理における学習画像の画像品質の変更手順を説明した概念図である。ステップS203で選択された学習画像(元画像)は、第1回目のステップS204においては、その画像品質の指標(図7に示す例ではエッジ量)が、統計的に算出された一般的な判断基準値(点76)に最も近い値(点D)になるように調整される。すなわち、画質調整部38は、画質調整によって生成される学習画像(画質調整後)のエッジ量の具体値を点Dに設定し、画質調整を行う。なお、学習画像(画質調整後)のエッジ量(ステップS204で実施される画質調整の設定値)は、プログラムメモリ20に格納される。   FIG. 7 is a conceptual diagram illustrating a procedure for changing the image quality of the learning image in the learning process shown in FIG. The learning image (original image) selected in step S203 is a general judgment in which, in the first step S204, an index of the image quality (edge amount in the example shown in FIG. 7) is statistically calculated. Adjustment is made so that the value (point D) closest to the reference value (point 76) is obtained. That is, the image quality adjustment unit 38 sets the specific value of the edge amount of the learning image (after image quality adjustment) generated by the image quality adjustment to the point D, and performs image quality adjustment. Note that the edge amount of the learning image (after image quality adjustment) (setting value of image quality adjustment performed in step S204) is stored in the program memory 20.

ステップS205では、特徴抽出部40のデータ取得部44が、プログラムメモリ20に格納されている学習画像(画質調整後)のエッジ量を取得する。なお、図6に示す第3の例では、画像品質に関する指標として、エッジ量のみが用いられる場合を例に説明を行う。   In step S205, the data acquisition unit 44 of the feature extraction unit 40 acquires the edge amount of the learning image (after image quality adjustment) stored in the program memory 20. In the third example illustrated in FIG. 6, the case where only the edge amount is used as an index relating to image quality will be described as an example.

図6に示すステップS206〜ステップS208に関する処理は、図2において説明したステップS005〜ステップS007と同様であるため、説明を省略する。   The processes related to steps S206 to S208 shown in FIG. 6 are the same as steps S005 to S007 described in FIG.

ステップS209では、中央処理装置30は、プログラムメモリ20に格納されている学習要素を調査し、既に算出された学習要素によって判断基準値を決定しても良いか否かを判断する。例えば、中央処理装置30は、プログラムメモリ20に格納されている学習要素に、評価者による判断がOKのものとNGのものが両方とも含まれている場合には、既に算出された学習要素によって判断基準値を決定しても良いと判断する。その反対に、中央処理装置30は、プログラムメモリ20に格納されている学習要素に、評価者による判断がOK及びNGのもののうちいずれか一方が含まれていない場合には、判断基準値を決定すべきでないと判断する。   In step S209, the central processing unit 30 examines the learning elements stored in the program memory 20, and determines whether or not the determination reference value may be determined based on the already calculated learning elements. For example, when the learning element stored in the program memory 20 includes both an OK evaluation and an NG determination by the evaluator, the central processing unit 30 uses the already calculated learning element. It is determined that the determination reference value may be determined. On the other hand, the central processing unit 30 determines the determination reference value when the learning element stored in the program memory 20 does not include one of the OK and NG determinations by the evaluator. Judge that it should not.

ステップS209において、中央処理装置30は、判断基準値を決定しても良いと判断した場合には、ステップS211の処理に進む。その反対に、中央処理装置39は、判断基準値を決定すべきでないと判断した場合には、ステップS210の処理に進む。   If the central processing unit 30 determines in step S209 that the determination reference value may be determined, the process proceeds to step S211. On the contrary, if the central processing unit 39 determines that the determination reference value should not be determined, the process proceeds to step S210.

ステップS210では、中央処理装置30の画質調整部38が、ステップS204で実施される画質調整の設定値を変更する。図7のケース1は、第1回目の画質調整(ステップS204)の設定値が点Dであり、その学習画像(画質調整後)についてステップS207で取得された評価者の判断がOKであった場合である。このような場合、ステップS210では、2回目の画質調整(ステップS204)の設定値を、第1回目の設定値より悪い(よりエッジ量の少ない)点Cに変更する。図7のケース2は、ケース1とは反対に、第1回目の評価者の判断がNGであった場合であり、2回目の画質調整(ステップS204)の設定値は、第1回目の設定値より良い(よりエッジ量の多い)点Eに変更する。   In step S210, the image quality adjustment unit 38 of the central processing unit 30 changes the setting value of the image quality adjustment performed in step S204. In case 1 of FIG. 7, the setting value of the first image quality adjustment (step S204) is point D, and the evaluator's judgment acquired in step S207 for the learning image (after image quality adjustment) was OK. Is the case. In such a case, in step S210, the setting value of the second image quality adjustment (step S204) is changed to a point C that is worse (smaller edge amount) than the first setting value. Case 2 in FIG. 7 is a case where the first evaluator's judgment is NG, contrary to case 1, and the setting value of the second image quality adjustment (step S204) is the first setting. Change to a point E that is better than the value (more edge amount).

ステップS210で画質調整の設定値を変更した後は、図6に示すようにステップS204〜ステップS208の処理を繰り返す。   After the image quality adjustment setting value is changed in step S210, the processing in steps S204 to S208 is repeated as shown in FIG.

ステップS211では、中央処理装置30は、評価者に対して、学習処理を終了するか否かを入力するように求める。中央処理装置30は、学習処理を終了させる旨の入力情報を取得した場合にはステップS212の処理を行う。それに対し、学習処理を続ける旨の入力情報を取得した場合には、中央処理装置30は、ステップS203の処理に戻り、学習画像(元画像)を変えてステップS203〜ステップS210の処理を繰り返す。   In step S211, the central processing unit 30 requests the evaluator to input whether to end the learning process. When the central processing unit 30 has acquired input information for ending the learning process, the central processing unit 30 performs the process of step S212. On the other hand, when the input information indicating that the learning process is to be continued is acquired, the central processing unit 30 returns to the process of step S203, changes the learning image (original image), and repeats the processes of step S203 to step S210.

ステップS212では、中央処理装置30の学習演算部36が、プログラムメモリ20に記憶された学習要素から、エッジ量に関する評価者の判断基準値を決定する。図7のケース1では、最後にOKと判断された学習画像のエッジ量が点Dであり、初めてNGと判断された学習画像のエッジ量が点Cである。この場合、学習演算部36は、点Cと点Dの中間点である点Pを、判断基準値とする。図7のケース2では、最後にNGと判断された学習画像のエッジ量が点Eであり、初めてOKと判断された学習画像のエッジ量が点Fである。この場合、学習演算部36は、点Eと点Fの中間点である点Qを、判断基準値とする。ステップS212で算出された判断基準値は、記憶装置16に格納される。   In step S <b> 212, the learning calculation unit 36 of the central processing unit 30 determines the evaluator's judgment reference value related to the edge amount from the learning elements stored in the program memory 20. In case 1 of FIG. 7, the edge amount of the learning image that is finally determined to be OK is the point D, and the edge amount of the learning image that is determined to be NG for the first time is the point C. In this case, the learning calculation unit 36 sets a point P that is an intermediate point between the point C and the point D as a determination reference value. In case 2 of FIG. 7, the edge amount of the learning image that is finally determined to be NG is the point E, and the edge amount of the learning image that is determined to be OK for the first time is the point F. In this case, the learning calculation unit 36 sets a point Q, which is an intermediate point between the points E and F, as a determination reference value. The criterion value calculated in step S212 is stored in the storage device 16.

ステップS213では、中央処理装置30が、一連の学習処理を終了させる。   In step S213, the central processing unit 30 ends a series of learning processes.

このように、図1に示す画像判断装置10は、画質調整部38によって画像品質を調整することにより、同様の構図でありながら画像品質のみが異なる学習画像を用いて、学習処理を行うことができる。したがって、画像判断装置10は、特定の画像品質に関する指標以外の影響を抑制し、評価者の要求する基準に高い精度で一致する判断基準値を得ることができる。   As described above, the image determination apparatus 10 illustrated in FIG. 1 can perform the learning process by adjusting the image quality by the image quality adjustment unit 38 and using learning images that have the same composition but differ only in the image quality. it can. Therefore, the image determination device 10 can suppress influences other than the index relating to the specific image quality, and can obtain a determination reference value that matches the reference required by the evaluator with high accuracy.

また、画像判断装置10は、画質調整部38によって画質調整を行うことにより、学習画像の指標の具体値を、適度に分散させることができる。これにより、画像判断装置10は、評価者が学習処理に要する時間及び手間を減らすことができる。また、画像判断装置10は、第1回目の画質調整で得られる学習画像(画質調整後)のエッジ量を、統計的に算出された一般的な判断基準値に近い値とすることによって、評価者が学習処理に要する時間及び手間を更に減らすことができる。   In addition, the image determination apparatus 10 can appropriately distribute the specific values of the learning image index by performing image quality adjustment by the image quality adjustment unit 38. Thereby, the image determination apparatus 10 can reduce the time and labor required for the evaluator in the learning process. Further, the image determination apparatus 10 evaluates the edge amount of the learning image (after the image quality adjustment) obtained by the first image quality adjustment by making the edge amount close to a statistically calculated general determination reference value. It is possible to further reduce the time and labor required for the learning process.

第2実施形態
図8は、本発明の第2実施形態に係る画像処理装置50のブロック図である。画像処理装置50は、中央処理装置30aが、学習処理に関する演算処理だけでなく、自動判別処理に関する演算処理を行える点で図2に示す画像判断装置10と異なるが、その他の点では画像判断装置10と同様である。
Second Embodiment FIG. 8 is a block diagram of an image processing apparatus 50 according to a second embodiment of the present invention. The image processing apparatus 50 is different from the image determination apparatus 10 shown in FIG. 2 in that the central processing unit 30a can perform not only the calculation process related to the learning process but also the calculation process related to the automatic determination process. 10 is the same.

画像処理装置50の中央処理装置30aは、図8に示すように、図1に示す中央処理装置30と同様の処理装置として機能するだけでなく、撮影画像判断部52としても機能することができる。撮影画像判断部52は、第2特徴抽出部60と、比較部54を有している。   As shown in FIG. 8, the central processing unit 30a of the image processing apparatus 50 can function not only as a processing unit similar to the central processing unit 30 shown in FIG. 1, but also as a captured image determination unit 52. . The captured image determination unit 52 includes a second feature extraction unit 60 and a comparison unit 54.

図9は、図8に示す画像処理装置50で行われる学習処理と自動判別処理の関係を表す概念図である。撮影画像判断部52は、第1実施形態において説明した学習処理で算出された評価者の判断傾向である判断基準値を用いて、撮影画像の自動判別処理を行う。また、画像処理装置50の中央処理装置30aは、撮影画像判断部52による自動判別処理の結果に基づき、撮影画像の分類等、必要な処理を行うことができる。   FIG. 9 is a conceptual diagram showing the relationship between learning processing and automatic discrimination processing performed in the image processing apparatus 50 shown in FIG. The captured image determination unit 52 performs automatic determination processing of a captured image using the determination reference value that is the evaluation tendency of the evaluator calculated in the learning process described in the first embodiment. Further, the central processing unit 30a of the image processing apparatus 50 can perform necessary processing such as classification of captured images based on the result of automatic discrimination processing by the captured image determination unit 52.

図8に示す第2特徴抽出部60は、自動判別処理の対象となる撮影画像について、画像品質に関する指標(第2指標)の具体値(第2具体値)を取得することができる。第2特徴抽出部60は、第2エッジ量算出部62と、第2データ取得部64を有する。第2エッジ量算出部62及び第2データ取得部64は、指標を取得する対象が学習画像ではなく、自動判別処理の対象となる撮影画像である点を除き、エッジ量算出部42及びデータ取得部44と同様である。   The second feature extraction unit 60 illustrated in FIG. 8 can acquire a specific value (second specific value) of an index (second index) related to image quality for a captured image that is a target of automatic discrimination processing. The second feature extraction unit 60 includes a second edge amount calculation unit 62 and a second data acquisition unit 64. The second edge amount calculation unit 62 and the second data acquisition unit 64 are the edge amount calculation unit 42 and the data acquisition except that the target for acquiring the index is not a learning image but a captured image that is a target of automatic discrimination processing. This is the same as the unit 44.

比較部54は、自動判別処理の対象となる撮影画像の指標(第2指標)の具体値(第2具体値)と、学習処理によって学習演算部36によって決定された判断基準値とを比較し、撮影画像が成功画像であるか失敗画像であるか(すなわちOKかNGか)を判断する。   The comparison unit 54 compares the specific value (second specific value) of the index (second index) of the captured image that is the target of the automatic determination process with the determination reference value determined by the learning calculation unit 36 through the learning process. Then, it is determined whether the captured image is a success image or a failure image (ie, OK or NG).

図10は、図8に示す自動判別処理の一例を表すフローチャートである。図1に示すステップS301では、画像処理装置50による自動判別処理が開始される。   FIG. 10 is a flowchart showing an example of the automatic determination process shown in FIG. In step S301 shown in FIG. 1, the automatic discrimination process by the image processing apparatus 50 is started.

ステップS302では、中央処理装置30aが、撮影画像判断部52で行われる自動判別処理に用いる判断基準値を取得する。ステップS302では、図2、図4、図6で説明した学習処理が行われても良く、予め記憶装置16等に保存された判断基準値を読み出すことによって、判断基準値を取得しても良い。   In step S <b> 302, the central processing unit 30 a acquires a determination reference value used for automatic determination processing performed by the captured image determination unit 52. In step S302, the learning process described in FIGS. 2, 4, and 6 may be performed, and the determination reference value may be acquired by reading the determination reference value stored in advance in the storage device 16 or the like. .

ステップS302では、中央処理装置30aが、自動判別処理の対象となる撮影画像を決定する。中央処理装置30aは、表示装置14にコメントを表示する等の方法により、評価者に対して、自動判別処理の対象となる撮影画像を指定するように促す。評価者は、既に記憶装置16に保存されている撮影画像や、新たに記憶装置16に保存した撮影画像を指定する。中央処理装置30aは、評価者によって指定された撮影画像を、自動判別処理の対象となる撮影画像として特定する。さらに、中央処理装置30aは、決定された撮影画像を、画像メモリ18に一時的に格納させる。なお、この際、評価者は、1つの撮影画像を指定しても良いし、複数の撮影画像を指定しても良い。   In step S302, the central processing unit 30a determines a captured image to be subjected to automatic discrimination processing. The central processing unit 30a urges the evaluator to designate a captured image that is the target of the automatic discrimination process by a method such as displaying a comment on the display device 14. The evaluator designates a captured image already stored in the storage device 16 or a captured image newly stored in the storage device 16. The central processing unit 30a specifies the captured image designated by the evaluator as the captured image that is the target of the automatic discrimination process. Further, the central processing unit 30a temporarily stores the determined captured image in the image memory 18. At this time, the evaluator may specify one captured image or a plurality of captured images.

ステップS304では、撮影画像判断部52における第2特徴抽出部60が、ステップS303で決定された撮影画像について、画像品質に関する指標(第2指標)の具体値(第2具体値)を取得する。ステップS304で取得される具体値(第2具体値)は、ステップS302で取得された判断基準値と比較できるように、当該判断基準値を決定した際の学習処理において使用された指標と同一の指標に関する具体値であることが好ましい。例えば、学習処理において使用された指標がエッジ量及びシャッタスピードであれば、第2特徴抽出部60の第2エッジ量算出部62が撮影画像のエッジ量を算出し、第2取得部64が撮影画像のシャッタスピードを取得する。   In step S304, the second feature extraction unit 60 in the photographed image determination unit 52 acquires the specific value (second concrete value) of the index (second index) related to the image quality for the photographed image determined in step S303. The specific value (second specific value) acquired in step S304 is the same as the index used in the learning process when determining the determination reference value so that it can be compared with the determination reference value acquired in step S302. A specific value relating to the index is preferable. For example, if the index used in the learning process is the edge amount and the shutter speed, the second edge amount calculation unit 62 of the second feature extraction unit 60 calculates the edge amount of the captured image, and the second acquisition unit 64 captures the image. Get the shutter speed of the image.

ステップS305では、撮影画像判断部52における比較部54が、ステップS304で取得された撮影画像の具体値(第2具体値)と、ステップS302で取得された判断基準値を比較する。これにより、比較部54は、自動判別処理の対象である撮影画像がOKかNGかを判断する。ステップS305において、比較部54が撮影画像はOKだと判断した場合はステップS306へ進み、撮影画像はNGだと判断した場合はステップS307へ進む。   In step S305, the comparison unit 54 in the captured image determination unit 52 compares the specific value (second specific value) of the captured image acquired in step S304 with the determination reference value acquired in step S302. Accordingly, the comparison unit 54 determines whether the captured image that is the target of the automatic determination process is OK or NG. In step S305, if the comparison unit 54 determines that the captured image is OK, the process proceeds to step S306, and if it is determined that the captured image is NG, the process proceeds to step S307.

ステップS306及びステップS307では、中央処理装置30aが、自動判別処理の結果に基づき、撮影画像の分類を行う。すなわち、ステップS306では、中央処理装置30aは、OKと判断された撮影画像を、記憶装置16に作成されたOK画像フォルダに分類する。また、ステップS307では、中央処理装置30aは、NGと判断された撮影画像を、NG画像フォルダに分類する。なお、ステップS307において、中央処理装置30aは、NGと判断された撮影画像を記憶装置16から削除する処理を行っても良い。   In steps S306 and S307, the central processing unit 30a classifies the captured images based on the result of the automatic discrimination process. That is, in step S306, the central processing unit 30a classifies the captured images determined to be OK into an OK image folder created in the storage device 16. In step S307, the central processing unit 30a classifies the captured images determined to be NG into NG image folders. In step S307, the central processing unit 30a may perform processing for deleting the captured image determined to be NG from the storage device 16.

ステップS308では、中央処理装置30aは、評価者に対して、自動判別処理を終了するか否かを入力するように求める。中央処理装置30aは、自動判別処理を終了させる旨の入力情報を取得した場合には、ステップS309の処理へ進む。それに対し、自動判別処理を続ける旨の入力情報を取得した場合には、中央処理装置30aはステップS303の処理に戻り、対象となる撮影画像を変えてステップS003〜ステップS307の処理を繰り返す。   In step S308, the central processing unit 30a requests the evaluator to input whether or not to end the automatic discrimination process. When the central processing unit 30a has acquired input information for ending the automatic discrimination process, the central processing unit 30a proceeds to the process of step S309. On the other hand, when the input information indicating that the automatic discrimination processing is continued is acquired, the central processing unit 30a returns to the processing of step S303, changes the target captured image, and repeats the processing of steps S003 to S307.

ステップS309では、中央処理装置30aが、一連の自動判別処理を終了させる。   In step S309, the central processing unit 30a ends a series of automatic determination processes.

このように、図8に示す画像処理装置50は、特定の個人である評価者の判断傾向を、学習・認識し、学習処理によって得られた判断基準値に基づき、撮影画像の自動判別処理を行うことができる。したがって、画像処理装置50は、評価者個人が求める判断基準に対して高い精度で一致する判断基準に基づく自動判別処理を行うことができる。なお、画像処理装置50は、図1に示す画像判断装置10と同様の効果を奏する。   As described above, the image processing apparatus 50 shown in FIG. 8 learns and recognizes the judgment tendency of the evaluator who is a specific individual, and performs the automatic discrimination process of the captured image based on the judgment reference value obtained by the learning process. It can be carried out. Therefore, the image processing apparatus 50 can perform automatic discrimination processing based on a judgment criterion that matches with high accuracy the judgment criteria required by the evaluator. The image processing device 50 has the same effect as the image determination device 10 shown in FIG.

10…画像判断装置
12…入力装置
14…表示装置
16…記憶装置
18…画像メモリ
20…プログラムメモリ
30,30a…中央処理装置
32…判断入力処理部
34…画像サイズ取得部
36…学習演算部
38…画質調整部
40…特徴抽出部
42…エッジ量算出部
44…データ取得部
46…主成分分析部
50…画像処理装置
52…撮影画像判断部
54…比較部
60…第2特徴抽出部
62…第2エッジ量算出部
64…第2データ取得部
DESCRIPTION OF SYMBOLS 10 ... Image judgment apparatus 12 ... Input device 14 ... Display apparatus 16 ... Memory | storage device 18 ... Image memory 20 ... Program memory 30, 30a ... Central processing unit 32 ... Judgment input process part 34 ... Image size acquisition part 36 ... Learning calculating part 38 Image quality adjustment unit 40 ... Feature extraction unit 42 ... Edge amount calculation unit 44 ... Data acquisition unit 46 ... Principal component analysis unit 50 ... Image processing device 52 ... Captured image determination unit 54 ... Comparison unit 60 ... Second feature extraction unit 62 ... Second edge amount calculation unit 64 ... second data acquisition unit

Claims (8)

学習画像を記憶する第1記憶部と、
前記学習画像について、画像品質に関する指標の具体値を取得する特徴抽出部と、
前記学習画像を所定の表示条件で表示する表示部と、
前記表示部によって表示された前記学習画像に対する評価者の判断結果を取得する入力部と、
前記判断結果と前記具体値を対応させた学習要素を記憶する第2記憶部と、
前記学習要素から、前記指標に関する前記評価者の判断基準値を決定する学習演算部と、
を有する画像判断装置。
A first storage unit for storing a learning image;
For the learning image, a feature extraction unit that acquires a specific value of an index related to image quality;
A display unit for displaying the learning image under a predetermined display condition;
An input unit for obtaining a judgment result of an evaluator for the learning image displayed by the display unit;
A second storage unit that stores a learning element that associates the determination result with the specific value;
From the learning element, a learning calculation unit that determines a judgment reference value of the evaluator regarding the index;
An image determination apparatus having
前記特徴抽出部は主成分分析部を有し、
前記主成分分析部は、画像品質に関する2以上の暫定指標に各々対応する暫定具体値を、2以上の前記学習画像の各々について取得し、前記暫定具体値について主成分分析を行い、2以上の前記暫定指標が統合された主成分に関する前記具体値を算出することを特徴とする請求項1に記載の画像判断装置。
The feature extraction unit includes a principal component analysis unit;
The principal component analysis unit obtains provisional concrete values corresponding to two or more provisional indices relating to image quality for each of the two or more learning images, performs principal component analysis on the provisional concrete values, and performs two or more provisional values. The image determination apparatus according to claim 1, wherein the specific value related to the principal component integrated with the provisional index is calculated.
前記学習演算部は、前記学習要素について判別分析を行い、前記判断基準値を決定することを特徴とする請求項1又は請求項2に記載の画像判断装置。   The image determination apparatus according to claim 1, wherein the learning calculation unit performs a discriminant analysis on the learning element and determines the determination reference value. 前記評価者によって選択された画像鑑賞サイズを取得し、前記画像鑑賞サイズを前記表示条件に反映させる画像サイズ取得部をさらに有することを特徴とする請求項1から請求項3までのいずれかに記載の画像判断装置。   The image viewing size selected by the evaluator is acquired, and the image viewing size is further reflected on the display condition, and further includes an image size obtaining unit. Image judging device. 前記学習画像の画像品質を調整する画質調整部をさらに有し、
前記画質調整部は、前記学習画像の前記指標の前記具体値が、予め定められた第1の値になるように前記学習画像の画像品質を調整し、
前記表示部は、前記画質調整部によって調整された前記学習画像を表示することを特徴とする請求項1から請求項4までのいずれかに記載の画像判断装置。
An image quality adjustment unit for adjusting the image quality of the learning image;
The image quality adjustment unit adjusts the image quality of the learning image so that the specific value of the index of the learning image becomes a predetermined first value;
The image determination apparatus according to claim 1, wherein the display unit displays the learning image adjusted by the image quality adjustment unit.
請求項1から請求項5までのいずれかに記載の画像判断装置と、
撮影された撮影画像について、画像品質に関する第2指標の第2具体値を取得し、前記撮影画像の前記第2具体値と、前記画像判断装置によって決定された前記判断基準値とを比較して、前記撮影画像を判断する撮影画像判断部と、
を有する画像処理装置。
An image determination device according to any one of claims 1 to 5,
A second specific value of a second index relating to image quality is acquired for the captured image, and the second specific value of the captured image is compared with the determination reference value determined by the image determination device. A photographed image judging unit for judging the photographed image;
An image processing apparatus.
請求項6に記載の画像処理装置を有するカメラ。   A camera comprising the image processing apparatus according to claim 6. コンピュータに、
第1記憶部に記憶された学習画像を読み出す手順と、
前記学習画像について、画像品質に関する指標の具体値を算出する手順と、
前記学習画像を所定の表示条件で表示する手順と、
前記表示部によって表示された前記学習画像に対する評価者の判断結果を取得する手順と、
前記判断結果と前記指標の前記具体値とを対応させた学習要素を記憶させる手順と、
前記学習要素から、前記指標に関する前記評価者の判断基準値を決定する手順と、を実行させるための画像判断プログラム。
On the computer,
A procedure for reading the learning image stored in the first storage unit;
A procedure for calculating a specific value of an index related to image quality for the learning image;
Displaying the learning image under predetermined display conditions;
A procedure for obtaining a judgment result of an evaluator for the learning image displayed by the display unit;
Storing a learning element that associates the determination result with the specific value of the indicator;
An image determination program for executing, from the learning element, a procedure for determining a determination reference value of the evaluator regarding the index.
JP2011027628A 2011-02-10 2011-02-10 Image determination apparatus, image processor, camera and image determination program Withdrawn JP2012168641A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011027628A JP2012168641A (en) 2011-02-10 2011-02-10 Image determination apparatus, image processor, camera and image determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011027628A JP2012168641A (en) 2011-02-10 2011-02-10 Image determination apparatus, image processor, camera and image determination program

Publications (1)

Publication Number Publication Date
JP2012168641A true JP2012168641A (en) 2012-09-06

Family

ID=46972762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011027628A Withdrawn JP2012168641A (en) 2011-02-10 2011-02-10 Image determination apparatus, image processor, camera and image determination program

Country Status (1)

Country Link
JP (1) JP2012168641A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020008710A1 (en) * 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 Learning data collection device, learning data collection system, and learning data collection method
JP2020037356A (en) * 2018-09-05 2020-03-12 株式会社明電舎 Overhead wire abrasion inspection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020008710A1 (en) * 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 Learning data collection device, learning data collection system, and learning data collection method
JP2020008904A (en) * 2018-07-02 2020-01-16 パナソニックIpマネジメント株式会社 Learning data collection apparatus, learning data collection system and learning data collection method
JP7122625B2 (en) 2018-07-02 2022-08-22 パナソニックIpマネジメント株式会社 LEARNING DATA COLLECTION DEVICE, LEARNING DATA COLLECTION SYSTEM, AND LEARNING DATA COLLECTION METHOD
JP2020037356A (en) * 2018-09-05 2020-03-12 株式会社明電舎 Overhead wire abrasion inspection device
JP7024669B2 (en) 2018-09-05 2022-02-24 株式会社明電舎 Overhead line wear inspection device

Similar Documents

Publication Publication Date Title
US10467729B1 (en) Neural network-based image processing
US9432575B2 (en) Image processing apparatus
JP4906034B2 (en) Imaging apparatus, method, and program
JP4840426B2 (en) Electronic device, blurred image selection method and program
US8081227B1 (en) Image quality visual indicator
EP3044947B1 (en) Automated selection of keeper images from a burst photo captured set
JP4519708B2 (en) Imaging apparatus and method, and program
KR101060488B1 (en) Optimal Image Selection Method and Device
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP4998630B2 (en) Image processing apparatus and image evaluation program
JP5164692B2 (en) Image processing apparatus, image processing method, and program
JP2007096405A (en) Method, device and program for judging direction of camera shake
US20060082672A1 (en) Filtering digital images
JP2006259788A (en) Image output device
US9628727B2 (en) Information processing apparatus and method, and image capturing system determining or acquiring target noise amount
JP4349380B2 (en) IMAGING DEVICE, METHOD FOR OBTAINING IMAGE
CA3077974A1 (en) Photography session assistant
US9628715B2 (en) Photographing equipment, photographing assisting method, display apparatus and display method
JP4493416B2 (en) Image processing method, apparatus, and program
JP2004282570A (en) Image processor
JP2018084861A (en) Information processing apparatus, information processing method and information processing program
EP2200275B1 (en) Method and apparatus of displaying portrait on a display
JP2012185552A (en) Image determination device, image processor, camera, and image determination program
JP2012168641A (en) Image determination apparatus, image processor, camera and image determination program
JP2007258923A (en) Image processing apparatus, image processing method, image processing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513