JP5825172B2 - Image determination apparatus, image determination method, and computer program for image determination - Google Patents

Image determination apparatus, image determination method, and computer program for image determination Download PDF

Info

Publication number
JP5825172B2
JP5825172B2 JP2012075102A JP2012075102A JP5825172B2 JP 5825172 B2 JP5825172 B2 JP 5825172B2 JP 2012075102 A JP2012075102 A JP 2012075102A JP 2012075102 A JP2012075102 A JP 2012075102A JP 5825172 B2 JP5825172 B2 JP 5825172B2
Authority
JP
Japan
Prior art keywords
image
sharpness
partial
images
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012075102A
Other languages
Japanese (ja)
Other versions
JP2013206175A (en
Inventor
小林 弘幸
弘幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012075102A priority Critical patent/JP5825172B2/en
Publication of JP2013206175A publication Critical patent/JP2013206175A/en
Application granted granted Critical
Publication of JP5825172B2 publication Critical patent/JP5825172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、例えば、同一の被写体が写った複数の画像の画質を判定して、画質の良好な画像を選択する画像判定装置、画像判定方法及び画像判定用コンピュータプログラムに関する。   The present invention relates to, for example, an image determination apparatus, an image determination method, and an image determination computer program that determine the image quality of a plurality of images including the same subject and select images with good image quality.

被写体を連写することで、その被写体が写った複数の画像を生成し、それら複数の画像の中から、ユーザが最も気に入った画像を選択することがある。特に近年、連写機能を備えたデジタルカメラの普及に伴い、全ての画像をフィルムに焼き付ける必要がなくなったため、ユーザは、そのような画像の選択を手軽に行えるようになっている。また、被写体を連続的に撮影して得られた複数の画像のなかから良好な画像を自動的に選択する技術も提案されている(例えば、特許文献1及び2を参照)。   By continuously shooting the subject, a plurality of images showing the subject may be generated, and the user may select the most favorite image from the plurality of images. In particular, with the recent spread of digital cameras equipped with a continuous shooting function, it is no longer necessary to print all images on a film, so that the user can easily select such images. There has also been proposed a technique for automatically selecting a good image from a plurality of images obtained by continuously photographing a subject (see, for example, Patent Documents 1 and 2).

例えば、特許文献1には、画面上に部分的に設けられた評価エリア内において、画像データの良否評価を行い、良否評価を行った画像データの中から、評価の高い画像データを選別して記録する技術が開示されている。   For example, in Patent Document 1, the quality of image data is evaluated in an evaluation area partially provided on the screen, and image data with high evaluation is selected from the image data subjected to the quality evaluation. A technique for recording is disclosed.

また特許文献2には、画像データにおけるピントの合焦度合い、及びぶれの度合いのうちの少なくとも何れか一方により画像データの合否を判定し、合格判定がなされた画像データのみを表示する技術が開示されている。   Patent Document 2 discloses a technique for determining whether or not the image data is acceptable based on at least one of the focus degree and the degree of blurring in the image data, and displaying only the image data for which the pass determination has been made. Has been.

特開2000−209483号公報JP 2000-209383 A 特開2006−311340号公報JP 2006-31340 A

しかしながら、ポートレート写真のように、被写体の種類によっては、画像の一部だけが重要であり、その他の部分については重要でないことがある。そのため、画像全体での合焦の度合いなど、画像全体から求められる画質の指標によって画質を評価しても、画像の良否が適切に判定されないおそれがあった。   However, like a portrait photograph, depending on the type of subject, only a part of the image may be important and the other parts may not be important. Therefore, even if the image quality is evaluated based on an image quality index obtained from the entire image, such as the degree of focusing on the entire image, the quality of the image may not be properly determined.

また、被写体が特定されていなければ、画像の良否を判定する装置は、画像の良否を判断する際に、画像上のどの位置に被写体の重要な部分が写っているのかを予め知ることはできない。例えば、被写体が紙面であり、その紙面に記載された文字列のうちの一部が画像として残したい情報であることがある。しかし、その文字列のうちの一部が、画像上のどの位置に写るかは、その紙面を撮影しようとするユーザにしか分からない。そのため、予め設定された画像上の特定部分には、被写体の重要な部分が写っていないことがある。そのため、その特定部分のデータだけを用いて画像全体の良否を判定しても、画像の良否が適切に判定されないおそれがあった。   Further, if the subject is not specified, the device that determines the quality of the image cannot know in advance in which position on the image the important part of the subject appears when determining the quality of the image. . For example, there may be a case where the subject is a paper surface and a part of a character string written on the paper surface is information to be left as an image. However, only a user who wants to take a picture of the page knows where in the image a part of the character string appears. Therefore, an important part of the subject may not be shown in the specific part on the preset image. For this reason, even if the quality of the entire image is determined using only the data of the specific part, the quality of the image may not be determined appropriately.

そこで本明細書は、画像上での被写体の位置または被写体の種類によらずに、その被写体が写った複数の画像の中で画質が良好な画像を選択可能な画像判定装置を提供することを目的とする。   Accordingly, the present specification provides an image determination apparatus capable of selecting an image with good image quality from among a plurality of images in which the subject is captured, regardless of the position of the subject on the image or the type of the subject. Objective.

一つの実施形態によれば、画像判定装置が提供される。この画像判定装置は、同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割する分割部と、複数の画像のそれぞれについて、部分領域ごとにその部分領域に写っている被写体の部位の像の鮮鋭度を求める鮮鋭度算出部と、複数の部分領域のそれぞれについて、複数の画像のその部分領域の鮮鋭度のうちで最も高い鮮鋭度をその部分領域の基準鮮鋭度とする基準鮮鋭度決定部と、複数の画像のそれぞれについて、部分領域ごとの基準鮮鋭度とその画像のその部分領域の鮮鋭度との差が小さいほど高くなる評価値を算出し、その評価値に基づいて複数の画像の中から画質が良好な画像を選択し、選択した画像を表す識別情報を出力する評価部とを有する。   According to one embodiment, an image determination device is provided. This image determination apparatus is configured to divide each of a plurality of images showing the same subject into a plurality of partial regions, and for each of the plurality of images, the subject of each subject in the partial region. A sharpness calculation unit for determining the sharpness of the image of the part, and a reference for setting the highest sharpness of the partial areas of the plurality of images as the reference sharpness of the partial areas for each of the partial areas For each of the plurality of images, the sharpness determination unit calculates an evaluation value that increases as the difference between the reference sharpness for each partial region and the sharpness of the partial region of the image decreases, and based on the evaluation value An evaluation unit that selects an image with good image quality from a plurality of images and outputs identification information representing the selected image.

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された画像判定装置は、画像上での被写体の位置または被写体の種類によらずに、その被写体が写った複数の画像の中で画質が良好な画像を選択できる。   The image determination apparatus disclosed in this specification can select an image with good image quality from among a plurality of images in which the subject is captured, regardless of the position of the subject on the image or the type of the subject.

画像判定装置が組み込まれた撮像装置の構成図である。It is a block diagram of the imaging device with which the image determination apparatus was incorporated. 第1の実施形態による画像判定装置の構成図である。It is a block diagram of the image determination apparatus by 1st Embodiment. ラプラシアンフィルタの一例である。It is an example of a Laplacian filter. 一つの部分領域についてのエッジ強度のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of the edge intensity | strength about one partial area | region. (a)は、同じ被写体が写った複数の画像それぞれの部分領域ごとに求められた鮮鋭度の一例を表す。(b)は、(a)に示された各画像から決定された、部分領域ごとの基準鮮鋭度を表す。(A) represents an example of the sharpness calculated | required for every partial area | region of each of the some image in which the same subject was reflected. (B) represents the reference sharpness for each partial region determined from each image shown in (a). 減点関数D(α)を表す減点関数テーブルの一例である。It is an example of a deduction function table representing a deduction function D (α). 第1の実施形態による画像判定処理の動作フローチャートである。It is an operation | movement flowchart of the image determination process by 1st Embodiment. 第2の実施形態による画像判定装置の構成図である。It is a block diagram of the image determination apparatus by 2nd Embodiment. 除外領域特定処理の動作フローチャートである。It is an operation | movement flowchart of an exclusion area | region specific process. (a)は、鮮明でない部位を含む被写体の一例を示す図である。(b)は、(a)に示された被写体が写った画像に対して設定される部分領域を示す図である。(c)は、(b)に示された枠線で囲まれた領域の拡大図である。(A) is a figure showing an example of a subject including a part which is not clear. (B) is a figure which shows the partial area | region set with respect to the image which image | photographed the to-be-photographed object shown to (a). (C) is an enlarged view of a region surrounded by a frame line shown in (b). 第2の実施形態による画像判定処理の動作フローチャートである。It is an operation | movement flowchart of the image determination process by 2nd Embodiment. 各実施形態またはその変形例による画像判定装置の各部の機能を実現するコンピュータプログラムが動作することにより、画像判定装置として動作するコンピュータの構成図である。It is a block diagram of the computer which operate | moves as an image determination apparatus by the computer program which implement | achieves the function of each part of the image determination apparatus by each embodiment or its modification.

以下、図を参照しつつ、幾つかの実施形態による画像判定装置について説明する。
この画像判定装置は、同一の被写体が写った複数の画像のうちで画質が良好な画像を判定する。そのために、この画像判定装置は、各画像を複数の部分領域に分割し、部分領域ごとに、その部分領域に写っている被写体の像の鮮鋭度を求める。そしてこの画像判定装置は、部分領域ごとに、複数の画像のその部分領域の鮮鋭度のうちで最も高い鮮鋭度をその部分領域の基準鮮鋭度とする。基準鮮鋭度に対応する部分領域をすべて集めて合成した画像は、同一の被写体が写った一連の画像の中から、もっともピントが合った部分領域を合成したものに相当する。したがって、各部分領域の基準鮮鋭度からの鮮鋭度の低下度合いが低い画像ほど、画像全体にわたってボケが少ないと推定される。そこでこの画像判定装置は、個々の画像について、部分領域ごとの基準鮮鋭度からのその画像の鮮鋭度の低下度合いが小さいほど高くなる評価値を求め、その評価値に基づいて画質が良好な画像を選択する。
Hereinafter, an image determination apparatus according to some embodiments will be described with reference to the drawings.
This image determination apparatus determines an image with good image quality among a plurality of images in which the same subject is captured. For this purpose, the image determination apparatus divides each image into a plurality of partial areas, and obtains the sharpness of the image of the subject in the partial area for each partial area. And this image determination apparatus makes the highest sharpness among the sharpness of the partial area of a some image for every partial area as the reference | standard sharpness of the partial area. An image obtained by collecting and synthesizing all partial areas corresponding to the reference sharpness corresponds to a composition of partial areas that are in focus among a series of images in which the same subject is captured. Therefore, it is estimated that an image having a lower degree of reduction in sharpness from the reference sharpness of each partial region has less blur over the entire image. Therefore, this image determination device obtains an evaluation value that increases as the degree of decrease in the sharpness of the image from the reference sharpness for each partial region becomes smaller for each image, and an image with good image quality based on the evaluation value. Select.

また、本実施形態では、処理対象となる画像は、各画素が輝度値のみを持つグレー画像である。あるいは、処理対象となる画像は、RGB表色系で表されるカラー画像であってもよい。この場合には、カラー画像は、HSV表色系に変換された後、各画素の輝度成分について、下記に説明する処理が実行されればよい。   In this embodiment, the image to be processed is a gray image in which each pixel has only a luminance value. Alternatively, the image to be processed may be a color image expressed in the RGB color system. In this case, after the color image is converted into the HSV color system, the processing described below may be executed for the luminance component of each pixel.

図1は、一つの実施形態による画像判定装置が組み込まれた撮像装置の概略構成図である。撮像装置1は、被写体を所定の撮影間隔(例えば、3〜5フレーム/秒)で連続して撮影することにより、同一の被写体が写った複数の画像を生成可能な撮像装置であり、例えば、連写機能を有するカメラを搭載した携帯電話機、あるいはデジタルカメラである。図1に示すように、撮像装置1は、カメラモジュール2と、操作部3と、表示部4と、記憶部5と、画像判定装置6と、制御部7とを有する。さらに撮像装置1は、撮像装置1をコンピュータ、またはテレビといった他の機器と接続するために、ユニバーサルシリアルバスなどのシリアルバス規格に従ったインターフェース回路(図示せず)を有していてもよい。また制御部7と、撮像装置1のその他の各部とは、例えば、バスにより接続されている。   FIG. 1 is a schematic configuration diagram of an imaging apparatus in which an image determination apparatus according to one embodiment is incorporated. The imaging device 1 is an imaging device that can generate a plurality of images of the same subject by continuously shooting the subject at a predetermined shooting interval (for example, 3 to 5 frames / second). A mobile phone equipped with a camera having a continuous shooting function or a digital camera. As illustrated in FIG. 1, the imaging device 1 includes a camera module 2, an operation unit 3, a display unit 4, a storage unit 5, an image determination device 6, and a control unit 7. Furthermore, the imaging device 1 may have an interface circuit (not shown) according to a serial bus standard such as a universal serial bus in order to connect the imaging device 1 to another device such as a computer or a television. The control unit 7 and other units of the imaging device 1 are connected by, for example, a bus.

カメラモジュール2は、2次元状に配置された固体撮像素子のアレイを有するイメージセンサと、そのイメージセンサ上に被写体の像を結像する撮像光学系とを有する。そしてカメラモジュール2は、制御部7から通知された絞り径及びシャッター速度により被写体の像が写った画像を生成する。本実施形態では、カメラモジュール2は、適正な露光量となるように調整された絞り径及びシャッター速度にて被写体を連続的に撮影し、その撮影の度に画像を生成する。そしてカメラモジュール2は、各画像をその撮影時刻とともに記憶部5に記憶させる。   The camera module 2 includes an image sensor having an array of solid-state imaging elements arranged in a two-dimensional manner, and an imaging optical system that forms an image of a subject on the image sensor. And the camera module 2 produces | generates the image which image | photographed the object with the aperture diameter and shutter speed notified from the control part 7. FIG. In the present embodiment, the camera module 2 continuously shoots the subject with the aperture diameter and shutter speed adjusted so as to obtain an appropriate exposure amount, and generates an image every time the image is taken. And the camera module 2 memorize | stores each image in the memory | storage part 5 with the imaging | photography time.

操作部3は、例えば、撮像装置1をユーザが操作するための各種の操作ボタンまたはダイヤルスイッチを有する。そして操作部3は、ユーザの操作に応じて、撮影または合焦の開始などの制御信号またはシャッター速度、絞り径などを設定するための設定信号を制御部7へ送信する。   The operation unit 3 includes, for example, various operation buttons or dial switches for the user to operate the imaging device 1. The operation unit 3 transmits to the control unit 7 a control signal for setting the shutter speed, the aperture diameter, or the like, or a control signal for starting shooting or focusing, in accordance with a user operation.

表示部4は、例えば、液晶ディスプレイ装置といった表示装置を有し、制御部7から受け取った各種の情報、またはカメラモジュール2により生成された画像またはその縮小画像を表示する。なお、操作部3と表示部4とは、例えば、タッチパネルディスプレイを用いて一体的に形成されてもよい。   The display unit 4 includes, for example, a display device such as a liquid crystal display device, and displays various types of information received from the control unit 7 or an image generated by the camera module 2 or a reduced image thereof. Note that the operation unit 3 and the display unit 4 may be integrally formed using, for example, a touch panel display.

記憶部5は、例えば、読み書き可能な揮発性または不揮発性の半導体メモリ回路を有する。そして記憶部5は、カメラモジュール2から受け取った画像を記憶する。また記憶部5は、画像判定装置6からの読み出し要求によって画像を画像判定装置6へ渡す。また、記憶部5は、画像判定装置6により実行される画像判定処理で利用される各種のデータまたは中間計算結果を記憶してもよい。さらに記憶部5は、制御部7からの画像消去命令によって同一の被写体が写った複数の画像のうちの画質が最良と判断された画像以外の画像を消去する。さらに、画像判定装置6が有する各機能が、制御部7が有するプロセッサ上で実行されるコンピュータプログラムにより実現される場合、そのコンピュータプログラムを記憶してもよい。   The storage unit 5 includes, for example, a readable / writable volatile or nonvolatile semiconductor memory circuit. The storage unit 5 stores the image received from the camera module 2. The storage unit 5 passes the image to the image determination device 6 in response to a read request from the image determination device 6. Further, the storage unit 5 may store various data used in the image determination process executed by the image determination device 6 or intermediate calculation results. Further, the storage unit 5 erases images other than the image determined to have the best image quality among a plurality of images in which the same subject is captured by the image erasing command from the control unit 7. Furthermore, when each function of the image determination device 6 is realized by a computer program executed on a processor of the control unit 7, the computer program may be stored.

画像判定装置6は、同一の被写体を連続して撮影することにより得られた複数の画像の中から、画質が最良な画像を選択する。そして画像判定装置6は、選択した画像の識別情報を制御部7へ通知する。なお、画像判定装置6の詳細については後述する。   The image determination device 6 selects an image having the best image quality from a plurality of images obtained by continuously photographing the same subject. Then, the image determination device 6 notifies the control unit 7 of the identification information of the selected image. The details of the image determination device 6 will be described later.

制御部7は、少なくとも一つのプロセッサ及びその周辺回路を有し、撮像装置1全体を制御する。例えば、制御部7は、操作部3から受け取った設定信号及び被写体の露光量に応じて、シャッタースピードまたは絞り径を設定する。また制御部7は、各画像に対してカラーバランスを調整したり、エッジ強調またはコントラスト強調といった処理を実行してもよい。さらに制御部7は、同一の被写体が写った複数の画像のうちで画像判定装置6により画質が最良と判断された画像を他の装置へ出力したり、あるいは、表示部4に表示させる。あるいは、制御部7は、同一の被写体が写った複数の画像のうち、画質が最良と判断された画像以外を消去する命令を記憶部5へ通知してもよい。   The control unit 7 includes at least one processor and its peripheral circuits, and controls the entire imaging apparatus 1. For example, the control unit 7 sets the shutter speed or the aperture diameter according to the setting signal received from the operation unit 3 and the exposure amount of the subject. Further, the control unit 7 may adjust the color balance for each image, or execute processing such as edge enhancement or contrast enhancement. Further, the control unit 7 outputs an image determined to be the best image quality by the image determination device 6 among a plurality of images including the same subject, or causes the display unit 4 to display the image. Alternatively, the control unit 7 may notify the storage unit 5 of an instruction to delete other than the image determined to have the best image quality among a plurality of images in which the same subject is captured.

以下、画像判定装置6の各構成要素について説明する。図2に、画像判定装置6の構成図を示す。画像判定装置6は、分割部11と、鮮鋭度算出部12と、基準鮮鋭度決定部13と、評価部14とを有する。
画像判定装置6が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として形成される。また、画像判定装置6が有するこれらの各部は、それぞれ、別個の回路として形成されてもよい。
Hereinafter, each component of the image determination apparatus 6 will be described. In FIG. 2, the block diagram of the image determination apparatus 6 is shown. The image determination device 6 includes a dividing unit 11, a sharpness calculation unit 12, a reference sharpness determination unit 13, and an evaluation unit 14.
These units included in the image determination device 6 are formed as one integrated circuit in which circuits corresponding to the units are integrated. In addition, these units included in the image determination device 6 may be formed as separate circuits.

画像判定装置6は、記憶部5から同一の被写体が写った複数の画像を読み込む。なお、画像判定装置6は、例えば、各画像の撮影時刻を調べ、最も早い撮影時刻から最も遅い撮影時刻までの時間差が、同一の被写体を撮影したとみなせる所定期間内となる複数の画像に同一の被写体が写っていると判定する。なお、所定期間は、例えば、カメラモジュール2の一回の連写で撮影可能なフレーム数に連写時の撮影間隔を乗じた期間とすることができる。
あるいは、画像判定装置6は、ユーザが表示部4に表示された画像を確認しながら、操作部3を操作することにより選択した画像を、同一の被写体が写っていると判定し、その選択された画像を記憶部5から読み込んでもよい。
画像判定装置6は、読み込んだ各画像を分割部11へ順次渡す。
The image determination device 6 reads a plurality of images showing the same subject from the storage unit 5. For example, the image determination device 6 checks the shooting time of each image, and the time difference from the earliest shooting time to the latest shooting time is the same for a plurality of images within a predetermined period in which it can be considered that the same subject was shot. It is determined that the subject is captured. For example, the predetermined period can be a period obtained by multiplying the number of frames that can be captured by one continuous shooting of the camera module 2 by the shooting interval at the time of continuous shooting.
Alternatively, the image determination device 6 determines that the same subject is captured in the image selected by operating the operation unit 3 while confirming the image displayed on the display unit 4 by the user, and the selected image is selected. The read image may be read from the storage unit 5.
The image determination device 6 sequentially passes the read images to the dividing unit 11.

分割部11は、同一の被写体が写っている各画像を、複数の部分領域に分割する。分割部11は、各部分領域が、その部分領域についての鮮鋭度を算出するのに十分なサイズを持つように画像を分割する。なお、各画像に対して設定される分割領域は同一とする。例えば、分割部11は、各画像を、横3×縦3個の矩形形状を持つ部分領域に分割する。   The dividing unit 11 divides each image showing the same subject into a plurality of partial areas. The dividing unit 11 divides the image so that each partial area has a size sufficient to calculate the sharpness of the partial area. The divided areas set for each image are the same. For example, the dividing unit 11 divides each image into partial regions each having a rectangular shape of 3 × 3.

分割部11は、各部分領域に対して、例えば、左上端の部分領域からラスタスキャン順に識別番号を付し、各部分領域をその部分領域の識別番号とともに鮮鋭度算出部12へ渡す。   For example, the dividing unit 11 assigns identification numbers to the partial areas in the raster scan order from the upper left partial area, and passes each partial area to the sharpness calculation unit 12 together with the identification number of the partial area.

鮮鋭度算出部12は、各部分領域に写っている被写体の像の鮮鋭度を算出する。例えば、本実施形態では、部分領域に含まれる被写体の一部が写っている画像の総数に対する被写体のエッジに相当する画素の数の比を鮮鋭度とする。そのために、鮮鋭度算出部12は、部分領域内の各画素に対してラプラシアンフィルタを適用することで画素ごとのエッジ強度を求める。   The sharpness calculation unit 12 calculates the sharpness of the image of the subject in each partial area. For example, in this embodiment, the ratio of the number of pixels corresponding to the edge of the subject to the total number of images in which a part of the subject included in the partial area is captured is defined as the sharpness. For this purpose, the sharpness calculation unit 12 obtains the edge strength for each pixel by applying a Laplacian filter to each pixel in the partial region.

図3は、本実施形態で用いられるラプラシアンフィルタの一例である。本実施形態では、ラプラシアンフィルタ300は、横3×縦3の画素を持つフィルタであり、縦方向及び横方向の2次微分値を提供する。本実施形態では、ラプラシアンフィルタ300は、次式に表される値を出力する。
L(x,y)=4p(x,y)-p(x-1,y)-p(x+1,y)-p(x,y-1)-p(x,y+1)
p(x,y)は、横方向座標x、縦方向座標yの画素値であり、L(x,y)は、座標(x,y)の画素に対するラプラシアンフィルタ300の出力値であるエッジ強度を表す。
なお、使用可能なラプラシアンフィルタは、横5×縦5画素を持つラプラシアンフィルタであってもよい。また鮮鋭度算出部12は、部分領域内の画素ごとに、1次微分フィルタを適用することにより、画素ごとのエッジ強度を求めてもよい。例えば、鮮鋭度算出部12は、画素ごとに、水平方向のsobelフィルタを適用して水平方向のエッジ強度を算出し、かつ、垂直方向のsobelフィルタを適用して垂直方向のエッジ強度を算出する。そして鮮鋭度算出部12は、画素ごとに、水平方向のエッジ強度の絶対値と垂直方向のエッジ強度の絶対値のうちの大きい方を、その画素のエッジ強度としてもよい。
FIG. 3 is an example of a Laplacian filter used in the present embodiment. In this embodiment, the Laplacian filter 300 is a filter having horizontal 3 × vertical 3 pixels, and provides secondary differential values in the vertical direction and the horizontal direction. In the present embodiment, the Laplacian filter 300 outputs a value represented by the following equation.
L (x, y) = 4p (x, y) -p (x-1, y) -p (x + 1, y) -p (x, y-1) -p (x, y + 1)
p (x, y) is the pixel value of the horizontal coordinate x and the vertical coordinate y, and L (x, y) is the edge intensity that is the output value of the Laplacian filter 300 for the pixel of the coordinate (x, y). Represents.
The usable Laplacian filter may be a Laplacian filter having 5 × 5 pixels. In addition, the sharpness calculation unit 12 may obtain the edge strength for each pixel by applying a first-order differential filter for each pixel in the partial region. For example, the sharpness calculation unit 12 calculates a horizontal edge strength by applying a horizontal sobel filter for each pixel, and calculates a vertical edge strength by applying a vertical sobel filter. . Then, for each pixel, the sharpness calculation unit 12 may use the larger of the horizontal edge intensity absolute value and the vertical edge intensity absolute value as the edge intensity of the pixel.

鮮鋭度算出部12は各画素のエッジ強度を、画像のコントラストに依存しない値とするために、画像全体のコントラストで正規化する。例えば、鮮鋭度算出部12は、部分領域内の各画素のエッジ強度に、次式により算出されるゲイン値gを乗じることでそのエッジ強度を正規化する。

Figure 0005825172
pmax及びpminは、それぞれ、注目する部分領域が属する画像全体の画素の値の最大値及び最小値である。またCmaxは、注目する部分領域が属する画像のコントラストが取り得る最大値であり、例えば、画素値が取り得る最大値と最小値の差である。例えば、画素値が8ビットで表される場合、Cmaxは255となる。なお、注目する部分領域に、壁または空のような一様な被写体が写っている場合において、過度にエッジ強度が増幅されることを防ぐため、(pmax-pmin)が所定の下限値Clow以下となる場合、ゲイン値gを(Cmax/Clow)とする。ただし、Clowは、例えば、Cmaxの1/4に設定される。
なお、鮮鋭度算出部12は、簡単化のため、及び、エッジ強度を表すためのビット数を削減するために、エッジ強度の絶対値が画素値の最大値(例えば、255)を超える場合には、エッジ強度の絶対値をその最大値とする。 The sharpness calculation unit 12 normalizes the edge strength of each pixel with the contrast of the entire image in order to make the value independent of the contrast of the image. For example, the sharpness calculation unit 12 normalizes the edge strength by multiplying the edge strength of each pixel in the partial region by the gain value g calculated by the following equation.
Figure 0005825172
p max and p min are the maximum value and the minimum value of the pixel values of the entire image to which the partial region of interest belongs, respectively. C max is the maximum value that can be taken by the contrast of the image to which the partial region of interest belongs, and is, for example, the difference between the maximum value and the minimum value that the pixel value can take. For example, when the pixel value is represented by 8 bits, C max is 255. Note that (p max -p min ) is a predetermined lower limit value to prevent excessive edge intensity amplification when a uniform subject such as a wall or sky appears in the target partial area. When C low or less, the gain value g is set to (C max / C low ). However, C low is set to 1/4 of C max , for example.
Note that the sharpness calculation unit 12 is used when the absolute value of the edge strength exceeds the maximum value (for example, 255) of the pixel value in order to simplify and reduce the number of bits for representing the edge strength. Uses the absolute value of the edge strength as its maximum value.

次に、鮮鋭度算出部12は、各部分領域について、エッジ強度の絶対値ごとの画素の度数を求めることで、エッジ強度のヒストグラムを求める。そして鮮鋭度算出部12は、そのヒストグラムを参照して、被写体が写っている画素の数に対する被写体のエッジが写っている画素の数の比を、その部分領域の鮮鋭度とする。すなわち、鮮鋭度は、次式に従って算出される。

Figure 0005825172
ここで、h(j)は、エッジ強度の絶対値がjとなる画素の数を表す。またpmaxは、エッジ強度の絶対値の最大値である。そしてAは、被写体が写っている画素の正規化エッジ強度の絶対値の下限値であり、例えば、様々な被写体が写ったサンプル画像を解析することにより予め実験的に定められる。例えば、ゲイン値gが1であれば、Aは32に設定される。またゲイン値gが1より大きく、かつ2以下であれば、Aは64に設定される。さらに、ゲイン値gが2より大きければ、Aは96に設定される。 Next, the sharpness calculation unit 12 obtains a histogram of edge strength by obtaining the frequency of pixels for each absolute value of edge strength for each partial region. The sharpness calculation unit 12 refers to the histogram and sets the ratio of the number of pixels in which the edge of the subject is captured to the number of pixels in which the subject is captured as the sharpness of the partial region. That is, the sharpness is calculated according to the following equation.
Figure 0005825172
Here, h (j) represents the number of pixels for which the absolute value of the edge strength is j. Further, p max is the maximum absolute value of the edge strength. A is a lower limit value of the absolute value of the normalized edge intensity of the pixel in which the subject is photographed, and is experimentally determined in advance, for example, by analyzing sample images in which various subjects are photographed. For example, if the gain value g is 1, A is set to 32. If the gain value g is greater than 1 and less than or equal to 2, A is set to 64. Further, if the gain value g is greater than 2, A is set to 96.

図4は、一つの部分領域についてのエッジ強度のヒストグラムの一例を示す図である。図4において、横軸はエッジ強度の絶対値を表し、縦軸は、画素数を表す。そしてヒストグラム400は、エッジ強度の絶対値ごとの画素数を表すヒストグラムである。(2)式の分母の値は、区間401に含まれるエッジ強度の絶対値ごとの画素数の合計となる。一方、(2)式の分子の値は、エッジ強度の絶対値の最大値Maxを持つ画素数である。   FIG. 4 is a diagram showing an example of an edge intensity histogram for one partial region. In FIG. 4, the horizontal axis represents the absolute value of the edge strength, and the vertical axis represents the number of pixels. A histogram 400 is a histogram representing the number of pixels for each absolute value of edge strength. The value of the denominator in equation (2) is the total number of pixels for each absolute value of the edge strength included in the section 401. On the other hand, the numerator value of the equation (2) is the number of pixels having the maximum value Max of the absolute value of the edge strength.

なお、鮮鋭度算出部12は、画像の鮮鋭度を求める他の様々な方法の何れかに従って各部分領域の鮮鋭度を算出してもよい。例えば、鮮鋭度算出部12は、部分領域を高速フーリエ変換またはウェーブレット変換することで、部分領域に含まれる周波数スペクトルを求める。そして鮮鋭度算出部12は、所定の閾値よりも高い特定の周波数帯域のスペクトル値の絶対値平均を鮮鋭度としてもよい。   The sharpness calculation unit 12 may calculate the sharpness of each partial region according to any of various other methods for obtaining the sharpness of an image. For example, the sharpness calculation unit 12 obtains a frequency spectrum included in the partial region by performing fast Fourier transform or wavelet transform on the partial region. Then, the sharpness calculation unit 12 may use the average absolute value of the spectrum values in a specific frequency band higher than a predetermined threshold as the sharpness.

鮮鋭度算出部12は、各部分領域の鮮鋭度を、その部分領域を表す識別番号及びその部分領域が含まれる画像の識別番号とともに、記憶部5に記憶する。   The sharpness calculation unit 12 stores the sharpness of each partial area in the storage unit 5 together with an identification number representing the partial area and an identification number of an image including the partial area.

基準鮮鋭度決定部13は、各部分領域ごとに、同一の被写体が写った複数の画像のその部分領域の鮮鋭度のうちで最も高い鮮鋭度をその部分領域についての基準鮮鋭度とする。すなわち、基準鮮鋭度は、その基準鮮鋭度に対応する部分領域について、一連の画像における最もピントが合った状態の被写体の像の鮮鋭度を表している。   The reference sharpness determination unit 13 sets, for each partial region, the highest sharpness among the sharpnesses of the partial regions of a plurality of images in which the same subject is captured as the reference sharpness for the partial region. That is, the reference sharpness represents the sharpness of the image of the subject that is in the most focused state in the series of images for the partial region corresponding to the reference sharpness.

図5(a)は、同じ被写体が写った複数の画像それぞれの部分領域ごとに求められた鮮鋭度の一例を表す。図5(b)は、図5(a)に示された各画像から決定された、部分領域ごとの基準鮮鋭度を表す。この例では、画像は4枚である。
図5(a)に示されるように、画像501〜504には、それぞれ、横3×縦3個の部分領域が設定されており、各部分領域内に示された数値は、その部分領域の鮮鋭度を表す。そして図5(b)には、部分領域ごとの基準鮮鋭度が示される。例えば、左上の部分領域に着目すると、画像501〜画像504のうちで、画像501の左上の部分領域511の鮮鋭度が0.9で一番大きい。したがって、図5(b)の左上の部分領域521の基準鮮鋭度は0.9となる。同様に、中央の部分領域に着目すると、画像501〜画像504のうちで、画像502の中央の部分領域512の鮮鋭度が0.8で一番大きい。したがって、図5(b)の中央の部分領域522の基準鮮鋭度は0.8となる。
FIG. 5A illustrates an example of the sharpness obtained for each partial region of each of a plurality of images in which the same subject is captured. FIG. 5B shows the reference sharpness for each partial region determined from each image shown in FIG. In this example, there are four images.
As shown in FIG. 5A, each of the images 501 to 504 is set to 3 × 3 partial areas, and the numerical values shown in the partial areas are the values of the partial areas. Represents sharpness. FIG. 5B shows the reference sharpness for each partial region. For example, focusing on the upper left partial area, the sharpness of the upper left partial area 511 of the image 501 is the largest, 0.9 among the images 501 to 504. Accordingly, the reference sharpness of the upper left partial region 521 in FIG. 5B is 0.9. Similarly, focusing on the central partial area, the sharpness of the central partial area 512 of the image 502 among the images 501 to 504 is 0.8, which is the largest. Accordingly, the reference sharpness of the central partial region 522 in FIG. 5B is 0.8.

基準鮮鋭度決定部13は、部分領域ごとの基準鮮鋭度を評価部14へ通知する。   The reference sharpness determination unit 13 notifies the evaluation unit 14 of the reference sharpness for each partial region.

評価部14は、同一の被写体が写った複数の画像のそれぞれについて、部分領域ごとの基準鮮鋭度とその画像の鮮鋭度との差が小さいほど高くなる評価値を算出する。例えば、評価部14は、次式に従って、各画像の評価値Eを算出する。

Figure 0005825172
S(k)は、画像上のk番目の部分領域の鮮鋭度であり、R(k)は、k番目の部分領域の基準鮮鋭度である。なお、部分領域の序列は、例えば、左上端からラスタスキャン順に設定される。Mは、一つの画像に設定される部分領域の総数であり、図5(a)及び図5(b)に示された例では、M=9である。そして減点関数D(α)は、変数αが大きいほど、負の大きな値を出力する単調減少関数である。減点関数D(α)は、例えば、αと出力値との関係を規定するテーブルによって表される。 The evaluation unit 14 calculates an evaluation value that increases as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller for each of a plurality of images in which the same subject is captured. For example, the evaluation unit 14 calculates the evaluation value E of each image according to the following equation.
Figure 0005825172
S (k) is the sharpness of the kth partial area on the image, and R (k) is the reference sharpness of the kth partial area. For example, the order of the partial areas is set in the raster scan order from the upper left corner. M is the total number of partial areas set in one image, and M = 9 in the example shown in FIGS. 5A and 5B. The deduction function D (α) is a monotonously decreasing function that outputs a larger negative value as the variable α is larger. The deduction function D (α) is represented by, for example, a table that defines the relationship between α and the output value.

図6は、減点関数D(α)を表す減点関数テーブルの一例である。減点関数テーブル600の左側の列の各欄には、α(=R(k)-S(k))の代表値が示されており、右側の列の各欄には、隣接する欄のαの代表値に対応する減点値が示されている。例えば、代表値が'0.2'であれば、減点値は'-0.1'となる。また、実際のαの値が減点関数テーブル600の左側の列の各欄に示された代表値と異なる場合、評価部14は、代表値の中から、実際のαの値に最も近いものを選択する。そして評価部14は、その選択された代表値に対応する減点値を、減点関数D(α)の出力値とする。例えば、実際のαの値が'0.28'であれば、減点関数テーブル600において代表値'0.3'がそのαの値に最も近い。そこで評価部14は、その代表値'0.3'に対応する減点値'-0.2'を、減点関数D(α)の出力値とする。   FIG. 6 is an example of a deduction function table representing the deduction function D (α). A representative value of α (= R (k) −S (k)) is shown in each column of the left column of the deduction function table 600, and each column of the right column has α of the adjacent column. The deduction value corresponding to the representative value is shown. For example, if the representative value is “0.2”, the deduction point value is “−0.1”. When the actual α value is different from the representative value shown in each column in the left column of the deduction function table 600, the evaluation unit 14 selects the closest representative value from the representative value. select. Then, the evaluation unit 14 sets the deduction value corresponding to the selected representative value as the output value of the deduction function D (α). For example, if the actual value of α is “0.28”, the representative value “0.3” in the deduction function table 600 is closest to the value of α. Therefore, the evaluation unit 14 sets the deduction point value “−0.2” corresponding to the representative value “0.3” as the output value of the deduction point function D (α).

なお、変形例によれば、評価部14は、(3)式の代わりに、次式に従って評価値Eを算出してもよい。

Figure 0005825172
Note that, according to the modification, the evaluation unit 14 may calculate the evaluation value E according to the following equation instead of the equation (3).
Figure 0005825172

(3)式及び(4)式から明らかなように、評価値Eは、各部分領域の鮮鋭度が基準鮮鋭度に近いほど、高くなる。すなわち、同一の被写体が写った一連の画像の中で部分領域ごとにもっともピントが合った状態からのボケ度合いが全体的に小さい画像ほど、評価値Eも高くなる。したがって、特定の部分領域のみの鮮鋭度が高い画像よりも、全体的に鮮鋭度が高い方が評価値Eは高くなる。また(3)式及び(4)式から明らかなように、評価値Eは、被写体の位置に依存せずに算出される値である。   As is clear from the equations (3) and (4), the evaluation value E increases as the sharpness of each partial region is closer to the reference sharpness. In other words, the evaluation value E increases as the overall degree of blur from the state in which each partial area is in focus is the smallest in a series of images in which the same subject is captured. Therefore, the evaluation value E is higher when the overall sharpness is higher than that of the image with high sharpness only in the specific partial region. As is clear from the equations (3) and (4), the evaluation value E is a value calculated without depending on the position of the subject.

評価部14は、複数の画像のうち、評価値が最高となる画像を、画質が最良である画像として選択する。そして評価部14は、選択した画像の識別番号を制御部7へ通知する。   The evaluation unit 14 selects an image having the highest evaluation value from among a plurality of images as an image having the best image quality. Then, the evaluation unit 14 notifies the control unit 7 of the identification number of the selected image.

図7は、画像判定装置6により実行される画像判定処理の動作フローチャートである。
画像判定装置6は、記憶部5から、同一の被写体が写った複数の画像を読み込む(ステップS101)。分割部11は、各画像を複数の部分領域に分割する(ステップS102)。そして分割部11は、それぞれの部分領域をその識別番号とともに鮮鋭度算出部12へ渡す。
FIG. 7 is an operation flowchart of image determination processing executed by the image determination apparatus 6.
The image determination device 6 reads a plurality of images showing the same subject from the storage unit 5 (step S101). The dividing unit 11 divides each image into a plurality of partial areas (step S102). Then, the dividing unit 11 passes each partial area to the sharpness calculating unit 12 together with the identification number.

鮮鋭度算出部12は、部分領域ごとに鮮鋭度を求める(ステップS103)。その後、鮮鋭度算出部12は、部分領域ごとの鮮鋭度を基準鮮鋭度決定部13及び評価部14へ出力する。基準鮮鋭度決定部13は、部分領域ごとに、各画像のその部分領域の鮮鋭度のうちの最も高い値を、その部分領域の基準鮮鋭度とする(ステップS104)。そして基準鮮鋭度決定部13は、部分領域ごとの基準鮮鋭度を評価部14へ通知する。   The sharpness calculation unit 12 calculates the sharpness for each partial region (step S103). Thereafter, the sharpness calculation unit 12 outputs the sharpness for each partial region to the reference sharpness determination unit 13 and the evaluation unit 14. For each partial region, the reference sharpness determination unit 13 sets the highest value of the sharpness of the partial region of each image as the reference sharpness of the partial region (step S104). Then, the reference sharpness determination unit 13 notifies the evaluation unit 14 of the reference sharpness for each partial region.

評価部14は、各画像について、部分領域ごとの基準鮮鋭度とその画像の鮮鋭度との差を求めることにより、部分領域ごとの基準鮮鋭度と鮮鋭度との差が小さいほど高くなる評価値を算出する(ステップS105)。そして評価部14は、評価値が最も高い画像を、画質が最良であると判定し、その画像を選択する(ステップS106)。そして画像判定装置6は、選択した画像の識別番号を制御部7へ出力する。
その後、画像判定装置6は画像判定処理を終了する。
The evaluation unit 14 obtains a difference between the reference sharpness for each partial region and the sharpness of the image for each image, thereby increasing the evaluation value as the difference between the reference sharpness and the sharpness for each partial region is smaller. Is calculated (step S105). Then, the evaluation unit 14 determines that the image having the highest evaluation value has the best image quality, and selects the image (step S106). Then, the image determination device 6 outputs the identification number of the selected image to the control unit 7.
Thereafter, the image determination device 6 ends the image determination process.

以上に説明してきたように、この画像判定装置は、画像の部分領域ごとに鮮鋭度を求め、かつ、部分領域ごとに、一連の複数の画像の中で最も高い鮮鋭度とその画像の鮮鋭度の差で評価値を求める。そのため評価値は、一部の部分領域の鮮鋭度が非常に高い画像よりも、全体的に鮮鋭度が高い画像の方が高くなる。また、評価値は、画像上の被写体の位置に依存しない。そのため、この画像判定装置は、同一の被写体が写った複数の画像のうちで、被写体の位置及び種類によらずに画質が最良な画像を選択できる。   As described above, this image determination device obtains the sharpness for each partial area of the image, and for each partial area, the highest sharpness in the series of images and the sharpness of the image. The evaluation value is obtained by the difference of. Therefore, the evaluation value is higher for an image with a high overall sharpness than for an image with a very high sharpness in some partial areas. The evaluation value does not depend on the position of the subject on the image. Therefore, this image determination apparatus can select an image having the best image quality from among a plurality of images showing the same subject, regardless of the position and type of the subject.

次に、第2の実施形態による画像判定装置について説明する。
一般に、ユーザは、撮影範囲の中央付近にある被写体に対して合焦させようとする。そのため、被写体の鮮鋭度が全体に均一であり、かつ、撮影範囲の中央付近にある被写体の部位に対して合焦されていると、画像の中央付近にある部分領域の鮮鋭度の方が、画像辺縁部にある部分領域の鮮鋭度よりも高くなる傾向にある。しかし、被写体の一部がそもそも他の部分のよりも鮮明でないとその一部が写っている部分領域の鮮鋭度も低くなる。そこで、第2の実施形態による画像判定装置は、同一の被写体が写った複数の画像のそれぞれにおいて、鮮鋭度がその周囲の部分領域の鮮鋭度よりも低くなる部分領域を画質の評価に利用しないことで、より適切にその評価値を求める。
Next, an image determination apparatus according to the second embodiment will be described.
Generally, the user tries to focus on a subject near the center of the shooting range. Therefore, if the sharpness of the subject is uniform throughout and is focused on the portion of the subject near the center of the shooting range, the sharpness of the partial area near the center of the image is It tends to be higher than the sharpness of the partial area at the edge of the image. However, if a part of the subject is not clearer than the other parts in the first place, the sharpness of the partial area in which a part of the subject is reflected is low. Therefore, the image determination apparatus according to the second embodiment does not use a partial area in which the sharpness is lower than the sharpness of the surrounding partial areas in each of a plurality of images in which the same subject is captured for image quality evaluation. Thus, the evaluation value is obtained more appropriately.

図8に、第2の実施形態による画像判定装置61の構成図を示す。画像判定装置61は、分割部11と、鮮鋭度算出部12と、基準鮮鋭度決定部13と、評価部14と、位置合わせ部15と、除外領域特定部16とを有する。
画像判定装置61が有するこれらの各部は、その各部に対応する回路が集積された一つの集積回路として形成される。また、画像判定装置61が有するこれらの各部は、それぞれ、別個の回路として形成されてもよい。
FIG. 8 shows a configuration diagram of an image determination apparatus 61 according to the second embodiment. The image determination device 61 includes a dividing unit 11, a sharpness calculation unit 12, a reference sharpness determination unit 13, an evaluation unit 14, an alignment unit 15, and an excluded area specifying unit 16.
These units included in the image determination device 61 are formed as one integrated circuit in which circuits corresponding to the units are integrated. Each of these units included in the image determination device 61 may be formed as a separate circuit.

図8において、画像判定装置61が有する各構成要素には、図2に示された第1の実施形態による画像判定装置6が有する対応する構成要素の参照番号と同じ参照番号を付した。第2の実施形態による画像判定装置61は、第1の実施形態による画像判定装置6と比較して、位置合わせ部15と、除外領域特定部16とを有する点で異なる。そこで以下では、位置合わせ部15、除外領域特定部16及び関連部分について説明する。   In FIG. 8, each constituent element included in the image determination device 61 is assigned the same reference number as the corresponding constituent element included in the image determination device 6 according to the first embodiment shown in FIG. 2. The image determination device 61 according to the second embodiment is different from the image determination device 6 according to the first embodiment in that it includes an alignment unit 15 and an excluded area specifying unit 16. Therefore, in the following, the positioning unit 15, the excluded area specifying unit 16, and related parts will be described.

位置合わせ部15は、複数の画像のそれぞれに写っている被写体の像の位置間の位置ずれ量を求める。そして位置合わせ部15は、その位置ずれ量を打ち消すように、各画像に写っている被写体の像を移動することで、各画像上の被写体の像を位置合わせする。   The alignment unit 15 obtains a positional deviation amount between the positions of the subject images shown in each of the plurality of images. Then, the alignment unit 15 aligns the image of the subject on each image by moving the image of the subject in each image so as to cancel out the displacement.

位置合わせ部15は、複数の画像のうちの何れか一つ、例えば、最初に撮影された画像を基準とし、他の画像をその基準となる画像に位置合わせする。そのために、位置合わせ部15は、基準となる画像とその他の画像との組のそれぞれについて、以下の処理を実行する。   The alignment unit 15 aligns any one of the plurality of images, for example, the first captured image as a reference, and aligns the other images with the reference image. For this purpose, the alignment unit 15 executes the following processing for each set of a reference image and other images.

位置ずれ量を求めるために、位置合わせ部15は、例えば、基準となる画像上の特徴点を少なくとも一つ抽出する。例えば、位置合わせ部15は、基準となる画像に対してコーナー検出器を適用することにより検出される複数の点をそれぞれ特徴点とする。なお、位置合わせ部15は、そのようなコーナー検出器として、例えば、Harris検出器を用いることができる。また位置合わせ部15は、基準となる画像から特徴点を抽出するために、他の特徴点抽出用の検出器を利用してもよい。例えば、そのような検出器として、Moravec検出器、Smallest Univalue Segment Assymilating Nucleus(SUSAN)検出器、Kanade-Lucas-Tomasi(KLT) TrackerまたはScale-invariant feature transform(SIFT)検出器の何れかが用いられてもよい。   In order to obtain the amount of displacement, the alignment unit 15 extracts at least one feature point on the reference image, for example. For example, the alignment unit 15 sets a plurality of points detected by applying a corner detector to the reference image as feature points. The alignment unit 15 can use, for example, a Harris detector as such a corner detector. The alignment unit 15 may use another feature point extraction detector to extract feature points from the reference image. For example, a Moravec detector, a Smallest Univalue Segment Assymilating Nucleus (SUSAN) detector, a Kanade-Lucas-Tomasi (KLT) Tracker, or a Scale-invariant feature transform (SIFT) detector is used as such a detector. May be.

次に、位置合わせ部15は、基準となる画像から抽出された特徴点ごとに、その特徴点を中心とする所定の領域をテンプレートとして設定する。位置合わせ部15は、例えば、そのテンプレートと他方の画像との間で相対的な位置を変えつつテンプレートマッチングを行って類似度を求め、類似度が最大となる領域の中心位置を、基準となる画像上のその特徴点に対応する他方の画像上の特徴点として求める。その際、位置合わせ部15は、注目する特徴点について、他方の画像上の対応する画素を最初の探索点に設定する。そして位置合わせ部15は、探索点及びその周囲の8近傍画素あるいは24近傍画素について類似度を求め、そのうちで類似度が最大となる画素を次の探索点に設定する。そして位置合わせ部15は、探索点が移動しなくなるまで上記の処理を繰り返し、最終的に求められた探索点を特徴点としてもよい。なお、位置合わせ部15は、類似度として、例えば、テンプレートと他方の画像上の比較する領域との正規化相互相関値を算出する。あるいは、位置合わせ部15は、テンプレートと他方の画像上の比較する領域との対応画素間の画素値差の絶対値の総和Δの逆数、あるいは1/(1+Δ)を類似度としてもよい。   Next, for each feature point extracted from the reference image, the alignment unit 15 sets a predetermined area centered on the feature point as a template. For example, the alignment unit 15 performs template matching while changing the relative position between the template and the other image to obtain the similarity, and the center position of the region where the similarity is the maximum is used as a reference. It is obtained as a feature point on the other image corresponding to the feature point on the image. At that time, the alignment unit 15 sets the corresponding pixel on the other image as the first search point for the feature point of interest. Then, the alignment unit 15 obtains the similarity for the search point and its neighboring 8 neighboring pixels or 24 neighboring pixels, and sets the pixel having the maximum similarity as the next search point. The alignment unit 15 may repeat the above processing until the search point stops moving, and may use the finally obtained search point as a feature point. Note that the alignment unit 15 calculates, for example, a normalized cross-correlation value between the template and the region to be compared on the other image as the similarity. Alternatively, the alignment unit 15 may use the reciprocal of the sum Δ of absolute values of pixel value differences between corresponding pixels of the template and the comparison region on the other image, or 1 / (1 + Δ) as the similarity. .

位置合わせ部15は、上記の類似度の最大値が所定の閾値以上である場合に限り、他方の画像上の特徴点と基準となる画像上の対応する点とを、被写体の同一の部位に対応する特徴点の組としてもよい。この場合、類似度の最大値が閾値未満であれば、位置合わせ部15は、そのテンプレートに対応する特徴点と一致する特徴点が他方の画像には存在しないとして、その特徴点を、特徴点の組の探索対象から外してもよい。この所定の閾値が高く設定されるほど、位置合わせ部15は、特徴点の組が、被写体の同一の部位に対応していることの確からしさを向上できる。例えば、所定の閾値は、類似度が取り得る最大値に0.8〜0.9を乗じた値に設定される。あるいは、位置合わせ部15は、基準となる画像から抽出された特徴点の数が多いほど、所定の閾値を高くしてもよい。これにより、位置合わせ部15は、基準となる画像から抽出された特徴点の数が多いときには、同一の部位に対応している可能性が高い特徴点の組だけを抽出できる。また、基準となる画像から抽出された特徴点数が少なくても、位置合わせ部15は両画像上の被写体の像の位置合わせのために十分な数の特徴点の組を抽出できる。   The alignment unit 15 sets the feature point on the other image and the corresponding point on the reference image as the same part of the subject only when the maximum value of the similarity is equal to or greater than a predetermined threshold. A set of corresponding feature points may be used. In this case, if the maximum value of the similarity is less than the threshold value, the alignment unit 15 determines that the feature point matching the feature point corresponding to the template does not exist in the other image, and sets the feature point as the feature point. You may exclude from the search object of this group. The higher the predetermined threshold value is set, the more the alignment unit 15 can improve the certainty that the set of feature points corresponds to the same part of the subject. For example, the predetermined threshold is set to a value obtained by multiplying the maximum value that the similarity can take by 0.8 to 0.9. Alternatively, the alignment unit 15 may increase the predetermined threshold as the number of feature points extracted from the reference image increases. Thereby, the alignment unit 15 can extract only a set of feature points that are highly likely to correspond to the same part when the number of feature points extracted from the reference image is large. Further, even if the number of feature points extracted from the reference image is small, the alignment unit 15 can extract a sufficient number of feature point sets for alignment of the image of the subject on both images.

次に、位置合わせ部15は、得られた特徴点の組に基づいて、基準となる画像に写っている被写体の位置に他方の画像に写っている被写体の位置を一致させるための座標変換パラメータの組を算出する。座標変換パラメータの組は、例えば、他方の画像の各画素に対して適用されるアフィン変換の係数の組とすることができる。   Next, the alignment unit 15 is based on the obtained set of feature points, and the coordinate conversion parameter for matching the position of the subject in the other image with the position of the subject in the reference image. Is calculated. The set of coordinate transformation parameters can be, for example, a set of affine transformation coefficients applied to each pixel of the other image.

この場合、位置合わせ部15は、例えば、最小二乗法により、座標変換パラメータの組を決定する。すなわち、位置合わせ部15は、座標変換パラメータの組に含まれる各アフィン変換の係数をそれぞれ変数として、複数の特徴点の組のそれぞれについてアフィン変換に従って他方の画像の特徴点の座標を変換する。そして位置合わせ部15は、各特徴点の組についての変換後の特徴点間の距離の二乗の平均値を求める。位置合わせ部15は、この二乗平均値が最小となる座標変換パラメータの組を求める。   In this case, the alignment unit 15 determines a set of coordinate conversion parameters by, for example, the least square method. That is, the alignment unit 15 converts the coordinates of the feature points of the other image according to the affine transformation for each of the plurality of feature point sets, using the coefficients of the affine transformations included in the set of coordinate transformation parameters as variables. And the alignment part 15 calculates | requires the average value of the square of the distance between the feature points after conversion about each set of feature points. The alignment unit 15 obtains a set of coordinate conversion parameters that minimizes the mean square value.

なお、位置合わせ部15は、他の様々な位置合わせ方法の何れかを用いて座標変換パラメータの組を求めてもよい。   The alignment unit 15 may obtain a set of coordinate conversion parameters using any of various other alignment methods.

位置合わせ部15は、求めた座標変換パラメータの組を用いて、他方の画像の各画素の座標をアフィン変換する。これにより、位置合わせ部15は、各画像に写っている被写体の像の位置を一致させるよう、各画像を補正できる。
位置合わせ部15は被写体の像の位置合わせがなされた各画像を分割部11へ出力する。
The alignment unit 15 affine-transforms the coordinates of each pixel of the other image using the obtained set of coordinate transformation parameters. Thereby, the alignment part 15 can correct | amend each image so that the position of the image of the to-be-photographed object reflected in each image may correspond.
The alignment unit 15 outputs each image in which the image of the subject is aligned to the dividing unit 11.

分割部11は、位置合わせ部15により被写体の像の位置合わせがなされた各画像を複数の部分領域に分割する。この実施形態では、各画像は、例えば、横16×縦12個の部分領域に分割される。そして分割部11は、各部分領域を鮮鋭度算出部12へ出力する。鮮鋭度算出部12は、各部分領域の鮮鋭度を算出する。そして鮮鋭度算出部12は、各部分領域の鮮鋭度を基準鮮鋭度決定部13へ出力する。そして基準鮮鋭度決定部13は、部分領域ごとに、複数の画像のその部分領域の鮮鋭度のうちで最も高い鮮鋭度を、その部分領域の基準鮮鋭度とする。基準鮮鋭度決定部13は、各部分領域の基準鮮鋭度を除外領域特定部16へ出力する。   The dividing unit 11 divides each image in which the image of the subject is aligned by the alignment unit 15 into a plurality of partial areas. In this embodiment, each image is divided into, for example, horizontal 16 × vertical 12 partial areas. Then, the dividing unit 11 outputs each partial region to the sharpness calculating unit 12. The sharpness calculation unit 12 calculates the sharpness of each partial area. Then, the sharpness calculation unit 12 outputs the sharpness of each partial region to the reference sharpness determination unit 13. Then, the reference sharpness determination unit 13 sets, for each partial region, the highest sharpness among the sharpnesses of the partial regions of the plurality of images as the reference sharpness of the partial region. The reference sharpness determination unit 13 outputs the reference sharpness of each partial region to the exclusion region specifying unit 16.

除外領域特定部16は、評価値の算出に利用しない部分領域を除外領域として特定する。
図9は、除外領域特定部16により実行される、除外領域特定処理の動作フローチャートである。
除外領域特定部16は、注目する部分領域に設定されていない部分領域の何れかを注目する部分領域に設定する(ステップS201)。例えば、除外領域特定部16は、ラスタスキャン順に注目する部分領域を設定する。
除外領域特定部16は、注目する部分領域について、基準鮮鋭度が除外基準値未満か否か判定する(ステップS202)。除外基準値は、鮮明でない被写体が写っている部分領域の鮮鋭度の上限値であり、(2)式に従って鮮鋭度が算出される場合、除外基準値は、例えば、0.3に設定される。
The excluded area specifying unit 16 specifies a partial area that is not used for calculating the evaluation value as an excluded area.
FIG. 9 is an operation flowchart of an excluded area specifying process executed by the excluded area specifying unit 16.
The excluded area specifying unit 16 sets any of the partial areas not set as the focused partial area as the focused partial area (step S201). For example, the excluded area specifying unit 16 sets a partial area to be noted in the raster scan order.
The excluded area specifying unit 16 determines whether or not the reference sharpness is less than the excluded reference value for the partial area of interest (step S202). The exclusion reference value is an upper limit value of the sharpness of a partial area where a non-clear subject is captured, and when the sharpness is calculated according to equation (2), the exclusion reference value is set to 0.3, for example.

除外領域特定部16は、基準鮮鋭度が除外基準値未満となる場合(ステップS202−Yes)、注目する部分領域を除外候補領域とする(ステップS203)。
基準鮮鋭度が除外基準値以上である場合(ステップS202−No)、またはステップS203の後、除外領域特定部16は、全ての部分領域が注目する部分領域に設定されたか否か判定する(ステップS204)。何れかの部分領域が注目する部分領域に設定されていなければ(ステップS204−No)、除外領域特定部16は、ステップS201以降の処理を繰り返す。一方、全ての部分領域が注目する部分領域に設定されていれば(ステップS204−Yes)、除外領域特定部16は、除外候補領域に対してラベリング処理を実行する。これにより、除外領域特定部16は、互いに隣接する除外候補領域同士を一つの除外候補グループにまとめる(ステップS205)。
When the reference sharpness is less than the exclusion reference value (Yes at Step S202), the exclusion area specifying unit 16 sets the partial area of interest as an exclusion candidate area (Step S203).
When the reference sharpness is equal to or greater than the exclusion reference value (No at Step S202), or after Step S203, the exclusion area specifying unit 16 determines whether or not all the partial areas have been set as the partial areas of interest (Step S202). S204). If any of the partial areas is not set as the focused partial area (step S204—No), the excluded area specifying unit 16 repeats the processes after step S201. On the other hand, if all the partial areas are set as the partial areas of interest (step S204—Yes), the excluded area specifying unit 16 performs a labeling process on the excluded candidate areas. Thereby, the exclusion area specifying unit 16 groups the exclusion candidate areas adjacent to each other into one exclusion candidate group (step S205).

除外領域特定部16は、除外候補グループが鮮鋭な部分領域に囲まれているか否か判定する(ステップS206)。除外候補グループが鮮鋭な部分領域に囲まれていれば(ステップS206−Yes)、除外候補グループに写っている被写体の部位も合焦されていると想定されるので、その部位自体が鮮明でないことが除外候補グループの鮮鋭度が周囲よりも低い理由と推定される。そこで除外領域特定部16は、除外候補グループ内の部分領域を除外領域とする(ステップS207)。具体的には、除外候補グループに隣接する全ての部分領域の基準鮮鋭度が合焦基準値よりも高ければ、除外領域特定部16は、除外候補グループが鮮鋭な部分領域に囲まれていると判定する。また、除外候補グループの一端が画像端に接している場合、除外領域特定部16は、その一端以外の除外候補グループの端部に隣接する部分領域全てについて基準鮮鋭度が合焦基準値よりも高ければ、除外候補グループが鮮鋭な部分領域に囲まれていると判定する。なお、合焦基準値は、除外対象基準値よりも高い値、例えば、0.6に設定される。
一方、除外候補グループが鮮鋭な部分領域に囲まれていなければ(ステップS206−No)、除外領域特定部16は、除外候補グループ内の各部分領域を除外領域としない(ステップS208)。ステップS207またはS208の後、除外領域特定部16は、除外領域特定処理を終了する。なお、除外候補グループが複数ある場合、除外領域特定部16は、除外候補グループごとに、ステップS206〜S208の処理を実行する。
The exclusion area specifying unit 16 determines whether or not the exclusion candidate group is surrounded by a sharp partial area (step S206). If the exclusion candidate group is surrounded by a sharp partial area (step S206-Yes), it is assumed that the part of the subject shown in the exclusion candidate group is also focused, so that the part itself is not clear. This is presumed to be the reason why the sharpness of the exclusion candidate group is lower than the surroundings. Therefore, the exclusion area specifying unit 16 sets a partial area in the exclusion candidate group as an exclusion area (step S207). Specifically, if the reference sharpness of all partial areas adjacent to the exclusion candidate group is higher than the focus reference value, the exclusion area specifying unit 16 determines that the exclusion candidate group is surrounded by a sharp partial area. judge. In addition, when one end of the exclusion candidate group is in contact with the image end, the exclusion area specifying unit 16 determines that the reference sharpness is higher than the focus reference value for all partial areas adjacent to the end of the exclusion candidate group other than the one end. If it is high, it is determined that the exclusion candidate group is surrounded by a sharp partial region. The focus reference value is set to a value higher than the exclusion target reference value, for example, 0.6.
On the other hand, if the exclusion candidate group is not surrounded by a sharp partial region (No in step S206), the exclusion region specifying unit 16 does not set each partial region in the exclusion candidate group as an exclusion region (step S208). After step S207 or S208, the excluded area specifying unit 16 ends the excluded area specifying process. When there are a plurality of exclusion candidate groups, the exclusion region specifying unit 16 performs the processes of steps S206 to S208 for each exclusion candidate group.

図10(a)は、鮮明でない部位を含む被写体の一例を示す図である。図10(b)は、図10(a)に示された被写体が写った画像に対して設定される部分領域を示す図である。
図10(a)に示される被写体1000は、文字列1001と、その文字列に囲まれた写真1002とが記載された紙面である。この被写体1000では、写真1002が周囲の文字列1001よりも不鮮明となっている。図10(b)では、被写体1000が写った画像1010が部分領域単位で示されており、このうち、枠線1011で囲まれた領域に写真1002が写っている。
FIG. 10A is a diagram illustrating an example of a subject including an unclear part. FIG. 10B is a diagram showing a partial region set for the image in which the subject shown in FIG.
A subject 1000 shown in FIG. 10A is a paper surface on which a character string 1001 and a photograph 1002 surrounded by the character string are described. In the subject 1000, the photograph 1002 is less sharp than the surrounding character string 1001. In FIG. 10B, an image 1010 showing the subject 1000 is shown in units of partial areas, and a photograph 1002 is shown in an area surrounded by a frame line 1011.

図10(c)は、図10(b)に示された枠線1012で囲まれた領域の拡大図であり、枠線1012内に含まれる各部分領域の基準鮮鋭度を示している。写真1002が写っている枠線1011内の各部分領域の基準鮮鋭度は、それぞれ除外基準値(例えば、0.3)より低くなっている。一方、枠線1011の周囲の各部分領域には、文字列1001の一部が写っているため、それらの部分領域の基準鮮鋭度は合焦基準値(例えば、0.6)よりも高くなっている。したがって、この例では、枠線1011内の各部分領域が除外領域となる。   FIG. 10C is an enlarged view of the region surrounded by the frame line 1012 shown in FIG. 10B, and shows the reference sharpness of each partial region included in the frame line 1012. The reference sharpness of each partial area in the frame line 1011 in which the photograph 1002 is shown is lower than the exclusion reference value (for example, 0.3). On the other hand, since a part of the character string 1001 is shown in each partial area around the frame line 1011, the reference sharpness of these partial areas is higher than the focus reference value (for example, 0.6). . Therefore, in this example, each partial area within the frame line 1011 is an excluded area.

除外領域特定部16は、除外領域とされた部分領域の識別番号を評価部14へ通知する。   The exclusion region specifying unit 16 notifies the evaluation unit 14 of the identification number of the partial region that is the exclusion region.

評価部14は、各画像について、除外領域とされた部分領域を除いて、(3)式または(4)式に従って評価値を算出する。そして評価部14は、その評価値が最も高い画像を、画質が最良な画像と判定する。   The evaluation unit 14 calculates an evaluation value for each image according to the formula (3) or the formula (4), excluding the partial area that is the excluded area. Then, the evaluation unit 14 determines that the image having the highest evaluation value is the image having the best image quality.

図11は第2の実施形態による画像判定装置61により実行される、画像判定処理の動作フローチャートである。
画像判定装置61は、記憶部5から、同一の被写体が写った複数の画像を読み込む(ステップS301)。位置合わせ部15は、各画像に写っている被写体の像の位置を一致させるよう、各画像を補正する(ステップS302)。分割部11は、補正された各画像を、複数の部分領域に分割する(ステップS303)。そして分割部11は、それぞれの部分領域を鮮鋭度算出部12へ渡す。
FIG. 11 is an operation flowchart of image determination processing executed by the image determination apparatus 61 according to the second embodiment.
The image determination device 61 reads a plurality of images showing the same subject from the storage unit 5 (step S301). The alignment unit 15 corrects each image so that the position of the image of the subject in each image matches (step S302). The dividing unit 11 divides each corrected image into a plurality of partial areas (step S303). Then, the dividing unit 11 passes each partial region to the sharpness calculating unit 12.

鮮鋭度算出部12は、部分領域ごとに鮮鋭度を求める(ステップS304)。その後、基準鮮鋭度決定部13は、部分領域ごとに、複数の画像のそれぞれの鮮鋭度のうちの最も高い値を、その部分領域の基準鮮鋭度とする(ステップS305)。そして基準鮮鋭度決定部13は、部分領域ごとの基準鮮鋭度を除外領域特定部16及び評価部14へ出力する。除外領域特定部16は、各部分領域の基準鮮鋭度に基づいて、除外領域を特定する(ステップS306)。そして除外領域特定部16は、除外領域の識別番号を評価部14へ通知する。   The sharpness calculation unit 12 calculates the sharpness for each partial region (step S304). Thereafter, the reference sharpness determination unit 13 sets, for each partial region, the highest value among the respective sharpnesses of the plurality of images as the reference sharpness of the partial region (step S305). Then, the reference sharpness determination unit 13 outputs the reference sharpness for each partial region to the excluded region specifying unit 16 and the evaluation unit 14. The excluded area specifying unit 16 specifies an excluded area based on the reference sharpness of each partial area (step S306). Then, the excluded area specifying unit 16 notifies the evaluation unit 14 of the identification number of the excluded area.

評価部14は、各画像について、除外領域以外の各部分領域の基準鮮鋭度とその画像の鮮鋭度との差を求めることにより、部分領域ごとの基準鮮鋭度と鮮鋭度との差が小さいほど高くなる評価値を算出する(ステップS307)。評価部14は、その最も高い評価値Ehが所定の閾値Thより高いか否か判定する(ステップS308)。そしてその最も高い評価値Ehが閾値Thよりも高ければ(ステップS308−Yes)、画像判定装置6は、評価値Ehに対応する画質が最良と判定された画像の識別番号を制御部7へ出力する(ステップS309)。一方、その評価値Ehが閾値Th以下である場合(ステップS308−No)、画像判定装置6は、画質が良い画像は無いとの判定結果を制御部7へ出力する(ステップS310)。なお、閾値Thは、例えば、画質が良い複数のサンプル画像について算出した評価値と、画質が良好でない複数のサンプル画像について算出した評価値とに基づいて、予め設定される。
ステップS309またはS310の後、画像判定装置61は画像判定処理を終了する。
For each image, the evaluation unit 14 obtains the difference between the reference sharpness of each partial region other than the excluded region and the sharpness of the image, so that the difference between the reference sharpness and the sharpness for each partial region is smaller. A higher evaluation value is calculated (step S307). The evaluation unit 14 determines whether or not the highest evaluation value Eh is higher than a predetermined threshold value Th (step S308). If the highest evaluation value Eh is higher than the threshold value Th (step S308—Yes), the image determination device 6 outputs the identification number of the image determined to have the best image quality corresponding to the evaluation value Eh to the control unit 7. (Step S309). On the other hand, when the evaluation value Eh is equal to or less than the threshold value Th (step S308-No), the image determination device 6 outputs a determination result that there is no image with good image quality to the control unit 7 (step S310). Note that the threshold value Th is set in advance based on, for example, evaluation values calculated for a plurality of sample images with good image quality and evaluation values calculated for a plurality of sample images with poor image quality.
After step S309 or S310, the image determination device 61 ends the image determination process.

以上に説明してきたように、第2の実施形態による画像判定装置は、元々鮮明でない被写体の部位が写っている部分領域を除いて各画像の評価値を算出する。そのため、この画像判定装置は、より適切に画質が良好な画像を判定できる。   As described above, the image determination apparatus according to the second embodiment calculates the evaluation value of each image except for a partial area in which a part of a subject that is originally not clear is shown. Therefore, this image determination apparatus can determine an image with good image quality more appropriately.

なお、第2の実施形態の変形例によれば、位置合わせ部15は省略されてもよい。特に、撮影間隔が十分に短ければ、各画像において被写体が写っている位置は殆ど変化しないので、各画像において、同一の位置の部分領域には被写体の同じ部位が写っているとみなせるためである。   In addition, according to the modification of 2nd Embodiment, the position alignment part 15 may be abbreviate | omitted. In particular, if the shooting interval is sufficiently short, the position where the subject appears in each image hardly changes. Therefore, in each image, it can be considered that the same part of the subject appears in the partial region at the same position. .

また、第1の実施形態による評価部が、第2の実施形態による評価部と同様に、ステップS308〜S310の処理を行って、最も高い評価値が閾値Thよりも高い場合に限り、その最も高い評価値に対応する画像を、画質が最良な画像として選択してもよい。   Similarly to the evaluation unit according to the second embodiment, the evaluation unit according to the first embodiment performs the processing of Steps S308 to S310, and only when the highest evaluation value is higher than the threshold value Th. An image corresponding to a high evaluation value may be selected as an image having the best image quality.

また上記各実施形態の変形例によれば、評価部は、評価値が閾値Thよりも高い全ての画像を、画質が良好であるとして選択してもよい。この場合には、画像判定装置は、選択した各画像の識別番号を撮像装置の制御部へ通知する。   According to the modification of each embodiment described above, the evaluation unit may select all images having an evaluation value higher than the threshold value Th as having good image quality. In this case, the image determination device notifies the identification number of each selected image to the control unit of the imaging device.

上記の実施形態またはその変形例による画像判定装置の各部の機能は、プロセッサ上で実行されるコンピュータプログラムにより実現されてもよい。そのようなコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。   The function of each unit of the image determination device according to the above-described embodiment or its modification may be realized by a computer program executed on a processor. Such a computer program may be provided in a form recorded on a computer-readable recording medium such as a magnetic recording medium or an optical recording medium.

図12は、上記の実施形態またはその変形例による画像判定装置の各部の機能を実現するコンピュータプログラムが動作することにより、画像判定装置として動作するコンピュータの構成図である。
コンピュータ100は、ユーザインターフェース部101と、通信インターフェース部102と、記憶部103と、記憶媒体アクセス装置104と、プロセッサ105とを有する。プロセッサ105は、ユーザインターフェース部101、通信インターフェース部102、記憶部103及び記憶媒体アクセス装置104と、例えば、バスを介して接続される。
FIG. 12 is a configuration diagram of a computer that operates as an image determination device when a computer program that realizes the functions of the respective units of the image determination device according to the above-described embodiment or its modification is operated.
The computer 100 includes a user interface unit 101, a communication interface unit 102, a storage unit 103, a storage medium access device 104, and a processor 105. The processor 105 is connected to the user interface unit 101, the communication interface unit 102, the storage unit 103, and the storage medium access device 104 via, for example, a bus.

ユーザインターフェース部101は、例えば、キーボードとマウスなどの入力装置と、液晶ディスプレイといった表示装置とを有する。または、ユーザインターフェース部101は、タッチパネルディスプレイといった、入力装置と表示装置とが一体化された装置を有してもよい。そしてユーザインターフェース部101は、例えば、ユーザの操作に応じて、画像判定処理を開始させる操作信号をプロセッサ105へ出力する。   The user interface unit 101 includes, for example, an input device such as a keyboard and a mouse, and a display device such as a liquid crystal display. Alternatively, the user interface unit 101 may include a device such as a touch panel display in which an input device and a display device are integrated. For example, the user interface unit 101 outputs an operation signal for starting an image determination process to the processor 105 in accordance with a user operation.

通信インターフェース部102は、コンピュータ100を連写可能な撮像装置(図示せず)と接続するための通信インターフェース及びその制御回路を有してもよい。そのような通信インターフェースは、例えば、Universal Serial Bus(ユニバーサル・シリアル・バス、USB)とすることができる。
さらに、通信インターフェース部102は、イーサネット(登録商標)などの通信規格に従った通信ネットワークに接続するための通信インターフェース及びその制御回路を有してもよい。
この場合には、通信インターフェース部102は、通信ネットワークに接続された他の機器から、同一の被写体が写った複数の画像を取得し、それらの画像を記憶部103に記憶させる。また通信インターフェース部102は、プロセッサ105により画質が良好であるとして選択された画像を通信ネットワークを介して他の機器へ出力してもよい。
The communication interface unit 102 may include a communication interface for connecting the computer 100 to an imaging device (not shown) capable of continuous shooting and a control circuit thereof. Such a communication interface can be, for example, Universal Serial Bus (Universal Serial Bus, USB).
Furthermore, the communication interface unit 102 may include a communication interface for connecting to a communication network according to a communication standard such as Ethernet (registered trademark) and a control circuit thereof.
In this case, the communication interface unit 102 acquires a plurality of images showing the same subject from other devices connected to the communication network, and stores these images in the storage unit 103. Further, the communication interface unit 102 may output an image selected by the processor 105 as having good image quality to another device via the communication network.

記憶部103は、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。そして記憶部103は、プロセッサ105上で実行される画像判定処理を実行するためのコンピュータプログラム、及びその画像判定処理の途中で得られる中間計算結果などを記憶する。また記憶部103は、通信インターフェース部102から受け取った画像などを記憶する。   The storage unit 103 includes, for example, a readable / writable semiconductor memory and a read-only semiconductor memory. The storage unit 103 stores a computer program for executing an image determination process executed on the processor 105, an intermediate calculation result obtained in the middle of the image determination process, and the like. The storage unit 103 stores an image received from the communication interface unit 102.

記憶媒体アクセス装置104は、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体106にアクセスする装置である。記憶媒体アクセス装置104は、例えば、記憶媒体106に記憶されたプロセッサ105上で実行される、画像判定処理用のコンピュータプログラムを読み込み、プロセッサ105に渡す。また記憶媒体アクセス装置104は、プロセッサ105により、同一の被写体が写った複数の画像の中から画質が良好であるとして選択された画像を記憶媒体106に書き込んでもよい。   The storage medium access device 104 is a device that accesses a storage medium 106 such as a magnetic disk, a semiconductor memory card, and an optical storage medium. For example, the storage medium access device 104 reads a computer program for image determination processing that is executed on the processor 105 stored in the storage medium 106 and passes the computer program to the processor 105. In addition, the storage medium access device 104 may write an image selected by the processor 105 as having good image quality from among a plurality of images in which the same subject is captured, to the storage medium 106.

プロセッサ105は、上記の実施形態または変形例による画像判定処理用コンピュータプログラムを実行することにより、同一の被写体が写った複数の画像の中から画質が良好な画像を選択する。そしてプロセッサ105は、選択された画像を通信インターフェース部102を介して他の機器へ出力する。   The processor 105 executes the image determination processing computer program according to the above-described embodiment or modification, thereby selecting an image with good image quality from among a plurality of images in which the same subject is captured. Then, the processor 105 outputs the selected image to another device via the communication interface unit 102.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割する分割部と、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求める鮮鋭度算出部と、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とする基準鮮鋭度決定部と、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する評価部と、
を有する画像判定装置。
(付記2)
前記複数の部分領域のうち、前記基準鮮鋭度が、被写体の部位が不鮮明であることを表す除外基準値未満である部分領域を抽出し、該抽出された部分領域が、前記除外基準値よりも高い所定の基準値よりも高い前記基準鮮鋭度を持つ部分領域で囲まれている場合、該抽出された部分領域を除外領域として設定する除外領域特定部をさらに有し、
前記評価部は、前記複数の画像のそれぞれについて、前記複数の部分領域のうちの前記除外領域以外の部分領域について前記基準鮮鋭度と当該画像の前記鮮鋭度との差を求めることで前記評価値を算出する、付記1に記載の画像判定装置。
(付記3)
前記評価部は、前記複数の画像のうちで前記評価値が最も高い画像を選択する、付記1または2に記載の画像判定装置。
(付記4)
前記評価部は、前記複数の画像のうちで前記評価値が所定の閾値よりも高い画像を選択する、付記1または2に記載の画像判定装置。
(付記5)
前記評価部は、前記部分領域ごとに、前記基準鮮鋭度と前記鮮鋭度との差が大きいほど小さな値を持つ減点値を算出し、各部分領域の該減点値の合計を前記評価値とする、付記1〜4の何れか一項に記載の画像判定装置。
(付記6)
前記評価部は、前記部分領域ごとに、前記基準鮮鋭度と前記鮮鋭度との差が大きいほど小さな値を持つ減点値を算出し、部分領域ごとの該減点値と前記鮮鋭度との和の合計を前記評価値とする、付記1〜4の何れか一項に記載の画像判定装置。
(付記7)
同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割し、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求め、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とし、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する、
ことを含む画像判定方法。
(付記8)
同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割し、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求め、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とし、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する、
ことをコンピュータに実行させるための画像判定用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A dividing unit that divides each of a plurality of images of the same subject into a plurality of partial areas;
For each of the plurality of images, a sharpness calculation unit that calculates the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area;
For each of the plurality of partial regions, a reference sharpness determination unit that sets the highest sharpness among the sharpnesses of the partial regions of the plurality of images as the reference sharpness of the partial region;
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An evaluation unit that selects an image with good image quality from the image and outputs identification information representing the selected image;
An image determining apparatus.
(Appendix 2)
Of the plurality of partial areas, a partial area whose reference sharpness is less than an exclusion reference value indicating that the part of the subject is unclear is extracted, and the extracted partial area is more than the exclusion reference value. If it is surrounded by a partial region having a reference sharpness higher than a high predetermined reference value, further comprising an excluded region specifying unit for setting the extracted partial region as an excluded region;
For each of the plurality of images, the evaluation unit calculates the difference between the reference sharpness and the sharpness of the image for a partial region other than the excluded region of the plurality of partial regions. The image determination apparatus according to appendix 1, wherein
(Appendix 3)
The image evaluation apparatus according to appendix 1 or 2, wherein the evaluation unit selects an image having the highest evaluation value from the plurality of images.
(Appendix 4)
The image evaluation apparatus according to appendix 1 or 2, wherein the evaluation unit selects an image having the evaluation value higher than a predetermined threshold among the plurality of images.
(Appendix 5)
The evaluation unit calculates a deduction value having a smaller value as the difference between the reference sharpness and the sharpness is larger for each partial region, and the sum of the deduction values of each partial region is used as the evaluation value. The image determination apparatus according to any one of appendices 1 to 4.
(Appendix 6)
The evaluation unit calculates a deduction value having a smaller value as the difference between the reference sharpness and the sharpness is larger for each partial region, and the sum of the deduction point value and the sharpness for each partial region is calculated. The image determination apparatus according to any one of appendices 1 to 4, wherein a total is the evaluation value.
(Appendix 7)
Divide each of multiple images of the same subject into multiple partial areas,
For each of the plurality of images, obtain the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area,
For each of the plurality of partial regions, the highest sharpness among the sharpnesses of the partial regions of the plurality of images is the reference sharpness of the partial region,
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An image with good image quality is selected from, and identification information representing the selected image is output.
An image determination method including the above.
(Appendix 8)
Divide each of multiple images of the same subject into multiple partial areas,
For each of the plurality of images, obtain the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area,
For each of the plurality of partial regions, the highest sharpness among the sharpnesses of the partial regions of the plurality of images is the reference sharpness of the partial region,
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An image with good image quality is selected from, and identification information representing the selected image is output.
An image determination computer program for causing a computer to execute the above.

1 撮像装置
2 カメラモジュール
3 操作部
4 表示部
5 記憶部
6、61 画像判定装置
7 制御部
11 分割部
12 鮮鋭度算出部
13 基準鮮鋭度決定部
14 評価部
15 位置合わせ部
16 除外領域特定部
100 コンピュータ
101 ユーザインターフェース部
102 通信インターフェース部
103 記憶部
104 記憶媒体アクセス装置
105 プロセッサ
106 記憶媒体
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Camera module 3 Operation part 4 Display part 5 Memory | storage part 6, 61 Image determination apparatus 7 Control part 11 Division | segmentation part 12 Sharpness calculation part 13 Reference | standard sharpness determination part 14 Evaluation part 15 Positioning part 16 Exclusion area specific | specification part DESCRIPTION OF SYMBOLS 100 Computer 101 User interface part 102 Communication interface part 103 Storage part 104 Storage medium access apparatus 105 Processor 106 Storage medium

Claims (6)

同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割する分割部と、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求める鮮鋭度算出部と、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とする基準鮮鋭度決定部と、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する評価部と、
を有する画像判定装置。
A dividing unit that divides each of a plurality of images of the same subject into a plurality of partial areas;
For each of the plurality of images, a sharpness calculation unit that calculates the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area;
For each of the plurality of partial regions, a reference sharpness determination unit that sets the highest sharpness among the sharpnesses of the partial regions of the plurality of images as the reference sharpness of the partial region;
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An evaluation unit that selects an image with good image quality from the image and outputs identification information representing the selected image;
An image determining apparatus.
前記複数の部分領域のうち、前記基準鮮鋭度が、被写体の部位が不鮮明であることを表す除外基準値未満である部分領域を抽出し、該抽出された部分領域が、前記除外基準値よりも高い所定の基準値よりも高い前記基準鮮鋭度を持つ部分領域で囲まれている場合、該抽出された部分領域を除外領域として設定する除外領域特定部をさらに有し、
前記評価部は、前記複数の画像のそれぞれについて、前記複数の部分領域のうちの前記除外領域以外の部分領域について前記基準鮮鋭度と当該画像の前記鮮鋭度との差を求めることで前記評価値を算出する、請求項1に記載の画像判定装置。
Of the plurality of partial areas, a partial area whose reference sharpness is less than an exclusion reference value indicating that the part of the subject is unclear is extracted, and the extracted partial area is more than the exclusion reference value. If it is surrounded by a partial region having a reference sharpness higher than a high predetermined reference value, further comprising an excluded region specifying unit for setting the extracted partial region as an excluded region;
For each of the plurality of images, the evaluation unit calculates the difference between the reference sharpness and the sharpness of the image for a partial region other than the excluded region of the plurality of partial regions. The image determination apparatus according to claim 1, wherein:
前記評価部は、前記部分領域ごとに、前記基準鮮鋭度と前記鮮鋭度との差が大きいほど小さな値を持つ減点値を算出し、各部分領域の該減点値の合計を前記評価値とする、請求項1または2に記載の画像判定装置。   The evaluation unit calculates a deduction value having a smaller value as the difference between the reference sharpness and the sharpness is larger for each partial region, and the sum of the deduction values of each partial region is used as the evaluation value. The image determination apparatus according to claim 1 or 2. 前記評価部は、前記部分領域ごとに、前記基準鮮鋭度と前記鮮鋭度との差が大きいほど小さな値を持つ減点値を算出し、部分領域ごとの該減点値と前記鮮鋭度との和の合計を前記評価値とする、請求項1または2に記載の画像判定装置。   The evaluation unit calculates a deduction value having a smaller value as the difference between the reference sharpness and the sharpness is larger for each partial region, and the sum of the deduction point value and the sharpness for each partial region is calculated. The image determination apparatus according to claim 1, wherein a total is the evaluation value. 同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割し、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求め、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とし、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する、
ことを含む画像判定方法。
Divide each of multiple images of the same subject into multiple partial areas,
For each of the plurality of images, obtain the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area,
For each of the plurality of partial regions, the highest sharpness among the sharpnesses of the partial regions of the plurality of images is the reference sharpness of the partial region,
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An image with good image quality is selected from, and identification information representing the selected image is output.
An image determination method including the above.
同一の被写体が写った複数の画像のそれぞれを、複数の部分領域に分割し、
前記複数の画像のそれぞれについて、前記部分領域ごとに当該部分領域に写っている被写体の部位の像の鮮鋭度を求め、
前記複数の部分領域のそれぞれについて、前記複数の画像の当該部分領域の前記鮮鋭度のうちで最も高い鮮鋭度を当該部分領域の基準鮮鋭度とし、
前記複数の画像のそれぞれについて、前記部分領域ごとの前記基準鮮鋭度と当該画像の前記鮮鋭度との差が小さいほど高くなる評価値を算出し、該評価値に基づいて前記複数の画像の中から画質が良好な画像を選択し、該選択した画像を表す識別情報を出力する、
ことをコンピュータに実行させるための画像判定用コンピュータプログラム。
Divide each of multiple images of the same subject into multiple partial areas,
For each of the plurality of images, obtain the sharpness of the image of the part of the subject that is reflected in the partial area for each partial area,
For each of the plurality of partial regions, the highest sharpness among the sharpnesses of the partial regions of the plurality of images is the reference sharpness of the partial region,
For each of the plurality of images, an evaluation value that is higher as the difference between the reference sharpness for each partial region and the sharpness of the image is smaller is calculated. An image with good image quality is selected from, and identification information representing the selected image is output.
An image determination computer program for causing a computer to execute the above.
JP2012075102A 2012-03-28 2012-03-28 Image determination apparatus, image determination method, and computer program for image determination Active JP5825172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012075102A JP5825172B2 (en) 2012-03-28 2012-03-28 Image determination apparatus, image determination method, and computer program for image determination

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012075102A JP5825172B2 (en) 2012-03-28 2012-03-28 Image determination apparatus, image determination method, and computer program for image determination

Publications (2)

Publication Number Publication Date
JP2013206175A JP2013206175A (en) 2013-10-07
JP5825172B2 true JP5825172B2 (en) 2015-12-02

Family

ID=49525180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012075102A Active JP5825172B2 (en) 2012-03-28 2012-03-28 Image determination apparatus, image determination method, and computer program for image determination

Country Status (1)

Country Link
JP (1) JP5825172B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015156189A (en) * 2014-02-21 2015-08-27 株式会社ニコン image evaluation device, and image evaluation program
JP6537332B2 (en) 2014-04-28 2019-07-03 キヤノン株式会社 Image processing method and photographing apparatus
US9600731B2 (en) 2015-04-08 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
US9563812B2 (en) 2015-04-08 2017-02-07 Toshiba Tec Kabushiki Kaisha Image processing apparatus, image processing method and computer-readable storage medium
KR101711949B1 (en) * 2015-08-25 2017-03-06 아주대학교 산학협력단 Method and Apparatus for Fusing Images
JP6679333B2 (en) * 2016-02-05 2020-04-15 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2019096364A (en) * 2019-03-18 2019-06-20 株式会社ニコン Image evaluation device
CN112714246A (en) * 2019-10-25 2021-04-27 Tcl集团股份有限公司 Continuous shooting photo obtaining method, intelligent terminal and storage medium
JP7367540B2 (en) * 2020-01-24 2023-10-24 富士通株式会社 Image evaluation device and image evaluation program
JP2020170555A (en) * 2020-07-13 2020-10-15 株式会社ニコン Image evaluation device, camera, and program
CN113507643B (en) * 2021-07-09 2023-07-07 Oppo广东移动通信有限公司 Video processing method, device, terminal and storage medium

Also Published As

Publication number Publication date
JP2013206175A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
JP5825172B2 (en) Image determination apparatus, image determination method, and computer program for image determination
KR100947002B1 (en) Image processing method and apparatus, digital camera, and recording medium recording image processing program
JP4556813B2 (en) Image processing apparatus and program
JP5978949B2 (en) Image composition apparatus and computer program for image composition
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP4662258B2 (en) Image processing method and apparatus, digital camera apparatus, and recording medium recording image processing program
JP4868046B2 (en) Image processing apparatus, image processing method, and program
JP6320053B2 (en) Image processing apparatus, image processing method, and computer program
JP4898655B2 (en) Imaging apparatus and image composition program
US20140152862A1 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP5146223B2 (en) Program, camera, image processing apparatus, and image contour extraction method
JP2020086216A (en) Imaging control device, imaging apparatus and imaging control program
JP5487126B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6381212B2 (en) Imaging apparatus and control method thereof
CN116883461B (en) Method for acquiring clear document image and terminal device thereof
JP2019129470A (en) Image processing device
JP6525693B2 (en) Image processing apparatus and image processing method
JP2018072941A (en) Image processing device, image processing method, program, and storage medium
JP6150558B2 (en) Tracking processing apparatus and control method thereof
JP6331363B2 (en) Subject identification device, imaging device, and program
JP5677080B2 (en) Image processing apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150928

R150 Certificate of patent or registration of utility model

Ref document number: 5825172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150