JP2009199232A - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP2009199232A JP2009199232A JP2008038778A JP2008038778A JP2009199232A JP 2009199232 A JP2009199232 A JP 2009199232A JP 2008038778 A JP2008038778 A JP 2008038778A JP 2008038778 A JP2008038778 A JP 2008038778A JP 2009199232 A JP2009199232 A JP 2009199232A
- Authority
- JP
- Japan
- Prior art keywords
- image
- edge amount
- face
- photographic
- photographic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
【課題】画像中の顔を利用して多数の画像の中から適切な画像を選択する技術を提供する。
【解決手段】画像処理装置は、各写真画像の中に顔が存在するか否かを検出して各写真画像中で検出された顔の顔領域をそれぞれ決定する顔領域決定部と、各写真画像中の顔領域に関する第1のエッジ量を算出する画像評価処理部と、各写真画像の第1のエッジ量に基づいて複数の写真画像の中から写真画像を選択する画像選択部と、を備える。
【選択図】図1
【解決手段】画像処理装置は、各写真画像の中に顔が存在するか否かを検出して各写真画像中で検出された顔の顔領域をそれぞれ決定する顔領域決定部と、各写真画像中の顔領域に関する第1のエッジ量を算出する画像評価処理部と、各写真画像の第1のエッジ量に基づいて複数の写真画像の中から写真画像を選択する画像選択部と、を備える。
【選択図】図1
Description
この発明は、写真画像の選択等を行う画像処理技術に関する。
デジタルカメラやコンピュータなどには、多数の画像が格納されている場合が多い。また、これらの多数の画像の中から、画像の保存や印刷のために、いくつかの画像を選択したい場合がある。このため、従来から、種々の画像選択技術が提案されている(例えば特許文献1)。
ところで、写真画像は顔を含むものが多い。しかし、従来は、画像選択の際に、画像内の顔を利用するという工夫が十分になされていないのが実情であった。
本発明は、画像中の顔を利用して多数の画像の中から適切な画像を選択する技術を提供することを目的とする。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]
複数の写真画像の中から少なくとも1つの写真画像を選択する画像処理装置であって、
各写真画像の中に顔が存在するか否かを検出するとともに、各写真画像中で検出された顔の顔領域をそれぞれ決定する顔領域決定部と、
各写真画像中の前記顔領域に関する第1のエッジ量を算出する画像評価処理部と、
各写真画像の前記第1のエッジ量に基づいて、前記複数の写真画像の中から写真画像を選択する画像選択部と、
を備える画像処理装置。
この画像処理装置によれば、顔領域に関する第1のエッジ量に基づいて写真画像を選択するので、顔領域に関するエッジ量が多く合焦状態の良好な画像を多数の画像の中から選択することが可能である。
複数の写真画像の中から少なくとも1つの写真画像を選択する画像処理装置であって、
各写真画像の中に顔が存在するか否かを検出するとともに、各写真画像中で検出された顔の顔領域をそれぞれ決定する顔領域決定部と、
各写真画像中の前記顔領域に関する第1のエッジ量を算出する画像評価処理部と、
各写真画像の前記第1のエッジ量に基づいて、前記複数の写真画像の中から写真画像を選択する画像選択部と、
を備える画像処理装置。
この画像処理装置によれば、顔領域に関する第1のエッジ量に基づいて写真画像を選択するので、顔領域に関するエッジ量が多く合焦状態の良好な画像を多数の画像の中から選択することが可能である。
[適用例2]
適用例1記載の画像処理装置であって、
前記画像評価処理部は、
各写真画像中の前記顔領域以外の領域、又は、各写真画像の全領域に関する第2のエッジ量を算出するとともに、
前記第1と第2のエッジ量を重み付き平均して総合エッジ量を算出し、
前記画像選択部は、前記総合エッジ量を用いて前記選択を実行する、画像処理装置。
この装置では、顔領域以外の領域に関する第2のエッジ量も考慮した総合エッジ量を用いて選択を実行するので、顔領域とそれ以外の領域の合焦状態が良好な画像を選択することが可能である。
適用例1記載の画像処理装置であって、
前記画像評価処理部は、
各写真画像中の前記顔領域以外の領域、又は、各写真画像の全領域に関する第2のエッジ量を算出するとともに、
前記第1と第2のエッジ量を重み付き平均して総合エッジ量を算出し、
前記画像選択部は、前記総合エッジ量を用いて前記選択を実行する、画像処理装置。
この装置では、顔領域以外の領域に関する第2のエッジ量も考慮した総合エッジ量を用いて選択を実行するので、顔領域とそれ以外の領域の合焦状態が良好な画像を選択することが可能である。
[適用例3]
適用例2記載の画像処理装置であって、
前記第2のエッジ量は、各写真画像中の前記顔領域以外の領域に関するエッジ量であり、
前記重み付き平均の算出では、前記第1のエッジ量に対して前記第2のエッジ量よりも大きな重みが使用される、画像処理装置。
この装置では、顔領域に関する第1のエッジ量に対してより大きな重みが使用されるので、顔領域の合焦状態をより考慮した画像選択を実行することができる。
適用例2記載の画像処理装置であって、
前記第2のエッジ量は、各写真画像中の前記顔領域以外の領域に関するエッジ量であり、
前記重み付き平均の算出では、前記第1のエッジ量に対して前記第2のエッジ量よりも大きな重みが使用される、画像処理装置。
この装置では、顔領域に関する第1のエッジ量に対してより大きな重みが使用されるので、顔領域の合焦状態をより考慮した画像選択を実行することができる。
[適用例4]
適用例1〜3のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、
前記顔領域を複数の小領域に区分してそれぞれのエッジ量を算出し、
前記複数の小領域の間のエッジ量の差が所定の閾値以上の場合には前記複数の小領域のエッジ量の中の最大値を前記第1のエッジ量として採用し、前記複数の小領域の間のエッジ量の差が前記所定の閾値未満の場合には前記複数の小領域のエッジ量の平均値を前記第1のエッジ量として採用する、画像処理装置。
この装置によれば、顔領域の一部の小領域の合焦状態と他の小領域の合焦状態との間に大きな差異がある場合に、合焦状態が特に良好でエッジ量が多い小領域のエッジ量が顔領域に関する第1のエッジ量として採用される。従って、例えば横顔の写真画像の場合も、第1のエッジ量として顔領域の正しい合焦状態を表す値を採用することができ、この結果、適切な画像選択を実行できる。
適用例1〜3のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、
前記顔領域を複数の小領域に区分してそれぞれのエッジ量を算出し、
前記複数の小領域の間のエッジ量の差が所定の閾値以上の場合には前記複数の小領域のエッジ量の中の最大値を前記第1のエッジ量として採用し、前記複数の小領域の間のエッジ量の差が前記所定の閾値未満の場合には前記複数の小領域のエッジ量の平均値を前記第1のエッジ量として採用する、画像処理装置。
この装置によれば、顔領域の一部の小領域の合焦状態と他の小領域の合焦状態との間に大きな差異がある場合に、合焦状態が特に良好でエッジ量が多い小領域のエッジ量が顔領域に関する第1のエッジ量として採用される。従って、例えば横顔の写真画像の場合も、第1のエッジ量として顔領域の正しい合焦状態を表す値を採用することができ、この結果、適切な画像選択を実行できる。
[適用例5]
適用例1〜4のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、さらに、各写真画像の輝度値の平均と、各写真画像の輝度値の分散との少なくとも一方を算出し、
前記画像選択部は、前記輝度値の平均と前記輝度値の分散とのうちの少なくとも一方と、前記エッジ量とに基づいて、前記選択を実行する、画像処理装置。
この装置によれば、画質の指標として、エッジ量のみでなく、輝度値の平均や分散を利用して画像選択を行うので、より好まし画質を有する画像を選択することができる。
適用例1〜4のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、さらに、各写真画像の輝度値の平均と、各写真画像の輝度値の分散との少なくとも一方を算出し、
前記画像選択部は、前記輝度値の平均と前記輝度値の分散とのうちの少なくとも一方と、前記エッジ量とに基づいて、前記選択を実行する、画像処理装置。
この装置によれば、画質の指標として、エッジ量のみでなく、輝度値の平均や分散を利用して画像選択を行うので、より好まし画質を有する画像を選択することができる。
[適用例6]
適用例1〜5のいずれかに記載の画像処理装置であって、
前記複数の写真画像の中で顔が検出された写真画像がN枚(Nは所定の自然数)以下の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、顔が検出された写真画像をすべて選択する、画像処理装置。
この装置では、顔を含む画像を優先的に選択することが可能である。
適用例1〜5のいずれかに記載の画像処理装置であって、
前記複数の写真画像の中で顔が検出された写真画像がN枚(Nは所定の自然数)以下の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、顔が検出された写真画像をすべて選択する、画像処理装置。
この装置では、顔を含む画像を優先的に選択することが可能である。
[適用例7]
適用例1〜6のいずれかに記載の画像処理装置であって、
各写真画像の前記顔領域の大きさの差が所定の閾値以上の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、前記顔領域が最も大きな写真画像を選択する、画像処理装置。
この装置によれば、顔が大きく見栄えの良い画像を優先的に選択することが可能である。
適用例1〜6のいずれかに記載の画像処理装置であって、
各写真画像の前記顔領域の大きさの差が所定の閾値以上の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、前記顔領域が最も大きな写真画像を選択する、画像処理装置。
この装置によれば、顔が大きく見栄えの良い画像を優先的に選択することが可能である。
[適用例8]
適用例1〜7のいずれかに記載の画像処理装置であって、
前記顔領域決定部は、1つの写真画像に複数の顔が含まれている場合には、前記複数の顔に対する複数の顔領域を決定し、
前記画像評価処理部は、前記複数の顔領域におけるエッジ量の平均値又は合計値を前記第1のエッジ量として算出する、画像処理装置。
この装置によれば、複数の顔を含む画像に関するエッジ量を適切に決定することが可能である。
適用例1〜7のいずれかに記載の画像処理装置であって、
前記顔領域決定部は、1つの写真画像に複数の顔が含まれている場合には、前記複数の顔に対する複数の顔領域を決定し、
前記画像評価処理部は、前記複数の顔領域におけるエッジ量の平均値又は合計値を前記第1のエッジ量として算出する、画像処理装置。
この装置によれば、複数の顔を含む画像に関するエッジ量を適切に決定することが可能である。
なお、本発明は、種々の形態で実現することが可能であり、例えば、画像の選択を行う方法および装置、画像の選択及び選択された画像の処理を行う方法及び装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体等の形態で実現することができる。
次に、本発明の実施の形態を以下の順序で説明する。
A.第1実施例:
B.第2実施例:
C.第3実施例:
D.第4実施例:
E.変形例
A.第1実施例:
B.第2実施例:
C.第3実施例:
D.第4実施例:
E.変形例
A.第1実施例:
図1は、本発明の第1実施例としての画像処理システムを示す説明図である。この画像処理システムは、デジタルカメラ100とコンピュータ200とカラープリンタ300とを備えている。コンピュータ200は、複数の写真画像の中から1枚以上の画像を選択する画像選択処理部400を備えている。この画像選択処理部400は、デジタルカメラ100に設けられていてもよく、また、カラープリンタ300に設けられていてもよい。
図1は、本発明の第1実施例としての画像処理システムを示す説明図である。この画像処理システムは、デジタルカメラ100とコンピュータ200とカラープリンタ300とを備えている。コンピュータ200は、複数の写真画像の中から1枚以上の画像を選択する画像選択処理部400を備えている。この画像選択処理部400は、デジタルカメラ100に設けられていてもよく、また、カラープリンタ300に設けられていてもよい。
図1の下部には、画像選択処理部400の内部構成がツリー構造で示されている。画像選択処理部400は、各画像内の顔領域を決定する顔領域決定部410と、各画像の各種の画質評価値を算出する画像評価処理部450と、画質評価値に基づいて画像を選択する画像選択部490と、を備えている。顔領域決定部410は、目や口などの顔器官を検出する顔器官判定部420と、検出された顔器官から矩形の顔領域を決定する矩形取得部430とを有している。顔器官判定部420は、口判定部422と目判定部424とを含んでいる。画像評価処理部450は、エッジ量計算部460と、輝度平均値計算部470と、輝度分散値計算部480とを含んでいる。すなわち、画像評価処理部450は、画質評価値として、エッジ量と輝度平均値と輝度分散値とを求めることが可能である。図1の各部の機能は、コンピュータ200内の記憶媒体(例えばハードディスク)に格納されたコンピュータプログラムによって実現することが可能である。
図2は、第1実施例における処理手順を示すフローチャートである。ステップT10では、画像選択処理部400が、複数の写真画像を選択候補(「候補画像」と呼ぶ)として決定する。これらの候補画像は、コンピュータ200のメモリ(ハードディスクや携帯型記憶媒体)に格納されていた多数の画像の中から互いに類似する画像として自動的に抽出されたものでもよく、あるいは、ユーザによって選択されたものでもよい。後者の場合には、画像選択処理部400が所定の選択画面(ユーザインタフェース画面)を表示してユーザに複数の候補画像を選択させることが好ましい。なお、候補画像としては、2枚以上の任意の枚数の画像を選択することが可能である。ステップT20では、画像選択処理部400が、各候補画像のエッジ量を算出するとともに、エッジ量に基づいて画像の選択を実行する。ステップT20の詳細については後述する。ステップT30では、画像選択処理部400が、選択された画像に関して他の処理を実行する。ステップT30の処理としては、いわゆる画像処理(画質調整など)や、画像の印刷、画像の転送、画像の保存等の種々の処理を適用可能である。
図3は、図2のステップT20の詳細手順を示すフローチャートである。ステップS10では、顔器官判定部420(図1)が、各候補画像の中の顔器官(口や目)が存在するか否かを判定する。個々の顔器官の判定は、口判定部422や目判定部424によって行われる。なお、口や目以外の顔器官を判定するようにしてもよい。顔器官判定部420は、顔器官が検出された画像には顔があるものと判定し、顔器官が検出されなかった画像には顔が無いものと判定する。
ステップS20では、画像選択部490が、複数の候補画像の中で、顔が検出された候補画像が1つだけか否かを判定する。顔のある候補画像が1つだけの場合には、画像選択部490は、その候補画像を選択して図3の処理を終了する(ステップS30)。
図4(A)は、ステップS30における処理内容を示している。この例では、2つの候補画像MGa,MGbが予備的に選択されている。これらのうちで、顔が存在するのは第2の候補画像MGbだけである。従って、ステップS30においては、この画像MGbが選択される。なお、顔が存在する画像を選択する理由は、通常の写真では、顔が写っている画像の方がより好まれる傾向にあるからである。
図3のステップS20において、顔のある候補画像が2つ以上存在する場合には、画像選択部490が、それぞれの候補画像における顔領域(後述)のサイズの差が所定の閾値を越えているか否かを判定する。顔領域のサイズの差が所定の閾値を越えている場合には、画像選択部490は、顔領域の大きな候補画像を選択して図3の処理を終了する(ステップS50)。
図4(B)は、ステップS50における処理内容を示している。この例での2つの候補画像MGc,MGbは、それぞれ顔を有している。また、それぞれに関して顔領域FAc,FAdが決定されている。これらの顔領域FAc,FAcは、ステップS40又はステップS10において、矩形取得部430によって決定される。具体的には、例えば、顔領域FAc,FAdは、ステップS10で検出された1つ以上の顔器官を含む矩形領域として決定される。図4(B)の例では、第2の候補画像MGdの顔領域FAdの面積が、第1の候補画像MGcの顔領域FAcの面積よりも大きく、その差が所定の閾値を越えている。そこで、顔領域のより大きな第2の候補画像MGdが選択される。なお、この閾値は、経験的に予め設定される。上記の説明において、2つの顔領域の面積(サイズ)の「差が大きい」とは、両者の比が大きいことと実質的に同一である。ステップS50において顔領域がより大きな画像を選択する理由は、通常の写真では、顔が大きく写っている画像の方がより好まれる傾向にあるからである。なお、1つの画像内に複数の顔が存在する場合には、ステップS50において、各画像内の最も大きな顔領域を用いて、他の画像との比較を行うことが好ましい。
図3のステップS40において、複数の候補画像における顔領域の差が所定の閾値以下の場合には、ステップS60〜S80の処理が実行される。まず、エッジ量計算部460が、顔領域と他の領域のエッジ量を計算し(ステップS60)、これらのエッジ量を用いて各候補画像の総合エッジ量を計算する(ステップS70)。
図5は、総合エッジ量の計算方法の一例を示す説明図である。ここでは、2つの候補画像MG1,MG2が処理対象となっている。これらの2つの候補画像MG1,MG2は、それぞれ顔領域FA1,FA2を有しており、また、それぞれ所定サイズのブロックBLに区切られている。エッジ量計算部460は、それぞれの顔領域FA1,FA2内のエッジ量Edge1を計算する。顔領域のエッジ量Edge1は、例えば、2次微分フィルタ(ラプラシアンフィルタ)を用いたフィルタ処理を画素毎に1回適用してその結果を合計することによって得られる。2次微分フィルタの代わりに、1次微分フィルタ(Prewittフィルタ、Sobelフィルタ,Robertsフィルタ等)を用いてもよい。エッジ量計算部460は、また、画像全体のエッジ量Edge2を計算する。画像全体のエッジ量Edge2は、例えば、ブロックBL毎に求めたエッジ量を合計した値である。但し、画像全体をブロックBLで区切らずに、画像全体のエッジ量Edge2を算出することも可能である。
総合エッジ量EdgeAllは、例えば以下の式に従って計算される。
EdgeAll=Edge1×W1+Edge2×W2 …(1)
ここで、Edge1は顔領域のエッジ量、Edge2は画像全体のエッジ量、W1,W2は重みである。
EdgeAll=Edge1×W1+Edge2×W2 …(1)
ここで、Edge1は顔領域のエッジ量、Edge2は画像全体のエッジ量、W1,W2は重みである。
重みW1,W2としては、同じ値を用いることも可能であり、互いに異なる値を用いることも可能である。重みW1,W2として異なる値を用いる場合には、顔領域のエッジ量Edge1に対する重みW1をより大きな値とすることが好ましい。顔領域に関してより大きな重みを使用する理由は、以下の通りである。すなわち、通常は、顔領域は肌色で起伏が少ないので、他の画像部分よりもエッジ量が少ない傾向にある。従って、顔領域に関して他の領域よりも大きな重みを付して総合エッジ量を計算するようにすれば、顔領域の画質(特に合焦状態)をより適切に反映した総合エッジ量を得ることができるからである。
但し、重みW1,W2が等しい場合にも、顔領域に対する実質的な重みは、顔領域以外の領域に対する重みの2倍となっている。この理由は、画像全体のエッジ量Edge2には顔領域のエッジ量Edge1も含まれているからである。従って、上記(1)式において重みW1,W2が等しい場合にも、顔領域のエッジ量Edge1に対して、他の領域のエッジ量の2倍の重みが適用されることが理解できる。なお、1つの画像内に複数の顔が存在する場合には、上述した顔領域のエッジ量Edge1として、各画像内の複数の顔領域のエッジ量の合計値又は平均値を使用することが好ましい。
画像の総合エッジ量EdgeAllとしては、顔領域のエッジ量Edge1のみを使用し、顔領域以外の領域のエッジ量を使用しないようにしてもよい。しかしながら、顔領域以外の領域のエッジ量を含む総合エッジ量EdgeAllを用いるようにすれば、この総合エッジ量EdgeAllとして、背景(顔以外の部分)の合焦状態を反映した値が得られる。従って、総合エッジ量EdgeAllとして、顔と背景の両方の合焦状態を反映した値が得られるので、全体の合焦状態が良好な画像を適切に選択できるという利点がある。
図6は、総合エッジ量の計算方法の他の例を示す説明図である。この方法では、総合エッジ量EdgeAllは、以下の(2)式に従って計算される。
EdgeAll=EdgeFace×Wa+EdgeNoFace×Wb …(2)
ここで、EdgeFaceは顔領域を含むブロックのエッジ量、EdgeNoFaceは画像の顔領域を含まないブロックのエッジ量、Wa,Wbは重みである。
EdgeAll=EdgeFace×Wa+EdgeNoFace×Wb …(2)
ここで、EdgeFaceは顔領域を含むブロックのエッジ量、EdgeNoFaceは画像の顔領域を含まないブロックのエッジ量、Wa,Wbは重みである。
なお、図6の場合には、顔領域FA1,FA2(顔器官の判定によって決定された領域)と一部でも重なるブロック(ハッチングを付した3×3個のブロック)が、顔領域FA1,FA2に関するエッジ量EdgeFaceを計算するためのブロックとして使用されている。また、顔領域FA1,FA2に全く重ならないブロック(ハッチングの無いもの)が、顔領域以外の領域に関するエッジ量EdgeNoFaceを計算するためのブロックとして使用されている。なお、上記(2)式の場合には、顔領域に関するエッジ量の実質的な重みを、顔領域以外の領域に関するエッジ量の重みよりも大きくするために、第1の重みWaを第2の重みWbよりも大きくすることが好ましい。また、上記(2)式を使用する際に、1つの画像内に複数の顔が存在する場合には、上述したエッジ量EdgeFaceとして、各画像内の複数の顔領域のエッジ量の合計値を使用することが好ましい。
上記(1)式の重みW1,W2や、(2)式の重みWa,Wbは、顔領域の大きさ(面積)と、その画像全体の大きさ(面積)との比に応じて変更してもよい。具体的には、例えば、顔領域の面積を画像全体の面積で除した値(顔面積率)が増加するに伴って、顔領域に対する重みW1,Waを減少させるようにしてもよい。こうすれば、顔領域が画像中でかなり大きな面積を占める場合に、顔領域のエッジ量の寄与が過度に大きくなることを防止できる。
図3のステップS80では、こうして得られた総合エッジ量EdgeAllに基づいて、画像選択部490(図1)が、複数の候補画像の中から所定数の画像を選択する。なお、選択される画像の枚数M(Mは自然数)は、通常は1であるが、選択枚数Mをユーザが変更できるものとしてもよい。
本実施例では、総合エッジ量EdgeAllの計算において、顔領域に関して他の領域よりも実質的に大きな重みを用いているので、ステップS80では、顔領域のエッジ量がより多い画像が選択される。具体的には、顔の合焦状態がより良好な画像や、顔の大きな画像が選択されることになる。このような画像は、一般的に好ましい画像としてユーザに選択される場合が多い。従って、本実施例の選択処理によれば、ユーザに通常好まれる画像を自動的に選択することができるという利点がある。
なお、複数の候補画像の総合エッジ量の差が所定の閾値よりも小さい場合には、以下のような種々の選択方法を採用することが可能である。
(A1)複数の候補画像のうちの最初又は最後の1枚を選択する。
(A2)候補画像が3枚以上の場合には、その中央の1枚の画像を選択する。
(A3)候補画像が3枚以上の場合には、その両端の2枚の画像を選択する。
(A1)複数の候補画像のうちの最初又は最後の1枚を選択する。
(A2)候補画像が3枚以上の場合には、その中央の1枚の画像を選択する。
(A3)候補画像が3枚以上の場合には、その両端の2枚の画像を選択する。
図7は、上記(A3)による画像選択例を示している。ここでは、3つの候補画像MG1〜MG3の総合エッジ量の差が所定の閾値以下(すなわち所定の許容範囲内)の場合に、その両端の画像MG1,MG3が両方とも選択されている。このように2枚を選択する理由は、通常は画像が撮影時間に従って配列されているので、その両端にある画像は最も撮影時間が離れており、印刷などの処理の対象として適切な場合が多いからである。
以上のように、本実施例では、顔領域の有無や、顔領域のサイズ、顔領域のエッジ量等を利用して複数の候補画像の中から所定数の画像を自動的に選択するので、その後の処理に適した望ましい画像を容易に得ることが可能である。
B.第2実施例:
図8は、第2実施例における処理手順を示すフローチャートである。図8は、図2のステップT20,T30の間にステップT100,T110を追加したものであり、他の点は第1実施例と同じである。第2実施例では、上述したステップT20においてn枚(nは2以上の整数)の画像が仮に選択され、その後、ステップT110,T120において最終的な画像選択が実行される。
図8は、第2実施例における処理手順を示すフローチャートである。図8は、図2のステップT20,T30の間にステップT100,T110を追加したものであり、他の点は第1実施例と同じである。第2実施例では、上述したステップT20においてn枚(nは2以上の整数)の画像が仮に選択され、その後、ステップT110,T120において最終的な画像選択が実行される。
ステップT100では、輝度平均値計算部470と輝度分散値計算部480(図1)が、ステップT20で仮選択されたn枚の画像に関して輝度値の平均と輝度値の分散をそれぞれ算出する。ステップT110では、画像選択部490が、輝度平均値と輝度分散値に基づいて最終的な画像選択を実行する。なお、ステップT100,T110において、輝度平均値と輝度分散値のうちの一方のみを使用してもよい。輝度平均値と輝度分散値の両方を利用する場合には、例えば、まず各画像の輝度平均値を比較し、輝度平均値の大きな順に2つの画像を選んでそれらの輝度平均値の差を求め、この差が所定の閾値以上の場合には最も輝度平均値の大きな画像のみを最終的に選択する、とう方法を採用可能である。また、輝度平均値の差が所定の閾値未満の場合には、輝度平均値の大きな画像のうち、輝度分散値の最も大きな画像を最終的に選択することが可能である。なお、ステップT110において最終的に選択される画像の選択枚数M(Mは自然数)は、予め設定しておくことが可能である。
このように、第2実施例では、エッジ量に基づいた予備選択を行った後に、輝度平均値と輝度分散値のうちの少なくとも一方に基づいて最終的な画像選択を実行するので、より好ましい画質を有する画像を選択することが可能である。
C.第3実施例:
図9は、第3実施例における処理手順を示すフローチャートである。図9は、図8のステップT20,T100〜T110をステップT200〜T220に置き換えたものであり、他の点は第2実施例と同じである。
図9は、第3実施例における処理手順を示すフローチャートである。図9は、図8のステップT20,T100〜T110をステップT200〜T220に置き換えたものであり、他の点は第2実施例と同じである。
ステップT200では、画像評価処理部450(図1)が、各画像候補についてエッジ量と輝度平均値と輝度分散値を算出する。エッジ量としては、第1実施例で説明した総合エッジ量EdgeAllを使用することが可能である。ステップT210では、画像評価処理部450が、各画像候補の総合評価値Etotalを下記(3)式に従って算出する。
Etotal=f(EdgeAll,Lave,Ldiv) …(3)
ここで、f(EdgeAll,Lave,Ldiv)は、総合エッジ量EdgeAllと輝度平均値Lave輝度分散値Ldivとに依存する関数であることを意味している。なお、総合エッジ量EdgeAllの代わりに顔領域のみのエッジ量Edge1又はEdgeFaceを使用しても良い。
Etotal=f(EdgeAll,Lave,Ldiv) …(3)
ここで、f(EdgeAll,Lave,Ldiv)は、総合エッジ量EdgeAllと輝度平均値Lave輝度分散値Ldivとに依存する関数であることを意味している。なお、総合エッジ量EdgeAllの代わりに顔領域のみのエッジ量Edge1又はEdgeFaceを使用しても良い。
上記(3)式の具体例は例えば以下の通りである。
Etotal=α×EdgeAll+β×Lave+γ×Ldiv …(3a)
ここで、α,β,γは定数(重み)である。
Etotal=α×EdgeAll+β×Lave+γ×Ldiv …(3a)
ここで、α,β,γは定数(重み)である。
ステップT220では、画像選択部490が、総合評価値Etotalを利用してM枚(Mは自然数)の画像を選択する。このように、第3実施例では、総合評価値Etotalを利用して画像選択を行うので、画像のエッジ量や輝度分布に基づいて、好ましい画像を適切に選択することが可能である。なお、上記(3)式において、輝度平均値Laveと輝度分散値Ldivのうちの一方のみを使用してもよい。また、他の画質評価値を使用することも可能である。
D.第4実施例:
図10は、第4実施例における顔領域に関するエッジ量の計算手順を示すフローチャートである。また、図11は、第4実施例の処理内容を示す説明図である。第4実施例は、顔領域に関するエッジ量の計算方法が他の実施例と異なるだけであり、他の構成や処理内容は、上述した第1〜第3実施例等を採用可能である。なお、図10の処理は、エッジ量計算部460(図1)によって実行される。
図10は、第4実施例における顔領域に関するエッジ量の計算手順を示すフローチャートである。また、図11は、第4実施例の処理内容を示す説明図である。第4実施例は、顔領域に関するエッジ量の計算方法が他の実施例と異なるだけであり、他の構成や処理内容は、上述した第1〜第3実施例等を採用可能である。なお、図10の処理は、エッジ量計算部460(図1)によって実行される。
図10のステップS100では、顔領域が複数の小領域に区分される。図11の例では、矩形の顔領域FAが、4つの小領域SC1〜SC4に等分されている。ステップS110では、各小領域SC1〜SC4に関して、それぞれエッジ量が計算される。この計算は、第1実施例と同様に、例えば1次微分フィルタや2次微分フィルタを用いて行うことができる。ステップS120では、複数の小領域SC1〜SC4におけるエッジ量の差が所定の閾値以上であるか否かが判定される。具体的には、例えば、エッジ量の多い順に2つの小領域を選んでそれらのエッジ量の差を求め、この差が所定の閾値以上であるか否かを判定するようにしてもよい。エッジ量の差が閾値以上である場合には、ステップS130において、最もエッジ量の多い小領域のエッジ量を、顔領域FA全体のエッジ量として採用する。一方、エッジ量の差が閾値未満である場合には、ステップS140にいて、複数の小領域SC1〜SC4のエッジ量の平均値を、顔領域FA全体のエッジ量として採用する。
上記のように顔領域のエッジ量を決定する理由は、顔領域の中で合焦状態が異なる場合を考慮しているためである。例えば、図11(B)のように顔が横向きになっている場合には、4つの小領域SC1〜SC4の合焦状態がかなり異なる。仮に、第2の小領域SC2にピントが合った状態で写真が撮影されているものと仮定すると、この第2の小領域SC2のエッジ量は、他の小領域SC1,SC3,SC4よりもかなり多い。従って、この場合には、図10のステップS130において、最もエッジ量の多い第2の小領域SC2のエッジ量が、顔領域FA全体のエッジ量として採用される。こうすれば、顔の一部の小領域に局所的にピントが合っている場合に、その小領域の合焦状態を反映したエッジ量を、顔領域のエッジ量として決定することが可能となる。一方、図11(A)のように、顔全体の合焦状態があまり変わらない場合には、顔領域FAの平均的なエッジ量を採用すれば、顔全体の合焦状態を反映したエッジ量を、顔領域に関するエッジ量として決定することが可能である。
このように、第4実施例では、顔領域の一部の小領域の合焦状態が特に良好な場合に、その合焦状態を反映したエッジ量を顔領域のエッジ量として採用するので、より好ましい画像を選択することが可能である。
E.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
E1.変形例1:
上記第1実施例では、各写真画像に関して、顔領域のエッジ量と、顔領域以外の領域のエッジ量の両方の寄与を考慮した総合エッジ量を用いて画像の選択を行っていたが、この代わりに、顔領域以外の領域のエッジ量を利用せずに顔領域のエッジ量を使用して画像の選択を行うようにしてもよい。この構成によっても、顔領域の合焦状態を反映した画像選択を行うことが可能である。但し、総合エッジ量を使用すれば、顔領域のみでなく、背景部分の合焦状態も反映した画像選択を行えるという利点がある。
上記第1実施例では、各写真画像に関して、顔領域のエッジ量と、顔領域以外の領域のエッジ量の両方の寄与を考慮した総合エッジ量を用いて画像の選択を行っていたが、この代わりに、顔領域以外の領域のエッジ量を利用せずに顔領域のエッジ量を使用して画像の選択を行うようにしてもよい。この構成によっても、顔領域の合焦状態を反映した画像選択を行うことが可能である。但し、総合エッジ量を使用すれば、顔領域のみでなく、背景部分の合焦状態も反映した画像選択を行えるという利点がある。
E2.変形例2:
図3のステップS20では、複数の候補画像の中で顔のある画像が1つだけの場合にその画像を選択するものとしていたが、一般に、複数の候補画像の中で顔のある画像がN枚(Nは所定の自然数)以下の場合には、顔が検出された写真画像をすべて選択するものとしてもよい。この場合に、画像選択部490は、各候補画像の画像評価値に拘わらず、顔が検出された写真画像をすべて選択することが好ましい。
図3のステップS20では、複数の候補画像の中で顔のある画像が1つだけの場合にその画像を選択するものとしていたが、一般に、複数の候補画像の中で顔のある画像がN枚(Nは所定の自然数)以下の場合には、顔が検出された写真画像をすべて選択するものとしてもよい。この場合に、画像選択部490は、各候補画像の画像評価値に拘わらず、顔が検出された写真画像をすべて選択することが好ましい。
100…デジタルカメラ
200…コンピュータ
300…カラープリンタ
400…画像選択処理部
410…顔領域決定部
420…顔器官判定部
422…口判定部
424…目判定部
430…矩形取得部
450…画像評価処理部
460…エッジ量計算部
470…輝度平均値計算部
480…輝度分散値計算部
490…画像選択部
200…コンピュータ
300…カラープリンタ
400…画像選択処理部
410…顔領域決定部
420…顔器官判定部
422…口判定部
424…目判定部
430…矩形取得部
450…画像評価処理部
460…エッジ量計算部
470…輝度平均値計算部
480…輝度分散値計算部
490…画像選択部
Claims (10)
- 複数の写真画像の中から少なくとも1つの写真画像を選択する画像処理装置であって、
各写真画像の中に顔が存在するか否かを検出するとともに、各写真画像中で検出された顔の顔領域をそれぞれ決定する顔領域決定部と、
各写真画像中の前記顔領域に関する第1のエッジ量を算出する画像評価処理部と、
各写真画像の前記第1のエッジ量に基づいて、前記複数の写真画像の中から写真画像を選択する画像選択部と、
を備える画像処理装置。 - 請求項1記載の画像処理装置であって、
前記画像評価処理部は、
各写真画像中の前記顔領域以外の領域、又は、各写真画像の全領域に関する第2のエッジ量を算出するとともに、
前記第1と第2のエッジ量を重み付き平均して総合エッジ量を算出し、
前記画像選択部は、前記総合エッジ量を用いて前記選択を実行する、画像処理装置。 - 請求項2記載の画像処理装置であって、
前記第2のエッジ量は、各写真画像中の前記顔領域以外の領域に関するエッジ量であり、
前記重み付き平均の算出では、前記第1のエッジ量に対して前記第2のエッジ量よりも大きな重みが使用される、画像処理装置。 - 請求項1〜3のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、
前記顔領域を複数の小領域に区分してそれぞれのエッジ量を算出し、
前記複数の小領域の間のエッジ量の差が所定の閾値以上の場合には前記複数の小領域のエッジ量の中の最大値を前記第1のエッジ量として採用し、前記複数の小領域の間のエッジ量の差が前記所定の閾値未満の場合には前記複数の小領域のエッジ量の平均値を前記第1のエッジ量として採用する、画像処理装置。 - 請求項1〜4のいずれかに記載の画像処理装置であって、
前記画像評価処理部は、さらに、各写真画像の輝度値の平均と、各写真画像の輝度値の分散との少なくとも一方を算出し、
前記画像選択部は、前記輝度値の平均と前記輝度値の分散とのうちの少なくとも一方と、前記エッジ量とに基づいて、前記選択を実行する、画像処理装置。 - 請求項1〜5のいずれかに記載の画像処理装置であって、
前記複数の写真画像の中で顔が検出された写真画像がN枚(Nは所定の自然数)以下の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、顔が検出された写真画像をすべて選択する、画像処理装置。 - 請求項1〜6のいずれかに記載の画像処理装置であって、
各写真画像の前記顔領域の大きさの差が所定の閾値以上の場合には、前記画像選択部は、前記第1のエッジ量の値に拘わらず、前記顔領域が最も大きな写真画像を選択する、画像処理装置。 - 請求項1〜7のいずれかに記載の画像処理装置であって、
前記顔領域決定部は、1つの写真画像に複数の顔が含まれている場合には、前記複数の顔に対する複数の顔領域を決定し、
前記画像評価処理部は、前記複数の顔領域におけるエッジ量の平均値又は合計値を前記第1のエッジ量として算出する、画像処理装置。 - 複数の写真画像の中から少なくとも1つの写真画像を選択する画像処理方法であって、
(a)各写真画像の中に顔が存在するか否かを検出するとともに、各写真画像中で検出された顔の顔領域をそれぞれ決定する工程と、
(b)各写真画像中の前記顔領域に関する第1のエッジ量を算出する工程と、
(c)各写真画像の前記第1のエッジ量に基づいて、前記複数の写真画像の中から写真画像を選択する工程と、
を備える画像処理方法。 - 複数の写真画像の中から少なくとも1つの写真画像を選択するコンピュータプログラムであって、
(a)各写真画像の中に顔が存在するか否かを検出するとともに、各写真画像中で検出された顔の顔領域をそれぞれ決定する工程と、
(b)各写真画像中の前記顔領域に関する第1のエッジ量を算出する工程と、
(c)各写真画像の前記第1のエッジ量に基づいて、前記複数の写真画像の中から写真画像を選択する工程と、
をコンピュータに実行させるコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008038778A JP2009199232A (ja) | 2008-02-20 | 2008-02-20 | 画像処理装置 |
US12/388,032 US20090208114A1 (en) | 2008-02-20 | 2009-02-18 | Image Processing Apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008038778A JP2009199232A (ja) | 2008-02-20 | 2008-02-20 | 画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009199232A true JP2009199232A (ja) | 2009-09-03 |
Family
ID=40955186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008038778A Withdrawn JP2009199232A (ja) | 2008-02-20 | 2008-02-20 | 画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20090208114A1 (ja) |
JP (1) | JP2009199232A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013065005A (ja) * | 2011-09-02 | 2013-04-11 | Nikon Corp | 合焦評価装置、撮像装置およびプログラム |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5290915B2 (ja) * | 2009-09-03 | 2013-09-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN110009631A (zh) * | 2019-04-15 | 2019-07-12 | 唐晓颖 | 眼底图像的血管质量评估方法、装置、设备和介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191044A (ja) * | 2001-10-15 | 2002-07-05 | Toshiba Corp | 顔画像監視システム |
JP2005122688A (ja) * | 2003-09-26 | 2005-05-12 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びにプログラム |
JP2005527047A (ja) * | 2002-05-22 | 2005-09-08 | ソニー・コンピュータ・エンタテインメント・アメリカ・インク | デジタル画像選択のためのシステムおよび方法 |
JP2006048322A (ja) * | 2004-08-04 | 2006-02-16 | Seiko Epson Corp | オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法 |
JP2006261711A (ja) * | 2005-03-15 | 2006-09-28 | Seiko Epson Corp | 画像生成装置 |
JP2007122533A (ja) * | 2005-10-31 | 2007-05-17 | Seiko Epson Corp | 画像におけるコメントレイアウト |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6922488B2 (en) * | 2001-02-16 | 2005-07-26 | International Business Machines Corporation | Method and system for providing application launch by identifying a user via a digital camera, utilizing an edge detection algorithm |
US7263220B2 (en) * | 2003-02-28 | 2007-08-28 | Eastman Kodak Company | Method for detecting color objects in digital images |
US7720302B2 (en) * | 2003-09-25 | 2010-05-18 | Fujifilm Corporation | Method, apparatus and program for image processing |
US7715597B2 (en) * | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
CN101010694A (zh) * | 2005-06-30 | 2007-08-01 | 奥林巴斯株式会社 | 检索系统以及检索方法 |
JP4661413B2 (ja) * | 2005-07-11 | 2011-03-30 | 富士フイルム株式会社 | 撮像装置、撮影枚数管理方法及び撮影枚数管理プログラム |
US8031914B2 (en) * | 2006-10-11 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face-based image clustering |
JP4671133B2 (ja) * | 2007-02-09 | 2011-04-13 | 富士フイルム株式会社 | 画像処理装置 |
-
2008
- 2008-02-20 JP JP2008038778A patent/JP2009199232A/ja not_active Withdrawn
-
2009
- 2009-02-18 US US12/388,032 patent/US20090208114A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002191044A (ja) * | 2001-10-15 | 2002-07-05 | Toshiba Corp | 顔画像監視システム |
JP2005527047A (ja) * | 2002-05-22 | 2005-09-08 | ソニー・コンピュータ・エンタテインメント・アメリカ・インク | デジタル画像選択のためのシステムおよび方法 |
JP2005122688A (ja) * | 2003-09-26 | 2005-05-12 | Fuji Photo Film Co Ltd | 画像処理方法および装置並びにプログラム |
JP2006048322A (ja) * | 2004-08-04 | 2006-02-16 | Seiko Epson Corp | オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法 |
JP2006261711A (ja) * | 2005-03-15 | 2006-09-28 | Seiko Epson Corp | 画像生成装置 |
JP2007122533A (ja) * | 2005-10-31 | 2007-05-17 | Seiko Epson Corp | 画像におけるコメントレイアウト |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013065005A (ja) * | 2011-09-02 | 2013-04-11 | Nikon Corp | 合焦評価装置、撮像装置およびプログラム |
US9392159B2 (en) | 2011-09-02 | 2016-07-12 | Nikon Corporation | Focus estimating device, imaging device, and storage medium storing image processing program |
US9648227B2 (en) | 2011-09-02 | 2017-05-09 | Nikon Corporation | Focus estimating device, imaging device, and storage medium storing image processing program |
Also Published As
Publication number | Publication date |
---|---|
US20090208114A1 (en) | 2009-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8571353B2 (en) | Apparatus and method for image processing | |
CN1278540C (zh) | 降低图像噪声 | |
US8218820B2 (en) | Image processing method, recording medium carrying image processing program, and image processing apparatus | |
WO2018176925A1 (zh) | Hdr图像的生成方法及装置 | |
WO2017076040A1 (zh) | 应用于连拍过程中的图像处理方法和装置 | |
CN107346546B (zh) | 一种图像处理方法及装置 | |
US8681880B2 (en) | Adaptive dithering during image processing | |
US8433153B2 (en) | Image correction apparatus and image correction method | |
JP2005332383A (ja) | 画像処理方法および装置並びにプログラム | |
CN107622481A (zh) | 降低ct图像噪声的方法、装置和计算机设备 | |
JP2009199232A (ja) | 画像処理装置 | |
US9361674B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP4460368B2 (ja) | 画像補正装置および方法,ならびに画像補正プログラム | |
CN104112266B (zh) | 一种图像边缘虚化的检测方法和装置 | |
JP4665847B2 (ja) | 乳房画像処理方法、装置及びプログラム | |
US11636576B2 (en) | Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium | |
CN109727193B (zh) | 图像虚化方法、装置及电子设备 | |
JP4507338B2 (ja) | 画像補正装置、及び画像補正プログラムを記録した記録媒体 | |
JP2015156189A (ja) | 画像評価装置、および画像評価プログラム | |
JP2008147714A (ja) | 画像処理装置およびその方法 | |
US11244187B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP2011090431A (ja) | 画像処理装置、印刷システム、画像処理方法、およびプログラム | |
JP2006050559A (ja) | 画像補正装置および方法,ならびに画像補正プログラム | |
JP5761386B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP2020170555A (ja) | 画像評価装置、カメラおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111101 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20111208 |