JP4611069B2 - 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 - Google Patents

特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP4611069B2
JP4611069B2 JP2005083911A JP2005083911A JP4611069B2 JP 4611069 B2 JP4611069 B2 JP 4611069B2 JP 2005083911 A JP2005083911 A JP 2005083911A JP 2005083911 A JP2005083911 A JP 2005083911A JP 4611069 B2 JP4611069 B2 JP 4611069B2
Authority
JP
Japan
Prior art keywords
image
scene
feature amount
local feature
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005083911A
Other languages
English (en)
Other versions
JP2005310123A (ja
Inventor
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005083911A priority Critical patent/JP4611069B2/ja
Priority to US11/087,731 priority patent/US7620251B2/en
Publication of JP2005310123A publication Critical patent/JP2005310123A/ja
Application granted granted Critical
Publication of JP4611069B2 publication Critical patent/JP4611069B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体に関し、特に、デジタル形式の画像データで表された画像をシーンごとに分類等するために、所望の特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体に関するものである。
近年、デジタル形式の画像データで表された画像を、シーンごとに分類したり、シーンごとに区別された補正処理やプリント処理を施すため、ある画像が特定シーンの画像であるか否かを自動的に識別して、画像を選別する手法の研究開発が行なわれ始めている。
たとえば、特許文献1には、「夕焼け」の画像の選別に特化した手法として、対象画像を構成する画素のうち赤から黄色の範囲に属する画素について、色相と彩度の積および色相と明度の積の値をヒストグラム化し、それらの分散が一定基準より大きいものを「夕焼け」のシーンの画像であると判断する手法が記載されている。
また、特許文献2には、複数の対象画像の各々を、予め定められた共通の切分け方で画像中央部の領域と画像周辺部の領域とに分割し、それらの領域全体同士のコントラスト等に基づいて、各対象画像が順光シーンの画像であるか逆光シーンの画像であるかを識別する手法が記載されている。
特開平11−298736号公報 特開平11−196324号公報
しかしながら、特定シーンの画像の特徴は、その画像の全体的な色や明るさ等のみならず、特徴的な色や明るさ等を有する特徴的部分の配置の傾向にも現れる。たとえば、「夕焼け」のシーンであれば、夕焼けの特徴が最も顕著に現れる夕焼け空の部分は、通常、対象画像の上部にまとまっているはずである。ところが、上記の特許文献1に記載されたような手法では、上部に夕焼け空が広がっている対象画像と、中央部に夕焼け空に類似の色や明るさを有する衣服等の被写体が写っている対象画像とは、ヒストグラム上では同じような特徴を有する画像として評価されてしまう。そのため、誤選別が多くなるという問題があった。
また、配置の傾向を考慮して、上記の特許文献2に記載の手法のように各対象画像を分割し、分割して得た各領域の色や明るさ等の特徴を調べることとしても、予め定められた共通の切分け方で分割して各領域についてその領域全体の特徴を調べるのでは、撮影枠の取り方の違い等による位置や面積割合の変動に対処できないという問題がある。たとえば、上記の「夕焼け」のシーンの例であれば、対象画像の上部に夕焼け空の部分がまとまっているという傾向は夕焼け空の部分を含むすべての画像に共通であるが、その夕焼け空の部分と他の部分との境界(たとえば地平線)が画像内のどの位置にあるかは、カメラ操作者の撮影枠の取り方によって様々である。したがって、予め定められた共通の切分け方で対象画像を分割すると、分割して得た上部領域に夕焼け空以外の部分が相当割合含まれてしまうことも多く、その場合、上部領域全体の特徴を調べたのでは、誤選別に繋がる可能性が高い。
本発明は、上記事情に鑑み、所望の特定シーンに対応する特徴的部分の対象画像内における配置の傾向を考慮し、かつ撮影枠の取り方の違い等によるそれらの位置や面積割合の変動をも考慮して、様々な特定シーンの画像を高い精度で選別することができる装置、プログラムおよびプログラムを記録した記録媒体を提供することを目的とするものである。
すなわち、本発明の特定シーンの画像を選別する装置は、選別対象画像の入力を受け付ける画像入力受付手段と、その選別対象画像から、1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段と、局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、その局所特徴量画像上で走査および/または分布変更して得られた一連の積和演算結果を用いて、局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段と、それら代表特徴量の各々の値を、その代表特徴量の種類ごとに予め定められた、その代表特徴量の取り得る値と上記の特定シーンらしさの高低との関係を示す識別条件と照会することにより、上記の選別対象画像が特定シーンの画像であるか否かを識別する識別手段とを備えていることを特徴とするものである。
ここで、本発明において「特徴量」とは、画像の特徴を表すパラメータを指し、その画像の色の特徴、輝度の特徴、テクスチャの特徴、奥行情報、その画像に含まれるエッジの特徴等、いかなる特徴を表すものであってもよい。また、これらの各特徴を表す指標値を複数組み合わせた重み付き加算値等を、「特徴量」として用いてもよい。また、本発明において「局所特徴量」とは、選別対象画像上のある一部の画素または領域における局所的な特徴を表す特徴量を指し、「局所特徴量画像」とは、選別対象画像上の各画素または区分けされた各領域における局所特徴量の値を画素値とする画像を指す。さらに、本発明において「局所特徴量画像を導出する」ということには、たとえば濃度R、GおよびBの値を画素値とするデータ等の形式で入力される選別対象画像を、そのまま局所特徴量画像とみなして用いることとする形態も含まれることとする。また、本発明において「代表特徴量」とは、各局所特徴量画像の全体的な特徴を表す特徴量を指す。
また、本発明において、マスクを局所特徴量画像上で「走査」するとは、加重マトリクス状のマスクを局所特徴量画像の各画素またはいくつか置きの画素の位置に順次適用し、各位置においてマスクのマトリクス値と局所特徴量画像の画素値との積和演算の値を求めていく空間フィルタリング処理を行うことを指す。この場合、走査するマスクは、局所特徴量画像よりも小さいサイズのものである必要がある。一方、本発明において、マスクを局所特徴量画像上で「分布変更」するとは、加重マトリクス状のマスクを局所特徴量画像のいずれかの画素の位置に適用する際、たとえば山型マスクの山の位置を変更する等、マスクのマトリクス値の分布を変更しながらそのマスクを複数回適用し、複数回分の積和演算の値を求める処理を行うことを指す。この場合、分布変更するマスクは、局所特徴量画像よりも小さいサイズのものであってもよいし、同一サイズのものであってもよい。局所特徴量画像よりも小さいサイズのマスクを使用する場合は、マスクの走査と分布変更を併せて行うことも可能である。
上記の本発明の特定シーンの画像を選別する装置は、特定シーンとして、所望のシーンの指定を受け付けるシーン指定受付手段をさらに備えているものであってもよい。
また、本発明の特定シーンの画像を選別する装置において、上記の局所特徴量画像導出手段が導出する局所特徴量画像の種類、上記の代表特徴量算出手段が使用するマスクの種類ならびに算出する代表特徴量の種類、および代表特徴量の種類ごとの上記の識別条件は、上記の特定シーンであることが分かっている複数の画像と特定シーンでないことが分かっている複数の画像からなるサンプル画像群について、予め学習を行うことにより決定されたものであってもよい。
さらに、本発明の特定シーンの画像を選別する装置においては、上記の局所特徴量画像の少なくとも1つが、複数の特徴の組合せを有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものであってもよい。その場合において、その複数の特徴の組合せは、色相、彩度、明度およびテクスチャに関する特徴からなる群から選択された2つ以上の特徴の組合せであってもよい。
また、上記のように学習により決定された局所特徴量画像の種類等を用いる場合には、特定シーンごとの上記の学習は、その特定シーンの識別に用いられ得る局所特徴量画像の種類とマスクの種類と代表特徴量の種類との候補の組を複数組規定する工程と、それらの候補の組ごとに、その候補の組をなす種類の局所特徴量画像およびマスクを用いて、上記のサンプル画像群を構成する各画像からその候補の組で指定されている種類の代表特徴量を算出し、上記のサンプル画像群を構成する各画像が特定シーンの画像であるか否かを識別する識別基準を設定する試行識別を行って、その試行識別において最も識別精度の高い識別基準が設定された候補の組から順に1組または複数組の候補の組を、その特定シーンの画像の選別に使用する局所特徴量画像の種類とマスクの種類と代表特徴量の種類との組として選択する工程と、その選択する工程において選択された組の各々について、その組について設定された上記の識別基準に基づいて、上記の識別条件を決定する工程を含む方法によるものであってもよい。
ここで、「試行識別において最も識別精度の高い識別基準が設定された候補の組から順に1組または複数組の候補の組」を選択するとあるが、最も識別精度の高い識別基準が設定された1つの候補の組を選択するごとにサンプル画像群を構成する各画像の重みを変更して、そのように重みを変更されたサンプル画像群に対して最も識別精度の高い識別基準が設定された候補の組を次の組として順次選択していく形態等も、上記の選択の形態に含まれるものとする。
また、上記のように、候補の組を複数規定する工程、選択する工程および決定する工程を含む方法による学習を行う場合は、上記の候補の組の少なくとも1組をなす種類の局所特徴量画像を、所定の範囲の特徴を有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものとし、上記の選択する工程と決定する工程との間に、選択された候補の組をなす種類の局所特徴量画像が上記の可能性の大小を表す局所特徴量の値を画素値とするものである場合に、上記のサンプル画像群を構成する画像に対する識別精度が向上するように上記の所定の範囲を調整することにより、その候補の組について設定された上記の識別基準を修正する工程をさらに設けてもよい。
さらに、上記のように、候補の組を複数規定する工程、選択する工程および決定する工程を含む方法による学習を行う場合は、上記の候補の組の少なくとも1組をなす種類の局所特徴量画像を、複数の特徴の組合せを有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものとしてもよい。その場合において、その複数の特徴の組合せは、色相、彩度、明度およびテクスチャに関する特徴からなる群から選択された2つ以上の特徴の組合せであってもよい。
また、上記の本発明の特定シーンの画像を選別する装置は、正しい選別結果が得られなかった選別対象画像について、その選別対象画像が示す正しいシーンの指定を受け付ける正解受付手段と、その正しいシーンの指定が受け付けられた選別対象画像を学習することにより、上記の識別条件を更新する追加学習手段とをさらに備えているものであってもよい。
本発明の特定シーンの画像を選別するプログラムは、コンピュータを、選別対象画像の入力を受け付ける画像入力受付手段、その選別対象画像から、1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段、局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、その局所特徴量画像上で走査および/または分布変更して得られた一連の積和演算結果を用いて、局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段、および、代表特徴量の各々の値を、その代表特徴量の種類ごとに予め定められた、その代表特徴量の取り得る値と上記の特定シーンらしさの高低との関係を示す識別条件と照会することにより、上記の選別対象画像が特定シーンの画像であるか否かを識別する識別手段として機能させることを特徴とするものである。また、本発明の記録媒体は、そのようなプログラムを記録したコンピュータ読取可能な記録媒体である。
また、本発明の撮像装置は、
撮像した画像データを取得する撮像手段と、
所望の特定シーンの指定を受け付けるシーン指定受付手段と、
前記撮像した画像データから、1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段と、
前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または分布変更して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段と、
前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別手段とを備えていることを特徴とするものである。
また、本発明の撮像装置は、撮影時に前記シーンを特定する情報を取得するシーン特定情報取得手段をさらに有し、
前記シーン指定受付手段が、該シーン特定情報取得手段により取得された前記シーンを特定する情報に基づいてシーンの指定を受け付けるものであってもよい。
「シーンを特定する情報」とは、例えば、撮影時間等の画像が「夜景」の可能性があるか否かというような特定のシーンを判別するために参考にすることができる情報をいう。
また、本発明の特定シーンの画像を選別する方法は、
選別対象画像の入力を受け付ける画像入力受付ステップと、
所望の特定シーンの指定を受け付けるシーン指定受付ステップと、
前記選別対象画像の画像データから、1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出ステップと、
前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または分布変更して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出ステップと、
前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別ステップとからなることを特徴とするものである。
本発明の特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体は、選別対象画像から導出された局所特徴量画像上において、加重マトリクス状のマスクを走査および/または分布変更して得られた一連の積和演算結果に基づいて代表特徴量を算出するものであるので、撮影枠の取り方の違い等により撮影対象の細かい位置や面積割合が変動しても、所望の特定シーンに対応する特徴的部分の配置の傾向を代表特徴量の値に適切に反映させることができ、精度の高い選別を行うことができる。
また、特定シーンとして所望のシーンの受付けを可能とした形態によれば、様々な特定シーンの画像の選別を1つの汎用装置、プログラムまたはプログラムを記録した記録媒体により行うことができる。
さらに、導出する局所特徴量画像の種類、使用するマスクの種類、算出する代表特徴量の種類、および識別条件を、サンプル画像群について予め学習を行うことにより決定されたものとした形態によれば、サンプル画像群が示す各特定シーンの特徴に合わせて、特定シーンごとに最適な種類および数の局所特徴量画像等を使用し、無駄な計算処理を行なうことなく精度の高い選別を行なうことが可能となる。
また、特定シーンごとの学習を、局所特徴量画像の種類とマスクの種類と代表特徴量の種類との候補の組を複数組規定する工程と、候補の組ごとに識別基準を設定する試行識別によりそれらの候補の組から1組または複数組を選択する工程と、選択された候補の組をなす種類の局所特徴量画像が所定の範囲の特徴を有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものである場合に、サンプル画像群を構成する画像に対する識別精度が向上するように上記の所定の範囲を調整することにより、その候補の組について設定された上記の識別基準を修正する工程と、修正された識別基準に基づいて識別条件を決定する工程を含む方法によるものとした形態によれば、選別に使用する局所特徴量に対応する上記の所定の範囲を特定シーンごとに最適化することができるので、さらに精度の高い選別を行なうことが可能となる。
さらに、正しい選別結果が得られなかった選別対象画像についての正解受付けと追加学習を可能とした形態によれば、実際の選別対象画像に合わせて継続的に選別の精度を向上させていくことができる。また、ユーザーが頻繁に指定する特定シーンに関しては、学習の成果が特に充実していくため、より高い選別の精度を実現することができる。
また、本発明の撮像装置のように、前記のシーンの画像を選別する機能を備えるようにすれば、撮影した画像のシーンを識別して、各々の画像に対して適切な画像処理を施すことが可能になる。
さらに、撮像装置でシーンを特定する情報を取得するようにすることによって、識別の精度を高くすることが可能になる。
以下、図面により、本発明の例示的な実施形態を詳細に説明する。
(第1の実施形態) 図1は、本発明の第1の実施形態に係る特定シーンの画像を選別する装置10の構成を示したブロック図である。この図に示すように、装置10は、選別したい特定シーンの指定を受け付けるシーン指定受付部12と、選別対象画像の入力を受け付ける画像入力受付部14と、後述する参照データが格納されているメモリ16と、シーン指定受付部12および画像入力受付部14から入力を受け取り、メモリ16内の参照データが指定する種類の局所特徴量画像を導出する局所特徴量画像導出部18と、導出された局所特徴量画像から、メモリ16内の参照データが指定する種類の代表特徴量を算出する代表特徴量算出部20と、算出された代表特徴量に基づいて、入力された選別対象画像が指定された特定シーンの画像であるか否かを識別し、選別対象画像を選別して出力する識別部22を備えている。
メモリ16内に格納されている参照データは、識別したい特定シーンとして指定され得る複数のシーンごとに、そのシーンの識別に用いる局所特徴量画像の種類と、マスクの種類と、それらの局所特徴量画像およびマスクを用いて算出すべき代表特徴量の種類と、それらの代表特徴量の各々に対応する識別条件とを規定したものであり、たとえば図2に示すような参照表形式等のデータである。図2の例には、説明のため、「夜景」および「夕焼け」の2つのシーンに関するデータのみを示してあるが、実際の参照データは、通常、これよりずっと多くのシーンについてのデータからなる。識別に用いる局所特徴量画像、マスクおよび代表特徴量の組の種類および数は、シーンごとに異なる。各代表特徴量に対応する識別条件は、正負の値を取る数列の形式で表されている。
装置10が行う選別処理や図2の参照データを導出するための学習処理について説明する前に、まず、本実施形態において使用される局所特徴量画像とマスクについて、図3から6を用いて説明する。
本実施形態では、入力された選別対象画像や、後述する学習に用いられる各サンプル画像は、まず、Lab表色系で表された画像に変換され、そのLab表色系で表された画像を5×5個に分割したブロックごとに、色相角、彩度、明度およびテクスチャ指標値が求められる。各ブロックの色相角としては、そのブロックを構成する各画素の色差a(x,y)およびb(x,y)のブロック内平均値aaveおよびbaveをab平面状にプロットした際の、プロットされた点と原点を結ぶ直線と、a軸とのなす角度が求められる。各ブロックの彩度としては、上記のブロック内平均値aaveおよびbaveをab平面状にプロットした際の、プロットされた点と原点との距離が求められる。各ブロックの明度としては、そのブロックを構成する各画素の明度L(x,y)のブロック内平均値Laveが求められる。各ブロックのテクスチャ指標値としては、そのブロックを構成する画素値のLab空間上における標準偏差、すなわち、
Figure 0004611069
が求められる。ここで、Nは各ブロックを構成する画素数である。
一般に、色相角の値の違いは、色相すなわち色合いの違いに対応する。本実施形態では、色合いに応じた色相角の区分の境界を、図3の(a)に示すように設定することとする。また、彩度、明度およびテクスチャ指標値についても、図3の(b)から(d)に示すように、それぞれ「無」、「低」および「高」等の3段階の区分に分ける境界を予め設定しておく。
本実施形態では、上記の図3に示した色相角、彩度、明度およびテクスチャ指標値の各区分の組合せパターンを図4の表に示す#0番から#99番までの100パターン規定し、上記の5×5個のブロックの各組合せパターン「らしさ」、すなわち、その組合せパターンをなす各区分の特徴を組合せとして有するブロックである可能性の大小を表す局所特徴量の値を画素値とする、5×5画素の局所特徴量画像が、100種類導出可能とされているものとする。たとえば、図4の表で#83番のパターンに対応する局所特徴量画像の画素値は、明度の高低は問わず、色相がレッドで彩度が高くテクスチャが多いブロックに対応する画素である可能性の大小を表す局所特徴量である。#0番から#99番までのパターンに対応する各局所特徴量は、0から1までの連続値を取り得る。
上記の各組合せパターン「らしさ」を表す局所特徴量は、その組合せパターンをなす色相角、彩度、明度およびテクスチャ指標値の各区分「らしさ」を示す4つの指標値を導出して、それらを掛け合わせた値である。これらの各区分「らしさ」を示す指標値も、それぞれ0から1までの連続値を取り得る。たとえば、上記の#83番のパターンに対応する局所特徴量画像の画素値は、その画素に対応するブロックについて、色相がレッドのブロックらしさ、彩度が高いブロックらしさ、あらゆる明度のブロックらしさおよびテクスチャが多いブロックらしさを表す各指標値を導出し、それらを掛け合わせた値である。ここで、あらゆる明度のブロックらしさを表す指標値としては、1を用いる。
ここで、各区分「らしさ」を表す指標値の導出方法を、彩度の各区分を例にとって説明する。図3の(b)に示したように、本実施形態では、彩度値60を境界に彩度の区分「高」と「低」の範囲が分けられているが、この境界を境に二値的に「高」と「低」の区分に分かれている訳ではなく、実際には、この境界を境に徐々に彩度「高」らしさと彩度「低」らしさの比が推移していく。すなわち、ブロックを代表する彩度の値を横軸とすると、彩度「高」らしさを表す指標値は図5の(a)のように推移する。図5の(a)の曲線は、境界値である彩度値60を中心としたシグモイド関数状の曲線であり、彩度値60において彩度「高」らしさを表す指標値が0.5となるように設定されている。同様に、ブロックを代表する彩度の値に対する、彩度「低」らしさを表す指標値および彩度「無」らしさを表す指標値は、図5の(b)および(c)のように規定されている。色相角、明度およびテクスチャ指標値の各区分についても、各区分「らしさ」を表す指標値は、境界値を挟んでシグモイド関数状に推移する同様の曲線により規定されている。
上記に説明したとおり、本実施形態における選別対象画像やサンプル画像からは、各組合せパターン「らしさ」を画素値とする5×5画素の局所特徴量画像が、100種類導出可能とされている。選別や学習に最終的に用いられる代表特徴量は、そのような5×5画素の局所特徴量画像上で所定のマスクを走査および/または分布変更して得られた一連の積和演算結果を基に、それら一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、または中央値等の形で算出されたものである。
図6は、本実施形態で使用され得るマスクの種類を示した概念図である。マスクの種類には、大別して一様マスク、傾斜マスクおよび山型マスクの3タイプがあり、各タイプについてさらに、大きさの異なる複数種類のマスクが規定されている。
一様マスクは、図6の(a)に示すマスク30のように、各マトリクス値が同一値とされたマスクであり、局所特徴量画像の大きさが5×5画素であるのに対し、1×1から4×4までの4種類の大きさのマスクが規定されている。各一様マスクを局所特徴量画像上で走査することにより、局所特徴量画像の各画素位置およびその近傍における局所特徴量の平均値が、一連の積和演算結果として得られる。これらの一様マスクは、特定シーンに対応する特徴的部分のまとまり具合または散らばり具合、たとえば夜景シーンにおける灯り部分の散らばり具合を調べるのに有効である。すなわち、特徴的部分が、局所特徴量画像の基となった選別対象画像またはサンプル画像全体に均一に散らばっている場合は、一様マスクの走査により得られた一連の積和演算結果がいずれも同程度の値となる等の傾向が現れ、局在化している場合は、一連の積和演算結果の最大値と最小値の差が大きくなる等の傾向が現れる。
傾斜マスクは、上辺側の行から下辺側の行にかけて単調減少するマトリクス値が与えられたマスクであり、局所特徴量画像の大きさが5×5画素であるのに対し、5×1から5×5までの5種類の幅のマスクが規定されている。各傾斜マスクは、局所特徴量画像への適用に際し、図6の(b)に参照番号32、34および36で示すようなマトリクス値で分布変更される。局所特徴量画像より大きさが小さい幅1から4の傾斜マスクを局所特徴量画像に適用する際は、走査と分布変更が併せて行われ、走査位置と分布の組ごとに得られた一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、または中央値等が、代表特徴量として算出される。局所特徴量画像と同じ大きさの5×5の傾斜マスクを局所特徴量画像に適用する際は、分布変更のみが行われ、分布ごとに得られた一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、または中央値等が、代表特徴量として算出される。これらの傾斜マスクは、特徴的部分の片端への偏り具合、たとえば夕焼けシーンにおける夕焼け空の部分の上方への偏り具合を調べるのに有効である。すなわち、特徴的部分が、局所特徴量画像の基となった選別対象画像またはサンプル画像の片端に偏った位置を占めている場合は、傾斜マスクの走査および/または分布変更により得られた一連の積和演算結果の最大値が大きくなる等の傾向が現れ、全体的に略一様に分布している場合は、一連の積和演算結果の最大値と最小値の差が小さくなる等の傾向が現れる。上記の夕焼けシーンの例についていえば、マスクの走査を行うことにより、夕焼け空と遠景との境界線(たとえば地平線)が一部近景により遮られている場合等にも、夕焼け空が上方に偏った位置を占めているという配置の特徴を抽出することができる。また、図6の(b)に図示したようなマスクの分布変更を行うことにより、撮影枠の取り方により夕焼け空の部分とその他の部分との面積割合が変動しても、夕焼け空が上方に偏った位置を占めているという配置の特徴を最適な形で抽出することができる。なお、選別対象画像やサンプル画像が天地方向を揃えられずに供給された場合でも、特徴的部分の片端への偏り具合を示す代表特徴量が適切に算出できるように、各傾斜マスクの向きを4方向に変えて、各向きで走査および/または分布変更を行うこととしてもよい。
山型マスクは、上辺側の行と下辺側の行に低いマトリクス値が与えられ、その間に高いマトリクス値が与えられた行が設けられたマスクであり、局所特徴量画像の大きさが5×5画素であるのに対し、5×1から5×5までの5種類の幅のマスクが規定されている。各山型マスクは、局所特徴量画像への適用に際し、図6の(c)に参照番号38、40および42で示すようなマトリクス値で分布変更される。局所特徴量画像より大きさが小さい幅1から4の山型マスクを局所特徴量画像に適用する際は、走査と分布変更が併せて行われ、走査位置と分布の組ごとに得られた一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、または中央値等が、代表特徴量として算出される。局所特徴量画像と同じ大きさの5×5の山型マスクを局所特徴量画像に適用する際は、分布変更のみが行われ、分布ごとに得られた一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、または中央値等が、代表特徴量として算出される。これらの山型マスクは、特徴的部分の中央または両端への偏り具合を調べるのに有効である。すなわち、特徴的部分が、局所特徴量画像の基となった選別対象画像またはサンプル画像の中央近くに偏った位置を占めている場合は、山型マスクの走査および/または分布変更により得られた一連の積和演算結果の最大値が大きくなる等の傾向が現れ、両端に偏った位置を占めている場合は、一連の積和演算結果の最小値が小さくなる等の傾向が現れる。マスクの走査を行うことにより、特徴的部分が一部近景により遮られている場合等にも、中央または両端に偏った特徴的部分の配置の特徴を抽出することができる。また、図6の(c)に図示したようなマスクの分布変更を行うことにより、撮影枠の取り方により特徴的部分の位置が多少変動しても、中央近くに偏った特徴的部分の配置の特徴を抽出することができる。なお、選別対象画像やサンプル画像が天地方向を揃えられずに供給された場合でも、特徴的部分の中央または両端への偏り具合を示す代表特徴量が適切に算出できるように、各山型マスクの向きを4方向に変えて、各向きで走査および/または分布変更を行うこととしてもよい。
以上、本実施形態において使用される局所特徴量画像とマスクについて説明した。次に、図2に示した本実施形態の参照データを導出するために予め行われる、シーンごとのサンプル画像群の学習処理について、図7のフローチャートを用いて説明する。
ここでは「夜景」のシーンに関する学習を例にとって説明すると、学習の対象となるサンプル画像群は、「夜景」のシーンの画像であることが分かっている複数の画像と、「夜景」のシーンの画像でないことが分かっている複数の画像からなる。各サンプル画像には、重みすなわち重要度が割り当てられる。まず、図7のステップS2において、すべてのサンプル画像の重みの初期値が、等しい値に設定される。
次に、ステップS4において、「夜景」のシーンの識別に用いられ得る局所特徴量画像の種類、マスクの種類および代表特徴量の種類の候補の組が、複数組規定される。本実施形態では、使用可能な局所特徴量画像の種類としては、上記で図4を用いて説明した#0番から#99番までの100パターンに対応するそのパターン「らしさ」を画素値とする、100種類の5×5画素の局所特徴量画像が規定されるものとする。使用可能なマスクの種類としては、上記で図6を用いて説明した、一様マスク4種類、傾斜マスク5種類および山型マスク5種類の合計14種類が規定されるものとする。使用可能な代表特徴量の種類としては、マスクの走査および分布変更によって得られた一連の積和演算結果の最大値、最小値、最大値と最小値の差分値、および中央値の4種類が規定されるものとする。したがって、ステップS4では、これらのあらゆる組合せ、すなわち100×14×4=5600組の候補の組が規定される。
続いて、ステップS6において、識別に使用され得る上記の候補の組の各々について、「夜景」のシーンであるか否かを識別する識別基準を提供するものである「識別器」が作成される。この例では、図8に導出方法を図示した、各候補の組が指定する種類の局所特徴量画像およびマスクを用いて算出したその候補の組が指定する種類の代表特徴量についてのヒストグラムを、「識別器」として使用する。図8を参照しながら説明すると、まず、「夜景」のシーンの画像であることが分かっている複数のサンプル画像の各々から、ある1組の候補の組が指定する種類の局所特徴量画像が導出され、その候補の組が指定する種類のマスクを用いてその候補の組が指定する種類の代表特徴量が算出される。算出された代表特徴量の値の分布について、図8の中央上側に示す一定間隔刻みのヒストグラムが作成される。同様に、「夜景」のシーンの画像でないことが分かっている複数のサンプル画像の各々からも、同じ候補の組が指定する種類の代表特徴量が算出され、図8の中央下側に示す別のヒストグラムが作成される。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図8の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、「識別ポイント」と呼ぶことにする。この識別器によれば、正の識別ポイントに対応する代表特徴量の値を示す画像は「夜景」のシーンの画像である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する代表特徴量の値を示す画像は「夜景」のシーンの画像でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップS6では、識別に使用され得る上記の5600組の候補の組のすべてについて、上記のヒストグラム形式の識別器が作成される。
続いて、ステップS8において、ステップS6で作成した識別器のうち、サンプル画像群をなす各画像が「夜景」のシーンの画像であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行なわれる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される。すなわち、最初のステップS8では、各サンプル画像の重みは等しいので、単純に、正の識別ポイントに対応する代表特徴量の値を示すサンプル画像を「夜景」のシーンの画像であると判断し、負の識別ポイントに対応する代表特徴量の値を示すサンプル画像を「夜景」のシーンの画像でないと判断した場合に、その識別器によって「夜景」のシーンの画像であるか否かが正しく識別されたサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップS14において各サンプル画像の重みが更新された後の2回目以降のステップS8では、たとえばあるサンプル画像Aの重みが別のサンプル画像Bの重みの2倍であるとすると、サンプル画像Aは、正答率の評価において、サンプル画像Bの2枚分相当として数えられる。これにより、2回目以降のステップS8では、重みの低いサンプル画像よりも、重みの高いサンプル画像が正しく識別されることにより重点が置かれる。
次に、ステップS10において、それまでに選択した識別器の組合せの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が「夜景」のシーンの画像であるか否かを識別した結果が、実際に「夜景」のシーンの画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる。組合せの正答率としては、各サンプル画像について、それまでに選択された識別器が示す識別ポイントの総和を算出し、その総和が正であるサンプル画像は「夜景」のシーンの画像であり、総和が負であるサンプル画像は「夜景」のシーンの画像でないと判断した場合に、その判断が正解である確率を用いる。ここで、組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。組合せの正答率が所定の閾値を超えた場合は、それまでに選択した識別器を用いれば「夜景」のシーンの画像を十分に高い確率で選別できるため、学習は終了する。組合せの正答率が所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、図7の処理はステップS12へと進む。
ステップS12では、直近のステップS8で選択されたものに対応する識別器が再び選択されないようにするため、その識別器に対応する局所特徴量画像の種類、マスクの種類および代表特徴量の種類の候補の組が除外される。
次に、ステップS14では、直近のステップS8で選択された識別器では「夜景」のシーンの画像であるか否かを正しく識別できなかった各サンプル画像の重みが、そのサンプル画像の現在の重みよりも高くなるように更新される。一方、直近のステップS8で選択された識別器で「夜景」のシーンの画像であるか否かを正しく識別できた各サンプル画像の重みは、そのサンプル画像の現在の重みよりも低くなるように更新される。この重みの更新を行なう理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像を正しく識別できる識別器が選択されるようにして、識別器の組合わせの効果を高めるためである。なお、正しく識別できなかったサンプル画像の重みと、正しく識別できたサンプル画像の重みとが相対的に変化させられれば十分であるので、上記の重みを高くする更新と重みを低くする更新とのいずれか一方のみを行なうこととしてもよい。
続いて、図7の処理はステップS6へと戻り、ステップS12で除外したものを除く各候補の組について、ヒストグラム形式の識別器が作成し直される。この2回目以降のステップS6における識別器の作成は、各サンプル画像の重みを考慮して行なわれる。たとえば、あるサンプル画像Aの重みが別のサンプル画像Bの重みの2倍であるとすると、サンプル画像Aは、図8の中央に示す識別器のもととなるヒストグラムの作成において、サンプル画像Bの2倍の頻度値を与える。計算量を減らすため、前回のステップS6で作成した識別器を更新する形で新たな識別器を作成してもよい。その後、ステップS8において、重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップS6からS14を繰り返して、「夜景」のシーンの識別に適した識別器として、(1)図4の表中の#41番のパターン「らしさ」を画素値とする5×5画素の局所特徴量画像上で、2×2の大きさの一様マスクを走査して得られた一連の積和演算結果の、最大値と最小値の差分値について作成したヒストグラム形式の識別器、(2)#49番のパターン「らしさ」を画素値とする5×5画素の局所特徴量画像上で、3×3の大きさの一様マスクを走査して得られた一連の積和演算結果の最大値について作成したヒストグラム形式の識別器、および(3)#43番のパターン「らしさ」を画素値とする5×5画素の局所特徴量画像上で、幅3の山型マスクを走査および分布変更して得られた一連の積和演算結果の最大値について作成したヒストグラム形式の識別器が選択されたところで、ステップS10で確認される組合せの正答率が閾値を超えたとすると、ステップS16において、「夜景」のシーンの識別に用いる局所特徴量、マスクおよび代表特徴量の種類と、識別条件とが、図2の参照データの上3行分に示すようなものに確定される。ここで、数列形式の識別条件は、選択されたヒストグラム形式の各識別器が示す識別ポイントを、小さい代表特徴量の値に対応するものから順番に列記したものである。
なお、図7を用いて説明した上記の学習手法においては、ステップS8とS10との間に、ステップS8で選択された識別器について、その識別器を導出するもととなった局所特徴量画像の画素値である所定のパターン「らしさ」の区分の範囲を、サンプル画像群に対する識別精度が向上するように調整することにより、その識別器を修正するステップをさらに設けてもよい。このステップは、たとえば、上記(1)の#41番のパターン「らしさ」を画素値とする5×5画素の局所特徴量画像上から導出された識別器がステップS8で選択された後であれば、図3に示された彩度「無」の区分と「低」の区分との境界、明度「低」の区分と「中」の区分との境界、およびテクスチャ指標値「無」の区分と「少」の区分との境界を、所定の範囲でいくつかの値に変更してみて、変更された境界の各組合せごとに識別器を作成し直してみて、識別制度が最も高くなった境界の組合せに対応する識別器を、最終的な識別器として採用する等のやり方により行うことができる。このステップを設けることにより、選別に使用する局所特徴量に対応する上記の区分の範囲を特定シーンごとに最適化することができるので、さらに精度の高い選別を行なうことが可能となるという利点がある。
また、上記の学習手法を採用する場合において、識別器は、代表特徴量を用いて特定シーンの画像とそうでない画像を識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、たとえば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図8の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
さらに、上記の例では、最も有効な識別器が選択されるごとに、次に有効な識別器の選択に先立って、ステップS6で各サンプル画像の重みを考慮して識別器を作成し直すこととしたが、図7の処理をステップS14からステップS8へと戻すこととし、最初に作成した識別器の中から、重み付き正答率を基準にして有効な識別器を順番に選択することとしてもよい。なお、図7を用いて説明した例のように、最も有効な識別器が選択されるごとに各サンプル画像の重みを考慮して識別器を作成し直す態様においては、ステップS8における最も有効な識別器の選択は、重み付き正答率ではなく単純な正答率を基準としてもよい。あるいは、比の対数を取る前の図8の中央に示す2つのヒストグラムの分布領域が明確に分かれており識別ポイントの絶対値の総和が大きい識別器ほど、「夜景」のシーンの画像の識別に適していると言えるので、上記の絶対値が最も大きい識別器を選択することとしてもよい。また、識別器を作成しなおす場合にはサンプル画像の重みが更新されると各識別器も異なったものとなるため、選択された識別器に対応する特徴量を除外するステップS12を省略してもよい。
このほか、最も有効な識別器の選択には、適当な評価関数等を用いてもよい。
次に、図9のフローチャートを参照しながら、本発明の第1の実施形態に係る図1に示す装置10が行なう具体的な処理の流れについて説明する。
まず、図9のステップS20において、「夜景」および「夕焼け」等の特定シーンのうちユーザーが希望する特定シーンの指定が、シーン指定受付部12により受け付けられる。
次いで、ステップS22において、画像入力受付部14が、選別対象画像の入力を受け付ける。多数の選別対象画像を連続的に受け付けてもよい。選別対象画像は、たとえば、その画像をなす各画素ごとに濃度R、GおよびBの値を示すデータ等の形式で受け付けられる。
続いて、ステップS24において、局所特徴量画像導出部18が、導出すべき局所特徴量画像の種類をメモリ16から読み出し、その種類の局所特徴量画像を、入力された選別対象画像から導出する。たとえば、ステップS20で指定された特定シーンが「夜景」のシーンであるとすると、局所特徴量画像導出部18は、メモリ16中の図2に示す参照データを参照して、最初に導出すべき局所特徴量画像が、図4の表中の#41番のパターン「らしさ」を画素値とする5×5画素の局所特徴量画像であることを認識し、その局所特徴量画像を、入力された選別対象画像から導出する。
次に、ステップS26において、代表特徴量算出部20が、局所特徴量画像導出部18から局所特徴量画像を受け取り、使用すべきマスクの種類および算出すべき代表特徴量の種類をメモリ16から読み出し、その種類の代表特徴量を、局所特徴量画像から算出する。たとえば、ステップS24で上記のとおり#41番のパターン「らしさ」を画素値とする局所特徴量画像が導出された後のステップS26では、代表特徴量算出部20は、メモリ16中の図2に示す参照データを参照して、2×2の大きさの一様マスクを局所特徴量画像上で走査し、得られた一連の積和演算結果の最大値と最小値との差分値を代表特徴量として算出する。
続いて、ステップS28において、識別部22が、算出された代表特徴量に基づいて、メモリ16内の参照データ中の対応する識別条件を参照し、1つの識別ポイントを得る。たとえば、直前のステップS26で上記の最大値と最小値との差分値が代表特徴量として算出された後のステップS28では、識別部22は、図2の第1行目の識別条件のうちステップS26で導出した代表特徴量の値に対応する部分を参照し、1つの識別ポイントを得る。ここで、図2に示した識別条件は、前述のとおり一定間隔刻みの代表特徴量の値に対応するデータ点の識別ポイントを列記したものであるので、ステップS28において得られる識別ポイントは、選別対象画像から導出した代表特徴量の値に最も近いデータ点の識別ポイントや、データ点間の線形補間による識別ポイント等となる。
次に、ステップS30において、算出すべきすべての代表特徴量が導出されたか否かが確認される。上記の「夜景」のシーンが指定された例では、図2の参照データにおいて算出すべき代表特徴量が3種類指定されているので、これら3種類の代表特徴量の算出および対応する識別ポイントの獲得が完了するまで、ステップS24からS30の処理が繰り返される。
算出すべきすべての代表特徴量の算出および対応する識別ポイントの獲得が完了すると、図9の処理はステップS32へと進み、識別部22が、獲得したすべての識別ポイントを総合して、入力された選別対象画像が指定された特定シーンの画像であるか否かを識別する。この実施形態では、すべての識別ポイントを加算して、その加算値の正負によって識別を行なうものとする。たとえば、上記の「夜景」のシーンが指定された例では、入力された選別対象画像から導出された上記の3種類の代表特徴量に関する3つの識別ポイントの総和が正の値である場合には、その選別対象画像は「夜景」のシーンの画像であると判断され、負の値である場合には、「夜景」のシーンの画像でないと判断される。
最後に、ステップS34において、識別部22が選別対象画像を選別して出力し、図9の処理は終了する。
なお、上記の実施形態においては、参照データは装置10内のメモリ16に記憶されているものとしたが、局所特徴量画像導出部18、代表特徴量算出部20および識別部22が参照データにアクセスできる限り、参照データは、装置10とは別個の装置やCD−ROM等の差替可能な媒体に記憶されたものであってもよい。
また、上記の実施形態においては、図4に示した100種類のパターン「らしさ」を示す局所特徴量を、局所特徴量画像の画素値として用いた。この局所特徴量は、複数の特徴の組合せを有する領域に対応する画素である可能性の大小を表すものであり、かつ、所定の範囲(区分)の特徴を有する領域に対応する画素である可能性の大小を表すものであった。しかしながら、本発明において使用される局所特徴量はこれに限られず、たとえば、単に選別対象画像の各画素または各ブロックにおける色相角、彩度、明度およびテクスチャ指標値等そのものを、局所特徴量として用いてもよい。また、上記の実施形態では、5×5画素に縮小された大きさの局所特徴量画像を導出したが、選別対象画像と同じ大きさの局所特徴量画像を導出することとしてもよい。
さらに、選別に用いる参照データは、図2に示した形式のものに限らず、たとえば、図2の識別条件の部分を、2値データ、単一の閾値または関数等としてもよい。それに伴い、識別部22による識別手法も、識別ポイントの加算値の正負によるものに限られない。さらに、上記の実施形態では、特定シーンごとに導出すべき局所特徴量の種類が参照データ中で指定されていたが、このような局所特徴量の種類の指定がない参照データを用いてもよい。その場合、局所特徴量画像導出部18は、濃度R、GおよびBの値を画素値とするデータ等の形式で入力される選別対象画像を、そのまま局所特徴量画像として代表特徴量算出部20に引き渡すものとなる。
また、参照データを予め決定するための学習手法も、図7および8を用いて説明した上記の手法に限られず、他のいかなる手法であってもよい。たとえば、クラスタリングやブースティング等の名称で知られている、一般に用いられる機械的学習手法を用いてもよい。あるいは、参照データは、熟練した技術者により経験的に定められたものであってもよい。
さらに、上記の本発明の第1の実施形態に係る装置10では、シーン指定受付部12を設け、汎用装置として様々な特定シーンの画像の選別を行えるようにしたが、シーン指定受付部12を設けず、1つの特定シーンの画像の選別に特化した装置としてもよい。
上記の本発明の第1の実施形態に係る装置10は、局所特徴量画像上において、加重マトリクス状のマスクを走査および/または分布変更して得られた一連の積和演算結果に基づいて代表特徴量を算出するものであるので、撮影枠の取り方の違い等により撮影対象の細かい位置や面積割合が変動しても、所望の特定シーンに対応する特徴的部分の配置の傾向を代表特徴量の値に適切に反映させることができ、精度の高い選別を行うことができる。
以上、本発明の第1の実施形態に係る装置10について説明したが、コンピュータを、上記の画像入力受付部14、局所特徴量画像導出部18、代表特徴量算出部20および識別部22に対応する手段として機能させ、図9に示すような処理を行なわせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。これらの場合においても、参照データは、プログラム内あるいは同一の記録媒体内に含まれているものであってもよいし、外部の装置や別個の媒体から提供されるものであってもよい。

(第2の実施形態) 次に、図10を用いて、本発明の第2の実施形態に係る装置について説明する。図10は、本発明の第2の実施形態に係る特定シーンの画像を選別する装置50の構成を示したブロック図である。装置50に含まれるシーン指定受付部52、画像入力受付部54、参照データ用メモリ56、局所特徴量画像導出部58、代表特徴量算出部60および識別部62の機能は、上記に説明した第1の実施形態に係る装置10の対応部分の機能と同様であり、それらが行なう選別処理も、上記の図9に示した処理と同様である。そこで、これらについては説明を省略し、以下、第1の実施形態に係る装置10と異なる部分についてのみ説明する。
第2の実施形態に係る装置50は、正解受付部64、追加学習データ用メモリ66および追加学習部68を備え、いわば自己学習機能を有する点で、第1の実施形態に係る装置10と異なる。識別部62から選別結果の出力を受けたユーザーが、選別されたあるいはされなかった画像をディスプレイに表示する等して確認したところ、選別結果が正しくなかった場合、ユーザーは、次回からはそれに類似した画像も正しく選別してほしいと考える。本実施形態の装置50は、そのような要請に応えるものである。
すなわち、ユーザーは、正しくない選別結果を受け取り、それを装置50に追加学習させたいと思った場合は、装置50の正解受付部64に対し、その画像に対する正解のシーンを指定して追加学習命令を与えることができる。たとえば、識別部62が「夜景」のシーンの画像であると判断した選別対象画像が、実際には「夕焼け」のシーンの画像であった場合は、正解「夕焼け」を指定して追加学習命令を与える。追加学習命令および正解の指定を受け取った正解受付部64は、それらを識別部62に送る。識別部62は、これに応答して、選別結果が正しくないとされた選別対象画像の選別処理において代表特徴量算出部60が算出した代表特徴量と、指定された正解とを、追加学習データ用メモリ68に送る。あるいは、指定された正解と導出された特徴量とに代えて、指定された正解と選別対象画像そのものとを追加学習データ用メモリ68に送る構成としてもよい。追加学習データ用メモリ68には、参照データ用メモリ56に格納されている初期の参照データの導出に用いられた、各サンプル画像またはその代表特徴量も格納されているものとする。
装置50が繰返し使用され、追加学習データ用メモリ66に蓄積された追加学習すべきデータの量が予め定められた基準を超えると、追加学習データ用メモリ66に格納されているデータが追加学習部68に送られ、追加学習部68において、再度の学習および参照データの更新が行なわれる。本実施形態では、追加学習部68は、正解が指定された追加学習すべき各画像と、初期の参照データの導出に用いられた各サンプル画像とを合わせたすべての画像について、再度、図7に示す手法等により学習を行ない、新たな参照データを導出するものとする。
なお、追加学習部68が行なう学習手法は上記のものに限られず他のいかなる手法であってもよく、たとえば、クラスタリングやブースティング等の名称で知られている、一般に用いられる機械的学習手法を用いてもよい。また、上記のように、初期の参照データの導出に用いられた各サンプル画像またはその代表特徴量を追加学習用メモリ66に格納しておく手法にも限られず、正解が指定された追加学習すべき画像についてのみ学習を行なうこととしてもよい。その場合、たとえば、追加学習すべき画像のデータについて、各特定シーンごとかつ各代表特徴量ごとに図8を用いて説明したようなヒストグラムを作成して、それらのヒストグラムが示す識別条件と、参照データ用メモリ56にそれまで蓄積されていた参照データが示す識別条件との加重平均を取り、その加重平均された識別条件を新たな識別条件として参照データ用メモリ56内の参照データを更新する等の手法を用いることができる。また、追加学習用メモリ66を設けずに、追加学習すべき画像のデータが識別部62から直接に追加学習部68に送られる構成とし、参照データを順次更新するようにしてもよい。
また、上記の実施形態では、追加学習すべきデータの量が予め定められた基準を超えた際に追加学習および参照データの更新を行なうこととしたが、定期的にまたはユーザーからの命令により追加学習および参照データの更新を行なう構成としてもよい。
上記の本発明の第2の実施形態に係る装置50によれば、上記した第1の実施形態の装置10と同様の効果に加えて、実際の選別対象画像に合わせて継続的に選別の精度を向上させていくという効果をさらに得ることができる。また、ユーザーが頻繁に指定する特定シーンに関しては、参照データの内容が特に充実していくため、より高い識別精度を実現することができる。
以上、本発明の第2の実施形態に係る装置50について説明したが、コンピュータを、上記の画像入力受付部54、局所特徴量画像導出部58、代表特徴量算出部60、識別部62、正解受付部64および追加学習部68に対応する手段として機能させるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。

(第3の実施形態) 次に、図11から14を用いて、本発明の第3の実施形態に係るプログラムについて説明する。本発明の第3の実施形態に係るプログラムは、上記の各実施形態に関連して説明したのと同様の特定シーンの画像を選別する処理を、CPU(中央演算処理装置)の性能やメモリの容量等、プログラムの実行環境を考慮した最適な負荷で、コンピュータに実行させるものである。
図11は、本実施形態に係るプログラムがコンピュータに実行させる処理の流れを示したフローチャートである。以下、各ステップにおける処理について、詳細に説明する。
まず、ステップ90において、実行環境の計算能力が特定される。本実施形態では、使用するコンピュータのCPUの性能のみを、実行環境の計算能力を左右する要因として考慮するものとする。ステップ90では、使用しているコンピュータのCPUの種類を自動的に検出するようにしてもよいし、使用しているコンピュータの型番の指定等をユーザーに要求してCPUの種類を特定するようにしてもよい。
次に、ステップ92において、ステップ90で特定されたCPUの性能に基づいて実行環境−計算量データが参照され、計算量の限界値が設定される。本実施形態における実行環境−計算量データとは、図12に示すような、CPUの性能ごとに計算量の限界値を規定した参照表形式のデータである。図12の例では、高性能のCPUほど、対応する計算量の限界値は高くされている。この実行環境−計算量データは、プログラム内に含まれているものであってもよいし、外部の装置やCD−ROM等の別個の媒体から提供されるものであってもよい。
続いて、ステップ94および96において、第1の実施形態に関連して説明した図9に示す処理と同様に、所望の特定シーンの指定および選別対象の画像を示す画像データの入力が受け付けられる。さらに、ステップ98において、計算量の合計値の初期値が0に設定される。
次に、ステップ100において、参照データから、1組の代表特徴量の種類と識別条件が読み出される。本実施形態では、参照データは、第1の実施形態に関連して説明した図2に示す参照データと同様のものであるとする。たとえば、ステップ94で指定された特定シーンが「夜景」のシーンであるとすると、ステップ100では、局所特徴量画像の種類、マスクの種類、代表特徴量の種類を規定して、それに対応する識別条件が読み出される。例えば、図2に示すような、#41の5×5画像(局所特徴量画像の種類)に対して2×2一様マスク(マスクの種類)、「(最大値)−(最小値)」という代表特徴量の種類を規定し、それに対応する識別条件が読み出される。参照データは、プログラム内に含まれているものであってもよいし、使用しているコンピュータ内のメモリ、外部の装置または別個の媒体から提供されるものであってもよい。
続いて、ステップ102において、直前のステップ100で読み出したものに対応する代表特徴量が、ステップ96で入力された画像データから導出される。ここで、本実施形態に係るプログラムは、少なくとも図2に示した参照データに含まれるすべての代表特徴量について、その導出に必要な計算処理を規定している。
次に、ステップ104において、ステップ102で導出された代表特徴量に基づいて、ステップ100で読み出された対応する識別条件が参照され、1つの識別ポイントが得られる。ここでの処理は、第1の実施形態に関連して説明した図9のステップ28の処理と同様の手法によるものである。
続いて、ステップ106において、代表特徴量−計算量データが参照され、ステップ102で導出された代表特徴量に対応する計算量ポイントが、計算量の合計値に加算される。本実施形態における代表特徴量−計算量データとは、図13に示すような、識別に用いられ得る各代表特徴量ごとに計算量ポイントを規定した参照表形式のデータである。ここで、導出に必要な計算回数や反復処理の繰返し回数が多い特徴量ほど、高い計算量ポイントが与えられている。代表特徴量−計算量データは、プログラム内に含まれているものであってもよいし、使用しているコンピュータ内のメモリ、外部の装置または別個の媒体から提供されるものであってもよい。
次に、ステップ108において、計算量の合計値が、ステップ92で設定された計算量の限界値以上となったか否かが確認される。ここで、計算量の合計値がまだ限界値に達していない場合は、さらにステップ110において、参照データが現在の特定シーンについて規定している、すべての代表特徴量を導出し終えたか否かが確認される。ここで、まだすべての代表特徴量を導出し終えていない場合は、図11の処理はステップ100へと戻り、計算量の合計値が限界値を超えるか、すべての特徴量を導出し終えるまで、ステップ100から110の処理が繰り返される。
計算量の合計値が限界値を超えるか、すべての代表特徴量を導出し終えると、図11の処理はステップ112へと進む。ステップ112では、すべての識別ポイントが総合され、入力された画像データが指定された特定シーンの画像であるか否かが識別される。本実施形態では、第1の実施形態に関連して説明した処理と同様に、すべての識別ポイントを加算することにより識別を行なうものとする。
最後に、ステップ114において識別結果が出力され、図11の処理は終了する。
なお、プログラムの実行環境を考慮した最適な負荷で処理を行なう手法は、上記に説明した手法に限られない。たとえば、変更例として、実行環境−計算量データおよび代表特徴量−計算量データを用いずに、図2に示すものに代えて図14に示すような参照データを使用することとしてもよい。図14に示す参照データは、図2に示すものと類似の参照表形式のデータを、CPUの性能ごとに規定したものである。図14に示すように、CPUの性能が高くなるほど、対応する参照表では各特定シーンの識別に用いる代表特徴量の数が多くされており、逆に、CPUの性能が低くなるほど、代表特徴量の数が少なくされている。これに代えてまたは加えて、低い性能に対応する参照表では、多くの計算を必要とする代表特徴量は用いないこととしてもよい。この図14に示すような参照データを使用した変更例による処理では、図11に示す処理のステップ92、98、106および108は不要となる。また、ステップ100では、参照データ中の、ステップ90で特定したCPUの性能に対応した参照表を参照することになる。
また、上記の第3の実施形態およびその変更例では、使用するコンピュータのCPUの性能のみを、実行環境の計算能力を左右する要因として考慮したが、これに代えてまたは加えて、メモリの容量等の他の要因を考慮してもよい。
例えば、デジタルカメラ等の撮像装置において、撮影者により指定された撮影モードが高画質モードであるか通常モードであるかに応じて、図15に示すような計算量ポイントの限界を定め、限界値に達するまで計算を行うようにしてもよい。
あるいは、図16に示すような特徴量と識別条件の参照表形式のデータを用意して、高画質モードが設定されているか通常モードが設定されているかに応じて読み込む参照データを切り替えるようにしてもよい。また、この参照は、ユーザーが望む処理を施すことができるようにユーザーごとに設定するようにしてもよい。
上記の本発明の第3の実施形態またはその変更例に係るプログラムによれば、上記した第1の実施形態の装置10と同様の効果に加えて、実行環境の計算能力を考慮に入れて、その計算能力の範囲内の最適な負荷により、最大限の高い選別精度を実現することができるという効果が得られる。さらに、実行環境の計算能力の特定を、ユーザーによる指定により行なう場合には、ユーザーは、処理の高速化を図るため、実行環境の計算能力が高い場合でも、所望の処理速度に応じた低い計算能力を指定してもよい。
なお、上記の第3の実施形態およびその変更例に係るプログラムを記録したコンピュータ読取可能な記録媒体も、本発明の実施形態の1つである。
(第4の実施形態) 次に、本発明の第4の実施形態について説明する。第1の実施の形態では、「夜景」のシーンを識別する装置を一例として説明したが、本実施の形態では、同様の識別手法を用いて、入力された画像が「水中」「夜景」「夕焼け」「その他」のいずれのシーンであるかを特定して分類する機能を有するシーン分類装置について具体的に説明する。
図17に示すシーン分類装置11は、入力された画像データを特定シーンに画像を選別する装置10とその結果に応じて画像データを各シーンに分類する分類部25を備える。装置10は第1の実施の形態と略同様であるので詳細な説明は省略し、相違する点についてのみ詳細に説明する。
図17に示すように、識別部22は、「水中」「夜景」「夕焼け」の各シーンに対応した識別器を複数備えている。121は、「水中」のシーンの識別に用いられる複数の識別器(以下、複数の識別器を識別器群という)であり、122は、「夜景」のシーンの識別に用いられる識別器群であり、123は、「夕焼け」のシーンの識別に用いられる識別器群である。
例えば、「水中」のシーンを識別する際、まず、複数の識別器(各識別器は1つの特徴量に対応する)を用意し、学習の対象となるサンプル画像から得た特徴量を各識別器に入力して、複数の識別器から最も有効な識別器を1つ選択する。次に、その識別器が「水中」のシーンの画像であるか否かを正しく識別したサンプル画像の重みを現在の重みよりも低くし、正しく識別できなかったサンプル画像の重みを現在の重みより高くして選択されなかった残り識別器に入力し、その中から正解率の高い識別器をさらに選択するという処理を繰り返して正解率が所定の閾値を越えるまで、識別器を追加する(図7参照)。
このよう学習した結果、「水中」のシーンを識別するために識別器群121が選択され、識別部22は、この識別器群121を用いて入力された画像データが「水中」のシーンであるかを識別する。識別を行う画像データが入力されると、各識別器が獲得した各識別ポイントを総合して、入力された画像データが「水中」のシーンの画像であるか否かを識別する。例えば、図2では「夜景」のシーンや「夕焼け」のシーンについての代表特徴量を示しているが、これに相当する「水中」のシーンについての代表特長量を用いる。その場合には、入力された画像データから導出された識別ポイントの総和が正の値であれば、その画像データは「水中」のシーンの画像を示すデータであると判断され、負の値であれば、「水中」のシーンの画像を示すデータでないと判断される。
「夜景」のシーンについても、図7に示すフローチャートに示す方法を用いて「夜景」のサンプル画像を用いて、複数の識別器の中から「夜景」のシーンの識別に最も有効な特徴量を用いた識別器をまず1つ選択し、さらに、正解率が所定の閾値を越えるまで繰り返し残りの識別器の中から最適な識別器を追加選択して識別器群122を選択する。具体的には、例えば、図7に示す「夜景」シーンの3種類の代表特徴量に対応した識別器を3つ用意する。識別部22で、「夜景」のシーンであるか否かを識別する際には、「夜景」のサンプル画像に基づいて学習された結果得られた3つの識別器を用い、各識別器から得られた識別ポイントを加算して識別を行う。
同様に、「夕焼け」のシーンについても、「夕焼け」のサンプル画像を用いて識別器群123を選択し(具体的には、例えば、図2に示す「夕焼け」シーンの2種類の代表特徴量に対応した識別器を2つ用意する)、識別部22で「夕焼け」のシーンであるか否かを識別は、「夕焼け」のサンプル画像を学習した結果得られた識別器群123を用い、各識別器から得られた識別ポイントを加算して識別を行う。
図18は、本実施形態に係る分類部25が「水中」「夜景」「夕焼け」「その他」のいずれのシーンであるかに分類する流れの一例を示したフローチャートである。以下、各ステップにおける処理について、詳細に説明する。
まず、ステップ130において、画像入力受付部14から画像が入力され、ステップ131において、その入力された画像より局所特徴量画像導出部18並びに代表特徴量算出部20を用いて「水中」のシーンを識別する代表特徴量を算出し、「水中」のシーンを識別する識別器群121の各識別器から識別ポイントを獲得する。獲得したすべての識別ポイントを加算して、その加算値の正負によって「水中」のシーンであるか否かの識別を行なう。
ステップ132において、加算値が正の場合には、ステップ133で「水中」のシーンでと判定し、加算値が負の場合には、ステップ134に進み、「夜景」のシーンであるかの識別を行う。ステップ134において、局所特徴量画像導出部18並びに代表特徴量算出部20を用いて「夜景」のシーンを識別する代表特徴量(図2参照)を算出し、「夜景」のシーンを識別する識別器群122の各識別器から識別ポイントを獲得し、その識別ポイントを加算した加算値によって「夜景」のシーンであるか否かの識別を行なう。
ステップ136において、加算値が正の場合にはステップ137で「夜景」のシーンであるものと判定し、加算値が負の場合には、ステップ138に進み、「夕焼け」のシーンであるか否かの判定を、上述と同様に、「夕焼け」のシーンを識別する代表特徴量(図2参照)を算出し、「夕焼け」のシーンを識別する識別器群123を用いて「夕焼け」のシーンであるか否かを判定する。同様に、ステップ139において、加算値が正の場合には、ステップ140で「夜景」のシーンであるものと判定し、加算値が負の場合には、ステップ141で「その他」のシーンであるものと判定する。
上述では、「水中」「夜景」「夕焼け」の順番で識別を行う場合について説明したが、短い撮影間隔で撮影された画像データを判定する場合には、同一のシーンである可能性が高いので、前の画像で判定されたシーンを最初に識別するようするものが望ましい。例えば、撮影間隔が短い間隔で撮影された前の画像が「夕焼け」が判定された場合には、次の画像も「夕焼け」のシーンである可能性が高く、次の画像の判定をおこなう際に「夕焼け」の識別を最初に行うようにすることによって他の識別処理が不要となる可能性が高くなり、処理を効率化することが可能になる。
あるいは、図19のフローチャートに示すように、分類部25で「水中」「夜景」「夕焼け」のシーンの識別を並列に行うようにしてもよい。
そこで、ステップ142で画像が入力されると、ステップ142、ステップ144、ステップ146において、代表特徴量導出部20で算出した特徴量をそれぞれ識別器群121(「水中」のシーン)、122(「夜景」のシーン)、123(「夕焼け」のシーン)に入力して識別ポイントを算出し、ステップ148で入力された画像データは識別器群121、122、123から得た加算した識別ポイントが最大となるシーンであると判定する。ただし、このとき最大となる識別ポイントが所定の閾値を越えていない場合には、「その他」のシーンであると判断する。
ここでは第1の実施の形態で説明した方法を用いて、識別を行う場合について説明を行ったが、他のいかなる手法であってもよい。たとえば、クラスタリングやブースティング等の名称で知られている、一般に用いられる機械的学習手法を用いてもよい。また、特徴量は、本実施の形態で説明したものに限らず熟練した技術者により経験的に定められたものであってもよい。
また、本実施の形態に、第2の実施の形態で説明したように、追加学習を行う構成を追加するようにしてもよい。
(第5の実施形態) 次に、本発明の第5の実施形態について説明する。本実施の形態では、デジタルスチールカメラやカメラ付携帯電話などの撮像装置と、モニタやプリンタやラボに置かれる機器(フォトバンクのサーバなども含む)などの出力装置からなるシステムについて具体的に説明する。以下の実施の形態では、前述の実施の形態と同様のものには、同一符号を付して詳細な説明は省略する。
図20に示すように、本実施の形態のシステム150は、撮像装置152と出力装置154とを備える。また、撮像装置は、リナックスやTRONなどのOS(operating system)を備える構成とし、ファイル管理機能などOSで提供される機能を利用できるものが望ましい。
撮像装置152は、撮影して画像データを取得する撮像部156と、撮像部156で獲得された画像データを分類するシーン分類部(シーン分類装置)11と、画像データのシーンに応じて画像処理を施す画像処理部158とを備える。
画像処理部158は、ホワイトバランスの修正、明るさの調整、階調補正、シャープネス補正などの画像処理を画像データに自動的に施すが、シーン分類部11で分類されたシーンに応じた画像処理が画像データに施される。具体的には、例えば、ホワイトバランスを修正する際に、通常の画像(例えば、「水中」「夜景」「夕焼け」「その他」に分類する場合には、「その他」のシーンに分類された場合)に対しては、RGBのヒストグラムをそれぞれ求め、全体がグレーになるようにRGBの濃度を調整するが、「水中」のシーンと判定された画像は、ホワイトバランスが崩れて「B」の濃度が高い状態が正常な状態であるのでホワイトバランスの修正は行わないようにする。また、明るさを調整する処理では、「夜景」のシーンと判定された画像は全体が暗いのが通常の状態であるので、全体を明るくするような補正は行わないようにする。
出力装置154は、画像処理の施された画像データをネットワーク経由で受信したり、撮像装置152で一旦記録媒体に記録した画像データを出力装置154が読み取って、その画像を出力装置154の出力部153のモニタに表示したり、プリントを行ったり、ラボに置かれるフォトバンクなどの記憶手段に記憶して保管する。
あるいは、図21のシステム150aに示すように、画像処理部158を撮像装置152に設けず、出力装置154に設けるようにしてもよい。この場合、シーン分類部11によって得られたシーン情報を付帯情報付加部160で画像データに付帯情報(例えば、Exifのタグ情報など)として付加し、シーン情報が付帯された画像データを出力装置154に受け渡すようにしてもよい。このように出力装置154に画像処理部158を設けた構成にすることにより、出力装置154の特性に応じた画像処理を施すことが可能となる。
(第6の実施形態) 次に、本発明の第6の実施形態について説明する。本実施の形態では、デジタルスチールカメラやカメラ付携帯電話などの撮像装置と、PCなどの画像処理装置と、モニタやプリンタやラボに置かれる機器などの出力装置からなるシステムについて具体的に説明する。
図22に示すように、本実施の形態のシステム162は、撮像装置152と画像処理装置164と出力装置154とを備える。
撮像装置152は、撮影して画像データを取得する撮像部156を備え、画像処理装置162には、画像データを分類するシーン分類部11と、画像データのシーンに応じて画像処理を施す画像処理部158とを備える。
画像処理装置164は、画像データを撮像装置152からネットワーク経由で受信したり、撮像装置152で一旦記録媒体に記録した画像データを画像処理装置164が読み取ってシーン分類部11に受け渡し、画像処理部158で分類されたシーンに応じた画像処理を画像データに施す。
さらに、ネットワークや記録媒体を介して画像処理の施された画像データが画像処理装置164により出力装置154に送られ、出力装置154では、画像処理が施された画像データをモニタに表示したり、プリントしたり、ラボに置かれるフォトバンクなどの記憶手段に記憶するようにする。
あるいは、図23のシステム162aに示すように、画像処理部158を画像処理装置164に設けず、出力装置154に設けるようにしてもよい。この場合、シーン分類部11によって分類して得られたシーン情報を付帯情報付加部160で画像データの付帯情報(例えば、Exifのタグ情報など)として付加し、シーン情報が付帯された画像データを出力装置に受け渡すようにする。このように出力装置154に画像処理部158を設けた構成にすることにより、出力装置154の特性に応じた画像処理を施すことが可能となる。
さらに、図24のシステム162bに示すように、画像処理装置164がシーン分類部11のみを備える構成とし、画像処理装置164は画像データを撮像装置152からネットワーク経由などで受け取ってシーンを分類し、その結果得られたシーン情報のみをネットワーク経由などで再度撮像装置152に転送するようにしてもよい。
(第7の実施形態) 次に、本発明の第7の実施形態について説明する。本実施の形態では、デジタルスチールカメラやカメラ付携帯電話などの撮像装置と、モニタやプリンタやラボに置かれる機器などの出力装置からなるシステムについて説明するが、本実施の形態では、出力装置にシーン分類の機能を持たせる場合について説明する。
図25に示すように、本実施の形態のシステム166の撮像装置152は、撮影して画像データを取得する撮像部156のみを備え、出力装置154が、画像データを分類するシーン分類部11と、画像データのシーンに応じて画像処理を施す画像処理部158とを備える。
出力装置154は、ネットワークや記録媒体を介して撮像装置152から画像データを受け取り、シーン分類部11でのシーンを分類して、画像処理部158で分類されたシーンに応じた画像処理を画像データに施す。
以上、実施の形態5から7において、撮像装置、画像処理装置および出力装置のいずれかにシーンを分類するシーン分類部を設けた場合について説明したが、分類した画像データはシーンに分けて、撮像装置や画像処理装置や出力装置に装備される記憶装置(フォトバンクのサーバや記録媒体など)内で別のファルダに分けて記憶して管理するようにしてもよい。また、出力装置(例えば、具体的にはラボに置かれるフォトバンク用のサーバコンピュータなど)において画像データをフォルダに分けて管理している場合には、インデックスプリントをフォルダ別に作成するようにしてもよい。
また、前述の第3の実施の形態で説明したように、特定シーンの画像を選別する装置10をいずれの装置に設けるかによって、装置10のプログラムの実行環境に応じた計算能力や所望の処理速度に応じて識別器が用いる特徴量の種類や、装置10でシーンの識別に用いる特徴量の数を変更するようにしてもよい。
(第8の実施形態) 次に、本発明の第8の実施形態について説明する。本実施の形態では、デジタルスチールカメラやカメラ付携帯電話などの撮像装置にシーン分類の機能を持たせ、撮像装置で設定される撮影モードとの連動させる方法について具体的に説明する。
撮像装置152は、図26に示すように、撮影して画像データを取得する撮像部156と、撮像部156で獲得された画像データを分類するシーン分類部11と、画像データのシーンに応じて画像処理を施す画像処理部158と、撮影時に撮影モードなどシーンを特定する情報を取得するシーン特定情報取得部170とを備える。
デジタルスチールカメラなどの撮像装置152には、「夜景」モードや「夕焼け」モードなど撮影モードを指定する機能を備えたものがあり、撮影時に撮影者が撮影を行う周囲の状況を考慮して撮影モードを指定して、指定された撮影モードに応じた撮影が行なわれる。
シーン特定情報取得部170は、撮影者が指定した撮影モードのシーンを特定する情報として取得し、シーン分類部11はこの撮影モードに応じた画像であるか判定する。
図27は、本実施形態に係る撮像装置が実行する処理の流れを示したフローチャートである。以下、各ステップにおける処理について、詳細に説明する。
ステップ180において、撮像部156が画像データを取得したときの撮影モードが、撮影時に撮影者が自動撮影モードを選択している撮影している場合には(ステップ182)、ステップ184において、シーン分類部11で分類し、続いてステップ186において、画像処理部158で分類されたシーンに応じた画像処理を画像データに施す。
撮影者が、例えば「夜景」の撮影モードを選択して撮影を行った場合には(ステップ182)、ステップ188において、撮像部156が取得した画像データをシーン分類部11で分類し、分類結果が「夜景」のシーンであると判定された場合には(ステップ190)、そのままステップ192の「夜景」のシーンに応じた画像処理を施すが、分類結果が「夜景」のシーンではないと判定された場合には(ステップ190)、ステップ194において、デジタルスチールカメラのLCD表示部などに撮影モードの確認を促すように、「夜景モードで画像処理を行いますか」というような警告表示を行う。
ステップ196において、撮影者がそのまま夜景モードで画像処理を行うように指示した場合には、ステップ192の夜景モードの画像処理を行うが、撮影者から夜景モードで画像処理を行わないように指示された場合には、ステップ198の通常の画像処理を施す。
さらに、ステップ200において、分類されたモードに従って、画像データにシーン情報(例えば、Exifのタグ)を付帯して記録媒体や撮影装置のメモリ等に記録する。
上述のシーン分類部11は、「水中」「夜景」「夕焼け」「その他」のいずれかのシーンに分類するものであってもよいし、「夜景」であるか否かのみを判断するものであってもよい。
上述では撮影者が設定した撮影モードに応じて、モードの設定と撮影された画像が一致しているかについて連動させる場合について説明したが、撮影者が設定した撮影モード以外に撮影時間やストロボONで撮影したがなどの情報をシーン特定情報取得部170においてシーンを特定する情報として取得するようにしてもよい。
例えば、撮像装置内に備えた時計の示す撮影時刻が夜であれば、「夜景」のシーンの可能性はあるが、晴天の屋外で撮影された「青空」のシーンである可能性は低い。そこで、「夜景」のシーンを判定する閾値を下げたり、「夜景」のシーンの識別ポイントを増加させたりすることによって「夜景」のシーンに識別されやすくするようにしてもよい。さらに、「夜景」のシーンの可能性が高く、「晴天」のシーンの可能性がほとんどない場合には、「晴天」のシーンの判別は、スキップするようにしてもよい。
また、ストロボONで撮影された場合には、晴天のシーンである可能性は低いので「晴天」のシーンはスキップするようにしてもよい。
さらに、カメラに、時計と、撮影方向を検出するセンサーと、GPS等を用いて撮影位置を検出するような位置検出センサーとを設けるようにすれば、撮影時刻とカメラの撮影方向と撮影した位置から太陽とカメラの位置との関係を知ることができ、昼間に太陽の方向を向いていれば逆光で撮影された可能性があるかがわかる。そこで、これらの情報をシーンを特定する情報として取得し、シーンを識別する際に逆光で撮影されたときの情景に応じた識別を行うようにしてもよい。
このように、シーンを特定する情報を取得するようにすることにより、この情報を算用してシーンを判定する精度を上げることが可能になる。
また、撮像装置で得たシーンを特定する情報を付帯情報として画像に付加するようにしておけば、画像のシーンの識別を撮像装置以外の装置で行う場合であっても、このシーンを特定する情報を参照してシーンの判定精度を上げることが可能になる。
上述では、撮影して得られた自然画像について説明したが、特徴量を変えることによって、コンピュータグラッフィクなどで作成された人工画像と自然画像であるかの識別にも用いることが可能である。
また、上記において詳細に説明した本発明の各実施形態は例示的なものに過ぎず、本発明の技術的範囲は、特許請求の範囲のみによって定められるべきものであることは言うまでもない。
本発明の第1の実施形態に係る特定シーンの画像を選別する装置の構成を示したブロック図 図1の装置が用いる参照データの例を示した図 第1の実施形態で着目する画像の特徴およびそれらの区分を示した説明図 第1の実施形態において局所特徴量画像の画素値として使用され得る局所特徴量の種類を示した表 彩度「無」、「低」および「高」の特徴を有する領域に対応する画素である可能性の大小を表す値の導出方法を示した説明図 第1の実施形態において使用され得るマスクの種類を示した概念図 図2に示した参照データを規定するための学習手法の流れを示したフローチャート 図2の識別条件を確定する基となる識別器の導出方法を示した図 図1の装置が行なう選別処理の全体的な流れを示したフローチャート 本発明の第2の実施形態に係る特定シーンの画像を選別する装置の構成を示したブロック図 本発明の第3の実施形態に係る特定シーンの画像を選別するプログラムが、コンピュータに実行させる処理の流れを示したフローチャート 図11の処理で使用される実行環境−計算量データの例を示した図 図11の処理で使用される特徴量−計算量データの例を示した図 本発明の第3の実施形態の変更例において使用される参照データの例を示した図 高画質モードと通常モードで使用される計算量データの限界の例を示した図 高画質モードと通常モードの参照データの例を示した図 本発明の第4の実施形態に係るシーン分類装置の構成を示したブロック図 本発明の第4の実施形態に係るシーンを分類するプログラムが、コンピュータに実行させる処理の流れを示したフローチャート 本発明の第4の実施形態に係るシーンを分類するプログラムが、コンピュータに実行させる処理の変更例の流れを示したフローチャート 本発明の第5の実施形態に係るシステムの構成を示したブロック図 本発明の第5の実施形態に係るシステムの変更例の構成を示したブロック図 本発明の第6の実施形態に係るシステムの構成を示したブロック図 本発明の第6の実施形態に係るシステムの変更例の構成を示したブロック図(その1) 本発明の第6の実施形態に係るシステムの変更例の構成を示したブロック図(その2) 本発明の第7の実施形態に係るシステムの構成を示したブロック図 本発明の第8の実施形態に係る撮像装置の構成を示したブロック図 本発明の第8の実施形態に係る撮像装置で実行させる処理の流れを示したフローチャート

Claims (14)

  1. 特定シーンの画像を選別する装置であって、
    選別対象画像の入力を受け付ける画像入力受付手段と、
    前記特定シーンとして所望のシーンの指定を受け付けるシーン指定受付手段と、
    前記受け付けたシーンの指定に応じて導出すべき局所特徴量画像の種類をメモリから読出し、前記選別対象画像から、前記読み出した種類の1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段と、
    前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または該マスクのマトリクス値の分布を変更しながら該局所特徴量画像上で適用して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段と、
    前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別手段とを備えていることを特徴とする装置。
  2. 前記局所特徴量画像導出手段が導出する前記局所特徴量画像の種類、前記代表特徴量算出手段が使用する前記マスクの種類ならびに算出する前記代表特徴量の種類、および前記代表特徴量の種類ごとの前記識別条件が、前記特定シーンであることが分かっている複数の画像と前記特定シーンでないことが分かっている複数の画像からなるサンプル画像群について、予め学習を行うことにより決定されたものであることを特徴とする請求項記載の装置。
  3. 前記局所特徴量画像の少なくとも1つが、複数の特徴の組合せを有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものであることを特徴とする請求項1または2記載の装置。
  4. 前記複数の特徴の組合せが、色相、彩度、明度およびテクスチャに関する特徴からなる群から選択された2つ以上の特徴の組合せであることを特徴とする請求項記載の装置。
  5. 前記特定シーンごとの前記学習が、
    該特定シーンの識別に用いられ得る前記局所特徴量画像の種類と前記マスクの種類と前記代表特徴量の種類との候補の組を複数組規定する工程と、
    前記候補の組ごとに、該候補の組をなす種類の前記局所特徴量画像および前記マスクを用いて、前記サンプル画像群を構成する各画像から該候補の組で指定されている種類の前記代表特徴量を算出し、前記サンプル画像群を構成する各画像が前記特定シーンの画像であるか否かを識別する識別基準を設定する試行識別を行って、該試行識別において最も識別精度の高い識別基準が設定された候補の組から順に1組または複数組の候補の組を、該特定シーンの画像の選別に使用する局所特徴量画像の種類とマスクの種類と代表特徴量の種類との組として選択する工程と、
    前記選択する工程において選択された前記組の各々について、該組について設定された前記識別基準に基づいて、前記識別条件を決定する工程を含む方法によるものであることを特徴とする請求項記載の装置。
  6. 前記候補の組の少なくとも1組をなす種類の局所特徴量画像が、所定の範囲の特徴を有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものであり、
    前記特定シーンごとの前記学習が、
    前記選択する工程と前記決定する工程との間に、選択された前記候補の組をなす種類の局所特徴量画像が前記可能性の大小を表す局所特徴量の値を画素値とするものである場合に、前記サンプル画像群を構成する画像に対する識別精度が向上するように前記所定の範囲を調整することにより、該候補の組について設定された前記識別基準を修正する工程をさらに含むものであることを特徴とする請求項記載の装置。
  7. 前記候補の組の少なくとも1組をなす種類の局所特徴量画像が、複数の特徴の組合せを有する領域に対応する画素である可能性の大小を表す局所特徴量の値を画素値とするものであることを特徴とする請求項または記載の装置。
  8. 前記複数の特徴の組合せが、色相、彩度、明度およびテクスチャに関する特徴からなる群から選択された2つ以上の特徴の組合せであることを特徴とする請求項記載の装置。
  9. 正しい選別結果が得られなかった選別対象画像について、該選別対象画像が示す正しいシーンの指定を受け付ける正解受付手段と、
    前記正しいシーンの指定が受け付けられた前記選別対象画像を学習することにより、前記識別条件を更新する追加学習手段とをさらに備えていることを特徴とする請求項1からいずれか1項記載の装置。
  10. 特定シーンの画像を選別するプログラムであって、コンピュータを、
    選別対象画像の入力を受け付ける画像入力受付手段、
    前記特定シーンとして所望のシーンの指定を受け付けるシーン指定受付手段、
    前記受け付けたシーンの指定に応じて導出すべき局所特徴量画像の種類をメモリから読出し、前記選別対象画像から、前記読み出した種類の1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段、
    前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または該マスクのマトリクス値の分布を変更しながら該局所特徴量画像上で適用して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段、および
    前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別手段として機能させることを特徴とするプログラム。
  11. 特定シーンの画像を選別するプログラムであって、コンピュータを、
    選別対象画像の入力を受け付ける画像入力受付手段、
    前記特定シーンとして所望のシーンの指定を受け付けるシーン指定受付手段、
    前記受け付けたシーンの指定に応じて導出すべき局所特徴量画像の種類をメモリから読出し、前記選別対象画像から、前記読み出した種類の1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段、
    前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または該マスクのマトリクス値の分布を変更しながら該局所特徴量画像上で適用して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段、および
    前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別手段として機能させることを特徴とするプログラムを記録したコンピュータ読取可能な記録媒体。
  12. 撮像した画像データを取得する撮像手段と、
    所望の特定シーンの指定を受け付けるシーン指定受付手段と、
    前記受け付けたシーンの指定に応じて導出すべき局所特徴量画像の種類をメモリから読出し、前記撮像した画像データから、前記読み出した種類の1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出手段と、
    前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または該マスクのマトリクス値の分布を変更しながら該局所特徴量画像上で適用して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出手段と、
    前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別手段とを備えていることを特徴とする撮像装置。
  13. 撮影時に前記シーンを特定する情報を取得するシーン特定情報取得手段をさらに有し、
    前記シーン指定受付手段が、該シーン特定情報取得手段により取得された前記シーンを特定する情報に基づいてシーンの指定を受け付けるものであることを特徴とする請求項12記載の撮像装置。
  14. 選別対象画像の入力を受け付ける画像入力受付ステップと、
    所望の特定シーンの指定を受け付けるシーン指定受付ステップと、
    前記特定シーンとして所望のシーンの指定を受け付けるシーン指定受付ステップと、
    前記受け付けたシーンの指定に応じて導出すべき局所特徴量画像の種類をメモリから読出し、前記選別対象画像の画像データから、1つまたは複数の局所特徴量画像を導出する局所特徴量画像導出ステップと、
    前記局所特徴量画像の種類ごとに予め定められた1つまたは複数のマスクを、該局所特徴量画像上で走査および/または該マスクのマトリクス値の分布を変更しながら該局所特徴量画像上で適用して得られた一連の積和演算結果を用いて、前記局所特徴量画像ごとに1つまたは複数の代表特徴量を算出する代表特徴量算出ステップと、
    前記代表特徴量の各々の値を、該代表特徴量の種類ごとに予め定められた、該代表特徴量の取り得る値と前記特定シーンらしさの高低との関係を示す識別条件と照会することにより、前記選別対象画像が前記特定シーンの画像であるか否かを識別する識別ステップとからなることを特徴とする特定シーンの画像を選別する方法。
JP2005083911A 2004-03-24 2005-03-23 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体 Expired - Fee Related JP4611069B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005083911A JP4611069B2 (ja) 2004-03-24 2005-03-23 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
US11/087,731 US7620251B2 (en) 2004-03-24 2005-03-24 Apparatus for selecting image of specific scene, program therefor, and recording medium storing the program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004086885 2004-03-24
JP2005083911A JP4611069B2 (ja) 2004-03-24 2005-03-23 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2005310123A JP2005310123A (ja) 2005-11-04
JP4611069B2 true JP4611069B2 (ja) 2011-01-12

Family

ID=35054323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005083911A Expired - Fee Related JP4611069B2 (ja) 2004-03-24 2005-03-23 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体

Country Status (2)

Country Link
US (1) US7620251B2 (ja)
JP (1) JP4611069B2 (ja)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8498477B2 (en) * 2006-01-31 2013-07-30 Timothy Getsch Bulk image gathering system and method
JP4762870B2 (ja) * 2006-12-06 2011-08-31 日本電信電話株式会社 信号特徴抽出方法、信号特徴抽出装置、信号特徴抽出プログラム、及びその記録媒体
JP5040624B2 (ja) * 2007-02-19 2012-10-03 セイコーエプソン株式会社 情報処理方法、情報処理装置及びプログラム
EP1959668A3 (en) * 2007-02-19 2009-04-22 Seiko Epson Corporation Information processing method, information processing apparatus, and program
JP2008234623A (ja) * 2007-02-19 2008-10-02 Seiko Epson Corp カテゴリー識別装置、カテゴリー識別方法、及び、プログラム
JP2008269560A (ja) * 2007-03-23 2008-11-06 Seiko Epson Corp シーン識別装置、及び、シーン識別方法
JP2008273171A (ja) * 2007-04-04 2008-11-13 Seiko Epson Corp 情報処理方法、情報処理装置及びプログラム
JP4826531B2 (ja) * 2007-04-16 2011-11-30 セイコーエプソン株式会社 シーン識別装置、及び、シーン識別方法
US8243328B2 (en) * 2007-04-20 2012-08-14 Seiko Epson Corporation Printing method, printing apparatus, and storage medium storing a program
JP2008284868A (ja) * 2007-04-20 2008-11-27 Seiko Epson Corp 印刷方法、印刷装置及びプログラム
JP2009033459A (ja) * 2007-07-26 2009-02-12 Seiko Epson Corp 画像識別方法、画像識別装置及びプログラム
JP4772839B2 (ja) * 2008-08-13 2011-09-14 株式会社エヌ・ティ・ティ・ドコモ 画像識別方法および撮像装置
JP4623388B2 (ja) 2008-09-08 2011-02-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5263767B2 (ja) * 2008-09-26 2013-08-14 株式会社ザクティ 撮像装置及びモード適否判定方法
JP5264396B2 (ja) * 2008-10-03 2013-08-14 キヤノン株式会社 画像処理装置及び画像種別特定方法
JP5355124B2 (ja) * 2009-02-09 2013-11-27 キヤノン株式会社 撮像装置及びそのシーン判別方法
JP5484021B2 (ja) * 2009-12-15 2014-05-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム、並びに記録媒体
JP5556262B2 (ja) 2010-03-15 2014-07-23 オムロン株式会社 画像属性判別装置、属性判別支援装置、画像属性判別方法、属性判別支援装置の制御方法、および、制御プログラム
AU2011200830B2 (en) * 2011-02-25 2014-09-25 Canon Kabushiki Kaisha Method, apparatus and system for modifying quality of an image
JP5462925B2 (ja) * 2012-11-27 2014-04-02 キヤノン株式会社 画像処理装置及びその制御方法
US9804729B2 (en) 2013-03-15 2017-10-31 International Business Machines Corporation Presenting key differences between related content from different mediums
US9495365B2 (en) * 2013-03-15 2016-11-15 International Business Machines Corporation Identifying key differences between related content from different mediums
JP5808371B2 (ja) * 2013-08-28 2015-11-10 ヤフー株式会社 画像認識装置、画像認識方法及び画像認識プログラム
KR102216049B1 (ko) * 2014-04-21 2021-02-15 삼성전자주식회사 시맨틱 라벨링 시스템 및 방법
US11087167B2 (en) 2014-12-22 2021-08-10 Robert Bosch Gmbh First-person camera based visual context aware system
US9792522B2 (en) * 2015-12-01 2017-10-17 Bloomsky, Inc. Weather information extraction using sequential images
JP6844692B2 (ja) 2017-04-07 2021-03-17 日本電気株式会社 学習データ生成装置、学習データ生成方法、およびプログラム
WO2019067642A1 (en) * 2017-09-29 2019-04-04 Zermatt Technologies Llc APPLICATION PRESENTATION BASED ON AN ENVIRONMENT
JP6760318B2 (ja) * 2018-03-14 2020-09-23 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム
US11087136B2 (en) 2018-04-13 2021-08-10 Apple Inc. Scene classification
JP2020008481A (ja) * 2018-07-11 2020-01-16 オムロン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US10785419B2 (en) * 2019-01-25 2020-09-22 Pixart Imaging Inc. Light sensor chip, image processing device and operating method thereof
JP2021005158A (ja) * 2019-06-25 2021-01-14 三菱電機株式会社 境線検出装置及び水位計測装置
CN113673275B (zh) * 2020-05-13 2024-02-20 北京达佳互联信息技术有限公司 一种室内场景布局估计方法、装置、电子设备及存储介质
CN112653841B (zh) * 2020-12-23 2023-01-24 维沃移动通信有限公司 拍摄方法、装置和电子设备
CN113422928B (zh) * 2021-05-28 2022-02-18 佛山市诚智鑫信息科技有限公司 一种安全监控抓拍方法及系统
JP7086316B1 (ja) * 2021-06-29 2022-06-17 三菱電機株式会社 コンテンツ譲渡装置、コンテンツ譲渡システムおよびコンテンツ譲渡方法
US11640705B1 (en) * 2021-12-17 2023-05-02 Lodestar Software Inc. Active learning with human feedback loop to optimize future sampling priority
CN114781548B (zh) * 2022-05-18 2024-07-12 平安科技(深圳)有限公司 图像场景分类方法、装置、设备及存储介质
CN117689258B (zh) * 2023-12-12 2024-06-14 广东电网有限责任公司广州供电局 一种基于机器视觉的刀闸性能评估监管系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62180475A (ja) * 1986-02-04 1987-08-07 Canon Inc 画像処理装置
US6014461A (en) * 1994-11-30 2000-01-11 Texas Instruments Incorporated Apparatus and method for automatic knowlege-based object identification
JPH11196324A (ja) 1997-12-26 1999-07-21 Fuji Photo Film Co Ltd 画像出力方法および装置
JPH11298736A (ja) * 1998-04-14 1999-10-29 Minolta Co Ltd 画像処理方法、画像処理プログラムが記録された可読記録媒体及び画像処理装置
EP1686801B1 (en) * 2000-02-10 2009-12-16 Sony Corporation Image processing device and method and recording medium
EP1130546A1 (en) * 2000-03-02 2001-09-05 BRITISH TELECOMMUNICATIONS public limited company Cartoon recognition
US7136508B2 (en) * 2000-11-09 2006-11-14 Minolta Co., Ltd. Image processing apparatus, method, and program for processing a moving image
TWI220505B (en) * 2001-08-13 2004-08-21 Ulead Systems Inc Image enhancement method
US20050075537A1 (en) * 2003-10-06 2005-04-07 Eastman Kodak Company Method and system for real-time automatic abnormality detection for in vivo images

Also Published As

Publication number Publication date
US20050220341A1 (en) 2005-10-06
JP2005310123A (ja) 2005-11-04
US7620251B2 (en) 2009-11-17

Similar Documents

Publication Publication Date Title
JP4611069B2 (ja) 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP4606828B2 (ja) 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
US7894673B2 (en) Image processing apparatus and method, and image processing computer readable medium for processing based on subject type
JP4335476B2 (ja) 画像の顕著性及びアピール性に基づいて写真印画の数、寸法、及び、倍率を変更する方法
JP4153108B2 (ja) 画像処理方法、画像処理装置及び記録媒体
JP5810628B2 (ja) 画像処理装置及び画像処理プログラム
KR20090111136A (ko) 최적 영상 선택 방법 및 장치
US10855882B2 (en) Image processing to set an output gradation number based on an information-loss evaluation value
JP5818552B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2013025650A (ja) 画像処理装置、画像処理方法およびプログラム
JP2004005384A (ja) 画像処理方法、画像処理装置、プログラム及び記録媒体、自動トリミング装置、並びに肖像写真撮影装置
JP5864936B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2007184888A (ja) 撮像装置、画像処理装置、画像処理方法、及び画像処理プログラム
CN108769543B (zh) 曝光时间的确定方法及装置
JP2006259974A (ja) 画像処理方法および装置
JP4087749B2 (ja) 画像処理システム及び画像処理方法
JP3860540B2 (ja) エントロピーフィルタ及び該フィルタを用いた領域抽出法
JP2000013596A (ja) 画像処理装置および方法ならびに画像処理プログラムを記録した記録媒体
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP2000013605A (ja) 画像処理装置および方法ならびに画像処理プログラムを記録した記録媒体
JP2000013612A (ja) 画像処理装置および方法ならびに画像処理プログラムを記録した記録媒体
JP2000013613A (ja) 画像処理装置および方法ならびに画像処理プログラムを記録した記録媒体
JP2009116691A (ja) 画像処理方法、画像処理装置、及びプログラム
JP2006053854A (ja) 画像処理方法および装置並びにプログラム
JP2007011935A (ja) 顔判別方法および装置並びにプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4611069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees