JP5826237B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5826237B2
JP5826237B2 JP2013244327A JP2013244327A JP5826237B2 JP 5826237 B2 JP5826237 B2 JP 5826237B2 JP 2013244327 A JP2013244327 A JP 2013244327A JP 2013244327 A JP2013244327 A JP 2013244327A JP 5826237 B2 JP5826237 B2 JP 5826237B2
Authority
JP
Japan
Prior art keywords
feature
scene
weight
value
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013244327A
Other languages
English (en)
Other versions
JP2014064313A5 (ja
JP2014064313A (ja
Inventor
洋行 酒井
洋行 酒井
梅田 清
清 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013244327A priority Critical patent/JP5826237B2/ja
Publication of JP2014064313A publication Critical patent/JP2014064313A/ja
Publication of JP2014064313A5 publication Critical patent/JP2014064313A5/ja
Application granted granted Critical
Publication of JP5826237B2 publication Critical patent/JP5826237B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像データの特徴に応じて画像を補正する画像処理装置、画像処理方法、及びプログラムに関する。
近年、撮像素子で撮影した静止画をデジタルデータとして記録するデジタルカメラが広く普及している。また画像を記録するメモリカードの大容量化に伴って、撮影した画像を大量に記憶することが一般化している。このように簡単に大量の画像を撮影して保存できるようになったため、安易に撮影して露出量が適正でない状態で撮影して保存される画像も増えている。例えば、露出不足の状態で撮影された画像では、明るい場所を撮影したにも拘わらず、画像全体が暗くなって保存されてしまう。このように露出不足の状態で撮影された画像をコンピュータの画面に表示させる場合、或いは、印刷して閲覧する場合などには、撮影した画像に対し撮影時の露出の過不足を補うため適当な補正処理が行われることが望ましい。このような補正処理を大量の画像に対して1つずつ手作業で行うと非常に手間がかかってしまうため、撮影した画像の露出の過不足状態を自動的に判定して補正処理を行えることが望ましい。しかしながら、例えば、全体的に暗い夜景画像と露出不足の画像を自動的に判定することが難しい。このような問題を解決するために、夜景画像と露出不足画像とを自動的に判定し、適切な補正処理を実行する方法が提案がされている。
特許文献1には、撮影シーンを判別し、このシーン判別により、設定した補正処理条件を夜景指標に応じて補正し直す方法が記載されている。この特許文献1における夜景指標は、撮影時の撮影条件、画像の肌色画素情報、及び画像全体の平均輝度を用いて算出される。この特許文献1に記載の方法は、撮影された画像の撮影シーンを判別することによって自動的に補正条件を設定するものである。更に、夜景の撮影の場合を考慮した補正を加えることで、より適切な補正画像を得ている。
また特許文献2には、主要な被写体以外に暗い箇所がある場合であっても、誤判定することなく逆光シーンであるか否かを判定できる逆光シーン判定方法が記載されている。
また特許文献3では、撮影画像を複数の区画に分割し、分割された区画の画像の特徴量である区画特徴量を算出し、その区画特徴量から撮影画像に割り当てられる撮影シーンの確度を算定している。そして、その算定された撮影シーンの確度から撮影画像に対する補正度を決定する方法が記載されている。この特許文献3では、撮影シーンの確度を算出する方法として、例えば、逆光と順光の判定に、撮影画像の中央部に位置する区画群と周辺部に位置する区画群との輝度差を用いている。つまり、中央部の区画群の輝度が周辺部の区画群の輝度より小さい場合は逆光シーンである判断し、逆に中央部の区画群の輝度が周辺部の区画群の輝度より大きい場合は順光シーンと判断している。その際、極端な順光であるとみなされるスポット光という撮影シーンも考慮して、この逆光と順光シーンの確度の算定では、上述した輝度差に基づいて判定している。
特開2007−228221号公報 特登録04057147号公報 特開2006−324987号公報
しかしながら、上記特許文献1,2,3に記載の発明には、画像の特徴量と、第1の重みが対応づけられている第1の特徴量と第2の重みが対応づけられている第2の特徴量とを比較することで、画像データのシーンを判定し、判定されたシーンと第1の重みとに基づき画像データの明るさを補正する技術の開示がなかった。
上記目的を達成するために本発明の一態様に係る画像処理装置は以下のような構成を備える。即ち、
画像データから特徴量を取得する取得手段と、
複数のシーンのそれぞれのシーンに複数の特徴量が対応づけられており、前記複数の特徴量のそれぞれに対して重みが対応付けられている特徴量空間において、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第1の重みが対応づけられている第1の特徴量を示す座標との第1の距離と、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第2の重みが対応づけられている第2の特徴量を示す座標との第2の距離を算出する算出手段と、
前記算出手段によって算出された複数の距離のうち、前記取得手段によって取得された特徴量を示す座標から最も距離が短い座標が示す特徴量に対応付けられているシーンを、前記画像データのシーンとして判定する判定手段と、
前記判定手段によって判定されたシーンと前記第1の重みとを用いて明るさ補正量を決定し、決定された前記補正量に基づき前記画像データの明るさを補正する補正手段とを有し、
前記最も距離が短い座標が示す特徴量は第1の特徴量であり、前記判定手段におけるシーン判定では前記第1の重みと前記第2の重みは使用しないことを特徴とする。
本発明によれば、判定されたシーンと重みに応じた明るさ補正を行うことができる。
実施形態に係る画像処理システムの機能構成を示すブロック図。 実施形態に係る画像処理システムの構成を説明するブロック図。 実施形態に係る画像処理システムの動作手順を示すフローチャート。 実施形態に係る特徴量算出部の動作手順を示すフローチャート。 輝度(Y)と色差(Cb)のヒストグラム例を示すグラフ図。 本実施形態に係るシーン判定部の動作手順を示すフローチャート。 実施形態に係るシーン判定方法を説明する図。 明度の平均値と彩度の分散値からなる2次元の特徴量空間に画像を配置したイメージ図。 実施形態に係る補正処理部の動作手順を示すフローチャート。 実施形態において画像補正に用いるγ曲線を示す図。 実施形態に係るシーン判定方法を説明する図。
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
本実施形態では、デジタル画像データを解析してシーンを判定する画像処理装置を有する画像処理システムの例で説明する。
図2は、本発明の実施形態に係る画像処理システムの構成を説明するブロック図である。
この画像処理システムは、コンピュータ200と、それに接続されたプリンタ210及び画像取得装置211(例えば、デジタルカメラやスキャナ等)を有している。コンピュータ200において、システムバス201には、CPU202,ROM203,RAM204、ハードディスク等の二次記憶装置205が接続されている。またユーザインターフェースとして、表示部206、キーボード207、ポインティングデバイス208がCPU202等に接続されている。更に、プリンタ210がI/Oインターフェース209を介して接続されている。更に、画像データの入力用の画像取得装置211がI/Oインターフェース209を介して接続されている。CPU202は、アプリケーション(以下の説明する処理を実行する機能を有する)の実行が指示されると二次記憶装置205にインストールされている、対応するプログラムを読み出してRAM204にロードする。その後、そのプログラムを起動することにより、その指示された処理を実行することができる。
以下、本発明の実施形態に係る画像処理システムの概要について図を参照して説明する。図1は、本発明の実施形態に係る画像処理システムの機能構成を示すブロック図である。
この画像処理システムは、画像取得装置211、色空間変換部101、特徴量算出部102、シーン判定部103、補正処理部104、プリンタ210を具備している。
画像取得装置211は、撮影した画像をデジタル画像データとしてメモリカード等の記録メディアに記憶しているデジタルカメラ等の撮像装置である。また或いは、原稿を読み取ってデジタル画像データとしてファイルを取得するスキャナであっても良い。また或いはこれらデジタルカメラ或いはスキャナ等から画像ファイルを取得する装置であっても良い。色空間変換部101は、画像取得装置211から入力されるデジタル画像データを特徴量算出部102で必要な色空間に変換し、その色空間変換した画像データを特徴量算出部102へ送信する。また色空間変換部101は、画像取得装置211から入力したデジタル画像データを補正処理部104で必要な色空間に変換し、その色空間変換した画像データを補正処理部104へ送信する。特徴量算出部102は、色空間変換部101で色空間変換された画像データから明度成分の特徴量と色のばらつき成分の特徴量を算出する。シーン判定部103は、特徴量算出部102で算出した特徴量を組み合わせた値と、予め設定してある各シーンを示す複数の特徴量を組み合わせた代表値との距離を算出する。そして、その算出した代表値との距離の中で、最も距離の短い代表値を示すシーンを取得画像のシーンと判定する。更にシーン判定部(シーン信頼度算出機能も有している)103は、その算出した代表値との距離を利用して、判定したシーンの信頼度(シーン信頼度)を算出する。また予め設定してある各代表値の重みを利用して、判定したシーンの重み(代表点信頼度)を算出する。そして、シーン信頼度と代表点信頼度を乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出する。補正処理部104は、シーン判定部103で判定したシーンに応じて階調補正処理を行うとともに、シーン判定部103で算出した最終シーン信頼度に応じて、階調補正量を制御する。プリンタ210は、補正処理部104で補正した画像を印刷媒体に印刷する。
図3は、本発明の実施形態に係る画像処理システムのコンピュータ200の動作手順を示すフローチャートである。この処理を実行するプログラムは、実行時に二次記憶装置205からRAM204にロードされ、CPU202の制御の下に実行される。
まずS1で、画像取得装置211からデジタル画像データを含むファイルを取得する。そして、その取得したファイルから、画像データ及び画像サイズ等の付属情報を取得し、色空間変換部101に送信する。例えば、取得したファイルがJPEG形式等の画像データを圧縮処理したファイルの場合は、画像データの伸長処理を行う。JPEGは、撮影した画像データについての静止画像データの圧縮方式である。次にS2に進み、色空間変換部101により、その取得した画像データを特徴量算出部102で必要な色空間に変換して特徴量算出部102へ送信する。次にS3に進み、色空間変換部101は、取得した画像データを補正処理部104で必要な色空間に変換して補正処理部104へ送信する。この色空間変換処理は、公知である色変換処理による処理である。例えば、色空間変換部101に入力された画像データの色空間がRGBで、特徴量算出部102で必要な色空間がYCbCrである場合、ITU−R BT.601で規定されている以下の変換式を用いて、色空間の変換処理を行う。
Y = 0.299×R+0.587×G+0.144×B
Cb=−0.169×R−0.331×G+0.500×B
Cr= 0.500×R−0.419×G−0.081×B ...式(1)
次にS4に進み、特徴量算出部102が、色空間変換部101から入力される画像データを解析し、明度成分及び色のばらつき成分の特徴量を算出し、その特徴量をシーン判定部103へ送信する。例えば、YCbCr色空間の画像データから、明度成分として輝度(Y)の平均値を算出する。また、色のばらつき成分として色差(Cb)の分散値を算出し、これらを特徴量とする。
以下の変換式を用いて、輝度(Y)の平均値を算出する。
輝度(Y)の平均値=Σ(輝度値(Y)×度数)/全画素数 ...式(2)
以下の変換式を用いて、色差(Cb)の平均値を求めてから、色差の分散値を算出する。
色差(Cb)の平均値=Σ(色差値(Cb)×度数)/全画素数 ...式(3)
色差(Cb)の分散値=Σ((色差値(Cb)−色差の平均値)の2乗)/全画素数 ...式(4)
以上の式(2)〜(4)で、Σは0〜255の総和を示している。
次にS5に進み、シーン判定部103は、特徴量算出部102で算出した特徴量を組み合わせた値と、予め設定してある各シーンを示す各代表値との距離を算出する。そして、その算出した各代表値との距離の中で、最も距離の短い代表値のシーンを、その入力した画像データのシーンであると判定する。更に、そのシーンの代表値との距離を利用して、判定したシーンの信頼度(シーン信頼度)を算出する。また更に、予め設定してある各代表値の重みを利用して、判定したシーンの重み(代表点信頼度)を算出する。そして、これらシーン信頼度と代表点信頼度とを乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出する。
ここでは例えば、特徴量は、明度成分の特徴量として輝度(Y)の平均値、色のばらつき成分の特徴量として色差(Cb)の分散値とする。また予め設定してある各シーンを示す複数の特徴量も同様に、明度成分の特徴量として輝度(Y)の平均値、色のばらつき成分の特徴量として色差(Cb)の分散値とする。そして、予め設定してある各シーンを、夜景シーン及び露出不足シーンの2つのシーンとする。そして夜景シーンには、輝度(Y)の平均値、色差(Cb)の分散値の特徴量の組み合わせからなる3つの代表値を設定する。一方、露出不足シーンには、輝度(Y)の平均値、色差(Cb)の分散値の特徴量の組み合わせからなる4つの代表値を設定しておく。こうして入力した画像データから算出した特徴量の組み合わせ値と、これら7つの代表値との差分を計算し、最も差分の小さい代表値を求める。そして、その最も差分の小さい代表値に設定されているシーンを、その入力した画像のシーンと判定する。更に、そのシーンの代表値との距離を利用して、判定したシーンの信頼度(シーン信頼度)を算出する。例えば、最も差の小さい値をAとし、次に小さい値をBとした場合、シーン信頼度は、
シーン信頼度=[{(A+B)/2}−A]/{(A+B)/2} ...式(5)
で表される。
更に、各代表値の重みを利用して、判定したシーンの重み(代表点信頼度)を算出する。そして、シーン信頼度と代表点信頼度を乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出する。
次にS6に進み、補正処理部104で、シーン判定部103で判定したシーン及び最終シーン信頼度に応じて補正処理を行う。例えば、シーンが夜景シーン、或いは露出不足シーンであるかに応じて階調補正処理を異ならせて補正処理を行う。例えば、判定されたシーンが夜景シーンである場合、補正後の輝度の平均値が元の輝度の平均値を越えないように、暗い部分をより暗く、明るい部分はより明るくなるように補正する。また判定されたシーンが露出不足の場合は、補正後の輝度の平均値が元の輝度の平均値を越えるように、全体的に明るくするような補正処理を行う。更に、シーン判定部103で算出した最終シーン信頼度に応じて補正量を制御する。この補正量の制御は詳しく後述する。次にS7に進み、補正処理部105で補正した画像データをプリンタ210に出力して印刷させる。例えば、CMYKのインク色に補正後の画像データを変換し、用紙に印刷するように制御する。
以下、本実施の形態における画像出力装置の各処理部の詳細について図を用いて説明する。色空間変換部101は、画像取得装置211で取得したデジタル画像データを特徴量算出部102で必要な色空間に変換し、色空間変換した画像データを特徴量算出部102へ送信する。また色空間変換部101は、画像取得装置211で取得したデジタル画像データを補正処理部104で必要な色空間に変換し、色空間変換した画像データを補正処理部104へ送信する。色空間変換処理は、入力画像と異なる色空間に変換した出力画像を生成する処理である。入力画像は、画像取得装置211で取得したデジタル画像データである。入力画像の色空間は、画像取得装置211で取得したデジタル画像データの色空間とする。出力画像の色空間は、特徴量算出部102で解析処理を行う際に利用する色空間とする。もしくは、出力画像の色空間は、補正処理部104で補正処理を行う際に利用する色空間とする。色空間変換処理方法に関しては、様々な手法で行われているが、入力画像の色空間を出力画像の色空間に変換した画像を生成する方法であれば、いずれの方法を使用しても構わない。
特徴量算出部102は、色空間変換部101で色空間変換された画像データから明度成分の特徴量と色のばらつき成分の特徴量を算出する処理部である。この特徴量算出部102については図4及び図5を参照して説明する。
図4は、本発明の実施形態に係る特徴量算出部102の動作手順を示すフローチャートである。
図5(A)は、実施形態に係る輝度(Y)のヒストグラムを示すグラフ図、図5(B)は、実施形態に係る色差(Cb)のヒストグラムを示すグラフ図である。
例えば、色空間変換部101に入力される画像データが色空間YCbCrの画像データとする。そして明度成分の特徴量を輝度(Y)の平均値とし、色のばらつき成分の特徴量を色差(Cb)の分散値として特徴量を算出するものとする。
図4のフローチャートにおいて、まずS41で、YCbCrの画像データのヒストグラムを算出する。次にS42に進み、算出したヒストグラムから明度成分となるYの平均値を算出する。このとき輝度(Y)の平均値は、以下の式(6)となる。
輝度(Y)の平均値=Σ(輝度値(Y)×度数)/全画素数 ...式(6)
ここで、Σは0〜255の総和を示している。
いま輝度(Y)のヒストグラムが図5(A)に示すようなヒスグラムである場合、輝度(Y)の平均値は「3」となる。
輝度(Y)の平均値=((1×3)+(2×10)+(3×6)+(4×6)+(5×5))/(3+10+6+6+5)=90/30=3
次S43に進み、算出したヒストグラムから色差Cbの平均値を算出する。
色差(Cb)の平均値は以下の式となる。
色差(Cb)の平均値=Σ(色差値(Cb)×度数)/全画素数 ...式(7)
ここで、Σは0〜255の総和を示している。
いま色差(Cb)のヒストグラムが図5(B)に示すようなヒスグラムである場合、色差(Cb)の平均値は「3」となる。
次にS44に進み、算出したヒストグラムから色のばらつき成分となる色差Cbの分散値を算出する。
色差(Cb)の分散値は以下の式となる。
色差(Cb)の分散値=Σ((色差値(Cb)−色差の平均値)の2乗)/全画素数 ...式(8)
ここで、Σは0〜255の総和を示している。
色差(Cb)のヒストグラムが図5(B)に示すようなヒスグラムである場合、Cbの分散値は「1.6」となる。
色差(Cb)の平均値=((1×3)+(2×10)+(3×6)+(4×6)+(5×5))/(3+10+6+6+5)=90/30=3
色差(Cb)の分散値=((1−3)の2乗×3)+((2−3)の2乗×10)+((3−3)の2乗×6)+((4−3)の2乗×6)+((5−3)の2乗×5)/(3+10+6+6+5)=48/30=1.6
次にS45に進み、S42及びS44で算出した明度成分の特徴量と色のばらつき成分の特徴量を0〜100の値に正規化する。例えば、正規化は、想定される明度成分である輝度(Y)の平均値の範囲が0〜255の値である場合、0〜255を0〜100の値に変換する。
輝度(Y)の平均値の正規化後の値=(輝度(Y)の平均値/255)×100
また、例えば、色差(Cb)の分散値を正規化する場合は、0〜16384を0〜100の値に変換し、16384より大きい値は100にする。
色差(Cb)の分散値の正規化後の値={色差(Cb)の分散値/16384}×100
特徴量算出部102は、明度成分の特徴量と色のばらつき成分の特徴量を正規化した値をシーン判定部103に出力する。
本実施形態では、明度成分を示す特徴量として、輝度(Y)の平均値としているが、明度成分を示す特徴量であればこれに限らない。例えば、明度成分を示す特徴量は、輝度(Y)の最大値、最小値、中央値であってもよい。また明度成分を示す特徴量として、上記特徴量を算出する際に、ある領域内で算出してもよい。例えば、輝度(Y)が0〜255の濃度値の範囲の場合に、濃度値0及び255を除いて、輝度(Y)の平均値を算出してもよい。また輝度(Y)の最大値から全体の画素数の0〜5%に当たる濃度範囲の輝度(Y)の平均値を算出してもよい。
また本実施形態では、明度成分を示す特徴量として、YCbCr色空間上の輝度(Y)を例に示しているが、明度成分を示す特徴量であればこれに限らない。例えば、明度成分を示す特徴量として、色空間をJIS Z8729に規定されているLab表色系やJIS Z8518に規定されているLuv表色系のL(輝度)としてもよい。また明度成分を示す特徴量として、HSV色空間でのV(明度)等の各種色空間上で、明度成分を示す特徴量であればよい。
更に本実施形態では、色のばらつき成分を示す特徴量のばらつき成分を、色差(Cb)の分散値としているが、色のばらつき成分を示す特徴量であれば、これに限らない。例えば、色のばらつき成分を示す特徴量として、色差(Cb)の標準偏差値、色差(Cb)の最大値−最小値、平均値からの差分合計値等、色のばらつきを示す特徴量であってもよい。また本実施形態では、色のばらつき成分を示す特徴量を、YCbCr色空間上の色差(Cb)を例に示しているが、色のばらつき成分を示す特徴量であればこれに限らない。例えば、YCbCr色空間での色差(Cr)、HSV色空間のH(色相)等の各種色空間上で、色のばらつき成分を示す特徴量であればよい。更に、本実施形態では、色のばらつき成分を示す特徴量のばらつき成分として、色差(Cb)の分散値を例に示しているが、ある閾値領域内の色のばらつき成分を示す特徴量としてもよい。例えば、輝度(Y)の最大値付近や最小値付近の画素の色差(CbやCr)分散値等、ある閾値領域内の色のばらつき成分を示す特徴量としてもよい。
また本実施形態では、明度成分と色のばらつき成分の特徴量の組み合わせとして、輝度(Y)の平均値、色差(Cb)の分散値を示しているが、明度成分と色のばらつき成分を少なくとも含んでいれば、2つ以上の特徴量の組み合わせでも構わない。例えば、明度成分と色のばらつき成分の特徴量の組み合わせとして、輝度(Y)の平均値、色差(Cb)の分散値、色差(Cr)の分散値の3つとしてもよい。また、RGB色空間のR、G、Bの平均値や最大値、最小値、HSV色空間の彩度(S)の平均値や最大値、最小値等と、明度成分と色のばらつき成分を含んだ特徴量の組み合わせでもよい。
シーン判定部103は、特徴量算出部102で算出した特徴量の組み合わせた値と、予め設定してある各シーンを示す複数の特徴量の組み合わせた代表値との距離を算出する。そして、その算出した代表値との距離の中で、最も距離の短い代表値を示すシーンを取得画像のシーンと判定する。更に、その算出した代表値との距離を利用して、判定したシーンの信頼度(シーン信頼度)を算出する。更に、各代表値の重みを利用して、判定したシーンの重み(代表点信頼度)を算出する。そして、これらシーン信頼度と代表点信頼度を乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出する。
このシーン判定部103のシーン判定処理を図6及び図7を参照して説明する。
図6は、本実施形態に係るシーン判定部103の動作手順を示すフローチャートである。図7は、本発明の実施形態に係るシーン判定方法を説明する図である。
図7は、横軸を明度成分である正規化後の輝度(Y)の平均値とし、縦軸を色のばらつき成分である正規化後の色差(Cb)の分散値とした2次元の特徴量空間(2次元空間)を示している。座標400は、2次元の特徴量空間において、特徴量算出部102で算出した入力画像の明度成分である正規化後の輝度(Y)の平均値と、色のばらつき成分である正規化後の色差(Cb)の分散値の座標位置を示す(第1の代表点)。座標401〜403は、2次元の特徴量空間において設定されている夜景シーンを示す特徴量とする(第2の代表点)。また座標404〜406は、2次元の特徴量空間において設定されている露出不足シーンを示す特徴量とする。いまここで各座標400〜406の値は、例えば以下の通りとする。
座標(Xa,Yb)=(輝度(Y)平均値、色差(Cb)分散値)
座標400(X0,Y0)=(60,50)
座標401(X1,Y1)=(10,40)
座標402(X2,Y2)=(30,60)
座標403(X3,Y3)=(40,80)
座標404(X4,Y4)=(20,10)
座標405(X5,Y5)=(40,20)
座標406(X6,Y6)=(80,40)
図6において、S51で、特徴量算出部102で算出した特徴量の組み合わせた値と、予め設定されている各シーンを示す複数の特徴量を組み合わせた代表値を特徴量空間座標に配置する。例えば、特徴量算出部102で算出した特徴量の組み合わせた値として座標400(図7)を配置し、各シーンを示す代表値に相当する座標401〜406(図7)を配置する。次にS52に進み、特徴量算出部102で算出した値(座標400)と、各シーンの代表値(座標401〜406)との距離を算出する。例えば、特徴量算出部102で算出した特徴量の組み合わせた値の座標(Xa,Ya)とし、各シーンを示す代表値の一つを座標(Xb,Yb)とすると、その距離は以下の式(9)で表される。
距離=((Xa−Xb)の2乗+(Ya−Yb)の2乗) ...式(9)
次にS53に進み、予め設定されているシーンの代表値数分の処理を行ったかどうかを判定する。前述の例では、各シーンの代表値の数は座標401〜406の6個なので、6個分の距離を算出したか否かを判定する。上述の例に従って、特徴量算出部102で算出した値である座標400と座標401〜406の距離算出結果を以下に示す。
座標400(X0,Y0)と座標401(X1,Y1)の距離=((X0−X1)の2乗+(Y0−Y1)の2乗)=((60−10)の2乗+(50−40)の2乗)=2600
座標400(X0,Y0)と座標402(X2、Y2)の距離=((X0−X2)の2乗+(Y0−Y2)の2乗)=((60−30)の2乗+(50−60)の2乗)=1000
座標400(X0,Y0)と座標403(X3,Y3)の距離=((X0−X3)の2乗+(Y0−Y3)の2乗)=((60−40)の2乗+(50−80)の2乗)=1300
座標400(X0,Y0)と座標404(X4,Y4)の距離=((X0−X4)の2乗+(Y0−Y4)の2乗)=((60−20)の2乗+(50−10)の2乗)=3200
座標400(X0,Y0)と座標405(X5,Y5)の距離=((X0−X5)の2乗+(Y0−Y5)の2乗)=((60−40)の2乗+(50−20)の2乗)=1300
座標400(X0,Y0)と座標406(X6,Y6)の距離=((X0−X6)の2乗+(Y0−Y6)の2乗)=((60−80)の2乗+(50−40)の2乗)=500
次にS54に進み、S52で算出した代表値との距離の中で、最も距離の短い代表値を求める。上述の例では、入力した画像の特徴量の座標400(X0,Y0)と座標406(X6,Y6)との距離(L6)が最も短いので、露出不足シーンである座標406を代表値として決定する。次にS55に進み、最も距離の短い代表値のシーンを、入力した画像のシーンであると判定する。上述の例では、最も距離の短い代表値の座標406のシーンは露出不足シーンであるため、取得画像のシーンは露出不足シーンであると決定する。
次にS56に進み、S52で算出した代表値との距離を利用して、判定したシーンの信頼度(シーン信頼度)を算出する。このシーン信頼度は、最も短い距離(La)と次に短い距離(Lb)との割合を基に算出する。このシーン信頼度は、以下の式(10)により計算する。
シーン信頼度=[{(La+Lb)/2}−La]/{(La+Lb)/2} ...式(10)
上記例では、最も短い距離(La)は、座標400(X0,Y0)と座標406(X6,Y6)との距離で「500」である。次に短い距離(Lb)は、座標400(X0,Y0)と座標402(X2,Y2)の距離で「1000」である。従って、この場合のシーン信頼度は、
シーン信頼度=[{(500+1000)/2}−500]/{(500+1000)/2}=1/3
となる。次にS57に進み、各代表値の重みを利用して、判定したシーンの重み(代表点信頼度)を算出する。例えば、各代表値の重みを以下に示す。
座標401の重み(W1)=0.6
座標402の重み(W2)=0.8
座標403の重み(W3)=1.0
座標404の重み(W4)=1.0
座標405の重み(W5)=0.8
座標406の重み(W6)=0.6
上記例において、最も短い距離は、座標400(X0,Y0)と座標406(X6,Y6)の距離(L6)であるため、座標406の重み(W6)「0.6」を代表点信頼度として設定する。
次にS58に進み、S56で求めたシーン信頼度と、S57で求めた代表点信頼度とを乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出する(最終シーン信頼度算出処理)。例えば、上記例では、最終シーン信頼度は、シーン信頼度は「1/3」で、代表点信頼度は「0.6」であるため、以下の式で求められる。
最終シーン信頼度=シーン信頼度×代表点信頼度=1/3×0.6=0.2 ...式(11)
本実施形態では、各シーンの代表値を任意に設定しているが本発明はこれに限らない。例えば、この代表値は、あるシーンの画像を設定し、その設定した画像の特徴量から求めても良い。例えば、露出不足シーン、夜景シーンの画像をそれぞれ5つ選択し、合計10の画像の明度成分、色のばらつき成分の各特徴量を算出し、その算出した値を代表値として設定してもよい。また、その代表値は、任意にシーンを指定した画像の特徴量から、そのシーンを分類できる特徴量を学習によって算出して設定しても構わない。この場合の学習方法は、ある程度の数のサンプルデータの集合を対象に画像を解析し、その解析データから有用な規則、ルール、判断基準などを抽出し、これらから得られた特徴量を代表値として設定してもよい。この学習方法は、公知技術である遺伝的アルゴリズム(Genetic Algorithm:GA)やニューラルネットワーク(Neural Network)のいずれの方法を用いてもよい。又は、教師あり学習を実行するための機械学習メタアルゴリズムの一種であるブースティングのいずれの方法を用いてもよい。また或いは、教師なし学習を実行するための機械学習メタアルゴリズムの一種である主成分分析やクラスター分析、ベクトル量子化(Vector Quantization:VQ)のいずれの方法を用いてもよい。
本実施形態では、シーン信頼度を算出する方法として、上述の式で算出しているが、複数の代表値との相対的な距離を算出することができれば、これに限らない。例えば、距離は、以下の式で算出してもよい。
距離=√{(Xa−Xb)の2乗+(Ya−Yb)の2乗}
距離={(Xa−Xb)+(Ya−Yb)}
距離={(Xa−Xb)の2乗+(Ya−Yb)の2乗}/2
本実施形態では、最も距離の短い代表値の距離と、次に距離の短い代表値の距離との割合からシーン信頼度を算出しているが、本発明はこれに限らない。例えば、最も距離の短い代表値に設定されているシーンを求め、そのシーンと異なるシーンの代表値の中で、最も距離の短い代表値を判定するようにしても良い。また或いは、最も距離の短い代表値までの距離と、最も距離の短い代表値までの距離のシーンと異なる最も距離の短い代表値までの距離との割合からシーン信頼度を算出してもよい。
また本実施形態では、代表値ごとの重みを任意に設定したが、本発明はこれに限らない。この重みは、代表値を学習によって算出した値から設定してもよい。
図8は、横軸を明度の平均値、縦軸を彩度の分散値とした2次元の特徴量空間上に、画像を配置したイメージ図である。
図において、四角(■)が露出不足の風景シーンの画像、丸(●)が夜景シーンの画像を示す。ひし形(◆)で示す座標801〜803は、学習によって算出した代表値である。ここで座標801の代表値のシーンは、露出不足の風景シーンとする。また座標802,803の代表値のシーンを夜景シーンとする。各代表値の座標801〜803のシーンは、閾値804で区切った領域内に含まれる画像のシーンを基に判定している。例えば座標801のシーンは、7つの露出不足の風景シーンの画像(■)と、1つの夜景シーンの画像(●)の計8画像を含んでいる。また座標802のシーンは、9つの夜景シーンの画像(●)を含んでいる。更に座標803のシーンは、4つの露出不足の風景シーンの画像(■)と、6つの夜景シーンの画像(●)の計10画像を含んでいる。
ここで、各閾値領域に含まれるシーンの中で、最も多いシーンの画像数(I−1)と、その閾値領域に含まれる画像数(I−2)との割合から、以下の式(12)に従って代表値の重みを算出してもよい。
重み=(I−1)/(I−2) ...式(12)
図8の例では、
座標801の代表値の重み=7/8 =0.875
座標802の代表値の重み=9/9 =1.0
座標803の代表値の重み=6/10=0.6
となる。
また、各閾値領域に含まれる画像の中で最も多いシーンの画像数(I−1)と全画像数(I−3)との割合から、以下の式(13)に従って代表値の重みを算出してもよい。
重み=(I−1)/(I−3) ...式(13)
図8の例では、図8全体の全画像数は「27」であるため、
座標801の代表値の重み=7/27≒0.259
座標802の代表値の重み=9/27≒0.333
座標803の代表値の重み=6/27≒0.222
となる。
また、各閾値領域に含まれる画像の中で最も多いシーンの画像数(I−1)と、次に多いシーンの画像数(I−4)との割合から、以下の式(14)に従って代表値の重みを算出してもよい。
重み=(I−1)/((I−1)+(I−4)) ...式(14)
図8の例では、
座標801の代表値の重み=7/(7+1)=0.875
座標802の代表値の重み=9/(9+0)=1.00
座標803の代表値の重み=6/(6+4)=0.60
また本実施形態では、シーン信頼度と代表点信頼度を乗算することによって、最終的なシーン信頼度(最終シーン信頼度)を算出しているが、シーン信頼度と代表点信頼度の2つを用いて信頼度を算出すれば、これに限らない。例えば、シーン信頼度と代表点信頼度を加算した値を、最終的なシーン信頼度(最終シーン信頼度)として算出してもよい。
また本実施形態では、2次元の特徴量空間(2次元空間)上で、シーン判定を行っているが、3次元の特徴量空間(3次元空間)や4次元の特徴量空間(4次元空間)のような多次元の特徴量空間(多次元空間)でも構わない。例えば、明度成分である正規化後の輝度(Y)の平均値と、色のばらつき成分である正規化後の色差(Cb)の分散値と、明度成分である正規化後の輝度(Y)の最大値とした3次元の特徴量空間上でのシーン判定方法について説明する。
図11は、X軸を明度成分である正規化後の輝度(Y)の平均値とし、Y軸を色のばらつき成分である正規化後の色差(Cb)の分散値とし、Z軸を明度成分である正規化後の輝度(Y)の最大値とした3次元の特徴量空間(3次元空間)を示している。座標1100は、3次元の特徴量空間において、特徴量算出部102で算出した入力画像の明度成分である正規化後の輝度(Y)の平均値と、色のばらつき成分である正規化後の色差(Cb)の分散値、明度成分である正規化後の輝度(Y)の最大値の座標位置を示す(第1の代表点)。座標1101〜1103は、3次元の特徴量空間において設定されている夜景シーンを示す特徴量とする(第2の代表点)。また座標1104〜1106は、3次元の特徴量空間において設定されている露出不足シーンを示す特徴量とする。いまここで各座標1100〜1106の値は、例えば以下の通りとする。
座標(Xa,Yb, Zb)=(輝度(Y)平均値、色差(Cb)分散値、輝度(Y)最大値)
座標1100(X0,Y0,Z0)=(60,50,50)
座標1101(X1,Y1,Z1)=(10,40,20)
座標1102(X2,Y2,Z2)=(30,60,40)
座標1103(X3,Y3,Z3)=(40,80,60)
座標1104(X4,Y4,Z4)=(20,10,10)
座標1105(X5,Y5,Z5)=(40,20,20)
座標1106(X6,Y6,Z6)=(80,40,40)
特徴量算出部102で算出した値(座標1100)と、各シーンの代表値(座標1101〜1106)との距離を算出する。例えば、特徴量算出部102で算出した特徴量の組み合わせた値の座標(Xa,Ya,Zb)とし、各シーンを示す代表値の一つを座標(Xb,Yb,Zb)とすると、その距離は以下の式(15)で表される。
距離=((Xa−Xb)の2乗+(Ya−Yb)の2乗+(Za−Zb)の2乗) ...式(15)
2次元の特徴量空間上でのシーン判定方法と同様に、3次元の特徴量空間上で算出した距離を用いてシーン判定を行う。
次に補正処理部104の処理について説明する。
補正処理部104は、シーン判定部103で判定したシーン、及び算出した最終シーン信頼度に応じて補正処理を制御する。
図9は、本発明の実施形態に係る補正処理部104の動作手順を示すフローチャートである。
まずS91で、色空間変換部101で色空間変換された画像データを入力する。ここでは例えば、画像取得装置211で取得した画像データYCbCrを色空間RGBに変換した画像データを入力する。次にS92に進み、特徴量算出部102で算出した画像データの特徴量と、シーン判定部103で判定した画像データのシーン判定結果、及び最終シーン信頼度を取得する。ここでは例えば、特徴量算出部102で算出した画像データの特徴量として、明度成分である輝度(Y)の平均値を入力する。また、シーン判定部103で判定したシーン判定結果として、判定された結果が露出不足シーンであるか、夜景シーンであるかのシーン情報、及び最終シーン信頼度を入力する。
次にS93に進み、シーン情報を基にどのシーンであるかを判定する。ここでは例えば、露出不足シーンか夜景シーンであるかを判定する。そして露出不足のシーンであると判定するとステップS95に進み、また夜景のシーンであると判定するとステップS94に進む。ステップS94では、夜景シーン専用の階調補正処理を行う。またステップS95では、露出不足シーン専用の階調補正処理を行う。更にこれらS94,S95では、シーン判定部103で算出した最終シーン信頼度に応じて補正量を制御する。
この補正量の制御を図10(A)〜図10(C)を参照して説明する。図10(A)〜(C)は、それぞれ実施形態において画像補正に用いるγ曲線を示す図である。
図において、直線1000は、入力画像の濃度に対し出力画像の濃度が同じ値である状態を示す。また図10(A)のγ曲線1001は、入力画像の濃度に対し出力画像の濃度が、暗い濃度はより暗く、明るい濃度はより明るくするような階調補正を示している。また図10(B)のγ曲線1002は、入力画像の濃度に対し出力画像の濃度が、暗い濃度はより明るく、明るい濃度はより暗くする階調補正を示している。更に図10(C)のγ曲線1003は、入力画像の濃度に対し出力画像の濃度が全体的に少し明るくなる階調補正を示している。
図10において、入力した画像データの画像濃度をRGBの0〜255の値であるとする。補正処理の変換式を以下に示す。
R'=255×{(R/255)の(1/γ)乗}
G'=255×{(G/255)の(1/γ)乗}
B'=255×{(B/255)の(1/γ)乗}
ここでγの値が1より大きい場合は、入力画像に対し出力画像が明るくなる。またγの値が「1」より小さいとき、入力画像に対し出力画像が暗くなる。シーン判定結果が夜景シーンである場合は、S94で、夜景シーン用の補正処理として、暗い濃度はより暗く、明るい濃度はより明るくする補正を行う。例えば、図10(A)のγ曲線1001で補正処理を行う。
一方、シーン判定結果が露出不足シーンである場合は、S95で、露出不足シーン用の補正処理として、暗い濃度はより明るく、明るい濃度はより暗くする補正処理を行う。例えば、図10(B)のγ曲線1002で補正処理を行う。
更に、シーン判定が夜景シーンである場合であって、最終シーン信頼度が低い場合には、全体的に少し明るくなるように補正する。例えば、図10(C)のγ曲線1003で補正処理を行う。尚、補正γ曲線のγの値は、取得した画像データの特徴量によって決定する。例えば、明度成分として輝度(Y)の平均値によって決定される。
尚、ここで最終シーン信頼度は、0<(最終シーン信頼度)≦1の値をとるものとする。そして最終シーン信頼度が低いかどうかを判定する閾値を、例えば「0.6」としている。そして最終シーン信頼度が「0.6」に等しいか或いはそれよりも大きいときは、最終シーン信頼度が高いと判定する。そして最終シーン信頼度が「0.6」よりも小さいときは、最終シーン信頼度が低いと判定する。
本実施形態では、夜景シーンは図10(A)、露出不足シーンは図10(B)の補正γ曲線を選択しているが、本実施形態とは異なるγ曲線を選択しても構わない。例えば、シーン判定結果が露出不足シーンの場合は、全体的に明るくなるように補正処理を行う。例えば、図10(C)のγ曲線1003で補正処理を行ってもよい。
また本実施形態では、γ曲線のγの値は、明度成分として輝度(Y)の平均値によって決定しているが、算出した画像データの特徴量をいずれかを用いていれば、これに限らない。例えば、取得した画像データの特徴量として色のばらつき成分である色差(Cb)の分散値によって、γの値を決定してもよい。
また本実施形態では、閾値を「0.6」に設定したが本発明はこれに限らず、例えば「0.5」或いは「0.7」等でも良い。
また本実施形態では、最終シーン信頼度に応じて補正γ曲線を変えているが、補正量を変化させる処理に利用してもよい。例えば、最終シーン信頼度に応じてγ曲線のγ値を変更しても良い。また本実施形態では、図10に示すような階調補正処理を行っているが、少なくとも判定されたシーン結果を用いて補正処理を行う方法であれば、周知のいかなる補正処理を用いても構わない。例えば、シーン判定結果が夜景シーンの場合は、輝度の高い濃度値の彩度を上げる補正を行っても構わない。また本実施形態では、印刷するための画像データに対し、シーン判定した結果を用いて補正処理を行う例を示しているが、シーンを判定してシーン結果を利用する装置及び方法であれば、これに限らない。例えば、デジタルカメラで撮影する際に、シーンを判定して、露出量や撮影モード等の撮影の際の各種制御を行うために利用してもよい。また例えば、画像レイアウトして表示する際に、シーン判定して、シーン別に画像データを振り分けてレイアウトする処理に利用してもよい。
以上説明したように本実施形態によれば、判定したシーンの信頼度(シーン信頼度)と、判定したシーンの重み(代表点信頼度)から最終的なシーン信頼度(最終シーン信頼度)を算出することによって、より正確なシーンの信頼度を求めることができる。また、正確なシーンの信頼度を得ることにより、その信頼度に応じて適正な補正処理を実行することができる。
(他の実施形態)
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを読み出して実行することによっても達成され得る。その場合、プログラムの機能を有していれば、形態は、プログラムである必要はない。
従って、本発明の機能処理をコンピュータで実現するために、そのプログラムを格納した、コンピュータにより読み取り可能な記憶媒体から該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明のクレームでは、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。

Claims (9)

  1. 画像データから特徴量を取得する取得手段と、
    複数のシーンのそれぞれのシーンに複数の特徴量が対応づけられており、前記複数の特徴量のそれぞれに対して重みが対応付けられている特徴量空間において、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第1の重みが対応づけられている第1の特徴量を示す座標との第1の距離と、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第2の重みが対応づけられている第2の特徴量を示す座標との第2の距離を算出する算出手段と、
    前記算出手段によって算出された複数の距離のうち、前記取得手段によって取得された特徴量を示す座標から最も距離が短い座標が示す特徴量に対応付けられているシーンを、前記画像データのシーンとして判定する判定手段と、
    前記判定手段によって判定されたシーンと前記第1の重みとを用いて明るさ補正量を決定し、決定された前記補正量に基づき前記画像データの明るさを補正する補正手段とを有し、
    前記最も距離が短い座標が示す特徴量は第1の特徴量であり、前記判定手段におけるシーン判定では前記第1の重みと前記第2の重みは使用しないことを特徴とする画像処理装置。
  2. 前記取得手段によって取得された特徴量は明度と色差であり、前記第1の特徴量は明度と色差値であり、前記第2の特徴量は前記明度値と前記色差値の少なくともいずれか一方とは異なる明度値と色差値であり、前記算出手段は、少なくとも明度値と色差値とを含む特徴量空間において、前記第1の距離と前記第2の距離を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正手段は、さらに、前記第1の距離と前記第2の距離とに基づき、前記画像データの明るさを補正し、
    前記特徴量空間において、前記第2の特徴量は、前記取得手段によって取得された特徴量を示す座標から2番目に距離が短い座標が示す特徴量であることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 画像データから特徴量を取得する取得手段と、
    複数の区分のそれぞれの区分に複数の特徴量が対応づけられており、前記複数の特徴量のそれぞれに対して重みが対応付けられている特徴量空間において、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第1の重みが対応づけられている第1の特徴量を示す座標との第1の距離と、前記取得手段によって取得された特徴量を示す座標と、前記複数の特徴量のうち第2の重みが対応づけられている第2の特徴量を示す座標との第2の距離を算出する算出手段と、
    前記算出手段によって算出された複数の距離のうち、前記取得手段によって取得された特徴量を示す座標から最も距離が短い座標が示す特徴量に対応付けられている区分を、前記画像データの区分として判定する判定手段と、
    前記判定手段によって判定された区分と前記第1の重みとを用いて明るさ補正量を決定し、決定された補正量に基づき前記画像データの明るさを補正する補正手段とを有し、
    前記最も距離が短い座標が示す特徴量は第1の特徴量であり、前記判定手段における区分判定では前記第1の重みと前記第2の重みは使用しないことを特徴とする画像処理装置。
  5. 前記取得手段によって取得された特徴量は明度と色差であり、前記第1の特徴量は明度と色差値であり、前記第2の特徴量は前記明度値と前記色差値の少なくともいずれか一方とは異なる明度値と色差値であり、前記算出手段は、少なくとも明度値と色差値とを含む特徴量空間において、前記第1の距離と前記第2の距離を算出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記補正手段は、さらに、前記第1の距離と前記第2の距離とに基づき、前記画像データの明るさを補正し、
    前記特徴量空間において、前記第2の特徴量は、前記取得手段によって取得された特徴量を示す座標から2番目に距離が短い座標が示す特徴量であることを特徴とする請求項4又は5に記載の画像処理装置。
  7. 画像データから特徴量を取得する取得ステップと、
    複数のシーンのそれぞれのシーンに複数の特徴量が対応づけられており、前記複数の特徴量のそれぞれに対して重みが対応付けられている特徴量空間において、前記取得ステップで取得された特徴量を示す座標と、前記複数の特徴量のうち第1の重みが対応づけられている第1の特徴量を示す座標との第1の距離と、前記取得ステップで取得された特徴量を示す座標と、前記複数の特徴量のうち第2の重みが対応づけられている第2の特徴量を示す座標との第2の距離を算出する算出ステップと、
    前記算出ステップで算出された複数の距離のうち、前記取得ステップで取得された特徴量を示す座標から最も距離が短い座標が示す特徴量に対応付けられているシーンを、前記画像データのシーンとして判定する判定ステップと、
    前記判定ステップによって判定されたシーンと前記第1の重みとを用いて明るさ補正量を決定し、決定された補正量に基づき前記画像データの明るさを補正する補正ステップとを有し、
    前記最も距離が短い座標が示す特徴量は第1の特徴量であり、前記判定ステップにおけるシーン判定では前記第1の重みと前記第2の重みは使用しないことを特徴とする画像処理方法。
  8. 画像データから特徴量を取得する取得ステップと、
    複数の区分のそれぞれの区分に複数の特徴量が対応づけられており、前記複数の特徴量のそれぞれに対して重みが対応付けられている特徴量空間において、前記取得ステップで取得された特徴量を示す座標と、前記複数の特徴量のうち第1の重みが対応づけられている第1の特徴量を示す座標との第1の距離と、前記取得ステップで取得された特徴量を示す座標と、前記複数の特徴量のうち第2の重みが対応づけられている第2の特徴量を示す座標との第2の距離を算出する算出ステップと、
    前記算出ステップで算出された複数の距離のうち、前記取得ステップで取得された特徴量を示す座標から最も距離が短い座標が示す特徴量に対応付けられている区分を、前記画像データの区分として判定する判定ステップと、
    前記判定ステップによって判定された区分と前記第1の重みとを用いて明るさ補正量を決定し、決定された補正量に基づき前記画像データの明るさを補正する補正ステップとを有し、
    前記最も距離が短い座標が示す特徴量は第1の特徴量であり、前記判定ステップにおける区分判定では前記第1の重みと前記第2の重みは使用しないことを特徴とする画像処理方法。
  9. コンピュータを請求項1乃至6のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2013244327A 2013-11-26 2013-11-26 画像処理装置、画像処理方法、及びプログラム Expired - Fee Related JP5826237B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013244327A JP5826237B2 (ja) 2013-11-26 2013-11-26 画像処理装置、画像処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013244327A JP5826237B2 (ja) 2013-11-26 2013-11-26 画像処理装置、画像処理方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009123543A Division JP5424712B2 (ja) 2009-05-21 2009-05-21 画像処理装置及びその制御方法とプログラム

Publications (3)

Publication Number Publication Date
JP2014064313A JP2014064313A (ja) 2014-04-10
JP2014064313A5 JP2014064313A5 (ja) 2014-05-29
JP5826237B2 true JP5826237B2 (ja) 2015-12-02

Family

ID=50619104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013244327A Expired - Fee Related JP5826237B2 (ja) 2013-11-26 2013-11-26 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5826237B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001330882A (ja) * 2000-05-24 2001-11-30 Canon Inc 被写体認識機能付きカメラ
JP4606828B2 (ja) * 2003-09-25 2011-01-05 富士フイルム株式会社 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP2005151130A (ja) * 2003-11-14 2005-06-09 Canon Inc 画像出力装置、画像出力方法ならびに記憶媒体、プログラム
JP2006333205A (ja) * 2005-05-27 2006-12-07 Konica Minolta Photo Imaging Inc 撮像装置、画像処理方法及び画像処理プログラム
JP2008228086A (ja) * 2007-03-14 2008-09-25 Seiko Epson Corp 情報処理方法、情報処理装置及びプログラム
JP5181687B2 (ja) * 2008-01-17 2013-04-10 株式会社ニコン 電子カメラ

Also Published As

Publication number Publication date
JP2014064313A (ja) 2014-04-10

Similar Documents

Publication Publication Date Title
JP5424712B2 (ja) 画像処理装置及びその制御方法とプログラム
JP5743384B2 (ja) 画像処理装置及び画像処理方法とコンピュータプログラム
JP5032911B2 (ja) 画像処理装置及び画像処理方法
JP5451213B2 (ja) 画像処理装置及び画像処理方法並びにコンピュータプログラム
JP5116393B2 (ja) 画像処理装置及び画像処理方法
JP6840957B2 (ja) 画像類似度算出装置、画像処理装置、画像処理方法、及び記録媒体
JP4324043B2 (ja) 画像処理装置およびその方法
US8319853B2 (en) Image processing apparatus, image processing method, and computer program
US9106876B2 (en) Image processing device setting color conversion method to method adequate for image to be converted
JP2009033361A (ja) 色調整装置、画像形成装置およびプログラム
JP4324044B2 (ja) 画像処理装置およびその方法
EP2009900B1 (en) Image-printing device
JP5826237B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6166768B2 (ja) 画像処理装置及び画像処理方法とプログラム
US7817303B2 (en) Image processing and image forming with modification of a particular class of colors
JP6343373B2 (ja) 画像処理方法及び画像処理装置とプログラム
JP5856640B2 (ja) 画像処理装置及び画像処理方法とプログラム
CN113395407A (zh) 图像处理装置、图像处理方法及计算机可读介质
JP4418829B2 (ja) 色補正方法および画像処理装置
JP5116873B2 (ja) 画像処理装置及び画像処理方法
JP2000105820A (ja) モノト―ン変換装置、モノト―ン変換方法およびモノト―ン変換プログラムを記録した媒体
JP2008147714A (ja) 画像処理装置およびその方法
JP2006031375A (ja) 画像処理装置およびその方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151013

R151 Written notification of patent or utility model registration

Ref document number: 5826237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees