JP2004234069A - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
JP2004234069A
JP2004234069A JP2003018566A JP2003018566A JP2004234069A JP 2004234069 A JP2004234069 A JP 2004234069A JP 2003018566 A JP2003018566 A JP 2003018566A JP 2003018566 A JP2003018566 A JP 2003018566A JP 2004234069 A JP2004234069 A JP 2004234069A
Authority
JP
Japan
Prior art keywords
information
image
image processing
pattern
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003018566A
Other languages
English (en)
Inventor
Shoichi Nomura
庄一 野村
Takeshi Hattori
毅 服部
Tsukasa Ito
司 伊藤
Jo Nakajima
丈 中嶋
Chizuko Ikeda
千鶴子 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2003018566A priority Critical patent/JP2004234069A/ja
Priority to EP04001154A priority patent/EP1443458A3/en
Priority to US10/762,824 priority patent/US20040151396A1/en
Publication of JP2004234069A publication Critical patent/JP2004234069A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】写真撮影目的に応じた、また想定された主要被写体に応じた、好ましい調整をすることが可能な画像処理方法、画像処理装置及びプログラムの提供。
【解決手段】画像入力手段から得られた入力画像情報に基づいて画像処理を行い、出力画像情報を得る画像処理方法において、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする工程を経る画像処理方法。
【選択図】 図13

Description

【0001】
【発明の属する技術分野】
本発明は、画像入力手段から得られた入力画像情報に基づいて画像処理を行い出力画像情報を得る画像処理方法、装置、及びその動作制御を行うプログラムに関する。
【0002】
【従来の技術】
デジタルスチルカメラ、銀塩フィルムを用いた旧来のカメラなどを用いて写真撮影を行い、得られた画像をハードコピー、またはCRT等の表示装置に表示して画像再現するシステムが従来から用いられている。
【0003】
これら画像再現システムに於いては、写されている画像を好ましく再現するため、明るさ、コントラスト等、元画像に手を加えて調整し、再現するのが一般的である。
【0004】
たとえば旧来の銀塩ネガポジシステムであれば、フィルムから印画紙に焼き付け露光する際に、露光時間や焼付け光源の光量を変化させる手法が古くから用いられている。
【0005】
またデジタルスチルカメラからのプリントでは、得られた画像信号値をルックアップテーブル(LUT)等で数値変換することで同様の処理が実現されている。
【0006】
上述のような各種調整を行う場合、撮影された画像に合わせて好ましい調整、多くの場合は、画像内の主要被写体に対してもっとも好ましい調整、をすることが行われている。この調整を人手で行うのは高い技術、経験が必要であったり、工数がかかりすぎたりと困難な場合が多く、自動、あるいは半自動でこれら作業を行う画像処理方法が公開されている。一例としては、画像情報から顔情報を抽出し、これを好ましい階調に仕上げることで好ましい写真が得られるとされている(特許文献1参照)。
【0007】
【特許文献1】
特開2001−84274号公報
【0008】
【発明が解決しようとする課題】
しかしながら、写真には様々な撮影目的があり、同じ被写体、更には同じ写真であっても、評価者によって、受け取り方や、最も好ましいとされる再現結果が異なる場合が多く存在する。これら多様な要望にこたえ、簡単に好ましい再現画像が得られる画像処理方法が求められていた。
【0009】
また通常撮影される写真では、多種多様な主要被写体が想定される。その中には、たとえば遠方への旅行写真における地方独特の建物、団体旅行に代表される団体行動時の特定の制服、等、その写真にとっては重要でも、一般には認知し得ない特有の形態のものもある。例えば旅行時に撮影した記念写真の場合、一般には人物を中心に画像再現を考えた加工調整を施すが、顧客によっては、多少の人物の犠牲は有っても、背景の建造物を重視した加工調整を好む場合も有る。従来の技術は、それらに対し十分な対応が出来るものではなかった。
【0010】
本発明は上記の事情に鑑みてなされたものであり、その目的は、写真撮影目的に応じた、また想定された主要被写体に応じた、好ましい調整をすることが可能な画像処理方法と、それを行える画像処理装置及び装置の動作を規制する画像処理プログラムを提供することにある。
【0011】
【課題を解決するための手段】
本発明の上記目的は、以下により達成される。
【0012】
1) 画像入力手段から得られた入力画像情報に基づいて画像処理を行い、出力画像情報を得る画像処理方法において、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする工程を経る画像処理方法、
画像入力手段から得られた入力画像情報に基づいて出力画像情報を得る画像処理手段を有し、該画像処理手段が、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする手段を有する画像処理装置、及び
画像入力手段から得られた入力画像情報に基づいて出力画像情報を得る画像処理手段を、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする手段として機能させるプログラム。
【0013】
これにより、写真撮影目的に応じた、また想定された主要被写体に応じた、好ましい調整をすることを可能ならしめる。
【0014】
2) 個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定する1)の画像処理方法、
前記画像処理手段が、個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定する1)の画像処理装置、及び
個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定する1)のプログラム。
【0015】
これにより、複数の被写体が混在した写真において、それぞれの被写体を考慮した写真仕上がりを得ることが出来る。
【0016】
3) 被写体パターンに関する情報は、各々の被写体パターンに対して設定される優先順位情報を含む2)の画像処理方法、画像処理装置、及び
被写体パターンに関する情報に、各々の被写体パターンに対して設定される優先順位情報を含有させる2)のプログラム。
【0017】
これにより、複数の被写体が混在した写真において、被写体それぞれの重要さの序列を考慮した写真仕上がりを得ることが出来る。
【0018】
4) 前記優先順位情報は、当該被写体パターンの重要さに対応する重み付けの値で表される3)の画像処理方法、画像処理装置、及び
前記優先順位情報を、当該被写体パターンの重要さに対応する重み付けの値とする3)のプログラム。
【0019】
これにより、被写体それぞれの重要さの序列を簡単に数値表記でき、細かな考慮がしやすい。
【0020】
5) 複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行い、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定する3)又は4)の画像処理方法、
前記画像処理手段が、複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行い、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定する3)又は4)に記載の画像処理装置、及び
前記画像処理手段に、複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行なわせ、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定する3)は4)のプログラム。
【0021】
これにより、複数の被写体が混在した写真においても、それぞれの重要度に応じた写真仕上がりを得ることが出来、簡単に高品位の写真が得られる。
【0022】
6) 前記優先順位情報は、各々の被写体パターンの画面内における存在状況に対応する副優先順位情報をもとに修正される3)〜5)の何れかの画像処理方法、画像処理装置、及び
前記優先順位情報を、各々の被写体パターンの画面内における存在状況に対応する副優先順位情報をもとに修正する3)〜5)の何れかのプログラム。
【0023】
これにより、被写体の画面内における存在意義を評価できる為、自然な補正結果が得られる。
【0024】
7) 前記副優先順位情報は、被写体パターンの画面内に占める割合及び画面内に存在する位置の少なくとも1方に対応した情報である6)の画像処理方法、画像処理装置、及び
前記副優先順位情報を、被写体パターンの画面内に占める割合及び画面内に存在する位置の少なくとも1方に対応させる6)のプログラム。
【0025】
これにより、有効、かつ確実に被写体の画面内における存在意義を評価できる為、自然な補正結果がより簡単に得られる。
【0026】
8) 被写体パターンの区分は、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定められる1)〜7)の何れかの画像処理方法、
入力手段を有し、前記画像処理手段が、被写体パターンの区分を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める1)〜7)の何れかの画像処理装置、及び
入力手段をシーン属性情報を指示入力する手段として機能させ、被写体パターンの区分を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める1)〜7)の何れかのプログラム。
【0027】
これにより、シーン属性に応じて好ましいパターンの選択が出来るので、より効率的なパターン抽出と、より好ましい補正結果が得られる。
【0028】
9) 前記優先順位情報は、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定められることを特徴とする3)〜8)の何れかの画像処理方法、
入力手段を有し、前記画像処理手段が、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める3)〜7)の何れかの画像処理装置、
前記画像処理手段が、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める8)の画像処理装置、
入力手段をシーン属性情報を指示入力する手段として機能させ、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める3)〜7)の何れかのプログラム、及び前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定める8)のプログラム。
【0029】
これにより、シーン属性を適時指定できるので、より主観的に好ましい画像処理結果を得ることが出来る。
【0030】
10) 前記被写体パターンを、複数の単位パターンから構成されるものとして、入力画像情報から単位パターンを抽出し、単位パターン同士の連結状態を被写体パターンの存在状態の検知に用いる1)〜9)の何れかの画像処理方法、プログラム、及び
前記画像処理手段が、前記被写体パターンを、複数の単位パターンから構成されるものとして、入力画像情報から単位パターンを抽出し、単位パターン同士の連結状態を被写体パターンの存在状態の検知に用いる1)〜9)の何れかの画像処理装置。
【0031】
これにより、制服を着た人物、特定の神社、仏閣、樹木、等、全体の形態を特定することが困難なパターンであってもその単位要素から抽出することが出来る。
【0032】
11) 前記単位パターンの抽出は、入力画像情報により画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出する10)の画像処理方法、
画像表示手段を有し、前記画像処理手段が、前記単位パターンの抽出を、入力画像情報により画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出する10)の画像処理装置、及び
画像表示手段を入力画像情報により画像を表示する手段として機能させ、前記単位パターンの抽出を、画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出する10)のプログラム。
【0033】
これにより、一般に認知されていない被写体パターンであっても、新たに被写体パターンとして登録でき、簡単な手続きで被写体パターン抽出作業が出来る。
【0034】
12) 画像入力手段から得られた一連の複数の画像中から任意の画像を選択し、前記接続関係情報からなる被写体パターン情報を得て、当該被写体パターン情報を前記一連の複数の画像に適用して画像処理を行う11)の画像処理方法、プログラム、及び
前記画像処理手段が、画像入力手段から得られた一連の複数の画像中から任意の画像を選択し、前記接続関係情報からなる被写体パターン情報を得て、当該被写体パターン情報を前記一連の複数の画像に適用して画像処理を行う11)の画像処理装置。
【0035】
これにより、新たな被写体パターンを設定する場合でも、代表の駒から求めるだけでよいので効率的に作業を進めることが出来る。
【0036】
13) 顧客情報と対応付けられた被写体パターンを抽出する10)〜12)の何れかの画像処理方法、
顧客情報を格納する記憶手段を有し、前記画像処理手段が、入力された又は記憶手段を参照して得た顧客情報と対応付けられた被写体パターンを抽出する10)〜12)の何れかの画像処理装置、
記憶手段を顧客情報を格納する手段として機能させ、入力された又は記憶手段を参照して得た顧客情報と対応付けられた被写体パターンを抽出する10)〜12)の何れかのプログラム。
【0037】
これにより、特定の個人、顧客にとって重要、かつ特殊な被写体等、個別要素が強く、また、制服を着た人物、等、名称の重複がおきやすいパターンであっても、確実に単位要素から抽出することが出来る。
【0038】
即ち本発明者は、多重解像度変換の手法を用い、画像内に存在する被写体を識別して画像を複数に区分すれば、写真撮影目的に応じ、また想定された主要被写体に応じて、特定の被写体及び、当該被写体と他の被写体との関係に着目した画像処理を施すことができると考え、本発明に至ったものである。
【0039】
【発明の実施の形態】
以下、本発明の実施形態として、近年普及してきた、写真店で顧客からの注文に応じて、プリントやCDR等、記録メディアへの画像書き込みサービスを行う、デジタルミニラボを画像処理装置として本発明の画像処理方法を適用する例を説明する。
【0040】
図1に、デジタルミニラボの機能の基本構成をブロック図として示す。
デジタルカメラ(以下、DSC)1で撮影された画像は、スマートメディア、コンパクトフラッシュ(R)等、各種の画像記録メディア2に収められ、店頭に持ち込まれる。また旧来のカメラで撮影された(銀塩)フィルム3は、あらかじめ現像処理を施され、ネガフィルム、もしくはポジフィルムの画像原稿4となる。
【0041】
DSC1からの画像は、画像入力部にある、画像記録メディア2に対応したメディアドライバ5で画像信号として読み取られ、現像済みフィルム4の場合は同じく、フィルムスキャナ6で画像信号に変換される。
【0042】
その他、反射原稿の場合はフラットベッドスキャナ等の反射スキャナで画像入力される、或いは、LANやインターネット回線を通じて画像情報が入力されるといった様に、画像入力部10に入力される画像種は、DSC1からのものとは限らないが、ここでは図示しない。もちろんこれら画像に後述の画像処理を施すことも可能である。
【0043】
この様に画像入力部10で取得した入力画像情報は画像処理部20に送られ、ここで、本発明の画像処理を含め、各種の処理加工がなされ、各種の処理加工がなされた出力画像情報は、各種出力装置(ここでは、銀塩露光プリンタ7、インクジェットプリンタ8、CDR等、画像記録メディア9を例示)にあわせた色変換処理を施した後、出力される。なお、図中では、前記色変換処理は、画像処理部の処理内容の一部として扱い、図示しない。
【0044】
さて、画像処理部20にはシーン属性を入力、登録処理する機能が接続されている。これはたとえば、キーボード31、マウス32、さらに、画像表示部33に表示された画像を見ながら、直接画面に触れて位置情報の指示が出来る接触センサー34からなる指示入力部30と、これらの指示、入力、登録情報を保存する情報記憶部40と、から構成され、ここで、シーン属性を入力、あるいは選択指示することが出来る。
【0045】
ここでシーン属性とは、その写真の主たる目的とするもののことを言い、例えば旅行写真、アウトドア、イベント写真、ネイチャーフォト、ポートレート等を挙げることができる。
【0046】
またフィルムスキャナ6及びメディアドライバ5は、シーン属性や類する情報を記憶する機能を有するカメラで撮影されたフィルムやメディアから前記情報を読み取る機能を有する事が好ましい。これにより、確実にシーン属性情報を取得できる。
【0047】
フィルムスキャナ6が読み取る情報としては、例えば、銀塩カメラのAPS(アドバンスドフォトシステム)において、フィルムに塗布された磁気層に記録された、各種の情報が有る。一例としては、プリント品質向上のために設定されたPQI情報、撮影時に設定され、プリントに表示されるメッセージ情報、その他が有る。
【0048】
メディアドライバ5が読み取る情報としては、例えばExifなど、画像記録フォーマットの種類によって定義される、各種情報、前述の銀塩フィルムの例に記載の情報や、更に多様な情報が記録されている場合が有り、これらを読み取り有効に利用し得る。
【0049】
これらメディアから得られる情報がある場合は、これらからシーン属性を得る、或いは類推すると、いちいち注文時にシーン属性を確認する手間が省けてよい。
【0050】
更に、例えば写真店などで顧客情報を管理し、顧客ごとに、シーン属性を別途設定しておく、あるいはシーン属性そのものとして、顧客情報を用いると、後述の優先度設定時に、いったん設定された顧客の好みを簡単に引き出せるようになり、作業効率化と顧客満足度向上の点で好ましい。
【0051】
これらの、さらには後述の各種情報は、情報記憶部40に蓄積され、適宣利用される。
【0052】
次いで、上記画像入力部、画像処理部、情報記憶部、及び指示入力部で行われる処理内容について説明する。
【0053】
前述した各種の方法でシーン属性が定まったら、これに対応して、抽出すべき被写体パターンが定められる。ここで言う被写体パターンとは、人物、特定衣類(制服、スポーツのユニフォーム等)を着た人物、建物(和、洋、近代、歴史、宗教建築等)の様な、また、更には、雲、青空、海の様な、画像内に存在する、認識可能な別個、特定の被写体の事であり、被写体パターンに関する情報には、後述する、被写体パターンの優先順位情報(順位付け、または重み付け係数で表される値等で表記)が含まれ、更に、当該被写体の好ましい階調、色調再現に関する情報、また、被写体パターンの位置や大きさ、平均の階調、階調レンジ、色調などの情報が挙げられる。
【0054】
なお顧客の注文状況によっては、被写体パターンの分類状況は異なってくる場合がある。たとえば人物を例にとると、単に「人物」であれば、人数にかかわり無く一つのパターンに関する情報として扱うことが出来るが、「学生」、「一般人」(あるいは「男性」、「女性」)の区分が注文主にとって意味あるものであれば、人物は2種類の被写体パターンとなる。
【0055】
また顧客本人とそれ以外、結婚披露宴の「新婦」、「新郎」、「他の出席者」あるいは、仮に「Aさん」と「Bさん」という場合も、注文主として識別可能な個体であり、別の被写体パターンとなり得る。
【0056】
被写体パターンを抽出する手法は一般に知られている、各種のパターン抽出法を用いても良いが、新たに抽出法を設定しても良い。好ましい一例として、本発明者らが新たに見出した、Dyadic Waveletによる多重解像度変換処理を利用した、高い確度でパターン抽出ができる手法を説明する。
【0057】
なおここで言う多重解像度変換は、画像情報の中に特定の周波数領域の信号強度がどの様に分布しているかを、周波数帯域をいくつかの帯域に分離することで捉える手法で、Dyadic Waveletは、後述の様に解像度変換を実施していく過程で画像サイズが小さくならず、画像の位置検出精度が変換レベルが上がっても(処理を多く繰り返しても)高いまま保たる性質が有り、本発明で利用する際に好ましい手法である。
【0058】
以下、Dyadic Wavelet処理について、述べる。
本発明で利用するDyadic Wavelet(二項ウェーブレット)については、”Singularity detection and processing with wavelets”by S.Mallat and W.L.Hwang,IEEE Trans. Inform. Theory38 617(1992)や“Characterization of signals from multiscale edges”by S.Mallat and S.Zhong,IEEE Trans. PatternAnal. Machine Intel. 14 710(1992)や”A wavelet tour of signal processing 2ed.”by S.Mallat,Academic Pressに詳細な説明があるが、以下に概要を説明する。
【0059】
二項ウェーブレットのウェーブレット関数は下記のように定義される。
【0060】
【数1】
Figure 2004234069
【0061】
つまり二項ウェーブレットはレベルiにかかわらず位置の最小移動単位が一定である。これにより、二項ウェーブレット変換には下記の特徴が生じる。
【0062】
特徴1:下記に示す一レベルの二項ウェーブレット変換で生成する、高周波数帯域成分Wと低周波数帯域成分Sの各々の信号量は、変換前の信号Si−1と同一である。
【0063】
【数2】
Figure 2004234069
【0064】
特徴2:スケーリング関数φi,j(x)とウェーブレット関数ψi,j(x)の間に下記の関係が成立する。
【0065】
【数3】
Figure 2004234069
【0066】
従って二項ウェーブレット変換で生成する、高周波数帯域成分Wは、低周波数帯域成分Sの一次微分(勾配)を表す。
【0067】
特徴3:ウェーブレット変換のレベルiに応じて定められた係数γ(前出の二項ウェーブレットに関する参考文献参照)を高周波数帯域成分に乗じたW・γ(以下、これを補正済高周波数帯域成分と呼ぶ)について、入力信号の信号変化の特異性(singularity)に応じて、該変換後の補正済高周波数帯域成分W・γの信号強度のレベル間の関係が一定の法則に従う。すなわち図2の1や4に示すなだらかな(微分可能な)信号変化に対応する補正済高周波数帯域成分W・γはレベル数iが増大するほど信号強度が増大するのに対して、図2の2に示すステップ状の信号変化に対応する補正済高周波数帯域成分W・γはレベル数iに関わらず信号強度が一定となり、図2の3に示すδ関数状の信号変化に対応する補正済高周波数帯域成分W・γはレベル数iが増大するほど信号強度が減少する。
【0068】
なおここで言うレベルiは解像度レベルであって、何段階の処理を行うかを表す。
【0069】
特徴4:画像信号のような2次元信号における1レベルの二項ウェーブレット変換の方法は、図3の様に行われる。この1レベルのウェーブレット変換により、低周波数帯域成分Sn−1は2つの高周波数帯域成分Wx、Wyと1つの低周波数帯域成分Sに分解される。2つの高周波数帯域成分は低周波数帯域成分Sの2次元における変化ベクトルVのx成分とy成分に相当する。変化ベクトルVの大きさMと偏角Aは下式で与えられる。
【0070】
【数4】
Figure 2004234069
【0071】
また二項ウェーブレット変換で得られた2つの高周波数帯域成分Wx、Wyと1つの低周波数帯域成分Sに図4に示す二項ウェーブレット逆変換をほどこすことで、変換前のSn−1を再構成できる事が知られている。図においてLPFは変換用ローパスフィルタ、HPFは変換用ハイパスフィルタを示し、LPF’は逆変換用ローパスフィルタ、HPF’は逆変換用ハイパスフィルタを示している。これらのフィルタ係数はウェーブレット関数に応じて適切に定められる(前述の参考文献を参照)。また、LPFx, HPFx, LPF’x, HPF’x,はx方向の処理を示し、LPFy, HPFy, LPF’y, HPF’yはy方向の処理を示す。また二項ウェーブレットにおいては、レベル毎にフィルタ係数が異なり、レベルnのフィルタ係数は、レベル1のフィルタの各係数の間に2n−1−1個のゼロを挿入したものが用いられる(前述の参考文献を参照)。
【0072】
さて、以上説明してきた、Dyadic Waveletを用いて、画像を多重解像度変換する事例の説明を図5の顔を用いて行う。
【0073】
まず抽出するパターンに応じて、パターン抽出に利用する解像度レベルを設定する。
【0074】
ここで言うパターン、特に被写体パターンとして一般に認知されるものは、その輪郭のみではなく、種々の固有の部分要素をもっているものがほとんどである。例えば人物の頭部であれば、その輪郭そのもののほか、目(さらに瞳、虹彩、まつげ、白目の血管)、鼻、口、ほほの起伏、えくぼ、眉、等がある。これらの内、抽出するパターンを識別するのに有効な部分要素をその「構成要素」と位置付け、それぞれに対し、パターン抽出に利用する解像度レベルを設定する。
【0075】
例えば、図5及び図6のイメージ図で示される通り、人物の頭部の輪郭そのものは低レベルの分解画像に抽出されるエッジで、はっきりと、かつ正確に認識され、その内部に存在する、顔の構成要素の緩やかなパターン、たとえば鼻筋、唇の形状、笑顔の口唇周囲に出来る線、「えくぼ」、「ほほのふくらみ」などは、より高レベル分解画像に現れる、エッジ情報を用いることで、その特徴を的確に捉えることが出来る。
【0076】
ここで、被写体パターンの構成要素の決定方法、及び、各々を識別する、好適解像度の決定方法について、好ましい1例を説明する。
【0077】
まず、被写体パターンの構成要素を設定する。たとえば、一般的に「人物の顔」であれば、下記記載のような、あらかじめ記憶された、各種構成要素となる。
【0078】
a:顔の輪郭
b:瞳
c:眉
d:口
e:髪の毛
f:鼻梁
g:鼻孔
h:ほほの凸部
また、特定人物を被写体パターンとして登録したような場合は、これらに追加して以下の様な新たな構成要素を設定しても良く、個人特定が好ましく実施できる。
【0079】
i:しみ、ほくろ
j:えくぼ
k:髭
特定人物の場合では、a〜kの構成要素について、一般的な「人物の顔」という場合とは異なる特性を設定できるし、いくつかの構成要素は「無い」という場合もある。
【0080】
目的とする被写体パターンについて各々の構成要素が設定できたら、この画像を二項ウェーブレット変換を用いて、多重解像度変換する。
【0081】
各々の構成要素について、多重解像度変換の各レベルの分解信号における信号強度を求め、最大となるレベルを求める。
【0082】
なお、この場合の信号強度とは、各々のレベルで検出されたエッジ成分を示す信号の最大値であるが、複数のレベル間で信号強度を比較する際には、信号値として、前出、二項ウェーブレットで説明した、補正済高周波帯域成分を用いることが好ましいのは言うまでもないことである。
【0083】
前述の最大となるレベルを好適解像度として用いればよいが、実際の画像処理結果を評価して、若干のレベル変更を行ってもかまわない。
【0084】
ところで、二項ウェーブレット変換を利用した場合、前述の特徴3に示される通り、ナイフエッジパターンのような、非常に輪郭のはっきりした構成要素の場合では、エッジの信号レベルが解像度レベルによって大きく変化しない特性がある。このような場合は、当該構成要素の輪郭形態がはっきりと認識できるレベル、または、もともとの画像解像度が十分でない場合においては、最も低レベルの分解解像度を好適解像度レベルとする。
【0085】
前述の頭部の構成要素には、輪郭の比較的はっきりしたものと、はっきりしないものがあり、たとえばa、c、iなどが前者にあたり、f、h、jなどが後者にあたる。前者のような構成要件の抽出、登録は、たとえばモニタに画像を表示し、当該箇所をマウス、や接触型センサなどで指定して、近傍領域を自動的あるいは、手動的に切り抜いて行うことが出来る。後者のような場合には、当該構成要素の存在する領域を、存在しない領域と、はっきりと区別し、切り抜くことは困難である。
【0086】
切り抜くことが困難な場合においては、その構成要素が存在する領域を大まかに指定すればよい。このような構成要件に対して設定される好適解像度は、前者の輪郭のはっきりしたものよりも高レベルとなっているのが普通である。したがって、大まかな領域指定を行った場合に実際に後者のような構成要素の抽出を行う際には、以下のようにして、目標とする構成要素を抽出できる。
【0087】
構成要素を抽出する候補領域に検出されたエッジをすべて抽出し、これらについて、各解像度レベルの信号強度を比較し、好適解像度レベルより低レベルの分解画像で信号強度が強く検出されたエッジ成分は当該構成要素には含まれないものと考えられるため、候補領域から除外する。残った領域を、好適解像度レベルで検査して目的とする構成要素として抽出する。
【0088】
以上の例では、分解前の画像をモニタに表示し、構成要素の指定を行ったが、たとえば画像処理技術に関してある程度の知識を有しているものが構成要素の指定を行う場合には、実際に解像度変換を行った分解画像をモニタに表示し、好ましくは分解前の画像と対比可能な構成で表示して表示されている解像度レベルで抽出すべき構成要素を指定できるようにすると、入力画像だけでは認識し得ない、新たな特徴点の発見も簡単に行うことが出来、より、被写体パターン識別精度を向上することが出来る。
【0089】
図5において、瞳、上瞼のエッジをA、鼻筋、口唇周囲の線をB、ほほのふくらみをCとすると、図6に示す様に、前述の通り、AよりB、BよりCをより高レベルの解像度レベルの画像で検出することで、的確に顔の特徴認識が出来る。
【0090】
更に、図7に示す様に、抽出すべきパターンの大きさに応じて、上記エッジ情報の検出に用いるレベルを設定すると、大きなパターンでは細かな情報まで用いたパターン検出、小さなパターンでは、その大きさで得られる情報までを用いて、最大限、効果的、かつ高速な検出処理が行えるという、優れた特徴を有する。
【0091】
上記パターンの大きさは、別途、仮のパターン検出を行って、その大きさから求めてもよく、または、シーン属性(記念写真、ポートレートなど)、画像サイズ、から仮に求めても良い。ここで、パターンの大きさとは、たとえばパターンのサイズを画素数で表すことができるが、図示の例では、顔の大きさ「中」のサイズがあれば、A、B、Cそれぞれに好ましい特徴抽出レベルが定められる。
【0092】
もともとの画像サイズ(つまりパターンのサイズ、画像解像度)が非常に大きい場合、前述の「中」の大きさに相当する画像サイズまで解像度変換を行い、パターン抽出処理を行うことで、必要な計算処理量を大きく減らすことが出来、好都合である。
【0093】
次ぎに画像内から抽出できる被写体パターンをすべて探す手法について述べる。前述のように、抽出すべき被写体パターンは決定されたシーン属性に応じて切り替える。以下にいくつかの例を示す。
【0094】
シーン属性 → 抽出する被写体パターン(左のほうが、優先順位が高い)
修学旅行・京都 → 顔/制服を着た人物/歴史建築(和建築)
結婚披露宴 → 新婦/新郎/顔/ドレス/スポットライト
上記の例の、新婦・新郎と顔、スポットライトとドレスのように、重なり合って存在する被写体パターン要件もある。
【0095】
ここで、上記被写体パターンは、あらかじめ定められているものでも良いが、例えば以下の手法で新たに設定することも出来る。
【0096】
1)画像をモニタに表示し、主要画像部分を指示する。
2)指示部分を含む輪郭領域を自動抽出し、ここで得られたパターンを、単位パターンとする。必要とするパターン全体が含まれていない場合は、上記操作を繰り返し、微小輪郭を結合していく。
【0097】
3)全体の輪郭抽出が終了したところで、前述の情報記録部に登録指示を行う(登録キーを押す)。登録情報は、選択された領域に関する情報(いくつの、どんな単位パターンが、どのように連結している集合か、や、領域全体に関する各種特性値)、領域の名称(制服を着た学生、等)、優先順位情報などからなる。
【0098】
さらに前記単位パターンとして、「顔」や「制服」等、前出の被写体パターンに相当するやや複雑な構成のものを指定してもよく、これらの結合で、「学生」等の、より高度な被写体パターンの登録が簡単に出来る。
【0099】
また、たとえば図8に示す結合状態を数式で表すことも可能で、「学生」というカテゴリに、「男子学生」(図8(a))、「女子学生」(図8(b))の2種のカテゴリが含まれ、それぞれの定義ができ(男子学生は▲1▼and▲2▼and▲3▼、女子学生は▲1▼and▲4▼and▲5▼)、それぞれの結合で学生({▲1▼and▲2▼and▲3▼}or{▲1▼and▲4▼and▲5▼})の定義が出来る(ここで、andは論理積、orは論理和である)。
【0100】
この場合▲2▼、▲3▼、▲4▼、▲5▼については特定パターン固有の定義が必要であろうが、例えば▲4▼については、図9(a)に示す様に、まずa〜fを表示画像で指定して抽出し、a〜fの特性値と図9(b)に示す連結状態を▲4▼として定義する。
【0101】
なお、写真店における写真プリントの一般的な状況として、ロールフィルムからの同時プリントや、デジタルカメラで撮影時に利用した画像記憶メディアからのプリントデータ等、関連した複数の駒について、一括してプリント注文する場合が多い(以下、一連の注文と表記)。
【0102】
一連の注文内に複数の画像がある場合には、その中の代表的な1枚の画像で、上記抽出、登録作業を行い、この情報を元に一連の画像群の全画像のパターン抽出作業を行うことが出来、パターン登録作業の回数を減らし、効率的な作業が出来る。
【0103】
また、前記登録パターンが、ある顧客固有のものであった場合には、パターン登録したパターンを顧客情報といっしょに保存しておき、次回のプリント注文時に顧客情報から、必要な登録パターンを呼び出すようにしておくと、より手間が省け、高度なサービスが実現できる。
【0104】
さらに前記のような、一連の注文処理を行うような場合、全画面から、色々な想定され得る被写体パターンを抽出し、その出現頻度や、画面内における存在位置の統計結果から、シーン属性や優先順位を類推することも出来る。
【0105】
このようにすれば、注文主からシーン属性に関する情報が得られない場合でも、顧客のもっとも大事にしたい被写体が推測できる為、より高い確率で、顧客にとって好ましいプリントが簡単に得られる。
【0106】
抽出した被写体に優先順位をつける手法について説明する。
シーン属性に対応して定められている優先順位情報を元につけるが、更に、被写体パターンの大きさ(大きいものを重視、等)、位置(中央部にあるものをより重視、等)により、優先順位情報に重み付けしても良く、これにより、被写体パターンの重要さに関し、更に好ましい情報が得られる。以下、このようにして得られた優先度に関する情報を「重要度」とする。
【0107】
抽出すべき被写体パターンと、それら被写体パターンの優先順位情報の決定法として、更に、GPS信号と、時刻、地図、地勢情報や、インターネット等の自動検索エンジンを用いた検索情報、当該自治体、観光協会、商工会等の情報等やこれらをリンクした情報を用い、画像撮影地点において一般的に重要な被写体パターン、ランドマーク等を、優先順位の高い情報と位置付けることも出来る。
【0108】
そして顧客の満足度を高めるため、重要度の高い被写体パターンをより重視した画像処理を行う。一例としては、重要度の高い被写体パターンが、より好ましい階調に仕上がるよう階調変換条件を定めることが挙げられる。
【0109】
図10で、修学旅行・京都の例で明るさに関する処理の説明をする。ここでは、
▲1▼制服を着た人物 :優先順位1、重み付け係数5
▲2▼歴史建築(和建築) :優先順位2、重み付け係数2
▲3▼顔 :優先順位3、重み付け係数1
と、優先順位情報が設定されたとする。図の場合、原画像から、全要素が見つかったが、▲3▼は▲1▼の中に包含されていて(抽出要素としては▲1▼となる)、どちらもやや小さく、▲2▼が中央部に大きく存在している。
【0110】
そこで、副優先順位情報として大きさに対応する重み付けを
a:被写体「大」 重み付け係数 1.0
b:被写体「中」 重み付け係数 0.8
c:被写体「やや小」 重み付け係数 0.3
d:被写体「小」 重み付け係数 0.1
と設定すると、▲1▼と▲2▼の重み付けは、
▲1▼: 5×0.3=1.5
▲2▼: 2×1.0=2.0
となる、この画像は、歴史的建造物の前で撮影した記念写真と考えられるが、以上の処理により、人物写真であるが、建造物(旅行の目的物)に重点の置かれた写真が得られることになる。
【0111】
図11(a)で示す上記の例が、図11(b)で示す明るさのヒストグラムを有するとし、▲1▼をもっとも好ましく仕上げる階調補正量がα、▲2▼をもっとも好ましく仕上げる階調補正量がβとすると、重みを考慮した階調補正量γは、例えば
γ=(1.5×α+2.0×β)/(1.5+2.0)
で求められ、図12(a)で示す様なヒストグラムで再現されることになる。
【0112】
なお、上記計算式(後述の計算式でも同様)の1.5、2.0の値は、前述、▲1▼と▲2▼の重み付け計算で一例として求めた重み付けの値であり、一般的な画像処理では変数として扱うものである。
【0113】
他の例として、重要度の高い被写体パターンが、もっとも好ましい階調に仕上がるよう全体の階調変換を行い、その他の被写体パターンについてはその領域のみの階調を選択的に変える覆い焼き的な手法を用いることが挙げられる。覆い焼き的な処理を加えることで、各被写体要素、▲1▼〜▲3▼の明るさをそれぞれ適当な状態に補正することが可能である。
【0114】
前記の数式例で説明すれば、全体の階調補正量を▲2▼をもっとも好ましく処理するβとし、▲1▼については、その領域のみ、(α−β)に相当する階調処理を行えばよい(図12(b))。
【0115】
一方で、▲1▼、▲2▼共に1枚の画像中に存在していることを考えると、ばらばらに補正することは画像の自然さを損なうこととなる。前記の数式例で(α−β)の階調補正量が、大きすぎる場合、1枚の写真としてのバランスを欠く結果となる懸念がある。
【0116】
自然な階調補正が出来る補正量の上限がδ(かつ、δ<(α−β)、δ>0)であったとすると、例えば
ε=(α−β)−δ
▲2▼の階調補正量はβ+ε×1.5/(1.5+2.0)
▲1▼の階調補正量はε×1.5/(1.5+2.0)+δ(覆い焼き的処理分)のように階調補正すれば全体に自然な補正結果が得られる(図12(c))。
【0117】
以上説明したように、優先順位(重み付け情報)を決め、重みの大きい物を適切な明るさに、他の構成要素を、自然な明るさバランスに揃える手法を用いることが出来る。
【0118】
ところで、覆い焼き的処理が自然に行える限界δについては、覆い焼き的処理の行い方、特に、パターン境界近傍領域で、どのような処理を行うかによってその値が変わってくる。以下、本発明に係る処理を好ましく行う手法について、一例を説明する。
【0119】
図13は、本発明の画像処理方法の実施の形態の概要を表すブロック図である。原画像は、釣鐘型の窓があいた室内の物体を撮影した状態を表している。室内の被写体は単純化のため、星型としている。
【0120】
室外、斜め右方向から日光が差し込んでいる状態で、星型の被写体を含む窓枠内の画像は、右側にかげりがあり写真として見苦しい状態である。この部分を領域A、他の、窓枠内の部分を領域Bとする。領域Aの影の部分を以下の覆い焼き処理によって明るく再現する。
【0121】
1)まず、画像を多重解像度変換する。
変換手法は一般的に知られている手法でかまわないが、ここでは好ましい例として、ウェーブレット変換、特にDyadic Wavelet変換を用いる。順次、低レベルから高レベルまでの分解画像が出来、残渣の低周波画像▲1▼が出来上がる。
【0122】
ここで、領域Aの部分に注目すると、領域右側(窓枠エッジ部)は低レベルの分解画像からはっきり認識できるが、領域左側(窓枠エッジが、室内に射影された影の輪郭)は低レベルの分解画像からは認識されず、高レベルの分解画像ではっきりと認識される。これは、窓枠エッジと比較し、影の輪郭がはっきりとしたものではなく、あいまいなぼんやりしたものと評価できることを意味している。
【0123】
2)次に、領域Aに対しマスキング処理を行う。これは、分解画像を逆変換によって、もとの画像にもどす過程で行う。
【0124】
まず低周波画像▲1▼にマスク画像▲1▼を加算(便宜上、加算と表記したが、黒を0、白を正の大きな値と定義すれば、この図では減算。以下、同じ)し、これと、高レベル分解画像とを合成する逆変換処理を行い、より低レベル方向の、低周波画像▲2▼を得る。これにマスク画像▲2▼を加算し、前述と同様の処理によって、変換済み画像を得る。
【0125】
ところで前述のマスク画像▲1▼は、領域Aの左半分、マスク画像▲2▼は、領域Aの右半分を覆うマスクとなっている。逆変換の過程で、加算されたマスク画像はローパスフィルタを通過する為にぼやけるが、マスク画像▲1▼の方が、多回数、かつ、強いローパスフィルタ処理が施される為、AとB領域境界近傍のマスキング処理量がより緩やかに変化するマスキング処理として作用する。したがって、なだらかな変化を示す、影の輪郭に良好に対応した覆い焼き処理を行うことが出来る。
【0126】
同様な理由で、マスク画像▲2▼は小さなボケ量のマスクとして作用するので窓枠エッジに適合した覆い焼き処理を行うことが出来る。
【0127】
マスキング処理をどのレベルの逆変換でかけるかは、当該の領域境界の特性がもっとも強く出た解像度レベルの逆変換時にかければ良いが、画像の特性や、実際の試行結果から、前記、当該の領域境界の特性がもっとも強く出た解像度レベルから所定量移動したレベルにマスキング処理を施してもよく、これによって主観的に好ましい画像処理チューニングが可能になる。
【0128】
図14〜図16は、前述のような手法で用いることの出来るマスク形態の例を表したものである。
【0129】
図14は、上記で述べたマスク部分の例で、かげの領域を2つの小領域、▲1▼と▲2▼に分けている。以下ここでは丸付き数字の大きいほうが、よりはっきりしたエッジに対応するマスクとする。小領域▲1▼と▲2▼の間にも、点線で図示される領域境界が存在する。
【0130】
ここで、領域を挟む、数字の小さい側のマスクは、この領域境界ではっきり切れていてもかまわないが、大きい側のマスクは、この領域境界で緩やかにマスキング処理量が変化する、好ましくは、境界を接する相手側のマスクが、当該マスクと合成されるまで、逆変換過程で施されるローパスフィルタの特性に適合した変化特性をもっていると、領域境界間のつながり感向上に好ましい効果を与える。
【0131】
図15は、それぞれ別個の被写体パターン「雲」「樹木の葉、梢の部分」「人物、樹木の幹の部分」に、別解像度レベルのマスク処理を施す例で、▲1▼は雲など大まかなエッジに対応し、▲2▼はややはっきりしたエッジに、▲3▼ははっきりしたエッジに、それぞれ対応する。
【0132】
図16は、模式的に、上辺のエッジが丸められた円柱に、水平に近い、斜め上、右方から光が差し込んだ状態の図である。
【0133】
なお、マスク画像の作成、即ち、選択的に覆い焼き加工する領域を設定する方法は、例えば、特開平11−284860に記載される手法で、画像信号値のヒストグラムで被写体の明るさをいくつかのブロックに分割し、この分割状況から定めても良いし、また、本願記載の各種領域、或いは被写体パターン抽出手法を用いて定めても良い。この様にして定めた領域の境界付近の特性評価、実際のマスク加算処理を前述の様にして行う。
【0134】
以上、全体の補正レベルを決定する手法、及び部分的なマスク(覆い焼き的)手法を説明したが、さらにこれらを併用、或いはシーンに応じて切り替えて使用してもかまわない
また、以上では階調、明るさの例を示して説明したが、色再現、彩度再現等の各種条件設定に応用しても良い。
【0135】
たとえば図11に示される▲1▼と▲2▼のそれぞれについて、
(項目) (▲1▼の望ましい処理) (▲2▼の望ましい処理)
色調再現 より記憶色に近い再現 より実物に近い再現
彩度再現 自然な再現 色強調度を強める
のような望ましい処理状態の差が考えられ、これらについて、前記のような平均的な処理や、領域を分けた個別処理、これらの併用処理を行うことが出来る。
【0136】
さらに、シャープネス、粒状性等の処理条件設定についても、複数の被写体パターンの、優先順位情報に応じた、重み付け平均を元に画面全体に対し画像処理を行って顧客の希望に添った画像処理結果を得ることが出来、さらに後述の手法を用いれば、領域を分けた個別処理、これらの併用処理を行うことが出来る。
【0137】
シャープネス、粒状性についても、図11に示される▲1▼と▲2▼のそれぞれについて、
(項目) (▲1▼の望ましい処理) (▲2▼の望ましい処理)
鮮鋭性 やわらかい解像力 ▲1▼より低周波、コントラスト重視
粒状性 極力押さえる 多少残ってもディテール、ピント感重視
のような望ましい処理状態の差が考えられる。
【0138】
図17は、鮮鋭性(ここでは強調処理)、粒状性(ここでは粒状除去処理)に関し、領域分割の例を示したものである。
【0139】
ここにおいては、領域を「C:雲」、「B:青空」、「A:山、木々」3つに分けることが出来たものとする。
【0140】
図17(b)に示すように、A、B、Cそれぞれ、好ましいとされる、鮮鋭性と粒状性の組み合わせは異なっている。またそれぞれの境界領域の関係は、AとBの間ははっきりとした輪郭であり、BとCはぼんやりとした輪郭となっている。
【0141】
この領域境界の特徴は、前述の図13の処理例で述べた多重解像度変換処理で生成される、各解像度レベルの画像信号値の関係を評価することによって、容易に判断できることは明らかである。
【0142】
その上で、たとえば鮮鋭性処理の例では、鮮鋭性強調の程度を数値で表記した、鮮鋭性強調係数を画面位置に対応して並べたマスクを作成し(図13の例におけるマスクと同様のものである)、領域A〜C、それぞれに適合する解像度レベルを、前述図13で説明したの手法などにより求め、それぞれのマスクを当該の適合解像度レベルに対応したぼかし量でぼかした、修正マスクを取得し、領域A〜Cの合計3枚の修正マスクを合成する。
【0143】
合成されたマスクに記載された補正量情報に応じて、マスクと対応した位置にある画素の補正量を決めれば、A〜C各領域の特性に応じた鮮鋭性強調が施され、さらに、AとBの領域境界では、鮮鋭性強調の補正量がはっきり変化し、BとCの領域境界では、鮮鋭性強調の補正量が緩やかに変化する、最も好ましい状態を得ることが出来る。
【0144】
また、たとえばカラー画像のように、複数の色次元を持っている画像情報の場合は、必要に応じて色座標変換を行い、必要な座標軸についてのみ、ここまで説明してきたような処理を行ってもかまわない。
【0145】
たとえば、覆い焼き的な階調補正をする上で特に重要となる明るさ補正について、RGB3色で表された画像の場合は、いったん、輝度、色差(Labなど)に変換し、輝度情報についてのみ処理を行うことで、画像処理品位の低下を押さえ、画像処理量を大幅に抑えることが出来る。
【0146】
また、花、海、空など、領域で区分すべき領域、被写体が、固有の色調をもっている場合に、領域境界を定める処理、領域境界の特性を評価する処理のいずれか1方、または両方を、固有色調をもっとも抽出しやすい色座標で行い、実際の領域ごとの画像処理は、これとは別の色座標、たとえば、輝度や彩度座標に対し、行うことも出来、「ある種(たとえば真っ赤なバラ)の花」など、特定、特殊な画像に対して特化した性能チューニングも行うことが可能である。
【0147】
以下、本発明の画像処理方法、画像処理装置及びプログラムを実行する工程をフローチャートに示す。
【0148】
図18は最も基本的な工程を示す1例である。
まず入力画像情報を取得し(ステップ1)、フィルムやメディアにシーン属性や類する情報が有るかどうかチェックして(ステップ2)、有る場合は(ステップ2でYES)取得情報を情報記憶部に格納する(ステップ3)。一方、画像表示部に画像を表示して顧客からもシーン属性の情報を取得し情報記憶部に格納する(ステップ4)。
【0149】
これらを元にシーン属性を決定し(ステップ5)、抽出する被写体パターンを定める(ステップ6)。
【0150】
次に、定められた被写体パターンを、例えば多重解像度変換処理を用いた手法で抽出し(ステップ7)、優先順位情報を重み付け係数等を用いるなどして付与し(ステップ8)、更に、抽出された被写体パターンの存在位置、大きさに応じて優先順位を修正する(ステップ9)。
【0151】
更に、抽出された各被写体パターンに対応する補正量を、情報記憶部に記憶されている各種情報、例えば好ましい階調、色調再現、或いは望ましい鮮鋭性、粒状性に関する情報を元に決定し(ステップ10)、ステップ9で求めた各被写体パターンの重み付け係数を用いて、ステップ10で求めた各被写体パターンの階調補正量の重み付け平均値を算出して(ステップ11)、重み付け平均値に対応する分量の補正を画像に施して(ステップ12)、処理を終了する。
【0152】
図19は、本発明を階調補正に適用し、更に、覆い焼き処理を併用した、別の好ましい1例である。
【0153】
入力画像情報を取得し(ステップ1)、以降、抽出された各被写体パターンに対応する補正量を、情報記憶部に記憶されている各種情報、例えば好ましい階調、色調再現、或いは望ましい鮮鋭性、粒状性に関する情報を元に決定する(ステップ10)ところまでは図18の場合と同様であるが、ここでは階調補正に対象を限定しているため、求める補正量は階調補正量となっている。
【0154】
次に、各被写体パターンの階調補正量を、覆い焼き処理成分と残りの成分に分離し(ステップ101)、多重解像度変換処理を応用した、本願記載の覆い焼き手法を用いてマスキング処理を行い(ステップ102)、ステップ9で求めた各被写体パターンの重み付け係数を用いて、ステップ101で求めた各被写体パターンの階調補正量の、残りの成分の重み付け平均値を算出して(ステップ103)、重み付け平均値に対応する分量の階調補正を画像に施して(ステップ104)、処理を終了する。
【0155】
図20は、シーン属性を決定する、もう一つの工程例を示す。
まず入力画像情報を取得し(ステップ1)、フィルムやメディアにシーン属性や類する情報が有るかどうかチェックして(ステップ2)、有る場合は(ステップ2でYES)取得情報を情報記憶部に格納する(ステップ3)。一方、画像表示部に画像を表示して顧客からもシーン属性の情報を取得し情報記憶部に格納する(ステップ4)。ここまでの工程は前出の場合と同様である。
【0156】
ステップ2で情報無し(No)となった場合は、まず想定され得る複数の被写体パターンを設定し(ステップ201)、一連の入力画像情報から、これら被写体パターンの抽出処理を行う(ステップ202)。
【0157】
次に被写体パターンの抽出状況からシーン属性候補を推定し(ステップ203)、更に顧客情報を取得して(ステップ204)、情報記憶部に保存されている、過去に顧客が注文した処理画像のシーン属性の傾向を参照して候補を絞り込み(ステップ205)シーン属性を決定する(ステップ5)。
【0158】
更に、これら被写体パターンの抽出状況、シーン属性の設定状況を顧客情報とともに情報記憶部に蓄積、保存して(ステップ206)シーン属性設定フローを終了する。
【0159】
図21は、新たな被写体パターンを登録する際の、実際の工程を表す一例である。
【0160】
まず入力画像情報を取得し(ステップ1)、取得した画像をモニタに表示する(ステップ302)。ここで登録する被写体パターンの存在する位置をオペレータが指定し、その位置情報を受け取る(ステップ303)。
【0161】
次に、受け取った位置情報を起点に、画像の関連領域を切り出し、抽出する処理を行い、抽出された領域をモニタに表示する(ステップ304)。
【0162】
オペレータはモニタに表示された画像を観察し、被写体パターン全ての抽出が終わったかどうか判断し、指示キーを押下する。押下されたキー情報を取得して終了指示がなされていない場合は(ステップ304でNo)、ステップ303から処理を繰り返し、終了指示がされた場合は(ステップ304でYES)後続のの処理に移行する。
【0163】
ここでは抽出処理が完了しているので、抽出領域、即ち、新たな被写体パターンの名称を入力手段から取得し(ステップ306)、更に、関連する各種情報、例えば、被写体パターンの構成要素とそれらの連結状態、優先順位、好ましい階調、色再現に関する情報、等を被写体パターンの名称とリンクして(ステップ307)、これら情報群を情報記憶部に保管し(ステップ308)、被写体パターン登録作業を終了する。
【0164】
【発明の効果】
本発明によれば、画像内に存在する被写体を識別して画像を複数に区分するので、写真撮影目的に応じ、また想定された主要被写体に応じて、特定の被写体に着目した画像処理を施すことができる。
【図面の簡単な説明】
【図1】デジタルミニラボの機能の基本構成を示すブロック図。
【図2】入力信号の信号変化の例を示す図。
【図3】2次元信号における1レベルの二項ウェーブレット変換の方法を示す図。
【図4】二項ウェーブレット逆変換を示す図。
【図5】人物の頭部のイメージ図。
【図6】解像度レベルに対応する画像の検出のイメージ図。
【図7】抽出すべきパターンの大きさとエッジ情報の検出に用いるレベル設定の対応のイメージ図。
【図8】単位パターンで構成される被写体パターンのイメージ図。
【図9】単位パターンを連結状態で定義づけする例のイメージ図。
【図10】修学旅行・京都の例で処理の説明をする図。
【図11】原画像の明るさのヒストグラムの例を示す図。
【図12】階調補正を行って再現する場合のヒストグラムの例を示す図。
【図13】本発明の画像処理方法の実施の形態の概要を表すブロック図である。
【図14】マスク形態の例を示す図である。
【図15】マスク形態の他の例を示す図である。
【図16】マスク形態の更に他の例を示す図である。
【図17】鮮鋭性、粒状性に関し、領域分割の例を示した図である。
【図18】本発明を実行する工程の1例を示すフローチャートである。
【図19】本発明を階調補正に適用し、更に、覆い焼き処理を併用した例を示すフローチャートである。
【図20】シーン属性を決定する他の工程例を示すフローチャートである。
【図21】新たな被写体パターンを登録する際の、実際の工程を表す一例示すフローチャートである。
【符号の説明】
1 デジタルカメラ
2 画像記録メディア
3 銀塩フィルム
4 現像済みフィルム
5 メディアドライバ
6 フィルムスキャナ

Claims (41)

  1. 画像入力手段から得られた入力画像情報に基づいて画像処理を行い、出力画像情報を得る画像処理方法において、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする工程を経ることを特徴とする画像処理方法。
  2. 個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定することを特徴とする請求項1に記載の画像処理方法。
  3. 被写体パターンに関する情報は、各々の被写体パターンに対して設定される優先順位情報を含むことを特徴とする請求項2に記載の画像処理方法。
  4. 前記優先順位情報は、当該被写体パターンの重要さに対応する重み付けの値で表されることを特徴とする請求項3に記載の画像処理方法。
  5. 複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行い、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定することを特徴とする請求項3又は4に記載の画像処理方法。
  6. 前記優先順位情報は、各々の被写体パターンの画面内における存在状況に対応する副優先順位情報をもとに修正されることを特徴とする請求項3乃至5の何れか1項に記載の画像処理方法。
  7. 前記副優先順位情報は、被写体パターンの画面内に占める割合及び画面内に存在する位置の少なくとも1方に対応した情報であることを特徴とする請求項6に記載の画像処理方法。
  8. 被写体パターンの区分は、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定められることを特徴とする請求項1乃至7の何れか1項に記載の画像処理方法。
  9. 前記優先順位情報は、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定められることを特徴とする請求項3乃至8の何れか1項に記載の画像処理方法。
  10. 前記被写体パターンを、複数の単位パターンから構成されるものとして、入力画像情報から単位パターンを抽出し、単位パターン同士の連結状態を被写体パターンの存在状態の検知に用いることを特徴とする請求項1乃至9の何れか1項に記載の画像処理方法。
  11. 前記単位パターンの抽出は、入力画像情報により画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出することを特徴とする請求項10に記載の画像処理方法。
  12. 画像入力手段から得られた一連の複数の画像中から任意の画像を選択し、前記接続関係情報からなる被写体パターン情報を得て、当該被写体パターン情報を前記一連の複数の画像に適用して画像処理を行うことを特徴とする請求項11に記載の画像処理方法。
  13. 顧客情報と対応付けられた被写体パターンを抽出することを特徴とする請求項10乃至12の何れか1項に記載の画像処理方法。
  14. 画像入力手段から得られた入力画像情報に基づいて出力画像情報を得る画像処理手段を有し、該画像処理手段が、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする手段を有することを特徴とする画像処理装置。
  15. 前記画像処理手段が、個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定することを特徴とする請求項14に記載の画像処理装置。
  16. 被写体パターンに関する情報は、各々の被写体パターンに対して設定される優先順位情報を含むことを特徴とする請求項15に記載の画像処理装置。
  17. 前記優先順位情報は、当該被写体パターンの重要さに対応する重み付けの値で表されることを特徴とする請求項16に記載の画像処理装置。
  18. 前記画像処理手段が、複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行い、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定することを特徴とする請求項16又は17に記載の画像処理装置。
  19. 前記優先順位情報は、各々の被写体パターンの画面内における存在状況に対応する副優先順位情報をもとに修正されることを特徴とする請求項16乃至18の何れか1項に記載の画像処理装置。
  20. 前記副優先順位情報は、被写体パターンの画面内に占める割合及び画面内に存在する位置の少なくとも1方に対応した情報であることを特徴とする請求項19に記載の画像処理装置。
  21. 入力手段を有し、前記画像処理手段が、被写体パターンの区分を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項14乃至20の何れか1項に記載の画像処理装置。
  22. 入力手段を有し、前記画像処理手段が、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項16乃至20の何れか1項に記載の画像処理装置。
  23. 前記画像処理手段が、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項21に記載の画像処理装置。
  24. 前記画像処理手段が、前記被写体パターンを、複数の単位パターンから構成されるものとして、入力画像情報から単位パターンを抽出し、単位パターン同士の連結状態を被写体パターンの存在状態の検知に用いることを特徴とする請求項14乃至23の何れか1項に記載の画像処理装置。
  25. 画像表示手段を有し、前記画像処理手段が、前記単位パターンの抽出を、入力画像情報により画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出することを特徴とする請求項24に記載の画像処理装置。
  26. 前記画像処理手段が、画像入力手段から得られた一連の複数の画像中から任意の画像を選択し、前記接続関係情報からなる被写体パターン情報を得て、当該被写体パターン情報を前記一連の複数の画像に適用して画像処理を行うことを特徴とする請求項25に記載の画像処理装置。
  27. 顧客情報を格納する記憶手段を有し、前記画像処理手段が、入力された又は記憶手段を参照して得た顧客情報と対応付けられた被写体パターンを抽出することを特徴とする請求項24乃至26の何れか1項に記載の画像処理装置。
  28. 画像入力手段から得られた入力画像情報に基づいて出力画像情報を得る画像処理手段を、画像内に存在する被写体を識別して画像を複数に区分し、該区分された画像毎に、他の画像との関係から決定された方法で画像処理可能な被写体パターンとする手段として機能させることを特徴とするプログラム。
  29. 個々の被写体パターンに関する情報から、被写体パターン毎の画像処理方法を決定することを特徴とする請求項28に記載のプログラム。
  30. 被写体パターンに関する情報に、各々の被写体パターンに対して設定される優先順位情報を含有させることを特徴とする請求項29に記載のプログラム。
  31. 前記優先順位情報を、当該被写体パターンの重要さに対応する重み付けの値とすることを特徴とする請求項30に記載のプログラム。
  32. 前記画像処理手段に、複数の被写体パターンを画像情報から検出、抽出するパターン抽出処理を行なわせ、該抽出された個々の被写体パターンに関する情報から、画像処理方法を決定することを特徴とする請求項30又は31に記載のプログラム。
  33. 前記優先順位情報を、各々の被写体パターンの画面内における存在状況に対応する副優先順位情報をもとに修正することを特徴とする請求項30乃至32の何れか1項に記載のプログラム。
  34. 前記副優先順位情報を、被写体パターンの画面内に占める割合及び画面内に存在する位置の少なくとも1方に対応させることを特徴とする請求項33に記載のプログラム。
  35. 入力手段をシーン属性情報を指示入力する手段として機能させ、被写体パターンの区分を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項28乃至34の何れか1項に記載のプログラム。
  36. 入力手段をシーン属性情報を指示入力する手段として機能させ、前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項30乃至34の何れか1項に記載のプログラム。
  37. 前記優先順位情報を、入力画像情報に付随した、又は指示入力されたシーン属性情報が存在する場合、該シーン属性に対応して定めることを特徴とする請求項35に記載のプログラム。
  38. 前記被写体パターンを、複数の単位パターンから構成されるものとして、入力画像情報から単位パターンを抽出し、単位パターン同士の連結状態を被写体パターンの存在状態の検知に用いることを特徴とする請求項28乃至37の何れか1項に記載のプログラム。
  39. 画像表示手段を入力画像情報により画像を表示する手段として機能させ、前記単位パターンの抽出を、画像表示手段に表示した画像で、単位パターンの存在する位置の指定を順次受けることにより行い、抽出された全ての単位パターンの接続関係を求め、該接続関係情報を被写体パターン情報とし、該被写体パターン情報をもとに入力画像情報から被写体パターンを抽出することを特徴とする請求項38に記載のプログラム。
  40. 画像入力手段から得られた一連の複数の画像中から任意の画像を選択し、前記接続関係情報からなる被写体パターン情報を得て、当該被写体パターン情報を前記一連の複数の画像に適用して画像処理を行うことを特徴とする請求項39に記載のプログラム。
  41. 記憶手段を顧客情報を格納する手段として機能させ、入力された又は記憶手段を参照して得た顧客情報と対応付けられた被写体パターンを抽出することを特徴とする請求項38乃至40の何れか1項に記載のプログラム。
JP2003018566A 2003-01-28 2003-01-28 画像処理方法、画像処理装置、及びプログラム Pending JP2004234069A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003018566A JP2004234069A (ja) 2003-01-28 2003-01-28 画像処理方法、画像処理装置、及びプログラム
EP04001154A EP1443458A3 (en) 2003-01-28 2004-01-21 Image processing method, apparatus and computer program
US10/762,824 US20040151396A1 (en) 2003-01-28 2004-01-21 Image processing method, apparatus therefor and program for controlling operations of image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003018566A JP2004234069A (ja) 2003-01-28 2003-01-28 画像処理方法、画像処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2004234069A true JP2004234069A (ja) 2004-08-19

Family

ID=32652838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003018566A Pending JP2004234069A (ja) 2003-01-28 2003-01-28 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20040151396A1 (ja)
EP (1) EP1443458A3 (ja)
JP (1) JP2004234069A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303899A (ja) * 2005-04-20 2006-11-02 Fuji Photo Film Co Ltd 画像処理装置、画像処理システム、および画像処理プログラム
JP2007251473A (ja) * 2006-03-15 2007-09-27 Seiko Epson Corp 画像データの色の補正
JP2008028802A (ja) * 2006-07-24 2008-02-07 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、および、画像処理プログラム
JP2008072172A (ja) * 2006-09-12 2008-03-27 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、および印刷方法
EP4086856A1 (en) 2021-05-07 2022-11-09 Fujifilm Business Innovation Corp. Information processing apparatus, information processing method, and program

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050168595A1 (en) * 2004-02-04 2005-08-04 White Michael F. System and method to enhance the quality of digital images
US7890522B2 (en) * 2005-11-10 2011-02-15 Lg Electronics Inc. Record media written with data structure for recognizing a user and method for recognizing a user
JP4876080B2 (ja) * 2008-01-25 2012-02-15 富士重工業株式会社 環境認識装置
JP4956452B2 (ja) * 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8346010B2 (en) * 2008-09-17 2013-01-01 Panasonic Corporation Image processing device, imaging device, evaluation device, image processing method, and optical system evaluation method
JP2010272109A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
US9571971B2 (en) * 2015-04-24 2017-02-14 International Business Machines Corporation Managing crowd sourced data acquisition
US10242287B2 (en) * 2015-06-11 2019-03-26 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038223A (en) * 1988-02-29 1991-08-06 Canon Kabushiki Kaisha Image processing method and apparatus for imparting a pictorial or painter-like effect
US5287418A (en) * 1989-10-25 1994-02-15 Dainippon Screen Mfg. Co., Ltd. Method and apparatus for producing a corrected image from an original image
JPH06103927B2 (ja) * 1989-10-25 1994-12-14 大日本スクリーン製造株式会社 トーンカーブ設定方法
TW232060B (en) * 1992-10-06 1994-10-11 Seiko Epson Corp Image processing apparatus
US20020024541A1 (en) * 1996-06-17 2002-02-28 Shoji Imaizumi Image forming apparatus
US6226011B1 (en) * 1997-04-01 2001-05-01 Ricoh Company, Ltd. Color conversion method for a color matching, a method for expanding a function of a program module and a color conversion method using the method for expanding a function of a program module
JP3731719B2 (ja) * 2000-03-29 2006-01-05 ノーリツ鋼機株式会社 写真プリントシステム
EP1248455A1 (en) * 2001-04-05 2002-10-09 Imip Llc Automatic content-analysis based use of colour correction process
JP3949931B2 (ja) * 2001-10-30 2007-07-25 株式会社ルネサステクノロジ 画像形成装置
JP3596519B2 (ja) * 2001-12-13 2004-12-02 ソニー株式会社 画像信号処理装置及び方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006303899A (ja) * 2005-04-20 2006-11-02 Fuji Photo Film Co Ltd 画像処理装置、画像処理システム、および画像処理プログラム
JP2007251473A (ja) * 2006-03-15 2007-09-27 Seiko Epson Corp 画像データの色の補正
JP4635920B2 (ja) * 2006-03-15 2011-02-23 セイコーエプソン株式会社 画像データの色の補正
JP2008028802A (ja) * 2006-07-24 2008-02-07 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、および、画像処理プログラム
JP2008072172A (ja) * 2006-09-12 2008-03-27 Seiko Epson Corp 画像処理装置、印刷装置、画像処理方法、および印刷方法
JP4710770B2 (ja) * 2006-09-12 2011-06-29 セイコーエプソン株式会社 画像処理装置、画像処理方法、およびプログラム
EP4086856A1 (en) 2021-05-07 2022-11-09 Fujifilm Business Innovation Corp. Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
EP1443458A3 (en) 2005-01-19
US20040151396A1 (en) 2004-08-05
EP1443458A2 (en) 2004-08-04

Similar Documents

Publication Publication Date Title
US10304166B2 (en) Eye beautification under inaccurate localization
EP1445731A2 (en) Image processing method, image processing apparatus and image processing program
US7187788B2 (en) Method and system for enhancing portrait images that are processed in a batch mode
US8902326B2 (en) Automatic face and skin beautification using face detection
US8520089B2 (en) Eye beautification
JP2002245471A (ja) 被写体内容に基づく修正を有する第2プリントを伴うダブルプリントの写真仕上げサービス
US20030223622A1 (en) Method and system for enhancing portrait images
US20060251299A1 (en) Image processing method
JP2005303991A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP2004234069A (ja) 画像処理方法、画像処理装置、及びプログラム
JP2004240622A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP2004242068A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP3473832B2 (ja) ディジタル画像の自動補正方法及びそのシステム
Hardeberg Digital red eye removal
Safonov et al. Changing the Aspect Ratio for Borderless Printing
JP2016170632A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414