JP2011199671A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011199671A
JP2011199671A JP2010065116A JP2010065116A JP2011199671A JP 2011199671 A JP2011199671 A JP 2011199671A JP 2010065116 A JP2010065116 A JP 2010065116A JP 2010065116 A JP2010065116 A JP 2010065116A JP 2011199671 A JP2011199671 A JP 2011199671A
Authority
JP
Japan
Prior art keywords
image
conversion
conversion parameter
situation
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010065116A
Other languages
English (en)
Other versions
JP5655334B2 (ja
Inventor
Hidefumi Yamada
英史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010065116A priority Critical patent/JP5655334B2/ja
Priority to US13/043,960 priority patent/US8548232B2/en
Priority to CN201110061779.4A priority patent/CN102194215B/zh
Publication of JP2011199671A publication Critical patent/JP2011199671A/ja
Application granted granted Critical
Publication of JP5655334B2 publication Critical patent/JP5655334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6083Colour correction or control controlled by factors external to the apparatus
    • H04N1/6086Colour correction or control controlled by factors external to the apparatus by scene illuminant, i.e. conditions at the time of picture capture, e.g. flash, optical filter used, evening, cloud, daylight, artificial lighting, white point measurement, colour temperature

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)

Abstract

【課題】ユーザに煩わしい操作をさせることなく、より効果的に画像を提示する。
【解決手段】画像処理装置は、周囲の状況を示す情報を取得して状況ベクトルを生成し、状況ベクトルにより特定される変換パラメータを選択する。そして、画像処理装置は、得られた変換パラメータを用いて、これから表示しようとする元画像に画像変換を施し、得られた変換画像を表示する。これにより、例えば、現在時刻が夕方であれば、その状況に合わせて元画像が、赤味がかった色合いに色調補正されて変換画像とされ、表示される。このとき、ユーザは変換パラメータを指定する等の操作を何ら行なう必要がない。本発明は、デジタルフォトフレームに適用することができる。
【選択図】図2

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、ユーザに煩わしい操作をさせることなく、より効果的に画像を提示することができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、フラッシュメモリ等の記録媒体に保存されている画像のなかから、任意に選択したものを表示させたり、画像をスライドショー表示、すなわち複数の画像を順番に表示させたりするデジタルフォトフレームと呼ばれる画像再生装置が知られている。
近年では、画像を単にスライドショー表示するだけでなく、画像変換を施した画像を表示させることで、娯楽性を高めている画像再生装置も提案されてきている。例えば、そのような画像再生装置として、画像を絵画調に変換するものがあり、この画像再生装置では、ユーザの指定した水彩画モードや油絵風モードなどの芸術的な表現の画像への変換が行われる。
また、画像の提示方法として、画像ファイルの作成からの経過時間に応じて、表示させる画像を段階的にグレー化するもの(例えば、特許文献1参照)や、キーワード検索で得られたお手本画像に近い色合いになるように、画像を色変換するものもある(例えば、特許文献2参照)。
特開2009−141678号公報
特開2009−171176号公報
しかしながら、画像を絵画調に変換する方法では、ユーザはいちいち画像を変換させるモードを設定しなければならず、不便であった。この方法では、順番にまたはランダムに、画像を変換するモードが自動的に選択されるように設定することもできるが、そうすると画像の視聴環境などに適したモードが選択されないこともある。
また、画像を段階的にグレー化して表示させる方法では、ユーザは時間の経過を直感的に知ることはできるが、画像を効果的に表示しているとはいえなかった。さらに、お手本画像を用いて画像を色変換する方法では、ユーザはキーボード等でキーワードを入力して検索を行い、多くの画像から目的とする画像を探し出さなければならず、煩雑な操作が必要であった。
本発明は、このような状況に鑑みてなされたものであり、ユーザに煩わしい操作をさせることなく、より効果的に画像を提示することができるようにするものである。
本発明の一側面の画像処理装置は、周囲の状況を示す情報を取得し、前記情報を数値化して状況ベクトルを生成する状況ベクトル生成手段と、予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータを重み付き加算する変換パラメータ算出手段と、処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換を行なって、変換画像を生成する変換画像生成手段とを備える。
前記変換画像生成手段には、前記画像変換として、色調補正処理または幾何学的な変形処理の少なくとも一方を行なわせることができる。
前記変換パラメータを、目標となる色分布を示す情報とし、前記変換画像生成手段には、前記元画像の色分布が、前記目標となる色分布となるように前記元画像に対する色調補正を行なわせることで、前記変換画像を生成せることができる。
前記目標となる色分布を示す情報を、目標三次元ガウスモデルを定義する情報とし、前記変換画像生成手段には、前記元画像の色分布を示す三次元ガウスモデルの正規化された固有ベクトル空間における前記元画像の注目画素の位置に対応する、前記目標三次元ガウスモデルの正規化された目標固有ベクトル空間における位置を求めさせて、その位置から正規化前の前記目標固有ベクトル空間における前記注目画素の位置を特定させることにより、前記色調補正後の前記注目画素の画素値を算出させることができる。
前記変換パラメータ算出手段には、前記変換パラメータと、状況ベクトルからなる状況ベクトル空間における、前記変換パラメータが対応付けられた位置または領域を示す位置情報とからなるデータベースを記録させ、前記位置情報により示される位置または領域のうち、前記状況ベクトル生成手段により生成された前記状況ベクトルの終点近傍にある、所定数の位置または領域に対応付けられた前記変換パラメータを前記重み付き加算させることができる。
前記変換パラメータ算出手段には、メタデータが付加された学習画像に基づいて、前記目標となる色分布を示す情報を前記変換パラメータとして生成させるとともに、前記メタデータから前記状況ベクトルを生成させ、前記状況ベクトルにより特定される前記状況ベクトル空間の位置または領域に、前記学習画像から得られた前記変換パラメータを対応付けさせることができる。
前記変換パラメータ算出手段には、各成分に重み付けがされた前記状況ベクトルを用いて、前記重み付き加算する前記変換パラメータを特定させることができる。
前記変換画像生成手段には、前記元画像から所定の特徴の特徴量を抽出して、前記元画像の各領域における被写体らしさを示す被写体マップを生成する被写体マップ生成手段と、前記被写体マップを用いて、前記元画像上の被写体が含まれる被写体領域を特定する被写体特定手段と、前記被写体領域を含み、前記変換パラメータにより定まる大きさまたは形状の前記元画像上の領域を切り出して前記変換画像とする表示領域決定手段とを設けることができる。
本発明の一側面の画像処理方法またはプログラムは、周囲の状況を示す情報を取得し、前記情報を数値化して状況ベクトルを生成し、予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータを重み付き加算し、処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換を行なって、変換画像を生成するステップを含む。
本発明の一側面においては、周囲の状況を示す情報が取得され、前記情報が数値化されて状況ベクトルが生成され、予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータが重み付き加算され、処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換が行なわれて、変換画像が生成される。
本発明の一側面によれば、ユーザに煩わしい操作をさせることなく、より効果的に画像を提示することができる。
本発明を適用した画像処理装置の概要を説明する図である。 画像処理装置による元画像の変換について説明する図である。 本発明を適用した画像処理装置の一実施の形態の構成例を示す図である。 画像変換部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 変換パラメータの取得について説明する図である。 色調補正処理を説明するフローチャートである。 色調補正について説明する図である。 変換パラメータのデータベースの構築について説明する図である。 変換パラメータによる変換例について説明する図である。 画像変換部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 画像変形処理を説明するフローチャートである。 被写体マップについて説明する図である。 変換画像の生成について説明する図である。 画像変換部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
〈画像処理装置の概要〉
図1に示すように、本発明を適用した画像処理装置11は、画像処理装置11の周囲の状況、すなわち画像処理装置11がおかれた現在の状況に応じて画像に変換処理を施し、その結果得られた画像をユーザに対して提示する。
ここで、画像処理装置11の周囲の状況とは、図2の左側に示すように、日時や曜日、天候、季節、気温、画像処理装置11からユーザまでの距離、周囲の明るさなどをいい、画像処理装置11は、それらの周囲の状況を示す情報を取得して、状況ベクトルを生成する。この状況ベクトルは、周囲の状況としての時刻やユーザの視聴距離などの要素を数値化し、数値化された各要素からなるベクトルである。
画像処理装置11は、このようにして得られた状況ベクトルを用いて、これから表示しようとする画像(以下、元画像と称する)を変換するために用いる変換パラメータを選択する。例えば、図2の中央に示すように、元画像に対して色調変換を施す場合、変換パラメータは、画像における色の分布を示す三次元ガウスモデルを特定する色調変換パラメータとされる。
例えば、この色調変換パラメータにより、現在時刻に応じた色合いに元画像が色調補正される。具体的には、現在時刻が夕方や夜であった場合、元画像が夕焼けや夜景の写真のような色合いとなるように色調補正される。
また、元画像に対して幾何的な変形処理を施す場合、変換パラメータは、変形処理後に表示させる元画像の領域を特定する拡大率を示す変形パラメータとされる。例えば、この変形パラメータにより、画像処理装置11からユーザまでの距離(以下、視聴距離と称する)に応じた倍率で元画像が拡大処理される。
なお、変形パラメータの選択にあたり、状況ベクトルだけでなく、変形後の画像を表示させる表示部の仕様を示す表示領域情報なども用いられるようにしてもよい。
変換パラメータが選択されると、画像処理装置11は、変換パラメータを用いて元画像に対する変換処理を行う。具体的には、変換パラメータとしての色調変換パラメータを用いた色調補正処理や、変換パラメータとしての変形パラメータを用いた変形処理などが行われる。このような変換処理により、元画像が変換画像に変換されると、画像処理装置11は、得られた変換画像を表示する。
このように、画像処理装置11は、現在の状況を示す情報を取得して、状況ベクトルを生成し、状況ベクトルにより特定される変換パラメータを用いて、元画像を変換画像に変換し、表示する。
画像処理装置11では、状況ベクトルにより定まる変換パラメータで、周囲の状況に合った画像変換を行うことで、ユーザを飽きさせることなく、変化に富んだ画像を表示することができる。しかも、状況ベクトルから変換パラメータを選択するので、ユーザに変換パラメータを指定させる等の面倒な操作をさせることなく、より簡単に、かつ効果的に変換画像を表示することができる。
また、状況ベクトルから変換パラメータを選択するようにしているので、時間や天気、気温、視聴者の有無など様々な状況と、変換パラメータにより定まる変換処理とを、効果的に一貫して対応付けることができる。
なお、元画像に対する変換処理は、色調変換(色調補正)や幾何的な変形に限らず、どのような変換処理が行われてもよい。また、変換処理として色調補正や幾何変形など複数の変換処理が行われて変換画像が生成されるようにしてもよい。
〈第1の実施の形態〉
[画像処理装置の構成]
次に、画像処理装置11の具体的な構成例について説明する。図3は、画像処理装置11の構成例を示す図である。
画像処理装置11は、例えばデジタルフォトフレームなどからなり、状況取得部21、メモリ22、再生部23、画像変換部24、および画像表示部25から構成される。
状況取得部21は、例えば時計、温度計、照度計、湿度計、GPS(Global Positioning System)装置、電子コンパス、カメラ、センサなどからなる。状況取得部21は、ユーザの視聴距離を測定したり、図示せぬネットワークを介してサーバなどの装置から、画像処理装置11がある地域の現時刻の天気を取得したりすることにより周囲の状況を取得して状況ベクトルを生成し、再生部23に供給する。
メモリ22は、不揮発性の記録媒体であり、元画像を記録している。再生部23は、例えばマイクロプロセッサなどからなり、画像処理装置11全体の動作を制御する。例えば、再生部23は、状況取得部21からの状況ベクトルを用いて変換パラメータを取得し、変換パラメータと、メモリ22から読み出した元画像を画像変換部24に供給して変換画像を生成させる。また、再生部23は、画像変換部24から取得した変換画像を画像表示部25に供給して表示させる。
画像変換部24は、再生部23から変換パラメータと元画像の供給を受け、変換パラメータを用いて元画像を変換画像に変換し、再生部23に供給する。画像表示部25は、例えば液晶ディスプレイからなり、再生部23から供給された変換画像を表示する。
[画像変換部の構成]
また、図3の画像変換部24は、より詳細には図4に示すように構成される。
画像変換部24は、色空間変換部51、固有ベクトル算出部52、位置特定部53、および色空間逆変換部54から構成される。
色空間変換部51は、再生部23から供給された元画像の色空間を変換し、固有ベクトル算出部52に供給する。固有ベクトル算出部52は、色空間変換部51から供給された色空間変換後の元画像の三次元ガウスモデルを求め、さらに得られた三次元ガウスモデルの固有値と固有ベクトルを算出し、元画像、固有値、および固有ベクトルを位置特定部53に供給する。
位置特定部53は、固有ベクトル算出部52からの元画像、固有値、および固有ベクトルと、再生部23からの変換パラメータとを用いて、元画像の各画素の画素値の写像を行い、得られた写像後の元画像を色空間逆変換部54に供給する。色空間逆変換部54は、位置特定部53からの元画像を元の色空間に逆変換し、その結果得られた変換画像を再生部23に供給する。
[画像変換処理の説明]
次に、画像処理装置11の動作について説明する。
ユーザは、画像処理装置11に画像を表示させる場合、表示モードとして固定表示モード、スライドショーモード、および自動変換モードの何れかを選択することができる。
ユーザは、画像処理装置11の筐体側面等に設けられた図示せぬボタンを操作することで、表示モードを設定し、その設定を再生部23に記録させておくことができる。これにより、画像の再生時にいちいち表示モードを指定しなくても、設定された表示モードで画像を再生させることができる。なお、表示モードの設定は、ボタン操作に限らず、リモートコマンダの操作により行なわれてもよい。
例えば、ユーザにより画像の表示開始が指示されると、再生部23は記録している表示モードに従って画像の再生を開始する。具体的には、固定表示モードが設定されている場合、再生部23は、ユーザにより指定された1つの元画像をメモリ22から読み出して画像表示部25に供給し、表示させる。つまり、固定表示モードでは、ユーザにより指定された元画像がそのまま表示され続ける。
また、スライドショーモードが設定されている場合、再生部23は、メモリ22から元画像を順次読み出して画像表示部25に供給し、表示させる。これにより、元画像が順番にスライドショー表示されることになる。
さらに、自動変換モードが設定されている場合、画像処理装置11は、画像変換処理を行って、元画像を変換画像に変換し、変換画像をスライドショー表示する。以下、図5のフローチャートを参照して、画像処理装置11による画像変換処理について説明する。
ステップS11において、再生部23は、表示対象となる元画像をメモリ22から読み込む。
ステップS12において、状況取得部21は、現時点における画像処理装置11の周囲の状況を示す情報を取得して状況ベクトルを生成し、再生部23に供給する。
例えば、状況取得部21は、周囲の状況として現在時刻を取得した場合、0時から24時までの各時刻に対して0乃至100の値の数値を割り当て、状況ベクトルの成分とする。
また、現時点における画像処理装置11の周囲の天候を状況ベクトルの成分としてもよい。そのような場合、例えば、天候「晴れ」、「曇り」、「雨」のそれぞれに対して、状況ベクトルの天候の成分の値「0」、「50」、「100」が割り当てられる。したがって、例えば状況取得部21が、有線または無線のネットワークを介して、画像処理装置11が設置された地域の天候として「雨」を示す情報を取得すると、天候の成分の値が「100」である状況ベクトルを生成する。
さらに、1月1日から12月31日までの各日付を数値化して、現在の日付を状況ベクトルの成分としてもよい。そのような場合、例えば、1月1日であれば日付の成分の値が「0」とされ、12月31日であれば日付の成分の値が「100」とされ、他の日付はそれらの0乃至100の間の数値が状況ベクトルの成分の値とされる。
なお、状況ベクトルの各成分の値の範囲は任意の範囲とされる。また、その他、温度や湿度、画像処理装置11の緯度経度値、電子コンパスによる方位など、画像処理装置11の周囲の状況を示すものであれば、どのようなものが状況ベクトルの成分とされてもよい。
ステップS13において、再生部23は、状況取得部21から供給された状況ベクトルを用いて変換パラメータを取得する。
具体的には、再生部23に設けられた図示せぬROM(Read Only Memory)には、状況ベクトルによって定義される多次元の状況ベクトル空間内の点(以下、配置点と称する)に対して、変換パラメータが対応付けられたデータベースが予め記録されている。すなわち、このデータベースは、予め用意された変換パラメータと、状況ベクトルの集合からなる状況ベクトル空間上の変換パラメータが対応付けられた配置点を示す情報とからなる。
再生部23は、データベースを参照して、それらの配置点と、状況ベクトルにより示される位置、つまり状況ベクトルの終点とのユークリッド距離を計算し、得られたユークリッド距離の最も短い配置点に対応付けられた変換パラメータを選択する。
例えば、図6に示すように、状況ベクトルJ1が成分Jxと成分Jyとからなる2次元のベクトルであるとする。図6の例では、成分Jxと成分Jyからなり、原点Oを基準とする2次元の状況ベクトル空間の配置点P1乃至配置点P6に対して変換パラメータが対応付けられている。
このとき、再生部23は、変換パラメータが対応付けられた配置点P1乃至配置点P6のうち、状況ベクトル空間上において状況ベクトルJ1により示される点(位置)と最も近い配置点に対応付けられた変換パラメータを選択する。図6の例では、状況ベクトルJ1は、原点Oを始点とし、点P7を終点とするベクトルであるので、点P7に最も近い配置点P5に対応付けられた変換パラメータが選択される。
また、図6において、配置点P1乃至配置点P6のそれぞれを囲む点線は、隣接する2つの配置点から等距離にある境界線を示している。したがって、この境界線に囲まれる領域内に状況ベクトルJ1の終点があれば、その領域内の配置点に対応する変換パラメータが選択されることになる。
なお、状況ベクトルに循環する数値を持つ成分(以下、循環成分と称する)がある場合、変換パラメータの選択時には、その循環成分については、状況ベクトルと配置点との成分間の距離は次のようにして求められる。
すなわち、再生部23は、状況ベクトルの終点と配置点の循環成分の値の差分の絶対値を通常の減算結果として求める。次に、再生部23は、状況ベクトルの終点と配置点の循環成分の値のうち、より小さい値に、循環成分のとり得る値の範囲の最大値を加算してから、循環成分の値の差分の絶対値を補正後の減算結果として求める。そして、再生部23は、通常の減算結果と補正後の減算結果とのうち、より値の小さい減算結果を循環成分の距離として用いる。
具体的には、循環成分が現在時刻を示す0から24までの数値とされ、各時刻の数値が循環成分の値となるとすると、0時と24時は同じ値となる。
いま、例えば1時と23時との差分を求めると、その差分は22(22時の距離)となるが、実際には差分の値は2(2時の距離)となるべきである。そこで、1時と23時のうち、より小さい1時の値に、循環成分がとり得る最大値24(24時)を加算してから1時と23時の差分を求めると、|(1+24)−23|=2(2時の距離)となり、循環成分の正しい距離が得られる。
このような循環成分には、時刻の他、電子コンパスやジャイロセンサによって得られる角度の距離などが考えられる。なお、状況ベクトルの各成分が循環成分であるか否かは、状況ベクトルの成分の属性として予め再生部23が記録しておけばよい。
また、以上においては、状況ベクトルの終点と最も近い位置にある1つの配置点に対応付けられた変換パラメータを選択すると説明したが、複数の配置点の変換パラメータから最終的な変換パラメータが算出されるようにしてもよい。
例えば、状況ベクトルの終点近傍にある複数の配置点の変換パラメータを、状況ベクトルの終点からの距離に応じて加重平均(重み付き加算)し、最終的な変換パラメータとしてもよい。この場合、例えば状況ベクトルの終点からの距離が近い順に、予め定められた特定数の配置点の変換パラメータが重み付き加算される。また、全ての配置点の変換パラメータを、各配置点から状況ベクトルの終点までの距離に応じて加重平均したものを最終的な変換パラメータとしてもよい。
さらに、状況ベクトルの終点から、所定の閾値よりも近い距離の配置点がない場合には、変換処理(色調補正)を全く行なわないという変換パラメータが選択されてもよい。この場合、変換画像は、元画像そのものとなる。
また、状況ベクトルの各成分に重み付けがされて、特定の成分が重要視されるようにしてもよい。例えば、状況ベクトルの全ての成分が同じ重みとされる場合には、各成分に数値「1」が重みとして与えられ、特定の成分を無視したい場合には、その成分に数値「0」が重みとして与えられる。このような重みは、例えば、状況ベクトルの終点と配置点とのユークリッド距離の計算に用いることができ、各成分の距離を重みで除算することで、選択される変換パラメータとしての目標三次元ガウスモデルの調整を行なうことが可能となる。具体的には、重み乗算前に所定の成分の距離「10」が得られた場合でも、重みが1であれば、最終的な距離は10(=10/1)となるが、重みが0.5であれば、最終的な距離は20(=10/0.5)となる。これにより、重みの大きい状況ベクトル成分による距離の近さが重視されることになる。
なお、状況ベクトルの終点と配置点との距離は、ユークリッド距離とされると説明したが、マハラノビス距離などとされてもよい。そのような場合、変換パラメータは、状況ベクトル空間において、点ではなくガウス関数のような空間的な広がりを持って配置されることになり、状況ベクトルの終点とのマハラノビス距離が最も短い変換パラメータが選択される。
図5のフローチャートの説明に戻り、ステップS13において変換パラメータが取得されると、再生部23は、変換パラメータと、メモリ22から読み出した元画像とを画像変換部24に供給し、その後、処理はステップS14に進む。
ステップS14において、画像変換部24は、色調補正処理を行って、再生部23から供給された変換パラメータを用いて、再生部23からの元画像を変換画像に変換する。そして、画像変換部24は、得られた変換画像を再生部23に供給する。
例えば、変換パラメータが目標とする三次元ガウスモデル(以下、目標三次元ガウスモデルと称する)を定義する、画像の画素の画素値の平均値と、それらの画素の画素値の分散量を示す共分散行列であったとする。この場合、画像変換部24は、元画像の色分布の三次元ガウスモデルを求め、求めた三次元ガウスモデルと、目標三次元ガウスモデルとを用いて元画像の色調補正を行なう。つまり、変換画像の色分布が目標三次元ガウスモデルに示す分布となるように、元画像の各画素の画素値が色調補正される。
換言すれば、変換パラメータは、元画像の色分布を示す三次元ガウスモデルを、所望の形状に変形するためのパラメータであり、変換パラメータに基づいて三次元ガウスモデルが変形され、その変形に合わせて元画像の色が変更される。なお、色調補正処理の詳細は後述する。
ステップS15において、再生部23は、画像変換部24から供給された変換画像を画像表示部25に供給し、表示させる。これにより、変換パラメータが用いられて色調補正された元画像、つまり画像変換により得られた変換画像が画像表示部25に表示される。
ステップS16において、再生部23は処理を終了するか否かを判定する。例えば、ユーザにより画像処理装置11が操作され、画像を表示させる処理の終了が指示された場合、処理を終了すると判定される。
ステップS16において、処理を終了しないと判定された場合、処理はステップS11に戻り、上述した処理が繰り返される。すなわち、次の元画像が読み出されて色調補正され、表示される。したがって、画像変換処理では、処理の終了が指示されるまで、色調補正された元画像がスライドショー表示されることになる。
これに対して、ステップS16において、処理を終了すると判定された場合、画像処理装置11の各部は行なっている処理を停止し、画像変換処理は終了する。
このようにして画像処理装置11は、周囲の状況を示す情報を取得して状況ベクトルを生成し、状況ベクトルを用いて現在の周囲の状況に合った変換パラメータを選択する。そして画像処理装置11は、変換パラメータを用いて元画像を変換画像に変換し、表示する。
したがって、画像処理装置11によれば、ユーザに何ら操作をさせることなく、周囲の状況に応じた変換パラメータを特定することができる。これにより、変換パラメータを用いて、元画像に対して周囲の状況に合った色調補正を行なって、変化に富んだ変換画像を得ることができ、その結果、より効果的に元画像を提示することができる。
[色調補正処理の説明]
次に、図7のフローチャートを参照して、図5のステップS14の処理に対応する色調補正処理について説明する。
ステップS41において、色空間変換部51は、再生部23から供給された元画像の各画素の画素値をLαβ空間の画素値に変換する。
ここで、Lαβ空間とは、輝度成分(L)と、色合い(色相)の成分(α,β)とからなる3次元の色空間である。例えば、元画像の画素の画素値がR(赤),G(緑),B(青)の各色の成分の値からなる場合、元画像の各画素の画素値は、R,G,Bの各成分の値から、L,α,βの各成分の値へと変換される。色空間変換部51は、RGB空間の画像から、Lαβ空間の画像へと変換された元画像を固有ベクトル算出部52に供給する。
なお、RGB空間からLαβ空間への変換については、例えば、「High Dynamic Range Imaging: Acquisition, Display, and Image-Based Lighting (The Morgan Kaufmann Series in Computer Graphics)、 Erik Reinhard, Greg Ward, Sumanta Pattanaik, Paul Debevec」に記載されており、RGB空間からLαβ空間への変換に用いる係数は、適宜変更可能である。
このような色空間の変換は、各成分同士の相関の少ない三次元空間(色空間)への写像を行なうことで、それらの三軸の値(各成分の値)を独立に変換しても、その結果得られる画像の破綻が少なくなるという利点がある。例えば、元画像をLαβ空間に変換して処理した場合、画素の輝度成分を変更しても、画素の明るさが変化するだけでα成分、β成分は殆ど影響を受けることはなく、変換画像が不自然になってしまうようなことがない。なお、元画像に対する色空間の変換を行なわず、R,G,BやY,Cb,Crなど、元画像の色空間をそのまま利用して処理するようにしてもよい。
ステップS42において、固有ベクトル算出部52は、色空間変換部51から供給された元画像を用いて、元画像の色分布を示す三次元ガウスモデルを求める。すなわち、元画像の画素の画素値の平均値と共分散行列が算出される。
ステップS43において、位置特定部53は、再生部23から供給された変換パラメータとしての画素値の平均値と共分散行列により定義される三次元ガウスモデルを、元画像の三次元ガウスモデルの変換後の目標三次元ガウスモデルとする。
ステップS44において、固有ベクトル算出部52は、元画像の共分散行列に基づいて、元画像の三次元ガウスモデルの固有値と固有ベクトルを算出し、元画像、固有値、および固有ベクトルを位置特定部53に供給する。
ここで、固有ベクトルは、Lαβ空間の各成分、つまりL,α,βの各成分(より詳細には、L,α,βの各成分の線形結合)により表現される。例えば、固有ベクトルとして、固有ベクトルu,固有ベクトルv,固有ベクトルwが得られたとすると、これらの固有ベクトルと固有値とから元画像の三次元の固有ベクトル空間が定義される。つまり、固有値の長さを有する固有ベクトルからなる空間が固有ベクトル空間である。以下では、固有ベクトル空間における任意の点の固有ベクトルu,固有ベクトルv,固有ベクトルwの各成分の値、つまりその点の座標(位置)を(u,v,w)で表すこととする。
ステップS45において、位置特定部53は、固有ベクトル算出部52からの元画像、固有値、および固有ベクトルを用いて、元画像の各画素の固有ベクトル空間における位置(u,v,w)、つまり画素の画素値を算出する。元画像の各画素は、L,α,βの各成分を画素値として有するので、それらの成分の値から、固有ベクトル空間のu,v,wの各成分の値が求められる。
ステップS46において、位置特定部53は、求めた元画像の各画素の固有ベクトル空間における位置(u,v,w)から、その画素の目標三次元ガウスモデルの固有ベクトル空間(以下、目標固有ベクトル空間と称する)における位置(u’,v’,w’)を算出する。
具体的には、位置特定部53は、元画像の三次元ガウスモデルの固有ベクトル空間を正規化し、固有ベクトル空間の各画素の位置(u,v,w)から、正規化後の固有ベクトル空間の各画素の位置(ru,rv,rw)を算出する。
また、位置特定部53は、目標三次元ガウスモデルの共分散行列から、目標三次元ガウスモデルの固有ベクトルおよび固有値を求め、これらの固有ベクトルおよび固有値から定義される目標固有ベクトル空間を正規化する。
ここで、目標固有ベクトル空間における任意の点の固有ベクトルu’,固有ベクトルv’,固有ベクトルw’の各成分の値、つまりその点の座標(位置)を(u’,v’,w’)で表すこととする。また、正規化後の目標固有ベクトル空間における任意の点の位置(座標)を(ru’,rv’,rw’)で表すこととする。
目標固有ベクトル空間の各成分u’,v’,w’と、正規化後の目標固有ベクトル空間の各成分ru’,rv’,rw’とは、それぞれLαβ空間の各成分L,α,βにより表現される。したがって、正規化後の目標固有ベクトル空間の任意の位置の各成分ru’,rv’,rw’のそれぞれは、正規化後の固有ベクトル空間の各成分ru,rv,rwを用いて表現することができる。
そこで、位置特定部53は、元画像の各画素について、正規化後の固有ベクトル空間における画素の位置(ru,rv,rw)から、正規化後の目標固有ベクトル空間におけるその画素の位置(ru’,rv’,rw’)を算出する。
そして、位置特定部53は、正規化後の目標固有ベクトル空間における元画像の各画素の位置(ru’,rv’,rw’)から、正規化前の目標固有ベクトル空間における元画像の各画素の位置(u’,v’,w’)を算出する。
ステップS47において、位置特定部53は、元画像の各画素について、目標固有ベクトル空間における画素の位置(u’,v’,w’)から、その画素のLαβ空間上の位置、つまりL,α,βの各成分の値を算出する。これにより得られたL,α,βの各成分の値が、その画素のLαβ空間の画素値、つまり色調補正された画素値とされる。
このようにして得られた各画素からなる画像は、目標三次元ガウス分布を色分布として有する画像であり、この画像が変換画像とされる。すなわち、変換パラメータにより特定される目標三次元ガウスモデルに基づく画素の写像処理により、元画像が、目標三次元ガウスモデルに示される色分布を有する変換画像に変換されたことになる。
以上において説明したステップS42乃至ステップS47の処理を、2次元の成分に着目して説明すると、次のようになる。
すなわち、例えば、図8の左上に示されるように、元画像の三次元ガウスモデルから固有ベクトル空間SVが得られたとする。この固有ベクトル空間SVは、固有値を長さとする固有ベクトルuと、固有値を長さとする固有ベクトルvとからなる空間である。
なお、図中、固有ベクトル空間SVにおける2つの軸(矢印)は、それぞれ固有値を長さとする固有ベクトルuと固有ベクトルvを示しており、固有ベクトル空間SVを示す楕円は、元画像の画素の色のおおよその分布具合を表している。
いま、元画像の画素のうち、固有ベクトル空間SV上の座標(u,v)で表される画素Gp(点Gp)を、図中、右上に示す目標固有ベクトル空間SV’上に写像することを考える。
なお、目標固有ベクトル空間SV’は、変換パラメータにより特定される目標三次元ガウスモデルから得られた固有値を長さとする固有ベクトルu’および固有ベクトルv’からなる空間である。また、固有ベクトル空間SV’における2つの軸(矢印)は、それぞれ固有値を長さとする固有ベクトルu’と固有ベクトルv’を示しており、固有ベクトル空間SV’を示す楕円は、目標三次元ガウスモデルに示される画素の色のおおよその分布具合を表している。
まず、位置特定部53は、固有ベクトル空間SVおよび目標固有ベクトル空間SV’を、それらのベクトル空間を構成する固有ベクトルが同じ長さとなるように正規化する。これにより、正規化後の固有ベクトル空間rSVおよび目標固有ベクトル空間rSV’が得られる。
固有ベクトル空間rSVおよび目標固有ベクトル空間rSV’における2つの軸(矢印)は、正規化された固有ベクトルuと固有ベクトルv、および正規化された固有ベクトルu’と固有ベクトルv’を示している。
以下、正規化後の固有ベクトルuと固有ベクトルvを、それぞれ固有ベクトルruと固有ベクトルrvと称し、正規化後の固有ベクトルu’と固有ベクトルv’を、それぞれ固有ベクトルru’と固有ベクトルrv’と称する。
ここで、固有ベクトル空間SVおよび目標固有ベクトル空間SV’において、各固有ベクトルは直交するので、それらの固有ベクトル空間を正規化することは、固有ベクトル空間を単位円化することである。これにより、固有ベクトル空間rSVと目標固有ベクトル空間rSV’は同じ大きさのベクトル空間となる。
次に、位置特定部53は、固有ベクトル空間SV上の座標(u,v)で表される点Gpの固有ベクトル空間rSV上の位置を求める。その結果、例えば、点Gpに対応する固有ベクトル空間rSV上の点として、座標が(ru,rv)である点Gqが得られたとする。
位置特定部53は、点Gqが求まると、図中、中央下側に示すように、固有ベクトル空間rSVと目標固有ベクトル空間rSV’を重ね合わせることで、目標固有ベクトル空間rSV’における点Gqの座標(ru’,rv’)を求める。
固有ベクトル空間rSVと目標固有ベクトル空間rSV’の各固有ベクトルは、Lαβ空間のL,α,βの各成分により求まるから、点Gqの固有ベクトルru’の成分は、点Gqの固有ベクトルruと固有ベクトルrvの成分から求めることができる。同様に、点Gqの固有ベクトルrv’の成分も点Gqの固有ベクトルruと固有ベクトルrvの成分から求めることができる。これにより、目標固有ベクトル空間rSV’における点Gqの座標(ru’,rv’)が得られる。
さらに、位置特定部53は、目標固有ベクトル空間rSV’上の座標(ru’,rv’)で表される点Gqの目標固有ベクトル空間SV’上の位置を求める。その結果、例えば、点Gqに対応する目標固有ベクトル空間SV’上の点として、座標が(u’,v’)である点Gp’が得られたとする。
位置特定部53は、目標固有ベクトル空間SV’上の点Gp’の座標(u’,v’)が得られると、その座標から点Gp’のLαβ空間のL,α,βの各成分の値を算出し、写像後の画素の画素値とする。
このようにして、位置特定部53は、固有ベクトル空間SVと目標固有ベクトル空間SV’を、それぞれ正規化(単位円化)する。そして、位置特定部53は、その結果得られた固有ベクトル空間rSVと目標固有ベクトル空間rSV’との位置の対応を求めることで、画素Gpの固有ベクトル空間SVと目標固有ベクトル空間SV’の間での座標変換(写像処理)を行い、画素Gp’を得る。
このように、固有ベクトル空間を正規化することで、固有ベクトル空間SV上の各点を、固有ベクトル空間rSV上の点に線形写像することができる。これにより、固有ベクトル空間SV上の各画素の相対的な位置関係が、写像後の目標固有ベクトル空間SV’上においても同じ位置関係となるように、固有ベクトル空間SVと目標固有ベクトル空間SV’の間の座標変換を行なうことができる。その結果、各位置における画素の画素値の周囲の画素の画素値との相対的な関係が、元画像における場合と同じ関係を有する変換画像を得ることができ、破綻の生じない色調補正を実現することができる。
例えば、元画像が変換画像に変換されたとき、2つの画素の画素値が、それぞれ画素値R1およびR2から、画素値R1’およびR2’に変換されたとする。このとき、必ず変換前後の画素値について、R1’/R1=R2’/R2が成立するように画素値の写像処理が行われる。そうすれば、例えば元画像上のグラデーション模様の領域は、変換後の変換画像上においても必ずグラデーション模様となり、画像の各画素の画素値の相対的な関係を保ったまま、画素の色分布を所望の分布に変更することができる。
なお、図8を参照して説明した、固有ベクトル空間を正規化して座標変換を行なう処理は、二次元以上の任意の次元の空間に対して適用することができる。
図7のフローチャートの説明に戻り、ステップS47において、目標三次元ガウスモデルに示される色分布の変換画像が得られると、位置特定部53は、得られた変換画像を色空間逆変換部54に供給し、処理はステップS48に進む。
ステップS48において、色空間逆変換部54は、位置特定部53から供給された変換画像の各画素の画素値を、Lαβ空間の画素値からRGB空間の画素値に逆変換する。これにより、各画素がR,G,Bの各成分の値を画素値として有する変換画像が得られる。色空間逆変換部54は、色空間の逆変換を行なうと、得られた変換画像を再生部23に供給し、色調補正処理は終了する。色調補正処理が終了すると、その後、処理は図5のステップS15へと進む。
このようにして画像変換部24は、周囲の状況に合った変換パラメータを用いて元画像を色調補正し、変換画像を生成する。
したがって、天気や時刻といった、現在の周囲の状況に合わせて元画像を色調補正することができ、周囲の状況に合った雰囲気の変換画像を得ることができる。これにより、季節感や時間の雰囲気を演出することが可能となる。例えば、風景の写真(元画像)であれば、昼間の写真を夕方や夜の写真のように色調補正することができる。また、このようにして得られた変換画像を表示すれば、ユーザは、表示された変換画像を見て、直感的に現在の時刻や天候を知ることができる。
なお、変換処理の例として色調補正処理を行う場合について説明したが、その他、元画像のコントラストやソフトネスの調整、ノイズの低減、ダイナミックレンジの変換、明るさや色相の調整などが行なわれるようにしてもよい。
[変換パラメータのデータベースの構築の説明]
ところで、上述したように、変換パラメータは、状況ベクトル空間における点(配置点)に対応付けてもよいし、ある程度の範囲の領域に分布するものとしてもよい。例えば、状況ベクトル空間の領域に対して変換パラメータが対応付けられる場合には、教師データ(学習画像)となる画像集合を用いることで、変換パラメータの分布が定められる。
以下、そのような場合における変換パラメータのデータベースの構築の一例について説明する。なお、ここでは、変換パラメータは、目標三次元ガウスモデルを定義する平均値と共分散行列であるものとする。この変換パラメータにより示される三次元ガウスモデルは、画像のみから算出することができる。
例えば、三次元ガウスモデルを示す変換パラメータを状況ベクトル空間に対応付けるのには、例えば画像のメタデータ情報であるExif(Exchangeable Image File Format)情報が利用される。Exif情報は、画像に付加される、画像に関する情報であり、例えばExif情報には、画像の撮像日時や年月日、撮像されたGPS位置情報、撮像装置の設定情報などが含まれている。
再生部23は、変換パラメータのデータベースを構築するための画像(以下、学習画像とも称する)が供給されると、その学習画像から三次元ガウスモデル、つまり平均値と共分散行列を変換パラメータとして算出する。そして、再生部23は、学習画像に付加されたメタデータ情報を用いて、変換パラメータの状況ベクトルを生成する。
例えば、状況ベクトルが、季節を示す値Jxと、時刻を示す値Jyとの2つの成分(要素)からなるベクトルであるとすると、再生部23は、学習画像のメタデータ情報から、その学習画像が撮像された季節と時刻を特定し、状況ベクトルの季節の成分の値Jxと、時刻の成分の値Jyとを算出する。そして、再生部23は、得られた状況ベクトルにより特定される状況ベクトル空間の点を配置点として、その配置点に変換パラメータを対応付ける。
なお、学習画像は、画像処理装置11の外部から入力されるようにしてもよいし、予めメモリ22に記録されたものが再生部23により読み出されるようにしてもよい。
また、予め用意された写真や所定の素材集の写真のそれぞれを学習画像として、1つの学習画像から得られる変換パラメータごとに配置点を定めてもよいし、状況ベクトル空間上で配置点が近いものをセグメント化(グループ化)して1つのグループとしてもよい。
例えば、学習画像のセグメント化を行なう場合、再生部23は、複数の学習画像のそれぞれについて状況ベクトルを算出し、状況ベクトル空間に各学習画像を対応付ける。
その結果、例えば図9に示す結果が得られたとする。なお、図9において、縦軸および横軸は、状況ベクトルの季節の成分Jx、および時刻の成分Jyを示しており、原点Oを基準とするJx成分およびJy成分からなる2次元座標系が状況ベクトル空間とされている。
図9の例では、1つの四角形は、1つの学習画像を表しており、それらの学習画像は、状況ベクトルにより定まる状況ベクトル空間上の位置、つまりJx成分およびJy成分からなる座標位置に配置されている。
このように、状況ベクトル空間上に各学習画像を対応付けると、再生部23は、各学習画像の状況ベクトルを用いて、学習画像をセグメント化する。例えばセグメント化は、k近傍方などにより行なわれる。図9の例では、セグメント化により、学習画像は、3つのグループGr1乃至グループGr3にグループ化(セグメント化)されている。グループGr1およびグループGr2は、それぞれ複数の学習画像からなり、グループGr3は、1つの学習画像からなる。
再生部23は、1つの学習画像からなるグループGr3については、その学習画像の状況ベクトルにより定まる点を配置点とし、その配置点に学習画像から得られた変換パラメータを対応付ける。
また、再生部23は、複数の学習画像からなるグループGr1については、それらの学習画像の状況ベクトルにより定まる点全てを含む領域を配置領域とし、配置領域に対して1つの変換パラメータを対応付ける。この配置領域に対応付けられる変換パラメータは、例えば、グループGr1に属す学習画像の変換パラメータの平均値や加重平均値などとされる。グループGr1と同様に、再生部23は、グループGr2についても、複数の学習画像から配置領域と、その配置領域に対応付ける変換パラメータとを求める。
このように、入力された学習画像から、再生部23が状況ベクトル空間の各配置点や配置領域に対応付ける変換パラメータを構築することで、例えば、図10に示すように、周囲の時刻や季節に応じた色調補正を実現する変換パラメータが得られる。なお、図10において、横方向は状況ベクトルの時刻の成分Jyを示している。
図10の例では、状況ベクトル空間における各季節の朝の時間帯の領域VR1には、朝に撮像された学習画像から得られた変換パラメータが対応付けられる。したがって、この領域VR1に含まれる状況ベクトルが得られた場合には、元画像は、領域VR1に対応付けられた変換パラメータにより、明るい黄色味を帯びた色合いの画像に変換される。
また、状況ベクトル空間における春、夏、秋、冬のそれぞれの季節の昼の時間帯の領域VR2乃至領域VR5には、それらの各季節の昼間に撮像された学習画像から得られた変換パラメータが対応付けられる。したがって、領域VR2乃至領域VR5に含まれる状況ベクトルが得られた場合には、元画像は、領域VR2乃至領域VR5のそれぞれに対応付けられた変換パラメータにより色調補正される。
例えば、領域VR2の変換パラメータによる変換では、元画像は桜色がかった色合いの画像に変換され、領域VR3の変換パラメータによる変換では、元画像は青色が強調されるように色調補正される。また、領域VR4の変換パラメータによる変換では、元画像は赤味がかった色合いの画像に変換され、領域VR5の変換パラメータによる変換では、元画像は白が強調されるように色調補正される。このように、状況ベクトル空間の昼間の時間帯の各季節の領域には、季節ごとの色味を強調する変換パラメータが対応付けられる。
また、状況ベクトル空間における各季節の夕方の時間帯の領域VR6には、夕方に撮像された学習画像から得られた変換パラメータが対応付けられる。したがって、領域VR6に含まれる状況ベクトルが得られた場合には、元画像は、領域VR6に対応付けられた変換パラメータにより、赤味がかった色合いの画像に変換される。
さらに、状況ベクトル空間における各季節の夜の時間帯の領域VR7には、夜に撮像された学習画像から得られた変換パラメータが対応付けられる。したがって、領域VR7に含まれる状況ベクトルが得られた場合には、元画像は、領域VR7に対応付けられた変換パラメータにより、全体的に暗く、彩度が抑えられた色味の画像に変換される。
以上のようにして、再生部23は、学習画像から変換パラメータのデータベースを構築して記録し、得られた変換パラメータを元画像の変換画像への変換に用いる。
なお、変換パラメータのデータベースの構築時には、所定の画像の集合から、有用な画像のみを学習画像として選択し、データベースを構築するようにしてもよい。そのような場合、例えば見映えのよい画像だけを再生部23またはユーザが選択してデータベースを構築すれば、変換パラメータを用いた元画像の色調補正により、より見映えのよい変換画像を得ることができるようになる。
〈第2の実施の形態〉
[画像変換部の構成]
また、変換パラメータを用いた変換処理として、幾何的な変形処理を行なうようにしてもよい。そのような場合、図3の画像変換部24は、例えば図11に示すように構成される。
図11に示す画像変換部24は、被写体マップ生成部81、被写体特定部82、および表示領域決定部83から構成される。
被写体マップ生成部81は、再生部23から供給された元画像に基づいて、元画像の各領域における被写体の領域らしさを示す被写体マップを生成し、被写体特定部82に供給する。なお、ここでいう被写体とは、ユーザが元画像を一瞥した場合に、ユーザが注目すると推定される元画像上の物体、例えば、より中心に多くある色の領域や焦点の合っている領域の物体など、ユーザが目を向けると推定される物体をいう。
被写体特定部82は、被写体マップ生成部81から供給された被写体マップを用いて、元画像上の被写体の領域を特定し、その特定結果を表示領域決定部83に供給する。表示領域決定部83は、被写体特定部82から供給された被写体の特定結果と、再生部23からの元画像および変換パラメータを用いて、元画像上の被写体が含まれる特定の領域を切り出して変換画像とし、再生部23に供給する。
[画像変換処理の説明]
画像変換部24が図11に示す構成とされる場合においても、自動変換モードが設定されている状態で、ユーザにより元画像の表示が指示されると、画像処理装置11は、画像変換処理を行って、元画像から得られた変換画像をスライドショー表示する。
以下、図12のフローチャートを参照して、画像変換部24が図11に示す構成とされる場合における画像変換処理について説明する。
なお、ステップS71乃至ステップS73の処理は、図5のステップS11乃至ステップS13の処理と同様であるため、その説明は省略する。但し、再生部23により取得される変換パラメータは、例えば元画像上の変換画像として表示される領域を特定する拡大率などとされる。
ステップS73において変換パラメータが取得されると、再生部23は、元画像を被写体マップ生成部81および表示領域決定部83に供給するとともに、変換パラメータを表示領域決定部83に供給する。
ステップS74において、画像変換部24は、画像変形処理を行う。なお、画像変形処理の詳細は後述するが、この画像変形処理では、変換パラメータが用いられて、元画像が幾何学的に変形され、変換画像が生成される。
変換画像が生成されると、その後、ステップS75およびステップS76の処理が行われて画像変換処理は終了するが、これらの処理は図5のステップS15およびステップS16の処理と同様であるので、その説明は省略する。
このようにして画像処理装置11は、周囲の状況を示す情報を取得して状況ベクトルを生成し、状況ベクトルを用いて現在の周囲の状況に合った変換パラメータを選択する。そして画像処理装置11は、変換パラメータを用いて元画像を幾何学的に変形し、得られた変換画像を表示する。
したがって、画像処理装置11によれば、ユーザに何ら操作をさせることなく、周囲の状況に応じた変換パラメータを特定することができ、この変換パラメータを用いて、時間や視聴距離などの周囲の状況に合わせて元画像を変形することができる。
例えば、周囲の状況を示す情報として、カメラで撮像した画像からユーザと画像処理装置11との距離が分かる場合、ユーザが離れているときは被写体を拡大して表示するなど、ユーザの視聴距離という状況に応じて元画像を変形し、より効果的に元画像を表示することができる。また、例えば、いわゆるパノラマ画像など巨大な元画像を表示する場合、元画像のうち、被写体のない背景領域を中心に表示すれば、リラックスした雰囲気を演出するスライドショーが可能となる。
[画像変形処理の説明]
次に、図13のフローチャートを参照して、図12のステップS74の処理に対応する画像変形処理について説明する。
ステップS101において、被写体マップ生成部81は、再生部23から供給された元画像を用いて被写体マップを生成し、被写体特定部82に供給する。
例えば、被写体マップ生成部81は、元画像が有する輝度や色、エッジ等の特徴ごとに、元画像の各領域における特徴の特徴量を抽出し、抽出した特徴量から、元画像の各領域における被写体らしさを示す特徴量マップを生成する。
この特徴量マップは、例えば、特徴が輝度である場合には、元画像上の所定の位置の輝度と、その位置の周囲の領域の平均的な輝度との差分を示す情報(画像)とされる。一般的に、画像において周囲との輝度の差分の大きい領域は、その画像を見る人の目を引く領域であるので、その領域は被写体の領域である可能性が高い。したがって、輝度を特徴とする特徴量マップにおいて、より輝度の差分、つまり画素値の大きい画素が、より被写体の領域である可能性の高い領域であることを示している。同様に、他の特徴の特徴量マップにおいても、画素値のより大きい画素が、より被写体らしい領域を示している。
被写体マップ生成部81は、このようにして得られた複数の特徴量マップを所定の重みを用いて重み付き加算し、被写体マップを生成する。つまり、各特徴量マップの同じ位置にある画素の画素値が重み付き加算されて、被写体マップの画素の画素値とされる。
さらに、被写体マップ生成部81は、得られた被写体マップの各画素の画素値を所定の閾値により二値化して最終的な被写体マップとする。すなわち、被写体マップの画素の画素値が閾値以上であれば、その画素の最終的な画素値は「1」とされ、画素値が閾値未満であれば、その画素の最終的な画素値は「0」とされる。したがって、被写体マップにおいて、画素値が「1」である画素からなる領域が、被写体の領域とされる。
例えば、図14に示す元画像IPを用いて上述した処理を行うと、図中、右側に示す二値画像である被写体マップSMが得られる。図14の例では、元画像IPのほぼ中央に花が表示されており、元画像IPから得られた被写体マップSMでは、元画像IP上の花と同じ位置の画素の画素値が「1」となっている。そのため、被写体マップSMを用いた被写体検出では、花の領域が被写体の領域であると特定されることになる。
なお、被写体マップの生成方法については、例えば、「Learning to Detect A Salient Object、Tie Liu,Jian Sun,Nan-Ning Zheng,Xiaoou Tang,Heung-Yeung Shum, Computer Vision and Pattern Recognition, 2007. CVPR '07. IEEE Conference on Publication Date: 17-22 June 2007」に記載されている。
図13のフローチャートの説明に戻り、ステップS102において、被写体特定部82は、被写体マップ生成部81から供給された被写体マップを用いて、元画像上の被写体の領域を特定する。
例えば、被写体特定部82は、被写体マップにおいて、画素値が「1」である、互いに隣接する複数の画素からなる領域を被写体の領域とし、その被写体の領域を囲む最小の矩形の領域(以下、最小矩形領域と称する)を特定する。
また、被写体特定部82は、変換画像のアスペクト比を示す表示領域情報を取得する。例えば、表示領域情報が被写体特定部82に予め記録されていてもよいし、画像表示部25の表示画面の大きさ等の物理的な情報や、別の情報と画面を分割して変換画像等を表示するための画面設定情報などを画像表示部25等から取得し、変換画像のアスペクト比を算出してもよい。
さらに、被写体特定部82は、被写体マップ上の最小矩形領域のアスペクト比を求めて、最小矩形領域のアスペクト比が、変換画像のアスペクト比と同じとなるように、最小矩形領域を垂直方向または水平方向に拡大して、アスペクト比の調整を行なう。そして、被写体特定部82は、アスペクト比調整後の最小矩形領域と同じ位置にある元画像上の領域を、被写体表示領域とし、その被写体表示領域を示す情報を表示領域決定部83に供給する。
なお、アスペクト比調整時において、被写体特定部82は、基本的には、最小矩形領域の中心を基点として最小矩形領域を拡大させるが、調整後の最小矩形領域が被写体マップからはみ出してしまう場合には、基点をずらして最小矩形領域を拡大する。
ステップS103において、表示領域決定部83は、被写体特定部82から供給された被写体表示領域を示す情報と、再生部23からの変換パラメータとを用いて、変換画像を生成する。
例えば、図15の左側に示すように、被写体マップSM上において、中央からやや右側の領域が最小矩形領域MRとされ、最小矩形領域MRを囲む特定のアスペクト比の領域DR、より詳細には領域DRと同じ位置の元画像の領域が被写体表示領域とされたとする。
このような場合、表示領域決定部83は、被写体マップSM上において、特定のアスペクト比の最も大きい領域ER1から、領域DRまでの間にある特定のアスペクト比の領域、より詳細にはその領域と同じ位置の元画像の領域を、変換画像とする。
すなわち、領域ER1内にある領域であって、領域DRが含まれる領域が変換画像の領域とされる。なお、図15の例では、被写体マップSM、つまり元画像のアスペクト比は、変換画像のアスペクト比と同じであるので、被写体マップSM全体の領域が領域ER1とされている。
また、変換画像とされる領域は、変換パラメータにより定められる。具体的には、変換パラメータとしての拡大率が「0.0」から「1.0」までの間の値をとるとする。この場合、拡大率が「0.0」であるとき、領域DRが変換画像の領域とされ、拡大率が「1.0」であるとき、領域ER1が変換画像の領域とされる。
さらに、拡大率が「0.0」と「1.0」の間の値である場合、その値により定まる大きさで、かつ特定のアスペクト比である領域であって、領域DRが含まれる領域ER1内の領域が変換画像の領域とされる。例えば、拡大率が「0.5」である場合、図中、領域DRを含み、領域ER1内にある領域ER2が変換画像の領域とされる。ここで、拡大率「0.5」は、拡大率「1.0」の半分の値であるので、領域ER2の大きさは、領域DRと領域ER1の間(平均値)の大きさとされる。
このように、変換画像として表示される領域を、拡大率により定まる大きさの領域とする処理は、拡大率に応じた倍率で領域DRを拡大する処理である。領域DRの拡大は、基本的に領域DRの中心位置を基点として行なわれるが、領域DRが拡大により被写体マップSMからはみ出してしまう場合には、拡大後の領域DR、つまり変換画像とされる領域が被写体マップSMからはみ出さないように、基点位置がずらされながら拡大処理が行われる。
例えば、変換パラメータとしての拡大率により領域DR、領域ER2、および領域ER1のそれぞれが特定された場合、それらの領域と同じ位置にある元画像上の領域が変換画像とされる。これにより、図中、右側に示すように、変換画像OP1、変換画像OP2、および変換画像OP3のそれぞれが得られる。
例えば、拡大率が「0.0」である場合、つまり領域DRが変換画像の領域とされた場合に得られた変換画像OP1では、被写体としての花が画像中に大きく表示されている。なお、より詳細には、領域DRと同じ位置にある元画像上の領域が、画像表示部25の表示画面と同じ大きさに拡大されて得られる画像が変換画像OP1とされる。
また、例えば、拡大率が「1.0」である場合、つまり領域ER1が変換画像の領域とされた場合に得られた変換画像OP3では、被写体としての花が変換画像OP1の場合よりも小さく表示され、花の周囲の被写体も表示されている。
なお、状況ベクトルとして画像処理装置11からユーザまでの距離、つまり視聴距離が得られる場合、その視聴距離に応じて拡大率を決定すれば、視聴距離が短いときには被写体を小さく表示させるなど、視聴距離に合った大きさで被写体を表示させることができる。
状況ベクトルとして視聴距離を得るには、例えば、状況取得部21としてのカメラが画像処理装置11の正面の画像を撮像し、状況取得部21が得られた画像から人の顔を検出して、検出された顔の大きさから視聴距離を求めればよい。
このようにして変換画像が得られると、表示領域決定部83は、得られた変換画像を再生部23に供給し、画像変形処理は終了する。画像変形処理が終了すると、その後、処理は図12のステップS75に進む。
このようにして、画像変換部24は、元画像上の被写体が含まれる、変換パラメータにより定まる大きさの領域を切り出して変換画像とすることで、元画像を変換画像に変換(変形)する。これにより、周囲の状況に応じた大きさで被写体を表示させることができる。
なお、以上においては、元画像に対する幾何的な変形処理として、拡大率に応じた大きさの被写体の領域を変換画像とする場合を例として説明したが、被写体の領域の拡大や縮小に限らず、画像の回転や、それらの組み合わせなどとしてもよい。また、変換パラメータによって定まる形状の領域を元画像から切り出して変換画像としたり、メッシュワーピングやシームカービングといった高度な画像処理を用いた変形処理を行うようにしたりしてもよい。例えば、元画像上の被写体が含まれる領域であって、変換パラメータにより定まる大きさおよび形状の領域が切り出されて変換画像とされてもよい。
〈第3の実施の形態〉
[画像変換部の構成]
さらに、以上においては、元画像を変換画像に変換する変換処理として、色調補正処理または変形処理の何れか一方だけが行われる例について説明したが、それらの両方の処理が行われるようにしてもよい。
そのような場合、画像処理装置11の画像変換部24は、例えば、図16に示すように構成される。
図16の画像変換部24は、色空間変換部51、固有ベクトル算出部52、位置特定部53、色空間逆変換部54、被写体マップ生成部81、被写体特定部82、および表示領域決定部83から構成される。なお、図16において、図4および図11における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図16の画像変換部24は、図4に示した色空間変換部51乃至色空間逆変換部54の後段に、図11に示した被写体マップ生成部81乃至表示領域決定部83が接続されている。また、画像変換部24では、再生部23からの元画像が色空間変換部51に供給され、再生部23からの変換パラメータが、位置特定部53と表示領域決定部83に供給される。
さらに、色空間逆変換部54は、色空間の逆変換により得られた、色調補正後の画像を被写体マップ生成部81および表示領域決定部83に供給し、被写体マップ生成部81は、この色調補正後の画像から、被写体マップを生成する。また、表示領域決定部83は、被写体特定部82から供給された被写体の特定結果と、色空間逆変換部54からの色調補正後の画像、および変換パラメータを用いて変換画像を生成し、再生部23に供給する。
[画像変換処理の説明]
次に、図17のフローチャートを参照して、画像変換部24が図16に示す構成とされる場合に行われる画像変換処理について説明する。
なお、ステップS141乃至ステップS144の処理は、図5のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
但し、ステップS143においては、変換パラメータとして、平均値と共分散行列、および拡大率が取得される。また、ステップS144の色調補正処理においては、変換パラメータとしての平均値と共分散行列により定義される目標三次元ガウスモデルに示される色分布となるように、元画像が色調補正される。そして、色調補正された元画像は、色空間逆変換部54から被写体マップ生成部81と表示領域決定部83に供給される。
さらに、その後、ステップS145乃至ステップS147の処理が行われて画像変換処理は終了する。なお、これらのステップS145乃至ステップS147の処理においては、図12のステップS74乃至ステップS76と同様の処理が行われる。
すなわち、色調補正された元画像から被写体マップが生成され、被写体マップにより特定された、色調補正後の元画像における被写体の領域が切り出されて変換画像とされる。このとき、切り出される領域の大きさは、変換パラメータとしての拡大率により定められる。
以上のようにして、画像処理装置11は、変換パラメータを用いて元画像に対して、色調補正処理および画像変形処理を施して変換画像を生成する。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図18は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インターフェース305が接続されている。入出力インターフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記録部308、ネットワークインターフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
以上のように構成されるコンピュータでは、CPU301が、例えば、記録部308に記録されているプログラムを、入出力インターフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インターフェース305を介して、記録部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記録部308にインストールすることができる。その他、プログラムは、ROM302や記録部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 21 状況取得部, 22 メモリ, 23 再生部, 24 画像変換部, 25 画像表示部, 52 固有ベクトル算出部, 53 位置特定部, 81 被写体マップ生成部, 82 被写体特定部, 83 表示領域決定部

Claims (10)

  1. 周囲の状況を示す情報を取得し、前記情報を数値化して状況ベクトルを生成する状況ベクトル生成手段と、
    予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータを重み付き加算する変換パラメータ算出手段と、
    処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換を行なって、変換画像を生成する変換画像生成手段と
    を備える画像処理装置。
  2. 前記変換画像生成手段は、前記画像変換として、色調補正処理または幾何学的な変形処理の少なくとも一方を行なう
    請求項1に記載の画像処理装置。
  3. 前記変換パラメータは、目標となる色分布を示す情報とされ、
    前記変換画像生成手段は、前記元画像の色分布が、前記目標となる色分布となるように前記元画像に対する色調補正を行なうことで、前記変換画像を生成する
    請求項2に記載の画像処理装置。
  4. 前記目標となる色分布を示す情報は、目標三次元ガウスモデルを定義する情報からなり、
    前記変換画像生成手段は、前記元画像の色分布を示す三次元ガウスモデルの正規化された固有ベクトル空間における前記元画像の注目画素の位置に対応する、前記目標三次元ガウスモデルの正規化された目標固有ベクトル空間における位置を求めて、その位置から正規化前の前記目標固有ベクトル空間における前記注目画素の位置を特定することにより、前記色調補正後の前記注目画素の画素値を算出する
    請求項3に記載の画像処理装置。
  5. 前記変換パラメータ算出手段は、前記変換パラメータと、状況ベクトルからなる状況ベクトル空間における、前記変換パラメータが対応付けられた位置または領域を示す位置情報とからなるデータベースを記録しており、前記位置情報により示される位置または領域のうち、前記状況ベクトル生成手段により生成された前記状況ベクトルの終点近傍にある、所定数の位置または領域に対応付けられた前記変換パラメータを前記重み付き加算する
    請求項3に記載の画像処理装置。
  6. 前記変換パラメータ算出手段は、メタデータが付加された学習画像に基づいて、前記目標となる色分布を示す情報を前記変換パラメータとして生成するとともに、前記メタデータから前記状況ベクトルを生成し、前記状況ベクトルにより特定される前記状況ベクトル空間の位置または領域に、前記学習画像から得られた前記変換パラメータを対応付ける
    請求項5に記載の画像処理装置。
  7. 前記変換パラメータ算出手段は、各成分に重み付けがされた前記状況ベクトルを用いて、前記重み付き加算する前記変換パラメータを特定する
    請求項5に記載の画像処理装置。
  8. 前記変換画像生成手段は、
    前記元画像から所定の特徴の特徴量を抽出して、前記元画像の各領域における被写体らしさを示す被写体マップを生成する被写体マップ生成手段と、
    前記被写体マップを用いて、前記元画像上の被写体が含まれる被写体領域を特定する被写体特定手段と、
    前記被写体領域を含み、前記変換パラメータにより定まる大きさまたは形状の前記元画像上の領域を切り出して前記変換画像とする表示領域決定手段と
    を備える請求項2に記載の画像処理装置。
  9. 周囲の状況を示す情報を取得し、前記情報を数値化して状況ベクトルを生成する状況ベクトル生成手段と、
    予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータを重み付き加算する変換パラメータ算出手段と、
    処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換を行なって、変換画像を生成する変換画像生成手段と
    を備える画像処理装置の画像処理方法であって、
    前記状況ベクトル生成手段が前記状況ベクトルを生成し、
    前記変換パラメータ算出手段が、前記状況ベクトルにより特定される前記変換パラメータを前記重み付き加算し、
    前記変換画像生成手段が、前記重み付き加算により得られた前記変換パラメータを用いた前記画像変換により前記変換画像を生成する
    ステップを含む画像処理方法。
  10. 周囲の状況を示す情報を取得し、前記情報を数値化して状況ベクトルを生成し、
    予め用意された画像変換用の複数の変換パラメータのうち、前記状況ベクトルにより特定されるいくつかの変換パラメータを重み付き加算し、
    処理対象の元画像に対して、前記重み付き加算により得られた変換パラメータを用いた画像変換を行なって、変換画像を生成する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2010065116A 2010-03-19 2010-03-19 画像処理装置および方法、並びにプログラム Active JP5655334B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010065116A JP5655334B2 (ja) 2010-03-19 2010-03-19 画像処理装置および方法、並びにプログラム
US13/043,960 US8548232B2 (en) 2010-03-19 2011-03-09 Image processing apparatus, method and program
CN201110061779.4A CN102194215B (zh) 2010-03-19 2011-03-11 图像处理设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065116A JP5655334B2 (ja) 2010-03-19 2010-03-19 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2011199671A true JP2011199671A (ja) 2011-10-06
JP5655334B2 JP5655334B2 (ja) 2015-01-21

Family

ID=44602238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065116A Active JP5655334B2 (ja) 2010-03-19 2010-03-19 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8548232B2 (ja)
JP (1) JP5655334B2 (ja)
CN (1) CN102194215B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032654A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9087382B2 (en) * 2009-06-29 2015-07-21 Thomson Licensing Zone-based tone mapping
US8340411B2 (en) * 2010-03-05 2012-12-25 Xerox Corporation Smart image resizing with color-based entropy and gradient operators
CN102572219B (zh) * 2012-01-19 2014-12-24 西安联客信息技术有限公司 移动终端及其图像处理方法
JP5849976B2 (ja) * 2012-03-30 2016-02-03 カシオ計算機株式会社 ソーシャル・ネットワーク・サービスシステム及び画像表示方法
JP6000825B2 (ja) * 2012-11-27 2016-10-05 東芝メディカルシステムズ株式会社 医用画像診断装置、医用画像処理装置及び医用画像処理方法
JP6242098B2 (ja) * 2013-07-16 2017-12-06 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
US20150131924A1 (en) * 2013-11-13 2015-05-14 Microsoft Corporation Creation of Rectangular Images from Input Images
JP6277981B2 (ja) * 2015-03-13 2018-02-14 株式会社デンソー 情報コード画像表示システム、情報コード画像表示端末、情報コード画像表示プログラム
GB2554669B (en) * 2016-09-30 2022-04-06 Apical Ltd Image processing
CN108009983B (zh) * 2017-11-30 2021-05-25 天地伟业技术有限公司 一种基于图像分析定位像素点对应原图的方法
CN109242892B (zh) 2018-09-12 2019-11-12 北京字节跳动网络技术有限公司 用于确定图像间的几何变换关系的方法和装置
CN109636712B (zh) * 2018-12-07 2022-03-01 北京达佳互联信息技术有限公司 图像风格迁移及数据存储方法、装置和电子设备
CN110796712A (zh) * 2019-10-24 2020-02-14 北京达佳互联信息技术有限公司 素材处理方法、装置以及电子设备、存储介质
CN113077391B (zh) 2020-07-22 2024-01-26 同方威视技术股份有限公司 校正扫描图像的方法和装置以及图像扫描系统
CN112200844A (zh) * 2020-10-10 2021-01-08 深圳壹账通智能科技有限公司 生成图像的方法、装置、电子设备及介质
CN113127802B (zh) * 2021-04-27 2023-08-08 南京大学 基于cordic算法的复对数实现方法、装置、设备及计算机存储介质
CN117011153A (zh) * 2022-04-28 2023-11-07 华为技术有限公司 图像处理方法及装置
US11941232B2 (en) * 2022-06-06 2024-03-26 Adobe Inc. Context-based copy-paste systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218223A (ja) * 2000-12-14 2002-08-02 Eastman Kodak Co 写真画像の一部の画像を自動的に生成する方法
JP2008187347A (ja) * 2007-01-29 2008-08-14 Toshiba Corp 車載用ナビゲーション装置、路面標示識別プログラム及び路面標示識別方法
JP2008288804A (ja) * 2007-05-16 2008-11-27 Seiko Epson Corp 画像再生装置、画像再生装置の制御方法および制御プログラム
JP2009027651A (ja) * 2007-07-23 2009-02-05 Sony Corp 監視システム、監視カメラ、監視方法および監視プログラム
JP2009038712A (ja) * 2007-08-03 2009-02-19 Nikon Corp カラー撮像装置
JP2009188872A (ja) * 2008-02-08 2009-08-20 Canvas Mapple Co Ltd 映像補正装置、映像補正方法、及び映像補正プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731671A (en) * 1985-05-06 1988-03-15 Eastman Kodak Company Contrast adjustment in digital image processing method employing histogram normalization
CN1420410A (zh) * 2001-11-19 2003-05-28 仁宝电脑工业股份有限公司 动态调节环境光线影响的计算机系统显示装置
EP1475745B1 (en) * 2002-02-12 2014-07-09 Panasonic Corporation Image processing device and image processing method
US20030201990A1 (en) * 2002-04-16 2003-10-30 Aldrich Bradley C. Color adaptation for multimedia devices
US7652789B2 (en) * 2003-11-03 2010-01-26 Seiko Epson Corporation Production of color conversion profile for printing
JP2009141678A (ja) 2007-12-06 2009-06-25 Fujifilm Corp デジタルフォトフレームおよびその画像表示方法
JP4924442B2 (ja) 2008-01-16 2012-04-25 セイコーエプソン株式会社 再生装置およびその制御方法並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002218223A (ja) * 2000-12-14 2002-08-02 Eastman Kodak Co 写真画像の一部の画像を自動的に生成する方法
JP2008187347A (ja) * 2007-01-29 2008-08-14 Toshiba Corp 車載用ナビゲーション装置、路面標示識別プログラム及び路面標示識別方法
JP2008288804A (ja) * 2007-05-16 2008-11-27 Seiko Epson Corp 画像再生装置、画像再生装置の制御方法および制御プログラム
JP2009027651A (ja) * 2007-07-23 2009-02-05 Sony Corp 監視システム、監視カメラ、監視方法および監視プログラム
JP2009038712A (ja) * 2007-08-03 2009-02-19 Nikon Corp カラー撮像装置
JP2009188872A (ja) * 2008-02-08 2009-08-20 Canvas Mapple Co Ltd 映像補正装置、映像補正方法、及び映像補正プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032654A (ja) * 2017-08-07 2019-02-28 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム
JP7005215B2 (ja) 2017-08-07 2022-01-21 キヤノン株式会社 画像処理装置、及び、画像処理方法、コンピュータプログラム

Also Published As

Publication number Publication date
JP5655334B2 (ja) 2015-01-21
US8548232B2 (en) 2013-10-01
US20110229022A1 (en) 2011-09-22
CN102194215B (zh) 2016-07-06
CN102194215A (zh) 2011-09-21

Similar Documents

Publication Publication Date Title
JP5655334B2 (ja) 画像処理装置および方法、並びにプログラム
JP4844657B2 (ja) 画像処理装置及び方法
US10410397B2 (en) Picture presentation method and apparatus
Xiong et al. Fast panorama stitching for high-quality panoramic images on mobile phones
US20190206031A1 (en) Facial Contour Correcting Method and Device
JP5016541B2 (ja) 画像処理装置および方法並びにプログラム
US7181091B2 (en) Method, apparatus, and recording medium for correcting appreciation data
JP2020522785A (ja) カメラを用いて獲得したイメージを処理する電子装置及びその動作方法
US20080112648A1 (en) Image processor and image processing method
KR20090087670A (ko) 촬영 정보 자동 추출 시스템 및 방법
KR20160039701A (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
JP6016489B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム
US11308628B2 (en) Patch-based image matting using deep learning
JP2010072934A (ja) アルバム作成装置及びアルバム作成方法
US8565491B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2000036032A (ja) 前景画像抽出方法、画像処理装置、自動トリミング装置、記録媒体及び肖像写真装置
JP2011035636A (ja) 画像処理装置及び方法
KR20130120175A (ko) 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP4279083B2 (ja) 画像処理方法および装置、並びに画像処理プログラム
JP4141090B2 (ja) 画像認識装置、陰影除去装置、陰影除去方法及び記録媒体
JP6341540B2 (ja) 情報端末装置、方法及びプログラム
JP2019032654A (ja) 画像処理装置、及び、画像処理方法、コンピュータプログラム
US20230059407A1 (en) Image processing system, image processing method, and non-transitory computer readable medium
WO2005048133A1 (ja) 画像処理方法、画像処理システム、および画像処理プログラム
US20230410553A1 (en) Semantic-aware auto white balance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R151 Written notification of patent or utility model registration

Ref document number: 5655334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250