JP5224149B2 - 画像処理装置および方法、撮像装置、並びにプログラム - Google Patents

画像処理装置および方法、撮像装置、並びにプログラム Download PDF

Info

Publication number
JP5224149B2
JP5224149B2 JP2010527850A JP2010527850A JP5224149B2 JP 5224149 B2 JP5224149 B2 JP 5224149B2 JP 2010527850 A JP2010527850 A JP 2010527850A JP 2010527850 A JP2010527850 A JP 2010527850A JP 5224149 B2 JP5224149 B2 JP 5224149B2
Authority
JP
Japan
Prior art keywords
image
input image
area
unit
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010527850A
Other languages
English (en)
Other versions
JPWO2010027080A1 (ja
Inventor
雄介 中村
信一郎 五味
智経 増野
優 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010527850A priority Critical patent/JP5224149B2/ja
Publication of JPWO2010027080A1 publication Critical patent/JPWO2010027080A1/ja
Application granted granted Critical
Publication of JP5224149B2 publication Critical patent/JP5224149B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Description

本発明は、画像処理装置および方法、撮像装置、並びにプログラムに関し、特に、人物以外の被写体であっても、最適な構図の画像を切出すことができるようにする画像処理装置および方法、撮像装置、並びにプログラムに関する。
デジタルカメラ等の撮像装置によって被写体を撮影するとき、好ましい構図となるように撮影を行うが、撮影時に構図を適切に定めることは熟練を要するため、撮影により取得された画像が必ずしも所望の構図を有するものとはならない。このような場合、所望の構図となるように、画像に対してトリミングを行う技術がある。
例えば、人体や重要な背景を欠落させることなくトリミングすることが提案されている(例えば、特許文献1参照)。
特開2008−42800号公報
しかしながら、特許文献1の手法においては、被写体に人物が含まれることを前提としており、人物以外の被写体を含む画像に対しては、最適なトリミングを行うことができないおそれがある。
本発明は、このような状況に鑑みてなされたものであり、人物以外の被写体であっても、最適な構図の画像を切出すことができるようにするものである。
本発明の第1の側面の画像処理装置は、入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定手段と、前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定手段とを備え、前記決定手段は、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
前記画像処理装置には、前記入力画像から、前記決定手段によって決定された前記切出し領域を切出す切出し手段をさらに設けることができる。
前記決定手段には、前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域の、複数の候補を決定させ、前記入力画像上に、複数の前記切出し領域の候補を表示する表示手段と、前記表示手段によって表示された複数の前記切出し領域の候補のうちのいずれかを選択する選択手段とをさらに設け、前記切出し手段には、入力画像から、前記選択手段によって選択された前記切出し領域を切出させることができる。
前記画像処理装置には、前記入力画像において注目する前記注目領域を抽出する抽出手段と、前記入力画像の前記シーンを判別する判別手段とをさらに設けることができる。
前記画像処理装置には、前記入力画像のアスペクト比と所定の閾値とを比較することで、前記入力画像がパノラマ画像であるか否かを判定する判定手段をさらに設け、前記決定手段には、前記判定手段によって前記入力画像がパノラマ画像であると判定された場合、前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域の、複数の候補を決定させることができる。
前記画像処理装置には、前記決定手段によって決定された前記切出し領域を示す情報を、EXIF情報として前記入力画像に付加する付加手段をさらに設けることができる。
前記注目領域には、前記入力画像において注目する被写体が含まれ、前記画像処理装置には、前記被写体の向きを検出する検出手段をさらに設け、前記決定手段には、前記設定手段によって設定された前記構図パターンと、前記検出手段によって検出された前記被写体の向きとを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定させることができる。
前記注目領域には、前記入力画像において注目する被写体が含まれ、前記画像処理装置には、前記被写体の動きの方向を決定する動き方向決定手段をさらに設け、前記決定手段には、前記設定手段によって設定された前記構図パターンと、前記動き方向決定手段によって決定された前記被写体の動きの方向とを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定させることができる。
前記画像処理装置には、前記入力画像全体の動きを求める全体動き算出手段と、前記注目領域の動きを求める局所動き算出手段とをさらに設け、前記動き方向決定手段には、前記全体動き算出手段によって求められた前記入力画像全体の動きの向きと、前記局所動き算出手段によって求められた前記注目領域の動きの向きとに基づいて、前記被写体の動きの方向を決定させることができる。
本発明の第1の側面の画像処理方法は、前記入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定ステップと、前記設定ステップにおいて設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定ステップと含み、前記決定ステップは、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
本発明の第1の側面のプログラムは、前記入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定ステップと、前記設定ステップにおいて設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定ステップとを含む処理をコンピュータに実行させ、前記決定ステップは、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
本発明の第2の側面の撮像装置は、被写体を撮像する撮像手段と、前記撮像手段によって撮像された撮像画像のシーンを取得する取得手段と、前記撮像画像において注目する被写体を含む注目領域の数と、前記取得手段によって取得された前記シーンとに基づいて、前記撮像画像に対応する構図パターンを設定する設定手段と、前記設定手段によって設定された前記構図パターンを基に、前記撮像画像から前記構図パターンで切出される画像の、前記撮像画像における最適な切出し領域を決定する決定手段とを備え、前記決定手段は、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
本発明の第1の側面においては、入力画像において注目する注目領域の数と、入力画像のシーンとに基づいて、入力画像に対応する構図パターンが設定され、設定された構図パターンを基に、入力画像から構図パターンで切出される画像の、入力画像における最適な切出し領域が、入力画像において注目する注目領域を全て含む最小の矩形領域である全注目矩形領域と切出し領域との共通領域の面積、および、全注目矩形領域の中心位置と切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、入力画像の領域からはみ出した切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように決定される。
本発明の第2の側面においては、被写体が撮像され、撮像された撮像画像のシーンが取得され、撮像画像において注目する被写体を含む注目領域の数と、取得されたシーンとに基づいて、撮像画像に対応する構図パターンが設定され、設定された構図パターンを基に、撮像画像から構図パターンで切出される画像の、撮像画像における最適な切出し領域が、入力画像において注目する注目領域を全て含む最小の矩形領域である全注目矩形領域と切出し領域との共通領域の面積、および、全注目矩形領域の中心位置と切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、入力画像の領域からはみ出した切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように決定される。
本発明の第1および第2の側面によれば、人物以外の被写体であっても、最適な構図の画像を切出すことが可能となる。
本発明を適用した画像処理装置の一実施の形態の機能構成例を示すブロック図である。 注目領域抽出部の機能構成例を示すブロック図である。 図1の画像処理装置の画像切出し処理について説明するフローチャートである。 注目領域の例を示す図である。 注目領域の数と、シーンとに基づいて設定される構図パターンについて説明する図である。 構図パターン設定部によって設定される構図パターンの例について説明する図である。 切出し領域決定処理について説明するフローチャートである。 エネルギー関数Ecの係数について説明する図である。 3分割構図における注目領域について説明する図である。 9分割構図について説明する図である。 エネルギー関数Esの作成について説明する図である。 エネルギー関数Epの作成について説明する図である。 最適切出し領域の例を示す図である。 最適切出し領域の画像の例を示す図である。 画像処理装置の他の構成例を示すブロック図である。 図15の画像処理装置の画像切出し処理について説明するフローチャートである。 オブジェクトに応じた構図パターンの例について説明する図である。 画像処理装置のさらに他の構成例を示す図である。 図18の画像処理装置の画像切出し処理について説明するフローチャートである。 切出し領域候補決定処理について説明するフローチャートである。 切出し領域候補の表示例を示す図である。 確認画面の表示例を示す図である。 画像処理装置のさらに他の構成例を示すブロック図である。 図23の画像処理装置の画像切出し処理について説明するフローチャートである。 目的関数Eの係数について説明する図である。 パノラマ画像における切出し領域候補の画像の切出しを説明する図である。 画像処理装置のさらに他の構成例を示すブロック図である。 画像処理装置のさらに他の構成例を示すブロック図である。 図28の画像処理装置の画像切出し処理について説明するフローチャートである。 画像処理装置のさらに他の構成例を示すブロック図である。 図30の画像処理装置の画像切出し処理について説明するフローチャートである。 本発明を適用した撮像装置の一実施の形態の機能構成例を示すブロック図である。 図32の撮像装置の画像切出し処理について説明するフローチャートである。 画像処理装置のさらに他の構成例を示すブロック図である。 図34の画像処理装置の画像切出し処理について説明するフローチャートである。 向き検出処理について説明するフローチャートである。 図34の画像処理装置の切出し領域決定処理について説明するフローチャートである。 向き情報について説明する図である。 3分割構図について説明する図である。 向き情報について説明する図である。 画像処理装置のさらに他の構成例を示すブロック図である。 図41の画像処理装置の画像切出し処理について説明するフローチャートである。 動き方向決定処理について説明するフローチャートである。 図41の画像処理装置の切出し領域決定処理について説明するフローチャートである。 動き方向情報について説明する図である。 コンピュータのハードウェアの構成例を示すブロック図である。
以下、本発明の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第4の実施の形態
5.第5の実施の形態
6.第6の実施の形態
7.第7の実施の形態
8.第8の実施の形態
9.第9の実施の形態
10.第10の実施の形態
<1.第1の実施の形態>
[画像処理装置の構成例]
図1は、本発明を適用した画像処理装置の一実施の形態の機能構成例を示している。
図1の画像処理装置11は、例えば、デジタルカメラ等の撮像装置から入力された入力画像の注目領域とシーンとに応じた構図パターンを設定し、その構図パターンを基に、最適な切出し領域で切出した画像を、出力画像として出力する。
画像処理装置11は、注目領域抽出部31、シーン判別部32、構図パターン設定部33、構図解析部34、および画像切出し部35から構成される。
画像処理装置11に入力された入力画像は、注目領域抽出部31、シーン判別部32、および画像切出し部35に供給される。
注目領域抽出部31は、入力画像において注目する注目領域を抽出し、その注目領域を表す注目領域情報を、構図パターン設定部33に供給する。注目領域は、入力画像における被写体(物体)を含む(囲む)矩形領域であり、入力画像中の被写体の数だけ設定され、抽出される。また、注目領域情報は、例えば、矩形領域の頂点の位置等とされる。
図2は、注目領域抽出部31の機能構成例を示している。
注目領域抽出部31は、注目度算出部51、注目矩形領域決定部52、および顔矩形領域決定部53を備えている。
注目度算出部51は、入力画像の各画素について特徴量を求め、その特徴量から画素毎の注目度を算出する。ここで、特徴量とは、画像のエッジ成分の大きさ、近傍画素との色相の差、画像の所定の領域における色分布、画像全体の平均色と各画素の色相の差などである。さらに、注目度算出部51は、画素毎の注目度(特徴量)から、1枚の入力画像に対応する注目度マップを生成し、注目矩形領域決定部52に供給する。注目度算出部51によって生成される注目度マップは、いわば、1枚の入力画像において注目すべき被写体が含まれる領域を表す情報である。
また、注目度算出部51は、入力画像の各画素について求めた特徴量から、顔度(顔らしさ度)を算出し、1枚の入力画像に対応する顔度マップを生成し、顔矩形領域決定部53に供給する。注目度算出部51によって生成される顔度マップは、いわば、1枚の入力画像において注目すべき顔が含まれる領域を表す情報である。
注目矩形領域決定部52は、注目度算出部51からの注目度マップを基に、注目矩形領域を決定し、その注目矩形領域を表す注目矩形領域情報を、構図パターン設定部33に供給する。より具体的には、注目矩形領域決定部52は、注目度マップにおいて、所定の閾値より高い注目度の画素(位置)を矩形の中心とし、その周辺で、他の閾値より低い注目度の画素(位置)を矩形の端点(頂点)とすることで、注目矩形領域を決定する。
また、複数の注目矩形領域が決定された場合、矩形の中心同士が所定の距離より小さいときには、それらを併せて含む最小の矩形領域を、注目矩形領域とする。
顔矩形領域決定部53は、注目度算出部51からの顔度マップを基に、顔矩形領域を決定し、その顔矩形領域を表す顔矩形領域情報を、構図パターン設定部33に供給する。より具体的には、顔矩形領域決定部53は、顔度マップにおいて、顔の鼻の画素(位置)を矩形の中心とし、その周辺で、顔度が急激に変化する(下がる)画素(位置)を矩形の端点(頂点)とすることで、顔矩形領域を決定する。
なお、注目矩形領域決定部52によって得られる注目矩形領域情報と、顔矩形領域決定部53によって得られる顔矩形領域情報とを併せて注目領域情報という。
図1に戻り、シーン判別部32は、入力画像を周波数変換することで周波数情報を抽出し、その周波数情報を特徴量(ベクトル)として、入力画像のシーンを判別し、判別の結果得られる、シーンを表すシーン情報を構図パターン設定部33に供給する。より具体的には、シーン判別部32は、予め設定した学習用画像と、例えば、SVM(Support Vector Machines)等の機械学習とを用いてシーン判別を行う。
SVMにおいては、2クラス判別(1対1の判別)が行われ、例えば、「海岸」のクラスとそれ以外のクラス、「田園風景」のクラスとそれ以外のクラス、「空」のクラスとそれ以外のクラス、「山」のクラスとそれ以外のクラス、・・・のように判定され、それぞれのスコアが比較され、最もスコアの高いクラスが、判別結果とされる。
なお、シーン判別部32は、SVMを用いることとしたが、これに限らず、例えば、ニューラルネットワークを用いたパターン認識や、パターンマッチング等によるパターン認識を用いるようにしてもよい。
構図パターン設定部33は、注目領域抽出部31からの注目領域情報の数と、シーン判別部32からのシーン情報とに基づいて、入力画像に対応する構図パターンを設定し、構図解析部34に供給する。構図パターンは、注目領域(被写体)の数と、シーンとに対応して予め決められている。構図パターンの詳細については、図5を参照して後述することとする。
構図解析部34は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、その最適切出し領域を画像切出し部35に供給する。
構図解析部34は、構図モデル作成部34a、安全モデル作成部34b、ペナルティモデル作成部34c、目的関数作成部34d、および最適化部34eを備えている。
構図モデル作成部34aは、構図パターン設定部33からの構図パターンに基づいた切出し領域を表す構図モデルを作成する。構図モデルは、所定のエネルギー関数Ecで表される。
安全モデル作成部34bは、切出し領域が小さくなりすぎるのを防ぐための安全モデルを作成する。安全モデルは、所定のエネルギー関数Esで表される。
ペナルティモデル作成部34cは、切出し領域の入力画像からはみ出した領域の面積を評価するペナルティモデルを作成する。ペナルティモデルは、所定のエネルギー関数Epで表される。
目的関数作成部34dは、構図モデルを表すエネルギー関数Ec、安全モデルを表すエネルギー関数Es、ペナルティモデルを表すエネルギー関数Epから、目的関数Eを作成する。
最適化部34eは、目的関数Eを最小とする切出し領域を決定し、最適切出し領域として、画像切出し部35に供給する。
エネルギー関数Ec,Es,Ep、および目的関数Eの詳細については、後述することとする。
画像切出し部35は、構図解析部34からの最適切出し領域に基づいて、入力された入力画像から最適切出し領域の画像を切出し、出力する。
[画像処理装置の画像切出し処理]
次に、図3のフローチャートを参照して、図1の画像処理装置11の画像切出し処理について説明する。
ステップS11において、注目領域抽出部31は、入力画像に対応する注目度マップおよび顔度マップを生成する。より詳細には、注目度算出部51は、入力画像に対応する注目度マップを生成し、注目矩形領域決定部52に供給するとともに、入力画像に対応する顔度マップを生成し、顔矩形領域決定部53に供給する。
ステップS12において、注目領域抽出部31は、注目度マップおよび顔度マップに基づいて、入力画像において注目する注目領域を抽出し、決定する。より詳細には、注目矩形領域決定部52は、注目度算出部51からの注目度マップを基に、注目矩形領域を決定し、その注目矩形領域を表す注目矩形領域情報を、構図パターン設定部33に供給する。また、顔矩形領域決定部53は、注目度算出部51からの顔度マップを基に、顔矩形領域を決定し、その顔矩形領域を表す顔矩形領域情報を、構図パターン設定部33に供給する。
なお、ステップS12においては、注目領域として、注目矩形領域と顔矩形領域とを決定するようにしたが、顔矩形領域を、注目矩形領域としてまとめて処理するようにしてもよい。
このようにして決定される注目領域の例を図4に示す。
図4において、入力画像Pは、1羽の鳥(鶴)が空を飛んでいる画像である。図4に示されるように、ステップS12の処理によれば、1羽の鳥に注目し、その鳥を含むように、1つの注目領域Lが決定される。
図3のフローチャートに戻り、ステップS13において、シーン判別部32は、入力画像を周波数変換することで周波数情報を抽出し、その周波数情報を特徴量(ベクトル)として、入力画像のシーンを判別し、判別の結果得られる、シーンを表すシーン情報を構図パターン設定部33に供給する。
ステップS14において、構図パターン設定部33は、注目領域抽出部31からの注目領域情報の数と、シーン判別部32からのシーン情報とに基づいて、入力画像に対応する構図パターンを設定し、構図解析部34に供給する。
ここで、図5を参照して、注目領域(被写体)の数と、シーンとに基づいて設定される構図パターンについて説明する。
図5においては、注目領域(被写体)の数と、シーンである「海岸」、「田園風景」、「空」、「山」、「高速道路」、「街路」、「街中」、「高層ビル」それぞれに対応して、種々の構図パターンが決められている。
図5によれば、例えば、シーンが「海岸」である入力画像において、注目領域の数が0であるとき(すなわち、海岸の風景のみのとき)には、構図パターンとして水平線構図が設定される。注目領域の数が1であるときには、構図パターンとして3分割構図と水平線構図とが設定される。また、注目領域の数が2乃至5であるときには、構図パターンとして対比構図と水平線構図が設定され、注目領域の数が6以上であるときには、構図パターンとして対比構図と水平線構図とが設定される。
また、シーンが「田園風景」である入力画像において、注目領域の数が0であるとき(すなわち、田園風景のみのとき)には、構図パターンとして放射線構図が設定される。注目領域の数が1であるときには、構図パターンとして3分割構図と放射線構図とが設定される。また、注目領域の数が2乃至5であるときには、構図パターンとして対比構図と放射線構図が設定され、注目領域の数が6以上であるときには、構図パターンとして放射線構図とパターン構図とが設定される。
同様にして、シーンが「空」である入力画像、「山」である入力画像、「高速道路」である入力画像、・・・における注目領域の数に応じて、構図パターンが設定される。
なお、構図パターンが2つ設定されている場合、それぞれの構図を満たすような構図パターンが設定される。
また、図5で説明した、注目領域の数とシーンとに対応付けられた構図パターンは、予め設定されていてもよいし、ユーザによって適宜設定されるようにしてもよい。
ここで、図6を参照して、構図パターン設定部33によって設定される構図パターンの例について説明する。
図6の構図Aは、3分割構図を示しており、垂直線と水平線の交点に被写体を配置することで、バランスのとれた画像となる。
図6の構図Bは、対比構図を示しており、同じような被写体や似たような被写体を並べる構図である。構図Bにおいて、メインとなる被写体を大きく、他の被写体を小さくなるように配置することで、メインとなる被写体が引き立つ。
図6の構図Cは、斜線構図を示しており、リズム感を出したいときに用いられる。また、構図Cは、狭い面積を効率的に活用することができる構図である。
図6の構図Dは、放射線構図を示しており、開放感や広がりを出したいときに用いられる。被写体の例として、木の枝や、雲間からの太陽光などがある。
図6の構図Eは、水平線構図であり、左右の広がりを持たせたいときに用いられる。水平線の位置を垂直方向にずらすことで主題を変えることができる。
図6の構図Fは、垂直線構図であり、画像の垂直方向を強調したいときに用いられる。被写体の例として、木の幹や、道路などがある。
図6の構図Gは、遠近法構図であり、消失点(図中では、対角線の交点)からの広がりを出したいときに用いられる。
図6の構図Hは、パターン構図であり、同じような被写体が複数、規則的に配置され、リズム感や統一感を出したいときに用いられる。
すなわち、構図パターン設定部33は、注目領域情報の数と、シーン情報とに基づいて、図6で示される構図パターンのうちの、図5において注目領域の数とシーンとによって対応付けられている構図パターンを設定する。なお、構図パターンは、図6で示される8種類に限られるものではなく、さらに多くの種類のパターンがあってもよい。
例えば、図4で示された入力画像Pについては、注目領域の数は1であり、シーンは「空」であるので、構図パターン設定部33は、図5において対応付けられている3分割構図(構図A)を設定する。
なお、以降においては、ステップS14において、入力画像Pの構図パターンとして、3分割構図が設定されたものとして説明する。
図3のフローチャートに戻り、ステップS15において、構図解析部34は、構図パターン設定部33からの構図パターンを基に、切出し領域決定処理を実行し、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定する。
[構図解析部の切出し領域決定処理]
ここで、図7のフローチャートを参照して、図3のフローチャートのステップS15における切出し領域決定処理について説明する。
ステップS31において、構図解析部34の構図モデル作成部34aは、構図パターン設定部33からの構図パターンに基づいた切出し領域を表す構図モデルを作成する。言い換えると、構図モデル作成部34aは、構図モデルについてのエネルギー関数Ecを求める。エネルギー関数Ecは、以下の式(1)で与えられる。
Figure 0005224149
式(1)において、SVAは、注目領域の面積を表しており、GDLhn,GDLvn,GDPnは、以下の式(2)で与えられる。
Figure 0005224149
式(2)において、LDh,LDv,PDは、それぞれ、3分割構図において水平方向を3分割する線(水平3分割線)、垂直方向を3分割する線(垂直3分割線)、水平3分割線と垂直3分割線との交点(3分割線交点)を示しており、Pnは注目領域の中心位置を示している。また、dは、切出し領域の対角線の長さであり、以下の式(3)で与えられる。
Figure 0005224149
したがって、式(1)におけるGDLhn,GDLvn,GDPnのそれぞれは、注目領域の中心位置が、水平3分割線、垂直3分割線、3分割線交点のそれぞれに近づくほど大きい値となる。
また、式(1)における係数αhn,αvn,αpnは、注目領域の幅、高さをそれぞれCrop_width,Crop_heightとしたとき、以下の式(4)で与えられる注目領域のアスペクト比VA_aspect_rationに応じて、それぞれ、図8の上段図乃至下段図で示されるように変化するパラメータである。図8上段図乃至下段図において、横軸はアスペクト比VA_aspect_rationを、縦軸はそれぞれの係数αhn,αvn,αpnの値を示している。
Figure 0005224149
図8の上段図によれば、アスペクト比VA_aspect_rationが0乃至r_minのとき、係数αhnは1.0となり、アスペクト比VA_aspect_rationがr_mid1より大きいとき、係数αhnは0.0となる。また、アスペクト比VA_aspect_rationがr_min乃至r_mid1のときは、アスペクト比VA_aspect_rationの増加に応じて、係数αhnは減少する。すなわち、式(1)においては、注目領域が縦長であるときに、係数αhnが有効となる。
図8の中段図によれば、アスペクト比VA_aspect_rationが0乃至r_mid2のとき、係数αvnは0.0となり、アスペクト比VA_aspect_rationがr_maxより大きいとき、係数αvnは1.0となる。また、アスペクト比VA_aspect_rationがr_mid2乃至r_maxのときは、アスペクト比VA_aspect_rationの増加に応じて、係数αvnは増加する。すなわち、式(1)においては、注目領域が横長であるときに、係数αvnが有効となる。
図8下段図によれば、アスペクト比VA_aspect_rationが0乃至r_min、または、r_maxより大きいとき、係数αpnは0.0となり、アスペクト比VA_aspect_rationがr_mid1乃至r_mid2のとき、係数αpnは1.0となる。また、アスペクト比VA_aspect_rationがr_min乃至r_mid1のときは、アスペクト比VA_aspect_rationの増加に応じて、係数αpnは増加し、アスペクト比VA_aspect_rationがr_mid2乃至r_maxのときは、アスペクト比VA_aspect_rationの増加に応じて、係数αpnは減少する。すなわち、式(1)においては、注目領域が正方形に近い形であるときに、係数αpnが有効となる。
以上のことより、式(1)は、注目領域が、縦長であるならば水平3分割線に、横長であるならば垂直3分割線に、正方形に近い形であるならば3分割線交点に近づくほど、エネルギー関数Ecの値が大きくなることを示している。
例えば、図9の例においては、注目領域Rhは、縦長で水平3分割線に近く、注目領域Rvは、横長で垂直3分割線に近く、注目領域Rpは、正方形に近い形で3分割線交点に近いので、エネルギー関数Ecの値は大きくなる。
以上においては、構図パターンとして3分割構図を用いた場合について説明してきたが、例えば、図10に示されるように、3分割構図における1つの分割領域をさらに3分割した構図(9分割構図)を用いるようにしてもよい。9分割構図によれば、3分割構図と比較して、奥行きのある構図となることが期待される。
9分割構図についてのエネルギー関数Ecは、以下の式(5)で与えられる。
Figure 0005224149
式(5)において、GdLhn,GdLvn,GdPnは、以下の式(6)で与えられる。
Figure 0005224149
式(6)において、Ldh,Ldv,Pdは、それぞれ、9分割構図において水平方向を9分割する線(水平9分割線)、垂直方向を9分割する線(垂直9分割線)、水平9分割線と垂直9分割線との交点(9分割線交点)を示している。ただし、図10に示されるように、3分割構図における中央の分割領域内の、水平9分割線h1a,h1bと垂直9分割線v1a,v1bとの交点は含まれないものとする。
また、式(5)において、係数α3rdは、0乃至1の値をとり、式(5)における、3分割構図についてのエネルギー関数の値と、9分割構図についてのエネルギー関数の値との割合を決めるパラメータである。例えば、適用する構図パターンを9分割構図のみとする場合は、α3rd=0とすればよい。
図7のフローチャートに戻り、ステップS32において、安全モデル作成部34bは、切出し領域が小さくなりすぎるのを防ぐための安全モデルを作成する。言い換えると、安全モデル作成部34bは、安全モデルについてのエネルギー関数Esを求める。エネルギー関数Esは、以下の式(7)で与えられる。
Figure 0005224149
ここで、図11に示されるように、入力画像中の全注目領域を含む最小矩形を全注目矩形領域とし、その面積をSWVA、中心位置をPWVAとし、また、切出し領域の面積をSCrop、中心位置をPCropとする。さらに、全注目矩形領域と切出し領域との共通領域の面積をSWVA&Cropとする。
このとき、式(7)のエネルギー関数Esは、全注目矩形領域と切出し領域との共通領域の面積SWVA&Cropが大きいほど大きい値となる(式(7)の第1項)。
また、式(7)のエネルギー関数Esは、切出し領域の中心位置PCropと、全注目矩形領域の中心位置をPWVAとの距離が近いほど大きい値となる(式(7)の第2項)。
ステップS33において、ペナルティモデル作成部34cは、切出し領域の入力画像からはみ出した領域の面積を評価するペナルティモデルを作成する。言い換えると、ペナルティモデル作成部34cは、ペナルティモデルについてのエネルギー関数Epを求める。エネルギー関数Epは、以下の式(8)で与えられる。
Figure 0005224149
ここで、図12に示されるように、切出し領域の面積をSCropとし、入力画像領域からはみ出した切出し領域の面積をSOverとする。
このとき、式(8)のエネルギー関数Epは、入力画像領域からはみ出した切出し領域の面積SOverが大きいほど大きい値となる。なお、演算量を削減するために、切出し領域が入力画像領域からはみ出したときは常に、エネルギー関数Ep=1としてもよい。
ステップS34において、目的関数作成部34dは、エネルギー関数Ec,Es,Epから、以下の式(9)で与えられる目的関数Eを作成する。
Figure 0005224149
式(9)において、係数CC,CS,CPは、それぞれ、エネルギー関数Ec,Es,Epについての調整係数である。式(9)によれば、目的関数Eは、その値が小さいほど、得られる切出し領域が最適な切出し領域に近づくことを示している。
ステップS35において、最適化部34eは、目的関数Eを最小とする切出し領域の位置情報を基に、最適切出し領域を決定して、画像切出し部35に供給する。より具体的には、最適化部34eは、例えば、粒子群最適化(Particle Swarm Optimization:PSO)を用いて、目的関数Eを最適化する。
粒子群最適化においては、複数の変数がランダムに変化する中で、そのうちの1つの変数が、目的となる最適な値に近づくと、これに伴い他の変数もより最適な値に近づき、これが繰り返されて、複数の変数は、それぞれ最適な値となる。
すなわち、最適化部34eは、切出し領域の切出しのスタート位置(水平方向、垂直方向)と、切出し領域の大きさ(幅、高さ)とを変数として、粒子群最適化により、目的関数Eが最小となる位置情報(切出し領域のスタート位置および大きさ)を求める。最適化部34eは、求めた位置情報を基に、最適切出し領域を決定し、処理はステップS15に戻る。
なお、切出し領域のアスペクト比を固定とした場合、最適化部34eは、切出し領域の切出しのスタート位置(水平方向、垂直方向)と、切出し領域の大きさ(幅)とを変数としてもよい。さらに、変数として、切出し領域の回転角度を加えてもよい。
このようにして決定された最適切出し領域の例を図13に示す。
図13に示されるように、入力画像Pにおいて、1羽の鳥が、3分割構図の3分割線交点の位置に配置するように、最適切出し領域Pcが決定されている。
図3のフローチャートに戻り、ステップS16において、画像切出し部35は、構図解析部34からの最適切出し領域に基づいて、入力された入力画像から最適切出し領域の画像を切出し、出力する。例えば、画像切出し部35は、構図解析部34からの最適切出し領域Pcに基づいて、図14に示されるような、3分割構図の最適切出し領域Pcの画像を切出す。
以上の処理によれば、入力画像における注目領域の数と、入力画像のシーンと対応付けられた構図パターンを基に、切出し領域を決定することができる。注目領域は、被写体が人物以外であっても決定されるので、人物以外の被写体であっても、最適な構図の画像を切出すことが可能となる。また、構図パターンは、注目領域の数とシーンに基づいて設定されるので、入力画像のカテゴリに関わらず、最適な構図の画像を切出すことが可能となる。
以上においては、構図パターンが、注目領域の数とシーンとに対応付けて予め決められている構成について説明してきたが、入力画像に対してオブジェクト認識をし、そのオブジェクトに応じた構図パターンを設定するようにしてもよい。
<2.第2の実施の形態>
[画像処理装置の構成例]
図15は、入力画像に対してオブジェクト認識をし、そのオブジェクトに応じた構図パターンを設定するようにした画像処理装置の構成例を示している。なお、図15の画像処理装置111において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図15の画像処理装置111において、図1の画像処理装置11と異なるのは、構図パターン設定部33に代えて、構図パターン設定部131を設けた点である。
なお、図15において、シーン判別部32は、入力画像のシーンを判別し、判別の結果得られる、シーンを表すシーン情報を、入力画像とともに、構図パターン設定部131に供給する。
構図パターン設定部131は、シーン判別部32からの入力画像において、オブジェクトを認識する。また、構図パターン設定部131は、シーン判別部32からのシーン情報で表されるシーンと、認識したオブジェクトとに基づいて、入力画像に対応する構図パターンを設定し、構図解析部34に供給する。構図パターン設定部131は、シーン毎に、構図内のオブジェクトの配置や割合が予め決められた構図パターンを記憶しており、シーンとオブジェクトとに応じた構図パターンを、記憶している構図パターンから選択することで、構図パターンを設定する。構図内のオブジェクトの配置や割合は、構図のバランスが良くなるように設定することができる。なお、シーン毎に構図内のオブジェクトの配置や割合が予め決められた構図パターンは、図示せぬデータベース等に記憶するようにしてもよい。
[画像処理装置の画像切出し処理]
次に、図16のフローチャートを参照して、図15の画像処理装置111の画像切出し処理について説明する。なお、図16のフローチャートにおけるステップS111乃至S113,S115,S116の処理は、図3のフローチャートを参照して説明したステップS11乃至S13,S15,S16の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS114において、構図パターン設定部131は、シーン判別部32からの入力画像において、オブジェクトを認識する。また、構図パターン設定部131は、シーン判別部32からのシーン情報で表されるシーンと、認識したオブジェクトとに基づいて、入力画像に対応する構図パターンを設定し、構図解析部34に供給する。
ここで、図17を参照して、オブジェクトに応じた構図パターンの例について説明する。
図17に示される入力画像には、空、岩、草、および人が、オブジェクトとして存在している。構図パターン設定部131は、図17に示される入力画像において、これらのオブジェクトを認識すると、記憶している構図パターンの中から、構図内の空、岩、草、および人の割合がそれぞれ30%,20%,40%,10%となる構図パターンを選択する。この結果、最終的に、図17において入力画像上の枠で示された構図の画像が切出されるようになる。
以上の処理によれば、入力画像におけるオブジェクトを認識し、そのオブジェクトとシーンとに応じた構図パターンを設定することができる。構図パターンによって決まる構図内のオブジェクトの配置や割合は、構図のバランスが良くなるように設定されるので、最適な構図の画像を切出すことが可能となる。
以上においては、入力画像における切出し領域をただ1つ決定する構成について説明してきたが、入力画像における切出し領域の候補を複数決定するようにしてもよい。
<3.第3の実施の形態>
[画像処理装置の構成例]
図18は、入力画像における切出し領域の候補を複数決定するようにした画像処理装置の構成例を示している。なお、図18の画像処理装置211において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図18の画像処理装置211において、図1の画像処理装置11と異なるのは、構図解析部34に代えて、構図解析部231を設け、表示部232および操作入力部233を新たに設けた点である。
構図解析部231は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域の、複数の候補(切出し領域候補)を決定し、表示部232に供給する。また、構図解析部231は、操作入力部233からの、切出し領域候補のうちのいずれかが選択された旨の操作信号に基づいて、選択された切出し領域を画像切出し部35に供給する。
構図解析部231は、構図モデル作成部231a、安全モデル作成部231b、ペナルティモデル作成部231c、目的関数作成部231d、および最適化部231eを備えている。なお、構図モデル作成部231a乃至目的関数作成部231dは、それぞれ、図1の構図モデル作成部34a乃至目的関数作成部34dと同様の機能を備えるので、その説明は省略する。
最適化部231eは、目的関数Eの小さいほうから上位n個が得られる切出し領域を決定し、切出し領域候補として、表示部232に供給する。
表示部232は、タッチパネルとしての操作入力部233が積層されたモニタとして構成され、入力画像上に、構図解析部231からの切出し領域候補を示す枠を表示したり、ユーザに操作を指示するための操作画像を表示する。
操作入力部233は、表示部232の表示面に積層されたタッチパネルとして構成され、ユーザの操作に応じた操作信号を、構図解析部231に供給する。
[画像処理装置の画像切出し処理]
次に、図19のフローチャートを参照して、図18の画像処理装置211の画像切出し処理について説明する。なお、図16のフローチャートにおけるステップS211乃至S114の処理は、図3のフローチャートを参照して説明したステップS11乃至S14の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS215において、構図解析部231は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域の、複数の候補を決定する、切出し領域候補決定処理を行う。
[構図解析部の切出し領域候補決定処理]
ここで、図20のフローチャートを参照して、図19のフローチャートのステップS215における切出し領域候補決定処理について説明する。なお、図20のフローチャートにおけるステップS231乃至S234の処理は、図7のフローチャートを参照して説明したステップS31乃至S34の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS235において、最適化部231eは、目的関数Eの小さいほうから上位n個が得られる切出し領域を決定し、切出し領域候補として、表示部232に供給する。
より具体的には、例えば、最適化部231eは、粒子群最適化(PSO)を用いて目的関数Eの最適化を行った際に、ローカルミニマムの値とそのときの位置情報とを保持しておき、目的関数Eの値が小さい順に上位から、位置情報が大きく異なるものをnセット、表示部232に供給し、処理はステップS15に戻る。
このようにして、構図解析部231は、切出し領域候補を決定することができる。
図19のフローチャートに戻り、ステップS216において、表示部232は、入力画像上に、構図解析部231からの切出し領域候補を示す枠を、例えば、図21に示されるように表示する。
図21に示される表示部232には、2つの切出し領域候補を示す枠と、それぞれを識別する「候補1」、「候補2」の名称が表示されている。ユーザは、表示部232に積層されているタッチパネルとしての操作入力部233により、「候補1」、「候補2」で示される切出し領域候補を選択することができる。
ステップS217において、構図解析部231は、切出し領域候補のうちのいずれかが選択されたか否かを判定する。すなわち、構図解析部231は、操作入力部233から、切出し領域候補のうちのいずれかが選択された旨の操作信号が供給されたか否かを判定する。
このとき、ユーザによって、図21に示される「候補1」、「候補2」で示される切出し領域候補のうちのいずれかを選択されると、図22に示されるような、「この画角でよいですか?」「はい」「いいえ」の文言からなる確認画面が表示される。図22の表示部232において、タッチパネルとしての操作入力部233に対するユーザの操作によって、「はい」が選択されると、切出し領域候補のうちのいずれかが選択された旨の操作信号が、構図解析部231に供給される。
ステップS217において、切出し領域候補のうちのいずれも選択されていないと判定された場合、操作入力部233からの、切出し領域候補のうちのいずれかが選択された旨の操作信号が供給されるまで、処理が繰り返される。
一方、ステップS217において、切出し領域候補のうちのいずれかが選択されたと判定された場合、構図解析部231は、操作入力部233からの、切出し領域候補のうちのいずれかが選択された旨の操作信号に基づいて、選択された切出し領域を画像切出し部35に供給する。
ステップS218において、画像切出し部35は、構図解析部231からの切出し領域に基づいて、入力された入力画像から、選択された切出し領域の画像を切出し、出力する。
以上の処理によれば、最適切出し領域の候補を複数表示し、選択されるようにできるので、ユーザは、切出し領域の候補を確認して、選択することができる。したがって、ユーザの好みにあった、最適な構図の画像を切出すことが可能となる。
以上においては、入力画像のサイズについて言及してこなかったが、入力画像としてパノラマ画像を入力するようにしてもよい。
<4.第4の実施の形態>
[画像処理装置の構成例]
図23は、入力画像としてパノラマ画像を入力するようにした画像処理装置の構成例を示している。なお、図23の画像処理装置311において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図23の画像処理装置311において、図1の画像処理装置11と異なるのは、パノラマ判別部331を新たに設けた、構図解析部34に代えて、構図解析部332を設けた点である。
パノラマ判別部331は、入力画像が、パノラマ画像であるか否かを判別し、判別結果を構図解析部332に供給する。
構図解析部332は、パノラマ判別部331からの判別結果に応じて、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における切出し領域を決定し、その切出し領域を画像切出し部35に供給する。
構図解析部332は、構図モデル作成部332a、安全モデル作成部332b、ペナルティモデル作成部332c、目的関数作成部332d、および最適化部332eを備えている。なお、構図モデル作成部332a、安全モデル作成部332b、およびペナルティモデル作成部332cは、それぞれ、図1の構図モデル作成部34a、安全モデル作成部34b、およびペナルティモデル作成部34cと同様の機能を備えるので、その説明は省略する。
目的関数作成部332dは、パノラマ判別部331からの判別結果が、入力画像がパノラマ画像であることを示している場合、目的関数Eにおいて、エネルギー関数Esの項を無効にする。
最適化部332eは、パノラマ判別部331からの判別結果が、入力画像がパノラマ画像でないことを示している場合、目的関数Eを最小とする切出し領域を決定し、最適切出し領域として、画像切出し部35に供給する。また、最適化部231eは、パノラマ判別部331からの判別結果が、入力画像がパノラマ画像であることを示している場合、目的関数Eの小さいほうから上位n個が得られる切出し領域を決定し、切出し領域候補として、画像切出し部35に供給する。
[画像処理装置の画像切出し処理]
次に、図24のフローチャートを参照して、図23の画像処理装置311の画像切出し処理について説明する。なお、図24のフローチャートにおけるステップS311乃至S314の処理は、図3のフローチャートを参照して説明したステップS11乃至S14の処理と同様であるので、その説明は省略するものとする。また、図24のフローチャートにおけるステップS318,S319の処理は、図3のフローチャートを参照して説明したステップS15,S16の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS315において、パノラマ判別部331は、入力画像が、パノラマ画像であるか否かを判別する。より具体的には、パノラマ判別部331は、入力画像の幅、高さをそれぞれIn_width,In_heightとしたとき、以下の式(10)で表されるアスペクト比In_aspect_ratioと、所定の閾値In_aspect_ratio_thとを比較する。
Figure 0005224149
ステップS315において、入力画像が、パノラマ画像であると判別された場合、パノラマ判別部331は、入力画像がパノラマ画像である旨の情報とともに、アスペクト比In_aspect_ratioを構図解析部332に供給し、処理は、ステップS316に進む。
ステップS316において、構図解析部332は、パノラマ判別部331からの入力画像がパノラマ画像である旨の情報、および、アスペクト比In_aspect_ratioに基づいて、切出し領域候補決定処理を行う。
なお、図23の画像処理装置311による切出し領域候補決定処理については、図20のフローチャートを参照して説明した、図18の画像処理装置211の処理と略同様であるので、その説明は省略する。
ただし、画像処理装置311による切出し領域候補決定処理に対応する図20のフローチャートの処理のステップS234においては、目的関数作成部332dは、目的関数Eにおいて、エネルギー関数Esの項を無効にする。より具体的には、目的関数作成部332dは、式(9)で示された目的関数Eにおける係数CSの値を、図25に示す特性にしたがって切り替える。
図25は、入力画像のアスペクト比In_aspect_ratioと、目的関数Eにおける係数CSとの関係を示している。
図25によれば、アスペクト比In_aspect_ratioが、所定の閾値In_aspect_ratio_thより大きいとき、目的関数Eにおける係数CSの値は0.0となり、所定の閾値In_aspect_ratio_thより小さいとき、目的関数Eにおける係数CSの値は1.0となり。すなわち、入力画像がパノラマ画像であるとき、目的関数Eにおいて、切出し領域が小さくなりすぎるのを防ぐための安全モデルについてのエネルギー関数は0とされる。
これにより、切出し領域候補は、比較的小さな切出し領域として、画像切出し部35に供給される。
図24のフローチャートに戻り、ステップS317において、画像切出し部35は、構図解析部332からの切出し領域候補に基づいて、図26に示されるように、入力された入力画像(パノラマ画像)から、切出し領域候補の画像を切出し、出力する。
図26は、パノラマ画像における切出し領域候補の例を示している。図26においては、入力画像としてのパノラマ画像上に、候補1乃至3の、3つの切出し領域候補を示す枠が設定されている。
図24のフローチャートに戻り、ステップS315において、入力画像が、パノラマ画像でないと判別された場合、パノラマ判別部331は、入力画像がパノラマ画像でない旨の情報を構図解析部332に供給する。そして、処理は、ステップS318に進み、最適切出し領域が決定され、ステップS319において、入力画像から最適切出し領域の画像が切出される。
以上の処理によれば、入力画像がパノラマ画像である場合、複数の、小さな切出し領域候補を決定することができる。したがって、ユーザは、パノラマ画像から切出された、複数の構図の中から、ユーザの好みにあった、最適な構図の画像を選択することが可能となる。
以上においては、出力画像として、切出し領域画像のみを出力する構成について説明してきたが、切出し領域画像とともに、入力画像をそのまま出力するようにしてもよい。
<5.第5の実施の形態>
[画像処理装置の構成例]
図27は、切出し領域画像とともに、入力画像をそのまま出力するようにした画像処理装置の構成例を示している。なお、図27の画像処理装置411において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図27の画像処理装置411において、図1の画像処理装置11と異なるのは、切出し領域画像とともに、入力画像をそのまま出力する点である。
以上の構成によれば、切出し領域画像とともに、入力画像をそのまま出力できるので、これらを表示装置に出力した場合には、ユーザは、入力画像と切出し領域画像とを比較することが可能となる。例えば、入力画像が、ユーザが撮像装置によって撮像された画像であった場合、ユーザは、自分が撮影した画像の構図と、切出された画像の構図との違いを確認することができる。
なお、図27の画像処理装置411による切出し領域候補決定処理については、図3のフローチャートを参照して説明した、図1の画像処理装置11の処理と同様であるので、その説明は省略する。
以上においては、決定した切出し領域に基づいて、入力画像から切出し領域の画像を切出して出力する構成について説明したが、切出し領域を表す情報のみを出力するようにしてもよい。
<6.第6の実施の形態>
[画像処理装置の構成例]
図28は、切出し領域画像とともに、切出し領域を表す情報のみを出力するようにした画像処理装置の構成例を示している。なお、図28の画像処理装置511において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図28の画像処理装置511において、図1の画像処理装置11と異なるのは、画像切出し部35を削除し、入力画像をそのまま出力する点である。
なお、図28の構図解析部34は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、その最適切出し領域を表す情報を、外部の装置等に出力する。
[画像処理装置の画像切出し処理]
次に、図29のフローチャートを参照して、図28の画像処理装置511の画像切出し処理について説明する。なお、図29のフローチャートにおけるステップS511乃至S515の処理は、図3のフローチャートを参照して説明したステップS11乃至S15の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS516において、画像処理装置511は、入力画像をそのまま出力するとともに、構図解析部34は、決定した入力画像における最適切出し領域を表す情報を、外部の装置等に出力する。
以上の処理によれば、入力画像とともに、切出し領域の画像ではなく、最適切出し領域を表す情報を出力できるので、画像処理装置511内の図示せぬフレームメモリの容量を削減することができる。
以上においては、入力画像と、最適切出し領域を表す情報とを別個に出力する構成について説明してきたが、入力画像と、最適切出し領域を表す情報とを1つのデータとして出力するようにしてもよい。
<7.第7の実施の形態>
[画像処理装置の構成例]
図30は、入力画像と、最適切出し領域を表す情報とを1つのデータとして出力するようにした画像処理装置の構成例を示している。なお、図30の画像処理装置611において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図30の画像処理装置611において、図1の画像処理装置11と異なるのは、画像切出し部35に代えて、付加部631を設けた点である。
なお、図30の構図解析部34は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、その最適切出し領域を表す情報を、付加部631に供給する。
付加部631は、入力された入力画像に、構図解析部34からの最適切出し領域を表す情報を、EXIF情報として付加し、出力画像として出力する。
[画像処理装置の画像切出し処理]
次に、図31のフローチャートを参照して、図30の画像処理装置611の画像切出し処理について説明する。なお、図31のフローチャートにおけるステップS611乃至S615の処理は、図3のフローチャートを参照して説明したステップS11乃至S15の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS616において、付加部631は、入力された入力画像に、構図解析部34からの最適切出し領域を表す情報を、EXIF情報として付加し、出力画像として出力する。
以上の処理によれば、入力画像に、最適切出し領域を表す情報をEXIF情報として付加して出力できるので、切出し領域の画像を生成することなく、画像処理装置611内の図示せぬフレームメモリの容量を削減することができる。
以上においては、撮像装置等で撮像された画像を入力画像として、切出し領域の画像を出力する画像処理装置について説明してきたが、撮像した撮像画像について、切出し領域を決定する構成を撮像装置に設けるようにしてもよい。
<8.第8の実施の形態>
[撮像装置の構成例]
図32は、撮像した撮像画像について、切出し領域を決定するようにした撮像装置の構成例を示している。なお、図32の撮像装置711において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図32の撮像装置711において、図1の画像処理装置11と異なるのは、撮像部731、画像処理部732、および表示部733を新たに設けた点である。
なお、図32の構図解析部34は、構図パターン設定部33からの構図パターンを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、その最適切出し領域を、画像切出し部35および表示部733に供給する。
撮像部731は、光学レンズ、撮像素子、A/D(Analog/Digital)変換部(いずれも図示せず)を含むように構成される。撮像部731は、光学レンズに入射された光を、撮像素子が受光して光電変換することにより被写体を撮像し、得られたアナログの画像信号をA/D変換する。撮像部731は、A/D変換の結果得られたデジタルの画像データ(撮像画像)を画像処理部732に供給する。
画像処理部732は、撮像部731からの撮像画像に対し、ノイズ除去処理等の画像処理を施し、注目領域抽出部31、シーン判別部32、画像切出し部35、および表示部733に供給する。
表示部733は、画像処理部732からの撮像画像上に、構図解析部34からの最適切出し領域を示す枠を表示したり、画像切出し部35によって切出された最適切出し領域の画像を表示する。
[撮像装置の画像切出し処理]
次に、図33のフローチャートを参照して、図32の撮像装置711の画像切出し処理について説明する。なお、図33のフローチャートにおけるステップS713乃至S717の処理は、図3のフローチャートを参照して説明したステップS11乃至S15の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS711において、撮像部731は、被写体を撮像し、得られた撮像画像を画像処理部732に供給する。
ステップS712において、画像処理部732は、撮像部731からの撮像画像に対し、ノイズ除去処理等の画像処理を施し、注目領域抽出部31、シーン判別部32、画像切出し部35、および表示部733に供給する。
ステップS718において、表示部733は、画像処理部732からの撮像画像上に、構図解析部34からの最適切出し領域を示す枠を表示する。このとき、例えば、ユーザによって図示せぬ操作入力部が操作され、最適切出し領域の画像を切出す指示を表す操作信号が、画像切出し部35に供給されると、処理は、ステップS719に進む。
ステップS719において、画像切出し部35は、構図解析部34からの最適切出し領域に基づいて、画像処理部732からの撮像画像から最適切出し領域の画像を切出す。
ステップS720において、表示部733は、画像切出し部35によって切出された最適切出し領域の画像を表示する。
以上の処理によれば、撮像画像における注目領域の数と、撮像画像のシーンと対応付けられた構図パターンを基に、切出し領域を決定することができる。注目領域は、被写体が人物以外であっても決定されるので、人物以外の被写体であっても、最適な構図の画像を切出すことが可能となる。また、構図パターンは、注目領域の数とシーンに基づいて設定されるので、撮像画像のカテゴリに関わらず、最適な構図の画像を切出すことが可能となる。
以上においては、注目領域に含まれる被写体がどの方向を向いているかにかかわらず、最適切り出し領域を決定する構成について説明してきたが、被写体の向きに応じて最適切り出し領域を決定するようにしてもよい。
<9.第9の実施の形態>
[画像処理装置の構成例]
図34は、被写体の向きに応じて最適切り出し領域を決定するようにした画像処理装置の構成例を示している。なお、図34の画像処理装置811において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図34の画像処理装置811において、図1の画像処理装置11と異なるのは、向き検出部831を新たに設け、構図解析部34に代えて、構図解析部832を設けた点である。
なお、図34において、注目領域抽出部31は、入力画像において注目する注目領域を抽出し、その注目領域を表す注目領域情報を、構図パターン設定部33および向き検出部831に供給する。また、シーン判別部32は、入力画像のシーンを判別し、判別の結果得られる、シーンを表すシーン情報を、入力画像とともに、構図パターン設定部131に供給するとともに、そのシーン情報を向き検出部831に供給する。
向き検出部831は、入力画像において、注目領域抽出部31からの注目領域情報で表わされる注目領域に含まれる被写体の向きを検出し、その向きを表す向き情報を、構図解析部832に供給する。
構図解析部832は、構図パターン設定部33からの構図パターンと、向き検出部831からの向き情報とを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、画像切出し部35に供給する。
構図解析部832は、構図モデル作成部832a、安全モデル作成部832b、ペナルティモデル作成部832c、目的関数作成部832d、および最適化部832eを備えている。なお、構図モデル作成部832a乃至目的関数作成部832dは、それぞれ、図1の構図モデル作成部34a乃至目的関数作成部34dと同様の機能を備えるので、その説明は省略する。
最適化部832eは、向き検出部831からの向き情報に基づいて、目的関数Eを最小とする切出し領域を決定し、最適切出し領域として、画像切出し部35に供給する。
[画像処理装置の画像切出し処理]
次に、図35のフローチャートを参照して、図34の画像処理装置811の画像切出し処理について説明する。なお、図35のフローチャートにおけるステップS811乃至S814,S817の処理は、図3のフローチャートを参照して説明したステップS11乃至S14,S16の処理と同様であるので、その説明は省略するものとする。また、図35のフローチャートで説明する画像切出し処理においては、被写体の数、すなわち、注目領域の数は1であるものとする。
すなわち、ステップS815において、向き検出部831は、向き検出処理を実行して、入力画像において、注目領域抽出部31からの注目領域情報で表わされる注目領域に含まれる被写体の向きを検出する。
[向き検出部の向き検出処理]
ここで、図36のフローチャートを参照して、図35のフローチャートのステップS815における向き検出処理について説明する。
ステップS821において、向き検出部831は、注目領域抽出部31からの注目領域情報で表わされる注目領域が、顔矩形領域であるか否かを判定する。
ステップS821において、注目領域が顔矩形領域であると判定された場合、すなわち、注目領域抽出部31からの注目領域情報が顔矩形領域情報であった場合、処理はステップS822に進む。
ステップS822において、向き検出部831は、入力画像において、顔矩形領域情報で表わされる顔矩形領域に含まれる顔の向きを検出し、その向きを表す向き情報を、構図解析部832に供給する。
より具体的には、例えば、向き検出部831は、様々な向きを向いた顔画像を学習サンプルとして予め学習することで形成されたツリー構造において、顔矩形領域に含まれる顔の画像について、ツリー構造の最も上流のノードから末端のノードに向かって判別を繰り返すことによって、顔の向きを識別(検出)する。例えば、向き検出部831は、正面、上、下、左、右、右上、右下、左上、および左下の9方向を向いた顔画像を予め学習しており、顔矩形領域に含まれる顔の向きをその9方向の中から選択する。
なお、向き検出部831は、上述した手法に限らず、他の手法によって、顔の向きを検出するようにしてももちろんよい。
一方、ステップS821において、注目領域が顔矩形領域でないと判定された場合、すなわち、注目領域抽出部31からの注目領域情報が注目矩形領域情報であった場合、処理はステップS823に進む。
ステップS823において、向き検出部831は、シーン判別部32からのシーン情報に基づいて、入力画像において、注目矩形領域情報で表わされる注目矩形領域に含まれる被写体の向きを検出し、その向きを表す向き情報を、構図解析部832に供給する。
より具体的には、向き検出部831は、シーン毎に、そのシーンに存在し得る物体が、正面、上、下、左、右、右上、右下、左上、左下の9方向を向いた画像からなるテンプレートを記憶しており、シーン判別部32からのシーン情報で表わされるシーンに応じたテンプレートの中から、注目矩形領域に含まれる被写体に対応する物体のテンプレートを検索し、検索されたテンプレートに基づいてテンプレートマッチングを行うことで、注目矩形領域に含まれる被写体の向きを特定(検出)する。
例えば、シーン判別部32からのシーン情報で表わされるシーンが「草原」であり、注目矩形領域に含まれる被写体が「花」であった場合、向き検出部831は、「草原」のテンプレートから「花」のテンプレートを検索し、そのテンプレートに基づいてテンプレートマッチングを行うことで、被写体としての「花」の向きを特定する。
なお、向き検出部831は、上述した手法に限らず、他の手法によって、被写体の向きを検出するようにしてももちろんよい。
また、以上においては、向き検出部831が、シーン情報に応じたテンプレートから、被写体に対応する物体のテンプレートを用いて、被写体とその向きを識別するようにしたが、例えば、向き検出部831は、特徴量を基に統計学習処理を実行して生成した、対象物体を認識する認識器を用いて、入力画像における特徴量に基づいて、入力画像中に対象物体が存在するか否かを判定することで、被写体とその向きを識別するようにしてもよい。
以上のようにして、向き検出部831は、入力画像における注目領域に含まれる被写体の向きを検出する。
図35のフローチャートに戻り、ステップS816において、構図解析部832は、構図パターン設定部33からの構図パターンと、向き検出部831からの向き情報とを基に、切出し領域決定処理を実行し、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定する。
[構図解析部の切出し領域決定処理]
ここで、図37のフローチャートを参照して、図35のフローチャートのステップS816における切出し領域決定処理について説明する。
なお、図37のフローチャートにおけるステップS831乃至S834の処理は、図7のフローチャートを参照して説明したステップS31乃至S34の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS835において、最適化部832eは、目的関数Eを最小とする切出し領域の位置情報と、向き検出部831からの向き情報を基に、最適切出し領域を決定して、画像切出し部35に供給する。
注目領域に含まれる被写体が顔であった場合、例えば、図38に示される向き情報D10乃至D18のいずれかが、向き検出部831から最適化部832eに供給される。図38には、図中向かって、正面、上、右上、右、右下、下、左下、左、左上をそれぞれ向いている顔D10乃至D18が示されており、それぞれがその向いている向きを表す向き情報に対応している。すなわち、向き情報D10は、入力画像において、顔が正面を向いていることを表しており、向き情報D11は、顔が上を向いていることを表しており、向き情報D12は、顔が右上を向いていることを表している。同様に、向き情報D13は、顔が右を向いていることを表しており、向き情報D14は、顔が右下を向いていることを表している。また、向き情報D15は、顔が下を向いていることを表しており、向き情報D16は、顔が左下を向いていることを表しており、向き情報D17は、顔が左を向いていることを表しており、向き情報D18は、顔が左上を向いていることを表している。
ここで、構図パターンとして3分割構図が設定されているとすると、最適化部832eは、向き情報D10乃至D18に応じて、3分割構図における被写体(顔)の配置を決定するとともに、目的関数Eを最小とする切出し領域の位置情報を求め、その位置情報を基に、最適切出し領域を決定する。
より具体的には、例えば、向き情報が向き情報D13,D14のいずれかである場合、すなわち、顔が右または右下を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点Pとする。また、向き情報が向き情報D16,D17のいずれかである場合、すなわち、顔が左下または左を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点Pとする。さらに、向き情報が向き情報D12である場合、すなわち、顔が右上を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点Pとする。また、向き情報が向き情報D18である場合、すなわち、顔が左上を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点Pとする。
なお、向き情報が向き情報D10,D15のいずれかである場合、すなわち、顔が正面または下を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点P,Pのいずれかとする。また、向き情報が向き情報D11である場合、すなわち、顔が上を向いている場合、最適化部832eは、図39で示される3分割構図における顔の配置を、3分割線交点P,Pのいずれかとする。このように、向き情報に対して顔の配置が2以上選ばれる場合、目的関数Eがより小さくなる配置に決定される。
ここで、図39における3分割線交点P乃至Pにおいて、下側の3分割線交点P,Pに顔が配置される条件としての向き情報が少ないのは、被写体が人全体である場合に、顔は、構図の上の方に位置することが自然であることによるが、向き情報と3分割線交点との対応関係は任意に変更されるようにできる。
以上のように、最適化部832eは、顔の向きに応じて、3分割構図における顔の配置を決定する。特に、最適化部832eは、3分割構図において、顔の向いている側の空間が広くなるように顔の配置を決定する。これにより、被写体としての人の顔(視線)の先にある物体や風景を切出し領域に含めることができるので、より広がりのある、最適な構図の画像を切出すことが可能となる。
また、注目領域に含まれる被写体が花であった場合、例えば、図40に示される向き情報D20乃至D28のいずれかが、向き検出部831から最適化部832eに供給される。図40には、図中向かって、正面、上、右上、右、右下、下、左下、左、左上をそれぞれ向いている花D20乃至D28が示されており、それぞれがその向いている向きを表す向き情報に対応している。すなわち、向き情報D20は、入力画像において、花が正面を向いていることを表しており、向き情報D21は、花が上を向いていることを表しており、向き情報D22は、花が右上を向いていることを表している。同様に、向き情報D23は、花が右を向いていることを表しており、向き情報D24は、花が右下を向いていることを表している。また、向き情報D25は、花が下を向いていることを表しており、向き情報D26は、花が左下を向いていることを表しており、向き情報D27は、花が左を向いていることを表しており、向き情報D28は、花が左上を向いていることを表している。
そして、構図パターンとして3分割構図が設定されている場合、最適化部832eは、向き情報D20乃至D28に応じて、3分割構図における被写体(花)の配置を決定するとともに、目的関数Eを最小とする切出し領域の位置情報を求め、その位置情報を基に、最適切出し領域を決定する。
より具体的には、例えば、向き情報が向き情報D24である場合、すなわち、花が右下を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点Pとする。また、向き情報が向き情報D26である場合、すなわち、花が見左下を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点Pとする。さらに、向き情報が向き情報D22,D23のいずれかである場合、すなわち、花が右上または右を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点Pとする。また、向き情報が向き情報D27,D28のいずれかである場合、すなわち、花が左または左上を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点Pとする。
なお、向き情報が向き情報D25である場合、すなわち、花が下を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点P,Pのいずれかとする。また、向き情報が向き情報D20,D21のいずれかである場合、すなわち、花が正面または上を向いている場合、最適化部832eは、図39で示される3分割構図における花の配置を、3分割線交点P,Pのいずれかとする。このように、向き情報に対して花の配置が2以上選ばれる場合、目的関数Eがより小さくなる配置に決定される。
ここで、図39における3分割線交点P乃至Pにおいて、上側の3分割線交点P,Pに花が配置される条件としての向き情報が少ないのは、花は、構図の下の方に位置することが自然であることによるが、向き情報と配置される3分割線交点との対応関係は任意に変更されるようにできる。
以上のように、最適化部832eは、花の向きに応じて、3分割構図における花の配置を決定する。特に、最適化部832eは、3分割構図において、花の向いている側の空間が広くなるように花の配置を決定する。これにより、被写体としての花の先にある物体や風景を切出し領域に含めることができるので、より広がりのある、最適な構図の画像を切出すことが可能となる。
以上においては、被写体の向きに応じて最適切り出し領域を決定する構成について説明してきたが、被写体の動きに応じて最適切り出し領域を決定するようにしてもよい。
<10.第10の実施の形態>
[画像処理装置の構成例]
図41は、被写体の動きに応じて最適切り出し領域を決定するようにした画像処理装置の構成例を示している。なお、図41の画像処理装置861において、図1の画像処理装置11に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図41の画像処理装置861において、図1の画像処理装置11と異なるのは、フレームバッファ881、GMV(Global Motion Vector)算出部882、LMV(Local Motion Vector)算出部883、および動き方向決定部884を新たに設け、構図解析部34に代えて、構図解析部885を設けた点である。
なお、図41において、注目領域抽出部31は、入力画像において注目する注目領域を抽出し、その注目領域を表す注目領域情報を、構図パターン設定部33およびLMV算出部883に供給する。
フレームバッファ881は、入力画像を1フレーム分保持し、GMV算出部882およびLMV算出部883に供給する。
GMV算出部882は、入力画像と、フレームバッファ881からの1フレーム前の入力画像(以下、前フレーム入力画像という)とから、画像全体の動きを表すGMVを算出し、動き方向決定部884に供給する。
LMV算出部883は、入力画像と、フレームバッファ881からの前フレーム入力画像とから、注目領域抽出部31からの注目領域情報で表わされる注目領域における局所的な動きを表すLMVを算出し、動き方向決定部884に供給する。
動き方向決定部884は、GMV算出部882からのGMV、および、LMV算出部883からのLMVに基づいて、注目領域に含まれる被写体の動きの方向(動き方向)を決定し、その動き方向を表す動き方向情報を、構図解析部885に供給する。
構図解析部885は、構図パターン設定部33からの構図パターンと、動き方向決定部884からの動き方向情報とを基に、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定し、画像切出し部35に供給する。
構図解析部885は、構図モデル作成部885a、安全モデル作成部885b、ペナルティモデル作成部885c、目的関数作成部885d、および最適化部885eを備えている。なお、構図モデル作成部885a乃至目的関数作成部885dは、それぞれ、図1の構図モデル作成部34a乃至目的関数作成部34dと同様の機能を備えるので、その説明は省略する。
最適化部885eは、動き方向決定部884からの動き方向情報に基づいて、目的関数Eを最小とする切出し領域を決定し、最適切出し領域として、画像切出し部35に供給する。
[画像処理装置の画像切出し処理]
次に、図42のフローチャートを参照して、図41の画像処理装置861の画像切出し処理について説明する。なお、図42のフローチャートにおけるステップS861乃至S864,S867の処理は、図3のフローチャートを参照して説明したステップS11乃至S14,S16の処理と同様であるので、その説明は省略するものとする。また、図42のフローチャートで説明する画像切出し処理においては、被写体の数、すなわち、注目領域の数は1であるものとする。
すなわち、ステップS865において、動き方向決定部884は、動き方向決定処理を実行して、入力画像において、注目領域抽出部31からの注目領域情報で表わされる注目領域に含まれる被写体の動き方向を決定する。
[動き方向決定部の動き方向決定処理]
ここで、図43のフローチャートを参照して、図42のフローチャートのステップS865における動き方向決定処理について説明する。
ステップS871において、GMV算出部882は、入力画像と、フレームバッファ881からの前フレーム入力画像とからGMVを算出し、動き方向決定部884に供給する。
ステップS872において、LMV算出部883は、入力画像と、フレームバッファ881からの前フレーム入力画像とから、注目領域抽出部31からの注目領域情報で表わされる注目領域のLMVを算出し、動き方向決定部884に供給する。
ステップS873において、動き方向決定部884は、LMVが0または略0であるか否かを判定する。
ステップS873において、LMVが0または略0でないと判定された場合、すなわち、注目領域に含まれる被写体に十分な動きがある場合、処理はステップS874に進み、動き方向決定部884は、LMVの向きを動き方向とし、その動き方向を表す動き方向情報を構図解析部885に供給する。
一方、ステップS873において、LMVが0または略0であると判定された場合、すなわち、注目領域に含まれる被写体に全くまたは略動きがない場合、処理はステップS875に進み、動き方向決定部884は、GMVが0または略0であるか否かを判定する。
ステップS875において、GMVが0または略0でないと判定された場合、すなわち、画像全体に十分な動きがある場合、処理はステップS876に進み、動き方向決定部884は、GMVの向きと反対の向きを被写体の動き方向とし、その動き方向を表す動き方向情報を構図解析部885に供給する。
ステップS875における状態は、入力画像全体に動きがあるが、注目領域に含まれる被写体に動きがない状態、例えば、背景が動いていて、被写体が静止しているような状態であるが、この場合、被写体は背景に対して相対的に、背景の動きの向きとは反対の向きに動いていることになる。すなわち、GMVの向きと反対の向きは、相対的に、被写体の動き方向となる。
一方、ステップS875において、GMVが0または略0であると判定された場合、すなわち、画像全体に全くまたは略動きがないとされる場合、処理はステップS877に進み、動き方向決定部884は、動き方向なしとして、動き方向なしを表す動き方向情報を構図解析部885に供給する。
以上のようにして、動き方向決定部884は、入力画像における注目領域に含まれる被写体の動き方向を決定する。なお、以上の処理においては、動き方向決定部884は、動き方向を、例えば、なし、上、下、左、右、右上、右下、左上、および左下の9種類のうちのいずれかに決定する。
図42のフローチャートに戻り、ステップS866において、構図解析部885は、構図パターン設定部33からの構図パターンと、動き方向決定部884からの動き方向情報とを基に、切出し領域決定処理を実行し、その構図パターンで切出される画像の、入力画像における最適な切出し領域を決定する。
[構図解析部の切出し領域決定処理]
ここで、図44のフローチャートを参照して、図42のフローチャートのステップS866における切出し領域決定処理について説明する。
なお、図44のフローチャートにおけるステップS881乃至S884の処理は、図7のフローチャートを参照して説明したステップS31乃至S34の処理と同様であるので、その説明は省略するものとする。
すなわち、ステップS885において、最適化部885eは、目的関数Eを最小とする切出し領域の位置情報と、動き方向決定部884からの動き方向情報を基に、最適切出し領域を決定して、画像切出し部35に供給する。
より具体的には、例えば、図45に示される動き方向情報D30乃至D38が、動き方向決定部884から最適化部885eに供給される。図45には、上、右上、右、右下、下、左下、左、左上への動きを表す矢印が示されており、その始点を含めたそれぞれが、動き方向情報D30乃至D38に対応している。すなわち、動き方向情報D30は、入力画像において、被写体の動き方向がないことを表しており、動き方向情報D31は、動き方向が上であることを表しており、動き方向情報D32は、動き方向が右上であることを表している。同様に、動き方向情報D33は、動き方向が右であることを表しており、動き方向情報D34は、動き方向が右下であることを表している。また、動き方向情報D35は、動き方向が下であることを表しており、向き情報D36は、動き方向が左下であることを表しており、動き方向情報D37は、動き方向が左であることを表しており、動き方向情報D38は、動き方向が左上であることを表している。
ここで、構図パターンとして3分割構図(図39)が設定されているとすると、最適化部885eは、動き方向情報D30乃至D38に応じて、3分割構図における被写体の配置を決定するとともに、目的関数Eを最小とする切出し領域の位置情報を求め、その位置情報を基に、最適切出し領域を決定する。
より具体的には、例えば、動き方向情報が動き方向情報D34である場合、すなわち、被写体の動き方向が右下である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点Pとする。また、動き方向情報が動き方向情報D36である場合、すなわち、被写体の動き方向が左下である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点Pとする。さらに、動き方向情報が動き方向情報D32のいずれかある場合、すなわち、被写体の動き方向が右上である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点Pとする。また、動き方向情報が動き方向情報D38である場合、すなわち、被写体の動き方向が左上である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点Pとする。
なお、動き方向情報が動き方向情報D31である場合、すなわち、被写体の動き方向が上である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点P,Pのいずれかとする。また、動き方向情報が動き方向情報D33である場合、すなわち、被写体の動き方向が右である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点P,Pのいずれかとする。さらに、動き方向情報が動き方向情報D35である場合、すなわち、被写体の動き方向が下である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点P,Pのいずれかとする。また、動き方向情報が動き方向情報D37である場合、すなわち、被写体の動き方向が左である場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点P,Pのいずれかとする。
また、動き方向情報が動き方向情報D30である場合、すなわち、被写体の動き方向がない場合、最適化部885eは、図39で示される3分割構図における被写体の配置を、3分割線交点P乃至Pのいずれかとする。すなわち、被写体に動きがない場合は、3分割構図における被写体の配置は、3分割線交点のいずれでもよい。
このように、動き方向情報に対して被写体の配置が2以上選ばれる場合、目的関数Eがより小さくなる配置に決定される。
以上のように、最適化部885eは、被写体の動き方向に応じて、3分割構図における被写体の配置を決定する。特に、最適化部885eは、3分割構図において、被写体の動く方向の空間が広くなるように被写体の配置を決定する。これにより、被写体の移動する先にある物体や風景を切出し領域に含めることができるので、より広がりのある、最適な構図の画像を切出すことが可能となる。
なお、以上においては、3分割構図(図39)における被写体の配置について説明してきたが、3分割構図に限らず、図6で示された対比構図(構図B)やパターン構図(構図H)等の他の構図において、被写体の向きや動きに応じて被写体を配置するようにしてもよい。
また、以上においては、被写体の数、すなわち、注目領域の数は1であるものとして説明してきたが、被写体の数が2以上である場合であっても、2以上の被写体は、それぞれの向きや動き方向に応じて配置される。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図46は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 画像処理装置, 31 注目領域抽出部, 32 シーン判別部, 33 構図パターン設定部, 34 構図解析部, 34a 構図モデル作成部, 34b 安全モデル作成部, 34c ペナルティモデル作成部, 34d 目的関数作成部, 34e 最適化部, 35 画像切出し部, 51 注目度算出部, 52 注目矩形領域決定部, 53 顔矩形領域決定部, 111 画像処理装置, 131 構図パターン設定部, 211 画像処理装置, 231 構図解析部, 231a 構図モデル作成部, 231b 安全モデル作成部, 231c ペナルティモデル作成部, 231d 目的関数作成部, 231e 最適化部, 232 表示部, 233 操作入力部, 311 画像処理装置, 331 パノラマ判別部, 332 構図解析部, 332a 構図モデル作成部, 332b 安全モデル作成部, 332c ペナルティモデル作成部, 332d 目的関数作成部, 332e 最適化部, 631 付加部, 711 撮像装置, 811 画像処理装置, 831 向き検出部, 832 構図解析部, 832e 最適化部, 861 画像処理装置, 881 フレームバッファ, 882 GMV算出部, 883 LMV算出部, 884 動き方向決定部, 885 構図解析部, 885e 最適化部

Claims (12)

  1. 入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定手段と、
    前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定手段と
    を備え
    前記決定手段は、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
    画像処理装置。
  2. 前記入力画像から、前記決定手段によって決定された前記切出し領域を切出す切出し手段をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域の、複数の候補を決定し、
    前記入力画像上に、複数の前記切出し領域の候補を表示する表示手段と、
    前記表示手段によって表示された複数の前記切出し領域の候補のうちのいずれかを選択する選択手段と
    をさらに備え、
    前記切出し手段は、入力画像から、前記選択手段によって選択された前記切出し領域を切出す
    請求項2に記載の画像処理装置。
  4. 前記入力画像において注目する前記注目領域を抽出する抽出手段と、
    前記入力画像の前記シーンを判別する判別手段と
    をさらに備える
    請求項1に記載の画像処理装置。
  5. 前記入力画像のアスペクト比と所定の閾値とを比較することで、前記入力画像がパノラマ画像であるか否かを判定する判定手段をさらに備え、
    前記決定手段は、前記判定手段によって前記入力画像がパノラマ画像であると判定された場合、前記設定手段によって設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域の、複数の候補を決定する
    請求項1に記載の画像処理装置。
  6. 前記決定手段によって決定された前記切出し領域を示す情報を、EXIF情報として前記入力画像に付加する付加手段をさらに備える
    請求項1に記載の画像処理装置。
  7. 前記注目領域には、前記入力画像において注目する被写体が含まれ、
    前記被写体の向きを検出する検出手段をさらに備え、
    前記決定手段は、前記設定手段によって設定された前記構図パターンと、前記検出手段によって検出された前記被写体の向きとを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する
    請求項1に記載の画像処理装置。
  8. 前記注目領域には、前記入力画像において注目する被写体が含まれ、
    前記被写体の動きの方向を決定する動き方向決定手段をさらに備え、
    前記決定手段は、前記設定手段によって設定された前記構図パターンと、前記動き方向決定手段によって決定された前記被写体の動きの方向とを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する
    請求項1に記載の画像処理装置。
  9. 前記入力画像全体の動きを求める全体動き算出手段と、
    前記注目領域の動きを求める局所動き算出手段と
    をさらに備え、
    前記動き方向決定手段は、前記全体動き算出手段によって求められた前記入力画像全体の動きの向きと、前記局所動き算出手段によって求められた前記注目領域の動きの向きとに基づいて、前記被写体の動きの方向を決定する
    請求項8に記載の画像処理装置。
  10. 入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定ステップと、
    前記設定ステップにおいて設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定ステップと
    み、
    前記決定ステップは、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
    画像処理方法。
  11. 前記入力画像において注目する注目領域の数と、前記入力画像のシーンとに基づいて、前記入力画像に対応する構図パターンを設定する設定ステップと、
    前記設定ステップにおいて設定された前記構図パターンを基に、前記入力画像から前記構図パターンで切出される画像の、前記入力画像における最適な切出し領域を決定する決定ステップと
    を含む処理をコンピュータに実行させ
    前記決定ステップは、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
    プログラム。
  12. 被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された撮像画像のシーンを取得する取得手段と、
    前記撮像画像において注目する被写体を含む注目領域の数と、前記取得手段によって取得された前記シーンとに基づいて、前記撮像画像に対応する構図パターンを設定する設定手段と、
    前記設定手段によって設定された前記構図パターンを基に、前記撮像画像から前記構図パターンで切出される画像の、前記撮像画像における最適な切出し領域を決定する決定手段と
    を備え
    前記決定手段は、前記入力画像において注目する前記注目領域を全て含む最小の矩形領域である全注目矩形領域と前記切出し領域との共通領域の面積、および、前記全注目矩形領域の中心位置と前記切出し領域の中心位置との距離で表される第1のエネルギー関数がより大きい値に、かつ、前記入力画像の領域からはみ出した前記切出し領域の面積で表される第2のエネルギー関数がより小さい値になるように、前記切出し領域を決定する
    撮像装置。
JP2010527850A 2008-09-08 2009-09-08 画像処理装置および方法、撮像装置、並びにプログラム Expired - Fee Related JP5224149B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010527850A JP5224149B2 (ja) 2008-09-08 2009-09-08 画像処理装置および方法、撮像装置、並びにプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008229310 2008-09-08
JP2008229310 2008-09-08
PCT/JP2009/065626 WO2010027080A1 (ja) 2008-09-08 2009-09-08 画像処理装置および方法、撮像装置、並びにプログラム
JP2010527850A JP5224149B2 (ja) 2008-09-08 2009-09-08 画像処理装置および方法、撮像装置、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2010027080A1 JPWO2010027080A1 (ja) 2012-02-02
JP5224149B2 true JP5224149B2 (ja) 2013-07-03

Family

ID=41797242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010527850A Expired - Fee Related JP5224149B2 (ja) 2008-09-08 2009-09-08 画像処理装置および方法、撮像装置、並びにプログラム

Country Status (7)

Country Link
US (2) US8538074B2 (ja)
EP (1) EP2207341B1 (ja)
JP (1) JP5224149B2 (ja)
CN (1) CN101843093A (ja)
BR (1) BRPI0905360A2 (ja)
RU (1) RU2462757C2 (ja)
WO (1) WO2010027080A1 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2207341B1 (en) * 2008-09-08 2013-11-06 Sony Corporation Image processing apparatus and method, imaging apparatus, and program
US8494259B2 (en) * 2009-12-28 2013-07-23 Teledyne Scientific & Imaging, Llc Biologically-inspired metadata extraction (BIME) of visual data using a multi-level universal scene descriptor (USD)
JP2011193125A (ja) * 2010-03-12 2011-09-29 Sony Corp 画像処理装置および方法、プログラム、並びに撮像装置
JP2012042720A (ja) * 2010-08-19 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
US8692907B2 (en) 2010-09-13 2014-04-08 Sony Corporation Image capturing apparatus and image capturing method
US9325804B2 (en) 2010-11-08 2016-04-26 Microsoft Technology Licensing, Llc Dynamic image result stitching
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP5000781B1 (ja) * 2011-11-09 2012-08-15 楽天株式会社 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
US9025873B2 (en) * 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP2013153375A (ja) * 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体
US8773543B2 (en) * 2012-01-27 2014-07-08 Nokia Corporation Method and apparatus for image data transfer in digital photographing
WO2013121471A1 (ja) * 2012-02-16 2013-08-22 パナソニック株式会社 映像生成装置
KR101952174B1 (ko) * 2012-04-26 2019-05-22 엘지전자 주식회사 영상표시기기 및 그 영상표시방법
US9595298B2 (en) 2012-07-18 2017-03-14 Microsoft Technology Licensing, Llc Transforming data to create layouts
JP6137800B2 (ja) * 2012-09-26 2017-05-31 オリンパス株式会社 画像処理装置、画像処理方法、及び、画像処理プログラム
JP5882975B2 (ja) * 2012-12-26 2016-03-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及び記録媒体
US9582610B2 (en) * 2013-03-15 2017-02-28 Microsoft Technology Licensing, Llc Visual post builder
JP2015002484A (ja) * 2013-06-17 2015-01-05 ソニー株式会社 表示制御装置、表示制御方法、プログラムおよび撮像装置
US9299004B2 (en) 2013-10-24 2016-03-29 Adobe Systems Incorporated Image foreground detection
US10019823B2 (en) * 2013-10-24 2018-07-10 Adobe Systems Incorporated Combined composition and change-based models for image cropping
US9330334B2 (en) 2013-10-24 2016-05-03 Adobe Systems Incorporated Iterative saliency map estimation
JP6381892B2 (ja) * 2013-10-28 2018-08-29 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US9195903B2 (en) * 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
FR3021768B1 (fr) * 2014-05-28 2017-12-01 Dxo Sa Procede parametrable de traitement d'un fichier representatif d'au moins une image
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
US9626768B2 (en) * 2014-09-30 2017-04-18 Microsoft Technology Licensing, Llc Optimizing a visual perspective of media
US10282069B2 (en) 2014-09-30 2019-05-07 Microsoft Technology Licensing, Llc Dynamic presentation of suggested content
US9626584B2 (en) * 2014-10-09 2017-04-18 Adobe Systems Incorporated Image cropping suggestion using multiple saliency maps
GB201501311D0 (en) 2015-01-27 2015-03-11 Apical Ltd Method, system and computer program product
CN105989572B (zh) * 2015-02-10 2020-04-24 腾讯科技(深圳)有限公司 图片处理方法及装置
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
CN105357436B (zh) * 2015-11-03 2018-07-03 广东欧珀移动通信有限公司 用于图像拍摄中的图像裁剪方法和系统
CN105323491B (zh) * 2015-11-27 2019-04-23 小米科技有限责任公司 图像拍摄方法及装置
JP2017099616A (ja) * 2015-12-01 2017-06-08 ソニー株式会社 手術用制御装置、手術用制御方法、およびプログラム、並びに手術システム
CN108496368B (zh) 2015-12-16 2020-11-24 格雷斯诺特公司 动态视频覆盖
CN105912259A (zh) * 2016-04-14 2016-08-31 深圳天珑无线科技有限公司 照片优化的方法及设备
CN106162146B (zh) * 2016-07-29 2017-12-08 暴风集团股份有限公司 自动识别并播放全景视频的方法及系统
CN109196852B (zh) * 2016-11-24 2021-02-12 华为技术有限公司 拍摄构图引导方法及装置
WO2018106213A1 (en) * 2016-12-05 2018-06-14 Google Llc Method for converting landscape video to portrait mobile layout
US10380228B2 (en) 2017-02-10 2019-08-13 Microsoft Technology Licensing, Llc Output generation based on semantic expressions
US10218901B2 (en) * 2017-04-05 2019-02-26 International Business Machines Corporation Picture composition adjustment
CN110546942B (zh) * 2017-04-14 2021-04-06 夏普株式会社 图像处理装置、终端装置以及存储介质
CN107545576A (zh) * 2017-07-31 2018-01-05 华南农业大学 基于构图规则的图像编辑方法
EP3698540A1 (en) 2017-12-05 2020-08-26 Google LLC Method for converting landscape video to portrait mobile layout using a selection interface
JP7013272B2 (ja) * 2018-02-13 2022-01-31 キヤノン株式会社 画像処理装置
CN108810418B (zh) 2018-07-16 2020-09-11 Oppo广东移动通信有限公司 图像处理方法、装置、移动终端及计算机可读存储介质
CN109246351B (zh) * 2018-07-20 2021-04-06 维沃移动通信有限公司 一种构图方法及终端设备
JP7236869B2 (ja) * 2019-01-31 2023-03-10 オリンパス株式会社 撮像装置、撮像方法及び撮像プログラム
US11176411B2 (en) 2019-02-28 2021-11-16 Stats Llc System and method for player reidentification in broadcast video
US11373407B2 (en) * 2019-10-25 2022-06-28 International Business Machines Corporation Attention generation
CN116097308A (zh) * 2020-08-21 2023-05-09 华为技术有限公司 自动摄影构图推荐
WO2023286367A1 (ja) * 2021-07-15 2023-01-19 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211315A (ja) * 1999-11-18 2001-08-03 Fuji Photo Film Co Ltd 出力画像領域調整方法
JP2004274428A (ja) * 2003-03-10 2004-09-30 Konica Minolta Holdings Inc 画像処理方法、画像処理装置、記憶媒体及びプログラム
JP2005175684A (ja) * 2003-12-09 2005-06-30 Nikon Corp デジタルカメラおよびデジタルカメラの画像取得方法
JP2006004287A (ja) * 2004-06-18 2006-01-05 Fuji Photo Film Co Ltd 画像処理方法及び装置
JP2008147997A (ja) * 2006-12-11 2008-06-26 Fujifilm Corp 撮像装置、撮像方法、監視システム、監視方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834127B1 (en) * 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
US20020063725A1 (en) * 2000-11-30 2002-05-30 Virtuallylisted Llc Method and apparatus for capturing and presenting panoramic images for websites
US7561288B2 (en) * 2002-07-05 2009-07-14 Canon Kabushiki Kaisha Recording system and controlling method therefor
JP2006121298A (ja) * 2004-10-20 2006-05-11 Canon Inc トリミングの実行方法及び装置
US7529390B2 (en) * 2005-10-03 2009-05-05 Microsoft Corporation Automatically cropping an image
JP4493631B2 (ja) 2006-08-10 2010-06-30 富士フイルム株式会社 トリミング装置および方法並びにプログラム
US8218830B2 (en) * 2007-01-29 2012-07-10 Myspace Llc Image editing system and method
JP4854539B2 (ja) * 2007-02-21 2012-01-18 キヤノン株式会社 画像処理装置、その制御方法、及びプログラム
EP2207341B1 (en) * 2008-09-08 2013-11-06 Sony Corporation Image processing apparatus and method, imaging apparatus, and program
US8406515B2 (en) * 2009-06-24 2013-03-26 Hewlett-Packard Development Company, L.P. Method for automatically cropping digital images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211315A (ja) * 1999-11-18 2001-08-03 Fuji Photo Film Co Ltd 出力画像領域調整方法
JP2004274428A (ja) * 2003-03-10 2004-09-30 Konica Minolta Holdings Inc 画像処理方法、画像処理装置、記憶媒体及びプログラム
JP2005175684A (ja) * 2003-12-09 2005-06-30 Nikon Corp デジタルカメラおよびデジタルカメラの画像取得方法
JP2006004287A (ja) * 2004-06-18 2006-01-05 Fuji Photo Film Co Ltd 画像処理方法及び装置
JP2008147997A (ja) * 2006-12-11 2008-06-26 Fujifilm Corp 撮像装置、撮像方法、監視システム、監視方法、及びプログラム

Also Published As

Publication number Publication date
EP2207341A4 (en) 2012-04-11
RU2462757C2 (ru) 2012-09-27
US8538074B2 (en) 2013-09-17
US20100290705A1 (en) 2010-11-18
CN101843093A (zh) 2010-09-22
US20160171647A9 (en) 2016-06-16
RU2010117215A (ru) 2011-11-10
EP2207341B1 (en) 2013-11-06
US20130272611A1 (en) 2013-10-17
EP2207341A1 (en) 2010-07-14
BRPI0905360A2 (pt) 2015-06-30
WO2010027080A1 (ja) 2010-03-11
JPWO2010027080A1 (ja) 2012-02-02
US9390466B2 (en) 2016-07-12

Similar Documents

Publication Publication Date Title
JP5224149B2 (ja) 画像処理装置および方法、撮像装置、並びにプログラム
JP5016541B2 (ja) 画像処理装置および方法並びにプログラム
US8908976B2 (en) Image information processing apparatus
JP4844657B2 (ja) 画像処理装置及び方法
JP5136474B2 (ja) 画像処理装置および方法、学習装置および方法、並びに、プログラム
JP5432714B2 (ja) 構図解析方法、構図解析機能を備えた画像装置、構図解析プログラム及びコンピュータ読み取り可能な記録媒体
JP3684017B2 (ja) 画像処理装置及び方法
US8565491B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
CN110909724B (zh) 一种多目标图像的缩略图生成方法
JP2010267180A (ja) 画像処理装置、電子機器、及びプログラム
CN111881849A (zh) 图像场景检测方法、装置、电子设备及存储介质
US9332196B2 (en) Image processing device, method and program
JP5016540B2 (ja) 画像処理装置および方法並びにプログラム
JP2017201818A (ja) 領域抽出装置
CN112348822A (zh) 图像处理设备和图像处理方法
CN112017120A (zh) 一种图像合成方法及装置
JP7000921B2 (ja) 撮像装置、撮像方法、及びプログラム
CN112070672B (zh) 一种图像合成方法及装置
JP5155971B2 (ja) 画像処理装置及びプログラム
JP6996347B2 (ja) 撮像装置、撮像方法、及びプログラム
WO2011086901A1 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2005071389A (ja) 画像処理装置及び方法
CN112070674A (zh) 一种图像合成方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130227

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees