JP6071714B2 - 画像処理装置、およびその制御方法 - Google Patents

画像処理装置、およびその制御方法 Download PDF

Info

Publication number
JP6071714B2
JP6071714B2 JP2013079926A JP2013079926A JP6071714B2 JP 6071714 B2 JP6071714 B2 JP 6071714B2 JP 2013079926 A JP2013079926 A JP 2013079926A JP 2013079926 A JP2013079926 A JP 2013079926A JP 6071714 B2 JP6071714 B2 JP 6071714B2
Authority
JP
Japan
Prior art keywords
image
subject
processing apparatus
focused
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013079926A
Other languages
English (en)
Other versions
JP2013232889A5 (ja
JP2013232889A (ja
Inventor
智之 清水
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013079926A priority Critical patent/JP6071714B2/ja
Publication of JP2013232889A publication Critical patent/JP2013232889A/ja
Publication of JP2013232889A5 publication Critical patent/JP2013232889A5/ja
Application granted granted Critical
Publication of JP6071714B2 publication Critical patent/JP6071714B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Description

本発明は、特に、多くの視点から撮影した画像に基づいて撮影条件を変更した画像を生成する際に用いて好適な画像処理装置、およびその制御方法に関する。
従来、被写体を多くの視点から撮影した画像に基づいて、任意のフォーカス距離、被写界深度、及び視点に調整して画像を生成する方法が知られている。
例えば、非特許文献1には、複数のカメラを2次元平面上に格子状に配置することによって、視点の異なる複数の画像(以下、このような多視点画像を画像群と表記する)を取得する技術が開示されている。この技術によれば、さらに、視点、フォーカス距離、及び開口径をパラメータとして与えることによって焦点調整を行い、これらの画像群から計算処理によって画像(以下、パラメータを与えて焦点調整を行って生成する画像を完成画像と表記する)を生成する。したがって、ユーザによるパラメータの設定の仕方によって、様々な完成画像を生成することができる。
Bennett Wilburn, Neel Joshi, Vaibhav Vaish, Eino-Ville Talvala, Emilio Antunez, Adam Barth, Andrew Adams, Marc Levoy, Mark Horowitz, "High Performance Imaging Using Large Camera Arrays", アメリカ, Proceedings of ACM SIGGRAPH 2005, 765-776頁
多視点の画像が得られ、これらの画像群を用いて完成画像を得る場合には、着目する被写体と着目しないようにする被写体とを撮影後に決めて、それに合うようにフォーカス距離や深度幅を設定して焦点調整を行う。したがって、完成画像には、従来の撮影意図に相当する情報が含まれることになるが、これまでの技術はこの情報を十分に活かすことができなかった。
本発明は、上記課題に鑑みてなされたものである。そして、本発明は、複数のページセットを含む印刷データから画像データを生成する処理が遅延したことに起因する印刷品質の低下を抑制する仕組みを提供するものである。
本明細書における発明の画像処理装置は、
多視点から撮影された複数の画像で構成される画像群を用いて撮影に係るパラメータを調整した加工画像を生成する画像生成手段と、
前記画像生成手段によって生成された加工画像の中から特定の被写体を認識する第1の画像認識手段と、
前記画像群に基づいて、当該画像群に出現する各被写体を認識する第2の画像認識手段と、
前記第1の画像認識手段による認識結果と、前記第2の画像認識手段による認識結果とを比較し、前記画像群における着目した被写体と着目しなかった被写体とを判定する判定手段と、
前記加工画像における前記判定手段による判定結果を含む属性情報を生成する属性生成手段とを有する。
本明細書によれば、ユーザの撮影意図が反映された情報を生成することができ、この情報を用いて他の加工した画像を生成したり、この情報を利用した画像の検索に用いたりすることができる。
実施形態における複数の撮像部を備えた多眼方式の撮像装置の一例を示す概略図。 実施形態における撮像装置の内部構成例を示すブロック図。 実施形態における撮像部の内部構成例を示す図。 実施形態に係る画像処理装置の回路構成例を示すブロック図。 実施形態に係る画像処理装置の機能構成例を示すブロック図。 実施形態に係る画像処理装置により完成画像の属性情報を生成する処理手順の一例を示すフローチャート。 被写体の位置とフォーカス距離との関係を説明する図。 被写体ごとの最大認識尤度の一例を示す図。 被写体の位置とフォーカス距離との関係を説明する図。 被写体ごとの認識尤度の一例を示す図。 被写体の位置とフォーカス距離との関係の他の一例を説明する図。 実施形態において生成される完成画像の属性情報の一例を示す図。
以下、本発明の実施形態について図面を参照しながら説明する。
図1は、本実施形態における、複数の撮像部を備えた多眼方式の撮像装置100の一例を示す概略図である。
図1において、撮像装置100は、カラー画像を取得する9個の撮像部101〜109及び撮影ボタン110を備えており、これらの9個の撮像部101〜109は、正方格子上に均等に配置されている。ユーザが撮影ボタン110を押下すると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号をA/D変換し、複数(9枚)のカラー画像(デジタルデータ)をそれぞれ取得する。このような多眼方式の撮像装置100により、同一の被写体を複数の視点位置から撮像した9枚のカラー画像を得ることができる。以降、この9枚の画像を画像群と呼ぶ。
なお、本実施形態では、撮像部の数を9個としたが撮像部の数は9個に限定されない。撮像装置が複数の撮像部を有する限りにおいて本発明は適用可能である。また、本実施形態では、9個の撮像部が正方格子上に均等に配置される例について説明したが、撮像部の配置は任意である。例えば、放射状や直線状に配置してもよいし、ランダムに配置してもよい。
図2は、本実施形態における撮像装置100の内部構成例を示すブロック図である。
図2において、撮像装置100における中央処理装置(CPU)201は、以下に説明する各部を統括的に制御する。RAM(Random Access Memory)202は、CPU201の主メモリ、ワークエリア等として機能するものである。ROM(Read Only Memory)203は、CPU201で実行される制御プログラム等を格納している。
バス204は、撮像装置100における各種データの転送経路となるバスである。例えば、撮像部101〜109によって取得されたデジタルデータはこのバス204を介して所定の処理部に送られる。操作部205は、撮像装置100がユーザの指示を受け取る操作部であり、各種ボタン(撮影ボタン110を含む)やモードダイヤルなどが含まれる。表示部206は、撮像装置100が撮影画像や文字を表示する表示部であり、例えば、液晶ディスプレイが用いられる。また、表示部206は、タッチスクリーン機能を有していてもよく、その場合はタッチスクリーンを用いた指示を操作部205からの入力として扱うことも可能である。表示制御部207は、表示部206に表示される撮影画像や文字の表示制御を行う。
撮像部制御部208は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。デジタル信号処理部209は、バス204を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部210は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。
外部メモリ制御部211は、外部装置やその他のメディア(例えば、ハードディスク、メモリカード、SDカード、USBメモリ)に繋ぐためのインタフェースである。画像出力部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部209から出力されるカラー画像群を、同一対象を撮影した画像群として識別可能な状態で出力する。なお、撮像装置100の構成要素は上記以外にも存在するが、それらは本件発明の主眼ではないので、説明を省略する。
図3は、撮像部101の内部構成例を示す図である。なお、撮像部102〜109についても同様の構成である。
撮像部101は、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309及びA/D変換部310で構成される。
ここで、センサ309は、例えばCMOSやCCDなどのセンサである。センサ309で被写体の光量を検知すると、検知された光量がA/D変換部310によってデジタル値に変換され、デジタルデータとなってバス204に出力される。
次に、本実施形態に係る画像処理装置の回路構成について、図4のブロック図を参照しながら説明する。本実施形態においては、画像処理装置400の構成は単一の装置で実現してもよいし、必要に応じた複数の装置に各機能を分散して実現するようにしてもよい。複数の装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続するものとする。また、本実施形態では、撮像装置100と画像処理装置400とが互いに接続されており、画像出力部212から出力された画像群がシステムバス408を介して外部記憶装置404に記憶されるものとする。
図4において、CPU401は画像処理装置400全体を制御する。ROM402は、変更を必要としないプログラムやパラメータを格納する。RAM403は、外部装置などから供給されるプログラムやデータを一時記憶する。外部記憶装置404は、画像処理装置400に固定して設置されたハードディスクドライブ(HDD)やメモリドライブ(SSD)、あるいは画像処理装置400から着脱可能な光ディスクや、メモリカードなどを含む記憶装置である。
入力インタフェース405は、ユーザの操作を受けてデータを入力するポインティングデバイスやキーボード、タッチパネルなどの入力デバイス409とのインタフェースである。出力インタフェース406は、画像処理装置400が保持するデータや供給されたデータ、プログラムの実行結果などを出力するモニタなどの出力デバイス410とのインタフェースである。ネットワークインタフェース407は、インターネットなどのネットワーク回線411に接続するためのインタフェースである。
システムバス408は、画像処理装置400における各種データの転送経路となるバスである。例えば、撮像装置100の画像出力部212により出力された画像群が、外部メモリ制御部211を経由して、画像処理装置400の外部記憶装置404へと取り込まれる際にシステムバス408を経由する。また、当該画像群を各ユニットが処理する際等に、このシステムバス408を経由する。
次に、本実施形態に係る画像処理装置400の機能構成について、図5のブロック図を参照しながら説明する。同図の各処理部は、CPU401がROM402やRAM403に格納されたプログラムを実行することで機能する処理部であるが、プログラムで実現するのではなく該当する回路で構成しても構わない。
本実施形態に係る画像処理装置400は、画像処理部503を有し、さらに、ユーザ入出力部501と、各種情報を保管するデータベース502とを有し、一般的な画像管理システムにおいて登録・保管されるような情報を利用する。
ユーザ入出力部501は、入力インタフェース405、または出力インタフェース406を経由して行われる、ユーザによる画像の登録や情報の表示といった入出力を処理する。本実施形態では、少なくとも、ユーザが完成画像(加工画像)を生成するための操作を実現するインタフェースを提供するものとする。例えば、後述する完成画像生成部504によりある初期設定のパラメータで完成画像が生成されると、ユーザ入出力部501によりそのプレビュー画像をユーザに提示する。ユーザは、そのプレビュー画像に対して視点の指示や深度調整を実施する操作を行うことができる。画像処理装置400は、このユーザによる操作を受けて、パラメータを更新して画像を再生成し、プレビューを更新する。これらの処理を繰り返すことによって、ユーザはプレビュー画像を見ながら自分がイメージする完成画像を生成させることができる。なお、ユーザから視点位置、フォーカス距離(焦点距離)、開口値といったパラメータ値を入力させて完成画像を生成してもよい。
データベース502は、少なくとも、登録された画像群及び完成画像等のデータと、各完成画像に関する属性情報とを格納している。データベース502はRAM403や外部記憶装置404に保存して管理される。また、後述する完成画像属性生成部508から出力される完成画像の属性情報についても、その完成画像と紐付けてデータベース502で管理されるものとする。
画像処理部503は、画像処理装置400において管理されている各種情報を、以下で述べる各部において処理するよう制御する。
完成画像生成部504は、画像中の視点位置、フォーカス距離、開口値といったパラメータを受け取り、処理対象の画像群を当該パラメータに沿って加工し、1枚の完成画像(合成画像)を生成する。本実施形態においては、完成画像生成部504は、前述したようなユーザによる操作に応じて完成画像を生成する。
第1の画像認識部505は、完成画像を入力して当該完成画像中に含まれる被写体等の顔検出処理し、顔尤度の情報と共に出力する。顔として検出された場合、人間の顔である尤もらしさを顔尤度として算出する。顔尤度は、個人を同定するための尤もらしさではない。本実施形態においては、さらに顔認識を利用して人物を同定するような認識処理を行う。この処理では、例えば、あらかじめ同定対象となる人物の顔特徴を学習しておき、当該顔特徴と類似した特徴を持つ画像中の部分をその人物であると同定するような方法を用いる。このため、個人を識別するため、予め複数の人物の顔の特徴データが顔識別辞書としてデータベース502に格納されているものとする。顔検出された領域に対して、その顔識別辞書を参照して人物を認識するための顔認識を行う。なお、顔尤度が低い場合はノイズ又は未知の人物となるので、あらかじめ定めておいた閾値によってフィルタリングして結果に含めないようにする。
第2の画像認識部506は、処理対象の画像群中(実施形態では9枚の画像)に含まれる各被写体を網羅的に認識する。本実施形態においては、まず、画像群に対して、予め設定しておいた任意の間隔でフォーカス距離を増加させながらパラメータを設定する。そして、設定したパラメータに従って、完成画像生成部504は、図7に示した例に従った比較用の完成画像群を生成する。第2の画像認識部506では、これらの完成画像群における顔検出・認識を行う。
被写体着目判定部507は、第2の画像認識部506で顔認識した各被写体が、ユーザの指示に従って生成した完成画像内の、該ユーザが着目するようにした被写体か否かを判定する。具体的なこの判定は、該ユーザの操作に従って生成した完成画像における顔尤度と、第2の画像認識部506の設定によって得られた最大顔尤度とを被写体毎に比較する。そして、その差が所定の閾値の範囲を超えている場合は、当該被写体は完成画像において着目しないようにした被写体であると判定する。逆に、その差が所定の閾値の範囲内、あるいは、顔尤度が上回っているような被写体については、着目している被写体とみなす。
完成画像属性生成部508は、被写体着目判定部507で判定した結果を、ユーザの操作に従って生成した完成画像の属性情報として生成する。本実施形態においては、少なくとも、完成画像中の被写体情報、及び各被写体について当該完成画像において着目しているか否かの情報を含んだ属性情報を生成する。
このように、多視点の画像が得られ、これらの画像群を用いて完成画像を得る場合には、着目する被写体と着目しないようにする被写体とを撮影後に決めて、それに合うようにフォーカス距離や深度幅を設定して焦点調整を行う。したがって、完成画像には、従来の撮影意図に相当する情報が含まれることになるが、これまでの技術はこの情報を十分に活かすことができなかった。完成画像属性生成部508は、撮影意図に相当する情報を完成画像の属性情報として生成する。
次に、本実施形態に係る画像処理装置400における処理の手順について図6のフローチャートを参照しながら説明する。
まず、S601において、完成画像生成部504は、ユーザによるユーザ入出力部501を経由した操作に従って完成画像を生成する。以下、この処理により生成した完成画像を完成画像Aと呼称する。
図9は、撮像装置100と被写体との位置関係を説明する図である。
図9において、A、B、C、Dは被写体であり、撮像装置900により多視点画像を撮影している。この場合、ユーザの操作により、例えば、フォーカス距離を被写体B、Dが存在するライン901に設定し、開口径のパラメータを調整して深度幅902が被写体B、Dを含むように指定された完成画像Aを生成する。
次に、S602において、第1の画像認識部505は、完成画像Aの被写体を検出・認識し、顔尤度を算出する。このとき、各被写体と顔尤度とを対応付けてその情報を出力する。例えば、図9に示すような設定で得られた完成画像については、例えば図10に示すような検出・認識結果が得られる。顔尤度は、顔検出の結果得られ、検出された顔の認識により個別の被写体が識別される。この例では、フォーカスが合っている被写体B、Dに加えて、被写体Aが閾値以上の尤度で検出されたため、当該被写体Aの顔尤度が出力される。一方、被写体Cは顔尤度が閾値に満たなかったため、認識結果には含まれない。
次に、S603において、第2の画像認識部506は、完成画像Aを生成する元になった画像群(9枚の画像)をデータベース502から取得する。そして、フォーカス距離のパラメータをあらかじめ定めた間隔で増加させて、完成画像生成部504は、各フォーカス距離に応じた複数の完成画像を生成する。そして、第2の画像認識部506はこの複数の完成画像に出現する被写体を検出・認識する。以下、これらの完成画像の集合を完成画像集合Bと呼称する。
また、図7(a)乃至(c)には、被写体702に沿ってフォーカス距離を徐々に増加させて完成画像を生成する場合の、範囲701内でのフォーカス距離の設定の様子を示している。このうち、図7(a)に示すフォーカス距離703では少なくとも被写体Aにピントが合った完成画像が得られる。同様に図7(b)に示すフォーカス距離703では被写体B、Dにピントが合った完成画像が得られ、図7(c)に示すフォーカス距離703では被写体Cにピントが合った完成画像が得られる。これらのフォーカス距離は、第2の画像認識部506により設定される。画像群の画像には、画素ごとにフォーカス距離が記録されているので、フォーカス距離の分布により、被写体が検出されそうなフォーカス距離が分かる。そこで、フォーカス距離の分布によりフォーカス距離の調整を行うことで効率的に被写体にピントが合った完成画像を得ることができる。
次に、S604において、第2の画像認識部506は、完成画像集合Bの各画像における被写体を検出・認識し、顔尤度の最大値(最大顔尤度)を算出する。このとき、各被写体と、それぞれの顔尤度の最大値とを対応付けてその情報を出力する。例えば、図7に示すようなパターンで得られた各完成画像に対して被写体の検出・認識を行い、あらかじめ設定されたよりも高い尤度で検出され、同定できた被写体のリストを生成する。このとき、各完成画像中で被写体が重複して認識された場合は、各被写体の最大顔尤度を記録しておく。以上より、図7(a)乃至(c)に示したような場合においては、図8に示すような、被写体とその最大顔尤度とのリストが生成される。本実施形態では、各被写体にピントが合った完成画像が得られていることから、A〜Dの全ての被写体が網羅的に認識され、かつ最大顔尤度もそれぞれ高い値となっている。
次に、S605において、被写体着目判定部507は、S602及びS604の出力結果を受け取り、被写体毎の対応付けを行う。そして、S606において、被写体着目判定部507は、S605で対応付けた結果を解析し、着目する被写体と、着目しないようにした被写体(以下、非着目被写体)とを判定する。具体的には、ある被写体について、完成画像Aの顔尤度が、完成画像集合Bの最大顔尤度と比べて、所定の減少幅の閾値分より多く下回っている場合には、検出精度が落ちるような変化が生じたとみなす。そして、当該被写体を「非着目被写体」と判定する。また、完成画像集合Bで検出・認識できる被写体が、完成画像Aの検出・認識結果としては現れないような場合についても、当該被写体は、同等の理由で「非着目被写体」と判定する。
例えば、ユーザの操作に従って生成した完成画像の検出・認識結果として図10に示したリストが得られ、全フォーカス距離の画像における検出・認識の結果として図8に示すリストが得られたものとする。この場合は、被写体Aは、全体認識における最大顔尤度と比べて、完成画像における顔尤度は低い値となっている。例えば、減少幅の閾値を0.2と設定した場合、被写体Aの顔尤度は該閾値を超えて減少していることから、着目しないようにした被写体であると判定する。また、被写体Cについては、全体認識の結果としては含まれているのに対して、完成画像の結果としては含まれない。よって、被写体Cも着目しないようにした被写体であると判定する。これに対して、被写体B、Dは、いずれも全体認識の結果として得られた最大顔尤度に対して、完成画像の顔尤度は大きな差が無い、あるいは、高い値を示していることから、着目するようにした被写体として判定する。
次に、S607において、完成画像属性生成部508は、S606で「非着目被写体」と判定した被写体が、完成画像Aにおいて着目しないようにした被写体であることを示す属性情報を生成する。このとき、完成画像属性生成部508が生成する属性情報のデータ形式は、上述した程度の構造的な情報を扱うことができる形式であることが望ましく、構造を表現できるデータ形式であれば、特に限定するものではない。本実施形態においては、構造化情報を記述可能なXML形式で属性情報を生成する。
次に、S608において、完成画像属性生成部508は、完成画像Aで認識できた被写体であってS606で「非着目被写体」としなかった被写体を、完成画像Aにおいて着目した被写体(以下、着目被写体)として、属性情報を生成する。
本実施形態では、S607及びS608により、判定結果として、例えば、図12に示すような属性情報を生成する。図12に示すように、まず画像そのものの属性として、<識別ID>や当該完成画像の生成もとになった画像群を特定するための<画像群ID>などの情報が記述される。さらに、属性情報には、<被写体>属性(<被写体>〜</被写体>の部分)が、被写体の数だけ記述される。ここでの被写体の数は、第2の画像認識部506で認識した被写体の数となり、それぞれの被写体について、着目しているか否かの情報を、上記属性部分に記述する。
また、図12に示す例においては、<is着目>属性として、それぞれ0(=着目しない)または1(=着目する)の値で表現している。例えば、<名前>がAである被写体については<is着目>属性が0であることから非着目被写体であり、<名前>がBである被写体は1であることから着目被写体である。なお、図12に示した記述例は一つの例であり、これに類する記述ができれば、属性名も記述形式もこれに限定するものではない。また、記載していない属性情報が含まれても構わないし、より詳細な属性情報として深い階層構造を形成するようにしても構わない。
以上のように本実施形態によれば、完成画像に対する認識処理だけでは得られない、完成画像におけるユーザの各被写体に対する着目・非着目を示す属性情報を生成できるようにした。このような属性情報は、多視点画像を生成する撮影行為において全体的に含まれる被写体がわかる特徴を活かし、その全体の被写体が、完成画像を生成した際にどのように変化したかを捉えることによって得られる。
このような属性情報を利用することにより、例えば、以下のような完成画像を利用することができる。例えば、孫にピントが合っていて、その背景部分をぼかした完成画像が生成されたものとする。このとき、背景部分に祖父母がいるような場合であれば、「孫に着目しており、祖父母には非着目である」という属性情報が得られる。したがって、そのような属性情報を検索キーとすることによって、孫と同席していたが、実際には孫にピントが合っているような完成画像を探すといったことが可能になる。
また、自動でスライドショーを作成する処理プログラム等により、上記のようなキーで表示する画像を選定できると、誰に見せるかといった目的に合致した画像を生成できる。例えば、閲覧する人が祖父母である場合には、孫に着目して、祖父母には非着目である画像を選定するようにする。また、父母が閲覧するのであれば、父母が非着目である画像を選定する。こういった目的に応じた画像の選定を行うことができる。
(その他の実施形態)
前述した実施形態においては、第1の画像認識部505及び第2の画像認識部506における認識処理では、顔画像により人物を同定したが、これに限らない。被写体がペットやオブジェクトである場合であっても、本発明が本質的に変わるものではなく、人物と同様に処理すればよい。例えば、旅先のランドマークとなる建造物や、著名なオブジェクト等を認識できる場合には、各被写体に着目・非着目の属性情報を付加する点について、人物と区別する必要はない。
また、人物を同定するのではなく、単純に顔を認識するようにしてもよい。この場合、被写体の領域及び人物が存在することは認識できる。例えば、第2の画像認識部506により多数の被写体を顔認識できるが、完成画像においては、顔認識できる被写体の数が少なくなる。この場合、当該完成画像に対して、「多くの被写体が存在し、それらは人でありかつ非着目である」といった属性情報を生成することになる。この属性情報から、背景に多くの人が存在し、それ以外のものに着目した画像であることがわかる。
また、前述した実施形態においては、完成画像生成部504が、同等のフォーカス距離でピントの合った完成画像を生成するようにしたが、これに限るものではない。例えば、曲面に沿った焦点調整を行うような従来技術を利用しても構わない。例えば、図11に示すように、曲面状の仮想的なピント面1101と深度幅1102とを設定して焦点調整を行った完成画像を生成してもよい。
図11に示す例では、被写体Aだけが顔尤度が低い状態になり、被写体Aだけが非着目被写体として判定され、被写体B、C、Dは着目被写体として判定される。このように、複雑な焦点調整を行う場合においても、それに合わせた着目・非着目の属性情報を生成できるようになる。
また、前述した実施形態においては、第2の画像認識部506が被写体を網羅的に認識できるものとして説明してきたが、離散的なフォーカス距離の設定であるため、フォーカス距離を設定する間隔によっては認識漏れする被写体が存在する可能性がある。その場合は、完成画像でのみその被写体が認識されるが、この場合には、その被写体を、当該被写体を着目する被写体として扱ってもよい。
また、前述した実施形態においては、第2の画像認識部506がフォーカス距離をある間隔で変動させながら全体の被写体を認識する例を述べたが、これに限るものではない。例えば、中間的な距離にフォーカス距離を設定して、深度幅を広くすることにより、パンフォーカス画像を生成し、該画像に対して認識処理を行っても構わない。
また、前述した実施形態においては、撮像装置100の画像出力部212から出力された画像群を外部記憶装置404に記憶したが、これに限るものではない。画像処理装置400で焦点調整処理が可能な画像群を入力することができればよく、そのような画像群の獲得はいかなる方法であっても構わない。例えば、複数のレンズと1つのセンサとの構成でも同等の画像群が得られることが知られているが、このようにして得られた画像群であっても構わない。
本実施形態では、撮像部101〜109で撮影される画像がすべてカラー画像であることを前提に各部の構成や処理を説明した。一方、撮像部101〜109で撮影される画像の一部或いは全部をモノクロ画像にしても構わない。その場合には、撮像装置100は、図3のカラーフィルタ308が省略された構成としてもよい。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 多視点から撮影された複数の画像で構成される画像群を用いて撮影に係るパラメータを調整した加工画像を生成する画像生成手段と、
    前記画像生成手段によって生成された加工画像の中から特定の被写体を認識する第1の画像認識手段と、
    前記画像群に基づいて、当該画像群に出現する各被写体を認識する第2の画像認識手段と、
    前記第1の画像認識手段による認識結果と、前記第2の画像認識手段による認識結果とを比較し、前記画像群における着目した被写体と着目しなかった被写体とを判定する判定手段と、
    前記加工画像における前記判定手段による判定結果を含む属性情報を生成する属性生成手段と
    を有する画像処理装置。
  2. 前記画像生成手段は、さらに前記画像群を用いて所定の間隔で焦点調整を行って、複数の比較用の加工画像を生成し、
    前記第2の画像認識手段は、前記複数の比較用の加工画像のそれぞれからすべての被写体を認識する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2の画像認識手段は、被写体ごとに前記複数の比較用の加工画像の中で最も高い尤度を算出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の画像認識手段は、被写体ごとに尤度を算出することを特徴とする請求項2に記載の画像処理装置。
  5. 画像処理装置の制御方法であって、
    画像生成手段が、多視点から撮影された複数の画像で表わされる画像群を用いて撮影に係るパラメータを調整した加工画像を生成する画像生成工程と、
    第1の画像認識手段が、前記画像生成工程において生成された加工画像の中から特定の被写体を認識する第1の画像認識工程と、
    第2の画像認識手段が、前記画像群に基づいて、当該画像群に出現する各被写体を認識する第2の画像認識工程と、
    判定手段が、前記第1の画像認識工程における認識結果と、前記第2の画像認識工程における認識結果とを比較し、前記画像群における着目した被写体と着目しなかった被写体とを判定する判定工程と、
    属性生成手段が、前記加工画像における前記判定工程の判定結果を含む属性情報を生成する属性生成工程と
    を有することを特徴とする画像処理装置の制御方法。
  6. コンピュータが読み込み実行することで、前記コンピュータに、請求項5に記載の方法の各工程を実行させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
  7. 多視点から撮影された画像群を用いて撮影に係るパラメータを調整した合成画像を生成する画像生成手段と、
    前記画像生成手段によってユーザの操作により生成された合成画像から被写体を検出し認識する画像認識手段と、
    前記画像認識手段による検出結果に基づいて、前記画像群における着目した被写体と着目しなかった被写体とを判定する判定手段と、
    前記合成画像における前記判定手段による判定結果を含む属性情報を生成する属性生成手段と
    前記画像群を用いて所定の間隔ごとに焦点調整を行って複数の比較用の合成画像を生成し、前記複数の比較用の合成画像のそれぞれから被写体を検出し認識する第2の画像認識手段を備え、
    前記判定手段は、前記画像認識手段による検出結果と、前記第2の画像認識手段による検出結果とを比較し、前記画像群における着目した被写体と着目しなかった被写体とを判定することを特徴とする画像処理装置。
  8. 前記所定の間隔は、前記画像群の焦点距離の分布により決定することを特徴とする請求項に記載の画像処理装置。
  9. 前記第2の画像認識手段は、深度幅を広くしたパンフォーカス画像を生成して被写体を検出し認識することを特徴とする請求項に記載の画像処理装置。
  10. 前記第2の画像認識手段は、被写体ごとに前記複数の比較用の合成画像の中で最も高い尤度を算出することを特徴とする請求項に記載の画像処理装置。
  11. 前記属性情報を前記合成画像または前記画像群の少なくともいずれか1つに付与することを特徴とする請求項7に記載の画像処理装置。
  12. 画像処理装置の制御方法であって、
    画像生成手段が、多視点から撮影された画像群を用いて撮影に係るパラメータを調整した合成画像を生成する画像生成工程と、
    画像認識手段が、前記画像生成工程によってユーザの操作により生成された合成画像から被写体を検出し認識する画像認識工程と、
    判定手段が、前記画像認識工程による検出結果に基づいて、前記画像群における着目した被写体と着目しなかった被写体とを判定する判定工程と、
    属性生成手段が、前記合成画像における前記判定工程による判定結果を含む属性情報を生成する属性生成工程と
    第2の画像認識手段が、前記画像群を用いて所定の間隔ごとに焦点調整を行って複数の比較用の合成画像を生成し、前記複数の比較用の合成画像のそれぞれから被写体を検出し認識する第2の画像認識工程とを有し、
    前記判定工程は、前記画像認識工程による検出結果と、前記第2の画像認識工程による検出結果とを比較し、前記画像群における着目した被写体と着目しなかった被写体とを判定することを特徴とする画像処理装置の制御方法。
  13. コンピュータが読み込み実行することで、前記コンピュータに、請求項12に記載の方法の各工程を実行させるためのプログラムを格納した、コンピュータが読み取り可能な記憶媒体。
JP2013079926A 2012-04-05 2013-04-05 画像処理装置、およびその制御方法 Active JP6071714B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013079926A JP6071714B2 (ja) 2012-04-05 2013-04-05 画像処理装置、およびその制御方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012086800 2012-04-05
JP2012086800 2012-04-05
JP2013079926A JP6071714B2 (ja) 2012-04-05 2013-04-05 画像処理装置、およびその制御方法

Publications (3)

Publication Number Publication Date
JP2013232889A JP2013232889A (ja) 2013-11-14
JP2013232889A5 JP2013232889A5 (ja) 2016-04-14
JP6071714B2 true JP6071714B2 (ja) 2017-02-01

Family

ID=49292010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013079926A Active JP6071714B2 (ja) 2012-04-05 2013-04-05 画像処理装置、およびその制御方法

Country Status (2)

Country Link
US (1) US9049382B2 (ja)
JP (1) JP6071714B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107515596B (zh) * 2017-07-25 2020-05-05 北京航空航天大学 一种基于图像数据变窗口缺陷监控的统计过程控制方法
JP7090730B2 (ja) * 2018-04-05 2022-06-24 キヤノン株式会社 ファイル内に画像をカプセル化するための方法及び装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6611289B1 (en) * 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP2003037757A (ja) * 2001-07-25 2003-02-07 Fuji Photo Film Co Ltd 画像撮像装置
JP4280656B2 (ja) * 2003-06-20 2009-06-17 キヤノン株式会社 画像表示装置およびその画像表示方法
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
US7668365B2 (en) * 2004-03-08 2010-02-23 Seiko Epson Corporation Determination of main object on image and improvement of image quality according to main object
JP2006238076A (ja) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd 撮影装置
JP4324170B2 (ja) * 2005-03-17 2009-09-02 キヤノン株式会社 撮像装置およびディスプレイの制御方法
JP4288612B2 (ja) * 2005-09-14 2009-07-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4431532B2 (ja) * 2005-09-16 2010-03-17 富士フイルム株式会社 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
WO2007060980A1 (ja) * 2005-11-25 2007-05-31 Nikon Corporation 電子カメラおよび画像処理装置
JP4127297B2 (ja) * 2006-06-09 2008-07-30 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP5087867B2 (ja) * 2006-07-04 2012-12-05 ソニー株式会社 情報処理装置および方法、並びにプログラム
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5274357B2 (ja) * 2008-06-16 2013-08-28 キヤノン株式会社 認証装置、撮像装置、認証方法、および、そのプログラム
JP5084696B2 (ja) * 2008-10-27 2012-11-28 三洋電機株式会社 画像処理装置、画像処理方法及び電子機器
KR101595254B1 (ko) * 2009-02-20 2016-02-18 삼성전자주식회사 화이트 밸런스 조정 방법, 상기 방법을 기록한 기록 매체, 화이트 밸런스 조정 장치
JP2010226558A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP2011022796A (ja) * 2009-07-15 2011-02-03 Canon Inc 画像処理方法および画像処理装置
JP2011081763A (ja) * 2009-09-09 2011-04-21 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
US8615111B2 (en) * 2009-10-30 2013-12-24 Csr Technology Inc. Method and apparatus for image detection with undesired object removal
US8184176B2 (en) * 2009-12-09 2012-05-22 International Business Machines Corporation Digital camera blending and clashing color warning system
JP5467992B2 (ja) * 2010-01-06 2014-04-09 パナソニック株式会社 撮像装置
JPWO2012056610A1 (ja) * 2010-10-25 2014-03-20 日本電気株式会社 コンテンツシーン判定装置
JP5246275B2 (ja) * 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
US8588534B2 (en) * 2011-05-06 2013-11-19 Microsoft Corporation Staged element classification
JP2013013061A (ja) * 2011-05-27 2013-01-17 Sanyo Electric Co Ltd 撮像装置
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP5868164B2 (ja) * 2011-12-21 2016-02-24 キヤノン株式会社 撮像装置、情報処理システム、制御方法、及びプログラム
JP5882805B2 (ja) * 2012-03-26 2016-03-09 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
US9047666B2 (en) * 2013-03-12 2015-06-02 Futurewei Technologies, Inc. Image registration and focus stacking on mobile platforms

Also Published As

Publication number Publication date
US20130265465A1 (en) 2013-10-10
JP2013232889A (ja) 2013-11-14
US9049382B2 (en) 2015-06-02

Similar Documents

Publication Publication Date Title
US11570376B2 (en) All-in-focus implementation
US20100214445A1 (en) Image capturing method, image capturing apparatus, and computer program
US9639778B2 (en) Information processing apparatus, control method thereof, and storage medium
JP2012050012A (ja) 画像撮影システム、画像撮影システムの制御方法、撮影装置、撮影装置の制御方法、およびプログラム
JP2014222825A (ja) 映像処理装置および映像処理方法
JP2013254151A (ja) 画像処理装置および画像処理方法
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP6071714B2 (ja) 画像処理装置、およびその制御方法
JP6104066B2 (ja) 画像処理装置および画像処理方法
WO2019215797A1 (ja) 構図アドバイスシステム、構図アドバイス方法、カメラ、プログラム
JP6780748B2 (ja) 画像処理装置、及び画像処理プログラム
JP6700706B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6566091B2 (ja) 画像生成装置、及び画像検索装置
JP7182893B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP6361228B2 (ja) 画像生成装置、及び画像生成プログラム
JP2013157675A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2015191074A (ja) 撮像装置
KR101567668B1 (ko) 다중 초점 방식으로 영상을 생성하는 스마트폰 카메라 장치 및 방법
US8442975B2 (en) Image management apparatus
JP6082484B2 (ja) 情報処理装置、その処理方法及びプログラム
TWI531987B (zh) 影像擷取裝置及其影像擷取方法
JP6089549B2 (ja) 情報処理装置、情報処理システム、およびプログラム
JP2016048863A (ja) 被写体検出装置、その制御方法、撮像装置、表示装置及びプログラム
CN115812177A (zh) 图像处理装置、摄像装置、图像处理方法及程序
JP2015154254A (ja) 電子機器及び制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161227

R151 Written notification of patent or utility model registration

Ref document number: 6071714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151