JP6103826B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP6103826B2
JP6103826B2 JP2012130868A JP2012130868A JP6103826B2 JP 6103826 B2 JP6103826 B2 JP 6103826B2 JP 2012130868 A JP2012130868 A JP 2012130868A JP 2012130868 A JP2012130868 A JP 2012130868A JP 6103826 B2 JP6103826 B2 JP 6103826B2
Authority
JP
Japan
Prior art keywords
image data
image
refocus
image processing
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012130868A
Other languages
English (en)
Other versions
JP2013254433A5 (ja
JP2013254433A (ja
Inventor
小林 正明
正明 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012130868A priority Critical patent/JP6103826B2/ja
Priority to US13/908,101 priority patent/US20130329068A1/en
Publication of JP2013254433A publication Critical patent/JP2013254433A/ja
Publication of JP2013254433A5 publication Critical patent/JP2013254433A5/ja
Application granted granted Critical
Publication of JP6103826B2 publication Critical patent/JP6103826B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、ユーザーによって指定されたパラメータを設定して画像データを処理し表示する画像処理装置、画像処理方法およびプログラムに関するものである。
デジテルカメラの画像処理の多機能化にともない、ユーザーが指定するパラメータが複雑化しており、パラメータを設定するGUI(グラフィカルユーザーインターフェース)もわかりやすいものが求められている。例えば、従来は、撮像中において、パラメータとしてフォーカスを合わせる位置を指定して撮像が行われている。一方、特許文献1や非特許文献1などに代表される多視点画像データから任意の被写体にフォーカスを合わせる処理(リフォーカス処理)を利用することにより、ユーザーは撮像後にフォーカスを合わせる被写体を指定することが可能となる。この場合、ユーザーが画面上に表示された画像の任意の位置をパラメータとして指定することによって、画像処理装置はその位置にある被写体にフォーカスを合わせた画像データを生成する。このように撮像後にフォーカスなどのパラメータを指定する操作体系は、ユーザーにとって未知の処理である。
一方、デジテルカメラの多機能化にともなう処理量の増加に対し、画像処理に時間がかかるようになってきている。これは、ユーザーがパラメータを指定し処理画像が表示されるまでのレスポンスタイムが非常に長くなることにつながる。レスポンスタイムが長い場合、処理の進捗を提示する方法として、特許文献2にあるように、プログレスバーを表示するという方法がある。プログレスバーには、ユーザーが進捗の度合いを確認する機能を提供することで、ユーザーの待つことに対する不快感を軽減する効果がある。
特開2011−22796号公報 特開2010−73014号公報
R. Ng, M. Levoy, M.Bredif, G. Duval, M. Horowitz, P. Hanrahan: "Light Field Photography with a Hand−Held Plenoptic Camera", Stanford Tech Report CTSR 2005−02(2005)
従来にはない概念の画像処理のパラメータをユーザーに指定させる場合、新しい操作をユーザーに強いることになる。このとき、何ら指針がなければユーザーがどういったパラメータを指定すればよいか戸惑ってしまい適切なパラメータが設定されない可能性がある。
本発明に係る画像処理装置は、画像データを解析して、前記画像データに含まれる少なくとも一つの領域を、前記領域に対応する被写体の種別ごとに分類する分類手段と、前記分類した少なくとも一つの領域をユーザ指示に基づいて選択した選択履歴を保持する保持手段と、画像データを取得する取得手段と、前記保持手段に保持された前記選択履歴に基づいて、前記取得手段により取得された前記画像データに対して画像処理を施す処理手段と、前記処理手段により前記画像処理が行われた前記画像データに対して入力された、前記画像データの領域の選択指示に基づいて、前記選択履歴を更新する更新手段と、を有し、前記更新手段は、前記分類手段による分類に基づいて、前記選択履歴を更新することを特徴とする。
本発明によれば、推奨するパラメータをユーザーに提示することができることにより、ユーザーはパラメータの指定に関して戸惑うことなく、適切なパラメータを選択することができる。
本発明の実施例1に係る多眼カメラ全体のハードウェア構成の一例を示すブロック図である。 本発明の実施例1に係るリフォーカス処理の一例を示すフローチャートである。 本発明の実施例1に係るパラメータ選択処理の一例を示すフローチャートである。 本発明の実施例1に係る推奨領域の表示方法の一例を示すフローチャートである。 本発明の実施例1に係るリフォーカス演算領域の予測方法の一例を示すフローチャートである。 本発明の実施例1に係る過去の人物に関するリフォーカス履歴の一例を示す図である。 本発明の第1の実施例に係るリフォーカス画像データを保存する一時画像フォーマットの一例を示す図である。 本発明の実施例1に係る画面の表示例を説明する図である。 本発明の実施例2に係る再生時のリフォーカス処理の一例を示すフローチャートである。 本発明の実施例2に係る処理進捗を表示する方法の一例を説明する図である。 本発明の実施例2に係る進捗表示例を説明する図である。 本発明の実施例1に係る多視点画像を保存する画像データフォーマットの一例を示す図である。 本発明の実施例2に係る画面の表示例を説明する図である。 本発明の実施例1に係るハードウェア構成の一例を示すブロック図。 本発明の実施例1に係るリフォーカス済み画像の表示例を示す図である。
以下、図面を用いて本発明の実施例について詳細に説明する。
図1は、本発明による実施例1の画像処理装置のハードウェア構成の一例を示すブロック図である。以下、図1について詳細に説明する。多眼カメラ撮像部101は、相互に独立した光学系と撮像素子とを持つ相互に独立した複数のカメラの集合体である。多眼カメラ撮像部101は、撮像素子の制御部等を含み、複数の撮像素子からの出力データの集合を多視点画像データとして出力する。
RAM102は、多眼カメラ撮像部101で撮像した多視点画像データの一時記憶や生成したリフォーカス画像データの一時記憶、およびその他演算途中のデータなどの一時記憶に使用する為のメモリである。FlashROM107は、不揮発メモリであり、過去にユーザーが選択した画像(種別と位置)や操作に関する履歴を累積、記憶する。外部メモリ109は、SDカードなどの外部メモリである。また、外部メモリ109は不揮発メモリであり、電源を切っても画像データは保存される。外部メモリ109には、多眼カメラ撮像部101で撮像した多視点画像データが、例えば図12に示される画像データフォーマットに従って画像ファイルとして保存される。画像データフォーマットの詳細は後述する。また外部メモリ109は、処理中の画像データを一時画像ファイルとして一時的に保存する領域としても利用される。
メモリ制御部110は、いわゆるバスシステムと、バスシステムに接続されるメモリやデバイスの制御部から構成され、例えば、RAM102、FlashROM107、外部メモリ109の各メモリに対するデータの読み書きを制御する。
ユーザーI/F(インターフェース)106は、機器の操作や、ユーザーがリフォーカス表示を希望する画像又は領域を選択したり、又は撮像済み画像の表示に係わるモード選択を行う為のI/F(インターフェース)である。具体的には、ディスプレイ105上に設置されるタッチパネルや、シャッターボタン、操作ダイアルなどユーザーi/Fに対応する。
全体制御部(CPU)108は、機器全体の制御や、FlashROM107に記憶されている履歴情報から最も頻度の高い領域を選択し、リフォーカス演算部103へ指示するなどの演算制御を行う。
リフォーカス演算部103は、全体制御部108の指示に従って、多視点画像データからリフォーカス画像データを生成する。ここで、多視点画像データからリフォーカス画像データを生成する概要を説明する。ライトフィールドフォトグラフィでは、多視点画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、撮像後に任意の領域に焦点を合わせたリフォーカス画像データを生成することが可能となる。なお、リフォーカス処理は本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。リフォーカス画像データは、多視点画像データから生成される合成画像データということができる。生成されたリフォーカス画像データは、RAM102や、外部メモリ109などへ格納される。詳細は後述する。
グラフィックプロセッサ104は、リフォーカス演算部103で生成されたリフォーカス画像データをディスプレイ105に表示する機能を具備している。ネットワークI/F1110は、機器外とネットワーク接続を行い、ネットワーク上の外部機器との間でデータ転送を行う。
画像解析部112は、画像データ中の特性を解析して被写体の領域を検出し、領域毎に識別コードを割り当てる。画像解析部112は、検出した被写体の領域情報と識別コードとをRAM102に記憶する。本実施例の被写体とは、前景にあたる人や動物だけでなく、背景に含まれる風景部分も含むものとする。被写体の検出は、例えば、いくつかの顕著な特徴(2つの目、口、鼻など)とその特徴間の固有の幾何学的位置関係とを利用することで実施できる。あるいは、被写体の検出は、顔の対称的特徴、顔色の特徴、テンプレート・マッチング、ニューラル・ネットワークなどを利用することによっても実施できる。背景の検出は、例えば前述の方法で画像内の人物や動物の顔を検出し、その位置やサイズを算出する。この算出結果に基づいて画像中の人物を含む被写体領域と、それ以外の背景領域とに画像を区分することができる。例えば、被写体領域を矩形と仮定すると、領域情報の形式は、左上と右下の座標で示される。また、被写体の識別対象は、人(又は顔)、動物、風景の三種類としているが、これに限定されず、さらに細かい分類をすることも可能である。なお、被写体の検出および識別方法は、本実施例の主眼ではなく、上述した手法以外の手法を用いても良い。画像解析部112での被写体検出および識別機能は、画像撮像後、直ちに実施され、その結果は例えば、RAM102や外部メモリ109のような不揮発メモリに記憶される。したがって、本実施例の説明に於いては、これら被写体の領域情報と識別コードとが既に記憶されていることを前提とする。
多眼カメラ撮像部101が撮像した多視点画像データは、図12の画像データフォーマットに従って、画像ファイルとして、外部メモリ109に記録される。
図12は、本実施例に於ける多視点画像データを画像ファイルとして保存する際に用いる画像データフォーマットを説明する図である。図12に示す画像ファイルは、画像幅を示す情報1201、画像高さを示す情報1202、リフォーカス位置情報1203、多視点画像ヘッダ情報1210、多視点画像データ1204を含む。
リフォーカス位置情報1203は、位置情報存在フラグ1205を含む。位置情報存在フラグ1205は、リフォーカス位置情報が存在するか否かを示す情報である。この位置情報存在フラグは、例えば初期状態(履歴が無い状態)では0(偽)である。1(真)である場合に後続の位置情報1206〜1209の値を有効とすることができる。すなわち、位置情報存在フラグが真である場合、リフォーカスされた位置を示す情報が含まれていることになる。Top_left_x1206は、リフォーカス領域の左上のX座標を示す情報である。Top_left_y1207は、リフォーカス領域の左上のY座標を示す情報である。Bottom_right_x1208は、リフォーカス領域の右下のX座標を示す情報である。Bottom_right_y1209は、リフォーカス領域の右下のY座標を示す情報である。
なお、1205は、画像ファイルの付加の真偽を示す一ビットの情報で十分であるが、かならずしも、1ビットに限定されない。リフォーカス位置情報フォーマットの形式を示す多値をとってもよい。例えば、次のような構成をとることも可能である。1205が0の場合は、位置情報が存在しない。1205が1の場合は、位置情報は、上述のように矩形情報として表現される。1205が2の場合は、位置情報は、フォーカス対象を示す円の中心座標と半径を位置情報として表現される。
多視点画像ヘッダ情報1210には、リフォーカス処理を行うために必要な情報や補助的な撮像情報が含まれる。例えば、カメラ機種名、レンズ構成、撮像日、シャッタースピード、および、露出プログラムなどである。また、多視点画像ヘッダ情報1210には、リフォーカス処理に用いられる多視点画像データの中の各画像データの位置情報が含まれる。本実施例では、位置情報存在フラグの真偽に関わらず、位置情報1206〜1209が存在する構成例を示している。しかしながら、本例に限定されず、位置情報存在フラグが偽の場合は、位置情報1206〜1209エントリーそのものを画像データに含めない構成とすることも可能である。また、リフォーカス位置情報は、任意の形状を示すように構成することも可能であり、本実施例で説明する矩形領域に限定するものではない。
なお、多視点画像データ1204は、撮像素子から得られたRAW画像データであってもよいし、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などの現像処理が施された現像後画像データであってもよい。また、本実施例では多眼カメラ撮像部101を用いる例を説明したが、多視点画像データは複数の視点位置からのデータであればよく、例えばマイクロレンズアレイを用いて得られる撮像データを用いてもよい。
図2は、再生モードに移行してから、1枚目のリフォーカス画像を表示するまでのフローチャートである。再生モードは、外部メモリ109に保存された画像ファイルをディスプレイ105で表示する制御を行う動作モードである。図2のフローは、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより実行される。
全体制御部108が、図2に示す制御を実行する為のプログラムは、例えば、FlashROM107等に記憶されている。また、上述したリフォーカスのためのプログラムも同様に記憶されている。図2に示すフローに於ける画像ファイルは、多眼カメラ撮像部101により撮像された多視点画像データが、図12で示すようにヘッダ情報と共に外部メモリ109に既に記録されていることを前提としている。
ステップS201では、全体制御部108は、動作モードを再生モードに移行する。ステップS201の処理に移る場合として、以下の3パターンが考えられる。
1.再生モード以外で起動中であり、その後再生モードに切り換え
2.起動時に既に再生モード
3.再生モードで別の画像を指定された時
ステップS202では、全体制御部108が画像ファイルを外部メモリ109から取得する。ステップS203では、全体制御部108が再生リフォーカスモードと履歴情報とを取得して、処理をS204へ移行する。再生リフォーカスモードとは、リフォーカス演算済みの画像データ(以下、リフォーカス画像データと称する)を表示する際に、例えば、人モード、風景モード、動物モードなどを選択するモードである。履歴情報とは、過去にユーザーが選択した画像データの種別及び位置や、操作に関する履歴を累積した情報である。履歴情報の詳細については後述する。ステップS204では、全体制御部108が読み込んだ画像ファイルのヘッダ情報を解析する。ヘッダ情報は、図12の1201から1203に該当する。本実施例では、リフォーカス位置情報1203を特に解析する。
ステップS205では、全体制御部108が、ステップS204で解析したヘッダ情報にリフォーカス位置情報が存在するか否かを判定する。リフォーカス位置情報が存在する場合には処理がステップS206に移行し、存在しない場合にはステップS207に移行する。本実施例では、図12に示される位置情報存在フラグ1205を1ビットのフラグとして扱い、フラグの値が1の場合には、全体制御部108は、リフォーカス位置情報が存在すると判定してステップS206に遷移する。フラグの値が0の場合は、全体制御部108はリフォーカス位置情報が存在しないと判定してステップS207に移行する。
ステップS206では、全体制御部108は、ステップS202で読み込んだ画像ファイルのリフォーカス位置情報1203を解析して得られたリフォーカス位置情報を利用してリフォーカス演算部103を制御し、リフォーカス画像データを生成する。
具体的には、リフォーカス演算部103は、再生ファイルに含まれる多視点画像データ1204から、位置情報1206と1208との平均をX座標、位置情報1207と1209との平均をY座標とする位置にフォーカスが合った画像データを生成する。リフォーカス演算部103で生成されたリフォーカス画像データは、グラフィックプロセッサ104を介して、ディスプレイ105に表示される。図15(a)は生成されたリフォーカス画像データを表示する表示例である。また生成されたリフォーカス画像データは、図7に示される一時画像ファイルフォーマットに従って一時画像ファイルとして、外部メモリ109又はRAM102に保存される。図7は、リフォーカス演算部103で生成されたリフォーカス画像データを含む画像ファイルの一時画像ファイルフォーマットの一例を示す図である。一時画像ファイルフォーマットに従う画像ファイルは、リフォーカス位置情報702と、リフォーカス画像データ705とを含む。リフォーカス位置情報702には、リフォーカス画像データ705のリフォーカス処理を行った際にフォーカスを合わせた位置を示す情報が含まれる。位置情報706〜709は、図12の位置情報1206〜1209と同じ情報とすることができる。なお、図7に示す一時画像ファイルは、例えばリフォーカスの画像データ毎に生成される。
ステップS206に処理が進んでいるということは、リフォーカス位置情報が存在していることになる。従って、そのリフォーカス位置情報を図7の702で示すリフォーカス位置情報に含めた一時画像ファイルを記憶する。なお、一時画像ファイルの記憶場所は、外部メモリ109、RAM102に限定されるものではなく、ネットワークI/F111を介して、クラウド上に存在する任意の記憶装置に記憶しても良い。
次に、ステップS205にて、ヘッダ情報にリフォーカス位置情報が存在しない場合の処理を説明する。ステップS207の処理は、ステップS202でメモリから読み出した画像ファイルにリフォーカス位置情報が無い場合、即ち再生モードでの表示が初めての画像ファイルである場合の処理である。本実施例では、履歴情報に基づいてリフォーカス画像データを生成し、一時画像ファイルとして記憶する。また、履歴情報の更新を実施する。履歴情報に基づいてリフォーカス画像データを生成する処理、および履歴情報を更新する処理については、図3に関連して説明するため、ここで説明を省略する。
ステップS208は、グラフィックプロセッサ104がステップS207で生成したリフォーカス済み画像をディスプレイ105に表示する。ステップS208では、グラフィックプロセッサ104は、ディスプレイ105にパンフォーカス画像を表示する。例えば、図8(d)のように全ての被写体にフォーカスがあたったパンフォーカス画像がディスプレイ105に表示される。ただし、表示制御される画像はパンフォーカス画像に限定されない。リフォーカス画像が生成済みであれば、リフォーカス画像を表示する構成をとることも可能である。
ステップS209では、推奨領域表示処理を実行する。本実施例では、推奨領域とは、例えばピントを合わせる被写体候補を囲む矩形領域であり、画像の画素を一単位とする、左上の点、右下の点の座標である。この推奨領域は、ユーザーによって指定されるパラメータということができる。
図4は、推奨領域表示処理の一例を説明するフローチャートである。以下、推奨領域表示処理について詳細に説明する。
ステップS401では、全体制御部108が優先被写体数を取得しCOUNTに代入する。優先被写体数は、ステップS207で生成されている。すなわち、優先被写体数は、例えば履歴情報に基づいてリフォーカス画像データを生成する際に、フォーカスを合わせた被写体の数である。本実施例では、優先被写体数は3であるものとして説明するがこれに限定されない。
ステップS402では、全体制御部108がカウンターNを0として初期化する。ステップS403では、全体制御部108がカウンターNとCOUNTとを比較する。N>COUNTの場合には処理を終了し、N≦COUNTの場合にはループ処理を続行するためにステップS404を実行する。
ステップS404では、全体制御部108が、被写体予測優先度がNの推奨領域を取得する。被写体予測優先度Nは、N値が小さいほど、推奨の度合いが高いことを示すものである。被写体予測優先度Nは、履歴情報に基づいてリフォーカス頻度が高い被写体に付けられた優先度である。
ステップS405では、全体制御部108がグラフィックプロセッサ104を制御して、取得した推奨領域を示す推奨領域枠をディスプレイ105の画面上へ表示制御する。以下、GUIの表示例を図8を用いて説明する。本実施例では、推奨領域とは、被写体を囲む矩形の領域であるため、この矩形を表示画像にオーバーラップさせるように推奨領域枠を描画する。なお、推奨領域の座標系は、画像の画素を一単位としているため、ディスプレイの解像度が画像の解像度に満たない場合、スケーリングされて推奨領域枠として描画されるものとする。
S208で説明したように、推奨領域表示処理の開始段階で図8(d)であったものが、N=1の場合は、画面には、図8(a)のように推奨領域枠が一つ画像上に表示される。なお、本実施例では、この枠は赤色であるものとする。N=2の場合は,図8(b)のように2つ目の推奨領域枠が表示される。N=3の場合は,図8(c)のように3つ目の推奨領域枠が表示される。このように、ループ処理によりカウンターNが増加するに従って、フォーカスを合わせる候補の被写体上に、矩形が描画されていくことになる。なお、先に説明したように、この推奨領域枠の表示順は、履歴情報に基づいて決定されることができる。ステップS406では、カウンターNをインクリメントし、ステップS403に遷移する。このようにしてループ処理が実行される。
ステップS220では、グラフィックプロセッサ104がパラメータ選択UI画面を追加でディスプレイ105に表示する。ステップS206で表示されたリフォーカス画像データにパラメータ選択UI画面を追加した例を図15(b)に示す。図15(b)の例に於いては、タッチパネルでユーザーがフォーカスを合わせたいポイントを指定することを想定している。すなわち、グラフィックプロセッサ104は、フォーカスを合わる位置(パラメータ)をユーザーに選択させるためのUI画面を表示する。なお、パラメータは、画像中の2次元の位置情報を表してもよいし、多視点画像の中の空間的な距離(奥行き)を表してもよい。
一方、ステップS209で推奨領域枠の表示がされたリフォーカス画像データにも同様に、図15(b)で示すようなメッセージを含めたパラメータ選択UI画面を追加する。なお、ステップS209では推奨領域枠が表示されているので、当該枠内の領域を選択するようユーザーに促がすメッセージを表示してもよい。
ステップS221では、全体制御部108は、ステップS202で読み取った画像ファイルのリフォーカス位置情報1203の更新を実施する。すなわち、ヘッダ情報にリフォーカス位置情報が存在していない場合、ステップS207でリフォーカス位置が決定された領域の位置情報でリフォーカス位置情報1203を更新する。なお、ヘッダ情報にリフォーカス位置情報が存在している場合、ステップS202で読み取った画像ファイルのリフォーカス位置情報1203の更新は行わなくてよい。以上が、再生モードを起動した場合の動作、すなわち、ある画像ファイルを読み取った場合の最初に表示されるリフォーカス画像に関する処理である。
続いて、1枚目のリフォーカス画像データを表示した後の動作(2枚目以降のリフォーカス画像データの表示、動作の終了等)について、図3を用いて説明する。すなわち、図2のフローで説明した画像ファイルを読み取った場合に最初に表示されるリフォーカス画像を表示した後の処理を図3を用いて説明する。図3に示すフロー全体が、図2のフローと同様に、全体制御部108により制御されている。
図2のステップS220で、図15(b)に示すパラメータ選択UIが表示されると、ユーザーは、表示されたUIを利用して、パラメータの選択を行う事が可能になる。ステップS301では、全体制御部108は、UIを使用して、ユーザーがパラメータを選択した時は、処理をステップS304へ移行する。本実施例では、ユーザーが画面上の1点を指定することによって、パラメータを選択することとする。次に、ステップS304では、ステップS301でユーザーによって選択されたパラメータを取得する。ステップS304では、全体制御部108は、図7の形式で記憶されている一時画像ファイル群を探索する。そして一時画像ファイル群の中から、リフォーカス位置情報702で特定される領域が、ステップS301にてユーザーが指定(選択)したパラメータを含むリフォーカス画像データが存在するか否かを判定する。ステップS304でユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在する場合、処理をステップS309へ移行する。ステップS309では、前記リフォーカス画像データを含む一時画像ファイルの情報(位置、表示履歴情報)を更新し、処理をステップS306へ移行する。詳細は後述する。
ステップS306では、グラフィックプロセッサ104が、前記ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像を所定のディスプレイ105に表示する。
一方、ステップS304で、ユーザーが指定したパラメータに適合するリフォーカス画像データを含む一時画像ファイルが存在しなかった場合は、全体制御部108は、処理をステップS305へ移行する。ステップS305では、ステップS301でユーザーが指定したパラメータに基づいて、リフォーカス演算部103が、当該パラメータが示す領域にフォーカスが合ったリフォーカス画像データを生成する(第1の画像処理)。ステップS305では、生成したリフォーカス画像データを例えば、RAM102等に図7に示す一時画像ファイルとして記憶する。
ステップS305の処理が完了したら、ステップS306へ移行する。全体処理部108は、処理をステップS309へ移行する。
ステップS309では、ステップS305にて、ユーザーが、ステップS301で指定したパラメータに従って生成したリフォーカス画像に関する情報(位置および表示履歴情報)の更新を実施し、処理をステップS306に移行する。詳細は後述する。
ステップS306では、例えば、RAM102等から、ステップS301で指定されたパラメータに従って生成または選択されたリフォーカス画像データを読み出して、ディスプレイ105へ表示する。
ここで、ステップS309に於ける情報更新について、詳しく説明する。
先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、かつ領域毎に識別コードを割り当てられ、領域情報と識別コードとがFlashROM107や、外部メモリ109のような不揮発メモリに記憶されている。ここでは、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれている場合、その領域情報を位置情報として更新する。すなわち、被写体として分類され、その被写体の位置が特定されている領域情報を、一時画像ファイルのリフォーカス位置情報702として更新する。一方、記憶されている領域情報と指定されたパラメータとを比較して、領域情報の中に指定されたパラメータが含まれていない場合、指定パラメータを一時画像ファイルのリフォーカス位置情報702として更新する。
次に、履歴情報について、図5を用いて説明する。図5に於いて、識別コードは、画像解析部112で識別された識別コードである。頻度は、再生モードに於いて、識別コード(人、風景等)で示される各領域に対して、ユーザーがフォーカスを合わせた画像の表示を指示した頻度のことである。この頻度は、ある画像ファイルごとの頻度であってもよいし、画像ファイルを問わずに、画像処理装置におけてあるユーザーが指示した頻度であってもよい。図5(a)は、501が識別コード=風景、502が識別コード=人、503が識別コード=動物の例を示している。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:風景(501)
2位:人(502)
3位:動物(503)
図5(b)は、識別コード=人に関して、識別コードを更に細分化した例を示したものである。なお、娘、息子、父の区別は、例えばそれぞれの顔画像の特徴ベクトルを算出しておき、人物と判定された領域の特徴ベクトルと比較することによって判定することができる。ここで、識別コード毎の頻度順位は、以下の通りである。
1位:ユーザーの娘(505)
2位:ユーザーの息子(506)
3位:ユーザーの父(507)
4位:登録外の人物(508)
本実施例に於いて、履歴情報は、各識別コードの頻度情報のことを指す。
次に履歴情報の更新について述べる。先に説明したように、領域情報の中に指定されたパラメータが含まれていた場合、その領域に関連付けられた識別コードの頻度情報をインクリメントする。一方、領域情報の中に指定されたパラメータが含まれていない場合、有用な情報は、座標情報のみなので、履歴情報は更新しない。
次にステップS301で、ユーザーが、パラメータを選択しなかった場合の処理について説明する。すでに表示されている画像を継続して表示した状態で、処理をステップS302へ移行する。
ステップS302では、画像解析部112で抽出した全ての領域情報に対して、全体制御部108は、各領域情報にフォーカスを合わせたリフォーカス画像データを生成したか否かを判定する。この処理は、第2の画像処理を行ったか否かということもできる。具体的には、全ての領域情報に対して、各領域情報を含むリフォーカス位置情報702を有する一時画像ファイルが存在するか否かを判定する。
ステップS302で、全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、処理をS303へ移行する。一方、ステップS302で、全ての領域情報に対して、リフォーカス画像の生成が完了していると判定された場合は、処理をS307へ移行する。
全ての領域情報に対して、リフォーカス画像を生成していないと判定された場合、ステップS303で、履歴情報に基づいて、リフォーカス画像データを生成する。詳細は後述する。次に生成したリフォーカス画像をS306で表示した後、ステップS307へ移行する。
S307では、全体制御部108は、再生モードを終了するか、継続するかを判定する。S307に於ける再生モードの終了条件は、例えば以下の3つである。
1.再生モードを除くモードに切り換えた時
2.電源をOFFした時
3.再生モードで別の画像を指定された時
S307で再生モード終了と判定された場合は、処理をS308へ移行し、再生モードの終了に必要な各種処理が実行され、再生モードを終了する。一方、ステップS307で再生モード継続と判定された場合は、処理をステップS301へ戻し、ステップS301からの操作を繰り返す。
なお、パラメータ選択は、ユーザーが画面上の1点を指すことで行うこととしたが、閉領域として指定することも可能である。例えば、ユーザが指定した点を含む画像および指定された閉領域に含まれる画像をFlashROM(履歴記憶部)107の履歴と比較することにより、履歴情報の有無を判定することができる。
次に、図2のS207と図3のS303に於ける処理詳細について、図5のフローチャートを用いて説明する。図5のフローチャートに示す処理は、全体制御部(CPU)108が、リフォーカス演算部103およびグラフィックプロセッサ104等を制御することにより、実行される。
先に説明したように、画像解析部112によって、撮像後の多視点画像データ内の被写体の領域が検出され、かつ領域毎に識別コードを割り当てられ、領域情報と識別コードとがRAM102や、外部メモリ109のような不揮発メモリに記憶されている。また、履歴情報は、図6に示す頻度情報のこととする。即ち、過去の履歴(頻度)は、風景画像が頻度1位、人の画像が2位、動物の画像が3位であると仮定する。更に、人の画像は、頻度1位が娘、2位が息子、3位が父、4位が登録外人物と仮定する。
ステップS501では、全体制御部108は、リフォーカス画像データを未生成の領域を特定する。まず、全体制御部108は、対象画像データ(すなわち、S202で読み込んだ画像ファイルの多視点画像データが示す画像データ)に関する画像解析結果の識別コード及び領域情報のペアの全てを取得する。また、全ての一時画像ファイルに含まれるリフォーカス画像データの位置情報を取得する。次に、取得した情報の中から、一時画像ファイルに含まれるリフォーカス位置情報702と、領域情報とを比較する。そして、位置情報が領域情報に含まれるものは省いて、対応する位置情報が存在しない領域情報を抽出する。この領域情報は、即ち、リフォーカス画像データを生成していない領域に対応する。
次に、全体制御部108は、ステップS502で、ステップS501で抽出した領域情報に関連付けられた識別コードの中で、履歴情報の頻度が最も高い識別コードに一致するものを選択する。選択の結果、風景に該当する識別コードの頻度が、最上位であった場合、ステップS503へ移行する。ステップS503では、風景画像に対応する領域が、S501で抽出した領域情報にあるか否かを判定する。風景画像がある場合、ステップS504へ移行する。
ステップS504では、識別コードが風景である領域情報を抽出して、それが1つである場合は、その領域を次にリフォーカス画像データを生成する領域として決定する。また風景に該当する識別コードを持つ領域が複数存在する場合、例えば、領域情報の左上のX座標とY座標をもって、順位を決定することができる。具体的には、X座標の値が小さい順にリフォーカス演算順位を決定することができる。また、同一のX座標が複数存在する場合は、Y座標の小さい順でリフォーカス演算順位を決定することができる。ここでは、最も順位の高い領域情報を次にリフォーカス画像を生成する領域として決定する。
次に処理をステップS505へ移行する。ステップS505では、リフォーカス演算部103が、ステップS504で決定された順位に基づいて当該順位の領域情報にフォーカスを合わせたリフォーカス画像データを生成する。具体的には、多視点画像データから、左上と右下の座標の平均を取った結果をX座標、Y座標とする位置にフォーカスが合った画像データを生成する。
次に、処理をステップS506へ移行する。ステップS506では、ステップS505で生成したリフォーカス画像データと共に、そのフォーカスを合わせた領域情報をリフォーカス位置情報とした一時画像ファイルを図7に示す一時画像ファイルフォーマットで記憶する。
次に処理をステップS507へ移行する。ステップS507では、履歴情報を更新する。具体的には、選択された識別コードに該当する頻度をインクリメントする。そして処理を終了する。
次に、ステップS502に戻って、選択の結果、人に該当する識別コードの頻度が、最上位であった場合、ステップS509へ移行する。ステップS509では、人の画像があるか否かを判定する。人の画像がない場合、ステップS502に戻る。人の画像がある場合、ステップS510に移行する。ステップS510では、図6(b)で示すような登録者の識別コードがあるか否かを判定する。登録者の識別コードがあった場合、処理をステップS511へ移行する。ステップS511では、履歴情報の中に、ステップS510で存在が確認された登録者がいるか否かを判定する。履歴情報の中に登録者がいた場合、処理をステップS512へ移行する。ステップS512では、履歴情報の頻度に従って、リフォーカス画像生成の順位を決定する。図6(b)では、順位1位が娘、2位が息子、3位が父というようになっているので、例えば、識別コードの中に娘が存在すれば、娘を最上位とする。
ステップS511で、履歴情報の中に登録者がいない場合、処理をステップS513へ移行する。また、ステップS510で、登録者の識別コードが無かった場合、処理をステップS514へ移行する。なお、ステップS513及びS514は、S504と同様の処理を行う。
次に、ステップS502に戻って、選択の結果、動物に該当する識別コードの頻度が、最上位であった場合、ステップS515へ移行する。ステップS515で動物の画像があると判定した場合、ステップS516へ移行する。なお、ステップS516の処理については、S504と同様の処理を行うことができる。
このように、過去の履歴を利用することで、リフォーカス画像データの生成をユーザーに指示される前に、実施することが可能となる。すなわち、多視点画像データを含む画像ファイルを最初に読み出した際に、そのファイルのヘッダ情報にリフォーカス位置情報が含まれていない場合、履歴情報を用いてリフォーカス画像データをユーザーの指示なしに生成することができる。また、履歴情報を用いることで、そのユーザーが過去にフォーカスを合わせた被写体の頻度に応じてリフォーカス画像データを生成することができる。ユーザーの指示なしに予めリフォーカス画像データを生成しておくことによって、ユーザーが希望するフォーカス領域を指定した時、リフォーカス演算時間を待つことなく、ユーザーが希望するリフォーカス画像を表示することが可能となる効果がある。
また、本実施例では、多視点画像データが含まれる画像ファイルに、ユーザーが最後に指定したフォーカス位置を特定するパラメータ情報を埋め込んでいる。これにより、次回、画像ファイルを読み込んで、表示する際、ユーザーが最後に表示していた画像を、パラメータの再設定なしに表示することができる。これにより、ユーザーによるパラメータ設定の手間を省くことができ、本技術を組み込んだ装置の操作性が向上することにつながる。
なお、本実施例では、説明を簡単にする為、図5の例では3種類(人、風景、動物)の選択肢を例に挙げて説明したが、識別可能なものは選択肢に加えて構わない。更に、人の画像に関しても本実施例では、娘、息子、父、登録外人物というように、3人の登録者と登録外人物として説明したが、登録者を例えば、4人以上としても構わない。また、登録人物についても家族としたが、それに限定されるものではない。
また、本実施例によれば、フォーカスを合わせる対象となる推奨領域を矩形の枠で表示することにより、ユーザーがフォーカスを合わせる位置を容易に判断することができ、その位置を指定することができるようになる。
また、本実施例は、履歴情報に基づいてユーザーが選択する可能性が高い被写体の領域に対するリフォーカス処理をユーザーによるパラメータ選択に先んじて実施している。このように、ユーザーによるパラメータ選択処理に先んじたリフォーカス処理と推奨領域枠を表示する機能とを組み合わせることにより、ユーザーに推奨領域枠の選択を促すことができる。つまり、本実施例では、ユーザーが推奨領域枠を選択した場合、予めリフォーカス処理されたリフォーカス画像を高速に表示することができる。
なお、本実施例では、被写体予測優先度Nは、履歴情報に基づいたリフォーカス頻度としたが、これに限定されない。例えば、顔検出などを行い、検出された顔領域が広い順に優先度を設定してもよい。また、画像処理は、リフォーカスに限定されない。例えば、選択した領域にハイパスフィルタを施すための、領域選択処理に用いていてもよい。さらに、推奨領域枠は、領域を示す矩形の位置情報であるものとして説明したが、それに限定されない。円や任意の形状であってもかまわない。
本実施例では、図1の全体制御部108が図1上の各モジュールを操作するものとして説明したが、実行されるハードウェア構成に制限はない。画面上に推奨領域枠を表示することが特徴であり、例えば、多眼カメラ撮像部101、リフォーカス演算部103、画像解析部112を持たないパーソナルコンピュータで実行することも可能である。図14は、パーソナルコンピュータのハードウェア構成例のブロック図を示している。特別な記述がない場合、その構成および動作は図1で示されるハードウェアと同等の動作をするものとする。図14で示すように、通常のパーソナルコンピュータは、図1で説明したリフォーカス演算処理部、画像解析処理部を持たない。そのため、リフォーカス演算処理、画像解析処理は、全体制御部108で実行されることになる。また、画像ファイルや履歴情報は、外部メモリや履歴情報記憶部の代わりにHDD1401に記録されることになる。
実施例2では、リフォーカス処理により特定の被写体にピントを合わせるために推奨領域を表示して、リフォーカス処理を行う処理を説明する。実施例2は、図9、図10、図11、および、図13を使って説明する。なお、本実施例で示されるフローチャートは、図1の全体制御部108で実行され、全体制御部108が、図1上の各モジュールを操作することにより実現するものとして説明する。各工程は、特別な記述がない場合は、実施例1における工程と同様の処理が実行されるものとする。
以下、図9のフローチャートについて詳細に説明する。図9は、図2のフローの変形例を説明するフローチャートであり、図2に対し、ステップS209の後に、ステップS901が追加されている。その他の処理は図2で説明したものと同様の処理とすることができるので、説明を省略する。
ステップS901では、全体制御部108は進捗表示を開始する。進捗表示は、ステップS220のステップに対して、並行して実行される。つまり、進捗表示とリフォーカス画像データ生成処理は平行して実行されることになる。以下、この進捗表示フローについて、図10を使って説明する。
図10は、画像処理の進捗に同期し、推奨領域を強調表示するフローチャートである。ステップS1001では、全体制御部108は優先被写体数を取得しCOUNTに代入する。優先被写体数は、ステップS207で生成されている。すなわち、優先被写体数は、例えば履歴情報に基づいてリフォーカス画像データを生成する際に、フォーカスを合わせた被写体の数である。本実施例では、優先被写体数は3であるものとして説明するがこれに限定されない。
ステップS1002では、全体制御部108はカウンターNを1として初期化する。ステップS1003では、全体制御部108はユーザーがパラメータを選択したかを判定する。なお、本実施例のパラメータ選択は、ユーザーがディスプレイ105をタッチすることによって、タッチした位置の二次元座標を画像座標系で得る操作で実現される。また、画像座標系とは、画像の一画素を数値の1として扱う2次元の座標系である。ユーザーがパラメータを選択した場合には、図10のフローを終了する。
ステップS1004では、全体制御部108はカウンターNとCOUNTとを比較する。N>COUNTの場合には処理を終了し、N≦COUNTの場合にはループ処理を続行するためにステップS1005を実行する。
ステップS1005では、全体制御部108は被写体予測優先度がNの推奨領域を取得する。推奨領域は、ステップS207で生成されている。本実施例では、推奨領域は、フォーカスを合わせる候補の被写体の領域を示す矩形を示すデータであり、入力画像の二次元座標空間において、左上と右下の2組の座標データからなる。また、被写体予測優先度Nは、N値が小さいほど、推奨の度合いが高いことを示す。
ステップS1006では、リフォーカス処理の進捗率を百分率で取得する、進捗情報取得処理を行う。本実施例では、進捗率をR、予め求めておいた1枚のリフォーカス画像データを生成に要する平均時間をT,リフォーカス処理開始時刻をS,現在時刻をCとした場合、
R=(C−S)/T × 100
とあらわせる。また、本実施例では、全体制御部108内にタイマーをもち、フォーカス処理開始時刻と現在時刻の、タイマーから取得するものとする。ただし、タイマーを全体制御部の外に配置する構成をとることも可能である。
ステップS1007では、進捗情報と推奨領域とから計算される図形を描画する。本実施例では、赤色の矩形が表示されており、左上を起点として矩形4辺一周を進捗率100%とする緑色の線を上書きで描画することで進捗を表現する。例えば、図11(a)は、進捗率0%の状態を表している。なお、細線は赤線を意味するものとする。図11の(b)は、進捗率12.5%の状態を表している。太線は緑線を意味するものとする。図11の(c)は、進捗率25%の状態を表している。図11(d)は、進捗率62.5%の状態を表している。このように推奨領域を示す矩形を一周する形で、矩形の色が赤から緑に変わることにより、リフォーカス処理の進捗状態を表現することができる。枠の色が完全に緑に変わったとき、その領域にフォーカスがあたったリフォーカス画像が完全に生成されたことになる。
以下、画面の表示例を図13ともに説明する。図13は、GUI画面の表示例を説明する図である。本実施例では、推奨領域は矩形領域を示すため、その領域を矩形として画像にオーバーラップさせるように推奨領域枠を描画する。例えば、図13(e)は、初期の画面状態を表している。この段階で表示された所領領域を示す矩形は赤色である。図13(a)は、N=1、進捗率40%の状態を表している。矩形の太線は緑色を示すものとする。図13(b)は、N=2、進捗率25%の状態を表している。図13(c)は、N=3、進捗率90%の状態を表している。図13(d)は、推奨パラメータで提示されて全ての被写体の領域が緑色の矩形で囲われたことを示しており、本フローを終了するときの状態である。このように、それぞれの被写体を対象としたリフォーカス画像データの生成処理の進捗率の増加に従って、描画される緑色の矩形が完成していくことになる。また、カウンターNの増加に伴い、緑色の矩形が増加することになる。
ステップS1008では、進捗率を判定する。進捗率が100%に達した場合は、ステップS1009に遷移し、100%に満たない場合は、ステップS1006に遷移し、進捗を表示するループ処理を続行する。
ステップS1009では、カウンターNをインクリメントし、ステップS1004に遷移する。このようにして、優先被写体数だけループ処理が実行される。
実施例1に対して、実施例2は、並行して実行されるリフォーカス画像生成処理の進捗の度合いに応じて、推奨領域枠の色が変わるように表示している。これにより、ユーザーが枠の色の変化(アニメーション)を注視することにより、心理的な待ち時間を軽減する効果がある。また、推奨領域枠の表示作業自体が進捗表示を兼ねることにより、画面端部にプログレスバーを表示する一般的な方法に対して、ユーザーは画面中心にある被写体から視線をずらす必要がなくなり、ユーザーが快適に感じるGUIを提供できる。
本実施例では進捗率を経過時間より求める構成をとったが、それに限定されず、例えば、画素単位リフォーカス画像を生成するアルゴリズムの場合、生成できた画素数と画像全体の画素数から、進捗率を求める構成をとっても良い。また、本実施例では色の変化によって進捗率を表す例を説明したが、線の形状を変化させたり、推奨領域枠の形状を変化させるなど、他の視覚的変化を用いても良い。
本実施例では、図1の全体制御部108、図1上の各モジュールを操作するものとして説明したが、実行されるハードウェア構成に制限はない。画面上に推奨枠を表示することが特徴であり、例えば、撮像部、リフォーカス演算部、画像解析部を持たないパーソナルコンピュータで実行することも可能である。図14は、パーソナルコンピュータのハードウェア構成ブロック図を示している。特別な記述がない場合、その構成および動作は図1で示されるハードウェアと同等の動作をするものとする。なお、通常のパーソナルコンピュータは、リフォーカス演算処理部、画像解析処理部を持たない。そのため、リフォーカス演算処理、画像解析処理は、全体制御部108で実行されることになる。また、画像ファイルや履歴情報は、外部メモリや履歴情報記憶部の代わりにHDD1401に記録されることになる。
<その他の実施例>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (8)

  1. 画像データを解析して、前記画像データに含まれる少なくとも一つの領域を、前記領域に対応する被写体の種別ごとに分類する分類手段と、
    前記分類した少なくとも一つの領域をユーザ指示に基づいて選択した選択履歴を保持する保持手段と、
    画像データを取得する取得手段と、
    前記保持手段に保持された前記選択履歴に基づいて、前記取得手段により取得された前記画像データに対して画像処理を施す処理手段と
    前記処理手段により前記画像処理が行われた前記画像データに対して入力された、前記画像データの領域の選択指示に基づいて、前記選択履歴を更新する更新手段と、を有し、
    前記更新手段は、前記分類手段による分類に基づいて、前記選択履歴を更新することを特徴とする画像処理装置。
  2. 前記画像処理は、前記画像データのピント位置を変更するリフォーカス処理であることを特徴とする請求項に記載の画像処理装置。
  3. 前記選択履歴は、前記被写体の種別ごとに、前記領域の選択の頻度を示す情報を含み、
    前記処理手段は、前記画像データに対してリフォーカス処理を行うことで、前記各種別の被写体にピントがあった複数のリフォーカス画像を、前記選択の頻度が高い被写体の種別順に生成することを特徴とする請求項に記載の画像処理装置。
  4. 前記処理手段は、前記画像データに対して、前記リフォーカス画像の生成の進捗度合いを示す表示を重畳する画像処理を行い、該画像処理を行った画像データを、前記画像データを表示する表示装置に出力することを特徴とする請求項に記載の画像処理装置。
  5. 前記画像処理は、前記選択の頻度が高い被写体の種別に対応する領域を示す枠を前記画像データに対して重畳する処理であることを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
  6. 前記処理手段により前記画像処理が行われた前記画像データに対して入力された、前記画像データの領域の選択指示に基づいて、前記画像データのリフォーカス位置情報を更新する第二の更新手段を更に有することを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
  7. 画像データを解析して、前記画像データに含まれる少なくとも一つの領域を、前記領域に対応する被写体の種別ごとに分類する分類手段と、前記分類した少なくとも一つの領域をユーザ指示に基づいて選択した選択履歴を保持する保持手段を有する画像処理装置によって実行される画像処理方法であって、
    画像データを取得する取得工程と、
    前記保持手段に保持された前記選択履歴に基づいて、前記取得工程で取得された前記画像データに対して画像処理を施す処理工程と
    前記画像処理が行われた前記画像データに対して入力された、前記画像データの領域の選択指示に基づいて、前記選択履歴を更新する更新工程と、を有し、
    前記更新工程において、前記分類手段による分類に基づいて、前記選択履歴が更新されることを特徴とする画像処理方法。
  8. コンピュータを請求項1乃至のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2012130868A 2012-06-08 2012-06-08 画像処理装置、画像処理方法およびプログラム Active JP6103826B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012130868A JP6103826B2 (ja) 2012-06-08 2012-06-08 画像処理装置、画像処理方法およびプログラム
US13/908,101 US20130329068A1 (en) 2012-06-08 2013-06-03 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012130868A JP6103826B2 (ja) 2012-06-08 2012-06-08 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2013254433A JP2013254433A (ja) 2013-12-19
JP2013254433A5 JP2013254433A5 (ja) 2015-07-16
JP6103826B2 true JP6103826B2 (ja) 2017-03-29

Family

ID=49951860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012130868A Active JP6103826B2 (ja) 2012-06-08 2012-06-08 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6103826B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7314694B2 (ja) 2019-08-01 2023-07-26 株式会社オートネットワーク技術研究所 配線部材

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109313904B (zh) * 2016-05-30 2023-12-08 索尼公司 视频音频处理设备和方法以及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3991196B2 (ja) * 2001-12-18 2007-10-17 富士ゼロックス株式会社 画像処理システム及び画像処理サーバ
JP4444633B2 (ja) * 2003-11-12 2010-03-31 日本電信電話株式会社 画像分類装置、画像分類方法、および、プログラム
US8559705B2 (en) * 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
JP5538865B2 (ja) * 2009-12-21 2014-07-02 キヤノン株式会社 撮像装置およびその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7314694B2 (ja) 2019-08-01 2023-07-26 株式会社オートネットワーク技術研究所 配線部材

Also Published As

Publication number Publication date
JP2013254433A (ja) 2013-12-19

Similar Documents

Publication Publication Date Title
US9754179B2 (en) Image generating device, electronic device, image generating method and recording medium
US9036072B2 (en) Image processing apparatus and image processing method
EP2822267B1 (en) Method and apparatus for previewing a dual-shot image
US20130329068A1 (en) Image processing apparatus and image processing method
JP6622289B2 (ja) 写真合成方法、装置、プログラム、及び記録媒体
JP2014014071A (ja) 画像処理装置及び画像処理方法
US20150304566A1 (en) Display apparatus and image composition method thereof
JP2009194644A (ja) 画像処理装置,画像処理方法及び撮像装置
CN104704805A (zh) 信息处理装置、信息处理方法和程序
JP2014116009A (ja) ディスプレイ装置およびそのイメージ表示方法
JP5886479B2 (ja) 撮像装置、撮像アシスト方法及び撮像アシストプログラムを記録した記録媒体
JP2013254151A (ja) 画像処理装置および画像処理方法
JP2014077994A (ja) 画像表示装置、その制御方法および制御プログラム並びに撮像装置
JP6103826B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2018029270A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP6270578B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
KR101314687B1 (ko) 시선 경로 제공장치 및 시선 경로 제공방법
JP2019191661A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2018067802A (ja) 撮像制御装置、撮像装置の制御方法及びプログラム
JP6157238B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013255172A (ja) 画像処理装置及び画像処理方法
KR20170043202A (ko) 영상 촬영 장치 및 이의 제어 방법
US10089519B2 (en) Image capturing apparatus and image processing method
JP5055462B2 (ja) 画像処理装置,画像処理方法及び撮像装置
JP2012244249A (ja) 撮像装置および撮像方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150527

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R151 Written notification of patent or utility model registration

Ref document number: 6103826

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151