JP2015109593A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2015109593A
JP2015109593A JP2013252213A JP2013252213A JP2015109593A JP 2015109593 A JP2015109593 A JP 2015109593A JP 2013252213 A JP2013252213 A JP 2013252213A JP 2013252213 A JP2013252213 A JP 2013252213A JP 2015109593 A JP2015109593 A JP 2015109593A
Authority
JP
Japan
Prior art keywords
image data
image processing
image
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013252213A
Other languages
English (en)
Other versions
JP6234200B2 (ja
Inventor
俊宏 望月
Toshihiro Mochizuki
俊宏 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013252213A priority Critical patent/JP6234200B2/ja
Publication of JP2015109593A publication Critical patent/JP2015109593A/ja
Application granted granted Critical
Publication of JP6234200B2 publication Critical patent/JP6234200B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数の物体が存在する場合に適切に画像を切り出して合成画像を生成できるようにする。
【解決手段】撮影した画像をDエリアに分割してそれぞれのDエリアで距離情報を取得して距離マップを生成し、物体が存在する領域を判断する。そして、物体が存在する領域に従って切り出し位置を評価し、さらに人物の顔を認識する画像認識処理を行う。人物の顔が認識された領域と物体判断処理により判断された物体が存在する領域とに相違がある場合は、例えば双方の領域を包含するように判断結果を更新する。っそいて、切り出し位置を決定して各画像を合成してパノラマ画像を生成する。
【選択図】図1

Description

本発明は、特に、画像のパノラマ合成を行うために用いて好適な画像処理装置、画像処理方法およびプログラムに関する。
近年、パンニングしながら静止画を連続撮影し、連続撮影した静止画を合成することによってパノラマ画像を生成する手法が提案されている(例えば特許文献1参照)。以下、このような手法をパンニングパノラマ合成と呼ぶ。従来、パンニングパノラマ合成を行う際に、合成の繋ぎ目に物体が存在すると、物体が一部切れた不自然なパノラマ画像になることがある。この不自然なパノラマ画像を抑制するため、例えば特許文献2に記載の方法では、物体までの距離情報を用いて画像間に共通する物体を重ね合わせている。そして、重ね合わせた位置から画像中心部に対して反対側の位置で各画像を切り出すことによって、物体を包含して合成するようにしている。
特開2010−28764号公報 特開2010−187194号公報 特開2012−150224号公報
しかしながら、特許文献2で提案された技術では、重ね合わせた位置から画像中心部に対して反対側の位置に別の物体が存在している場合は、切り出した画像の繋ぎ目に物体が存在してしまい、不自然なパノラマ画像になってしまうことがある。
本発明は前述の問題点に鑑み、複数の物体が存在する場合に適切に画像を切り出して合成画像を生成できるようにすることを目的としている。
本発明に係る画像処理装置は、所定の方向にパンニングしながら被写体を撮像した複数の画像データを取得する取得手段を備えた画像処理装置であって、前記画像処理装置と前記被写体との間の距離を検出する検出手段と、前記検出手段により検出された距離に基づいて、前記取得手段によって取得された画像データを切り出す位置を評価する評価手段と、前記評価手段によって評価された切り出す位置に従って、前記複数の画像データをそれぞれ切り出す切り出し手段と、前記切り出し手段により切り出された複数の画像データを合成して、前記画像データよりも広角な合成画像データを生成する合成手段と、を備えることを特徴とする。
本発明によれば、複数の物体が存在する場合であっても、切り出す領域を適切に評価して、物体の一部が途切れた不自然な合成画像を生成することを抑制することができる。
本発明の実施形態に係るデジタルカメラの内部構成例を示すブロック図である。 本発明の第1の実施形態において、パンニングパノラマ合成モードでパノラマ画像を生成する処理手順の一例を示すフローチャートである。 画像データの切り出し領域の一例を示す図である。 デジタルカメラから被写体までの距離を説明するための図である。 図4に示す撮影状況で撮影された画像の一例を示す図である。 画像の距離マップの一例を示す図である。 評価値を算出する際のDエリアの読み出し順序を説明するための図である。 評価値の算出結果のテーブルの一例を示す図である。 図8に示した判断結果を画像に関連付けた結果の一例を示す図である。 全体画像から切り出された画像の一例を示す図である。 パノラマ合成された画像の振り分けを説明するための図である。 最終的にパノラマ合成された画像の一例を示す図である。 本発明の第2の実施形態において、パンニングパノラマ合成モードでパノラマ画像を生成する処理手順の一例を示すフローチャートである。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係るデジタルカメラ100の内部構成例を示すブロック図である。
図1において、撮像部121は、A/D変換部104へ撮像信号を出力する。本実施形態においては、後述するパンニングパノラマ合成モードにより撮像信号を生成することが可能である。A/D変換部104は、撮像信号を画像データにデジタル化し、画像処理部105へ出力する。
画像処理部105は、ホワイトバランス、色変換等の様々な画像形成処理や、形成後の画像を圧縮する圧縮処理、人物の顔が誰であるかを認識する画像認識処理を行う。また、画像処理部105は、画像を領域で切り出す切り出し処理、複数の画像の位置合わせを行う位置合わせ処理、および複数の画像を合成する合成処理を行う。本実施形態においては、さらに、画像処理部105は、物体が存在するか否かを判断する物体判断処理、および判断に使用した情報や判断結果を画像データと関連付けてメタデータとして書き込む関連付け処理を行う。
画像処理部105により処理された画像データは、バス112を介してメインメモリ114へ一時的に格納される。格納された画像データは記録部115を介して外部の記録媒体(図示せず)に記録されるか、もしくは通信部116を介して、パーソナルコンピュータ等の外部装置(図示せず)に送信される。なお、メインメモリ114に格納された画像データは画像処理部105により再処理することが可能である。
スイッチ群117は、レリーズスイッチ、モード切替スイッチなどから構成され、撮影モードの設定など、撮影に関わる様々な情報をCPU111へ出力する。またレリーズスイッチが出力する信号は、AEやAFの動作開始トリガや、撮影の開始、完了トリガとなる。CPU111はこれらの開始トリガを受けて、撮像部121、表示部106など、撮影装置の各部の制御を行う。また、ROM113には、CPU111が実行するためのプログラムやデータが格納されている。
表示部106は、デジタルカメラ100のユーザインターフェース画面を表示するか、電子ビューファインダとして使用するか、もしくは撮影後の広角画像を表示する。また、表示部106はタッチパネルを有しており、タッチ操作の情報をCPU111へ出力する。
次に、パンニングパノラマ合成モードにおいて、パンニングしながら連続撮影し、連続撮影した画像を合成してパノラマ画像を生成する手順について、図2のフローチャートを参照しながら説明する。
図2は、本実施形態において、パンニングパノラマ合成モードでパノラマ画像を生成する処理手順の一例を示すフローチャートである。
まず、ユーザーによりスイッチ群117が操作されることによりパンニングパノラマ合成モードの指示が出されると、処理を開始する。そして、ステップS201において、CPU111は、ROM113、メインメモリ114もしくは記録部115から、パンニングの方向などの必要な撮影条件の情報を読み出し、撮影条件として設定する。撮影条件は予め初期値が設定されており、スイッチ群117から入力される情報により任意の撮影条件を設定することも可能である。
次に、ステップS202において、撮像部121により撮像処理を行い、A/D変換部104、画像処理部105の処理を経て、メインメモリ114に画像データを書き込む。このとき、パンニングしながら連続撮影し、複数の画像データをメインメモリ114に書き込む。書き込んだ画像データの詳細については後述する。
次に、ステップS203において、画像処理部105は、メインメモリ114から画像データを読み出し、読み出した画像データをあらかじめ決められた距離情報取得エリア(以下、Dエリアとする)に分割する。Dエリアの分割数は、画像処理部105の演算能力やフレームレート等の制限に応じて適宜決められる。すなわち、フレームレートが高い、あるいは画像処理部105の演算能力が低いほど、Dエリアの分割数を少なくするようにしてもよい。
次に、ステップS204において、画像処理部105は、各Dエリアを代表する距離情報として被写体距離を算出する。ここで、1つのDエリアに複数の距離情報が存在する場合は、中央値、平均値などを用いて被写体距離を算出する。Dエリアごとの距離情報は、位相差方式や、測距センサ(図示せず)、任意のアルゴリズムなどを用いて取得し、画像データと関連付ける。また、画像データのメタファイルに被写体までの距離情報が書き込まれている場合は、その距離情報をそのまま使用してもよい。
なお、位相差方式によってDエリアごとの距離情報を取得する場合は、例えば特許文献3に記載の方法のように、撮像部121内の画素配列(図示せず)を撮影用画素と焦点検出用画素とに分類しておく。そして、焦点検出用画素を画素配列の全領域へ離散的に分布しておくことにより、撮影用画素の近傍に分布された焦点検出画素から焦点検出を行って画像データのDエリア毎の距離情報を取得する。そして、画像処理部105は、このようにして得られたDエリアごとの被写体距離を距離マップとして生成する。距離マップの詳細については後述する。
次に、ステップS205において、画像処理部105は、生成した距離マップから評価値を算出する。評価値の算出方法の詳細については後述する。次に、ステップS206において、画像処理部105は、算出した評価値に基づいて、物体が存在するか否かを判断する物体判断処理を行う。この物体判断処理の詳細については後述する。次に、ステップS207において、画像処理部105は、物体判断処理の結果を画像データに書き込む関連付け処理を行う。この関連付け処理の詳細については後述する。
次に、ステップS208において、画像処理部105は、合成候補の画像データをメインメモリ114から読み出して、位置合わせ処理を行う。合成候補の画像データの数は、撮像処理された画像データの中から、画像処理部105の演算能力やフレームレート等の制限に応じて適宜決められる。すなわち、フレームレートが高い、あるいは画像処理部105の演算能力が低いほど、合成候補の画像データを少なくするようにしてもよい。なお、1枚目の画像データを生成した段階では、位置合わせを行う対象となる画像データが存在しないため、以下、ステップS208、S209の処理を省略してステップS210へ進むようにする。
また、位置合わせ処理では、合成候補の画像データの位置ずれを補正する。具体的には、画像処理部105は画像データ間の位置ずれを検出する。具体的には、画像を任意のサイズの小ブロックに分割して、小ブロック毎に輝度のSAD(Sum of Absolute Difference)が最小となる対応点を算出して、動きベクトルを算出する方法などにより位置すれを検出する。続いて、画像処理部105は、算出した動きベクトルから写像パラメータを算出して画像データの位置ずれを補正する。
次に、ステップS209において、画像処理部105は、位置合わせ処理の位置ずれ補正結果から画像データの位置合わせが可能か否かを判断する。この判断の結果、位置合わせが可能である場合(ステップS209:YES)は、画像データの合成処理が可能であると判断し、次のステップS210に進む。一方、位置合わせが不可能である場合(ステップS209:NO)は、S207で関連付けた画像データは、合成処理が不可能と判断し、ステップS220に進む。
ステップS220においては、CPU111は、表示部106に「撮影失敗しました。」などのメッセージを表示し、失敗したことを報知する。メッセージを表示後、パンニングパノラマ合成モードを終了する。
一方、ステップS210においては、画像処理部105は、ステップS207で関連付けた画像データにおいて、人物の顔を認識する画像認識処理(人物検出処理)を行う。具体的な方法としては公知の手法を用いる。画像認識処理により人物の顔が認識された領域と物体判断処理により判断された物体が存在する領域とに相違がある場合は、例えば双方の領域を包含するように判断結果を更新することにより物体判断の精度を向上させることができる。
次に、ステップS211においては、ステップS207で関連付けた画像データに対して、切り出し処理を行う。ここで、切り出し処理に関して、図3を用いて説明する。図3に示すハッチング領域は、画像データの切り出し領域を示し、図3に示す太い矢印は、パンニングの方向を示している。
図3(a)は、撮像部121の有効画像領域を示しており、WVが水平方向の有効画素数であり、HVが垂直方向の有効画素数である。図3(b)は、画像データの切り出し領域を示しており、Wcropが水平方向の切り出し画素数であり、Hcropが垂直方向の切り出し画素数である。
図3(c)は、水平方向にパンニングした場合の画像の切り出し領域を示しており、水平方向W1からW2の領域における画像データの切り出しは、WV>Wcropとし、垂直方向の画像データの切り出しは、HV=Hcropとする。また、図3(d)は、垂直方向にパンニングした場合の画像の切り出し領域を示しており、垂直方向H1からH2の領域における画像データの切り出しは、WV=Wcropとし、垂直方向の画像データの切り出しは、HV>Hcropとする。
なお、切り出し領域は、画像データ毎に異なる切り出し領域としてもよい。また、パンニング開始時およびパンニング終了時の生成された画像データに関しては、画角を広くするために切り出し領域を広くしてもよい。本実施形態では、画像処理部105の物体判断処理により物体が存在しないと判断した領域から水平方向にパンニングする場合は水平方向W1、W2を決定し、垂直方向にパンニングする場合は垂直方向H1、H2を決定する。なお、切り出し処理後の不要になった画像データはメインメモリ114から削除してもよい。
次に、ステップS212において、CPU111は、ユーザーによるスイッチ群117の操作により、パンニングパノラマ合成モードの撮影を完了する指示が出されているか否かを確認する。この確認の結果、撮影完了指示が出されている場合(ステップS212:YES)は、合成処理を行うため、次のステップS213へ進む。一方、撮影完了指示が出されていない場合(ステップS212:NO)は、パンニングして撮像処理を続けるため、ステップS202に戻る。なお、スイッチ群117の操作とは、例えばレリーズスイッチの操作により撮影完了トリガの信号が出力された場合を示す。
次に、ステップS213において、画像処理部105は、複数の画像データを用いて合成処理を行い、合成画像データとしてパノラマ画像を生成する。複数の画像データは、撮像処理された画像データの中から、画像処理部105の演算能力やフレームレート等の制限に応じて、最適な合成画像が生成できるように適宜決められ、画像データ間の重複部に加重加算などを行って合成される。最後に、ステップS214において、CPU111は、合成処理で生成したパノラマ画像を記録部115に記録し、パンニングパノラマ合成モードにおける処理を終了する。
次に、本実施形態において、パンニングパノラマ合成モードでの撮影開始からパノラマ画像の生成までの一連の流れに関して、図4から図12を用いて説明する。
図4は、デジタルカメラ100から被写体401、402、403までの距離を説明するための図である。本実施形態では、デジタルカメラ100の距離分解能は、D1、D2、D3、∞(無限)の4段階とする。図4に示す例では、被写体401はデジタルカメラ100から距離D2だけ離れた位置に存在し、被写体402、403は距離D3だけ離れた位置に存在する。また、距離D3より遠い場合は∞とする。
図5は、図4に示す撮影状況でデジタルカメラ100を水平方向にパンニングしながら連続撮影した際に、図2のステップS202で生成される画像の一例を示す図である。図5に示す例では、各被写体の水平方向の位置関係は、左から被写体403、被写体401、被写体402の順に存在する。
図6は、図2のステップS204でDエリアごとに距離を抽出して作成する距離マップの一例を示す図である。まず、図2のステップS203の処理により、図5に示した画像が水平方向にX0からX11、垂直方向にY0からY7のDエリアに分割されている。図6において、距離D1は近距離の地面が該当し、Dエリアの垂直方向Y0に分布している。距離D2は、被写体401及び中距離の地面が該当し、Dエリアの垂直方向Y1、および垂直方向Y2からY5の一部に分布している。距離D3は、被写体402、403及び長距離の地面が該当し、Dエリアの垂直方向Y2、および垂直方向Y3からY5の一部に分布している。距離∞は上記以外のDエリアに分布している。
図7は、図6の距離マップから評価値を算出する際のDエリアの読み出し順序を説明するための図である。図7において、S0からS11はDエリアの読み出し順を示している。まず、S0の矢印の方向に従って垂直方向にDエリアを連続して読み出す。このDエリアの読み出しをS1、S2、S3、・・・S11と繰り返すことにより、垂直方向の距離に着目した評価値を算出する。なお、Dエリアの読み出し順は、S11、S10、・・・S0という順序のように逆の順序でもよく、S4からS6までのように読み出す範囲を予め指定してもよく、特に限定しない。また、垂直方向にパンニングした場合は、Dエリアの読み出し方向を水平方向とすることにより、水平方向の距離に着目して評価値を算出することができる。
図8は、図5に示した画像における評価値の算出結果のテーブルを示す図である。ここで、評価値の算出方法について説明する。まず、連続して読み出したDエリア間の距離の差分を絶対値として用いる。例えば、図7のS0の矢印に従って連続する垂直方向Y0、Y1のDエリアを比較し、それぞれの距離D1、D2の差分を絶対値として評価値A1(D2−D1)を算出する。このような評価値の算出方法を繰り返して、垂直方向の距離に着目した評価値を算出する。
次に、評価値の算出時に用いる評価対象外となるDエリアでの距離について説明する。評価対象外となるDエリアにおける距離は、初期値として∞とみなされる光学系の最大値が設定されている。評価値を算出する際に、対象となるDエリアにおける距離が評価対象外となる距離以上の場合は、図2のステップS206で物体が存在しないと判断できるように評価値−を算出する。例えば、図7のS0の矢印に従って連続する垂直方向Y2、Y3のDエリアを比較する場合は、垂直方向Y3のDエリアにおける距離は距離∞のため、評価値−を算出する。なお、評価対象外となるDエリアでの距離は、ユーザーがスイッチ群117を操作することにより、任意に距離を設定することも可能である。
また、図8に示すテーブルにおいて、最上位の行は評価結果を示しおり、図8に示す例では、垂直方向毎の物体が存在するか否かの評価結果を"true"、または"false"で表記している。なお、評価結果の詳細については後述する。また、最下位の行は、Dエリアの水平方向の座標を示し、その他の行はDエリアを垂直方向に読み出した際の距離の差分を示している。例えば、垂直方向Y1での距離と直前の隣接する垂直方向Y0での距離との差分は、区間(Y1−Y0)の行に評価値を表記している。また、各評価値については、例えば、評価値A1(D2−D1)、評価値A2(D3−D2)、評価値−、評価値0(D2−D2、またはD3−D3)といった表現で表記する。
次に、垂直方向毎に物体が存在するか否かの判断に用いる評価閾値について説明する。評価閾値は、図2のステップS206で評価値から物体が存在するか否かを判断するための閾値である。評価閾値は初期値として0が設定されており、デジタルカメラ100の距離分解能に応じて適宜決められる。
次に、この評価閾値を用いて物体が存在するか否かを判断する方法について、図8に示すテーブルを用いて説明する。図8において、水平方向X0、X4、X7、X8、X10、X11は、区間(Y1−Y0)では評価値A1(D2−D1)であり、区間(Y2−Y1)では評価値A2(D3−D2)であり、区間(Y3−Y2)以降では評価値−となっている。これら全ての評価値が評価閾値を超えている場合には、物体が存在しないと判断する。なお、評価値−の場合は、評価閾値との比較は行わずに、評価閾値を超えたことと同様に判断する。
一方、水平方向X1、X2、X3においては、区間(Y3−Y2)から区間(Y5−Y4)の評価値が0(D3−D3)となり、評価値が評価閾値以下であるため、物体が存在すると判断する。また、水平方向X5、X6においては、区間(Y2−Y1)から区間(Y5−Y4)の評価値が0(D2−D2)となり、評価値が評価閾値以下であるため、物体が存在すると判断する。さらに、水平方向X9においては、区間(Y3−Y2)および区間(Y4−Y3)の評価値が0(D3−D3)となり、評価値が評価閾値以下であるため、物体が存在すると判断する。
なお、評価閾値は、例えばデジタルカメラ100の距離分解能が高い場合には、評価値が所望の範囲内であれば物体が存在していると判断できるよう範囲を設定してもよい。また、本実施形態では、垂直方向ごとに評価値が所定の評価閾値以下になる場合は、物体が存在すると判断しているが、例えば評価値が所定の評価閾値以下になる状態が複数回連続した場合に限って物体が存在すると判断してもよい。
図9は、図8に示した判断結果を図2のステップS207の関連付け処理で画像データに関連付けた結果の一例を示す図である。図9(a)におけるハッチング領域は、画像内で物体が存在しない垂直方向の領域を示し、図9(b)におけるハッチング領域は、"true"に該当する判断結果を示している。画像の垂直方向ごとに物体が存在しないと判断された場合は"true"と判断し、物体が存在すると判断された場合は"false"と判断し、その結果が画像データのメタデータに書き込まれる。つまり、画像データのメタデータを参照することにより、垂直方向X0、X4、X7、X8、X10、X11は、物体が存在しないことを確認できる。また、関連付け処理では、さらに画像データのメタデータに評価に用いた被写体までの距離情報や距離マップなどを書き込んでもよい。
図10は、図2のステップS211の切り出し処理により、図9に示した画像から切り出された画像の一例を示す図である。図10に示す例では、水平方向にパンニングして連続撮影して、7枚目の画像T7から切り出している。具体的には、図9に示す画像から物体の存在する水平方向X5、X6を切り出し禁止領域として残し、物体が存在しない水平方向X4、X7で切り出している。
図11は、図4の撮影状況で水平方向にパンニングして連続撮影し、撮影終了後に図2のステップS213で合成した画像の一例を示す図である。画像T1からT15は、水平方向にパンニングして連続撮影した15枚の画像を切り出し、位置ずれ補正したものである。このように本実施形態では、切り出した各画像のつなぎ目に被写体401、402、403は存在しない。なお、図12には、図2のステップS214で記録されるパノラマ画像の一例を示している。
以上のように本実施形態によれば、撮影した画像をDエリアに分割してそれぞれのDエリアで距離情報を取得して距離マップを生成し、物体が存在する領域を判断する。そして、物体が存在する領域に従って切り出し位置を評価するようにした。これにより、画像を切り出す際に、被写体部分が途切れることを防止することができ、被写体部分に切れ目が生じないパノラマ画像を生成することができる。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。第1の実施形態では、連続撮影時の画像データに対して物体判断処理を行う方法について説明した。これに対して本実施形態では、予め記録部115に記録されている撮影用画素と焦点検出用画素とを含むRAWデータ形式の画像データを複数用いて画像合成処理する方法について説明する。本実施形態に係るデジタルカメラ100の構成については図1と同様であるため、説明は省略する。
なお、このRAWデータは、撮像部121から出力された撮像信号をA/D変換部104で画像データに変換しただけの画像形式である。また、RAWデータは撮影用画素と焦点検出用画素とで構成されており、第1の実施形態と同様に画像データのDエリア毎の距離情報を取得することができる。
図13は、画像合成モードにおいてパノラマ画像を生成する処理手順の一例を示すフローチャートである。以下、図2と同じ処理については説明を省略する。
まず、ステップS1301において、CPU111は、読み出し条件を設定し、記録部115に記録されている複数の画像データの中からパノラマ合成に用いる画像データを検索する。読み出し条件は、全ての画像データを読み出す初期設定値が格納されており、ユーザーによるスイッチ群117の操作により任意の読み出し条件を設定することも可能である。そして、ステップS1302において、CPU111は、ステップS1301で検索された順に画像データを記録部115から読み出す。
次に、ステップS203からS211までの処理は、図2と同様の処理である。そして、ステップS1303において、ユーザーによりスイッチ群117が操作され、CPU111は、画像合成モードの中断指示を入力しているか否かを確認する。この判断の結果、中断指示を入力している場合(ステップS1303:YES)は、中断処理を行うため、ステップS220へ進む。一方、中断指示を入力していない場合(S1303:NO)は、次のステップS1304に進む。
次に、ステップS1304においては、ステップS1301で検索された画像データを全て読み出したか否かを確認する。S1301で検索された画像データを全て読み出した場合(ステップS1304:YES)は、合成処理を行うためステップS213に進む。一方、S1301で検索された画像データを全て読み出していない場合(ステップS1304:NO)は、画像データの読み出しを続けるため、ステップS1302に戻る。なお、ステップS213、S214、およびS220は図2と同様の処理である。
以上のように本実施形態によれば、画像を切り出す際に、被写体部分が途切れることを防止することができ、被写体部分に切れ目が生じないパノラマ画像を生成することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
105 画像処理部
111 CPU

Claims (13)

  1. 所定の方向にパンニングしながら被写体を撮像した複数の画像データを取得する取得手段を備えた画像処理装置であって、
    前記画像処理装置と前記被写体との間の距離を検出する検出手段と、
    前記検出手段により検出された距離に基づいて、前記取得手段によって取得された画像データを切り出す位置を評価する評価手段と、
    前記評価手段によって評価された切り出す位置に従って、前記複数の画像データをそれぞれ切り出す切り出し手段と、
    前記切り出し手段により切り出された複数の画像データを合成して、前記画像データよりも広角な合成画像データを生成する合成手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記取得された画像データを複数の領域に分割する分割手段をさらに備え、
    前記評価手段は、前記分割手段によって分割された領域ごとに水平方向または垂直方向に切り出し位置を評価することを特徴とする請求項1に記載の画像処理装置。
  3. 前記検出手段は、前記分割手段によって分割され領域ごとに距離を検出し、
    前記評価手段は、水平方向または垂直方向に隣接する領域の間の距離の差分を算出することにより切り出す位置を評価することを特徴とする請求項2に記載の画像処理装置。
  4. 前記評価手段は、前記隣接する領域の間の距離の差分が所定の値以下である場合は、隣接する方向に切り出すことを禁止する位置と評価することを特徴とする請求項3に記載の画像処理装置。
  5. 前記評価手段は、前記隣接する領域の間の距離の差分が連続して所定の値以下である場合は、隣接する方向に切り出すことを禁止する位置と評価することを特徴とする請求項3に記載の画像処理装置。
  6. 前記検出手段は、前記分割手段によって分割され領域において検出した距離が所定の値を超える場合は、無限として検出ことを特徴とする請求項3〜5の何れか1項に記載の画像処理装置。
  7. 前記評価手段による評価の結果をメタデータとして前記画像データに書き込む関連付け手段をさらに備えることを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 前記画像データから人物の存在する領域を検出する人物検出手段をさらに備え、
    前記評価手段は、前記人物検出手段により人物が検出された領域を、切り出すことを禁止する領域と評価することを特徴とする請求項3〜6の何れか1項に記載の画像処理装置。
  9. 前記取得手段は、撮像手段により前記複数の画像データを取得することを特徴とする請求項1〜8の何れか1項に記載の画像処理装置。
  10. 前記複数の画像データを記憶する記憶手段をさらに備え、
    前記取得手段は、前記記憶手段から前記複数の画像データを取得することを特徴とする請求項1〜8の何れか1項に記載の画像処理装置。
  11. 前記切り出し手段によって切り出された複数の画像データの間で位置合わせを行う位置合わせ手段をさらに備え、
    前記合成手段は、前記位置合わせ手段によって位置合わせされた複数の画像データを合成することを特徴とする請求項1〜10の何れか1項に記載の画像処理装置。
  12. 所定の方向にパンニングしながら被写体を撮像した複数の画像データを取得する画像処理装置の画像処理方法であって、
    前記画像処理装置と前記被写体との間の距離を検出する検出工程と、
    前記検出工程において検出された距離に基づいて、前記取得された画像データを切り出す位置を評価する評価工程と、
    前記評価工程において評価された切り出す位置に従って、前記複数の画像データをそれぞれ切り出す切り出し工程と、
    前記切り出し工程において切り出された複数の画像データを合成して、前記画像データよりも広角な合成画像データを生成する合成工程と、
    を備えることを特徴とする画像処理方法。
  13. 所定の方向にパンニングしながら被写体を撮像した複数の画像データを取得する画像処理装置を制御するためのプログラムであって、
    前記画像処理装置と前記被写体との間の距離を検出する検出工程と、
    前記検出工程において検出された距離に基づいて、前記取得された画像データを切り出す位置を評価する評価工程と、
    前記評価工程において評価された切り出す位置に従って、前記複数の画像データをそれぞれ切り出す切り出し工程と、
    前記切り出し工程において切り出された複数の画像データを合成して、前記画像データよりも広角な合成画像データを生成する合成工程と、
    をコンピュータに実行させることを特徴とするプログラム。
JP2013252213A 2013-12-05 2013-12-05 画像処理装置、画像処理方法およびプログラム Expired - Fee Related JP6234200B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013252213A JP6234200B2 (ja) 2013-12-05 2013-12-05 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013252213A JP6234200B2 (ja) 2013-12-05 2013-12-05 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015109593A true JP2015109593A (ja) 2015-06-11
JP6234200B2 JP6234200B2 (ja) 2017-11-22

Family

ID=53439648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013252213A Expired - Fee Related JP6234200B2 (ja) 2013-12-05 2013-12-05 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6234200B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196316A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 画像読み取り装置
JP2010187194A (ja) * 2009-02-12 2010-08-26 Olympus Corp 画像処理装置、撮像装置および画像処理方法
JP2012191486A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11196316A (ja) * 1997-12-26 1999-07-21 Minolta Co Ltd 画像読み取り装置
JP2010187194A (ja) * 2009-02-12 2010-08-26 Olympus Corp 画像処理装置、撮像装置および画像処理方法
JP2012191486A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム

Also Published As

Publication number Publication date
JP6234200B2 (ja) 2017-11-22

Similar Documents

Publication Publication Date Title
KR102351542B1 (ko) 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US8482599B2 (en) 3D modeling apparatus, 3D modeling method, and computer readable medium
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP4752918B2 (ja) 画像処理装置、画像照合方法、および、プログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2011147109A (ja) 撮像装置及び画像処理装置
JP2013009050A (ja) 画像処理装置、画像処理方法
JP2010278878A (ja) 立体画像表示装置及びその表示画像切替方法
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP2014222825A (ja) 映像処理装置および映像処理方法
JP2020053774A (ja) 撮像装置および画像記録方法
JP4872396B2 (ja) 画像編集装置、画像編集方法および画像編集プログラム
US10417743B2 (en) Image processing device, image processing method and computer readable medium
KR20130077414A (ko) 영상 처리를 통한 광축 오차 보상 방법 및 시스템, 광축 오차 보상 기능이 구현된 줌 카메라
JP4877154B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、プログラム
WO2017134770A1 (ja) 映像同期装置
JP2020187529A (ja) 画像処理装置、画像処理システム、制御方法、および、プログラム
JP6625654B2 (ja) 投影装置、投影方法、および、プログラム
JP6234200B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2010154323A (ja) 画像処理装置、画像抽出方法、および、プログラム
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP6545229B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171024

R151 Written notification of patent or utility model registration

Ref document number: 6234200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees