JP2015056790A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2015056790A
JP2015056790A JP2013189449A JP2013189449A JP2015056790A JP 2015056790 A JP2015056790 A JP 2015056790A JP 2013189449 A JP2013189449 A JP 2013189449A JP 2013189449 A JP2013189449 A JP 2013189449A JP 2015056790 A JP2015056790 A JP 2015056790A
Authority
JP
Japan
Prior art keywords
image
images
image data
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013189449A
Other languages
English (en)
Inventor
秀康 田代
Hideyasu Tashiro
秀康 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013189449A priority Critical patent/JP2015056790A/ja
Publication of JP2015056790A publication Critical patent/JP2015056790A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】 複数の視点において撮像された画像の状態を素早く、詳細度に確認することができるようにする。
【解決手段】 撮像ライブ画像データ取得部304が、複数の視点から同一の被写体を撮像して得られた複数の画像を示すライブ画像データを取得する。対応領域決定部307が、ライブ画像データに含まれる複数の画像において、同一の被写体の像を含む対応画像領域を決定する。そして、表示画像データ生成部315が、ライブ画像データを用いて、対応画像領域を含む画像領域をライブ画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べて表示するための画像を示す表示画像データを生成する。この際、表示画像データ生成部315は、表示画像データが示す画像において対応画像領域が占める割合が、ライブ画像データが示す複数の画像において対応画像領域が占める画像領域の割合よりも大きくなるように、表示画像データを生成する。
【選択図】 図3

Description

本発明は、複数の視点から撮像した画像を表示する技術に関する。
複数の撮像部を有する多眼カメラなどにより複数の視点から同一の被写体を撮像した画像を用いて、被写体の3次元画像を得たり、任意視点の画像を生成するなどの様々な画像処理技術が提案されている。
上記の画像処理を精度良く行うためには、複数の視点から撮像された画像において、被写体に正しくピントが合っていることが求められるため、ユーザが画面に表示された画像を見て、各画像の合焦状態を確認する場合がある。
ユーザが各画像の合焦状態を確認するための表示方法としては、各視点で撮像された画像を画面に1枚ずつ表示する方法と、各視点で撮像された画像を画面中に並べて表示する方法がある(特許文献1)。
特開2010−200024号公報
しかしながら、各視点で撮像された画像を画面に1枚ずつ表示する方法では、全ての視点における合焦状態を確認するのに時間がかかってしまうという課題がある。
また、各視点で撮像された画像を画面中に並べて表示する方法では、各画像が小さく表示されてしまい、各画像の合焦状態を高精度に判断することができないという課題がある。
そこで、本発明は、複数の視点において撮像された画像の状態を素早く、かつ詳細に確認することができるようにすることを目的としている。
上記課題を解決するために、本発明の画像処理装置は、複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段と、前記撮像画像データを用いて、前記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段と、前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べた画像を表示するための表示画像データを生成する生成手段とを備え、前記生成手段は、前記表示画像データが示す画像において前記対応画像領域が占める画像領域の割合が、前記撮像画像データが示す複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように、前記表示画像データを生成する。
本発明により、複数の視点において撮像された画像の状態を素早く、かつ詳細に確認することができる。
実施例1の多眼カメラの外観を示す図。 実施例1の多眼カメラの内部構成を示す図。 実施例1の画像処理部の構成を示すブロック図。 実施例1の画像処理部で行われる処理を示すフローチャート。 多眼カメラと被写体の配置を説明する図。 実施例1のカメラパラメータを説明する図。 実施例1の表示画面の一例を示す図。 実施例1の対応画像領域の座標を示す表。 実施例1の表示画面の一例を示す図。 実施例2の画像処理部の構成を示すブロック図。 実施例2の画像処理部で行われる処理を示すフローチャート。 実施例2の表示画面の一例を示す図。 実施例3の画像処理部の構成を示すブロック図。 実施例3の画像処理部で行われる処理を示すフローチャート。 実施例3の表示画面の一例を示す図。
<実施例1>
本実施例では、複数の視点から同一の被写体を撮像する撮像装置として、9個の撮像部を備えた多眼カメラが用いられる。この多眼カメラによって取得された画像において、各撮像部で取得された画像の合焦状態を素早く、かつ詳細度に確認する方法について説明する。
図1(a)は、本実施例における多眼カメラ100を前面から見た図である。多眼カメラ100は9個の撮像部101〜109を有し、それぞれの撮像部は3行3列の正方格子状に配置されている。全ての撮像部は筺体の同一平面上に配置され、その光軸はすべて平行であり、配置された平面に垂直である。シャッターボタン110は画像データの記録を制御するボタンであり、ユーザがシャッターボタン110を押すことで、その時点での画像データが記録される。図1(b)は多眼カメラ100を背面から見た図である。撮像装置の背面には表示部111が配置されており、撮像時のライブ画像又はシャッターボタン110の押下により記録された画像を表示する。
図2は本実施例における多眼カメラ100内部構成を示す図である。撮像部101〜109は、撮像センサーで受光した被写体の光情報にA/D変換を施し、データ転送経路であるバス213にデジタルデータとして出力する。
フラッシュ201は、LEDなどの発光素子を備えた発光装置であり、撮影時に十分な環境光が得られない場合に、被写体に光を照射する。
ROM202は、撮像や画像処理に必要なプログラム、データなどをCPU204に提供する。
RAM203は、CPU204の作業領域として機能する。
CPU204はRAM203をワークメモリとして、ROM202に格納されたプログラムを実行し、バス213を介して多眼カメラ100の各構成部を制御する。これにより、多眼カメラ100においては、後述する様々な処理が実行される。
撮像装置制御部205は、フォーカスを合わせる、シャッターを開く、絞りを調節するなどの、CPU204から指示された撮像系の制御を行う制御回路である。
操作部206は、ボタンやモードダイヤルなどの操作ユニットであり、これらを介して入力されたユーザ指示を受け取り、CPU204へと出力する。
CG生成部207は、GUIなどに用いられる、文字やグラフィックを生成する処理回路である。
表示部111は、液晶ディスプレイであり、CG生成部207や後述のデジタル信号処理部208、画像処理部212から受け取った撮像画像や文字の表示を行う。また、本実施例において、表示部111にはタッチパネルが重畳して設けられており、ユーザは表示部111に対してタッチ操作を行うことによってもユーザ指示を入力することができる。つまり、表示部111は、タッチ操作によるユーザ指示を受付ける。
デジタル信号処理部208は、撮像部101〜109から受けとったデジタルデータにホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、画像データを生成する処理回路である。
圧縮・伸張部209は、上記画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う処理回路である。
外部メモリ制御部210は、メディア211(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)につなぐためのインターフェースである。多眼カメラ100は、シャッターボタン110の押下により、取得された画像データをこのメディア211に記録する。もちろん、ROM202などの内部メモリに記録しても良い。
画像処理部212は、撮像部101〜109から得られた画像データ或いは、デジタル信号処理部から出力される画像データを利用して新たな画像を生成し、その結果をバス213へ出力する処理回路である。
上記以外の装置の構成要素は本願発明の主眼ではないので特に説明しないが、本発明の効果を奏する構成であれば、様々な構成を取ることができる。
図3は、本実施例における画像処理部212の構成を示すブロック図である。以下、画像処理部212にて行われる処理を、図3に示すブロック図および図4に示すフローチャートを参照して説明する。画像処理部212においては、図4のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM202からRAM203上に読み込んだ後に、CPU204によって該プログラムを実行することによって当該処理が実施される。なお、画像処理部212を処理回路としたが、画像処理部212の各機能ブロックの一部または全部を、プログラムを実行したCPU204による処理に置き換えた構成としても良い。
まず、ステップS401では、カメラパラメータ取得部303が、撮像部101〜109のカメラパラメータを取得し、対応領域決定部307に出力する。カメラパラメータは撮像部101〜109の焦点距離や、光軸中心の位置を表す内部パラメータと、各撮像部の三次元座標を表す外部パラメータ等から成る。本実施例では、以下に示すように、内部パラメータは3×3行列で、外部パラメータは3×3回転行列および3×1並進ベクトルで表される。
Figure 2015056790
Figure 2015056790
Figure 2015056790
以下、各パラメータを図5を参照して説明する。f、f、c、cはそれぞれピクセル換算したx方向(画面水平方向)およびy方向(画面鉛直方向)における焦点距離と、光軸中心の画素位置である。r11〜r33は実空間におけるx、y、z軸周りのカメラ回転を表す行列成分である。t、t、tは原点Oに対する各撮像部の光軸中心の3次元座標である。本実施例では撮像部101〜109には焦点距離50mmの単焦点レンズと、横36mm×縦24mmサイズで画素数が3456×2304pixelのCMOSセンサーを使用している。また、撮像部101〜109はx−y平面上に50mm間隔で正方格子状に並べて配置されている。そのため、この時の各撮像部の内部パラメータf、f、c、cと、外部パラメータr11〜r33、t、t、tは、図6(a)、(b)、(c)に示す通りとなる。
次に、ステップS402では、撮像ライブ画像データ取得部304が、撮像部101〜109での撮像によりライブ画像データを取得し、注目領域取得部305および画像領域拡縮部309に出力する。
次に、ステップS403では、注目領域取得部305が、ユーザの指示により注目画像領域の選択指示が行われているかどうかを判断する。ユーザは、表示部111に対するタッチ操作により、注目する画像領域を選択する。ユーザによる注目画像領域の選択指示がなされている場合には、ステップS404に進む。ユーザによる注目画像領域の選択指示がなされていない場合には、ステップS408に進む。
ステップS404では、注目領域取得部305が、表示部111に対するタッチ操作によりユーザが指定した点に基づいて、撮像ライブ画像データ取得部304から入力されたライブ画像データにおいて、ユーザが選択した画像領域を特定する。
図7に、ユーザが注目画像領域を指定する場合の、表示部111の表示画面を示す。図7において、各撮像部の撮像によって取得されたライブ画像データは、各撮像部の視点位置に応じた場所に表示されている。つまり、左上には撮像部103に対応するライブ画像データが、中心には撮像部105に対応するライブ画像データが表示される。ユーザは、この画面上で所望の点をタッチすることで、注目画像領域を選択する。この時、どの撮像部に対応するライブ画像データ上で注目画像領域を選択しても良いが、本実施例においては、撮像部105に対応するライブ画像データにおいて注目画像領域を選択する。
注目画像領域としては、タッチ操作によりユーザが指定した点を中心とした矩形領域が特定される。この時、この矩形領域の大きさは、操作部206の操作によりユーザが自由に設定することが可能である。本実施例においては、この矩形領域の大きさは1440×960pixelである。タッチ操作によりユーザが指定した点の座標が(1728,1152)である場合に、矩形領域の各頂点の画像座標は、A(1008,1632)、B(2448,1632)、C(1008,672)、D(2448,672)となる。注目領域取得部305は、ここで得られた矩形領域の頂点の画像座標および、注目画像領域が選択されたライブ画像データに対応する撮像部を示す情報を対応領域決定部307に出力する。
ステップS405では、被写体距離取得部306が、注目画像領域の選択がなされたライブ画像データに対応する撮像部105に対し、撮像装置制御部205を介してフォーカス制御を行うことで、注目画像領域内の被写体と撮像装置間の距離を取得する。具体的には、位相差AFやコントラストAF等による公知の手法を用いてステップS403で取得した注目画像領域内に写る被写体にピントが合うように撮像部105のフォーカス位置を制御する。被写体にピントが合ったときのフォーカス位置から、注目画像領域内に写る被写体と撮像装置間の距離zを取得することができる(図5)。なお、本実施例においては、被写体―撮像装置間距離z=1000mmである。被写体距離取得部306は、取得した被写体―撮像装置間の距離zを対応領域決定部307に出力する。
ステップS406では、対応領域決定部307が、ステップS401で取得されたカメラパラメータと、ステップS404で取得された注目画像領域と、ステップS405で取得された被写体距離から、各視点における対応画像領域を決定する。ここで、対応画像領域とは、ステップS404で取得された注目画像領域に対応する画像領域である。対応領域決定部307は、以下の式(1)に従い、注目画像領域R105の各頂点A、B、C、Dに対応する実空間上の点の3次元座標P、P、P、P、および、それに対応する各視点のライブ画像データにおける対応点の画像座標を決定する(図5)。
Figure 2015056790
kは右辺の(3,1)成分を1に規格化する係数で、本実施例ではk=1000である。(x,y,z)は、撮像部105の撮像面中心を原点とした場合の、実空間における被写体の3次元座標を示す。(u,v)は、対応画像領域を決定する画像における、被写体の対応点の画像座標を示す。その他のパラメータは、図6に示されるカメラパラメータである。
撮像部105に対応するカメラパラメータおよび(u,v)の値を代入して式(1)を解くと、P〜P(x,y,z)の値を求めることができる。本実施例においては、P=(―150,100,1000)、P=(150,100,1000)、P=(―150,―100,1000)、P=(150,―100,1000)となる。
次に、対応領域決定部307は、求めたP〜Pの値と、図6に示すカメラパラメータを式(1)に代入し、各撮像部のライブ画像データにおける対応画像領域R101〜R109の各頂点A〜Dの画像座標(u,v)を決定する。図8はその結果をまとめたものである。対応領域決定部307は、ここで求めた各視点における対応画像領域の各頂点の画像座標を、表示倍率設定部308および画像領域拡縮部309に出力する。
ステップS407では、表示倍率設定部308が、ステップS406で決定した各撮像部に対応するライブ画像データ上での対応画像領域R101〜R109から、表示部111に表示する各視点の画像データの拡縮倍率Qを設定する。本実施例では各視点の注目画像領域(1440×960pixel)が撮像画像データのサイズ(3456×2304pixel)になるように、倍率Q=3456/1440=2.4とする。設定した拡縮倍率Qは、画像領域拡縮部309に出力される。
ステップS408では、画像領域拡縮部309が、各撮像部に対応するライブ画像データをステップS406で決定した対応画像領域R101〜R109を切り出し、ステップS407で設定した拡縮倍率で拡縮する。なお、ここで使用した対応画像領域の座標および拡縮倍率はRAM203に保存しておき、新たな注目画像領域の座標および拡縮倍率の入力がない場合には、RAM203に保存された値を用いて処理を行う。ここで処理された画像データは、表示画像データ生成部315に出力される。なお、ユーザにより注目画像領域が選択されていない場合は、ライブ画像データの切り出しも拡縮も行わず、そのままのライブ画像データを表示画像データ生成部315に出力する。
ステップS409では、表示画像データ生成部315が、画像領域拡縮部309から出力された画像データを二次元に並べた表示画像データを生成する。表示画像データは端子311を介して表示部111に出力され、表示される。
ステップS410では、記録画像データ取得部310が、シャッターボタン110が押されたかどうかを判定する。シャッターボタン110が押された場合は、画像データを記録すると判定し、ステップS411へ移行する。シャッターボタン110が押されていない場合は、記録画像データ取得部310は、画像データを記録しないと判定し、ステップS402へ戻る。
ステップS411では、記録画像データ取得部310が、撮像部101〜109で撮像した画像データを取得し、外部メモリ制御部210を介してメディア211に出力して処理を終了する。
以上の処理によって、各視点における注目画像領域に対応する画像領域が拡大表示されるので、ユーザは素早く、かつ詳細に各視点における被写体のピントずれを確認することができる。例えば、図9(a)に示す表示画像データを上記処理に基づいて拡大表示することで、図9(b)に示すようにピントずれを確認することができる。ピントずれを確認したユーザは、それに合わせて撮像装置制御部205を介してフォーカス位置の調整を行ってから、シャッターボタン110を押して画像データの取得を行うことができる。
なお、本実施例では9個の撮像部として、3行3列の正方格子上に配置した多眼カメラが用いられたが、複数の視点から被写体を撮像した画像データを取得できる撮像装置であれば良く、特に撮像部の個数や配置が限定されるものではない。また、複数の独立したカメラによって取得された画像に対して本実施例に示した処理を行っても良い。
また、本実施例では同一焦点距離のレンズを取り付けた9個の撮像部を有する多眼カメラが用いられたが、広角、望遠、ズームレンズ等の異なる焦点距離を持つレンズを取り付けたカメラが用られても良い。
また、本実施例ではユーザがタッチパネル操作により注目画像領域の指定を行ったが、画像認識処理などにより自動で注目画像領域が指定されるようにしても良い。例えば、撮像画像データに対して、顔認識等の公知の物体認識技術を用いて注目被写体の画像領域を抽出し、抽出された領域が注目画像領域として指定されるようにしても良い。また、シャッターボタンを半押しした状態のときに物体認識処理を動作させるようにしても良い。
また、タッチパネル操作により注目画像領域の指定を行うのではなく、画面に表示したカーソルをユーザがジョイスティックなどで操作して注目画像領域の指定を行うようにしても良い。
本実施例ではフォーカス位置を用いて被写体と撮像装置間の距離が取得されたが、各視点の撮像画像データに対して被写体の特徴点を抽出・マッチング処理し、三角測量の原理に基づき被写体距離を取得するようにしても良い。また、撮像素子以外の外部センサーを用いて被写体距離を取得しても良い。例えばレーザー照射によるタイム・オブ・フライト方式や三角測量の原理に基づき被写体距離を取得しても良く、特に被写体距離の取得方法を限定するものではない。また、マクロ撮影モードや風景撮影モードなどの撮影モードに応じて仮想の被写体距離を設定しておき、設定された被写体距離を用いて対応画像領域を設定するようにしても良い。
また、対応画像領域の決定の仕方は本実施例で挙げた例に限られず、注目画像領域に含まれる被写体の像と同一の被写体に対応する像を含む画像領域が、対応画像領域として決定されるようにすればどのように決定しても良い。
また、本実施例では、切り出した画像データを二次元に並べて表示画像データを生成したが、表示画像データの例はこれに限られるものではなく、最終的に表示部111に表示される画像が、切り出し画像を並べたものになる例であれば良い。例えば、切り出し画像を個別に表示部に対して出力し、各画像の表示位置を示す情報を一緒に出力することで、表示部111において切り出し画像を並べた画像が表示されるようにしても良い。
また、切り出し画像の並べ方は二次元に限られず、各視点の合焦状態が確認しやすい表示方法であれば、一次元や三次元に並べても良い。
本実施例では撮像素子として横36×縦24mmで画素数が3456×2304pixelのCMOSセンサーを使用したが、被写体の光情報を取得できる撮像素子であれば良く、特に撮像素子の種類、サイズ、画素数を限定するものではない。
また、注目画像領域を1440×960pixelの矩形領域としたが、被写体周辺の画素領域を抽出できる領域であれば良く、特に領域の形状やサイズを限定するものではない。
また、各撮像部のライブ画像データにおける対応画像領域を導出した結果、対応画像領域が画像データの画像領域をはみ出る場合は、はみ出た領域を黒表示しても良いし、はみ出ないようにトリミング又はシフトした画像領域を対応画像領域としても良い。
また、本実施例において、画像領域拡縮部309は、対応領域決定部307によって決定された対応画像領域を切り出す処理を行ったが、対応画像領域よりも広い範囲の画像領域を切り出すような処理を行っても良い。
また、本実施例において、画像領域拡縮部309は、切り出した画像領域を拡大する処理を行ったが、生成される表示画像データの総ピクセル数が、入力されるライブ画像データよりも小さい場合などは、切り出した画像領域を縮小する処理を行っても良い。この時、最終的な表示画像データが示す画像において対応画像領域が占める画像領域の割合が、ライブ画像データが示す複数の画像において対応画像領域が占める画像領域の割合よりも大きければ良い。例えば、表示画像データの総ピクセル数を前記表示画像データに含まれる画像データの枚数で割った値に、ライブ画像データの総ピクセル数が一致するようにライブ画像データを拡縮した場合よりも、切り出した画像データの縮尺が大きければ良い。この場合には、ライブ画像データを、切り出した画像データと同じように並べた場合よりも、表示部111において対応画像領域が拡大して表示されることになるので、合焦状態の確認を容易に行うことができる。
また、本実施例において、9個の撮像部で取得された画像データ全てが同じ大きさの領域に表示されていたが、各撮像部によって表示領域の大きさを変えるようにしても良い。
なお、本実施例において、撮像ライブ画像データ取得部310は、複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段として機能した。
また、対応領域決定部307は、前記撮像画像データにおいて、記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段として機能した。
また、表示画像データ生成部315は、表示画像データを生成する生成手段として機能した。この生成手段は、前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べて表示するための画像を示す表示画像データを生成した。
また、注目領域取得部305は、前記撮像画像データに含まれる第一の画像について注目画像領域を特定する特定手段として機能した。
また、表示部111は、前記表示画像データに基づいて、前記切り出し画像を並べて表示する表示手段として機能した。
また、表示部111は、ユーザ指示を受付ける受付手段としても機能した。
また、本実施例において、対応画像領域を選択する前の表示は、複数の視点から同一の被写体を撮像して得られた複数の画像を並べて表示する第一の表示モードと言い変えることができる。
また、本実施例において、対応画像領域を拡縮した後の表示は、第二の表示モードと言い変えることができる。第二の表示モードでは、切り出し画像が、表示手段の表示画面において対応画像領域に対応する画像が占める画像領域の割合が、撮像画像データが示す複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示される。
<実施例2>
実施例1では、ライブ画像データが二次元に並べられた表示画像データに基づいて、ユーザが注目画像領域を決定した。実施例2では、多眼カメラ100が、複数ある撮像部のうちの代表撮像部により取得された画像データを全画面表示する表示モードを備え、ユーザが全画面表示された画像データに基づいて注目画像領域を決定する場合について述べる。なお、本実施例における多眼カメラ100のハードウェア構成は実施例1におけるものと同様であるため、説明を省略する。
本実施例においては、図12に示すように、代表撮像部で取得されたライブ画像データが全画面表示される表示モード1と、各撮像部で取得されたライブ画像データが二次元に並べて表示される表示モード2とが切り替え可能になっている。本実施例においては表示モード1においてユーザが注目画像領域を選択し、そのユーザ指示に基づいて取得された各視点における対応画像領域が、表示モード2で表示される。これにより、ユーザはより大きな画像に基づいて注目画像領域を選択することができるので、より簡便に所望の注目画像領域を選択できるようになる。なお、本実施例において、代表撮像部は撮像部105とするが、他の撮像部を代表撮像部としても良い。
また、本実施例において、ユーザは、操作部206の操作により、注目画像領域を選択し直すためのリセット指示を入力することができる。表示モード2においてリセット指示が入力された場合、取得された注目画像領域は初期化され、表示モードは再び表示モード1へと変更される。これにより、注目画像領域を間違えて選択してしまった場合でも、注目画像領域を選択し直すことができる。
図10は、本実施例における画像処理部212の構成を示すブロック図である。実施例1における画像処理部212との違いとして、表示モード設定部1001が追加されている。以下、画像処理部212にて行われる処理を、図10に示すブロック図および図11に示すフローチャートを参照して説明する。画像処理部212においては、図11のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM202からRAM203上に読み込んだ後に、CPU204によって該プログラムを実行することによって当該処理が実施される。
まず、ステップS401は、実施例1と同様の処理であるので、説明を省略する。
ステップS1101では、撮像ライブ画像データ取得部304は、撮像部101〜109での撮像によりライブ画像データを取得し、注目領域取得部305、画像領域拡縮部309および表示画像データ生成部315に出力する。
次に、ステップS1102では、注目領域取得部305が、RAM203に保存された表示モードを示すパラメータを読み込み、表示モードを判定する。表示モードが1であると判定された場合にはステップS1103に進み、表示モードが2であると判定された場合には、ステップS1106に進む。なお、初期状態では、表示モードは1に設定されている。
次に、ステップS1103では、注目領域取得部305が、ユーザの指示により注目画像領域の選択指示が行われているかどうかを判定する。ユーザによる注目画像領域の選択指示が行われていると判定された場合には、ステップS404に進む。ユーザによる注目画像領域の選択指示が行われていないと判定された場合には、ステップS1104に進む。
ステップS1104では、画像領域拡縮部309が、注目画像領域の選択が行われたことを示す情報を表示モード設定部1001に出力する。表示モード設定部1001は、画像領域拡縮部309から入力された情報を受け、表示モードを2に設定する。ここで、表示モードの設定は、RAM203に保存された、表示モードを示す情報を書き換えることによって行われる。
以下、ステップS404〜ステップS408については、実施例1と同様の処理であるので、説明を省略する。
次に、ステップS1105では、表示画像データ生成部315が、表示部111に表示する表示画像データを生成する。表示モードが1である場合、表示画像データは、撮像ライブ画像データ取得部から入力された、代表撮像部により取得されたライブ画像データとなる。表示モードが2である場合、実施例1のステップS409と同様の処理により、表示画像データが生成される。
ステップS1102により表示モードが2であると判定された場合、表示モード設定部1001は、ユーザによるリセット指示が入力されているかどうかを判定する(ステップS1106)。リセット指示が入力されたと判定された場合、ステップS1107に進む。リセット指示が入力されていないと判定された場合、表示モードを変更せずにステップS408に進む。
ステップS1107では、表示モード設定部1001が、表示モードを1に変更し、ステップS1105に進む。
以下、ステップS410およびステップS411は実施例1と同様の処理であるので、説明を省略する。
以上の処理により、より大きな画像に基づいて注目画像領域を選択することができるので、ユーザはより簡便に所望の注目画像領域を選択できるようになる。
さらに、注目画像領域を選択し直すことができるため、ユーザはより気軽に注目画像領域の選択を行うことができるようになる。
本実施例において、表示モード1で代表撮像部により取得されたライブ画像データが単独で全画面表示されたが、単独であったり全画面表示である必要はない。例えば、他視点で撮像された画像を隅に縮小表示し、代表視点で撮像された画像を中心に大きく表示するなど、代表視点に対応する画像が、複数の撮像画像から抜き出して表示されていればよい。なお、ここで抜き出すとは、複数の画像から選び出す動作を必要とするものではなく、あらかじめ代表視点の撮像部だけを異なる処理回路につないでおき、代表視点の画像だけに異なる表示処理がなされる場合も含む。
なお、本実施例において、撮像ライブ画像データ取得部310は、複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段として機能した。
また、対応領域決定部307は、前記撮像画像データにおいて、記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段として機能した。
また、表示画像データ生成部315は、表示画像データを生成する生成手段として機能した。この生成手段は、前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べて表示するための画像を示す表示画像データを生成した。
また、注目領域取得部305は、前記撮像画像データに含まれる第一の画像について注目画像領域を特定する特定手段として機能した。
また、表示部111は、前記表示画像データに基づいて、前記切り出し画像を並べて表示する表示手段として機能した。
また、表示部111は、ユーザ指示を受付ける受付手段としても機能した。
なお、本実施例において、表示モード1は、第一の画像を、複数の視点から同一の被写体を撮像して得られた複数の画像から抜き出して表示する第一の表示モードと言い変えることができる。
また、表示モード2は、第二の表示モードと言い変えることができる。第二の表示モードでは、切り出し画像が、表示手段の表示画面において対応画像領域に対応する画像が占める画像領域の割合が、撮像画像データが示す複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示される。
<実施例3>
実施例3では、表示モード2において、広角で表示されたライブ画像データと、注目画像領域を切り出して拡縮した切り出し画像データとを混在して表示する場合について説明する。なお、本実施例における多眼カメラ100のハードウェア構成は実施例1におけるものと同様であるため、説明を省略する。
本実施例においては、図15に示すように、表示モード2において、注目被写体を切り出して拡縮した切り出し画像データと、広角で表示された、つまり、切り出し画像データよりも大きい被写体領域に対応するライブ画像データとが混在して表示される。これにより、ユーザは各視点の合焦状態の確認に加え、撮影時の画角の確認も同時に行えるようになる。
さらに、本実施例において、各撮像部の広角/切り出し表示は簡便に切り替えられるようになっているので、ユーザはそれぞれの撮像部の画角に所望の被写体が全て収まっているかどうかも簡便に確認できる。
図13は、本実施例における画像処理部212の構成を示すブロック図である。実施例2における画像処理部212との違いとして、広角視点決定部1301が追加されている。以下、画像処理部212にて行われる処理を、図13に示すブロック図および図14に示すフローチャートを参照して説明する。画像処理部212においては、図14のフローチャートに示す手順を記述したコンピュータで実行可能なプログラムをROM202からRAM203上に読み込んだ後に、CPU204によって該プログラムを実行することによって当該処理が実施される。
まず、表示モード1における処理について説明する。実施例1および2で説明したステップについての説明は省略する。
ステップS1401では、画像領域拡縮部309がステップS407と同様の処理により、ライブ画像データのトリミングおよび拡縮を行う。この時、画像領域拡縮部309は、RAM203に保存された、拡縮を行う画像データに対応する視点を示す広角視点情報に基づいて、トリミングおよび拡縮を行う画像データを決定する。ここで、広角視点情報により指定されていない視点に対応する画像データはステップS404〜S407において決定された情報に基づいて拡縮される。一方、広角視点情報により指定されていない視点に対応する画像データはそのまま表示画像データ生成部315に出力される。なお、初期状態では、代表撮像部である撮像部105に対応する画像データが広角表示されるように設定されている。
次に、表示モード2における処理について説明する。
ステップS1106において、リセット指示がなされていないと表示モード設定部1001に判定された場合、ステップS1402に進む。
ステップS1402では、広角視点決定部1301が、ユーザにより広角視点選択指示が入力されたかどうかを判定する。ここで、ユーザは表示部111に表示された、所望の画像をタッチすることで、広角表示する視点を選択する。ユーザにより広角視点選択指示が入力されたと判定された場合、ステップS1403に進む。ユーザにより広角視点選択指示が入力されていないと判定された場合、ステップS1401に進む。
次に、ステップS1403では、広角視点決定部1301が、入力された広角視点選択指示に基づいて、広角視点情報を更新する。既に広角表示されている画像上でタッチが検出された場合、広角視点決定部1301は、その画像に対応する視点を示す情報を広角視点情報から削除する。また、切り出し表示されている画像上でタッチが検出された場合、その画像に対応する視点を示す情報を広角視点情報に追加する。広角視点情報が更新されたら、ステップS1401に進み、ライブ画像データからの切り出しおよび拡縮を行う。
以上の処理により、表示モード2において、広角で表示されたライブ画像データと注目被写体を切り出して拡縮した画像データが混在して表示されるので、ユーザは各視点の合焦状態の確認に加え、撮影時の画角の確認も同時に行えるようになる。
さらに、各撮像部の広角/切り出し表示を簡便に切り替えられるので、ユーザはそれぞれの撮像部の画角に所望の被写体が全て収まっているかどうかも簡便に確認できる。
なお、本実施例において、広角画像はそのままのライブ画像データであるとしたが、切り出し画像データよりも広い被写体範囲を示す画像であれば、ライブ画像データをトリミングした画像であっても良い。
なお、本実施例において、撮像ライブ画像データ取得部310は、複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段として機能した。
また、対応領域決定部307は、前記撮像画像データにおいて、記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段として機能した。
また、表示画像データ生成部315は、表示画像データを生成する生成手段として機能した。この生成手段は、前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べて表示するための画像を示す表示画像データを生成した。
また、注目領域取得部305は、前記撮像画像データに含まれる第一の画像について注目画像領域を特定する特定手段として機能した。
また、表示部111は、前記表示画像データに基づいて、前記切り出し画像を並べて表示する表示手段として機能した。
また、表示部111は、ユーザ指示を受付ける受付手段としても機能した。
また、広角視点決定部1301は、前記表示画像データにおける第一の位置に配置される画像として、前記撮像画像データが示す複数の画像のうちの同じ画像に対応する、前記広角画像と前記切り出し画像のうちの一方を選択する選択手段としても機能した。
<その他の実施例>
実施例は上記の構成に限定されるものではなく、上記の複数の実施例を組み合わせた構成であっても良い。例えば、第三の実施例において、第一の実施例のように、複数の画像が並べて表示された画面において注目画像領域の指定を行うようにしても良い。
また、上記の実施例では、多眼カメラにより取得された画像を用いられたが、複数の視点に対応する画像であればどのような画像が用いられても良い。例えば、撮像素子の前にマイクロレンズアレイを備えたPlenopticカメラにより取得された画像が用いられても良い。また、独立した複数の異なるカメラにより取得された画像が用いられても良い。
また、実施例は撮像部と処理部を備えたカメラのみに限定されるものではなく、上記の実施例で行われる処理の一部が別のコンピュータによって行われる情報処理システムであっても良い。例えば、カメラが取得した画像データをコンピュータに出力し、入力された画像に基づいてコンピュータが表示画像データを生成し、ディスプレイに出力する情報処理システムであっても良い。
なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用しても良いし、一つの機器からなる装置に適用しても良い。
また、本発明はソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては例えば、ハードディスク、光ディスク、光磁気ディスクが挙げられる。また、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などであっても良い。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記憶媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであっても良い。また、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
100 多眼カメラ
101〜109 撮像部
111 表示部
212 画像処理部
307 対応領域決定部
315 表示画像データ生成部

Claims (21)

  1. 複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段と、
    前記撮像画像データを用いて、前記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段と、
    前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像を並べて表示するための画像を示す表示画像データを生成する生成手段とを備え、
    前記生成手段は、前記表示画像データが示す画像において前記対応画像領域が占める画像領域の割合が、前記撮像画像データが示す複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように、前記表示画像データを生成することを特徴とする画像処理装置。
  2. 前記撮像画像データに含まれる第一の画像について注目画像領域を特定する特定手段を更に有し、
    前記決定手段は、前記注目画像領域に含まれる被写体の像と同一の被写体に対応する像を含む画像領域を、前記対応画像領域として前記複数の画像において決定することを特徴とする請求項1に記載の画像処理装置。
  3. ユーザ指示を受付ける受付手段を更に備え、
    前記特定手段は、前記受付手段が受付けたユーザ指示に基づいて前記注目画像領域を特定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記対応画像領域は、前記注目画像領域の画像座標を示す情報と、前記撮像画像データを撮像により取得する撮像装置のカメラパラメータを示す情報と、前記撮像装置から前記被写体までの距離を示す情報とに基づいて決定されることを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記カメラパラメータは、前記撮像画像データを撮像により取得する際の、前記撮像装置の撮像部の視点位置を示す情報を含むことを特徴とする請求項4に記載の画像処理装置。
  6. 前記カメラパラメータは、前記撮像装置の撮像部の焦点距離を示す情報を更に含むことを特徴とする請求項5に記載の画像処理装置。
  7. 前記表示画像データは、前記切り出し画像よりも広い被写体領域を示す広角画像を更に並べて表示するための画像を示すデータを含むことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記広角画像は、前記撮像画像データが示す画像に対応する画像であり、
    前記表示される画像において第一の位置に配置される画像として、前記撮像画像データが示す複数の画像のうちの同じ画像に対応する、前記広角画像と前記切り出し画像のうちの一方を選択する選択手段を更に有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記表示される画像に含まれるが示す複数の画像は、前記表示される画像において、それぞれの画像に対応する視点位置に応じた位置に配置されることを特徴とする請求項1乃至8のいずれか一項に記載の画像処理装置。
  10. 前記表示される画像は、前記切り出し画像を二次元に並べた画像であることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 前記切り出し画像は、前記表示される画像において、前記表示される画像の総ピクセル数を前記表示される画像に含まれる画像の枚数で割った値に、前記撮像画像データが示す複数の画像のうちの前記切り出し画像に対応する画像の総ピクセル数が一致するように前記切り出し画像に対応する画像を拡縮した画像よりも、縮尺の大きな画像であることを特徴とする請求項1乃至10のいずれか一項に記載の画像処理装置。
  12. 前記表示画像データに基づいて、前記切り出し画像を並べて表示する表示手段を更に備えることを特徴とする請求項1乃至11のいずれか一項に記載の画像処理装置。
  13. 複数の視点から被写体を撮像する複数の撮像部を更に備え、
    前記撮像画像データは、前記複数の撮像部により取得された複数の画像を示すことを特徴とする請求項1乃至12のいずれか一項に記載の画像処理装置。
  14. 画像を表示する表示手段と、
    複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段と、
    前記複数の画像において、同一の被写体の像を含む対応画像領域を決定する決定手段とを備え
    前記表示手段は、前記複数の画像を並べて表示する第一の表示モードと、前記対応画像領域を含む画像領域を前記複数の画像から切り出した切り出し画像を、前記表示手段の表示画面において前記対応画像領域に対応する画像が占める画像領域の割合が、前記複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示する第二の表示モードとを備えることを特徴とする画像処理装置。
  15. 画像を表示する表示手段と、
    複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得する取得手段と、
    前記複数の画像に含まれる第一の画像において注目画像領域を特定する特定手段と、
    前記複数の画像において、前記注目画像領域に含まれる被写体の像と同一の被写体に対応する像を含む対応画像領域を決定する決定手段とを備え
    前記表示手段は、前記第一の画像を、前記複数の画像から抜き出して表示する第一の表示モードと、前記対応画像領域を含む画像領域を前記複数の画像から切り出した切り出し画像を、前記表示手段の表示画面において前記対応画像領域に対応する画像が占める画像領域の割合が、前記複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示する第二の表示モードとを備えることを特徴とする画像処理装置。
  16. 前記第一の表示モードにおいて、前記第一の画像は全画面表示されることを特徴とする請求項15に記載の画像処理装置。
  17. ユーザ指示を受付ける受付手段を更に備え、
    前記特定手段は、前記第一の表示モードにおいて、前記受付手段が受付たユーザ指示に基づいて、前記注目画像領域を特定することを特徴とする請求項15又は16に記載の画像処理装置。
  18. 複数の視点から同一の被写体を撮像して得られた複数の画像を示す撮像画像データを取得するステップと、
    前記撮像画像データを用いて、前記撮像画像データが示す複数の画像において、同一の被写体の像を含む対応画像領域を決定するステップと、
    前記撮像画像データを用いて、前記対応画像領域を含む画像領域を前記撮像画像データが示す複数の画像から切り出した切り出し画像のそれぞれを並べた画像を示す表示画像データを生成するステップとを含み、
    前記表示画像データは、前記表示画像データが示す画像において前記対応画像領域が占める割合が、前記撮像画像データが示す複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように、生成されることを特徴とする画像処理方法。
  19. 画像処理装置によって処理された画像を表示手段に表示する画像処理方法であって、
    複数の視点から同一の被写体を撮像して得られた複数の画像を並べて表示するステップと、
    前記複数の画像において、同一の被写体の像を含む対応画像領域を決定するステップと、
    前記対応画像領域を含む画像領域を前記複数の画像から切り出した切り出し画像のそれぞれを、前記表示手段の表示画面において前記対応画像領域に対応する画像が占める画像領域の割合が、前記複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示するステップと、を含む画像処理方法。
  20. 画像処理装置によって処理された画像を表示手段に表示する画像処理方法であって、
    複数の視点から同一の被写体を撮像して得られた複数の画像に含まれる、第一の画像を前記複数の画像から抜き出して表示するステップと、
    前記第一の画像において、注目画像領域を特定するステップと、
    前記複数の画像において、前記注目画像領域に含まれる被写体の像と同一の被写体に対応する像を含む対応画像領域を決定するステップと、
    前記対応画像領域を含む画像領域を前記複数の画像から切り出した切り出し画像のそれぞれを、前記表示手段の表示画面において前記対応画像領域に対応する画像が占める画像領域の割合が、前記複数の画像において前記対応画像領域が占める画像領域の割合よりも大きくなるように並べて表示するステップと、を含む画像処理方法。
  21. コンピュータを、請求項1乃至17のいずれか一項に記載の画像処理装置の各手段として機能させるプログラム。
JP2013189449A 2013-09-12 2013-09-12 画像処理装置、画像処理方法およびプログラム Pending JP2015056790A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013189449A JP2015056790A (ja) 2013-09-12 2013-09-12 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013189449A JP2015056790A (ja) 2013-09-12 2013-09-12 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2015056790A true JP2015056790A (ja) 2015-03-23

Family

ID=52820866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013189449A Pending JP2015056790A (ja) 2013-09-12 2013-09-12 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2015056790A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017229067A (ja) * 2016-06-23 2017-12-28 トムソン ライセンシングThomson Licensing 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017229067A (ja) * 2016-06-23 2017-12-28 トムソン ライセンシングThomson Licensing 少なくとも1つのライトフィールドカメラにより一対の立体画像を生成する方法及び装置

Similar Documents

Publication Publication Date Title
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP5178553B2 (ja) 撮像装置
CN102959943B (zh) 立体全景图像合成装置和方法、以及图像捕获装置
KR101899877B1 (ko) 확대된 영상의 화질을 개선하기 위한 장치 및 방법
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2014197824A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6620394B2 (ja) 制御装置、制御方法及びプログラム
JP2013211827A (ja) 画像処理方法および装置、プログラム。
JP2019088025A (ja) 表示制御装置、表示制御方法、およびプログラム
JP2013254432A (ja) 画像処理装置及び画像処理方法
JP2013009274A (ja) 画像処理装置および画像処理方法、プログラム
JP7204021B2 (ja) 画像の鮮鋭レベルを表わす位置合わせ誤差マップを得るための装置および方法
JP6245892B2 (ja) 画像処理装置およびその制御方法、プログラム
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6611531B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
JP5832211B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2013093836A (ja) 撮像装置、画像処理装置およびその方法
JP2009258005A (ja) 三次元測定装置及び三次元測定方法
JP4581512B2 (ja) 3次元画像処理装置、光軸調整方法、光軸調整支援方法
JP6104066B2 (ja) 画像処理装置および画像処理方法
KR101632514B1 (ko) 깊이 영상 업샘플링 방법 및 장치
JP2015056790A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。