JP2015141494A - 情報処理装置及びデータ配信システム - Google Patents
情報処理装置及びデータ配信システム Download PDFInfo
- Publication number
- JP2015141494A JP2015141494A JP2014013106A JP2014013106A JP2015141494A JP 2015141494 A JP2015141494 A JP 2015141494A JP 2014013106 A JP2014013106 A JP 2014013106A JP 2014013106 A JP2014013106 A JP 2014013106A JP 2015141494 A JP2015141494 A JP 2015141494A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- information
- image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】受信者に応じた画像を表示させる。【解決手段】合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と画像データの受信者に関する受信者情報とを関連付ける関連付け部114と、オブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータを選択する制御部115と、制御部115により選択されたデータを受信者の端末102,103,104に送信する送信部116とを備える。【選択図】図2
Description
本発明は、情報処理装置及びデータ配信システムに関する。
被写体の撮影後に合焦位置などを設定することが可能な撮像装置が知られている。この種の撮像装置としてフォーカスブラケット機能を備えたデジタルカメラがある。フォーカスブラケットとは、連写をしながら合焦位置を変えていき、合焦位置の異なる複数の画像を撮影することをいう。特許文献1に記載された撮像装置は、複数の合焦位置で被写体を撮像し、撮像した画像のうち所定の領域に合焦した画像を選択し、選択した画像を送信する。
しかし、上記した装置においては、画像を受け取った受信者に合わせて画像が選択されるわけではなく、このような電子機器の使い勝手が十分ではなかった。
本発明の態様では、受信者に応じた画像を表示させることを目的とする。
本発明の第1態様によれば、合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と画像データの受信者に関する受信者情報とを関連付ける関連付け部と、オブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータを選択する制御部と、制御部により選択されたデータを受信者の端末に送信する送信部と、を備える情報処理装置が提供される。
本発明の第2態様によれば、合焦位置を奥行き方向に変更可能な画像データを受信する受信部と、画像データからオブジェクトに関するオブジェクト情報及び撮像装置から該オブジェクトまでの距離を検出する検出部と、検出部で検出されたオブジェクト及び距離に基づいて、受信者に応じた合焦位置の画像データを生成する画像生成部と、画像生成部で生成された画像データを表示部に表示する表示制御部と、を備える情報処理装置が提供される。
本発明の第3態様によれば、通信ネットワークを介してデータを送信する送信端末と、通信ネットワークを介してデータを受信する受信端末と、を備え、送信端末は、合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と画像データの受信者に関する受信者情報とを関連付ける関連付け部と、オブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータを選択する制御部と、制御部により選択されたデータを受信者の受信端末に送信する送信部と、を含み、受信端末は、送信端末から送信されるデータを受信する受信部と、受信部で受信されたデータに基づいて、画像データを表示部に表示する表示制御部と、を含むデータ配信システムが提供される。
本発明の態様によれば、受信者に応じた画像を表示させることができる。
以下、本発明の実施形態について図面を参照して説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現する場合がある。
<第1実施形態>
図1は、第1実施形態のデータ配信システムSYS1の構成を示す図である。第1実施形態のデータ配信システムSYS1は、ある端末が一つ又は複数の端末に対してデータを配信するシステムである。図1に示す例では、データ配信システムSYS1は、データを送信(配信)する情報端末(情報処理装置、送信端末)101と、データを受信する3つの情報端末(情報処理装置、受信端末)102,103,104とで構成されている。ただし、データを受信する情報端末の数は一例であって、3つに限定されず、1つ、2つ、4つ以上であってもよい。
図1は、第1実施形態のデータ配信システムSYS1の構成を示す図である。第1実施形態のデータ配信システムSYS1は、ある端末が一つ又は複数の端末に対してデータを配信するシステムである。図1に示す例では、データ配信システムSYS1は、データを送信(配信)する情報端末(情報処理装置、送信端末)101と、データを受信する3つの情報端末(情報処理装置、受信端末)102,103,104とで構成されている。ただし、データを受信する情報端末の数は一例であって、3つに限定されず、1つ、2つ、4つ以上であってもよい。
図1に示すように、情報端末101,102,103,104は、それぞれ、インターネットなどの通信ネットワーク150に接続されている。また、情報端末101,102,103,104は、それぞれ、例えばパーソナルコンピュータで実現される。なお、情報端末101,102,103,104は、通信機能を備えていればよく、スマートフォン、携帯電話、タブレット端末、デジタルフォトフレームなどで実現されてもよい。
情報端末101は、撮像装置の一例であるライトフィールドカメラ1と接続されている。このライトフィールドカメラ1は、被写体(オブジェクト)の撮影後に合焦位置や視点などを設定することが可能な撮像装置である。このライトフィールドカメラ1は、三次元空間の光線集合であるライトフィールド(光線空間)の情報を取得し、取得したライトフィールドの情報に基づいて画像を生成する。以下の説明では、ライトフィールドの情報を光線情報という。ライトフィールドカメラ1の代表的な機能としては、撮影後の後処理によって焦点距離を変更した画像を生成するリフォーカス機能がある。従って、ライトフィールドカメラ1はリフォーカスカメラとも呼ばれる。
図1に示す例では、情報端末101の使用者が、ライトフィールドカメラ1で取得された光線情報に基づいて生成される画像データを情報端末102,103,104の使用者に送信する。情報端末102,103,104の使用者は、情報端末101から送信された画像データを受け取り、受け取った画像データを表示装置に表示して画像を確認する。以下の説明において、情報端末101の使用者のことを送信者ともいう。また、情報端末102,103,104の使用者のことを受信者ともいう。
本実施形態においては、情報端末101は、受信者に関する受信者情報を予め保持している。受信者情報は、受信者のメールアドレスなどの送信先情報を含む(図10及び図11参照)。また、情報端末101は、ライトフィールドカメラ1によって画像データから抽出される被写体(オブジェクト)の画像データと、その被写体に関するオブジェクト情報とを取得する。オブジェクト情報は、被写体に付けられる名称、撮影時のライトフィールドカメラ1から被写体までの距離を示す距離データを含む(図8、図10及び図11参照)。情報端末101は、予め登録されている被写体の画像データの特徴点などと、画像データから抽出された被写体の画像データの特徴点などとを照合して、画像データから抽出された被写体と、その被写体に関連する人物とを関連付ける。また、情報端末101は、人物に関連付けられた被写体に関するオブジェクト情報と受信者情報との関連付けを行う。情報端末101は、受信者情報及びオブジェクト情報に基づいて、受信者に関連する被写体に合焦した画像データを受信者毎に選択する。そして、情報端末101は、選択した画像データを各受信者の情報端末102,103,104に送信する。
図2は、図1に示す情報端末101の構成を示すブロック図である。図2に示すように、情報端末101は、ライトフィールドカメラ1、表示装置(表示部)2、キーボード3、及びマウス4と接続されている。この情報端末101は、演算処理部110及び記憶部120を有している。演算処理部110は、オブジェクト情報と受信者情報との関連付けに関する制御や、受信者に応じた合焦位置の画像データの選択に関する制御を司る。記憶部120は、ライトフィールドカメラ1で撮影された画像データや、演算処理部110による制御に必要な各種情報(例えばオブジェクト情報や受信者情報)などを記憶する。
演算処理部110は、図2に示すように、表示制御部111、画像入力部112、操作制御部113、関連付け部114、制御部115、及び通信部(送信部)116を有している。表示制御部111は、例えば液晶表示ディスプレイのような表示装置2の表示画面500に、使用者によって操作されるグラフィカルユーザインタフェース(以下、GUIという。)などの各種画像(図10参照)を表示する制御を行う。
画像入力部112は、ライトフィールドカメラ1とUSBなどで接続されることにより、このライトフィールドカメラ1に記憶されている画像データや、この画像データから抽出された各被写体の画像データ、各被写体に関するオブジェクト情報(各被写体の名称、各被写体の距離データ)を入力する。この画像入力部112は、ライトフィールドカメラ1から入力した画像データ、画像データから抽出された各被写体の画像データ、及び各被写体に関するオブジェクト情報を記憶部120に記憶する。なお、画像入力部112は、通信部116がインターネットなど通信ネットワーク150を通じて取得した画像データ、各被写体の画像データ、及び各被写体に関するオブジェクト情報を記憶部120に記憶することも可能である。
操作制御部113は、使用者が操作可能な操作部を構成するキーボード3及びマウス4と接続される。この操作制御部113は、使用者によるキーボード3やマウス4の操作に応じて情報を入力し、その情報を表示制御部111や関連付け部114に出力する。
関連付け部114は、ライトフィールドカメラ1によって画像データから抽出された各被写体の画像データ及び各被写体に関するオブジェクト情報を取得する。また、関連付け部114は、予め登録されている被写体の画像データの特徴点などと、画像データから抽出された被写体の画像データの特徴点などとを照合して、画像データから抽出された被写体と、その被写体に関連する人物とを関連付ける。また、関連付け部114は、人物に関連付けられた被写体に関するオブジェクト情報と受信者に関する受信者情報とを関連付けて記憶部120のデータベース120Aに記憶する。
制御部115は、関連付け部114により関連付けられたオブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを選択する処理を行う。本実施形態では、制御部115は、受信者に応じた合焦位置の画像データとして、合焦位置が受信者に関連する被写体の位置にある画像データを選択する。
通信部116は、通信ネットワーク150を通じて他の情報端末(図1に示す例では情報端末102,103,104)とデータ通信を行う。本実施形態では、通信部116は、制御部115により選択された画像データを情報端末102,103,104に送信する制御を行う。
なお、演算処理部110における表示制御部111、画像入力部112、操作制御部113、関連付け部114、制御部115、及び通信部116それぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部120に記憶されている制御プログラムに従って実行する処理又は制御に相当する。
記憶部120は、データベース120Aを有している。データベース120Aには、上述したように、オブジェクト情報と受信者情報とが関連付けられて記憶される(図11参照)。また、データベース120Aには、受信者情報以外の受信者に関連する関連情報(例えば、受信者の同級生、家族、友人などの情報:図10参照)も受信者情報に関連付けられて記憶される。また、データベース120Aには、被写体の画像データの特徴点などの情報と人物とが関連付けられて記憶される。
また、記憶部120には画像データ記憶領域が設けられ、この画像データ記憶領域に画像データ及びこの画像データ中の被写体の画像データが記憶される。また、記憶部120には、表示制御部111によるGUIなどの表示に必要な各種情報も記憶されている。また、記憶部120には、上述したように、演算処理部110における表示制御部111、画像入力部112、操作制御部113、関連付け部114、制御部115、及び通信部116の処理を実行させるための制御プログラムなども記憶されている。
次に、図1及び図2に示したライトフィールドカメラ1の構成について説明する。図3は、撮像装置の一例であるライトフィールドカメラ1における光学系部分の概略構成を示す断面図である。なお、図3において、紙面の右方向(光軸方向)をX軸とし、X軸と直交する紙面の上方向をZ軸とし、X軸及びZ軸と直交する紙面の裏から表に向かう方向をY軸としている。また、図3は、ライトフィールドカメラ1における光学系部分を光軸を含む面で切断したときの断面図である。
本実施形態のライトフィールドカメラ1は、その光学系部分として、撮影光学系(結像光学系)11及びマイクロレンズアレイ12を備えている。なお、図3には、ライトフィールドカメラ1における光学系部分以外の構成である撮像素子20についても示している。
撮影光学系11は、複数のレンズ群で構成される単焦点レンズである。撮影光学系11は、被写体からの光束をその焦点面(結像面)近傍に結像する。また、撮影光学系11は、撮影時に絞り値(F値)を制御する開口絞り(不図示)を備えている。なお、絞り値は撮影後の画像の再構成によって変更することができるため、開口絞りの開口径は固定でもよい。図3に示すように、撮影光学系11の焦点面近傍にマイクロレンズアレイ12と撮像素子20とが順に配置されている。
マイクロレンズアレイ12は、正のパワーを有した複数のマイクロレンズ(正レンズ)が二次元状に配置された構成となっている。なお、図3に示すマイクロレンズアレイ12においては、3つのマイクロレンズだけがZ軸方向に配されているが、実際はZ軸方向及びY軸方向に多数のマイクロレンズが配されている。
撮像素子20は、マイクロレンズアレイ12の後側(撮影光学系11の反対側)に若干の間隔をおいて配置されている。この撮像素子20は、マイクロレンズアレイ12の各マイクロレンズを通過した光束を複数の光電変換素子で受光し、各々の光電変換素子が受光した光束を光電変換して複数の画素信号を生成する。複数の光電変換素子はマトリックス状に配列され、各々の光電変換素子が画素を形成する。本実施形態では、撮像素子20は、CCD(Charge Coupled Device)やCMOS(Complementary
Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
Metal-Oxide Semiconductor)などの二次元固体撮像素子で構成されている。
図3の部分拡大図に示す例では、複数のマイクロレンズ12a,12b,12cの各々の後側に複数個ずつ画素が配列されている。具体的には、マイクロレンズ12aの後側に3つの画素21a,21b,21cが配列され、マイクロレンズ12bの後側に3つの画素22a,22b,22cが配列され、マイクロレンズ12cの後側に3つの画素23a,23b,23cが配列されている。
3つの画素21a,21b,21cがマイクロレンズ12aに対応する画素21であり、3つの画素22a,22b,22cがマイクロレンズ12bに対応する画素22であり、3つの画素23a,23b,23cがマイクロレンズ12cに対応する画素23である。なお、図3の部分拡大図では、各マイクロレンズ12a,12b,12cに対応する画素として3つの画素を示しているが、実際はZ軸方向及びY軸方向に多数の画素が配列されている(後述する図4参照)。
次に、図3を参照してライトフィールドカメラ1によるライトフィールドの取得について簡単に説明する。図3において、Aの位置にある被写体が撮影光学系11によってマイクロレンズアレイ12の位置に焦点を結ぶものとする。被写体上の点A1からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12aを通過して撮像素子20の画素21cで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12aを通過して撮像素子20の画素21bで受光される。また、被写体上の点A1からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12aを通過して撮像素子20の画素21aで受光される。
同様に、被写体上の点A2からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12bを通過して撮像素子20の画素22cで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12bを通過して撮像素子20の画素22bで受光される。また、被写体上の点A2からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12bを通過して撮像素子20の画素22aで受光される。
さらに、被写体上の点A3からの光線は、撮影光学系11の瞳上の部分領域11aを通過し、マイクロレンズ12cを通過して撮像素子20の画素23cで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11bを通過し、マイクロレンズ12cを通過して撮像素子20の画素23bで受光される。また、被写体上の点A3からの他の光線は、撮影光学系11の瞳上の部分領域11cを通過し、マイクロレンズ12cを通過して撮像素子20の画素23aで受光される。このように、Aの位置にある被写体からの光線は、マイクロレンズ12a,12b,12cの後側に位置する撮像素子20の画素で受光されることによって明るさと進行方向とが光線情報として取得される。
マイクロレンズ12a,12b,12cそれぞれに対応する3つの画素のうち、下側の画素21c,22c,23cの画素信号で生成される画像は、部分領域11aを通過した光線による像である。また、真中の画素21b,22b,23bの画素信号で生成される画像は、部分領域11bを通過した光線による像である。また、上側の画素21a,22a,23aの画素信号で生成される画像は、部分領域11cを通過した光線による像である。例えば各マイクロレンズに対応する画素数がN個である場合、マイクロレンズに対して同じ位置にある画素の画素値を配列して構成されるN個の再構成画像は、撮影光学系11をN個の部分領域に分割して取得されるN個のステレオ画像群を形成する。
図4は、撮像素子20の画素配列と入射領域とを説明する図である。なお、図4では図3のX軸方向から撮像素子20を観察した様子を示す。図4に示す撮像素子20において、画素が配列された領域を画素領域200という。画素領域200には例えば1000万個以上もの画素がマトリックス状に配列されている。画素領域200における円形の領域は、1つのマイクロレンズを通過した光線が入射する領域である。従って、円形の領域は、複数のマイクロレンズごとに複数形成される。これらの領域を入射領域201,202・・・という。なお、マイクロレンズは例えば586×440個配置される。ただし、このような配置数は一例であって、これよりも多い数でも少ない数でもよい。図4に示す例では、1つのマイクロレンズの直径は13画素分となっている。ただし、このような画素数分に限定されるわけではない。
上述したように、ライトフィールドカメラ1は、すべてのマイクロレンズから入射領域における同じ位置(入射領域内におけるY軸方向及びZ軸方向の同じ位置)にある画素の画素値を抽出して再構成する。このようにして得られた再構成画像群は、撮影光学系11の異なる部分領域から被写体を観察した画像群に相当する。従って、これらの再構成画像群においては、部分領域の位置と被写体までの距離に応じた視差を有する。例えば、図4に示すように、入射領域201における画素201aと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像と、入射領域201における画素201bと同じ位置にある各マイクロレンズの画素の画素値から構成される再構成画像とで視差を有する。
図5は、ライトフィールドカメラ1の構成を示すブロック図である。図5に示すライトフィールドカメラ1は、撮像部10、画像処理部30、ワークメモリ40、表示部50、操作部55、記録部60、及びシステム制御部70を備える。撮像部10は、撮影光学系11、マイクロレンズアレイ12、駆動制御部13、撮像素子20、及び駆動部21を有している。撮影光学系11及びマイクロレンズアレイ12は、図3において説明したため、図5においては説明を省略する。
撮像素子20の撮像面には、例えばベイヤー配列のカラーフィルタアレイが配置されている。撮像素子20は、撮影光学系11及びマイクロレンズアレイ12を通過した光束を入射する。撮像素子20は、入射した光束を光電変換してアナログ信号の各画素の画素信号を生成する。撮像部10において、不図示のアンプがアナログ信号の各画素の画素信号を所定の利得率(増幅率)で増幅する。また、不図示のA/D変換部がアンプにより増幅されたアナログ信号の各画素の画素信号をデジタル信号の各画素の画素信号に変換する。そして、撮像部10は、デジタル信号の各画素の画素信号からなるRAWデータ(このRAWデータは画像データに含まれる)を画像処理部30に出力する。上記したライトフィールドカメラ1が取得する光線情報は、撮像部10から出力されるRAWデータで特定される。
駆動制御部13は、撮影光学系11が備える開口絞りの開口径調節を行うために、システム制御部70から送信される制御情報に基づいて開口絞りの駆動制御を実行する。駆動部21は、システム制御部70からの指示信号に基づいて設定される撮像条件で撮像素子20の駆動を制御する制御回路である。撮像条件としては、例えば、露光時間(シャッター速度)、フレームレート、ゲインなどがあげられる。
ここで、露光時間とは、撮像素子20の光電変換素子が入射光に応じた電荷の蓄積を開始してから終了するまでの時間のことをいう。また、フレームレートとは、動画において単位時間あたりに処理(表示又は記録)されるフレーム数を表す値のことをいう。フレームレートの単位はfps(Frames Per Second)で表される。また、ゲインとは、画素信号を増幅するアンプの利得率(増幅率)のことをいう。このゲインを変更することにより、ISO感度を変更することができる。このISO感度は、ISOで策定された写真フィルムの規格であり、写真フィルムがどの程度弱い光まで記録することができるかを表す。ただし、一般に、撮像素子20の感度を表現する場合もISO感度が用いられる。この場合、ISO感度は撮像素子20が光をとらえる能力を表す値となる。
画像処理部30は、各画素の画素信号からなるRAWデータに対して種々の画像処理を施し、所定のファイル形式(例えば、JPEG形式等)の画像データを生成する。画像処理部30が生成する画像データには、静止画、動画、ライブビュー画像の画像データが含まれる。ライブビュー画像は、画像処理部30で生成された画像データを表示部50に順次出力して表示部50に表示される画像である。ライブビュー画像は、撮像部10により撮像されている被写体の画像を使用者が確認するために用いられる。ライブビュー画像は、スルー画やプレビュー画像とも呼ばれる。画像処理部30は、図5に示すように、画像生成部31及び検出部32を備えている。
画像生成部31は、ワークメモリ40をワークスペースとして、各画素の画素信号からなるRAWデータに対して所定の画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。具体的には、画像生成部31は、次に示す画像処理を施すことにより任意の焦点距離に設定された画像データを生成する。
図6は、画像の再構成を説明する図である。図6に示すように、画像生成部31は、画素領域200における各入射領域201,202・・・に対して同じ位置にある画素201a,202a・・・の画素値(画素信号が示す値)を抽出する。画像生成部31は、抽出した画素値を並べ直して再構成画像データ400aを生成する。各入射領域201,202・・・に対応する画素数がN個である場合、N個の再構成画像データが生成される。
画像生成部31は、N個の再構成画像データ群を所定の焦点距離に合わせて所定量だけ平行移動させる。そして、画像生成部31は、平行移動後のN個の再構成画像データ群を加算平均する。これにより、所定の焦点距離に設定された画像データが生成される。移動量に応じた奥行きに存在する被写体は像の位置が合うのでシャープな輪郭の像が形成される。移動量に応じた奥行きに存在しない被写体の像はぼける。なお、上記した画像処理は一例であって、画像生成部31は上記した画像処理とは異なる画像処理を実行することにより、任意の焦点距離に設定された画像データを生成してもよい。例えば、画像生成部31は、撮像素子20の各画素が取得する光線を所定の演算を行うことによって算出する。そして、画像生成部31は、算出した光線を所定の焦点距離に設定した仮想的な画像面に投影することにより、所定の焦点距離に設定された画像データを生成する。
本実施形態においては、画像生成部31は、最も手前の被写体に合焦した画像データ、最も奥の被写体に合焦した画像データ、中間位置の被写体に合焦した画像データなど、焦点位置(焦点距離)が異なる複数の画像データを生成する。
画像生成部31は、ワークメモリ40をワークスペースとして、任意の焦点に設定された画像データに対して種々の画像処理を施す。例えば、画像生成部31は、ベイヤー配列で得られた信号に対して色信号処理(色調補正)を行うことによりRGB画像データを生成する。また、画像生成部31は、RGB画像データに対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの画像処理を行う。また、画像生成部31は、必要に応じて、所定の圧縮形式(JPEG形式、MPEG形式等)で圧縮する処理を行う。
検出部32は、画像データから一又は複数の被写体を検出する。本実施形態では、検出部32は、画像データにおける明部と暗部のコントラストや色変化に基づいて被写体の領域の境界を特定して被写体を検出する。なお、検出部32は、人物の被写体に対しては、公知の顔検出機能を用いて被写体の検出を行ってもよい。また、検出部32は、移動する被写体(移動被写体)に対しては、時系列的に得られる複数の画像データを比較して移動被写体を検出してもよい。また、検出部32は、顔検出に加えて、例えば特開2010−16621号公報(US2010/0002940号)に記載されているように、画像データに含まれる人体を被写体として検出してもよい。
また、検出部32は、検出した一又は複数の被写体の画像データを抽出する。また、検出部32は、検出した一又は複数の被写体に対して、各被写体を識別するための名称を付加する。また、検出部32は、検出した一又は複数の被写体までの距離(焦点距離)を検出(算出)する。例えば、検出部32は、複数の再構成画像データ(例えば入射領域における2つの特定位置の画素の画素値から構成される再構成画像データ)における各被写体の視差を検出し、検出した視差に基づいて各被写体までの距離を算出する。
画像処理部30は、生成した画像データを記録部60に出力する。また、画像処理部30は、生成した画像データを表示部50に出力する。また、画像処理部30は、検出した各被写体の画像データ、各被写体の名称、各被写体までの距離を示す距離データを記録部60に出力する。
ワークメモリ40は、画像処理部30による画像処理が行われる際にRAWデータや画像データなどを一時的に記憶する。表示部50は、撮像部10で撮像された画像や各種情報を表示する。この表示部50は、例えば液晶表示パネルなどで構成された表示画面51を有している。なお、表示部50に表示される画像には、静止画、動画、ライブビュー画像が含まれる。
操作部55は、使用者によって操作されるレリーズスイッチ(静止画の撮影時に押されるスイッチ)、動画スイッチ(動画の撮影時に押されるスイッチ)、各種の操作スイッチなどである。この操作部55は、使用者による操作に応じた信号をシステム制御部70に出力する。記録部60は、メモリカードなどの記憶媒体を装着可能なカードスロットを有する。記録部60は、カードスロットに装着された記録媒体に画像処理部30において生成された画像データや各種データを記憶する。また、記録部60は、内部メモリを有する。記録部60は、画像処理部30において生成された画像データや各種データを内部メモリに記録することも可能である。
システム制御部70は、ライトフィールドカメラ1の全体の処理及び動作を制御する。このシステム制御部70はCPU(Central Processing Unit)を有する。システム制御部70は、画像処理部30で生成された画像データを表示部50に出力させて、表示部50の表示画面51に画像(ライブビュー画像、静止画、動画)を表示させる制御を行う。また、システム制御部70は、記録部60に記録されている画像データを読み出して表示部50に出力させ、表示部50の表示画面51に画像を表示させる制御を行う。
また、システム制御部70は、撮像素子20の撮像面(画素領域200)において所定の撮像条件(露光時間、フレームレート、ゲインなど)で撮像を行わせるために、所定の撮像条件を指示する指示信号を駆動部21に対して出力する。また、システム制御部70は、画像処理部30に所定の制御パラメータ(色信号処理、ホワイトバランス調整、階調調整、圧縮率などの制御パラメータ)で画像処理を実行させるために、制御パラメータを指示する指示信号を画像処理部30に出力する。また、システム制御部70は、画像処理部30で生成された画像データを記録部60に出力させて、記録部60に画像データを記録させる制御を行う。また、システム制御部70は、画像処理部30で検出された各被写体の画像データ、各被写体の名称、各被写体の距離データを記録部60に出力させて、画像データ毎に各被写体の画像データと各被写体の名称と各被写体の距離データとを対応付けて記録部60に記録させる制御を行う。なお、システム制御部70は、上記の制御の他に、撮影光学系11に備えられた開口絞りの開口径調節などの制御も行う。
次に、ライトフィールドカメラ1の画像処理部30が実行する画像処理について説明する。図7は、図5に示す画像処理部30が実行する画像処理を説明するためのフローチャートである。図7に示す処理において、画像生成部31は、撮像部10から出力されるRAWデータを取得する(ステップS1)。そして、画像生成部31は、取得したRAWデータに基づいて所定の合焦位置(焦点距離、焦点位置)の画像データを生成する(ステップS2)。
具体的には、上述したように、画像生成部31は、画素領域200における各入射領域に対して同じ位置にある画素の画素値を抽出し、抽出した画素値を再構成して複数個の再構成画像データ群を生成する。そして、画像生成部31は、複数個の再構成画像データ群を所定の合焦位置に合わせて平行移動させ、平行移動後の複数個の再構成画像データ群を加算平均する。これにより、所定の合焦位置に設定された画像データが生成される。ステップS2において、画像生成部31は、合焦位置が異なる複数の画像データを生成する。また、ステップS2で生成される画像データは、静止画、動画、ライブビュー画像の画像データが含まれる。
図8は、ライトフィールドカメラ1と各被写体O1〜O5との距離関係を示す図である。図8に示す例では、ライトフィールドカメラ1はカメラ位置d0に位置している。また、被写体である人物O1は合焦位置d1に位置している。また、被写体である人物O2は合焦位置d2に位置している。また、被写体である人物O3は合焦位置d3に位置している。また、被写体である家O4は合焦位置d4に位置し、被写体である木O5は合焦位置d5に位置している。なお、図8において、ライトフィールドカメラ1から被写体O1〜O5に向かう方向(矢印の方向)を奥側の方向といい、その反対側の方向を手前側の方向をいう。また、奥側の方向及び手前側の方向を奥行き方向という。画像生成部31は、ステップS2において、例えば各合焦位置d1,d2,d3,d4,d5における5つの画像データを生成する。
図7の説明に戻り、画像生成部31は、ステップS2で生成した合焦位置が異なる複数の画像データに対して、色信号処理(色調補正)、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調調整などの各種画像処理を実行する(ステップS3)。
次に、検出部32は、生成した画像データから一又は複数の被写体を検出する(ステップS4)。検出部32は、検出した一又は複数の被写体の画像データを抽出する。また、検出部32は、検出した一又は複数の被写体に対して、各被写体を識別するための名称を付加する。図8に示す例では、検出部32は、人物O1に対して名称「aa1」を付加し、人物O2に対して名称「bb1」を付加し、人物O3に対して名称「cc1」を付加し、家O4に対して名称「h1」を付加し、木O5に対して名称「k1」を付加する。
また、検出部32は、ステップS4で検出した一又は複数の被写体までの距離(焦点距離)を検出する(ステップS5)。図8に示す例では、検出部32は、人物O1までの距離をd1、人物O2までの距離をd2、人物O3までの距離をd3、家O4までの距離をd4、木O5までの距離をd5と算出する。
次に、画像処理部30は、合焦位置が異なる複数の画像データを記録部60に出力して、複数の画像データを記録部60に記録する(ステップS6)。このとき、画像処理部30は、合焦位置が異なる複数の画像データとともに、それらの画像データに含まれる各被写体の画像データ、各被写体の名称、及び各被写体の距離データを記録部60に出力する。これにより、各被写体の画像データ、各被写体の名称、及び各被写体の距離データは、複数の画像データとともに、被写体毎に対応付けられて記録部60に記録される。
その後、画像処理部30は、ワークメモリ40に記憶されたRAWデータを削除する(ステップS7)。本実施形態では、画像処理部30は、大容量のデータであるRAWデータを記録部60に記録しない。このため、記録部60において、画像生成部31で生成される多数の画像データを記録するための記録容量が確保される。ただし、画像処理部30は、RAWデータも画像データ等と対応付けて記録部60に記録してもよい。
なお、記録部60に記録された合焦位置の異なる複数の画像データ、各被写体の画像データ、各被写体の名称、及び各被写体までの距離データは、ライトフィールドカメラ1が情報端末101に接続されることにより、ライトフィールドカメラ1から情報端末101に転送され、画像入力部112によって記憶部120に記憶される。
次に、第1実施形態の演算処理部110が実行するデータ配信処理について説明する。図9は、第1実施形態の演算処理部110が実行するデータ配信処理を説明するためのフローチャートである。図9に示す処理において、使用者によるキーボード3やマウス4の操作に応じて、制御プログラム(例えばデータ配信処理を行うためのアプリケーションソフトウェアなどのプログラム)が起動されると、表示制御部111は、GUIの画像を記憶部120から読み出して表示装置2の表示画面500に表示させる(ステップS11)。
図10は、グラフィカルユーザインタフェース(GUI)の表示例を示す図である。図10に示すように、GUIによって各種情報が表示される表示領域として、第1表示領域501、第2表示領域502、第3表示領域503、第4表示領域504、第5表示領域505、及び第5表示領域505が設けられている。
第1表示領域501は、表示装置2の表示画面500における左側最上の表示領域であって、記憶部120に記憶されている画像の一覧を表示するための表示領域である。また、第2表示領域502は、表示装置2の表示画面500における左側の上から2番目の表示領域であって、オブジェクト情報を表示するための表示領域である。また、第3表示領域503は、表示装置2の表示画面500における左側の上から3番目の表示領域であって、画像データの送信先情報(受信者のメールアドレス)を表示するための表示領域である。また、第4表示領域504は、表示装置2の表示画面500における左側最下の表示領域であって、電子メールの本文を表示するための表示領域である。また、第5表示領域505は、表示装置2の表示画面500における右側の上の表示領域であって、受信者の表示装置に表示される画像(情報端末101が送信する画像)を表示するための表示領域である。また、第6表示領域506は、表示装置2の表示画面500における右側の下の表示領域であって、受信者に関連する関連情報を表示するための表示領域である。
次に、関連付け部114は、記憶部120に記憶されている画像データを読み出す(ステップS12)。このとき、表示制御部111は、関連付け部114が読み出した画像データを第1表示領域501に一覧表示する。図10に示す例では、第1表示領域501には画像600及び画像610が表示されている。なお、画像600は、図8に示すライトフィールドカメラ1と各被写体O1〜O5との位置関係において、ライトフィールドカメラ1により撮像された画像(つまり、画像生成部31によりRAWデータ(光線情報)に基づいて生成された画像データに基づく画像)である。
情報端末101の使用者(送信者)は、キーボード3又はマウス4を操作して、第1表示領域501に一覧表示されている複数の画像の中から所定の画像を選択する。関連付け部114は、使用者によって選択された画像に含まれる各被写体の画像データ及び各被写体に関するオブジェクト情報(被写体の名称、被写体の距離データ)を記憶部120から読み出して取得する(ステップS13)。図10に示す例では、関連付け部114は、画像600に含まれる各被写体O1〜O5を記憶部120から読み出し、各被写体O1〜O5に対応するオブジェクト情報を記憶部120から読み出す。そして、表示制御部111は、関連付け部114が読み出した各被写体O1〜O5の画像データを第2表示領域502に表示する。また、表示制御部111は、関連付け部114が読み出した各被写体O1〜O5に対応するオブジェクト情報(図10に示す例では各被写体O1〜O5の名称)を各被写体O1〜O5に対応付けて第2表示領域502に表示する。
次に、関連付け部114は、ステップS13で取得した各被写体の画像データから特徴点などを抽出する。そして、関連付け部114は、予めデータベース120Aに登録されている被写体の画像データの特徴点などと、ステップS13で取得した被写体の画像データから抽出された特徴点などとを照合して、ステップS13で取得した被写体の画像データと人物とを関連付ける(ステップS14)。具体的には、関連付け部114は、人物の被写体の画像データにおける特徴点(例えば人物の目)などに基づいて、ステップS13で取得した被写体O1〜O3の画像データに対応する人物を特定する。また、関連付け部114は、人物以外の被写体の画像データにおける特徴点(例えば家の窓)などに基づいて、ステップS13で取得した被写体O4の画像データに対応する人物を特定する。
図10に示す例では、関連付け部114は、人物O1(名称「aa1」)は人物AAであると特定する。また、関連付け部114は、人物O2(名称「bb1」)は人物BBであると特定する。また、関連付け部114は、人物O3(名称「cc1」)は人物CCであると特定する。また、関連付け部114は、家O4(名称「h1」)は人物AAの家であると特定する。なお、関連付け部114が木O5の画像データから特徴点などを抽出できなかったため、又は、木O5の画像データの特徴点などがデータベース120Aに登録されていなかったため、木O5については人物と対応付けられていない。表示制御部111は、各被写体O1〜O4に対応する人物(AA、BB、CC)を、各被写体O1〜O4の画像データ(名称「aa1」「bb1」「cc1」「h1」)それぞれに対応付けて第2表示領域502に表示する。
なお、関連付け部114は、データベース120Aに未だ登録されていない被写体の画像データの特徴点などについては、使用者によるキーボード3又はマウス4の操作に応じて、被写体の画像データの特徴点などの情報と人物とを関連付けてデータベース120Aに登録(記憶)する。例えば、使用者は、第2表示領域502内に表示されている被写体の画像データのうち、人物と関連付けられていない被写体の画像データに対して、キーボード3やマウス4を操作して人物の名前を入力する。このような操作に応じて、関連付け部114は、被写体の画像データから抽出した特徴点などの情報と人物とを関連付けてデータベース120Aに登録する。
また、関連付け部114は、被写体の画像データと人物とを誤って関連付けてしまうこともある。この場合、使用者は、誤った人物と関連付けられている被写体の画像データに対して、キーボード3やマウス4を操作して人物の正しい名前を入力する。このような操作に応じて、関連付け部114は、被写体の画像データと人物との対応関係を正しい対応関係に訂正する。
次に、関連付け部114は、使用者によりキーボード3やマウス4の操作に応じて、受信者に関する受信者情報を取得する(ステップS15)。例えば、使用者は、キーボード3やマウス4を操作して、第3表示領域503において受信者のメールアドレス(送信先情報)を選択する。関連付け部114は、使用者により選択されたメールアドレスを受信者情報として取得する。図10に示す例では、使用者は、受信者のメールアドレスとして、人物AAのメールアドレス(AA@mail.com)と、人物BBのメールアドレス(BB@mail.com)と、人物CCのメールアドレス(CC@mail.com)とを選択している。表示制御部111は、使用者により選択された人物AA,BB,CCのメールアドレスを第3表示領域503に表示する。なお、特定の受信者のメールアドレスがメンバー情報としてグループ化されている場合には、使用者はメンバー情報を指定することにより、受信者のメールアドレスを選択することも可能である。
その後、関連付け部114は、ステップS13で取得したオブジェクト情報とステップS15で取得した受信者情報とを関連付けてデータベース120Aに記憶する(ステップS16)。
図11は、データベース120A内のデータ構造を示す図である。図11に示すように、データベース120Aにおいて、画像データを識別するための画像番号(「10001」「10002」)が関連付け部114によって画像データに付加されて記憶される。また、データベース120Aにおいて、画像データの撮像日時(「2013/04/01」「2013/04/15」)が関連付け部114によって画像番号に対応付けて記憶される。また、データベース120Aにおいて、オブジェクト情報(ここでは被写体の名称と被写体の距離データとの対の情報:「aa1,d1」「bb1,d2」「cc1,d3」「h1,d4」「k1,d5」「cc2,d11」「aa2,d12」「k2,d13」「h2,d14」)が画像データ中の被写体毎に対応付けて記憶される。また、データベース120Aにおいて、被写体に対応する人物を識別するための人物識別データ(「AA」「BB」「CC」)が画像データ中の被写体毎に対応付けて記憶される。また、データベース120Aにおいて、送信先情報としての受信者のメールアドレス(「AA@mail.com」「BB@mail.com」「CC@mail.com」)が人物識別データに対応付けて記憶される。
なお、図11には示していないが、データベース120Aにおいては、人物に関連する関連情報(例えば、人物の同級生、家族、友人、会社同僚など)も人物毎に記憶している。
使用者は、必要に応じて、キーボード3などを操作して、第4表示領域504において電子メールの本文を入力する。図10に示す例では、電子メールの本文として、「みなさん、こんちには。先日の△△会の写真を送付します。」という文が入力されている。
制御部115は、ステップS16で関連付けたオブジェクト情報と受信者情報とに基づいて、受信者に関連する被写体に合焦した画像データを受信者毎に選択する(ステップS17)。具体的には、制御部115は、受信者AAに関連する被写体(人物O1)に合焦した画像データを選択する。また、制御部115は、受信者BBに関連する被写体(人物O2)に合焦した画像データを選択する。また、制御部115は、受信者CCに関連する被写体(人物O3)に合焦した画像データを選択する。なお、制御部115は、受信者に関連する被写体が存在しない場合には、例えば標準の合焦位置(例えば、人物O3に合焦した位置)の画像データを選択する。
図10に示すように、使用者が第2表示領域502又は第3表示領域503において受信者(人物)CCを選択した場合は、表示制御部111は、使用者により選択された受信者CCに関連する被写体(人物O3、つまり受信者CC)に合焦した画像データを第5表示領域505に表示する。このような表示により、使用者は、画像データの送信前において受信者に送信される画像を確認することができる。また、図10に示すように、使用者が第2表示領域502又は第3表示領域503において受信者(人物)CCを選択した場合は、表示制御部111は、データベース120Aに記憶されている受信者CCに関連する関連情報を読み出し、読み出した関連情報を第6表示領域506に表示する。図10に示す例では、受信者CCの関連情報として、受信者CCの同級生、家族、友人、会社同僚、ペット、宝物、自宅、記念品などの情報が表示されている。
通信部116は、制御部115がステップS17で選択した画像データを受信者の情報端末102,103,104に送信する(ステップS18)。具体的には、通信部116は、制御部115がステップS17で選択した受信者毎の画像データを電子メールに添付ファイルとして添付して各受信者の情報端末102,103,104に送信する。例えば、情報端末102は受信者AAの情報端末であり、情報端末103は受信者BBの情報端末であり、情報端末104は受信者CCの情報端末であるものとする。
図12は、各受信者の表示装置に表示される画像の表示例を示す図である。受信者AAが情報端末101の使用者(送信者)から送信された画像データのファイルを開くと、図12(1)に示すような受信者AAに合焦した画像601が受信者AAの表示装置に表示される。また、受信者BBが情報端末101の使用者(送信者)から送信された画像データのファイルを開くと、図12(2)に示すような受信者BBに合焦した画像602が受信者BBの表示装置に表示される。また、受信者CCが情報端末101の使用者(送信者)から送信された画像データのファイルを開くと、図12(3)に示すような受信者CCに合焦した画像603が受信者CCの表示装置に表示される。
上記した第1実施形態では、ライトフィールドカメラ1の画像処理部30(画像生成部31)がRAWデータに基づいて合焦位置の異なる複数の画像データを生成し(ステップS2参照)、画像処理部30(検出部32)が画像データ中の被写体を検出し(ステップS4参照)、画像処理部30(検出部32)が被写体までの距離データを検出していた(ステップS5参照)。しかし、演算処理部110がRAWデータに基づいて合焦位置の異なる複数の画像データを生成し、画像データ中の被写体を検出し、被写体までの距離データを検出してもよい。すなわち、演算処理部110が画像処理部30における画像生成部31及び検出部32に相当する処理部を備えていてもよい。
この場合、画像入力部112は、ライトフィールドカメラ1からRAWデータを入力し、入力したRAWデータを記憶部120に記憶する。演算処理部110(画像生成部に相当する処理部)は、RAWデータに基づいて合焦位置の異なる複数の画像データを生成する。また、演算処理部110(検出部に相当する処理部)は、生成した画像データから一又は複数の被写体を検出する。また、演算処理部110は、検出した一又は複数の被写体の画像データを抽出する。また、演算処理部110は、一又は複数の被写体に名称を付加し、一又は複数の被写体の距離データを検出する。そして、演算処理部110は、記憶部120のデータベース120Aに画像データ、被写体の画像データ、被写体の名称、被写体の距離データを対応付けて記憶する。制御部115は、ステップS17において、複数の画像データの中から、受信者に関連する被写体に合焦した画像データを選択する。また、制御部115は、ステップS17において、RAWデータに基づいて受信者に関連する被写体に合焦した画像データを生成することも可能となる。
また、上記した第1実施形態では、制御部115は、ステップS17において、各被写体に合焦した複数の画像データの中から、受信者に関連する被写体に合焦した画像データを選択していた。しかし、制御部115は、ステップS17において、被写体に合焦していない複数の画像データに基づいて、被写体に合焦した画像データを生成してもよい。例えば、制御部115は、被写体に合焦していない複数の画像データに対して距離に応じた重みを加えてから平均する加重平均処理を行うことで、受信者に関連する被写体に合焦した画像データを生成する。このような処理によれば、画像生成部31は被写体毎に合焦した画像データを生成する必要がなくなる。
また、上記した第1実施形態では、通信部116は、制御部115で選択された画像データ(例えばJPEG形式の画像データ)を受信者の情報端末102,103,104に送信していた(ステップS18参照)。このような構成の場合、ライトフィールドカメラ1が撮影後に合焦位置を奥行き方向に変更可能な画像データを取得したにもかかわらず、受信者の情報端末102,103,104は画像データの合焦位置を変更することができないことになる。そこで、通信部116は、合焦位置を奥行き方向に変更可能な画像データを受信者の情報端末102,103,104に送信してもよい。
この場合、情報端末102,103,104がRAWデータに基づいて奥行き方向における任意の合焦位置の画像データを生成するための制御プログラム(アプリケーションソフトウェア)を備えている場合は、通信部116は、RAWデータと、奥行き方向の合焦位置(受信者に応じた合焦位置)を指定する指定情報とを情報端末102,103,104に送信する。情報端末102,103,104は、情報端末101から送信されたRAWデータに基づいて、指定情報で指定された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。また、情報端末102,103,104は、受信者の操作に応じて合焦位置が変更されたときは、変更された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。
また、情報端末102,103,104が合焦位置の異なる複数の画像データに基づいて奥行き方向における任意の合焦位置の画像データを生成するための制御プログラム(アプリケーションソフトウェア)を備えている場合は、通信部116は、合焦位置の異なる複数の画像データと、奥行き方向の合焦位置(受信者に応じた合焦位置)を指定する指定情報とを情報端末102,103,104に送信する。情報端末102,103,104は、受信者に関連する被写体に合焦していない複数の画像データに対して、距離に応じた重みを加えてから平均する加重平均処理を行うことで、受信者に関連する被写体に合焦した画像データを生成する。そして、情報端末102,103,104は、生成した画像データを表示装置に表示する。また、情報端末102,103,104は、受信者の操作に応じて合焦位置が変更されたときは、変更された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。
また、情報端末102,103,104が任意の合焦位置の画像データを生成するための制御プログラム(アプリケーションソフトウェア)を備えていない場合もあり得る。この場合は、通信部116は、受信者の情報端末102,103,104の環境(情報端末にインストールされている制御プログラム)に依存せずに、指定された合焦位置の画像データを表示装置に表示させる実行ファイル(画像閲覧用のビューアー)を、RAWデータ又は画像データ、及び奥行き方向の合焦位置(受信者に応じた合焦位置)を指定する指定情報とともに情報端末102,103,104に送信する。ここで、実行ファイルは、情報端末102,103,104のオペレーティングシステムローダーによってメモリに読み込まれて実行される移植可能な実行可能形式のファイルである。情報端末102,103,104は、実行ファイルの制御に従って、情報端末101から送信されたRAWデータ又は画像データに基づいて、指定情報で指定された合焦位置の画像データを生成する。そして、情報端末102,103,104は、生成した画像データを表示装置に表示する。また、情報端末102,103,104は、受信者の操作に応じて合焦位置が変更されたときは、変更された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。
また、上記した第1実施形態では、制御部115は、受信者に関連する被写体に合焦した画像データを選択していた。しかし、制御部115は、合焦位置が受信者に関連しない被写体の位置から受信者に関連する被写体の位置に変更される画像データを選択してもよい。この場合、制御部115は、受信者に関連しない被写体の合焦位置を指定する第1指定情報と、受信者に関連する被写体の合焦位置を指定する第2指定情報とを選択する。そして、通信部116は、RAWデータ又は画像データとともに、第1指定情報及び第2指定情報も情報端末102,103,104に送信する。情報端末102,103,104は、情報端末101から送信されたRAWデータ又は画像データに基づいて、第1指定情報で指定された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。その後、情報端末102,103,104は、情報端末101から送信されたRAWデータ又は画像データに基づいて、第2指定情報で指定された合焦位置の画像データを生成し、生成した画像データを表示装置に表示する。このような構成によれば、例えば、受信者の表示装置に表示される画像が、背景の画像(例えば観光地の風景の画像)から受信者に合焦した画像に変化する。従って、送信者が受信者に見せたい画像を順番に見せることができる。
なお、制御部115は、受信者に関連する被写体であるか否かにかかわらず、一又は複数の合焦位置(焦点距離)を指定する指定情報を選択し、通信部116は、RAWデータ又は画像データとともに制御部115で選択された指定情報を情報端末102,103,104に送信してもよい。
また、上記した第1実施形態では、制御部115は、ステップS17において、受信者自身に合焦した画像データを選択していたが、受信者以外の受信者に関連する被写体に合焦した画像データを選択してもよい。例えば、図10に示したように、家O4は受信者AAに関連する被写体(受信者AAの家)である。この場合、制御部115は、受信者に関連する被写体である家O4に合焦した画像データを選択する。
また、上記した第1実施形態では、制御部115は、ステップS17において、受信者に関連する被写体の合焦位置を含む被写界深度の範囲の画像データを選択又は生成してもよい。ここで、被写界深度とは、焦点が合っているように見える被写体の焦点距離(焦点位置)の範囲のことをいう。例えば、制御部115は、受信者に関連する被写体である人物O1及び家O4の合焦位置を含む被写界深度の範囲の画像データを選択又は生成する。
また、上記した第1実施形態において、演算処理部110は、ライトフィールドカメラ1で取得されたRAWデータに基づいて生成される画像データを利用していたが、フォーカスブラケット機能を備えたデジタルカメラ(撮像装置)で取得された合焦位置の異なる複数の画像データを利用してもよい。
以上に説明したように、第1実施形態では、合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と画像データの受信者に関する受信者情報とを関連付ける関連付け部114と、オブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータ(例えば、画像データ、RAWデータ、合焦位置を指定する指定情報、実行ファイルなど)を選択する制御部115と、制御部115により選択されたデータを受信者の端末102,103,104に送信する送信部116とを備える。このような構成によれば、受信者の情報端末102,103,104は受信者に応じた画像を表示装置に表示させるので、受信者はデータのファイルを開くだけで、受信者に応じた画像を確認することができる。
また、第1実施形態では、関連付け部114は、送信者により設定されたデータの送信先情報(例えばメールアドレス)を受信者情報として取得する。このような構成によれば、送信者は、データの送信先情報を設定することで、受信者に応じた合焦位置の画像データを受信者に確認させることができる。
また、第1実施形態では、制御部115は、合焦位置が受信者に関連するオブジェクトの位置にある画像データを表示させるためのデータを選択する。このような構成によれば、例えば複数人が写っている画像においても、受信者は直ぐに自身を確認することができる。また、第1実施形態では、制御部115は、合焦位置が受信者に関連しないオブジェクトの位置から受信者に関連するオブジェクトの位置に変更する画像データを表示させるためのデータを選択する。このような構成によれば、送信者は例えば背景に合焦した画像から受信者に合焦した画像を受信者に見せることができ、受信者に画像に対する興味を持たせることができる。
また、第1実施形態では、画像データからオブジェクト及び撮像装置1から該オブジェクトまでの距離を検出する検出部(画像処理部30の検出部32に相当する処理部)を備え、関連付け部114は、検出部で検出されたオブジェクト及び距離をオブジェクト情報として記憶部120に記憶するとともに、オブジェクト情報に関連する受信者に関する受信者情報を該オブジェクト情報に関連付けて記憶部120に記憶する。このような構成によれば、情報処理装置101は、撮像装置1から画像データを取得することで、画像データからオブジェクト情報を取得することができる。従って、撮像装置1がオブジェクト及び距離を検出する機能を備えていない場合においても、上記した第1実施形態の構成を実現することができる。
また、第1実施形態では、記憶部120に記憶された情報に基づいて受信者に応じた合焦位置の画像データを生成する画像生成部(画像処理部30の画像生成部31に相当する処理部)を備える。このような構成によれば、情報処理装置101は、撮像装置1からRAWデータを取得することで、RAWデータに基づいて合焦位置の異なる画像データを生成することができ、受信者に応じた合焦位置の画像データについても生成することができる。
また、第1実施形態では、データは、撮像装置1で撮像された光線情報に基づいて生成される、受信者に応じた合焦位置の画像データを含む。このような構成によれば、情報処理装置101は、大容量の光線情報を受信者の端末102,103,104に送信する必要がなくなる。従って、データ送信の時間も短縮される。
また、第1実施形態では、データは、撮像装置が合焦位置を変えながら撮像した、合焦位置の異なる複数の画像データのうち、受信者に応じた合焦位置の画像データを含む。このような構成によれば、リフォーカス機能を備えた特殊な撮像装置(ライトフィールドカメラ1)を用いることなく、上記した第1実施形態の構成を実現することができる。
また、第1実施形態では、データは、受信者の端末102,103,104の環境に依存せずに表示部に表示可能な実行ファイルを含む。このような構成によれば、受信者の端末102,103,104の環境(例えば制御プログラム)に依存せずに、受信者に応じた合焦位置の画像データを受信者に確認させることができる。
また、第1実施形態では、オブジェクト情報、受信者情報、及び受信者に応じた合焦位置の画像データを関連付けて表示部2に表示する表示制御部111を備える。このような構成によれば、送信者の操作性が向上し、送信者によるデータの送信を容易に行わせることができる。
<第2実施形態>
上記した第1実施形態では、送信者の情報端末101が、関連付けられたオブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを選択していた。これに対して、第2実施形態では、受信者の情報端末102,103,104が、送信者の情報端末101から送信された画像データ(RAWデータを含む)を受信し、受信した画像データからオブジェクト情報を検出し、検出したオブジェクト情報に基づいて、受信者に応じた合焦位置の画像データを表示装置に表示させる。すなわち、第2実施形態では、送信者の情報端末101が受信者に応じた合焦位置の画像データを選択することに代えて、受信者の情報端末102,103,104が受信者に応じた合焦位置の画像データを選択して表示装置に表示させる。
上記した第1実施形態では、送信者の情報端末101が、関連付けられたオブジェクト情報及び受信者情報に基づいて、受信者に応じた合焦位置の画像データを選択していた。これに対して、第2実施形態では、受信者の情報端末102,103,104が、送信者の情報端末101から送信された画像データ(RAWデータを含む)を受信し、受信した画像データからオブジェクト情報を検出し、検出したオブジェクト情報に基づいて、受信者に応じた合焦位置の画像データを表示装置に表示させる。すなわち、第2実施形態では、送信者の情報端末101が受信者に応じた合焦位置の画像データを選択することに代えて、受信者の情報端末102,103,104が受信者に応じた合焦位置の画像データを選択して表示装置に表示させる。
図13は、第2実施形態の情報端末102の構成をブロック図である。図13に示す情報端末102は、図1に示した受信者側の情報端末である。なお、情報端末103,104は、情報端末102と同一構成を備えているものとする。
図13に示すように、情報端末102は、表示装置(表示部)2A、キーボード3A、及びマウス4Aと接続されている。この情報端末102は、演算処理部130及び記憶部140を有している。演算処理部130は、画像データからのオブジェクト情報の抽出に関する制御や、受信者に応じた合焦位置の画像データの選択に関する制御を司る。記憶部140は、情報端末101から送信される画像データ(RAWデータを含む)、すなわち、送信者側のライトフィールドカメラ1(図1参照)で撮影された画像データや、演算処理部130による制御に必要な各種情報(例えばオブジェクト情報)などを記憶する。
演算処理部130は、図13に示すように、表示制御部131、操作制御部132、検出部133、画像生成部134、及び通信部(受信部)135を有している。表示制御部131は、例えば液晶表示ディスプレイのような表示装置2Aの表示画面500Aに、受信者によって操作されるグラフィカルユーザインタフェース(以下、GUIという。)などの各種画像(例えば図10に示すGUIとは異なるGUIの画像)を表示する制御を行う。
操作制御部132は、受信者が操作可能な操作部を構成するキーボード3A及びマウス4Aと接続される。この操作制御部132は、受信者によるキーボード3Aやマウス4Aの操作に応じて情報を入力し、その情報を表示制御部131に出力する。
検出部133は、通信部135が受信した画像データから一又は複数の被写体を検出する。また、検出部133は、検出した一又は複数の被写体の画像データを抽出する。また、検出部133は、検出した一又は複数の被写体までの距離(焦点距離)を検出(算出)する。また、検出部133は、検出した一又は複数の被写体の画像データから特徴点などを抽出する。検出部133は、検出した一又は複数の被写体の画像データ、距離データ、及び特徴点などを、画像データに対応付けて記憶部140に記憶する。
画像生成部134は、予め記憶部140に登録されている受信者自身の画像データの特徴点などと、検出部133で抽出した被写体の画像データの特徴点などとを照合して、受信者自身の被写体の画像データを特定する。また、画像生成部134は、通信部135が受信した合焦位置の異なる複数の画像データに対して、距離に応じた重みを加えてから平均する加重平均処理を行うことで、受信者自身の被写体に合焦した画像データを生成する。
通信部135は、通信ネットワーク150を通じて他の情報端末(図1に示す例では情報端末101)とデータ通信を行う。本実施形態では、通信部135は、情報端末101から送信される、合焦位置の異なる複数の画像データを受信する制御を行う。
なお、演算処理部130における表示制御部131、操作制御部132、検出部133、画像生成部134、及び通信部135それぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部140に記憶されている制御プログラムに従って実行する処理又は制御に相当する。
記憶部140には、画像データ、画像データ中の各被写体の画像データ、オブジェクト情報(各被写体の名称、各被写体の距離データ)、各被写体の画像データの特徴点などが記憶される。また、記憶部140には、表示制御部131によるGUIなどの表示に必要な各種情報も記憶されている。また、記憶部140には、上述したように、演算処理部130における表示制御部131、操作制御部132、検出部133、画像生成部134、及び通信部135の処理を実行させるための制御プログラムなども記憶されている。
上記した情報端末102(情報端末103及び103についても同様)は、次のような制御を行う。まず、通信部135は、情報端末101から送信される、合焦位置の異なる複数の画像データを受信する。検出部133は、通信部135が受信した画像データから被写体を検出する。また、検出部133は、被写体の画像データを抽出し、抽出した被写体の画像データから特徴点なども抽出する。また、検出部133は、送信側の撮像時におけるライトフィールドカメラ1から被写体までの距離(焦点距離)を検出(算出)する。そして、検出部133は、被写体の画像データ、距離データ、及び特徴点などを、画像データに対応付けて記憶部140に記憶する。
画像生成部134は、予め記憶部140に登録されている受信者自身の画像データの特徴点(例えば受信者の目)などと、検出部133で抽出した被写体の画像データの特徴点などとを照合して、受信者自身の被写体の画像データを特定する。また、画像生成部134は、合焦位置の異なる複数の画像データに対して、距離に応じた重みを加えてから平均する加重平均処理を行うことで、受信者自身の被写体に合焦した画像データを生成する。そして、表示制御部131は、画像生成部134で生成された画像データを表示装置2Aに出力させて、受信者自身に合焦した画像を表示装置2Aの表示画面500Aに表示させる。
なお、上記した第2実施形態では、通信部135は、情報端末101から送信される、合焦位置の異なる複数の画像データを受信していたが、情報端末101から送信されるRAWデータを受信してもよい。この場合、画像生成部134は、通信部135で受信したRAWデータに基づいて合焦位置の異なる複数の画像データを生成する。又は、画像生成部134は、RAWデータに基づいて、受信者自身に合焦した画像データを生成する。
以上に説明したように、第2実施形態では、合焦位置を奥行き方向に変更可能な画像データを受信する受信部135と、画像データからオブジェクト及び撮像装置1から該オブジェクトまでの距離を検出する検出部133と、検出部133で検出されたオブジェクト情報及び距離に基づいて、受信者に応じた合焦位置の画像データを生成する画像生成部134と、画像生成部134で生成された画像データを表示部2Aに表示する表示制御部131とを備える。このような構成においても、受信者の情報端末102は受信者に応じた画像を表示装置2Aに表示させるので、受信者はデータのファイルを開くだけで、受信者に応じた画像を確認することができる。
<第3実施形態>
上記した第1実施形態では、情報端末101が受信者に応じた合焦位置の画像データを電子メールで受信者側の情報端末に送信していた。これに対して、第2実施形態では、サーバが受信者側の情報端末からのアクセスに応じて、受信者に応じた合焦位置の画像データを受信者側の情報端末に送信する。
上記した第1実施形態では、情報端末101が受信者に応じた合焦位置の画像データを電子メールで受信者側の情報端末に送信していた。これに対して、第2実施形態では、サーバが受信者側の情報端末からのアクセスに応じて、受信者に応じた合焦位置の画像データを受信者側の情報端末に送信する。
図14は、第3実施形態のデータ配信システムSYS2の構成を示す図である。第3実施形態のデータ配信システムSYS2は、サーバ(情報処理装置、送信端末)300が一つ又は複数の端末に対してデータを配信するシステムである。図14に示す例では、データ配信システムSYS2は、データを送信(アップロード)する情報端末101と、データを配信するサーバ300と、データを受信(ダウンロード)する3つの情報端末(情報処理装置、受信端末)102,103,104とで構成されている。ただし、データを受信する情報端末の数は一例であって、3つに限定されず、1つ、2つ、4つ以上であってもよい。
図14に示すように、サーバ300及び情報端末101,102,103,104は、それぞれ、インターネットなどの通信ネットワーク150に接続されている。また、サーバ300は、例えばコンピュータで実現される。なお、情報端末101,102,103,104は、それぞれ、図1に示した構成と同様であるため、重複する説明を省略する。
図15は、図14に示すサーバ300の構成を示すブロック図である。図15に示すように、サーバ300は、演算処理部310及び記憶部320を有している。演算処理部310は、オブジェクト情報と受信者情報との関連付けに関する制御や、受信者に応じた合焦位置の画像データの選択に関する制御を司る。記憶部320は、情報端末101から送信される画像データ(ライトフィールドカメラ1で撮影された画像データ)や、演算処理部310による制御に必要な各種情報(例えばオブジェクト情報や受信者情報)などを記憶する。
演算処理部310は、図15に示すように、認証部311、検出部312、関連付け部313、画像生成部314、制御部315、及び通信部(送信部)316を有している。認証部311は、情報端末102,103,104からのアクセス時(画像データのダウンロードを行う際)に、情報端末102,103,104から送信される識別情報(例えばログインIDやパスワードなどの情報)に基づいて、受信者(情報端末102,103,104の使用者)を認証する。
検出部312は、図5に示した画像処理部30の検出部32や図13に示した演算処理部130の検出部133が行う処理(又はこの処理に類似する処理)を実行する。また、関連付け部313は、図2に示した演算処理部110の関連付け部114が行う処理(又はこの処理に類似する処理)を実行する。また、画像生成部314は、図5に示した画像処理部30の画像生成部31や図13に示した演算処理部130の画像生成部134が行う処理(又はこの処理に類似する処理)を実行する。また、制御部315は、図2に示した演算処理部110の制御部115が行う処理(又はこの処理に類似する処理)を実行する。また、通信部316は、図2に示した演算処理部110の通信部116や図13に示した演算処理部130の通信部135が行う処理(又はこの処理に類似する処理)を実行する。
なお、演算処理部310における認証部311、検出部312、関連付け部313、画像生成部314、制御部315、及び通信部316それぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部320に記憶されている制御プログラムに従って実行する処理又は制御に相当する。
記憶部320は、データベース320Aを有している。データベース320Aには、オブジェクト情報と受信者情報とが関連付けられて記憶される。また、データベース320Aには、受信者情報以外の受信者に関連する関連情報(例えば、受信者の同級生、家族、友人などの情報)も受信者情報に関連付けられて記憶される。また、データベース320Aには、被写体の画像データの特徴点などの情報と人物とが関連付けられて記憶される。
また、記憶部320には画像データ記憶領域が設けられ、この画像データ記憶領域に画像データ及びこの画像データ中の被写体の画像データが記憶される。また、記憶部320には、上述したように、演算処理部310における認証部311、検出部312、関連付け部313、画像生成部314、制御部315、及び通信部316の処理を実行させるための制御プログラムなども記憶されている。
次に、第3実施形態の演算処理部310が実行するデータ配信処理について説明する。図16は、第3実施形態の演算処理部310が実行するデータ配信処理を説明するためのフローチャートである。図16に示す処理において、通信部316は、情報端末101から送信される合焦位置の異なる複数の画像データを受信し、受信した複数の画像データを記憶部320に記憶(格納)する(ステップS21)。検出部312は、記憶部320に記憶された複数の画像データから被写体を検出するとともに、検出した被写体の画像データを抽出し、検出した被写体に関するオブジェクト情報(被写体の名称、被写体の距離データ)を抽出する(ステップS22)。これにより、検出部312が被写体の画像データとオブジェクト情報とを取得することになる。
次に、関連付け部313は、ステップS22で取得した各被写体の画像データから特徴点などを抽出する。そして、関連付け部313は、予めデータベース320Aに登録されている被写体の画像データの特徴点などと、ステップS22で取得した被写体の画像データから抽出された特徴点などとを照合して、ステップS22で取得した被写体の画像データと人物とを関連付ける(ステップS23)。
なお、情報端末は、被写体の画像データの特徴点などの情報と人物とが対応付けられた情報を予めサーバ300に送信する。サーバ300の通信部316は、情報端末からの情報を受信する。そして、関連付け部313は、通信部316で受信した情報をデータベース320Aに登録する。
認証部311は、情報端末102,103,104からアクセスされたときに、情報端末102,103,104から送信される識別情報(例えばログインIDやパスワードなどの情報)を受信する。そして、認証部311は、予めデータベース320Aに登録されている識別情報と情報端末102,103,104から送信される識別情報とを照合して、受信者(情報端末102,103,104の使用者)を認証する(ステップS24)。そして、認証部311は、認証した受信者の識別情報を受信者情報としてデータベース320Aに記憶する。
なお、認証部311は、受信者を認証すると、認証した受信者に関連する複数のサムネイル画像データ(例えば、予め登録された受信者に関連する人物から送信された画像データについてのサムネイル画像データ)を情報端末102,103,104に送信する。情報端末102,103,104は、サーバ300から送信された複数のサムネイル画像データを受信すると、複数のサムネイル画像を一覧表示する。受信者は、キーボード3Aやマウス4Aなどを操作してサムネイル画像を選択する。関連付け部313は、受信者により選択されたサムネイル画像に対応する画像データ、その画像データに含まれる被写体の画像データ及びオブジェクト情報を取得する。
その後、関連付け部313は、取得したオブジェクト情報と認証した受信者の識別情報(受信者情報)とを関連付けてデータベース320Aに記憶する(ステップS25)。制御部315は、ステップS25で関連付けたオブジェクト情報と受信者情報とに基づいて、受信者に関連する被写体に合焦した画像データを選択する(ステップS26)。なお、制御部315は、受信者に関連する被写体が存在しない場合には、例えば標準の合焦位置の画像データを選択する。
通信部316は、制御部315がステップS26で選択した画像データを受信者の情報端末102,103,104に送信する(ステップS27)。受信者がサーバ300から送信された画像データのファイルを開くと、受信者に合焦した画像が受信者の表示装置に表示される。
上記した第3実施形態では、制御部315が情報端末101から送信された複数の画像データの中から受信者に応じた合焦位置の画像データを選択していた。しかし、画像生成部314が情報端末101から送信された複数の画像データ又は情報端末101から送信されたRAWデータに基づいて、受信者に応じた合焦位置の画像データを生成してもよい。
以上のように、第3実施形態では、関連付け部313は、予め設定されている識別情報と受信者の端末102,103,104から送信される識別情報とを照合して受信者を認証し、認証した受信者に関する情報を受信者情報として取得する。このような構成によれば、不特定多数の者に対して、受信者に応じた合焦位置の画像データを配信するサービスを提供することができる。また、通信部316が制御部315で選択された画像データを送信する場合(つまり通信部316がRAWデータを送信しない場合)は、送信データ量が削減され、データの通信時間も短縮される。また、通信部316は受信者に応じた合焦位置の画像データ(すなわち、データベース320Aに登録されている受信者に関連する被写体に合焦した画像データ)だけを送信するので、より一層、送信データ量が削減され、データの通信時間も短縮される。
<第4実施形態>
上記した第1実施形態では、図7に示したように、画像生成部31は、RAWデータに基づいて合焦位置の異なる複数の画像データを生成した後に(ステップS2参照)、検出部32は、画像生成部31が生成した画像データから複数の被写体を検出し(ステップS4参照)、検出した複数の被写体までの距離を検出していた(ステップS5参照)。これに対して、第4実施形態では、検出部32は、画像生成部31がRAWデータに基づいて生成する複数の再構成画像データに基づいて複数の被写体を検出するとともに、検出した被写体までの距離を検出する。そして、画像生成部31は、検出部32が検出した複数の被写体までの距離に基づいて、RAWデータから複数の被写体それぞれに合焦した複数の画像データ(つまり、合焦位置が各被写体の焦点距離である複数の画像データ)を生成する。
上記した第1実施形態では、図7に示したように、画像生成部31は、RAWデータに基づいて合焦位置の異なる複数の画像データを生成した後に(ステップS2参照)、検出部32は、画像生成部31が生成した画像データから複数の被写体を検出し(ステップS4参照)、検出した複数の被写体までの距離を検出していた(ステップS5参照)。これに対して、第4実施形態では、検出部32は、画像生成部31がRAWデータに基づいて生成する複数の再構成画像データに基づいて複数の被写体を検出するとともに、検出した被写体までの距離を検出する。そして、画像生成部31は、検出部32が検出した複数の被写体までの距離に基づいて、RAWデータから複数の被写体それぞれに合焦した複数の画像データ(つまり、合焦位置が各被写体の焦点距離である複数の画像データ)を生成する。
このような構成によれば、画像生成部31が検出部32で検出された複数の被写体それぞれに合焦した複数の画像データ(例えばJPEG形式の画像データ)を確実に生成することができる。従って、画像生成部31が所定の被写体に合焦した画像データを生成するために、画像処理部30がRAWデータを記録部60に記録(保存)しておく必要がない。このため、多数の画像データを記録(保存)するための記録部60の記録容量を確保することができる。
また、画像処理部30は、画像生成部31が生成した合焦位置の異なる複数の画像データを記録部60に記録する際に、記録部60において所定のフォルダ(フォルダ名は例えばRAWデータのファイル名を流用する。)を作成し、そのフォルダ内に複数の画像データを記録してもよい。このような構成によれば、画像処理部30やシステム制御部70は、複数の画像データをグループとして管理することができる。このとき、画像処理部30は、画像データそれぞれのファイル名として、合焦位置が撮影者側に近い順に通番を付してもよい。また、画像処理部30は、画像データそれぞれのファイル名として、被写体に付加した被写体の名称を付してもよい。
また、画像生成部31は、検出部32が検出した所定の被写体(例えば、最も手前の被写体、最も奥の被写体)までの距離に基づいて、所定の被写体に合焦した画像データだけを生成してもよい。また、検出部32が撮影者側に近い所定数(例えば3つ)の被写体までの距離を検出し、画像生成部31は、検出部32が検出した所定数の被写体までの距離に基づいて、所定数の被写体に合焦した画像データを生成してもよい。撮影者側に近い被写体が最も撮影者が撮りたい被写体である可能性が高い。従って、画像処理部30がその被写体に合焦した画像データを保存することにより、記録部60の記録容量を削減することができる。
上記した第4実施形態の構成においては、画像生成部31が被写体の撮影時にRAWデータに基づいて各被写体に合焦した複数の画像データを生成していた。しかし、画像生成部31は情報端末101への画像データの転送時にRAWデータに基づいて各被写体に合焦した複数の画像データを生成する。そして、画像処理部30は、画像生成部31で生成された複数の画像データ(及び、複数の被写体の画像データ、複数の被写体の名称、及び複数の被写体までの距離データ)を情報端末101に転送する。この場合、RAWデータが情報端末101に転送されないため、転送データ量が削減される。また、画像処理部30が所定の種別の被写体(例えば人物の被写体)に合焦した画像データだけを情報端末101に転送する場合は、より一層、転送データ量を削減することができる。また、画像処理部30は、画像データの転送後は、RAWデータや画像データなどを記録部60から削除してもよい。
また、検出部32は、時系列的に得られる複数のライブビュー画像の画像データを比較して、ライブビュー画像上において移動する被写体(移動被写体)を検出する。そして、画像生成部31は、検出部32が検出した移動被写体に合焦した画像データを生成する。画像処理部30は、画像生成部31で生成された移動被写体に合焦した画像データを記録部60に記録する。移動被写体が撮影者が撮りたい被写体である可能性が高い。従って、画像処理部30がその移動被写体に合焦した画像データを保存することにより、記録部60の記録容量を削減することができる。
また、検出部32は、ライブビュー画像上における各被写体を検出時間(すなわち、検出部32が被写体を認識した時間)を判定する。そして、検出部32は、検出時間によって合焦させる被写体を決定する。例えば、検出部32は、検出時間が最も長い被写体を合焦させる被写体と決定する。画像生成部31は、検出部32が決定した被写体に対して合焦した画像データを生成する。画像処理部30は、画像生成部31で生成された被写体に合焦した画像データを記録部60に記録する。ライブビュー画像に写っている時間の長い被写体が撮影者が撮りたい被写体である可能性が高い。従って、画像処理部30がその被写体に合焦した画像データを保存することにより、記録部60の記録容量を削減することができる。また、使用者は、表示画面51上に形成されたタッチパネルのタッチ操作によって被写体を指定する。画像生成部31は、使用者のタッチ操作で指定された被写体に対して合焦した画像データを生成する。画像処理部30は、画像生成部31で生成された被写体に合焦した画像データを記録部60に記録する。画像処理部30が使用者により指定された被写体に合焦した画像データを保存することにより、記録部60の記録容量を削減することができる。
また、検出部32は、検出した被写体の領域の面積によって、合焦させる被写体を決定してもよい。例えば、検出部32は、検出した被写体のうち、最も領域の面積が広い被写体を特定する。そして、検出部32は、特定した被写体を合焦させる被写体と決定する。そして、画像生成部31は、検出部32で決定された被写体に合焦した画像データを生成する。画像処理部30は、画像生成部31で生成された被写体に合焦した画像データを記録部60に記録する。
また、ライトフィールドカメラ1はGPS(Global Positioning System)を備え、画像処理部30は、そのGPSで認識される撮影者の撮影時の位置に応じて、合焦させる被写体を決定し、決定した被写体に合焦した画像データを生成してもよい。例えば、画像処理部30は、GPSで認識される撮影者の撮影時の位置が動物園である場合、検出部32は動物の被写体を検出する。そして、画像生成部31は、検出部32が検出した動物の被写体に合焦した画像データを生成する。画像処理部30は、画像生成部31で生成された被写体に合焦した画像データを記録部60に記録する。
また、情報端末102〜104はGPSを備える。そして、送信者の情報端末101、受信者の情報端末102U〜104又はサーバ300は、GPSからの位置情報に基づいて受信者の現在位置を認識し、認識した受信者の現在位置に応じて、合焦させる被写体を決定する。そして、送信者の情報端末101、受信者の情報端末102U〜104又はサーバ300は、決定した被写体に合焦した画像データを生成する。
なお、上記した各実施形態において、ライトフィールドカメラ1から情報端末101に送信されるデータ、情報端末101から情報端末102〜104に送信されるデータ、及びサーバ300から情報端末102〜104に送信されるデータとして、RAWデータ、画像データ、被写体の画像データ、及びオブジェクト情報(被写体の名称、被写体の距離データ)が含まれ得る。ただし、これらのデータのうちの1つまたは複数のデータが状況に応じて適宜送信される。
また、上記した各実施形態において、ライトフィールドカメラ1の記録部60、情報端末101の記憶部120、情報端末102(及び情報端末103,104)の記憶部140、サーバ300の記憶部320における残りの記憶容量に応じて、記憶されるデータの種類(RAWデータ、画像データ、被写体の画像データ、及びオブジェクト情報)を変更してもよい。また、送信先の情報端末やサーバの記憶部の残りの記憶容量に応じて(記憶容量が所定量よりも少なくなった場合に)、送信されるデータの種類(RAWデータ、画像データ、被写体の画像データ、及びオブジェクト情報)を変更してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記実施の形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
上記した各実施形態では、情報端末101が電子メールで画像データを情報端末102,103,104に送信する場合、サーバ300が情報端末102,103,104からのアクセスに応じて画像データを配信する場合について説明した。しかし、このような構成に限定されない。例えば、情報端末101,102,103,104はそれぞれ、LAN(Local Area Network)などの通信ネットワークで接続され、情報端末101,102,103,104それぞれにおいて他の情報端末とデータを共有するための共有フォルダが設定されているものとする。そして、例えば情報端末101の使用者は、自身の情報端末101の共有フォルダにライトフィールドカメラ1で撮像した画像データを登録する。これにより、他の情報端末102,103,104の使用者は、共有フォルダに登録された画像データを取得することが可能となる。
この場合、他の情報端末102,103,104の使用者が共有フォルダに登録されている画像データを取得しようとした場合、情報端末101は他の情報端末102,103,104から送信される識別情報に基づいて使用者(又は情報端末102,103,104)を識別する。そして、情報端末101は、識別した受信者(又は情報端末102,103,104)に応じた合焦位置の画像データを選択又は生成し、選択又は生成した画像データを受信者(つまり情報端末102,103,104)に送信する。
また、図5に示す画像処理部30とシステム制御部70は一体で構成されてもよい。この場合、1つのCPUを有するシステム制御部が制御プログラムに基づいて処理を実行することにより画像処理部30の機能とシステム制御部70の機能を担う。
また、上記した第1実施形態において、カラーフィルタの配列がベイヤー配列とされていたが、この配列以外の配列であってもよい。
また、上記した各実施形態に係るライトフィールドカメラ1は、自動的に又は使用者による操作部55などの操作に応じてズーミング調節を行うズーム機能を備えていてもよい。この場合、駆動制御部13は、ズーミング調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばズーミング用レンズ)の駆動制御を実行する。また、ライトフィールドカメラ1は、被写体の撮影後に焦点位置を変更することが可能であるが、被写体の撮影前に自動的に焦点位置を調節するオートフォーカス機能を備えていてもよい。この場合、駆動制御部13は、撮影光学系11の焦点調節を行うために、システム制御部70から送信される制御情報に基づいて撮影光学系11(例えばフォーカシング用レンズ)の駆動制御を実行する。
また、上記した各実施形態(第1実施形態、第2実施形態、第3実施形態)及びそれらの変形例では、画像データとして静止画を用いた場合について説明していたが、画像データとして動画を用いることも可能である。また、情報端末101と情報端末102,103,104とは同一構成を備えていてもよい。
SYS1,SYS2…データ配信システム、1…ライトフィールドカメラ(撮像装置)、2,2A…表示装置(表示部)、101…情報端末(情報処理装置、送信端末)、102,103,104…情報端末(情報処理装置、受信端末)、110,130…演算処理部、111,131…表示制御部、114,313…関連付け部、115,315…制御部、116,316…通信部(送信部)、120…記憶部、133,312…検出部、134,314…画像生成部、135…通信部(受信部)、300…サーバ(情報処理装置、送信端末)、310…演算処理部、311…認証部
Claims (13)
- 合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と前記画像データの受信者に関する受信者情報とを関連付ける関連付け部と、
前記オブジェクト情報及び前記受信者情報に基づいて、前記受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータを選択する制御部と、
前記制御部により選択された前記データを前記受信者の端末に送信する送信部と、を備える情報処理装置。 - 前記関連付け部は、送信者により設定された前記データの送信先情報を前記受信者情報として取得する請求項1記載の情報処理装置。
- 前記関連付け部は、予め設定されている識別情報と前記受信者の端末から送信される識別情報とを照合して前記受信者を認証し、認証した前記受信者に関する情報を前記受信者情報として取得する請求項1または請求項2記載の情報処理装置。
- 前記制御部は、合焦位置が前記受信者に関連するオブジェクトの位置にある画像データを表示させるためのデータを選択する請求項1から3のいずれか一項に記載の情報処理装置。
- 前記制御部は、合焦位置が前記受信者に関連しないオブジェクトの位置から前記受信者に関連するオブジェクトの位置に変更する画像データを表示させるためのデータを選択する請求項1から3のいずれか一項に記載の情報処理装置。
- 前記画像データから前記オブジェクト及び撮像装置から該オブジェクトまでの距離を検出する検出部を備え、
前記関連付け部は、前記検出部で検出された前記オブジェクト及び前記距離を前記オブジェクト情報として記憶部に記憶するとともに、前記オブジェクト情報に関連する受信者に関する前記受信者情報を該オブジェクト情報に関連付けて前記記憶部に記憶する請求項1から5のいずれか一項に記載の情報処理装置。 - 前記記憶部に記憶された情報に基づいて前記受信者に応じた合焦位置の画像データを生成する画像生成部を備える請求項6記載の情報処理装置。
- 前記データは、撮像装置で撮像された光線情報に基づいて生成される、前記受信者に応じた合焦位置の画像データを含む請求項1から7のいずれか一項に記載の情報処理装置。
- 前記データは、撮像装置が合焦位置を変えながら撮像した、前記合焦位置の異なる複数の画像データのうち、前記受信者に応じた合焦位置の画像データを含む請求項1から7のいずれか一項に記載の情報処理装置。
- 前記データは、前記受信者の端末の環境に依存せずに前記画像データを前記表示部に表示させる実行ファイルを含む請求項1から9のいずれか一項に記載の情報処理装置。
- 前記オブジェクト情報、前記受信者情報、及び前記受信者に応じた合焦位置の画像データを関連付けて表示部に表示する表示制御部を備える請求項1から8のいずれか一項に記載の情報処理装置。
- 合焦位置を奥行き方向に変更可能な画像データを受信する受信部と、
前記画像データからオブジェクト及び撮像装置から該オブジェクトまでの距離を検出する検出部と、
前記検出部で検出された前記オブジェクト及び前記距離に基づいて、受信者に応じた合焦位置の画像データを生成する画像生成部と、
前記画像生成部で生成された前記画像データを表示部に表示する表示制御部と、を備える情報処理装置。 - 通信ネットワークを介してデータを送信する送信端末と、
前記通信ネットワークを介してデータを受信する受信端末と、を備え、
前記送信端末は、
合焦位置を奥行き方向に変更可能な画像データ中のオブジェクトに関するオブジェクト情報と前記画像データの受信者に関する受信者情報とを関連付ける関連付け部と、
前記オブジェクト情報及び前記受信者情報に基づいて、前記受信者に応じた合焦位置の画像データを該受信者の表示部に表示させるためのデータを選択する制御部と、
前記制御部により選択された前記データを前記受信者の受信端末に送信する送信部と、を含み、
前記受信端末は、
前記送信端末から送信される前記データを受信する受信部と、
前記受信部で受信された前記データに基づいて、前記画像データを前記表示部に表示する表示制御部と、を含むデータ配信システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014013106A JP2015141494A (ja) | 2014-01-28 | 2014-01-28 | 情報処理装置及びデータ配信システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014013106A JP2015141494A (ja) | 2014-01-28 | 2014-01-28 | 情報処理装置及びデータ配信システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015141494A true JP2015141494A (ja) | 2015-08-03 |
Family
ID=53771822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014013106A Pending JP2015141494A (ja) | 2014-01-28 | 2014-01-28 | 情報処理装置及びデータ配信システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015141494A (ja) |
-
2014
- 2014-01-28 JP JP2014013106A patent/JP2015141494A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10311649B2 (en) | Systems and method for performing depth based image editing | |
JP5946970B2 (ja) | 撮像装置及び撮像方法 | |
JP5756572B2 (ja) | 画像処理装置及び方法並びに撮像装置 | |
US10721414B2 (en) | All-in-focus implementation | |
WO2017047012A1 (ja) | 撮像装置および撮像装置とサーバとを含むシステム | |
JP2015220616A (ja) | 電子機器 | |
WO2015180683A1 (zh) | 移动终端及摄像参数的设置方法和装置、计算机存储介质 | |
US9742981B2 (en) | Image processing apparatus, image processing method and program, and image pickup apparatus for processing light field data | |
JP6529108B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP7380675B2 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
JP6780748B2 (ja) | 画像処理装置、及び画像処理プログラム | |
JP6566091B2 (ja) | 画像生成装置、及び画像検索装置 | |
JP7435592B2 (ja) | 画像処理装置、画像処理方法、プログラム、撮像装置 | |
JP2009111827A (ja) | 撮影装置及び画像ファイル提供システム | |
JP6491442B2 (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体 | |
JP2013169003A (ja) | 表情データベース登録方法及び表情データベース登録装置 | |
JP2015141494A (ja) | 情報処理装置及びデータ配信システム | |
JP6074201B2 (ja) | 画像処理装置、制御方法、及びプログラム | |
JP2015139018A (ja) | 電子機器及び制御プログラム | |
JP6361228B2 (ja) | 画像生成装置、及び画像生成プログラム | |
JP2016046777A (ja) | 画像処理装置及び該装置の制御方法、並びにプログラム | |
WO2014191613A1 (en) | Light field imaging | |
JP2015154254A (ja) | 電子機器及び制御プログラム | |
JP2017017471A (ja) | 情報処理システム、及びその制御方法、プログラム | |
JP2015139019A (ja) | 画像合成装置及び画像合成プログラム |