JP2016143973A - 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体 - Google Patents

撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP2016143973A
JP2016143973A JP2015017261A JP2015017261A JP2016143973A JP 2016143973 A JP2016143973 A JP 2016143973A JP 2015017261 A JP2015017261 A JP 2015017261A JP 2015017261 A JP2015017261 A JP 2015017261A JP 2016143973 A JP2016143973 A JP 2016143973A
Authority
JP
Japan
Prior art keywords
data
feature amount
focal length
subject
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015017261A
Other languages
English (en)
Inventor
明宏 柿沼
Akihiro Kakinuma
明宏 柿沼
上条 直裕
Tadahiro Kamijo
直裕 上条
高橋 浩
Hiroshi Takahashi
浩 高橋
津村 徳道
Norimichi Tsumura
徳道 津村
伶実 田中
Satomi Tanaka
伶実 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Ricoh Co Ltd
Original Assignee
Chiba University NUC
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC, Ricoh Co Ltd filed Critical Chiba University NUC
Priority to JP2015017261A priority Critical patent/JP2016143973A/ja
Publication of JP2016143973A publication Critical patent/JP2016143973A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】複数の被写体が撮影される場合、被写体に焦点が合う画像を撮影することができることを目的とする。
【解決手段】複数の被写体を撮影する撮影装置が、前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得し、前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成し、前記特徴量データを重ね合わせて、重ね合わせデータを生成し、前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成し、前記画像データにおいて、前記空間データに基づいて前記被写体を抽出し、抽出された前記被写体に焦点を合わせる設定を行うことにより上記課題を解決する。
【選択図】図1

Description

本発明は、撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体に関する。
従来、カメラ等が焦点(ピント)を変更して撮影を行う自動焦点(Auto Focus(以下、AFと言う。))が知られている。
また、同一の被写体を異なる焦点距離でそれぞれ撮像して、焦点距離がそれぞれ異なる複数の画像データを生成する方法が知られている。焦点距離がそれぞれ異なる複数の画像データを生成する方法では、まず、複数の画像データから被写体の位置ずれ量を得て、位置ずれ量に基づいて各画像データをそれぞれ補正する。次に、補正されたそれぞれの画像の合焦状態を示す評価値を計算し、評価値に基づいて焦点が合う画像を選択する方法が知られている(例えば、特許文献1参照)。
しかしながら、複数の被写体が撮影されると、焦点を合わせようとする被写体をカメラ等が位置ずれ量等に基づいて選択するため、複数の被写体のうち、いずれかの被写体には、焦点が合っていない状態で撮影される場合がある。即ち、被写体に焦点が合っていない画像が撮影される場合がある。
本発明の1つの側面は、複数の被写体が撮影される場合、被写体に焦点が合う画像を撮影することができる撮影装置を提供することを目的とする。
一態様における、複数の被写体を撮影する撮影装置は、前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得部と、前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成部と、前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成部と、前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成部と、前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出部と、抽出された前記被写体に焦点を合わせる設定を行う設定部とを含む。
複数の被写体が撮影される場合、被写体に焦点が合う画像を撮影することができる。
本発明の一実施形態に係る撮影装置を使用する場面の一例を示す図である。 本発明の一実施形態に係る撮影装置のハードウェア構成の一例を示すブロック図である。 本発明の一実施形態に係る撮影装置の機能構成の一例を示す機能ブロック図である。 本発明の一実施形態に係る撮影装置による全体処理の一例を示すフローチャートである。 本発明の一実施形態に係る撮影装置による画像領域の分割の一例を示す図である。 本発明の一実施形態に係るライトフィールド画像を撮影する構成の一例を示す図である。 本発明の一実施形態に係る重ね合わせデータの生成の一例を示すフローチャートである。 本発明の一実施形態に係る重ね合わせデータの生成の一例を示す模式図である。 本発明の一実施形態に係る空間データの生成の一例を示す模式図である。 本発明の一実施形態に係る距離重み係数及び位置重み係数の特性の一例を示す図である。 本発明の一実施形態に係る撮影装置による被写体の抽出の一例を示す模式図である。 本発明の一実施形態に係る撮影装置による全体処理の処理結果の一例を示す図である。
以下、本発明の実施の形態について説明する。
図1は、本発明の一実施形態に係る撮影装置を使用する場面の一例を示す図である。以下、図1に示すように、撮影装置1によって、複数の被写体として第一被写体2及び第二被写体3と、第三被写体4を含む背景とが撮影される場面を例に説明する。
(撮影装置のハードウェア構成例)
図2は、本発明の一実施形態に係る撮影装置のハードウェア構成の一例を示すブロック図である。具体的には、撮影装置1は、ネットワークI/F(interface)1H1と、出力I/F1H2と、入力I/F1H3と、撮像素子1H4と、記録媒体I/F1H5と、I/O(Input/Output)ポート1H6と、CPU(Central Processing Unit)1H7と、記憶装置1H8とを有する。また、各ハードウェアは、I/Oポート1H6及びバス(bus)を介して接続される。
ネットワークI/F1H1は、LAN(Local Area Network)又はWAN(Wide Area Network)等のネットワークと接続するインタフェースである。具体的には、ネットワークI/F1H1は、LANカード又はBluetooth(登録商標)インタフェース等である。また、ネットワークI/F1H1は、ネットワークを介してデータを撮影装置1に入出力する。
出力I/F1H2は、撮影装置1からデータを出力するインタフェースである。例えば、出力I/F1H2は、液晶又は有機EL(Electro−Luminescence)等のディスプレイである。即ち、出力I/F1H2は、撮影装置1を操作するユーザに画像及びアイコン(icon)等を表示して、ユーザが操作を行う際のユーザインタフェースとして機能する。なお、出力I/F1H2は、撮影装置1に接続される出力装置にデータ等を出力するコネクタ等でもよい。
入力I/F1H3は、ユーザによる操作及びデータを撮影装置1に入力するインタフェースである。例えば、入力I/F1H3は、キースイッチ又はダイヤル等である。即ち、入力I/F1H3は、撮影装置1に対するユーザの操作を受け付けて、ユーザが操作を行う際のユーザインタフェースとして機能する。なお、入力I/F1H3は、撮影装置1に接続される入力装置からデータ等を入力するコネクタ等でもよい。
また、出力I/F1H2及び入力I/F1H3は、タッチパネル等のように、出力I/F1H2及び入力I/F1H3が一体である構成でもよい。
撮像素子1H4は、被写体を撮影して画像データを生成する光学センサ等である。また、撮像素子1H4は、レンズ等の光学部品を有してもよい。具体的には、撮像素子1H4は、レンズ等を介して被写体を撮影し、A/D(Analog−Digital)等の処理を行ってアナログ信号をデジタル信号に変換して画像データを生成する。
記録媒体I/F1H5は、撮影装置1と、記録媒体5とを接続するインタフェースである。例えば、記録媒体I/F1H5は、USB(Universal Serial Bus)I/F、光学ドライブ、又はSD(登録商標)カードスロット等である。
また、記録媒体5は、撮影装置1又はPC(Personal Computer)等のコンピュータが読み取り可能な記録媒体である。例えば、記録媒体5は、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SD(登録商標)カード、又はMO等である。
CPU1H7は、撮影装置1が行う各種処理を実現する演算及び画像データ等の各種データを加工する演算装置並びに撮影装置1が有するハードウェア等を制御する制御装置である。なお、CPU1H7は、PLD(Programmable Logic Device)又はASIC(Application Specific Integrated Circuit)等でもよい。
記憶装置1H8は、撮影装置1が使うデータ、プログラム6、及び設定値等を記憶する。例えば、記憶装置1H8は、ROM(Read−Only Memory)及びRAM(Random Access Memory)等である。なお、記憶装置1H8は、ハードディスク(harddisk)等の補助記憶装置等を有してもよい。また、プログラム6は、インストール可能な形式又はCPU1H7が実行可能な形式のデータである。さらに、プログラム6は、ネットワークI/F1H1によって、電気通信回線を通じて頒布できる。さらにまた、プログラム6は、記録媒体I/F1H5によって、記録媒体5に記録できる。
(撮影装置の機能構成例)
図3は、本発明の一実施形態に係る撮影装置の機能構成の一例を示す機能ブロック図である。具体的には、撮影装置1は、撮影部1F1と、取得部1F2と、特徴量データ生成部1F3と、重ね合わせデータ生成部1F4と、抽出部1F5と、設定部1F6と、操作部1F7とを含む。
撮影部1F1は、例えば撮像素子1H4(図2)等によって実現され、被写体を撮影する。
取得部1F2は、例えばCPU1H7(図2)等によって実現され、撮影部1F1によって撮影される被写体の焦点距離をそれぞれ取得する。また、取得部1F2は、焦点距離に基づいて撮影部1F1によって撮影される画像データD1を取得する。なお、画像データD1は、焦点距離ごとにそれぞれ別の画像データであってもよいし、複数の焦点距離に対応する画像データでもよい。
特徴量データ生成部1F3は、例えばCPU1H7等によって実現され、画像データD1が有する画素がそれぞれ示す画素値から特徴量を算出して特徴量データD3を生成する。
重ね合わせデータ生成部1F4は、例えばCPU1H7等によって実現され、特徴量データ生成部1F3が生成する特徴量データD3を重ね合わせて、重ね合わせデータD4を生成する。
抽出部1F5は、例えばCPU1H7等によって実現され、重ね合わせデータ生成部1F4が生成する重ね合わせデータD4に基づいて画像内の被写体を抽出する。
設定部1F6は、例えばCPU1H7等によって実現され、撮影部1F1が有するレンズの焦点距離又は絞り等を調整して、抽出部1F5が抽出した被写体に焦点を合わせる設定を行う。
操作部1F7は、例えば入力I/F1H3(図2)等によって実現され、ユーザによる操作を入力し、撮影部1F1に撮影を行わせるタイミング及び撮影装置1に各種処理を開始させるタイミングを撮影装置1に入力する。
(全体処理例)
図4は、本発明の一実施形態に係る撮影装置による全体処理の一例を示すフローチャートである。
(画像データの画像領域の分割例(ステップS01))
ステップS01では、撮影装置は、撮影した画像データの画像領域を分割する。
図5は、本発明の一実施形態に係る撮影装置による画像領域の分割の一例を示す図である。以下、図1に示す場面で撮影装置1が撮影し、図5(A)に示す画像データD1が生成される場合を例に説明する。
例えば、ステップS01では、撮影装置1は、画像データD1の画像領域を図5(B)に示すように分割する。具体的には、図5(B)では、撮影装置1は、画像データD1の画像領域を横方向に10個及び縦方向に8個の分割領域となるようにそれぞれ分割する。また、図5(B)は、各分割領域がそれぞれ均等のサイズとなるように分割する例である。以下、画像データD1の画像領域の横方向をi軸とし、縦軸をj軸とする。さらに、各分割領域は、R(i,j)の座標でそれぞれ示す。
各分割領域のうち、図5では、撮影された被写体に対応する分割領域がある。具体的には、「子供」の第一被写体2に対応する分割領域は、例えば第一分割領域A1であり、第一分割領域A1は、R(2,5)の分割領域である。さらに、「象」の第二被写体3に対応する分割領域は、例えば第二分割領域A2であり、第二分割領域A2は、R(5,3)の分割領域である。さらにまた、背景である第三被写体4に対応する分割領域は、例えば第三分割領域A3であり、第三分割領域A3は、R(4,1)の分割領域である。
図5(B)に示す方法では、予め定められた分割数の分割領域に画像領域を撮影装置1が分割するため、撮影装置1は、画像データD1に撮影されるシーンに依らず、一定の計算負荷で分割を行うことができる。
なお、撮影装置1は、画像データD1の画像領域を図5(C)に示すように、分割してもよい。具体的には、図5(C)では、撮影装置1は、各分割領域が被写体にそれぞれ対応するように、画像データD1の画像領域を分割する。例えば、図5(C)は、画像データD1の画像領域を分割領域A4乃至A11に分割する例である。また、図5(C)に示す分割は、例えば、いわゆる平均化処理及びエッジ(edge)フィルタ処理等によって、各被写体の輪郭を示すエッジ画像を生成すること等で実現される。
図5(B)に示す方法では、画像データD1の画像領域が横方向に10個及び縦方向に8個となるようにそれぞれ分割されるので、図5(B)では、分割数は、80個となる。これに対して、図5(C)に示す方法では、分割数は、8個である。したがって、図5(C)に示す方法は、分割数を少なくできる。ゆえに、撮影装置1は、図5(C)に示す方法を用いることによって、計算負荷を少なくできる。
なお、分割は、例えばラベリング(labeling)等によって実現されてもよい。また、ステップS01(図4)は、例えば、ユーザが撮影準備状態にする操作を行うと、撮像素子1H4(図2)がA/D変換等を行い、画像データD1が生成される処理である。なお、撮影準備状態にする操作は、例えば入力I/F1H3(図2)の一例であるシャッタボタンに対して、ユーザによって、いわゆる半押しが行われた場合等である。
(焦点距離の取得例(ステップS02))
図4に戻り、ステップS02では、撮影装置は、焦点距離を取得する。具体的には、ステップS02では、撮影装置は、ステップS01で生成された分割領域の焦点距離をそれぞれ取得する。
例えば、焦点距離は、撮像素子1H4(図2)がコントラスト又は位相差を利用するAFを行う場合、AF機能によって求められる。具体的には、コントラストを利用するAFでは、焦点距離を変化させて明暗差(コントラスト)が最大となる点を探して焦点距離が求められる。一方、位相差を利用するAFでは、レンズに光が入射すると、入射した光が2つに分けられる。次に、分けられた2つの光がそれぞれセンサに導かれ、光がそれぞれ結像した2つの画像の間隔(視差)からピント面の位置(方向)及び合焦となる点までの距離を判定して焦点距離が求められる。
なお、焦点距離は、ステレオ法又は画面位相差AF機能等によって求められてもよい。
(全分割領域の焦点距離が取得されたか否かの判断例(ステップS03))
ステップS03では、撮影装置は、全分割領域の焦点距離が取得されたか否かを判断する。例えば、図5(B)に示す方法でステップS01が行われる場合、ステップS03では、撮影装置は、80個の焦点距離がそれぞれ取得されたか否かを判断する。
ステップS03で全分割領域の焦点距離が取得されたと判断する場合(ステップS03でYES)、撮影装置は、ステップS04に進む。一方、ステップS03で全分割領域の焦点距離が取得されていないと判断する場合(ステップS03でNO)、撮影装置は、ステップS02に進む。即ち、ステップ03によって、全分割領域の焦点距離が取得されるまで、ステップS02が繰り返される。
(画像データを焦点距離ごとに取得する例(ステップS04))
ステップS04では、撮影装置は、画像データを焦点距離ごとに取得する。即ち、ステップS04では、撮影装置は、ステップS02で取得される各焦点距離にそれぞれ焦点距離を変化させて、焦点距離ごとに画像データをそれぞれ取得する。具体的には、例えば図5(B)に示す方法でステップS01が行われる場合、撮影装置は、各分割領域に対応する焦点距離ごとに画像データをそれぞれ取得し、合計80枚の画像データを取得する。
なお、ステップS04では、複数の分割領域のうち、焦点距離が同一又は所定の値以内の差となる被写体に対応する分割領域がある場合、撮影装置は、いずれか1つの分割領域の画像データを取得してもよい。例えば、4つの分割領域がそれぞれ同一の被写体に対応し、4つの分割領域の焦点距離が同一となる場合、撮影装置は、4つの分割領域について1枚の画像データを取得する。このように画像データを取得すると、撮影装置は、4枚の画像データをそれぞれ取得するのを1枚の画像データとすることができる。したがって、撮影装置は、画像データのデータ量を少なくすることができる。この場合、画像データの撮影に用いる焦点距離は、各分割領域の焦点距離を平均した平均値又は各分割領域の焦点距離のうち最小値が好ましい。
また、画像データは、レンズの絞りを最大に開放(絞り値を最も小さく)して撮影され、ピント面から離れると、画像のボケが大きくなる状態で撮影されるのが好ましい。
なお、画像データは、三次元空間における光線の情報を有するデータでもよい。具体的には、画像データは、いわゆるライトフィールド(Light Filed)画像のデータでもよい。
図6は、本発明の一実施形態に係るライトフィールド画像を撮影する構成の一例を示す図である。具体的には、図6に示す構成では、撮像素子1H4は、レンズ1H9を有し、レンズ1H9に入射する光線がセンサ1H11に結像する前にマイクロレンズ1H10を通過する構成とする例である。なお、撮像素子1H4は、光学フィルタ等の光学部品をさらに有する構成でもよい。また、図6では、実線、破線、及び一点鎖線は、第1地点P1からの光線の一部を示す。即ち、第1地点P1で発光した一部の光線は、レンズ1H9及びマイクロレンズ1H10を通過してセンサ1H11に到達する。
ここで、第1地点P1に位置する被写体に係る光線は、レンズ1H9によって、マイクロレンズ1H10の位置PAに焦点を結ぶとする。この場合、それぞれの光線について、画像素子によって光線の方向及び明るさが記憶される。さらに、記憶された光線の方向及び明るさに基づいて、マイクロレンズ1H10によって位置PAに焦点を結ぶ画素を平均化すると、第1地点P1にピント面を合わせた画像が生成される。
次に、第2地点P2に位置する点P3について、点P3を通過する3本の光線は、マイクロレンズ1H10を通過してセンサ1H11に到達する。この場合、それぞれの光線について、画像素子によって光線の方向及び明るさが記憶される。さらに、記憶された光線の方向及び明るさに基づいて、マイクロレンズ1H10によって位置PBに焦点を結ぶ画素を平均化すると、第2地点P2にピント面を合わせた画像が生成される。これは、位置PBに焦点が合うようにピント面を合わせると、第1地点P1にある被写体がボケることが計算されたことに相当する。即ち、ライトフィールド画像は、第1地点P1及び第2地点P2等の複数の焦点距離に対応した画像を示すことができる画像である。
ライトフィールド画像が撮影できる構成では、撮影装置は、焦点距離を変化させて画像データを取得する必要が少ない。また、ライトフィールド画像が用いられると、記憶される光線に係るデータに基づいて、撮影後にフォーカスする位置が変更できる、いわゆる「リフォーカス」が可能となる。このため、撮影装置は、ライトフィールド画像によって、複数の焦点距離にそれぞれ対応する画像データを取得することができる。また、ライトフィールド画像が撮影できる構成であると、撮影装置は、焦点距離を変化させて焦点距離ごとに画像データをそれぞれ取得する方法と比較して、複数の焦点距離に対応する画像データを高速に取得することができる。
(全焦点距離の画像データが取得されたか否かの判断例(ステップS05))
図4に戻り、ステップS05では、撮影装置は、全焦点距離の画像データが取得されたか否かを判断する。例えば、図5(B)に示す方法でステップS01が行われる場合、ステップS05では、撮影装置は、80個の焦点距離にそれぞれ対応する画像データがそれぞれ取得されたか否かを判断する。一方、ライトフィールド画像が用いられる場合、ステップS05では、撮影装置は、ライトフィールド画像が取得されたか否かを判断する。
ステップS05で全焦点距離の画像データが取得されたと判断する場合(ステップS05でYES)、撮影装置は、ステップS06に進む。一方、ステップS05で全焦点距離の画像データが取得されていないと判断する場合(ステップS05でNO)、撮影装置は、ステップS04に進む。即ち、ステップ05によって、全分割領域の画像データが取得されるまで、ステップS04が繰り返される。
(重ね合わせデータの生成例(ステップS06))
ステップS06では、撮影装置は、焦点距離ごとに重ね合わせデータをそれぞれ生成する。
図7は、本発明の一実施形態に係る重ね合わせデータの生成の一例を示すフローチャートである。例えば、ステップS06では、撮影装置は、図7に示す処理を行う。
(画像データの選択例(ステップS061))
ステップS061では、撮影装置は、画像データを選択する。具体的には、ステップS061では、撮影装置は、ステップS04及びS05(図4)によって焦点距離ごとに生成される複数の画像データのうち、いずれか1つの画像データを選択する。
(特徴量の選択例(ステップS062))
ステップS062では、撮影装置は、特徴量を選択する。具体的には、ステップS062では、撮影装置は、複数の特徴量が用いられる場合、複数の特徴量のうち、いずれか1つの特徴量を選択する。また、ステップS062では、撮影装置は、ステップS061で選択される画像データの画素値を変換して特徴量を算出してもよい。例えば、画像データの画素値がRGB値であり、かつ、特徴量が輝度である場合、撮影装置は、RGB値から各画素の輝度をそれぞれ算出する。なお、用いられる特徴量は、予め撮影装置に設定される又はユーザによって任意に設定できる。
特徴量は、画像データが有する画素がそれぞれ示す画素値に基づいて算出される値である。例えば、特徴量は、輝度、明度、彩度、色相、色、モーション、エッジ成分、方位、又はこれらの組み合わせで示される値である。また、色は、RGB値を用いて算出される値等である。さらに、特徴量データは、画像において、特徴量のコントラスト値によって、人が被写体に対して興味を引く注目度を定量的に示すデータである。
ここで、例えば注目被写体の色味が背景と同系である場合に、特徴量として色又は色相等が選択されると、特徴量のコントラスト値が小さくなり、生成された特徴量データは、該被写体に対して興味を引く注目度を適正に示さない結果となる場合がある。この場合、特徴量には、画像データのエッジ成分とその方位とが選択されるのが好ましい。以下、エッジ成分と方位とが用いられる特徴量データの生成法について説明する。
例えば、撮影装置は、画像データに対し、4方位(0°、45°、90°、135°)のエッジ成分の強度平均をそれぞれ計算し、それぞれの特徴量とする。また、エッジ検出には、Steerable Gaborフィルタ等を用いることで、撮影装置は、任意の方位に対しエッジ成分強度を算出することができる。
さらに、画像データの解像度を段階的に下げた異スケール画像を複数用意し、エッジ検出がそれぞれ行われると、撮影装置は、周波数成分ごとの特徴量データをそれぞれ生成することができる。
エッジ成分強度は、画像データに含まれる主要な直線成分を反映し、画像データの大局的な特徴を示す。また、周波数成分ごとの特徴量データからは、被写体の種類及び奥行きを判別することができる。これは、被写体が自然物である場合、各方位に対する周波数成分は、等方性を示す。また、被写体が人工物である場合、各方位に対する周波数成分は、方位依存が大きくなる。したがって、撮影装置は、これらの特徴を利用する。
さらに、エッジ成分及び方位による特徴量データは、画像データを分割した領域ごとに計算されてもよく、この場合、撮影装置は、注目領域とその周辺領域とのエッジ成分強度のコントラスト値から、より注目度として適正な特徴量データとすることができる。
(ガウシアンピラミッドデータの生成例(ステップS063))
ステップS063では、撮影装置は、選択された特徴量に基づいてガウシアンピラミッド(Gaussian Pyramid)データを特徴量ごとにそれぞれ生成する。例えば、ステップS062で選択された特徴量が輝度である場合、撮影装置は、輝度に係るガウシアンピラミッドデータを生成する。これに対して、ステップS062で選択された特徴量が色である場合、撮影装置は、レッド成分rをグリーン成分gで除算した値及びブルー成分bをイエロー成分yで除算した値に係るガウシアンピラミッドデータをそれぞれ生成する。各色成分は、RGB値を用いて計算できる(例えば、r=R−(G+B)/2、g=G−(R+B)/2、b=B−(R+G)/2、y=(R+G)/2−|R−G|/2−B)。
ガウシアンピラミッドデータは、画像のボケ具合がそれぞれ異なるようにフィルタ係数が設定された複数のガウシアンフィルタをステップS061で選択される画像データにそれぞれ適用させて生成される複数の画像で構成されるデータである。例えば、画像のボケ具合が順に2倍となるように設定されたガウシアンフィルタによるフィルタリングが行われると、画像の解像度が順に2分の1となる画像がそれぞれ生成され、ガウシアンピラミッドデータが生成される。つまり、例えば、ガウシアンフィルタが8段階適用されると、原画像データから1/256(=1/2)の縮尺となる画像まで合計9枚の画像で構成されるガウシアンピラミッドデータが生成される。
(特徴量データの生成例(ステップS064))
ステップS064では、撮影装置は、生成されたガウシアンピラミッドデータに基づいて特徴量データを特徴量ごとにそれぞれ生成する。具体的には、まず、撮影装置は、ガウシアンピラミッドデータに含まれる解像度がそれぞれ異なる画像を同サイズに規格化して比較する。この場合、解像度の低い(画素の粗い)画像に含まれる画素は、同じ位置の解像度の高い(画素の細かい)画像に含まれる画素の周辺の特徴量を示す。そのため、規格化された異なる解像度の画像の差分を算出すると、撮影装置は、注目する画素の周辺と比較して特徴量の差分が大きくなる領域を算出できる。
つまり、ステップS064では、撮影装置は、ガウシアンピラミッドデータに含まれる異なる解像度の2つの画像に基づいて差分を求め、コントラスト値を算出する。次に、撮影装置は、算出されたコントラスト値を画像データが有する画素に対応させて特徴量データを生成する。
(全特徴量の特徴量データが生成されたか否かの判断例(ステップS065))
ステップS065では、撮影装置は、全特徴量の特徴量データが生成されたか否かを判断する。即ち、予め撮影装置に設定された特徴量ごとにそれぞれ特徴量データが生成されたか否かを撮影装置が判断する。
ステップS065で全特徴量の特徴量データが生成されたと判断する場合(ステップS065でYES)、撮影装置は、ステップS066に進む。一方、ステップS065で全特徴量の特徴量データが生成されていないと判断する場合(ステップS065でNO)、撮影装置は、ステップS062に進む。即ち、ステップS065によって、全特徴量の特徴量データが生成されるまで、ステップS062乃至S064が繰り返される。
(特徴量データに基づく重ね合わせデータの生成例(ステップS066))
ステップS066では、撮影装置は、特徴量データに基づいて重ね合わせデータを生成する。具体的には、ステップS066では、重ね合わせデータは、ステップS064で特徴量ごとにそれぞれ生成される特徴量データを重ね合わせて生成される。
図8は、本発明の一実施形態に係る重ね合わせデータの生成の一例を示す模式図である。具体的には、図8は、ステップS061(図7)で画像データD1が選択され、n種類の特徴量7について、図7に示す処理がそれぞれ行われる例である。また、図8は、n種類の特徴量7のうち、「特徴量1」は、輝度とし、「特徴量2」は、レッド成分rをグリーン成分gで除算した色を示す値とし、「特徴量3」は、ブルー成分bをイエロー成分yで除算した色を示す値とする例である。さらに、図8は、「特徴量4」乃至「特徴量7」をそれぞれ方位0°、45°、90°、及び135°のエッジ成分とする例である。
ステップS062(図7)では、n種類の特徴量7のうち、いずれかの特徴量が選択される。次に、ステップS063(図7)では、撮影装置は、ステップS062で選択された特徴量に係るガウシアンピラミッドデータD2を特徴量ごとにそれぞれ生成する。
続いて、ステップS064(図7)では、撮影装置は、ガウシアンピラミッドデータD2に基づいて、特徴量データD3として例えば特徴量マップデータを特徴量ごとにそれぞれ生成する。
次に、ステップS066(図7)では、撮影装置は、生成される特徴量マップデータを線形的に重ね合わせて重ね合わせデータD4を生成する。なお、重ね合わせによって各ガウシアンピラミッドデータD2が有するノイズが強調される場合がある。したがって、ステップS066では、撮影装置は、各ガウシアンピラミッドデータD2が有するノイズを低減させるため、規格化処理を行って特徴量マップデータを重ね合わせてもよい。
また、重ね合わせデータD4は、"A Model of Saliency−Based Visual Attention for Rapid Scene Analysis"(L. Itti,C. Koch,and E. Niebur IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.20,No11,1998)等の方法によって生成されるいわゆる顕著性マップ等でもよい。
(全焦点距離の重ね合わせデータが生成されたか否かの判断例(ステップS07))
図4に戻り、ステップS07では、撮影装置は、全焦点距離の重ね合わせデータが生成されたか否かを判断する。具体的には、全焦点距離の重ね合わせデータが生成されたと撮影装置が判断する場合(ステップS07でYES)、撮影装置は、ステップS08に進む。一方、全焦点距離の重ね合わせデータが生成されていないと判断する場合(ステップS07でNO)、撮影装置は、ステップS06に進む。即ち、ステップS07によって、全焦点距離の重ね合わせデータが生成されるまでステップS06が繰り返される。
(重ね合わせデータに基づく空間データの生成例(ステップS08))
ステップS08では、撮影装置は、重ね合わせデータに基づいて空間データを生成する。空間データは、ステップS06で生成される全焦点距離の重ね合わせデータに基づいて生成されるデータであり、空間データは、人が被写体に対して興味を引く注目度を定量的に示すデータである。
図9は、本発明の一実施形態に係る空間データの生成の一例を示す模式図である。具体的には、図9は、図5(A)に示す画像データD1から空間データD5を生成する例を示す図である。
図4に示すステップS02及びステップS03によって、撮影装置は、各被写体の焦点距離8をそれぞれ取得する。以下、図9では、撮影装置が、被写体として第一被写体2、第二被写体3、及び第三被写体4について処理する例を示す。また、図9では、第一被写体2の焦点距離8をL(2,5)とし、第二被写体3の焦点距離8をL(5,3)とし、第三被写体4の焦点距離8をL(4,1)とする。
まず、図9では、ステップS02及びステップS03によって、撮影装置は、各被写体の焦点距離8として、L(2,5)、L(5,3)、及びL(4,1)をそれぞれ取得する。
次に、ステップS04及びステップS05(図4)によって、撮影装置は、焦点距離がL(2,5)、L(5,3)、及びL(4,1)となるように設定し、各焦点距離でそれぞれ画像データD1を取得する。具体的には、図9では、焦点距離をL(2,5)にして取得される画像データをIMG(2,5)とする。さらに、焦点距離をL(5,3)にして取得される画像データをIMG(5,3)とし、焦点距離をL(4,1)にして取得される画像データをIMG(4,1)とする。なお、図9では、各画像データにおいて、ハッチングの領域は、ピントが合っていないため、画像がボケている様子を示す。
さらに、ステップS06及びステップS07(図4)によって、撮影装置は、画像データD1ごとに重ね合わせデータD4をそれぞれ生成する。具体的には、図9では、IMG(2,5)の画像データから生成される重ね合わせデータD4をSM(2,5)とする。さらに、IMG(5,3)の画像データから生成される重ね合わせデータD4をSM(5,3)とし、IMG(4,1)の画像データから生成される重ね合わせデータD4をSM(4,1)とする。なお、図9では、各重ね合わせデータD4において、黒色で示す領域は、注目度が低い領域を示し、白色で示す領域は、注目度が高い領域を示す。
次に、ステップS08(図4)によって、撮影装置は、焦点距離ごとにそれぞれ生成される重ね合わせデータD4に基づいて、空間データD5を生成する。なお、図9では、空間データD5において、黒色で示す領域は、注目度が低い領域を示し、白色で示す領域は、注目度が高い領域を示す。
空間データD5は、各重ね合わせデータD4に基づいて、重み係数W(i,j)によって生成できる。例えば、重み係数W(i,j)は、各被写体R(i,j)に対するそれぞれの焦点距離L(i,j)から求まる距離重み係数W1と、撮影される範囲の画角における各被写体R(i,j)の位置から求まる位置重み係数W2とを乗算して算出される。
図10は、本発明の一実施形態に係る距離重み係数及び位置重み係数の特性の一例を示す図である。具体的には、図10(A)では、横軸は、各被写体R(i,j)に対するそれぞれの焦点距離L(i,j)を最大焦点距離Lmaxで規格化した規格化焦点距離d(i,j)を示す。また、図10(A)では、縦軸は、規格化焦点距離d(i,j)に対する距離重み係数W1を示す。即ち、図10(A)から、規格化焦点距離d(i,j)及び距離重み係数W1の関係は、下記(1)式のように示せる。
W1=f1(d(i,j))・・・(1)
また、図10(B)は、撮影される画像領域を示す画角9における各被写体R(i,j)の位置f2(i,j)と、位置重み係数W2との関係を示す。また、位置f2(i,j)及び位置重み係数W2の関係は、下記(2)式のように示せる。
W2=f2(i,j)・・・(2)
ここで、規格化焦点距離d(i,j)は、例えば、焦点距離L(i,j)を最大焦点距離Lmaxで除算して求められる値である。また、最大焦点距離Lmaxは、各焦点距離L(i,j)のうち、最大の値となる焦点距離である。
したがって、重み係数W(i,j)は、下記(3)式で示すように、距離重み係数W1と、位置重み係数W2とを乗算して算出される。
W(i,j)=W1・W2=f1(d(i,j))・f2(i,j)・・・(3)
さらに、空間データD5は、下記(4)式によって求められる。
Σi,j(W(i,j)・SM(i,j))・・・(4)
また、位置重み係数W2は、図10(B)で示す特性に限らず、例えば画像データの構図に基づいて変更されてもよい。例えば、撮影装置は、画像データ中に水平線又は消失点が存在する場合、これらによって視線が誘導される特徴を活かし、該水平線又は消失点の近傍において位置重み係数が高めとなるような特性と設定することができる。
画像データに存在する水平線又は消失点等は、エッジ検出による直線成分の抽出等から位置を特定することができる。例えば、代表的な手法としては、"Use of the Hough Transformation to Detect Lines and Curves in Pictures"(R.O.Duda,and P.E.Hart Communication of the ACM,Vol.15,No.1,1972)等がある。
(空間データに基づく被写体の抽出例(ステップS09))
図4に戻り、ステップS09では、撮影装置は、空間データに基づいて被写体を抽出する。例えば、ステップS09では、撮影装置は、画像において、撮影される複数の被写体のうち、主な被写体を抽出する。主な被写体は、例えば、撮影の対象となるシーンにおいて、注目度が高い被写体等である。即ち、主な被写体が抽出できると、撮影装置は、抽出される主な被写体に焦点を合わせて撮影できるため、撮影装置は、ユーザが焦点を合わせたい被写体を写す画像を撮影できる。
図11は、本発明の一実施形態に係る撮影装置による被写体の抽出の一例を示す模式図である。具体的には、図11(A)は、図9に示す処理によって生成される空間データD5を示す。空間データD5では、注目度が高い領域は、第一被写体が撮影された第一領域Sc、第二被写体が撮影された第二領域Se、及び第三被写体が撮影された第三領域Stである。
さらに、図11(B)では、縦軸を注目度とし、横軸を図11(A)における位置として、空間データD5を示す。なお、縦軸の値は、空間データD5が有する注目度のうち、最大値を「1」として注目度を規格化して示す。具体的には、図11(B)では、第一曲線11は、第一被写体に係る注目度を示し、第二曲線12は、第二被写体に係る注目度を示し、第三曲線13は、第三被写体に係る注目度をそれぞれ示す。
空間データD5では、第二被写体が撮影された第二領域Seで注目度が最大となる。これに対して、第三被写体が撮影された第三領域Stは、第一領域Sc及び第二領域Seと比較して、注目度が低い領域となる。
例えば、ステップS09(図4)では、撮影装置は、注目度が最大となる領域に撮影される被写体を抽出する。即ち、図5(A)に示す画像データD1では、空間データD5に基づいて第二被写体が抽出される。
図11(C)は、本発明の一実施形態に係る撮影装置による抽出結果の一例を示す図である。具体的には、抽出結果データD6は、画像データD1に対するステップS09の処理結果例を示す図である。即ち、抽出結果データD6では、空間データD5に基づいて第二被写体が抽出されるため、第二被写体が撮影される第一抽出領域20が抽出される。
なお、ステップS09では、撮影装置は、注目度が所定の閾値以上となる領域に撮影される被写体を抽出してもよい。例えば、撮影装置には、予め閾値Sthが設定される。ステップS09では、撮影装置は、図11(B)に図示するように、閾値Sth以上となる領域に撮影される被写体を抽出する。即ち、図11(B)では、第一領域Sc及び第二領域Seがそれぞれ閾値Sth以上となる注目度の高い領域であるため、図5(A)に示す画像データD1では、空間データD5に基づいて、第一被写体及び第二被写体がそれぞれ抽出される。抽出結果データD6では、空間データD5に基づいて第一被写体及び第二被写体がそれぞれ抽出されるため、第二被写体が撮影される第一抽出領域20と、第一被写体が撮影される第二抽出領域21とがそれぞれ抽出される。
よって、閾値Sthが用いられると、注目度の高い被写体が撮影される領域が抽出されるため、撮影装置は、注目度の高い複数の被写体を抽出できる。また、第二抽出領域21は、第一抽出領域20と比較すると注目度は低いが、画像内では、注目度が高い領域である。
(焦点の設定例(ステップS10))
図4に戻り、ステップS10では、撮影装置は、抽出された被写体に焦点が合うように設定を行う。例えば、撮影装置は、第二抽出領域21(図11(C))のボケが少なくなるように、レンズの絞り調整によって、被写界深度の範囲を設定する。一方、例えば、第一抽出領域20(図11(C))以外に被写体が抽出されなかった場合、撮影装置は、第一抽出領域20に焦点距離を合わせ、レンズの絞りをできるだけ開放し、被写界深度をできるだけ狭くするように設定するのが好ましい。
(全体処理の処理結果例)
図12は、本発明の一実施形態に係る撮影装置による全体処理の処理結果の一例を示す図である。なお、図12(A)乃至図12(D)では、実線30は、上記(1)式によって算出される距離重み係数W1とする。また、図12(A)乃至図12(D)では、第一破線31乃至第九破線39は、(2)式によって算出される位置重み係数W2及び重ね合わせデータD4(図9)の値であるSM(i,j)を乗算したそれぞれの値とする。
図12(A)乃至図12(D)は、それぞれ異なる被写体が想定された例である。具体的には、図12(A)は、例えば、人物をメインにするシーンである。即ち、図12(A)は、例えば、いわゆるポートレイト(portrait)撮影等のシーンである。なお、被写体は、人物に限られず、被写体は、車両又はバイク等の単体の物体でもよい。
また、図12(B)は、例えば、撮影装置に近い位置に人物等が位置し、かつ、背景としてランドマーク(landmark)となる建築物又は景色等が存在するシーンである。
さらに、図12(C)は、例えば、花、料理、又は商品等の対象物が複数並べられたシーンである。
さらにまた、図12(D)は、例えば、遠景を基調とし、風景全般を撮影するシーンである。即ち、図12(D)は、パンフォーカス(pan−focus)で撮影されることが多いシーンである。
図12(A)乃至図12(D)では、ステップS09(図4)によって、メインとなる被写体がそれぞれ抽出される。また、図12(A)乃至図12(D)では、黒矢印40乃至43は、メインとなる被写体がそれぞれ抽出される規格化焦点距離d(i,j)をそれぞれ示す。これに対して、図12(B)乃至図12(D)では、白矢印50乃至53は、ステップS09によって、メインとなる被写体以外の被写体がそれぞれ抽出される規格化焦点距離d(i,j)をそれぞれ示す。
図12(A)乃至図12(D)では、撮影装置は、実線30で示す距離重み係数W1及び第一破線31乃至第九破線39に基づいて、黒矢印40乃至43及び白矢印50乃至53のように、被写体に焦点が合う規格化焦点距離d(i,j)を特定できる。
さらに、図12(A)乃至図12(D)では、矢印DF1乃至DF4は、撮影装置によって設定される被写界深度をそれぞれ示す。即ち、撮影装置が被写界深度を矢印DF1乃至DF4のように設定すると、撮影装置は、黒矢印40乃至43及び白矢印50乃至53がそれぞれ示す位置で撮影される被写体のボケを少なくすることができる。
例えば、図12(A)のシーンでは、注目度の高い被写体は、1つであるため、黒矢印40が示すように、メインとなる被写体が抽出される。次に、撮影装置は、黒矢印40に対応する被写体が撮影される第一破線31の領域に焦点が合うようにレンズの絞り等を調整して、被写界深度が矢印DF1となるように設定する。即ち、撮影装置は、被写界深度が矢印DF1となるように設定することによって、人物等の被写体に焦点が合う画像を撮影できる。
また、図12(B)のシーンでは、注目度の高い被写体は、2つある。2つの注目度の高い被写体のうち、黒矢印41に対応する被写体は、実線30で示す距離重み係数W1が白矢印50に対応する被写体と比較して大きな値であるため、メインとなる被写体として抽出される。一方、白矢印50に対応する被写体は、メインとなる被写体以外の被写体として抽出される。次に、撮影装置は、黒矢印41に対応する被写体が撮影される第二破線32及び白矢印50に対応する被写体が撮影される第三破線33の領域に焦点が合うようにレンズの絞り等を調整して、被写界深度が矢印DF2となるように設定する。即ち、撮影装置は、被写界深度が矢印DF2となるように設定することによって、人物等及び背景の被写体に焦点が合う画像を撮影できる。
さらに、図12(C)のシーンでは、複数の被写体が撮影装置に近い位置で撮影される場合が多い。図12(C)は、注目度の高い被写体が3つある例である。3つの注目度の高い被写体のうち、黒矢印42に対応する被写体は、実線30で示す距離重み係数W1及び注目度が他の2つの被写体と比較して大きな値であるため、メインとなる被写体として抽出される。一方、黒矢印42に対応する被写体以外の2つの被写体のうち、図12(C)では、白矢印51に対応する被写体は、距離重み係数W1が大きい値であるため、メインとなる被写体以外の被写体として抽出される。次に、撮影装置は、黒矢印42に対応する被写体が撮影される第五破線35及び白矢印51に対応する被写体が撮影される第四破線34の領域に焦点が合うようにレンズの絞り等を調整して、被写界深度が矢印DF3となるように設定する。即ち、撮影装置は、被写界深度が矢印DF3となるように設定することによって、複数の被写体に焦点が合う画像を撮影できる。
なお、図12(C)は、3つの注目度の高い被写体のうち、黒矢印42に対応する被写体がメインとなる被写体として抽出される例である。この場合、撮影装置は、全焦点距離のうち、中央値に近い焦点距離から短い焦点距離が被写界深度に含まれるように設定できる。
さらにまた、図12(D)のシーンでは、遠景を基調とするため、注目度の高い被写体が撮影装置から遠い位置で撮影される場合が多い。例えば、図12(D)では、3つの注目度の高い被写体のうち、最も遠方にある黒矢印43に対応する被写体が、メインとなる被写体として抽出される例である。さらに、図12(D)では、白矢印52及び白矢印53に対応する被写体が、メインとなる被写体以外の被写体として抽出される。次に、撮影装置は、黒矢印43に対応する被写体が撮影される第九破線39、白矢印52に対応する被写体が撮影される第七破線37、及び白矢印53に対応する被写体が撮影される第八破線38の領域に焦点が合うようにレンズの絞り等を調整して、被写界深度が矢印DF4となるように設定する。即ち、撮影装置は、被写界深度が矢印DF4となるように設定することによって、風景全般を撮影する場合等でも被写体に焦点が合う画像を撮影できる。
なお、図12(D)は、3つの注目度の高い被写体のうち、黒矢印43に対応する被写体がメインとなる被写体として抽出される例である。これに対して、撮影装置は、黒矢印43に対応する被写体以外をメインとなる被写体として抽出してもよい。この場合、3つの注目度の高い被写体のうち、いずれかがメインとなる被写体として抽出されても、撮影装置は、3つの注目度の高い被写体に焦点が合う範囲を被写界深度に含むように設定できる。したがって、撮影装置は、注目度の高い被写体が複数ある場合でも、パンフォーカスで撮影できるため、風景全般を撮影するのに適した焦点で、画像を撮影できる。
(変形例)
上述した処理は、撮影装置と、撮影装置に接続される情報処理装置とを有する撮影システムによって行われてもよい。情報処理装置は、例えばデジタルビデオカメラ、スマートフォン(smartphone)、タブレット、PC、携帯電話、PDA(Personal Data Assistance)、ウェアラブルPC、ゲーム機器、カーナビゲーション端末、プロジェクタ等の投影装置、又は電子黒板等である。
なお、各処理の全部又は一部は、アセンブラ、C、C++、C#、及びJava(登録商標)等のレガシープログラミング言語又はオブジェクト指向プログラミング言語等で記述されるコンピュータに実行させるためのプログラムによって実現されてもよい。即ち、プログラムは、撮影装置又は情報処理装置等のコンピュータに各処理を実行させるためのコンピュータプログラムである。
また、プログラムは、コンピュータが読み取り可能な記録媒体に格納して頒布することができる。さらに、各処理は、1つ以上の情報処理装置を有する撮影システムによって、各処理の一部又は全部を並列、分散、又は冗長して処理されてもよい。
以上、本発明の好ましい実施例について詳述したが、本発明は、係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
1 撮影装置
2 第一被写体
3 第二被写体
4 第三被写体
5 記録媒体
6 プログラム
7 特徴量
8 焦点距離
9 画角
11 第一曲線
12 第二曲線
13 第三曲線
20 第一抽出領域
21 第二抽出領域
D1 画像データ
D2 ガウシアンピラミッドデータ
D3 特徴量データ
D4 重ね合わせデータ
D5 空間データ
D6 抽出結果データ
A1、A2、A3、A4、A5、A6、A7、A8、A9、A10、A11 分割領域
特許5005570号公報

Claims (9)

  1. 複数の被写体を撮影する撮影装置であって、
    前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得部と、
    前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成部と、
    前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成部と、
    前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成部と、
    前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出部と、
    抽出された前記被写体に焦点を合わせる設定を行う設定部と
    を含む撮影装置。
  2. 複数の被写体を撮影する撮影装置であって、
    前記被写体の焦点距離をそれぞれ取得し、画像データを取得する取得部と、
    前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成部と、
    前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成部と、
    前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成部と、
    前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出部と、
    抽出された前記被写体に焦点を合わせる設定を行う設定部と
    を含む撮影装置。
  3. 前記画像データは、ライトフィールド画像のデータである請求項2に記載の撮影装置。
  4. 前記特徴量は、輝度、明度、彩度、色相、色、モーション、エッジ成分、方位、又はこれらの組み合わせで示される請求項1乃至3のいずれかに記載の撮影装置。
  5. 前記設定部は、レンズの絞りによって前記設定を行う請求項1乃至4のいずれかに記載の撮影装置。
  6. 複数の被写体を撮影する撮影装置及び前記撮影装置に接続される1以上の情報処理装置を有する撮影システムであって、
    前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得部と、
    前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成部と、
    前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成部と、
    前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成部と、
    前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出部と、
    抽出された前記被写体に焦点を合わせる設定を行う設定部と
    を含む撮影システム。
  7. 複数の被写体を撮影する撮影装置が行う撮影方法であって、
    前記撮影装置が、前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得手順と、
    前記撮影装置が、前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成手順と、
    前記撮影装置が、前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成手順と、
    前記撮影装置が、前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成手順と、
    前記撮影装置が、前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出手順と、
    前記撮影装置が、抽出された前記被写体に焦点を合わせる設定を行う設定手順と
    を含む撮影方法。
  8. 複数の被写体を撮影するコンピュータに撮影を実行させるためのプログラムであって、
    前記コンピュータが、前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得手順と、
    前記コンピュータが、前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成手順と、
    前記コンピュータが、前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成手順と、
    前記コンピュータが、前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成手順と、
    前記コンピュータが、前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出手順と、
    前記コンピュータが、抽出された前記被写体に焦点を合わせる設定を行う設定手順と
    を実行させるためのプログラム。
  9. 複数の被写体を撮影するコンピュータに撮影を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    前記コンピュータが、前記被写体の焦点距離をそれぞれ取得し、前記焦点距離ごとにそれぞれ画像データを取得する取得手順と、
    前記コンピュータが、前記画像データがそれぞれ有する画素がそれぞれ示す画素値に基づいて算出される特徴量のコントラスト値を示す特徴量データを前記焦点距離ごとにそれぞれ生成する特徴量データ生成手順と、
    前記コンピュータが、前記特徴量データを重ね合わせて、重ね合わせデータを生成する重ね合わせデータ生成手順と、
    前記コンピュータが、前記焦点距離及び前記重ね合わせデータに基づいて生成される空間データを生成する空間データ生成手順と、
    前記コンピュータが、前記画像データにおいて、前記空間データに基づいて前記被写体を抽出する抽出手順と、
    前記コンピュータが、抽出された前記被写体に焦点を合わせる設定を行う設定手順と
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2015017261A 2015-01-30 2015-01-30 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体 Pending JP2016143973A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015017261A JP2016143973A (ja) 2015-01-30 2015-01-30 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015017261A JP2016143973A (ja) 2015-01-30 2015-01-30 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体

Publications (1)

Publication Number Publication Date
JP2016143973A true JP2016143973A (ja) 2016-08-08

Family

ID=56568897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015017261A Pending JP2016143973A (ja) 2015-01-30 2015-01-30 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体

Country Status (1)

Country Link
JP (1) JP2016143973A (ja)

Similar Documents

Publication Publication Date Title
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
JP4497211B2 (ja) 撮像装置、撮像方法及びプログラム
JP6347675B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
US8749653B2 (en) Apparatus and method of blurring background of image in digital image processing device
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
TWI538512B (zh) 調整對焦位置的方法及電子裝置
US9712740B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
US9792698B2 (en) Image refocusing
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
CN108462830A (zh) 摄像装置及摄像装置的控制方法
JP6275174B2 (ja) 画像処理方法、画像処理装置、および、撮像装置
KR20170067634A (ko) 촬영 장치 및 촬영 장치를 이용한 초점 검출 방법
US11756221B2 (en) Image fusion for scenes with objects at multiple depths
JP5971954B2 (ja) 画像処理装置、画像処理装置を有する撮像装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
JP6611531B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
CN107547789B (zh) 影像获取装置及其摄影构图的方法
JP2019016975A (ja) 画像処理装置および画像処理方法、撮像装置、プログラム
JP2015041901A (ja) 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置
JP6006506B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN109447925B (zh) 图像处理方法和装置、存储介质、电子设备
JP2016143973A (ja) 撮影装置、撮影システム、撮影方法、プログラム、及び記録媒体
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JPWO2005026803A1 (ja) 撮影レンズ位置制御装置
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP6161461B2 (ja) 画像処理装置、その制御方法、および制御プログラム