JP2016208204A - 画像撮影方法および画像撮影装置、プログラム - Google Patents
画像撮影方法および画像撮影装置、プログラム Download PDFInfo
- Publication number
- JP2016208204A JP2016208204A JP2015086342A JP2015086342A JP2016208204A JP 2016208204 A JP2016208204 A JP 2016208204A JP 2015086342 A JP2015086342 A JP 2015086342A JP 2015086342 A JP2015086342 A JP 2015086342A JP 2016208204 A JP2016208204 A JP 2016208204A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- camera
- automatic
- imaging
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】手持ち撮影時でも置きピンと同様の手順で自動撮影位置を決定して自動撮影する機能を実現する。
【解決手段】撮影装置が、自動撮影領域までの距離を指定する距離指定手段と、撮影装置から自動撮影領域への向きを指定する方向指定手段を備える撮影装置であって、前記距離指定手段、前記方向指定手段の順で自動撮影領域を指定した後、前記自動撮影領域の方向から撮影装置の方向への相対角度を取得する相対角度取得手段と、前記相対角度から算出される自動撮影領域の方向に存在する物体への距離を得る距離取得手段と、前記物体への距離が前記距離と略一致した場合に自動撮影を実行する撮影手段とを備えることを特徴とする。
【選択図】図4
【解決手段】撮影装置が、自動撮影領域までの距離を指定する距離指定手段と、撮影装置から自動撮影領域への向きを指定する方向指定手段を備える撮影装置であって、前記距離指定手段、前記方向指定手段の順で自動撮影領域を指定した後、前記自動撮影領域の方向から撮影装置の方向への相対角度を取得する相対角度取得手段と、前記相対角度から算出される自動撮影領域の方向に存在する物体への距離を得る距離取得手段と、前記物体への距離が前記距離と略一致した場合に自動撮影を実行する撮影手段とを備えることを特徴とする。
【選択図】図4
Description
本発明は、フォーカシング操作の操作性を向上させるための画像撮影方法、および画像撮影装置、プログラムに関する。
カメラを用いて移動する被写体を撮影する際のテクニックとして、置きピンと呼ばれる手法が知られている。置きピンとは、被写体の通過予想位置にピントを合わせた状態で被写体の通過を待ち、被写体の通過をトリガにして撮影を実行する撮影法である。特に、被写体の移動ルートを予測しやすいカーレースやトラック競技、鉄道車両の撮影などによく用いられている。
このような撮影法では、被写体の移動速度が速い場合に撮影タイミングを合わせるのが難しいため、撮影を自動化する方法が提案されている。
特許文献1には、線路形状に応じた画角・ピント・絞りなどのカメラ設定を自動的に行い、列車を適切に撮影する方法が述べられている。
また、特許文献2には、被写体を検出する識別マーカを保持させて、その位置を電動雲台で追尾することで自動撮影する方法が提案されている。
しかしながら、このように被写体の向きや距離を考慮する自動撮影システムでは撮影用カメラが固定されているのが前提となっており、手持ち撮影が考慮されていないという問題がある。小型カメラによる撮影の大半は手持ち撮影であり、三脚などを用いてカメラを固定するシチュエーションは少ない。また、状況によっては三脚や一脚の使用が制限されている場合もある。
本発明は、上記課題を解決するためになされたものであり、手持ち撮影時でも置きピンと同様の手順で自動撮影位置を決定して自動撮影する機能を実現することを目的とする。
上記の目的を達成するために、本発明に係る撮影装置は、自動撮影領域までの距離を指定する距離指定手段と、撮影装置から自動撮影領域への向きを指定する方向指定手段を備える撮影装置であって、前記距離指定手段、前記方向指定手段の順で自動撮影領域を指定した後、前記自動撮影領域の方向から撮影装置の方向への相対角度を取得する相対角度取得手段と、前記相対角度から算出される自動撮影領域の方向に存在する物体への距離を得る距離取得手段と、前記物体への距離が前記距離と略一致した場合に自動撮影を実行する撮影手段とを備えることを特徴とする。
本発明の撮影装置によれば、簡便な方法で移動被写体を適切に撮影することが可能となる。
以下、本発明を実施するための形態を図面に基づいて説明する。
本発明による多眼方式の多視点撮影装置(以後、単に多眼カメラ)について述べる。本発明による多眼カメラは、通常シーンの撮影モードに加え、自動撮影モードを備える。自動撮影モードに設定された場合、後述する手順で被写体の予想通過位置を設定し、その位置を被写体が通過した場合に自動的に撮影を実行する。以後、この予想通過位置のことを、自動撮影領域と呼ぶ。
まず、多眼カメラの基本構成について述べる。図1は本実施形態に係る多眼デジタルカメラの概観を示す斜視図であり、図1(a)は正面、図1(b)は背面の概観を示している。
図1において、多眼カメラ本体100の正面には、カメラユニット101を複数配置したカメラアレイが設けられており、同時に複数視点の撮影画像を得ることができる。多眼カメラ本体100の上部には、撮影開始を指示するためのレリーズボタン106が設けられている。多眼カメラを構成するカメラユニット101は撮影レンズ102、光学フィルタ103、撮像センサ104、周辺回路105で構成される。多眼カメラ本体100の側面には、外部記録媒体(例えば、半導体メモリカード)を挿入するためのカードスロット113が設けられている。
多眼カメラ本体100の背面には画像表示装置107、十字配置スイッチ108、電源ボタン109、メニューボタン110、決定ボタン111、キャンセルボタン112が設けられている。本実施形態では光学ファインダを設けていないので、フレーミング操作(ピントや構図の確認)は、画像表示装置107を用いて行う。画像表示装置107でライブビュー画像を確認しながら撮影を行うので、このフレーミングやフォーカシングの操作を行っている間は、画像表示装置107は電子ファインダとして機能する。
画像表示装置107には、撮影範囲をリアルタイムに表示するライブビュー表示を行う他、メニューボタン110を押下した場合にはカメラ設定メニューを表示する。カメラ設定メニューを表示した状態でメニューボタン110を押下した場合には、ライブビュー状態に戻る。また、画像表示装置107はタッチパネル209を備えており、ライブビュー中に撮影者が指定した位置をフォーカスエリアとして設定する。
メニューボタン110によって表示されるカメラ設定メニューでは、まず項目を選択し、選択された項目の状態を決定ボタン111で変更するか、キャンセルボタン112で変更せずに項目の選択に戻る。カメラ設定メニューで変更できる項目には、置きピン撮影モードや通常モードなどの撮影モード、ファイル出力形式の他、各カメラユニットが撮影時に使用する絞り値や、シャッタースピードなどを指定できる。本実施例では絞り値、シャッタースピード、撮影距離やズーム位置については、カメラアレイを構成する各カメラユニットに対して全て同じ設定にするものとするが、個別に設定しても良いことは言うまでもない。
本実施例におけるデジタルカメラでは、各カメラユニットの撮影画像をそのまま保存するか、フォーカシング操作時に指定した仮想撮影距離、仮想絞りパラメータにしたがってリフォーカス処理した出力画像を保存するか、その両方を保存するかを選択可能である。カメラユニットによる撮影画像を保存した場合、撮影後に被写界深度やピントをある程度調整できる。リフォーカス処理画像を保存することで、従来のデジタルカメラと同様の使い勝手のカメラを実現することができる。ピント面の調整可能範囲は、撮影時の各カメラユニットの実際の絞り値やカメラから被写体までの撮影距離に依存する。例えば本実施例における多眼カメラでは、撮影距離3mの場合、前後10cm程度調整可能であるとする。仮想撮影距離、仮想絞りパラメータやリフォーカス処理の詳細については後述する。
図2は本実施形態の多眼カメラの回路構成を示すブロック図である。図2において、マイクロコンピュータ200は、カメラユニット101が出力する画像データの処理や、LCDモニタ装置208の表示制御、タッチパネル209からの入力データ取得、各カメラユニットの電源制御指示をはじめ、カメラ全体の動作を制御する。
スイッチ(SW1)205は、レリーズボタン106(図1参照)の半押し状態でオンになり、スイッチ(SW1)205がオンすると本実施形態の多眼カメラは撮影準備状態になる。スイッチ(SW2)206は、レリーズボタン106が最後まで押された状態(全押し状態)でオンし、スイッチ(SW2)206がオンすると多眼カメラは静止画撮影を開始する。撮影準備状態時に決定された露光時間が経過した後、多眼カメラは静止画撮影を終了する。
図1に示したように、カメラユニット101は、撮影レンズ102、光学フィルタ103、撮像センサ104と周辺回路105で構成される。周辺回路105には、撮像装置制御回路201、画像処理回路202を含む。撮影装置制御回路201は、レンズ制御やシャッター制御などを行う。例えばレンズ制御として、撮影レンズ102との通信および撮影距離変更時の撮影レンズ102の駆動制御や絞り羽の駆動制御などを行う。また、シャッター制御によって、撮像素子104に対して適正な露光を行う。撮像装置104で得た画像データは画像処理回路202によって処理され、距離推定処理や画像合成処理などを行うためのバッファメモリ203へ伝送される。画像処理204は、バッファメモリ203に格納された画像データを用いて出力形式に応じた画像を生成する。
LCDモニタ208とバックライト照明207、タッチパネル209は、画像表示装置105を構成している。記録装置210は、例えばカードスロット111によってカメラ本体に着脱可能な半導体メモリカードや、外部端子(不図示)によって接続されるハードディスクドライブなどである。
図3は本実施例による多眼カメラのカメラユニット配置例である。矩形は多眼カメラを構成するカメラユニットで、矩形の並びは多眼カメラを正面から見た時のカメラユニットの配置を表している。カメラユニットの配置には、図3に示した(a)、(b)のような様々なパターンが考えられるが、本実施例では(a)の配置を取る。図3中に示した矩形のうち、グレーで図示した中央のカメラユニットを以後、センターカメラユニットと呼ぶ。
(自動撮影モード)
図4は本発明による自動撮影処理の流れを示すフローチャートである。
図4は本発明による自動撮影処理の流れを示すフローチャートである。
まずステップS401で、自動撮影領域までの距離を決定する。撮影したい距離とほぼ同じ距離にある物体をファインダ視野の中央に合わせてスイッチ(SW1)205をオンすると、これをトリガにして測距を実施して、自動撮影領域までの距離とする。測距処理の詳細については後述する。
次にステップS402で、自動撮影領域の方向を決定する。ステップS401でスイッチ(SW1)205をオンした状態のまま、ファインダ中心を自動撮影領域の中心まで移動してスイッチ(SW1)205をオフすることで、自動撮影領域の方向を決定する。スイッチ(SW1)205をオフした時点でカメラが向いている方向を自動撮影領域の方向とする。本実施例では、スイッチ(SW1)205のオフで自動撮影領域の方向を決定したが、全押し状態で決定しても良いことは言うまでもない。なお、自動撮影領域の方向を決定した段階で、自動撮影領域の方向とカメラの方向との相対姿勢の取得を開始する(ステップS403)。本実施例では、カメラの相対姿勢は、自動撮影領域の方向からの相対角度であるとする。カメラの相対姿勢に、3次元空間上での位置や回転角度(いわゆる6軸位置)を含んでも良いことは言うまでもない。
ステップS404で、自動撮影状態を解除するかどうかの判定を行う。スイッチ(SW1)205が操作されるか、電源ボタン109、メニューボタン110、決定ボタン111、キャンセルボタン112のいずれかのボタンがオンされるか、タッチパネル209への入力があった場合、自動撮影状態を解除する。
ステップS405で、自動撮影領域の方向に対する距離推定処理を実行して被写体が存在するかどうかを判断し(ステップS406、オブジェクト存在判定処理)、存在する場合にはステップS407で撮影を実行する。
最後に、ステップS408でカメラの相対姿勢の取得を停止した後、自動撮影処理を終了する。
なお、自動撮影領域の距離や方向について、ファインダ中心とシャッターボタン(スイッチ(SW1)205,スイッチ(SW2)206)を用いて指定したが、これらをタッチパネル操作により指定しても構わない。例えば、ステップS401では、ファインダ像中のオブジェクトをタッチすることで、そのオブジェクトまでの距離を自動撮影距離とすることも考えられる。また、ステップS402では、ファインダ像中に自動撮影領域が含まれる状態で、その位置をタッチすることで決定しても良い。このような指定方法を行った場合、ファインダ像に距離を指定するためのオブジェクトと自動撮影領域が含まれている場合には、距離、方向を決定するための2箇所をタッチするだけで自動撮影領域を指定することが可能になる。
以下、本発明による多眼カメラを実現するためのリフォーカス処理、距離推定処理、対応座標点算出処理、およびオブジェクト存在判定処理の詳細について述べる。
(リフォーカス処理)
リフォーカス処理とは、多視点画像を合成し、撮影時とは異なる撮影距離や被写界深度の画像を生成する処理である。具体的には、被写界深度を決定するための仮想絞りパラメータ、撮影距離に相当する仮想撮影距離と撮像装置情報に基づいて、各多視点撮影画像をシフトした後重み付け加算して出力画像を得る。以下、図5に示すフローチャートを用いてリフォーカス処理の詳細を説明する。
リフォーカス処理とは、多視点画像を合成し、撮影時とは異なる撮影距離や被写界深度の画像を生成する処理である。具体的には、被写界深度を決定するための仮想絞りパラメータ、撮影距離に相当する仮想撮影距離と撮像装置情報に基づいて、各多視点撮影画像をシフトした後重み付け加算して出力画像を得る。以下、図5に示すフローチャートを用いてリフォーカス処理の詳細を説明する。
まず、仮想絞りパラメータに基づいて各カメラユニットの撮影画像に対する重み係数を算出する(ステップS501)。本実施例では、各撮影画像に対する重み係数をガウス関数に従って決定する(図6)。この場合、被写界深度はガウス関数を決定する標準偏差の値によって決まる。被写界深度は、標準偏差が小さいほど深くなり、標準偏差が大きいほど浅くなる。
次に各カメラユニットによる撮影画像のシフト量を、仮想撮影距離に基づいて算出する(ステップS502)。仮想撮影距離をdとした場合の対象画像Imの水平方向のシフト量△i(m、d)および垂直方向のシフト量△j(m、d)は以下の式で表される。
ここで、W、Hはそれぞれ画像の水平方向、垂直方向の画像サイズ、θwはカメラユニットの水平視野角、θhはカメラユニットの垂直視野角である。また、(sm,tm)は図5中のxy平面上における対象カメラユニットPmの座標、(s‘,t’)はxy平面上におけるセンターカメラユニットの撮像位置Pcの座標である。
最後に、ステップS502で算出したシフト量に応じてずらした画像を、ステップS501で算出した重み係数をかけて合成する(ステップS503)。出力画像をHとした場合、合成処理は次式で表される。
ここでwmは、カメラユニットmによる撮影画像Imに対する重み係数である。
以上で説明したような処理を行うことで、各カメラユニットの撮影画像を、仮想撮影距離dに近いほど像のずれが少なくなるように画像を重ね合わせて合成できる。このような処理により、仮想撮影距離dにピントが合った画像を得ることができる。同様に、仮想絞りパラメータに応じて重み係数を決定することで、アウトフォーカス部分のぼけ量をコントロールすることができる。
以上で述べたリフォーカス処理は、各カメラユニットで得られる撮影画像がパンフォーカス画像であることを前提としている。しかしながら、レンズ性能に対して撮像センサの解像度が高い場合には、期待したようなパンフォーカス画像は得られない。また、パンフォーカス画像を得ようとすると光学絞り径を小さくするために露光時間が長くなり、手ぶれを生じやすくなるという問題もある。一方各カメラユニットで得た画像の被写界深度が浅い場合には、仮想撮影距離や仮想絞り値を撮影時と大きく異なる値に設定しても適切なリフォーカス処理画像を得ることは出来ない。
したがって、多眼カメラの筐体サイズを小さくしたい場合には特に、各カメラユニットに適切な絞りと撮影距離を設定して撮影を実行する必要がある。そのため、本実施例における多眼カメラは、フォーカシングのための機構を備える。本実施例では、通常のカメラに搭載されているコントラスト検出AF(オートフォーカス)処理と、複数のカメラユニットの撮影画像を用いて特定距離にオブジェクトが存在するかどうかを判定するオブジェクト存在判定処理の2種類のフォーカス判定機構を備える。前者は、センターカメラユニットで得られる撮影画像のみを用いてフォーカス制御を行う。そのため、従来のカメラと同様の操作感でフォーカス操作やフレーミング操作ができる。一方後者は、複数のカメラユニットを駆動するために消費電力が大きいものの、撮影距離を高精度に取得できる。
コントラスト検出AF処理は、撮影レンズを駆動して注目領域のコントラストが最も高くなる距離を探索し、その距離を撮影距離に設定する方式である。一方、オブジェクト存在判定処理は、プレーンスイープ法による距離推定処理の考え方に基づいて、指定された距離にオブジェクトが存在するかどうかを判定する。以下、プレーンスイープ法による距離推定処理と、各カメラユニットの対応画素を算出する対応座標算出処理について述べた後、オブジェクト存在判定処理の詳細について述べる。
(距離推定処理)
プレーンスイープ法による距離推定処理について、図7を用いて説明する。まず、仮想視点画像を構成する画素iを選択する(ステップS801)。本実施例では、仮想カメラ視点は、センターカメラユニットと同じ位置に設定する。次に、仮想カメラから画素iへの方向ベクトルを算出する。この方向ベクトルを含む直線を設定し(ステップS802)、この直線上の探索範囲を決定する(ステップS803)。この探索範囲について、例えば仮想カメラからの至近位置から無限遠方向へ、順に被写体距離を探索する。
プレーンスイープ法による距離推定処理について、図7を用いて説明する。まず、仮想視点画像を構成する画素iを選択する(ステップS801)。本実施例では、仮想カメラ視点は、センターカメラユニットと同じ位置に設定する。次に、仮想カメラから画素iへの方向ベクトルを算出する。この方向ベクトルを含む直線を設定し(ステップS802)、この直線上の探索範囲を決定する(ステップS803)。この探索範囲について、例えば仮想カメラからの至近位置から無限遠方向へ、順に被写体距離を探索する。
具体的には、探索範囲を設定した直線上に仮の被写体距離となる点Fを配置し(ステップS804)、実際の撮影画像群からこの点Fに対応する画素を全て取得する(ステップS805)。仮の被写体距離とは、点Fを含む仮想ピント面と仮想カメラとの距離である。ここで、例えば図7(b)のように仮想カメラの撮影範囲を6台のカメラでカバーしている場合、6枚の撮影画像からそれぞれ1画素ずつ合計6画素、点Fに対応する画素を取得する。点Fに対応する画素位置の算出処理(以後、対応座標点算出処理)については後述する。
このようにして得た画素群を用いて、点Fで指定した位置にオブジェクトが存在するかどうかを判断する。オブジェクトが存在するかどうかは、画素群のうち一定割合以上の画素が略一致するかどうかで判断できる。略一致しているかどうかは例えば、画素の特徴量の分散を用いて判定することが考えられる。まず、探索範囲全域について点Fを変化させた場合、仮の被写体距離毎の分散値を算出する(ステップS806、S807、S810)。次に、算出した分散のうち、最も分散が低くなる場合の点Fminに被写体が存在すると判断し、この時の被写体距離を画素iの被写体距離として採用する(ステップS808)。このような処理を、仮想視点画像の全ての画素に対して適用することで、画素毎の被写体距離情報を得ることができる(ステップS809)。
(対応座標算出処理)
カメラユニットや仮想カメラでの撮影画像上での点Fに対応する座標の算出方法について、図7(c)を用いて説明する。図中のカメラAは、例えば図7(b)におけるカメラユニットPや、仮想カメラに対応する。カメラAによる撮影領域は、カメラAを頂点、水平画角をθH、水平画角をθVとなる四角錘をした空間となる。この空間においてカメラAからの撮影距離を1とした平面を撮影領域投影面とする。
カメラユニットや仮想カメラでの撮影画像上での点Fに対応する座標の算出方法について、図7(c)を用いて説明する。図中のカメラAは、例えば図7(b)におけるカメラユニットPや、仮想カメラに対応する。カメラAによる撮影領域は、カメラAを頂点、水平画角をθH、水平画角をθVとなる四角錘をした空間となる。この空間においてカメラAからの撮影距離を1とした平面を撮影領域投影面とする。
まず、実空間をマッピングした座標系において、カメラAの位置ベクトルをXC、カメラAから撮影領域投影面の中心CへのベクトルをXVとする。撮影領域投影面の上方向をXVV,右方向をXVHとする。ここで、XVV、XVHは単位ベクトルとする。また、点Fに対応する、撮影領域投影面上での座標を点Pとする。点Pの位置ベクトルpは、次式で表すことが出来る。
ここで、
とする。なお、tは転置行列を示す。このカメラによる撮影画像の水平画素数をNH、垂直画素数をNV、画像の左上を原点とし、右方向をX成分の正の方向、下方向をY成分の正の方向とすると、撮影画像上での点Pに対応する画素の座標( px, py )は、次式で表すことができる。
ここで、p = ( p0, p1, p2)とする。
以上で述べたような式を用いて、各カメラユニットおよび仮想カメラの撮影画像上での点Fに対応する画素の座標を計算できる。
(オブジェクト存在判定処理)
ステップS806〜809を用いて説明したように、空間上のある領域にオブジェクトが存在するかどうかは、各カメラユニットの撮影画像上での対応画素群の画素値が略一致したかどうかで判定可能である。本実施例における自動撮影領域の実行判定処理の流れを、図9に示す。
ステップS806〜809を用いて説明したように、空間上のある領域にオブジェクトが存在するかどうかは、各カメラユニットの撮影画像上での対応画素群の画素値が略一致したかどうかで判定可能である。本実施例における自動撮影領域の実行判定処理の流れを、図9に示す。
まずステップS901で、自動撮影領域に含まれる点Fの位置を決定する。点FはステップS402で決定した方向からカメラの方向への相対角度θr、および自動撮影領域までの距離Sを用いて決定する(図10)。
次に、ステップS902で、各カメラユニットの撮影画像上における点Fの対応点を算出する。対応点は、対応座標算出処理によって行う。ここで、センターカメラユニットは全画素読み出しを行い、その他のカメラユニットは点Fに対応する画素とその近傍画素のみを撮像センサから読み出すことで、大幅な消費電力削減を実現できる。センターカメラユニットを全画素読み出しするのは、画像表示装置107にファインダ像に相当する映像を表示する必要があるためである。したがって、ファインダ像の表示が必要ない場合には、センターカメラユニットについても読み出し画素を制限しても良い。
最後にステップS903で、対応点の色が略一致したかどうかを判定する(以後、略一致判定)。本実施例における略一致判定は例えば、距離推定処理で説明したように画素の特徴量の分散値で判定する。予め定めた値よりも分散が小さい場合は自動撮影領域にオブジェクトが存在し、そうでない場合は存在しないと判定する。略一致判定は、K−means法を用いて行うことも出来る。例えば、カメラ台数の1/3程度の数のクラスタを初期クラスタとして画素値のクラスタリングを実行し、収束状態での最大クラスタに属する画素数の割合に基づいて略一致したかどうかを判定することが考えられる。
以上で説明したように、カメラを用いて自動撮影領域までの距離、方向、構図を順に決定して自動撮影を実行することで、撮影者の意図に沿った適切な撮影画像を得ることが可能になる。また、多眼カメラを利用して自動撮影の実行判定を行うことで、消費電力を削減できる。
200 マイクロコンピュータ
Claims (2)
- 自動撮影領域までの距離を指定する距離指定手段と、
撮影装置から自動撮影領域への向きを指定する方向指定手段
を備える撮影装置であって、
前記距離指定手段、前記方向指定手段の順で自動撮影領域を指定した後、前記自動撮影領域の方向から撮影装置の方向への相対角度を取得する相対角度取得手段と、
前記相対角度から算出される自動撮影領域の方向に存在する物体への距離を得る距離取得手段と、
前記物体への距離が前記距離と一致した場合に自動撮影を実行する撮影手段
を備えることを特徴とする撮影装置。 - 前記撮影装置は複数の撮影ユニットで構成され、
前記撮影手段は、各撮影ユニットで得られる撮影画像のうち、前記自動撮影領域までの距離、および各撮影ユニットと自動撮影領域の方向の相対角度に応じて決定した小領域の色情報に基づいて、物体への距離が前記距離に一致したかどうかを判定することを特徴とする請求項1に記載の撮影装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086342A JP2016208204A (ja) | 2015-04-21 | 2015-04-21 | 画像撮影方法および画像撮影装置、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086342A JP2016208204A (ja) | 2015-04-21 | 2015-04-21 | 画像撮影方法および画像撮影装置、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016208204A true JP2016208204A (ja) | 2016-12-08 |
Family
ID=57487912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015086342A Pending JP2016208204A (ja) | 2015-04-21 | 2015-04-21 | 画像撮影方法および画像撮影装置、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016208204A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110913126A (zh) * | 2019-10-31 | 2020-03-24 | 华为终端有限公司 | 一种拍摄范围计算的方法、装置及相关设备 |
-
2015
- 2015-04-21 JP JP2015086342A patent/JP2016208204A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110913126A (zh) * | 2019-10-31 | 2020-03-24 | 华为终端有限公司 | 一种拍摄范围计算的方法、装置及相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5564987B2 (ja) | 被写体追尾装置及び撮像装置 | |
JP6512810B2 (ja) | 撮像装置および制御方法とプログラム | |
JP4497211B2 (ja) | 撮像装置、撮像方法及びプログラム | |
US20110234750A1 (en) | Capturing Two or More Images to Form a Panoramic Image | |
JP2003344891A (ja) | 撮影モード自動設定カメラ | |
US11252321B1 (en) | Method and apparatus for selecting multiple directions of interest | |
US9774782B2 (en) | Image pickup apparatus and image pickup method | |
CN105704393B (zh) | 摄影装置、摄影方向的控制方法以及记录介质 | |
JP5885395B2 (ja) | 撮影機器及び画像データの記録方法 | |
JP2020095069A (ja) | 撮像装置 | |
JP2011097645A (ja) | 画像合成装置、撮像装置、画像合成方法 | |
JP6635764B2 (ja) | 撮像装置、その制御方法、および制御プログラム | |
JP2006091915A (ja) | 撮像装置 | |
JP2006093860A (ja) | 2眼撮像系を搭載したカメラ | |
CN113302908B (zh) | 控制方法、手持云台、系统及计算机可读存储介质 | |
JP4500140B2 (ja) | 2眼撮像系を搭載したカメラ | |
JP2010177860A (ja) | 画像合成装置、撮像装置、画像合成方法 | |
JP6483661B2 (ja) | 撮像制御装置、撮像制御方法およびプログラム | |
JP2014027436A (ja) | 被写体追尾装置及び撮像装置 | |
JP2016208204A (ja) | 画像撮影方法および画像撮影装置、プログラム | |
JP2008141675A (ja) | 撮像装置及びその制御方法 | |
JP2001281754A (ja) | カメラ、画像変換装置、画像変換表示装置、立体画像表示システム及び画像変換プログラムが記録された可読記録媒体 | |
KR100736565B1 (ko) | 파노라마 영상 촬영 방법 및 이를 수행하기 위한이동통신단말기 | |
JP6995529B2 (ja) | 撮像装置およびその制御方法 | |
JP2006115322A (ja) | パンニング撮影可能なカメラおよび動画像編集用プログラム |