JP2017050642A - 制御装置及びその制御方法、コンピュータプログラム - Google Patents
制御装置及びその制御方法、コンピュータプログラム Download PDFInfo
- Publication number
- JP2017050642A JP2017050642A JP2015171181A JP2015171181A JP2017050642A JP 2017050642 A JP2017050642 A JP 2017050642A JP 2015171181 A JP2015171181 A JP 2015171181A JP 2015171181 A JP2015171181 A JP 2015171181A JP 2017050642 A JP2017050642 A JP 2017050642A
- Authority
- JP
- Japan
- Prior art keywords
- lens
- time
- duration
- focus
- focusing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
【課題】容易な操作で所望のタイミングに所望の対象に向けてフォーカスを完了させることが可能な技術を提供する。【解決手段】画像の撮影を制御する制御装置は、所定のフォーカス位置にレンズの焦点を合わせる合焦時刻を取得する合焦時刻取得手段と、フォーカス位置に焦点を合わせるためにレンズの駆動を継続する継続時間を取得する継続時間取得手段と、合焦時刻と継続時間とに基づき、レンズの駆動を開始する開始時刻を取得する開始時刻取得手段と、開始時刻にレンズの駆動を開始させるように制御する制御手段とを備える。【選択図】 図2
Description
本発明は制御装置及びその制御方法、コンピュータプログラムに関し、特に、被写体に対してオートフォーカス動作を行うシステムに関する。
映画(シネマ)やテレビドラマ等の映像(動画)の撮影において、従来、フォーカス合わせは熟練した専任のフォーカス操作者の経験と勘によって行われていた。撮影にあたりフォーカス操作者は、あらかじめ被写体までの距離を計測し、フォーカスリングに目印をつけておく。撮影時には、その目印を参考に、精密なフォーカス合わせや、演出に合わせたフォーカス駆動の速度調整を手動操作やリモコンを介した遠隔操作で行っていた。また、フォーカス操作者は、フォーカスを合わせる場面のタイミングを予想しながら、そのタイミングに合わせてフォーカス合わせが完了するように、前もってフォーカスの調整を開始する操作を行っていた。
これらフォーカス操作者によって従来手動で行われていた操作の内、精密なフォーカス合わせのための操作については、タッチオートフォーカス機能の登場により簡単な操作で実現することが可能となった。タッチオートフォーカス機能とは、被写体を撮像した画像を表示するライブビュー画面(操作画面)に表示し、合焦させたい被写体の表示画面上の位置をタッチすることで、被写体に対するオートフォーカスを行うものである。これにより、カメラのライブビュー画面上の座標を指定するだけでフォーカスリングの手動操作を伴わず、精密なフォーカス合わせが可能となる。
また、シネマ撮影の演出としてフォーカス操作者が行っていた一連のフォーカス操作を自動化した構成が、特許文献1に記載されている。特許文献1の構成では、カメラへの操作情報を記録するモードであるセットモードにおいて、フォーカス操作の開始と完了のそれぞれの時点でフォーカス操作情報(フォーカスリングの位置)を記録する。そして、セットモードで記録した操作情報に基づいて、撮影の開始時点と完了時点の間の操作情報の速度変化を直線または曲線により補完し、その補間された操作情報に基づいて自動的にフォーカス操作を実行している。
しかしながら、タッチオートフォーカス機能では、タッチ操作が行われたことを契機にレンズの駆動が開始されるため、タッチ操作から合焦の完了までにタイムラグが生じていた。
また、特許文献1の構成は、フォーカス操作の開始と完了のそれぞれの時点の操作情報を、実際にフォーカス操作を行って記憶させなければならないため、セットモードにおいて操作情報を記録させる作業が煩わしかった。例えば、あるタイミングに特定の被写体に合焦させる場合、ユーザはセットモードにおいて、フォーカスの開始から合焦が完了するまでのタイムラグを見越して、適切なタイミングにフォーカス開始操作を行わなければならず、事前の作業が煩雑であった。
本発明は上記課題を解決するためになされたものであり、容易な操作で所望のタイミングに所望の対象に向けてフォーカスの調整を完了させることが可能な技術を提供することを目的とする。
上記目的を達成するため、本発明による制御装置は以下の構成を備える。即ち、画像の撮影を制御する制御装置であって、所定のフォーカス位置にレンズの焦点を合わせる合焦時刻を取得する合焦時刻取得手段と、前記フォーカス位置に焦点を合わせるためにレンズの駆動を継続する継続時間を取得する継続時間取得手段と、前記合焦時刻と前記継続時間とに基づき、前記レンズの駆動を開始する開始時刻を取得する開始時刻取得手段と、前記開始時刻に前記レンズの駆動を開始させるように制御する制御手段とを備える。
本発明によれば、容易な操作で所望のタイミングに所望の対象に向けてフォーカスの調整を完了させることが可能な技術を提供することができる。
以下、添付の図面を参照して、本発明の実施形態の一例を詳細に説明する。尚、以下の実施形態において示す情報は一例に過ぎず、図示された構成に限定されるものではない。即ち、本発明は下記の実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
<実施形態1>
第一の実施形態(実施形態1)では、カメラリハーサルにおいて、ユーザのタッチ操作情報を記録し、本番撮影において、記録したタッチ操作情報に基づいてフォーカスを自動制御する例について説明する。
第一の実施形態(実施形態1)では、カメラリハーサルにおいて、ユーザのタッチ操作情報を記録し、本番撮影において、記録したタッチ操作情報に基づいてフォーカスを自動制御する例について説明する。
(カメラ装置の構成)
図1は、本実施形態において画像の撮影を制御する制御装置としてのカメラ装置201のハードウェア構成を説明する図である。図1のように、カメラ装置201は、CPU101、ROM102、RAM103、映像CODEC104、映像信号I/F105、ストレージ106、無線通信I/F107、表示デバイス108、及び、バス109を備える。
図1は、本実施形態において画像の撮影を制御する制御装置としてのカメラ装置201のハードウェア構成を説明する図である。図1のように、カメラ装置201は、CPU101、ROM102、RAM103、映像CODEC104、映像信号I/F105、ストレージ106、無線通信I/F107、表示デバイス108、及び、バス109を備える。
CPU101は中央演算処理装置であり、各種処理のための演算や論理判断等を行い、バス109に接続された各構成要素を制御する。カメラ装置201には、プログラムメモリとデータメモリを含むメモリが搭載されている。プログラムメモリには、フローチャートを参照して後述する処理手順を含むCPU101による制御のためのコンピュータプログラムが格納される。このようなメモリは、ROM(読出し専用メモリ)102であってもよいし外部記憶装置などからコンピュータプログラムがロードされるRAM(書込み可能メモリ)103であってもよい。
映像CODEC104は前述のCPU101では処理が重い映像信号の各種トランスコード処理を専門に行うブロック(コーデック)であり、グラフィック処理用のメディアプロセッサなどから構成されている。映像信号I/F105は、映像(動画像)のストリーム信号の外部との入出力を扱う高速なI/F(インタフェース)である。ストレージ106は、映像信号を高速に蓄積あるいはキャッシュするための大容量記憶デバイスである。
無線通信I/F107は映像ストリームを無線信号により送受信するための通信インタフェースであり、幅広いバンド幅及び複数のチャンネルを保持している。本実施形態では、無線通信I/F107は、IEEE802.11規格に基づく無線LANにより通信を行うが、その他の規格に基づく通信方式により通信を実現してもよい。
表示デバイス108は撮影画像や操作画面等を表示する表示装置である。表示デバイス108は液晶表示(LCD)パネル等により構成される。表示デバイス108には、不図示のタッチパネルが設けられており、ユーザは、表示画面をタッチすることで、カメラ装置201を操作することができる。したがって、ユーザにとって分かり易い、ダイレクトなUI(ユーザインタフェース)が提供される。
(映像システムの構成)
図2は、本実施形態を実現する映像システムの機能構成を示した図である。図2のように、映像システムは、カメラ装置201、レンズ装置202、表示装置203、及び、マイク装置204を備える。図2では、カメラ装置201と表示装置203とを別に示しているが、表示装置203は、図1の表示デバイス108により実現することができる。
図2は、本実施形態を実現する映像システムの機能構成を示した図である。図2のように、映像システムは、カメラ装置201、レンズ装置202、表示装置203、及び、マイク装置204を備える。図2では、カメラ装置201と表示装置203とを別に示しているが、表示装置203は、図1の表示デバイス108により実現することができる。
カメラ装置201は、映像の撮影に使用される撮影装置の本体である。レンズ装置202は、カメラ装置201の本体に接続された撮影のための光学系である。表示装置203は、撮影及び撮影された画像を確認する際に使用されるカメラ装置201の本体に付属する表示装置である。マイク装置204は、周辺の音声情報を取得するマイクロフォンである。
カメラ装置201は、その機能構成として、撮影部205、表示制御部206、レンズ駆動部207、駆動量取得部208、及び、駆動速度取得部209を備える。また、カメラ装置201は、読出部210、座標取得部211、アクションコール検出部212、時刻取得部213、操作情報記録部214、及び、目標時刻算出部215を備える。
撮影部205はカメラ装置201において撮影を担う構成要素である。撮影部205は、レンズ装置202を介して入力された光信号をCCD(電荷結合素子)等により光電変換して、画像データを取得する。CCDは、Charge-Coupled Deviceの略称である。表示制御部206は、撮影部205において撮影されたファインダ映像を表示装置203に表示させる表示制御を行う構成要素である。
レンズ駆動部207は、レンズ装置202を駆動して、フォーカスやズームの制御を行う構成要素である。駆動量取得部(レンズ駆動量取得部)208は、読出部(タッチ操作情報読出部)210を介して、ユーザによりタッチされた表示装置203の表示画面(タッチパネル)上の位置(タッチ座標)を取得する。また、駆動量取得部208は、位相差AF(オートフォーカス)技術により、タッチ座標が指す被写体へ合焦するためのレンズ駆動量を取得する。駆動速度取得部(レンズ駆動速度取得部)209は、カメラ装置201本体やレンズ装置202の性能によってあらかじめ決められているレンズ駆動速度を取得する構成要素である。
駆動量取得部208が取得したレンズ駆動量と駆動速度取得部209が取得したレンズ駆動速度とから、フォーカス合わせにかかる時間であるレンズ駆動継続時間が算出される。すなわち、駆動量取得部208は、フォーカス位置に焦点を合わせるためにレンズの駆動を継続する継続時間を取得する継続時間取得を行う。レンズ駆動量やレンズ駆動継続時間は、任意の合焦方式によってタッチ座標が指す被写体に実際に合焦を行い、その際のレンズの駆動量や継続時間を計測することで取得してもよい。レンズ駆動部207は、レンズ駆動速度、レンズ駆動量、及びレンズ駆動継続時間を含むレンズ駆動パラメータに基づいて合焦のためにレンズを駆動させる。
読出部(タッチ操作情報読出部)210は、操作情報記録部214からタッチ操作情報を読み出す構成要素である。タッチ操作情報は、タッチ座標、及びフォーカスの調整を完了させる目標の時刻(目標合焦完了時刻)等を関連付けた情報である。タッチ操作情報の具体例については、図5を参照して後述する。
座標取得部(タッチ座標取得部)211は、表示装置203でのユーザのタッチ操作情報を取得する構成要素である。アクションコール検出部212は、カメラによる撮影が開始された後に役者の演技を開始するためのアクションコールを検出するための構成要素である。アクションコール検出部212は、映像システムが具備するマイク装置204で取得した音声情報に対して音声認識することでアクションコールを検出する。なお、アクションコールの検出は、撮影スタッフが映像システムに行う明示的な操作、例えば映像システムに対するスイッチ操作やジェスチャ認識など、その他の手法を用いて行ってもよい。時刻取得部(アクションコール時刻取得部)213は、アクションコール検出部212によってアクションコールが検出された時刻を取得する構成要素であり、目標合焦完了時刻の基準となる時刻を提供する。時刻は、不図示の計時装置により取得される。
合焦時刻取得手段としての目標時刻算出部(目標合焦完了時刻算出部)215は、表示装置203のタッチパネルに対してユーザのタッチ操作が行われた時刻に基づいて目標合焦完了時刻(合焦時刻)を算出する構成要素である。目標合焦完了時刻とは、アクションコール検出部212においてアクションコールが検出された時刻を基準(時刻00:00)とした、ユーザが合焦の完了を意図する時刻である。合焦は、ユーザにより指示された被写体に焦点を合わせるためのフォーカス位置に向けて行う。ここで表示装置203と座標取得部211及び目標時刻算出部215は、必ずしもカメラ装置201本体に具備される必要はなく、タブレットなどの外部装置を有線または無線の通信を介してカメラ本体と連携する入力装置としてもよい。タッチ座標及び目標合焦完了時刻は、タッチ操作情報として、操作情報記録部(タッチ操作情報記録部)214により記録される。
目標時刻算出部215は、予め(リハーサル等において)撮影されたリハーサル画像に対するユーザの指示(タッチ操作)を取得する指示取得を行い、リハーサル画像に対するユーザの指示がなされたタイミングに基づき、合焦時刻を取得する。このため、ユーザは容易な操作で目標合焦完了時刻を設定することができる。また、タッチ操作により、ユーザは目標合焦完了時刻を設定すると同時に、焦点を合わせる対象である被写体を指示するため、フォーカス位置の設定を容易に行うことができる。
また、後述するように、カメラ装置201は、合焦時刻とレンズ駆動の継続時間とに基づき、レンズの駆動を開始する開始時刻を取得する開始時刻取得処理を行い、この開始時刻にレンズの駆動を開始するように制御する。このため、ユーザは、合焦のためのレンズ駆動に要する時間を気にすることなく、合焦を完了させるべきタイミングに合焦の対象を選択するだけで、容易にフォーカス動作の設定を行うことができる。
(表示画面の例)
図3は、ユーザのタッチ操作を受け付け、それに基づいてオートフォーカスを実行する映像システムにおいて、表示装置203に表示される画面(ライブビュー画面)の例を示す図である。撮影部205によって撮影された映像は、表示制御部206によって表示装置203に表示される。ユーザが、表示装置203に表示された映像から合焦の対象となる被写体をタッチなどの操作により指示すると、座標取得部211はタッチ操作がなされた位置の二次元座標を取得する。本実施形態に係る映像システムは、取得した二次元座標に基づいて、フォーカス制御のためのパラメータを算出し、レンズ駆動部207がフォーカスに係わるレンズを駆動させることによってオートフォーカス処理を実現する。
図3は、ユーザのタッチ操作を受け付け、それに基づいてオートフォーカスを実行する映像システムにおいて、表示装置203に表示される画面(ライブビュー画面)の例を示す図である。撮影部205によって撮影された映像は、表示制御部206によって表示装置203に表示される。ユーザが、表示装置203に表示された映像から合焦の対象となる被写体をタッチなどの操作により指示すると、座標取得部211はタッチ操作がなされた位置の二次元座標を取得する。本実施形態に係る映像システムは、取得した二次元座標に基づいて、フォーカス制御のためのパラメータを算出し、レンズ駆動部207がフォーカスに係わるレンズを駆動させることによってオートフォーカス処理を実現する。
図3(a)は、ある部屋の中で被写体となる人物301が立っている映像を表示装置203に表示した画面の例である。図3では、フォーカスは部屋の扉302に合っており、人物301はぼけて写っている。ここでは、人物301の輪郭を破線で描画することで非合焦状態(ピントが合っていない状態)を示している。ここで、ユーザはタッチ操作によって人物301を指示し、座標取得部211はその座標を取得する。そうすることで、人物301に合焦する意思が映像システムに伝えられ、操作情報記録部214は、指示された座標を記録する。なお、被写体の指示は、タッチ操作303のような、手指やスタイラス等による画面に対する操作によって行われる。
図3(b)は、タッチ操作303によって被写体が指示された後の映像を表示装置203に表示した画面の例である。映像システムは指示された座標に基づいて、その座標に位置する被写体に対してオートフォーカス処理を行う。その結果、図3(a)で示した扉302にフォーカスが合っている状態から図3(b)のように人物301にフォーカスが合っている状態に変更される。以上のようにして映像システムは、ユーザのタッチ操作に基づいてオートフォーカス処理を実行する。
(撮影データ)
本実施形態では、デジタル形式で撮影された映画やドラマなどの、脚本やシナリオなどに基づく映像コンテンツを作成する場合の例を説明する。図4(a)は、このような映像コンテンツを構成する撮影データについて階層的に説明する図である。
本実施形態では、デジタル形式で撮影された映画やドラマなどの、脚本やシナリオなどに基づく映像コンテンツを作成する場合の例を説明する。図4(a)は、このような映像コンテンツを構成する撮影データについて階層的に説明する図である。
脚本やシナリオなどに基づく映像コンテンツは、通常一つ以上のシーケンス映像から構成されている。一つのシーケンス映像(動画像)は、さらに、複数の多様なシーン(場面)から構成されており、様々なシーン(場面)が組み合わされることで、映像コンテンツをテンポの良い、飽きさせない物語とすることができる。さらに各シーン(場面)は、通常は複数のショットから構成されており、このショットが一回の撮影単位となる。ショットとは、一般に、切れ目なしに連続して撮影された映像である。例えば、AとBの二人の人物が会話を行うシーン(場面)においても、二人が会話しているロングのショット、人物Bのクローズアップのショット、人物Bの肩越しに人物Aを撮影するショルダーショットなど、変化のあるショットの撮影が行われる。このため、ショットやシーンの撮影は脚本やシナリオの順番(映像コンテンツの順番)で行われるとは限らず、カメラやセットの都合で、シナリオの順番とは異なる順番で行われることも多い。また、一つのショットは、役者やスタッフの負荷を低減し、また映像コンテンツをテンポ良く進行させるために、比較的短い時間(通常、数秒から数十秒単位)の撮影データとなるのが一般的である。
さらに、一つのショットの撮影は、役者やスタッフのミスや、監督の意向、予測不能な自然現象などの影響により、何度も撮り直しを行う場合があり、これらはテイクと呼ばれている。即ち特定の映像コンテンツの撮影において、シーケンス、シーン、ショット、テイクに連続する番号を付加することで、個々のショットの撮影データを特定することができる。例えば、図4(a)において、テイク4(401)は、シーケンス1、シーン1、ショット2の4回目のテイクであり、テイク3(402)は、シーケンス1、シーン1、ショット4の3回目のテイクである。ここで、同じショットの番号を持つテイクが複数存在している場合には、これらのテイクは置き換え可能なテイクとして、映像システムに認識されることとなる。複数のテイクがある場合、その中から1つのテイクが選択されて、最終的に映像コンテンツに含まれるショットとなる。
これらの情報は映画やドラマなどの撮影においては、各ショット撮影のファイル毎にメタデータとして付加される他、慣習によりクラッパーボードに表示され、ショットの頭に撮影されることも多い。なお、ここで説明したシーケンス、シーン、ショット、テイクなどの用語は本実施形態を説明するための一例に過ぎず、実際の映像制作業界において異なる用語が使用されている場合があるのは言うまでもない。各実施形態は、上記のシーケンス、シーン、ショット、テイクに限らず、種々の画像に適用することができる。例えば、フレームレートが1fps未満の動画像のような、低フレームレートの動画像に適用してもよい。
図4(b)は、同一のショットにおける複数のテイクの時間軸の一致を説明する図である。テイクは本来、ショットの撮り直しであるために長さはほぼ同一であり、最終的に映像コンテンツに組み込む(採用する)際には置き換えが可能である。しかしながら、実際の撮影においてはカメラで撮影を開始してから演技が開始されるまでの時間は異なる場合があり、これはテイクの撮影についても同様である。なお、以下の説明においてショットとテイクとは同義として扱う。例えばカメラのファインダ映像を確認し始めてから照明やカメラやレンズの設定を確認するまでの時間はまちまちである場合が多い。この様な状況においては、例えば、監督の演技開始の号令であるアクションコールのタイミングを基準時間位置情報(00:00)として利用することで、複数のテイクにおける時間の同期を行うことができる。
なお、本実施形態では、アクションコールのタイミングを基準時刻として、その基準時刻からユーザの指示がなされるまでの経過時間を合焦時刻として取得する例を説明するが、基準となるイベントはアクションコールに限られない。リハーサルにおいて撮影されたリハーサル画像において所定のイベントが発生した時刻を基準として合焦時刻を取得するならば、例えば、俳優が所定の動作をしたり、所定の音や光が生じたこと等のイベントのタイミングを基準時刻としてよい。
図4(b)は、ショットの各テイクにおける撮影のタイミングを示している。図4(b)において、テイク1からテイク6までは、撮影開始であるロールコール(撮影開始の指示)から演技開始の指示であるアクションコールまでの時間はバラバラである。もっとも、役者やスタッフはアクションコールにより演技を開始するので、これによりテイク間の時間のおおまかな同期が可能となる。
前述のように、本実施形態では、監督等が発声した音声情報をもとにアクションコールが発せられたことを検出するが、アクションコールの検出手法は音声によるものに限られない。例えば、このアクションコールは、クラップボードの電子化に伴い、クラップボードの作動によりアクションコールの存在を検出してもよい。その検出信号は、接続されているカメラに同一のショットのテイクを同期させる信号として記録することができる。
(タッチ操作情報)
ライブビュー画面に対して、フォーカス制御を意図したユーザのタッチ操作が行われると、そのタッチ座標と目標合焦完了時刻を含むタッチ操作情報が操作情報記録部214に記録される。図5は、操作情報記録部214に記録されたタッチ操作情報のテーブルを示す図である。
ライブビュー画面に対して、フォーカス制御を意図したユーザのタッチ操作が行われると、そのタッチ座標と目標合焦完了時刻を含むタッチ操作情報が操作情報記録部214に記録される。図5は、操作情報記録部214に記録されたタッチ操作情報のテーブルを示す図である。
図5の例では、タッチ操作情報ID501、ショットID502、タッチ座標503、及び、目標合焦完了時刻504が関連付けて記録されている。タッチ操作情報ID501は、タッチ操作情報を識別する識別情報であり、ショットID502は、ショットを識別する識別情報である。タッチ座標503は、ユーザからタッチ操作がなされたライブビュー画面における座標である。目標合焦完了時刻504は、前述のように、アクションコールの検出時刻を基準とした、ユーザが合焦の完了を意図する時刻である。
タッチ操作情報は、図4(a)のようなデータ構造においては、シーケンス、シーン、ショット、テイクにそれぞれIDを割り当てることで、どの撮影データに対するものかを特定することができる。ここでは、簡単のために、異なるシーケンス、シーン間において一意性が確保されたショットIDと、同一ショット間で一意なタッチ操作情報IDにより撮影全体においてタッチ操作情報が一意に特定可能である場合の例を説明する。言い換えれば、図5は、ある特定のシーケンス及びシーンにおいて、複数のショットにつきテイクを撮影する場合のタッチ操作情報を例示している。もちろん、シーケンス、シーンにもIDを割り当て、タッチ操作情報の一意性を担保してもよい。図5のテーブルには、図2の操作情報記録部214によってタッチ操作情報が書き込まれ、図2の読出部210によってタッチ操作情報が読み出される。
(制御装置の動作)
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図6、図7を参照して説明する。図6は、本実施形態によるカメラリハーサル、即ち、実際にカメラによる撮影を行いながらリハーサルを行う際の動作を説明するフローチャートである。図6の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図6、図7を参照して説明する。図6は、本実施形態によるカメラリハーサル、即ち、実際にカメラによる撮影を行いながらリハーサルを行う際の動作を説明するフローチャートである。図6の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図6のS601において、撮影するショットが以前に撮影が行われていない新規ショットであるかを判断する。撮影するショットが新規ショットであれば(S601でYES)、S602においてショットIDを新たに発行し、S604においてタッチ操作情報IDを新たに発行する。これらのIDは、後述のS612において、タッチ操作情報を操作情報記録部214のテーブル(図5)に記録する際にタッチ操作情報と関連付けて記録し、タッチ操作情報を一意に特定するために用いられる。撮影するショットが新規ショットでなければ(S601でNO)、S603において、撮影済みのショットから再撮影を行うショットを選択し、そのショットIDを取得する。その後、S604でタッチ操作情報IDを新たに発行する。S605では、撮影部205により撮影が開始され、表示制御部206によって表示部203にカメラ装置201が撮影した映像が表示される。なお、S601〜S604で表される新規ショットの判定に係わる処理、及びS605の実行順序は任意である。
S606では、アクションコール検出部212によりアクションコールが検出されるまで待機する。アクションコールが検出されると(S606でYES)、S607において、時刻取得部213はアクションコールが検出された時刻を取得する。本実施形態では、映像システムが具備する図2のマイク装置204で取得した音声情報をアクションコール検出部212において音声認識することで検出を行う。なお、アクションコールのタイミングの検出は、撮影スタッフが映像システムに行う明示的な操作、例えば映像システムに対するスイッチ操作やジェスチャを認識して行うなど、その他の手法を用いてもよい。
S608では、撮影が継続されているかを判断し、継続されている場合(S608でYES)は、S609でライブビュー画面に対するタッチ操作を待機する。撮影が終了している場合(S608でNO)は、フローチャートに係る処理を終了する。ライブビュー画面がタッチされた場合(S609でYES)、S610で座標取得部211によりユーザの操作がなされたタッチ座標を取得し、S611で目標時刻算出部215により目標合焦完了時刻を取得する。目標合焦完了時刻を、タッチ操作時の時刻とアクションコールがかかった時刻との差分によりアクションコールを基準とした時刻として取得する。なお、S610及びS611の実行順は任意である。最後にS612において、S610で取得したタッチ座標、及びS611で取得した目標合焦完了時刻を、タッチ操作情報として操作情報記録部214により記録する。図5のように、タッチ操作情報は、S602またはS603において発行または取得されたショットID、及びS604において発行されたタッチ操作情報IDと関連付けて記録される。S612の完了後は、S608へ戻り、先述した条件判断を行う。
なお、ユーザによるタッチ操作が行われた際に、タッチ座標に基づいてオートフォーカス処理を実行し、フォーカスの状態を更新してもよい。そのようにすることで、フォーカスの状態を確認しながらタッチ操作情報を記録することが可能となる。
図7は、本実施形態による本番撮影時、即ち、図6で示したカメラリハーサルと類似の撮影を行う際に図6で記録したタッチ操作情報に基づいて本番撮影時にフォーカスを自動的に制御する動作を説明するフローチャートである。図7の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図7のS701では、本番撮影対象のショットに関連付いたタッチ操作情報(タッチ座標、目標合焦完了時刻等)を選択する。S702〜S704の処理は、図6のS605〜S607の処理と同様であり、撮影を開始した後は、アクションコールがかかるまで待つ。なお、S701及びS702の実行順は任意である。
S705では、駆動速度取得部209により映像システムにおけるレンズ駆動速度を取得する。このレンズ駆動速度は、カメラ装置201本体やレンズ装置202の性能によって定まる値である。図7では、アクションコールがかかった後にレンズ駆動速度を取得しているが、レンズ駆動速度は、後述のレンズ駆動継続時間の算出以前であればいつ取得しても構わない。
S706では撮影が継続しているかどうか判断し、継続していれば(S706でYES)、S707において未処理のタッチ操作情報が存在するかを判断する。撮影が終了していれば(S706でNO)、図7のフローチャートに係る処理を終了する。S707において、未処理のタッチ操作情報が存在すると判断されれば(S707でYES)、読出部210により操作情報記録部214から、S708でタッチ座標を読み出し、S709で目標合焦完了時刻を読み出す。未処理のタッチ操作情報が存在しない場合(S707でNO)、フローチャートに係る処理を終了する。なお、S708及びS709の実行順は任意である。
S710では、駆動量取得部208により、読み出したタッチ座標に基づいて、レンズの駆動を開始する前のレンズ位置からフォーカスが合うレンズ位置までの距離であるレンズ駆動量を取得する。続くS711では、レンズ駆動量をS705で読み出したレンズ駆動速度で除算することで、レンズ駆動継続時間を算出する。レンズ駆動継続時間とは、レンズの駆動を開始させてからフォーカスが合い、レンズの駆動が完了するまでの時間を指す。S712では、目標合焦完了時刻に基づいてレンズ駆動継続時間を減算することによって、目標合焦完了時刻に合わせてフォーカスの調整を完了させるために、前もってフォーカスの調整を開始させる時刻であるフォーカス開始時刻を算出する。S713では現在時刻からアクションコールが検出された時刻を減算することでアクションコールを始点とした経過時間を求める。
S714においては、フォーカス開始時刻とアクションコールとからの経過時間に基づいて、フォーカスの調整を開始すべき時刻であるか否かを判断する。具体的には、フォーカス開始時刻がアクションコールからの経過時間と等しいかまたは超えているかを判断する。フォーカス開始時刻がアクションコールからの経過時間と等しいまたは超えている場合、フォーカスの調整を開始すべき時刻であることを意味し(S714でYES)、フォーカスの調整をすべくS715においてカメラの制御を行う。S714の条件を満たさない場合(S714でNO)、アクションコールからの経過時間がフォーカス開始時刻と等しくなるまたは超えるまで待機する。
S715では、レンズ駆動部207により、カメラリハーサルにおいて取得または算出したレンズ駆動継続時間(またはレンズ駆動量)に達するまで、レンズ駆動速度でフォーカスレンズを駆動させる。S715の完了後は、S706へ戻り、先述した条件判断を行う。
以上のように、本実施形態では、カメラリハーサルにおいてタッチ座標と目標合焦完了時刻とを記録し、このタッチ座標に焦点を合わせるためのレンズ駆動時間と、目標合焦完了時刻とを基に、レンズ駆動を開始すべき時刻にレンズ駆動を開始する。このため、本番撮影時において、ユーザの操作を必要とせずに、ユーザの所望のタイミングでフォーカスの調整が完了するように前もってフォーカスの調整を開始させることが可能となる。
なお、本実施形態では、制御装置としてのカメラ装置201が撮影部205を備えた構成例を説明したが、撮影部205は必須の構成要素ではなく、外部の撮影装置を制御するようにしてもよい。
<実施形態2>
実施形態1では、レンズ駆動量は、本番撮影時において、フォーカスの調整を開始する前に取得されていた。そのため、被写体が移動している場合、フォーカスの調整を開始する前には、被写体がユーザの所望の位置に存在しているとは限らず、適切なレンズ駆動量を取得できない可能性があった。第二の実施形態(実施形態2)では、カメラリハーサルにおいて、ユーザがタッチ操作を行った時点でレンズ駆動量を取得する。タッチ操作を行ったタイミングでは、タッチした座標に被写体が存在すると考えられるため、被写体にフォーカスするための適切なレンズ駆動量を取得することができるようになる。本実施形態を実現する映像システムの構成は実施形態1と同様であり、図2に示される。
実施形態1では、レンズ駆動量は、本番撮影時において、フォーカスの調整を開始する前に取得されていた。そのため、被写体が移動している場合、フォーカスの調整を開始する前には、被写体がユーザの所望の位置に存在しているとは限らず、適切なレンズ駆動量を取得できない可能性があった。第二の実施形態(実施形態2)では、カメラリハーサルにおいて、ユーザがタッチ操作を行った時点でレンズ駆動量を取得する。タッチ操作を行ったタイミングでは、タッチした座標に被写体が存在すると考えられるため、被写体にフォーカスするための適切なレンズ駆動量を取得することができるようになる。本実施形態を実現する映像システムの構成は実施形態1と同様であり、図2に示される。
(タッチ操作情報)
本実施形態においては、少なくとも目標合焦完了時刻とレンズ駆動量とをユーザのタッチ操作と関連付けて操作情報記録部214に記録する。レンズ駆動継続時間、レンズ駆動速度、及びフォーカス開始時刻については、カメラリハーサルにおいて算出したものを記録してもよいし、本番撮影時に算出してもよい。
本実施形態においては、少なくとも目標合焦完了時刻とレンズ駆動量とをユーザのタッチ操作と関連付けて操作情報記録部214に記録する。レンズ駆動継続時間、レンズ駆動速度、及びフォーカス開始時刻については、カメラリハーサルにおいて算出したものを記録してもよいし、本番撮影時に算出してもよい。
図8は、本実施形態において、ライブビュー画面に対するフォーカス制御を意図したユーザのタッチ操作について、入力操作情報及びフォーカス制御に関するパラメータを記録するテーブルの一例を表す図である。図8の例では、タッチ操作情報ID801、ショットID802、タッチ座標803、目標合焦完了時刻804、レンズ駆動量805、レンズ駆動継続時間806、レンズ駆動速度807、及び、フォーカス開始時刻808が関連付けて記録されている。これらのうち、タッチ操作情報ID801、ショットID802、タッチ座標803、及び、目標合焦完了時刻804は、図5の501〜504と同様である。レンズ駆動量805はレンズを駆動する駆動量であり、図8の例では、レンズの移動量に対応する。レンズ駆動継続時間806は、レンズをレンズ駆動量805だけ駆動させるのに要する時間である。レンズ駆動速度807は、レンズを駆動する際のレンズの移動速度であり、カメラ装置201本体やレンズ装置202の性能によって予め決められている。フォーカス開始時刻808は、当該タッチ操作を開始すべき時刻であり、目標合焦完了時刻804からレンズ駆動継続時間806を減算した値に相当する。これらの情報は、図2の操作情報記録部214によって書き込まれ、図2の読出部210によって読み出される。
(制御装置の動作)
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図9、及び図10を参照して説明する。図9は、本実施形態によるカメラリハーサルの動作を説明するフローチャートである。図9の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図9、及び図10を参照して説明する。図9は、本実施形態によるカメラリハーサルの動作を説明するフローチャートである。図9の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図9のS901〜S907、及びS909〜S912の処理内容は、それぞれ図6のS601〜S607、及びS608〜S611と同様であるため説明を省略する。S908ではレンズ駆動速度を取得し、S913ではレンズ駆動量を取得する。S914では、レンズ駆動継続時間を算出する。S908、S913、及びS914の処理の詳細は、図7のS705、S710、及びS711の処理と同様であるため説明を省略する。
S915では、図7のS712のようにフォーカス開始時刻を算出する。S916では、タッチ座標、及び目標合焦完了時刻に関する情報を含むタッチ操作情報に加え、レンズ駆動量、レンズ駆動速度、レンズ駆動継続時間、及びフォーカス開始時刻に関する情報が、図8のように操作情報記録部214に格納される。S916において格納される情報は、S902またはS903で発行または取得されたショットID、及びS904で発行されたタッチ操作情報IDに紐付けられる。なお、レンズ駆動速度の取得、レンズ駆動継続時間の算出、及びフォーカス開始時刻の算出は、必ずしもカメラリハーサルで行う必要はなく、本番撮影時まで処理の実行を遅延させてもよい。
本実施形態においては、前述したようにカメラリハーサルにおいてレンズ駆動量を取得するため、本番撮影時と同様に撮影の進行に合わせて適切にフォーカス操作を実行しなければならない。そのようにしなければ、本番撮影時とは大きく異なるフォーカスの状態からタッチ座標に基づくフォーカスの調整が行われることになり、適切なレンズ駆動量を取得することができなくなるためである。そのため、ステップS917では、駆動量取得部208によりタッチ座標に基づいてレンズ移動量を取得し、このレンズ移動量に基づきレンズ駆動部207がフォーカスの調整を実行する。ここでは、継続時間や速度といったフォーカスの制御を行う必要はなく、単にフォーカスレンズを駆動させてフォーカスの調整を行えばよい。S917の完了後は、S909へ戻り、先述した条件判断を行う。
図10は、本実施形態による本番撮影時の動作を説明するフローチャートである。図10の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図10のS1001〜S1007は、図7のS701〜S707と同様のため説明を省略する。本実施形態では実施形態1と異なり、図7のS705において取得していたレンズ駆動速度や、S708〜S712で読み出しまたは算出していたタッチ座標は、図9のカメラリハーサル時に取得または算出されている。それに加えて、目標合焦完了時刻、レンズ駆動量、レンズ駆動継続時間、フォーカス開始時刻も図9のカメラリハーサル時に併せて取得または算出される。
そのため、単にS1008でフォーカス開始時刻を操作情報記録部214から読み込み、S1009でアクションコールからの継続時間を算出する。その後、S1010においてフォーカスの開始時刻まで待機する。開始時刻に到達した場合、すなわち、アクションコールからの経過時間が読み込んだフォーカス開始時刻と等しいまたは超えた場合(S1010でYES)に、S1011でカメラ制御を実行する。S1011は、S715と同様であるため説明を省略する。なお、S1011においてフォーカスが合う直前に、現在のフォーカス操作に対応するタッチ座標を読み出し、そのタッチ座標に基づいてタッチオートフォーカスを実行させてもよい。そうすることで、被写体の位置がカメラリハーサルと本番撮影時で多少変化していたとしても、正確なフォーカス合わせが可能となる。
以上説明したように、本実施形態によれば、カメラリハーサルにおいてタッチ座標と目標合焦完了時刻に加え、少なくともレンズ駆動量を記録する。これにより、フォーカス移動の開始タイミング以前において、ユーザが所望する座標に被写体が存在しない場合でも、フォーカス合わせのための適切なレンズ駆動量を取得し、所望のタイミングに被写体に対するオートフォーカス行うことが可能となる。
なお、本番撮影において、カメラリハーサルで記録したタッチ操作情報に基づいて自動的にフォーカスを制御する場合、手動でフォーカスリングが操作されると、それ以降は正しくフォーカスが制御できなくなる。本実施形態では現時点のレンズ位置からのレンズ駆動量しか持たないためである。これに対処するには、例えば、カメラリハーサルにおいて、タッチ操作に基づいて合焦した場合のレンズ位置を記録しておく。本番撮影時には、現在のレンズ位置から次のレンズ位置へ、目標合焦完了時刻に合わせて合焦が完了するようにフォーカスの調整を開始することが可能となる。このようにすることで、フォーカスの自動制御中に手動でフォーカスリングが操作されても、正しくフォーカスの調整を続けることができる。もしくは、本番撮影中は手動によるフォーカス操作を受け付けなくしてもよい。
なお、上記各実施形態では、所定のフォーカス位置にレンズの焦点を合わせるためにレンズを駆動する駆動量と、レンズの駆動速度とに基づいて、レンズを駆動する継続時間を取得する例を説明したが、レンズ駆動継続時間の取得手法はこれに限られない。例えば、リハーサルにおいて撮影されたリハーサル画像において、合焦を開始してから合焦が完了するまでの時間を計測して、レンズ駆動継続時間を取得してもよい。あるいは、ユーザからの入力によりレンズ駆動継続時間を取得してもよい。
<実施形態3>
実施形態1、及び実施形態2では、所定のレンズ駆動速度と、タッチ座標に基づいて算出したレンズ駆動量からレンズ駆動継続時間を算出した。また、実施形態1、及び実施形態2では、レンズが一定の速度で変位するようにレンズを駆動させる例を説明した。
実施形態1、及び実施形態2では、所定のレンズ駆動速度と、タッチ座標に基づいて算出したレンズ駆動量からレンズ駆動継続時間を算出した。また、実施形態1、及び実施形態2では、レンズが一定の速度で変位するようにレンズを駆動させる例を説明した。
第三の実施形態(実施形態3)では、レンズ駆動速度及びレンズ駆動継続時間のうち少なくともどちらか一方と、レンズ駆動速度変化パターンとを入力可能とする。ここで、レンズ駆動速度変化パターンとは、フォーカス動作中のレンズの駆動速度(変位速度)の変化をパターン化した関数である。例えば、フォーカスの調整を開始してからしばらくはレンズを高速で駆動させ、合焦直前にはレンズをゆっくりと駆動させるパターンが考えられる。パターンは、フォーカス開始時刻からの経過時間を引数に取り、引数で表された時点におけるレンズ駆動の速度を返す関数として表現することができる。レンズ駆動の継続時間は被写体との距離によって変化するため、パターンを表現する関数は正規化された状態で記録される。利用時にはレンズ駆動継続時間に合わせてパターンを表現する関数を適切にスケールしなければならない。
(映像システムの構成)
図11は、本実施形態を実現する映像システムの構成を示した図である。図2と比較すると、本実施形態の映像システムは、駆動速度取得部209を有さず、パラメータ入力部1101と変化パターン記録部1102とを有している。駆動速度取得部209を除く各部201〜215は図2と同様であるため、説明を省略する。
図11は、本実施形態を実現する映像システムの構成を示した図である。図2と比較すると、本実施形態の映像システムは、駆動速度取得部209を有さず、パラメータ入力部1101と変化パターン記録部1102とを有している。駆動速度取得部209を除く各部201〜215は図2と同様であるため、説明を省略する。
パラメータ入力部(レンズ駆動パラメータ入力部)1101は、ユーザからのレンズ駆動パラメータの入力を受け付ける。ここで、レンズ駆動パラメータとは、レンズ駆動速度、レンズ駆動継続時間、及びレンズ駆動速度変化パターンを指す。変化パターン記録部(レンズ駆動速度変化パターン記録部)1102は、前述したレンズ駆動速度の変化(速度パターン)を表す関数が正規化された状態であらかじめ複数記録されており、必要に応じてその種類を拡充することが可能である。正規化された関数とは、単位時間あたりの速度の変化を示す関数をいう。
また、関数だけではユーザがレンズ駆動の速度変化を直感的に理解することが難しいと考えられるため、レンズ駆動の速度変化を例えばグラフのような形に視覚化したアイコンを用意する。そして、アイコンと、アイコンに対応するレンズ駆動の速度変化を表す関数とを紐付けて記録しておき、ユーザがレンズ駆動速度変化パターンを選択する際にそのアイコンを選択可能に表示してもよい。
(タッチ操作情報)
本実施形態においては、ユーザのタッチ操作と関連付けて、少なくとも目標合焦完了時刻とレンズ駆動パラメータとして入力されたレンズ駆動速度、レンズ駆動継続時間、及びレンズ駆動速度変化パターンを記録する。レンズ駆動量、レンズ駆動速度、レンズ駆動継続時間、及びフォーカス開始時刻については、カメラリハーサルにおいて算出し、ユーザのタッチ操作と関連付けて記録してもよい。また、これらの算出に必要な値をユーザのタッチ操作と関連付けて記録し、本番撮影時に算出してもよい。
本実施形態においては、ユーザのタッチ操作と関連付けて、少なくとも目標合焦完了時刻とレンズ駆動パラメータとして入力されたレンズ駆動速度、レンズ駆動継続時間、及びレンズ駆動速度変化パターンを記録する。レンズ駆動量、レンズ駆動速度、レンズ駆動継続時間、及びフォーカス開始時刻については、カメラリハーサルにおいて算出し、ユーザのタッチ操作と関連付けて記録してもよい。また、これらの算出に必要な値をユーザのタッチ操作と関連付けて記録し、本番撮影時に算出してもよい。
図12は、ライブビュー画面に対する、フォーカス制御を意図したユーザのタッチ操作について、入力操作情報及びフォーカス制御に関するパラメータを操作情報記録部214に記録するテーブルの一例を表す図である。図12では図8と同様、タッチ操作情報ID1201、ショットID1202、タッチ座標1203、目標合焦完了時刻1204、レンズ駆動量1205、レンズ駆動継続時間1206、レンズ駆動速度1207及びフォーカス開始時刻1208が記録されている。図12の例では、さらに、レンズ駆動速度変化パターン1209が記録されている点が図8と異なる。このレンズ駆動速度変化パターン1209は、前述のように、正規化された関数等により示される。これらの情報は、図11の操作情報記録部214によって書き込まれ、図11の読出部210によって読み出される。
(制御装置の動作)
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図13、及び図14を参照して説明する。図13は、本実施形態によるカメラリハーサルの動作を説明するフローチャートである。図13の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図13、及び図14を参照して説明する。図13は、本実施形態によるカメラリハーサルの動作を説明するフローチャートである。図13の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図13のS1301〜S1308は、図6のS601〜S608と同様であるため説明を省略する。S1308において撮影が継続されていると判断された場合(1308でYES)は、S1309において、パラメータ入力部1101によりレンズ駆動パラメータを取得する。ここで、取得したレンズ駆動パラメータの組み合わせによっては、ユーザの意図通りにフォーカス操作を実行できない場合がある。例えば、レンズ駆動継続時間が1秒かつレンズ駆動速度が平均秒速3mmであり、タッチ座標から求めたレンズ駆動量が6mmであるような場合である。この場合、レンズを6mm移動するには、6(mm)/3(mm/秒)=2秒を要するため、1秒のレンズ駆動継続時間では所望のレンズ駆動量を確保することができない。そのような場合、レンズ駆動継続時間、レンズ駆動速度またはレンズ駆動継続時間のいずれかを優先させ、非優先パラメータの値を調節して、優先パラメータに従った合焦を行ってもよい。もしくは、カメラやレンズの最大レンズ駆動量に合わせて、レンズ駆動速度やレンズ駆動継続時間の指定可能な値の範囲を制限してもよい。なお、各レンズ駆動パラメータにはデフォルト値を設定しておいてもよい。S1309の処理は、S1310においてユーザのタッチ操作がなされたと判断されるまで継続される。なお、本実施形態では、S1309は、S1310においてユーザのタッチ操作を待機している間に行えるようにしているが、ユーザのタッチ操作以前であればどの時点で実行してもよい。
S1310においてタッチ操作が行われたと判断された場合(S1310でYES)は、S1311へ進む。S1311〜S1314、及びS1316の処理は、図9のS911〜913、S915、及びS917の処理と同様であるため説明を省略する。
S1315では、タッチ操作情報に加え、レンズ駆動量、レンズ駆動パラメータとして指定されたレンズ駆動速度、レンズ駆動継続時間、レンズ駆動速度変化パターン、及びフォーカス開始時刻を図12のように記録する。これらの値は、S1302またはS1303で発行または取得されたショットID、及びS1304で発行されたタッチ操作情報IDに紐付けて記録される。S1316で図12のテーブルに情報を記録する際に、S1309でレンズ駆動パラメータとしてレンズ駆動継続時間が入力されていなかった場合は、レンズ駆動速度とレンズ駆動量から算出したレンズ駆動継続時間を記録する。なお、本実施形態では、実施形態2と同様にカメラリハーサルにおいてレンズ駆動量を取得するため、映像システムは撮影の進行に合わせて適切にフォーカス操作を実行する必要がある。実施形態2では、このフォーカス操作はタッチ操作がトリガとなって開始されるため、タッチ操作を行った瞬間にはフォーカス合わせが完了しておらず、タッチ操作時の映像にフォーカスが合う様子を確認することはできなかった。そこで本実施形態では、あたかもユーザがタッチ操作を行った時点で合焦が完了したかのように見せるため、S1316において、レンズを高速で駆動させてもよい。
図14は、本実施形態による本番撮影時において、特にカメラ制御の動作を説明するフローチャートである。図14の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図14のS1401においてレンズ駆動速度変化パターンに対応するレンズ駆動速度の変化を表す関数を取得する。S1402では、レンズの駆動を開始してからの経過時間を算出する。フォーカス開始時刻を読み出し、現在時刻から減算することでレンズが駆動開始してからの経過時間を算出する。S1403では、S1401において取得した速度変化を表す関数に、レンズが駆動を開始してからの経過時間を与え、レンズ駆動速度を取得する。S1404では、算出したレンズ駆動速度で微小時間だけレンズを駆動させる。S1405では、レンズ駆動により合焦状態に到達したか否かを判断する。具体的には、レンズの駆動を開始してからの経過時間が、図13のS1309においてレンズ駆動パラメータの一つとして入力されたレンズ駆動継続時間に達したか否かを判断する。
合焦状態に達していない場合(S1405でNO)はS1402〜S1404の処理を繰り返し、合焦状態に達した場合(S1405でYES)は図14のフローチャートに係る処理を終了する。
合焦状態に達していない場合(S1405でNO)はS1402〜S1404の処理を繰り返し、合焦状態に達した場合(S1405でYES)は図14のフローチャートに係る処理を終了する。
S1309でレンズ駆動継続時間ではなくレンズ駆動速度が入力された場合は、レンズ駆動速度とレンズ駆動量からレンズ駆動継続時間を算出する。また、S1402〜S1404の処理は、レンズの駆動を開始してからのレンズの駆動量が、タッチ座標に基づいて算出したレンズ駆動量に達するまで繰り返すようにしてもよい。なお、本実施形態では、実施形態2と同様にレンズ駆動量の取得をカメラリハーサルにおいて行っているが、実施形態1のように本番撮影時にレンズ駆動量の取得を行ってもよい。
以上説明したように、本実施形態によれば、カメラリハーサルにおいてレンズ駆動速度とレンズ駆動継続時間の少なくともどちらか一方、及びレンズ駆動速度変化パターンの入力を受け付ける。これにより、フォーカスの制御を詳細に行えるようになり、フォーカスの適用に係わるユーザの演出上の意図をより正確に再現することが可能となる。
なお、本実施形態では、レンズ駆動パラメータとして取得または算出されたレンズ駆動継続時間だけフォーカスの開始を早めていたが、取得または算出されたレンズ駆動継続時間の代わりに所定の時間だけフォーカスの調整を開始する時間を早めてもよい。その場合、所定の時間内にフォーカスの調整が完了するように、レンズ駆動量に合わせて適切なレンズ駆動速度でレンズを駆動させる必要がある。
<実施形態4>
上述の各実施形態1〜3では、カメラリハーサルにおいてユーザのタッチ操作情報を記録した。第四の実施形態(実施形態4)では、あらかじめ撮影しておいた映像を再生しながらタッチ操作情報を記録する。
上述の各実施形態1〜3では、カメラリハーサルにおいてユーザのタッチ操作情報を記録した。第四の実施形態(実施形態4)では、あらかじめ撮影しておいた映像を再生しながらタッチ操作情報を記録する。
図15は、本実施形態を実現する映像システムの構成を示した図である。図2と比較すると、本実施形態の映像システムは、撮影部205に代えて撮影・再生部1501を有するとともに、映像記録部1502を有している。撮影部205を除く各部201〜215は図2と同様であるため説明を省略する。撮影・再生部1501は、撮影した映像を映像記録部1502により記録し、ユーザの操作に応じて記録された映像を再生する。
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図16を参照して説明する。図16は、撮影済みの映像を再生しながらタッチ操作情報を記録する動作を説明するフローチャートである。図16の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図16のS1601で、撮影済みのテイクからタッチ座標の記録を行うテイクを選択し、新たにタッチ操作情報IDを発行する。ショットIDは、選択したテイクが属するショットのショットIDとする。続いて、S1602で、選択したテイクを撮影・再生部1501により再生する。再生開始した映像からアクションコールを検出するまで、S1603において待機する。
以降のS1604〜S1609の処理は、S1605において撮影の終了を監視するのではなく、再生の終了を監視すること以外は図6のS607〜S612とほぼ同様であるから、詳細な説明を省略する。なお、映像をシーケンシャルに再生しながらタッチ操作情報を記録するだけでなく、シークバーを操作してタッチ操作の対象となるフレームを切り替えながらタッチ操作情報を記録してもよい。また、実施形態3のようにレンズ駆動パラメータをタッチ操作情報に関連付けて記録してもよい。
図16は、上述の各実施形態1〜3におけるカメラリハーサルの動作に相当し、図16において記録したタッチ操作情報は本番撮影時に利用される。本番撮影時のフローチャートについては図7と同様であるため説明を省略する。
以上説明したように、本実施形態によれば、撮影された映像を再生しながらタッチ座標と目標合焦完了時刻を記録する。これにより、各実施形態1〜3では、カメラリハーサルで被写体をタッチし損ねた場合、再撮影が必要となり手間がかかっていたのに対し、本実施形態では、映像を繰り返し再生しながらフォーカスの位置とタイミングが設定可能となる。また、各実施形態1〜3において撮影中に記録したタッチ操作情報に加え、後から新たなタッチ操作情報を追加することが可能となる。なお、撮影中に記録したタッチ座標もしくは目標合焦完了時刻を変更したり、タッチ操作情報を削除したりできるように映像システムを構成してもよい。
<実施形態5>
上述の各実施形態1〜4では、タッチ操作情報の記録と適用を、カメラリハーサル時(または映像再生時)と本番撮影時に分けて行っていた。第五の実施形態(実施形態5)では、あらかじめリフォーカス可能な映像を撮影しておき、ユーザはそれを再生しながらタッチ操作を行う。そして、ユーザの所望のタイミングでフォーカスの調整が完了するように、タッチ操作情報に基づいて前もってフォーカスの調整を開始したように撮影済み映像に対してリフォーカス処理を適用する。各実施形態1〜4では、タッチ操作情報の記録と適用を分けていたため、カメラリハーサルと合わせて最低でも二度の撮影が必要だったが、本実施形態ではリフォーカス可能な映像を一度撮影するだけでよい。
上述の各実施形態1〜4では、タッチ操作情報の記録と適用を、カメラリハーサル時(または映像再生時)と本番撮影時に分けて行っていた。第五の実施形態(実施形態5)では、あらかじめリフォーカス可能な映像を撮影しておき、ユーザはそれを再生しながらタッチ操作を行う。そして、ユーザの所望のタイミングでフォーカスの調整が完了するように、タッチ操作情報に基づいて前もってフォーカスの調整を開始したように撮影済み映像に対してリフォーカス処理を適用する。各実施形態1〜4では、タッチ操作情報の記録と適用を分けていたため、カメラリハーサルと合わせて最低でも二度の撮影が必要だったが、本実施形態ではリフォーカス可能な映像を一度撮影するだけでよい。
図17は、本実施形態を実現する映像システムの構成を示した図である。図2と比較すると、本実施形態の映像システムは、撮影部205及びレンズ駆動部207を有さないが、撮影・再生部1701、映像記録部1702、及び、リフォーカス部1703を有する。また、本実施形態の目標時刻算出部1704は、図2の目標時刻算出部215と異なる処理を行う。撮影部205、レンズ駆動部207、及び目標時刻算出部215を除く各部201〜214は図2と同様であるため、説明を省略する。
撮影・再生部1701は、リフォーカス可能な映像を撮影し、映像記録部1702に記録する。映像のリフォーカスは、光照射野(ライトフィールド)センサや多眼カメラ等により、光線が入ってくる方向、及び角度を認識して記録しておき、それをもとに演算することで実現することができる。映像記録部1702に記録されたリフォーカス可能映像に対して、リフォーカス処理を実行するのがリフォーカス部1703である。目標時刻算出部(目標合焦完了時刻算出部)1704は、タッチ操作が行われた時刻を目標合焦完了時刻として取得する。各実施形態1〜4ではアクションコールなどの基準時点からライブビュー画面がタッチされるまでの経過時間を目標合焦完了時刻として求めていた。それに対し、本実施形態では、カメラリハーサル(実施形態4では再生時)と本番撮影時との間で同期をとる必要がないため、単に再生開始からの経過時間を目標合焦完了時刻としてよい。
次に、本実施形態に係る制御装置としてのカメラ装置201の動作について、図18を参照して説明する。図18は、リフォーカス可能な映像を再生しながらタッチ操作情報を入力し、タッチ操作のタイミングに合わせてフォーカスを適用する動作を説明するフローチャートである。図18の各ステップは、CPU101の制御に基づき、ROM102に記憶されたコンピュータプログラムを実行することにより実現される。
図18のS1801で、タッチ操作に基づくリフォーカスを調整するテイクを選択し、S1802において撮影・再生部1701により映像の再生を開始する。S1803では、図9のS908と同様にレンズ駆動速度を取得する。S1804では映像の再生が終了しているかを判定し、再生が終了していない、すなわち再生中ならば(S1804でYES)、S1805でユーザによるタッチ操作が行われるまで待機する。再生が終了していれば(S1804でNO)フローチャートを終了する。
タッチ操作が行われれば(S1805でYES)、S1806において座標取得部211によりタッチ座標を取得し、S1807において目標時刻算出部1704により目標合焦完了時刻を算出する。なお、S1806及びS1807の実行順は任意である。
取得したタッチ座標に基づいて、S1808でレンズ駆動量を取得する。S1809では、レンズ駆動量をレンズ駆動速度で除算し、レンズ駆動継続時間を算出する。続くS1810では、目標合焦完了時刻からレンズ駆動継続時間を減算することでフォーカス開始時刻を算出する。S1811では、S1803、S1808、及びS1809で取得または算出されたレンズ駆動パラメータを利用して、リフォーカス処理を実行する。ここで実行されるリフォーカス処理は、S1810で算出したフォーカス開始時刻からフォーカスの調整を開始し、目標合焦完了時刻にフォーカスの調整が完了するようなフォーカス操作を再現する。S1811の完了後は、S1804へ戻り、先述した条件判断を行う。
以上説明したように、本実施形態によれば、撮影済みのリフォーカス可能映像を再生しながらタッチ座標と目標合焦完了時刻とを記録する。これにより、ユーザがタッチ操作により指定した所望のタイミングに合わせてフォーカス合わせが完了するように、前もってレンズの駆動を開始した場合と同等の効果をリフォーカス処理によって実現させることが可能となる。そのため、フォーカスの効果を意識して撮影することで撮影が複雑化することを回避することができ、撮影終了後に、フォーカスの適用作業に集中することが可能となる。
なお、実施形態3のようにレンズ駆動パラメータを入力可能なように構成し、ユーザによって指定されたレンズ駆動パラメータに従ってリフォーカス処理を実行してもよい。また、本実施形態では、タッチ操作情報の入力後、ただちにリフォーカス処理を行ったが、全てのタッチ操作情報の記録を終えた後に、リフォーカス処理を一括実行してもよい。さらには、映像をシーケンシャルに再生しながらタッチ操作情報を記録するだけでなく、シークバーを操作してタッチ操作の対象となるフレームを切り替えながらタッチ操作情報を記録してもよい。
以上のように、各実施形態においては、タッチオートフォーカスにおけるタッチ操作から合焦の完了までのタイムラグを見越したタイミングにオートフォーカスのためのレンズ駆動を開始する。このため、ユーザの所望のタイミングでフォーカスの調整を完了させることができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:カメラ装置、202:レンズ装置、203:表示装置、204:マイク装置
Claims (17)
- 画像の撮影を制御する制御装置であって、
所定のフォーカス位置にレンズの焦点を合わせる合焦時刻を取得する合焦時刻取得手段と、
前記フォーカス位置に焦点を合わせるためにレンズの駆動を継続する継続時間を取得する継続時間取得手段と、
前記合焦時刻と前記継続時間とに基づき、前記レンズの駆動を開始する開始時刻を取得する開始時刻取得手段と、
前記開始時刻に前記レンズの駆動を開始させるように制御する制御手段と
を備えることを特徴とする制御装置。 - 撮影対象の画像は動画像であり、
撮影された画像に対するユーザの指示を取得する指示取得手段をさらに備え、
前記合焦時刻取得手段は、前記撮影された画像に対するユーザの指示がなされたタイミングに基づき、前記合焦時刻を取得する
ことを特徴とする請求項1に記載の制御装置。 - 前記指示取得手段は、前記撮影された画像に含まれる被写体を指定するための指示を取得し、
前記所定のフォーカス位置は、前記被写体に焦点を合わせるためのフォーカス位置である
ことを特徴とする請求項2に記載の制御装置。 - 前記合焦時刻取得手段は、前記撮影された画像において所定のイベントが発生した基準時刻から前記ユーザの指示がなされるまでの経過時間を前記合焦時刻として取得し、
前記開始時刻取得手段は、前記基準時刻を基準とした前記開始時刻を取得し、
前記制御手段は、画像の撮影中に前記所定のイベントが発生した時刻を基準とした前記開始時刻に前記レンズの駆動を開始するように制御する
ことを特徴とする請求項2又は3に記載の制御装置。 - 前記継続時間取得手段は、前記所定のフォーカス位置にレンズの焦点を合わせるために前記レンズを駆動する駆動量と、前記レンズの駆動速度とに基づいて、前記継続時間を取得することを特徴とする請求項1に記載の制御装置。
- 前記継続時間取得手段は、予め記憶手段に記憶された駆動速度に基づいて、前記継続時間を取得することを特徴とする請求項5に記載の制御装置。
- 前記継続時間取得手段は、ユーザにより入力された駆動速度に基づいて、前記継続時間を取得することを特徴とする請求項5に記載の制御装置。
- 前記継続時間取得手段は、予め記憶手段に記憶された駆動量に基づいて、前記継続時間を取得することを特徴とする請求項5から7のいずれか1項に記載の制御装置。
- 前記継続時間取得手段は、撮影された画像において、合焦を開始してから合焦が完了するまでの前記レンズの駆動量に基づいて、前記継続時間を取得することを特徴とする請求項5から7のいずれか1項に記載の制御装置。
- 前記継続時間取得手段は、撮影された画像において、合焦を開始してから合焦が完了するまでの時間を計測して、前記継続時間を取得することを特徴とする請求項1から4のいずれか1項に記載の制御装置。
- 前記継続時間取得手段は、ユーザからの入力により、前記継続時間を取得することを特徴とする請求項1から4のいずれか1項に記載の制御装置。
- 前記制御手段は、前記レンズが一定の速度で変位するように該レンズを駆動させることを特徴とする請求項1から11のいずれか1項に記載の制御装置。
- 前記制御手段は、前記レンズが所定の速度パターンで変位するように該レンズを駆動させることを特徴とする請求項1から5のいずれか1項に記載の制御装置。
- 画像を撮影する撮影手段をさらに備え、
前記制御手段は、前記撮影手段が画像を撮影する際のレンズの駆動を制御する
ことを特徴とする請求項1から13のいずれか1項に記載の制御装置。 - 前記撮影手段は、リフォーカス可能な画像を撮影することを特徴とする請求項14に記載の制御装置。
- 画像の撮影を制御する制御装置の制御方法であって、
合焦時刻取得手段が、所定のフォーカス位置にレンズの焦点を合わせる合焦時刻を取得する合焦時刻取得工程と、
継続時間取得手段が、前記フォーカス位置に焦点を合わせるためにレンズの駆動を継続する継続時間を取得する継続時間取得工程と、
開始時刻取得手段が、前記合焦時刻と前記継続時間とに基づき、前記レンズの駆動を開始する開始時刻を取得する開始時刻取得工程と、
制御手段が、前記開始時刻に前記レンズの駆動を開始させるように制御する制御工程と
を備えることを特徴とする制御装置の制御方法。 - コンピュータを請求項1から15のいずれか1項に記載の制御装置が備える各手段として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015171181A JP2017050642A (ja) | 2015-08-31 | 2015-08-31 | 制御装置及びその制御方法、コンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015171181A JP2017050642A (ja) | 2015-08-31 | 2015-08-31 | 制御装置及びその制御方法、コンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017050642A true JP2017050642A (ja) | 2017-03-09 |
Family
ID=58280335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015171181A Pending JP2017050642A (ja) | 2015-08-31 | 2015-08-31 | 制御装置及びその制御方法、コンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017050642A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112954199A (zh) * | 2021-01-28 | 2021-06-11 | 维沃移动通信有限公司 | 视频录制方法及装置 |
-
2015
- 2015-08-31 JP JP2015171181A patent/JP2017050642A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112954199A (zh) * | 2021-01-28 | 2021-06-11 | 维沃移动通信有限公司 | 视频录制方法及装置 |
CN112954199B (zh) * | 2021-01-28 | 2023-02-03 | 维沃移动通信有限公司 | 视频录制方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6324063B2 (ja) | 画像再生装置及びその制御方法 | |
JP6702657B2 (ja) | 映像処理装置、映像処理方法、及びプログラム | |
JP2014138275A (ja) | 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム | |
JP2013162425A (ja) | 撮像装置、撮像方法およびプログラム | |
JP5803868B2 (ja) | 動画処理装置、動画処理方法及びプログラム | |
JP6326892B2 (ja) | 撮像システム、撮像方法、画像再生装置及びプログラム | |
US10269389B2 (en) | Video processing apparatus, video processing method, and program | |
JP2017050642A (ja) | 制御装置及びその制御方法、コンピュータプログラム | |
JP5528856B2 (ja) | 撮影機器 | |
JP2017158021A (ja) | 情報端末装置、撮像装置、画像情報処理システム及び画像情報処理方法 | |
JP6355319B2 (ja) | 再生装置及びその制御方法、管理装置及びその制御方法、映像再生システム、並びにプログラム及び記憶媒体 | |
US10474743B2 (en) | Method for presenting notifications when annotations are received from a remote device | |
JP2018074337A (ja) | 動画処理装置、動画処理方法およびプログラム | |
JP2006033567A (ja) | 撮影装置および撮影方法 | |
US20190198058A1 (en) | Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system | |
JP2017112455A (ja) | 情報処理装置 | |
JP5325012B2 (ja) | 歌唱者画像撮影機能を有するカラオケシステム | |
JP7150590B2 (ja) | 電子機器 | |
JP7150591B2 (ja) | 電子機器 | |
JP2021022813A5 (ja) | 撮像装置、撮像方法、プログラムおよび記録媒体 | |
JP2015119320A (ja) | 情報処理システム及びプログラム | |
JP6292912B2 (ja) | 通信機器及び通信機器の制御方法 | |
WO2020137524A1 (ja) | 電子機器 | |
JP5754058B2 (ja) | 撮影機器 | |
JP2023007575A (ja) | 撮像装置、撮像装置の制御方法、プログラム、及び情報処理装置 |