JP2009081495A - 撮像システム - Google Patents
撮像システム Download PDFInfo
- Publication number
- JP2009081495A JP2009081495A JP2007247180A JP2007247180A JP2009081495A JP 2009081495 A JP2009081495 A JP 2009081495A JP 2007247180 A JP2007247180 A JP 2007247180A JP 2007247180 A JP2007247180 A JP 2007247180A JP 2009081495 A JP2009081495 A JP 2009081495A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- subject
- relative position
- position information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】カメラの演算量を低減することができる撮像システムを提供する。
【解決手段】カメラの受信部109は、スコープから見た物体の相対位置情報をスコープから受信する。制御部107は、測距センサ111およびジャイロセンサ112の検出結果に基づいて、カメラから見た物体の相対位置情報を生成する。演算部113は、スコープから見た相対位置情報と、カメラから見た相対位置情報とに基づいて変換式を算出し、スコープから見た被写体の相対位置情報を、変換式により、カメラから見た被写体の相対位置情報に変換する。制御部107は、変換後の相対位置情報を雲台制御部114へ出力する。雲台制御部114は、変換後の相対位置情報に基づいて、カメラが被写体を向くように、カメラの向きを制御する。
【選択図】図1
【解決手段】カメラの受信部109は、スコープから見た物体の相対位置情報をスコープから受信する。制御部107は、測距センサ111およびジャイロセンサ112の検出結果に基づいて、カメラから見た物体の相対位置情報を生成する。演算部113は、スコープから見た相対位置情報と、カメラから見た相対位置情報とに基づいて変換式を算出し、スコープから見た被写体の相対位置情報を、変換式により、カメラから見た被写体の相対位置情報に変換する。制御部107は、変換後の相対位置情報を雲台制御部114へ出力する。雲台制御部114は、変換後の相対位置情報に基づいて、カメラが被写体を向くように、カメラの向きを制御する。
【選択図】図1
Description
本発明は、遠隔操作によりカメラを制御する撮像システムに関する。
カメラを遠隔操作することが可能なシステムが開示されている。例えば、特許文献1には、1人の撮影者が操作する1台のカメラに連動して複数のカメラが撮影を行う撮像システムが記載されている。この撮像システムでは、システム全体で共通化された座標系が定義され、各カメラが座標変換を実行する。
特開2005−167799号公報
しかし、特許文献1に記載された撮像システムでは、全てのカメラの座標系を共通にするための複雑な演算が必要となる。
本発明は、上述した課題に鑑みてなされたものであって、カメラの演算量を低減することができる撮像システムを提供することを目的とする。
本発明は、上記の課題を解決するためになされたもので、カメラと、前記カメラを遠隔操作するための操作装置とを備えた撮像システムであって、前記操作装置は、前記カメラと通信する第1の通信部(図2の受信部204、送信部215に対応)と、前記操作装置から見た物体の相対位置を検出する第1の相対位置検出部(図2の測距センサ212、ジャイロセンサ213に対応)と、前記第1の相対位置検出部の検出結果に基づく相対位置情報を前記カメラへ送信するように前記第1の通信部を制御する制御部(図2の制御部202に対応)とを有し、前記カメラは、前記操作装置と通信する第2の通信部(図1の受信部109、送信部115に対応)と、前記カメラから見た物体の相対位置を検出する第2の相対位置検出部(図1の測距センサ111、ジャイロセンサ112に対応)と、前記第2の通信部によって受信された相対位置情報と、前記第2の相対位置検出部の検出結果に基づく相対位置情報とに基づいて変換式を算出する変換式算出部(図1の演算部113に対応)と、前記操作装置から見た被写体の相対位置情報を、前記変換式により、前記カメラから見た前記被写体の相対位置情報に変換する被写体位置演算部(図1の演算部113に対応)と、前記操作装置から相対位置情報を受信するように前記第2の通信部を制御し、前記カメラから見た前記被写体の相対位置情報に基づいて前記カメラの向きを制御する第2の制御部(図1の制御部107、雲台制御部114に対応)とを有することを特徴とする撮像システムである。
また、本発明の撮像システムにおいて、前記変換式算出部は、前記操作装置から見た特定物の相対位置情報と、前記操作装置から見た前記カメラの相対位置情報と、前記カメラから見た前記特定物の相対位置情報とに基づいて前記変換式を算出することを特徴とする。
また、本発明の撮像システムにおいて、前記変換式算出部は、前記操作装置から見た前記カメラの相対位置情報と、前記カメラから見た前記操作装置の相対位置情報とに基づいて前記変換式を算出することを特徴とする。
また、本発明の撮像システムにおいて、前記カメラはさらに、前記被写体を撮像して得られた画像データに基づいて前記被写体を追尾する追尾部(図1の画像処理部103、制御部107に対応)を有し、前記追尾部が前記被写体を追尾することが可能な間は前記被写体の撮像が可能であることを特徴とする。
また、本発明の撮像システムにおいて、前記被写体位置演算部はさらに、前記カメラから見た前記被写体の複数時刻での相対位置情報に基づいて、所定時刻における前記被写体の予測位置を算出し、前記第2の制御部はさらに、前記被写体の予測位置に基づいて前記カメラの向きを制御することを特徴とする。
また、本発明の撮像システムにおいて、前記操作装置はさらに、前記カメラが捕捉している被写体を示す付加情報と前記被写体の像とを表示する表示部(図2の表示部210に対応)を有し、前記被写体位置演算部はさらに、前記カメラから見た前記被写体の相対位置情報を、前記変換式に基づいて、前記操作装置から見た前記被写体の相対位置情報に逆変換し、前記第2の制御部はさらに、逆変換された前記被写体の相対位置情報を前記操作装置へ送信するように前記第2の通信部を制御し、前記第1の制御部はさらに、逆変換された前記被写体の相対位置情報を前記カメラから受信するように前記第1の通信部を制御し、逆変換された前記被写体の相対位置情報に基づいて、前記付加情報の表示を制御することを特徴とする。
上記において、括弧で括った部分の記述は、後述する本発明の実施形態と本発明の構成要素とを便宜的に対応付けるためのものであり、この記述によって本発明の内容が限定されるわけではない。
本発明によれば、操作装置から見た被写体の相対位置情報を、カメラから見た被写体の相対位置情報に変換し、変換後の相対位置情報に基づいてカメラの向きを制御するので、操作装置とカメラの座標系を共通にする必要がなく、被写体の位置を演算するためのカメラの演算量を低減することができるという効果が得られる。
以下、図面を参照し、本発明の実施形態を説明する。本実施形態による撮像システムは、カメラと、操作者がカメラを遠隔操作するためのスコープとによって構成されている。カメラとスコープは別々の座標系を有しており、スコープから見た特定物の相対位置情報と、カメラから見た特定物の相対位置情報との対応関係を予め求めておくことで、スコープから見た被写体の相対位置情報を、カメラから見た被写体の相対位置情報に変換し、その相対位置情報に基づいてカメラの向き(撮影方向)を制御することが可能となる。したがって、操作者がスコープを操作し、スコープから見た被写体の相対位置情報をカメラに通知することで、操作者はカメラから離れた位置にいてもカメラで被写体を撮像することが可能となる。
図1は、本実施形態によるカメラの構成を示している。このカメラは、レンズ101、撮像部102、画像処理部103、表示部104、画像記録部105、記憶部106、制御部107、操作部108、受信部109、レンズ110、測距センサ111、ジャイロセンサ112、演算部113、雲台制御部114、および送信部115を有している。
レンズ101は、入射した光を撮像部102に結像する。また、レンズ101はフォーカスレンズやズームレンズを備えており、フォーカスやズームを変更することが可能である。撮像部102は撮像素子を有しており、レンズ101によって結像された光学像を光電変換により電気信号に変換し画像信号として出力する。画像処理部103は、撮像部102から出力された画像信号を処理し、画像データを生成する。表示部104は、画像データに基づく画像やメニューを表示する。画像記録部105は、撮影により生成された画像データを記録する。
記憶部106は、カメラ内で処理される各種情報を記憶する。制御部107はカメラ内の各部を制御する。操作部108は、操作者が操作するボタン等を有しており、ボタン等の操作内容に基づいた信号を出力する。受信部109は、スコープから無線通信により送信される情報を受信する。
レンズ110は、入射した光を測距センサ111に結像する。測距センサ111はカメラのフォーカス位置すなわち被写体距離を検出する。ジャイロセンサ112はカメラの方向を検出する。被写体距離とカメラの方向とから、カメラから見た物体の相対位置を検出することが可能となる。演算部113は、測距センサ111およびジャイロセンサ112の検出結果に基づいて、カメラから見た物体の相対位置情報を演算したり、相対位置情報の変換に用いる変換式を演算したり、変換式を用いて相対位置情報の座標変換を行ったりする。
雲台制御部114は、図示せぬ雲台の駆動を制御する。カメラは雲台上に取り付けられており、雲台の駆動を制御することによって、カメラの向きを制御することが可能となる。送信部115は、無線通信によりスコープへ情報を送信する。上記の画像処理部103、制御部107、および演算部113をそれぞれハードウェアとして実現してもよいし、各部の機能をソフトウェア処理により実現してもよい。
図2は、本実施形態によるスコープの構成を示している。このスコープは、記憶部201、制御部202、操作部203、受信部204、レンズ205、撮像部206、画像処理部207、重畳画像生成部208、画像合成部209、表示部210、レンズ211、測距センサ212、ジャイロセンサ213、演算部214、および送信部215を有している。
記憶部201は、スコープ内で処理される各種情報を記憶する。制御部202はスコープ内の各部を制御する。操作部203は、操作者が操作するボタン等を有しており、ボタン等の操作内容に基づいた信号を出力する。受信部204は、カメラから無線通信により送信される情報を受信する。
レンズ205は、入射した光を撮像部206に結像する。撮像部206は撮像素子を有しており、レンズ205によって結像された光学像を光電変換により電気信号に変換し画像信号として出力する。画像処理部207は、撮像部206から出力された画像信号を処理し、画像データを生成する。重畳画像生成部208は、撮像画像に重畳するコンピュータグラフィック画像データ(以下、CG画像データとする)を生成する。画像合成部209は、画像処理部207によって処理された画像データと、重畳画像生成部208によって生成されたCG画像データとを合成し、合成画像データを生成する。表示部210は、合成画像データに基づく画像やメニューを表示する。
レンズ211は、入射した光を測距センサ212に結像する。測距センサ212はスコープのフォーカス位置すなわち被写体距離を検出する。ジャイロセンサ213はスコープの方向を検出する。被写体距離とスコープの方向とから、スコープから見た物体の相対位置を検出することが可能となる。演算部214は、測距センサ212およびジャイロセンサ213の検出結果に基づいて、スコープから見た物体の相対位置情報を演算する。送信部215は、無線通信によりカメラへ情報を送信する。上記の制御部202、画像処理部207、および演算部214をそれぞれハードウェアとして実現してもよいし、各部の機能をソフトウェア処理により実現してもよい。
次に、本実施形態による撮像システムの動作を説明する。まず、図3を参照しながらスコープの概略動作を説明する。スコープが起動すると、後述する初期化処理が実行される(ステップA)。この初期化処理は、カメラ側で相対位置情報の座標変換を行うための変換式を算出するために必要な情報の処理である。続いて、表示部210に表示されるメニューに基づいて、操作者が操作部203を操作し、スコープの動作を選択する(ステップB)。制御部202は、操作部203から出力される信号に基づいて操作内容を判断する(ステップC)。
ステップBで選択可能なスコープの動作は、図3においては、被写体位置通知、撮影、調整、電源OFFである。被写体位置通知が選択された場合、スコープから見た被写体の相対位置情報をカメラへ送信する被写体位置通知処理が実行される(ステップD)。また、撮影が選択された場合、カメラに対する撮影要求を示す撮影要求情報をカメラへ送信する撮影処理が実行される(ステップE)。また、調整が選択された場合、カメラの動作を調整するために必要な情報を処理する調整処理が実行される(ステップF)。
また、電源OFFが選択された場合、カメラの電源をOFFにする電源OFF処理が実行される(ステップG)。被写体位置通知処理、撮影処理、および調整処理の後には、処理結果を示す処理結果情報が受信部204によって受信され、処理結果情報に基づく処理結果が表示部210に表示される(ステップH)。この後、処理はステップBに戻る。
次に、図4を参照しながらカメラの概略動作を説明する。カメラが起動すると、後述する初期化処理が実行される(ステップI)。この初期化処理は、相対位置情報の変換式を算出する処理である。続いて、制御部107は、カメラの動作状態を判断し(ステップJ)、動作状態に応じて、被写体捕捉処理(ステップK)、撮影処理(ステップL)、タイムアウト処理(ステップM)、調整処理(ステップN)、電源OFF処理(ステップO)のいずれかを実行する。
被写体捕捉処理は、被写体の相対位置情報に基づいて被写体にフォーカスを合わせる処理である。撮影処理は、スコープからの撮影要求情報に基づいて撮影を実行する処理である。タイムアウト処理は、スコープからの操作要求が所定時間以上行われなかった場合に実行される処理である。調整処理は、カメラの動作を調整する処理である。電源OFF処理は、カメラの電源をOFFにする処理である。
被写体捕捉処理、撮影処理、タイムアウト処理、および調整処理の後、処理結果を示す処理結果情報が送信部115からスコープへ送信される(ステップP)。続いて、被写体を追尾する追尾処理が実行される(ステップQ)。
次に、上述した各処理の具体的な内容を説明する。まず、スコープとカメラで実行される初期化処理の内容を説明する。初期化処理の実行により、カメラにおいて相対位置情報の変換式が算出される。図5はスコープとカメラの位置関係を示している。図示していないが、操作者50はスコープを保持している。スコープの座標系54とカメラ51の座標系55は互いに独立している。
図中のベクトルV1〜V5は、スコープの座標系54で表現されるベクトルを示している。ベクトルV1は、カメラ51の位置を始点とし特定の固定被写体52の位置を終点とするベクトルである。ベクトルV2は、スコープの位置を始点とし固定被写体52の位置を終点とするベクトルである。ベクトルV3は、スコープの位置を始点としカメラ51の位置を終点とするベクトルである。ベクトルV4は、スコープの位置を始点とし撮影対象の被写体53の位置を終点とするベクトルである。ベクトルV5は、カメラ51の位置を始点とし被写体53の位置を終点とするベクトルである。ベクトルV1〜V5と同様に、カメラ51の座標系55で表現されるベクトルV1’〜V5’も定義されるものとする。
ベクトルV1,V2,V3の間には、V1=V2−V3という関係がある。スコープはベクトルV2,V3の情報を相対位置情報としてカメラ51へ送信する。カメラ51は、ベクトルV2,V3の情報からベクトルV1を算出する。カメラ51は、自身から固定被写体52を見たときのベクトルV1’とベクトルV1を比較し変換式Fを算出する。ベクトルV1,V1’は、変換式Fによって、V1’=F(V1)という対応関係を有している。例えば、V1=(a,b,c)、V1’=(d,e,f)であるとき、X,Y,Zの各座標に乗ずる係数をKa,Kb,Kcとすると、変換式Fを構成する各係数はKa=d/a,Kb=e/b,Kc=f/cとなる。
続いて、スコープは、撮影対象の被写体53に係るベクトルV4の情報をカメラ51へ送信する。以下の(1)式が示すように、ベクトルV3,V4の情報と変換式Fを用いることにより、カメラ51から見た被写体53のベクトルV5’を算出することができる。したがって、カメラ51から被写体53を捕捉することが可能となる。
V5’=F(V5)=F(V4−V3) ・・・(1)
V5’=F(V5)=F(V4−V3) ・・・(1)
以下、図6および図7を参照しながら、スコープとカメラの初期化処理の詳細な手順を説明する。図6は、スコープが実行する初期化処理の手順を示している。まず、スコープを固定被写体へ向けることを促すようなメッセージ等が表示部210に表示される。表示部210の表示を確認した操作者によってスコープが固定被写体へ向けられ、固定被写体にフォーカスが合わせられる(ステップA100)。制御部202は、測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見た固定被写体の相対位置(座標)を算出し、固定被写体の相対位置情報(前述したベクトルV2の情報)を生成する(ステップA101)。
演算部214は固定被写体の相対位置情報を制御部202へ出力する。制御部202は固定被写体の相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへ相対位置情報を送信するように送信部215を制御する(ステップA102)。この後、相対位置情報を受信したことを示す受信通知情報がカメラから受信されなかった場合(ステップA103でNOの場合)には、固定被写体の相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップA100に戻る。
また、受信通知情報がカメラから受信された場合(ステップA103でYESの場合)には、スコープをカメラへ向けることを促すようなメッセージ等が表示部210に表示される。表示部210の表示を確認した操作者によってスコープがカメラへ向けられ、カメラにフォーカスが合わせられる(ステップA104)。ステップA101と同様にして演算部214は、スコープから見たカメラの相対位置(座標)を算出し、カメラの相対位置情報(前述したベクトルV3の情報)を生成する(ステップA105)。
続いて、ステップA102と同様にして、カメラの相対位置情報がカメラへ送信される(ステップA106)。この後、初期化処理が完了したことを示す初期化完了通知情報がカメラから受信された場合(ステップA107でYESの場合)には、初期化処理が終了する。また、カメラから初期化完了通知情報が受信されなかった場合(ステップA107でNOの場合)には、カメラの相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップA104に戻る。
図7は、カメラが実行する初期化処理の手順を示している。初期化処理に先立って、操作者はカメラを固定被写体の方向へ向けておき、固定被写体にフォーカスを合わせておく。初期化処理が開始すると、制御部107は、測距センサ111およびジャイロセンサ112の検出結果を演算部113へ出力する。演算部113は、カメラから見た固定被写体の相対位置(座標)を算出し、固定被写体の相対位置情報(前述したベクトルV1’の情報)を生成する。固定被写体の相対位置情報は制御部107へ出力され、制御部107によって記憶部106に格納される(ステップI100)。
続いて、カメラは、固定被写体の相対位置情報をスコープから受信するための待機状態となる(ステップI101)。固定被写体の相対位置情報をスコープから受信していない場合(ステップI102でNOの場合)には、処理はステップI101に戻る。また、固定被写体の相対位置情報をスコープから受信した場合(ステップI102でYESの場合)には、制御部107は、受信部109から出力された固定被写体の相対位置情報を記憶部106に格納する。さらに、制御部107は、固定被写体の相対位置情報を受信したことを示す受信通知情報を送信部115へ出力し、スコープへその受信通知情報を送信するように送信部115を制御する(ステップI103)。
続いて、カメラは、カメラの相対位置情報をスコープから受信するための待機状態となる(ステップI104)。カメラの相対位置情報をスコープから受信していない場合(ステップI105でNOの場合)には、処理はステップI104に戻る。また、カメラの相対位置情報をスコープから受信した場合(ステップI105でYESの場合)には、制御部107は、受信部109から出力されたカメラの相対位置情報を記憶部106に格納すると共に演算部113へ出力する。さらに、制御部107は、スコープから見た固定被写体の相対位置情報と、カメラから見た固定被写体の相対位置情報とを記憶部106から読み出して演算部113へ出力する。演算部113は、上記の相対位置情報に基づいて、前述した変換式Fを算出する(ステップI106)。
演算部113によって算出された変換式Fの情報は制御部107へ出力され、制御部107によって記憶部106に格納される。これ以降、変換式Fの情報は適宜記憶部106から読み出されて演算部113へ出力される。初期化処理が完了したことを示す初期化完了通知情報をカメラがスコープへ送信する(ステップI107)と、初期化処理が終了する。
図8は、スコープの表示部210に表示される画像を示している。撮像により取得した画像80にメニュー画面81が重ねて表示される。画像80の中心にはマーカ82が表示されている。まず、図8(a)に示すように、メニュー画面81に表示されるメッセージに従って、操作者はスコープを固定被写体に向け、画像80内のマーカ82を固定被写体83に合わせる。この状態で、スコープは固体被写体83の相対位置情報を取得し、カメラへ送信する。
続いて、図8(b)に示すように、メニュー画面81に表示されるメッセージに従って、操作者はスコープをカメラに向け、画像80内のマーカ82をカメラ84に合わせる。この状態で、スコープはカメラの相対位置情報を取得し、カメラへ送信する。カメラから初期化処理の完了が通知されると、図8(c)に示すように、初期化処理が完了したことを示すメッセージがメニュー画面81に表示される。
次に、初期化処理の別の手順を説明する。図9はスコープとカメラの位置関係を示している。図5と比較すると、図9では固定被写体が存在しない。図示していないが、操作者90はスコープを保持している。また、スコープの座標系93とカメラ91の座標系94は互いに独立している。図中のベクトルV3,V4,V5は、スコープの座標系で表現されるベクトルであり、各ベクトルの意味は図5のベクトルV3,V4,V5とそれぞれ同様である。また、ベクトルV3,V4,V5と同様に、カメラ91の座標系94で表現されるベクトルV3’,V4’,V5’も定義されるものとする。
スコープはベクトルV3の情報を相対位置情報としてカメラ91へ送信する。カメラ91はベクトルV3’とベクトルV3を比較し変換式Fを算出する。ベクトルV3,V3’は、変換式Fによって、V3’=F(V3)という対応関係を有している。続いて、スコープは、撮影対象の被写体92に係るベクトルV4の情報をカメラ91へ送信する。これ以降、前述した初期化処理と同様にして、カメラ91から見た被写体92のベクトルV5’を算出し、カメラ91から被写体92を捕捉することが可能となる。
以下、図10および図11を参照しながら、スコープとカメラの初期化処理の詳細な手順を説明する。図10は、スコープが実行する初期化処理の手順を示している。まず、スコープをカメラへ向けることを促すようなメッセージ等が表示部210に表示される。表示部210の表示を確認した操作者によってスコープがカメラへ向けられ、カメラにフォーカスが合わせられる(ステップA120)。制御部202は、測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見たカメラの相対位置(座標)を算出し、カメラの相対位置情報(前述したベクトルV3の情報)を生成する(ステップA121)。
演算部214はカメラの相対位置情報を制御部202へ出力する。制御部202はカメラの相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへその相対位置情報を送信するように送信部215を制御する(ステップA122)。この後、初期化処理が完了したことを示す初期化完了通知情報がカメラから受信された場合(ステップA123でYESの場合)には、初期化処理が終了する。また、カメラから初期化完了通知情報が受信されなかった場合(ステップA123でNOの場合)には、カメラの相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップA120に戻る。
図11は、カメラが実行する初期化処理の手順を示している。初期化処理に先立って、操作者は、スコープを持って撮影を行う予定の地点へカメラを向けておき、その地点にフォーカスを合わせておく。初期化処理が開始すると、制御部107は、測距センサ111およびジャイロセンサ112の検出結果を演算部113へ出力する。演算部113は、カメラから見たスコープの相対位置(座標)を算出し、スコープの相対位置情報(前述したベクトルV3’の反対向きのベクトル−V3’の情報)を生成する。スコープの相対位置情報は制御部107へ出力され、制御部107によって記憶部106に格納される(ステップI120)。
続いて、カメラは、カメラの相対位置情報をスコープから受信するための待機状態となる(ステップI121)。カメラの相対位置情報をスコープから受信していない場合(ステップI122でNOの場合)には、処理はステップI121に戻る。また、カメラの相対位置情報をスコープから受信した場合(ステップI122でYESの場合)には、制御部107は、受信部109から出力されたカメラの相対位置情報を記憶部106に格納すると共に演算部113へ出力する。さらに、制御部107は、スコープから見たカメラの相対位置情報を記憶部106から読み出して演算部113へ出力する。演算部113は、上記の相対位置情報に基づいて、前述した変換式Fを算出する(ステップI123)。
演算部113によって算出された変換式Fの情報は制御部107へ出力され、制御部107によって記憶部106に格納される。これ以降、変換式Fの情報は適宜記憶部106から読み出されて演算部113へ出力される。初期化処理が完了したことを通知する初期化完了通知情報をカメラがスコープへ送信する(ステップI124)と、初期化処理が終了する。
次に、撮影対象の被写体を撮影するときのスコープとカメラの動作を説明する。被写体を撮影するとき、まずスコープは、スコープから見た被写体の相対位置情報をカメラに通知する被写体位置通知処理(図3のステップD)を実行する。図12は、スコープが実行する被写体位置通知処理の手順を示している。以下、図12を参照しながら、被写体位置通知処理の詳細な手順を説明する。
まず、操作者によってスコープが被写体へ向けられ、被写体にフォーカスが合わされる(ステップD100)。制御部202は、このときの測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見た被写体の相対位置(座標)を算出し、被写体の相対位置情報(前述したベクトルV4の情報)を生成する(ステップD101)。
演算部214は被写体の相対位置情報を制御部202へ出力する。制御部202は被写体の相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへその相対位置情報を送信するように送信部215を制御する(ステップD102)。この後、相対位置情報を受信したことを示す受信通知情報がカメラから受信された場合(ステップD103でYESの場合)には、被写体位置通知処理が終了する。また、カメラから受信通知情報が受信されなかった場合(ステップD103でNOの場合)には、被写体の相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップD100に戻る。
スコープから被写体の相対位置情報が送信されると、カメラの受信部109は被写体の相対位置情報を受信し、制御部107へ出力する。制御部107は、被写体の相対位置情報が受信されたことから、被写体捕捉処理を実行すべきであると判断し(図4のステップJ)、被写体捕捉処理を実行する(ステップK)。なお、スコープから相対位置情報が受信されたときに、カメラは、相対位置情報を受信したことを示す受信通知をスコープへ送信する。図13は、カメラが実行する被写体捕捉処理の手順を示している。以下、図13を参照しながら、被写体捕捉処理の詳細な手順を説明する。
制御部107は、スコープから受信された被写体の相対位置情報(前述したベクトルV4の情報)を演算部113へ出力する。また、制御部107は、スコープから見たカメラの相対位置情報(前述したベクトルV3の情報)と演算式Fの情報を記憶部106から読み出し、演算部113へ出力する。演算部113は、前述した(1)式に従って、カメラから見た被写体の相対位置情報(前述したベクトルV5’の情報)を算出し、制御部107へ出力する。制御部107は、この相対位置情報を雲台制御部114へ出力する。雲台制御部114は、この相対位置情報に基づいて、カメラが被写体を向くように、カメラの向きを制御する(ステップK100)。
続いて、制御部107は、カメラから見た被写体の相対位置情報に基づいてレンズ101のフォーカスを調整する。制御部107は、被写体の相対位置情報が示す位置にレンズ101のフォーカスを合わせることができるか否かによって、被写体が捕捉できたか否かを判断する(ステップK101)。レンズ101のフォーカスを合わせることができた場合には、カメラが撮影可能状態に遷移し(ステップK102)、被写体捕捉処理が終了する。また、レンズ101のフォーカスを合わせることができなかった場合には、カメラが撮影不能状態に遷移し(ステップK103)、被写体捕捉処理が終了する。
図14に示す状態では、操作者140から被写体141を見ることができるが、障害物142により、カメラ143から被写体141を見ることはできない。この状態では、カメラ143は被写体141にフォーカスを合わせることができず、撮影不能状態となる。このようにカメラが撮影不能状態となった場合、スコープが再度被写体の相対位置情報を送信し、その相対位置情報に基づいてカメラが被写体にフォーカスを合わせることができるようになれば、カメラは撮影可能状態に遷移する。
カメラが被写体にフォーカスを合わせることができ、撮影可能状態に遷移した場合、カメラは被写体を追尾する(図4のステップQ)。図15は、カメラが実行する追尾処理の手順を示している。以下、図15を参照しながら、追尾処理の詳細な手順を説明する。
まず、制御部107は、カメラの状態が撮影可能状態であるか否かを判断する(ステップQ100)。カメラの状態が撮影不能状態であった場合には、追尾処理が終了する。また、カメラの状態が撮影可能状態であった場合には、制御部107は被写体が追尾可能であるか否かを判断する(ステップQ101)。このとき、画像処理部103は、異なるフレーム間の画像データのパターンマッチングを行い、その結果を制御部107に通知する。先行フレームの画像の中央のパターンと同一のパターンが後行フレームで検出された場合、制御部107は被写体が追尾可能であると判断する。また、同一のパターンが検出されなかった場合、制御部107は被写体が追尾可能でないと判断する。
被写体が追尾可能であった場合、制御部107は被写体の追尾を行うため、ステップQ101で同一と判断したパターンが画像の中央に来るように雲台制御部114の動作を制御する(ステップQ102)。この後、被写体追尾処理が終了する。また、被写体が追尾可能でなかった場合、カメラが撮影不能状態に遷移し(ステップQ103)、被写体追尾処理が終了する。
図16に示すように、障害物162により、操作者160から被写体161を見ることができなくても、カメラ163から被写体161を見ることができる状態では、カメラは撮影可能状態となる。この状態では、カメラは一旦被写体を捕捉すれば、操作者から被写体を見ることができるか否かに関わらず被写体を追尾し続ける。被写体が追尾できなくなった場合には、カメラは撮影不能状態となる。
また、一定時間スコープから操作要求がなかった場合にも、カメラはタイムアウト処理により撮影不能状態に遷移する。カメラの制御部107は、スコープから最後に情報を受信してから所定時間以内にスコープから何も情報を受信しなかった場合に、タイムアウト処理を実行すべきであると判断し(図4のステップJ)、タイムアウト処理を実行する(ステップM)。図17はタイムアウト処理の手順を示しており、カメラは撮影不能状態に遷移する(ステップM100)。
被写体を撮影する場合、操作者が操作部203を操作し、撮影指示を入力する(図3のステップB)。制御部202は、操作部203から出力される信号に基づいて、撮影処理を実行すべきであると判断し(ステップC)、撮影処理(ステップE)を実行する。図18は、スコープが実行する撮影処理の手順を示している。以下、図18を参照しながら、撮影処理の詳細な手順を説明する。
制御部202はカメラに対する撮影要求を示す撮影要求情報を生成する。続いて、制御部202は撮影要求情報を送信部215へ出力し、カメラへ撮影要求情報を送信するように送信部215を制御する(ステップE100)。この後、撮影が完了したことを示す撮影完了通知情報がカメラから受信された場合(ステップE101でYESの場合)には、撮影処理が終了する。また、カメラから撮影完了通知情報が受信されなかった場合(ステップE101でNOの場合)には、処理がステップE100に戻る。
スコープから撮影要求情報が送信されると、カメラの受信部109は撮影要求情報を受信し、制御部107へ出力する。制御部107は、撮影要求情報が受信されたことから、撮影処理を実行すべきであると判断し(図4のステップJ)、撮影処理を実行する(ステップL)。図19は、カメラが実行する撮影処理の手順を示している。以下、図19を参照しながら、撮影処理の詳細な手順を説明する。
まず、制御部107は、カメラの状態が撮影可能状態であるか否かを判断する(ステップL100)。カメラの状態が撮影不能状態であった場合には、撮影処理が終了する。また、カメラの状態が撮影可能状態であった場合には、制御部107はレンズ101、撮像部102、画像処理部103、および画像記録部105を制御し、撮影を実行する(ステップL101)。このとき生成された画像データは画像記録部105に記録される。続いて、カメラは、撮影が完了したことを示す撮影完了通知情報をスコープへ送信する(ステップL102)。以上の処理により、撮影処理が終了する。
次に、高速に移動する被写体を捕捉するときのスコープおよびカメラの動作を説明する。図20(a)に示すように、操作者20aが、高速に移動する被写体20bをスコープで捉え、その相対位置情報をカメラ20cへ送信したとする。カメラ20cは、スコープから通知された相対位置情報に基づいて被写体20bにフォーカスを合わせようとするが、図20(b)に示すように、その時点では既に被写体20bが移動しており、カメラ20cが被写体20bを捕捉できない可能性がある。
そこで、スコープは、異なる2以上の時刻で被写体の相対位置を検出し、カメラに相対位置情報を2回以上送信する。カメラは、2以上の時刻で得られた被写体の相対位置情報に基づいて、所定時刻における被写体の予測位置を算出し、その予測位置に基づいてカメラの向きを制御する。
以下、図21を参照しながら、より具体的な処理内容を説明する。被写体21aが高速に移動している場合、操作者21bは時刻t1とt2(t1<t2)においてスコープを被写体21aへ向け、相対位置を検出する。スコープは、時刻t1,t2のそれぞれにおける被写体21aの相対位置情報をカメラ21cへ送信する。カメラ21cは、被写体21aが等速直線運動をしていると仮定して、時刻t3(t2<t3)における被写体21aの相対位置を算出し、その相対位置が示す方向にカメラを向け、被写体の捕捉を実行する。
図22は、高速に移動する被写体を撮影するときにスコープが実行する被写体位置通知処理(図3のステップD)の手順を示している。以下、図22を参照しながら、被写体位置通知処理の詳細な手順を説明する。
まず、操作者によってスコープが被写体へ向けられ、被写体にフォーカスが合わされる(ステップD120)。制御部202は、このときの測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見た被写体の相対位置(座標)を算出し、被写体の相対位置情報を生成する(ステップD121)。
演算部214は被写体の相対位置情報を制御部202へ出力する。制御部202は被写体の相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへその相対位置情報を送信するように送信部215を制御する(ステップD122)。この後、相対位置情報を受信したことを示す受信通知情報がカメラから受信されなかった場合(ステップD123でNOの場合)には、被写体の相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップD120に戻る。
また、相対位置情報を受信したことを示す受信通知情報がカメラから受信された場合(ステップD123でYESの場合)には、制御部202は、被写体の相対位置情報を連続して送信するか否かを判断する(ステップD124)。被写体の相対位置情報を連続して送信する場合、操作者がスコープを被写体へ向けながら操作部203を操作し、相対位置情報の送信指示を入力する。ステップD124において制御部202は、操作部203から出力される信号に基づいて、相対位置情報を連続して送信するか否かを判断する。
相対位置情報の送信指示が入力されなかった場合には、制御部202は被写体の相対位置情報を連続して送信するか否かを再度判断する(ステップD124)。ステップD123からステップD124に処理が移行してから所定時間以内においては、相対位置情報の送信指示が入力されなければ、ステップD124の処理が繰り返し実行される。また、ステップD123からステップD124に処理が移行してから所定時間以内において相対位置情報の送信指示が入力された場合には、処理がステップD125に移行する。また、図示していないが、ステップD123からステップD124に処理が移行してから、相対位置情報の送信指示が入力されることなく所定時間が経過し、タイムアウトとなった場合には、被写体位置通知処理が終了する。
相対位置情報の送信指示が入力されたことにより、相対位置情報を連続して送信すると判断した場合、制御部202は、このときの測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見た被写体の相対位置(座標)を算出し、被写体の相対位置情報を生成する(ステップD125)。
演算部214は被写体の相対位置情報を制御部202へ出力する。制御部202は被写体の相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへその相対位置情報を送信するように送信部215を制御する(ステップD126)。この後、相対位置情報を連続して受信したことを示す受信通知情報がカメラから受信された場合(ステップD127でYESの場合)には、被写体位置通知処理が終了する。また、カメラから受信通知情報が受信されなかった場合(ステップD127でNOの場合)には、被写体の相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップD125に戻る。
スコープから最初の相対位置情報が送信されると、カメラの受信部109はその相対位置情報を受信し、制御部107へ出力する。制御部107は、被写体の相対位置情報が受信されたことから、被写体捕捉処理を実行すべきであると判断し(図4のステップJ)、被写体捕捉処理を実行する(ステップK)。なお、スコープから相対位置情報が受信されたときに、カメラは、相対位置情報を受信したことを示す受信通知をスコープへ送信する。また、受信された被写体の相対位置情報は、制御部107によって記憶部106に格納される。図23は、カメラが実行する被写体捕捉処理の手順を示している。以下、図23を参照しながら、被写体捕捉処理の詳細な手順を説明する。まず、制御部107は、カメラが高速追尾状態であるか否かを判断する(ステップK120)。
最初の相対位置情報を受信した直後のカメラは通常追尾状態である。カメラが通常追尾状態であった場合、制御部107は、スコープから受信された被写体の相対位置情報(前述したベクトルV4の情報)を記憶部106に格納すると共に演算部113へ出力する。また、制御部107は、スコープから見たカメラの相対位置情報(前述したベクトルV3の情報)と演算式Fの情報を記憶部106から読み出し、演算部113へ出力する。演算部113は、前述した(1)式に従って、カメラから見た被写体の相対位置情報(前述したベクトルV5’の情報)を算出し、制御部107へ出力する。制御部107は、カメラから見た被写体の相対位置情報を雲台制御部114へ出力する。雲台制御部114は、カメラから見た被写体の相対位置情報に基づいて、カメラが被写体を向くように、カメラの向きを制御する(ステップK123)。
続いて、制御部107は、被写体の相対位置情報を連続して受信するか否かを判断する(ステップK124)。被写体の相対位置情報を受信してから所定時間以内に被写体の相対位置情報を再度受信した場合、カメラは、相対位置情報を連続して受信したことを示す受信通知情報をスコープへ送信し(ステップK125)、高速追尾状態に遷移する(ステップK126)。続いて、処理はステップK120に戻る。なお、ステップK123の処理の途中で被写体の相対位置情報を再度受信した場合には、ステップK123の処理を中断するようにしてもよい。
ステップK120において、カメラが高速追尾状態であると判断した場合、制御部107は、スコープから受信した2つの時刻での被写体の相対位置情報を記憶部106から読み出し、演算部113へ出力する。演算部113は過去の2つの時刻での被写体の相対位置情報から所定時刻での被写体の予測位置を算出する(ステップK122)。続いて、カメラは撮影可能状態に遷移する(ステップK123)。
続いて、制御部107は、スコープから見たカメラの相対位置情報と演算式Fの情報を記憶部106から読み出し、演算部113へ出力する。演算部113は、ステップK123で算出した被写体の予測位置(前述したベクトルV4の情報)と、スコープから見たカメラの相対位置情報(前述したベクトルV3の情報)とを用いて、前述した(1)式に従って、カメラから見た被写体の相対位置情報(前述したベクトルV5’の情報)を算出し、制御部107へ出力する。制御部107は、カメラから見た被写体の相対位置情報を雲台制御部114へ出力する。雲台制御部114は、カメラから見た被写体の相対位置情報に基づいて、カメラが被写体を向くように、カメラの向きを制御する(ステップK123)。続いて、前述したステップK124に処理が移行する。
一方、被写体の相対位置情報を受信してから被写体の相対位置情報を再度受信する前に所定時間が経過した場合(ステップK124でNOの場合)、制御部107は、カメラから見た被写体の相対位置情報に基づいてレンズ101のフォーカスを調整する。制御部107は、被写体の相対位置情報が示す位置にレンズ101のフォーカスを合わせることができるか否かによって、被写体が捕捉できたか否かを判断する(ステップK125)。
レンズ101のフォーカスを合わせることができた場合には、カメラが撮影可能状態に遷移し(ステップK126)、被写体捕捉処理が終了する。また、レンズ101のフォーカスを合わせることができなかった場合には、カメラが撮影不能状態および通常追尾状態に遷移し(ステップK127〜K128)、被写体捕捉処理が終了する。
シャッタチャンスを逃さないようにするため、上述した被写体の捕捉を行った後、自動的に撮影を開始してもよい。また、上記では、被写体が等速直線運動をしているという前提で、2つの時刻で取得した相対位置情報から被写体の予測位置を算出しているが、3つ以上の時刻で取得した相対位置情報から加速中の被写体の予測位置を算出してもよい。
また、上記では、被写体の相対位置情報の送信間隔の長さに基づいて、高速被写体の捕捉を行うか否かを決定しているが、高速被写体の捕捉を行うか否かをカメラに通知するための専用のボタンをスコープに設けておき、そのボタンが操作された場合に、高速被写体の捕捉を行うことを通知する情報をスコープがカメラに送信してもよい。あるいは、通常操作と兼用するボタンに対して特殊な操作(ダブルクリックや長押し等)を割り当てておき、ボタンに対して特殊な操作がなされた場合に、高速被写体の捕捉を行うことを通知する情報をスコープがカメラに送信してもよい。
次に、カメラが捕捉している被写体を操作者がスコープ上で確認する方法を説明する。図24は、スコープの表示部210に表示される画像を示している。画像240の中心にはマーカ241aが表示されている。マーカ241aと重なっている被写体242は、操作者が撮影対象としたい被写体である。図24(a)に示すように、撮影対象の被写体242の近くに別の被写体243があった場合、カメラは被写体243を撮影対象の被写体と認識して捕捉および追尾する可能性がある。そこで、本実施形態では、カメラが捕捉および追尾している被写体を操作者がスコープ上で確認することが可能となっている。図24(b)に示すように、カメラが捕捉および追尾している被写体243に重ねてマーカ241bが表示される。
このため、カメラは自身が捕捉および追尾している被写体の相対位置情報を含む処理結果情報を図4のステップP(処理結果送信処理)でスコープへ送信する。また、スコープは、処理結果情報に含まれる被写体の相対位置情報が示す被写体を図3のステップH(処理結果表示処理)で表示する。図25は、カメラが実行する処理結果送信処理の手順を示している。以下、図25を参照しながら、処理結果送信処理の詳細な手順を説明する。
まず、制御部107は、カメラから見たスコープの相対位置情報(前述したベクトルV3’と逆向きのベクトル−V3’の情報)と変換式Fの情報を記憶部106から読み出し、演算部113へ出力する。演算部113は、変換式Fの逆関数F−1により、カメラから見たスコープの相対位置情報を、スコープから見たカメラの相対位置情報(前述したベクトルV3の情報)に逆変換する(ステップP100)。
演算部113は、スコープから見たカメラの相対位置情報を制御部107へ出力する。制御部107は、初期化処理や、被写体捕捉処理、撮影処理等の処理結果と上記の相対位置情報を含む処理結果情報を送信部115へ出力し、スコープへ処理結果情報を送信するように送信部115を制御する(ステップP101)。以上の処理により、処理結果送信処理が終了する。
図26は、スコープが実行する処理結果表示処理の手順を示している。以下、図26を参照しながら、処理結果表示処理の詳細な手順を説明する。まず、制御部202は、カメラから処理結果情報を受信したか否かを判断する(ステップH100)。カメラから処理結果情報を受信していない場合には、制御部202は、カメラから処理結果情報を受信したか否かを再度判断する。カメラから処理結果情報が受信されなければ、ステップH100の処理が繰り返し実行される。
また、カメラから処理結果情報を受信した場合には、制御部202は、処理結果情報に含まれるカメラの相対位置情報を演算部214へ出力する。また、制御部202は、スコープから見た被写体の相対位置情報を記憶部201から読み出し、演算部214へ出力する。演算部214は、これらの相対位置情報に基づいて、カメラが捕捉および追尾している被写体の位置を示すマーカの表示位置を算出し、その情報を制御部202へ出力する。制御部202は重畳画像生成部208を制御し、処理結果を示す文字や上記のマーカ等の付加情報を表示するためのCG画像データを生成させる(ステップH101)。
続いて、制御部202は、演算部214によって算出されたマーカの表示位置に基づいて画像合成部209を制御し、画像内の所望の位置にマーカが表示されるように合成画像データを生成させる(ステップH102)。制御部202は、合成画像データに基づく画像を表示するように表示部210を制御する(ステップH103)。以上の処理により、処理結果表示処理が終了する。
以下、図27を参照しながら、スコープの表示部210に表示されるマーカの表示位置を算出する方法を説明する。図27において、ベクトルVbは、カメラが捕捉している被写体271の相対位置を示すベクトルである。ベクトルVbの情報はカメラから受信される。ベクトルVcは、操作者270(スコープ)から見た被写体の相対位置を示すベクトルである。撮像画像に重畳されるマーカは、操作者(スコープ)が現在見ている方向を法線ベクトルに持つ平面上に描かれると考えられる。求めるベクトルは、ベクトルVbをこの平面に投影させたベクトルVdである。このベクトルVdを、定数kを用いて以下の(2)式のように表す。
Vd=k×Vb−Vc ・・・(2)
Vd=k×Vb−Vc ・・・(2)
(2)式より、ベクトルVbは以下の(3)式のように表される。
(2)式からベクトルVbとVcの内積Vb・Vcは以下の(4)式のように表され、(4)式からkは以下の(5)式のように表される。
上記の(2)式と(5)式から、ベクトルVdは以下の(6)式のように表される。
次に、スコープとカメラが実行する調整処理を説明する。操作者は撮影中に動くことが考えられる。図28に示すように、初期化処理時に位置280aにいた操作者280が、撮影しながら位置280bに移動するものとする。初期化処理時にカメラ281は、ベクトルV3aが示す相対位置情報をスコープから受信する。続いて、スコープが撮影対象の被写体282の相対位置情報をカメラ281へ送信すると、カメラ281は、被写体282の位置が実際の位置282aとは異なる位置282bであると認識してしまう。
この場合、カメラは、位置282bにある被写体を捕捉および追尾する。図29は、上記の場合にスコープの表示部210に表示される画像を示している。前述した処理結果送信処理によりカメラから送信された被写体の相対位置情報に基づいて、マーカ291が画像290に重ねて表示される。図28のように操作者が移動する場合、図29(a)に示すように、マーカ291が撮影対象の被写体292に重なっており、カメラが、図28の位置282aに相当する位置にいる被写体292を捕捉および追尾しているように見える。しかし、実際にはカメラは、図28の位置282bに相当する位置にいる被写体293を捕捉および追尾しているため、図29(b)に示すように、被写体の293の動きに合わせて、被写体292の動きと無関係にマーカ291が動くことになる。このように、カメラが所望の被写体を捕捉していない場合、スコープは、図28のベクトルV3bが示す相対位置情報を再度カメラへ送信する必要がある。この相対位置情報の送信および受信に係る処理が調整処理としてスコープおよびカメラで実行される。
図30は、スコープが実行する調整処理(図3のステップF)の手順を示している。以下、図30を参照しながら、調整処理の詳細な手順を説明する。まず、スコープをカメラへ向けることを促すようなメッセージ等が表示部210に表示される。表示部210の表示を確認した操作者によってスコープがカメラへ向けられ、カメラにフォーカスが合わせられる(ステップF100)。制御部202は、測距センサ212およびジャイロセンサ213の検出結果を演算部214へ出力する。演算部214は、スコープから見たカメラの相対位置(座標)を算出し、カメラの相対位置情報を生成する(ステップF101)。
演算部214はカメラの相対位置情報を制御部202へ出力する。制御部202はカメラの相対位置情報を記憶部201に格納すると共に送信部215へ出力し、カメラへその相対位置情報を送信するように送信部215を制御する(ステップF102)。この後、調整処理が完了したことを示す調整完了通知情報がカメラから受信された場合(ステップF103でYESの場合)には、調整処理が終了する。また、カメラから調整完了通知情報が受信されなかった場合(ステップF103でNOの場合)には、カメラの相対位置情報を再取得する旨のメッセージ等が表示部210に表示され、処理がステップF100に戻る。
スコープからカメラの相対位置情報が送信されると、カメラの受信部109はカメラの相対位置情報を受信し、制御部107へ出力する。制御部107は、カメラの相対位置情報が受信されたことから、調整処理を実行すべきであると判断し(図4のステップJ)、調整処理を実行する(ステップN)。図31は、カメラが実行する調整処理の手順を示している。以下、図31を参照しながら、調整処理の詳細な手順を説明する。
まず、制御部107は、受信部109から出力されたカメラの相対位置情報を記憶部106に格納すると共に演算部113へ出力する。また、制御部107は、変換式Fの計算に必要な相対位置情報を記憶部106から読み出して演算部113へ出力する。演算部113は、上記の相対位置情報に基づいて、前述した変換式Fを再度算出する(ステップN100)。変換式Fの計算方法は、前述した2つの方法のどちらでもよい。演算部113によって算出された変換式Fの情報は制御部107へ出力され、制御部107によって記憶部106に格納される。これ以降、変換式Fの情報は適宜記憶部106から読み出されて演算部113へ出力される。調整処理が完了したことを通知する調整完了通知情報をカメラがスコープへ送信する(ステップN101)と、調整処理が終了する。
次に、被写体の捕捉および追尾と撮影の例を説明する。図32〜図35は、スコープの表示部210に表示される画像を示している。図32(a)は、操作者が撮影対象の被写体へスコープを向けたときの画像を示している。画像320の中心のマーカ321は撮影対象の被写体322に重なっている。図32(b)は、被写体の相対位置情報をスコープがカメラへ送信したときの画像を示している。画像320上のメニュー画面323には、相対位置情報を送信している旨のメッセージが表示される。図32(c)は、スコープがカメラからの処理結果情報を受信したときの画像を示している。画像320上には、カメラが認識している被写体を示すマーカ324が表示される。この時点では、スコープが認識している被写体とカメラが認識している被写体は一致している。
図33(a)では、カメラが認識している被写体を示すマーカ331が撮影対象の被写体330からずれている。マーカ331のそばには別の被写体332があり、カメラはこの被写体332を捕捉している。被写体の捕捉が何度か連続して失敗している場合、調整処理が必要であり、操作者の判断により、調整処理が開始される。図33(b)に示すように、調整処理を開始するため、操作者がメニュー画面333上で調整処理を選択する。続いて、操作者がスコープをカメラへ向け、スコープはカメラの相対位置情報をカメラへ送信する。図33(c)はこのときの画像を示しており、画像334の中心のマーカ335はカメラ336に重なっている。
調整処理が完了すると、カメラは調整完了通知をスコープへ送信する。図34(a)は、カメラからの調整完了通知を受信したときの画像を示している。画像340上のメニュー画面341には、調整完了通知を受信した旨のメッセージが表示される。続いて、操作者が撮影対象の被写体へスコープを向け、スコープは検出した被写体の相対位置情報をカメラへ送信する。図34(b)はこのときの画像を示しており、画像340の中心のマーカ342は被写体343に重なっている。図34(c)は、スコープがカメラからの処理結果情報を受信したときの画像を示している。画像340上には、カメラが認識している被写体を示すマーカ344が表示される。マーカ344は撮影対象の被写体343に重なっており、被写体343がカメラによって正常に捕捉されていることが分かる。
図35(a)では、被写体が固定物350の後ろに移動したため、スコープからは見えていない。しかし、マーカ351の位置から、カメラが被写体を正常に捕捉していることが分かる。この状態で、操作者が撮影を指示する。図35(b)は、撮影が終了したときの画像である。メニュー画面352には、撮影を完了した旨のメッセージが表示される。
次に、被写体の捕捉の他の例を説明する。図36〜図37は、スコープの表示部210に表示される画像を示している。図36(a)は、操作者が撮影対象の被写体へスコープを向けたときの画像を示している。画像360の中心のマーカ361は撮影対象の被写体362に重なっている。図36(b)は、被写体の相対位置情報をスコープがカメラへ送信したときの画像を示している。画像360上のメニュー画面363には、相対位置情報を送信している旨のメッセージが表示される。図36(c)は、スコープがカメラからの処理結果情報を受信したときの画像を示している。画像360上には、カメラが認識している被写体を示すマーカ364が表示される。撮影対象の被写体362のそばに別の被写体365がいたため、カメラは撮影対象の被写体362とは異なる被写体365を認識している。
図37(a)では、撮影対象の被写体370とは異なる被写体371が移動し、その移動に伴って、カメラが認識している被写体を示すマーカ372も移動している。このことから、撮影対象の被写体をカメラに通知する必要がある。このため、操作者がスコープを撮影対象の被写体へ向け、スコープは被写体の相対位置情報をカメラへ送信する。図37(b)はこのときの画像を示しており、画像373の中心のマーカ374は撮影対象の被写体370に重なっている。図37(c)は、スコープがカメラからの処理結果情報を受信したときの画像を示している。カメラが認識している被写体を示すマーカ372は撮影対象の被写体370に重ねて表示される。
次に、本実施形態の変形例を説明する。図38はスコープの構成を示している。図38において、図2に示した構成と同一の構成には同一の符号を付与している。ID記憶部216は、各スコープを識別するIDを記憶する。複数台のスコープが存在する場合に、ID記憶部216が記憶するIDによって、各スコープからの情報が識別される。また、液晶ディスプレイ217は透過型のディスプレイであり、重畳画像生成部208によって生成されたCG画像と、レンズ218を透過した光学像とを合成する。これによって、撮像に係る構成が必要なく、スコープがより安価となる。
初期化処理を実行する際に制御部202は、ID記憶部216が記憶するIDを含む操作要求情報をカメラへ送信するように送信部215を制御する。カメラの受信部109は操作要求情報を受信し、制御部107へ出力する。制御部107は、カメラが使用可能であるか否かを判断し、使用可能であった場合には、操作要求情報に含まれるIDを記憶部106に格納し、遠隔操作の許可を示す操作許可情報をスコープへ送信するように送信部115を制御する。記憶部106に既に他のスコープのIDが格納されていた場合には、制御部107は、カメラが使用不可能であると判断する。
カメラから操作許可情報が送信されると、スコープの受信部204は操作許可情報を受信し、制御部202へ出力する。制御部202は、操作許可情報が受信されたことから、カメラの遠隔操作が許可されたと判断し、前述した初期化処理を実行する。これ以降、カメラは、記憶部106に格納されているIDと異なるIDを含む情報をスコープから受信しても、その情報を処理せず、記憶部106に格納されているIDと同一のIDを含む情報をスコープから受信した場合のみ、その情報を処理する。これによって、カメラとスコープが複数台存在している場合でも、カメラを遠隔操作するために各スコープがカメラへ送信する情報がカメラ毎に識別される。
上述したように、本実施形態による撮像システムでは、カメラが、スコープから見た被写体の相対位置情報を、変換式Fにより、カメラから見た被写体の相対位置情報に変換し、変換後の相対位置情報に基づいてカメラの向きを制御する。したがって、スコープとカメラの座標系を共通にする必要がなく、被写体の位置を演算するためのカメラの演算量を低減することができる。よって、カメラ内部の回路規模やコストを低減することができる。また、スコープとカメラの間で相対位置情報の送受信を行うことにより、情報量の少ない通信が可能となり、消費電力を低減すると共に応答性を向上することができる。
また、追尾処理の実行により、カメラが被写体を追尾できている間は被写体の撮像が可能となる。したがって、操作者が被写体を見失った場合でも、カメラが被写体を追尾できていれば、被写体を撮影することができる。
また、カメラが、複数時刻で得られた被写体の相対位置情報に基づいて所定時刻における被写体の予測位置を算出し、その予測位置に基づいてカメラの向きを制御することによって、被写体が高速に移動している場合でも、被写体を捕捉および追尾することができる。
以上、図面を参照して本発明の実施形態について詳述してきたが、具体的な構成は上記の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
101,110,205,211,218・・・レンズ、102,206・・・撮像部、103,207・・・画像処理部、104,210・・・表示部、105・・・画像記録部、106,201・・・記憶部、107,202・・・制御部、108,203・・・操作部、109,204・・・受信部、111,212・・・測距センサ、112,213・・・ジャイロセンサ、113,214・・・演算部、114・・・雲台制御部、115,215・・・送信部、216・・・ID記憶部、217・・・液晶ディスプレイ
Claims (6)
- カメラと、前記カメラを遠隔操作するための操作装置とを備えた撮像システムであって、
前記操作装置は、
前記カメラと通信する第1の通信部と、
前記操作装置から見た物体の相対位置を検出する第1の相対位置検出部と、
前記第1の相対位置検出部の検出結果に基づく相対位置情報を前記カメラへ送信するように前記第1の通信部を制御する制御部とを有し、
前記カメラは、
前記操作装置と通信する第2の通信部と、
前記カメラから見た物体の相対位置を検出する第2の相対位置検出部と、
前記第2の通信部によって受信された相対位置情報と、前記第2の相対位置検出部の検出結果に基づく相対位置情報とに基づいて変換式を算出する変換式算出部と、
前記操作装置から見た被写体の相対位置情報を、前記変換式により、前記カメラから見た前記被写体の相対位置情報に変換する被写体位置演算部と、
前記操作装置から相対位置情報を受信するように前記第2の通信部を制御し、前記カメラから見た前記被写体の相対位置情報に基づいて前記カメラの向きを制御する第2の制御部とを有する
ことを特徴とする撮像システム。 - 前記変換式算出部は、前記操作装置から見た特定物の相対位置情報と、前記操作装置から見た前記カメラの相対位置情報と、前記カメラから見た前記特定物の相対位置情報とに基づいて前記変換式を算出することを特徴とする請求項1に記載の撮像システム。
- 前記変換式算出部は、前記操作装置から見た前記カメラの相対位置情報と、前記カメラから見た前記操作装置の相対位置情報とに基づいて前記変換式を算出することを特徴とする請求項1に記載の撮像システム。
- 前記カメラはさらに、前記被写体を撮像して得られた画像データに基づいて前記被写体を追尾する追尾部を有し、前記追尾部が前記被写体を追尾することが可能な間は前記被写体の撮像が可能であることを特徴とする請求項1〜請求項3のいずれかに記載の撮像システム。
- 前記被写体位置演算部はさらに、前記カメラから見た前記被写体の複数時刻での相対位置情報に基づいて、所定時刻における前記被写体の予測位置を算出し、
前記第2の制御部はさらに、前記被写体の予測位置に基づいて前記カメラの向きを制御する
ことを特徴とする請求項1〜請求項4のいずれかに記載の撮像システム。 - 前記操作装置はさらに、前記カメラが捕捉している被写体を示す付加情報と前記被写体の像とを表示する表示部を有し、
前記被写体位置演算部はさらに、前記カメラから見た前記被写体の相対位置情報を、前記変換式に基づいて、前記操作装置から見た前記被写体の相対位置情報に逆変換し、
前記第2の制御部はさらに、逆変換された前記被写体の相対位置情報を前記操作装置へ送信するように前記第2の通信部を制御し、
前記第1の制御部はさらに、逆変換された前記被写体の相対位置情報を前記カメラから受信するように前記第1の通信部を制御し、逆変換された前記被写体の相対位置情報に基づいて、前記付加情報の表示を制御する
ことを特徴とする請求項1〜請求項5のいずれかに記載の撮像システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247180A JP2009081495A (ja) | 2007-09-25 | 2007-09-25 | 撮像システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247180A JP2009081495A (ja) | 2007-09-25 | 2007-09-25 | 撮像システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009081495A true JP2009081495A (ja) | 2009-04-16 |
Family
ID=40655955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007247180A Withdrawn JP2009081495A (ja) | 2007-09-25 | 2007-09-25 | 撮像システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009081495A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014110577A (ja) * | 2012-12-04 | 2014-06-12 | Hitachi Kokusai Electric Inc | 無線伝送システム |
-
2007
- 2007-09-25 JP JP2007247180A patent/JP2009081495A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014110577A (ja) * | 2012-12-04 | 2014-06-12 | Hitachi Kokusai Electric Inc | 無線伝送システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9832362B2 (en) | Image-capturing apparatus | |
JP5591006B2 (ja) | 自動追尾カメラシステムの制御装置及びそれを有する自動追尾カメラシステム | |
US9531938B2 (en) | Image-capturing apparatus | |
JP4697810B2 (ja) | 自動追尾装置及び自動追尾方法 | |
JP4861057B2 (ja) | 撮像装置およびその制御方法 | |
US8310652B2 (en) | Image taking system and lens apparatus | |
JP4843002B2 (ja) | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム | |
JP5230013B2 (ja) | 撮像装置 | |
JP2007274530A (ja) | 監視カメラ装置 | |
JP2007081754A (ja) | カメラ雲台装置 | |
JP2011091546A (ja) | 侵入物検知システム | |
CN110475060B (zh) | 控制设备和控制方法 | |
JP2001223932A (ja) | 撮像装置及びデジタルカメラ | |
JPH05344403A (ja) | 撮像装置 | |
JP2019198043A (ja) | 制御装置、制御方法及びプログラム | |
US9420161B2 (en) | Image-capturing apparatus | |
JP2015154409A (ja) | 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体 | |
JP2009081495A (ja) | 撮像システム | |
JP6494060B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101452372B1 (ko) | 카메라 제어 방법 및 그 시스템 | |
JP6494059B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2015126402A (ja) | ロボットカメラ制御装置、そのプログラム及び多視点ロボットカメラシステム | |
JP2009063721A (ja) | 撮影機能付き携帯機器 | |
JP2008294954A (ja) | カメラシステム及び遠隔操作装置 | |
JP2003097914A (ja) | 位置検出装置及び位置検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20101207 |