JP4124682B2 - Camera control device - Google Patents

Camera control device Download PDF

Info

Publication number
JP4124682B2
JP4124682B2 JP2003077591A JP2003077591A JP4124682B2 JP 4124682 B2 JP4124682 B2 JP 4124682B2 JP 2003077591 A JP2003077591 A JP 2003077591A JP 2003077591 A JP2003077591 A JP 2003077591A JP 4124682 B2 JP4124682 B2 JP 4124682B2
Authority
JP
Japan
Prior art keywords
camera
model
subject
movement
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003077591A
Other languages
Japanese (ja)
Other versions
JP2004289379A (en
Inventor
大一郎 加藤
貴夫 須川
豊 岩井
敏明 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2003077591A priority Critical patent/JP4124682B2/en
Publication of JP2004289379A publication Critical patent/JP2004289379A/en
Application granted granted Critical
Publication of JP4124682B2 publication Critical patent/JP4124682B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、テレビジョン番組の制作、映画の制作、遠隔テレビ会議等における自動撮影カメラの操作装置に係わり、特にクレーンカメラ、モーションコントロールカメラなどのロボットカメラの操作装置に関する。
【0002】
【従来の技術】
従来、モーションコントロールカメラ、クレーンカメラ等のロボットカメラでは、表現力に富んだ画像を得るために、ジョイスティックや特殊な操作機、あるいはパソコンのキーボードなどを用いて被写体に対するカメラの動きを自動制御または遠隔制御し、被写体に対して撮影角度、距離、位置等を自在に変えるカメラワークが行われている。また、モーションコントロールカメラでは、予め所望のカメラワークが得られるようにカメラを操作するプログラムを作成しておき、このプログラムに基づいてカメラが操作される。
【0003】
また、特殊な例では、英国Mark Roberts社のモーションコントロールカメラMILOという製品があり、この装置に付属するソフトではパ−ソナルコンピュータ(以下、「パソコン」という)を用いてコンピュータグラフィックス(以下、単に「CG」という)によってカメラワークをシミュレーションできる(非特許文献1参照)。このモーションコントロールカメラによれば、例えば、A点からB点まで直線で移動し、さらにB点からC点まで円弧上に移動する等、パソコンのモニター画面上で仮想的にモーションコントロールカメラを動かし、その動きの結果、モーションコントロールカメラによって撮影されるであろう画像をCGで作成し、その画像を見ながらカメラワークを検討できる。
【0004】
【非特許文献1】
株式会社IMAGICA 特撮グループ MC−MILOご紹介サイト「TECHNICAL INFORMATION〜技術情報」
<URL: http://www.imagica.co.jp/ve/sfx/index.html#techinfo>
【0005】
【発明が解決しようとする課題】
しかし、従来のカメラ操作装置では、操作機実機として、被写体の位置を基準にしてカメラを操作できる装置は、未だ知られていない。従来のカメラ操作装置では、例えば、被写体を中心にして回り込んで撮影したり、被写体に向かってドリー・インまたはドリー・アウトしながら撮影するなど、被写体の位置を基準にカメラを移動させて撮影を行うことが多い。しかし、これまでのカメラ操作機では被写体の位置を基準にして被写体とカメラの相対位置を管理しながら撮影することが難しかった。特に、クレーンカメラのように長いアームの先にカメラ本体が装着されている場合、感覚的にカメラ本体の位置を捉えることが難しく、思うように操作できないというのが現状であった。
【0006】
また、撮影画像の背景をCGで後合成したり、繰り返し同じカメラワークで撮影しておき、後で画像の多重合成を行うなどの用途では、カメラがどのように動いたかのデータが必要であるだけでなく、そのデータに基づいて同じカメラワークで繰り返し動作できるロボットカメラ(モーションコントロールカメラ)が必要になる。
【0007】
このような用途では、カメラワークを予め決めておき、それから実際の撮影に入ることになるが、カメラワークを決める過程において、カメラの3次元位置と被写体の3次元位置を考慮した上で、具体的なカメラワークを決めなければならない。例えば、被写体を中心に2mの距離で回り込んで撮影を行い、後でCGを合成しようとした場合、従来のジョイスティック等のカメラ操作機を使った場合には、被写体とカメラの間の距離を正確に把握した上でカメラを操作して所望の撮影をすることが困難である。
【0008】
また、プログラム上でカメラの動く軌道を計算し、その計算結果に基づいてカメラを駆動する方法では、適切なプログラムを作成できれば所望のカメラワークを得ることができる。しかし、ロボットカメラを駆動する各軸の関節数が増えるほど計算が複雑になり、また解が必ずしも1つに定まらない。そのため、経験豊かなオペレータの作業が不可欠であり、プログラムの作成にも時間を要することになる。
【0009】
そこで、本発明の目的は、現実のロボットカメラの各種の動きを形成するために設けられている一連のアクチュエータを構成する各軸の長さや動きの自由度を意識せずに、誰でも容易に、簡単な操作で、被写体の位置を基準とした正確なカメラ操作を実現できるカメラ操作装置を提供することにある。
【0010】
【課題を解決するための手段】
かかる課題を解決するため、請求項1に係る発明は、被写体とこの被写体を撮影するロボットカメラとの間の相対位置に対応して、前記被写体と別個独立した仮想被写体に対向して配置される、任意にカメラ操作可能な模型カメラと、この模型カメラを保持して、カメラ操作される前記模型カメラの動きを検出するモデル動作検出手段と、前記モデル動作検出手段によって検出される前記模型カメラの動きに対応して、前記ロボットカメラが前記被写体に対してカメラ操作されるように前記ロボットカメラの動きを制御するロボットカメラ制御手段と、前記ロボットカメラによって撮影された画像を表示する画像表示手段とを備えるカメラ操作装置において、前記仮想被写体と前記模型カメラとの間の距離を検出する位置検出機構を備えることを特徴とする構成とする。
【0011】
このカメラ操作装置では、モデル動作検出手段によって、カメラ操作される模型カメラの動きが検出され、検出された模型カメラの動きに対応してロボットカメラ制御手段によってロボットカメラが被写体に対してカメラ操作され、カメラ操作されたロボットカメラによって撮影された画像が画像表示手段に表示されるとともに、仮想被写体と模型カメラとの間の位置関係が位置検出機構により検出される。
【0014】
請求項に係る発明は、請求項1に記載のカメラ操作装置において、前記位置検出機構が、前記仮想被写体と前記模型カメラとの間に張架されたテンションワイヤーであることを特徴とする。
【0015】
この構成によれば、仮想被写体と模型カメラの間の距離が、両者の間に張架されたテンションワイヤによって検出される。
【0016】
請求項に係る発明は、請求項に記載のカメラ操作装置において、前記位置検出機構が非接触式位置検出機構であり、前記仮想被写体と前記模型カメラとが予め設定された相対位置に保持されるように前記模型カメラのカメラ操作の動きに操作反力を加えるフォースフィードバック機構を備えることを特徴とする。
【0017】
このカメラ操作装置では、非接触式位置検出機構によって仮想被写体と模型カメラの相対位置が検出され、検出された相対位置に基づいてフォースフィードバック機構により、操作者に操作反力が負荷される。
【0018】
請求項に係る発明は、請求項1ないし請求項のいずれかに記載のカメラ操作装置において、前記モデル動作検出手段が、前記模型カメラの動きを検出する各動作軸に衝撃緩衝装置を備え、当該衝撃緩衝装置によって前記仮想被写体と前記模型カメラとが予め設定された相対位置に保持されるように前記各動作軸に機械的な操作反力を負荷するようにしたことを特徴とする。
【0019】
このカメラ操作装置では、模型カメラの動きを検出する各動作軸に設けられた衝撃緩衝装置によって、模型カメラの動きに機械的な操作反力が負荷される。
【0020】
請求項に係る発明は、請求項1ないし請求項のいずれかに記載のカメラ操作装置において、前記モデル動作検出手段またはロボットカメラ制御手段が、模型カメラの動きを検出して前記モデル動作検出手段から出力される動作検出信号から前記模型カメラの動きの乱れに基づく誤差成分を除いて補正する信号補正手段を備えることを特徴とする。
【0021】
このカメラ操作装置では、モデル動作検出手段またはロボットカメラ制御手段が備える信号補正手段によって、模型カメラの動きの乱れに基づく誤差成分を除いて補正された信号がロボットカメラの各駆動軸に出力される。
【0022】
請求項に係る発明は、請求項1ないし請求項のいずれかに記載のカメラ操作装置において、前記模型カメラが、前記仮想被写体を撮影可能なカメラであることを特徴とする。
【0023】
このカメラ操作装置によれば、仮想被写体を模型カメラによって撮影し、ロボットカメラによって撮影された画像とともに、模型カメラによって撮影された画像が画像表示手段によって表示できる。
【0024】
請求項に係る発明は、請求項1ないし請求項のいずれかに記載のカメラ操作装置において、前記模型カメラと、前記モデル動作検出手段とが一体的に構成され、前記ロボットカメラに相似形に形成されていることを特徴とする。
【0025】
このカメラ操作装置では、模型カメラがモデル動作検出手段と一体となって前記ロボットカメラに相似形に形成され、その模型カメラを操作する操作者によって、模型カメラに連動するロボットカメラの動きが容易に把握される。
【0028】
【発明の実施の形態】
以下、図1〜6に示す本発明のカメラ操作装置に係る実施形態に基づいて、本発明を説明する。なお、各図において、同一の部材、部分、部位には同一の符合を付した。
【0029】
図1は本発明の第1の実施形態に係るカメラ操作装置を示す模式図である。
図1に示すカメラ操作装置は、ロボットカメラ2と、操作者3の前に配置された仮想被写体4と、模型カメラ5と、モデル動作検出装置6と、ロボットカメラ制御装置7と、モニター(画像表示手段)8とから構成される。
【0030】
ロボットカメラ2は、被写体1に対向して配置され、その被写体1を実際に撮影できるように構成される。このロボットカメラ2は、被写体1を撮影する撮影レンズ、撮影された画像を画像信号として出力するための撮像素子等を備え、さらに、フォーカス、ズームの倍率等を制御する機構を備えるカメラ本体2aと、そのカメラ本体2aを保持して、カメラ角度、カメラ本体2aと被写体1との間の距離等を変えるためカメラ本体2aを動かすカメラ駆動装置2bとを備える。カメラ駆動装置2bは、カメラ本体2aを保持する支持腕部2b1、その支持腕部2b1を支持する支柱2b2、支柱2b2を載架するとともに、車輪2b3を下部に備える移動台座2b4とから構成されるものである。このロボットカメラ2の具体例として、クレーンカメラ、モーションコントロールカメラ等の被写体に対する動きを自動制御または遠隔制御により操作可能で、被写体を撮影できるカメラ装置が挙げられる。
なお、「被写体」とは、ロボットカメラによって実際に撮影される対象をいう。
【0031】
このロボットカメラ2において、カメラ本体2aには、フォーカス、ズームの倍率等を調整するために撮影レンズの回転、前進または後退を行うための駆動軸が設けられている。さらに、カメラ駆動装置2bを構成する支持腕部2b1、支柱2b2、および移動台座2b4の各所には、カメラ本体を回転、前進、後退させる等の諸動作、さらにロボットカメラ2全体を移動させるために、駆動軸が設けられている。各駆動軸には、それぞれアクチュエータ(図示せず)が装着され、このアクチュエータを、ロボットカメラ制御装置7から出力される制御信号に応じて作動させて各駆動軸が駆動される。その各駆動軸の駆動により、カメラ本体2aにおけるフォーカス、ズームの倍率等の調整、カメラ駆動装置2bにおけるカメラ本体の回転、前進、後退、移動等の各動作が行われ、その各動作が複合して、所望のカメラワークが実現される。
【0032】
仮想被写体4は、被写体1とは別個独立に、操作者3の前に配置され、模型カメラ5によるカメラ操作の対象となるものであり、この仮想被写体4の位置を基準として模型カメラ5が操作される。この仮想被写体4は、被写体1と相似な形状を有するものでもよく、相似形を有するものでなくてもよい。特に、仮想被写体4を、被写体1をそのまま小型化した被写体1と同一の形状を有する相似形(ミニチュア)とすれば、模型カメラ5の操作に際して、操作者3によるカメラ操作およびその操作による効果を感覚的によりわかりやすく把握して、カメラワークの検討を行うことができるため、有用である。
【0033】
なお、「カメラを操作する」、「模型カメラを操作する」、または「カメラ操作」とは、被写体1または仮想被写体4に向けてカメラまたは模型カメラを動かす操作をいう。例えば、パン(横パン、縦パン)、スィッシュ、チルト、ロール、スルー、フォロー、スネーク、アーク、ドリー・イン、ドリー・アウト、トラックアップ、トラックバック、ズームイン、ズームアウト、フォーカスイン、フォーカスアウト等の各種のカメラワークを行うことをいう。また、「任意に」カメラ操作するとは、操作者の意図によって自由に操作することをいう。
【0034】
このとき、図2に示すように、仮想被写体4aを支柱4bの軸方向(図2中の矢印Aの方向)に昇降自在に装着して、仮想被写体4aの高さ位置を調節可能とすれば、仮想被写体4aを昇降させ、その仮想被写体4aに対して操作する模型カメラ5のカメラ角度を検討することができ、カメラワークの検討に有用である。
【0035】
模型カメラ5は、被写体1(図1参照)と別個独立に、前記被写体1とロボットカメラ2の間の相対位置に対応して、操作者3の前に配置された仮想被写体4(図2参照)に対向して配置される。この模型カメラ5は、図2に示すように、操作者3の手3aによって、仮想被写体4に対して操作され、回転、前進、後退、移動等の動作が、操作者3の意図に従ってなされるものである。
【0036】
この模型カメラ5は、ロボットカメラ2のカメラ本体2aと異なる形態を有するものでもよいし、同じ形態を有するものでもよい。特に、模型カメラ5が、カメラ本体2aの形状と相似の形状をなすもの、例えば、ロボットカメラ2のカメラ本体2aを小型化したものであると、模型カメラ5を操作する操作者3が、ロボットカメラ2のカメラ本体2aの動きと感覚的に一体化して模型カメラ5を操作することができ、カメラワークの確認、検討を感覚的に分かりやすく行うことができるため、好ましい。
【0037】
モデル動作検出装置6は、模型カメラ5を保持して、カメラ操作される模型カメラ5の動きを検出し、検出した模型カメラ5の動きに関する電気信号を出力する装置である。例えば、模型カメラ5の回転、前進、後退、移動等の各動きに応じて動く動作軸を有し、この動作軸の動きを検出することにより、模型カメラの動きを電気信号に変換して、その電気信号を信号伝送線6a(図1参照)を通じてロボットカメラ制御装置7に出力する装置である。
【0038】
このモデル動作検出装置6は、模型カメラ5の動きを検出し、その動きに関する信号を信号伝送線6aを通じてロボットカメラ制御装置7(図1参照)に出力できるものであれば、前記ロボットカメラ2のカメラ駆動装置2bと異なる形態を有するものでもよいし、同じ形態を有するものでもよい。特に、モデル動作検出装置6が、図1に示すように、ロボットカメラ2のカメラ駆動装置2bと同じ形態を有するものであることが好ましい。例えば、図2に示すように、模型カメラ5を保持する支持腕部6b1、その支持腕部6b1を支持する支柱6b2、支柱6b2を載架するとともに、移動するための車輪6b3を下部に備える移動台座6b4とを主要構成部材とし、これら各構成部材が、前記ロボットカメラ2のカメラ駆動装置2bの支持腕部2b1、支柱2b2、移動台座2b4とにそれぞれ対応して同一の形態および動きをするように構成すれば、有効である。すなわち、モデル動作検出装置6を構成する、支持腕部6b1、支柱6b2、移動台座6b4および移動台座6b4が有する車輪6b3の動き(回転、前進、後退、移動等の各動作)の動作軸が、前記ロボットカメラ2のカメラ駆動装置2bを構成する構成部材の各駆動軸と同じ動きをするように構成すれば、操作者3によって操作される模型カメラ5の動きとロボットカメラ2のカメラ駆動装置2bの動きとが、同等の自由度をもって連動することとなる。そのとき、モデル動作検出装置6の各構成部材の動きの動作軸の動きを、各動作軸に備えられたエンコーダにより検出すれば、操作者3によって操作される模型カメラ5の動き(回転、前進、後退、移動等の各動作)を正確に検出して、検出された動作軸の動きを検出信号としてロボットカメラ制御装置7に出力することができる。
【0039】
ロボットカメラ制御装置7は、モデル動作検出装置6によって検出される模型カメラ5の動きに対応して、ロボットカメラ2が被写体1に対してカメラ操作されるようにロボットカメラ2の動きを制御するものである。このロボットカメラ制御装置7は、例えば、模型カメラ5およびモデル動作検出装置6に設けられたエンコーダにより検出された各動作軸の動き(変位、変位速度等)に関する検出信号をモデル動作検出装置6から信号伝送線6a(図1参照)を通じて入力し、その検出信号に基づいて、ロボットカメラ2の各駆動軸の動きを制御する制御信号を信号伝送線7aを通じてロボットカメラ2に出力する装置である。
【0040】
モニター8(画像表示手段)は、図1に示すように、ロボットカメラ2によって撮影される被写体2の画像を表示し、表示された画像によって、操作者3が、カメラワークの確認、検討を行うためのものである。モニター8としては、例えば、CRTモニター、液晶モニター、プロジェクター等の各種の装置を用いることができる。
【0041】
次に、このカメラ操作装置を用いるカメラ操作方法について説明する。
図1に示すカメラ操作装置において、操作者3は、模型カメラ5を仮想被写体4に対して任意に操作し、操作される模型カメラ5の動きと連動して被写体1に対して操作されるロボットカメラ2が実際に撮影する被写体1の画像を、モニター8で確認することができる。このとき、模型カメラ5またはミニチュア操作装置(模型カメラ5およびモデル動作検出装置6)を動かすと、その動きに伴って、モデル動作検出装置6の各動作軸が動く。そして、各動作軸に装着されたエンコーダから各動作軸の動きに関する検出信号が出力され、信号伝送線6aを通じてロボットカメラ制御装置7に入力される。
【0042】
モデル動作検出装置6の各動作軸の動きに関する検出信号が入力されたロボットカメラ制御装置7は、モデル動作検出装置6の各動作軸に対応するロボットカメラ2の各駆動軸を駆動させる制御信号を信号伝送線7aを通じてロボットカメラ2に出力する。そして、制御信号が入力されたロボットカメラ2においては、その制御信号に基づいて、各駆動軸が駆動される。これによって、模型カメラ5の動きと連動してロボットカメラ2が被写体1に対して操作される。
【0043】
このロボットカメラ2によって実際に撮影された被写体1の画像は、ロボットカメラ2のカメラ本体2aに接続され、撮影された被写体1の画像に基づく信号を処理し、モニター8に画像を表示させる表示装置(図示せず)によってモニター8に表示される。操作者3は、モニター8に表示された画像を見ながら、自ら操作した模型カメラ5の操作に基づくカメラワークの結果をリアルタイムで確認、検討することができる。このとき、模型カメラ5の動きとロボットカメラ2の動きが1対1に対応している。
【0044】
また、図2に示すように、模型カメラ5と仮想被写体4aの間に、テンションワイヤー(引張り力に対する伸び率が小さい高強度の素材から成る線材)21(位置検出機構)が張架されていてもよい。このテンションワイヤー21によって、仮想被写体4aと模型カメラ5との間の距離を管理しながら模型カメラ5を操作することができる利点がある。ここで、テンションワイヤー21の長さを一定に保持し、その長さに仮想被写体4aと模型カメラ5との間の距離を固定して、模型カメラ5を仮想被写体4aを中心として円弧状に移動させれば、その模型カメラ5の動きに対応して被写体1を中心として正確な距離を保持しながらロボットカメラ2を円弧状に移動させるカメラワークを実現できる。これによって、被写体1とロボットカメラ2との間の距離(撮影距離)も管理することができ、被写体1の位置を基準としたカメラワークの検討に有効である。すなわち、テンションワイヤー21によって、模型カメラ5は、張力を負荷された状態にあるため、模型カメラ5を操作する操作者3の手3aに仮想被写体4と模型カメラ5の間の距離に比例した操作反力が負荷され、これにより、操作者3は、仮想被写体4の位置を基準として仮想被写体4と模型カメラ5との間の距離を感知しながら、模型カメラ5を操作することができる。なお、「操作反力」とは、模型カメラ等を操作する動きに対抗して、その動きと逆の方向に、操作者の手指等に提示される力をいう。
【0045】
さらに、テンションワイヤー21を模型カメラ5と仮想被写体4aの間に張架するとともに、テンションワイヤー21が、模型カメラ12の中に巻き込まれる構造となっていてもよい。このような構造によれば、モニター8により画像を確認して、適当な撮影距離が決まったら、図3に示すように、固定スイッチ31を押し、テンションワイヤー21の巻き込みを止め、テンションワイヤー21の長さを保持した状態で模型カメラ5を動かすことで、仮想被写体4の位置を基準とした模型カメラ5の動きを円弧状の動きに規制し、これに連動して、ロボットカメラ2における被写体1を中心とした円弧状のカメラワークを容易に実現することができる。このとき、テンションワイヤー21を支柱4bに回動自在に軸支すれば、支柱4bを軸中心とする模型カメラ5の円弧状のカメラ操作が容易となり、好ましい。また、仮想被写体4と模型カメラ5との間の距離(被写体1とロボットカメラ2の間の距離)の管理が不必要な場合は、テンションワイヤー21をはずして操作することが可能である。
【0046】
次に、本発明の第2の実施形態に係るカメラ操作装置について説明する。
第2の実施形態に係るカメラ操作装置は、被写体1に対向して配置され、その被写体1を実際に撮影するロボットカメラ2と、被写体1とは別個独立して操作者3の前に配置された仮想被写体4と、その仮想被写体4に対向して配置された模型カメラ5と、模型カメラ5を保持して、模型カメラ5の動きを検出するモデル動作検出装置6と、モデル動作検出装置6により検出された模型カメラ5の動きに基づいてロボットカメラ2の動きを制御するロボットカメラ制御装置7と、ロボットカメラ2によって撮影された画像を表示するモニター(画像表示手段)8とを主要構成要素とすることにおいては、前記第1の実施形態に係るカメラ操作装置と同様の構成を有する。したがって、これらの構成および動作において、前記第1の実施形態について既述した事項については、図示および説明を省略する。
【0047】
この第2の実施形態に係るカメラ操作装置は、非接触式位置検出機構とフォースフィードバック機構を備えるものである。
【0048】
非接触式位置検出機構とは、模型カメラ5に接触せずに、仮想被写体4に対する模型カメラ5の相対位置を検出できるものである。具体例としては、超音波センサー、赤外線センサー、ジャイロセンサー等を挙げることができる。図4に示すように、非接触式位置検出機構は、超音波発信器41と、超音波受信器42と、超音波発信器41および超音波受信器42にそれぞれ信号伝送線41aおよび42aによって接続された位置検出装置43とから構成される。
【0049】
この非接触式位置検出機構においては、位置検出器43から信号伝送線41aを通じて出力される発信信号に基づいて、超音波発信器41から超音波が発信される。発信された超音波は、超音波受信器42で受信される。受信された超音波の受信量、位相等に関する信号が超音波受信器から信号伝送線42aを通じて位置検出装置43に入力される。位置検出装置43においては、超音波受信器42から入力された受信超音波の受信量、位相等に関する信号に基づき、仮想被写体4および模型カメラ5のそれぞれの3次元座標位置がリアルタイムで計測され、仮想被写体4と模型カメラ5の間の相対位置が検出される。
【0050】
なお、本発明において、非接触式位置検出機構は、超音波センサーに限られず、光学センサー、赤外線センサー、ジャイロセンサー等のセンサーを代替として用いることができる。さらに、画像処理技術を用いる位置検出機構としてもよい。これによって模型カメラの位置を計測することも可能である。
【0051】
また、フォースフィードバック機構とは、検出された仮想被写体4と模型カメラ5との間の距離に応じて、模型カメラ5の操作抵抗を増減させ、仮想被写体4と模型カメラ5が所定の位置に保持されるように制御する装置またはシステムをいう。例えば、仮想被写体4と模型カメラ5との間の距離が予め設定された距離以上または以下に離れた場合には、模型カメラ5に装着したモータ等の駆動装置を作動させ、手に伝わる操作反力、振動等を増加させ、操作者の手に加わる操作抵抗を増加させ、仮想被写体と模型カメラとの間の距離が予め設定された距離に近づくときは、操作抵抗を減少させるように、模型カメラの動きを制御する機構をいう。より具体的には、模型カメラ5の回転、前進、後退等の各動きおよび位置を検知するセンサーと、このセンサーにより検知される模型カメラ5の動き、位置に基づいて、模型カメラ5を操作する操作者の手指に与えるべき操作反力の強さを演算する計算機と、計算機の演算により求められた操作反力の強さに応じて、駆動回路を介して駆動される電磁アクチュエータと、この電磁アクチュエータにより操作反力を生じる装置を備える機構、または電磁アクチュエータの代わりに、モデル操作装置に内蔵された振動素子を駆動し、計算機の演算結果に基づき瞬間的にオン/オフを行い、模型カメラまたはモデル操作装置に力覚提示を行う機構などの各種の機構が挙げられる。
【0052】
図4に示す第2の実施形態においては、フォースフィードバック機構は、フォースフィードバック制御装置44と、このフォースフィードバック制御装置44からモデル動作検出装置6に制御信号を伝送する信号伝送線44aと、模型カメラ5およびモデル動作検出装置6の各動作軸に装着されたアクチュエータ(図示せず)とから構成される。
【0053】
このフォースフィードバック機構においては、前記位置検出装置43から、信号伝送線43aを通じて、模型カメラ5と仮想被写体4との間の相対位置に関する信号が入力される。入力された信号に基づいて、フォースフィードバック制御装置44における演算処理により、模型カメラ5と仮想被写体4とが予め設定された相対位置に保持されるように、アクチュエータを作動させるための制御信号が信号伝送線44aを通じて出力される。そして、出力された制御信号により模型カメラおよびモデル動作検出装置6が備える各駆動軸に装着されたアクチュエータが作動し、操作者3の手指にトルク、振動等の力覚によって操作反力が提示される。これによって、操作者3は操作反力を感じながら模型カメラ5を正確に操作することができ、仮想被写体4と模型カメラ5とが予め設定された相対位置に保持される。
【0054】
この第2の実施形態に係るカメラ操作装置は、非接触式位置検出機構により検出された仮想被写体4と模型カメラ5の間の相対位置に基づき、フォースフィードバック機構により、予め設定した相対位置に、模型カメラ5と仮想被写体4とが保持される。これに伴って、図4には図示しないが、第1の実施形態と同様に、模型カメラ5の動きと連動して動くロボットカメラ2によって、被写体1とロボットカメラ2との間の相対位置が保持される。そして、被写体1の位置を基準としたカメラワークの確認、検討を、正確な3次元相対位置を把握しながら、行うことができる。
【0055】
次に、本発明の第3の実施形態に係るカメラ操作装置について説明する。
図5に示すように、本発明の第3の実施形態に係るカメラ操作装置は、模型カメラの代わりに小型カメラ51をモデル動作検出装置6に搭載している以外は、被写体1を実際に撮影するロボットカメラ2、仮想被写体4、モデル動作検出装置6、ロボットカメラ制御装置7、およびモニター(画像表示手段)8を主要構成要素とすることにおいては、前記第1の実施形態と同様の構成を有する。したがって、これらの構成および動作において、前記第1の実施形態について既述した事項については、図示および説明を省略する。
【0056】
この第3の実施形態におけるカメラ操作装置は、図5に示すように、模型カメラの代わりに、仮想被写体4を撮影可能な小型カメラ51がモデル動作検出装置6に搭載され、小型カメラ51は、テンションワイヤ21によって、仮想被写体4と接続されている構成を有する。
【0057】
この第3の実施形態に係るカメラ操作装置において、操作者3(図1参照)によって、小型カメラ51が仮想被写体4に対して操作されると、小型カメラ51で撮影された画像に関する信号が、信号伝送線51を通じて表示装置52に入力される。入力された信号は、表示装置52において処理され、仮想被写体4の画像に関する信号が信号伝送線を通じてモニター8aに出力される。モニター8aにおいては、小型カメラ51によって撮影された仮想被写体4の画像が表示される。
【0058】
このとき、前記図2に示す形態と同様に、テンションワイヤ21によって、操作者3は、小型カメラ51と仮想被写体4の間の距離を管理しながら模型カメラ5を操作することができる。すなわち、テンションワイヤー21によって、小型カメラ51は、張力を負荷された状態にあるため、小型カメラ51を操作する操作者3の手に仮想被写体4と小型カメラ51の間の距離に比例した操作反力が負荷され、これにより、操作者3は、仮想被写体4の位置を基準として仮想被写体4と小型カメラ51との間の距離を感知しながら、小型カメラ51を操作することができる。
【0059】
この第3の実施形態においては、小型カメラ51で撮影された仮想被写体4の映像が実際にモニター8aに写しながら操作できる。そして、第1の実施形態と同様に、操作者3が、小型カメラ51の操作に連動してロボットカメラ2が被写体1に対して操作される。そのロボットカメラ2によって撮影された被写体1の画像がモニター8aに表示される。このように、操作者3は、ロボットカメラ2による撮影画像とともに、小型カメラ51による撮影画像を確認することができる。そのため、操作者3は、よりわかりやすい感覚でカメラワークを検討することが可能になる。
【0060】
ここで、図5においては、小型カメラ51によって撮影される仮想被写体4の画像はモニター8aに表示されるが、小型カメラ51によって撮影される仮想被写体4の画像と、ロボットカメラ2によって撮影される被写体1の画像を、モニター8aの同一の画面に並列に表示させ、または画像を切り替えて表示させるようにすれば、両者のカメラ操作を比較対照することが容易となり、操作者がカメラワークを感覚的に容易に把握して確認、検討することができるため、有効である。特に、フォーカス、ズーム等の撮影レンズの回転、前進・後退等の動きを伴うカメラ操作では、小型カメラ51の撮影レンズを実際に操作してフォーカス、ズーム等のカメラ操作を行い、そのカメラ操作に対応して、ロボットカメラ2のカメラ本体2aにおけるレンズのフォーカス、ズームの倍率等が制御される。そして、操作者は、小型カメラ51を操作しながら、その小型カメラ51の操作によるカメラワークと、ロボットカメラ2の操作によるカメラワークとの結果を対比し、カメラワークを確認、検討できるため、有効である。
【0061】
また、前記第1の実施形態ないし第3の実施形態において、ロボットカメラ2のカメラ駆動装置2bと相似の形態および機能を有するモデル動作検出装置6と、前記ロボットカメラ2のカメラ本体2aと相似の形態および動き(フォーカス、ズームの倍率の調整等)を有する模型カメラ5とを組み合わせた装置(以下、「ミニチュア操作装置」という)は、前記ロボットカメラ2と相似の形態および機能を有する。そのため、模型カメラ5の動きが、ロボットカメラ2と全く同等の自由度で動くこととなる。そして、操作者3は、仮想被写体に対して模型カメラ5を操作すると、被写体1に対してロボットカメラ2が同じ動きでカメラ操作されるカメラワークを実現することができ、モニター8、8aにおいて、ロボットカメラ2によって撮影される被写体1の画像を見ながら、カメラワークの確認、検討を、感覚的に容易に把握して行うことができ、有効である。また、このようなミニチュア操作装置において、検出された各動作軸の動きに関する信号は、ロボットカメラ2の各駆動軸の動きに1:1に対応するため、ロボットカメラ2の動作を、操作者による模型カメラ5の操作と1:1の関係で正確に連動して被写体1に対して同じカメラ操作がなされるようにすることができる。
【0062】
このミニチュア操作装置において、模型カメラ5およびその模型カメラ5を保持するモデル動作検出手段6の動きに応じて動く動作軸を、ロボットカメラ2の駆動軸と同じ動きの自由度を有するものとすれば、操作される模型カメラ5の動きを検出するだけでなく、操作者が実際のロボットカメラ2の動きを想定しながら、ロボットカメラ2の動きと同等の自由度で模型カメラ5を動かすことができる。そして、その模型カメラ5の動きに対応して被写体1に対してカメラ操作されるロボットカメラ2によって撮影される画像によって、カメラワークを把握することができるため、有効である。
【0063】
また、本発明のカメラ操作装置において、模型カメラ5の動きを検出する動作軸に衝撃緩衝装置を設けてもよい。この衝撃緩衝装置によって、模型カメラの動きに機械的な操作反力が負荷され、例えば、模型カメラを操作する操作者の手指の揺れ、あるいはモデル動作検出手段の揺れ等によって、操作者が意図するカメラ操作とは異なる模型カメラの動きの乱れが生じる場合、その動きの乱れを抑制して所定の位置に模型カメラが保持される。なお、衝撃緩衝装置とは、ばね、電気粘性流体等によって、モデル動作検出手段の各軸に設けた動作軸の動きを緩和し、模型カメラの動きの乱れを抑制して、その動作軸がなめらかに動くように、動作軸に機械的な操作反力を負荷するものをいう。また、模型カメラの動きの乱れとは、模型カメラを操作する操作者の手指の揺れ、あるいはモデル動作検出手段の揺れ等によって生じる、操作者が意図するカメラ操作とは異なる模型カメラの動きをいう。
【0064】
さらに、前記第1の実施形態ないし第3の実施形態において、図6(a)および(b)に示すように、前記モデル動作検出装置6から出力される検出信号は、模型カメラ5を操作する操作者3の意図しない動きに基づく誤差成分を含む。そこで、この誤差成分を除いて補正された駆動信号をロボットカメラ2に出力するようにすれば、これによって、ロボットカメラ2のよりなめらかな動きを実現し、操作者3の意図するロボットカメラ2の動きによるカメラワークを正確に実現できる。すなわち、模型カメラ5を操作する操作者3の手指の揺れ、あるいは動かし過ぎ等の誤操作、モデル動作検出装置6の予期しない振動等によって、操作者が意図するカメラ操作とは異なる模型カメラの動きを生じる。その動きを検出したモデル動作検出装置6によって、例えば、図6(a)および(b)に示すように、模型カメラ5の動きを検出したモデル動作検出装置6により、模型カメラ5またはモデル動作検出装置6の有する各動作軸の変位に関する検出信号61a、および動作軸の変位速度に関する検出信号61bが出力される。出力された検出信号61aおよび検出信号61bは、それぞれ、操作者3の意図しない動きに基づく成分(例えば、図6(a)および(b)中に示す、乱れ成分62aまたは62b)が重畳された信号となっている。そこで、ロボットカメラ制御装置7、あるいは前記モデル動作検出装置6に信号補正手段を設け、この信号補正手段によって、前記誤差成分を除去する補正を行えば、正確に操作者3の意図した模型カメラ5の動きに基づく信号63aおよび63bが生成される。そして、この信号63aおよび63bによってロボットカメラ2の動きが制御されれば、ロボットカメラ2のなめらかな動きを実現させることができる点で、好ましい。
【0065】
信号補正手段としては、例えば、ローパスフィルターを用いて、カットオフ周波数を適切に設定して、前記乱れ成分を減衰させて除去すればよい。
【0066】
また、前記の第1の実施形態ないし第3の実施形態において、制御信号(データ)がロボットカメラ制御装置6内にストレージされ、必要に応じて読み出せるようにすれば、その制御信号によって、同じ動作をロボットカメラ2が繰り返し行うことができ、特に、モーションコントロールカメラに適用して、繰り返し再現性が求められる画像を撮影する場合に、有効である。
【0067】
【発明の効果】
以上説明したとおり、本発明のカメラ操作装置によれば、下記の効果を得ることができる。
【0068】
請求項1ないしに記載の発明によれば、仮想的に設定した被写体位置を基準に模型カメラを操作できるため、現実のロボットカメラのアクチュエータを構成する各軸の長さや動きの自由度を意識せずに、誰でも容易に、簡単な操作で、被写体の位置を基準としたカメラ操作を実現できる。また、模型カメラとモデル動作検出装置の各動作軸とロボットカメラの駆動軸の自由度を1対1に対応させれば、ロボットカメラ制御手段におけるロボットカメラの各駆動軸の制御信号を生成させるための演算時間を大幅に短縮することが可能である。
【0069】
また、請求項に記載の発明によれば、仮想被写体と模型カメラとの間の位置関係を位置検出機構により検出し、この位置関係を、被写体とロボットカメラとの間の位置関係と対比すれば、被写体とロボットカメラとの位置関係を、仮想被写体と模型カメラとの間の位置関係に正確に反映させたカメラワークの検討を行うことができる。
【0070】
さらに、請求項に係る発明によれば、仮想被写体と模型カメラの間の距離を、両者の間に張架されたテンションワイヤによって検出するとともに、検出された距離によって、仮想被写体と模型カメラの間の距離を制御できる。そして、テンションワイヤーの長さを一定に保持し、その長さに仮想被写体と模型カメラとの間の距離を固定して、模型カメラを仮想被写体を中心として円弧状に移動させれば、この模型カメラの動きに対応して被写体を中心として正確な距離を保持しながらロボットカメラを円弧状に移動させるカメラワークを実現できる。
【0071】
さらにまた、請求項に係る発明によれば、非接触式位置検出機構により検出された仮想被写体と模型カメラの相対位置に応じて、フォースフィードバック機構により、操作者に操作反力が負荷され、被写体とロボットカメラの間の相対位置が予め設定された相対位置に保持され、被写体の位置を基準としたカメラワークを容易にすることができる。
【0072】
また、請求項に係る発明によれば、操作者が意図するカメラ操作とは異なる模型カメラの動きが生じる場合、その動きを抑制して所定の位置に模型カメラが保持されるため、模型カメラのなめらかな動きを実現でき、その模型カメラの動きに連動するロボットカメラの動きをもなめらかにすることができる。
【0073】
また、請求項に係る発明によれば、ロボットカメラのなめらかな動きを実現することができる。
【0074】
請求項に係る発明によれば、仮想被写体を模型カメラによって撮影し、ロボットカメラによって撮影された画像を表示するとともに、その画像によって模型カメラの動きを確認しながらカメラワークを検討できる。
【0075】
請求項に係る発明によれば、モデルカメラおよびモデル動作検出手段が一体となって、ロボットカメラに相似形に形成されているため、模型カメラを操作する操作者は、ロボットカメラの動きを感覚的に容易に把握してカメラワークの確認、検討を行うことができる。
【0077】
そのため、本発明は、テレビジョン番組制作、映画制作、遠隔テレビ会議等におけるロボットカメラやクレーンカメラ、モーションコントロールカメラなどの自動撮影カメラの操作装置に係わり、仮想被写体位置を設定し、この仮想被写体位置を基準にミニチュアモデルの操作機を使ってカメラを操作するようにすることにより、被写体の位置を基準とした正確なカメラワークを容易に決定できる。
【0078】
また、本発明によって、ロボットカメラやクレーンカメラなどにおいてはカメラマンが頭に描いた思い通りのカメラ操作が実現でき、特に、モーションコントロールカメラにおいては被写体を前にした感覚的なカメラワークの検討が可能になり、表現豊かな番組の制作を効率的に行うことができる。
【0079】
特に、本発明のカメラ操作装置は、ロボットカメラとしてモーションコントロールカメラを用い、そのモーションコントロールカメラのカメラワークを検討する際に、カメラによって撮影される実際の撮影画像を見ながらカメラワークを確認、検討する場合に有用である。さらに、そのカメラワークにおける各駆動軸の動作を記録してその記録に基づきモーションコントロールカメラに同じカメラワークを再現させる場合に有用である。
【0080】
また、このときのロボットカメラの各駆動軸の動き、または模型カメラの動きをデータとして蓄積すれば、そのデータに基づいて、モーションコントロールカメラのカメラワークを制御し、同じカメラワークを繰り返し再現することができ、CG合成、多重合成等による画像の制作に有効である。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るカメラ操作装置を示す模式図である。
【図2】第1の実施形態における模型カメラと仮想被写体の好適例を示す拡大模式図である。
【図3】第1の実施形態における模型カメラの好適例を示す拡大模式図である。
【図4】本発明の第2の実施形態に係るカメラ操作装置を示す模式図である。
【図5】本発明の第3の実施形態を説明する模式図である。
【図6】模型カメラの動きの検出信号の補正について説明する図であり、(a)は模型カメラの変位に関する原信号と補正された信号を示す図、(b)は模型カメラの速度に関する原信号と補正された信号を示す図である。
【符号の説明】
1……被写体
2……ロボットカメラ
2a……カメラ本体
2b……カメラ駆動装置
2b1……支持腕部
2b2……支柱
2b3……車輪
2b4……移動台座
3……操作者
3a……手
4……仮想被写体
4a……仮想被写体
4b……支柱
5,12……模型カメラ
6……モデル動作検出装置
6a……信号伝送線
6b1……支持腕部
6b2……支柱
6b3……車輪
6b4……移動台座
7……ロボットカメラ制御装置
7a……信号伝送線
8、8a……モニター(画像表示手段)
21……テンションワイヤー
31……固定スイッチ
41……超音波発信器
41a……信号伝送線
42……超音波受信器
42a……信号伝送線
43……位置検出装置
43a……信号伝送線
44……フォースフィードバック制御装置
44a……信号伝送線
51……小型カメラ
61a,61b……検出信号
62a,62b……乱れ成分
63a,63b……制御信号
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an operation device for an automatic photographing camera in production of a television program, production of a movie, remote video conference, and the like.In placeRelated.
[0002]
[Prior art]
Conventionally, motion cameras, crane cameras, and other robot cameras automatically control or remotely control the movement of the camera relative to the subject using a joystick, special operating device, or PC keyboard in order to obtain a richly expressive image. Camera work is performed to control and freely change the shooting angle, distance, position, etc. with respect to the subject. In the motion control camera, a program for operating the camera is created in advance so that a desired camera work can be obtained, and the camera is operated based on this program.
[0003]
As a special example, there is a product called Motion Control Camera MILO of Mark Roberts in the UK, and the software attached to this device uses a personal computer (hereinafter referred to as “PC”) and uses computer graphics (hereinafter simply referred to as “computer graphics”). The camera work can be simulated by “CG” (see Non-Patent Document 1). According to the motion control camera, for example, the motion control camera is virtually moved on the monitor screen of the personal computer, such as moving in a straight line from the point A to the point B, and further moving on the arc from the point B to the point C. As a result of the movement, an image that will be taken by the motion control camera is created by CG, and the camera work can be examined while viewing the image.
[0004]
[Non-Patent Document 1]
IMAGICA Tokusatsu Group MC-MILO Introduction Site "TECHNICICAL INFORMATION-Technical Information"
<URL: http://www.imagica.co.jp/ve/sfx/index.html#techinfo>
[0005]
[Problems to be solved by the invention]
However, in the conventional camera operation device, no device that can operate the camera based on the position of the subject is known as an actual operating device. With conventional camera operation devices, for example, shooting by moving around the subject and moving the camera based on the subject position, such as shooting while dollying in or out of the subject Is often done. However, it has been difficult for conventional camera operating devices to shoot while managing the relative position of the subject and the camera based on the position of the subject. In particular, when a camera body is mounted on the end of a long arm like a crane camera, it is difficult to sense the position of the camera body sensuously, and it is impossible to operate as expected.
[0006]
In addition, data such as how the camera has moved is only required for applications such as post-compositing the background of a captured image with CG or repeatedly capturing images with the same camera work and then performing multiple composition of images later. Instead, a robot camera (motion control camera) that can repeatedly operate with the same camera work based on the data is required.
[0007]
In such an application, camera work is determined in advance, and then actual shooting is started. In the process of determining camera work, the camera work and the subject's 3D position are taken into account. You have to decide on a specific camera work. For example, when shooting around a subject at a distance of 2 m and attempting to combine CG later, when using a conventional camera operating device such as a joystick, the distance between the subject and the camera is set. It is difficult to take a desired picture by operating the camera after accurately grasping.
[0008]
Further, in the method of calculating the trajectory of the camera on the program and driving the camera based on the calculation result, a desired camera work can be obtained if an appropriate program can be created. However, as the number of joints of each axis driving the robot camera increases, the calculation becomes more complicated, and the solution is not necessarily limited to one. Therefore, the work of an experienced operator is indispensable, and it takes time to create a program.
[0009]
  Therefore, an object of the present invention is to make it easy for anyone without being aware of the length of each axis constituting the series of actuators provided to form various movements of an actual robot camera and the degree of freedom of movement. Camera operation device that can realize accurate camera operation based on the position of the subject with simple operationPlaceIt is to provide.
[0010]
[Means for Solving the Problems]
  In order to solve such a problem, the invention according to claim 1 is arranged to face a virtual subject that is independent from the subject, corresponding to the relative position between the subject and a robot camera that photographs the subject. A model camera that can be arbitrarily operated by a camera, a model motion detection unit that holds the model camera and detects the movement of the model camera operated by the camera, and the model camera detected by the model motion detection unit In response to the movement, a robot camera control means for controlling the movement of the robot camera so that the robot camera is operated on the subject, and an image display means for displaying an image taken by the robot camera. WithThe camera operation device includes a position detection mechanism that detects a distance between the virtual subject and the model camera.The configuration.
[0011]
  In this camera operation device, the movement of the model camera operated by the camera is detected by the model motion detection means, and the robot camera is operated on the subject by the robot camera control means in response to the detected movement of the model camera. The image taken by the camera operated robot camera is displayed on the image display meansAt the same time, the positional relationship between the virtual subject and the model camera is detected by the position detection mechanism.
[0014]
  Claim2The invention according to claim 1 is the camera operation device according to claim 1, wherein the position detection mechanism is a tension wire stretched between the virtual subject and the model camera.
[0015]
According to this configuration, the distance between the virtual subject and the model camera is detected by the tension wire stretched between the two.
[0016]
  Claim3The invention according to claim1In the camera operation device according to claim 1, the position detection mechanism is a non-contact position detection mechanism, and the model camera is operated so that the virtual subject and the model camera are held at a preset relative position. A force feedback mechanism that applies an operation reaction force to the movement is provided.
[0017]
In this camera operation device, the relative position between the virtual subject and the model camera is detected by the non-contact type position detection mechanism, and the reaction force is applied to the operator by the force feedback mechanism based on the detected relative position.
[0018]
  Claim4The invention according to claim 1 to claim 13In the camera operation device according to any one of the above, the model motion detection means includes an impact buffer on each motion axis for detecting the movement of the model camera, and the virtual subject and the model camera are connected by the shock buffer. It is characterized in that a mechanical operation reaction force is loaded on each of the motion axes so as to be held at a preset relative position.
[0019]
In this camera operation device, a mechanical operation reaction force is applied to the movement of the model camera by an impact buffer provided on each operation axis for detecting the movement of the model camera.
[0020]
  Claim5The invention according to claim 1 to claim 13In the camera operation device according to any one of the above, the model motion detection means or the robot camera control means detects the motion of the model camera and detects the motion of the model camera from the motion detection signal output from the model motion detection means. Signal correction means for correcting by removing error components based on disturbance is provided.
[0021]
In this camera operating device, signals corrected by removing signal components based on disturbances in the motion of the model camera are output to the respective drive axes of the robot camera by the signal correcting means provided in the model motion detecting means or the robot camera control means. .
[0022]
  Claim6The invention according to claim 1 to claim 15In the camera operating device according to any one of the above, the model camera is a camera capable of photographing the virtual subject.
[0023]
According to this camera operation device, a virtual subject is photographed by a model camera, and an image photographed by the model camera can be displayed by the image display means together with an image photographed by the robot camera.
[0024]
  Claim7The invention according to claim 1 to claim 16In the camera operating device according to any one of the above, the model camera and the model motion detection unit are integrally configured and formed in a similar shape to the robot camera.
[0025]
In this camera operating device, the model camera is integrated with the model motion detecting means and formed in a similar shape to the robot camera, and the operator operating the model camera can easily move the robot camera linked to the model camera. Be grasped.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described based on the embodiment of the camera operating device of the present invention shown in FIGS. In addition, in each figure, the same code | symbol was attached | subjected to the same member, the part, and the site | part.
[0029]
FIG. 1 is a schematic view showing a camera operating device according to the first embodiment of the present invention.
1 includes a robot camera 2, a virtual subject 4 arranged in front of an operator 3, a model camera 5, a model motion detection device 6, a robot camera control device 7, a monitor (image). Display means) 8.
[0030]
The robot camera 2 is arranged so as to face the subject 1 and is configured to actually photograph the subject 1. The robot camera 2 includes a camera lens 2a for photographing the subject 1, an image pickup device for outputting the photographed image as an image signal, and a camera body 2a having a mechanism for controlling the magnification of the focus, the zoom, and the like. A camera driving device 2b that holds the camera body 2a and moves the camera body 2a in order to change a camera angle, a distance between the camera body 2a and the subject 1, and the like. The camera driving device 2b includes a support arm 2b that holds the camera body 2a.1The supporting arm 2b12b for supporting2, Support 2b2And wheel 2bThreeMobile pedestal 2b with a lower partFourIt is comprised from. As a specific example of the robot camera 2, there is a camera device that can operate the movement of a subject such as a crane camera or a motion control camera by automatic control or remote control and can photograph the subject.
The “subject” refers to an object that is actually photographed by the robot camera.
[0031]
In this robot camera 2, the camera body 2 a is provided with a drive shaft for rotating, moving forward or backward of the photographing lens in order to adjust the focus, zoom magnification, and the like. Furthermore, the support arm part 2b which comprises the camera drive device 2b1, Support 2b2, And moving base 2bFourIn these places, drive shafts are provided for various operations such as rotating, advancing, and retreating the camera body, and for moving the entire robot camera 2. Each drive shaft is provided with an actuator (not shown), and this drive shaft is driven by operating this actuator in accordance with a control signal output from the robot camera control device 7. By driving each drive shaft, adjustments such as focus and zoom magnification in the camera body 2a and rotation, advance, retreat, and movement of the camera body in the camera drive device 2b are performed, and these operations are combined. Thus, desired camera work is realized.
[0032]
The virtual subject 4 is arranged in front of the operator 3 independently of the subject 1 and is a target of camera operation by the model camera 5, and the model camera 5 operates based on the position of the virtual subject 4. Is done. The virtual subject 4 may have a shape similar to that of the subject 1 or may not have a similar shape. In particular, if the virtual subject 4 is a similar shape (miniature) having the same shape as the subject 1 in which the subject 1 is miniaturized as it is, the operation of the camera by the operator 3 and the effect of the operation when the model camera 5 is operated. This is useful because it allows you to understand the camerawork more intuitively and understand the camerawork.
[0033]
Note that “operating the camera”, “operating the model camera”, or “camera operation” refers to an operation of moving the camera or the model camera toward the subject 1 or the virtual subject 4. For example, pan (horizontal pan, vertical pan), sushi, tilt, roll, through, follow, snake, arc, dolly in, dolly out, track up, track back, zoom in, zoom out, focus in, focus out, etc. This refers to performing various types of camera work. Also, “arbitrarily” operating the camera means operating freely according to the operator's intention.
[0034]
At this time, as shown in FIG. 2, if the virtual subject 4a is mounted so as to be movable up and down in the axial direction of the column 4b (the direction of the arrow A in FIG. 2), the height position of the virtual subject 4a can be adjusted. It is possible to study the camera angle of the model camera 5 that moves the virtual subject 4a up and down and operates the virtual subject 4a, which is useful for studying camera work.
[0035]
The model camera 5 is independent from the subject 1 (see FIG. 1), and corresponds to the relative position between the subject 1 and the robot camera 2 and corresponds to the virtual subject 4 (see FIG. 2) arranged in front of the operator 3. ). As shown in FIG. 2, the model camera 5 is operated with respect to the virtual subject 4 by the hand 3 a of the operator 3, and operations such as rotation, forward movement, backward movement, and movement are performed according to the intention of the operator 3. Is.
[0036]
The model camera 5 may have a different form from the camera body 2a of the robot camera 2 or may have the same form. In particular, when the model camera 5 has a shape similar to the shape of the camera body 2a, for example, the camera body 2a of the robot camera 2 is downsized, the operator 3 who operates the model camera 5 The model camera 5 can be operated sensuously integrated with the movement of the camera body 2a of the camera 2 and the camera work can be confirmed and examined in a sensibly understandable manner.
[0037]
The model motion detection device 6 is a device that holds the model camera 5, detects the movement of the model camera 5 operated by the camera, and outputs an electrical signal related to the detected movement of the model camera 5. For example, it has an operation axis that moves according to each movement such as rotation, forward movement, backward movement, and movement of the model camera 5, and by detecting the movement of this movement axis, the movement of the model camera is converted into an electrical signal, It is a device that outputs the electrical signal to the robot camera control device 7 through a signal transmission line 6a (see FIG. 1).
[0038]
The model motion detection device 6 can detect the movement of the model camera 5 and can output a signal related to the movement to the robot camera control device 7 (see FIG. 1) through the signal transmission line 6a. It may have a different form from the camera driving device 2b or may have the same form. In particular, the model motion detection device 6 preferably has the same form as the camera drive device 2b of the robot camera 2 as shown in FIG. For example, as shown in FIG. 2, the support arm 6b that holds the model camera 5 is used.1The support arm 6b16b for supporting2, Support 6b2Wheel 6b for moving and movingThreeWith moving base 6b at the bottomFourAre the main constituent members, and these constituent members are the supporting arm portions 2b of the camera driving device 2b of the robot camera 2.1, Support 2b2, Mobile base 2bFourIt is effective if they are configured so as to have the same form and movement corresponding to the above. That is, the support arm portion 6b constituting the model motion detection device 61, Support 6b2, Mobile base 6bFourAnd moving base 6bFourWheel 6bThreeIf the movement axis of each movement (revolution, forward movement, backward movement, movement, etc.) has the same movement as the respective drive axes of the constituent members constituting the camera drive device 2b of the robot camera 2, the operation is performed. The movement of the model camera 5 operated by the person 3 and the movement of the camera driving device 2b of the robot camera 2 are linked with the same degree of freedom. At this time, if the movement of the movement axis of each component of the model movement detection device 6 is detected by an encoder provided on each movement axis, the movement (rotation, forward movement) of the model camera 5 operated by the operator 3 is detected. , Retreating, moving, etc.) can be accurately detected, and the detected motion of the motion axis can be output to the robot camera control device 7 as a detection signal.
[0039]
The robot camera control device 7 controls the movement of the robot camera 2 so that the robot camera 2 is operated on the subject 1 in accordance with the movement of the model camera 5 detected by the model motion detection device 6. It is. For example, the robot camera control device 7 sends detection signals from the model motion detection device 6 regarding movements (displacements, displacement speeds, etc.) of the motion axes detected by the encoders provided in the model camera 5 and the model motion detection device 6. This is a device that is input through a signal transmission line 6a (see FIG. 1) and outputs a control signal for controlling the movement of each drive shaft of the robot camera 2 to the robot camera 2 through the signal transmission line 7a based on the detection signal.
[0040]
As shown in FIG. 1, the monitor 8 (image display means) displays an image of the subject 2 photographed by the robot camera 2, and the operator 3 checks and examines the camera work based on the displayed image. Is for. As the monitor 8, for example, various devices such as a CRT monitor, a liquid crystal monitor, and a projector can be used.
[0041]
Next, a camera operation method using this camera operation device will be described.
In the camera operation apparatus shown in FIG. 1, an operator 3 arbitrarily operates a model camera 5 with respect to a virtual subject 4, and a robot is operated with respect to the subject 1 in conjunction with the movement of the operated model camera 5. An image of the subject 1 actually taken by the camera 2 can be confirmed on the monitor 8. At this time, when the model camera 5 or the miniature operation device (the model camera 5 and the model motion detection device 6) is moved, each motion axis of the model motion detection device 6 is moved along with the movement. Then, a detection signal relating to the movement of each motion axis is output from the encoder attached to each motion axis, and is input to the robot camera control device 7 through the signal transmission line 6a.
[0042]
The robot camera control device 7 to which the detection signal related to the movement of each motion axis of the model motion detection device 6 is input receives a control signal for driving each drive axis of the robot camera 2 corresponding to each motion axis of the model motion detection device 6. The signal is output to the robot camera 2 through the signal transmission line 7a. Then, in the robot camera 2 to which the control signal is input, each drive shaft is driven based on the control signal. As a result, the robot camera 2 is operated on the subject 1 in conjunction with the movement of the model camera 5.
[0043]
The image of the subject 1 actually photographed by the robot camera 2 is connected to the camera body 2a of the robot camera 2 and processes a signal based on the photographed subject 1 image to display the image on the monitor 8. (Not shown) is displayed on the monitor 8. The operator 3 can check and examine the result of the camera work based on the operation of the model camera 5 operated by himself / herself while viewing the image displayed on the monitor 8 in real time. At this time, the movement of the model camera 5 and the movement of the robot camera 2 have a one-to-one correspondence.
[0044]
Further, as shown in FIG. 2, a tension wire (a wire made of a high-strength material having a small elongation rate with respect to a tensile force) 21 (position detection mechanism) is stretched between the model camera 5 and the virtual subject 4a. Also good. This tension wire 21 has an advantage that the model camera 5 can be operated while managing the distance between the virtual subject 4a and the model camera 5. Here, the length of the tension wire 21 is kept constant, the distance between the virtual subject 4a and the model camera 5 is fixed to the length, and the model camera 5 is moved in an arc shape around the virtual subject 4a. By doing so, it is possible to realize a camera work that moves the robot camera 2 in an arc shape while maintaining an accurate distance around the subject 1 corresponding to the movement of the model camera 5. Thus, the distance (shooting distance) between the subject 1 and the robot camera 2 can also be managed, which is effective for studying camera work based on the position of the subject 1. That is, since the model camera 5 is under tension by the tension wire 21, an operation proportional to the distance between the virtual subject 4 and the model camera 5 is performed on the hand 3 a of the operator 3 who operates the model camera 5. A reaction force is applied, so that the operator 3 can operate the model camera 5 while sensing the distance between the virtual subject 4 and the model camera 5 based on the position of the virtual subject 4. The “operation reaction force” refers to a force presented to the operator's fingers or the like in a direction opposite to the movement of the model camera or the like.
[0045]
Further, the tension wire 21 may be stretched between the model camera 5 and the virtual subject 4a, and the tension wire 21 may be wound into the model camera 12. According to such a structure, after confirming an image on the monitor 8 and determining an appropriate shooting distance, as shown in FIG. 3, the fixing switch 31 is pushed, the winding of the tension wire 21 is stopped, and the tension wire 21 is By moving the model camera 5 while maintaining the length, the movement of the model camera 5 with respect to the position of the virtual subject 4 is restricted to a circular movement, and in conjunction with this, the subject 1 in the robot camera 2 is controlled. An arc-shaped camera work centering on can be easily realized. At this time, if the tension wire 21 is pivotally supported on the support column 4b, it is preferable because the arcuate camera operation of the model camera 5 with the support column 4b as an axis becomes easy. When the management of the distance between the virtual subject 4 and the model camera 5 (the distance between the subject 1 and the robot camera 2) is unnecessary, the operation can be performed with the tension wire 21 removed.
[0046]
Next, a camera operating device according to the second embodiment of the present invention will be described.
The camera operating device according to the second embodiment is disposed opposite to the subject 1 and is disposed in front of the operator 3 separately from the robot camera 2 that actually photographs the subject 1 and the subject 1. The virtual subject 4, the model camera 5 disposed opposite to the virtual subject 4, the model motion detection device 6 that holds the model camera 5 and detects the movement of the model camera 5, and the model motion detection device 6 The main components are a robot camera control device 7 that controls the movement of the robot camera 2 based on the movement of the model camera 5 detected by the above-mentioned method, and a monitor (image display means) 8 that displays an image taken by the robot camera 2. In this case, it has the same configuration as the camera operating device according to the first embodiment. Therefore, in these configurations and operations, illustration and description of the matters already described with respect to the first embodiment are omitted.
[0047]
The camera operating device according to the second embodiment includes a non-contact position detection mechanism and a force feedback mechanism.
[0048]
The non-contact type position detection mechanism can detect the relative position of the model camera 5 with respect to the virtual subject 4 without contacting the model camera 5. Specific examples include an ultrasonic sensor, an infrared sensor, a gyro sensor, and the like. As shown in FIG. 4, the non-contact type position detection mechanism is connected to the ultrasonic transmitter 41, the ultrasonic receiver 42, and the ultrasonic transmitter 41 and the ultrasonic receiver 42 by signal transmission lines 41a and 42a, respectively. The position detecting device 43 is configured.
[0049]
In this non-contact type position detection mechanism, an ultrasonic wave is transmitted from the ultrasonic transmitter 41 based on a transmission signal output from the position detector 43 through the signal transmission line 41a. The transmitted ultrasonic wave is received by the ultrasonic receiver 42. A signal related to the received amount, phase, and the like of the received ultrasonic waves is input from the ultrasonic receiver to the position detection device 43 through the signal transmission line 42a. In the position detection device 43, the three-dimensional coordinate positions of the virtual subject 4 and the model camera 5 are measured in real time based on signals related to the received amount, phase, etc. of the received ultrasonic wave input from the ultrasonic receiver 42, A relative position between the virtual subject 4 and the model camera 5 is detected.
[0050]
In the present invention, the non-contact position detection mechanism is not limited to the ultrasonic sensor, and an optical sensor, an infrared sensor, a gyro sensor, or the like can be used as an alternative. Furthermore, a position detection mechanism using an image processing technique may be used. As a result, the position of the model camera can also be measured.
[0051]
The force feedback mechanism increases or decreases the operating resistance of the model camera 5 in accordance with the detected distance between the virtual subject 4 and the model camera 5, and the virtual subject 4 and the model camera 5 are held at predetermined positions. Refers to a device or system that controls as described above. For example, when the distance between the virtual subject 4 and the model camera 5 is greater than or less than a preset distance, a driving device such as a motor attached to the model camera 5 is activated to transmit the operation to the hand. Increase the force, vibration, etc., increase the operating resistance applied to the operator's hand, and reduce the operating resistance when the distance between the virtual subject and the model camera approaches the preset distance A mechanism that controls the movement of the camera. More specifically, the model camera 5 is operated based on a sensor that detects each movement and position of the model camera 5 such as rotation, forward movement, and backward movement, and the movement and position of the model camera 5 detected by the sensor. A computer that calculates the strength of the operating reaction force to be applied to the operator's finger, an electromagnetic actuator that is driven via a drive circuit in accordance with the strength of the operating reaction force obtained by the calculation of the computer, and the electromagnetic Instead of an electromagnetic actuator, a mechanism having a device that generates an operation reaction force by an actuator, a vibration element built in the model operation device is driven, and it is turned on / off instantaneously based on the calculation result of the computer. Various mechanisms such as a mechanism for presenting a force sensation to the model operating device can be mentioned.
[0052]
In the second embodiment shown in FIG. 4, the force feedback mechanism includes a force feedback control device 44, a signal transmission line 44a for transmitting a control signal from the force feedback control device 44 to the model motion detection device 6, and a model camera. 5 and an actuator (not shown) mounted on each motion axis of the model motion detection device 6.
[0053]
In the force feedback mechanism, a signal related to the relative position between the model camera 5 and the virtual subject 4 is input from the position detection device 43 through the signal transmission line 43a. Based on the input signal, a control signal for operating the actuator is signaled so that the model camera 5 and the virtual subject 4 are held at a preset relative position by the arithmetic processing in the force feedback control device 44. It is output through the transmission line 44a. Then, the actuators mounted on the drive shafts of the model camera and the model motion detection device 6 are actuated by the output control signal, and the reaction force of the operation is presented to the finger of the operator 3 by force sense such as torque and vibration. The Thus, the operator 3 can accurately operate the model camera 5 while feeling an operation reaction force, and the virtual subject 4 and the model camera 5 are held at a preset relative position.
[0054]
The camera operating device according to the second embodiment is based on the relative position between the virtual subject 4 and the model camera 5 detected by the non-contact type position detection mechanism, and is set to a preset relative position by the force feedback mechanism. The model camera 5 and the virtual subject 4 are held. Accordingly, although not shown in FIG. 4, the relative position between the subject 1 and the robot camera 2 is changed by the robot camera 2 that moves in conjunction with the movement of the model camera 5, as in the first embodiment. Retained. Then, camera work can be confirmed and examined based on the position of the subject 1 while grasping an accurate three-dimensional relative position.
[0055]
Next, a camera operating device according to a third embodiment of the present invention will be described.
As shown in FIG. 5, the camera operating device according to the third embodiment of the present invention actually shoots the subject 1 except that a small camera 51 is mounted on the model motion detecting device 6 instead of the model camera. The robot camera 2, the virtual subject 4, the model motion detection device 6, the robot camera control device 7, and the monitor (image display means) 8 that are the main constituent elements have the same configuration as that of the first embodiment. Have. Therefore, in these configurations and operations, illustration and description of the matters already described with respect to the first embodiment are omitted.
[0056]
As shown in FIG. 5, the camera operation device according to the third embodiment includes a small camera 51 capable of photographing a virtual subject 4 instead of a model camera mounted on the model motion detection device 6. The tension wire 21 is connected to the virtual subject 4.
[0057]
In the camera operating device according to the third embodiment, when the small camera 51 is operated on the virtual subject 4 by the operator 3 (see FIG. 1), a signal related to the image captured by the small camera 51 is The signal is input to the display device 52 through the signal transmission line 51. The input signal is processed in the display device 52, and a signal related to the image of the virtual subject 4 is output to the monitor 8a through the signal transmission line. On the monitor 8a, an image of the virtual subject 4 photographed by the small camera 51 is displayed.
[0058]
At this time, similarly to the embodiment shown in FIG. 2, the operator 3 can operate the model camera 5 while managing the distance between the small camera 51 and the virtual subject 4 by the tension wire 21. That is, since the small camera 51 is in a state of being loaded with tension by the tension wire 21, an operation reaction proportional to the distance between the virtual subject 4 and the small camera 51 is placed on the hand of the operator 3 who operates the small camera 51. As a result, the operator 3 can operate the small camera 51 while sensing the distance between the virtual subject 4 and the small camera 51 with reference to the position of the virtual subject 4.
[0059]
In the third embodiment, the image of the virtual subject 4 photographed by the small camera 51 can be operated while actually being projected on the monitor 8a. As in the first embodiment, the operator 3 operates the robot camera 2 on the subject 1 in conjunction with the operation of the small camera 51. An image of the subject 1 photographed by the robot camera 2 is displayed on the monitor 8a. Thus, the operator 3 can confirm the image captured by the small camera 51 together with the image captured by the robot camera 2. Therefore, the operator 3 can examine camera work with a sense that is easier to understand.
[0060]
Here, in FIG. 5, the image of the virtual subject 4 photographed by the small camera 51 is displayed on the monitor 8 a, but the image of the virtual subject 4 photographed by the small camera 51 and the robot camera 2. If the image of the subject 1 is displayed in parallel on the same screen of the monitor 8a, or the images are switched and displayed, it becomes easy to compare and contrast the camera operations of both, and the operator can sense the camera work. It is effective because it can be easily grasped and confirmed and examined. In particular, in camera operations involving movements of the photographing lens such as focus and zoom, movements such as forward and backward, the camera lens of the small camera 51 is actually operated to perform camera operations such as focus and zoom. Correspondingly, the lens focus, zoom magnification, and the like in the camera body 2a of the robot camera 2 are controlled. The operator can confirm and examine the camera work by comparing the camera work by operating the small camera 51 and the camera work by operating the robot camera 2 while operating the small camera 51. It is.
[0061]
Further, in the first to third embodiments, the model motion detection device 6 having a form and function similar to the camera drive device 2b of the robot camera 2 and the camera body 2a of the robot camera 2 are similar. An apparatus (hereinafter referred to as “miniature operation apparatus”) combined with a model camera 5 having a form and a movement (focus, zoom magnification adjustment, etc.) has a form and function similar to those of the robot camera 2. Therefore, the movement of the model camera 5 moves with the same degree of freedom as the robot camera 2. Then, when the operator 3 operates the model camera 5 with respect to the virtual subject, the camera work in which the robot camera 2 is operated with the same movement with respect to the subject 1 can be realized. In the monitors 8 and 8a, It is effective because it is possible to easily and intuitively grasp and examine the camera work while viewing the image of the subject 1 photographed by the robot camera 2. Further, in such a miniature operating device, the detected signal relating to the movement of each motion axis corresponds to the motion of each drive axis of the robot camera 2 in a 1: 1 ratio, so that the motion of the robot camera 2 is determined by the operator. It is possible to perform the same camera operation on the subject 1 in conjunction with the operation of the model camera 5 accurately in a 1: 1 relationship.
[0062]
In this miniature operating device, if the motion axis that moves in accordance with the motion of the model camera 5 and the model motion detection means 6 that holds the model camera 5 has the same degree of freedom of motion as the drive shaft of the robot camera 2. In addition to detecting the movement of the model camera 5 to be operated, the operator can move the model camera 5 with the same degree of freedom as the movement of the robot camera 2 while assuming the actual movement of the robot camera 2. . Since the camera work can be grasped by the image taken by the robot camera 2 operated by the camera with respect to the subject 1 corresponding to the movement of the model camera 5, it is effective.
[0063]
In the camera operating device of the present invention, an impact buffering device may be provided on the operation axis for detecting the movement of the model camera 5. This shock absorbing device imposes a mechanical operation reaction force on the movement of the model camera. For example, the operator intends by shaking the finger of the operator who operates the model camera or shaking of the model motion detection means. When disturbance of the movement of the model camera different from the camera operation occurs, the movement of the movement of the model camera is suppressed and the model camera is held at a predetermined position. The shock absorber is a spring, electrorheological fluid, etc. that relaxes the movement of the movement axis provided on each axis of the model movement detection means, suppresses the disturbance of movement of the model camera, and the movement axis is smooth. This means that a mechanical operating reaction force is applied to the motion axis so that it moves in a straight line. Also, the disturbance of the movement of the model camera refers to the movement of the model camera different from the camera operation intended by the operator, caused by the shaking of the finger of the operator who operates the model camera or the shaking of the model motion detection means. .
[0064]
Further, in the first to third embodiments, as shown in FIGS. 6A and 6B, the detection signal output from the model motion detection device 6 operates the model camera 5. An error component based on unintended movement of the operator 3 is included. Therefore, if a drive signal corrected by removing this error component is output to the robot camera 2, a smoother movement of the robot camera 2 can be realized thereby, and the robot camera 2 intended by the operator 3 can be moved. Camera work by movement can be realized accurately. That is, the movement of the model camera different from the camera operation intended by the operator is caused by an erroneous operation such as shaking or excessive movement of the finger of the operator 3 who operates the model camera 5, an unexpected vibration of the model motion detection device 6, or the like. Arise. For example, as shown in FIGS. 6A and 6B, the model motion detection device 6 that detects the movement of the model camera 5 detects the model camera 5 or the model motion detection. A detection signal 61a relating to the displacement of each motion axis of the apparatus 6 and a detection signal 61b relating to the displacement speed of the motion axis are output. In the output detection signal 61a and detection signal 61b, a component based on an unintended movement of the operator 3 (for example, the disturbance component 62a or 62b shown in FIGS. 6A and 6B) is superimposed. It is a signal. Therefore, if the robot camera control device 7 or the model motion detection device 6 is provided with signal correction means, and the signal correction means performs correction for removing the error component, the model camera 5 intended by the operator 3 can be accurately obtained. Signals 63a and 63b based on the movement of If the movement of the robot camera 2 is controlled by the signals 63a and 63b, it is preferable in that a smooth movement of the robot camera 2 can be realized.
[0065]
As the signal correction means, for example, a low-pass filter may be used to appropriately set the cutoff frequency and attenuate and remove the disturbance component.
[0066]
In the first to third embodiments, if the control signal (data) is stored in the robot camera control device 6 and can be read as necessary, the control signal (data) is the same depending on the control signal. The operation can be repeatedly performed by the robot camera 2, and is particularly effective when it is applied to a motion control camera to capture an image that requires repeated reproducibility.
[0067]
【The invention's effect】
  As described above, the camera operating device of the present inventionIn placeAccording to this, the following effects can be obtained.
[0068]
  Claim 1 to7Since the model camera can be operated on the basis of the virtually set subject position according to the invention described in any one of the above, no one is conscious of the length of each axis constituting the actuator of the actual robot camera and the degree of freedom of movement. However, camera operations based on the position of the subject can be easily realized with simple operations. In addition, if the degrees of freedom of the motion axes of the model camera and the model motion detection device correspond to the drive axes of the robot camera on a one-to-one basis, the robot camera control means generates control signals for the drive axes of the robot camera. It is possible to greatly reduce the computation time.
[0069]
  Claims1If the positional relationship between the virtual subject and the model camera is detected by the position detection mechanism and this positional relationship is compared with the positional relationship between the subject and the robot camera, the subject and the robot It is possible to study camera work in which the positional relationship with the camera is accurately reflected in the positional relationship between the virtual subject and the model camera.
[0070]
  And claims2According to the invention, the distance between the virtual subject and the model camera is detected by the tension wire stretched between them, and the distance between the virtual subject and the model camera is controlled by the detected distance. it can. Then, if the length of the tension wire is kept constant, the distance between the virtual subject and the model camera is fixed to the length, and the model camera is moved in an arc around the virtual subject, this model It is possible to realize a camera work that moves the robot camera in an arc shape while maintaining an accurate distance around the subject corresponding to the movement of the camera.
[0071]
  Furthermore, the claims3According to the present invention, the reaction force is applied to the operator by the force feedback mechanism according to the relative position of the virtual subject and the model camera detected by the non-contact type position detection mechanism, and the distance between the subject and the robot camera is increased. The relative position is held at a preset relative position, and camera work based on the position of the subject can be facilitated.
[0072]
  Claims4According to the present invention, when the movement of the model camera different from the camera operation intended by the operator occurs, the movement of the model camera is suppressed and the model camera is held at a predetermined position. It can be realized, and the movement of the robot camera linked to the movement of the model camera can be made smooth.
[0073]
  Claims5According to the invention which concerns on this, smooth movement of a robot camera is realizable.
[0074]
  Claim6According to the invention, a virtual subject is photographed by a model camera, an image photographed by a robot camera is displayed, and camera work can be examined while confirming the movement of the model camera based on the image.
[0075]
  Claim7According to the invention, since the model camera and the model motion detection means are integrated and formed in a similar shape to the robot camera, the operator who operates the model camera can easily move the robot camera sensuously. It is possible to confirm and study camera work by grasping the above.
[0077]
Therefore, the present invention relates to an operation device for an automatic photographing camera such as a robot camera, a crane camera, or a motion control camera in television program production, movie production, remote video conference, etc., and sets a virtual subject position. By using a miniature model operating device with reference to the camera, the camera work can be easily determined based on the position of the subject.
[0078]
In addition, the present invention makes it possible to realize the desired camera operation drawn on the head by a cameraman in a robot camera, a crane camera, etc., and in particular, in a motion control camera, it is possible to study sensory camera work in front of the subject. Therefore, it is possible to efficiently produce an expressive program.
[0079]
  In particular, the camera operating device of the present inventionIsWhen using a motion control camera as a robot camera and examining the camera work of the motion control camera, it is useful when checking and examining the camera work while viewing the actual captured image taken by the camera. Furthermore, it is useful when the operation of each drive axis in the camera work is recorded and the same camera work is reproduced by the motion control camera based on the record.
[0080]
Also, if the movement of each drive axis of the robot camera or the movement of the model camera at this time is accumulated as data, the camera work of the motion control camera is controlled based on that data, and the same camera work can be reproduced repeatedly. It is effective for producing images by CG composition, multiple composition, etc.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing a camera operating device according to a first embodiment of the present invention.
FIG. 2 is an enlarged schematic view showing a suitable example of a model camera and a virtual subject in the first embodiment.
FIG. 3 is an enlarged schematic view showing a suitable example of a model camera in the first embodiment.
FIG. 4 is a schematic diagram showing a camera operating device according to a second embodiment of the present invention.
FIG. 5 is a schematic diagram for explaining a third embodiment of the present invention.
6A and 6B are diagrams for explaining correction of a model camera motion detection signal, in which FIG. 6A is a diagram showing an original signal related to the displacement of the model camera and a corrected signal, and FIG. It is a figure which shows a signal and the correct | amended signal.
[Explanation of symbols]
1 …… Subject
2 ... Robot camera
2a …… Camera body
2b: Camera drive device
2b1...... Supporting arm
2b2…… Prop
2bThree……Wheel
2bFour...... Movement base
3 …… Operator
3a …… Hand
4 …… Virtual subject
4a …… Virtual subject
4b …… Prop
5,12 …… Model camera
6. Model motion detection device
6a …… Signal transmission line
6b1...... Supporting arm
6b2…… Prop
6bThree……Wheel
6bFour...... Movement base
7 …… Robot camera control device
7a: Signal transmission line
8, 8a …… Monitor (image display means)
21 …… Tension wire
31 …… Fixed switch
41 …… Ultrasonic transmitter
41a …… Signal transmission line
42 …… Ultrasonic receiver
42a: Signal transmission line
43 …… Position detection device
43a …… Signal transmission line
44 …… Force feedback controller
44a …… Signal transmission line
51 …… Small camera
61a, 61b ...... Detection signal
62a, 62b ... Disturbance component
63a, 63b ...... Control signal

Claims (7)

被写体とこの被写体を撮影するロボットカメラとの間の相対位置に対応して、前記被写体と別個独立した仮想被写体に対向して配置される、任意にカメラ操作可能な模型カメラと、
この模型カメラを保持して、カメラ操作される前記模型カメラの動きを検出するモデル動作検出手段と、
前記モデル動作検出手段によって検出される前記模型カメラの動きに対応して、前記ロボットカメラが前記被写体に対してカメラ操作されるように前記ロボットカメラの動きを制御するロボットカメラ制御手段と、
前記ロボットカメラによって撮影された画像を表示する画像表示手段とを備えるカメラ操作装置において、
前記仮想被写体と前記模型カメラとの間の距離を検出する位置検出機構を備えることを特徴とするカメラ操作装置。
Corresponding to the relative position between the subject and the robot camera that shoots the subject, a model camera that can be arbitrarily operated by the camera is disposed opposite to the virtual subject that is independent from the subject, and
Model movement detection means for holding the model camera and detecting the movement of the model camera operated by the camera;
Robot camera control means for controlling the movement of the robot camera so that the robot camera is operated on the subject in response to the movement of the model camera detected by the model motion detection means;
In a camera operation device comprising image display means for displaying an image photographed by the robot camera ,
A camera operation device comprising a position detection mechanism for detecting a distance between the virtual subject and the model camera.
前記位置検出機構が、前記仮想被写体と前記模型カメラとの間に張架されたテンションワイヤーであることを特徴とする請求項に記載のカメラ操作装置。The camera operating device according to claim 1 , wherein the position detection mechanism is a tension wire stretched between the virtual subject and the model camera. 前記位置検出機構が非接触式位置検出機構であり、前記仮想被写体と前記模型カメラとが予め設定された相対位置に保持されるように前記模型カメラのカメラ操作の動きに操作反力を加えるフォースフィードバック機構を備えることを特徴とする請求項に記載のカメラ操作装置。The position detecting mechanism is a non-contact position detecting mechanism, and a force that applies an operation reaction force to the movement of the model camera so that the virtual subject and the model camera are held at a preset relative position. The camera operating device according to claim 1 , further comprising a feedback mechanism. 前記モデル動作検出手段が、前記模型カメラの動きを検出する各動作軸に衝撃緩衝装置を備え、前記仮想被写体と前記模型カメラとが予め設定された相対位置に保持されるように前記衝撃緩衝装置によって前記各動作軸に機械的な操作反力を負荷するようにしたことを特徴とする請求項1ないし請求項のいずれか1項に記載のカメラ操作装置。The model motion detection means includes an impact buffer on each motion axis for detecting the movement of the model camera, and the impact buffer is configured so that the virtual subject and the model camera are held at a preset relative position. The camera operating device according to any one of claims 1 to 3 , wherein a mechanical operation reaction force is applied to each of the motion axes by the operation of the camera operating device. 前記モデル動作検出手段またはロボットカメラ制御手段が、模型カメラの動きを検出して前記モデル動作検出手段から出力される動作検出信号から前記模型カメラの動きの乱れに基づく誤差成分を除いて補正する信号補正手段を備えることを特徴とする請求項1ないし請求項のいずれか1項に記載のカメラ操作装置。The model motion detection unit or the robot camera control unit detects a motion of the model camera and corrects the motion detection signal output from the model motion detection unit by removing an error component based on the disturbance of the motion of the model camera camera operation device according to any one of claims 1 to 3, characterized in that it comprises a correcting means. 前記模型カメラが、前記仮想被写体を撮影可能なカメラであることを特徴とする請求項1ないし請求項のいずれか1項に記載のカメラ操作装置。The model camera, a camera operating device according to any one of claims 1 to 5, wherein said that the virtual object is a camera capable of photographing. 前記模型カメラと、前記モデル動作検出手段とが一体的に構成され、前記ロボットカメラに相似形に形成されていることを特徴とする請求項1ないし請求項のいずれか1項に記載のカメラ操作装置。The camera according to any one of claims 1 to 6 , wherein the model camera and the model motion detection unit are integrally configured and are formed in a similar shape to the robot camera. Operating device.
JP2003077591A 2003-03-20 2003-03-20 Camera control device Expired - Fee Related JP4124682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077591A JP4124682B2 (en) 2003-03-20 2003-03-20 Camera control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077591A JP4124682B2 (en) 2003-03-20 2003-03-20 Camera control device

Publications (2)

Publication Number Publication Date
JP2004289379A JP2004289379A (en) 2004-10-14
JP4124682B2 true JP4124682B2 (en) 2008-07-23

Family

ID=33292307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077591A Expired - Fee Related JP4124682B2 (en) 2003-03-20 2003-03-20 Camera control device

Country Status (1)

Country Link
JP (1) JP4124682B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102122172A (en) * 2010-12-31 2011-07-13 中国科学院计算技术研究所 Image pickup system and control method thereof for machine motion control
CN104965454A (en) * 2015-06-26 2015-10-07 深圳市兆通影视科技有限公司 Control system of studio robot

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20070291128A1 (en) * 2006-06-15 2007-12-20 Yulun Wang Mobile teleconferencing system that projects an image provided by a mobile robot
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
JP2011250388A (en) * 2010-05-28 2011-12-08 Kim Changnam Film-making robot
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8965579B2 (en) 2011-01-28 2015-02-24 Intouch Technologies Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP6270399B2 (en) * 2013-10-09 2018-01-31 株式会社岡村製作所 Video conference fixtures and video conference system
KR101974078B1 (en) * 2014-01-29 2019-04-30 한화테크윈 주식회사 Surveillance Camera Control System
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102122172A (en) * 2010-12-31 2011-07-13 中国科学院计算技术研究所 Image pickup system and control method thereof for machine motion control
CN102122172B (en) * 2010-12-31 2013-03-13 中国科学院计算技术研究所 Image pickup system and control method thereof for machine motion control
CN104965454A (en) * 2015-06-26 2015-10-07 深圳市兆通影视科技有限公司 Control system of studio robot

Also Published As

Publication number Publication date
JP2004289379A (en) 2004-10-14

Similar Documents

Publication Publication Date Title
JP4124682B2 (en) Camera control device
EP3470952B1 (en) Controlling device, gimbal on which the controlling device is applied and method for controlling a gimbal
JP2009241247A (en) Stereo-image type detection movement device
JP2008311804A (en) Imaging apparatus and method
JP6816721B2 (en) Medical support arm device and medical system
JPH1073783A (en) Video observation system
JP2009130878A (en) Imaging apparatus and method, information processing apparatus and method, and program
JPH04506890A (en) Method and device for remote control of the movement of a television camera or cinematography machine
JP2019083488A (en) Imaging device, support device, method of controlling them, and program
JP5471224B2 (en) Imaging system, imaging apparatus, information processing apparatus, and imaging method
JP2006346827A (en) Teaching system of robot
JP3497184B2 (en) TV camera operation control device using pan head
JP3177340B2 (en) Image recognition device
JP2015012550A (en) Imaging apparatus and imaging system
JPH0495489A (en) Stereoscopic video image pickup device
JP2004363987A (en) Image presentation system
JP5279518B2 (en) Imaging apparatus and control method thereof
JP2002196256A (en) Remote controller and microscopic system
JP2008098961A (en) Imaging apparatus, its control method, and control program
JP2021022075A (en) Video display control apparatus, method, and program
JP2007171278A (en) Lens device
JPH07328971A (en) Manipulator with tv camera
JP3826506B2 (en) Information display method
JP7218872B2 (en) animation production system
JP7128695B2 (en) Shooting operation data collection device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080408

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees