JP2005252680A - レンズシステム - Google Patents
レンズシステム Download PDFInfo
- Publication number
- JP2005252680A JP2005252680A JP2004060722A JP2004060722A JP2005252680A JP 2005252680 A JP2005252680 A JP 2005252680A JP 2004060722 A JP2004060722 A JP 2004060722A JP 2004060722 A JP2004060722 A JP 2004060722A JP 2005252680 A JP2005252680 A JP 2005252680A
- Authority
- JP
- Japan
- Prior art keywords
- lens
- data
- zoom
- focus
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/02—Mountings, adjusting means, or light-tight connections, for optical elements for lenses
- G02B7/04—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
- G02B7/10—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
- G02B7/102—Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Abstract
【課題】バーチャルシステムに使用されるレンズシステムであって、バーチャルシステムで必要とされる撮影レンズの画角、被写体距離及び主点位置のデータを出力することによってバーチャルシステムでのセッティングに要する手間や時間を低減することができるレンズシステムを提供する。
【解決手段】バーチャルシステム32の実写映像の撮影用に使用される実カメラのレンズ装置10において、CPU16は、エンコーダ22、24によって検出されるズーム位置及びフォーカス位置に基づいて、バーチャルシステム32での仮想カメラの設定に必要な画角、被写体距離、主点位置の情報を求め、それらの情報をバーチャルシステム32に送信する。
【選択図】 図1
【解決手段】バーチャルシステム32の実写映像の撮影用に使用される実カメラのレンズ装置10において、CPU16は、エンコーダ22、24によって検出されるズーム位置及びフォーカス位置に基づいて、バーチャルシステム32での仮想カメラの設定に必要な画角、被写体距離、主点位置の情報を求め、それらの情報をバーチャルシステム32に送信する。
【選択図】 図1
Description
本発明はレンズシステムに係り、特にバーチャルスタジオ等の映像合成システムにおいて適用されるレンズシステムに関する。
近年のテレビ放送では、テレビカメラで撮影した実写映像とコンピュータで作成した電子映像等を合成する技術が多用されている。映像(画像)を合成する技術としては、クロマキー合成の手法が一般的に知られている。これによれば、人物のような合成映像の前景被写体となるものを実写映像で取得する際に、その前景被写体を例えば青色の布(ブルーバック)の前に配置してテレビカメラで撮影する。これによって、その映像信号から前景被写体の領域とブルーバックの領域を識別するキー信号が生成される。そして、そのキー信号に基づいてブルーバックの領域の画像がコンピュータ等で作成した背景画像や、異なる時間又は場所で撮影した背景画像で置き換えられて前景被写体と背景画像とが合成される。
また、近年では、クロマキー合成によって単に映像を合成するだけでなく、実写映像としてテレビカメラによって撮影された被写体が、電子映像として作成された仮想空間(仮想スタジオ)内にあたかも実在しているかのように見せるバーチャルスタジオと呼ばれる映像合成システム(バーチャルシステム)が頻繁に使用されるようになっている。
バーチャルシステムでは、コンピュータなどで所望の仮想空間が作成されると共に、その仮想空間内に仮想的なカメラ(仮想カメラ)が配置される。これによって、仮想空間内の撮影が仮想カメラにより仮想的に行われ、仮想空間の電子映像が作成される。
また、バーチャルシステムでは、実写映像を撮影するテレビカメラ(実カメラという)でのズーム動作、フォーカス動作、パン・チルト動作などのカメラワークによる撮影条件の変更と同様に仮想カメラの撮影条件も変更され、実カメラでのカメラワークに連動した仮想空間の電子映像が仮想カメラによって生成されるようになっている。
このように仮想カメラによって生成された仮想空間の電子映像が実カメラで撮影された実写映像にクロマキー合成等によって合成されることによって、あたかも実写映像の被写体が仮想空間に実在しているかのような合成映像が生成される。
ところで、このようなバーチャルシステムでは、実カメラと仮想カメラとの撮影条件を正確に一致させるために、実カメラでの撮影条件の設定状態を示す撮影データとして画角、被写体距離及び主点位置の情報を必要とするものが多い。従来では、特許文献1で示されているようにエンコーダなどの位置センサで検出された撮影レンズのズーム位置やフォーカス位置等の情報をそのままバーチャルシステムに与えるものがあるが、それらの情報は、画角、被写体距離及び主点位置を直接示すものではない。
そのため、実カメラでの画角、被写体距離及び主点位置の情報を必要とするバーチャルシステムでは、実カメラの撮影レンズ(レンズ装置)から取得したそれらのズーム位置やフォーカス位置の情報に基づいて画角、被写体距離及び主点位置を算出することが行われている。
また、その算出にはレンズ装置(バーチャルシステムに使用するレンズ装置)に固有のレンズデータが必要であり、そのレンズデータを事前に作成しシステムに登録しておく必要がある。
現在では、レンズデータの作成、登録作業はユーザが行っており、例えば、実写映像を撮影するテレビカメラを用いて、画角、被写体距離及び主点位置を実測するための所定の実測用被写体を撮影すると共に、撮影レンズのズーム位置とフォーカス位置を変えて各位置での撮影像を取得する。そして、その撮影像からズーム位置とフォーカス位置の各位置での画角、被写体距離及び主点位置を実測する。この実測によって、ズーム位置及びフォーカス位置と、画角、被写体距離及び主点位置と関係を示すレンズデータが作成され、バーチャルシステムで参照されるメモリにそのレンズデータが記憶される。
実写映像の撮影本番時には、実カメラの撮影レンズ(レンズ装置)から与えられたズーム位置及びフォーカス位置に対して、それらの位置に対応する画角、被写体距離及び主点位置がレンズデータから求められ、その画角、被写体距離及び主点位置に基づいて仮想カメラの撮影条件が設定される。これによって実カメラでの撮影条件の設定状態に応じて仮想カメラの撮影条件が変更され、仮想カメラによって生成される仮想空間の電子映像が実カメラのカメラワークに連動して変更される。尚、雲台等によって実カメラの撮影方向(パン・チルト位置)を変更する場合、雲台からパン・チルト位置の情報がバーチャルシステムに与えられ、これによって仮想カメラの撮影方向も変更される。
特許第3478740号公報
しかしながら、従来のようにレンズ装置の位置センサにより検出されたズーム位置及びフォーカス位置の情報から画角、被写体距離及び主点位置をバーチャルシステムで算出する場合、上述のようにズーム位置及びフォーカス位置と、画角、被写体距離及び主点位置との関係を示すレンズデータをユーザが事前に実測して記憶させておく作業が必要となる。そのためその作業には少なくとも数時間、多くて数日かかることもあり、多くの時間と手間を要していた。また、画角、被写体距離及び主点位置を実測するズーム位置とフォーカス位置の各々の位置は、少なくとも数ポイントから数十ポイント必要であるが、時間節約のために少なくすると実写映像と電子映像の動きが合致しない、いわゆるスベリという現象が生じるという問題があった。
本発明はこのような事情に鑑みてなされたもので、少なくとも主点位置を含む撮影データを必要とするバーチャルシステム等の映像処理システムに使用される場合において、その撮影データを映像処理システムにおいて算出することを不要にして撮影データを算出するためのレンズデータを事前にユーザが実測して登録する等のセッティングに要していた時間や手間を削減し、また、精度の高い撮影データを提供することができるレンズシステムを提供することを目的とする。
前記目的を達成するために、請求項1に記載のレンズシステムは、撮影レンズのズーム、フォーカスを制御するレンズシステムにおいて、前記ズーム及びフォーカスの位置を検出する位置検出手段と、前記位置検出手段により検出されたズーム及びフォーカスの位置に基づいて前記撮影レンズの画角又は焦点距離、被写体距離及び主点位置のうち少なくとも主点位置を含む1つ又は複数の撮影データを算出する演算手段と、前記演算手段により算出された撮影データを出力する出力手段と、を備えたことを特徴としている。
本発明によれば、バーチャルシステムなどの映像処理システムに本発明のレンズシステムを使用する場合において、映像処理システムで必要な主点位置等の撮影データがレンズシステム内において算出されるため、映像処理システムにおいてその演算を行う必要がなく、また、その演算に必要となるレンズ固有のデータなどはレンズシステム内に事前(工場出荷前等)に構築しておくことができるためユーザの負担なく、また、精度の高い撮影データを映像処理システムに提供することができる。
また、請求項2に記載のレンズシステムは、請求項1に記載の発明において、ズーム及びフォーカスの位置と、前記演算手段により算出する撮影データとの関係を示すレンズデータを事前に記憶した記憶手段を備え、前記演算手段は、前記記憶手段に記憶されたレンズデータを用いて前記撮影データを算出することを特徴としている。即ち、撮影データの算出に必要なレンズデータは事前(工場出荷時等)に作成されて記憶手段に記憶される。
また、請求項3に記載のレンズシステムは、請求項2に記載の発明において、前記レンズデータは、前記撮影レンズの設計データから得られた設計値、又は、実測して得られた実測値であることを特徴としている。即ち、レンズデータを作成し記憶手段に記憶させておく場合に、撮影レンズの設計データに基づいて理論的な演算によって作成してもよいし、実測によって作成してもよい。実測によって作成した場合の方が手間を要するが製造誤差などの影響が少なくより正確な撮影データを外部のシステムに提供することができる。
また、請求項4に記載のレンズシステムは、請求項1に記載の発明において、前記撮影レンズはフランジバックを調整する調整手段を備え、該調整手段によるフランジバックの調整に伴う前記撮影データの変化を補正する補正手段を備えたことを特徴としている。本発明によれば、フランジバック調整を行うことによって光学特性が変化した場合であっても精度の高い撮影データを外部のシステムに提供することができる。
また、請求項5に記載のレンズシステムは、請求項1に記載の発明において、前記出力手段は、バーチャルシステムに前記撮影データを出力することを特徴としている。本発明のレンズシステムは、仮想カメラの撮影条件を設定するために実カメラでの画角、被写体距離、主点位置などの撮影データを必要とするバーチャルシステムに使用される場合に特に有効である。
本発明に係るレンズシステムによれば、バーチャルシステム等の映像処理システムに使用される場合に、映像処理システムで必要となる撮影データを映像処理システムにおいて算出することが不要となり、撮影データを算出するためのレンズデータを事前にユーザが実測して登録する等のセッティングに要していた時間や手間が削減される。また、精度の高い撮影データを提供することもできる。
以下、添付図面に従って本発明に係るレンズシステムの好ましい実施の形態について詳説する。
図1は、本発明が適用されるレンズシステム及びバーチャルシステムの構成を示したブロック図である。
まず、バーチャルシステム32の概要を説明する。同図に示すバーチャルシステム32は、放送用又は業務用のビデオカメラ等(実カメラ)によりブルーバックで撮影された被写体の実写映像と、コンピュータ等により作成された仮想空間(仮想スタジオ)の電子映像とをクロマキー合成の技術を用いて合成するいわゆるバーチャルスタジオと呼ばれるシステムであり、実カメラによる実写映像の撮影と同時に合成映像を生成するシステムである。
同図に示すようにバーチャルシステム32は、電子映像生成部34、クロマキー信号生成部36、映像合成部38、撮影データ収集部40等から構成されている。バーチャルシステム32を使用する前には、所望の仮想空間を構築する作成データが事前に作成され、その仮想空間の作成データが電子映像生成部34で読出し可能な状態に設定される。また、実カメラから出力される映像信号がクロマキー信号生成部36に入力可能な状態に設定される。
そして、実カメラによる実写映像の撮影本番時には、合成映像によって仮想空間内に配置する予定の実在の被写体(前景被写体)を、背景をブルーバックにして実カメラで撮影する。また、その際に実カメラのズームやフォーカスなどを操作し、所望のカメラワークで前景被写体を撮影する。尚、実写映像と電子映像とを合成した際に実写映像の被写体が必ずしも前景になるとは限らないが、ここでは前景被写体という。
また、実カメラでの実写映像の撮影本番時において、実カメラから出力された映像信号はクロマキー信号生成部36に入力される。クロマキー信号生成部36は、入力された映像信号に基づいて実写映像における前景被写体の領域とブルーバックの領域とを識別するキー信号を生成し、そのキー信号を映像合成部38に与えると共に、実カメラから入力された映像信号をそのままスルーして映像合成部38に与える。
一方、電子映像生成部34は、仮想空間に仮想カメラを配置し、その仮想カメラにより撮影される仮想空間の電子映像を仮想空間の作成データに基づいて生成する。そして、その映像信号を映像合成部38に与える。
映像合成部38は、キー信号に基づいて、実カメラからの映像信号により得られる実写映像のブルーバックの領域を特定し、その領域の画像を電子映像生成部34から与えられた電子映像に置き換える。これによって、前景被写体の実写映像と仮想空間の電子映像とを合成した合成映像の映像信号が生成され、その映像信号が映像合成部38から出力される。映像合成部38から出力された合成映像の映像信号は、記録又は再生用の映像信号としてバーチャルシステム32からVTR装置などの他の映像機器に出力される。
また、撮影データ収集部40は、実カメラに使用されるレンズ装置10とSCI(シリアルコミュニケーションインターフェース)42を通じて通信を行い、実カメラでの撮影条件の設定状態を知るための情報(撮影データ)をレンズ装置10から取得する。そして、その取得した撮影データを電子映像生成部34に与える。従来のバーチャルシステムでは、撮影レンズのズーム位置やフォーカス位置のデータをレンズ装置10から取得していたが、本実施の形態では、後述のように画角、被写体距離及び主点位置のデータを取得する。尚、画角、被写体距離及び主点位置の情報以外にも実カメラでの撮影条件の設定状態を知るために必要な情報が撮影データ収集部40によって取得される。例えば、雲台を用いて実カメラをパン・チルト動作させる場合には、その雲台からパン・チルト位置のデータも取得される。また、レンズ装置10からは絞り値等の明るさの情報が取得される場合もある。但し、本実施の形態では、レンズ装置10から画角、被写体距離及び主点位置の情報のみを取得する場合について説明する。
電子映像生成部34は、上述のように仮想カメラを想定して仮想空間の電子映像を生成する際に、仮想カメラの撮影条件を撮影データ収集部40から与えられた撮影データに基づいて設定する。即ち、仮想カメラでの画角、被写体距離及び主点位置を実カメラでの画角、被写体距離及び主点位置の設定状態に応じて変更し、それらの仮想カメラの撮影条件を実カメラの撮影条件に一致させる。これによって実カメラでのカメラワークに連動した仮想空間の電子映像が生成され、その電子映像と実カメラからの実写映像とが映像合成部38により合成されることで不自然さのない合成映像が生成されるようになっている。
次に、上記バーチャルシステム32の実カメラに使用されるレンズシステムについて説明する。レンズシステムは、詳細な構成を省略した撮影レンズ(光学系)と制御系とを備えたレンズ装置10と、レンズ装置10に接続されるズームデマンド12やフォーカスデマンド14等のコントローラから構成されている。
レンズ装置10の撮影レンズは、放送用又は業務用のビデオ撮影に用いられるレンズ交換可能なカメラ本体(図示せず)にマウントによって装着されるようになっており、この撮影レンズによってカメラ本体に設けられた撮像素子の受光面に被写体像が結像される。
撮影レンズには、図に示すズーム(変倍)レンズ(群)ZLやフォーカスレンズ(群)FLが光軸方向に移動可能に配置されており、各レンズZL、FLは各モータZM、FMに連結され各モータZM、FMの駆動力によって光軸方向に移動するようになっている。モータZMによってズームレンズZLが移動すると、撮影レンズのズーム倍率(焦点距離)が変化し、これによって撮影画角が変化する。モータFMによってフォーカスレンズFLが移動すると、撮影レンズのピント位置が変化し、これによってピントが合う被写体までの距離(被写体距離又は撮影距離)が変化する。
レンズ装置10の制御系は、同図に示すようにCPU16、A/D変換器18、D/A変換器20、アンプZA、FA、エンコーダ22、24、ROM28等から構成されている。A/D変換器18にはレンズ装置10に接続されたズームデマンド12やフォーカスデマンド14から出力される指令信号が入力されるようになっている。ズームデマンド12ではカメラマン等によるズーム操作が行われ、その操作に応じてズームデマンド12からズームレンズZLの位置又は移動速度の目標値を示すズーム指令信号が出力される。また、フォーカスデマンド14ではカメラマン等によるフォーカス操作が行われ、その操作に応じてフォーカスデマンド14からフォーカスレンズFLの位置又は移動速度の目標値を示すフォーカス指令信号が出力される。
これらのズーム指令信号やフォーカス指令信号は、A/D変換器18によってアナログ信号からデジタル信号に変換されてCPU16に与えられる。
尚、ズームやフォーカスの動作を指令するためにCPU16に与えられるズーム指令信号やフォーカス指令信号は、上述のようなズームデマンド12やフォーカスデマンド14から与えられるものでなくてもよく、CPU16にシリアル通信により接続されるコンピュータ等の他の装置から与えられるものであってもよい。
CPU16は、ズームデンンド14から与えられたズーム指令信号に従ってズーム制御信号をD/A変換器20に出力し、D/A変換器20によってズーム制御信号をデジタル信号からアナログ信号に変換した後、アンプZAに与える。これによって、ズーム制御信号に従ってモータZMが駆動され、ズームレンズZLが移動すると共に、ズーム制御信号の値がズーム指令信号の値やズームレンズZLの状態(位置又は速度)に応じてCPU16によって調整されて、ズームレンズZLの状態がズーム指令信号により与えられた目標値となるように制御される。
同様に、CPU16は、フォーカスデマンド14から与えられたフォーカス指令信号に従ってフォーカス制御信号をD/A変換器20に出力し、D/A変換器20によってフォーカス制御信号をデジタル信号からアナログ信号に変換した後、アンプFAに与える。これによって、フォーカス制御信号に従ってモータFMが駆動され、フォーカスレンズFLが移動すると共に、フォーカス制御信号の値がフォーカス指令信号の値やフォーカスレンズFLの状態(位置又は速度)に応じてCPU16によって調整されて、フォーカスレンズFLの状態がフォーカス指令信号により与えられた目標値となるように制御される。
また、レンズ装置の制御系には、ズームレンズZLやフォーカスレンズFの位置を検出する位置センサとしてエンコーダ22、24が設けられている。例えばエンコーダ22、24にはインクリメンタル型ロータリーエンコーダが使用され、それらの回転検出軸がそれぞれモータZM、FMの出力軸に連結される。これによってエンコーダ22からは、ズームレンズZLが正又は負の方向(ワイド方向又はテレ方向)に所定量移動するごとにその移動方向の正負と所定単位量移動したことを示すパルス信号が出力される。また、エンコーダ24からは、フォーカスレンズFLが正又は負の方向(至近方向又は無限遠方向)に所定量移動するごとにその移動方向の正負と所定単位量移動したことを示すパルス信号が出力される。
これらのエンコーダ22、24から出力されるパルス信号は、カウンタ26に入力され、正方向への所定単位量の移動を示すパルス信号が入力されると、カウンタ26の値(カウント値)が1増加し、負方向への所定単位量の移動を示すパルス信号が入力されると、カウンタ26のカウント値が1減少する。
カウンタ26は、各エンコーダ22、24ごとにパルス信号のカウントを行っており、各々のカウント値は、現在のズームレンズZLの位置(ズーム位置)とフォーカスレンズFLの位置(フォーカス位置)を示すデータ(値)としてCPU16に与えられ、ズームレンズZLやフォーカスレンズFLの制御に用いられる。尚、初期設定時において、ズームレンズZLはワイド端とテレ端のいずれかの端位置に移動され、フォーカスレンズFLは至近端と無限遠端のいずれかの端位置に移動され、そのときにカウンタ26のカウント値が0にリセットされる。また、エンコーダ22、24及びカウンタ26の代わりに絶対値を出力するポテンショメータを使用することも可能であるが、バーチャルシステムで必要な精度や分解能を考慮するとエンコーダの方が有利である。
また、CPU16は、エンコーダ22、24及びカウンタ26によって逐次得られる現在のズーム位置及びフォーカス位置のデータに基づいて、そのときの撮影レンズの画角、被写体距離及び主点位置を後述のようにROM28(EEPROM等)に記憶されているレンズデータを用いて算出する。そして、その算出した画角、被写体距離及び主点位置のデータを撮影データとして上述のようにバーチャルシステム32の撮影データ収集部40にSCI30を通じて送信する。これによって、バーチャルシステム32は実カメラでの撮影条件の設定状態を知ることができ、仮想カメラでの撮影条件を実カメラの撮影条件に一致させることができる。また、CPU16は、撮影レンズの画角、被写体距離及び主点位置の算出とそれらのデータの撮影データ収集部40への送信を逐次行っており、これによって、実カメラでのズーム動作やフォーカス動作によるカメラワークに連動して仮想カメラの撮影条件が変更され、実カメラでのカメラワークに連動した仮想空間の電子映像が生成される。尚、バーチャルシステム32が実カメラでの撮影レンズの画角の情報として焦点距離の情報を要求する場合には、CPU16は、画角の代わりに撮影レンズの焦点距離を算出し、その情報をバーチャルシステムに送信するようにしてもよい。
続いて、撮影レンズのズーム位置及びフォーカス位置のデータから画角、被写体距離及び主点位置のデータを算出する処理について説明する。CPU16によって参照されるROM28にはズーム位置及びフォーカス位置と、画角、被写体距離及び主点位置との関係を示したレンズデータが撮影レンズの光学設計データに基づいて予め作成され、記憶されている。図2(A)、(B)は、そのレンズデータの一部分を例示した図である。同図に示すようにレンズデータは、テーブル化されて記憶されており、エンコーダ22、24及びカウンタ26によって検出されるズーム位置及びフォーカス位置の値(カウンタ26のカウント値0〜20000)に対して、それらの各位置での画角、被写体距離及び主点位置の値が対応付けて記憶されている。図2(A)はズーム位置及びフォーカス位置の各値に対応する画角の値(画角θに対してtanθの値を示している)、図2(B)はズーム位置及びフォーカス位置の各値に対応する主点位置の値(単位mm)を示すレンズデータであり、被写体距離の値を示すレンズデータについては省略しているが画角や主点位置のレンズデータと同様に作成される。尚、主点位置は、撮影レンズのレンズ鏡胴におけるレンズマウントの取り付け基準面(フランジ)からの距離で示されている。
また、ズーム位置とフォーカス位置は高い分解能で検出可能であるが、レンズデータはその分解能ごとのデータを持つと膨大な記憶容量が必要となるため、ROM28の記憶容量等の関係からROM28にはズーム位置やフォーカス位置の分解能と比較して少ない位置分解能に相当するレンズデータが記憶されている。但し、ここでのレンズデータは撮影レンズの光学設計データを用いて理論的に算出された設計値であり、ズーム位置とフォーカス位置の比較的多くのポイント(各々数十ポイント)に対して画角、被写体距離及び主点位置の値が記憶されている。
CPU16は、現在のズーム位置とフォーカス位置の値を取得して画角、被写体距離及び主点位置を算出する際に、ROM28に記憶されているレンズデータを参照する。このとき、CPU16は、カウンタ26から現在のズーム位置とフォーカス位置の値を取得したときに、それら値に直接対応するデータがある場合にはそのデータにより画角、被写体距離及び主点位置を読み取る。一方、現在のズーム位置とフォーカス位置の値に直接対応するデータがない場合には、それらの位置の値に近い両隣りのデータ、又は、それより多くのデータをROM28から読み出して補間し、カウンタ26から取得した現在のズーム位置とフォーカス位置の値に対応する画角、被写体距離及び主点位置を補間値により求める。これによって、カウンタ26から取得したズーム位置及びフォーカス位置の値に対応する画角、被写体距離及び主点位置の値がレンズデータに基づいて算出される。
尚、ROM28に記憶させておく上記レンズデータは撮影レンズの光学設計データから理論的に求めた設計値ではなく、実測値であってもよい。例えば、工場出荷時等において、レンズ装置10を標準のカメラに装着し、所定の実測用被写体を撮影してその撮影像を取得すると共に、ズーム位置とフォーカス位置を各々数ポイントから数十ポイントで変化させて各ポイントでの撮影像を取得する。そして、それらの撮影像に基づいてズーム位置とフォーカス位置の各位置での画角、被写体距離及び主点位置を実測し、その実測値をレンズデータとしてROM28に記憶させておく。これによれば、製造誤差や位置センサの誤差等によってレンズデータに誤差が生じることなく、より高い精度が要求されるシステムにおいて好適である。また、このような実測値を得る作業は多くの時間と手間を要するため、レンズデータの全てを実測値とするのではなく、実測値で不足する部分を設計値で補うようにしてもよい。
また、一般に撮影レンズには、その撮影レンズを装着するカメラ(カメラ本体)に応じてバックフォーカス(フランジバック)を調整する機構が設けられている。例えば、マスターレンズ(群)の一部に光軸方向に移動可能に配置されたトラッキングレンズ(群)を備え、そのトラッキングレンズの位置を調整してバックフォーカスを調整できるようにしたもの等がある。この場合にバックフォーカスの調整値(トラッキングレンズで調整する場合、調整値はトラッキングレンズの位置を示す値を表す)によってズーム位置及びフォーカス位置と、画角、被写体距離及び主点位置との関係が変化する。そこで、バックフォーカスの調整値に応じてレンズデータを補正できるようにしてもよい。例えば、バックフォーカスを基準の調整値に設定したときのレンズデータを上述のように設計値又は実測値によりROM28に記憶させておく。また、バックフォーカスの基準の調整値からの変化量と、レンズデータとして記憶されているズーム位置及びフォーカス位置の各値における画角、被写体距離及び主点位置の値の変化量との関係を設計値又は実測値により求め、その関係を補正量データとしてROM28に記憶させておく。更に、バックフォーカスの調整値を自動で取得できるようにしておく。これによれば、バックフォーカスの調整によって基準の調整値から変化した場合に、ズーム位置及びフォーカス位置の値に対する画角、被写体距離及び主点位置の値をレンズデータから求めると共に、バックフォーカスの基準の調整値からの変化量に対応するそれらの値の補正量を補正量データから求めることによって、撮影データとして出力する画角、被写体距離及び主点位置のデータを適切な値に補正することができる。尚、補正量データが例えばバックフォーカスの基準の調整値からの変化量を示す離散的な値のデータと、それらの各値に対応する補正量を示す値のデータとからなる場合に、バックフォーカスの基準の調整値からの変化量に直接対応するデータが補正量データにないときには、その変化量の近い値のデータを補正量データから読み出して補間することによって、バックフォーカスの基準の調整値からの変化量に対応する補正量を求めるようにしてもよい。
次に、バーチャルシステム32との通信に関するCPU16の処理手順を図3のフローチャートを用いて説明する。CPU16は処理を開始すると、まず、バーチャルシステム32との通信以外の処理を実行する(ステップS10)。続いて、バーチャルシステム32とのシリアル通信があるか否かを判定する(ステップS12)。NOと判定した場合には以下の処理を行わずにステップS10に戻る。
一方、YESと判定した場合には、現在のズーム位置ZP、フォーカス位置FPをカウンタ26から読み込む(ステップS14)。続いて、ROM28に記憶されているレンズデータのうちそのズーム位置ZP、フォーカス位置FPに近い位置のデータをROM28から取り出す(ステップS16)。そして、ズーム位置ZP及びフォーカス位置FPに対応する画角、被写体距離及び主点位置のデータを補間により求める(ステップS18)。
CPU16はこのようにして求めたデータを撮影データとしてシリアル通信でバーチャルシステム32に出力する(ステップS20)。以上の処理が終了すると、ステップS10の処理に戻る。
尚、上記実施の形態では、レンズ装置10から画角、被写体距離及び主点位置のデータをバーチャルシステム32に出力するようにしたが、更に撮影レンズの絞り値(絞り位置)を検出し、その絞り値に基づいて被写界深度を求めてそのデータも出力するようにしてもよい。また、必ずしも画角、被写体距離及び主点位置のすべてのデータをバーチャルシステム32に出力する場合でなくても画角、被写体距離及び主点位置のいずれかのデータを出力する場合であっても本発明は有効である。また、上記実施の形態のようなバーチャルシステム32に本発明のレンズシステムを用いる場合でなくても画角、被写体距離、主点位置等の撮影データを必要とする映像処理システムに本発明のレンズシステムを用いた場合も有効である。
10…レンズ装置、12…ズームデマンド、14…フォーカスデマンド、16…CPU、18…A/D変換器、20…D/A変換器、22、24…エンコーダ、26…カウンタ、28…ROM、30…SCI、32…バーチャルシステム、34…電子映像生成部、36…クロマキー信号生成部、38…映像合成部、40…撮影データ収集部、ZL…ズームレンズ、FL…フォーカスレンズ、ZM、FM…モータ、
Claims (5)
- 撮影レンズのズーム、フォーカスを制御するレンズシステムにおいて、
前記ズーム及びフォーカスの位置を検出する位置検出手段と、
前記位置検出手段により検出されたズーム及びフォーカスの位置に基づいて前記撮影レンズの画角又は焦点距離、被写体距離及び主点位置のうち少なくとも主点位置を含む1つ又は複数の撮影データを算出する演算手段と、
前記演算手段により算出された撮影データを出力する出力手段と、
を備えたことを特徴とするレンズシステム。 - ズーム及びフォーカスの位置と、前記演算手段により算出する撮影データとの関係を示すレンズデータを事前に記憶した記憶手段を備え、前記演算手段は、前記記憶手段に記憶されたレンズデータを用いて前記撮影データを算出することを特徴とする請求項1のレンズシステム。
- 前記レンズデータは、前記撮影レンズの設計データから得られた設計値、又は、実測して得られた実測値であることを特徴とする請求項2のレンズシステム。
- 前記撮影レンズはフランジバックを調整する調整手段を備え、該調整手段によるフランジバックの調整に伴う前記撮影データの変化を補正する補正手段を備えたことを特徴とする請求項1のレンズシステム。
- 前記出力手段は、バーチャルシステムに前記撮影データを出力することを特徴とする請求項1のレンズシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004060722A JP2005252680A (ja) | 2004-03-04 | 2004-03-04 | レンズシステム |
US11/069,557 US7463292B2 (en) | 2004-03-04 | 2005-03-02 | Lens system |
EP05004583A EP1571833A3 (en) | 2004-03-04 | 2005-03-02 | Lens system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004060722A JP2005252680A (ja) | 2004-03-04 | 2004-03-04 | レンズシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005252680A true JP2005252680A (ja) | 2005-09-15 |
Family
ID=34747672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004060722A Pending JP2005252680A (ja) | 2004-03-04 | 2004-03-04 | レンズシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US7463292B2 (ja) |
EP (1) | EP1571833A3 (ja) |
JP (1) | JP2005252680A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011077821A (ja) * | 2009-09-30 | 2011-04-14 | Casio Computer Co Ltd | 画像合成装置、画像合成方法及びプログラム |
JP2013080065A (ja) * | 2011-10-03 | 2013-05-02 | Canon Inc | 撮影情報出力装置及びそれを有するレンズ装置 |
JP2017049610A (ja) * | 2013-12-11 | 2017-03-09 | 旭化成エレクトロニクス株式会社 | 手振れ補正装置の調整方法 |
JP2021532649A (ja) * | 2018-07-27 | 2021-11-25 | カール・ツアイス・アーゲー | 画像の合成のための方法及びデータ処理システム |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4734678B2 (ja) * | 2005-09-28 | 2011-07-27 | 富士フイルム株式会社 | レンズ制御システム |
US20110234887A1 (en) * | 2010-03-25 | 2011-09-29 | Panasonic Corporation | Image capture device |
KR20180018213A (ko) * | 2016-08-12 | 2018-02-21 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
CN106101564A (zh) * | 2016-08-16 | 2016-11-09 | 葛瑞坤 | 一种电动跟焦器及其调焦范围自确定方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3478740B2 (ja) | 1998-09-28 | 2003-12-15 | キヤノン株式会社 | 撮影システムおよびテレビレンズ装置 |
JP3809359B2 (ja) * | 2001-10-18 | 2006-08-16 | キヤノン株式会社 | 立体撮像レンズ装置および立体撮像システム |
JP3996805B2 (ja) * | 2002-06-06 | 2007-10-24 | 株式会社日立製作所 | 監視カメラ装置、監視カメラシステム装置及び撮像画面のマスク方法 |
-
2004
- 2004-03-04 JP JP2004060722A patent/JP2005252680A/ja active Pending
-
2005
- 2005-03-02 EP EP05004583A patent/EP1571833A3/en not_active Withdrawn
- 2005-03-02 US US11/069,557 patent/US7463292B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011077821A (ja) * | 2009-09-30 | 2011-04-14 | Casio Computer Co Ltd | 画像合成装置、画像合成方法及びプログラム |
JP2013080065A (ja) * | 2011-10-03 | 2013-05-02 | Canon Inc | 撮影情報出力装置及びそれを有するレンズ装置 |
US9817207B2 (en) | 2011-10-03 | 2017-11-14 | Canon Kabushiki Kaisha | Image pickup information output apparatus and lens apparatus equipped with same |
JP2017049610A (ja) * | 2013-12-11 | 2017-03-09 | 旭化成エレクトロニクス株式会社 | 手振れ補正装置の調整方法 |
US10613342B2 (en) | 2013-12-11 | 2020-04-07 | Asahi Kasei Microdevices Corporation | Image stabilizer and adjustment method thereof, image stabilizing circuit, image stabilizing method, and camera module and position control method of optical component thereof |
JP2021532649A (ja) * | 2018-07-27 | 2021-11-25 | カール・ツアイス・アーゲー | 画像の合成のための方法及びデータ処理システム |
Also Published As
Publication number | Publication date |
---|---|
EP1571833A2 (en) | 2005-09-07 |
EP1571833A3 (en) | 2010-02-17 |
US7463292B2 (en) | 2008-12-09 |
US20050195311A1 (en) | 2005-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4858263B2 (ja) | 3次元計測装置 | |
JP4293053B2 (ja) | 撮像装置及び方法 | |
JP5513024B2 (ja) | 撮像装置、ズーム補正情報作成方法およびプログラム | |
US7463292B2 (en) | Lens system | |
US20080239099A1 (en) | Camera | |
US7557831B2 (en) | Optical apparatus provided with image-shake correction function | |
WO2018030166A1 (ja) | 像ブレ補正装置、光学機器、および像ブレ補正方法 | |
JPH0313074A (ja) | 画像処理システム | |
JP2009296561A (ja) | 撮像装置及び撮像方法 | |
JP2006162991A (ja) | 立体画像撮影装置 | |
KR20020000532A (ko) | 카메라를 조정하는 방법 및 장치 | |
JP2000125175A (ja) | カメラ、画像処理システム、及び記録媒体 | |
US9645352B2 (en) | Image pickup apparatus | |
JPH0787385A (ja) | 撮像装置 | |
JP6917536B2 (ja) | 撮像装置 | |
JP2008129455A (ja) | 撮像装置、制御方法、およびプログラム | |
JP4306438B2 (ja) | 撮像装置 | |
JP2017161891A5 (ja) | ||
JP2019109271A (ja) | 撮像装置 | |
JP2019125880A (ja) | 撮像装置およびその制御方法 | |
JP7289733B2 (ja) | 位置検出装置 | |
JP2011124837A (ja) | 画像合成装置 | |
JP2005352043A (ja) | 撮像装置及び合焦制御方法 | |
JP5544901B2 (ja) | 画角中心ズレ補正装置、撮像装置、画角中心ズレ補正方法及びプログラム | |
JP2020187244A (ja) | 制御装置、レンズ装置、撮像装置、制御方法、および、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091211 |