JP2012124553A - 撮影システムおよびレンズ装置 - Google Patents
撮影システムおよびレンズ装置 Download PDFInfo
- Publication number
- JP2012124553A JP2012124553A JP2010271200A JP2010271200A JP2012124553A JP 2012124553 A JP2012124553 A JP 2012124553A JP 2010271200 A JP2010271200 A JP 2010271200A JP 2010271200 A JP2010271200 A JP 2010271200A JP 2012124553 A JP2012124553 A JP 2012124553A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- subject
- reference position
- lens
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】 複数の被写体に対してフォーカシングを行うことなく、複数の被写体のある基準位置からの距離を精度よく、かつ連続的に算出することができるようにした撮影システムおよびレンズ装置を提供する。
【解決手段】 撮影システムは、レンズ装置1と、該レンズ装置1を用いて撮影を行うカメラ2とを含む撮影システムであって、被写体像間の位相差を検出する位相差センサーが構成された焦点検出部102を有し、複数の測距エリアをもって多点測距可能な位相差方式のオートフォーカスレンズにおいて、各測距点ごとの被写体距離、および被写体間距離を生成する距離情報生成手段と、ある基準位置からの距離情報を認識する距離情報認識手段と、前記距離情報から各被写体の前記基準位置からの距離を算出する被写体距離演算手段と、撮影システムの移動速度を算出する移動速度算出手段と、算出された距離情報を記憶、更新する記憶更新手段と、記憶、更新された距離情報を出力する距離情報出力手段を有する。
【選択図】 図1
【解決手段】 撮影システムは、レンズ装置1と、該レンズ装置1を用いて撮影を行うカメラ2とを含む撮影システムであって、被写体像間の位相差を検出する位相差センサーが構成された焦点検出部102を有し、複数の測距エリアをもって多点測距可能な位相差方式のオートフォーカスレンズにおいて、各測距点ごとの被写体距離、および被写体間距離を生成する距離情報生成手段と、ある基準位置からの距離情報を認識する距離情報認識手段と、前記距離情報から各被写体の前記基準位置からの距離を算出する被写体距離演算手段と、撮影システムの移動速度を算出する移動速度算出手段と、算出された距離情報を記憶、更新する記憶更新手段と、記憶、更新された距離情報を出力する距離情報出力手段を有する。
【選択図】 図1
Description
本発明は、測距機能を有する撮影システムおよびレンズ装置に関する。
被写体のある基準位置からの距離や被写体間の相対距離、例えばマラソン中継においては、ランナーのスタート地点からの走行距離やランナー間の距離などがそれにあたるが、これらの距離を測定する場合、以下のような例が挙げられる。
特許文献1では、まず第1の被写体に対してマニュアルフォーカシングを行い、合焦した時点でのフォーカスレンズの位置に基づいて第1の被写体までの距離を算出する。次に、第2の被写体に対して同様にマニュアルでフォーカシングを行い、合焦した時点でのフォーカスレンズの位置に基づいて第2の被写体までの距離を算出する。そして、算出された第1および第2の被写体距離の差を求め、誤差の情報を映像信号に重畳させて表示させる。
特許文献2では、マラソンのスタート地点から所定間隔までの距離と、それに対応する緯度、経度情報を対応させたデータテーブルを持ち、GPSによって測定された位置情報に最も近いデータを選択することで、被写体の距離を間接的に測定して表示させる。
また、位相差方式による多点測距は公知であるが、従来技術では、測距されたデータによるAF精度の向上に関するものとなっており、距離情報そのものに関する公知例はない。
しかしながら、特許文献1にて開示された撮影システムでは、第1および第2の被写体の距離を算出するためには、第1および第2の被写体のそれぞれに対してフォーカシングを行わなければならない。つまり、主たる撮影対象である第1の被写体に対して合焦状態を維持しながら第2の被写体までの距離を算出することができない。
また、該撮影システムでは、第1の被写体までの距離を算出した後、第2の被写体にフォーカシングしてから両被写体間の距離が求められるので、マラソンなどの刻々と距離が変化していくものに対して、リアルタイムで距離情報を提供することができない。
さらに、特許文献2にて開示された撮影システムでは、被写体を直接的に測定することがないため、距離情報に大きな誤差を生じてしまう。
そこで、本発明の例示的な目的は、複数の被写体に対してフォーカシングを行うことなく、複数の被写体のある基準位置からの距離を精度よく、かつ連続的に算出することができるようにした撮影システムおよびレンズ装置を提供することにある。
上記目的を達成するために、本発明の撮影システムおよびレンズ装置は、レンズ装置と、該レンズ装置を用いて撮影を行うカメラとを含む撮影システムであって、複数の測距エリアを持ち、多点測距可能な測距手段を有する位相差方式のオートフォーカスレンズにおいて、各測距点ごとの被写体距離、および被写体間距離を生成する距離情報生成手段と、ある基準位置からの距離情報を認識する距離情報認識手段と、前記距離情報から各被写体の前記基準位置からの距離を算出する被写体距離演算手段と、撮影システムの移動速度を算出する移動速度算出手段と、算出された距離情報を記憶、更新する記憶更新手段と、記憶、更新された距離情報を出力する距離情報出力手段を有することを特徴とする。
本発明の更なる目的又はその他の特徴は、以下、添付の図面を参照して説明される好ましい実施例等によって明らかにされるであろう。
本発明によれば、レンズのフォーカス状態にかかわらず、距離計などによって得られるある基準位置からの距離情報と位相差センサーにより検出された位相差に基づいて得られる測距エリアごとの被写体距離や被写体間距離によって、該被写体のある基準位置からの距離を算出することができる。このため、実際の被写体距離や被写体間距離の変化に対して、遅れることなく上記距離情報を提供できる。
また、測距対象が被写体自身なので、高精度の距離情報を提供できる。
さらに、撮像装置のみで測距から出力まで行えるため、簡単なシステムで構築できる。
などの効果が得られる。
以下に、本発明の実施の形態を添付の図面に基づいて詳細に説明する。
[実施例1]
図1は本発明を適用した撮影システムの構成図である。該撮影システムはレンズ装置1とカメラ2とカメラに接続される外部装置3および表示部4とで構成されている。
図1は本発明を適用した撮影システムの構成図である。該撮影システムはレンズ装置1とカメラ2とカメラに接続される外部装置3および表示部4とで構成されている。
レンズ装置1において、101はハーフミラーで、レンズ内を通過してきた被写体からの光束は、ハーフミラー101によって透過する光束と反射する光束に分割される。102は焦点検出部で、不図示の2次結合レンズと位相差方式であるAFセンサーとで構成されており、ハーフミラー101より反射してきた光束によって形成された被写体像(2像)間の位相差を検出する。
103はレンズCPUで、焦点検出部102より送られてきた2つの像信号からレンズ装置1のデフォーカス量を算出し、フォーカス制御を行ったり、被写体距離を算出したりする。さらに、カメラ2とのデータの送受信を行う。
カメラ2において、201は撮像素子であるCCD、202はカメラCPUで映像信号処理部202aによってCCD201から出力された信号に対して各種処理を行い、撮影映像信号を生成し、表示部4やレンズ1へ出力される。
3は、本撮影システムの基準位置からの距離を計測する距離計などの外部装置で、測定データは、カメラCPUへ送られる。
また、レンズCPU103とカメラCPU202とはシリアル通信で接続され、各種の情報交換が可能となっている。
図2は上記撮影システムでの本発明のマラソン中継の使用状態図である。
図2において、5は図1に示した撮影システムあり、位相差方式のオートフォーカス搭載のテレビレンズが接続されている。6は本システムの移動用車両で、距離計3によって移動距離が測定される。ここではマラソンのスタート地点からの距離を測定している。
7、8、9は測距対象となる移動物体で、マラソンランナーを想定している。10、11、12は移動物体7、8、9の測距を行うAF枠である。
距離を表す各記号(L0〜L3、L0′〜L3′、ΔL1〜ΔL3、ΔL23)に関しては、図2に示した説明の通りである。
図3は、表示部4へ出力された基準位置からの被写体距離L1′〜L3′の表示例である。各被写体の頭上付近にスタート地点からの走行距離が表示されている。
図4(a)、(b)は前記撮影システムでの被写体距離の演算処理のフローチャートであり、図4(a)はカメラCPU202での処理であり、図4(b)はレンズCPU103での処理である。
カメラ2に電源が入ると、カメラCPU202はステップS1に進み、外部装置3である距離計より、距離計のスタート地点からの距離(基準からの距離)L0情報を得る。ステップS2では、予めカメラCPU202内に記憶されている距離計とレンズ装置1との相対距離ΔL1を前記L0から引き算し、レンズ装置1のスタート地点からの距離L0′として記憶する。
ステップS3では、レンズ装置1のスタート地点からの距離L0′をレンズ装置1へ出力する。
レンズ装置1に電源が入ると、レンズCPU103はステップS11に進み、カメラ2からのL0′入力があったかを判断する。L0′入力があった場合はステップS12へ進み、L0′情報を読み込み、ステップS13へ進む。L0′入力がなかった場合も、ステップS13へ進む。
ステップS13では、レンズCPU103によって焦点検出部102のAFセンサーを駆動し、AFセンサ上にある複数対のラインセンサ上に形成された対の被写体像(以下、2像という)を光電変換して2つの像信号を出力する。
そして、該2つの像信号に対する相関演算を行い、該像信号間の位相差を算出し、それに基づいてレンズ装置1のデフォーカス量を算出する。
ステップS14では、レンズCPU103の被写体距離演算部で測距用の一対のラインセンサからの2つの像信号の位相差に基づいて得られたデフォーカス量と現在のフォーカスレンズ位置および変倍レンズ位置とを用いて、選択された測距エリアでの被写体距離L1,L2,L3を算出する。
ステップS15では、レンズCPU103の被写体距離演算部で算出された前記L1,L2,L3の差を算出し、被写体間の相対距離ΔL2,ΔL3,ΔL23を算出する。
ステップS16では、レンズCPU103の被写体距離演算部によって前記L0′,L1,L2,L3より、各被写体の基準位置からの距離(スタート地点からの距離)L1′,L2′,L3′を算出する。
ステップS17では、算出された各種被写体距離情報をレンズCPU103の距離情報記憶部に最新情報に更新した後記憶する。
ステップS18では、記憶した各被写体の基準位置からの距離をカメラCPU202を介して表示部4へ出力し、図3に示すように、各被写体の頭上付近に表示される。
本実施例によれば、レンズのフォーカス状態にかかわらず、各被写体の距離情報(ランナーのスタート地点からの距離やランナー間の距離を被写体間距離の変化に対して、遅れることなく提供することができる。
実施例1では、L0の読み込みはカメラCPU202で行い、L1〜L3、ΔL1〜ΔL3、L1′〜L3′の算出はレンズCPU103が行ったが、レンズCPU103がL1〜L3を算出し、カメラCPU202へ通知し、カメラCPU202でL0の読み込みとΔL1〜ΔL3、L1′〜L3′の算出を行って、カメラCPU202から表示部4に表示出力を行ってもよい。
さらに、システム構成によっては、レンズCPU103とカメラCPU202との処理内容を変更してもよい。
[実施例2]
図5は、本発明の実施例2であるマラソン中継の使用状態図である。図5において、実施例1(図2)に示した構成要素と共通する要素については実施例1と同符号を付して、その説明を省略する。
図5は、本発明の実施例2であるマラソン中継の使用状態図である。図5において、実施例1(図2)に示した構成要素と共通する要素については実施例1と同符号を付して、その説明を省略する。
実施例2では、実施例1での距離計3との接続なしに、基準位置からの距離L0を算出する例示である。
13は基準からの距離情報を得るためのマーカーで測距対象となる固定物体である。14は測距対象となる移動物体でマラソンランナーを想定している。15はマーカー13を測距するAF枠で、16は移動物体14を測距するAF枠である。
距離を表す各記号(L0〜L2、L1′、L2′、ΔL)および速度(S)に関しては、図5に示した説明の通りである。
図6(a)〜(d)はマーカーの例を示しており、(a)はバーコード認識、(b)は文字認識、(c)は光の点滅認識、(d)は色認識で、それぞれカメラ2の映像信号処理部202aによって10kmから40kmの4つのパターンを認識し、事前に記憶されている各々のパターンに当てはまる距離情報をL0として選択する。
図7(a)、(b)は前記撮影システムでの被写体距離の演算処理のフローチャートであり、図7(a)はカメラCPU202での処理であり、図7(b)はレンズCPU103での処理である。
カメラ2に電源が入ると、カメラCPU202はステップS81に進み、マーカー13を含んだ映像信号が、カメラCPU202の映像信号処理部202aへ送られる。
ステップS82では、マーカーが検出されたかの判断を行い、検出された場合はステップ83へ進み、検出されなかった場合は、ステップS81へ戻る。
ステップS83では、検出されたマーカーの種類に対応したスタート地点からマーカーまでの距離L0データを選択する。
ステップS84では、L0をレンズ装置1へ出力する。
レンズ装置1に電源が入ると、レンズCPU103はステップS21に進み、カメラ2からのL0入力があったかを判断する。L0入力があった場合はステップS24へ進み、L0入力がなかった場合は、ステップS22へ進む。
ステップS22では、マーカーまでの距離L1の測距もできなかったことになるため、後述するマーカーの測距が成立したときに算出された中継車両の速度Sと最終測距成立時間からの経過時間を利用して算出したL1、すなわちL1′を算出する。
ステップS23では、L1′を暫定的にL1とし、ステップS24へ進む。
ステップS24では、レンズCPU103によって焦点検出部102のAFセンサーを駆動し、AFセンサ上にある複数対のラインセンサ上に形成された2像を光電変換して2つの像信号を出力する。
そして、該2つの像信号に対する相関演算を行い、該像信号間の位相差を算出し、それに基づいてレンズ装置1のデフォーカス量を算出する。
ステップS25では、レンズCPU103の被写体距離演算部で測距用の一対のラインセンサからの2つの像信号の位相差に基づいて得られたデフォーカス量と現在のフォーカスレンズ位置および変倍レンズ位置とを用いて、選択された測距エリアでの被写体距離L1,L2を算出する。
ステップS26では、マーカー13の測距データL1の時間的な変化率から中継車の速度Sを算出し、マーカー13の測距ができなかった場合のL1′の演算に利用する。
ステップS27では、レンズCPU103の被写体距離演算部で算出された前記L1,L2の差を算出し、固定物体と移動物体の相対距離ΔLを算出する。
ステップS28では、レンズCPU103の被写体距離演算部によって前記L0,ΔLより、移動する被写体14の基準位置からの距離(スタート地点からの距離)L2’を算出する。
ステップS29では、算出された被写体距離情報をレンズCPU103の距離情報記憶部に最新情報に更新した後記憶する。
ステップS30では、記憶した各種距離情報をカメラCPU202を介して表示部4へ出力され、図3に示すように、各被写体の頭上付近に表示される。
これにより、実施例1と同様の効果が得られる。
ここで、マーカーのような基準となる固定物体を用意できないような場合、基準となりえそうな風景を静止物体としてとらえることによっても、実施例1と同様の効果が得られる。
さらに、距離計3との接続が不要となり、システム構成を簡単にすることができる。
[実施例3]
図8(a)、(b)は本発明の実施例3である各被写体の基準からの距離の最大値とその最大値との相対距離の算出処理の流れを示したフローチャートであり、図8(a)はカメラCPU202での処理であり、図8(b)はレンズCPU103での処理である。
図8(a)、(b)は本発明の実施例3である各被写体の基準からの距離の最大値とその最大値との相対距離の算出処理の流れを示したフローチャートであり、図8(a)はカメラCPU202での処理であり、図8(b)はレンズCPU103での処理である。
図9は、表示部4へ出力された各被写体の基準からの距離の最大値とその最大値との相対距離の表示例で、各被写体の周辺に表示されている。
本実施例のフローチャートは、図1の撮影システムを用いて、図2のマラソン中継を想定したものになっている。
カメラ2に電源が入ると、カメラCPU202はステップS91に進み、外部装置3である距離計より、距離計のスタート地点からの距離(基準からの距離)L0情報を得る。ステップS92では、予めカメラCPU202内に記憶されている距離計とレンズ装置1との相対距離ΔL1を前記L0から引き算し、レンズ装置1のスタート地点からの距離L0′として記憶する。
ステップS93では、レンズ装置1のスタート地点からの距離L0′をレンズ装置1へ出力する。
レンズ装置1に電源が入ると、レンズCPU103はステップS41に進み、カメラ2からのL0′入力があったかを判断する。L0′入力があった場合はステップS42へ進み、L0′情報を読み込み、ステップS43へ進む。L0′入力がなかった場合も、ステップS43へ進む。
ステップS43では、レンズCPU103によって焦点検出部102のAFセンサーを駆動し、AFセンサ上にある複数対のラインセンサ上に形成された対の被写体像(以下、2像という)を光電変換して2つの像信号を出力する。
そして、該2つの像信号に対する相関演算を行い、該像信号間の位相差を算出し、それに基づいてレンズ装置1のデフォーカス量を算出する。
ステップS44では、レンズCPU103の被写体距離演算部で測距用の一対のラインセンサからの2つの像信号の位相差に基づいて得られたデフォーカス量と現在のフォーカスレンズ位置および変倍レンズ位置とを用いて、選択された測距エリアでの被写体距離L1,L2,L3を算出する。
ステップS45では、レンズCPU103の被写体距離演算部で算出された前記L1,L2,L3の差を算出し、被写体間の相対距離ΔL2,ΔL3,ΔL23を算出する。
ステップS46では、レンズCPU103の被写体距離演算部によって前記L0′,L1,L2,L3より、各被写体の基準位置からの距離(スタート地点からの距離)L1′,L2′,L3′を算出する。
ステップS47では、算出された各種被写体距離情報をレンズCPU103の距離情報記憶部に最新情報に更新した後記憶する。
ステップS48では、各被写体の基準位置からの距離L1′、L2′、L3′が最大値であるかを判断する。
最大の場合はステップS49に進み、最大値をそのまま表示すると決定する。最大でなかった場合はステップS50に進み、最大値との相対距離(例えばL1′が最大の場合、ΔL2、ΔL3)を表示すると決定する。
ステップS51では、記憶した各種距離情報のうち、基準からの距離の最大値をカメラCPU202を介して表示部4へ出力し、ステップS52では、記憶した各種距離情報のうち基準からの距離の最大値に対する相対距離をカメラCPU202を介して表示部4へ出力し、それぞれ図9に示すように、各被写体周辺に表示する。
これにより、実施例1と同様の効果が得られる。
[実施例4]
図10(a)、(b)は、本発明の実施例4である基準からの距離の最大値をもつ被写体が、別の被写体に切り替わるまでの予測時間の算出処理の流れを示したフローチャートであり、図10(a)はカメラCPU202での処理であり、図10(b)はレンズCPU103での処理である。
図10(a)、(b)は、本発明の実施例4である基準からの距離の最大値をもつ被写体が、別の被写体に切り替わるまでの予測時間の算出処理の流れを示したフローチャートであり、図10(a)はカメラCPU202での処理であり、図10(b)はレンズCPU103での処理である。
図11は、表示部4へ出力された基準からの距離の最大値と、それ以外の被写体の基準からの距離が最大になるまでにかかる時間の表示例で、各被写体の周辺に表示されている。
本実施例のフローチャートは、図1の撮影システムを用いて、図2のマラソン中継を想定したものになっている。
カメラ2に電源が入ると、カメラCPU202はステップS101に進み、外部装置3である距離計より、距離計のスタート地点からの距離(基準からの距離)L0情報を得る。ステップS102では、予めカメラCPU202内に記憶されている距離計とレンズ装置1との相対距離ΔL1を前記L0から引き算し、レンズ装置1のスタート地点からの距離L0′として記憶する。
ステップS103では、レンズ装置のスタート地点からの距離L0′をレンズ装置1へ出力する。
レンズ装置1に電源が入ると、レンズCPU103はステップS61に進み、カメラ2からのL0′入力があったかを判断する。L0′入力があった場合はステップS62へ進み、L0′情報を読み込み、ステップS63へ進む。L0′入力がなかった場合も、ステップS63へ進む。
ステップS63では、レンズCPU103によって焦点検出部102のAFセンサーを駆動し、AFセンサ上にある複数対のラインセンサ上に形成された対の被写体像(以下、2像という)を光電変換して2つの像信号を出力する。
そして、該2つの像信号に対する相関演算を行い、該像信号間の位相差を算出し、それに基づいてレンズ装置1のデフォーカス量を算出する。
ステップS64では、レンズCPU103の被写体距離演算部で測距用の一対のラインセンサからの2つの像信号の位相差に基づいて得られたデフォーカス量と現在のフォーカスレンズ位置および変倍レンズ位置とを用いて、選択された測距エリアでの被写体距離L1,L2,L3を算出する。
ステップS65では、静止物体として基準となりうる背景の一部などの測距データの時間的な変化率から中継車の速度Sを算出する。
ステップS66では、レンズCPU103の被写体距離演算部で算出された前記L1,L2,L3の差を算出し、被写体間の相対距離ΔL2,ΔL3,ΔL23を算出する。
ステップS67では、レンズCPU103の被写体距離演算部によって前記L0′,L1,L2,L3より、各被写体のある基準位置からの距離(スタート地点からの距離)L1′,L2′,L3′を算出する。
ステップS68では、算出された各種被写体距離情報をレンズCPU103の距離情報記憶部に最新情報に更新した後記憶する。
ステップS69では、各被写体の基準位置からの距離L1′、L2′、L3′が最大値であるかを判断する。
最大の場合はステップS70に進み、最大値をそのまま表示すると決定する。最大でなかった場合はステップS71に進み、最大値との相対距離(例えばL1′が最大の場合、ΔL2、ΔL3)を表示すると決定する。
ステップS72では、最大値との相対距離が前回の算出結果と比べ、減ったかを判断する。減少した場合はステップS73へ進み、その変化率から相対距離の差が0になる時間を算出してステップS74へ進む。増加した場合はそのままステップS74に進む。
ステップS74では、記憶した各種距離情報のうち、基準からの距離の最大値をカメラCPU202を介して表示部4へ出力し、ステップS75では、記憶した各種距離情報のうち基準からの距離の最大値に対する相対距離をカメラCPU202を介して表示部4へ出力する。
ステップS76では、相対距離を出力した被写体の基準からの距離が最大値に切り替わるまでの時間(2位以下の選手が1位に並ぶまでの時間)をカメラCPU202を介して表示部4へ出力し、それぞれ図11に示すように、各被写体周辺に表示される。
これにより、実施例1と同様の効果が得られる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形及び変更が可能である。
1 レンズ装置
2 カメラ
3 距離計
7,8,9,14 移動物体
10,11,12,15,16 AF枠
13 マーカー
101 ハーフミラー
102 焦点検出部
103 レンズCPU
201 CCD
202 カメラCPU
202a 映像信号処理部
2 カメラ
3 距離計
7,8,9,14 移動物体
10,11,12,15,16 AF枠
13 マーカー
101 ハーフミラー
102 焦点検出部
103 レンズCPU
201 CCD
202 カメラCPU
202a 映像信号処理部
Claims (7)
- レンズ装置と、該レンズ装置を用いて撮影を行うカメラとからなり、複数の測距エリアを持ち、多点測距可能な測距手段を有する撮影システムにおいて、各測距点ごとの被写体の測距距離、および前記測距距離の差から得られる被写体間の相対距離を生成する距離情報生成手段と、基準位置からの距離を認識する基準位置からの距離情報認識手段と、これら被写体の測距距離、被写体間の相対距離、基準位置からの距離から、各被写体の基準位置からの距離を算出する基準位置からの被写体距離演算手段と、該被写体の基準位置からの距離の演算結果を出力する基準位置からの被写体距離出力手段を有することを特徴とする撮影システム。
- 前記距離情報認識手段は外部装置の測距データをカメラに取り込むことによって認識されることを特徴とする請求項1に記載の撮影システム。
- 前記距離情報認識手段はカメラからの映像信号によって認識されることを特徴とする請求項1に記載の撮影システム。
- 前記基準位置からの距離情報を有する静止物体までの測距距離の変化量から、撮影システムの速度情報を算出する速度演算手段を有し、該速度演算手段より得られた速度情報をもとに、各被写体の基準位置からの距離を算出することを特徴とする請求項1に記載の撮影システム。
- 前記基準位置からの被写体距離演算手段は、前記被写体の基準位置からの距離の最大値と、該最大値をもつ被写体に対する相対距離を算出することを特徴とする請求項1に記載の撮影システム。
- 前記速度演算手段より得られた撮影システムの速度情報と、各被写体の測距情報より、基準位置からの距離の最大値をもつ被写体が切り替わるまでの時間と距離を算出することを特徴とする請求項4に記載の撮影システム。
- 請求項1乃至請求項6のいずれか1項に記載の撮影システムに含まれるレンズ装置であることを特徴とするレンズ装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010271200A JP2012124553A (ja) | 2010-12-06 | 2010-12-06 | 撮影システムおよびレンズ装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010271200A JP2012124553A (ja) | 2010-12-06 | 2010-12-06 | 撮影システムおよびレンズ装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012124553A true JP2012124553A (ja) | 2012-06-28 |
Family
ID=46505592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010271200A Pending JP2012124553A (ja) | 2010-12-06 | 2010-12-06 | 撮影システムおよびレンズ装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012124553A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018008834A1 (ko) * | 2016-07-06 | 2018-01-11 | 주식회사 케이에스에스이미지넥스트 | 차량용 카메라 제어 장치 및 방법 |
US10337861B2 (en) | 2015-02-13 | 2019-07-02 | Samsung Electronics Co., Ltd. | Image generating device for generating depth map with phase detection pixel |
WO2019176922A1 (ja) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | 視聴支援装置、視聴支援方法及びプログラム |
CN113518164A (zh) * | 2020-04-09 | 2021-10-19 | 西克股份公司 | 用于检测图像数据的相机和方法 |
-
2010
- 2010-12-06 JP JP2010271200A patent/JP2012124553A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10337861B2 (en) | 2015-02-13 | 2019-07-02 | Samsung Electronics Co., Ltd. | Image generating device for generating depth map with phase detection pixel |
WO2018008834A1 (ko) * | 2016-07-06 | 2018-01-11 | 주식회사 케이에스에스이미지넥스트 | 차량용 카메라 제어 장치 및 방법 |
WO2019176922A1 (ja) * | 2018-03-13 | 2019-09-19 | 日本電気株式会社 | 視聴支援装置、視聴支援方法及びプログラム |
JPWO2019176922A1 (ja) * | 2018-03-13 | 2021-03-11 | 日本電気株式会社 | 視聴支援装置、視聴支援方法及びプログラム |
JP7040599B2 (ja) | 2018-03-13 | 2022-03-23 | 日本電気株式会社 | 視聴支援装置、視聴支援方法及びプログラム |
CN113518164A (zh) * | 2020-04-09 | 2021-10-19 | 西克股份公司 | 用于检测图像数据的相机和方法 |
CN113518164B (zh) * | 2020-04-09 | 2023-05-09 | 西克股份公司 | 用于检测图像数据的相机和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5300870B2 (ja) | 撮影システム及びレンズ装置 | |
US8284261B2 (en) | External ranging image pickup apparatus and ranging method | |
US8310652B2 (en) | Image taking system and lens apparatus | |
JP2010015024A (ja) | 撮像装置、その制御方法、プログラム及び記憶媒体 | |
JP5839786B2 (ja) | 撮像装置およびトラッキングデータの調整方法 | |
JP2010114547A (ja) | 撮影システム及びレンズ装置 | |
JP6548436B2 (ja) | 焦点検出装置およびその制御方法 | |
JP2014021328A (ja) | 立体映像撮影システムに用いる光学装置 | |
JP2008241733A (ja) | 撮像装置 | |
JPWO2014041859A1 (ja) | 撮像制御装置、撮像装置、および、撮像制御装置の制御方法 | |
JP2012124553A (ja) | 撮影システムおよびレンズ装置 | |
JP5344608B2 (ja) | 撮影システム | |
JP6602081B2 (ja) | 撮像装置およびその制御方法 | |
JP2012113204A (ja) | 撮像装置 | |
JP2011044970A5 (ja) | ||
JP5377092B2 (ja) | 撮像装置及び測距方法 | |
JP2009210694A (ja) | 撮像装置 | |
JP5420034B2 (ja) | 撮像装置、その制御方法、プログラム及び記憶媒体 | |
JP2011229140A (ja) | 撮影システム | |
JP2016054506A (ja) | 撮像装置、ヒストグラムの表示方法、プログラム、画像処理装置 | |
JP2016142895A (ja) | 合焦制御装置、その制御方法、および制御プログラム、並びに撮像装置 | |
JP2019008075A (ja) | 撮像装置 | |
JP2004037732A (ja) | デジタルカメラ | |
JP2005156356A (ja) | 被写体距離測定表示装置および携帯端末装置 | |
JP2016014805A (ja) | 撮像装置 |