JP2009008842A - Photographing system, photographing device, method and program - Google Patents

Photographing system, photographing device, method and program Download PDF

Info

Publication number
JP2009008842A
JP2009008842A JP2007169344A JP2007169344A JP2009008842A JP 2009008842 A JP2009008842 A JP 2009008842A JP 2007169344 A JP2007169344 A JP 2007169344A JP 2007169344 A JP2007169344 A JP 2007169344A JP 2009008842 A JP2009008842 A JP 2009008842A
Authority
JP
Japan
Prior art keywords
subject
distance
photographing
position information
current position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007169344A
Other languages
Japanese (ja)
Inventor
Masaaki Orimoto
正明 織本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007169344A priority Critical patent/JP2009008842A/en
Publication of JP2009008842A publication Critical patent/JP2009008842A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform quick photographing after accurately focusing on a subject even in circumstances that the position of the subject is hardly visually recognized such as when the subject goes away from a photographing device or the subject is lost in the crowd. <P>SOLUTION: The present position information (x1, y1 and Z1) of the subject 200 is obtained from a radio transmitter 202 of the subject 200. The present position information (x2, y2 and z2) of a camera 100 is obtained on the basis of an electric wave signal received by a GPS receiver 30. Then, a distance L between the camera 100 and the subject 200 is calculated to obtain a focusing position corresponding to the distance L, thereby moving a focus lens to the focusing position. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮影時の焦点調節に関する。   The present invention relates to focus adjustment during photographing.

特許文献1では、被写体とカメラ双方にGPSを搭載して、自動追尾撮影する。   In Patent Document 1, GPS is mounted on both the subject and the camera, and automatic tracking shooting is performed.

特許文献2では、被写体の位置をGPSなどで探索してカメラの方向およびレンズ(の画角)を調節する。   In Patent Document 2, the position of the subject is searched by GPS or the like, and the direction of the camera and the lens (angle of view) are adjusted.

特許文献3および4では、カメラの絶対位置と被写体までの相対位置から被写体の絶対位置を求める。
特開2004−112615号公報 特開2005−20205号公報 特開2001−91253号公報 特開2001−128052号公報
In Patent Documents 3 and 4, the absolute position of the subject is obtained from the absolute position of the camera and the relative position to the subject.
JP 2004-112615 A Japanese Patent Laid-Open No. 2005-20205 JP 2001-91253 A JP 2001-128052 A

引用文献1および2では、ピント合わせについて何も触れられていない。また、特許文献3および4では、被写体を撮像して相対距離を求めるため、距離を得るのに時間がかかる。   Citations 1 and 2 do not mention anything about focusing. In Patent Documents 3 and 4, it takes time to obtain the distance because the subject is imaged to obtain the relative distance.

本発明は、撮影装置から被写体が離れたり人込みに紛れるなどして、被写体の位置が目視しにくい状況であっても、被写体に対して正確に合焦した上で素早い撮影を可能にする。   The present invention makes it possible to quickly shoot with accurate focus on a subject even when the subject is difficult to see because the subject is away from the photographing apparatus or is crowded.

本発明に係る撮影システムは、被写体に設置されており、GPS衛星からの電波信号に基づいて被写体の現在位置情報を取得する被写体位置取得部と、被写体位置取得部の取得した被写体の現在位置情報を送信する送信部と、送信部から送信された被写体の現在位置情報を受信する受信部と、撮影装置に設置されており、GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得する撮影装置位置取得部と、被写体の現在位置情報と撮影装置の現在位置情報とに基づき、被写体と撮影装置の間の距離を算出する距離算出部と、距離算出部の算出した距離に基づき、撮影装置の撮影レンズの焦点調節を行う調節部と、を備える。   An imaging system according to the present invention is installed in a subject, a subject position acquisition unit that acquires current position information of the subject based on a radio wave signal from a GPS satellite, and current position information of the subject acquired by the subject position acquisition unit Is installed in the photographing device, and acquires the current position information of the photographing device based on the radio wave signal from the GPS satellite. Based on the distance calculated by the distance calculation unit, the distance calculation unit that calculates the distance between the subject and the imaging device based on the current position information of the subject and the current position information of the imaging device, An adjustment unit that adjusts the focus of the imaging lens of the imaging apparatus.

これにより、被写体がどこにいても、また撮影装置を被写体に向けていなくても、撮影レンズを合焦状態に調節できるので、撮影の時間浪費を小さくできる。   Thus, the photographing lens can be adjusted to the in-focus state regardless of where the subject is located or the photographing device is not directed toward the subject, so that time spent for photographing can be reduced.

撮影装置から被写体に対する高度差を検出する高度差検出部をさらに備え、距離算出部は、被写体の現在位置情報と撮影装置の現在位置情報と高度差検出部の検出した高度差に基づき、被写体と撮影装置の間の距離を算出してもよい。   An altitude difference detection unit that detects an altitude difference with respect to the subject from the imaging device is further provided, and the distance calculation unit is configured to detect the subject based on the current position information of the subject, the current position information of the imaging device, and the altitude difference detected by the altitude difference detection unit. You may calculate the distance between imaging devices.

すなわち、撮影装置と高度差のある被写体に対して正しい距離を求めることができ、合焦精度が向上する。   That is, a correct distance can be obtained for a subject having an altitude difference from the photographing apparatus, and focusing accuracy is improved.

距離算出部の算出した距離が所定の測定誤差を生じる距離を下回っているか否かを判定する判定部をさらに備え、距離が所定の測定誤差を生じる距離を下回っている場合、コントラストAFその他前記所定の測定誤差未満の精度を確保できる焦点調節手段により焦点調節を行ってもよい。   A determination unit for determining whether the distance calculated by the distance calculation unit is less than a distance that causes a predetermined measurement error; and if the distance is less than a distance that causes a predetermined measurement error, contrast AF and the predetermined The focus adjustment may be performed by a focus adjustment means that can ensure an accuracy less than the measurement error.

すなわち、測距結果に対して測距誤差が無視できないくらい大きい場合は、より測距精度の高い測距方式に切り替えることで測距精度を向上させることができる。   That is, when the distance measurement error is so large that the distance measurement result cannot be ignored, the distance measurement accuracy can be improved by switching to a distance measurement method with higher distance measurement accuracy.

撮影装置の撮影レンズの光軸の方位を検出する光軸方位検出部と、撮影装置の画角を検出する画角検出部と、被写体の現在位置情報と撮影装置の現在位置情報と検出された撮影装置の撮影レンズの光軸の方位と検出された撮影装置の画角とに基づき、撮影装置の表示装置に表示されたスルー画像における被写体の表示位置を算出する被写体表示位置算出部と、算出された被写体の表示位置に基づき、被写体の表示位置を示すマーカをスルー画像に重畳して表示する表示制御部と、をさらに備えてもよい。   An optical axis azimuth detecting unit that detects the azimuth of the optical axis of the photographing lens of the photographing device, an angle of view detecting unit that detects an angle of view of the photographing device, current position information of the subject, and current position information of the photographing device are detected. A subject display position calculation unit that calculates a display position of the subject in a through image displayed on the display device of the photographing device based on the direction of the optical axis of the photographing lens of the photographing device and the detected angle of view of the photographing device; And a display control unit that superimposes and displays a marker indicating the display position of the subject on the through image based on the displayed display position of the subject.

すなわち、目視で被写体を識別しがたい場合でも、撮影装置の表示装置に被写体のいる位置がスルー画とともに示されるので、被写体に対して確実に画角合わせをすることができる。   That is, even when it is difficult to identify the subject visually, the position of the subject is displayed on the display device of the photographing apparatus together with the through image, so that the angle of view can be surely adjusted with respect to the subject.

本発明に係る撮影装置は、撮影レンズを介して受光した被写体像を撮影する撮影部と、GPS衛星からの電波信号に基づいて被写体の現在位置情報を受信する受信部と、GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得する撮影装置位置取得部と、被写体の現在位置情報と撮影装置の現在位置情報とに基づき、被写体と撮影装置の間の距離を算出する距離算出部と、距離算出部の算出した距離に基づき、撮影レンズの焦点調節を行う調節部と、を備える。   An image capturing apparatus according to the present invention includes an image capturing unit that captures a subject image received through an imaging lens, a receiving unit that receives current position information of a subject based on a radio wave signal from a GPS satellite, and a radio wave from the GPS satellite. An imaging device position acquisition unit that acquires current position information of the imaging device based on the signal, and a distance calculation unit that calculates a distance between the subject and the imaging device based on the current position information of the subject and the current position information of the imaging device And an adjusting unit that adjusts the focus of the photographing lens based on the distance calculated by the distance calculating unit.

本発明に係る撮影方法は、GPS衛星からの電波信号に基づいて被写体の現在位置情報を受信するステップと、GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得するステップと、被写体の現在位置情報と撮影装置の現在位置情報とに基づき、被写体と撮影装置の間の距離を算出するステップと、算出した距離に基づき、撮影レンズの焦点調節を行うステップと、を含む。     An imaging method according to the present invention includes a step of receiving current position information of a subject based on a radio wave signal from a GPS satellite, a step of acquiring current position information of an imaging device based on a radio wave signal from the GPS satellite, And calculating the distance between the subject and the imaging device based on the current location information and the current location information of the imaging device, and adjusting the focus of the imaging lens based on the calculated distance.

この撮影方法をコンピュータに実行させるプログラムも本発明に含まれる。   A program for causing a computer to execute this photographing method is also included in the present invention.

これにより、被写体がどこにいても、また撮影装置を被写体に向けていなくても、撮影レンズを合焦状態に調節できるので、撮影の時間浪費を小さくできる。   Thus, the photographing lens can be adjusted to the in-focus state regardless of where the subject is located or the photographing device is not directed toward the subject, so that time spent for photographing can be reduced.

<第1実施形態>
図1は本発明の好ましい実施形態に係るカメラシステムの構成図である。このシステムは、カメラ100、被写体200に取り付けられたGPS受信機201および無線発信機202を含む。
<First Embodiment>
FIG. 1 is a configuration diagram of a camera system according to a preferred embodiment of the present invention. This system includes a camera 100, a GPS receiver 201 attached to a subject 200, and a wireless transmitter 202.

GPS受信機201は、GPS衛星300から衛星の軌道と、衛星に搭載された原子時計からの時刻のデータを含む電波信号を受信する。   The GPS receiver 201 receives from the GPS satellite 300 a radio signal including satellite orbits and time data from an atomic clock mounted on the satellite.

無線発信機202は、GPS受信機201の受信した電波信号を、被写体に固有の識別情報と対応づけ、電波あるいは光を用いてカメラ100に無線送信する。  The wireless transmitter 202 associates the radio signal received by the GPS receiver 201 with identification information unique to the subject and wirelessly transmits it to the camera 100 using radio waves or light.

カメラ100は、レンズ鏡胴1、CPU7、フォーカスモータ9、GPS受信機30、無線受信機31などを備えている。相対距離算出部7cは、CPU7に後述のステップS6を実行させるためのプログラムであり、ROM24に記録されている。カメラ100の構成は下記で詳細に説明する。   The camera 100 includes a lens barrel 1, a CPU 7, a focus motor 9, a GPS receiver 30, a wireless receiver 31, and the like. The relative distance calculation unit 7c is a program for causing the CPU 7 to execute step S6 described later, and is recorded in the ROM 24. The configuration of the camera 100 will be described in detail below.

図2はカメラ100のブロック図である。カメラ100にはユーザがこのカメラ100を使用するときに種々の操作を行なうための操作部27が設けられている。この操作部27には、カメラ100を作動させるための電源投入用の電源スイッチ27a、各種メニュー表示を自在に切り替えるメニュースイッチ27b、撮影の開始指示をCPU7へ出力するシャッターボタン27d、上下あるいは左右方向に操作可能なレバースイッチで構成され、該スイッチを一方の方向に操作することで望遠(TELE)方向にズーム移動し、他方の方向に操作することで広角(WIDE)方向にズーム移動するズームスイッチ27e、各種のメニューの設定や選択あるいはズームを行なうための十字ボタン27fが備えられている。   FIG. 2 is a block diagram of the camera 100. The camera 100 is provided with an operation unit 27 for performing various operations when the user uses the camera 100. The operation unit 27 includes a power switch 27a for turning on the power for operating the camera 100, a menu switch 27b for freely switching various menu displays, a shutter button 27d for outputting a shooting start instruction to the CPU 7, and a vertical or horizontal direction. Zoom switch that can be operated in one direction, zooming in the telephoto (TELE) direction by operating the switch in one direction, and zooming in the wide-angle (WIDE) direction by operating in the other direction 27e, a cross button 27f for setting and selecting various menus or zooming is provided.

また、カメラ100には、液晶ディスプレイや有機ELなどで構成され、撮影画像や再生画像等を表示するための表示装置19と、映像信号を生成して表示装置19に供給するドライバ18が備えられている。   In addition, the camera 100 includes a display device 19 that includes a liquid crystal display, an organic EL, and the like, and displays a captured image, a reproduced image, and the like, and a driver 18 that generates a video signal and supplies the video signal to the display device 19. ing.

また、カメラ100には、閃光を発光するフラッシュ発光部12と、フラッシュ発光部12の発光タイミングおよび発光時間をCPU7からの指令に従って制御するフラッシュ制御回路17が配備されている。   Further, the camera 100 is provided with a flash light emitting unit 12 that emits flash light, and a flash control circuit 17 that controls the light emission timing and light emission time of the flash light emitting unit 12 in accordance with a command from the CPU 7.

また、カメラ100には、フォーカスレンズおよびズームレンズを含む撮影レンズを擁したレンズ鏡胴1と、撮影レンズを経由して結像された被写体像をアナログの画像信号に変換する撮像素子であるCCD3とが備えられている。撮像素子はCCDに限らず、CMOSなどその他のものであってもよい。   In addition, the camera 100 includes a lens barrel 1 having a photographing lens including a focus lens and a zoom lens, and a CCD 3 that is an imaging element that converts a subject image formed through the photographing lens into an analog image signal. And are provided. The image sensor is not limited to a CCD, but may be another device such as a CMOS.

撮影レンズは、アイリス機構(絞り)2の他、ズームレンズ,フォーカスレンズを備えており、ズームレンズを駆動してズーミングを行うズームモータ10と、フォーカスレンズを駆動して焦点調整を行うフォーカスモータ9と、絞り調整を行うアイリスモータ8により、それぞれが駆動される。   In addition to the iris mechanism (aperture) 2, the photographing lens includes a zoom lens and a focus lens. The zoom motor 10 performs zooming by driving the zoom lens, and the focus motor 9 performs focus adjustment by driving the focus lens. Each is driven by an iris motor 8 that adjusts the aperture.

CCD3などの撮像素子は、照射された被写体光により発生した電荷を可変の電荷蓄積時間(露光期間)の間蓄積することにより画像信号を生成するものである。CCD3からは、タイミングジェネレータ(TG)4から出力される垂直同期信号VDに同期したタイミングでフレーム毎の画像信号が順次出力される。   The image pickup device such as the CCD 3 generates an image signal by accumulating charges generated by irradiated subject light for a variable charge accumulation time (exposure period). Image signals for each frame are sequentially output from the CCD 3 at a timing synchronized with the vertical synchronization signal VD output from the timing generator (TG) 4.

CCD3の受光面にはR,G,Bの微小なカラーフィルタがマトリクス状に配列されており、R,G,Bの各色成分を含む撮像信号は、信号処理回路5で適当なレベルに増幅された後、画像処理回路6によってR,G,Bの各画像データとされる。なお、CCD3の画素配置はベイヤ型やハニカム型等各種の配列方式を採用できる。   On the light receiving surface of the CCD 3, minute color filters of R, G, B are arranged in a matrix, and an image signal including each color component of R, G, B is amplified to an appropriate level by the signal processing circuit 5. After that, the image processing circuit 6 converts the image data into R, G, and B image data. Note that various pixel arrangements such as a Bayer type or a honeycomb type can be adopted for the pixel arrangement of the CCD 3.

撮像素子にCCD3を用いた場合には、色偽信号やモアレ縞等の発生を防止するために、入射光内の不要な高周波成分を除去する光学的ローパスフィルタが配設されている。また、入射光内の赤外線を吸収若しくは反射して、長波長域で感度が高いCCD3固有の感度特性を補正する赤外カットフィルタが配設されている。   When the CCD 3 is used as the image sensor, an optical low-pass filter that removes unnecessary high-frequency components in the incident light is provided in order to prevent generation of color false signals, moire fringes, and the like. In addition, an infrared cut filter that absorbs or reflects infrared light in the incident light and corrects sensitivity characteristics unique to the CCD 3 having high sensitivity in a long wavelength region is provided.

また、カメラ100には、CCD3からのアナログ画像信号が表わす被写体像のホワイトバランスを合わせるとともにその被写体像の階調特性における直線の傾き(γ)を調整し、さらにアナログ画像信号を増幅する増幅率可変の増幅器を含む信号処理回路5が備えられている。   The camera 100 also adjusts the white balance of the subject image represented by the analog image signal from the CCD 3, adjusts the slope (γ) of the straight line in the gradation characteristics of the subject image, and further amplifies the analog image signal. A signal processing circuit 5 including a variable amplifier is provided.

さらに、カメラ100には、信号処理回路5からのアナログ信号をディジタルのR,G,B画像データにA/D変換する画像処理回路6と、その画像処理回路6からのR,G,B画像データを格納するRAM25が備えられている。   Further, the camera 100 includes an image processing circuit 6 for A / D converting an analog signal from the signal processing circuit 5 into digital R, G, B image data, and an R, G, B image from the image processing circuit 6. A RAM 25 for storing data is provided.

本実施形態では、画像処理回路6は、8ビットの量子化分解能を有し、信号処理回路5から出力されるアナログR,G,B撮像信号を、CCD3の受光量に応じ、レベル0〜255のR,G,Bデジタル画像データに変換して出力する。ただし、この量子化分解能はあくまで一例であって本発明に必須の値ではない。   In the present embodiment, the image processing circuit 6 has an 8-bit quantization resolution, and analog R, G, B imaging signals output from the signal processing circuit 5 are level 0 to 255 according to the amount of light received by the CCD 3. Converted into R, G, B digital image data and output. However, this quantization resolution is merely an example and is not an essential value for the present invention.

また、カメラ100には、バッテリ29と、電源回路28とが備えられている。   The camera 100 also includes a battery 29 and a power supply circuit 28.

TG4は、CCD3を駆動するための垂直同期信号VD,高速掃き出しパルスPを含む駆動信号、信号処理回路5,画像処理回路6を制御する制御信号、およびI/F26を制御する制御信号を出力する。また、このTG4には、CPU7からの制御信号が入力される。   The TG 4 outputs a vertical synchronization signal VD for driving the CCD 3, a drive signal including a high-speed sweep pulse P, a control signal for controlling the signal processing circuit 5 and the image processing circuit 6, and a control signal for controlling the I / F 26. . Further, a control signal from the CPU 7 is input to the TG 4.

CPU7は、ズームモータドライバ15、フォーカスモータドライバ14、アイリスモータドライバ13を制御してズームモータ10、フォーカスモータ9、アイリスモータ8をそれぞれ駆動することにより被写体測距を行なう。   The CPU 7 controls the zoom motor driver 15, the focus motor driver 14, and the iris motor driver 13 to drive the zoom motor 10, the focus motor 9, and the iris motor 8 to measure the subject.

CPU7は、シャッターボタン27dが半押しされると、CCD3によって周期的(1/30秒から1/60秒ごと)に得られる画像データに基づいて被写体の明るさの測光(EV値の算出)を行う。次に、CPU7は、被写体の平均的な明るさ(被写体輝度)を検出し、撮影に適した露出値(EV値)を算出する。   When the shutter button 27d is half-pressed, the CPU 7 performs subject photometry (EV value calculation) based on image data periodically (every 1/30 second to 1/60 second) obtained by the CCD 3. Do. Next, the CPU 7 detects the average brightness (subject brightness) of the subject and calculates an exposure value (EV value) suitable for photographing.

そして、CPU7は、得られたEV値に基づいてアイリス2の絞り値(F値)及びCCD3の電子シャッタ(シャッタスピード)を含む露出値を、ROM24に格納された所定のプログラム線図にしたがって決定する。   Then, the CPU 7 determines the exposure value including the iris value (F value) of the iris 2 and the electronic shutter (shutter speed) of the CCD 3 based on the obtained EV value in accordance with a predetermined program diagram stored in the ROM 24. To do.

シャッターボタン27dが全押しされると、CPU7は、その決定した絞り値に基づいてアイリス2を駆動し、アイリス2の開口径を制御して被写界深度を調節するとともに、決定したシャッタスピードに基づき、TG4を介してCCD3での電荷蓄積時間を制御する(AE動作)。   When the shutter button 27d is fully pressed, the CPU 7 drives the iris 2 based on the determined aperture value, controls the aperture diameter of the iris 2 to adjust the depth of field, and sets the determined shutter speed. Based on this, the charge accumulation time in the CCD 3 is controlled via the TG 4 (AE operation).

AE動作は、絞り優先AE,シャッタ速度優先AE,プログラムAEなどがあるが、いずれにおいても、被写体輝度を測定し、この被写体輝度の測光値に基づいて決められた露出値、すなわち絞り値とシャッタスピードとの組み合わせで撮影を行うことにより、適正な露光量と被写界深度で撮像されるように制御しており、面倒な露出決定の手間を省くことができる。   The AE operation includes an aperture priority AE, a shutter speed priority AE, a program AE, etc. In any case, the subject brightness is measured, and an exposure value determined based on the photometric value of the subject brightness, that is, an aperture value and a shutter. By taking a picture in combination with the speed, control is performed so that an image is taken with an appropriate exposure amount and depth of field, and it is possible to save troublesome time for determining the exposure.

CPU7は、自身の選定したフォーカスレンズの合焦検出範囲に対応する画像データを画像処理回路6から抽出する。フォーカスレンズの焦点位置を検出する方法は、合焦位置で画像データの高周波成分が最大振幅になるという特徴を利用して行う(コントラストAF)。   The CPU 7 extracts image data corresponding to the focus detection range of the focus lens selected by the CPU 7 from the image processing circuit 6. The method of detecting the focus position of the focus lens is performed using the feature that the high frequency component of the image data has the maximum amplitude at the focus position (contrast AF).

CPU7はフォーカスモータ9を駆動制御してフォーカスレンズを可動範囲内、即ち無限遠側の端点(INF点)から至近側の端点(NEAR点)の間で移動させている間に順次振幅値の計算を実行し、最大振幅を検出した時に対応する合焦位置に、フォーカスレンズを移動させるようにフォーカスモータ9に指令を出す。フォーカスモータ9は、CPU7の指令に応じてフォーカスレンズを合焦位置に移動させる(AF動作)。なお後述するが、コントラスト算出部7bは、CPU7がAF動作を行うために各ブロックを制御する手段として機能させるプログラムであり、ROM24に記録されている。   The CPU 7 drives and controls the focus motor 9 to sequentially calculate the amplitude value while moving the focus lens within the movable range, that is, from the end point on the infinity side (INF point) to the end point on the near side (NEAR point). And a command is issued to the focus motor 9 to move the focus lens to the in-focus position corresponding to when the maximum amplitude is detected. The focus motor 9 moves the focus lens to the in-focus position according to a command from the CPU 7 (AF operation). As will be described later, the contrast calculation unit 7b is a program that functions as means for controlling each block in order for the CPU 7 to perform the AF operation, and is recorded in the ROM 24.

CPU7は、シャッターボタン27dと接続されており、ユーザによりシャッターボタン27dが半押しされた時に、この合焦位置の検出が行われる。また、CPU7が、ズームスイッチ27eによってユーザからのTELE方向又はWIDE方向へのズームの指令を取得した場合に、ズームモータ10を駆動させることにより、ズームレンズをWIDE端とTELE端との間で移動させる。   The CPU 7 is connected to the shutter button 27d, and this in-focus position is detected when the user presses the shutter button 27d halfway. Further, when the CPU 7 obtains a zoom command in the TELE direction or WIDE direction from the user by the zoom switch 27e, the zoom motor 10 is driven to move the zoom lens between the WIDE end and the TELE end. Let

フラッシュ制御回路17は,フラッシュ発光部12を発光させるためにバッテリ29からの電力の供給を受けて図示しない閃光発光用のコンデンサを充電し、フラッシュ発光部12の発光を制御する。   The flash control circuit 17 receives power supplied from the battery 29 in order to cause the flash light emitting unit 12 to emit light, charges a flash light emitting capacitor (not shown), and controls light emission of the flash light emitting unit 12.

また、カメラ100には、メディアコントローラ22が備えられている。メディアコントローラ22は、RAM25に格納された画像データを読み出して圧縮し、メモリカード23に格納する。また、メディアコントローラ22は、メモリカード23に格納された画像データの読み出しにあたり、メモリカード23固有の識別番号(ID)を抽出し、そのメモリカード23に格納された画像データを読み出して伸長し、RAM25に格納する。   The camera 100 is provided with a media controller 22. The media controller 22 reads and compresses the image data stored in the RAM 25 and stores it in the memory card 23. Further, when reading the image data stored in the memory card 23, the media controller 22 extracts an identification number (ID) unique to the memory card 23, reads out and decompresses the image data stored in the memory card 23, Store in the RAM 25.

また、カメラ100には、CPU7と、ROM24と、表示用ドライバ18とが備えられている。CPU7は、このカメラ100全体の制御を行なう。ROM24には、このカメラ100固有の固体データやプログラム等が格納されている。画像処理回路6は、画像データを3色のRGB信号に変換して表示用ドライバ18を経由して表示装置19に出力する。撮影モードが設定されると、表示装置19に継続的にRGB信号が出力され、スルー画像が表示される。   The camera 100 includes a CPU 7, a ROM 24, and a display driver 18. The CPU 7 controls the entire camera 100. The ROM 24 stores solid data, programs and the like unique to the camera 100. The image processing circuit 6 converts the image data into RGB signals of three colors and outputs them to the display device 19 via the display driver 18. When the shooting mode is set, RGB signals are continuously output to the display device 19 and a through image is displayed.

バッテリ29は図示しない電池収納室に装填され、電源回路28を介して、カメラ100の各回路と電気的に接続される。   The battery 29 is loaded in a battery storage chamber (not shown) and is electrically connected to each circuit of the camera 100 via the power supply circuit 28.

カメラ100により撮影された被写体の画像信号は、I/F26を介してパーソナルコンピュータ等の外部装置に出力し、およびI/F26を介して外部装置からカメラ100に画像信号を入力することにより、その外部装置との間のデータ通信を担う。   The image signal of the subject photographed by the camera 100 is output to an external device such as a personal computer via the I / F 26, and the image signal is input to the camera 100 from the external device via the I / F 26. Responsible for data communication with external devices.

GPS受信機30は、GPS衛星300から衛星の軌道と、衛星に搭載された原子時計からの時刻のデータを含む電波信号を受信する。   The GPS receiver 30 receives a radio wave signal including the satellite's orbit from the GPS satellite 300 and time data from an atomic clock mounted on the satellite.

無線受信機31は、無線発信機202から電波信号を無線受信する。無線発信機202および無線受信機31の間で採用される通信方式は、例えば、IrDAのような光無線通信や、無線LANなど各種のものが採用される。なお、カメラ100のGPS受信機30、無線受信機31についても、I/F26を介した外付けで問題なく、カメラ100に内蔵する必然性はない。   The wireless receiver 31 wirelessly receives a radio signal from the wireless transmitter 202. As a communication method adopted between the wireless transmitter 202 and the wireless receiver 31, various types such as optical wireless communication such as IrDA and wireless LAN are adopted. Note that the GPS receiver 30 and the wireless receiver 31 of the camera 100 can be externally connected via the I / F 26 without any problem, and are not necessarily built in the camera 100.

GPS受信機30は、受信した電波の時間差により複数のGPS衛星300との相対的な距離差を算出し、その軌跡である双曲面の交点を求める事でカメラ100の現在位置情報(x2,y2,z2)を得る。3個の衛星の電波を捉えれば地球上の平面での位置がわかり(2次元測位)、4個以上の衛星の電波を捉えればさらに高度の情報を得ることができる(3次元測位)。   The GPS receiver 30 calculates a relative distance difference from the plurality of GPS satellites 300 based on the time difference of the received radio waves, and obtains an intersection of hyperboloids that are the trajectories, thereby obtaining current position information (x2, y2) of the camera 100. , Z2). By capturing the radio waves of three satellites, the position on the plane on the earth can be determined (two-dimensional positioning), and by capturing the radio waves of four or more satellites, more advanced information can be obtained (three-dimensional positioning).

GPS受信機201は、複数のGPS衛星300から受信した電波信号に基づき、カメラ100の現在位置情報の算出方法と同様にして、被写体200の現在位置情報(x1,y1,z1)を得る。   The GPS receiver 201 obtains the current position information (x1, y1, z1) of the subject 200 in the same manner as the current position information calculation method of the camera 100 based on the radio signals received from the plurality of GPS satellites 300.

図3に示すように、CPU7は、被写体200の現在位置情報(x1,y1,z1)およびカメラ100の現在位置情報(x2,y2,z2)に基づき、両者の距離Lを算出する。なお、説明の簡略のため、図4に示すように、2次元測位の場合はz1=z2=0であるとみなす。カメラ100も被写体200もグラウンドのような平坦な場所にいる場合は、実質的にz1=z2=0であり、わざわざ3次元測位を採用する必要はないから、この場合は2次元測位で十分である。カメラ100か被写体200がビルの階上などの高所にあり、両者の高度が無視できない大きさである場合に限り、3次元測位を用いればよい。   As shown in FIG. 3, the CPU 7 calculates the distance L between the two based on the current position information (x1, y1, z1) of the subject 200 and the current position information (x2, y2, z2) of the camera 100. For simplicity of explanation, as shown in FIG. 4, it is assumed that z1 = z2 = 0 in the case of two-dimensional positioning. When the camera 100 and the subject 200 are both in a flat place such as the ground, z1 = z2 = 0 is substantially satisfied, and it is not necessary to employ the three-dimensional positioning. In this case, the two-dimensional positioning is sufficient. is there. The three-dimensional positioning may be used only when the camera 100 or the subject 200 is at a high place such as on the floor of a building and the altitudes of both are not negligible.

図5は、被写体200へのGPS201および無線発信機202の装着例を示す。この図では、人物被写体200の手首にGPS受信機201を、人物被写体200の衣服のポケットに無線発信機202を装着している。無論、これは例示にすぎず、どこにどの装置を装着するかは任意である。   FIG. 5 shows an example in which the GPS 201 and the wireless transmitter 202 are attached to the subject 200. In this figure, a GPS receiver 201 is attached to the wrist of the person subject 200, and a wireless transmitter 202 is attached to the pocket of the clothes of the person subject 200. Of course, this is only an example, and it is arbitrary where and which device is mounted.

図6はカメラ100のCPU7が実行する撮影準備処理の流れを示す。この処理は、撮影指示(シャッターボタン27dの全押し)が行われる前に実行され、例えば撮影モードの設定に応じて開始する。   FIG. 6 shows a flow of shooting preparation processing executed by the CPU 7 of the camera 100. This process is executed before a shooting instruction (full pressing of the shutter button 27d) is performed, and starts according to the setting of the shooting mode, for example.

S1では、被写体識別情報の設定を受け付ける。設定の入力元は、無線発信機202から受信した情報そのものでもよいし操作部27から手入力した情報でもよい。   In S1, the setting of subject identification information is accepted. The setting input source may be the information itself received from the wireless transmitter 202 or the information manually input from the operation unit 27.

S2では、被写体200の無線発信機202から、被写体識別情報を受信する。   In S <b> 2, the subject identification information is received from the wireless transmitter 202 of the subject 200.

S3では、S2で受信した被写体識別情報が、S1で設定された被写体識別情報と同一であるか否かを判断する。これらの被写体識別情報が同一である場合はS3に進み、同一でない場合はS2に戻る。   In S3, it is determined whether or not the subject identification information received in S2 is the same as the subject identification information set in S1. If the subject identification information is the same, the process proceeds to S3. If not, the process returns to S2.

S4では、引き続き被写体200の無線発信機202から、被写体200の現在位置情報(x1,y1,z1)を得る。   In S4, the current position information (x1, y1, z1) of the subject 200 is continuously obtained from the wireless transmitter 202 of the subject 200.

S5では、上述したように、GPS受信機30の受信した電波信号に基づき、カメラ100の現在位置情報(x2,y2,z2)を得る。   In S5, as described above, the current position information (x2, y2, z2) of the camera 100 is obtained based on the radio wave signal received by the GPS receiver 30.

S6では、カメラ100と被写体200との距離Lを算出する。   In S6, a distance L between the camera 100 and the subject 200 is calculated.

S7では、距離Lに対応する合焦位置を求める。   In S7, an in-focus position corresponding to the distance L is obtained.

S8では、S7で求めた合焦位置にフォーカスレンズを移動させる。なお、GPS測位の誤差に起因する距離Lの算出誤差は、被写界深度(ピントのあう許容範囲)で吸収され、GPS測位に誤差があっても被写体200にピントはあうものとする。なお、この後シャッターボタン27dが適時全押しされることで画像記録動作が行われる。   In S8, the focus lens is moved to the in-focus position obtained in S7. Note that the calculation error of the distance L due to the GPS positioning error is absorbed by the depth of field (allowable range for focusing), and the subject 200 is focused even if there is an error in GPS positioning. After that, the image recording operation is performed when the shutter button 27d is fully pressed at an appropriate time.

このように、カメラ100と被写体200との距離をGPS衛星からの電波信号に基づいて算出するから、被写体200が人込みに紛れるなどして目視が困難な場合であっても、予め被写体200の現在位置に対応した合焦位置にフォーカスレンズを移動させておくことができ、被写体200に素早く正確にピントを合わせることができる。また、被写体200をカメラ100の画角内に捉えなくてもピント合わせが可能であるから、予めピントの合う位置にレンズを移動させておき、その後画角に被写体200を捉えることが可能であり、画角に被写体200を捉える必要のあるコントラストAFを行う場合よりも、全体の撮影時間の短縮が図れる。   As described above, the distance between the camera 100 and the subject 200 is calculated based on the radio wave signal from the GPS satellite. Therefore, even if the subject 200 is difficult to see due to being crowded or the like, The focus lens can be moved to the in-focus position corresponding to the current position, and the subject 200 can be focused quickly and accurately. Further, since it is possible to focus without capturing the subject 200 within the angle of view of the camera 100, it is possible to move the lens in advance to a focus position and then capture the subject 200 at the angle of view. The overall shooting time can be shortened as compared with the case of performing contrast AF that needs to capture the subject 200 at the angle of view.

この合焦方法の用途は様々であり、例えば運動会において自分の子供にGPS受信機201と無線発信機202を取り付けておけば、運動会の集団演技などで自分の子供が他の子供に紛れてしまっても、素早く正確にピントを合わせることができる。   Applications of this focusing method are various. For example, if a GPS receiver 201 and a wireless transmitter 202 are attached to a child at an athletic meet, the child is mixed with other children at a group performance of the athletic meet. But you can focus quickly and accurately.

<第2実施形態>
図7は第2実施形態に係るカメラシステムを示す。第1実施形態と同じブロックには同じ符号が付されている。ここでは、2次元測位によってカメラ100および被写体200の平面位置情報(x1、y1)、(x2、y2)を得て、かつ、被写体200に装着された高度計203、カメラ100に装着された高度計32によってそれぞれ被写体200の高度z1およびカメラ100の高度z2を検出する。無線発信機202は、被写体識別情報、位置情報(x1、x2)に加え、高度計203で得られた被写体200の高度z1をカメラ100に無線送信する。
Second Embodiment
FIG. 7 shows a camera system according to the second embodiment. The same blocks as those in the first embodiment are denoted by the same reference numerals. Here, plane position information (x1, y1) and (x2, y2) of the camera 100 and the subject 200 is obtained by two-dimensional positioning, and the altimeter 203 attached to the subject 200 and the altimeter 32 attached to the camera 100 are obtained. To detect the altitude z1 of the subject 200 and the altitude z2 of the camera 100, respectively. The wireless transmitter 202 wirelessly transmits to the camera 100 the altitude z1 of the subject 200 obtained by the altimeter 203 in addition to the subject identification information and position information (x1, x2).

こうすると、無線発信機202からは、3次元の位置情報(x1、y1、z1)が無線送信されたのと同じことになる。   In this way, the wireless transmitter 202 is the same as the three-dimensional position information (x1, y1, z1) transmitted wirelessly.

なお、高度計32、高度計203としては、デジタル腕時計に採用されている高度計兼気圧計としての圧力センサが使用できる。   In addition, as the altimeter 32 and the altimeter 203, a pressure sensor as an altimeter / barometer adopted in a digital wristwatch can be used.

図8は第2実施形態に係る撮影準備処理を示す。   FIG. 8 shows photographing preparation processing according to the second embodiment.

S11〜S15は、S1〜S5と同様である。ただし、S14では、被写体識別情報、位置情報(x1、x2)に加え、高度計203で得られた被写体200の高度z1を受信する。   S11 to S15 are the same as S1 to S5. However, in S14, the altitude z1 of the subject 200 obtained by the altimeter 203 is received in addition to the subject identification information and the position information (x1, x2).

S16では、高度計32によってカメラ100の高度z2を検出する。   In S16, the altitude meter 32 detects the altitude z2 of the camera 100.

S17では、平面位置情報および高度から構成される3次元位置情報(x1、y1、z1)および(x2、y2、z2)に基づいて距離Lを算出する。   In S17, the distance L is calculated based on the three-dimensional position information (x1, y1, z1) and (x2, y2, z2) composed of the plane position information and the altitude.

S18およびS19はS7およびS8と同様である。   S18 and S19 are the same as S7 and S8.

つまり、2次元測位しかできない場合であっても、カメラ100と被写体200でそれぞれ高度を計測すれば、第1実施形態と同様、高度差のある被写体200にピントを合わせることが可能である。   That is, even when only two-dimensional positioning is possible, if the altitude is measured by the camera 100 and the subject 200, respectively, it is possible to focus on the subject 200 having a difference in altitude as in the first embodiment.

<第3実施形態>
図9は第3実施形態に係るカメラシステムを示す。他の実施形態と同じブロックには同じ符号が付されている。カメラ100には、傾斜センサ33が備えられている。傾斜センサ33は、例えば錘(デッドウェイト)と歪みゲージの組み合わせで構成される。
<Third Embodiment>
FIG. 9 shows a camera system according to the third embodiment. The same blocks as those in the other embodiments are denoted by the same reference numerals. The camera 100 is provided with a tilt sensor 33. The inclination sensor 33 is configured by a combination of, for example, a weight (dead weight) and a strain gauge.

図8は第3実施形態に係る撮影準備処理を示す。   FIG. 8 shows photographing preparation processing according to the third embodiment.

S21〜S25は、S11〜S15と同様である。ただし、S14では、被写体識別情報、測位信号(x1、x2)を受信し、高度z1は受信しない。   S21 to S25 are the same as S11 to S15. However, in S14, subject identification information and positioning signals (x1, x2) are received, and altitude z1 is not received.

S26では、傾斜センサ33によって傾きを検出し、この傾きをカメラ100から被写体200に対する仰角θとする。傾きを仰角θとするには、カメラ100の画角が被写体200を捉えていなければならない(図10参照)。   In S <b> 26, the inclination is detected by the inclination sensor 33, and this inclination is set as an elevation angle θ with respect to the subject 200 from the camera 100. In order for the inclination to be the elevation angle θ, the angle of view of the camera 100 must capture the subject 200 (see FIG. 10).

S27では、測位信号および高度から得られた2次元位置(x1、y1)、(x2、y2、z2)および仰角に基づいて距離Lを算出する(図10参照)。   In S27, the distance L is calculated based on the two-dimensional position (x1, y1), (x2, y2, z2) and the elevation angle obtained from the positioning signal and altitude (see FIG. 10).

S28およびS29はS18およびS19と同様である。   S28 and S29 are the same as S18 and S19.

つまり、2次元測位しかできない場合であっても、カメラ100から被写体200への仰角を計測すれば、第1実施形態と同様、高度差のある被写体200にピントを合わせることが可能である。   That is, even when only two-dimensional positioning is possible, if the elevation angle from the camera 100 to the subject 200 is measured, it is possible to focus on the subject 200 having an altitude difference as in the first embodiment.

<第4実施形態>
図12は第4実施形態に係るカメラシステムを示す。他の実施形態と同じブロックには同じ符号が付されている。距離精度算出部7aは、CPU7が後述のステップS37を実行させるためのプログラムであり、ROM24に記録されている。コントラスト算出部7bは、CPU7がAF動作を行うために各ブロックを制御する手段として機能させるプログラムであり、ROM24に記録されている。相対距離算出部7cは、CPU7が後述のステップS36を実行させるためのプログラムであり、ROM24に記録されている。
<Fourth embodiment>
FIG. 12 shows a camera system according to the fourth embodiment. The same blocks as those in the other embodiments are denoted by the same reference numerals. The distance accuracy calculation unit 7a is a program for the CPU 7 to execute step S37 described later, and is recorded in the ROM 24. The contrast calculation unit 7b is a program that causes the CPU 7 to function as means for controlling each block in order to perform the AF operation, and is recorded in the ROM 24. The relative distance calculation unit 7c is a program for the CPU 7 to execute step S36 described later, and is recorded in the ROM 24.

図13は第4実施形態に係る撮影準備処理を示す。   FIG. 13 shows a shooting preparation process according to the fourth embodiment.

S31〜S36は、S1〜S6と同様である。   S31 to S36 are the same as S1 to S6.

S37では、距離LとGPS測位の誤差sとを比較し、L>sであるか否かを判断する。L>sの場合はS38、L≦sの場合はS40に進む。なお、例えばディファレンシャルGPSの場合、誤差sは、水平方向で10cm、垂直方向で15cm程度であるとされるが、GPSサービスの事業主体により誤差は様々変動しうるし、また、周囲の環境(地形、障害物の有無、天候など)によっても誤差は様々変動し、常にかかる高精度の測位誤差が保証されるわけではない。   In S37, the distance L and the GPS positioning error s are compared to determine whether L> s. If L> s, the process proceeds to S38, and if L ≦ s, the process proceeds to S40. For example, in the case of differential GPS, the error s is about 10 cm in the horizontal direction and about 15 cm in the vertical direction. However, the error may vary depending on the business entity of the GPS service, and the surrounding environment (terrain, Depending on whether there are obstacles, weather, etc.), the error varies, and this high-precision positioning error is not always guaranteed.

S38およびS39はS7およびS8と同様である。   S38 and S39 are the same as S7 and S8.

S40では、コントラストAFを行う。あるいは、アクティブ式測距あるいはパッシブ式の測距など、GPS測位の誤差sよりも誤差の小さい測距方式によって測距を行い、その測距の結果得られた被写体までの距離に応じて合焦を行ってもよい。   In S40, contrast AF is performed. Alternatively, distance measurement is performed by a distance measurement method having an error smaller than the GPS positioning error s, such as active distance measurement or passive distance measurement, and focusing is performed according to the distance to the subject obtained as a result of the distance measurement. May be performed.

こうすると、カメラ100と被写体200との距離がGPS測位誤差よりも微小である場合、コントラストAFその他の合焦方式に切り替えることで適切に合焦でき、ピンぼけのない良質な画像を得ることができる。   In this way, when the distance between the camera 100 and the subject 200 is smaller than the GPS positioning error, it can be properly focused by switching to the contrast AF or other focusing method, and a high-quality image without blur can be obtained. .

<第5実施形態>
図14は第5実施形態に係るカメラシステムを示す。他の実施形態と同じブロックには同じ符号が付されている。
<Fifth Embodiment>
FIG. 14 shows a camera system according to the fifth embodiment. The same blocks as those in the other embodiments are denoted by the same reference numerals.

方位センサ35は、カメラ100の鏡胴1に収められた撮影レンズの光軸の方位αを検知してCPU7に出力する。方位センサ35は、例えば地磁気を利用して方位を検出する方位センサや、ジャイロを用いて所定の軸回りの角速度を検出することで傾斜角を検出する方位センサなど、公知のセンサが利用可能である。   The azimuth sensor 35 detects the azimuth α of the optical axis of the photographing lens housed in the lens barrel 1 of the camera 100 and outputs it to the CPU 7. As the azimuth sensor 35, for example, a known sensor such as an azimuth sensor that detects azimuth using geomagnetism or an azimuth sensor that detects an inclination angle by detecting an angular velocity around a predetermined axis using a gyro can be used. is there.

被写体方向算出部7dは、カメラ100から見た被写体200の方位γ=tan-1((x1-x2)/(y1-y2))を算出する(図15参照)。撮影画角に対する被写体方向算出部7fは、撮影レンズ光軸の方位αと被写体200の方位γとに基づき、被写体方向βを算出する(図15参照)。 The subject direction calculation unit 7d calculates the orientation γ = tan −1 ((x1−x2) / (y1−y2)) of the subject 200 viewed from the camera 100 (see FIG. 15). The subject direction calculation unit 7f for the shooting angle of view calculates the subject direction β based on the azimuth α of the photographic lens optical axis and the azimuth γ of the subject 200 (see FIG. 15).

被写体方向算出部7dおよび撮影画角に対する被写体方向算出部7fは、CPU7で実行されるプログラムであり、ROM24に記録されている。   The subject direction calculation unit 7d and the subject direction calculation unit 7f with respect to the shooting angle of view are programs executed by the CPU 7, and are recorded in the ROM 24.

図16は第4実施形態に係る撮影準備処理を示す。   FIG. 16 shows photographing preparation processing according to the fourth embodiment.

S51〜S54は、S1〜S4と同様である。   S51 to S54 are the same as S1 to S4.

S54では、被写体の現在位置(x1、y1)とカメラの現在位置(x2、y2)を取得する。そして、方位γ=tan-1((x1-x2)/(y1-y2))を算出する。 In S54, the current position (x1, y1) of the subject and the current position (x2, y2) of the camera are acquired. Then, the direction γ = tan −1 ((x1−x2) / (y1−y2)) is calculated.

S55では、方位センサ35によって現在の方位αを検知する。   In S55, the current direction α is detected by the direction sensor 35.

S56では、CPU7は、現在の方位αを取得する。   In S56, the CPU 7 acquires the current direction α.

S57では、レンズ焦点距離情報検知部7eが現在のフォーカスレンズの焦点距離fを検知する。   In S57, the lens focal length information detector 7e detects the current focal length f of the focus lens.

S58では、CPU7は、現在の焦点距離fを取得する。そして、CPU7は、現在の焦点距離fに対応する画角Θを、予めROM24に記録されている画角−焦点距離テーブルから特定する。画角−焦点距離テーブルは、レンズ焦点距離と画角の関係を規定する情報を格納している。例えば、焦点距離fが300[mm]、400[mm]については、対応する画角Θはそれぞれ8.2[度]、6.2[度]である。さらに、CPU7は、画角Θから半画角θを求める。つまりθ=Θ/2である。   In S58, the CPU 7 acquires the current focal length f. Then, the CPU 7 specifies the angle of view Θ corresponding to the current focal length f from the angle of view-focal length table recorded in advance in the ROM 24. The angle-of-view distance table stores information defining the relationship between the lens focal length and the angle of view. For example, when the focal length f is 300 [mm] and 400 [mm], the corresponding angles of view Θ are 8.2 [degrees] and 6.2 [degrees], respectively. Further, the CPU 7 calculates the half angle of view θ from the angle of view Θ. That is, θ = Θ / 2.

S59では、光軸に対する被写体の方向β=γ−αを算出する。   In S59, the subject direction β = γ−α with respect to the optical axis is calculated.

S60では、表示装置19の画面の幅Wおよびレンズ光軸に対する被写体200の方向βに基づき、表示装置19の画面内の被写体方向表示位置d=W/2×tanβ/ tanθを算出する(図15参照)。位置dは、画面内の中心線から画面横方向に沿った被写体200までの距離を示す(図17参照)。   In S60, based on the screen width W of the display device 19 and the direction β of the subject 200 with respect to the lens optical axis, the subject direction display position d = W / 2 × tan β / tan θ in the screen of the display device 19 is calculated (FIG. 15). reference). The position d indicates the distance from the center line in the screen to the subject 200 along the horizontal direction of the screen (see FIG. 17).

S61では、被写体方向表示位置dに基づき、スルー画像に被写体200の位置を示すマーカMをオーバーレイする。   In S61, a marker M indicating the position of the subject 200 is overlaid on the through image based on the subject direction display position d.

例えば、図17に示すように、画面上部にマーカMを配置する。   For example, as shown in FIG. 17, a marker M is arranged at the top of the screen.

マーカーの形状は任意である。例えば図18に示すように、画面内の中心線から画面横方向に距離dだけ離れた平行線lを長軸とする楕円をマーカーMにしてもよい。   The shape of the marker is arbitrary. For example, as shown in FIG. 18, an ellipse whose major axis is a parallel line l that is a distance d in the horizontal direction of the screen from the center line in the screen may be used as the marker M.

また、被写体200が画角から外れてしまった場合、すなわちW/2<dとなった場合、被写体200が画角から外れてしまったことおよび被写体200の存在方向を示すマーカNをオーバーレイしてもよい。こうすると、被写体200を識別しにくい場合や、被写体200を見失った場合でも、どちらに画角を合わせれば被写体200を捉えられるかが容易に分かる。   When the subject 200 deviates from the angle of view, that is, when W / 2 <d, the marker N indicating that the subject 200 has deviated from the angle of view and the direction in which the subject 200 exists is overlaid. Also good. In this way, even when it is difficult to identify the subject 200 or when the subject 200 is lost, it is easy to know which one can capture the subject 200 by matching the angle of view.

なお、S54〜S61は、シャッターボタン27dが全押しされるまで、所定時間ごと(例えば2秒ごと)に繰り返される。また、この実施形態は被写体200およびカメラ100の位置は2次元座標(x、y)を想定しているが、被写体の高度(図3参照)や仰角(図10参照)を無視すれば、同様にしてマーカーの表示は可能である。   Note that S54 to S61 are repeated every predetermined time (for example, every 2 seconds) until the shutter button 27d is fully pressed. In this embodiment, the positions of the subject 200 and the camera 100 are assumed to be two-dimensional coordinates (x, y). However, if the altitude (see FIG. 3) and the elevation angle (see FIG. 10) of the subject are ignored, the same applies. Marker display is possible.

第1実施形態に係るカメラシステムの概略構成図1 is a schematic configuration diagram of a camera system according to a first embodiment. カメラのブロック図Camera block diagram 被写体とカメラの3次元的位置関係を例示する図The figure which illustrates the three-dimensional positional relationship of a to-be-photographed object and a camera 被写体とカメラの2次元的位置関係を例示する図The figure which illustrates the two-dimensional positional relationship of a to-be-photographed object and a camera 被写体へのGPS受信機および無線発信機の装着例を示す図The figure which shows the example of mounting | wearing with a GPS receiver and a radio transmitter to a to-be-photographed object 第1実施形態に係る撮影準備処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography preparation process which concerns on 1st Embodiment. 第2実施形態に係るカメラシステムの概略構成図Schematic configuration diagram of a camera system according to the second embodiment 第2実施形態に係る撮影準備処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography preparation process which concerns on 2nd Embodiment. 第3実施形態に係るカメラシステムの概略構成図Schematic configuration diagram of a camera system according to the third embodiment 被写体とカメラの3次元的位置関係を例示する図The figure which illustrates the three-dimensional positional relationship of a to-be-photographed object and a camera 第3実施形態に係る撮影準備処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography preparation process which concerns on 3rd Embodiment. 第4実施形態に係るカメラシステムの概略構成図Schematic configuration diagram of a camera system according to the fourth embodiment 第4実施形態に係る撮影準備処理の流れを示すフローチャートFlowchart showing the flow of shooting preparation processing according to the fourth embodiment 第5実施形態に係るカメラシステムの概略構成図Schematic configuration diagram of a camera system according to a fifth embodiment 被写体とカメラの画角との2次元的位置関係を例示する図The figure which illustrates the two-dimensional positional relationship of a to-be-photographed object and the view angle of a camera 第5実施形態に係る撮影準備処理の流れを示すフローチャートThe flowchart which shows the flow of the imaging | photography preparation process which concerns on 5th Embodiment. 矢印形マーカーの表示例Display example of arrow marker 楕円形マーカーの表示例Example of oval marker display 画角外マーカーの表示例Display example of out-of-view marker

符号の説明Explanation of symbols

1:レンズ鏡胴、2:アイリス機構、3:CCD、4:タイミングジェネレータ、5:信号処理回路、6:画像処理回路、7:CPU、25:RAM、31:無線受信機、201:GPS受信機、202:無線発信機、300:GPS衛星 1: lens barrel, 2: iris mechanism, 3: CCD, 4: timing generator, 5: signal processing circuit, 6: image processing circuit, 7: CPU, 25: RAM, 31: wireless receiver, 201: GPS reception , 202: Wireless transmitter, 300: GPS satellite

Claims (7)

被写体に設置されており、GPS衛星からの電波信号に基づいて前記被写体の現在位置情報を取得する被写体位置取得部と、
前記被写体位置取得部の取得した被写体の現在位置情報を送信する送信部と、
前記送信部から送信された被写体の現在位置情報を受信する受信部と、
撮影装置に設置されており、GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得する撮影装置位置取得部と、
前記被写体の現在位置情報と前記撮影装置の現在位置情報とに基づき、前記被写体と前記撮影装置の間の距離を算出する距離算出部と、
前記距離算出部の算出した距離に基づき、前記撮影装置の撮影レンズの焦点調節を行う調節部と、
を備える撮影システム。
A subject position acquisition unit that is installed in the subject and acquires current position information of the subject based on a radio wave signal from a GPS satellite;
A transmission unit for transmitting the current position information of the subject acquired by the subject position acquisition unit;
A receiving unit for receiving the current position information of the subject transmitted from the transmitting unit;
An imaging device position acquisition unit that is installed in the imaging device and acquires current position information of the imaging device based on a radio wave signal from a GPS satellite;
A distance calculation unit that calculates a distance between the subject and the photographing device based on the current position information of the subject and the current position information of the photographing device;
An adjustment unit that adjusts the focus of the photographing lens of the photographing apparatus based on the distance calculated by the distance calculating unit;
A photographing system comprising:
前記撮影装置から前記被写体に対する高度差を検出する高度差検出部をさらに備え、
前記距離算出部は、前記被写体の現在位置情報と前記撮影装置の現在位置情報と前記高度差検出部の検出した高度差に基づき、前記被写体と前記撮影装置の間の距離を算出する請求項1に記載の撮影システム。
Further comprising an altitude difference detection unit for detecting an altitude difference with respect to the subject from the imaging device,
The distance calculation unit calculates a distance between the subject and the photographing device based on the current position information of the subject, the current position information of the photographing device, and the height difference detected by the height difference detection unit. The shooting system described in 1.
前記距離算出部の算出した距離が所定の測定誤差を生じる距離を下回っているか否かを判定する判定部をさらに備え、
前記距離が前記所定の測定誤差を生じる距離を下回っている場合、コントラストAFその他前記所定の測定誤差未満の精度を確保できる焦点調節手段により焦点調節を行う請求項1または2に記載の撮影システム。
A determination unit that determines whether the distance calculated by the distance calculation unit is less than a distance that causes a predetermined measurement error;
3. The photographing system according to claim 1, wherein when the distance is less than a distance that causes the predetermined measurement error, focus adjustment is performed by a focus adjustment unit that can ensure accuracy less than the contrast AF or the predetermined measurement error.
前記撮影装置の撮影レンズの光軸の方位を検出する光軸方位検出部と、
前記撮影装置の画角を検出する画角検出部と、
前記被写体の現在位置情報と前記撮影装置の現在位置情報と前記検出された撮影装置の撮影レンズの光軸の方位と前記検出された撮影装置の画角とに基づき、前記撮影装置の表示装置に表示されたスルー画像における被写体の表示位置を算出する被写体表示位置算出部と、
前記算出された被写体の表示位置に基づき、前記被写体の表示位置を示すマーカを前記スルー画像に重畳して表示する表示制御部と、
をさらに備える請求項1〜3のいずれかに記載の撮影システム。
An optical axis direction detector that detects the direction of the optical axis of the imaging lens of the imaging apparatus;
An angle-of-view detection unit for detecting an angle of view of the photographing apparatus;
Based on the current position information of the subject, the current position information of the photographing device, the direction of the optical axis of the photographing lens of the detected photographing device, and the detected angle of view of the photographing device, the display device of the photographing device A subject display position calculation unit for calculating a display position of the subject in the displayed through image;
Based on the calculated display position of the subject, a display control unit that superimposes and displays a marker indicating the display position of the subject on the through image;
The imaging system according to claim 1, further comprising:
撮影レンズを介して受光した被写体像を撮影する撮影部と、
GPS衛星からの電波信号に基づいて被写体の現在位置情報を受信する受信部と、
GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得する撮影装置位置取得部と、
前記被写体の現在位置情報と前記撮影装置の現在位置情報とに基づき、前記被写体と前記撮影装置の間の距離を算出する距離算出部と、
前記距離算出部の算出した距離に基づき、前記撮影レンズの焦点調節を行う調節部と、
を備える撮影装置。
A photographing unit for photographing a subject image received through the photographing lens;
A receiving unit that receives current position information of a subject based on a radio wave signal from a GPS satellite;
An imaging device position acquisition unit that acquires current position information of the imaging device based on radio signals from GPS satellites;
A distance calculation unit that calculates a distance between the subject and the photographing device based on the current position information of the subject and the current position information of the photographing device;
An adjusting unit that adjusts the focus of the photographing lens based on the distance calculated by the distance calculating unit;
An imaging device comprising:
GPS衛星からの電波信号に基づいて被写体の現在位置情報を受信するステップと、
GPS衛星からの電波信号に基づいて撮影装置の現在位置情報を取得するステップと、
前記被写体の現在位置情報と前記撮影装置の現在位置情報とに基づき、前記被写体と前記撮影装置の間の距離を算出するステップと、
前記算出した距離に基づき、撮影レンズの焦点調節を行うステップと、
を含む撮影方法。
Receiving current position information of a subject based on a radio wave signal from a GPS satellite;
Acquiring current position information of the imaging device based on radio signals from GPS satellites;
Calculating a distance between the subject and the imaging device based on the current location information of the subject and the current location information of the imaging device;
Adjusting the focus of the photographic lens based on the calculated distance;
Including shooting method.
請求項6に記載の撮影方法をコンピュータに実行させるプログラム。   The program which makes a computer perform the imaging | photography method of Claim 6.
JP2007169344A 2007-06-27 2007-06-27 Photographing system, photographing device, method and program Abandoned JP2009008842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007169344A JP2009008842A (en) 2007-06-27 2007-06-27 Photographing system, photographing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007169344A JP2009008842A (en) 2007-06-27 2007-06-27 Photographing system, photographing device, method and program

Publications (1)

Publication Number Publication Date
JP2009008842A true JP2009008842A (en) 2009-01-15

Family

ID=40323994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007169344A Abandoned JP2009008842A (en) 2007-06-27 2007-06-27 Photographing system, photographing device, method and program

Country Status (1)

Country Link
JP (1) JP2009008842A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109641A (en) * 2013-11-29 2015-06-11 アクシス アーベー System for following object marked by tag device with camera
US10389932B2 (en) 2015-09-30 2019-08-20 Fujifilm Corporation Imaging apparatus and imaging method
JP2021090179A (en) * 2019-12-06 2021-06-10 キヤノン株式会社 Control device, imaging apparatus, imaging system, control method, and program
US20210360161A1 (en) * 2020-05-12 2021-11-18 Edward Reed Portable system including motorized base controller and transmitter for tracking a moving target

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249267A (en) * 2000-03-03 2001-09-14 Ricoh Co Ltd Automatic focusing device, digital camera, portable information inputting device, focal position detecting method, and recording medium which can be read by computer
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Photographing apparatus
JP2005266520A (en) * 2004-03-19 2005-09-29 Olympus Corp Imaging apparatus and imaging method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249267A (en) * 2000-03-03 2001-09-14 Ricoh Co Ltd Automatic focusing device, digital camera, portable information inputting device, focal position detecting method, and recording medium which can be read by computer
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Photographing apparatus
JP2005266520A (en) * 2004-03-19 2005-09-29 Olympus Corp Imaging apparatus and imaging method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015109641A (en) * 2013-11-29 2015-06-11 アクシス アーベー System for following object marked by tag device with camera
US10389932B2 (en) 2015-09-30 2019-08-20 Fujifilm Corporation Imaging apparatus and imaging method
JP2021090179A (en) * 2019-12-06 2021-06-10 キヤノン株式会社 Control device, imaging apparatus, imaging system, control method, and program
JP7479829B2 (en) 2019-12-06 2024-05-09 キヤノン株式会社 CONTROL DEVICE, IMAGING DEVICE, IMAGING SYSTEM, CONTROL METHOD, AND PROGRAM
US20210360161A1 (en) * 2020-05-12 2021-11-18 Edward Reed Portable system including motorized base controller and transmitter for tracking a moving target
US11711616B2 (en) * 2020-05-12 2023-07-25 Electroapp, Llc Portable system including motorized base controller and transmitter for tracking a moving target

Similar Documents

Publication Publication Date Title
US10085010B2 (en) Imaging system for capturing an image of the same object using a plurality of image capturing apparatuses that can communicate with each other
US7424213B2 (en) Camera system, image capturing apparatus, and a method of an image capturing apparatus
US8760518B2 (en) Photographing apparatus, photographing system and photographing method
US7693406B2 (en) Image capturing apparatus, method of controlling the same, and storage medium
JP2008541161A (en) Digital camera with triangulation autofocus system and associated method
JPS60143330A (en) Photographic device
US20060187333A1 (en) Still image pickup device
JP2001223932A (en) Image pickup device and digital camera
JP2008292663A (en) Camera and portable electronic equipment
JP2006246354A (en) Imaging unit and imaging program
JP2009008842A (en) Photographing system, photographing device, method and program
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP4702220B2 (en) Imaging apparatus and imaging method
JP2009130688A (en) Electronic camera
JP2011217334A (en) Imaging apparatus and method of controlling the same
JP5543870B2 (en) Camera, camera control method, and program
JP5861420B2 (en) Electronic camera
JPWO2018168228A1 (en) Image processing apparatus, image processing method, and image processing program
JP2006025182A (en) Photographing apparatus
JP2007225550A (en) Speed measuring device, imaging device, imaging method, and control program
JP5176934B2 (en) Electronic camera
JP2007065002A (en) Focus detector and imaging apparatus
JP2010130590A (en) Imaging apparatus and imaging method
JP5750697B2 (en) Display device and display program
JPH09261520A (en) Image input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110506

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20110517