JP2012113204A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2012113204A
JP2012113204A JP2010263310A JP2010263310A JP2012113204A JP 2012113204 A JP2012113204 A JP 2012113204A JP 2010263310 A JP2010263310 A JP 2010263310A JP 2010263310 A JP2010263310 A JP 2010263310A JP 2012113204 A JP2012113204 A JP 2012113204A
Authority
JP
Japan
Prior art keywords
distance
information
subject
measuring means
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010263310A
Other languages
Japanese (ja)
Inventor
Naoyuki Ohara
直幸 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010263310A priority Critical patent/JP2012113204A/en
Publication of JP2012113204A publication Critical patent/JP2012113204A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve problems with phase difference AF control of an external ranging system which does not obtain enough accuracy for a long-distance subject and with a method to obtain a subject distance from a position and a direction of an imaging device as well as map information which produces a large relative error and takes a long time until focusing for a short-distance subject.SOLUTION: An imaging device can shorten the time required for focusing by imaging signal AF control and can perform high-speed focusing adjustment control as hybrid AF by having phase difference AF control and map reference AF control in addition to the imaging signal AF control. The imaging device also obtains a more accurate subject distance by performing the map reference AF control for a long-distance subject that the phase difference AF control of an external ranging system has difficulty to deal with. Additionally, the imaging device performs the map reference AF control in the phase difference AF control of the external ranging system when a subject is not in a short range.

Description

本発明は撮像装置に関し、詳しくは被写体までの距離を算出することによる自動焦点調節の技術に関する。   The present invention relates to an imaging apparatus, and more particularly to a technique for automatic focusing by calculating a distance to a subject.

ビデオカメラ等の撮像装置に搭載されるオートフォーカス(AF)としては、撮像信号AFが一般的である。撮像信号AFは、撮像素子を用いて得られた映像信号から高周波成分を抽出して、合焦状態を示すAF評価値を生成し、AF評価値が最大になるようにフォーカスレンズの位置を制御するものである。   An imaging signal AF is generally used as autofocus (AF) mounted on an imaging apparatus such as a video camera. The imaging signal AF extracts a high-frequency component from a video signal obtained using an imaging device, generates an AF evaluation value indicating a focused state, and controls the position of the focus lens so that the AF evaluation value is maximized. To do.

また、合焦精度の高い撮像信号AFに加えて、合焦の速い位相差AFを組み合わせた撮像装置も提案されている。位相差AFは、被写体までの距離を測距センサにより検出し、その検出距離に基づいてフォーカスレンズの位置を制御するものである。   In addition, an imaging apparatus has been proposed that combines a phase difference AF with a fast focus in addition to an imaging signal AF with a high focus accuracy. In the phase difference AF, the distance to the subject is detected by a distance measuring sensor, and the position of the focus lens is controlled based on the detected distance.

位相差AFのうち、測距センサの光学系が撮像光学系とは独立して設けられている外部測距方式は、TTL方式と比べ構成が簡単になる一方、被写体の距離が遠くなるほど、測距の精度が落ちるという問題があった。   Among the phase difference AFs, the external distance measurement method in which the optical system of the distance measurement sensor is provided independently of the imaging optical system has a simpler configuration than the TTL method. There was a problem that the accuracy of the distance was lowered.

被写体までの距離を取得する方法として、位相差AFのような測距方式以外に、撮像装置にGPSを付属し、撮像装置の位置、方位と地図情報から被写体距離などの情報を取得して、操作者に提示する技術が開示されている。(特許文献1)   As a method of acquiring the distance to the subject, in addition to the ranging method such as phase difference AF, the GPS is attached to the imaging device, and information such as the subject distance is acquired from the position, orientation and map information of the imaging device, A technique presented to an operator is disclosed. (Patent Document 1)

特開2009−060339号公報JP 2009-060339 A

外部測距方式の位相差AF制御では、被写体が遠距離にいる場合に、測距の精度が低く、遠距離被写体に対して、撮像信号AF制御と位相差AF制御を組み合わせたハイブリッドAF制御においても、合焦までに時間がかかっていた。   In the phase difference AF control of the external distance measurement method, the accuracy of distance measurement is low when the subject is at a long distance, and in the hybrid AF control that combines the imaging signal AF control and the phase difference AF control for a long distance subject. But it took time to focus.

一方、GPSなどを用いて撮像装置の位置、方位と地図情報から被写体距離を取得する方法は、被写体が近距離にいても、遠距離にいても、一定の精度で被写体距離を取得することが可能であるが、近距離被写体に対しては、相対的に誤差が大きくなってしまう。また、上記特許文献1の構成では、撮像装置の位置、方位と地図情報から被写体距離を算出する方法について言及されているが、取得した被写体距離を用いて、焦点調節制御をする方法については言及されていない。   On the other hand, the method of acquiring the subject distance from the position, orientation, and map information of the imaging device using GPS or the like can acquire the subject distance with a certain accuracy regardless of whether the subject is a short distance or a long distance. Although possible, the error is relatively large for a short-distance subject. Further, in the configuration of Patent Document 1, a method for calculating the subject distance from the position and orientation of the imaging device and map information is mentioned, but a method for performing focus adjustment control using the obtained subject distance is mentioned. It has not been.

本発明は上記の問題点に鑑み、位相差AF制御を搭載した撮像装置において、遠距離の被写体について、高精度に被写体距離を取得しつつ、焦点調節を行うことを目的とする。   In view of the above-described problems, an object of the present invention is to perform focus adjustment while acquiring a subject distance with high accuracy for a subject at a long distance in an imaging apparatus equipped with phase difference AF control.

本発明は、撮像光学系と
前記撮像光学系の外に設けられた光学系と、前記光学系からの像を光電変換する検出部と、前記検出部の出力に基づいて被写体距離を算出する第一の測距手段と、
情報処理装置との通信によって、被写体距離を算出する第二の測距手段
を備えた撮像装置であって、
前記第一の測距手段で所定の距離以上の時に、前記第二の測距手段を行って得られた被写体距離に基づいて、焦点制御を行うことを特徴とする撮像装置である。
The present invention provides an imaging optical system, an optical system provided outside the imaging optical system, a detection unit that photoelectrically converts an image from the optical system, and a subject distance that is calculated based on an output of the detection unit. A distance measuring means;
An imaging device comprising a second distance measuring means for calculating a subject distance by communication with an information processing device,
An imaging apparatus that performs focus control based on a subject distance obtained by performing the second distance measuring means when the first distance measuring means is a predetermined distance or more.

本発明によれば、
遠距離の被写体について、被写体距離検出の精度を向上させ、かつ検出した被写体距離に基づいて、自動焦点調節を行うことが可能となる。
According to the present invention,
For a long-distance subject, the accuracy of subject distance detection can be improved, and automatic focus adjustment can be performed based on the detected subject distance.

実施例1におけるシステムの構成を示す図The figure which shows the structure of the system in Example 1. FIG. 実施例1におけるカメラおよびサーバの構成を示すブロック図FIG. 1 is a block diagram illustrating the configuration of a camera and a server in Embodiment 1. 実施例における測距センサの構成を示す図The figure which shows the structure of the ranging sensor in an Example. 位相差AFにおける像信号を示す図The figure which shows the image signal in phase difference AF 実施例におけるカメラのフローチャートFlowchart of the camera in the embodiment 実施例1におけるカメラの通信処理のフローチャートFlowchart of camera communication processing in Embodiment 1 実施例1におけるサーバのフローチャートFlowchart of server in embodiment 1 実施例における被写体距離の算出方法を示す図The figure which shows the calculation method of the object distance in an Example 実施例におけるカメラの焦点調節制御のフローチャートFlowchart of camera focus adjustment control in embodiment 実施例における測距領域を示す図The figure which shows the ranging area in an Example 実施例2におけるカメラの構成を示すブロック図Block diagram showing a configuration of a camera in Embodiment 2 実施例2におけるカメラの地図参照処理のフローチャートFlowchart of camera map reference processing in Embodiment 2

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
(実施例1)
図1は、本発明の実施形態に関わるシステム構成を示す図である。カメラ100とサーバ200が通信を行う。ここで言うカメラ100とは、動画や静止画を撮影してメディアに記録する、いわゆるデジタルビデオカメラやデジタルスチルカメラ等を総称してカメラと呼ぶ。カメラ100は、カメラ100自身が取得した像から算出した被写体距離およびサーバが算出した被写体距離に基づいて自動焦点調節を行う。
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
Example 1
FIG. 1 is a diagram showing a system configuration according to an embodiment of the present invention. The camera 100 and the server 200 communicate with each other. The camera 100 referred to here is a generic name of a so-called digital video camera, digital still camera, or the like that captures moving images and still images and records them on a medium. The camera 100 performs automatic focus adjustment based on the subject distance calculated from the image acquired by the camera 100 itself and the subject distance calculated by the server.

図2はカメラ100およびサーバ200の内部構成を示す図である。カメラ100内の各ユニットは、バス170を介して接続されており、各ユニットはCPU151によって制御される構造になっている。   FIG. 2 is a diagram showing the internal configuration of the camera 100 and the server 200. Each unit in the camera 100 is connected via a bus 170, and each unit is controlled by the CPU 151.

撮像光学系101には、固定1群レンズ102、ズームレンズ111、絞り103、固定3群レンズ121、フォーカスレンズ131が含まれ、撮像素子141上に被写体光を入射させる。撮像素子141は、被写体光を受光することで撮像を行い、撮像信号を出力する。ズーム制御部113は、CPU151の指示に従いズームモータ112を介してズームレンズ111を駆動して焦点距離を変える。   The imaging optical system 101 includes a fixed first group lens 102, a zoom lens 111, a diaphragm 103, a fixed third group lens 121, and a focus lens 131, and makes subject light incident on the imaging element 141. The image sensor 141 captures an image by receiving subject light and outputs an image signal. The zoom control unit 113 changes the focal length by driving the zoom lens 111 via the zoom motor 112 in accordance with an instruction from the CPU 151.

撮像素子141に入射された被写体像は、撮像素子141にて光電変換され撮像信号処理部142で画像信号として整えられる。また、撮像信号がAF信号処理部134へと入力される。AF信号処理部134では、撮像信号から画像信号内の一部のみを抽出し、バンドパスフィルタおよび検波部によって、撮像信号AF制御のためのAF評価値を作成し、フォーカス制御部133へ入力する。   The subject image incident on the image sensor 141 is photoelectrically converted by the image sensor 141 and is adjusted as an image signal by the image signal processor 142. Further, the imaging signal is input to the AF signal processing unit 134. The AF signal processing unit 134 extracts only a part of the image signal from the imaging signal, creates an AF evaluation value for imaging signal AF control by the band pass filter and the detection unit, and inputs the AF evaluation value to the focus control unit 133. .

一方、撮像光学系101の外部に設けられている測距センサ130は、測距センサ用の分割光学系138と位相差検出部139から構成され、被写体までの距離L1を算出してフォーカス制御部133へ入力する。フォーカス制御部133では、前述のAF評価値および被写体距離L1の結果をCPU151へ引き渡すとともに、CPU151の指示に従いフォーカスモータ132を介して、フォーカスレンズ131を移動させる。   On the other hand, the distance measuring sensor 130 provided outside the imaging optical system 101 includes a divided optical system 138 for the distance measuring sensor and a phase difference detecting unit 139, and calculates a distance L1 to the subject to calculate a focus control unit. Input to 133. The focus control unit 133 delivers the result of the AF evaluation value and the subject distance L1 described above to the CPU 151, and moves the focus lens 131 via the focus motor 132 in accordance with an instruction from the CPU 151.

撮像信号処理部142で整えられた画像信号は、一時的にRAM154に蓄積される。RAM154に蓄積された画像信号は、画像圧縮解凍部153にて圧縮処理され、画像記録媒体157に記録される。これと並行して、RAM154に蓄積された画像信号は、画像処理部152にて最適なサイズに縮小・拡大処理がなされる。最適なサイズに処理された画像信号は、モニタディスプレイ150に表示されることで、リアルタイムで撮影画像を撮影者に対してフィードバックする。また、撮影直後には、モニタディスプレイに所定時間だけ撮影画像を表示することで撮影画像の確認を行うことも可能となる。   The image signal prepared by the imaging signal processing unit 142 is temporarily stored in the RAM 154. The image signal stored in the RAM 154 is compressed by the image compression / decompression unit 153 and recorded on the image recording medium 157. In parallel with this, the image signal stored in the RAM 154 is reduced / enlarged to an optimum size by the image processing unit 152. The image signal processed to the optimum size is displayed on the monitor display 150, so that the photographed image is fed back to the photographer in real time. In addition, immediately after shooting, it is possible to check the shot image by displaying the shot image on the monitor display for a predetermined time.

操作スイッチ156は使用者が指示を行うための操作を行うためのものである。159は電源バッテリーであり、電源管理158により適切な電源管理を施されてカメラ全体に安定した電源供給を行うものである。   The operation switch 156 is for performing an operation for the user to give an instruction. Reference numeral 159 denotes a power battery, which is subjected to appropriate power management by the power management 158 and supplies a stable power to the entire camera.

測位部160はカメラ100の地理的な現在の位置を検出することができる。具体的にはGPSなどの技術によるユニットとなる。方位検出部161は、電子コンパスなどからなり、カメラ100の光軸がどの方向を向いているかを検出することができる。通信部162はサーバ200と無線通信を行うためのものである。   The positioning unit 160 can detect the geographical current position of the camera 100. Specifically, the unit is based on technology such as GPS. The azimuth detecting unit 161 includes an electronic compass or the like, and can detect which direction the optical axis of the camera 100 is facing. The communication unit 162 is for performing wireless communication with the server 200.

これらの動作に先立って、カメラがOFF状態から起動すると、フラッシュメモリ155に格納されていたプログラムがRAM154の一部にロードされ、CPU151はこのRAM154にロードされたプログラムに従って動作を行う。   Prior to these operations, when the camera is activated from the OFF state, the program stored in the flash memory 155 is loaded into a part of the RAM 154, and the CPU 151 operates according to the program loaded in the RAM 154.

サーバ200内の各ユニットは、バス205を介して接続されており、各ユニットはCPU201によって制御される構造になっている。RAM203は、CPU201が実行するプログラムを展開する領域、一時的にデータを保存する領域として用いられる。通信部202はカメラ100と通信を行うためのものである。二次記憶装置204はハードディスクなどで構成される。二次記憶装置204はサーバ全体の動作プログラムを保持すると共に、サーバの処理で算出される長期的に保存すべきデータを保存する領域としてもちいられる。本実施例では、二次記憶装置204に、後述する地図情報が格納される。   Each unit in the server 200 is connected via a bus 205, and each unit is controlled by the CPU 201. The RAM 203 is used as an area for expanding a program executed by the CPU 201 and an area for temporarily storing data. The communication unit 202 is for communicating with the camera 100. The secondary storage device 204 is composed of a hard disk or the like. The secondary storage device 204 holds an operation program for the entire server and is also used as an area for storing data to be stored for a long period of time calculated by the server processing. In the present embodiment, map information described later is stored in the secondary storage device 204.

以下、図3、図4を用いて、外部測距方式の位相差AF制御の説明を行う。図3はカメラ100の測距センサ130の構成を表す図である。302、304はそれぞれ第1、第2の結像レンズであり、分割光学系138に相当する。303、305はそれぞれ第1、第2のラインセンサであり、位相差検出部139に相当する。第1及び第2のラインセンサ303、305は、基線長Bだけ互いに離れて設置されている。被写体301からの光のうち第1の結像レンズ302を通った光は、第1のラインセンサ303上に結像し、第2の結像レンズ304を通った光は第2のラインセンサ305上に結像する。   Hereinafter, the phase difference AF control of the external distance measurement method will be described with reference to FIGS. FIG. 3 is a diagram illustrating the configuration of the distance measuring sensor 130 of the camera 100. Reference numerals 302 and 304 denote first and second imaging lenses, which correspond to the split optical system 138, respectively. Reference numerals 303 and 305 denote first and second line sensors, which correspond to the phase difference detection unit 139, respectively. The first and second line sensors 303 and 305 are installed apart from each other by the base line length B. Of the light from the subject 301, the light passing through the first imaging lens 302 forms an image on the first line sensor 303, and the light passing through the second imaging lens 304 is the second line sensor 305. Image on top.

ラインセンサ303は30個の画素から構成されており、ラインセンサ305についても同様の構成とする。ラインセンサ303および305は不図示のAGC回路を有しており、AGC回路は、ラインセンサ303および305の出力をサンプリングし、ゲイン調整を行う。   The line sensor 303 includes 30 pixels, and the line sensor 305 has the same configuration. The line sensors 303 and 305 have an AGC circuit (not shown), and the AGC circuit samples the outputs of the line sensors 303 and 305 and performs gain adjustment.

図4に、ラインセンサ303、305からの出力信号(以下、像信号とする)の例を示す。ラインセンサ303,305は基線長Bだけ離れているため、ラインセンサ303からの像信号P1とラインセンサ305からの像信号P2は、画素数Xずれた信号となる。そこで、2つの像信号に対して相関演算を行う。相関演算は、画素をずらしながら2つの像信号の相関値を演算し、相関が最大になる位置を像ずれ量Xとして算出する。この相関演算は特に記述しない限り、CPU151で行うものとする。   FIG. 4 shows an example of output signals from the line sensors 303 and 305 (hereinafter referred to as image signals). Since the line sensors 303 and 305 are separated by the base line length B, the image signal P1 from the line sensor 303 and the image signal P2 from the line sensor 305 are signals that are shifted by the number of pixels X. Therefore, correlation calculation is performed on the two image signals. In the correlation calculation, a correlation value between two image signals is calculated while shifting pixels, and a position where the correlation is maximum is calculated as an image shift amount X. This correlation calculation is performed by the CPU 151 unless otherwise specified.

像ずれ量Xと、基線長Bと、結像レンズ302、304の焦点距離fとにより、三角測距の原理で被写体までの距離L1がL1=B・f/Xの関係により求められる。被写体距離L1に基づいて、CPU151は被写体に対して合焦を得るためのフォーカスレンズ位置を算出する。この算出には、計算式を用いた演算だけでなく、予め不図示のメモリに記憶された、被写体距離に対する合焦位置のデータを読み出すことも含む。   From the image shift amount X, the base line length B, and the focal length f of the imaging lenses 302 and 304, the distance L1 to the subject is obtained by the relationship of L1 = B · f / X based on the principle of triangulation. Based on the subject distance L1, the CPU 151 calculates a focus lens position for obtaining focus on the subject. This calculation includes not only calculation using a calculation formula, but also reading out data on the in-focus position with respect to the subject distance stored in advance in a memory (not shown).

像ずれ量Xの算出の際に生じる演算誤差は、像ずれ量Xが大きい場合には、被写体距離L1の算出に与える影響は小さい。一方、像ずれ量Xが小さい場合には、演算誤差は被写体距離L1に大きく影響する。このため、外部測距方式の位相差AF制御では、被写体が遠距離にいる場合に、測距の精度が低く、焦点調節に時間がかかる。   When the image shift amount X is large, the calculation error that occurs when calculating the image shift amount X has a small effect on the calculation of the subject distance L1. On the other hand, when the image shift amount X is small, the calculation error greatly affects the subject distance L1. For this reason, in the phase difference AF control of the external distance measurement method, when the subject is at a long distance, the distance measurement accuracy is low and the focus adjustment takes time.

また、カメラ100は、前述の位相差AF制御の他に、撮像信号AF制御を有する。撮像信号AF制御は、フォーカスレンズ131を微小駆動し、微小駆動する前の状態と、後の状態でAF信号処理部134の出力であるAF評価値を比較する。AF評価値が増えていれば、フォーカス制御部133は、フォーカスレンズ131を同一方向に動かす。評価値が減少している場合には逆方向に動かす。この繰り返しを行い、フォーカスレンズ131を徐々に合焦点に移動させることで、自動焦点調節制御を実現する。   In addition to the phase difference AF control described above, the camera 100 has an imaging signal AF control. In the imaging signal AF control, the focus lens 131 is finely driven, and the AF evaluation value, which is the output of the AF signal processing unit 134, is compared between the state before the fine driving and the state after the fine driving. If the AF evaluation value increases, the focus control unit 133 moves the focus lens 131 in the same direction. If the evaluation value is decreasing, move it in the opposite direction. By repeating this, the focus lens 131 is gradually moved to the in-focus point, thereby realizing automatic focus adjustment control.

また、カメラ100は、サーバ200によって算出された被写体距離L2に基づく地図参照AF制御を有する。測位部160および、方位検出部161から、カメラ100は現在の地理的な位置情報および撮影を行おうとしている方位情報を検出する。通信部162は検出した位置情報、方位情報をサーバ200へ送信する。サーバ200はカメラ100より位置情報と方位情報を受信し、被写体までの距離L2を算出して、カメラ100へ送信する。カメラ100はサーバ200より被写体距離L2を受信し、受信した被写体距離L2に基づいて、フォーカスレンズ131を移動させることで、自動焦点調節制御を実現する。   The camera 100 also has map reference AF control based on the subject distance L2 calculated by the server 200. From the positioning unit 160 and the direction detection unit 161, the camera 100 detects the current geographical position information and the direction information about to be photographed. The communication unit 162 transmits the detected position information and direction information to the server 200. The server 200 receives position information and azimuth information from the camera 100, calculates a distance L2 to the subject, and transmits it to the camera 100. The camera 100 receives the subject distance L2 from the server 200 and moves the focus lens 131 based on the received subject distance L2, thereby realizing automatic focus adjustment control.

前述の各AF制御は、CPU151が演算を行い、フォーカス制御部133がCPU151の演算結果に基づいて、フォーカスモータ132を介してフォーカスレンズ131を移動させることによって実現される。   Each AF control described above is realized by the CPU 151 performing calculations, and the focus control unit 133 moving the focus lens 131 via the focus motor 132 based on the calculation results of the CPU 151.

図5は、本実施例におけるカメラ100のフローチャートである。S501において、カメラ100の電源がONにされると、CPU151が演算を開始する。以下の処理は、CPU151が演算を行うことで実現される。   FIG. 5 is a flowchart of the camera 100 in the present embodiment. In S501, when the power of the camera 100 is turned on, the CPU 151 starts calculation. The following processing is realized by the CPU 151 performing calculations.

S502において、カメラ100のフラグや制御変数等を初期化する。また、この時にAFMODEの値を1にセットする。S503において、フォーカスレンズ131などの撮像光学部材を初期位置へ移動する。S504において、ユーザの電源OFF操作検出を行う。電源OFF操作を検出した場合は、S505において、カメラ100の電源を切るため、撮像光学部材を初期位置へ移動し、各種フラグや制御変数等のクリアなど、後処理を行う。S506において、カメラ100の処理を終了する。電源OFF操作が検出されなかった場合は、S507において、地図参照処理を行うため、サーバ200との通信処理を行う。   In S502, the flags and control variables of the camera 100 are initialized. At this time, the value of AFMODE is set to 1. In step S503, the imaging optical member such as the focus lens 131 is moved to the initial position. In S504, the user's power-off operation is detected. If a power-off operation is detected, in step S505, in order to turn off the camera 100, the imaging optical member is moved to the initial position, and post-processing such as clearing various flags and control variables is performed. In step S506, the process of the camera 100 ends. If the power-off operation is not detected, in S507, communication processing with the server 200 is performed in order to perform map reference processing.

図6は通信処理におけるカメラ100のフローチャートである。S601より通信処理が開始されると、CPU151が演算を行い、通信部162がサーバ200との通信を行う。   FIG. 6 is a flowchart of the camera 100 in the communication process. When the communication process is started from S601, the CPU 151 performs calculation, and the communication unit 162 communicates with the server 200.

S602において、カメラ100は、測位部160よりカメラ100自身の現在の位置情報を取得する。また、方位検出部161よりカメラ100の光軸の向いている方向である方位情報を取得する。S603において、S602で取得した位置情報、方位情報をサーバへ送信する。S604において、カメラ100はサーバ200へ、サーバ200が算出した被写体距離Lsを送信するよう要求し、サーバ200より被写体距離Lsを受信する。S605において、サーバ200より、サーバ200が算出した被写体距離Lsを受信できたか確認する。カメラ100が被写体距離Lsを受信できた場合には、S606において、地図参照AF制御に用いる被写体距離L2にLsを格納する。被写体距離Lsを受信できなかった場合は、S607において、被写体距離L2にエラーを格納する。S608において、通信処理を終了する。   In step S <b> 602, the camera 100 acquires current position information of the camera 100 itself from the positioning unit 160. In addition, the azimuth information that is the direction in which the optical axis of the camera 100 is facing is acquired from the azimuth detection unit 161. In S603, the position information and azimuth information acquired in S602 are transmitted to the server. In step S <b> 604, the camera 100 requests the server 200 to transmit the subject distance Ls calculated by the server 200, and receives the subject distance Ls from the server 200. In step S <b> 605, it is confirmed whether the subject distance Ls calculated by the server 200 can be received from the server 200. If the camera 100 has received the subject distance Ls, in S606, Ls is stored in the subject distance L2 used for map reference AF control. If the subject distance Ls cannot be received, an error is stored in the subject distance L2 in S607. In step S608, the communication process ends.

図7は通信処理におけるサーバ200のフローチャートである。S701より通信処理が開始されると、CPU201が演算を行い、通信部202がカメラ100との通信を行う。   FIG. 7 is a flowchart of the server 200 in the communication process. When the communication process is started from S701, the CPU 201 performs an operation, and the communication unit 202 communicates with the camera 100.

S702において、サーバ200はカメラ100へ位置情報および方位情報を送信するよう要求し、カメラ100から位置情報、方位情報を受信できたかどうかを確認する。位置情報、方位情報がない場合は、カメラ100より位置情報、方位情報が送信されるまで、S702の処理を繰り返す。位置情報、方位情報がある場合には、S703において、これらを受信し、RAM203に格納する。S704において、二次記憶装置204に格納されている地図情報と、S703で取得した位置情報、方位情報より、後述する方法を用いて、被写体距離Lsを算出する。S705において、カメラ100へ被写体距離Lsを送信する。S706において、サーバ200の処理を終了する。   In step S <b> 702, the server 200 requests the camera 100 to transmit position information and direction information, and confirms whether the position information and direction information have been received from the camera 100. If there is no position information or azimuth information, the process of S702 is repeated until the position information and azimuth information are transmitted from the camera 100. If there is position information and azimuth information, these are received and stored in the RAM 203 in S703. In S704, the subject distance Ls is calculated from the map information stored in the secondary storage device 204 and the position information and azimuth information acquired in S703 using a method described later. In step S <b> 705, the subject distance Ls is transmitted to the camera 100. In step S706, the process of the server 200 ends.

図8を用いて、地図情報および受信した位置情報、方位情報より被写体距離Lsを算出する方法について述べる。CPU201は、カメラ100より受信した位置情報および方位情報801を、サーバ200が有する地図情報に対応付ける。次に、CPU201は、地図情報を参照し、撮影位置から撮影方向に存在する地図上の撮影対象候補802、803を抽出し、このうち最も近い撮影対象候補802を被写体とする。被写体を決定した後、撮影位置から被写体までの距離を地図上で算出し、被写体距離Lsとする。   A method for calculating the subject distance Ls from the map information and the received position information and direction information will be described with reference to FIG. The CPU 201 associates the position information and the direction information 801 received from the camera 100 with the map information that the server 200 has. Next, the CPU 201 refers to the map information, extracts the shooting target candidates 802 and 803 on the map existing in the shooting direction from the shooting position, and sets the closest shooting target candidate 802 as the subject. After the subject is determined, the distance from the shooting position to the subject is calculated on the map and set as the subject distance Ls.

測位部160の精度の影響を受けるため、被写体距離Lsを算出するのに、2m程度の誤差を生じるが、この誤差は被写体が近距離にいても、遠距離にいても変わらないため、特に、遠距離の被写体について、精度良く距離を算出できる。   Due to the influence of the accuracy of the positioning unit 160, an error of about 2 m occurs in calculating the subject distance Ls. This error does not change even when the subject is at a short distance or at a long distance. The distance can be accurately calculated for a long-distance subject.

なお、複数の撮影対象候補から1つの被写体を決定する方法は、至近の撮影対象候補を被写体とする方法ではなく、撮影対象候補と撮影位置との距離および撮影方向と撮影対象候補の存在する方向のずれ量を重み付けして合計し、被写体を決定する方法でも良い。また、サーバ200は撮影対象候補が被写体となった頻度を記憶しており、撮影対象候補の内、最も撮影された頻度の高いものを被写体とする方法でも良い。   Note that the method of determining one subject from a plurality of shooting target candidates is not a method in which the closest shooting target candidate is a subject, but the distance between the shooting target candidate and the shooting position, the shooting direction, and the direction in which the shooting target candidate exists. Alternatively, the subject may be determined by weighting and summing the deviation amounts. Further, the server 200 stores the frequency at which the candidate for photographing is a subject, and a method of selecting the subject with the highest frequency of photographing among the candidates for photographing may be used.

S507の地図参照処理が終了した後、S508において、焦点調節制御処理を行う。   After the map reference process in S507 is completed, a focus adjustment control process is performed in S508.

図9は焦点調節制御処理におけるカメラ100のフローチャートである。S901より焦点調節制御処理が開始されると、CPU151が演算を行い、CPU151の指示に基づいて、フォーカス制御部133がフォーカスモータ132の制御を行う。   FIG. 9 is a flowchart of the camera 100 in the focus adjustment control process. When the focus adjustment control process is started from S901, the CPU 151 performs calculation, and the focus control unit 133 controls the focus motor 132 based on an instruction from the CPU 151.

S902において、測距センサ130の画素の蓄積を開始し、AGC領域における像信号をモニタする。S903において、像信号が一定のレベルに達したかどうかを確認し、蓄積が終了したか否かを判断する。蓄積が終了した場合にはS904にステップを移す。蓄積が終了していない場合には、S902に戻り、蓄積処理を繰り返す。S904において、測距センサ130の像信号を取得して、相関演算を行い、被写体距離L1および被写体距離L1の信頼性を算出する。この信頼性は、像信号のコントラストおよび相関演算を行った際の像の一致度から算出される。S905において、AF信号処理部134での、AF評価値の算出を行う。S906において、通信部162が受信した被写体距離L2を取得する。   In S902, accumulation of pixels of the distance measuring sensor 130 is started, and an image signal in the AGC area is monitored. In S903, it is confirmed whether or not the image signal has reached a certain level, and it is determined whether or not the accumulation has ended. When the accumulation is completed, the process proceeds to S904. If the accumulation has not ended, the process returns to S902 and the accumulation process is repeated. In S904, the image signal of the distance measuring sensor 130 is acquired, correlation is calculated, and the reliability of the subject distance L1 and the subject distance L1 is calculated. This reliability is calculated from the contrast of the image signal and the degree of coincidence of the images when the correlation calculation is performed. In step S905, the AF signal processing unit 134 calculates an AF evaluation value. In step S906, the subject distance L2 received by the communication unit 162 is acquired.

S907からS911は、外部測距方式の位相差AF制御と地図参照AF制御のどちらの結果を用いて、焦点調節を行うかを判断するためのものである。図10(a)に示すように、測距センサ130の測距枠1001が被写体である人物1002をとらえている場合には、近い距離で、信頼性が高い結果が算出される。この場合には、測距センサ130が算出した被写体距離L1を用いて、焦点調節を行うことにより、被写体である人物1002に合焦することが可能となり、地図上に載っていない被写体に対しても合焦することが可能である。図10(b)に示すように、測距センサ130の測距枠1001でとらえられる被写体がない場合には、被写体距離L1は、遠い距離で、信頼性が低くなる。この場合には、近い距離に被写体がいないため、サーバ200にてが地図情報から被写体距離L2を算出し、被写体距離L2を用いて、焦点調節を行うことにより、遠距離にある物体1003に合焦することが可能となる。   Steps S907 to S911 are for determining whether to perform focus adjustment using the result of phase difference AF control or map reference AF control in the external distance measurement method. As shown in FIG. 10A, when the distance measuring frame 1001 of the distance measuring sensor 130 captures a person 1002 as a subject, a highly reliable result is calculated at a close distance. In this case, by performing focus adjustment using the subject distance L1 calculated by the distance measuring sensor 130, it is possible to focus on the person 1002 that is the subject, and for subjects that are not on the map. Can also be focused. As shown in FIG. 10B, when there is no subject that can be captured by the distance measuring frame 1001 of the distance measuring sensor 130, the subject distance L1 is far and the reliability is low. In this case, since there is no subject at a short distance, the server 200 calculates the subject distance L2 from the map information, and adjusts the focus using the subject distance L2, thereby matching the object 1003 at a long distance. It becomes possible to burn.

S907において、S904において算出した被写体距離L1が所定の距離以下であるかを確認する。これは、測距センサ130での測距結果は遠距離になるほど、精度が落ちるため、測距センサ130での測距結果である被写体距離L1が精度の確保できる範囲にあるかどうかを確認するためのものである。被写体距離L1が20mよりも近ければ、被写体距離L1を用いて焦点調節制御を行い、被写体距離L1が20mよりも遠ければ、被写体距離L1を用いずに焦点調節制御を行う。また、この時に被写体距離L1の信頼性を取得し、この信頼性が所定値より低ければ、焦点調節制御に被写体距離L1を用いないという判断を行っても良い。被写体距離L1が所定距離以下であり、その信頼性が所定値より高ければ、S908において、焦点調節制御に用いる被写体距離LにL1の値を格納する。   In step S907, it is confirmed whether the subject distance L1 calculated in step S904 is equal to or less than a predetermined distance. This is because the accuracy of the distance measurement result from the distance measurement sensor 130 decreases as the distance from the distance measurement sensor 130 increases. Therefore, it is confirmed whether or not the subject distance L1 as the result of distance measurement by the distance measurement sensor 130 is within a range where accuracy can be ensured. Is for. If the subject distance L1 is shorter than 20 m, focus adjustment control is performed using the subject distance L1, and if the subject distance L1 is longer than 20 m, focus adjustment control is performed without using the subject distance L1. At this time, the reliability of the subject distance L1 may be acquired, and if the reliability is lower than a predetermined value, it may be determined that the subject distance L1 is not used for the focus adjustment control. If the subject distance L1 is equal to or less than the predetermined distance and the reliability is higher than the predetermined value, the value of L1 is stored in the subject distance L used for focus adjustment control in S908.

被写体距離L1が所定距離より遠い、または、被写体距離L1の信頼性が所定値より低い場合、S909において、被写体距離L2がエラーではないかどうかを確認する。エラーではない場合は、S910において、焦点調節制御に用いる被写体距離LにL2の値を格納する。エラーである場合は、外部測距方式の位相差AF制御でも、地図参照AF制御でも被写体距離を算出できなかったため、AFMODEを2に設定し、ステップを進める。   If the subject distance L1 is longer than the predetermined distance or the reliability of the subject distance L1 is lower than a predetermined value, it is checked in step S909 whether the subject distance L2 is not an error. If it is not an error, in S910, the value of L2 is stored in the subject distance L used for focus adjustment control. If there is an error, the subject distance could not be calculated by either the phase difference AF control of the external distance measurement method or the map reference AF control, so AFMODE is set to 2 and the step proceeds.

S912では、AFMODEの値によって3つの分岐を行う。それぞれの分岐は主に以下のような処理となる。AFMODE1は外部測距方式の位相差AF制御あるいは地図参照AF制御を使用しての合焦制御である。AFMODE2は撮像信号AFを使用しての合焦制御である。AFMODE3は合焦が完了した状態から変化がないかを監視し、変化があった場合にはAFMODEを1または2として焦点調節制御に移行する処理を行っている。   In S912, three branches are performed according to the value of AFMODE. Each branch is mainly processed as follows. AFMODE 1 is focus control using phase difference AF control or map reference AF control of an external distance measurement method. AFMODE2 is focus control using the imaging signal AF. The AFMODE 3 monitors whether there is a change from the state where the focusing is completed. If there is a change, the AFMODE 3 is set to 1 or 2, and the process shifts to the focus adjustment control.

S913において、被写体距離Lと、現在のフォーカスレンズ位置に基づいて目標レンズ位置の算出を行う。また、この目標レンズ位置の算出には、レンズ駆動方向と速度の算出も含む。S914において、目標レンズ位置に到達したかどうか判断する。到達したと判断される場合はS915へステップを移し、到達していないと判断される場合は、S916へステップを移す。S915において、外部測距方式の位相差AF制御または地図参照AF制御にて算出された被写体距離Lへ合焦動作を行った後、合焦近傍にて撮像信号AFを行うため、AFMODEに2を設定する。   In S913, the target lens position is calculated based on the subject distance L and the current focus lens position. The calculation of the target lens position includes calculation of the lens driving direction and speed. In S914, it is determined whether or not the target lens position has been reached. If it is determined that it has been reached, the process proceeds to step S915. If it is determined that it has not been reached, the process proceeds to step S916. In S915, after performing the focusing operation to the subject distance L calculated by the phase difference AF control or the map reference AF control of the external distance measuring method, the imaging signal AF is performed in the vicinity of the focusing. Set.

S917からS920において、撮像信号AF制御を行う。S917において、微小駆動動作を行い、AF評価値が増加しているかを確認する。AF評価値が増加している場合は、S916へステップを移す。AF評価値が増加していない場合は、S918において、微小駆動動作の駆動方向を逆転させる。S919において、AF評価値がピークを通過したかを確認し、ピークを通過していない場合はS916へステップを移す。ピークを通過した場合は、S920において、合焦位置を見つけたと判断し、AFMODEに3を設定する。   In S917 to S920, imaging signal AF control is performed. In step S917, a minute driving operation is performed to check whether the AF evaluation value has increased. If the AF evaluation value has increased, the process proceeds to S916. If the AF evaluation value has not increased, the driving direction of the minute driving operation is reversed in S918. In S919, it is confirmed whether the AF evaluation value has passed the peak. If the AF evaluation value has not passed the peak, the process proceeds to S916. If the peak is passed, it is determined in S920 that the in-focus position has been found, and AFMODE is set to 3.

S921において、AF評価値のピーク位置へとレンズを戻し停止する。S922において、AF評価値が所定値以上変化したか否かの確認を行う。変化していない場合は、S916へステップを移す。変化した場合は、S923において、被写体距離Lが合焦位置から変化したか否かの確認を行う。変化した場合は、被写体距離LとAF評価値がともに変化しているため、大ぼけであると判断し、S924において、AFMODEに1を設定してS916へステップを移す。変化していない場合は、AF評価値は変化しているが、被写体距離は変化していないため、小ぼけであると判断し、S925において、AFMODEに2を設定してS916へステップを移す。   In S921, the lens is returned to the peak position of the AF evaluation value and stopped. In S922, it is confirmed whether or not the AF evaluation value has changed by a predetermined value or more. If not changed, the process proceeds to S916. If it has changed, it is checked in S923 whether or not the subject distance L has changed from the in-focus position. If it has changed, since both the subject distance L and the AF evaluation value have changed, it is determined that the subject is out of focus. In S924, AFMODE is set to 1 and the process proceeds to S916. If it has not changed, the AF evaluation value has changed, but the subject distance has not changed, so it is determined that there is a small blur, and in S925, AFMODE is set to 2 and the process proceeds to S916.

S916において、焦点調節制御を終了する。   In step S916, the focus adjustment control is terminated.

S508の焦点調節制御処理が終了した後、S509において、フォーカス制御部133は、S508で決定した駆動方向、速度、位置でモータを駆動し、フォーカスレンズ131を所望の位置へ移動させる。   After the focus adjustment control process in S508 is completed, in S509, the focus control unit 133 drives the motor with the driving direction, speed, and position determined in S508, and moves the focus lens 131 to a desired position.

S510において、撮像素子141は被写体像を光電変換し、撮像信号処理部142が撮像した被写体像を画像信号として整える。S511において、ユーザの記録ボタン押下を検出し、記録中であるか否かを確認する。記録中でない場合は、S504へ戻り、記録中である場合は、撮像信号処理部142で整えられた画像信号を画像圧縮解凍部153が圧縮処理し、画像記録媒体157へ記録した後、S504へ戻る。   In S510, the image sensor 141 photoelectrically converts the subject image and arranges the subject image captured by the imaging signal processing unit 142 as an image signal. In step S511, the user's recording button press is detected, and it is confirmed whether recording is in progress. If the recording is not in progress, the process returns to S504. If the recording is in progress, the image compression / decompression unit 153 compresses the image signal prepared by the imaging signal processing unit 142 and records it on the image recording medium 157, and then the process proceeds to S504. Return.

以上のように、撮像信号AF制御の他に、位相差AF制御と地図参照AF制御を有することで、撮像信号AFの合焦にかかる時間を短くでき、ハイブリッドAFとして、高速な合焦制御が可能となる。また、外部測距方式の位相差AF制御の苦手な遠距離被写体に対して、地図参照AF制御を行うことで、遠距離において、より正確な被写体距離を取得することが可能となる。また、外部測距方式の位相差AF制御において、近距離に被写体がいない時に、地図参照AF制御を行うようにすることにより、不必要に映像をぼかすことを防ぐことができる。
(実施例2)
本発明におけるその他の実施例を示す。実施例1では、位置情報と方位情報から地図情報を参照し、被写体距離を算出する処理をサーバが行い、カメラはサーバからの受信データを基に、焦点調節制御を行う場合についての実施の形態について説明した。実施例2では、これらの処理を全てカメラ自身が行う場合について説明する。本実施例ではサーバとの通信を行う必要がなく、通信部を有していないカメラでも可能な構成である。
As described above, the phase difference AF control and the map reference AF control in addition to the imaging signal AF control can shorten the time required for focusing the imaging signal AF, and high-speed focusing control can be performed as a hybrid AF. It becomes possible. Further, by performing map reference AF control on a long-distance subject that is not good at phase difference AF control of the external distance measurement method, it becomes possible to acquire a more accurate subject distance at a long distance. Further, in the phase difference AF control of the external distance measuring method, when the subject is not in a short distance, the map reference AF control is performed, so that it is possible to prevent the image from being unnecessarily blurred.
(Example 2)
The other Example in this invention is shown. In the first embodiment, the server performs a process of calculating the subject distance by referring to the map information from the position information and the direction information, and the camera performs the focus adjustment control based on the received data from the server. Explained. In the second embodiment, a case where all these processes are performed by the camera itself will be described. In this embodiment, it is not necessary to communicate with the server, and the configuration is possible even with a camera that does not have a communication unit.

説明上、実施例1と同一の内容については、同一の符号を用いて、説明を割愛する。   For the sake of explanation, the same reference numerals are used for the same contents as in the first embodiment, and the explanation is omitted.

図11は、本実施例におけるカメラ100の構成を示す図である。フラッシュメモリ155にはCPU151を動作させるためのプログラムの他、地図情報が格納されている。また、通信部は有さない構成となっている。その他の、101から170の各構成は実施例1と同様である。   FIG. 11 is a diagram illustrating a configuration of the camera 100 according to the present embodiment. The flash memory 155 stores map information in addition to a program for operating the CPU 151. Moreover, it has the structure which does not have a communication part. Other components 101 to 170 are the same as those in the first embodiment.

以下、図5を参照し、図11に示すカメラ構成における、本発明に関わる処理フローについて説明する。最初のステップS501からS506までの処理は、実施例1と同様であるため、説明を割愛する。S507において、地図参照処理を行う。   Hereinafter, a processing flow related to the present invention in the camera configuration shown in FIG. 11 will be described with reference to FIG. Since the process from the first step S501 to S506 is the same as that in the first embodiment, a description thereof will be omitted. In S507, a map reference process is performed.

図12は地図参照処理におけるカメラ100のフローチャートである。S1201より通信処理が開始されると、CPU151が演算を行う。   FIG. 12 is a flowchart of the camera 100 in the map reference process. When communication processing is started from S1201, the CPU 151 performs calculation.

S1202において、カメラ100は、測位部160よりカメラ100自身の現在の位置情報を取得する。また、方位検出部161よりカメラ100の光軸の向いている方向である方位情報を取得する。S1204において、フラッシュメモリ155に格納されている地図情報と、S1202で取得した位置情報、方位情報より、被写体距離L2を算出する。   In step S <b> 1202, the camera 100 acquires current position information of the camera 100 itself from the positioning unit 160. In addition, the azimuth information that is the direction in which the optical axis of the camera 100 is facing is acquired from the azimuth detection unit 161. In S1204, the subject distance L2 is calculated from the map information stored in the flash memory 155 and the position information and azimuth information acquired in S1202.

地図情報および受信した位置情報、方位情報より被写体距離L2を算出する方法について述べる。CPU151は、取得した位置情報および方位情報を、地図情報に対応付ける。次に、CPU151は、地図情報を参照し、撮影位置から撮影方向に存在する地図上の撮影対象候補を抽出し、このうち最も近い撮影対象候補を被写体とする。被写体を決定した後、撮影位置から被写体までの距離を地図上で算出し、被写体距離L2とする。   A method for calculating the subject distance L2 from the map information and the received position information and direction information will be described. The CPU 151 associates the acquired position information and orientation information with map information. Next, the CPU 151 refers to the map information, extracts shooting target candidates on the map existing in the shooting direction from the shooting position, and sets the closest shooting target candidate as the subject. After the subject is determined, the distance from the shooting position to the subject is calculated on the map and set as the subject distance L2.

なお、複数の撮影対象候補から1つの被写体を決定する方法は、至近の撮影対象候補を被写体とする方法ではなく、撮影対象候補と撮影位置との距離および撮影方向と撮影対象候補の存在する方向のずれ量を重み付けして合計し、被写体を決定する方法でも良い。   Note that the method of determining one subject from a plurality of shooting target candidates is not a method in which the closest shooting target candidate is a subject, but the distance between the shooting target candidate and the shooting position, the shooting direction, and the direction in which the shooting target candidate exists. Alternatively, the subject may be determined by weighting and summing the deviation amounts.

S1204において、被写体距離L2を算出できたか確認する。被写体距離L2を算出できた場合には、S1206へステップを移す。被写体距離L2を受信できなかった場合は、S1205において、被写体距離L2にエラーを格納した後、S1206へステップを移す。S1206において、地図参照処理を終了する。   In step S1204, it is confirmed whether the subject distance L2 has been calculated. If the subject distance L2 can be calculated, the process proceeds to S1206. If the subject distance L2 cannot be received, an error is stored in the subject distance L2 in S1205, and the process proceeds to S1206. In step S1206, the map reference process ends.

S507の地図参照処理が終了した後、S508において、焦点調節制御処理を行う。S508以降の処理は、実施例1と同様であるため、説明を割愛する。   After the map reference process in S507 is completed, a focus adjustment control process is performed in S508. Since the processing after S508 is the same as that in the first embodiment, a description thereof will be omitted.

以上のように、撮像信号AF制御の他に、位相差AF制御と地図参照AF制御を有することで、撮像信号AFの合焦にかかる時間を短くでき、ハイブリッドAFとして、高速な合焦制御が可能となる。また、外部測距方式の位相差AF制御の苦手な遠距離被写体に対して、地図参照AF制御を行うことで、遠距離において、より正確な被写体距離を取得することが可能となる。また、外部測距方式の位相差AF制御において、近距離に被写体がいない時に、地図参照AF制御を行うようにすることにより、不必要に映像をぼかすことを防ぐことができる。
(その他の変形例)
また、本実施例では、地図参照処理の後に焦点調節処理を行ったが、地図参照処理と焦点調節処理を並列に行うようにしても良い。
As described above, the phase difference AF control and the map reference AF control in addition to the imaging signal AF control can shorten the time required for focusing the imaging signal AF, and high-speed focusing control can be performed as a hybrid AF. It becomes possible. Further, by performing map reference AF control on a long-distance subject that is not good at phase difference AF control of the external distance measurement method, it becomes possible to acquire a more accurate subject distance at a long distance. Further, in the phase difference AF control of the external distance measuring method, when the subject is not in a short distance, the map reference AF control is performed, so that it is possible to prevent the image from being unnecessarily blurred.
(Other variations)
In this embodiment, the focus adjustment process is performed after the map reference process. However, the map reference process and the focus adjustment process may be performed in parallel.

また、本実施例では、S907からS911にかけて、外部測距方式の位相差AF制御と地図参照AF制御を選択した後、S912でAF制御のモード遷移を行ったが、S912でAFMODEが1と判断された後に、外部測距方式の位相差AF制御と地図参照AF制御を選択するようにしても良い。   In the present embodiment, the phase difference AF control and the map reference AF control of the external ranging method are selected from S907 to S911, and then the AF control mode transition is performed in S912. However, AFMODE is determined to be 1 in S912. Then, the phase difference AF control and the map reference AF control of the external distance measurement method may be selected.

また、本実施例では、S501からS512にかけて、カメラ100の動作は、地図参照、焦点調節、撮像、画像処理、記録について説明したが、以上の他に、AEやフラッシュなどの機能を搭載していても良い。   In this embodiment, the operation of the camera 100 has been described with reference to map reference, focus adjustment, imaging, image processing, and recording from S501 to S512. In addition to the above, other functions such as AE and flash are installed. May be.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

100 カメラ
101 レンズユニット
130 測距センサ
133 フォーカス制御部
138 結像レンズ
139 検出部
155 フラッシュメモリ
160 測位部
161 方位検出部
162 通信部
200 サーバ
202 通信部
204 二次記憶装置
DESCRIPTION OF SYMBOLS 100 Camera 101 Lens unit 130 Distance sensor 133 Focus control part 138 Imaging lens 139 Detection part 155 Flash memory 160 Positioning part 161 Orientation detection part 162 Communication part 200 Server 202 Communication part 204 Secondary storage device

Claims (13)

被写体光を受光し、光電変換した出力に基づいて、被写体までの距離に関する情報を算出する第一の測距手段と、
情報処理装置との通信によって、距離に関する情報を算出する第二の測距手段
を備えた撮像装置であって、
前記第一の測距手段で所定の距離以上の時に、前記第二の測距手段を行って得られた距離に関する情報に基づいて、焦点制御を行うことを特徴とする撮像装置。
First distance measuring means for receiving information on a subject and calculating information related to a distance to the subject based on photoelectrically converted output;
An imaging device comprising a second distance measuring means for calculating information related to distance by communication with an information processing device,
An image pickup apparatus that performs focus control based on information about a distance obtained by performing the second distance measuring means when the first distance measuring means is a predetermined distance or more.
前記第一の測距手段は、
撮像光学系の外に設けられた光学系と、前記光学系からの像を光電変換する検出部と、前記検出部の出力に基づいて被写体距離を算出することを特徴とする請求項1に記載の撮像装置。
The first distance measuring means includes
The object distance is calculated based on an optical system provided outside an imaging optical system, a detection unit that photoelectrically converts an image from the optical system, and an output of the detection unit. Imaging device.
前記第二の測距手段は、
前記撮像装置の位置情報を取得する位置取得手段と
前記撮像装置の向いている方位情報を取得する方位取得手段と
前記位置情報と前記方位情報を情報処理装置に送信する送信手段と、
送信した前記位置情報と前記方位情報に基づいて、情報処理装置が算出した被写体距離を受信する受信手段を有することを特徴とする請求項1または請求項2に記載の撮像装置
The second distance measuring means includes
Position acquisition means for acquiring position information of the imaging device, orientation acquisition means for acquiring orientation information facing the imaging device, transmission means for transmitting the position information and the orientation information to an information processing device,
The imaging apparatus according to claim 1, further comprising: a receiving unit that receives the subject distance calculated by the information processing apparatus based on the transmitted position information and the orientation information.
前記第一の測距手段において、測距と同時に信頼性を評価する評価手段を有し、
前記第一の測距手段で所定の距離以上または信頼性が所定未満の時には、前記第二の測距手段を行って得られた被写体距離に基づいて、焦点制御を行うことを特徴とする請求項1乃至請求項3の何れか1項に記載の撮像装置。
In the first distance measuring means, there is an evaluation means for evaluating reliability simultaneously with distance measurement,
The focus control is performed based on a subject distance obtained by performing the second distance measuring means when the first distance measuring means is a predetermined distance or more or reliability is less than a predetermined value. The imaging device according to any one of claims 1 to 3.
前記情報処理装置は、
撮像装置が得た位置情報と方位情報を受信する受信手段と、
前記位置情報と前記方位情報および、情報処理装置に記憶された地図情報より、被写体までの距離を算出する距離算出手段と、
前記距離算出手段の結果を撮像装置に送信する送信手段と
を有することを特徴とする請求項1乃至請求項4の何れか1項に記載の撮像装置。
The information processing apparatus includes:
Receiving means for receiving position information and orientation information obtained by the imaging device;
Distance calculating means for calculating a distance to the subject from the position information, the azimuth information, and the map information stored in the information processing device;
The imaging apparatus according to claim 1, further comprising a transmission unit that transmits a result of the distance calculation unit to the imaging apparatus.
前記距離算出手段は、
前記位置情報より前記方位情報の方向に存在する前記地図情報上の物体の内、至近の物体を被写体とし、
前記位置情報と被写体の位置との距離を算出することを特徴とする請求項5に記載の撮像装置。
The distance calculating means includes
Among the objects on the map information existing in the direction of the azimuth information from the position information, the closest object is the subject,
The imaging apparatus according to claim 5, wherein a distance between the position information and a subject position is calculated.
前記距離算出手段は、
前記位置情報より前記方位情報の方向に存在する前記地図情報上の物体を検索し、検索された物体の位置と前記位置情報との距離および検索された物体の方位と前記方位情報とのずれに基づいて被写体を決定し、
前記位置情報と被写体の位置との距離を算出することを特徴とする請求項5に記載の撮像装置。
The distance calculating means includes
The object on the map information existing in the direction of the direction information is searched from the position information, and the distance between the position of the searched object and the position information and the difference between the direction of the searched object and the direction information. Based on the subject,
The imaging apparatus according to claim 5, wherein a distance between the position information and a subject position is calculated.
前記情報処理装置は、前記地図情報内の物体が過去に撮像された頻度を記憶する頻度記憶手段を有し、
前記距離算出手段は、前記位置情報より前記方位情報の方向に存在する前記地図情報上の物体の内、前記頻度記憶手段において記憶された頻度が最も高い物体を被写体とし、
前記位置情報と被写体の位置との距離を算出することを特徴とする請求項5に記載の撮像装置。
The information processing apparatus includes a frequency storage unit that stores a frequency at which an object in the map information is captured in the past,
The distance calculation means uses the object having the highest frequency stored in the frequency storage means among the objects on the map information existing in the direction of the azimuth information as compared to the position information,
The imaging apparatus according to claim 5, wherein a distance between the position information and a subject position is calculated.
被写体光を受光し、光電変換した出力に基づいて、被写体までの距離に関する情報を算出する第一の測距手段と、
撮像装置の位置情報を取得する位置取得手段と、
撮像装置の向いている方位情報を取得する方位取得手段と、
撮像装置に記憶された地図情報および前記位置情報と前記方位情報より、距離に関する情報を算出する前記第二の測距手段
を備えた撮像装置であって、
前記第一の測距手段で所定の距離以上の時に、前記第二の測距手段を行って得られた距離に関する情報に基づいて、焦点制御を行うことを特徴とする撮像装置。
First distance measuring means for receiving information on a subject and calculating information related to a distance to the subject based on photoelectrically converted output;
Position acquisition means for acquiring position information of the imaging device;
Orientation acquisition means for acquiring orientation information of the imaging device,
An image pickup apparatus comprising the second distance measuring means for calculating information related to a distance from the map information stored in the image pickup apparatus and the position information and the orientation information,
An image pickup apparatus that performs focus control based on information about a distance obtained by performing the second distance measuring means when the first distance measuring means is a predetermined distance or more.
前記第一の測距手段は、
撮像光学系の外に設けられた光学系と、前記光学系からの像を光電変換する検出部と、前記検出部の出力に基づいて被写体距離を算出することを特徴とする請求項9に記載の撮像装置。
The first distance measuring means includes
The object distance is calculated based on an optical system provided outside the imaging optical system, a detection unit that photoelectrically converts an image from the optical system, and an output of the detection unit. Imaging device.
前記第一の測距手段において、測距と同時に信頼性を評価する評価手段を有し、
前記第一の測距手段で所定の距離以上または信頼性が所定未満の時には、前記第二の測距手段を行って得られた被写体距離に基づいて、焦点制御を行うことを特徴とする請求項9または請求項10に記載の撮像装置。
In the first distance measuring means, there is an evaluation means for evaluating reliability simultaneously with distance measurement,
The focus control is performed based on a subject distance obtained by performing the second distance measuring means when the first distance measuring means is a predetermined distance or more or reliability is less than a predetermined value. The imaging device according to Item 9 or 10.
前記第二の測距手段は、前記位置情報より前記方位情報の方向に存在する前記地図情報上の物体の内、至近の物体を被写体とし、
前記位置情報と被写体の位置との距離を算出することを特徴とする請求項9乃至請求項11の何れか1項に記載の撮像装置。
The second distance measuring means uses the closest object among the objects on the map information existing in the direction of the azimuth information from the position information,
The imaging apparatus according to claim 9, wherein a distance between the position information and a subject position is calculated.
前記第二の測距手段は、前記位置情報より前記方位情報の方向に存在する前記地図情報上の物体を検索し、検索された物体の位置と前記位置情報との距離および検索された物体の方位と前記方位情報とのずれに基づいて被写体を決定し、
前記位置情報と被写体の位置との距離を算出することを特徴とする請求項9乃至請求項11の何れか1項に記載の撮像装置。
The second distance measuring means searches for an object on the map information existing in the direction of the azimuth information from the position information, and determines the distance between the position of the searched object and the position information and the searched object. Determine the subject based on the difference between the direction and the direction information,
The imaging apparatus according to claim 9, wherein a distance between the position information and a subject position is calculated.
JP2010263310A 2010-11-26 2010-11-26 Imaging device Pending JP2012113204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010263310A JP2012113204A (en) 2010-11-26 2010-11-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010263310A JP2012113204A (en) 2010-11-26 2010-11-26 Imaging device

Publications (1)

Publication Number Publication Date
JP2012113204A true JP2012113204A (en) 2012-06-14

Family

ID=46497453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010263310A Pending JP2012113204A (en) 2010-11-26 2010-11-26 Imaging device

Country Status (1)

Country Link
JP (1) JP2012113204A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532375A (en) * 2013-08-09 2016-10-13 サーマル イメージング レーダ、エルエルシーThermal Imaging Radar, Llc Method for analyzing thermal image data using multiple virtual devices and method for correlating depth values with image pixels
US9900500B2 (en) 2013-05-30 2018-02-20 Samsung Electronics Co., Ltd. Method and apparatus for auto-focusing of an photographing device
US10366509B2 (en) 2015-03-31 2019-07-30 Thermal Imaging Radar, LLC Setting different background model sensitivities by user defined regions and background filters
US10574886B2 (en) 2017-11-02 2020-02-25 Thermal Imaging Radar, LLC Generating panoramic video for video management systems
WO2020065931A1 (en) * 2018-09-28 2020-04-02 日本電気株式会社 Photographing control system, photographing control method, control device, control method, and storage medium
CN115242939A (en) * 2021-03-24 2022-10-25 维克多哈苏有限公司 Distance detection device and imaging device
US11601605B2 (en) 2019-11-22 2023-03-07 Thermal Imaging Radar, LLC Thermal imaging camera device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9900500B2 (en) 2013-05-30 2018-02-20 Samsung Electronics Co., Ltd. Method and apparatus for auto-focusing of an photographing device
USD968499S1 (en) 2013-08-09 2022-11-01 Thermal Imaging Radar, LLC Camera lens cover
JP2016532375A (en) * 2013-08-09 2016-10-13 サーマル イメージング レーダ、エルエルシーThermal Imaging Radar, Llc Method for analyzing thermal image data using multiple virtual devices and method for correlating depth values with image pixels
US10366509B2 (en) 2015-03-31 2019-07-30 Thermal Imaging Radar, LLC Setting different background model sensitivities by user defined regions and background filters
US10574886B2 (en) 2017-11-02 2020-02-25 Thermal Imaging Radar, LLC Generating panoramic video for video management systems
US11108954B2 (en) 2017-11-02 2021-08-31 Thermal Imaging Radar, LLC Generating panoramic video for video management systems
JPWO2020065931A1 (en) * 2018-09-28 2021-08-30 日本電気株式会社 Shooting control system, shooting control method, and program
EP3859420A4 (en) * 2018-09-28 2021-09-29 NEC Corporation Photographing control system, photographing control method, control device, control method, and storage medium
WO2020065931A1 (en) * 2018-09-28 2020-04-02 日本電気株式会社 Photographing control system, photographing control method, control device, control method, and storage medium
US11539872B2 (en) 2018-09-28 2022-12-27 Nec Corporation Imaging control system, imaging control method, control device, control method, and storage medium
US11729501B2 (en) 2018-09-28 2023-08-15 Nec Corporation Imaging control system, imaging control method, control device, control method, and storage medium
US11601605B2 (en) 2019-11-22 2023-03-07 Thermal Imaging Radar, LLC Thermal imaging camera device
CN115242939A (en) * 2021-03-24 2022-10-25 维克多哈苏有限公司 Distance detection device and imaging device

Similar Documents

Publication Publication Date Title
EP2731326B1 (en) Method and apparatus for shooting and storing multi-focused image in electronic device
US8818097B2 (en) Portable electronic and method of processing a series of frames
JP2012113204A (en) Imaging device
JP4795155B2 (en) Optical device, imaging device, and control method thereof
EP2135442B1 (en) Multiple lens camera operable in various modes
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
JP4861057B2 (en) Imaging apparatus and control method thereof
JP2003131121A (en) Device and method for automatic focus adjustment
JP2010015024A (en) Image pickup apparatus, control method thereof, program and storage medium
CN104427260A (en) Moving image generation system and moving image generation method
JP2005241805A (en) Automatic focusing system and its program
JP5901782B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN102196166A (en) Imaging device and display method
JP2013044844A (en) Image processing device and image processing method
US20130293768A1 (en) Imaging apparatus, imaging method, imaging program and computer readable information recording medium
JP2006072384A (en) Method and device for automatic focus adjustment
KR101739378B1 (en) Digital image photographing apparatus and method for controlling the same
CN104662890A (en) Imaging device and image processing method
CN103988107A (en) Imaging device, method for controlling same, and program
JP5390871B2 (en) Imaging apparatus and control method thereof
JP2019083580A (en) Image processing apparatus, image processing method, and program
JP2013213903A (en) Imaging device
JP2006065355A (en) Apparatus and method for automatic focusing
JP2010282102A (en) Imaging apparatus and range-finding method
CN104685863A (en) Imaging device and image processing method