JP4786734B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4786734B2
JP4786734B2 JP2009179228A JP2009179228A JP4786734B2 JP 4786734 B2 JP4786734 B2 JP 4786734B2 JP 2009179228 A JP2009179228 A JP 2009179228A JP 2009179228 A JP2009179228 A JP 2009179228A JP 4786734 B2 JP4786734 B2 JP 4786734B2
Authority
JP
Japan
Prior art keywords
point
camera
screen
priority
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009179228A
Other languages
Japanese (ja)
Other versions
JP2009294663A (en
Inventor
修 野中
康一 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2009179228A priority Critical patent/JP4786734B2/en
Publication of JP2009294663A publication Critical patent/JP2009294663A/en
Application granted granted Critical
Publication of JP4786734B2 publication Critical patent/JP4786734B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

この発明は、画面内の複数のポイントを測距してピント合わせを行うAFカメラの測距装置の改良に関する。   The present invention relates to an improvement of an AF camera ranging device that measures a plurality of points on a screen and focuses them.

近年、画面内の複数のポイントを測距してピント合わせを行うAFカメラが、種々開発されている。このようなAFは、一般にマルチAFと称されているが、測距ポイントの増加に伴ない、測距に要する時間が長くなってしまうという副作用が無視できないものである(下記特許文献1及び2参照)。   In recent years, various AF cameras that measure a plurality of points on a screen and perform focusing have been developed. Such AF is generally referred to as multi-AF, but the side effect that the time required for distance measurement becomes longer with the increase of distance measurement points cannot be ignored (Patent Documents 1 and 2 below). reference).

特開平10−142490号公報JP-A-10-142490 特開平11−109481号公報Japanese Patent Laid-Open No. 11-109481

例えば、上記特許文献1には、被写界を幾つかに分割して距離分布を求め、シーンを分析する装置が記載されている。しかしながら、時分割で演算を行っていく装置の場合、距離分布を求めること自体に時間がかかってしまうものであった。   For example, Patent Document 1 discloses an apparatus that analyzes a scene by dividing a scene into several parts to obtain a distance distribution. However, in the case of an apparatus that performs computation in a time division manner, it takes time to obtain the distance distribution itself.

また、特許文献2には、多くの測距ポイントからユーザが手動でピント合わせポイントを選択する技術が開示されている。このような場合も、あまりにも測距ポイントが多いと、ユーザの選択操作が複雑となって、これまたシャッタチャンスを逃してしまうという課題を有している。   Patent Document 2 discloses a technique in which a user manually selects a focusing point from a number of distance measuring points. Even in such a case, if there are too many distance measuring points, the user's selection operation becomes complicated, and there is another problem that a photo opportunity is missed.

この発明は、上記課題に鑑みてなされたものであり、複数の測距ポイントを有していても、高速で、且つ正確に主要被写体にピント合わせが可能なカメラを提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a camera capable of focusing at high speed and accurately on a main subject even if it has a plurality of distance measuring points. .

上記の目的を達成するために、本発明の第1の態様によるカメラは、撮像部と、ピント合わせ部とを有し、上記撮像部によって撮影される画面内の複数の測距ポイントに対しピント合わせが可能なカメラに於いて、上記画面内における撮影者の指の位置を視認する為のファインダと、上記撮像部によっ繰り返し検出された像を比較し、上記画面内の測距ポイントのうち上記撮影者により指さしされた領域を判定し、該指さしされた領域近傍の測距ポイントを検出して表示する判定表示部と、上記判定表示部によって表示された測距ポイントの位置に対応する被写体に対してピント合わせができるように上記ピント合わせ部を制御する制御部と、を具備することを特徴とする。 In order to achieve the above object, a camera according to a first aspect of the present invention has an imaging unit and a focusing unit, and focuses on a plurality of distance measuring points in a screen shot by the imaging unit. combined in the camera capable compares the viewfinder for viewing the position of the photographer's finger in the screen, the detected image repeatedly by the above imaging unit, the distance measurement points in the screen Of these, a determination display unit that determines an area pointed to by the photographer, detects and displays a distance measurement point near the pointed area, and corresponds to a position of the distance measurement point displayed by the determination display unit And a control unit that controls the focusing unit so that the subject can be focused.

この発明にあっては、撮像部と、ピント合わせ部とを有し、上記撮像部によって撮影される画面内の複数のポイントに対しピント合わせが可能なカメラに於いて、上記撮像部によって、繰り返し検出された像を比較して像変化の先端位置が判定部で判定される。そして、上記先端位置に対してピント合わせができるように上記ピント合わせ部が制御部により制御される。   According to the present invention, in a camera that includes an imaging unit and a focusing unit and is capable of focusing on a plurality of points in a screen shot by the imaging unit, the imaging unit repeatedly By comparing the detected images, the tip position of the image change is determined by the determination unit. Then, the focusing unit is controlled by the control unit so that the focusing can be performed with respect to the tip position.

またこの発明にあっては、更に、マルチAF機能を有するカメラに於いて、ファインダ画面内の被写体像が撮像手段で撮像されて像信号が出力される。そして、判別手段手にて、上記像信号から撮影者の手が判別手段によって判別される。この判別手段の判別結果に応じて、上記マルチAFポイントが決定手段によって決定される。   In the present invention, further, in a camera having a multi-AF function, the subject image in the viewfinder screen is picked up by the image pickup means and an image signal is output. Then, the hand of the photographer determines the hand of the photographer from the image signal by the hand of the determining means. The multi-AF point is determined by the determining unit according to the determination result of the determining unit.

以上のようにこの発明によれば、画面内の多くのポイントを測距可能とし、撮影時のフレーミングの自由度を大きくしながら、ユーザの意図を簡単に盛り込んだピントによる撮影が可能なカメラを提供することができる。   As described above, according to the present invention, it is possible to measure a number of points on the screen, and to increase the degree of freedom of framing at the time of shooting, while providing a camera capable of shooting with focus that easily incorporates the user's intention. Can be provided.

この発明の第1の実施の形態に従ったカメラの概略構成を説明するもので、(a)はカメラの測距装置の概略構成を示した図、(b)は被写体とピント合わせについて説明する図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating a schematic configuration of a camera according to a first embodiment of the present invention, in which (a) illustrates a schematic configuration of a camera distance measuring device, and (b) illustrates focusing on a subject. FIG. 図1のセンサアレイの一部をより詳細に示した構成図である。It is the block diagram which showed a part of sensor array of FIG. 1 in detail. (a)は選択スイッチ22cをオンさせて、積分制御を行う動作を説明するタイミングチャート、(b)はCPUでモニタされる像信号の出力の例を示した図である。(A) is a timing chart for explaining an operation for performing integral control by turning on the selection switch 22c, and (b) is a diagram showing an example of an output of an image signal monitored by a CPU. 一般的なマルチポイントの測距方法について説明するもので、(a)は画面内の測距可能な3ポイントの例を示した図、(b)は画面内の測距可能ポイントが30である場合の例を示した図、(c)は測距動作を説明するフローチャートである。A general multi-point distance measurement method will be described. (A) shows an example of three points that can be measured in the screen, and (b) shows 30 points that can be measured in the screen. The figure which showed the example of the case, (c) is a flowchart explaining ranging operation. (a)は多数のポイントを測距可能なカメラの測距ポイントの例を示した図、(b)は(a)に示される多数の測距ポイントについての測距動作を説明するフローチャート、(c)は優先度の高い限られたポイントを画面内に表示した例を示した図、(d)は最終的に選択された測距ポイントの例を示した図、(e)は多数の測距ポイントから特定のポイントを選択して測距する場合の動作を説明するフローチャートである。(A) is a diagram showing an example of a distance measuring point of a camera capable of measuring a number of points, (b) is a flowchart for explaining a distance measuring operation for a number of distance measuring points shown in (a), (c) is a diagram showing an example in which limited points with high priority are displayed on the screen, (d) is a diagram showing an example of a finally selected distance measuring point, and (e) is a number of measurement points. It is a flowchart explaining the operation | movement in the case of selecting and measuring a specific point from a distance point. パッシブタイプの測距装置に於ける光パターンの相対位置差算出の方法について説明する図である。It is a figure explaining the method of the relative position difference calculation of the light pattern in a passive type distance measuring device. パッシブタイプの測距装置に於ける光パターンの相対位置差算出の方法について説明する図である。It is a figure explaining the method of the relative position difference calculation of the light pattern in a passive type distance measuring device. (a)は受光レンズとセンサアレイの配置を示した図、(b)は模式的に(a)のセンサアレイのモニタ域を示した図、(c)は測距ポイント数を30にした場合のモニタ域を示した図である。(A) is the figure which showed arrangement | positioning of a light receiving lens and a sensor array, (b) is a figure which showed the monitor area of the sensor array of (a) typically, (c) is the case where the number of ranging points is set to 30 It is the figure which showed the monitoring area | region. 受光レンズとセンサアレイとの配置を示した図である。It is the figure which showed arrangement | positioning of a light receiving lens and a sensor array. 画面の構図の例について示した図である。It is the figure shown about the example of the composition of a screen. 第1の実施の形態に於ける優先度決定の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the priority determination in 1st Embodiment. 第1の実施の形態に於ける優先度決定の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the priority determination in 1st Embodiment. 第1の実施の形態に於ける優先度決定の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the priority determination in 1st Embodiment. 第1の実施の形態に於ける優先度決定の動作を説明するフローチャートである。It is a flowchart explaining the operation | movement of the priority determination in 1st Embodiment. 縦横検知、上向き検知を説明するための図である。It is a figure for demonstrating vertical / horizontal detection and upward detection. (a)は撮影画面を分割してそれぞれの測距ポイント位置を示す図、(b)及び(c)は撮影画面の例を示す図である。(A) is a figure which divides | segments an imaging | photography screen and shows each ranging point position, (b) And (c) is a figure which shows the example of an imaging | photography screen. (a)は撮影画面内で優先的に測距される領域の例を示した図、(b)は(a)の優先度の高いエリアに測距点表示がなされた例を示した図、(c)は優先順位の高いものから順次表示が切換わる様子を示した図である。(A) is a diagram showing an example of an area to be preferentially measured in the shooting screen, (b) is a diagram showing an example in which ranging point display is made in an area with high priority of (a), (C) is the figure which showed a mode that a display was switched sequentially from the thing with a high priority. この発明の第1の実施の形態の変形例について説明するもので、(a)はカメラの外観斜視図、(b)は(a)のカメラの操作部材38に対応するスイッチ38a〜38dの回路構成例を示した図である。The modification of 1st Embodiment of this invention is demonstrated, (a) is an external appearance perspective view of a camera, (b) is a circuit of switch 38a-38d corresponding to the operation member 38 of the camera of (a). It is the figure which showed the example of a structure. 第1の実施の形態の変形例に於ける撮影動作を説明するフローチャートである。It is a flowchart explaining the imaging | photography operation | movement in the modification of 1st Embodiment. 撮影者の指さしによる測距ポイントの選択を説明する図である。It is a figure explaining selection of a ranging point by a photographer's pointing. 指さしによる操作シーンの例を示した図である。It is the figure which showed the example of the operation scene by pointing. 指さしによる測距ポイントの選択での撮影動作を説明するフローチャートである。It is a flowchart explaining the imaging | photography operation | movement by selection of the ranging point by pointing. レーザポインタ45を用いてユーザ42が測距したいポイントを指示する例を示した図である。It is the figure which showed the example which the user 42 instruct | indicates the point which wants to measure distance using the laser pointer 45. FIG. 図23のレーザポインタを用いてユーザ42が指し示したポイントを撮影する動作を説明するフローチャートである。It is a flowchart explaining the operation | movement which image | photographs the point which the user 42 pointed using the laser pointer of FIG. この発明の第2の実施の形態を示すもので、(a)はカメラの内部構成を示すブロック図であり、(b)は該カメラの外観斜視図である。The 2nd Embodiment of this invention is shown, (a) is a block diagram which shows the internal structure of a camera, (b) is an external appearance perspective view of this camera. 主要被写体がファインダ画面の中央に存在しないシーンに於ける測距の例を示した図である。It is the figure which showed the example of the ranging in the scene where the main to-be-existed object does not exist in the center of a finder screen. 第2の実施の形態に於ける測距ポイントの表示動作を説明するフローチャートである。It is a flowchart explaining the display operation | movement of the ranging point in 2nd Embodiment. 主要被写体ではなく、誤って手前の木にピントを合わせた場合の例を説明する図である。It is a figure explaining the example at the time of focusing on the near tree accidentally instead of the main subject. 視線検知によるファインダ光学系の構成を示した図である。It is the figure which showed the structure of the finder optical system by a gaze detection. 図29のマスクLCDと撮影者の目の動きの関係を説明する図である。It is a figure explaining the relationship between the mask LCD of FIG. 29 and a photographer's eye movement. 第2の実施の形態に於けるファーストレリーズの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the first release in 2nd Embodiment. パララックスを考慮した画面内表示制御方法について説明するための図である。It is a figure for demonstrating the display control method in a screen in consideration of parallax. 測距ポイントとなるファインダ内LCDを説明するための図である。It is a figure for demonstrating LCD in a finder used as a ranging point. パララックスを考慮した画面内表示制御方法について説明するための図である。It is a figure for demonstrating the display control method in a screen in consideration of parallax.

以下、図面を参照してこの発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

初めに、図4を参照して、一般的なマルチポイントの測距方法について説明する。   First, a general multipoint ranging method will be described with reference to FIG.

図4(a)に示されるように、画面内のA、B、Cの3ポイントの測距が行われる場合、図4(c)のフローチャートに示されるように、先ず、Aのポイントについて、積分制御(ステップS1)、相関演算(ステップS2)、補間演算(ステップS3)が行われ、先ず距離が求められる。次に、同じプロセスがB点について行われる(ステップS4〜S6)。そして、Cのポイントについても同じプロセスで距離が求められ(ステップS7〜S9)、各ポイントの距離が求められる。その後、各ポイントから主要被写体距離が選択される(ステップS10)。   As shown in FIG. 4 (a), when three-point ranging of A, B, and C in the screen is performed, first, as shown in the flowchart of FIG. Integration control (step S1), correlation calculation (step S2), and interpolation calculation (step S3) are performed, and a distance is first obtained. Next, the same process is performed for point B (steps S4 to S6). Then, the distance of C point is also obtained by the same process (steps S7 to S9), and the distance of each point is obtained. Thereafter, the main subject distance is selected from each point (step S10).

上記積分制御とは、後述する図6に示されるようなセンサアレイ3a、3bで被写体1の像信号を検出する時、センサアレイを構成する画素の出力電流をコンデンサに変えて、電圧に変換する時に処理回路のダイナミックレンジ内に電圧信号を収める技術である。   In the integration control, when an image signal of the subject 1 is detected by the sensor arrays 3a and 3b as shown in FIG. 6 to be described later, the output current of the pixels constituting the sensor array is changed to a capacitor and converted into a voltage. It is a technique that sometimes places a voltage signal within the dynamic range of a processing circuit.

また、各画素について、図7(b)、(c)に示されるような像信号が得られた時、センサアレイ3a側、3b側の像位置の相対ズレ量xを画素のピッチ単位で求めるのが、相関演算である。これは2つのセンサアレイ3a、3bの画素データ毎に差をとって、これらを加算した結果を求め、次に、センサアレイ3bの画素データを1画素のみずらして、再び同じプロセスで各画素データの差の加算を行い、これを繰返す演算で2つの像信号が一致した時に相関度が高いとして、ズレ量xの概略値が求められるものである。   For each pixel, when an image signal as shown in FIGS. 7B and 7C is obtained, the relative displacement amount x of the image positions on the sensor array 3a side and 3b side is obtained in pixel pitch units. Is the correlation calculation. The difference is obtained for each pixel data of the two sensor arrays 3a and 3b, and the result obtained by adding them is obtained. Next, the pixel data of the sensor array 3b is shifted by one pixel, and each pixel data is again processed in the same process. When the two image signals coincide with each other in the operation of repeating the difference, the approximate value of the shift amount x is obtained assuming that the degree of correlation is high.

何画素分かずらした時、両データは一致して加算値は最小値となり、相関度は最も良くなる。しかし、加算値が0にならない場合は、画素のピッチ以下のずれ量があると考えられ、更に詳細な補間演算が必要となる。   When the number of pixels is shifted, both data coincide with each other, the added value becomes the minimum value, and the correlation degree is the best. However, when the added value does not become 0, it is considered that there is a shift amount equal to or less than the pixel pitch, and more detailed interpolation calculation is required.

このように複雑な演算制御が、図4(a)のフローチャートのように繰返されていると、例えば、図4(b)に示されるように、30ポイントもの測距が行われる時、図4(b)に示される測距の場合の10倍もの時間がかかってしまい、撮影者は、シャッタチャンスを逃すことになりかねない。   If such complicated calculation control is repeated as shown in the flowchart of FIG. 4A, for example, as shown in FIG. 4B, when ranging of 30 points is performed, FIG. It takes 10 times as long as the distance measurement shown in (b), and the photographer may miss a photo opportunity.

そのため、本発明は、図5(a)に示されるように、多数のポイントを測距可能なカメラの場合、先ず、全画面の積分制御結果より画面内各点の輝度分布に従って測距ポイントの優先度を決定し、優先度の高い限られたポイントを画面内に表示し(図5(c))、その表示結果に従ってユーザが測距ポイントを選択できるようにしている。   Therefore, according to the present invention, as shown in FIG. 5A, in the case of a camera capable of measuring a large number of points, first, the distance measurement points are determined according to the luminance distribution of each point in the screen from the integration control result of the entire screen. Priorities are determined, limited points with high priorities are displayed on the screen (FIG. 5C), and the user can select ranging points according to the display results.

すなわち、図5(a)に示される多数の測距ポイントについての測距が、図5(b)のフローチャートに従って動作される。   That is, distance measurement for a large number of distance measurement points shown in FIG. 5A is operated according to the flowchart of FIG.

先ず、ステップS21にて、図5(a)に示される全画面の積分制御結果が得られ、次いでステップS22にて、上記積分制御結果より画面内各点の輝度分布に従って測距ポイントの優先度が決定される。   First, in step S21, the integration control result of the entire screen shown in FIG. 5A is obtained. Then, in step S22, the priority of the distance measurement point is determined according to the luminance distribution of each point in the screen from the integration control result. Is determined.

ステップS23では、図5(c)に示されるように、優先度の高い限られたポイントが画面内に表示される。続くステップS24に於いて、上記ステップS23で表示された結果に従って、ユーザにより測距ポイントが選択される。   In step S23, as shown in FIG. 5C, limited points with high priority are displayed on the screen. In subsequent step S24, a distance measuring point is selected by the user in accordance with the result displayed in step S23.

その後、ステップS25にて相関演算及び補間演算が行われ、ステップS26にて上記ステップS24で選択されたポイントにピント合わせが行われる。こうして、最終的に選択されたポイントは、図5(d)に示されるように表示される。   Thereafter, correlation calculation and interpolation calculation are performed in step S25, and focus is performed on the point selected in step S24 in step S26. Thus, the finally selected point is displayed as shown in FIG.

上述したように、上記ステップS25にて、複雑な相関演算や補間演算等、細かい測距動作を行えば、限られたポイントのみを測距すれば良いので、タイムラグを短くすることができる。   As described above, if a fine distance measuring operation such as a complex correlation calculation or interpolation calculation is performed in step S25, only a limited point needs to be measured, so that the time lag can be shortened.

また、上述したように、多数の測距ポイントから特定のポイントを選択して測距する場合、例えば図5(e)のフローチャートに従って動作することも可能である。   Further, as described above, when a specific point is selected from a large number of distance measuring points and the distance is measured, for example, it is possible to operate according to the flowchart of FIG.

すなわち、ステップS31にて全画面積分制御が行われた後、ステップS32にて上記積分制御結果から得られた画面内各点の輝度分布と、各ポイントの相関演算結果に従って測距ポイントの優先度が決定される。   That is, after the full screen integration control is performed in step S31, the priority of the distance measurement point is determined according to the luminance distribution of each point in the screen obtained from the integration control result in step S32 and the correlation calculation result of each point. Is determined.

そして、ステップS33にて、優先度の高い限られたポイントが画面内に表示される。次いで、ステップS34にて、上記ステップS33の表示結果に従って、ユーザにより測距ポイントが選択される。   In step S33, limited points with high priority are displayed on the screen. Next, in step S34, a distance measuring point is selected by the user according to the display result of step S33.

その後、ステップS35にて補間演算が行われ、ステップS36にて上記ステップS34で選択されたポイントにピント合わせが行われる。   Thereafter, an interpolation calculation is performed in step S35, and focus is performed on the point selected in step S34 in step S36.

このように、優先度決定の際に相関演算まで行っても良い。この場合は、輝度分布と粗い距離分布から優先度を決定するようにする。   As described above, the correlation calculation may be performed when the priority is determined. In this case, priority is determined from the luminance distribution and the coarse distance distribution.

上述した何れの場合も、図5(a)に白丸印で示される測距ポイントは、普段は表示されておらず、撮影に入る前(例えばレリーズ釦半押し時)にのみ、しかも限られたポイントだけがスーパーインポーズ表示されるので、画面内がすっきりして見やすくなり、更にユーザの選択操作が簡単なカメラとすることができる。   In any of the cases described above, the distance measuring points indicated by white circles in FIG. 5A are not normally displayed and are limited only before shooting (for example, when the release button is pressed halfway). Since only the point is displayed in a superimposed manner, the screen is clear and easy to see, and the camera can be easily selected by the user.

次に、この発明に係わるパッシブタイプの測距装置に於ける光パターンの相対位置差算出の方法について、図6及び図7を参照して説明する。   Next, a method for calculating the relative position difference of the light pattern in the passive type distance measuring apparatus according to the present invention will be described with reference to FIGS.

図6に於いて、被写体1から距離Lだけ離れて配置される受光レンズ2a、2bの位置の差B(基線長)により、センサアレイ3a、3b上に入射する光分布の相対位置差xは、被写体1の距離Lに依存して変化する。各受光レンズの焦点距離をfとすると、被写体距離Lは下記(1)式で求められる。
L=B×f/x …(1)
センサアレイの各センサは、光の入射量に従った電流信号を出力するので、これらをA/D変換部4によりデジタル信号に変換すれば、像ズレ量を算出する演算部5による相関演算によって上記相対位置差xを検出することができる。この検出結果を、ワンチップマイクロコンピュータ等から成る演算制御手段であるCPU6に入力して、上記(1)式に基いて演算することで、被写体距離Lが求められる。
In FIG. 6, the relative position difference x of the light distribution incident on the sensor arrays 3a and 3b is obtained by the difference B (base line length) between the positions of the light receiving lenses 2a and 2b arranged at a distance L from the subject 1. , Depending on the distance L of the subject 1. If the focal length of each light receiving lens is f, the subject distance L can be obtained by the following equation (1).
L = B × f / x (1)
Since each sensor of the sensor array outputs a current signal according to the amount of incident light, if these signals are converted into digital signals by the A / D converter 4, a correlation calculation is performed by the calculator 5 that calculates the image shift amount. The relative position difference x can be detected. The detection result is input to the CPU 6 which is a calculation control means composed of a one-chip microcomputer or the like, and is calculated based on the above equation (1), whereby the subject distance L is obtained.

以上がパッシブタイプの三角測距方式の基本原理と一般的な装置構成である。   The above is the basic principle and general apparatus configuration of the passive type triangulation system.

上記のズレ量演算機能は、一般的に後述するように2つのプロセスから成るが、これらはCPU6内に制御プログラムとして内蔵していても良い。このような技術を用いてカメラのピント合せを行う場合、このCPU6がカメラの動作を制御し、撮影用ピント合わせ用レンズ等をモータ等のアクチュエータを介して適宜制御すれば、自動焦点(AF)機能付きカメラを提供することができる。   The above deviation amount calculation function is generally composed of two processes as will be described later, but these may be built in the CPU 6 as a control program. When the camera is focused using such a technique, the CPU 6 controls the operation of the camera, and if an imaging focus lens or the like is appropriately controlled via an actuator such as a motor, automatic focusing (AF). A camera with a function can be provided.

像のズレ量の演算のためには、両方のラインセンサに於けるセンサピッチの単位で、どれだけ像がブレているかを調べる演算ステップ(すなわち相関演算)を必要とする。そして、これより細かい分解能で更に正確にズレ量を算出する演算ステップ(以下、補間演算と称する)を必要とする。   In order to calculate the image shift amount, an operation step (that is, a correlation operation) for checking how much the image is blurred in the unit of the sensor pitch in both line sensors is required. Then, a calculation step (hereinafter referred to as interpolation calculation) for calculating the shift amount more accurately with a finer resolution is required.

例えば、センサアレイ3a上に、図6に示される波形8aのようなパターンで光が入射した場合は、該センサアレイ3aの各センサR1 〜R6 の出力の大きさは、図7(b)に棒グラフで示されるような分布8aとなる。 For example, when light is incident on the sensor array 3a in a pattern like the waveform 8a shown in FIG. 6, the magnitudes of outputs of the sensors R 1 to R 6 of the sensor array 3a are as shown in FIG. ) In the distribution 8a as shown by the bar graph.

ここで“R”は右側センサを表し、“L”は左側センサを表すものとし、これらに付された添字の1〜6が、例えば受光レンズ光軸基準でのセンサの位置の絶対位置を表しているとすると、左側センサの出力L1 〜L6 から出力R1 〜R6 と同じ信号が出る場合には、上記相対位置差xは0となるので、求める被写体距離Lは「無限遠」になる。 Here, “R” represents the right sensor, “L” represents the left sensor, and the subscripts 1 to 6 attached thereto represent the absolute position of the sensor position with respect to the optical axis of the light receiving lens, for example. If the same signal as the outputs R 1 to R 6 is output from the outputs L 1 to L 6 of the left sensor, the relative position difference x is 0, so that the subject distance L to be obtained is “infinity”. become.

また、被写体が「有限距離」に存在すると、上記xとセンサピッチSPから決定されるセンサの数Sだけシフトしたところの左側センサLには、図7(c)に示されるような、上記出力R1 〜R6 に類似する値の出力信号が得られる。 When the subject is present at a “finite distance”, the left sensor L shifted by the number S of sensors determined from the x and the sensor pitch SP outputs the output as shown in FIG. An output signal having a value similar to R 1 to R 6 is obtained.

図7(a)に示されるグラフに於ける縦軸の値FF(i) は、次式に従って求められる。
FF(i) =Σ|R(i) −L(i) | …(2)
すなわち、ある右側センサRの出力から対応する左側センサLの出力を減算し、その絶対値を各センサ毎に加算した結果FFを用いるのであれば良い。すなわち、先ず、Ri からLi を減算してその絶対値をとり、ある幅でiを変化させてこれらを加算する。
The value FF (i) on the vertical axis in the graph shown in FIG. 7A is obtained according to the following equation.
FF (i) = Σ | R (i) −L (i) | (2)
That is, it is only necessary to use FF as a result of subtracting the output of the corresponding left sensor L from the output of a certain right sensor R and adding the absolute value for each sensor. That is, first, Li is subtracted from Ri to take its absolute value, and i is changed with a certain width and added.

次に、Ri またはLi の一方のセンサを1単位だけずらして、先に差をとった隣接するセンサと同様に差をとると、次のような式でFF(i+1) は表現できる。
FF(i+1) =Σ|R(i+1) −L(i) | …(3)
このように、順次、ずらし量(以下、SIFT量と記す)を変更しながらFFを得ることができるが、RとLとの差の和であるFFが最小値(Fmin )となるSIFT量の所が最もよく対応がとれている位置と考えられるため、この場合のSIFT量が上記Sとして求められる。
Next, if one sensor of Ri or Li is shifted by one unit and the difference is taken in the same manner as the adjacent sensor which has previously taken the difference, FF (i + 1) can be expressed by the following equation.
FF (i + 1) = Σ | R (i + 1) −L (i) | (3)
As described above, the FF can be obtained while sequentially changing the shift amount (hereinafter referred to as the SIFT amount), but the SIFT amount in which the FF that is the sum of the differences between R and L becomes the minimum value (F min ). Is considered to be the position with the best correspondence, and the SIFT amount in this case is obtained as S.

以上が相関演算に関するプロセスの概略手順である。   The above is the outline procedure of the process related to the correlation calculation.

また、上記Sを加味して両センサアレイの出力分布を図示すると、図7(b)に示されるように、L側のSだけずれた各センサから対応する添字の付いたR側各センサと同様の出力が得られる。   Further, when the output distribution of both sensor arrays is illustrated with the above S taken into account, as shown in FIG. 7B, each sensor on the R side with a corresponding subscript from each sensor shifted by S on the L side Similar output is obtained.

続いて、図7(b)〜(d)を参照して、「補間演算」プロセスについて詳しく説明する。   Next, the “interpolation calculation” process will be described in detail with reference to FIGS.

実際の2つのセンサアレイ上の像のズレ量は、ぴったりとセンサのピッチでずれるわけではなく、また正確な測距にはピッチより細かい精度にて像ズレ量を検出しなければならない。そこで、補間演算が行われる。   The actual image shift amounts on the two sensor arrays are not exactly deviated from the sensor pitch, and for accurate distance measurement, the image shift amount must be detected with finer accuracy than the pitch. Therefore, an interpolation calculation is performed.

図7(b)、(c)に於けるRとLは、各々図6に示されるセンサアレイ3a、3bを構成する一部のセンサ出力を表している。   R and L in FIGS. 7B and 7C respectively represent a part of sensor outputs constituting the sensor arrays 3a and 3b shown in FIG.

また、図7(d)は、すでに「相関演算」が終了した上記Sだけシフトさせた後で比較しやすい状態に直したグラフを示したものである。すなわち、L0 〜L4 は正確にはLs 〜Ls+4 と記述するべきであるが、記載上繁雑になるのを避けるために、ここではこのSは省略して示されている。 FIG. 7 (d) shows a graph that has been shifted to the above S for which the “correlation calculation” has already been completed, and has been made easier to compare. That is, L 0 to L 4 should be accurately described as L s to L s + 4 , but in order to avoid complicated description, this S is omitted here.

ここで、Lのセンサには、上記Sだけシフトした後もR基準でまだxだけずれた光が入射しているとする。このとき、例えば、L1 のセンサにはR0 とR1 に入射する光が混じり合って入射し、同様に、各LのセンサにもR基準でxだけずれた光が順次に入射するので、各Lの出力(L1 〜L3 )は、下記(4)式に示されるように表現されることがわかる。
1 =(1−x)・R1 +xR0
2 =(1−x)・R2 +xR1
3 =(1−x)・R3 +xR2 …(4)
上記Fmin と、このFmin から上記シフト量をプラス方向とマイナス方向にずらしたFFの値F-1とF+1は、この各Rn、Ln の出力を用いて表現すると、下記(5)式のように表される。
min =Σ|Rn −Ln
-1=Σ|Rn-1 −Ln
+1=Σ|Rn+1 −Ln | …(5)
更に、上記(4)式を用いて上記(5)式を展開すると、値Fmin 、F-1、F+1のそれぞれは、下記(6)式のように表される。

Figure 0004786734
Here, it is assumed that light shifted by x on the R reference is still incident on the L sensor after shifting by S. At this time, for example, the light incident on R 0 and R 1 is mixedly incident on the L 1 sensor, and similarly, the light shifted by x on the R reference is sequentially incident on each L sensor. It can be seen that the outputs (L 1 to L 3 ) of each L are expressed as shown in the following equation (4).
L 1 = (1−x) · R 1 + xR 0
L 2 = (1−x) · R 2 + xR 1
L 3 = (1−x) · R 3 + xR 2 (4)
The F min and the FF values F −1 and F +1 obtained by shifting the shift amount in the plus direction and the minus direction from the F min can be expressed by the following (5). It is expressed as an expression.
F min = Σ | R n −L n |
F −1 = Σ | R n−1 −L n |
F +1 = Σ | R n + 1 −L n | (5)
Further, when the above expression (5) is expanded using the above expression (4), the values F min , F −1 , and F +1 are expressed as the following expression (6).
Figure 0004786734

また、上記(6)式中の{|R0 −R1 |+|R1 −R2 |+|R2 −R3 |}を(ΣΔR)として表現すると、この(ΣΔR)に依存せず、先のズレ量xが、下記(7)式によって求められる。これが「補間演算」である。

Figure 0004786734
Further, if {| R 0 −R 1 | + | R 1 −R 2 | + | R 2 −R 3 |} in the above expression (6) is expressed as (ΣΔR), it does not depend on (ΣΔR). The previous deviation amount x is obtained by the following equation (7). This is the “interpolation calculation”.
Figure 0004786734

尚、これらの演算は、図6に示される演算部5にて行われるが、ワンチップマイクロコンピュータ等のCPU6に於いて所定のプログラムに従って行割れるようにしても良い。   These calculations are performed by the calculation unit 5 shown in FIG. 6. However, the CPU 6 such as a one-chip microcomputer may be divided according to a predetermined program.

このようにして得られた値Sとxに基いて、CPU6がピント合わせレンズの繰出し量を算出し、制御すれば、オートフォーカス(AF)カメラを提供することができるが、1つのポイントを測距するだけで、これだけ複雑な演算が必要となる。   Based on the values S and x thus obtained, the CPU 6 can provide an autofocus (AF) camera by calculating and controlling the amount of focus lens extension, but it can measure one point. Complicated calculations are required just by moving the distance.

但し、多くの部分を測距する時、どのポイントについて、以上の演算を行って測距を行うかは、非常に大きな問題となる。   However, when measuring the distance of many parts, it is a very big problem as to which point the distance is calculated by performing the above calculation.

例えば、図1(b)に示されるようなシーンでは、人物10にピントを合わせて良いのか、花10aにピントを合わせて良いかは、カメラ側では完全には判断できない。花の成長を記録するような写真ならば花にピントを合わせるべきであり、旅先でのスナップならば人物にピント合わせをするべきである。測距ポイントが多くなっても、このような問題までは解決されない。   For example, in the scene as shown in FIG. 1B, the camera side cannot completely determine whether the person 10 can be focused or the flower 10a can be focused. If it is a photo that records the growth of a flower, you should focus on the flower, and if you take a snap while traveling, you should focus on the person. Even if the number of distance measuring points increases, such a problem cannot be solved.

そこで、この発明では、ユーザが操作することのできるスイッチを具備し、その操作によってピントを花に合わせるか、人物に合わせるかをユーザが選択できるようにしている。この時、この装置は太陽や空を同時に測距可能な構成になっているが、そこは測距の優先度が低いことまでは判断している。   Therefore, according to the present invention, a switch that can be operated by the user is provided, and the user can select whether to adjust the focus to the flower or the person by the operation. At this time, this device is configured to be able to measure the sun and the sky at the same time, but it determines that the priority of ranging is low.

ここで、この発明の第1の実施の形態に従ったカメラの概略構成を説明する。   Here, a schematic configuration of the camera according to the first embodiment of the present invention will be described.

図1(a)は、第1の実施の形態によるカメラの測距装置の概略構成を示した図である。   FIG. 1A is a diagram showing a schematic configuration of a camera distance measuring apparatus according to the first embodiment.

図1(a)に於いて、被写体10からの光束は、受光レンズ11a、11bを介して入射されてセンサアレイ12a、12b上に結像される。これらセンサアレイ12a、12bからの出力信号は、CPU13内のA/D変換回路13aでデジタル信号に変換されて相関演算部13bに供給される。   In FIG. 1A, the light beam from the subject 10 is incident on the sensor arrays 12a and 12b through the light receiving lenses 11a and 11b. Output signals from these sensor arrays 12a and 12b are converted into digital signals by the A / D conversion circuit 13a in the CPU 13 and supplied to the correlation calculation unit 13b.

上記CPU13は、ワンチップマイクロコンピュータ等から構成される演算制御手段であり、更に積分制御部13c及び選択部13dを内部に有している。更に、CPU13の外部は、上述したユーザが測距ポイントを選択するための選択スイッチ14と、ピント合わせ部15が接続される。   The CPU 13 is an arithmetic control means composed of a one-chip microcomputer or the like, and further has an integration control unit 13c and a selection unit 13d inside. Further, the selection switch 14 for the user to select a distance measuring point and the focusing unit 15 are connected to the outside of the CPU 13.

上記受光レンズ11a、11bは、視差Bを有して配置された一対の受光レンズであり、被写体10の像は、これら受光レンズ11a、11bによってセンサアレイ12a、12b上に結像される。この像は、上記視差Bによって三角測距の原理に従って、2つのセンサアレイ上で異なる相対位置の所に結像される。   The light receiving lenses 11a and 11b are a pair of light receiving lenses arranged with parallax B, and an image of the subject 10 is formed on the sensor arrays 12a and 12b by the light receiving lenses 11a and 11b. This image is formed at different relative positions on the two sensor arrays according to the principle of triangulation by the parallax B.

この相対位置の差xを検出すれば、被写体10までの距離Lは、受光レンズ11a、11bの焦点距離fと上記視差Bに従って、上記(1)式を計算することによって求めることができる。この結果に従って、CPU13によりピント合わせ部15が制御されれば、被写体10にピントが合った撮影を楽しむことができる。   If this relative position difference x is detected, the distance L to the subject 10 can be obtained by calculating the above equation (1) according to the focal length f of the light receiving lenses 11a and 11b and the parallax B. If the focusing unit 15 is controlled by the CPU 13 in accordance with this result, it is possible to enjoy shooting with the subject 10 in focus.

このとき、例えば、図1(b)に示されるようなシーンでは、ユーザが選択スイッチ14を切換えることによって、ピントを合わせるのが人物か花かを選択することができる。   At this time, for example, in a scene as shown in FIG. 1B, the user can select whether to focus on a person or a flower by switching the selection switch 14.

上記相対位置の差xの算出方法は、CPU13内に設けられたA/D変換回路13aによって、各センサアレイの各センサの出力がデジタル信号としてCPU内の図示されないメモリに記憶される。この結果が用いられて、CPU13では所定のプログラムによって、いわゆる相関演算が行われる。この相関演算は、2つのセンサアレイ12a、12bの出力をセンサアレイの並び方向にずらしながら差をとり、最も差が小さくなった時のずらし量の“相関”が高いと判定する方法である。このずらし量とセンサアレイのピッチが、つまり、上述した相対位置差xを表す値となる。そして、この相関演算は、CPU13内の相関演算部13bに於いて行われる。   In the calculation method of the relative position difference x, an output of each sensor of each sensor array is stored as a digital signal in a memory (not shown) in the CPU by an A / D conversion circuit 13a provided in the CPU 13. Using this result, the CPU 13 performs a so-called correlation calculation by a predetermined program. This correlation calculation is a method of taking a difference while shifting the outputs of the two sensor arrays 12a and 12b in the arrangement direction of the sensor arrays, and determining that the “correlation” of the shift amount when the difference becomes the smallest is high. This shift amount and the pitch of the sensor array are values representing the relative position difference x described above. This correlation calculation is performed in a correlation calculation unit 13b in the CPU 13.

図2は、このようなセンサアレイの一部をより詳細に示した構成図である。   FIG. 2 is a block diagram showing a part of such a sensor array in more detail.

図2に於いて、電源となるバイアス回路20には、センサアレイ21a〜21dが接続されている。これらのセンサアレイ21a〜21dからは、該センサアレイを形成する受光素子の受光面により、受光量に応じた信号電流が出力される。この信号電流は、積分開始/終了を切換える積分スイッチ22aのオン時は積分アンプ23a〜23dに導かれる。   In FIG. 2, sensor arrays 21a to 21d are connected to a bias circuit 20 serving as a power source. From these sensor arrays 21a to 21d, a signal current corresponding to the amount of received light is output by the light receiving surface of the light receiving element forming the sensor array. This signal current is guided to the integration amplifiers 23a to 23d when the integration switch 22a for switching integration start / end is turned on.

そして、リセットスイッチ22bがオフ時には、各積分アンプ23a〜23dの出力に、積分量に応じた電圧信号が現れる。この結果が、CPU13に内蔵されたA/D変換回路13aによって読取られることにより、上述した相関演算を経て、ピント合わせをすることができる。   When the reset switch 22b is off, a voltage signal corresponding to the integration amount appears at the outputs of the integrating amplifiers 23a to 23d. This result is read by the A / D conversion circuit 13a built in the CPU 13, whereby the focusing can be performed through the correlation calculation described above.

しかし、上記センサアレイ23a〜23dに入る光の量は、シーンの明るさや被写体の色や反射率によって種々の値にバラつくので、限られたダイナミックレンジの積分手段で適正な値に積分量を収めるためには、正確な積分制御技術が必要になる。例えば、積分時間が短かすぎる時、積分結果が平坦になってしまって差が得られないが、長すぎても回路の飽和によって積分結果が均一になってしまう。   However, since the amount of light entering the sensor arrays 23a to 23d varies depending on the brightness of the scene, the color of the subject, and the reflectance, the integration amount is set to an appropriate value by an integration unit having a limited dynamic range. In order to fit, an accurate integration control technique is required. For example, when the integration time is too short, the integration result becomes flat and a difference cannot be obtained. However, if the integration time is too long, the integration result becomes uniform due to circuit saturation.

先の相関演算の説明からも明らかなように、像に変化が乏しいと、2つのセンサアレイで得られた2つの像の相関がとりにくく、結果として正しい測距ができなくなってしまう。   As is clear from the above explanation of the correlation calculation, if the change in the image is poor, it is difficult to correlate the two images obtained by the two sensor arrays, and as a result, correct distance measurement cannot be performed.

そこで、積分結果をリアルタイムでモニタして適正なレベルになったところで積分を終了させる技術が用いられる。つまり、最大積分値検出回路24に接続された選択スイッチ22cの何れをオンするかによって、どのセンサの出力がモニタされるかが決まる。   Therefore, a technique is used in which the integration result is monitored in real time and the integration is terminated when it reaches an appropriate level. That is, which sensor output is monitored is determined by which of the selection switches 22c connected to the maximum integrated value detection circuit 24 is turned on.

図3(a)は、上記選択スイッチ22cをオンさせて、積分制御を行う動作を説明するタイミングチャートである。   FIG. 3A is a timing chart for explaining an operation for performing the integration control by turning on the selection switch 22c.

センサアレイ21a〜21dに光が入っている時、最初にリセットスイッチ22bがオンされ、出力が基準レベルにリセットされた後、積分スイッチがオン、リセットスイッチ22bがオフされると、T1のタイミングで積分が開始される。   When light enters the sensor arrays 21a to 21d, the reset switch 22b is first turned on, the output is reset to the reference level, the integration switch is turned on, and the reset switch 22b is turned off at the timing of T1. Integration begins.

最大積分値検出回路24の出力は、選択部13dのスイッチが該最大積分値出力回路24に接続されている時、最も積分量の大きい出力が選択されてCPU13内のA/D変換回路13aに入力される。したがって、CPU13は、この出力を、A/D変換回路13aを動作させて逐次モニタし、この最大値が回路のダイナミックレンジを越えない時点T2で積分スイッチ22aがオフされれば、各センサの積分出力がダイナミックレンジを越えることはない。   The output of the maximum integration value detection circuit 24 is selected when the switch of the selector 13d is connected to the maximum integration value output circuit 24, and the output having the largest integration amount is selected and sent to the A / D conversion circuit 13a in the CPU 13. Entered. Therefore, the CPU 13 sequentially monitors this output by operating the A / D conversion circuit 13a. If the integration switch 22a is turned off at the time T2 when the maximum value does not exceed the dynamic range of the circuit, the integration of each sensor is performed. The output never exceeds the dynamic range.

そして、積分停止後、センサアレイ21a、21b、21c、21dの積分出力をA/D変換するために、選択部13dのスイッチが切換え制御されれば、CPU13にて各センサ出力が順次モニタ可能となる。   Then, after the integration is stopped, in order to A / D-convert the integrated outputs of the sensor arrays 21a, 21b, 21c, and 21d, if the switch of the selector 13d is controlled to be switched, the CPU 13 can monitor each sensor output sequentially. Become.

このようにして得られた像信号は、図3(b)に示されるようなもので、光の入射状態に従って暗い部分は低い出力、明るい部分は高い出力として表される。このような技術によって、カメラの測距装置は、適正な像信号を得ることができ、更に、画面上の像パターンの表示にふさわしいコントラスト域を見つけるための情報も得ることができる。   The image signal thus obtained is as shown in FIG. 3B, and the dark part is expressed as a low output and the bright part as a high output according to the incident state of light. With such a technique, the camera distance measuring device can obtain an appropriate image signal, and can also obtain information for finding a contrast range suitable for displaying an image pattern on the screen.

また、CPU13のスイッチ22cの制御によって、所定のセンサのみを最大積分値検出回路24と接続することができる。   Further, only a predetermined sensor can be connected to the maximum integrated value detection circuit 24 by the control of the switch 22 c of the CPU 13.

更に、図1(a)に示される装置の構成で、受光レンズ11aからの破線で示された光線を利用する、と画面中心のポイント17C以外のポイント、つまり基線長方向にずれたポイント17L、17Rの測距も可能となる。   Further, in the configuration of the apparatus shown in FIG. 1A, when the light beam indicated by the broken line from the light receiving lens 11a is used, a point other than the point 17C at the center of the screen, that is, a point 17L shifted in the baseline length direction, 17R distance measurement is also possible.

また、図8(a)に示されるように、受光レンズ11a、11bの後方に配置されたセンサアレイ12a、12bを基線長方向と垂直の方向に上下各々1本追加すると、同図に示される光線のように、基線長方向とは垂直な方向であるポイント17Uの部分とポイント17Dの部分を測距可能となる。したがって、この時、図8(b)のように、模式的にセンサアレイのモニタ域を示したように、画面内の多くのポイントが測距可能になる。   Further, as shown in FIG. 8A, when one sensor array 12a and 12b arranged at the rear of the light receiving lenses 11a and 11b is added in the vertical direction to the base line length direction, one is shown in the figure. Like a light ray, it becomes possible to measure a point 17U portion and a point 17D portion that are perpendicular to the baseline length direction. Accordingly, at this time, as shown schematically in FIG. 8 (b), as shown schematically in the monitor area of the sensor array, many points in the screen can be measured.

この考え方を拡張すれば、1本や3本のラインセンサではなく、図9に示されるように、センサが連続して配設された、いわゆるエリアセンサを用いることによって、画面内をくまなくモニタすることができ、例えば図8(c)に示されるように、測距可能ポイント数を30ポイント以上の数に増加させることが可能になる。   If this concept is expanded, the entire screen is monitored by using a so-called area sensor in which sensors are continuously arranged as shown in FIG. 9 instead of one or three line sensors. For example, as shown in FIG. 8C, the number of measurable points can be increased to 30 or more.

このような工夫によって、測距ポイント数を増加させれば、画面の何処に主要被写体が存在しても正確な測距が可能な測距装置を提供することができる。例えば、従来の画面中央しか測距できなかった、図10に示されるような構図で画面の端の方に人物がいる場合も、正確なピント合わせのできるカメラを提供可能となる。更に、この構成によって画面内各部のコントラストや輝度分布の測定ができる。   With such a device, if the number of distance measuring points is increased, it is possible to provide a distance measuring apparatus capable of performing accurate distance measurement wherever a main subject is present. For example, it is possible to provide a camera that can accurately focus even when a person is located near the edge of the screen in the composition as shown in FIG. Furthermore, with this configuration, it is possible to measure the contrast and luminance distribution of each part in the screen.

但し、上述したように、測距域が広くなる程、測距時に余計ものを無駄に測距することが多くなり、副作用として誤測距に到る確率も増加する。   However, as described above, the wider the distance measurement area, the more often unnecessary distance is measured at the time of distance measurement, and the probability of erroneous distance measurement also increases as a side effect.

例えば、図1(b)に示されるようなシーンでは、先ず、最初から人物10や花10aの位置のみを測距して、そこを測距候補ポイントとしてしまえば、空や太陽等、他のポイントを測距することによる誤測距によるピンボケや、タイムラグによる問題を起こすことはない。   For example, in the scene as shown in FIG. 1B, if only the position of the person 10 or the flower 10a is first measured from the beginning and then set as a distance measurement candidate point, the sky, the sun, or the like There will be no out-of-focus or time lag problems due to incorrect distance measurement.

この人物10の位置を一番高い優先度とし、花10aの位置をその次とし、更に太陽の位置は最も低い優先度によって測距するようにすれば、上述した図5のフローチャートに従って高速の測距が可能となる。   If the position of the person 10 is set to the highest priority, the position of the flower 10a is set to the next priority, and the sun position is measured with the lowest priority, the high-speed measurement is performed according to the flowchart of FIG. Distance is possible.

図11乃至図14は、こうした優先度決定の動作を説明するフローチャートである。ここでは、撮影者が構図を横にしたり縦にしたりすることを考慮して、それを検出する手段があることを想定している。   FIGS. 11 to 14 are flowcharts for explaining the priority determination operation. Here, it is assumed that there is a means for detecting the photographer taking into account that the composition is horizontal or vertical.

尚、画面の真ん中より上では空や太陽等、主要被写体より高輝度のものがあるケースが多いので、本実施の形態では、こうした情報を基に、主要被写体判定の一助とする。   Since there are many cases where the brightness of the main subject is higher than the main subject such as the sky or the sun above the center of the screen, this embodiment helps to determine the main subject based on such information.

ところで、この縦横検知、また、上向き検知は、図15に示されるように、カメラ27内に水銀等の流体の導電物質29を収めた球状のケース28を内蔵させ、このケース28内に差し込まれた複数の電極30a〜30dの何れの電極同士が流体導電体で短絡されるかを、CPUが判定することによって可能になる。   By the way, as shown in FIG. 15, this vertical / horizontal detection and upward detection include a spherical case 28 containing a fluid conductive material 29 such as mercury in a camera 27 and is inserted into the case 28. The CPU can determine which of the electrodes 30a to 30d is short-circuited by the fluid conductor.

つまり、電極30bと電極30cが短絡すれば横、電極30bと電極30aならば縦、更に電極30bと電極30dならば上向きと判定することができる。   That is, it can be determined that the electrode 30b and the electrode 30c are short-circuited, the electrode 30b and the electrode 30a are vertically, and the electrode 30b and the electrode 30d are upward.

以下、上述した図11乃至図14のフローチャートを参照して、優先度決定の動作について説明する。また、図16(a)は、この優先度決定の動作を説明するにあたって、撮影画面を例えば9分割した測距領域(以下、測距ポイントと記す)[1]〜[9]に分割した例を示した図、図16(b)及び(c)は、撮影画面の例を示した図である。   The priority determination operation will be described below with reference to the flowcharts of FIGS. 11 to 14 described above. FIG. 16A shows an example in which the shooting screen is divided into, for example, distance measurement areas (hereinafter referred to as distance measurement points) [1] to [9] divided into nine parts for explaining the priority determination operation. FIGS. 16B and 16C are diagrams showing examples of shooting screens.

以下の説明に於いて、これらの測距ポイントを横方向に分割した、[1]、[2]、[3]をAブロック、[4]、[5]、[6]をBブロック、そして[7]、[8]、[9]をCブロックとし、縦方向に分割した、[1]、[4]、[7]をDブロック、[2]、[5]、[8]をEブロック、及び[3]、[6]、[9]をFブロックとする。   In the following description, these ranging points are divided in the horizontal direction, [1], [2], [3] are A blocks, [4], [5], [6] are B blocks, and [7], [8], and [9] are C blocks, and divided vertically, [1], [4], and [7] are D blocks, and [2], [5], and [8] are E Blocks and [3], [6], and [9] are F blocks.

尚、この第1の実施の形態では、一例として、図16(a)に示されるように測距ポイントを9分割としたが、勿論これに限定されるものではなく、更に細かく分割するようにしても良い。   In the first embodiment, as an example, the distance measurement point is divided into nine as shown in FIG. 16A. However, the distance measurement point is of course not limited to this, and is further divided. May be.

先ず、ステップS41にて、図15に示されるようなカメラの縦横検知機構が用いられて、撮影画面の上方がどの位置かが検出される。次いで、ステップS42に於いて、何れのブロックが上方であるかが判定される。   First, in step S41, the vertical and horizontal detection mechanism of the camera as shown in FIG. 15 is used to detect the position above the shooting screen. Next, in step S42, it is determined which block is above.

この判定結果は、[1]、[2]、[3]のブロック、[1]、[4]、[7]のブロック、[3]、[6]、[9]のブロックの何れが上方になるかを判定するものであり、本実施の形態では、(i)撮影画面上方は「空(主要被写体が存在しない領域)」、(ii)主要被写体は一番上方の測距ポイントより下方に存在、(iii)撮影画面の中央は、主要被写体の存在確率が高い、という考え方でシーケンスが構成されている。ここでは、先ず、通常にカメラを構えた横長構図([1]、[2]、[3]のブロックが上方)を例として説明する。   The determination results are as follows: [1], [2], [3] block, [1], [4], [7] block, [3], [6], [9] block In this embodiment, (i) the upper part of the shooting screen is “sky (area where there is no main subject)”, and (ii) the main subject is below the uppermost distance measuring point. (Iii) In the center of the shooting screen, the sequence is configured based on the idea that the existence probability of the main subject is high. Here, first, an explanation will be given by taking, as an example, a horizontally long composition ([1], [2], and [3] blocks above) that normally hold a camera.

このような構図では、[1]、[2]、[3]のブロックは、「空」である確率が高いので、ステップS43に移行して、上記[1]、[2]、[3]のブロックの平均輝度BVvが求められ、これが「空」である部分の判定基準とされる。これは、図16(b)に示される構図では、[1]、[2]、[3]のブロックの他、測距ポイント[5]及び[6]の部分も「空」であると判定される時に、この明るさ情報が用いられる。   In such a composition, the blocks [1], [2], and [3] have a high probability of being “empty”. Therefore, the process proceeds to step S43 and the above [1], [2], and [3] are performed. The average luminance BVv of each block is obtained, and this is used as the determination criterion for the portion that is “empty”. In the composition shown in FIG. 16B, it is determined that the distance measurement points [5] and [6] are also “empty” in addition to the blocks [1], [2], and [3]. This brightness information is used when

但し、一番上方のブロックが「空」であって、全く測距の必要がないか否かは
これだけではわからないので、ステップS44に移行して、予め設定した所定の輝度BVsと、一番上のブロックの平均輝度BVvが比較される。このステップS44にて、所定の明るさ以上ならば、「空」である確率が高いので、ステップS45に移行して、優先度係数P(P1 ,P2 ,P3 )が1×1とされる。
However, since the uppermost block is “sky” and it is not known whether or not distance measurement is necessary at all, the process proceeds to step S44, and the predetermined brightness BVs set in advance and the top The average brightness BVv of the blocks is compared. In this step S44, if it is not less than the predetermined brightness, the probability of “sky” is high, so the process proceeds to step S45, where the priority coefficient P (P 1 , P 2 , P 3 ) is 1 × 1. Is done.

ここで、“1×1”の前方の“1”は、図16(a)に示される測距ポイント[1]〜[9]の位置に関する重み付けの値であり、撮影画面の四隅の測距ポイント[1],[3],[7],[9]と上方中央の測距ポイント[2]は、主要被写体の存在確率が低いものとして“1”と設定され、これらの領域を除く四辺部中央の測距ポイント[4],[6],[8]は位置の重み付け(以下、位置重み付けと記す)が“2”に設定され、更に撮影画面中央の測距ポイント[5]は、存在確率が極めて高いため“3”と設定される。   Here, “1” in front of “1 × 1” is a weighting value regarding the positions of the distance measurement points [1] to [9] shown in FIG. 16A, and the distance measurement at the four corners of the shooting screen. The points [1], [3], [7], [9] and the distance measuring point [2] in the upper center are set to “1” because the existence probability of the main subject is low, and the four sides excluding these areas The distance measurement points [4], [6], and [8] in the center of the section are set to position weighting (hereinafter referred to as position weighting) “2”, and the distance measurement point [5] in the center of the shooting screen is Since the existence probability is extremely high, “3” is set.

また、“1×1”の後方の数字“1”は、輝度やその変化による重み付け(以
下、輝度重み付けと記す)であり、例えば、「空」である時、測距の必要が低いものとして“1”、これ以外ならば、“2,3,6”と、を増すようにしている。
Also, the number “1” after “1 × 1” is weighting due to luminance and its change (hereinafter referred to as luminance weighting). For example, when it is “sky”, it is assumed that the need for distance measurement is low. “1”, otherwise “2, 3, 6” are increased.

この実施の形態に於いて、「空」は、主要被写体の存在確率の低い領域であり、優先度係数を、(位置重み付け)×(輝度重み付け)として、1×1=1と定義している。   In this embodiment, “sky” is an area where the existence probability of the main subject is low, and the priority coefficient is defined as 1 × 1 = 1 with (position weighting) × (luminance weighting). .

また、上記ステップS44に於いて、平均輝度BVvが所定の輝度BVs以下であれば、ステップS46に移行して、優先度係数が“1×2”とされる。例えば、図16(c)に示される撮影画面のように、空の一部に「山」があるような構図の優先度係数である。但し、前方の“1”は、位置依存であるため変化しない。   If the average brightness BVv is equal to or lower than the predetermined brightness BVs in step S44, the process proceeds to step S46, where the priority coefficient is set to “1 × 2”. For example, the priority coefficient is a composition having a “mountain” in a part of the sky as in the shooting screen shown in FIG. However, the forward “1” does not change because it is position dependent.

このように、[1]、[2]、[3]のブロックの優先度係数が決定された後、下方の測距ポイントの判定に移行する。   As described above, after the priority coefficients of the blocks [1], [2], and [3] are determined, the process proceeds to determination of a distance measuring point below.

ステップS47に於いては、[4]、[5]、[6]のブロック列内での輝度比較が行われて、その変化の有無が判定される。例えば、図16(b)に示されるような構図では変化があり、図16(c)に示されるような構図では変化がない。   In step S47, luminance comparison is performed within the block rows [4], [5], and [6], and the presence or absence of the change is determined. For example, there is a change in the composition as shown in FIG. 16B, and there is no change in the composition as shown in FIG.

この判定で変化があれば、ステップS48に移行して、[4]、[5]、[6]のブロックの測距ポイント[4]の輝度と、先に求められた[1]、[2]、[3]のブロック(画面上方)の輝度BVvとが比較される。   If there is a change in this determination, the process proceeds to step S48, and the luminance of the distance measuring point [4] of the block [4], [5], [6] and the previously obtained [1], [2 ], The luminance BVv of the block (upper screen) of [3] is compared.

ここで、輝度が異なるならば、ステップS49に移行して、輝度重み付けが“6(優先度係数P4 :2×6)”に設定される。一方、上記ステップS48にて、同様な輝度であれば、その測距ポイント[4]は、「空」であると考え、ステップS50に移行して、この輝度重み付けが“2(優先度係数P4 :2×2)”に設定される。 Here, if the luminances are different, the process proceeds to step S49, and the luminance weighting is set to “6 (priority coefficient P 4 : 2 × 6)”. On the other hand, if the brightness is the same in step S48, the distance measurement point [4] is considered to be “sky”, and the process proceeds to step S50 where the brightness weight is “2 (priority coefficient P 4 : 2 × 2) ”.

続いて、ステップS51にて、同様に、[4]、[5]、[6]の測距ポイント[5]の輝度と、輝度BVvとが比較される。そして、両者の輝度が異なるならば、ステップS52に移行して、輝度重み付けが“6(優先度係数P5 :3×6)”に設定され、一方、同様な輝度であれば、ステップS53に移行して、その測距ポイント[5]の輝度重み付けが“2(優先度係数P5 :3×2)”に設定される。 Subsequently, in step S51, the luminance of the distance measurement point [5] of [4], [5], and [6] is similarly compared with the luminance BVv. If the two brightness values are different from each other, the process proceeds to step S52, in which the brightness weighting is set to “6 (priority coefficient P 5 : 3 × 6)”. Then, the luminance weighting of the distance measuring point [5] is set to “2 (priority coefficient P 5 : 3 × 2)”.

更に、ステップS54に於いて、[4]、[5]、[6]の測距ポイント[6]に於いても同様に輝度BVvと比較される。その結果、両者の輝度が異なるならば、ステップS55に移行して、輝度重み付けが“6(優先度係数P6 :2×6)”に設定される。一方、同様な輝度であれば、ステップS56に移行して、その測距ポイント[6]の輝度重み付けが“2(優先度係数P6 :2×2)”に設定される。 Further, in step S54, the distances [6] at [4], [5], and [6] are similarly compared with the luminance BVv. As a result, if the two luminances are different, the process proceeds to step S55, and the luminance weighting is set to “6 (priority coefficient P 6 : 2 × 6)”. On the other hand, if the luminance is similar, the process proceeds to step S56, and the luminance weighting of the distance measuring point [6] is set to “2 (priority coefficient P 6 : 2 × 2)”.

次いで、ステップS57にて、測距ポイント[7]、[9]の位置重み付けが“1”にされ、輝度重み付けが“3(優先度係数P7 ,P9 :1×3)”に設定される。その後、ステップS58にて、測距ポイント[8]の位置重み付けが“2”とされ、輝度重み付けが“3(優先度係数P8 :2×3)”に設定される。 Next, in step S57, the position weights of the distance measurement points [7] and [9] are set to “1”, and the luminance weights are set to “3 (priority coefficients P 7 , P 9 : 1 × 3)”. The Thereafter, in step S58, the position weighting of the distance measuring point [8] is set to “2”, and the luminance weighting is set to “3 (priority coefficient P 8 : 2 × 3)”.

また、上記ステップS47に於いて、[4]、[5]、[6]のブロック内の輝度比較で変化が無かった場合は、ステップS59に移行して、測距ポイント[5]の位置重み付けが“3”とされ、輝度重み付けが“2(優先度係数P5 :3×2)”に設定される。ちなみに変化が無い構図は、図16(c)が該当し、測距ポイント[4]、[5]、[6]とも同じような輝度分布となる。 If there is no change in the luminance comparison in the blocks [4], [5], and [6] in step S47, the process proceeds to step S59, and the position weighting of the distance measurement point [5] is performed. Is set to “3”, and the luminance weight is set to “2 (priority coefficient P 5 : 3 × 2)”. Incidentally, the composition having no change corresponds to FIG. 16C, and the distance distribution points [4], [5], and [6] have the same luminance distribution.

そして、ステップS60にて、測距ポイント[4]、[6]の位置重み付けが“2”とされ、輝度重み付けが“2(優先度係数P4 ,P6 :2×2)”に設定される。 In step S60, the position weights of the distance measurement points [4] and [6] are set to “2”, and the luminance weights are set to “2 (priority coefficients P 4 , P 6 : 2 × 2)”. The

更に、[4]、[5]、[6]のブロックより下方の[7]、[8]、[9]のブロックは、主要被写体が存在する確率が高いと想定されて、測距ポイント[7]、[8]、[9]の輝度重み付けは、“6”に設定される。よって、ステップS61では、測距ポイント[7]、[9]の位置重み付けが“1”とされ、輝度重み付けは“6(優先度係数P7 ,P9 :1×6)”に設定される。更に、ステップS62では、測距ポイント[8]の位置重み付けが“2”とされて、輝度重み付けは“6(優先度係数P8 :2×6)”に設定される。 Further, the blocks [7], [8], and [9] below the blocks [4], [5], and [6] are assumed to have a high probability that the main subject exists, and the distance measurement point [ The luminance weights of [7], [8], and [9] are set to “6”. Therefore, in step S61, the position weights of the distance measuring points [7] and [9] are set to “1”, and the luminance weight is set to “6 (priority coefficients P 7 , P 9 : 1 × 6)”. . Further, in step S62, the position weight of the distance measuring point [8] is set to “2”, and the luminance weight is set to “6 (priority coefficient P 8 : 2 × 6)”.

その後、ステップS103に移行して、上述したように設定された優先度係数の重み付けの大きい測距ポイントから測距に関する処理が行われるように、優先順位が決定される。   Thereafter, the process proceeds to step S103, and the priority order is determined so that the process related to the distance measurement is performed from the distance measurement point with the higher weight of the priority coefficient set as described above.

ここで、この優先順位の決定について説明する。   Here, the determination of the priority order will be described.

これらの重み付けの設定により、測距ポイント[7]、[9]の優先度係数は、“6”となり、測距ポイント[8]の優先度係数は、“12”の重み付けとなる。   With these weighting settings, the priority coefficient of distance measurement points [7] and [9] is “6”, and the priority coefficient of distance measurement point [8] is weighted to “12”.

この場合、測距ポイント[8]の優先度係数が“12”、測距ポイント[5]、[7]、[9]の優先度係数が“6”となり、これらが優先度の高い測距ポイントとなる。   In this case, the priority coefficient of the distance measurement point [8] is “12”, the priority coefficients of the distance measurement points [5], [7], and [9] are “6”, and these are the distance measurement with high priority. It becomes a point.

例えば、図16(b)に示されるような構図では、測距ポイント[4]、[5]、[6]の優先度係数が、各々、“12”、“6”、“4”となり、最下段の測距ポイント[7]、[8]、[9]は、位置の重み付けに対し、これまでの輝度判定の残りの予測から、“3”の重み付けを乗じて、測距ポイント[7]、[9]の優先度係数は“3”、測距ポイント[8]の優先度係数は“6”となる。したがって、優先度の高いのは、測距ポイント[4]、[5]、[8]の順となる。   For example, in the composition as shown in FIG. 16B, the priority coefficients of the ranging points [4], [5], and [6] are “12”, “6”, and “4”, respectively. The bottom ranging points [7], [8], and [9] are obtained by multiplying the position weight by the weight of “3” from the remaining predictions of luminance determination so far. ] And [9] have a priority coefficient of “3”, and the distance measurement point [8] has a priority coefficient of “6”. Accordingly, the distance measurement points [4], [5], and [8] have the highest priority.

そして、上述したように、測距ポイント[1]〜[9]の優先度係数P1 〜P9 の重み付け結果より、図16(b)に示されるような構図では、[4]、[5]、[8]、…、図16(c)に示されるような構図では、[8]、[5]、[7]、[9]、…の順で、優先順位付けが行われる。 Then, as described above, from the weighting results of the priority factors P 1 to P 9 of the distance measurement points [1] to [9], in the composition as shown in FIG. ], [8],..., In the composition as shown in FIG. 16C, prioritization is performed in the order of [8], [5], [7], [9],.

また、上記ステップS42の判定に於いて、ブロック[1]、[4]、[7]が最上段であった場合には、カメラを立てて構えた縦長構図となり、最上段がブロック[1]、[4]、[7]、中段がブロック[2]、[5]、[8]、最下段がブロック[3]、[6]、[9]の構図となる。   If the blocks [1], [4], and [7] are in the uppermost row in the determination in step S42, a vertically long composition with the camera standing is set, and the uppermost row is the block [1]. , [4], [7], the middle is the block [2], [5], [8], and the bottom is the block [3], [6], [9].

したがって、上述した横長構図のブロック[1]、[2]、[3]、ブロック[4]、[5]、[6]及びブロック[7]、[8]、[9]に於ける優先度係数の設定を、ブロック[1]、[2]、[3]をブロック[1]、[4]、[7]に、ブロック[4]、[5]、[6]をブロック[2]、[5]、[8]に、そしてブロック[7]、[8]、[9]をブロック[3]、[6]、[9]に置換えると、ステップS63〜S82が、測距ポイントを変えたのみで、上述したステップS43〜S62と同等のシーケンスとなる。   Therefore, the priorities in the blocks [1], [2], [3], the blocks [4], [5], [6] and the blocks [7], [8], [9] in the horizontal composition described above. The coefficients are set such that blocks [1], [2], and [3] are blocks [1], [4], and [7], and blocks [4], [5], and [6] are blocks [2], When [5], [8] and the blocks [7], [8], [9] are replaced with the blocks [3], [6], [9], steps S63 to S82 change the distance measurement points. Only by changing, the sequence becomes the same as the above-described steps S43 to S62.

このような縦長構図では、ブロック[1]、[4]、[7]は、「空」である確率が高いので、ステップS63で平均輝度BVvが求められて、判定基準とされる。そして、上記ステップS44と同様に、この平均輝度BVvと所定輝度BVsとがステップS64に於いて比較される。ここで、所定の明るさ以上ならば、「空」である確率が高いので、ステップS65に移行して、優先度係数P(P1 ,P4 ,P7 )が1×1とされる。 In such a vertically long composition, the blocks [1], [4], and [7] have a high probability of being “empty”, so the average luminance BVv is obtained in step S63 and used as a determination criterion. Similar to step S44, the average luminance BVv and the predetermined luminance BVs are compared in step S64. Here, if the brightness is equal to or greater than the predetermined brightness, the probability of “sky” is high, so the process proceeds to step S65, and the priority coefficient P (P 1 , P 4 , P 7 ) is set to 1 × 1.

尚、この構図に於ける位置重み付けは、測距ポイント[1]、[3]、[7]、[9]、[4]が“1”に設定され、測距ポイント[2]、[6]、[8]が“2”に設定され、更に撮影画面中央の測距ポイント[5]は、存在確率が極めて高いため、“3”と設定される。   In this composition, the position weights [1], [3], [7], [9], [4] are set to “1” and the distance measurement points [2], [6] ], [8] are set to “2”, and the distance measurement point [5] at the center of the shooting screen is set to “3” because the existence probability is extremely high.

また、上記ステップS64に於いて、平均輝度BVvが所定の輝度BVs以下であれば、ステップS66に移行して、測距ポイント[1]、[4]、[7]は優先度係数が“1×2”とされる。   In step S64, if the average luminance BVv is equal to or lower than the predetermined luminance BVs, the process proceeds to step S66, and the distance measurement points [1], [4], and [7] have priority coefficients “1”. X2 ".

次に、ステップS67に於いて、ブロック[2]、[5]、[8]内で輝度比較がなされて、その変化の有無が判定される。ここで変化があれば、ステップS68に移行して、ブロック[2]の測距ポイントの輝度と、平均輝度BVvとが比較される。   Next, in step S67, luminance comparison is performed in the blocks [2], [5], and [8] to determine the presence or absence of the change. If there is a change, the process proceeds to step S68, and the brightness of the distance measurement point of block [2] is compared with the average brightness BVv.

そして、この比較判定で輝度が異なるならば、ステップS69に移行して、その測距ポイント[2]の輝度重み付けが“6(優先度係数P2 :2×6)”に設定される。一方、上記ステップS68にて、同様な輝度であれば、ステップS70に移行して、上記輝度重み付けは“2(優先度係数P2 :2×2)”に設定される。 If the comparison results in different luminances, the process proceeds to step S69 where the luminance weighting of the distance measurement point [2] is set to “6 (priority coefficient P 2 : 2 × 6)”. On the other hand, if the brightness is the same in step S68, the process proceeds to step S70, and the brightness weighting is set to “2 (priority coefficient P 2 : 2 × 2)”.

続いて、ステップS71にて、同様に、測距ポイント[5]の輝度と輝度BVvとが比較される。ここで、輝度が異なるならば、ステップS72に移行して、その測距ポイント[5]の輝度重み付けが“6(優先度係数P5 :3×6)”に設定される。一方、上記ステップS71にて、同様な輝度であれば、ステップS73に移行して、輝度重み付けが“2(優先度係数P5 :3×2)”に設定される。 Subsequently, in step S71, the luminance of the distance measuring point [5] and the luminance BVv are similarly compared. Here, if the luminances are different, the process proceeds to step S72, and the luminance weighting of the distance measuring point [5] is set to “6 (priority coefficient P 5 : 3 × 6)”. On the other hand, if the brightness is the same in step S71, the process proceeds to step S73, where the brightness weighting is set to “2 (priority coefficient P 5 : 3 × 2)”.

更に、測距ポイント[8]も同様に、ステップS74にて輝度BVvと比較される。そして、その測距ポイント[8]の輝度が異なるならば、ステップS75に移行して、輝度重み付けが“6(優先度係数P8 :2×6)”に設定される。一方、上記ステップS74にて同様な輝度であれば、ステップS76に移行して、輝度重み付けが“2(優先度係数P8 :2×2)”に設定される。 Further, the distance measuring point [8] is similarly compared with the luminance BVv in step S74. If the brightness of the distance measuring point [8] is different, the process proceeds to step S75, and the brightness weighting is set to “6 (priority coefficient P 8 : 2 × 6)”. On the other hand, if the brightness is the same in step S74, the process proceeds to step S76, and the brightness weighting is set to “2 (priority coefficient P 8 : 2 × 2)”.

次に、ステップS77にて、測距ポイント[3]、[9]の位置重み付けが“1”とされ、輝度重み付けが“3(優先度係数P3 ,P9 :1×3)”に設定される。更に、ステップS78では、測距ポイント[6]の位置重み付けが“2”とされ、輝度重み付けが“3(優先度係数P6 :2×3)”に設定される。 Next, in step S77, the position weights of the distance measurement points [3] and [9] are set to “1”, and the luminance weights are set to “3 (priority coefficients P 3 , P 9 : 1 × 3)”. Is done. Further, in step S78, the position weighting of the distance measuring point [6] is set to “2”, and the luminance weighting is set to “3 (priority coefficient P 6 : 2 × 3)”.

一方、上記ステップS67に於いて、ブロック[2]、[5]、[8]内の輝度比較で変化が無かった場合は、ステップS79に移行して、測距ポイント[5]の位置重み付けが“3”とされる。また、輝度重み付けが“2(優先度係数P5 :3×2)”に設定される。 On the other hand, if there is no change in the luminance comparison in the blocks [2], [5], and [8] in step S67, the process proceeds to step S79, where the position weighting of the distance measuring point [5] is performed. “3”. Also, the luminance weighting is set to “2 (priority coefficient P 5 : 3 × 2)”.

次いで、ステップS80では、測距ポイン[2]、[8]の位置重み付けが“2”とされ、輝度重み付けが“2(優先度係数P2 ,P8 :2×2)”に設定される。 Next, in step S80, the position weights of the distance measuring points [2] and [8] are set to “2”, and the luminance weight is set to “2 (priority coefficients P 2 , P 8 : 2 × 2)”. .

更に、ステップS81にて、ブロック[2]、[5]、[8]より下方のブロック[3]、[6]、[9]は、主要被写体が存在する確率が高いと想定して、測距ポイント[3]、[6]、[9]の輝度重み付けは、“6”に設定される。したがって、測距ポイント[3]、[9]の位置重み付けが“1”とされ、輝度重み付けが“6(優先度係数P3 ,P9 :1×6)”に設定される。そして、ステップS82にて、測距ポイント[6]の位置重み付けが“2”とされ、輝度重み付けが“6(優先度係数P6:2×6)”に設定される。この後、上記ステップS103に移行して、優先順位が決定される。 Further, in step S81, it is assumed that the blocks [3], [6], and [9] below the blocks [2], [5], and [8] have a high probability that the main subject exists. The luminance weights of the distance points [3], [6], and [9] are set to “6”. Accordingly, the position weights of the distance measuring points [3] and [9] are set to “1”, and the luminance weight is set to “6 (priority coefficients P 3 , P9: 1 × 6)”. In step S82, the position weighting of the distance measuring point [6] is set to “2”, and the luminance weighting is set to “6 (priority coefficient P6: 2 × 6)”. Thereafter, the process proceeds to step S103 and the priority order is determined.

また、上記ステップS42の判定に於いて、ブロック[3]、[6]、[9]が最上段であった場合には、カメラを立てて構えた縦長構図となり、最上段がブロック[3]、[6]、[9]、中段がブロック[2]、[5]、[8]、最下段がブロック[1]、[4]、[7]の縦長構図となり、上述したステップS63〜S82の構図とは上下を逆にカメラを構えた構図となる。   If the blocks [3], [6], and [9] are in the uppermost row in the determination in step S42, the vertical composition with the camera standing is set, and the uppermost row is the block [3]. , [6], [9], the middle row is a block [2], [5], [8], and the bottom row is a vertically long composition of blocks [1], [4], [7], and steps S63 to S82 described above. This is a composition with the camera upside down.

したがって、以下に述べるステップS83〜S102では、上述したステップS63〜S82の縦長構図に於ける優先度係数の設定を、ブロック[1]、[4]、[7]をブロック[3]、[6]、[9]に、ブロック[3]、[6]、[9]をブロック[1]、[4]、[7]に置換えると、測距ポイントを変えたのみで、同等のシーケンスとなる。   Therefore, in steps S83 to S102 described below, the setting of the priority coefficient in the vertical composition of steps S63 to S82 described above is performed by changing the blocks [1], [4], and [7] to the blocks [3] and [6. ], [9], and replacing blocks [3], [6], and [9] with blocks [1], [4], and [7], the same sequence can be obtained just by changing the ranging point. Become.

このような縦長構図では、ブロック[3]、[6]、[9]は、「空」である確率が高いので、ステップS83にて、平均輝度BVvが求められて判定基準とされる。次いで、ステップS84に於いて、この平均輝度BVvと所定輝度BVsとが比較される。ここで、所定の明るさ以上ならば、ステップS85に移行して、測距ポイント[3]、[6]、[9]の優先度係数P(P3 ,P6 ,P9 )が1×1とされる。 In such a vertically long composition, the blocks [3], [6], and [9] have a high probability of being “empty”, and therefore, in step S83, the average luminance BVv is obtained and used as a determination criterion. Next, in step S84, the average luminance BVv is compared with the predetermined luminance BVs. If the brightness is equal to or greater than the predetermined brightness, the process proceeds to step S85, and the priority coefficients P (P 3 , P 6 , P 9 ) of the distance measurement points [3], [6], [9] are 1 ×. It is set to 1.

尚、この構図に於ける位置重み付けは、測距ポイント[1]、[3]、[7]、[9]、[6]が“
1”、測距ポイント[2]、[4]、[8]が“2”、及び測距ポイント[5]が“3”と設定される。
The position weighting in this composition is that the distance measurement points [1], [3], [7], [9], [6] are “
1 ”, distance measurement points [2], [4], and [8] are set to“ 2 ”, and distance measurement point [5] is set to“ 3 ”.

また、上記ステップS84に於いて、平均輝度BVvが所定の輝度BVs以下であれば、ステップS86に移行して、測距ポイント[3]、[6]、[9]は優先度係数が“1×2”とされる。   In step S84, if the average luminance BVv is equal to or lower than the predetermined luminance BVs, the process proceeds to step S86, and the distance measurement points [3], [6], and [9] have priority coefficients “1”. X2 ".

次に、ブロック[2]、[5]、[8]に於ける輝度重み付け(ステップS87〜S102)は、上述したステップS67〜S82と同一のシーケンスであり、ブロック[2]、[5]、[8]の測距ポイント[2]、[5]、[8]の輝度と、平均輝度BVvと比較により決定される。   Next, the luminance weighting (steps S87 to S102) in the blocks [2], [5], and [8] is the same sequence as the steps S67 to S82 described above, and the blocks [2], [5], It is determined by comparing the brightness of the distance measuring points [2], [5] and [8] of [8] with the average brightness BVv.

次に、ステップS87に於いて、ブロック[2]、[5]、[8]の輝度比較の結果、輝度が異なるならば、ステップS88に移行して、その測距ポイント[2]の輝度が比較される。ここで、測距ポイント[2]が平均輝度BVvと異なれば、ステップS89に移行して優先度係数P2 :2×6に設定され、同じ輝度であれば、ステップS90に移行して優先度係数P2 :2×2に設定される。 Next, in step S87, if the luminance is different as a result of the luminance comparison of the blocks [2], [5], [8], the process proceeds to step S88, and the luminance of the distance measuring point [2] is To be compared. Here, if the distance measurement point [2] is different from the average brightness BVv, the process proceeds to step S89 and the priority coefficient P 2 is set to 2 × 6. If the brightness is the same, the process proceeds to step S90 and the priority is set. Coefficient P 2 is set to 2 × 2.

続いて、同様に、ステップS91にて、測距ポイント[5]が異なる輝度であれば、ステップS92に移行して優先度係数P5 :3×6に設定され、同じ輝度であれば、ステップS93に移行して優先度係数P5 :3×2に設定される。 Subsequently, similarly, in step S91, if the distance measurement point [5] has a different luminance, the process proceeds to step S92, and the priority coefficient P 5 is set to 3 × 6. The process proceeds to S93 and the priority coefficient P 5 is set to 3 × 2.

更に、ステップS94にて、測距ポイント[8]が異なる輝度であれば、ステップS95に移行して優先度係数P8 :2×6に設定され、同じ輝度であれば、ステップS96に移行して優先度係数P8 :2×2に設定される。 In step S94, if the distance measurement point [8] has a different luminance, the process proceeds to step S95 and the priority coefficient P 8 is set to 2 × 6. If the luminance is the same, the process proceeds to step S96. The priority coefficient P 8 is set to 2 × 2.

次に、ステップS97にて、測距ポイント[1]、[7]が優先度係数P3 ,P9 :1×3に設定され、更にステップS98にて、測距ポイント[4]が優先度係数P6 :2×3に設定される。 Next, in step S97, the distance measurement points [1] and [7] are set to the priority coefficients P 3 and P 9 : 1 × 3, and in step S98, the distance measurement point [4] is the priority. Coefficient P 6 is set to 2 × 3.

一方、上記ステップS87に於いて、ブロック[2]、[5]、[8]内の輝度比較で変化が無かった場合は、ステップS99に移行して、測距ポイント[5]が優先度係数P5 :3×2に設定され、続くステップS100にて、測距ポイン[2]、[8]が優先度係数P2 ,P8 :2×2に設定される。 On the other hand, if there is no change in the luminance comparison in the blocks [2], [5], and [8] in step S87, the process proceeds to step S99, and the distance measurement point [5] is assigned the priority coefficient. P 5 is set to 3 × 2, and in subsequent step S100, the distance measurement points [2] and [8] are set to the priority coefficients P 2 and P 8 : 2 × 2.

更に、ブロック[2]、[5]、[8]より下方のブロック[1]、[4]、[7]は、主要被写体が存在する確率が高いと想定されて、ステップS101にて、測距ポイント[1]、[7]が優先度係数P1 ,P7 :1×6に設定される。次いで、ステップS102にて、測距ポイント[4]が優先度係数P6 :2×6に設定される。 Further, blocks [1], [4], and [7] below blocks [2], [5], and [8] are assumed to have a high probability that a main subject exists, and in step S101, measurement is performed. The distance points [1] and [7] are set to the priority coefficients P 1 and P 7 : 1 × 6. Next, in step S102, the distance measurement point [4] is set to the priority coefficient P 6 : 2 × 6.

この後、上記ステップS103に移行して優先順位が決定される。   Thereafter, the process proceeds to step S103 and the priority order is determined.

以上説明したように、主要被写体の存在する確率を考慮した撮影画面内の位置、及び輝度の分布の解析によって、測距を行うべき測距ポイントの絞り込みが可能となる。   As described above, it is possible to narrow down the distance measurement points to be measured by analyzing the position in the shooting screen and the luminance distribution in consideration of the probability that the main subject exists.

図17(a)に示されるようなシーンに於いて、このように優先的に測距される領域が決定されると、図中[5]、[7]、[8]、[9]のエリアの優先度が高いとして、図17(b)に示されるような白丸印の測距点表示が、ファインダ内にスーパーインポーズ表示される。この技術は、ファインダ光学系中に挿入されたLCDのセグメントを、透過にしたり非透過にしたりすることによって実現することができる。   In the scene as shown in FIG. 17A, when the area to be preferentially measured is determined in this way, [5], [7], [8], [9] Assuming that the priority of the area is high, a distance measuring point display with white circles as shown in FIG. 17B is displayed superimposed on the finder. This technique can be realized by making the LCD segment inserted in the finder optical system transparent or non-transmissive.

また、このポイントからのユーザによる選択は、カメラ外装に設けられた選択スイッチ14を押すことによって、図17(c)に示されるように、優先順位の高いものから、順次表示が切換わるようにすれば良い。   Also, the selection by the user from this point is such that the display is sequentially switched from the one with the highest priority as shown in FIG. 17C by pressing the selection switch 14 provided on the exterior of the camera. Just do it.

こうして、ユーザが意図したポイントに選択表示が来た時に、レリーズ釦を押し込めば、ユーザの思いどおりの所に簡単にピント合わせをすることができる。   Thus, if the release button is pushed when the selection display comes to the point intended by the user, the user can easily focus on the desired position.

次に、第1の実施の形態の変形例について説明する。   Next, a modification of the first embodiment will be described.

上述した第1の実施の形態に於いて、選択スイッチ14を、図18に示されるような操作部材38にすることにより、更に操作性のよいカメラにすることができる。   In the first embodiment described above, the selection switch 14 can be an operation member 38 as shown in FIG.

図18(a)に於いて、カメラ27の前面部には撮影レンズ34が設けられており、背面部の中央部にはファインダ接眼部が設けられている。また、カメラ27の上部IF、フィルム駒数を表示するための液晶パネル36と、レリーズスイッチ37と、上方からの押し方によって前後左右に傾いてスイッチオンする、十字形状の操作部材38が配置されている。   In FIG. 18A, a photographing lens 34 is provided on the front surface of the camera 27, and a viewfinder eyepiece is provided in the center of the back surface. In addition, an upper IF of the camera 27, a liquid crystal panel 36 for displaying the number of film frames, a release switch 37, and a cross-shaped operation member 38 that is tilted back and forth and left and right when pressed from above are arranged. ing.

このカメラ27のCPU40には、図18(b)に示されるように、上記操作部材38の押され方によってオン、オフするスイッチ38a〜38dが接続されており、これらのスイッチ38a〜38dの状態に応じてユーザの操作が検出されるようになっている。例えば、操作部材38の前の方を押せば(スイッチ38aオン)測距ポイント候補が下に、後ろの方を押せば(スイッチ38bオン)候補が上になる。また、操作部材38を左右に押せば(スイッチ38cオン/スイッチ38dオン)、それに応じて測距ポイントの表示が変化する。   As shown in FIG. 18 (b), the CPU 27 of the camera 27 is connected to switches 38a to 38d that are turned on and off depending on how the operation member 38 is pushed, and the states of these switches 38a to 38d. The user's operation is detected according to the above. For example, if the front of the operation member 38 is pressed (switch 38a is on), the distance measuring point candidate is down, and if the back is pressed (switch 38b is on), the candidate is up. If the operation member 38 is pushed left and right (switch 38c on / switch 38d on), the display of the distance measuring point changes accordingly.

そして、図19に示されるフローチャートに従ってCPU40がカメラを制御すれば、上記スイッチ38a〜38dを有効に使った撮影を行うことができる。   And if CPU40 controls a camera according to the flowchart shown in FIG. 19, imaging | photography using the said switches 38a-38d can be performed effectively.

先ず、ステップS111に於いて、操作部材38が操作されて、スイッチ38a〜38dの何れの方向にダブルクリックでオンされたことが判定されると、ステップS112に移行して、上述した図11乃至図14のようなフローチャートによりシーンが判定される。これにより、図17(b)に示されるように測距候補点がファインダ内に表示される。   First, in step S111, when the operation member 38 is operated and it is determined that the switch 38a to 38d is turned on by double clicking, the process proceeds to step S112, and the above-described FIGS. A scene is determined by a flowchart as shown in FIG. As a result, distance measurement candidate points are displayed in the viewfinder as shown in FIG.

そして、ステップS113にて、測距ポイントの候補表示によってファインダ内表示がなされる。次いで、ステップS114に於いて、操作部材38の操作によりユーザの操作が判定される。   In step S113, the display in the finder is performed by the candidate display of the distance measurement point. Next, in step S <b> 114, a user operation is determined by operating the operation member 38.

例えば、図17(a)に示されるように、例えば柵の向こう側に山が見えるシーンでは、図16(c)に示される山の前の人物のシーンと極めて類似のシーンとなるので、手前の柵にピントが合う確率が高まる。しかしながら、上記候補表示によってファインダ内表示がなされるので、操作部材38の操作によりユーザの操作が判定され、その操作の方向に測距ポイント表示が切換わる。   For example, as shown in FIG. 17 (a), for example, in a scene where a mountain can be seen over the fence, the scene is very similar to the scene of the person in front of the mountain shown in FIG. 16 (c). The probability of focusing on the fence increases. However, since the display in the finder is performed by the candidate display, the operation of the user is determined by the operation of the operation member 38, and the distance measurement point display is switched in the direction of the operation.

上記ステップS114にて操作方向が検知された場合は、ステップS115に移行して測距ポイントの候補点が検出される。ここで、該候補点が存在する場合は、ステップS116に移行して選択点が決定されたことにより、該選択点が点灯される。その後、上記ステップS114に移行する。   When the operation direction is detected in step S114, the process proceeds to step S115, and a distance measurement point candidate point is detected. Here, if the candidate point exists, the process proceeds to step S116 and the selected point is turned on when the selected point is determined. Thereafter, the process proceeds to step S114.

一方、上記ステップS115にて、候補点が存在しない場合には上記ステップS116の選択点点灯には移行せずに上記ステップS114に移行する。   On the other hand, if there is no candidate point in step S115, the process proceeds to step S114 without shifting to the selected point lighting in step S116.

このように、ステップS114〜S116のループでは、ユーザはファインダ画面を見ながら測距ポイントの切換えを行うことができ、候補点の中の任意のポイントにピント合わせをすることができる。尚、候補点以外を選択可能な仕様にすると、測距点が増加した場合に選択操作が困難になるので、ここでは説明は省略する。   As described above, in the loop of steps S114 to S116, the user can switch the distance measuring point while looking at the finder screen, and can focus on an arbitrary point among the candidate points. In addition, if the specifications other than the candidate points can be selected, the selection operation becomes difficult when the number of distance measuring points increases, and therefore the description thereof is omitted here.

上記ステップS114に於いて、方向検知がなされない場合は、続いてステップS117にてレリーズスイッチ37のオン、オフが判定される。ここで、再測距を行いたい場合、すなわちレリーズスイッチ37がオンされない場合は、ステップS118に移行して再度操作部材38の何れかのスイッチ38a〜38dがダブルクリックされる。その後、上記ステップS117に移行する。   If the direction is not detected in step S114, it is determined in step S117 whether the release switch 37 is on or off. Here, when it is desired to perform distance measurement again, that is, when the release switch 37 is not turned on, the process proceeds to step S118, and any one of the switches 38a to 38d of the operation member 38 is double-clicked again. Thereafter, the process proceeds to step S117.

上記ステップS117でレリーズスイッチ37がオンされると、続くステップS119にて選択点が判定される。ここで、選択点が決定されれば、ステップS120に移行して、その測距ポイントにピント合わせが行われる。一方、選択点が無い場合、すなわち選択動作前にレリーズされた場合には、ステップS121に移行して、最も優先度の高い点にピント合わせが行われる。そして、ステップS122にて、撮影が行われる。   When the release switch 37 is turned on in step S117, the selected point is determined in subsequent step S119. Here, if the selected point is determined, the process proceeds to step S120, and focusing is performed on the distance measuring point. On the other hand, when there is no selection point, that is, when the release is performed before the selection operation, the process proceeds to step S121, and the point with the highest priority is focused. In step S122, shooting is performed.

以上説明したように、この変形例では、十字形状の操作部材で前後左右に押し込み操作することにより、候補ポイントのうち任意のポイントに迅速にピント合わせを行うことができる。   As described above, in this modification, it is possible to quickly focus on an arbitrary point among the candidate points by performing a front-rear and left-right pushing operation with the cross-shaped operation member.

図17(a)に示されるシーンの例をとると、操作部材38の左釦(スイッチ38d)で[7]、右釦(スイッチ38c)で[9]、前方の釦(スイッチ38b)が押されれば[8]、後方の釦(スイッチ38a)が押されれば[5]のポイントが選択され、それらの選択ポイントがファインダに表示されるので、ユーザが誤ることのない簡単な操作での撮影が可能となる。   In the example of the scene shown in FIG. 17A, the left button (switch 38d) of the operating member 38 is [7], the right button (switch 38c) is [9], and the front button (switch 38b) is pressed. If this is done, [8] and if the rear button (switch 38a) is pressed, the points [5] will be selected, and those selected points will be displayed in the viewfinder, so that the user can make simple operations without error. Can be taken.

また、カメラの測距装置の撮像機能を有効利用して、図20及び図21に示されるように、撮影者が測距ポイント付近を指さして、それをカメラが検出することにより、選択できるようにしても良い。   Further, by effectively using the imaging function of the camera distance measuring device, as shown in FIGS. 20 and 21, the photographer points to the vicinity of the distance measuring point and can be selected by detecting the camera. Anyway.

図20(a)に示されるように、[5]のポイント付近を指させば、[5]のポイントが選択表示されてピント合わせポイントとなる。また、図20(b)に示されるように、[9]のポイントを指させば、[9]のポイントが表示され、ピント合わせできるようにすれば、上述した変形例に於ける操作部材38のように特別なスイッチを必要とすることなく、簡単にピント合わせポイントを決定することができる。   As shown in FIG. 20A, when pointing near the point [5], the point [5] is selected and displayed as a focusing point. Further, as shown in FIG. 20B, when the point [9] is pointed, the point [9] is displayed, and if the focus can be achieved, the operation member 38 in the above-described modification example. Thus, the focus point can be determined easily without requiring a special switch.

図21は、指さしによる操作シーンを表したものである。図21に於いて、り、ユーザ42は、カメラ27ファインダを覗きながらカメラ27の画面43を確認し、左手で主要被写体10を指さして、測距ポイントを選択している。   FIG. 21 shows an operation scene with a pointing finger. In FIG. 21, the user 42 confirms the screen 43 of the camera 27 while looking through the camera 27 finder, and points to the main subject 10 with the left hand to select a distance measuring point.

また、図22に示されるようなフローチャートを用いて、カメラのCPUが図8に示されるようなエリアセンサを用いて画面内の像信号を何度もモニタして、撮影者の指が画面内に入ってきたか否かを検出し、像変化があれば、その変化位置の先端付近の測距ポイントを選択するようにすれば、ユーザの思いどおりのポイントにピント合わせをすることができる。   Also, using the flowchart as shown in FIG. 22, the camera CPU monitors the image signal in the screen many times using the area sensor as shown in FIG. If there is a change in the image and if a change in image is detected, a distance measuring point near the tip of the change position can be selected to focus on the point as desired by the user.

先ず、ステップS131にて、ユーザのレリーズ釦半押し(ファーストレリーズスイッチのオン)が検出されると、続くステップS132にて画面内が撮像されて、上述したような手順で優先ポイントが決定され、ステップS133にてその優先ポイントが表示される。また、この優先ポイントは、ステップS134で記憶され、ステップS135にて、再度画面内撮像が行われる。   First, in step S131, when it is detected that the user has pressed the release button halfway (the first release switch is turned on), in the subsequent step S132, the inside of the screen is imaged, and the priority point is determined by the procedure as described above. In step S133, the priority points are displayed. The priority points are stored in step S134, and in-screen imaging is performed again in step S135.

そして、ステップS136に於いて、上記ステップS132で得られた撮像データZ1 と上記ステップS135で得られた撮像データZ2 とが比較される。ここで、変化があった場合は、ステップS137及びS138に移行して、選択ポイントの判定、表示が行われる。 Then, in step S136, the imaging data Z 2 obtained by the imaging data Z 1 and the step S135 obtained in step S132 are compared. Here, when there is a change, the process proceeds to steps S137 and S138, and the selection point is determined and displayed.

この状態で、ステップS139に於いて、レリーズ釦が押し込まれる、すなわちセカンドレリーズスイッチの状態が判定される。ここで、セカンドレリーズスイッチがオン(レリーズ釦全押し)されていなければ、ステップS140に移行して、ファーストレリーズスイッチの状態(レリーズ釦の半押し状態)が検出される。ここで、レリーズ釦の半押しがされていないと、リセットされて上記ステップS131に移行する。一方、半押し状態では、上記ステップS135の再度撮像のステップに移行し、何度でも指さし動作をやり直し可能となる。   In this state, in step S139, the release button is depressed, that is, the state of the second release switch is determined. Here, if the second release switch is not turned on (the release button is fully pressed), the process proceeds to step S140, and the state of the first release switch (half-pressed state of the release button) is detected. Here, if the release button is not half-pressed, the release button is reset and the process proceeds to step S131. On the other hand, in the half-pressed state, the process proceeds to the imaging step again in step S135, and the pointing operation can be performed again and again.

そして、上記ステップS139にて、セカンドレリーズスイッチがオンされていれば、ステップS141に移行して、その選択ポイントが測距され、ステップS142にて撮影がなされる。   If the second release switch is turned on in step S139, the process proceeds to step S141, the selected point is measured, and shooting is performed in step S142.

また、上述したステップS131のファーストレリーズスイッチオンの検出ステップでは、ユーザは指さしを行わないでおくようにして、ファーストレリーズスイッチのオンの後、指さし決定を行う仕様で、この2つのタイミングでの像変化を利用すれば、より単純で余計な操作のない撮影を楽しむことができる。   Further, in the above-described detection step of the first release switch on in step S131, the user does not perform pointing, and the image at these two timings is determined so that the pointing is determined after the first release switch is turned on. By using changes, you can enjoy shooting with simpler and no extra operations.

更に、図23に示されるように、レーザポインタ45を用いてユーザ42が測距したいポイントを指示し、カメラは、レーザポインタの波長やスポットの形状をエリアセンサ等で判断し、そのポイント近くの測距ポイント46に対し、ピント合わせを行うようにしても良い。   Further, as shown in FIG. 23, the user 42 indicates a point to be measured using the laser pointer 45, and the camera determines the wavelength of the laser pointer and the shape of the spot with an area sensor or the like, and near the point. You may make it focus on the ranging point 46. FIG.

この場合、図24のフローチャートに従って撮影が行われる。   In this case, shooting is performed according to the flowchart of FIG.

すなわち、ステップS151にて画面無いが撮像されると、続くステップS152にて、レーザポインタ45による測距ポイントの判定、検出が行われる。次いで、ステップS153にて、上記レーザポインタ45で支持された点に最も近い測距ポイントが選択される。そして、ステップS154にて、この選択された測距ポイントにピントが合わせられる。   In other words, if there is no screen in step S151, the distance measurement point is determined and detected by the laser pointer 45 in subsequent step S152. In step S153, the distance measuring point closest to the point supported by the laser pointer 45 is selected. In step S154, the selected distance measuring point is focused.

このように、第1の実施の形態による選択部、切換スイッチ手段は、必ずしもカメラに取付けられているものに限定されるものではない。   Thus, the selection unit and the changeover switch means according to the first embodiment are not necessarily limited to those attached to the camera.

また、撮像センサ等、カメラのセンサ機能を有効に活用した、上述した操作部材等のスイッチにてユーザの意図を反映するようにしても良い。   Further, the user's intention may be reflected by a switch such as the above-described operation member that effectively uses the sensor function of the camera such as an imaging sensor.

以上述べた第1の実施の形態では、複数のポイントから手動選択する例を説明したが、以下に述べる実施の形態では、最も優先度の高いもののみ表示し、ユーザーのスイッチ操作があった時に、次の候補点が出るような応用例を示している。この方がたくさんの表示が一度に出ることなく、より画面内をすっきりさせることができる。また、スイッチ操作としては、ユーザの視線の動きを検出して判定するものが考えられる。   In the first embodiment described above, an example in which manual selection is performed from a plurality of points has been described. However, in the embodiment described below, only the highest priority is displayed and when the user performs a switch operation. This shows an application example in which the next candidate point appears. This can make the screen clearer without having to display many displays at once. Moreover, as switch operation, what detects and determines the motion of a user's eyes | visual_axis can be considered.

図25は、この発明の第2の実施の形態を示すもので、(a)はカメラの内部構成を示すブロック図であり、(b)は該カメラの外観斜視図である。   FIGS. 25A and 25B show a second embodiment of the present invention. FIG. 25A is a block diagram showing the internal configuration of the camera, and FIG. 25B is an external perspective view of the camera.

図25(a)に於いて、CPU50はカメラのシーケンス制御や各種演算を行うためのワンチップマイクロコンピュータ等から成る演算制御手段である。このCPU50は、内部に像検知部51、相関演算部52及び表示制御部53を有している。   In FIG. 25 (a), a CPU 50 is a calculation control means comprising a one-chip microcomputer or the like for performing camera sequence control and various calculations. The CPU 50 includes an image detection unit 51, a correlation calculation unit 52, and a display control unit 53 inside.

上記CPU50には、レリーズスイッチ等から成るスイッチ群54が接続されると共に、測距部55や図示されない測光部が接続されている。   The CPU 50 is connected to a switch group 54 including release switches and the like, and to a distance measuring unit 55 and a photometric unit (not shown).

上記測距部55は、投光部57を駆動するためのドライバ56と、図示されない被写体に測距用光を投射する投光部57と、該被写体からの反射光を導く受光レンズ58a及び58bと、上記反射光を結像させるセンサアレイ59a及び59bと、これらセンサアレイ59a及び59bの信号出力をA/D変換するA/Dコンバータ60とから構成される。   The distance measuring unit 55 includes a driver 56 for driving the light projecting unit 57, a light projecting unit 57 that projects distance measuring light onto a subject (not shown), and light receiving lenses 58a and 58b that guide reflected light from the subject. And sensor arrays 59a and 59b for imaging the reflected light, and an A / D converter 60 for A / D converting the signal outputs of the sensor arrays 59a and 59b.

上記CPU50には、また、露出制御部63及びピント合わせ部64と、ズームレンズ65の位置を検知するズーム検知部66と、ファインダ光学系68内に挿入された表示用の液晶(LCD)67と、撮影者の視線を検知する視線検知部69とが接続されている。   The CPU 50 also includes an exposure control unit 63 and a focusing unit 64, a zoom detection unit 66 that detects the position of the zoom lens 65, and a display liquid crystal (LCD) 67 inserted in the finder optical system 68. A gaze detection unit 69 that detects the gaze of the photographer is connected.

また、図25(b)に示されるように、カメラボディ70には、その前面部に撮影レンズ71が設けられると共に、測距窓72、ファインダ73、ストロボ74等が、設けられている。   As shown in FIG. 25B, the camera body 70 is provided with a photographing lens 71 on the front surface thereof, and a distance measuring window 72, a finder 73, a strobe 74, and the like.

上記CPU50は、上述したように、図示されない測光部や測距部55を制御し、その出力に従って、露出制御部63やピント合わせ部64を制御して、正しくピントの合った正確な露出の写真撮影を行う。カメラの撮影レンズ71にズームレンズ65が採用されると画角が変えられるため、それに応じた測距・測光や表示制御が必要となる。したがって、ズーム位置を検知するズーム検知部66により、CPU50にズーム情報が入力される。更に、ズーミングによってファインダ73の画像も機械的に連動する。   As described above, the CPU 50 controls the photometry unit and the distance measurement unit 55 (not shown), and controls the exposure control unit 63 and the focusing unit 64 according to the output to accurately photograph the correct exposure in focus. Take a picture. When the zoom lens 65 is adopted as the camera taking lens 71, the angle of view is changed, and accordingly distance measurement / photometry and display control are required. Therefore, zoom information is input to the CPU 50 by the zoom detection unit 66 that detects the zoom position. Furthermore, the image of the finder 73 is also mechanically linked by zooming.

このように得られた各種情報を、ファインダ光学系の間に設けられたLCD67上に表示するために、CPU50はこれらのセグメントの点灯、消灯制御を行う表示制御部53を有している。   In order to display the various information thus obtained on the LCD 67 provided between the finder optical systems, the CPU 50 has a display control unit 53 that controls the turning on and off of these segments.

上記測距部55は、一対の受光レンズ58a、58b及び一対のセンサアレイ59a、59bを有しており、図示されない被写体の像信号をA/Dコンバータ60にてA/D変換し、CPU50に出力する。   The distance measuring unit 55 includes a pair of light receiving lenses 58a and 58b and a pair of sensor arrays 59a and 59b. The A / D converter 60 performs A / D conversion on a subject image signal (not shown), and the CPU 50 Output.

受光レンズ58a、58bは、視差となる基線長分の距離Bだけ離して配置されているので、受光レンズ58a、58bの焦点距離fと、被写体距離Lの関係より、2つのセンサアレイ59a、59b上には、相対位置xだけずれた所に同じ像が結ぶことになる。この三角測距の原理より、像のずれ量xを求めれば被写体距離Lが算出できることがわかる。   Since the light receiving lenses 58a and 58b are arranged apart from each other by a distance B corresponding to the base line length as parallax, the two sensor arrays 59a and 59b are determined by the relationship between the focal length f of the light receiving lenses 58a and 58b and the subject distance L. On the top, the same image is formed at a position shifted by the relative position x. From this principle of triangulation, it is understood that the subject distance L can be calculated by obtaining the image shift amount x.

また画面の広い範囲を測距するためには、例えば、光軸からθだけずらした所を測距する場合は、図中に破線で示されるように
a=ftan θ …(8) の所のセンサを基準にして、相対ズレ量を検出すれば良い。
In addition, in order to measure a wide range of the screen, for example, when measuring a place shifted by θ from the optical axis, as shown by a broken line in the figure.
It is only necessary to detect the relative deviation amount with reference to the sensor at a = ftan θ (8).

このような構成のカメラならば、図26(a)に示されるような主要被写体77がファインダ画面76の中央に存在しないシーンでもピントを合わせることができる。   With the camera having such a configuration, it is possible to focus even in a scene where the main subject 77 as shown in FIG. 26A does not exist in the center of the finder screen 76.

図26(b)は、このようなシーンで得られる像信号を示したものであるが、背景が壁等から主要被写体である人物の所に、特徴的な像信号変化がみられる。したがって、図27のようなフローチャートでこの変化を検出し、それが画面右側ならば、ファインダ画面内のLCDセグメント78のうち、右側のLCDセグメント79を点灯させれば、図26(c)に示されるように、画面内に測距ポイントが表示されて、正しく撮影したい被写体が測距され、撮影者はその被写体にピントが合うことを認識することができ、安心して撮影を楽しむことができる。   FIG. 26B shows an image signal obtained in such a scene. A characteristic image signal change is observed at a person whose background is the main subject from a wall or the like. Therefore, if this change is detected in the flowchart as shown in FIG. 27 and it is the right side of the screen, the right LCD segment 79 of the LCD segments 78 in the finder screen is turned on, as shown in FIG. As shown in the figure, a distance measuring point is displayed on the screen, the subject to be photographed correctly is measured, and the photographer can recognize that the subject is in focus, so that the user can enjoy photographing with peace of mind.

すなわち、図27のフローチャートに於いて、先ずステップS161にて被写体の像信号が入力されると、続くステップS162及びS163にて、左右のエッジが判定される。次いで、ステップS164にて上記ステップS162及びS163で判定された左右エッジの中央部分の座標が判定される。そして、ここで判定された座標のLCDセグメントが選択されて、例えば図26(c)に示されるように点灯される。   That is, in the flowchart of FIG. 27, when an object image signal is first input in step S161, the left and right edges are determined in subsequent steps S162 and S163. Next, in step S164, the coordinates of the central portion of the left and right edges determined in steps S162 and S163 are determined. Then, the LCD segment of the coordinates determined here is selected and turned on as shown in FIG. 26C, for example.

また、このように測距ポイントを十字状のセグメントで表し、その中央部を見えるようにしたので、被写体の表情等がよく確認でき、すっきりっとした画面にすることが可能となる。   In addition, since the distance measuring point is represented by a cross-shaped segment so that the center portion can be seen in this way, the facial expression of the subject can be well confirmed, and a clean screen can be obtained.

また、図28に示されるようなシーンでは、カメラが誤って手前の木にピントを合わせるケースがある。この場合、撮影者が図示されない操作釦を押すことにより、次の測距ポイントの候補に切り換えるようにしても良い。   Further, in the scene as shown in FIG. 28, there is a case where the camera mistakenly focuses on the front tree. In this case, the photographer may switch to the next distance measuring point candidate by pressing an operation button (not shown).

例えば、写真の8割以上は画面中央部に主要被写体が存在するので、この実施の形態では、変更操作によって画面中央部に測距ポイントを移し、正しく被写体の城にピントを合わせることを可能とした。また、主要被写体が判別できないシーンでは、画面中央に表示をリセットする仕様にしても良い。   For example, since more than 80% of the photos have a main subject in the center of the screen, in this embodiment, it is possible to move the distance measuring point to the center of the screen by a change operation and to correctly focus on the castle of the subject. did. In a scene where the main subject cannot be identified, the display may be reset to the center of the screen.

また、この操作であるが、わざわざ指を使用して変更するのは大変なので、図29に示されるように、視線検知によるファインダ光学系を構成して使用しても良い。   Although this operation is difficult to change by using a finger, as shown in FIG. 29, a finder optical system based on line-of-sight detection may be configured and used.

すなわち、ファインダ光学系80に於いて、対物レンズ81より入射される被写体像と共に、プリズム82や赤外発光ダイオード(IRED)83を用いて、接眼レンズ84を介して撮影者の目に赤外光が照射される。そして、その反射光が、マスクLCD85を介してフォトダイオード86で受光されるようにする。   That is, in the finder optical system 80, infrared light is photographed by the photographer through the eyepiece 84 using the prism 82 and the infrared light emitting diode (IRED) 83 together with the subject image incident from the objective lens 81. Is irradiated. The reflected light is received by the photodiode 86 through the mask LCD 85.

上記マスクLCD85は、光路中に図30(c)に示されるように、開口部90が切換えられるように配置されている。マスクLCD85の開口部を切換えることにより、何れの開口部を開いた時が一番反射光が入射するかの判定を行って、視線の方向を判別できるようにすれば、撮影者の目の動きで測距ポイントを切換えることが可能となる。   The mask LCD 85 is arranged so that the opening 90 is switched in the optical path as shown in FIG. If the opening of the mask LCD 85 is switched to determine which opening is opened and the most reflected light is incident so that the direction of the line of sight can be determined, the movement of the photographer's eyes It becomes possible to switch the distance measurement point.

例えば、図30(a)に示されるような目89の配置ならば、S1とS3の開口部に白目の部分があるので、S1、S3の開口部を開いた時に、フォトダイオードに入射するIREDによる反射信号光が多くなる。   For example, in the case of the arrangement of the eyes 89 as shown in FIG. 30 (a), since there are white eye portions in the openings of S1 and S3, the IRED that enters the photodiode when the openings of S1 and S3 are opened. The reflected signal light due to increases.

しかしながら、図30(b)に示されるように視線をずらすと、S3の信号光は減少してS2の開口部を開いた時の反射光が多くなる。撮影者がレリーズ釦を半押し状態にして、第1候補を表示した後、このような考え方でカメラのCPUが図31のようなフローチャートでIREDやマスクを制御して目の動きを検出すれば、撮影者が測距ポイントを切換えたい時に目を動かすだけで、測距ポイントが切換わり、手動の動作は不要となる。   However, when the line of sight is shifted as shown in FIG. 30 (b), the signal light of S3 decreases and the reflected light increases when the opening of S2 is opened. After the photographer presses the release button halfway and displays the first candidate, if the camera CPU detects the movement of the eye by controlling the IRED and mask in the flowchart as shown in FIG. When the photographer wants to switch the distance measuring point, he / she only moves his / her eyes to switch the distance measuring point, eliminating the need for manual operation.

図31のフローチャートを参照すると、先ず、ステップS171にて像検出が行われて第1候補が表示される。次いで、ステップS172にて、セカンドレリーズスイッチがオンされていれば、ステップS173に移行して通常の撮影シーケンスが実行される。   Referring to the flowchart of FIG. 31, first, image detection is performed in step S171, and the first candidate is displayed. Next, in step S172, if the second release switch is turned on, the process proceeds to step S173 and a normal imaging sequence is executed.

一方、セカンドレリーズスイッチがオンされていなければ、ステップS174に移行して、赤外発光ダイオード83が照射される。そして、ステップS175及びS176にて、順次開口部が変更されて反射信号光の大きい2つのブロックS01、S02が記憶される。 On the other hand, if the second release switch is not turned on, the process proceeds to step S174, and the infrared light emitting diode 83 is irradiated. In steps S175 and S176, the openings are sequentially changed, and two blocks S 01 and S 02 having a large reflected signal light are stored.

次に、ステップS177に於いて、上記2つのブロックS01、S02が比較される。その結果、変化があれば、視線が変化したとしてステップS178に移行し、測距ポイントが変更される。 Next, in step S177, the two blocks S 01 and S 02 are compared. As a result, if there is a change, it is determined that the line of sight has changed, and the process proceeds to step S178, where the distance measuring point is changed.

つまり、2回全ての開口部を順次開きながら反射信号光の多い2つのブロックを選び、その間隔が変化するか否かで視線の動きがあったか否かを判定する。そして、視線の動きがあった場合には、撮影者が測距ポイントを気に入っていると判断して、次に優先度の高いポイントに表示を切換え、そのポイントに対して測距を行ってピント合わせを行うようにする。   That is, two blocks with a lot of reflected signal light are selected while sequentially opening all the openings twice, and it is determined whether or not there is a movement of the line of sight depending on whether or not the interval changes. If there is a movement of the line of sight, the photographer determines that he / she likes the distance measuring point, switches the display to the next highest priority point, performs distance measurement on that point, and focuses. Make adjustments.

これによって、撮影者は煩わしい手動動作から開放されてレリーズ動作に集中でき、目の動きだけで測距ポイントの選択が行うことができる。   As a result, the photographer is freed from the troublesome manual operation and can concentrate on the release operation, and the distance measuring point can be selected only by the movement of the eyes.

尚、撮影者が見たポイントを判別して、そのポイントにピント合わせをするようにしても良いが、技術が複雑でコストがかかるわりに、撮影者が必ずしも撮影したいものばかりを見ているわけではないことがわかっている。   It is possible to determine the point that the photographer saw and focus on that point, but the technique is complicated and expensive, but the photographer does not always see what he wants to shoot. I know it ’s not there.

そのため、この第2の実施の形態では、カメラが画面内の測距ポイントのうち、予め自動的に優先順位を決定し、それに追加・補助する形で撮影者の目の動き等の動作または操作を加味したので、非常に簡単で精度の高いピント合わせが可能となる。   Therefore, in this second embodiment, the camera automatically determines priorities among the distance measuring points on the screen in advance, and adds or assists the operations or operations such as the eye movement of the photographer. Because of this, it is very easy to focus with high accuracy.

ところで、ファインダとAF用受光レンズが別の光学系であると、視差(パララックス)によって、測距ポイントと表示ポイントに誤差が生じやすい。   By the way, if the finder and the AF light-receiving lens are separate optical systems, an error is likely to occur between the distance measurement point and the display point due to parallax.

ここで、図32を参照して、上述したパララックスを考慮した画面内表示制御方法について説明する。   Here, with reference to FIG. 32, the in-screen display control method considering the above-described parallax will be described.

先に説明した像信号による主要被写体位置検出によって、図32にθ1 の方向に主要被写体がいると判定され、尚且つその被写体の距離が上述の方法で検出されていて、これをLとすると、ファインダ内ではその光軸を基準に右側に
S−L・tan θ1 …(9) の位置に上記被写体が見えることになる。ここで、Sは2つの光学系の視差である。
By detecting the main subject position based on the image signal described above, it is determined that the main subject is present in the direction θ 1 in FIG. 32, and the distance of the subject is detected by the above-described method. In the viewfinder, on the right side with respect to the optical axis
The above-mentioned subject can be seen at the position of S · L · tan θ 1 (9). Here, S is the parallax between the two optical systems.

ファインダ内の基準位置を画面端部(図32に於ける「枠基準位置」)にとると、この基準位置からファインダ光軸までの距離が
1 tan φ1 …(10) であるので(ここでφ1 は光軸からファインダの画角端までの角度)、基準位置から、測距ポイントまでの距離は
1 tan φ1 +S−L1 tan θ1 …(11) となる。
If the reference position in the viewfinder is the edge of the screen (“frame reference position” in FIG. 32), the distance from this reference position to the viewfinder optical axis is
Since L 1 tan φ 1 (10) (where φ 1 is the angle from the optical axis to the view angle end of the viewfinder), the distance from the reference position to the distance measurement point is
L 1 tan φ 1 + S−L 1 tan θ 1 (11)

ここで、表示用LCDがドットマトリクスタイプのものであるとし、画面の端から端までを、図33に示されるように、H個のセグメントで埋めることのできるLCDがファインダ内に収められているとする。このH個が上記L1 tan θ1 の2倍に対応するため、測距ポイントに対応するセグメントは、上記H個のうち、
H×(tan φ1 +S/L−tam θ1 )/(2・tan φ1 )番目
=x1 番目 …(12) のものとなる。尚、上記(12)式でHを除いた(tan φ1 +S/L−tam θ1 )/(2・tan φ1 )の部分は、枠比と称することとする。
Here, it is assumed that the display LCD is of a dot matrix type, and an LCD that can be filled with H segments as shown in FIG. 33 is housed in the finder. And Since the H pieces correspond to twice the L 1 tan θ 1 , the segment corresponding to the distance measuring point is the H segment among the H pieces.
H × (tan φ 1 + S / L-tam θ 1 ) / (2.tan φ 1 ) th
= X 1st (12) The portion of (tan φ 1 + S / L-tam θ 1 ) / (2 · tan φ 1 ) excluding H in the above equation (12) is referred to as a frame ratio.

したがって、このセグメントを消灯し、その上下左右のセグメントを2つずつ点灯させれば、図33(b)に示されるようなセグメントの表示が可能となる。   Therefore, if this segment is turned off and the upper, lower, left, and right segments are turned on two at a time, the segment can be displayed as shown in FIG.

また、この消灯制御によって、被写体の様子を見やすくしている。画面上下方向にも測距ポイントが広げられる場合、左右方向の枠比(枠比1)だけでなく、上下方向の枠比(枠比2)を考慮して、ファインダ内表示の制御が必要である。   In addition, this lighting control makes it easy to see the subject. When the distance measurement point is extended in the vertical direction of the screen, it is necessary to control the display in the viewfinder in consideration of not only the horizontal frame ratio (frame ratio 1) but also the vertical frame ratio (frame ratio 2). is there.

図34に示されるように、上下方向の画角をφ2 として表し、測距ポイントをθ2 とすると、画面枠上端基準の測距ポイント位置の画角に対する比率(枠比2)は、
(tan φ2 −tan θ2 )/2tan φ2 …(13) となるので、図33(a)に示されるように、画面内上下方向にT個のセグメントが並んだLCDを想定すると、上から
T(tan φ2 −tan θ2 )/(2・tan φ2 )番目=y1 番目
…(14) のセグメントの所に被写体が存在すると考えられている。
As shown in FIG. 34, if the angle of view in the vertical direction is expressed as φ 2 and the distance measuring point is θ 2 , the ratio (frame ratio 2) to the angle of view of the distance measuring point position based on the upper end of the frame is
Since (tan φ 2 -tan θ 2) / 2tan φ 2 ... become (13), as shown in FIG. 33 (a), assuming an LCD lined T segments within the screen vertically, the upper From
T (tan φ 2 −tan θ 2 ) / (2.tan φ 2 ) th = y 1st
... It is considered that the subject exists in the segment (14).

したがって、図33(b)に示されるような表示を上下に移動させる場合は、上下方向に関しては、この関係から点灯、消灯制御を行うようにする。   Therefore, when the display as shown in FIG. 33B is moved up and down, the lighting and extinguishing control is performed from this relationship in the vertical direction.

つまり、xy座標形式で表現すると、
(x1 ,y1 )=(H×枠比1、T×枠比2) …(15) のポイントを消灯させ、その上下2セグメントずつを点灯させれば、図33(b)に示されるような表示を上下左右に移動させて、撮影者に測距光をかかりやすく伝えることができる。
In other words, when expressed in the xy coordinate format,
When (x 1 , y 1 ) = (H × frame ratio 1, T × frame ratio 2) (15) is turned off and the upper and lower two segments are turned on, the result is shown in FIG. Such a display can be moved up, down, left, and right so that the photographer can be easily informed of the distance measuring light.

以上説明したように、第2の実施の形態によれば、優先度の高いポイントのみを表示し、視線の動きによって次に優先度の高いポイント(画面中央)に切りかえることができるようにしたので、ユーザの意図どおりのピント合せが高速でできるカメラを提供することができる。   As described above, according to the second embodiment, only the point with the highest priority is displayed, and the point with the next highest priority (the center of the screen) can be switched by the movement of the line of sight. Thus, it is possible to provide a camera capable of focusing at a high speed as intended by the user.

また、ファインダと測距系のパララックスも考慮したので、より正確なポイント表示が可能となる。   In addition, since the parallax between the finder and the distance measuring system is taken into consideration, more accurate point display is possible.

尚、この発明の上記実施の形態によれば、以下の如き構成を得ることができる。   In addition, according to the said embodiment of this invention, the following structures can be obtained.

(1) 画面内の複数のポイントを測距可能なカメラに於いて、
上記複数の測距ポイントについて、測距時の優先順位を決定する優先順位決定手段と、
上記優先順位に応じて、上記複数の測距ポイントのうちの複数の限られた測距ポイントを選択する第1の選択手段と、
撮影者の操作によって、上記限られた複数の測距ポイントのうちの特定の測距ポイントを選択する第2の選択手段と、
を具備することを特徴とするカメラ。
(1) In a camera that can measure multiple points on the screen,
Priority order determining means for determining the priority order during distance measurement for the plurality of distance measuring points,
First selection means for selecting a plurality of limited ranging points among the plurality of ranging points according to the priority order;
A second selection means for selecting a specific distance measurement point among the limited distance measurement points by an operation of the photographer;
A camera comprising:

(2) 上記優先順位は、主要被写体位置に応じて決定されることを特徴とする上記(1)に記載のカメラ。   (2) The camera according to (1), wherein the priority is determined according to a main subject position.

(3) 上記優先順位は、画面内の明るさ分布によって決定されることを特徴とする上記(1)に記載のカメラ。   (3) The camera according to (1), wherein the priority is determined by a brightness distribution in the screen.

(4) 上記優先順位は、カメラの構え方によって決定されることを特徴とする上記(1)に記載のカメラ。   (4) The camera according to (1), wherein the priority order is determined by how the camera is held.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、本発明の要旨を逸脱しない範囲で種々の変形実施が可能である。   As mentioned above, although embodiment of this invention was described, in the range which does not deviate from the summary of this invention other than embodiment mentioned above, this invention can be variously modified.

更に、上述した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明によれば、ワイパブレードとキャップ部を一体的に構成し、折り畳まれたフィルム状であることから、長尺ヘッドに於いてもクリーニング機構の占有面積が少なく、且つ、キャップ機構も効果的に作用することができるメンテナンス装置が得られる。   According to the present invention, since the wiper blade and the cap portion are integrally formed and are in a folded film shape, the area occupied by the cleaning mechanism is small even in the long head, and the cap mechanism is also effective. A maintenance device that can act on the above is obtained.

10 被写体、
11a、11b 受光レンズ、
12a、12b、21a〜21d センサアレイ、
13 CPU、
13a A/D変換回路、
13b 相関演算部、
13c 積分制御部、
13d 選択部、
14 選択スイッチ、
20 バイアス回路、
22a 積分スイッチ、
22b リセットスイッチ、
23a〜23d 積分アンプ、
24 最大積分値検出回路、
27 カメラ、
28 ケース、
29 導電物質、
30a〜30d 電極。
10 Subject,
11a, 11b light receiving lens,
12a, 12b, 21a-21d sensor array,
13 CPU,
13a A / D conversion circuit,
13b correlation calculation unit,
13c integral control unit,
13d selector,
14 selection switch,
20 bias circuit,
22a integration switch,
22b reset switch,
23a-23d integrating amplifier,
24 maximum integrated value detection circuit,
27 Camera,
28 cases,
29 conductive materials,
30a-30d electrodes.

Claims (4)

撮像部と、ピント合わせ部とを有し、上記撮像部によって撮影される画面内の複数の測距ポイントに対しピント合わせが可能なカメラに於いて、
上記画面内における撮影者の指の位置を視認する為のファインダと、
上記撮像部によっ繰り返し検出された像を比較し、上記画面内の測距ポイントのうち上記撮影者により指さしされた領域を判定し、該指さしされた領域近傍の測距ポイントを検出して表示する判定表示部と、
上記判定表示部によって表示された測距ポイントの位置に対応する被写体に対してピント合わせができるように上記ピント合わせ部を制御する制御部と、
を具備することを特徴とするカメラ。
In a camera that has an imaging unit and a focusing unit, and is capable of focusing on a plurality of ranging points in a screen shot by the imaging unit,
A viewfinder for visually recognizing the position of the photographer's finger in the screen,
Comparing the detected image repeatedly by the above imaging unit, it determines an area which is pointed by the photographer of the distance measuring points in the screen, and detects the distance measurement point of finger pointing area near A judgment display section to be displayed;
A control unit that controls the focusing unit so that the subject corresponding to the position of the distance measuring point displayed by the determination display unit can be focused;
A camera comprising:
上記判定表示部による上記指さしされた領域の判定は、当該カメラのユーザによるスイッチ操作によって定められた期間内における像変化に従って行われる
ことを特徴とする請求項1に記載のカメラ。
The camera according to claim 1, wherein the determination of the pointed area by the determination display unit is performed according to an image change within a period determined by a switch operation by a user of the camera.
上記指さしされた領域は、上記画面内における当該カメラのユーザの指先の位置である
ことを特徴とする請求項1に記載のカメラ。
The camera according to claim 1, wherein the pointed area is a position of a fingertip of a user of the camera in the screen.
上記指さしされた領域は、レーザポインタ光の光点位置である
ことを特徴とする請求項1に記載のカメラ。
The camera according to claim 1, wherein the pointed area is a light spot position of laser pointer light.
JP2009179228A 2009-07-31 2009-07-31 camera Expired - Fee Related JP4786734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009179228A JP4786734B2 (en) 2009-07-31 2009-07-31 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009179228A JP4786734B2 (en) 2009-07-31 2009-07-31 camera

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP28315199A Division JP4391637B2 (en) 1999-10-04 1999-10-04 camera

Publications (2)

Publication Number Publication Date
JP2009294663A JP2009294663A (en) 2009-12-17
JP4786734B2 true JP4786734B2 (en) 2011-10-05

Family

ID=41542849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009179228A Expired - Fee Related JP4786734B2 (en) 2009-07-31 2009-07-31 camera

Country Status (1)

Country Link
JP (1) JP4786734B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5949591B2 (en) * 2013-02-13 2016-07-06 ソニー株式会社 Imaging apparatus, control method, and program
JP6080619B2 (en) * 2013-03-07 2017-02-15 キヤノン株式会社 Focus detection apparatus and method
JP2018033069A (en) * 2016-08-26 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 Imaging control device, imaging apparatus, and imaging control method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0248647A (en) * 1988-08-11 1990-02-19 Sony Corp Video camera
JP3125257B2 (en) * 1991-05-14 2001-01-15 コニカ株式会社 Automatic focusing device for imaging device
JPH07162667A (en) * 1993-12-07 1995-06-23 Minolta Co Ltd Picture reader
JP3491990B2 (en) * 1994-10-26 2004-02-03 キヤノン株式会社 Document camera device
JPH09146695A (en) * 1995-11-24 1997-06-06 Sony Corp Input device

Also Published As

Publication number Publication date
JP2009294663A (en) 2009-12-17

Similar Documents

Publication Publication Date Title
WO2011004686A1 (en) Focus detection apparatus
JP2008209762A (en) Photoelectric detector of image forming optical system, focus detector, and imaging apparatus
JP6812387B2 (en) Image processing equipment and image processing methods, programs, storage media
JP2012027229A (en) Imaging device and imaging method
JP2009109839A (en) Image tracking device and imaging device
US6801639B2 (en) Distance measurement apparatus
JP2014002283A (en) Focus adjustment device and control method therefor
JP2019117395A (en) Imaging device
JP2001091819A (en) Range-finding device for camera
JP5641771B2 (en) Focus detection device
JP2007264299A (en) Focus adjustment device
JP4549481B2 (en) Focusing device
JP4450899B2 (en) Multi-point distance measuring device
JP4786734B2 (en) camera
JP2007133301A (en) Autofocus camera
JP4391637B2 (en) camera
JP5256847B2 (en) Imaging device
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP5018932B2 (en) Imaging device
JP2012108281A (en) Focus detector and imaging apparatus
JP2020073971A (en) Imaging device
US12041350B2 (en) Imaging apparatus and control method thereof
JP4997306B2 (en) How to determine the orientation of a person&#39;s face
US20220272271A1 (en) Image pickup apparatus capable of keeping focus on subject even when moving direction of subject changes in time series, control method for image pickup apparatus, and storage medium
WO2023221141A1 (en) Photographing apparatus and focusing control program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110713

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees