JP2018064285A - Imaging apparatus and method for controlling imaging apparatus - Google Patents

Imaging apparatus and method for controlling imaging apparatus Download PDF

Info

Publication number
JP2018064285A
JP2018064285A JP2017227884A JP2017227884A JP2018064285A JP 2018064285 A JP2018064285 A JP 2018064285A JP 2017227884 A JP2017227884 A JP 2017227884A JP 2017227884 A JP2017227884 A JP 2017227884A JP 2018064285 A JP2018064285 A JP 2018064285A
Authority
JP
Japan
Prior art keywords
feature
imaging
unit
image data
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017227884A
Other languages
Japanese (ja)
Other versions
JP6465322B2 (en
Inventor
理彰 高橋
Toshiaki Takahashi
理彰 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017227884A priority Critical patent/JP6465322B2/en
Publication of JP2018064285A publication Critical patent/JP2018064285A/en
Application granted granted Critical
Publication of JP6465322B2 publication Critical patent/JP6465322B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of easily performing imaging control that regards important the advance or retreat of a plurality of moving subjects in sports or competitions including a footrace.SOLUTION: The imaging apparatus includes: an imaging part 12 which receives an optical image formed by an imaging optical system 32 and acquires image data; a feature detection part which detects a plurality of feature parts from the image data; a feature instruction part which instructs at least one of the plurality of detected feature parts; a storage part 14 which stores the instructed feature part; a positional change prediction part 11e which detects the positional change in a depth direction of each feature on the basis of the coincidence of the feature part obtained from the newly obtained image data with the plurality of stored feature parts and predicts the positions of the plurality of feature parts after the lapse of a predetermined time; and a control part 11 which performs imaging control in accordance with a depth of field in such a manner that the plurality of feature parts within an image can be focused in accordance with the positional information of the plurality of feature parts after the lapse of the predetermined time predicted by the positional change prediction part and the focal distance of the imaging optical system.SELECTED DRAWING: Figure 1

Description

この発明は、移動する複数の被写体を撮像対象とする撮像状況に適するシーンモードを有する撮像装置と、この撮像装置の制御方法に関するものである。   The present invention relates to an imaging apparatus having a scene mode suitable for an imaging situation in which a plurality of moving subjects are to be imaged, and a method for controlling the imaging apparatus.

従来、撮像光学系により結像された光学像を、例えばCCD(Charge Coupled Device;電荷結合素子)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)型イメージセンサー等の光電変換素子等の撮像素子を用いて順次光電変換し、これにより取得された画像信号を所定の形態の画像データ(例えば静止画像又は動画像を表わすデジタル画像データ)として記憶媒体に記憶すると共に、当該デジタル画像データに基いて静止画像又は動画像を表示する画像表示装置、例えば液晶表示(Liquid Crystal Display;LCD)装置や有機エレクトロルミネッセンス(有機EL;Organic Electro-Luminescence:OEL)表示装置等を備えて構成された撮像装置、例えばデジタルカメラやビデオカメラ等が一般に実用化され広く普及している。   Conventionally, an optical image formed by an imaging optical system is converted into a photoelectric conversion element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image sensor. The image signal obtained by the photoelectric conversion using an image pickup device such as an image sensor is stored in a storage medium as image data of a predetermined form (for example, digital image data representing a still image or a moving image), and the digital image An image display device that displays a still image or a moving image based on data, for example, a liquid crystal display (LCD) device, an organic electro-luminescence (OEL) display device, or the like. Imaging devices such as digital cameras and video cameras have been put into practical use and widely used. It is popular.

この種の従来形態の撮像装置においては、例えば撮像画面内において移動する特定の被写体を含む画像領域を検出し、検出した画像領域内の対象被写体の位置にAFエリアを移動させ、その対象被写体が撮像画面内で移動するのに追随させてAFエリアを移動させ連続的に自動焦点調節動作を行なうことで、特定の対象被写体に常にピントを合わせ続けるいわゆる動体追尾コンティニュアスオートフォーカス(Continuous Autoforcus;C−AF)機能を備えると共に、最新の合焦情報(測距情報等)と、その直前に取得した合焦情報との間の被写体の変化に基づいてレリーズ操作時の合焦位置を予測して、レリーズ操作の実行時にその予測位置にて焦点調節動作を実行させる制御を行なういわゆる動体予測自動焦点調節(オートフォーカス;Autofocus;AF)機能を備えたものが実用化されている。   In this type of conventional imaging apparatus, for example, an image area including a specific subject moving within the imaging screen is detected, the AF area is moved to the position of the target subject in the detected image area, and the target subject is detected. By moving the AF area following the movement within the imaging screen and continuously performing an automatic focus adjustment operation, a so-called moving body tracking continuous autofocus (Continuous Autoforcus; C-AF) function, and predicts the in-focus position during the release operation based on the change in the subject between the latest in-focus information (ranging information, etc.) and the in-focus information acquired immediately before. So-called automatic focus adjustment (autofocus) that performs control to execute the focus adjustment operation at the predicted position when the release operation is executed AF) that a function has been put into practical use.

これによれば、例えば、運動会の徒競走等のように移動する複数の被写体を撮像対象とする撮像環境下において、撮像画面内で移動する複数の被写体のうちの特定の移動被写体に対してピントを合わせ続けることができ、かつ対象被写体の画面内における移動量から特定移動被写体の動きを予測することによって、レリーズタイムラグを考慮したレリーズ動作を実行することができるので、撮像対象とする特定の移動被写体を常に合焦状態とした撮像結果を得ることができる。   According to this, for example, in an imaging environment in which a plurality of moving objects are imaged, such as athletic meet athletes, focus on a specific moving subject among the plurality of moving objects within the imaging screen. Since the release operation can be performed in consideration of the release time lag by predicting the movement of the specific moving subject from the amount of movement of the target subject within the screen, the specific moving subject to be imaged Can be obtained in an in-focus state.

また、従来の撮像装置においては、撮像素子によって取得された画像データに基づいて自動的に適正露出を設定する自動露出設定機能を有し、かつ撮像対象とする被写体の状況(シーン)に応じて最適な露出値(シャッター速度値及び絞り値等)を含む各種の設定を一括して自動的に設定制御するいわゆるシーンモードを複数備えているものが一般に普及している。   In addition, the conventional imaging device has an automatic exposure setting function that automatically sets an appropriate exposure based on image data acquired by the imaging device, and according to the situation (scene) of the subject to be imaged. In general, those equipped with a plurality of so-called scene modes for automatically setting and controlling various settings including optimal exposure values (shutter speed value, aperture value, etc.) are widely used.

例えば、上述の運動会の徒競走等のように動きのある複数の被写体を撮像対象とする場合には、被写体ブレを考慮して、できるだけ速いシャッター速度値を選択設定するような露出制御を行なういわゆるスポーツモード等と呼ばれるシーンモードがある。   For example, when a plurality of moving subjects are to be imaged, such as athletic meet in the above-mentioned athletic meet, so-called sports that perform exposure control to select and set the fastest shutter speed value in consideration of subject blurring There are scene modes called modes.

使用者(ユーザ)は撮像動作を行なうのに先立って、所望のシーンモード(この場合はスポーツモード)を撮像装置において選択設定しておけば、撮像装置の制御部は、速いシャッター速度設定によって被写体自体が移動することで生じる被写体ブレを抑えつつ、特定の移動被写体を常に合焦状態とするオートフォーカス動作を実行する。これにより、常に良好な撮像結果をより、簡単にかつ確実に取得することができる。   If the user (user) selects and sets a desired scene mode (in this case, a sports mode) in the imaging device prior to performing the imaging operation, the control unit of the imaging device can set the subject with a fast shutter speed setting. An autofocus operation is performed in which a specific moving subject is always in focus while suppressing subject blurring caused by movement of the subject itself. As a result, it is possible to easily and reliably obtain a favorable imaging result at all times.

一方、従来の撮像装置においては、動きのある被写体を撮像対象として、例えば動画像を撮像する場合に、対象被写体の動きに応じて自動的にズーミング制御を行って、常に適正なフレーミングを設定し、使用者(ユーザ)の意図に合ったフレーミングによる撮像結果を得るといった技術が、例えば特開2012−124575号公報等によって開示されている。   On the other hand, in a conventional imaging device, when a moving subject is taken as an imaging subject, for example, when a moving image is taken, zooming control is automatically performed according to the movement of the subject subject, and appropriate framing is always set. For example, Japanese Patent Application Laid-Open No. 2012-124575 discloses a technique for obtaining an imaging result by framing that matches a user's (user) intention.

特開2012−124575号公報JP 2012-124575 A

上記特開2012−124575号公報等によって開示されている手段は、対象被写体の動きに合わせて撮像装置の制御を行なうものである。しかしながら、上記公報によって開示されている手段では、主にズーミング制御によるフレーミングの自動化を行なうものであって、例えば、前後方向の広い範囲で合焦状態を確保するための技術的解決手段などを開示しているわけではない。   The means disclosed in the above Japanese Patent Application Laid-Open No. 2012-124575 etc. controls the imaging apparatus in accordance with the movement of the subject. However, the means disclosed in the above publication mainly automates framing by zooming control. For example, technical solution means for ensuring a focused state in a wide range in the front-rear direction is disclosed. I'm not doing it.

例えば、上述の運動会の徒競走等のような状況下においては、特定の一被写体のみを撮像対象とするのではなく、複数の移動被写体を合焦状態とした画像を取得したいという要望がある。   For example, under circumstances such as the athletic meet of the above-mentioned athletic meet, there is a demand for acquiring an image in which a plurality of moving subjects are in focus rather than taking only one specific subject as an imaging target.

本発明は、上述した点に鑑みてなされたものであって、その目的とするところは、徒競走に代表されるスポーツや競技などにおいて、複数の移動被写体の駆け引きを重視した撮影制御が簡単にできる撮像装置,撮像装置の制御方法を提供することである。   The present invention has been made in view of the above-described points, and an object of the present invention is to easily perform shooting control that emphasizes the bargaining of a plurality of moving subjects in sports and competitions typified by a student race. An imaging device and a method for controlling the imaging device are provided.

また、本発明は、撮像画面内において奥側から手前側にかけて存在する複数の移動する被写体を撮像対象とする状況(例えば運動会の徒競走等)に適するように、被写界深度を考慮して合焦範囲等の設定を撮像状況に応じて自動化し、操作性を損なうことなく、複数の移動被写体の合焦状態を確保して良好な撮像結果を簡単に得られる撮像装置,撮像装置の制御方法を提供することを目的とする。   In addition, the present invention considers the depth of field so that it is suitable for a situation in which a plurality of moving subjects existing from the back side to the front side in the imaging screen are to be imaged (for example, athletic competitions). An imaging apparatus capable of automating setting of a focus range and the like according to an imaging situation, ensuring a focused state of a plurality of moving subjects and easily obtaining good imaging results without impairing operability, and an imaging apparatus control method The purpose is to provide.

上記目的を達成するために、本発明の第1の態様の撮像装置は、撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、上記画像データから複数の特徴部を検出する特徴検出部と、上記検出された複数の特徴部の中から少なくとも一つを指示する特徴指示部と、上記指示された特徴部を記憶する記憶部と、新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部とを有する。   In order to achieve the above object, an imaging apparatus according to a first aspect of the present invention includes an imaging unit that receives an optical image formed by an imaging optical system and acquires image data, and a plurality of characteristic units from the image data. A feature detection unit that detects at least one of the detected plurality of feature units, a storage unit that stores the instructed feature unit, and the newly obtained image Based on the coincidence between the feature portion obtained from the data and the plurality of stored feature portions, the position change in the depth direction of each feature is detected, and the position of the plurality of feature portions after a predetermined time has elapsed. The position change prediction unit predicting the position, the position information after a predetermined time of the plurality of feature parts predicted by the position change prediction unit, and the focal length of the imaging optical system Possible depth of field And a control unit for performing corresponding imaging control.

本発明の第2の態様の撮像装置は、撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、上記画像データから複数の特徴部を検出する特徴検出部と、上記特徴部に係る情報を登録する特徴登録部と、上記検出された複数の特徴部を記憶する記憶部と、新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部の中から少なくとも上記登録した特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部とを有する。   An imaging apparatus according to a second aspect of the present invention includes an imaging unit that receives an optical image formed by an imaging optical system and acquires image data, a feature detection unit that detects a plurality of feature units from the image data, A feature registration unit for registering information related to the feature unit; a storage unit for storing the plurality of detected feature units; a feature unit obtained from the newly obtained image data; A position change prediction unit that detects a position change in the depth direction of each feature based on a match with the feature unit and predicts positions of the plurality of feature units after a predetermined time has elapsed, and the position change prediction unit At least the registered feature portion in the image can be brought into an in-focus state by the positional information of the plurality of feature portions predicted after the predetermined time and the focal length of the imaging optical system. Shooting according to depth of field And a control unit for performing control.

本発明の第1の態様の撮像装置の制御方法は、撮像光学系により結像される光学像を受けて画像データを取得し、上記画像データから複数の特徴部を検出し、上記検出された複数の特徴部の中から少なくとも一つを指示し、上記指示された特徴部を記憶し、新たに得られた画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測し、上記予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う。   According to a first aspect of the present invention, there is provided a control method for an image pickup apparatus, which receives an optical image formed by an image pickup optical system, acquires image data, detects a plurality of feature portions from the image data, and detects the detected features. Specify at least one of the plurality of features, store the specified feature, and match the feature obtained from the newly obtained image data with the stored feature Based on the detection of the position change of each feature in the depth direction, the position of the plurality of feature portions after a predetermined time is predicted, and the predicted position of the plurality of feature portions after the predetermined time has elapsed Shooting control is performed in accordance with the depth of field that can bring the plurality of features in the image into a focused state based on the information and the focal length of the imaging optical system.

本発明の第3の態様の撮像装置は、撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、上記画像データから複数の特徴部を検出する特徴検出部と、上記検出された複数の特徴部を記憶する記憶部と、新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部と、を有し、上記制御部は、設定した絞り値に基づいて自動露出制御を行なってシャッター速度を設定し、設定されたシャッター速度値が所定の下限値以下の場合には、当該下限シャッター速度に応じた絞り値に再設定する。   An imaging apparatus according to a third aspect of the present invention includes an imaging unit that receives an optical image formed by an imaging optical system and acquires image data, a feature detection unit that detects a plurality of feature units from the image data, The depth of each feature based on the coincidence between the storage unit storing the plurality of detected feature portions and the feature portion obtained from the newly obtained image data and the plurality of stored feature portions. A position change prediction unit that detects a position change in a direction and predicts the positions of the plurality of feature parts after a predetermined time has elapsed, and after a predetermined time elapses of the plurality of feature parts predicted by the position change prediction unit A control unit that performs shooting control according to the depth of field that can bring the plurality of features in the image into a focused state based on the position information of the image pickup optical system and the focal length of the imaging optical system. Automatic exposure control based on the set aperture value Is to set the shutter speed, if the shutter speed value that has been set is less than a predetermined lower limit value, it resets to the aperture value in accordance with the lower limit shutter speed.

本発明の第2の態様の撮像装置の制御方法は、撮像光学系により結像される光学像を受けて画像データを取得し、上記画像データから複数の特徴部を検出し、上記検出された複数の特徴部を記憶し、新たに得られた画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測し、上記予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行い、設定した絞り値に基づいて自動露出制御を行なってシャッター速度を設定し、設定されたシャッター速度値が所定の下限値以下の場合には、当該下限シャッター速度に応じた絞り値に再設定する。   According to a second aspect of the present invention, there is provided a control method for an image pickup apparatus that receives an optical image formed by an image pickup optical system, acquires image data, detects a plurality of feature portions from the image data, and detects the detected features. A plurality of feature portions are stored, and a position change in the depth direction of each feature is detected based on a match between the feature portion obtained from newly obtained image data and the plurality of stored feature portions. Predicting positions of the plurality of features after a predetermined time elapses, and determining the plurality of features in the image based on position information of the plurality of features after the predetermined time elapses and a focal length of the imaging optical system Shooting control is performed according to the depth of field that can bring the features of the camera into focus, automatic exposure control is performed based on the set aperture value, the shutter speed is set, and the set shutter speed value is a predetermined lower limit. If the value is less than To re-set to the aperture value in accordance with the Potter speed.

本発明によれば、徒競走に代表されるスポーツや競技などにおいて、複数の移動被写体の駆け引きを重視した撮影制御が簡単にできる撮像装置,撮像装置の制御方法を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus and an imaging apparatus control method that can easily perform imaging control with emphasis on bargaining of a plurality of moving subjects in sports or competitions typified by an athlete race.

また、本発明によれば、撮像画面内において奥側から手前側にかけて存在する複数の移動する被写体を撮像対象とする状況(例えば運動会の徒競走等)に適するように、被写界深度を考慮して合焦範囲等の設定を撮像状況に応じて自動化し、操作性を損なうことなく、複数の移動被写体の合焦状態を確保して良好な撮像結果を簡単に得られる撮像装置,撮像装置の制御方法を提供することができる。   In addition, according to the present invention, the depth of field is taken into consideration so as to be suitable for a situation in which a plurality of moving subjects existing from the back side to the front side in the imaging screen are to be imaged (for example, athletic competitions). An imaging device that automates the setting of the focusing range, etc. according to the imaging situation, ensures the in-focus state of a plurality of moving subjects, and easily obtains good imaging results without losing operability. A control method can be provided.

本発明の一実施形態の撮像装置の概略構成を示すブロック構成図1 is a block configuration diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention. 図1の撮像装置を用いて、例えば運動会の徒競走を対象として撮像する際のようすを示す概念図FIG. 1 is a conceptual diagram showing how the image pickup apparatus of FIG. 1 is used to image, for example, athletic meet athletes. 図1の撮像装置の撮像動作の概略を示すタイムチャート1 is a time chart showing an outline of the imaging operation of the imaging apparatus of FIG. 図1の撮像装置による撮像動作時の合焦動作を説明する概念図The conceptual diagram explaining the focusing operation | movement at the time of imaging operation by the imaging device of FIG. 図1の撮像装置におけるカメラ制御処理の流れを示すフローチャートThe flowchart which shows the flow of the camera control process in the imaging device of FIG. 図5のフローチャート中における被写界深度設定制御処理(ステップS107)を示すフローチャートThe flowchart which shows the depth-of-field setting control process (step S107) in the flowchart of FIG. 図6のフローチャート中の一部の処理である「最適な被写界深度算出処理」を詳細に示すフローチャートThe flowchart which shows in detail the "optimum depth of field calculation process" which is a part of the process in the flowchart of FIG. 被写界深度を算出するための計算式Formula for calculating depth of field 本発明の一実施形態の撮像装置における被写界深度設定制御処理の変形例を示すフローチャートThe flowchart which shows the modification of the depth-of-field setting control process in the imaging device of one Embodiment of this invention 本発明の一実施形態の変形例が適用される場合の撮像状況を示す概念図The conceptual diagram which shows the imaging condition in case the modification of one Embodiment of this invention is applied

以下、図示の実施の形態によって本発明を説明する。   The present invention will be described below with reference to the illustrated embodiments.

本発明の撮像装置においては、例えば徒競走等に代表されるスポーツや競技などにおいて、複数の移動被写体を撮影対象とする。ここで、複数の移動被写体優先のピント合わせを行うのは、この複数の被写体のかけひきなどでドラマが生まれるからである。具体的には、例えば徒競走等の競技において複数の被写体が撮影者に向かって移動してくるような状況が考えられる。この場合、撮像画面内においては、その奥側から手前側にかけて複数の移動する被写体が存在することになる。そして、このとき、撮影者と複数の被写体のそれぞれとの距離は、ばらつきが生じている状況となっている。したがって、従来一般的な撮像装置において適用されている通常のオートフォーカス動作制御を行なうのみでは、複数の被写体の全てを合焦状態とすることができないという問題点がある。そこで、被写界深度を考慮したF値(絞り値)を適宜設定することによって、複数の被写体の全て(若しくは特定被写体を含む一部の範囲)が合焦状態となるようにする設定値の制御を、以下の実施例で説明する。   In the imaging apparatus of the present invention, for example, a plurality of moving subjects are to be imaged in sports, competitions, and the like typified by an athlete race. Here, the reason for focusing on a plurality of moving subjects is that a drama is born by drawing the plurality of subjects. Specifically, for example, a situation in which a plurality of subjects move toward the photographer in a competition such as an athlete race can be considered. In this case, in the imaging screen, there are a plurality of moving objects from the back side to the front side. At this time, the distance between the photographer and each of the plurality of subjects varies. Therefore, there is a problem that it is not possible to bring all of the plurality of subjects into focus by simply performing normal autofocus operation control applied in a conventional general imaging apparatus. Therefore, by setting an F value (aperture value) in consideration of the depth of field as appropriate, all of a plurality of subjects (or a part of a range including a specific subject) are in a focused state. Control is illustrated in the following examples.

一方、上述したように、動きのある被写体を撮像対象とする場合には、被写体自体が移動することによって被写体ブレが生じる可能性が高くなる。この被写体ブレを抑止するためには、できるだけ速いシャッター速度値を設定するのが望ましい。この場合、適正露出を確保するためには必然的にF値(絞り値)を小さくする設定(つまり、絞りを開ける方向に設定する)必要がある。このことは、被写界深度が浅くなってしまうことを意味する。つまり、被写界深度が浅くなるほど、撮像画面内で前後に散在する複数の被写体の全てを合焦状態にすることが困難になってしまうという問題点がある。このあたりも考慮して説明を行う。   On the other hand, as described above, when a moving subject is an imaging target, there is a high possibility of subject blurring due to the movement of the subject itself. In order to suppress this subject blur, it is desirable to set a shutter speed value as fast as possible. In this case, in order to ensure proper exposure, it is inevitably necessary to set the F value (aperture value) to be small (that is, set in a direction to open the aperture). This means that the depth of field becomes shallow. That is, there is a problem that as the depth of field becomes shallower, it becomes more difficult to bring all of the plurality of subjects scattered back and forth within the imaging screen into a focused state. The description will be given in consideration of this area.

この実施例では、上述した点に鑑みて、撮像画面内において奥側から手前側にかけて存在する複数の移動する被写体を撮像対象とする状況(例えば運動会の徒競走等)に適するように、被写界深度を考慮して合焦範囲を設定するためのF値(絞り値)と被写体ブレを考慮したシャッター速度値等の設定を撮像状況に応じて自動化し、操作性を損なうことなく、常に所望の被写体の合焦状態を確保して良好な撮像結果を簡単に得られる動作形態(シーンモード)を具備した撮像装置についての構成を、特に強調して説明している。   In this embodiment, in view of the above-described points, the object field is suitable for a situation where a plurality of moving subjects existing from the back side to the front side in the imaging screen are to be imaged (for example, athletic meet athletes). The F value (aperture value) for setting the in-focus range in consideration of the depth and the shutter speed value in consideration of subject blurring are automatically set according to the imaging situation, and always desired without impairing operability. The configuration of the imaging apparatus having an operation mode (scene mode) that can easily obtain a good imaging result while ensuring the in-focus state of the subject is particularly emphasized.

本発明の一実施形態は、例えば撮像光学系により結像された光学像を、例えばCCD(Charge Coupled Device;電荷結合素子)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)型イメージセンサー等の光電変換素子等(以下、撮像素子という)を用いて順次光電変換し、これにより取得された画像信号を所定の形態の画像データ(例えば静止画像又は動画像を表わすデジタル画像データ)として記憶媒体に記憶すると共に、当該デジタル画像データに基いて静止画像又は動画像を表示する画像表示装置、例えば液晶表示(Liquid Crystal Display;LCD)装置や有機エレクトロルミネッセンス(有機EL;Organic Electro-Luminescence:OEL)表示装置等を備えて構成された撮像装置、例えばデジタルカメラやビデオカメラ等を例示するものである。   In one embodiment of the present invention, for example, an optical image formed by an imaging optical system is converted into, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type. A photoelectric conversion device such as an image sensor or the like (hereinafter referred to as an imaging device) sequentially performs photoelectric conversion, and image signals obtained thereby are converted into image data in a predetermined form (for example, digital image data representing a still image or a moving image). As an image display device, for example, a liquid crystal display (LCD) device or an organic electroluminescence (organic EL; Organic Electro-Luminescence). : OEL) an imaging device configured with a display device or the like, such as a digital camera or Examples are video cameras and the like.

なお、以下の説明に用いる各図面においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせて示している場合がある。したがって、本発明は、これらの図面に記載された構成要素の数量,構成要素の形状,構成要素の大きさの比率及び各構成要素の相対的な位置関係は、図示の形態のみに限定されるものではない。   In each drawing used for the following description, each component may be shown with a different scale in order to make each component large enough to be recognized on the drawing. Therefore, according to the present invention, the number of constituent elements, the shape of the constituent elements, the ratio of the constituent element sizes, and the relative positional relationship of the constituent elements described in these drawings are limited to the illustrated embodiments. It is not a thing.

まず、本発明の一実施形態の撮像装置の概略的な構成について、図1を用いて以下に説明する。図1は、本発明の一実施形態の撮像装置の概略構成を示すブロック構成図である。図1に示すように、本実施形態の撮像装置1は、ボディ10とレンズ鏡筒30とによって主に構成されている。本実施形態の撮像装置1は、ボディ10に対してレンズ鏡筒30が着脱自在に構成されるいわゆるレンズ交換式撮像装置である。このように、本実施形態においては、撮像装置1の一例としてレンズ交換式撮像装置を例に挙げて説明するが、本発明を適用し得る撮像装置としては、この形態に限られることはない。本発明を適用し得るその他の形態の撮像装置としては、例えばボディ10とレンズ鏡筒30とが一体に構成された形態のレンズ固定式撮像装置等があり、この形態の撮像装置であっても本実施形態の撮像装置と全く同様に本発明を適用することができる。   First, a schematic configuration of an imaging apparatus according to an embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a block configuration diagram showing a schematic configuration of an imaging apparatus according to an embodiment of the present invention. As shown in FIG. 1, the imaging apparatus 1 of the present embodiment is mainly configured by a body 10 and a lens barrel 30. The imaging device 1 according to the present embodiment is a so-called interchangeable lens imaging device in which a lens barrel 30 is detachably attached to a body 10. As described above, in the present embodiment, an example of an imaging apparatus 1 will be described by taking a lens-interchangeable imaging apparatus as an example, but an imaging apparatus to which the present invention can be applied is not limited to this form. As another type of imaging apparatus to which the present invention can be applied, for example, there is a lens fixed type imaging apparatus in which the body 10 and the lens barrel 30 are integrally formed. The present invention can be applied just like the imaging apparatus of the present embodiment.

ボディ10は、信号処理制御部11と、撮像部12と、ブレ補正部13と、記憶部14と、操作部15と、タッチパネル16と、時計部17と、背面表示部18と、EVF19と、アイセンサ20と、本体通信部21等を有して構成されている。   The body 10 includes a signal processing control unit 11, an imaging unit 12, a shake correction unit 13, a storage unit 14, an operation unit 15, a touch panel 16, a clock unit 17, a rear display unit 18, an EVF 19, It has an eye sensor 20, a main body communication unit 21 and the like.

信号処理制御部11は、本撮像装置1の全体の動作を統括的に制御する制御部としての機能を備え、レンズ鏡筒30を含む各構成ユニットを制御するための制御信号を処理する制御部として機能すると共に、撮像部12によって取得された画像信号(画像データ)を受けて所定の信号処理等を行う信号処理部として機能する回路部である。   The signal processing control unit 11 has a function as a control unit that comprehensively controls the overall operation of the imaging apparatus 1 and processes a control signal for controlling each component unit including the lens barrel 30. And a circuit unit that functions as a signal processing unit that receives an image signal (image data) acquired by the imaging unit 12 and performs predetermined signal processing or the like.

信号処理制御部11の内部には、操作判定部11aと、表示制御部11bと、被写体判定部11cと、コントラスト判定部11dと、位置変化予測部11eと、測距部11f等の各種の回路部が具備されている。   Inside the signal processing control unit 11, various circuits such as an operation determination unit 11a, a display control unit 11b, a subject determination unit 11c, a contrast determination unit 11d, a position change prediction unit 11e, a distance measurement unit 11f, and the like. Are provided.

このうち操作判定部11aは、操作部15から入力された指示信号を判定し、その指示信号に対応する動作制御を指示する回路部である。   Among these, the operation determination part 11a is a circuit part which determines the instruction | indication signal input from the operation part 15, and instruct | indicates the operation control corresponding to the instruction | indication signal.

表示制御部11bは、背面表示部18やEVF19等を駆動制御する制御回路部である。この表示制御部11bは、撮像部12によって取得され、上記信号処理制御部11における所定の信号処理を経て出力される表示用の画像データ(画像信号)を受けて、背面表示部18もしくはEVF19の表示パネルを用いて視認可能な画像を表示させるための制御等を行う。なお、当該表示制御部11bにおいて、撮像部12からの画像データを受けて表示用画像データを生成する画像処理等を行うような構成としてもよい。   The display control unit 11b is a control circuit unit that drives and controls the rear display unit 18, the EVF 19, and the like. The display control unit 11 b receives display image data (image signal) acquired by the imaging unit 12 and output through predetermined signal processing in the signal processing control unit 11, and receives information from the rear display unit 18 or the EVF 19. Control for displaying a visually recognizable image using the display panel is performed. Note that the display control unit 11b may be configured to perform image processing for receiving image data from the imaging unit 12 and generating display image data.

被写体判定部11cは、撮像部12によって取得された画像データに基いて形成される画像内において特定の被写体を判定したり識別したりするための画像処理を行なう回路部である。具体的には、被写体判定部11cは、撮像部12によって取得された画像データに基づいて、例えば画面内の被写体の形状等を識別することにより、例えば人物等の顔等を識別したり、その識別された人物等の顔等が記憶部14等に予め記憶された顔画像と一致するか否か等の判定を行なう。   The subject determination unit 11 c is a circuit unit that performs image processing for determining and identifying a specific subject in an image formed based on the image data acquired by the imaging unit 12. Specifically, the subject determination unit 11c identifies, for example, a face of a person or the like based on the image data acquired by the imaging unit 12, for example, by identifying the shape of the subject in the screen, It is determined whether or not the face of the identified person matches a face image stored in advance in the storage unit 14 or the like.

コントラスト判定部11dは、撮像部12から出力される画像データに基づいてコントラスト判定処理等を行なって焦点調節処理に関する信号処理を行なう回路部である。   The contrast determination unit 11d is a circuit unit that performs a contrast determination process based on the image data output from the imaging unit 12 and performs a signal process related to the focus adjustment process.

位置変化予測部11eは、撮像部12から出力される画像データに基づいて測距演算処理を行ったり、上記被写体判定部11cによって識別判定された特定の被写体像(例えば人物等の顔等)の画面内における位置変化を検出し予測する演算処理を行なう回路部である。なお、位置変化予測部11eは、画面内の被写体について、画面内における位置の変化を検出するとしているが、例えば画面内の二次元平面座標(XY座標)の変化を算出するようにしてもよいし、また、当該撮像装置1から被写体までの距離の変化(測距演算結果)に基づいて画面内の移動被写体の位置変化を検出するようにしてもよい。   The position change prediction unit 11e performs a distance measurement calculation process based on the image data output from the imaging unit 12, or a specific subject image (for example, a face such as a person) identified and determined by the subject determination unit 11c. It is a circuit part which performs the arithmetic processing which detects and estimates the position change in a screen. Note that the position change prediction unit 11e detects a change in position on the screen of the subject in the screen, but may calculate a change in two-dimensional plane coordinates (XY coordinates) in the screen, for example. In addition, a change in the position of the moving subject in the screen may be detected based on a change in the distance from the imaging apparatus 1 to the subject (range measurement calculation result).

測距部11fは、撮像部12から出力される画像データに基づいて形成される画像内の被写体までの距離情報を検出し、例えば被写体までの距離を測定する演算処理等を行なう回路部である。また、上記測距部11fは、撮像部12のAF部12a(後述)からの出力に基づいて測距演算処理を行なう機能も有する。   The distance measuring unit 11f is a circuit unit that detects distance information to a subject in an image formed based on image data output from the imaging unit 12, and performs arithmetic processing for measuring the distance to the subject, for example. . The distance measuring unit 11 f also has a function of performing a distance measurement calculation process based on an output from an AF unit 12 a (described later) of the imaging unit 12.

撮像部12は、後述するレンズ鏡筒30に含まれる撮像光学系32によって結像された被写体像を受光し光電変換処理を行なって画像データを生成する撮像素子等の電子部品及びAF部12a等を含む回路部である。撮像部12における撮像素子としては、例えばCCD(Charge Coupled Device;電荷結合素子)等の回路素子を用いたCCDイメージセンサ若しくはMOS(Metal Oxide Semiconductor;金属酸化膜半導体)等を用いたMOS型イメージセンサ等の固体撮像素子である光電変換素子等が適用される。この撮像部12の撮像素子から出力されるアナログ画像信号は、信号処理制御部11へと出力されて各種の信号処理が行なわれる。   The imaging unit 12 receives an object image formed by an imaging optical system 32 included in a lens barrel 30 to be described later, performs photoelectric conversion processing, and generates electronic data such as an imaging element, an AF unit 12a, and the like. It is a circuit part containing. As an imaging device in the imaging unit 12, for example, a CCD image sensor using a circuit element such as a CCD (Charge Coupled Device) or a MOS image sensor using a MOS (Metal Oxide Semiconductor) or the like. The photoelectric conversion element etc. which are solid-state image sensors, such as, are applied. The analog image signal output from the image pickup device of the image pickup unit 12 is output to the signal processing control unit 11 for various signal processing.

AF部12aは、例えば画像を形成するための信号を出力する複数の撮像用画素を撮像面(受光面)の全域に亘って二次元状に配列した撮像素子において、その撮像面の少なくとも一部の複数の画素を焦点検出を行うための信号を出力する焦点検出用画素とし、これら複数の焦点検出用画素の出力に基づいて焦点検出処理を行なう回路部の一部を構成する。このAF部12aは、撮像面位相差検出方式のAF(オートフォーカス)制御処理、いわゆる像面位相差AF処理を行なう回路部の一部を構成している。このAF部12aによって生成される像面位相差AF処理用データは、上記測距部11fへと出力される。   The AF unit 12a is, for example, an imaging device in which a plurality of imaging pixels that output signals for forming an image are two-dimensionally arranged over the entire imaging surface (light receiving surface), and at least a part of the imaging surface. The plurality of pixels are used as focus detection pixels for outputting signals for focus detection, and a part of a circuit unit that performs focus detection processing based on the outputs of the plurality of focus detection pixels is configured. The AF unit 12a constitutes a part of a circuit unit that performs an AF (autofocus) control process of the imaging plane phase difference detection method, that is, a so-called image plane phase difference AF process. The image plane phase difference AF processing data generated by the AF unit 12a is output to the distance measuring unit 11f.

また、本実施形態の撮像装置1におけるAF機能を実現する形態としては、上記の像面位相差AF処理に限られることはなく、従来形態の各種AF処理に対応した形態を適用できる。撮像装置におけるAF機能を実現するための形態としては、例えば撮像光学系を駆動させて撮像素子の撮像面上に結像される被写体像のコントラスト差を検出して被写体像の合焦状態を検出するいわゆるコントラストAF処理のほか、位相差検出用センサを別に備え撮像光学系からの一部の光束を用いて被写体像の合焦状態を検出するいわゆる位相差検出方式AF処理等がある。   Further, the mode for realizing the AF function in the imaging apparatus 1 of the present embodiment is not limited to the above-described image plane phase difference AF processing, and modes corresponding to various types of AF processing in the conventional mode can be applied. As a form for realizing the AF function in the imaging apparatus, for example, the imaging optical system is driven to detect the contrast difference of the subject image formed on the imaging surface of the imaging device and detect the focused state of the subject image. In addition to the so-called contrast AF process, there is a so-called phase difference detection type AF process in which a phase difference detection sensor is separately provided and a focused state of a subject image is detected using a part of a light beam from an imaging optical system.

ブレ補正部13は、撮像対象とする被写体に対し光軸や撮像面の位置が不安定になることに起因して生じる像ぶれを補正する回路部である。そのためにブレ補正部13は、撮像装置1の姿勢変化等を検出する検出手段や、撮像素子等の位置,傾き等を移動させる駆動手段等を有して構成される構成ユニットである。なお、ブレ補正部13の具体的な構成としては周知の技術が適用されているものとして、その詳細説明は省略する。   The blur correction unit 13 is a circuit unit that corrects image blur caused by an unstable position of the optical axis or the imaging surface with respect to a subject to be imaged. For this purpose, the blur correction unit 13 is a configuration unit that includes a detection unit that detects a change in posture of the imaging device 1 and a driving unit that moves the position, inclination, and the like of the imaging device. Note that, as a specific configuration of the blur correction unit 13, a well-known technique is applied, and detailed description thereof is omitted.

記憶部14は、記憶媒体やこの記憶媒体を駆動制御する媒体駆動部等によって構成される構成ユニットである。記憶媒体は、画像データや各種の情報若しくは各種のプログラムなどを記憶するデバイスである。記憶媒体としては、例えばカード型着脱式若しくは装置内蔵型の半導体メモリ媒体や磁気記憶媒体等が適用される。   The storage unit 14 is a configuration unit that includes a storage medium, a medium drive unit that drives and controls the storage medium, and the like. The storage medium is a device that stores image data, various types of information, various types of programs, and the like. As the storage medium, for example, a card-type detachable or device-embedded semiconductor memory medium or magnetic storage medium is applied.

媒体駆動部は、上記記憶媒体を駆動制御する制御部のほかに、画像データの入出力を司る信号処理回路部等を有する回路部である。具体的には、媒体駆動部は、例えば撮像部12によって取得され信号処理制御部11を経て所定の画像データ処理等が施された画像データを受けて、これを例えば信号圧縮処理等を行って記憶用画像データに変換する信号処理を行なったり、記憶媒体に記憶済みの画像データを読み込んで伸長処理等を施して画像データを復元させる信号処理等を行なう。なお、画像データについての圧縮伸長処理については、当該媒体駆動部において処理する形態に限られることはなく、例えば信号処理制御部11内に同様の信号処理回路部を設け、それによって実行するような形態としてもよい。   The medium driving unit is a circuit unit including a signal processing circuit unit that controls input / output of image data, in addition to the control unit that drives and controls the storage medium. Specifically, the medium driving unit receives image data obtained by, for example, the imaging unit 12 and subjected to predetermined image data processing or the like via the signal processing control unit 11, and performs, for example, signal compression processing or the like. Signal processing for conversion into image data for storage is performed, or signal processing for restoring image data by reading image data stored in a storage medium and performing decompression processing or the like is performed. Note that the compression / decompression process for image data is not limited to the form processed in the medium driving unit, and for example, a similar signal processing circuit unit is provided in the signal processing control unit 11 and executed thereby. It is good also as a form.

なお、上記記憶部14には、このほかにも、例えば本撮像装置1における各種の制御プログラムや各種の情報データを予め記憶した書き換え可能な不揮発性の半導体メモリ、例えばEEPROM(Electrically Erasable Programmable Read-Only Memory)等や、撮像部12によって取得された画像信号や各種の情報データ等を一時的に記憶し、また、一時的な作業用途に用いられる揮発性の半導体メモリ、例えばSDRAM (Synchronous Dynamic Random Access Memory) 等の一時メモリをも含むものとする。   In addition to the above, the storage unit 14 also includes a rewritable nonvolatile semiconductor memory, for example, an EEPROM (Electrically Erasable Programmable Read-Ready) that stores various control programs and various information data in the imaging apparatus 1 in advance. Volatile semiconductor memory, such as SDRAM (Synchronous Dynamic Random), which temporarily stores image data acquired by the imaging unit 12, various information data, and the like, and is used for temporary work purposes. It also includes temporary memory such as (Access Memory).

操作部15は、本撮像装置1のボディ10の外装部分等に設けられる通常の押しボタン式若しくはスライド式,ダイヤル式等の形態の各種の操作部材であって、具体的には例えばシャッターリリースボタンや設定操作部材等、各種の一般的な操作部材を含めた操作用の構成部を指すものである。操作部15から出力される指示信号は、信号処理制御部11の操作判定部11aへと出力され、同操作判定部11aにおいて各種対応する動作制御を指示する。   The operation unit 15 is a variety of operation members such as a normal push button type, a slide type, a dial type, or the like provided on an exterior portion or the like of the body 10 of the imaging apparatus 1, and specifically, for example, a shutter release button. It indicates a component for operation including various general operation members such as a setting operation member and the like. The instruction signal output from the operation unit 15 is output to the operation determination unit 11a of the signal processing control unit 11, and instructs the corresponding operation control in the operation determination unit 11a.

タッチパネル16は、操作部15とは別系統の操作用部材として設けられる電子部品である。タッチパネル16は、背面表示部18の表示パネル上に配置されており、当該撮像装置1の使用者(ユーザー)が背面表示部18に表示中の画像に対応する所定領域や各種アイコン表示に相当する領域等に対してタッチ操作やスライド操作等を行なうことによって、各種の操作指示信号が発生するように構成されている。タッチパネル16からの指示入力信号は、信号処理制御部11の操作判定部11aへと送られて、その操作入力が判定される。   The touch panel 16 is an electronic component provided as an operation member of a system different from the operation unit 15. The touch panel 16 is disposed on the display panel of the rear display unit 18 and corresponds to a predetermined area or various icon displays corresponding to an image being displayed on the rear display unit 18 by the user (user) of the imaging apparatus 1. Various operation instruction signals are generated by performing a touch operation or a slide operation on an area or the like. The instruction input signal from the touch panel 16 is sent to the operation determination unit 11a of the signal processing control unit 11, and the operation input is determined.

時計部17は、いわゆるリアルタイムクロック(Real-Time Clock;RTC)と言われるコンピュータの内部時計である。時計部17は、例えばデータファイル等の日時情報の付与を行ったり、制御処理中における計時や時間制御等の際に利用される。   The clock unit 17 is an internal clock of a computer called a so-called real-time clock (RTC). The clock unit 17 is used, for example, for giving date / time information such as a data file, or for measuring time or controlling time during control processing.

背面表示部18及びEVF19は、例えば撮像部12によって取得された画像データに基づいて生成された表示用画像データ等を受けてライブビュー画像を表示したり、記憶部14に記憶済みの画像データに基いて静止画像若しくは動画像の画像再生表示を行ったり、記憶部14等に予め用意された各種データ等を読み込んで生成されるメニュー表示等を表示する表示ユニットである。   The rear display unit 18 and the EVF 19 receive a display image data generated based on, for example, image data acquired by the imaging unit 12 and display a live view image, or display image data stored in the storage unit 14. This is a display unit that performs image reproduction display of a still image or a moving image based on it, and displays a menu display generated by reading various data prepared in advance in the storage unit 14 or the like.

背面表示部18は、例えばボディ10の背面側に設けられ、比較的大型(例えば3型程度のサイズ)の表示パネルを採用する形態の表示ユニットである。また、EVF19は、例えばアクセサリーシュー等に装着したりボディ10に内蔵可能な小型(例えば0.5型程度のサイズ)の表示パネルを用いて構成されるいわゆる電子ビューファインダ(EVF;Electric View Finder)形態の表示ユニットである。これらの表示ユニットは、信号処理制御部11の表示制御部11bによって制御される。   The rear display unit 18 is, for example, a display unit that is provided on the rear side of the body 10 and employs a relatively large display panel (for example, a size of about 3 types). Further, the EVF 19 is a so-called electronic view finder (EVF) configured by using a small display panel (for example, a size of about 0.5 type) that can be attached to an accessory shoe or the like or can be built in the body 10. It is a display unit of a form. These display units are controlled by the display control unit 11 b of the signal processing control unit 11.

上記表示ユニット(背面表示部18及びEVF19)は、例えば液晶ディスプレイ(LCD;Liquid Crystal Display),プラズマディスプレイ(PDP;Plasma Display),有機エレクトロルミネッセンスディスプレイ(OEL;Organic Electro-Luminescence Display)等の表示パネルと、その駆動回路等を含んで構成される。   The display unit (rear display unit 18 and EVF 19) is a display panel such as a liquid crystal display (LCD), a plasma display (PDP), an organic electro-luminescence display (OEL), or the like. And its drive circuit and the like.

上記表示ユニットは、信号処理制御部11の表示制御部11bの制御下において、撮像装置1の動作モードが再生モードに設定されている時には、撮像記憶済みの画像データに基く画像(静止画像,動画像等)を再生表示する表示装置として機能する。また、撮像装置1の動作モードが撮像モードに設定されている時には、同様に信号処理制御部11の表示制御部11bの制御下において、撮像部12によって所得され信号処理制御部11において所定の信号処理が施された画像データを受けて順次連続的にリアルタイムの画像を表示し続けることによって、撮像範囲の観察,確認を行ない得る電子ビューファインダとして機能する。   When the operation mode of the imaging apparatus 1 is set to the playback mode under the control of the display control unit 11b of the signal processing control unit 11, the display unit is configured to display an image (still image, moving image) based on image data that has been captured and stored. Function as a display device that reproduces and displays images. Similarly, when the operation mode of the image capturing apparatus 1 is set to the image capturing mode, the signal processing controller 11 obtains a predetermined signal in the same manner under the control of the display controller 11b of the signal processing controller 11. By receiving the processed image data and continuously displaying real-time images sequentially, it functions as an electronic viewfinder that can observe and confirm the imaging range.

表示ユニットとしての背面表示部18とEVF19とは、適宜、用途に応じて切り換えて使用されるようになっている。そのために、例えばEVF19の近傍には、アイセンサ20が配設されている。   The rear display unit 18 and the EVF 19 as a display unit are used by switching appropriately according to the application. For this purpose, for example, an eye sensor 20 is disposed in the vicinity of the EVF 19.

アイセンサ20は、例えばEVF19の近傍に設けられ、例えば使用者(ユーザ)の顔(眼)を検出することにより、使用者(ユーザ)がEVF19を使用する状態にあるかを検出する検出手段である。   The eye sensor 20 is, for example, a detection unit that is provided in the vicinity of the EVF 19 and detects whether the user (user) is using the EVF 19 by detecting the face (eye) of the user (user), for example. .

具体的には、例えば当該撮像装置1の使用中において、背面表示部18を使用しているものとする。この状態において、例えば使用者(ユーザ)がEVF19を用いてその表示パネルの表示を視認するために、当該EVF19の表示部近傍に顔(眼)を近付けると、アイセンサ20は、これを検出する。これを受けて、信号処理制御部11は、背面表示部18の表示駆動を一時停止させ、EVF19の表示駆動に切り換える制御を行なう。   Specifically, for example, it is assumed that the rear display unit 18 is used while the imaging apparatus 1 is being used. In this state, for example, when the user (user) uses the EVF 19 to visually recognize the display on the display panel, when the face (eye) is brought close to the display portion of the EVF 19, the eye sensor 20 detects this. In response to this, the signal processing control unit 11 performs control to temporarily stop the display drive of the rear display unit 18 and switch to the display drive of the EVF 19.

本体通信部21は、ボディ10とレンズ鏡筒30との間の制御信号,情報信号等をやり取りするために設けられる通信用信号処理回路部である。ボディ10にレンズ鏡筒30を装着すると、両者は電気的に接続されるように構成されている。これにより、本体通信部21と、レンズ鏡筒30側のレンズ通信部37(後述)との間が電気的に接続され、よって、ボディ10側の信号処理制御部11とレンズ鏡筒30側のレンズ制御部31(後述する)とは電気的に接続される。そして、この状態において両者は協働してボディ10及びレンズ鏡筒30をそれぞれ制御するように構成されている。   The main body communication unit 21 is a communication signal processing circuit unit provided to exchange control signals, information signals, and the like between the body 10 and the lens barrel 30. When the lens barrel 30 is attached to the body 10, both are configured to be electrically connected. As a result, the main body communication unit 21 and the lens communication unit 37 (described later) on the lens barrel 30 side are electrically connected, so that the signal processing control unit 11 on the body 10 side and the lens barrel 30 side are connected. The lens control unit 31 (described later) is electrically connected. In this state, the two cooperate to control the body 10 and the lens barrel 30 respectively.

次に、レンズ鏡筒30は、レンズ制御部31と、撮像光学系32と、レンズ駆動部33と、状態判定部34と、レンズ側操作部35と、レンズ側記憶部36と、レンズ通信部37等によって主に構成されている。   Next, the lens barrel 30 includes a lens control unit 31, an imaging optical system 32, a lens driving unit 33, a state determination unit 34, a lens side operation unit 35, a lens side storage unit 36, and a lens communication unit. 37 and the like.

レンズ制御部31は、上記ボディ10側の信号処理制御部11の制御下において、若しくはこれと協働して、レンズ鏡筒30側の各構成ユニットの動作を制御する制御回路部である。なお、このレンズ制御部31は省略して構成することもできる。その場合には、レンズ鏡筒30側の制御の全てをボディ10側の信号処理制御部11が担うように構成すればよい。   The lens control unit 31 is a control circuit unit that controls the operation of each component unit on the lens barrel 30 side under the control of the signal processing control unit 11 on the body 10 side or in cooperation therewith. The lens control unit 31 can be omitted. In that case, what is necessary is just to comprise so that all the control by the side of the lens-barrel 30 may take charge of the signal processing control part 11 by the side of the body 10.

撮像光学系32は、撮像対象とする被写体からの光を透過させて被写体の光学像を結像させる複数の光学レンズ等によって構成される光学ユニットである。なお、図面においては詳細な図示を省略しているが、撮像光学系32には、光学レンズを保持する複数の保持枠部材や、これら複数の保持枠部材を各個別に光軸方向に進退させる駆動部材等のほか、ズーミングのためのズーム駆動機構部,フォーカシングのためのフォーカス駆動機構部、透過光束の光量を調整する絞り装置等を含めて構成される構成ユニットである。   The imaging optical system 32 is an optical unit that includes a plurality of optical lenses and the like that transmit light from a subject to be imaged to form an optical image of the subject. Although not shown in detail in the drawings, the imaging optical system 32 includes a plurality of holding frame members that hold the optical lens and a plurality of holding frame members that are individually advanced and retracted in the optical axis direction. In addition to the drive member, the zoom drive mechanism unit for zooming, the focus drive mechanism unit for focusing, and a diaphragm unit that adjusts the amount of transmitted light are included.

レンズ駆動部33は、上記撮像光学系32に含まれる複数の保持枠部材等を光軸方向に進退させる駆動部材及びアクチュエータ等を含んで構成され、上記ズーム駆動機構部や上記フォーカス駆動機構部等を駆動する駆動ユニットである。   The lens driving unit 33 includes a driving member and an actuator that move a plurality of holding frame members and the like included in the imaging optical system 32 in the optical axis direction, and includes the zoom driving mechanism unit, the focus driving mechanism unit, and the like. It is a drive unit which drives.

状態判定部34は、例えば上記撮像光学系32に含まれる各光学レンズ等の光軸上における位置を検出するセンサ等を含んで構成され、使用中の撮像装置1におけるレンズ鏡筒30の撮像光学系32の状態を検出し判定する回路ユニットである。   The state determination unit 34 includes, for example, a sensor that detects a position on the optical axis of each optical lens or the like included in the imaging optical system 32, and the imaging optics of the lens barrel 30 in the imaging apparatus 1 in use. This is a circuit unit that detects and determines the state of the system 32.

レンズ側操作部35は、レンズ鏡筒30側における各種の操作を行うための操作部材、例えば手動による焦点調節操作やズーム操作を行なう操作環や、電動による焦点調節操作やズーム操作を行なう操作スイッチに連動する操作部材のほか、マクロモードと通常撮像モードとの切換操作を行なう操作部材等がある。   The lens side operation unit 35 is an operation member for performing various operations on the lens barrel 30 side, for example, an operation ring for performing manual focus adjustment operation and zoom operation, and an operation switch for performing electric focus adjustment operation and zoom operation. In addition to an operation member that is linked to the operation mode, there are an operation member that performs a switching operation between the macro mode and the normal imaging mode.

レンズ側記憶部36は、レンズ鏡筒30における固有の情報、例えば焦点距離,開放絞り値,レンズ特性等、各種の情報を予め記憶させておく半導体メモリ等を有する回路ユニットである。   The lens-side storage unit 36 is a circuit unit having a semiconductor memory or the like in which various kinds of information such as focal length, open aperture value, and lens characteristics are stored in advance.

レンズ通信部37は、上述したように本体通信部21との間で電気的に接続されることにより、レンズ鏡筒30とボディ10との間の通信を確保する通信用信号処理回路部である。   The lens communication unit 37 is a signal processing circuit unit for communication that secures communication between the lens barrel 30 and the body 10 by being electrically connected to the main body communication unit 21 as described above. .

なお、ボディ10及びレンズ鏡筒30の構成要素としては、上述した構成部材以外にも、その他の各種構成ユニット等を有して構成されているものであるが、それらの各種構成ユニット等は、本発明に直接関連しない構成であるので、従来の一般的な撮像装置と同様の構成を具備するものとして、その詳細説明及び図示を省略している。   The constituent elements of the body 10 and the lens barrel 30 are configured to include other various constituent units in addition to the constituent members described above. Since the configuration is not directly related to the present invention, the detailed description and illustration thereof are omitted as having the same configuration as that of a conventional general imaging device.

例えば、撮像光学系の光路を開閉し、撮像動作の際に撮像光学系を透過する光束の光量を調整するためのシャッター機構については図示及び説明を省略しているが、本実施形態の撮像装置1においても、従来の撮像装置と同様の通常のシャッター機構を有している。この場合において、シャッター機構としては、ボディ10側に配設するフォーカルプレーンシャッターでもよいし、レンズ鏡筒30側に配設するレンズシャッターでもよい。また、機械的なシャッター機構に変えて若しくはこれに加えて撮像部12における撮像素子を電気的に制御することによってシャッター機構として機能させる素子シャッター機能を備えていてもよい。なお、シャッター機構がボディ10側に配設されている場合(素子シャッターも含む)には、シャッター機構は主にボディー側の制御部によって制御される。また、シャッター機構がレンズ鏡筒30側に配設されている場合には、シャッター機構は主にボディー側の制御部の制御下においてレンズ制御部31を介して制御される。   For example, the illustration and description of a shutter mechanism for opening and closing the optical path of the imaging optical system and adjusting the amount of light beam transmitted through the imaging optical system during the imaging operation are omitted. 1 also has a normal shutter mechanism similar to a conventional imaging device. In this case, the shutter mechanism may be a focal plane shutter disposed on the body 10 side or a lens shutter disposed on the lens barrel 30 side. Further, instead of or in addition to the mechanical shutter mechanism, an element shutter function that functions as a shutter mechanism by electrically controlling the image sensor in the imaging unit 12 may be provided. When the shutter mechanism is disposed on the body 10 side (including the element shutter), the shutter mechanism is mainly controlled by the control unit on the body side. When the shutter mechanism is disposed on the lens barrel 30 side, the shutter mechanism is controlled via the lens control unit 31 mainly under the control of the body side control unit.

このような構成の撮像装置1を用いて行なう撮像動作時の作用について、例えば運動会の徒競走等のような状況を想定した場合の具体例を以下に説明する。     The action at the time of the imaging operation performed using the imaging apparatus 1 having such a configuration will be described below with reference to a specific example assuming a situation such as an athletic meet.

ここで、「徒競走」を例として挙げるのは、多くの家族写真で広く馴染みのある撮影状況であるからであって、その他様々なスポーツにおいて、複数の被写体(人物)が、競い合うシーンなら何にでも適用できることは最初に断っておく。もちろん、徒競走に限らず、サッカーやバスケットボールや競泳などでも、こうした駆け引きは見られる。   Here, the reason for the “competitive race” is because it is a shooting situation that is widely used in many family photos. What is the scene where multiple subjects (persons) compete in various other sports? But first I refuse to apply it. Of course, such bargaining can be seen not only in the race, but also in soccer, basketball and swimming.

以下の実施例において、複数被写体の駆け引きを重視したピント合わせが簡単にできるカメラを提供することが出来るが、二つ以上の被写体を、ピントがあった状態で比較することで、ドラマを演出した表現にすることが出来るということが重要な着眼点である。ここでは、なるべく多くの被写体の表情や仕草がクリアに再現される例で説明するために、「全員が」というような表現をしているが、先頭と後方の差異を際立たせた撮影の方が良い場合もあり、その場合は、主要な駆け引きを演じている先頭集団を対象となる「全員」として、ここにだけフォーカスしてもよい。それについても、あらかじめ断った上で説明を続ける。   In the following embodiments, it is possible to provide a camera that can easily focus on the tactics of a plurality of subjects. However, a drama is produced by comparing two or more subjects in a focused state. It is important to be able to express it. Here, in order to explain with an example in which the expression and gestures of as many subjects as possible are clearly reproduced, the expression “everyone” is used, but the shooting that emphasizes the difference between the beginning and the back In this case, the top group performing the main bargaining may be focused on “all” as the target. I will also continue to explain that in advance.

図2は、本実施形態の撮像装置を用いて、例えば運動会の徒競走を対象として撮像する際のようすを示す概念図である。図2において、矩形状の枠20aは、背面表示部18若しくはEVF19のファインダ枠である。   FIG. 2 is a conceptual diagram showing how the image pickup apparatus according to the present embodiment is used to pick up an image for an athletic meet, for example. In FIG. 2, a rectangular frame 20 a is a finder frame of the rear display unit 18 or EVF 19.

撮像装置1を用いて撮像する際には、当該撮像装置1の使用者(ユーザ)は、撮像光学系の前面が撮像対象物に対峙するように撮像装置1を設置する。その際、背面表示部18若しくはEVF19のファインダ枠内に撮像対象物が納まるように設定する。図2においては、例えば運動会の徒競走を撮像対象とし、符号100a〜100eで示す複数の人物(本図においては5人の走者を図示している)が、上記使用者(ユーザ)側に向けて近付く方向に移動している状況を示している。この場合、撮像対象とする複数の人物100a〜100eは、使用者(ユーザ)の前側空間において、同使用者(ユーザ)とを結ぶ線に沿う方向(撮像装置1の光軸方向)に散在した状況にあり、撮像装置1のファインダ枠内にあっては、使用者(ユーザ)に近い距離の被写体(人物100c)は比較的大きくかつ画面下寄りの位置に配置され、使用者(ユーザ)から遠い距離の被写体(人物100a)は比較的小さくかつ画面上寄りの位置に配置されている。なお、以下の説明においては、図2において使用者(ユーザ)に最も近い距離の被写体(人物100c)を先頭被写体というものとする。また、図2において使用者(ユーザ)に最も遠い距離の被写体(人物100a)を最後尾被写体というものとする。   When imaging using the imaging device 1, a user (user) of the imaging device 1 installs the imaging device 1 so that the front surface of the imaging optical system faces the imaging target. At that time, setting is made so that the imaging target object fits in the finder frame of the rear display unit 18 or the EVF 19. In FIG. 2, for example, an athletic meet at an athletic meet is taken as an imaging target, and a plurality of persons indicated by reference numerals 100 a to 100 e (in this figure, five runners are illustrated) are directed toward the user (user) side. It shows the situation of moving in the approaching direction. In this case, the plurality of persons 100a to 100e to be imaged are scattered in the direction (the optical axis direction of the imaging apparatus 1) along the line connecting the user (user) in the front space of the user (user). In the situation, within the finder frame of the image pickup apparatus 1, the subject (person 100c) at a distance close to the user (user) is relatively large and arranged at a lower position on the screen, and from the user (user). A long-distance subject (person 100a) is relatively small and arranged at a position near the top of the screen. In the following description, the subject (person 100c) closest to the user (user) in FIG. In FIG. 2, the subject (person 100a) farthest from the user (user) is referred to as the last subject.

このような状況下における撮像装置1の撮像動作の概略的な流れは、次のようになる。図3は、本実施形態の撮像装置の撮像動作の概略を示すタイムチャートである。また、図4は、本実施形態の撮像装置による撮像動作時の合焦動作を説明する概念図である。   A schematic flow of the imaging operation of the imaging apparatus 1 under such a situation is as follows. FIG. 3 is a time chart showing an outline of the imaging operation of the imaging apparatus of the present embodiment. FIG. 4 is a conceptual diagram for explaining a focusing operation during an imaging operation by the imaging apparatus according to the present embodiment.

まず、撮像装置1の電源状態がオン状態にされた状態にあり、かつ撮像装置1が撮像動作を実行し得る動作モード(撮像モードという)に設定されているものとする。このとき、撮像装置1は、背面表示部18若しくはEVF19のいずれか一方の表示画面に、撮像部12によって取得された画像データに基づく画像を所定の時間間隔で連続的に表示し続けるライブビュー画像表示動作を行う(図3(A))。   First, it is assumed that the power supply state of the imaging device 1 is in an on state and the operation mode in which the imaging device 1 can execute an imaging operation (referred to as an imaging mode) is set. At this time, the imaging device 1 continuously displays images based on the image data acquired by the imaging unit 12 on a display screen of either the rear display unit 18 or the EVF 19 at predetermined time intervals. A display operation is performed (FIG. 3A).

この状態にある時、使用者(ユーザ)は、上記ライブビュー画像表示を観察しながら、任意のタイミングにて、例えば操作部15に含まれる操作部材のうち合焦動作の実行指示信号を発生させる操作部材の操作、若しくはタッチパネル16に対する合焦動作実行のための所定領域へのタッチ操作等を行なう。例えば、図3(B)に示す符号[B1]のタイミングで、上記操作を行ったものとする。すると、これを受けて、撮像装置1においては、図3(C)に示すAF動作処理が開始され、このAF動作処理は所定の間隔で連続的に継続実行される。   In this state, the user (user) generates an execution instruction signal for focusing operation among the operation members included in the operation unit 15, for example, while observing the live view image display. An operation of an operation member or a touch operation on a predetermined area for performing a focusing operation on the touch panel 16 is performed. For example, it is assumed that the above operation is performed at the timing indicated by the symbol [B1] illustrated in FIG. In response to this, the imaging apparatus 1 starts the AF operation process shown in FIG. 3C, and the AF operation process is continuously executed at a predetermined interval.

上記合焦動作実行指示操作の後、使用者(ユーザ)は、上記ライブビュー画像表示を観察しながら、任意のタイミングにて、例えば操作部15に含まれる操作部材のうち撮像動作の実行指示信号を発生させる操作部材の操作、若しくはタッチパネル16に対する撮像動作実行のための所定領域へのタッチ操作等を行なう。例えば、図3(B)に示す符号[B2]のタイミングで、上記操作を行ったものとする。すると、これを受けて、まずライブビュー画像表示動作が一時的に停止される(図3(A)の符号[A])。その後、上記撮像動作実行指示信号の発生タイミング時(図3(B)の符号[B2])の直前に実行されたAF動作Taf0(図3(C)の符号[C1])の結果と、同撮像動作実行指示信号の発生タイミング時の直後に実行されるAF動作Taf1(図3(C)の符号[C2])の結果とに基づいて、図3(D)の合焦動作(符号(D))が実行される。   After the focusing operation execution instruction operation, the user (user) observes the live view image display at an arbitrary timing, for example, an imaging operation execution instruction signal among the operation members included in the operation unit 15. An operation of an operation member that generates a touch or a touch operation on a predetermined area for performing an imaging operation on the touch panel 16 is performed. For example, it is assumed that the above operation is performed at the timing indicated by the symbol [B2] illustrated in FIG. Then, in response to this, first, the live view image display operation is temporarily stopped (symbol [A] in FIG. 3A). Thereafter, the result is the same as the result of the AF operation Taf0 (symbol [C1] in FIG. 3C) executed immediately before the generation timing of the imaging operation execution instruction signal (symbol [B2] in FIG. 3B). Based on the result of the AF operation Taf1 (symbol [C2] in FIG. 3C) that is executed immediately after the generation timing of the imaging operation execution instruction signal, the focusing operation (symbol (D (D )) Is executed.

ここで、上記AF動作のうちTaf0(符号[C1])の開始時点からTaf1(符号[C2])の終了時点までの間の時間をΔTafとする。また、上記AF動作のTaf1(符号[C2])の終了時点から合焦動作(符号[D])に係る時間を含めて実際の撮像動作開始時点までの時間(図3(E)の符号[E])をΔT1とする。   Here, in the AF operation, the time from the start time of Taf0 (symbol [C1]) to the end time of Taf1 (symbol [C2]) is defined as ΔTaf. Further, the time from the end of the AF operation Taf1 (symbol [C2]) to the actual imaging operation start time including the time related to the focusing operation (symbol [D]) (symbol [ E]) is assumed to be ΔT1.

この場合において、上記合焦動作(符号[D])にかかる時間としては、例えば撮像光学系のうちAF動作に関わるレンズ光学系が駆動されて所定の合焦位置へと移動するのに要する時間等が含まれる。   In this case, the time required for the focusing operation (symbol [D]) is, for example, the time required for the lens optical system related to the AF operation in the imaging optical system to be driven and moved to a predetermined focusing position. Etc. are included.

このように、通常の場合(本撮像装置1においても)、AF動作結果に基づく演算処理の後、実際の撮像動作が開始されるまでの間には、合焦動作に多少の時間が必要になる。つまり、上記AF演算処理の結果を得た後に、合焦動作のための機械的な動作が行なわれるので、実際の撮像動作が開始されるまでの間に若干のタイムラグが生じることになる。ところが、実際の状況においては、そのタイムラグが生じている時間においても、撮像対象の複数の被写体は移動を継続している。したがって、実際に合焦動作(図3(D))を実行するのに際しては、上記タイムラグの間に移動する被写体の移動量を見越して、撮像動作の実行開始時点における被写体の位置を予測する必要がある。   As described above, in a normal case (also in the present imaging apparatus 1), after the arithmetic processing based on the AF operation result and before the actual imaging operation is started, some time is required for the focusing operation. Become. That is, since the mechanical operation for the focusing operation is performed after obtaining the result of the AF calculation process, there is a slight time lag before the actual imaging operation is started. However, in an actual situation, a plurality of subjects to be imaged continue to move even during the time lag occurs. Therefore, when actually performing the focusing operation (FIG. 3D), it is necessary to predict the position of the subject at the start of the imaging operation in anticipation of the amount of movement of the subject moving during the time lag. There is.

より詳しく説明すると、上記AF動作Taf0は、図4(A)に示すように、例えば撮像対象とする画面内の複数の人物が存在しているとすると(本図においては図面の煩雑化を避けるため4人の走者を図示している)、撮像装置1は、当該撮像装置1から画面内の撮像対象の4人の走者のそれぞれまでの各距離を測定する。続いて、撮像装置1は、上記AF動作Taf1において、図4(B)に示すように、例えば画面内の撮像対象の4人の走者のそれぞれまでの各距離を測定する。   More specifically, in the AF operation Taf0, as shown in FIG. 4A, for example, when there are a plurality of persons on the screen to be imaged (in this figure, the drawing is not complicated). Therefore, the imaging device 1 measures each distance from the imaging device 1 to each of the four runners to be imaged in the screen. Subsequently, in the AF operation Taf1, the imaging device 1 measures each distance to each of the four runners to be imaged in the screen, for example, as shown in FIG. 4B.

上記AF動作Taf0の測定時点と、Taf1の測定時点との間には、所定の時間が経過している。したがって、その間に、撮像対象の4人の走者はそれぞれ所定の距離だけ撮像装置1に向かって移動している。したがって、上記AF動作Taf0の測定結果と、Taf1の測定結果とは異なる距離値が算出されていることになる。   A predetermined time elapses between the measurement time point of the AF operation Taf0 and the measurement time point of Taf1. Therefore, in the meantime, the four runners to be imaged are moved toward the imaging device 1 by a predetermined distance. Therefore, a distance value different from the measurement result of the AF operation Taf0 and the measurement result of Taf1 is calculated.

この場合において、本撮像装置1は、上記被写体判別部11c(図1参照)によって、撮像対象とする4人の走者(人物)を特定することができ、そのデータは記憶部14等において一時的に記憶される。つまり、被写体判別部11cによる判別結果と、AF動作Taf0の測定結果及びTaf1の測定結果に基づいて、特定の被写体が画面内において移動した場合の移動量,移動方向等の情報を得ることができる。このようにして、本実施形態の撮像装置1は、図3,図4においてΔTafで示す時間内にて所定のAF動作(各被写体までの距離測定処理)が実行される。   In this case, the imaging apparatus 1 can specify four runners (persons) to be imaged by the subject determination unit 11c (see FIG. 1), and the data is temporarily stored in the storage unit 14 or the like. Is remembered. That is, based on the determination result by the subject determination unit 11c, the measurement result of the AF operation Taf0, and the measurement result of Taf1, information such as the movement amount and the movement direction when a specific subject moves in the screen can be obtained. . In this manner, the imaging apparatus 1 of the present embodiment performs a predetermined AF operation (distance measurement processing to each subject) within the time indicated by ΔTaf in FIGS. 3 and 4.

なお、上記の処理においては、撮像装置1から画面内の複数の被写体(4人の走者)のそれぞれまでの各距離を測定するとして説明したが、実際には距離を測定するわけではなく、例えば画面内における特定被写体の位置変化、即ち画面内における相対的な移動量等を算出すればよい。この場合、扱うデータとしては、例えば「1/距離」等となるが、説明の煩雑化を避けるために、以下の説明においては、単に距離又は距離情報と表記するものとする。   In the above processing, it has been described that each distance from the imaging device 1 to each of a plurality of subjects (four runners) in the screen is measured. However, the distance is not actually measured. A change in the position of the specific subject in the screen, that is, a relative movement amount in the screen may be calculated. In this case, the data to be handled is, for example, “1 / distance” or the like, but in the following description, it is simply expressed as distance or distance information in order to avoid complication of the description.

その後、図3(E)に示すように、実際の撮像動作が、例えば同図3(E)の符号[E1]で示す時点において実行開始され、図3(A)の符号[E2],図3(E)で示す符号TPhotoのタイミングで終了する。この撮像動作の期間においては、撮像部12が駆動制御されて、当該撮像部12の撮像素子により画像データが取得され、取得された画像データは信号処理制御部11における各回路部において所定の処理が施される。そうして生成された画像データは、例えば背面表示部18若しくはEVF19へと送られてレックビュー表示(取得画像の再生表示)が所定時間だけ行なわれる。同時に、上記画像データは、例えば記憶部14へと送られてデータ記憶処理が行われる。   Thereafter, as shown in FIG. 3E, the actual imaging operation is started at, for example, the time indicated by the symbol [E1] in FIG. 3E, and the symbol [E2] in FIG. The process ends at the timing of the code TPhot indicated by 3 (E). During this imaging operation period, the imaging unit 12 is driven and controlled, and image data is acquired by the imaging element of the imaging unit 12. The acquired image data is subjected to predetermined processing in each circuit unit in the signal processing control unit 11. Is given. The image data generated in this way is sent to, for example, the rear display unit 18 or the EVF 19, and REC view display (reproduction display of the acquired image) is performed for a predetermined time. At the same time, the image data is sent to, for example, the storage unit 14 for data storage processing.

そして、上記撮像動作が終了すると、図3(A)のライブビュー画像表示動作やAF動作が再開される。なお、この場合において、AF動作については、撮像動作終了後に再開さなくともよく、使用者(ユーザ)による次の合焦動作実行指示操作を待って、AF動作を行なうようにしてもよい。   When the imaging operation is completed, the live view image display operation and the AF operation in FIG. 3A are resumed. In this case, the AF operation does not have to be restarted after the imaging operation is completed, and the AF operation may be performed after the next focusing operation execution instruction operation by the user (user).

また、上記の例では、撮像動作実行指示信号が発生すると、その直前のAF動作と直後のAF動作の二回のAF動作の結果に基づいて合焦動作を実行するようにしているが、これに限られることはない。例えば、撮像動作実行指示信号の発生後、直後のAF動作の結果に基づいて合焦動作を実行するような制御でもよい。   In the above example, when the imaging operation execution instruction signal is generated, the focusing operation is executed based on the results of the two AF operations of the immediately preceding AF operation and the immediately following AF operation. It is not limited to. For example, the control may be such that the focusing operation is executed based on the result of the AF operation immediately after the imaging operation execution instruction signal is generated.

本実施形態の撮像装置1において、上述のような状況下における撮像動作を行うのに際しては、撮像動作の実行開始時点の被写体位置を予測して合焦動作が実行される。つまり、合焦動作は、その予測位置の被写体を目標として合焦状態とする動作となる。ここで、その合焦予測目標地点を、図4(C)の符号P0で示す。撮像装置1(の撮像面)から上記合焦予測目標地点P0までの距離を、図4(C)においては符号Lで示している。   In the imaging apparatus 1 of the present embodiment, when performing an imaging operation under the above-described situation, a focusing operation is performed by predicting the subject position at the start of the imaging operation. That is, the in-focus operation is an operation in which the subject at the predicted position is brought into the in-focus state. Here, the focus prediction target point is indicated by a symbol P0 in FIG. The distance from the imaging device 1 (imaging surface thereof) to the focus prediction target point P0 is indicated by a symbol L in FIG.

また、図4(C)において、先頭被写体の予測位置を符号P2で、最後尾被写体の予測位置を符号P1で、それぞれ示している。   In FIG. 4C, the predicted position of the first subject is indicated by reference symbol P2, and the predicted position of the last subject is indicated by reference symbol P1.

この場合において、本実施形態の撮像装置1における信号処理制御部11は、先頭被写体P2から最後尾被写体P1までのほぼ全てができるだけ合焦状態となるような被写界深度を確保し得るF値(絞り値)を選択し、かつ被写体ブレ等が生じないようにできるだけ速いシャッター速度値を選択設定する自動露出制御を行なう。このような制御処理が、図3(E),図4(C)のΔT1で示す時間内において実行される。このような動作形態(シーンモード)を、本実施形態の撮像装置1においては、「徒競走モード」というものとする。撮像装置1におけるシーンモードの設定は、使用者(ユーザ)が所定の操作部材を用いて自発的に操作することにより、任意に所望のシーンモードを選択設定するようにしてもよいし、また、撮像装置1が、撮像部12によって取得した撮像画像データなどに基づいて撮像状況を自動的に判定し、シーンモードを自動切り替えするようにしてもよい。   In this case, the signal processing control unit 11 in the imaging apparatus 1 according to the present embodiment can secure an F-field depth that can ensure that almost all of the first subject P2 to the last subject P1 are in focus as much as possible. (Aperture value) is selected, and automatic exposure control is performed to select and set the fastest possible shutter speed value so as not to cause subject blurring. Such control processing is executed within the time indicated by ΔT1 in FIGS. 3 (E) and 4 (C). Such an operation mode (scene mode) is referred to as an “accompaniment mode” in the imaging apparatus 1 of the present embodiment. The setting of the scene mode in the imaging apparatus 1 may be performed by arbitrarily selecting a desired scene mode by a user (user) operating voluntarily using a predetermined operation member. The imaging apparatus 1 may automatically determine the imaging state based on the captured image data acquired by the imaging unit 12 and automatically switch the scene mode.

なお、図4(C)においては、被写界深度を符号Lsで示し、前方被写界深度を符号Lfで、後方被写界深度を符号Lrで示している。   In FIG. 4C, the depth of field is indicated by a symbol Ls, the front depth of field is indicated by a symbol Lf, and the rear depth of field is indicated by a symbol Lr.

本実施形態の撮像装置1における上述したような作用、即ち「徒競走モード」による撮像動作時の具体的なカメラ制御処理について、以下に詳述する。   The operation as described above in the image pickup apparatus 1 of the present embodiment, that is, a specific camera control process during the image pickup operation in the “training mode” will be described in detail below.

図5は、本実施形態の撮像装置におけるカメラ制御処理の流れを示すフローチャートである。図6は、図5のフローチャート中における被写界深度設定制御処理(ステップS107)を示すフローチャートである。図7は、図6のフローチャート中の一部の処理である「最適な被写界深度算出処理」を詳細に示すフローチャートである。図8は、被写界深度を算出するための計算式である。   FIG. 5 is a flowchart showing the flow of camera control processing in the imaging apparatus of the present embodiment. FIG. 6 is a flowchart showing the depth-of-field setting control process (step S107) in the flowchart of FIG. FIG. 7 is a flowchart showing in detail an “optimum depth of field calculation process” which is a part of the process in the flowchart of FIG. FIG. 8 is a calculation formula for calculating the depth of field.

撮像装置1が電源オン状態にされると、図5に示すカメラ制御処理のフローチャートの実行が開始される。まず、図5のステップS101において、信号処理制御部11は、現在設定されている動作モードが、撮像動作を実行し得る撮像モードに設定されているか否かの確認を行なう。ここで、撮像モードに設定されていることが確認されると、次のステップS102の処理に進む。また、撮像モード以外に設定されている場合にはステップS121の処理に進む。   When the imaging apparatus 1 is turned on, execution of the flowchart of the camera control process shown in FIG. 5 is started. First, in step S101 of FIG. 5, the signal processing control unit 11 checks whether or not the currently set operation mode is set to an imaging mode capable of executing an imaging operation. Here, if it is confirmed that the imaging mode is set, the process proceeds to the next step S102. If it is set to a mode other than the imaging mode, the process proceeds to step S121.

ステップS102において、信号処理制御部11は、背面表示部18若しくはEVF19のいずれか一方の表示画面に、撮像部12によって取得された画像データに基づく画像を所定の時間間隔で連続的に表示し続けるライブビュー画像表示処理を実行する。   In step S102, the signal processing control unit 11 continuously displays images based on the image data acquired by the imaging unit 12 on the display screen of either the rear display unit 18 or the EVF 19 at predetermined time intervals. Perform live view image display processing.

続いて、ステップS103において、信号処理制御部11は、被写体判定部11cを制御して、撮像部12によって取得した画像データに基づいて撮像対象とする複数の人物(の対応する顔)を識別する。さらに、信号処理制御部11は、上記被写体判定部11cにより識別された複数の各人物までのそれぞれの距離情報を、測距部11fを用いて測定する演算処理を行なう。この測距部11fを用いて行われる距離測定処理は、従来一般の撮像装置において行われている演算処理と全く同様である。   Subsequently, in step S103, the signal processing control unit 11 controls the subject determination unit 11c to identify a plurality of persons (corresponding faces) to be imaged based on the image data acquired by the imaging unit 12. . Further, the signal processing control unit 11 performs arithmetic processing for measuring the distance information to each of the plurality of persons identified by the subject determination unit 11c using the distance measurement unit 11f. The distance measurement process performed using the distance measuring unit 11f is exactly the same as the calculation process performed in a conventional general imaging apparatus.

次に、ステップS104において、信号処理制御部11は、上述のステップS103の処理にて識別された被写体の顔情報と、当該顔情報に各対応する距離情報を、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶するデータ一時保存処理を実行する。   Next, in step S104, the signal processing control unit 11 includes the face information of the subject identified in the process of step S103 and the distance information corresponding to the face information in the storage unit 14, for example. A temporary data storage process for temporarily storing data in a temporary storage memory or the like (not shown) is executed.

ステップS105において、信号処理制御部11は、上述のステップS104の処理にて識別された顔情報と同じ顔情報が、既に一時保存データ内に複数存在するか否かの確認を行なう。ここで、一時保存データ内に識別された顔情報と同じ顔情報が複数存在することが確認された場合には、次のステップS106の処理に進む。また、確認されない場合、例えば初回測距時等においては、ステップS111の処理に進む。   In step S105, the signal processing control unit 11 confirms whether or not a plurality of pieces of face information identical to the face information identified in the process of step S104 described above already exists in the temporarily stored data. If it is confirmed that a plurality of face information identical to the identified face information exists in the temporarily stored data, the process proceeds to the next step S106. If it is not confirmed, for example, at the first distance measurement, the process proceeds to step S111.

なお、ここで顔検出を行っているが、必ずしもこれは必須ではなく、複数のポイントの距離変化とパターン変化の相関によっても、対象物の移動について判定が出来る事は言うまでもない。   Note that although face detection is performed here, this is not always necessary, and it is needless to say that the movement of the object can be determined based on the correlation between the distance change of a plurality of points and the pattern change.

ステップS106において、信号処理制御部11は、測距部11f,位置変化予測部11e等を制御して、上述のステップS105の処理にて確認された各顔情報に対応する一時保存済みの各測距データ(距離情報)と、上述のステップS103の処理にて得られた顔情報に対応する測距データ(距離情報)とを比較して、両者間に画面内における位置変化(被写体までの距離変化)があるか否か、即ち、特定の被写体(人物)が移動したか否かの確認を行なう。ここで、画面内における位置変化(被写体までの距離変化)が確認された場合には、次のステップS107の処理に進む。また、画面内における位置変化(被写体までの距離変化)が確認されない場合には、ステップS111の処理に進む。   In step S106, the signal processing control unit 11 controls the distance measurement unit 11f, the position change prediction unit 11e, and the like, and each temporarily stored measurement corresponding to each face information confirmed in the process of step S105 described above. The distance data (distance information) is compared with the distance measurement data (distance information) corresponding to the face information obtained in the process of step S103 described above, and the position change in the screen (distance to the subject) between them. Change), that is, whether or not a specific subject (person) has moved. If a change in position (change in distance to the subject) in the screen is confirmed, the process proceeds to the next step S107. If no change in position (change in distance to the subject) in the screen is confirmed, the process proceeds to step S111.

ステップS107において、信号処理制御部11は、本撮像装置1の撮像モード時の動作形態(シーンモード)を「徒競走モード」に切り換える(この場合の例はシーンモード自動切り替え制御がなされている)。そして、上述のステップS103〜S106の処理において得られた結果、即ち画面内における位置変化(被写体までの距離変化)が確認された撮像対象(被写体)の先頭被写体から最後尾被写体までのほぼ全てができるだけ合焦状態となる被写界深度を確保するための各種設定を行なう制御処理(図6,図7のサブルーチン)を実行する。その後ステップS111の処理に進む。   In step S <b> 107, the signal processing control unit 11 switches the operation mode (scene mode) in the imaging mode of the imaging apparatus 1 to the “competitive running mode” (in this example, automatic scene mode switching control is performed). The results obtained in the above-described steps S103 to S106, that is, almost all of the imaging subject (subject) from which the position change in the screen (distance change to the subject) is confirmed, from the first subject to the last subject. A control process (subroutines in FIGS. 6 and 7) for performing various settings for ensuring a depth of field that is in focus as much as possible is executed. Thereafter, the process proceeds to step S111.

ここで、上述のステップS107の処理、即ち、被写界深度設定制御処理の詳細について、図6のサブルーチンを用いて以下に説明する。   Here, the details of the process in step S107 described above, that is, the depth of field setting control process will be described below using the subroutine of FIG.

なお、ここで説明する例では説明の煩雑さを避けるために、徒競走を撮像対象とする状況下において、撮像対象とする複数の人物(走者)は3人存在するものとして説明しているが、それ以上の人数であっても構わないことは勿論である。その場合には、走者毎に対応する判定ステップを行うようにすればよい。   In addition, in the example described here, in order to avoid the complexity of the description, it is described that there are a plurality of persons (runners) to be imaged in the situation in which a student race is to be imaged, It goes without saying that the number of persons may be larger. In that case, a determination step corresponding to each runner may be performed.

まず、図6のステップS201において、信号処理制御部11は、近付いている人物Aのスピード判定を行なう。その場合の判定結果をSaとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   First, in step S201 of FIG. 6, the signal processing control unit 11 determines the speed of the person A who is approaching. In this case, the determination result is Sa, and the data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14.

ここで行なわれるスピード判定とは、上述の図5のステップS103〜S106の処理にて行なう複数回(二回)の距離測定処理による演算結果に基づいて算出される特定被写体の移動量等に基づいて得られる被写体の移動速度を判定する処理である。   The speed determination performed here is based on a moving amount of a specific subject calculated based on a calculation result by a plurality of (twice) distance measurement processes performed in the processes of steps S103 to S106 of FIG. It is a process which determines the moving speed of the to-be-obtained subject.

同様に、ステップS202において、信号処理制御部11は、近付いている人物Bのスピード判定を行なう。その場合の判定結果をSbとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Similarly, in step S202, the signal processing control unit 11 determines the speed of the person B approaching. In this case, the determination result is Sb, and the data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14.

続いて、ステップS203において、信号処理制御部11は、近付いている人物Cのスピード判定を行なう。その場合の判定結果をScとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Subsequently, in step S203, the signal processing control unit 11 determines the speed of the approaching person C. In this case, the determination result is Sc, and the data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14.

次に、ステップS204において、信号処理制御部11は、近付いている人物Aまでの距離を判定し、その場合の判定結果をDaとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。ここで行なわれる距離判定は、例えば当該撮像装置1からの距離の大小(遠近)等を判定する。   Next, in step S204, the signal processing control unit 11 determines the distance to the approaching person A, the determination result in that case is Da, and the data is stored in the temporary storage memory included in the storage unit 14, for example. Etc. (not shown) are temporarily stored. The distance determination performed here determines, for example, the magnitude (far / near) of the distance from the imaging apparatus 1.

同様に、ステップS205において、信号処理制御部11は、近付いている人物Bまでの距離を判定し、その場合の判定結果をDbとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Similarly, in step S205, the signal processing control unit 11 determines the distance to the approaching person B, sets the determination result in this case to Db, and stores the data in, for example, the temporary storage memory included in the storage unit 14 Etc. (not shown) are temporarily stored.

続いて、ステップS206において、信号処理制御部11は、近付いている人物Cまでの距離を判定し、その場合の判定結果をDcとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Subsequently, in step S206, the signal processing control unit 11 determines the distance to the approaching person C, sets the determination result in that case as Dc, and stores the data in, for example, the temporary storage memory included in the storage unit 14 Etc. (not shown) are temporarily stored.

次に、ステップS211において、信号処理制御部11は、位置変化予測部11eを制御して時間ΔT後の人物Aまでの距離を判定(距離予測判定)し、その場合の判定結果をDatとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Next, in step S211, the signal processing control unit 11 determines the distance to the person A after the time ΔT by controlling the position change prediction unit 11e (distance prediction determination), and the determination result in this case is Dat. The data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14.

同様に、ステップS212において、信号処理制御部11は、位置変化予測部11eを制御して時間ΔT後の人物Bまでの距離を判定(距離予測判定)し、その場合の判定結果をDbtとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   Similarly, in step S212, the signal processing control unit 11 controls the position change prediction unit 11e to determine the distance to the person B after time ΔT (distance prediction determination), and the determination result in this case is set to Dbt. The data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14.

ステップS213において、信号処理制御部11は、位置変化予測部11eを制御して時間ΔT後の人物Cまでの距離を判定(距離予測判定)し、その場合の判定結果をDctとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。   In step S213, the signal processing control unit 11 determines the distance to the person C after the time ΔT by controlling the position change prediction unit 11e (distance prediction determination), and the determination result in this case is Dct, and the data is For example, the data is temporarily stored in a temporary storage memory or the like (not shown) included in the storage unit 14.

ステップS214において、信号処理制御部11は、上述の各処理ステップにて取得した距離予測判定結果Dat〜Dctのうち当該撮像装置1からの距離が最も近い距離を判定し、その場合の判定結果をDnとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。即ち、この処理において画面内の複数の人物のうちの先頭の人物が判別される。   In step S214, the signal processing control unit 11 determines the closest distance from the imaging apparatus 1 among the distance prediction determination results Dat to Dct acquired in each of the above-described processing steps, and the determination result in that case is determined. For example, the data is temporarily stored in a temporary storage memory or the like (not shown) included in the storage unit 14. That is, in this process, the first person among the plurality of persons in the screen is determined.

同様に、ステップS215において、信号処理制御部11は、上述の各処理ステップにて取得した距離予測判定結果Dat〜Dctのうち当該撮像装置1からの距離が最も遠い距離を判定し、その場合の判定結果をDfとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。即ち、この処理において画面内の複数の人物のうちの最後尾の人物が判別される。   Similarly, in step S215, the signal processing control unit 11 determines the distance that is the farthest from the imaging device 1 among the distance prediction determination results Dat to Dct acquired in each of the above-described processing steps. The determination result is Df, and the data is temporarily stored in, for example, a temporary storage memory (not shown) included in the storage unit 14. That is, in this process, the last person among the plurality of persons in the screen is determined.

続いて、ステップS216において、信号処理制御部11は、上述のステップS214,S215にて取得した判定結果Df(最後尾予測距離)と判定結果Dn(先頭予測距離)との間において、合焦動作を行なう目標距離(合焦目標距離)を算出し、その場合の算出結果をDmとし、そのデータを、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して一時的に記憶する。なお、合焦目標距離Dmは、上述の図4においては符号Lに相当する。   Subsequently, in step S216, the signal processing control unit 11 performs a focusing operation between the determination result Df (last predicted distance) and the determination result Dn (first predicted distance) acquired in steps S214 and S215 described above. A target distance (in-focus target distance) is calculated, and the calculation result in this case is set as Dm, and the data is temporarily stored in a temporary storage memory (not shown) included in the storage unit 14, for example. To do. The in-focus target distance Dm corresponds to the symbol L in FIG.

ステップS217において、信号処理制御部11は、合焦目標距離Dm〜先頭予測距離Dnまでの合焦状態をカバーする複数のF値(絞り値)を算出する。その後、図5の元の処理ステップに戻り(リターン)、図5のステップS111の処理に進む。   In step S217, the signal processing control unit 11 calculates a plurality of F values (aperture values) covering the in-focus state from the in-focus target distance Dm to the head predicted distance Dn. Thereafter, the process returns to the original process step of FIG. 5 (return), and proceeds to the process of step S111 of FIG.

上述のステップS216〜S217の処理ステップについて図7,図8を用いて、さらに詳しく説明する。図7に示すフローチャート「最適な被写界深度算出処理」は、上述の図6におけるステップS216〜S217の処理を詳述するサブルーチンである。   The processing steps of steps S216 to S217 described above will be described in more detail with reference to FIGS. The flowchart “optimum depth of field calculation process” shown in FIG. 7 is a subroutine that details the processes in steps S216 to S217 in FIG.

図7のステップS151〜S152において、信号処理制御部11は、合焦目標距離Dmを決定する処理を行なう(図6のステップS216の処理に相当する)。   In steps S151 to S152 of FIG. 7, the signal processing control unit 11 performs a process of determining the in-focus target distance Dm (corresponding to the process of step S216 of FIG. 6).

ここで、まず、被写界深度は、被写体像において焦点が合っているように見える際の被写体側における撮像装置1からの距離範囲をいうものである。この被写界深度は、合焦動作を行った対象位置の前後の距離範囲である。この場合、前方の被写界深度を前方被写界深度といい、後方の被写界深度を前方被写界深度という。例えば、図4(C)において、被写界深度Lsとするとき、前方被写界深度Lf,後方被写界深度Lrである。   Here, first, the depth of field refers to a distance range from the imaging device 1 on the subject side when the subject image appears to be in focus. This depth of field is a distance range before and after the target position where the focusing operation is performed. In this case, the front depth of field is called the front depth of field, and the rear depth of field is called the front depth of field. For example, in FIG. 4C, when the depth of field is Ls, the forward depth of field Lf and the backward depth of field Lr.

合焦目標距離Dmは、撮像装置1と被写体までの距離(被写体距離という)、即ち最後尾予測距離Df(ステップS215にて取得済み)と先頭予測距離Dn(ステップS214にて取得済み)とによって規定される両距離の間の所定の位置を決定することになる(図6のステップS216)。この場合において、合焦目標距離Dmの決定は、当該撮像装置1において装着されているレンズ鏡筒30の焦点距離f情報と、被写体距離情報とに基づいて行なわれる。   The in-focus target distance Dm is determined by the distance from the imaging device 1 to the subject (subject distance), that is, the final predicted distance Df (obtained in step S215) and the predicted head distance Dn (obtained in step S214). A predetermined position between both prescribed distances is determined (step S216 in FIG. 6). In this case, the focus target distance Dm is determined based on the focal length f information of the lens barrel 30 attached to the imaging apparatus 1 and the subject distance information.

ここで、被写界深度Lsにおける前方被写界深度Lf,後方被写界深度Lrの比率は、通常の場合、前1:後2となるのが一般である。しかしながら、これは各種の撮像条件によって変わるものであり、例えば被写界深度Lsが浅い(範囲が狭い)場合には、前1:後1のようになる。ここで、一般的には、例えば同じF値(絞り値)の場合、焦点距離fが長いレンズ(長焦点レンズ)ほど被写界深度が浅くなる傾向があることがわかっている。また、被写体までの距離(合焦目標距離)が長くなるほど被写界深度が深くなる傾向があることも周知である。   Here, in general, the ratio of the front depth of field Lf and the rear depth of field Lr in the depth of field Ls is generally 1: front and 2 after. However, this varies depending on various imaging conditions. For example, when the depth of field Ls is shallow (the range is narrow), it is as follows: front 1: rear 1. Here, it is generally known that, for example, in the case of the same F value (aperture value), a lens having a longer focal length f (long focal lens) tends to have a shallower depth of field. It is also well known that the depth of field tends to increase as the distance to the subject (focus target distance) increases.

そこで、例えばレンズ鏡筒30の撮像光学系32の焦点距離fと、被写体距離と、被写界深度の前後比率との関係を示すテーブルデータを用意しておき、これを参照することによって、その時の被写界深度の前後比率を決定する(図7のステップS151)。なお、上記テーブルデータは、例えば上記記憶部14に含まれる一時記憶メモリ等(不図示)に対して予め記憶させることにより用意しておけばよい。   Therefore, for example, table data indicating the relationship between the focal length f of the imaging optical system 32 of the lens barrel 30, the subject distance, and the front / rear ratio of the depth of field is prepared, and by referring to this, The front-to-back ratio of the depth of field is determined (step S151 in FIG. 7). The table data may be prepared by storing in advance, for example, in a temporary storage memory (not shown) included in the storage unit 14.

次に、最後尾予測距離Dfから先頭予測距離Dnまでの間の距離範囲を、上記ステップS151の処理にて決定した比率にて按分して、合焦目標距離Dmを決定する(図6のステップS152)。   Next, the in-focus target distance Dm is determined by proportionally dividing the distance range from the tail predicted distance Df to the head predicted distance Dn by the ratio determined in the process of step S151 (step in FIG. 6). S152).

次に、ステップS153にて、信号処理制御部11は、レンズ鏡筒30の各F値毎に対応する被写界深度を算出する。ここで、被写界深度の算出は、図8に示す数式が用いられる。この場合において、許容錯乱円δ(mm)の数値は、撮像素子のサイズと観察時の画面サイズ(表示装置の表示画面又はプリントサイズ等)とによって、つまり画像の拡大率によって予め設定される規定の数値である。具体的には、例えば約36mmx24mmの画面サイズを持つ撮像素子により取得される画像を、例えば対角線長10インチ程度の表示画面サイズを有する表示装置(または例えば八切サイズ(6インチx8インチ)程度のサイズのプリント)で鑑賞する場合、一般的には0.03mm(30μm)程度とされる。   Next, in step S153, the signal processing control unit 11 calculates a depth of field corresponding to each F value of the lens barrel 30. Here, the formula shown in FIG. 8 is used to calculate the depth of field. In this case, the numerical value of the allowable circle of confusion δ (mm) is a preliminarily set rule depending on the size of the image sensor and the screen size at the time of observation (display screen or print size of the display device, etc.), that is, the magnification of the image. It is a numerical value. Specifically, for example, an image acquired by an image sensor having a screen size of about 36 mm × 24 mm is displayed on a display device having a display screen size of, for example, a diagonal length of about 10 inches (or, for example, about eight-cut size (6 inches × 8 inches)). In general, when viewing with a size print), it is about 0.03 mm (30 μm).

続いて、ステップS154において、信号処理制御部11は、上述のステップS153にて算出された各F値毎の被写界深度データと、最後尾予測距離Df(図6のステップS215にて取得済み)と先頭予測距離Dn(図6のステップS214にて取得済み)とに基づいて、先頭の走者と最後尾の走者とが被写界深度内に含まれる場合のF値(絞り値)を決定する。   Subsequently, in step S154, the signal processing control unit 11 acquires the depth-of-field data for each F value calculated in step S153 described above and the final predicted distance Df (already acquired in step S215 in FIG. 6). ) And the predicted head distance Dn (obtained in step S214 in FIG. 6), the F value (aperture value) when the head runner and the tail runner are included within the depth of field is determined. To do.

ステップS155において、信号処理制御部11は、上述のステップS154にて決定されたF値(絞り値)に対応し、その撮像状況に適する露出を得ることのできるシャッター速度を決定する。その後、元の処理ステップに戻る(リターン)。   In step S155, the signal processing control unit 11 determines a shutter speed corresponding to the F value (aperture value) determined in step S154 and capable of obtaining an exposure suitable for the imaging state. Thereafter, the process returns to the original processing step (return).

図5に戻って、ステップS111において、信号処理制御部11は、操作判定部11aを介して操作部15若しくはタッチパネル16への操作指示信号を監視して、撮像動作を指示する撮像指示信号(例えばシャッタレリーズ信号等)が発生したか否かの確認を行なう。ここで、撮像指示信号が確認された場合には、次のステップS112の処理に進む。また、撮像指示信号が確認されない場合には、上述のステップS102の処理に戻る。   Returning to FIG. 5, in step S <b> 111, the signal processing control unit 11 monitors an operation instruction signal to the operation unit 15 or the touch panel 16 via the operation determination unit 11 a and instructs an imaging operation (for example, an imaging operation). It is confirmed whether or not a shutter release signal or the like has occurred. If the imaging instruction signal is confirmed, the process proceeds to the next step S112. If the imaging instruction signal is not confirmed, the process returns to step S102 described above.

ステップS112において、信号処理制御部11は、撮像部12によって取得される画像データに基づいて、撮像部12のAF部12a若しくはコントラスト判定部11d等を制御して合焦動作を実行する。同時に、信号処理制御部11は、撮像部12によって取得される同画像データに基づいて測光処理を行なう。そして、信号処理制御部11は、その測光結果に基づいて、設定すべきF値(絞り値)及びシャッター速度等の適正露出値を算出する。その算出結果に基づいて、信号処理制御部11は、レンズ鏡筒30のレンズ制御部31と協働して、同レンズ鏡筒30の撮像光学系32に含まれる絞り装置を駆動制御する。   In step S112, the signal processing control unit 11 controls the AF unit 12a or the contrast determination unit 11d of the imaging unit 12 based on the image data acquired by the imaging unit 12, and executes a focusing operation. At the same time, the signal processing control unit 11 performs photometric processing based on the same image data acquired by the imaging unit 12. Then, the signal processing control unit 11 calculates an appropriate exposure value such as an F value (aperture value) and a shutter speed to be set based on the photometric result. Based on the calculation result, the signal processing control unit 11 drives and controls the aperture device included in the imaging optical system 32 of the lens barrel 30 in cooperation with the lens control unit 31 of the lens barrel 30.

続いて、ステップS113において、信号処理制御部11は、撮像部12を制御するほか、ボディ10側若しくはレンズ鏡筒30側のいずれかに設けられるシャッター機構、又は撮像部12の撮像素子を駆動制御して撮像処理を実行する。その後、信号処理制御部11は、撮像部12によって取得された画像データについて、記憶部14の一時記憶部(不図示)に一時的に記憶すると共に、同画像データに対して所定のデータ処理を行なって記憶保存用の画像データを生成し、生成した記憶保存用画像データを記憶部14の所定領域に記憶する制御処理を実行する。   Subsequently, in step S113, the signal processing control unit 11 controls the imaging unit 12, and also drives and controls the shutter mechanism provided on either the body 10 side or the lens barrel 30 side, or the imaging element of the imaging unit 12. Then, the imaging process is executed. Thereafter, the signal processing control unit 11 temporarily stores the image data acquired by the imaging unit 12 in a temporary storage unit (not shown) of the storage unit 14 and performs predetermined data processing on the image data. The control processing is executed to generate image data for storage and storage, and store the generated image data for storage and storage in a predetermined area of the storage unit 14.

続いて、ステップS114において、信号処理制御部11は、表示制御部11bを介して背面表示部18又はEVF19を駆動制御して、上述のステップS113の処理にて取得され記憶部14に一時的に記憶された画像データを所定の時間だけ表示するいわゆるレックビュー表示処理を実行する。なお、このレックビュー表示処理における表示時数は、例えば1秒〜5秒間程度とされるのが普通である。この場合における表示時数は、例えば使用者(ユーザ)が、メニュー設定操作等を行うことによって、予め所定の範囲内で任意の時数に設定することが可能である。設定によっては、表示させない設定も可能である。   Subsequently, in step S114, the signal processing control unit 11 drives and controls the rear display unit 18 or the EVF 19 via the display control unit 11b, and is acquired in the processing of step S113 described above and temporarily stored in the storage unit 14. A so-called REC view display process for displaying the stored image data for a predetermined time is executed. Note that the display time in the REC view display process is usually set to about 1 to 5 seconds, for example. The display time in this case can be set in advance to an arbitrary time within a predetermined range by, for example, a user (user) performing a menu setting operation or the like. Depending on the setting, a setting that does not display is also possible.

次に、ステップS115において、信号処理制御部11は、操作判定部11aを介して操作部15若しくはタッチパネル16への操作指示信号を監視して、当該撮像装置1の電源状態をオフ状態に切り換える指示である電源オフ信号が発生したか否かの確認を行なう。ここで、電源オフ信号が確認された場合には、次のステップS116の処理に進む。また、電源オフ信号が確認されない場合には、上述のステップS101の処理に戻る。   Next, in step S115, the signal processing control unit 11 monitors an operation instruction signal to the operation unit 15 or the touch panel 16 via the operation determination unit 11a, and instructs to switch the power supply state of the imaging apparatus 1 to an off state. It is confirmed whether or not a power off signal is generated. If the power off signal is confirmed, the process proceeds to the next step S116. If the power off signal is not confirmed, the process returns to step S101.

そして、ステップS116において、信号処理制御部11は、所定の電源オフ処理を実行する。これにより、本撮像装置1のカメラ制御処理は終了する(エンド)。   In step S116, the signal processing control unit 11 executes a predetermined power-off process. Thereby, the camera control process of the imaging apparatus 1 ends (end).

ところで、上述のステップS101の処理にて、撮像モード以外に設定されていることが確認されて、ステップS121の処理に進んだ場合には、次のような処理の流れとなる。   By the way, when it is confirmed in the process of step S101 described above that the setting is other than the imaging mode and the process proceeds to the process of step S121, the following process flow is performed.

即ち、ステップS121において、信号処理制御部11は、現在設定されている動作モードが、画像の表示再生動作処理を実行し得る再生モードに設定されているか否かの確認を行なう。ここで、再生モードに設定されていることが確認されると、次のステップS122の処理に進む。また、再生モード以外に設定されている場合には、ステップS101の処理に進む。なお、本フローチャートにおいては、撮像モードと再生モード以外の動作モードについての動作は、本発明に直接関連しないものであるので、その図示及び説明は省略し、ステップS101の処理へ戻る制御処理としている。しかしながら、実際の撮像装置においては、撮像モード及び再生モード以外の、その他の動作モードが存在する場合には、それぞれ対応する制御処理へと進むような制御処理とすればよい。   That is, in step S121, the signal processing control unit 11 confirms whether or not the currently set operation mode is set to a reproduction mode capable of executing an image display / reproduction operation process. If it is confirmed that the playback mode is set, the process proceeds to the next step S122. If it is set to a mode other than the playback mode, the process proceeds to step S101. In this flowchart, the operations in the operation modes other than the imaging mode and the playback mode are not directly related to the present invention, and thus illustration and description thereof are omitted, and the control process returns to the process of step S101. . However, in the actual imaging apparatus, when there are other operation modes other than the imaging mode and the reproduction mode, the control process may proceed to the corresponding control process.

次に、ステップS122において、信号処理制御部11は、表示制御部11bを介して背面表示部18を駆動制御して、記憶部14の記憶媒体に記憶済みの画像データに基づくファイル一覧表示処理を実行する。   Next, in step S122, the signal processing control unit 11 drives and controls the rear display unit 18 via the display control unit 11b, and performs a file list display process based on the image data stored in the storage medium of the storage unit 14. Run.

次いで、ステップS123において、信号処理制御部11は、操作判定部11aを介して操作部15若しくはタッチパネル16への操作指示信号を監視して、ファイル選択指示とその選択ファイルの再生動作とを指示するファイル選択再生指示信号が発生したか否かの確認を行なう。ここで、ファイル選択再生指示信号が確認された場合には、次のステップS125の処理に進む。また、ファイル選択再生指示信号が確認されない場合には、ステップS124の処理に進む。   Next, in step S123, the signal processing control unit 11 monitors an operation instruction signal to the operation unit 15 or the touch panel 16 via the operation determination unit 11a, and instructs a file selection instruction and a reproduction operation of the selected file. It is confirmed whether or not a file selection / playback instruction signal is generated. If the file selection / playback instruction signal is confirmed, the process proceeds to the next step S125. If the file selection / playback instruction signal is not confirmed, the process proceeds to step S124.

ステップS124において、信号処理制御部11は、操作判定部11aを介して操作部15若しくはタッチパネル16への操作指示信号を監視して、再生モードの終了を指示する指示信号が発生したか否かの確認を行なう。ここで、再生モード終了指示信号が確認された場合には、再生モードによる動作制御を終了し、ステップS101の処理に戻る。また、再生モード終了指示信号が確認されない場合には、ステップS122の処理に戻る。   In step S124, the signal processing control unit 11 monitors an operation instruction signal to the operation unit 15 or the touch panel 16 via the operation determination unit 11a, and determines whether or not an instruction signal for instructing the end of the reproduction mode is generated. Confirm. Here, when the reproduction mode end instruction signal is confirmed, the operation control in the reproduction mode is ended, and the process returns to the step S101. If the playback mode end instruction signal is not confirmed, the process returns to step S122.

一方、上述のステップS123の処理にて、ファイル選択再生指示信号が確認されて、次のステップS125の処理に進むと、このステップS125において、信号処理制御部11は、表示制御部11bを介して背面表示部18を制御すると共に、記憶部14を制御して、上述のステップS123の処理にて選択された画像ファイル(選択画像)を背面表示部18の表示画面に表示する(再生する)選択画像再生処理を実行する。その後、ステップS126の処理に進む。   On the other hand, when the file selection / playback instruction signal is confirmed in the process of step S123 and the process proceeds to the next step S125, in step S125, the signal processing control unit 11 passes through the display control unit 11b. Selection of controlling (displaying) (reproducing) the image file (selected image) selected in the above-described step S123 on the display screen of the rear display unit 18 by controlling the rear display unit 18 and the storage unit 14 Perform image playback processing. Thereafter, the process proceeds to step S126.

ステップS126において、信号処理制御部11は、操作判定部11aを介して操作部15若しくはタッチパネル16への操作指示信号を監視して、現在表示中の画像表示処理の終了を指示する指示信号が発生したか否かの確認を行なう。ここで、表示終了指示信号が確認された場合には、現在表示中の画像表示処理を終了して、ステップS121の処理に戻る。また、表示終了指示信号が確認されない場合には、ステップS125の処理に戻る。即ち、表示終了指示信号が確認されるまで、現在表示中の画像表示処理を継続する。   In step S126, the signal processing control unit 11 monitors an operation instruction signal to the operation unit 15 or the touch panel 16 via the operation determination unit 11a, and generates an instruction signal instructing the end of the currently displayed image display process. Confirm whether or not. Here, when the display end instruction signal is confirmed, the currently displayed image display process is ended, and the process returns to step S121. If the display end instruction signal is not confirmed, the process returns to step S125. That is, the currently displayed image display process is continued until the display end instruction signal is confirmed.

以上説明したように、上記一実施形態においては、例えば徒競走等のように複数の移動する撮像対象(被写体)が一画面内に存在し、それらの撮像対象(被写体)が撮像者に向かってくるような状況に対応する撮像モード時の動作形態(シーンモード)として「徒競走モード」を備えた撮像装置1を例示している。   As described above, in the above-described embodiment, there are a plurality of moving imaging targets (subjects) in one screen, such as an athlete race, and those imaging targets (subjects) are directed toward the photographer. The imaging apparatus 1 provided with the “student race mode” as an operation mode (scene mode) in the imaging mode corresponding to such a situation is illustrated.

本実施形態の撮像装置1は、撮像部12によって取得された画像データに基づいて、撮像中の画像が「徒競走モード」に適した状況であることが確認されたら、自動的にシーンモードを切り換える制御を行なう(シーンモード自動切り替え制御)。   The imaging apparatus 1 according to the present embodiment automatically switches the scene mode when it is confirmed that the image being captured is in a state suitable for the “training mode” based on the image data acquired by the imaging unit 12. Control (scene mode automatic switching control).

このシーンモード切替が表示部に表示されたり、切り替わりアラームが出たりする方が、ユーザーにも分かりやすく、顕現性も高い。   When this scene mode switching is displayed on the display unit or when a switching alarm is issued, it is easy for the user to understand and high visibility.

したがって、使用者(ユーザ)は、現在撮像装置1において設定されているシーンモード等の各種設定を意識すること無く撮像動作を続行するのみで、撮像装置1のシーンモードは、その撮像状況に適切なシーンモードに自動的に切り換わることになる。   Therefore, the user (user) simply continues the imaging operation without being aware of various settings such as the scene mode currently set in the imaging apparatus 1, and the scene mode of the imaging apparatus 1 is appropriate for the imaging situation. Will automatically switch to the correct scene mode.

この場合において、「徒競走モード」による撮像動作は、次のようなものである。つまり、撮像画面内において移動する複数の撮像対象の全てが合焦状態となるように、できるだけ深い被写界深度を確保し得るF値(絞り値)が設定される。このとき、被写界深度のみを考慮したF値設定では、適正露出を得るためにこれに組み合わせるシャッター速度値は低下してしまう傾向がある。そこで、本実施形態においては、上記被写界深度を考慮しつつ、被写体ブレが生じない程度のシャッター速度値が選択される。   In this case, the imaging operation in the “competitive race mode” is as follows. In other words, an F value (aperture value) that can ensure as deep a depth of field as possible is set so that all of the plurality of imaging objects that move within the imaging screen are in focus. At this time, if the F value is set considering only the depth of field, the shutter speed value combined with this tends to decrease in order to obtain an appropriate exposure. Therefore, in the present embodiment, a shutter speed value that does not cause subject blurring is selected in consideration of the depth of field.

徒競走等のような競技においては、先頭走者と最後尾走者との間の距離、即ち設定対象とする被写界深度の目安は、各競技毎に、また同一競技中においても一定ではない。そこで、本実施形態の撮像装置1においては、競技毎に先頭走者と最後尾走者との間の距離を算出して被写界深度の目安を求める制御を行っている。   In competitions such as running, etc., the distance between the first runner and the last runner, that is, the standard of the depth of field to be set is not constant for each competition and even during the same competition. Therefore, in the imaging apparatus 1 of the present embodiment, control is performed to calculate the distance between the leading runner and the last runner for each competition to obtain a guide for the depth of field.

このような構成により、本実施形態の撮像装置1によれば、「徒競走モード」においては、例えば徒競走等を撮像対象とする時、先頭走者と最後尾走者との間の距離をカバーする被写界深度を確保し得ると共に、できるだけシャッター速度の低下を抑えたF値を自動的に設定する。これにより、撮像対象とする複数の移動被写体の合焦状態を確保しつつ、被写体ブレのない良好な画像を簡単に取得することができる。   With such a configuration, according to the imaging device 1 of the present embodiment, in the “accompanied race mode”, for example, when taking an academy race or the like as an imaging target, the subject that covers the distance between the leading runner and the last runner is covered. The F value that can secure the depth of field and suppress the decrease in the shutter speed as much as possible is automatically set. As a result, it is possible to easily obtain a good image without subject blurring while ensuring the in-focus state of a plurality of moving subjects to be imaged.

ところで、上述の一実施形態によって説明した例では、先頭走者と最後尾走者との間の距離が離れてしまい、より広い被写界深度を確保するためにF値を大きく絞らざるを得ない状況も考えられる。この場合においては、適正露出を得るためにシャッター速度値の低下が避けられない。シャッター速度の低下は、上述したように被写体ブレが生じる可能性が高くなる。そこで、このような状況では、例えばシャッター速度を遅くする代わりに、ISO感度設定値を上げる制御を行なうようにしてもよい。このような制御を行うことにより、必要な被写界深度を確保しながら、シャッター速度の低下を抑えることができ、よって被写体ブレの生じる可能性を抑止しつつ良好な画像を取得することができる。   By the way, in the example demonstrated by one above-mentioned embodiment, the distance between a leading runner and the last runner leaves | separates, and in order to ensure a wider depth of field, the F value must be greatly reduced Is also possible. In this case, a reduction in shutter speed value is unavoidable in order to obtain proper exposure. As described above, the reduction in the shutter speed increases the possibility of subject blurring. Therefore, in such a situation, for example, control for increasing the ISO sensitivity setting value may be performed instead of decreasing the shutter speed. By performing such control, it is possible to suppress a decrease in shutter speed while securing a necessary depth of field, and thus it is possible to acquire a good image while suppressing the possibility of subject blurring. .

また、より広い被写界深度を確保できないような状況においては、例えば先頭走者から最後尾走者までの全てをカバーするのではなく、特定の被写体(例えば先頭被写体若しくは任意に指定する特定被写体等)と、それより後方の被写体(例えば少なくとも一人若しくは全てではない複数)をカバーするような被写界深度をカバーする絞り値を設定する制御を行うようにしてもよい。   Also, in situations where a wider depth of field cannot be ensured, for example, not all of the first runner to the last runner are covered, but a specific subject (for example, the first subject or a specific subject that is arbitrarily designated) Then, control may be performed to set an aperture value that covers the depth of field so as to cover a subject (for example, at least one person or a plurality that is not all) behind the object.

このように上記撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、上記撮像部によって得られた複数の被写体の位置変化を検出すると共に、所定の時間経過後の上記複数の被写体の位置を予測する位置変化予測部と、上記位置変化予測部によって予測される上記複数の被写体の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の被写体を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部と、を有することを特徴とする撮像装置が構成され、徒競走などによる複数被写体の駆け引きを重視したピント合わせが簡単にできるカメラを提供することが出来る。もちろん、徒競走に限らず、サッカーやバスケットボールや競泳などでも、こうした駆け引きは見られ、二つ以上の被写体を、ピントがあった状態で比較することで、ドラマを演出した表現にすることが出来る。ここでは、多くの被写体がクリアに再現される例で説明したが、先頭と後方の差異を際だたせた撮影の方が良い場合もあり、その場合は、主要な駆け引きを演じている先頭集団にだけフォーカスする方が有効な場合もあり、それについても、上述した考え方で対処している。   In this way, an imaging unit that receives an optical image formed by the imaging optical system and acquires image data, and detects a change in position of a plurality of subjects obtained by the imaging unit, and after a predetermined time has elapsed. The position change prediction unit for predicting the positions of the plurality of subjects, the position information after the predetermined time elapses of the plurality of subjects predicted by the position change prediction unit, and the focal length of the imaging optical system. And a control unit that performs shooting control in accordance with the depth of field that can bring a plurality of subjects into focus. An easy camera can be provided. Of course, such bargaining is seen not only in the race, but also in soccer, basketball, swimming, etc. By comparing two or more subjects in focus, it can be expressed as a drama. Here, we explained an example in which many subjects are clearly reproduced, but there are cases where it is better to shoot with a distinction between the beginning and the back, and in that case, in the leading group playing the main bargaining In some cases, it is more effective to focus, and this is also dealt with by the above-described concept.

これらのことを考慮して、次に説明する変形例は、より広い被写界深度を確保しようとすると、シャッター速度の低下が懸念されるような状況下における被写界深度設定制御の例示である。   Taking these into account, the modification described below is an example of depth-of-field setting control in a situation where there is a concern about a decrease in shutter speed if a wider depth of field is to be secured. is there.

図9は、上記一実施形態の撮像装置における被写界深度設定制御処理の変形例を示すフローチャートである。図10は、本変形例が適用される場合の撮像状況を示す概念図である。   FIG. 9 is a flowchart illustrating a modification of the depth-of-field setting control process in the imaging apparatus according to the embodiment. FIG. 10 is a conceptual diagram illustrating an imaging situation when the present modification is applied.

まず、図9のステップS231において、信号処理制御部11は、近付いている複数の人物のそれぞれについてスピード判定を行なう。その場合の判定結果をS(n)(nは整数)とし、そのデータを一時記憶する。このステップS231の処理は、上述の一実施形態においては、図6のステップS201〜S203に相当する処理である。   First, in step S231 in FIG. 9, the signal processing control unit 11 performs speed determination for each of a plurality of approaching persons. In this case, the determination result is S (n) (n is an integer), and the data is temporarily stored. The process of step S231 is a process corresponding to steps S201 to S203 of FIG. 6 in the above-described embodiment.

次に、ステップS232において、信号処理制御部11は、近付いている複数の人物のそれぞれまでの距離を判定し、その場合の判定結果をD(n)(nは整数)とし、そのデータを一時記憶する。このステップS232の処理は、上述の一実施形態においては、図6のステップS204〜S206に相当する処理である。   Next, in step S232, the signal processing control unit 11 determines the distance to each of a plurality of approaching persons, sets the determination result to D (n) (n is an integer), and temporarily stores the data. Remember. The process in step S232 is a process corresponding to steps S204 to S206 in FIG. 6 in the above-described embodiment.

続いて、ステップS233において、信号処理制御部11は、時間ΔT後の各人物毎の距離を判定(距離予測判定)し、その場合の判定結果をDt(n)(nは整数)とし、そのデータを一時記憶する。このステップS233の処理は、上述の一実施形態においては、図6のステップS211〜S213に相当する処理である。   Subsequently, in step S233, the signal processing control unit 11 determines the distance for each person after the time ΔT (distance prediction determination), and sets the determination result in this case as Dt (n) (n is an integer). Temporarily store data. The process in step S233 is a process corresponding to steps S211 to S213 in FIG. 6 in the above-described embodiment.

ステップS234において、信号処理制御部11は、上述の各処理ステップにて取得した距離予測判定結果D(n)のうち当該撮像装置1からの距離が最も近い距離Dnを判定し(先頭走者の判定)、そのデータを一時記憶する。このステップS234の処理は、上述の一実施形態においては、図6のステップS214に相当する処理である。   In step S234, the signal processing control unit 11 determines the distance Dn that is closest to the imaging device 1 from the distance prediction determination results D (n) acquired in the above-described processing steps (determination of the leading runner). ) And temporarily store the data. The process in step S234 is a process corresponding to step S214 in FIG. 6 in the above-described embodiment.

同様に、ステップS235において、信号処理制御部11は、上述の各処理ステップにて取得した距離予測判定結果Dt(n)のうち当該撮像装置1からの距離が最も遠い距離Dfを判定し(最後尾走者の判定)、そのデータを一時記憶する。このステップS235の処理は、上述の一実施形態においては、図6のステップS215に相当する処理である。   Similarly, in step S235, the signal processing control unit 11 determines the distance Df that is the farthest from the imaging apparatus 1 among the distance prediction determination results Dt (n) acquired in the above-described processing steps (last) Data of the tail runner) and temporarily store the data. The process in step S235 is a process corresponding to step S215 in FIG. 6 in the above-described embodiment.

続いて、ステップS236において、信号処理制御部11は、上述のステップS234,S235にて取得した判定結果Df(最後尾予測距離)と判定結果Dn(先頭予測距離)との間において、合焦動作を行なう目標距離(合焦目標距離)Dmを算出し、そのデータを一時記憶する。このステップS236の処理は、上述の一実施形態においては、図6のステップS216に相当する処理である。   Subsequently, in step S236, the signal processing control unit 11 performs a focusing operation between the determination result Df (last predicted distance) and the determination result Dn (first predicted distance) acquired in steps S234 and S235 described above. A target distance (focusing target distance) Dm is calculated, and the data is temporarily stored. The process in step S236 is a process corresponding to step S216 in FIG. 6 in the above-described embodiment.

ステップS237において、信号処理制御部11は、合焦目標距離Dm〜先頭予測距離Dnまでの合焦状態をカバーする複数のF値(絞り値)を算出する。このステップS237の処理は、上述の一実施形態においては、図6のステップS217(図7のサブルーチン)に相当する処理である。   In step S237, the signal processing control unit 11 calculates a plurality of F values (aperture values) that cover in-focus states from the in-focus target distance Dm to the head predicted distance Dn. The processing in step S237 is processing corresponding to step S217 in FIG. 6 (subroutine in FIG. 7) in the above-described embodiment.

次いで、ステップS241において、信号処理制御部11は、上述のステップS237の処理にて算出されたF値(絞り値)に応じた露出制御を行なって、適正露出が得られる設定(例えばシャッター速度値等)が可能か否かの確認を行なう。ここで、適正露出が得られる設定が可能であることが確認された場合には、元の処理ステップに戻る(リターン)。また、適正露出が得られない設定となる場合には、次のステップS242の処理に進む。   Next, in step S241, the signal processing control unit 11 performs exposure control according to the F value (aperture value) calculated in the above-described processing in step S237, and obtains a setting for obtaining appropriate exposure (for example, a shutter speed value). Etc.) is confirmed. Here, when it is confirmed that the setting for obtaining proper exposure is possible, the process returns to the original processing step (return). If the setting is such that proper exposure cannot be obtained, the process proceeds to the next step S242.

ここで、適正露出が得られない設定とは、次のような場合を想定している。即ち、上述のステップS237の処理にて算出されたF値(絞り値)は、画面内の複数の移動する被写体の全てを合焦状態とし得るF値(絞り値)である。このF値(絞り値)を用いて、次のステップS241の処理にて、露出制御がなされるわけであるが、この場合において、そのときの周囲環境によっては、上記算出結果のF値(絞り値)に応じて適正露出を得られるシャッター速度が低くなってしまい、例えば被写体ブレの恐れが生じるシャッター速度値になる可能性がある。そこで、本撮像装置1における「徒競走モード」においては、設定し得るシャッター速度値の下限を予め設定しておき、その下限値を下回る場合には、上記ステップS241の処理にて露出不可とする判定を行うようにしている。つまり、上記ステップS241の処理においては、周囲環境に応じた露出制御を行なうのに際し、算出されたF値と、予め設定されたシャッター速度の下限値とを考慮して露出制御を行なうようにしている。   Here, the setting in which proper exposure cannot be obtained assumes the following case. That is, the F value (aperture value) calculated in the process of step S237 described above is an F value (aperture value) that can bring all of the plurality of moving subjects in the screen into focus. Using this F value (aperture value), exposure control is performed in the processing of the next step S241. In this case, depending on the surrounding environment at that time, the F value (aperture value) of the above calculation result is used. The shutter speed at which a proper exposure can be obtained becomes lower depending on the value), and there is a possibility that the shutter speed value may cause, for example, subject blurring. Therefore, in the “human race mode” in the imaging apparatus 1, a lower limit of a shutter speed value that can be set is set in advance, and when the lower limit value is not reached, it is determined that exposure is impossible in the process of step S <b> 241. Like to do. That is, in the process of step S241, when performing exposure control according to the surrounding environment, exposure control is performed in consideration of the calculated F value and a preset lower limit value of the shutter speed. Yes.

ステップS242において、信号処理制御部11は、上述のステップS237の処理にて算出した複数のF値(絞り値)のうち予め設定されているシャッター速度の下限値に応じた限界絞りとなるF値(絞り値)を設定する。   In step S <b> 242, the signal processing control unit 11 sets an F value that becomes a limit aperture according to a preset lower limit value of the shutter speed among a plurality of F values (aperture values) calculated in the process of step S <b> 237 described above. Set the (aperture value).

次に、ステップS243において、信号処理制御部11は、上述のステップS242の処理にて設定されたF値(絞り値)に対応する被写界深度を考慮して、先頭予測距離Dnを含み、Dnよりも後方の所定の位置に合焦目標距離Dm1を設定する。   Next, in step S243, the signal processing control unit 11 includes the head predicted distance Dn in consideration of the depth of field corresponding to the F value (aperture value) set in the processing in step S242 described above. The focus target distance Dm1 is set at a predetermined position behind Dn.

次に、ステップS244において、信号処理制御部11は、先頭走者(Dn)以外の他の人物(D(n))までの距離をカバーしているか否かの確認を行なう。ここで、先頭走者(Dn)を含む他の人物(D(n))をカバーしていることが確認された場合には、次のステップS245の処理に進む。また、先頭走者(Dn)以外の他の人物(D(n))をカバーしていないことが確認された場合には、ステップS246の処理に進む。   Next, in step S244, the signal processing control unit 11 checks whether or not the distance to a person (D (n)) other than the leading runner (Dn) is covered. Here, when it is confirmed that other persons (D (n)) including the leading runner (Dn) are covered, the process proceeds to the next step S245. On the other hand, if it is confirmed that the person other than the head runner (Dn) (D (n)) is not covered, the process proceeds to step S246.

ステップS245において、信号処理制御部11は、合焦目標距離Dm1に合焦位置を設定し合焦動作を実行する。その後、元の処理ステップに戻る(リターン)。つまり、この場合には、先頭走者(Dn)から、その後方に続く他の人物を含む複数の走者を合焦状態とすることができる設定となる。この場合の例示としては、図10に示すように、被写界深度Ls内に先頭走者とその後方の一人の走者を含めるような設定である。   In step S245, the signal processing control unit 11 sets the in-focus position to the in-focus target distance Dm1, and executes the in-focus operation. Thereafter, the process returns to the original processing step (return). That is, in this case, the setting is such that a plurality of runners including other persons following the first runner (Dn) can be brought into focus. As an example in this case, as shown in FIG. 10, the setting is such that the leading runner and one runner behind it are included in the depth of field Ls.

一方、ステップS246において、信号処理制御部11は、先頭予測距離Dnに合焦位置を設定合焦動作を実行する。その後、元の処理ステップに戻る(リターン)。つまり、この場合には、少なくとも先頭走者(Dn)のみを合焦状態とすることができる設定となる。   On the other hand, in step S246, the signal processing control unit 11 performs a focusing operation by setting a focusing position at the head predicted distance Dn. Thereafter, the process returns to the original processing step (return). That is, in this case, the setting is such that at least only the leading runner (Dn) can be brought into focus.

その他の構成及び作用は、上述の一実施形態と略同様である。なお、上記変形例においては、ステップS243の処理において、先頭走者を基準として合焦状態の設定を行うようにしているが、この例に限ることは無く、合焦状態の設定を行なう基準として、例えば特定の被写体(人物,走者)を基準とするようにしてもよい。具体的には、例えば予め登録された顔画像(例えば自分の子供の顔等)が認識された場合には、これを優先するようにしてもよい。   Other configurations and operations are substantially the same as those of the above-described embodiment. In the modified example, in the process of step S243, the in-focus state is set based on the leading runner. However, the present invention is not limited to this example, and the in-focus state is set as a reference. For example, a specific subject (person, runner) may be used as a reference. Specifically, for example, when a pre-registered face image (for example, the face of a child) is recognized, this may be prioritized.

以上説明したように上記変形例によれば、設定されるシャッタ速度値の下限値を設けることによって被写体ブレを抑えつつ、少なくとも先頭走者若しくは認識された登録者を基準として、その後方の所定の距離範囲の合焦状態を確保することができる。したがって、本変形例によれば、上述の一実施形態と同様の効果を得ることができる。加えて、本変形例によれば、先頭走者若しくは認識された登録者を含み、その後方の被写体(人物,走者)の少なくとも二人、若しくは最低でも先頭走者若しくは認識された登録者を合焦状態とした画像を取得することができる。   As described above, according to the above-described modification, the lower limit value of the set shutter speed value is set, and subject blurring is suppressed, and at least a predetermined distance behind the reference with respect to the leading runner or the recognized registrant. The in-focus state of the range can be ensured. Therefore, according to this modification, the same effect as that of the above-described embodiment can be obtained. In addition, according to this modification, at least two of the subjects (persons, runners) behind the first runner or recognized registrant, or at least the first runner or recognized registrant are in focus. Images can be obtained.

また、本変形例においても、ISO感度設定値を上げる制御を行なうようにすることで、シャッター速度値の低下を抑えるといった制御を行なってもよい。   Also in this modified example, the control for increasing the ISO sensitivity setting value may be performed to suppress the decrease in the shutter speed value.

上述の一実施形態で説明した各処理シーケンスは、その性質に反しない限り、手順の変更を許容し得る。したがって、上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更したり、複数の処理ステップを同時に実行させたり、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。   Each processing sequence described in the above-described embodiment can allow a change in procedure as long as it does not contradict its nature. Therefore, for each of the above-described processing sequences, for example, the order of the processing steps is changed each time the processing order is changed, the processing steps are executed simultaneously, or a series of processing sequences are executed. It may be.

また、ここで説明した技術のうち、主にフローチャートで説明した制御に関しては、ソフトウエアプログラムで設定可能であることが多く、このソフトウエアプログラムは記憶媒体や記憶部等に収められている電子データである。また、上記ソフトウエアプログラムは、予め製品製造過程において上記記憶媒体や記憶部等へ記憶しておいてもよいし、製品とは別に用意された配布用の記憶媒体等を利用してもよく、また、製品出荷後であっても使用者(ユーザー)等がインターネット等を介してダウンロードしたものであってもよい。   Of the technologies described here, the control described mainly in the flowchart is often settable by a software program, and this software program is stored in a storage medium, a storage unit, or the like. It is. In addition, the software program may be stored in advance in the storage medium or storage unit in the product manufacturing process, or a distribution storage medium prepared separately from the product may be used. Moreover, even after the product is shipped, it may be downloaded by the user (user) or the like via the Internet or the like.

上述の一実施形態で説明した各処理シーケンスは、その性質に反しない限り、手順の変更を許容し得る。したがって、上述の処理シーケンスに対して、例えば各処理ステップの実行順序を変更したり、複数の処理ステップを同時に実行させたり、一連の処理シーケンスを実行する毎に、各処理ステップの順序が異なるようにしてもよい。   Each processing sequence described in the above-described embodiment can allow a change in procedure as long as it does not contradict its nature. Therefore, for each of the above-described processing sequences, for example, the order of the processing steps is changed each time the processing order is changed, the processing steps are executed simultaneously, or a series of processing sequences are executed. It may be.

即ち、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   That is, regarding the operation flow in the claims, the specification, and the drawings, even if it is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記憶又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記憶媒体からコンピュータにインストールすることで、容易に本実施の形態の撮像装置を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be stored or stored in whole or in part in a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or in a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the imaging apparatus according to the present embodiment by downloading the program via a communication network and installing the program on the computer, or installing the program from a storage medium on the computer.

なお、本発明は上述した一実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施し得ることが可能であることは勿論である。さらに、上記一実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications and applications can be implemented without departing from the spirit of the invention. Furthermore, the above-described embodiment includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if several constituent requirements are deleted from all the constituent requirements shown in the above-described embodiment, if the problem to be solved by the invention can be solved and the effect of the invention can be obtained, this constituent requirement is deleted. The configured structure can be extracted as an invention. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明は、デジタルカメラ等の撮像機能に特化した電子機器である撮像装置に限られることはなく、撮像機能を備えた他の形態の電子機器、例えば携帯電話,スマートフォン,録音機器,電子手帳,パーソナルコンピュータ,タブレット端末機器,ゲーム機器,携帯テレビ,時計,GPS(Global Positioning System)を利用したナビゲーション機器等、各種の撮像機能付き電子機器にも広く適用することができる。   The present invention is not limited to an imaging apparatus that is an electronic device specialized for an imaging function such as a digital camera, and other forms of electronic devices having an imaging function, such as a mobile phone, a smartphone, a recording device, and an electronic notebook , Personal computers, tablet terminal devices, game devices, portable TVs, watches, navigation devices using GPS (Global Positioning System), and other electronic devices with various imaging functions.

1……撮像装置,
10……ボディ,
11……信号処理制御部,
11a……操作判定部,
11b……表示制御部,
11c……被写体判定部,
11d……コントラスト判定部,
11e……位置変化予測部,
11f……測距部,
12……撮像部,
12a……AF部,
13……ブレ補正部,
14……記憶部,
15……操作部,
16……タッチパネル,
17……時計部,
18……背面表示部,
20……アイセンサ,
21……本体通信部,
30……レンズ鏡筒,
32……撮像光学系,
33……レンズ駆動部,
34……状態判定部,
35……レンズ側操作部,
36……レンズ側記憶部,
37……レンズ通信部
1 …… Imaging device,
10 …… Body,
11 …… Signal processing control unit,
11a …… Operation determination unit,
11b: Display control unit,
11c …… Subject determination unit,
11d: Contrast judgment unit,
11e …… Position change prediction unit,
11f: Distance measuring unit,
12 ... Imaging unit,
12a …… AF section,
13 …… Blur correction part,
14 ... Memory part,
15 …… Operation part,
16 …… Touch panel,
17 …… Clock part,
18 …… Back display,
20 …… Eye sensor,
21 …… Body communication unit,
30 …… Lens barrel,
32. Imaging optical system,
33 …… Lens drive unit,
34 …… State determination unit,
35 …… Lens side operation section,
36 …… Lens side storage unit,
37 …… Lens communication section

Claims (10)

撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、
上記画像データから複数の特徴部を検出する特徴検出部と、
上記検出された複数の特徴部の中から少なくとも一つを指示する特徴指示部と、
上記指示された特徴部を記憶する記憶部と、
新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、
上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部と、
を有することを特徴とする撮像装置。
An imaging unit that receives an optical image formed by the imaging optical system and acquires image data;
A feature detector for detecting a plurality of features from the image data;
A feature instruction unit that instructs at least one of the detected plurality of feature units;
A storage unit for storing the instructed feature unit;
Based on the coincidence between the feature obtained from the newly obtained image data and the plurality of stored features, the position change in the depth direction of each feature is detected, and after a predetermined time has elapsed. A position change prediction unit for predicting the positions of the plurality of features;
The depth of field at which the plurality of feature portions in the image can be brought into focus by the position information of the plurality of feature portions predicted by the position change prediction portion after a predetermined time and the focal length of the imaging optical system. A control unit that performs shooting control according to
An imaging device comprising:
撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、
上記画像データから複数の特徴部を検出する特徴検出部と、
上記特徴部に係る情報を登録する特徴登録部と、
上記検出された複数の特徴部を記憶する記憶部と、
新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、
上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部の中から少なくとも上記登録した特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部と、
を有することを特徴とする撮像装置。
An imaging unit that receives an optical image formed by the imaging optical system and acquires image data;
A feature detector for detecting a plurality of features from the image data;
A feature registration unit for registering information related to the feature unit;
A storage unit for storing the plurality of detected characteristic units;
Based on the coincidence between the feature obtained from the newly obtained image data and the plurality of stored features, the position change in the depth direction of each feature is detected, and after a predetermined time has elapsed. A position change prediction unit for predicting the positions of the plurality of features;
At least the registered feature portion from among the plurality of feature portions in the image based on position information after the predetermined time elapses of the plurality of feature portions predicted by the position change prediction portion and the focal length of the imaging optical system. A control unit that performs shooting control according to the depth of field that can be brought into focus;
An imaging device comprising:
上記制御部は、上記撮像部が取得した画像データに基づいて形成される画像内に複数の移動する被写体を判定する被写体判定部と、
上記判定された被写体の中から少なくとも一つを指示する被写体指示部と、を更に有し、
上記指示された被写体をもとに上記被写界深度に応じた撮影制御に切り換えることを特徴とする請求項1又は請求項2に記載の撮像装置。
The control unit includes a subject determination unit that determines a plurality of moving subjects in an image formed based on the image data acquired by the imaging unit;
A subject instruction unit that instructs at least one of the determined subjects,
The imaging apparatus according to claim 1, wherein the imaging apparatus switches to imaging control corresponding to the depth of field based on the instructed subject.
上記制御部は、上記登録した特徴部と上記指示された被写体との少なくとも一方を合焦状態とし得る被写界深度に応じた撮影制御を行うことを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit performs shooting control according to a depth of field at which at least one of the registered feature and the instructed subject can be brought into focus. . 撮像光学系により結像される光学像を受けて画像データを取得し、
上記画像データから複数の特徴部を検出し、
上記検出された複数の特徴部の中から少なくとも一つを指示し、
上記指示された特徴部を記憶し、
新たに得られた画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測し、
上記予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行うことを特徴とする撮像装置の制御方法。
Receiving an optical image formed by the imaging optical system to obtain image data,
A plurality of features are detected from the image data,
Indicating at least one of the detected plurality of features;
Memorize the indicated feature,
Based on the coincidence between the feature portion obtained from the newly obtained image data and the plurality of stored feature portions, the position change in the depth direction of each feature is detected, and after a predetermined time has passed, Predict the location of multiple features,
Shooting control according to the depth of field that can bring the plurality of features in the image into a focused state based on the predicted position information of the plurality of features after a predetermined time and the focal length of the imaging optical system A method for controlling an imaging apparatus, comprising:
撮像光学系により結像される光学像を受けて画像データを取得する撮像部と、
上記画像データから複数の特徴部を検出する特徴検出部と、
上記検出された複数の特徴部を記憶する記憶部と、
新たに得られた上記画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測する位置変化予測部と、
上記位置変化予測部によって予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行う制御部と、
を有し、
上記制御部は、設定した絞り値に基づいて自動露出制御を行なってシャッター速度を設定し、設定されたシャッター速度値が所定の下限値以下の場合には、当該下限シャッター速度に応じた絞り値に再設定することを特徴とする撮像装置。
An imaging unit that receives an optical image formed by the imaging optical system and acquires image data;
A feature detector for detecting a plurality of features from the image data;
A storage unit for storing the plurality of detected characteristic units;
Based on the coincidence between the feature obtained from the newly obtained image data and the plurality of stored features, the position change in the depth direction of each feature is detected, and after a predetermined time has elapsed. A position change prediction unit for predicting the positions of the plurality of features;
The depth of field at which the plurality of feature portions in the image can be brought into focus by the position information of the plurality of feature portions predicted by the position change prediction portion after a predetermined time and the focal length of the imaging optical system. A control unit that performs shooting control according to
Have
The control unit performs automatic exposure control based on the set aperture value and sets the shutter speed. An image pickup apparatus that is reset to
上記制御部は、上記再設定した絞り値に応じて合焦状態とし得る上記複数の特徴部を選出し、該選出した複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行うことを特徴とする請求項6に記載の撮像装置。   The control unit selects the plurality of features that can be brought into a focused state according to the reset aperture value, and performs shooting control according to the depth of field that can bring the selected plurality of features into a focused state The imaging apparatus according to claim 6, wherein: 上記制御部は、上記複数の特徴部の中から最至近の特徴部又は予め登録した特徴部を選出し、該選出した特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行うことを特徴とする請求項6に記載の撮像装置。   The control unit selects a closest feature unit or a pre-registered feature unit from the plurality of feature units, and performs shooting control according to a depth of field that can bring the selected feature unit into a focused state. The imaging apparatus according to claim 6. 上記検出された複数の特徴部の中から少なくとも一つを指示する特徴指示部を更に有し、
上記制御部は、上記指示された特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行うことを特徴とする請求項6に記載の撮像装置。
It further has a feature instruction unit that instructs at least one of the detected plurality of feature portions,
The imaging apparatus according to claim 6, wherein the control unit performs shooting control according to a depth of field that can bring the instructed feature into a focused state.
撮像光学系により結像される光学像を受けて画像データを取得し、
上記画像データから複数の特徴部を検出し、
上記検出された複数の特徴部を記憶し、
新たに得られた画像データから得られた特徴部と記憶された上記複数の特徴部との一致をもとに、各特徴の奥行き方向の位置変化を検出すると共に、所定の時間経過後の上記複数の特徴部の位置を予測し、
上記予測される上記複数の特徴部の所定時間経過後の位置情報と上記撮像光学系の焦点距離とによって画像内の上記複数の特徴部を合焦状態とし得る被写界深度に応じた撮影制御を行い、設定した絞り値に基づいて自動露出制御を行なってシャッター速度を設定し、設定されたシャッター速度値が所定の下限値以下の場合には、当該下限シャッター速度に応じた絞り値に再設定することを特徴とする撮像装置の制御方法。
Receiving an optical image formed by the imaging optical system to obtain image data,
A plurality of features are detected from the image data,
Storing the plurality of detected features;
Based on the coincidence between the feature portion obtained from the newly obtained image data and the plurality of stored feature portions, the position change in the depth direction of each feature is detected, and after a predetermined time has passed, Predict the location of multiple features,
Shooting control according to the depth of field that can bring the plurality of features in the image into a focused state based on the predicted position information of the plurality of features after a predetermined time and the focal length of the imaging optical system And set the shutter speed by performing automatic exposure control based on the set aperture value. A method for controlling an imaging apparatus, comprising: setting.
JP2017227884A 2017-11-28 2017-11-28 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Active JP6465322B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017227884A JP6465322B2 (en) 2017-11-28 2017-11-28 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017227884A JP6465322B2 (en) 2017-11-28 2017-11-28 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014043072A Division JP6253454B2 (en) 2014-03-05 2014-03-05 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2018064285A true JP2018064285A (en) 2018-04-19
JP6465322B2 JP6465322B2 (en) 2019-02-06

Family

ID=61966982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017227884A Active JP6465322B2 (en) 2017-11-28 2017-11-28 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6465322B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02254432A (en) * 1989-03-29 1990-10-15 Canon Inc Automatic focusing camera
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2007316417A (en) * 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd High frequency information detection processing device and imaging apparatus
JP2008076981A (en) * 2006-09-25 2008-04-03 Nikon Corp Electronic camera
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
JP2010127995A (en) * 2008-11-25 2010-06-10 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
JP2012181324A (en) * 2011-03-01 2012-09-20 Nikon Corp Imaging apparatus
WO2012140869A1 (en) * 2011-04-12 2012-10-18 パナソニック株式会社 Motion estimation device, depth estimation device, and motion estimation method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02254432A (en) * 1989-03-29 1990-10-15 Canon Inc Automatic focusing camera
JP2003092699A (en) * 2001-09-17 2003-03-28 Ricoh Co Ltd Digital camera imaging apparatus
JP2007316417A (en) * 2006-05-26 2007-12-06 Matsushita Electric Ind Co Ltd High frequency information detection processing device and imaging apparatus
JP2008076981A (en) * 2006-09-25 2008-04-03 Nikon Corp Electronic camera
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera
JP2010127995A (en) * 2008-11-25 2010-06-10 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
JP2012181324A (en) * 2011-03-01 2012-09-20 Nikon Corp Imaging apparatus
WO2012140869A1 (en) * 2011-04-12 2012-10-18 パナソニック株式会社 Motion estimation device, depth estimation device, and motion estimation method

Also Published As

Publication number Publication date
JP6465322B2 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
US9888182B2 (en) Display apparatus
US9253410B2 (en) Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
US10104299B2 (en) Zoom control apparatus, zoom control method, and storage medium
CN110493528A (en) Photographic device and its control method
JP2010041299A (en) Electronic camera
JP6634298B2 (en) Imaging device and imaging method
JP2013150210A (en) Photographing device
US20180262686A1 (en) Shooting device, shooting method and shooting control method
JP6253454B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6312460B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2021034756A (en) Imaging apparatus and control method of the same
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US10362206B2 (en) Image capturing apparatus having a function which assists a panning shot with specific framing
JP6465322B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5635546B2 (en) Imaging device and method for controlling imaging device
JP2016019231A (en) Imaging apparatus, and control method of imaging apparatus
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP2023004678A (en) Processing device and control method therefor
JP6257186B2 (en) Imaging apparatus, imaging method, and program
JP6858065B2 (en) Imaging device and its control method
JP2014023054A (en) Image processing apparatus, imaging apparatus, and image processing program
JP2019041414A (en) Electronic apparatus, imaging apparatus, and program
WO2022209341A1 (en) Imaging device, focus control method, and program
WO2022209342A1 (en) Imaging device, focus control method, and program
US11653093B2 (en) Focus detection device and focus detection method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181225

R151 Written notification of patent or utility model registration

Ref document number: 6465322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250