JP7431555B2 - Imaging device and its control method - Google Patents

Imaging device and its control method Download PDF

Info

Publication number
JP7431555B2
JP7431555B2 JP2019199244A JP2019199244A JP7431555B2 JP 7431555 B2 JP7431555 B2 JP 7431555B2 JP 2019199244 A JP2019199244 A JP 2019199244A JP 2019199244 A JP2019199244 A JP 2019199244A JP 7431555 B2 JP7431555 B2 JP 7431555B2
Authority
JP
Japan
Prior art keywords
subject
focus detection
difficulty level
detected
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019199244A
Other languages
Japanese (ja)
Other versions
JP2021071656A (en
JP2021071656A5 (en
Inventor
麻衣子 高尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019199244A priority Critical patent/JP7431555B2/en
Publication of JP2021071656A publication Critical patent/JP2021071656A/en
Publication of JP2021071656A5 publication Critical patent/JP2021071656A5/ja
Application granted granted Critical
Publication of JP7431555B2 publication Critical patent/JP7431555B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置及びその制御方法に関する。 The present invention relates to an imaging device and a control method thereof.

従来、交換レンズ式一眼レフカメラ等のカメラシステムにおいて、自動焦点調節(AF)の技術が知られており、中でも位相差AFと呼ばれる手法は広く利用されている。この手法では、撮影レンズの異なる射出瞳領域を通過した被写体からの光束を、一対のラインセンサ上に結像させる。そして、被写体像を光電変換して得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズのデフォーカス量の検出、すなわち、焦点検出を行う。この焦点検出結果に基づいて撮影レンズに含まれるフォーカスレンズの駆動を行うことで、自動焦点調節を行う。 Conventionally, automatic focus adjustment (AF) technology has been known in camera systems such as interchangeable lens single-lens reflex cameras, and among them, a method called phase difference AF is widely used. In this method, light beams from a subject that have passed through different exit pupil areas of a photographic lens are imaged onto a pair of line sensors. Then, by determining the amount of image shift, which is the amount of displacement in the relative position of a pair of image signals obtained by photoelectrically converting the subject image, the amount of defocus of the photographic lens is detected, that is, the focus is detected. Automatic focus adjustment is performed by driving a focus lens included in the photographic lens based on the focus detection result.

またその多くは、静止する被写体のみならず、移動する被写体に焦点が合うようにフォーカスレンズを駆動させるサーボ撮影モードを備えている。サーボ撮影モードは、過去の移動履歴から被写体がどのように動いているのか予測する機能を持つ。ところが、被写体の前を障害物が通過したり、誤って背景に対し焦点検出してしまったりすることで、検出されるデフォーカス量が必ずしも撮影したい被写体のものでないことがある。 Many of them also have a servo shooting mode that drives the focus lens so that not only stationary subjects but also moving subjects are in focus. Servo shooting mode has a function that predicts how the subject is moving based on past movement history. However, if an obstacle passes in front of the subject or if the focus is mistakenly detected against the background, the detected defocus amount may not necessarily be that of the subject to be photographed.

このように、誤って意図しない被写体や背景に合焦してしまうといった課題に対し、検出したデフォーカス量によってフォーカスレンズの駆動を禁止する手法が提案されている。例えば、特許文献1では、像面速度に応じて焦点調節レンズの駆動を禁止するデフォーカス量の閾値を切り替える方法が開示されている。特許文献1の手法を用いることで、高速で動く被写体に対し、被写体が高速であることを観測すれば、より大きなデフォーカス量が検出されても焦点検出レンズの駆動ができるようになる。そのため、検出したデフォーカス量に応じた焦点検出レンズの駆動の加速や減速に対しても適切に追従できる。 To solve this problem of accidentally focusing on an unintended subject or background, a method has been proposed in which driving of the focus lens is prohibited based on the detected amount of defocus. For example, Patent Document 1 discloses a method of switching a defocus amount threshold that prohibits driving of a focusing lens according to an image plane speed. By using the method of Patent Document 1, if it is observed that the object is moving at high speed, the focus detection lens can be driven even if a larger defocus amount is detected. Therefore, it is possible to appropriately follow acceleration or deceleration of the drive of the focus detection lens according to the detected defocus amount.

また、特許文献2では、所望の被写体を追尾できているかどうかを判断するために用いるデフォーカス量の閾値を、カメラの振れ状態によって変更させる方法が開示されている。特許文献2によれば、カメラの振れが大きい状態であれば所望の被写体を追従しにくく、カメラの振れが小さい状態であれば所望の被写体を追従し易いと判断する。そして、カメラが所望の被写体を追従し易い状態であれば、検出したデフォーカス量が、所望の被写体を追従した結果だと考えられる。逆に、カメラが所望の被写体を追従しにくい状態であれば、所望の被写体を追従できておらず、検出したデフォーカス量が背景や別の被写体を追った結果ではないかと疑うことができる。 Further, Patent Document 2 discloses a method in which a threshold value of the amount of defocus used to determine whether a desired subject is being tracked is changed depending on the shake state of the camera. According to Patent Document 2, it is determined that if the camera shake is large, it is difficult to follow the desired subject, and if the camera shake is small, it is determined that it is easy to follow the desired subject. If the camera is in a state where it is easy to follow the desired subject, the detected defocus amount is considered to be the result of tracking the desired subject. Conversely, if the camera is in a state where it is difficult to track the desired subject, it can be suspected that the desired subject is not being tracked and the detected defocus amount is the result of tracking the background or another subject.

特開2009-210815号公報Japanese Patent Application Publication No. 2009-210815 特開平11-326743号公報Japanese Patent Application Publication No. 11-326743

しかしながら、特許文献1に記載された技術では、継続的に速い動きをする被写体に対してしか被写体の動きの変化に対応することができない。例えば、被写体が、これまでの動きの傾向では予測ができない大きな動きを急にした場合、デフォーカス量の閾値の切り替えができず、フォーカス駆動を禁止してしまう。さらに、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対して検出されるデフォーカス量の変化が大きくなるため、近景で急に動き出す被写体においては特に急激に大きなデフォーカス量の変化が検出されてしまう。そのため、撮影対象としているその被写体の動きが撮影者(カメラ)に対して近づき続ける、あるいは撮影者に対して遠ざかり続けるような動きであった場合に以下のような不都合が生じる。 However, the technique described in Patent Document 1 can only respond to changes in the movement of a subject that continuously moves quickly. For example, if the subject suddenly makes a large movement that cannot be predicted based on past movement trends, the defocus amount threshold cannot be switched, and focus driving is prohibited. Furthermore, the closer the distance between the photographer (camera) and the subject, the greater the change in the amount of defocus detected in response to the movement of the subject. Changes will be detected. Therefore, when the subject to be photographed continues to move toward or away from the photographer (camera), the following inconvenience occurs.

前述したサーボ撮影モードでは周期的に焦点検出処理を行い、焦点検出処理により得られた検出デフォーカス量に基づき、随時焦点調節レンズを駆動させて被写体にピントを合わせ続ける制御となっている。しかしながら、特許文献1によれば、被写体が急に動き始めたタイミングで得られた焦点検出処理の結果に応じて焦点調節レンズの駆動を停止させてしまう。そのため、周期的に実施する次のタイミングでの焦点検出処理で得られる撮影対象の被写体のデフォーカス量は、さらに大きく検出されてしまう。この動作が繰り返されることになり、結果として、所望の被写体にピントを合わせることができなくなってしまう。 In the servo shooting mode described above, focus detection processing is performed periodically, and the focus adjustment lens is driven at any time based on the detected defocus amount obtained by the focus detection processing to keep the subject in focus. However, according to Patent Document 1, the driving of the focusing lens is stopped in accordance with the result of focus detection processing obtained at the timing when the subject suddenly starts moving. Therefore, the amount of defocus of the subject to be photographed obtained by the focus detection process at the next timing that is periodically performed is detected to be even larger. This operation is repeated, and as a result, it becomes impossible to focus on the desired subject.

また、特許文献2によれば、被写体の状況によらずカメラの振れ量のみで被写体の追従のし易さを評価しているが、被写体が画角内に占める領域が大きければ追従し易く、逆に被写体の領域が小さければ追従しにくい。従って、カメラの振れ量のみによって被写体の追従し易さを決定することは、追従のし易さを誤って判断してしまう可能性がある。 Furthermore, according to Patent Document 2, the ease of tracking a subject is evaluated based only on the amount of camera shake, regardless of the situation of the subject; however, if the area occupied by the subject within the angle of view is large, it is easier to track the subject. Conversely, if the subject area is small, it will be difficult to track. Therefore, determining the ease of tracking a subject based only on the amount of camera shake may lead to incorrect determination of the ease of tracking.

本発明は上記問題点を鑑みてなされたものであり、様々な条件下でより適切に被写体を追従できるようにすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to enable tracking of a subject more appropriately under various conditions.

上記目的を達成するために、本発明の撮像装置は、撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出手段と、前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、前記記憶手段に記憶された過去の焦点検出履歴と前記焦点検出手段により新たに検出されたデフォーカス量とに基づいて同じ被写体を継続的に捕捉できているかどうかを判定するための閾値を設定する設定手段と、前記焦点検出手段により検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出手段と、を有し、前記設定手段は、前記閾値として、被写体の捕捉し易さを示す難易度情報が第1の難易度よりも高い第2の難易度を示す場合に、前記第1の難易度の場合よりも、同じ被写体を継続的に捕捉できていると判定しにくい閾値を設定し、前記難易度情報は、前記被写体の大きさを含み、前記被写体の大きさが小さいほど難易度が高いことを特徴とする。 In order to achieve the above object, an imaging device of the present invention includes a focus detection means for detecting a defocus amount based on a signal obtained by photoelectrically converting light incident through a photographing optical system; a storage means for storing the defocus amount repeatedly detected by the detection means; and a storage means for storing the defocus amount which is the same based on the past focus detection history stored in the storage means and the defocus amount newly detected by the focus detection means. a setting means for setting a threshold value for determining whether or not a subject can be continuously captured ; and a subject detection means for detecting a subject within an angle of view based on the amount of defocus detected by the focus detection means. , the setting means sets the first difficulty level as the threshold value when difficulty level information indicating ease of capturing the subject indicates a second difficulty level higher than the first difficulty level. The difficulty level information includes the size of the subject , and the smaller the size of the subject, the higher the difficulty level. It is characterized by

本発明によれば、様々な条件下でより適切に被写体を追従することができる。 According to the present invention, a subject can be tracked more appropriately under various conditions.

本発明の第1の実施形態における撮像装置の概略構成を示すブロック図。FIG. 1 is a block diagram showing a schematic configuration of an imaging device according to a first embodiment of the present invention. 第1の実施形態におけるサーボ撮影モードにおける撮影処理を示したフローチャート。5 is a flowchart showing photographing processing in servo photographing mode in the first embodiment. 第1の実施形態における焦点調節処理のフローチャート。5 is a flowchart of focus adjustment processing in the first embodiment. 第1の実施形態における焦点検出処理のフローチャート。5 is a flowchart of focus detection processing in the first embodiment. 第1の実施形態における連続性判定処理のフローチャート。5 is a flowchart of continuity determination processing in the first embodiment. 第1の実施形態における動体予測処理のフローチャート。5 is a flowchart of moving object prediction processing in the first embodiment. 第1の実施形態における連続性判定閾値設定処理のフローチャート。5 is a flowchart of continuity determination threshold setting processing in the first embodiment. デフォーカスマップの一例を示す図。The figure which shows an example of a defocus map. 過去の焦点検出履歴と予測曲線の一例を示す図。The figure which shows an example of a past focus detection history and a prediction curve. カメラから比較的近い場所に静止していた被写体が急加速したときの像面位置の変化の一例を示す図。FIG. 3 is a diagram showing an example of a change in the image plane position when a stationary subject relatively close to the camera suddenly accelerates. 被写体を捉え続けにくい状況の一例を示す図。A diagram illustrating an example of a situation in which it is difficult to continue capturing a subject. 第2の実施形態における連続性判定閾値設定処理のフローチャート。7 is a flowchart of continuity determination threshold setting processing in the second embodiment. 第3の実施形態における焦点検出処理のフローチャート。7 is a flowchart of focus detection processing in the third embodiment. 被写体の動き特性のユーザ設定画面の一例を示す図。FIG. 3 is a diagram illustrating an example of a user setting screen for motion characteristics of a subject. 変形例における撮像素子の画素配列を説明する図。The figure explaining the pixel arrangement of the image sensor in a modification.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

<第1の実施形態>
図1は、第1の実施形態における撮像装置の一例として、デジタル一眼レフカメラの構成を示すブロック図である。
<First embodiment>
FIG. 1 is a block diagram showing the configuration of a digital single-lens reflex camera as an example of an imaging device according to the first embodiment.

撮影レンズ101(撮影光学系)は、簡易的に1枚のレンズにより表されているが、実際には焦点調節を行うためのフォーカスレンズを含む、複数のレンズから構成される。レンズ駆動回路102は、たとえばDCモータやステッピングモータを有し、撮影レンズ101を駆動制御する。当該駆動制御は、レンズ内マイクロコンピュータ141によって指示されるが、当該駆動制御のための駆動要求はマイクロコンピュータ124からレンズ通信回路103を用いて伝搬される。 Although the photographing lens 101 (photographing optical system) is simply represented by one lens, it is actually composed of a plurality of lenses including a focus lens for performing focus adjustment. The lens drive circuit 102 includes, for example, a DC motor or a stepping motor, and drives and controls the photographing lens 101. The drive control is instructed by the in-lens microcomputer 141, and a drive request for the drive control is propagated from the microcomputer 124 using the lens communication circuit 103.

レンズ通信回路103は、マイクロコンピュータ124からの各種アクチュエータの駆動要求をレンズ内マイクロコンピュータ141へ伝搬すると共に、各種アクチュエータの状態情報をマイクロコンピュータ124へ伝搬する。 The lens communication circuit 103 transmits requests for driving various actuators from the microcomputer 124 to the in-lens microcomputer 141, and also transmits status information of the various actuators to the microcomputer 124.

絞り104は、絞り駆動回路105により駆動され、カメラに入射する光束を制御するために用いられる。絞り駆動回路105は、マイクロコンピュータ124によって算出された駆動量に基づき、レンズ内マイクロコンピュータ141により制御されることで、絞り104の光学的な絞り値を変化させる。 The aperture 104 is driven by an aperture drive circuit 105 and is used to control the light beam incident on the camera. The aperture drive circuit 105 changes the optical aperture value of the aperture 104 based on the drive amount calculated by the microcomputer 124 and is controlled by the in-lens microcomputer 141 .

距離測定回路142は、撮影レンズ101が有するフォーカスレンズの位置をもとに、カメラから被写体までの距離を算出する。なお、フォーカスレンズの位置を用いた距離測定方法は一例であり、たとえば赤外線照射などの手法を用いてもよい。また、本構成では距離測定回路142はレンズ側に構成され、レンズ内マイクロコンピュータ141によって制御されているが、カメラ本体側に構成し、マイクロコンピュータ124によって制御されてもよい。 The distance measurement circuit 142 calculates the distance from the camera to the subject based on the position of the focus lens included in the photographic lens 101. Note that the distance measuring method using the position of the focus lens is just one example, and a method such as infrared irradiation may also be used. Further, in this configuration, the distance measuring circuit 142 is configured on the lens side and controlled by the in-lens microcomputer 141, but it may also be configured on the camera body side and controlled by the microcomputer 124.

主ミラー106は、常時はファインダー部(不図示)へと光束を導くよう反射させるように光路内に配されているが、撮影が行われる場合には、撮像素子113へと光束を導くように上方に跳ね上がり、光路から待避する。すなわち、撮影レンズ101から入射した光束をファインダー側に導くか、撮像素子113側に導くかを切替える。また主ミラー106はその中央部が光の一部を透過できるようにハーフミラーとなっている。サブミラー107は、主ミラー106を透過した光束を反射させて、焦点検出を行うための焦点検出回路110内に配置された焦点検出センサに導く。 The main mirror 106 is normally arranged in the optical path so as to reflect the light flux to guide it to the finder section (not shown), but when shooting, it guides the light flux to the image sensor 113. Jump upwards and evacuate from the light path. That is, it is switched whether to guide the light flux incident from the photographing lens 101 to the finder side or to the image sensor 113 side. Further, the main mirror 106 is a half mirror so that a portion of the light can pass through the central portion thereof. The sub-mirror 107 reflects the light beam that has passed through the main mirror 106 and guides it to a focus detection sensor disposed within a focus detection circuit 110 for performing focus detection.

ペンタプリズム108は主ミラー106が反射した光束をファインダー部(不図示)へと導く。ファインダー部は他にピント板、アイピースレンズ(不図示)などを有する。測光回路109は、ピント板(不図示)に結像された被写体像の色および明るさを、測光回路109内に配置された、カラーフィルタを備えた測光センサによって、電気信号に変換する。 The pentaprism 108 guides the light beam reflected by the main mirror 106 to a finder section (not shown). The finder section also includes a focusing plate, an eyepiece lens (not shown), and the like. The photometric circuit 109 converts the color and brightness of a subject image formed on a focusing plate (not shown) into electrical signals using a photometric sensor provided with a color filter disposed within the photometric circuit 109 .

焦点検出回路110は、複数のエリアセンサからなる焦点検出センサを内蔵しており、主ミラー106を透過し、サブミラー107により反射された光束が焦点検出センサに入射することによって、焦点検出センサ内で分光された一対の像信号を得る。そして、得られた一対の像信号の相対位置の変位量である像ずれ量を求めることで、撮影レンズ101のデフォーカス量を検出する。焦点検出回路110にて得られたデフォーカス量は、マイクロコンピュータ124へ伝搬され、撮影レンズ101の制御量に変換された後、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ伝搬される。 The focus detection circuit 110 has a built-in focus detection sensor made up of a plurality of area sensors, and when the light beam transmitted through the main mirror 106 and reflected by the sub-mirror 107 enters the focus detection sensor, a light beam is detected within the focus detection sensor. A pair of spectroscopic image signals is obtained. Then, the amount of defocus of the photographing lens 101 is detected by determining the amount of image shift, which is the amount of displacement in the relative positions of the pair of obtained image signals. The defocus amount obtained by the focus detection circuit 110 is transmitted to the microcomputer 124, converted into a control amount for the photographing lens 101, and then transmitted to the in-lens microcomputer 141 via the lens communication circuit 103. .

フォーカルプレーンシャッター111は、カメラに設定されたシャッター速度に応じてシャッター駆動回路112により駆動される。 The focal plane shutter 111 is driven by a shutter drive circuit 112 according to the shutter speed set in the camera.

撮像素子113には、CCDやCMOSセンサなどが用いられ、撮影レンズ101によって結像された被写体像を電気信号に変換する。 The image sensor 113 uses a CCD, a CMOS sensor, or the like, and converts a subject image formed by the photographic lens 101 into an electrical signal.

クランプ回路114及びAGC回路115は、撮像素子113から出力された電気信号をA/D変換をする前に基本的なアナログ信号処理を行う回路であり、マイクロコンピュータ124により、クランプレベルやAGC基準レベルの変更が行われる。A/D変換器116は、クランプ回路114及びAGC回路115により処理された撮像素子113のアナログ出力信号をデジタル信号(画像データ)に変換する。 The clamp circuit 114 and the AGC circuit 115 are circuits that perform basic analog signal processing on the electric signal output from the image sensor 113 before A/D conversion. changes will be made. The A/D converter 116 converts the analog output signal of the image sensor 113 processed by the clamp circuit 114 and the AGC circuit 115 into a digital signal (image data).

映像信号処理回路117は、ゲートアレイなどのロジックデバイスにより実現され、デジタル化された画像データに、フィルタ処理、色変換処理、ガンマ処理を行うと共に、JPEGなどの圧縮処理を行い、メモリコントローラ120に出力する。また、映像信号処理回路117は、必要に応じて、撮像素子113の信号の露出情報やホワイトバランスなどの情報をマイクロコンピュータ124に出力することが可能である。これらの情報を基に、マイクロコンピュータ124は、ホワイトバランスやゲイン調整の指示を行う。 The video signal processing circuit 117 is realized by a logic device such as a gate array, and performs filter processing, color conversion processing, gamma processing, and compression processing such as JPEG on the digitized image data, and sends the data to the memory controller 120. Output. Further, the video signal processing circuit 117 can output information such as exposure information and white balance of the signal from the image sensor 113 to the microcomputer 124 as necessary. Based on this information, the microcomputer 124 issues instructions for white balance and gain adjustment.

なお、連続撮影動作の場合においては、撮影データを未処理のまま一旦バッファメモリ123に格納し、メモリコントローラ120を通して未処理の撮影データを読み出し、映像信号処理回路117にて画像処理や圧縮処理を行うことで、連続撮影を行う。連続撮影枚数は、バッファメモリ123の大きさに左右される。連続撮影時には、メモリコントローラ120は、映像信号処理回路117から入力された未処理のデジタル画像データをバッファメモリ123に格納し、処理済みのデジタル画像データをメモリ121に格納する。また、メモリコントローラ120は、バッファメモリ123やメモリ121から画像データを映像信号処理回路117に出力する。なお、メモリ121は取り外し可能であってもよい。更に、メモリコントローラ120は、コンピュータ等と接続可能な外部インターフェイス122を介して、メモリ121に記憶されている画像を出力することができる。 In the case of continuous shooting operation, the unprocessed shooting data is temporarily stored in the buffer memory 123, the unprocessed shooting data is read out through the memory controller 120, and the video signal processing circuit 117 performs image processing and compression processing. By doing this, you can shoot continuously. The number of continuous shots depends on the size of the buffer memory 123. During continuous shooting, the memory controller 120 stores unprocessed digital image data input from the video signal processing circuit 117 in the buffer memory 123 and stores processed digital image data in the memory 121. Further, the memory controller 120 outputs image data from the buffer memory 123 and the memory 121 to the video signal processing circuit 117. Note that the memory 121 may be removable. Further, the memory controller 120 can output images stored in the memory 121 via an external interface 122 that can be connected to a computer or the like.

操作部125は、マイクロコンピュータ124に操作部125に接続された各種操作部材の状態を伝え、マイクロコンピュータ124は操作部材の変化に応じて各部をコントロールする。操作部125に接続される操作部材は、スイッチ1(SW1)126と、スイッチ2(SW2)127を含む。SW1(126)、SW2(127)の操作状態を操作部125が解釈し、SW1(126)の操作のみ有効な状態(ON)であれば、オートフォーカス(AF)開始要求イベントとして取り扱う。また、SW2(127)の操作が有効な状態(ON)であれば撮影要求イベントとして取り扱う。また、SW2(127)が操作されている状態(ON)が維持されている場合には、連続撮影動作を行う。操作部125には、他に、ISO設定ボタン、画像サイズ設定ボタン、画質設定ボタン、情報表示ボタンなど、不図示の操作部材が接続されており、各操作部材の状態が検出される。 The operating section 125 informs the microcomputer 124 of the status of various operating members connected to the operating section 125, and the microcomputer 124 controls each section according to changes in the operating members. The operation members connected to the operation section 125 include a switch 1 (SW1) 126 and a switch 2 (SW2) 127. The operation unit 125 interprets the operation states of SW1 (126) and SW2 (127), and if only the operation of SW1 (126) is valid (ON), it is treated as an autofocus (AF) start request event. Further, if the operation of SW2 (127) is in a valid state (ON), it is treated as a photographing request event. Further, when the SW2 (127) is maintained in an operated state (ON), a continuous shooting operation is performed. Other operation members (not shown) such as an ISO setting button, an image size setting button, an image quality setting button, and an information display button are connected to the operation unit 125, and the state of each operation member is detected.

液晶駆動回路128は、マイクロコンピュータ124の表示命令に従って、外部液晶表示部材129やファインダー内液晶表示部材130を駆動する。ファインダー内液晶表示部材130には、不図示のLEDなどのバックライトが配置されており、そのLEDも液晶駆動回路128で駆動される。マイクロコンピュータ124は、撮影前に設定されているISO感度、画像サイズ、画質に応じた、画像サイズの予測値データをもとに、メモリコントローラ120を通して、メモリの容量を確認した上で撮影可能残数を演算することができる。そして、必要に応じて、撮影可能残数を外部液晶表示部材129やファインダー内液晶表示部材130に表示する。 The liquid crystal drive circuit 128 drives the external liquid crystal display member 129 and the finder liquid crystal display member 130 according to display commands from the microcomputer 124 . A backlight such as an LED (not shown) is arranged in the finder liquid crystal display member 130, and the LED is also driven by the liquid crystal drive circuit 128. The microcomputer 124 checks the memory capacity through the memory controller 120 based on the predicted image size data according to the ISO sensitivity, image size, and image quality set before shooting, and determines the remaining capacity for shooting. Able to calculate numbers. Then, if necessary, the remaining number of shots that can be taken is displayed on the external liquid crystal display member 129 or the finder internal liquid crystal display member 130.

不揮発性メモリ131(EEPROM)は、カメラに電源が入れられていない状態でも、データを保存することができる。電源部132は、各ICや駆動系に必要な電源を供給する。 Non-volatile memory 131 (EEPROM) can store data even when the camera is not powered on. The power supply section 132 supplies necessary power to each IC and drive system.

動き検出回路140は、デジタル一眼レフカメラの動きを検出する検出部を搭載している。検出部は例えば加速度センサであり、カメラ本体の水平軸を回転軸としたときの加速度、及び、カメラ本体の垂直軸を回転軸としたときの加速度を検出する。 The motion detection circuit 140 is equipped with a detection section that detects motion of a digital single-lens reflex camera. The detection unit is, for example, an acceleration sensor, and detects acceleration when the horizontal axis of the camera body is the rotation axis, and acceleration when the vertical axis of the camera body is the rotation axis.

なお、本実施形態では、動き検出回路140はカメラ本体側に構成され、マイクロコンピュータ124によって制御されているが、レンズ側に構成し、レンズ内マイクロコンピュータ141によって制御されてもよい。また、レンズは、カメラ本体に着脱可能なものであっても、カメラ本体と一体的に構成されたものであってもよい。 In this embodiment, the motion detection circuit 140 is configured on the camera body side and controlled by the microcomputer 124, but it may also be configured on the lens side and controlled by the in-lens microcomputer 141. Furthermore, the lens may be removably attached to the camera body, or may be configured integrally with the camera body.

次に、本発明の第1の実施形態における撮影処理の動作について説明する。一般にカメラのAFモードとしては、合焦動作を一回行って終了するモード(ワンショット撮影モード)と、現在の時刻よりも後の時刻の被写体の像面を予測しながら合焦動作を繰り返し行ってレンズを駆動するモード(サーボ撮影モード)の2種類がある。第1の実施形態では、カメラがサーボ撮影モードに設定されている場合の処理について説明する。 Next, the operation of the photographing process in the first embodiment of the present invention will be explained. In general, camera AF modes include two modes: a mode in which the focusing operation is performed once and the end (one-shot shooting mode), and a mode in which the focusing operation is repeated while predicting the image plane of the subject at a time later than the current time. There are two types of modes (servo shooting mode) in which the lens is driven by the camera. In the first embodiment, processing when the camera is set to servo photography mode will be described.

図2は、サーボ撮影モードによる撮影処理を示すフローチャートである。S201において、マイクロコンピュータ124は、撮影モードを確認する。現在の撮影モードがサーボ撮影モードではないと判断されると、処理を終了する。一方、撮影モードがサーボ撮影モードであると判断された場合にはS202へ遷移する。 FIG. 2 is a flowchart showing photographing processing in the servo photographing mode. In S201, the microcomputer 124 confirms the shooting mode. If it is determined that the current photographing mode is not the servo photographing mode, the process ends. On the other hand, if it is determined that the photographing mode is the servo photographing mode, the process moves to S202.

S202において、マイクロコンピュータ124は、操作部125により得られるSW1の状態を確認する。SW1がOFFの場合はS201へ遷移し、SW1がONであればS203へ遷移する。 In S202, the microcomputer 124 checks the state of SW1 obtained by the operation unit 125. If SW1 is OFF, the process moves to S201, and if SW1 is ON, the process moves to S203.

S203では、焦点検出回路110が焦点調節処理を行う。なお、S203における処理の詳細は、図3を参照して後述する。 In S203, the focus detection circuit 110 performs focus adjustment processing. Note that details of the process in S203 will be described later with reference to FIG.

次にS204において、マイクロコンピュータ124は、操作部125から得られるSW2の状態を確認する。SW2がOFFの場合はS201へ遷移し、SW2がONであればS205へ遷移する。 Next, in S204, the microcomputer 124 checks the state of SW2 obtained from the operation unit 125. If SW2 is OFF, the process moves to S201, and if SW2 is ON, the process moves to S205.

S205では、マイクロコンピュータ124は、シャッター駆動回路112を介してフォーカルプレーンシャッター111を駆動させ、撮影を行う。撮影の終了後、S201に戻る。 In S205, the microcomputer 124 drives the focal plane shutter 111 via the shutter drive circuit 112 to take an image. After photographing ends, the process returns to S201.

以上説明したように、サーボ撮影モードにてSW1がONである場合、モード変更されない限り、S203の焦点調節処理が繰り返し実施される。 As explained above, when SW1 is ON in the servo shooting mode, the focus adjustment process of S203 is repeatedly performed unless the mode is changed.

次に、図3を参照して、S203における焦点調節処理の概要について説明する。 Next, an overview of the focus adjustment process in S203 will be described with reference to FIG. 3.

S301において、マイクロコンピュータ124は、焦点検出とそれに伴う一連の処理を行う。なお、S301における処理の詳細は、図4を参照して後述する。 In S301, the microcomputer 124 performs focus detection and a series of processes associated therewith. Note that details of the process in S301 will be described later with reference to FIG.

S302において、マイクロコンピュータ124は、S301の処理により得られた焦点検出結果から、サーボ撮影モードにてフォーカス追従動作させていた対象の被写体を引き続きフォーカス追従(以降、「被写体捕捉」と呼ぶ。)できているか否かを判定する、連続性判定処理を行う。詳細は図5を参照して後述するが、引き続き被写体捕捉ができていれば、フラグFlagCatchFail=0となり、被写体捕捉の失敗時にはフラグFlagCatchFail>0となるように処理される。 In S302, the microcomputer 124 determines, based on the focus detection result obtained through the processing in S301, that the focus tracking of the target subject in the servo shooting mode can be continued (hereinafter referred to as "subject capture"). Continuity determination processing is performed to determine whether or not the The details will be described later with reference to FIG. 5, but if the subject can be captured continuously, the flag FlagCatchFail=0, and if the subject fails, the flag FlagCatchFail>0.

S303において、マイクロコンピュータ124は、焦点検出履歴から、捕捉中の被写体がどのような動きをしているかを予測する、動体予測処理を行う。なお、S303における処理の詳細は図6を参照して後述する。S303の処理の中で、マイクロコンピュータ124は、撮影レンズ101を構成するフォーカスレンズを駆動するためのフォーカスレンズ駆動量を算出する。 In S303, the microcomputer 124 performs a moving object prediction process to predict the movement of the object being captured based on the focus detection history. Note that details of the process in S303 will be described later with reference to FIG. In the process of S303, the microcomputer 124 calculates a focus lens drive amount for driving the focus lens that constitutes the photographic lens 101.

次にS304において、マイクロコンピュータ124は、S302内で設定されたフラグFlagCatchFailの値を確認する。FlagCatchFailが0より大きい場合、すなわち、被写体補足に失敗した場合にはS305へ遷移し、そうでない場合、すなわち、被写体補足ができた場合にはS306へ遷移する。 Next, in S304, the microcomputer 124 checks the value of the flag FlagCatchFail set in S302. If FlagCatchFail is greater than 0, that is, if subject capture has failed, the process moves to S305; otherwise, if the subject has been successfully captured, the process moves to S306.

S305では、今回の焦点検出結果が引き続き被写体捕捉できたと認められなかった場合の処理として、レンズ駆動を禁止し、焦点検出処理を終了する。なお、レンズ駆動の禁止処理としては2通り挙げられ、いずれを選択してもよい。1つ目は、マイクロコンピュータ124がレンズ通信回路103を経由してレンズ内マイクロコンピュータ141へ撮影レンズ101に含まれるフォーカスレンズを停止させるよう要求する方法である。2つ目は直前のS301における焦点検出処理にて得られたデフォーカス量に基づく駆動要求を実施しないようにする方法である。 In S305, as a process when the current focus detection result does not indicate that the subject has been successfully captured, lens driving is prohibited and the focus detection process is ended. Note that there are two types of lens drive prohibition processing, and either one may be selected. The first is a method in which the microcomputer 124 requests the in-lens microcomputer 141 to stop the focus lens included in the photographing lens 101 via the lens communication circuit 103. The second method is to avoid executing a drive request based on the defocus amount obtained in the focus detection process in the previous step S301.

一方、S306では、今回の焦点検出結果が引き続き被写体捕捉できたと認められた場合の処理を行う。ここでは、マイクロコンピュータ124が、レンズ通信回路103を経由してレンズ内マイクロコンピュータ141に対して撮影レンズ101に含まれるフォーカスレンズの駆動を要求し、焦点調節処理を終了する。 On the other hand, in S306, processing is performed when it is determined that the current focus detection result indicates that the subject has been successfully captured. Here, the microcomputer 124 requests the in-lens microcomputer 141 to drive the focus lens included in the photographic lens 101 via the lens communication circuit 103, and the focus adjustment process ends.

図4は、S301で行われる焦点検出処理の動作の一例を示す。S401で、マイクロコンピュータ124は、過去の焦点検出履歴に基づいて、今回の焦点検出結果が引き続き被写体捕捉できているかどうかを判定するための連続性判定閾値の設定を行う。なお、S401における処理の詳細は図7を参照して後述する。 FIG. 4 shows an example of the operation of the focus detection process performed in S301. In S401, the microcomputer 124 sets a continuity determination threshold for determining whether the current focus detection result continues to capture the subject, based on the past focus detection history. Note that details of the process in S401 will be described later with reference to FIG.

次に、S402において、マイクロコンピュータ124は、焦点検出回路110を駆動して、焦点検出を行う。 Next, in S402, the microcomputer 124 drives the focus detection circuit 110 to perform focus detection.

S403で、マイクロコンピュータ124は、S402における焦点検出結果であるデフォーカス量(以降、「検出デフォーカス量」と呼ぶ。)を、図8に示すように、焦点検出した測距点に対応するように行列に記載した、デフォーカスマップを作成する。 In S403, the microcomputer 124 sets the defocus amount (hereinafter referred to as "detected defocus amount"), which is the focus detection result in S402, so that it corresponds to the focus detection point, as shown in FIG. Create a defocus map written in the matrix.

ここで図8(a)から(d)を用いて、本実施形態で作成するデフォーカスマップについて説明する。 Here, the defocus map created in this embodiment will be explained using FIGS. 8(a) to 8(d).

801は、撮像素子113により得られる画像領域に相当し、802は、焦点検出回路110に含まれる焦点検出センサ部のセンサ領域を示している。本実施形態の焦点検出センサ部は、縦方向に7分割、横方向に7分割された合計49枠の測距点によって構成されているものとする。803~805は、分割された測距点の一部を差し示している。デフォーカスマップの作成時には、その各測距点ごとに測距結果が得られる構成となっている。 Reference numeral 801 corresponds to an image area obtained by the image sensor 113, and reference numeral 802 indicates a sensor area of a focus detection sensor section included in the focus detection circuit 110. It is assumed that the focus detection sensor section of this embodiment is configured with a total of 49 distance measuring points divided into seven vertically and horizontally seven. 803 to 805 indicate some of the divided ranging points. When creating a defocus map, the configuration is such that distance measurement results are obtained for each distance measurement point.

図8(a)に示す構図では、撮影者(カメラ)に対して近景側に存在する被写体806と遠景側に存在する被写体807とが同一画面内に存在するケースを示しており、遠景側の人物807に焦点が合っている。このときのデフォーカスマップは、図8(b)に示すように、遠景側の人物807の位置に設定された測距点809では検出デフォーカス量0、手前側の人物806の位置に設定された測距点808では検出デフォーカス量が負の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量が正の値となっている。 The composition shown in FIG. 8(a) shows a case where a subject 806 on the foreground side and a subject 807 on the far side with respect to the photographer (camera) exist in the same screen, and The person 807 is in focus. In the defocus map at this time, as shown in FIG. 8(b), the detected defocus amount is 0 at the distance measurement point 809 set at the position of the person 807 on the far side, and the amount of detected defocus is set at the position of the person 806 on the near side. At the distance measuring point 808, the detected defocus amount has a negative value. Furthermore, the detected defocus amount is a positive value at the distance measurement point set at the background position.

同様に、図8(c)では手前側の人物810に焦点が合い、遠景側の被写体811にはピントが合っていない状態となっている。このときのデフォーカスマップは図8(d)に示すように、手前側の人物810の位置に設定された測距点812では検出デフォーカス量0、遠景側の人物811の位置に設定された測距点813では検出デフォーカス量が正の値となっている。さらに、背景の位置に設定された測距点では検出デフォーカス量がさらに大きな正の値となっている。 Similarly, in FIG. 8C, a person 810 in the foreground is in focus, and a subject 811 in the distance is out of focus. In the defocus map at this time, as shown in FIG. 8(d), the detected defocus amount is 0 at the distance measuring point 812 set at the position of the person 810 on the foreground side, and it is set at the position of the person 811 on the far side. At the distance measuring point 813, the detected defocus amount has a positive value. Furthermore, the detected defocus amount has an even larger positive value at the distance measurement point set at the background position.

S404において、マイクロコンピュータ124は、S403で作成したデフォーカスマップから、主測距点を選択する。具体的には、前回までの焦点検出結果に基づいて、今回の焦点検出時には被写体が撮影者(カメラ)に対して近づいているか、または遠ざかっているか、すなわち奥行方向にどれだけ移動しているかを予測しておき、この結果に最も近い測距点を主測距点とする。なお、ユーザの設定したモードが測距点を複数設定する多点方式でなかった場合、ユーザ指定の測距点を主測距点と定める。 In S404, the microcomputer 124 selects the main distance measurement point from the defocus map created in S403. Specifically, based on the previous focus detection results, the current focus detection determines whether the subject is approaching or moving away from the photographer (camera), in other words, how far the subject has moved in the depth direction. The distance measurement point closest to this result is set as the main distance measurement point. Note that if the mode set by the user is not a multi-point method in which a plurality of distance measurement points are set, the distance measurement point specified by the user is determined as the main distance measurement point.

S405において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、被写体領域を抽出する。具体的には、S404で選択した主測距点の周囲で、主測距点とのデフォーカス量の差が一定値以内である領域を被写体領域とする(被写体検出)。 In S405, the microcomputer 124 extracts the subject area using the defocus map created in S403. Specifically, an area around the main focus point selected in S404 where the difference in defocus amount from the main focus point is within a certain value is determined as a subject area (subject detection).

次に、S406において、マイクロコンピュータ124は、S403で作成したデフォーカスマップを用いて、障害物を抽出する。具体的には、S405で抽出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された領域をデフォーカスマップから抽出し、障害物とみなす。 Next, in S406, the microcomputer 124 extracts obstacles using the defocus map created in S403. Specifically, an area in which a defocus amount indicating a focus position closer to the subject area extracted in S405 has been detected is extracted from the defocus map, and is regarded as an obstacle.

以上の処理によってS301の焦点検出処理を完了し、過去の焦点検出履歴に基づく連続性判定のための閾値の決定と、焦点検出処理による焦点検出結果の取得および、検出デフォーカス量に基づくデフォーカスマップの作成を実施している。そしてデフォーカスマップからは、主被写体の領域の抽出と、障害物がある場合には障害物の占めるデフォーカスマップ上の領域を特定することができ、以上の情報がS302の連続性判定処理以降に参照される。 The above process completes the focus detection process in S301, determines the threshold value for continuity determination based on the past focus detection history, obtains the focus detection result by the focus detection process, and defocuses based on the detected defocus amount. A map is being created. Then, from the defocus map, it is possible to extract the area of the main subject and, if there is an obstacle, specify the area on the defocus map that the obstacle occupies. Referenced.

図5は、S302で行われる連続性判定処理の動作の一例を示す。S501において、マイクロコンピュータ124は、S405で検出した主測距点の検出デフォーカス量とS401で設定した連続性判定閾値の大きさの比較を行う。検出デフォーカス量がS401で決定した連続性判定閾値よりも小さければS502へ遷移し、連続性判定閾値以上であればS503に遷移する。 FIG. 5 shows an example of the operation of the continuity determination process performed in S302. In S501, the microcomputer 124 compares the detected defocus amount of the main focus point detected in S405 with the continuity determination threshold set in S401. If the detected defocus amount is smaller than the continuity determination threshold determined in S401, the process proceeds to S502, and if it is equal to or greater than the continuity determination threshold, the process proceeds to S503.

S502では、マイクロコンピュータ124は、今回の焦点検出結果から引き続き被写体捕捉ができていると判定し、フラグFlagCatchFailを0に設定し、連続性判定処理を終了する。 In S502, the microcomputer 124 determines that the subject has been successfully captured based on the current focus detection result, sets the flag FlagCatchFail to 0, and ends the continuity determination process.

S503では、マイクロコンピュータ124は、今回の焦点検出結果から被写体捕捉ができていないと判定し、フラグFlagCatchFailをインクリメントする。なお、フラグFlagCatchFailは、S502における処理の他に、カメラの起動時、サーボ撮影モードの設定時等の予め決められたタイミングで初期値0に設定される。 In S503, the microcomputer 124 determines that the subject has not been captured based on the current focus detection result, and increments the flag FlagCatchFail. Note that the flag FlagCatchFail is set to an initial value of 0 at a predetermined timing, such as when starting the camera or setting the servo shooting mode, in addition to the process in S502.

S504では、マイクロコンピュータ124は、フラグFlagCatchFailが1であるかどうか、すなわち今回初めて被写体補足に失敗したと判断されたかどうかを判定する。フラグFlagCatchFailが1であればS506へ遷移し、そうでなければS505に遷移する。 In S504, the microcomputer 124 determines whether the flag FlagCatchFail is 1, that is, whether it is determined that object capture has failed for the first time. If the flag FlagCatchFail is 1, the process moves to S506; otherwise, the process moves to S505.

S506において、マイクロコンピュータ124は、経過観察タイマを設定したうえで、連続性判定処理を終了する。経過観察タイマは、被写体捕捉できたと判定されるまで待機する最大の時間を示す。経過観察タイマを設定することによって、経過観察タイマのカウント中であれば、被写体捕捉に失敗した被写体を再度検出できたときに、すぐに追従を再開することができる。 In S506, the microcomputer 124 sets a follow-up observation timer and then ends the continuity determination process. The follow-up timer indicates the maximum waiting time until it is determined that the subject has been captured. By setting the follow-up timer, if the follow-up timer is counting, it is possible to immediately resume tracking when the subject for which subject capture has failed is detected again.

一方、S505では、マイクロコンピュータ124は、経過観察タイマが満了しているかどうかを判定する。経過観察タイマが満了していればS507へ遷移し、そうでなければ連続性判定処理を終了する。 On the other hand, in S505, the microcomputer 124 determines whether the follow-up timer has expired. If the follow-up observation timer has expired, the process moves to S507; otherwise, the continuity determination process ends.

S507において、マイクロコンピュータ124は、過去の焦点検出履歴や追尾などのデータを消去し、フラグFlagCatchFailをクリアして連続性判定処理を終了する。このように、ユーザが意図的に被写体を変更したときなどは、経過観察タイマが満了すると、すぐに新しい被写体への追従を始めることができる。 In S507, the microcomputer 124 erases data such as past focus detection history and tracking, clears the flag FlagCatchFail, and ends the continuity determination process. In this way, when the user intentionally changes the subject, tracking of the new subject can be started immediately after the follow-up timer expires.

図6は、S303で行われる動体予測処理の動作の一例を示す。S601では、S301における今回の焦点検出結果を過去の焦点検出履歴に加え、不揮発性メモリ131あるいはマイクロコンピュータ124内の記憶領域に格納する。焦点検出履歴に記録する情報は、今回の焦点検出時刻と像面位置である。なお、像面位置とは、検出デフォーカス量と現在のフォーカスレンズの位置から算出される、被写体にピントが合うフォーカスレンズの位置のことである。 FIG. 6 shows an example of the operation of the moving object prediction process performed in S303. In S601, the current focus detection result in S301 is added to the past focus detection history and stored in the storage area of the nonvolatile memory 131 or the microcomputer 124. The information recorded in the focus detection history is the current focus detection time and image plane position. Note that the image plane position is the position of the focus lens where the subject is in focus, which is calculated from the detected defocus amount and the current position of the focus lens.

S602において、マイクロコンピュータ124は、動体予測を行う条件に当てはまるかどうかを判断する。条件としては、例えば複数回連続で同じ方向に像面位置が動いたかどうかの判定などが挙げられる。動体予測を行う条件に当てはまればS603へ遷移し、そうでなければS606に遷移する。 In S602, the microcomputer 124 determines whether conditions for performing moving object prediction are met. The conditions include, for example, determining whether the image plane position has moved in the same direction multiple times in succession. If the conditions for performing moving object prediction are met, the process transitions to S603; otherwise, the process transitions to S606.

S603で、マイクロコンピュータ124は、過去の焦点検出履歴から、図9に示すような予測曲線を引くことで予測駆動量と焦点検出結果のばらつきを算出する。図9の縦軸は像面位置を、横軸は時間を示し、縦軸の像面位置が大きいほど距離が遠いことを示しており、図の履歴は撮影者(カメラ)に近付く被写体を追従している様子を示している。前述した通り、S203における焦点調節処理はサーボ撮影モードでは周期的に実施されており、T~Tは各々、S203で行われる焦点調節処理の実施時刻を表している。予測駆動量は、例えば過去の像面位置とそれぞれの焦点検出時刻を用いた一括最小二乗法によって予測曲線を導出し、この曲線をもとに予測先時刻での像面位置を算出することで得られる。予測先時刻はSW2がONであれば撮影時の時刻を、そうでなければ今回の焦点検出時刻を示す。 In S603, the microcomputer 124 calculates the predicted drive amount and the variation in focus detection results by drawing a prediction curve as shown in FIG. 9 from the past focus detection history. The vertical axis in Figure 9 shows the image plane position, and the horizontal axis shows time. The larger the image plane position on the vertical axis, the farther the distance is. The history in the figure follows the subject as it approaches the photographer (camera). It shows how it is done. As described above, the focus adjustment process in S203 is performed periodically in the servo shooting mode, and T 1 to T 5 each represent the execution time of the focus adjustment process in S203. The predicted drive amount can be calculated by, for example, deriving a prediction curve using the collective least squares method using the past image plane position and each focus detection time, and calculating the image plane position at the predicted destination time based on this curve. can get. The predicted destination time indicates the time at the time of photographing if SW2 is ON, and otherwise indicates the current focus detection time.

S604では、マイクロコンピュータ124は、S603で算出した焦点検出結果のばらつきを踏まえて、最終的に予測フォーカス駆動を行うかどうかの判定を行う。具体的には、ばらつきが一定値以上であれば、予測を信用できないと判断し予測フォーカス駆動を行わず、ばらつきが一定値未満であれば、予測を信用していいと判断し予測フォーカス駆動を行う。予測フォーカス駆動を行うと判断した場合S605へ遷移し、そうでなければS606に遷移する。 In S604, the microcomputer 124 determines whether to finally perform predictive focus driving based on the variation in the focus detection results calculated in S603. Specifically, if the dispersion is above a certain value, it is determined that the prediction cannot be trusted and the predictive focus drive is not performed, and if the dispersion is less than a certain value, it is determined that the prediction can be trusted and the predictive focus drive is performed. . If it is determined that predictive focus driving is to be performed, the process moves to S605; otherwise, the process moves to S606.

予測フォーカス駆動とは、図9にて説明した予測曲線に基づき現在の像面位置L3から将来のピントを合わせたい時刻における像面位置までレンズを駆動させる制御である。図9の黒丸は検出デフォーカス量から求めた像面位置を、白丸は予測する像面位置を示す。例えば図9のTの時刻で検出したデフォーカス量がxであったとする。ここでレンズ駆動してTの時点でピントを合わせることを狙う場合には、デフォーカス量yに相当するレンズ駆動を要求することとなる。このデフォーカス量yを算出するには、過去の焦点検出結果から近似曲線を引き、これを予測曲線として、Tでの像面位置を予測する必要がある。このように、Tで焦点検出を行って、Tでの合焦を狙うため、デフォーカス量yだけフォーカス駆動を行う場合のレンズ駆動を、予測フォーカス駆動という。一方、予測フォーカス駆動を行わない場合、すなわち過去の焦点検出履歴から予測を行わない、もしくは予測結果を利用しない場合、フォーカス駆動量はデフォーカス量x、すなわち検出デフォーカス量となる。 Predictive focus driving is control for driving the lens from the current image plane position L3 to the image plane position at a future time when focusing is desired, based on the prediction curve explained with reference to FIG. The black circles in FIG. 9 indicate image plane positions determined from the detected defocus amount, and the white circles indicate predicted image plane positions. For example, assume that the defocus amount detected at time T4 in FIG. 9 is x. If the objective is to drive the lens and focus at time T5 , then the lens drive corresponding to the defocus amount y is required. In order to calculate this defocus amount y, it is necessary to draw an approximate curve from past focus detection results and use this as a predicted curve to predict the image plane position at T5 . In this way, in order to perform focus detection at T4 and aim for focusing at T5 , lens drive in which focus drive is performed by the defocus amount y is called predictive focus drive. On the other hand, when predictive focus driving is not performed, that is, when prediction is not performed from past focus detection history or when prediction results are not used, the focus driving amount becomes the defocus amount x, that is, the detected defocus amount.

S605では、マイクロコンピュータ124は、フォーカス駆動量を予測駆動量に設定し、動体予測処理を終了する。一方、S606では、マイクロコンピュータ124は、フォーカス駆動量を検出デフォーカス量に設定し、動体予測処理を終了する。 In S605, the microcomputer 124 sets the focus drive amount to the predicted drive amount, and ends the moving object prediction process. On the other hand, in S606, the microcomputer 124 sets the focus drive amount to the detected defocus amount, and ends the moving object prediction process.

次に図7を参照して、S401で行われる連続性判定閾値設定処理の動作の一例を示す。連続性判定閾値とは、引き続き被写体捕捉ができているかを判定するための閾値のことであり、上述したS501における比較処理で用いられる。上述した様に、検出デフォーカス量が連続性判定閾値よりも大きい値であれば被写体捕捉に失敗しており、そうでなければ被写体捕捉に成功していると判定する。 Next, with reference to FIG. 7, an example of the operation of the continuity determination threshold setting process performed in S401 will be described. The continuity determination threshold is a threshold for determining whether the subject can be captured continuously, and is used in the comparison process in S501 described above. As described above, if the detected defocus amount is larger than the continuity determination threshold value, it is determined that the subject capture has failed, and otherwise, it is determined that the subject capture has been successful.

S701において、マイクロコンピュータ124は、前回の焦点検出時に距離測定回路142で計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体がカメラに対して一定以上の距離であればS702へ遷移し、そうでなければS703に遷移する。 In S701, the microcomputer 124 receives object distance information measured by the distance measurement circuit 142 during the previous focus detection via the in-lens microcomputer 141 and the lens communication circuit 103, so that the object currently being captured is detected by the camera. Determine whether the distance is greater than a certain distance. If the subject is at a certain distance or more from the camera, the process transitions to S702; otherwise, the process transitions to S703.

S702で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。 In S702, the microcomputer 124 sets the continuity determination threshold to the first threshold, and ends the continuity determination threshold setting process.

一方、S703において、マイクロコンピュータ124は、被写体をどれだけ捕捉しやすい条件であるかを示す、被写体捕捉難易度Dを算出する。本実施形態では、被写体捕捉難易度を表す情報(難易度情報)として、前回の焦点検出時にS405で得られた被写体領域の画角内におけるサイズ、S406で得られた障害物の有無、動き検出回路140で検出した角速度情報により得られるカメラの振れ情報の3つを用いる。これらの情報に基づいて、被写体捕捉難易度Dを以下の式(1)により導出する。

Figure 0007431555000001
は、検出した被写体領域よりも至近側の合焦位置を示すデフォーカス量が検出された測距点の数を示す。Oは、Oの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。Jは、動き検出回路140で検出したカメラ振れ量の絶対値を示す。Jは、カメラ振れ量Jの許容最大値を示す。Sは、主測距点と近いデフォーカス量が検出された測距点の数を示す。Sは、Sの算出のために参照する点数を示し、この最大値は画角全体の測距点の数である。Sは、被写体サイズ許容最小量を示し、測距点数で表わされる。 On the other hand, in S703, the microcomputer 124 calculates the subject capture difficulty level D, which indicates how easy the conditions are for capturing the subject. In this embodiment, the information representing the object capture difficulty level (difficulty information) includes the size within the field of view of the object area obtained in S405 during the previous focus detection, the presence or absence of an obstacle obtained in S406, and the motion detection. Three pieces of camera shake information obtained from the angular velocity information detected by the circuit 140 are used. Based on this information, the subject capture difficulty level D is derived using the following equation (1).
Figure 0007431555000001
OD indicates the number of ranging points where a defocus amount indicating a focus position closer to the detected subject area was detected. OA indicates the number of points referred to for calculating OD , and its maximum value is the number of distance measurement points over the entire angle of view. JD indicates the absolute value of the amount of camera shake detected by the motion detection circuit 140. JP indicates the maximum allowable value of camera shake amount JD . SC indicates the number of distance measuring points where a defocus amount close to that of the main focusing point is detected. S A indicates the number of points referred to for calculating S C , and its maximum value is the number of distance measurement points over the entire angle of view. S P indicates the minimum allowable object size and is expressed by the number of distance measurement points.

上記の被写体捕捉難易度Dは0以上1以下の値であり、値が大きいほど被写体を捕捉しやすく、小さいほど被写体を捕捉しにくいことを表す。 The subject capturing difficulty level D is a value between 0 and 1, and the larger the value, the easier it is to capture the subject, and the smaller the value, the more difficult it is to capture the subject.

S703で算出した被写体捕捉難易度に基づいて、マイクロコンピュータ124は、S704で被写体を捕捉しやすいかどうかを判断する。一例として、D≧0.5であった場合、被写体が捕捉し易く、そうでない場合は、被写体が捕捉しにくいと判断する。D≧0.5であった場合、すなわち被写体を捕捉しやすいと判断した場合、S705へ遷移し、そうでなければS706に遷移する。 Based on the subject capture difficulty level calculated in S703, the microcomputer 124 determines whether the subject is easy to capture in S704. As an example, if D≧0.5, it is determined that the subject is easy to capture; otherwise, it is determined that the subject is difficult to capture. If D≧0.5, that is, if it is determined that the subject is easy to capture, the process moves to S705; otherwise, the process moves to S706.

S705で、マイクロコンピュータ124は、連続性判定閾値を、第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離によって可変であって、至近であるほど大きくなる。 In S705, the microcomputer 124 sets the continuity determination threshold to a second threshold that is larger than the first threshold, and ends the continuity determination threshold setting process. This second threshold value is variable depending on the distance to the subject, and becomes larger as the subject gets closer.

S706で、マイクロコンピュータ124は、連続性判定閾値を第二の閾値よりも小さい第三の閾値に設定する。S704で、現在の撮影状況では被写体を捕捉しにくいと判定されているので、連続性判定閾値を第二の閾値に設定してしまうと、引き続き被写体捕捉ができていなくても、それを現在捕捉中の被写体の動きの変化だと判断してしまう可能性がある。そこで、S706では第二の閾値よりも小さく、被写体補足難易度Dに応じて段階的に値を取れる、第三の閾値を採用する。一例として、同じ被写体距離での第二の閾値をD、第一の閾値をDとすると、第三の閾値D
=(D-D)・2D+D …(2)
と表現することができる。このようにすることで、第三の閾値Dは被写体補足難易度に応じて段階的に第一の閾値Dと第二の閾値Dの間の値を取ることができる。以上のように連続性判定閾値を第三の閾値と設定し、連続性判定閾値設定処理を終了する。
In S706, the microcomputer 124 sets the continuity determination threshold to a third threshold that is smaller than the second threshold. In step S704, it is determined that it is difficult to capture the subject under the current shooting situation, so if the continuity determination threshold is set to the second threshold, even if the subject cannot be captured continuously, it will be difficult to capture the subject. There is a possibility that it will be interpreted as a change in the movement of the subject inside. Therefore, in S706, a third threshold value that is smaller than the second threshold value and that takes a stepwise value according to the subject capture difficulty level D is adopted. As an example, if the second threshold is D 2 and the first threshold is D 1 at the same subject distance, the third threshold D 3 is D 3 = (D 2 - D 1 )・2D+D 1 (2)
It can be expressed as By doing so, the third threshold D 3 can take a value between the first threshold D 1 and the second threshold D 2 in stages according to the subject capture difficulty level. As described above, the continuity determination threshold is set as the third threshold, and the continuity determination threshold setting process is completed.

次に、第1の実施形態で得られる効果について、図10及び図11を用いて説明する
図10は、カメラから比較的近い場所に静止していた被写体がカメラから遠ざかる方向に急加速したときの、像面位置の変化を示す。横軸は時刻、縦軸は像面位置を示す。縦軸が大きいほど被写体距離は大きくなる。点t、t、tのように、被写体が静止している間は、像面位置が変化しない。しかし、被写体が急加速すると、点tのようにこれまで静止していた過去の焦点検出履歴の傾向からでは予測できない大きなデフォーカス量変化が観測される。このように、静止した状態から急速に動き出す被写体の追従は、被写体の動きの特性がこれまでの焦点検出履歴と大きく異なっているために、次の瞬間に大きな動きをすると予想するのが難しい。さらに撮影者(カメラ)と被写体の距離が近いほど、被写体が動いた瞬間の像面移動量が非常に大きく観測される。そのため、近景で静止した状態から急速に動き出す被写体の追従は特に測距履歴の連続性を観測することが難しくなってしまう。
Next, the effects obtained in the first embodiment will be explained using FIGS. 10 and 11. FIG. 10 shows a case where a stationary subject relatively close to the camera suddenly accelerates in a direction away from the camera. shows the change in the image plane position. The horizontal axis indicates time, and the vertical axis indicates image plane position. The larger the vertical axis, the larger the subject distance. As at points t 1 , t 2 , and t 3 , the image plane position does not change while the subject is stationary. However, when the subject suddenly accelerates, a large change in defocus amount is observed, such as at point t5 , which cannot be predicted from the trend of the past focus detection history where the subject has been stationary. In this way, when tracking a subject that starts moving rapidly from a stationary state, the characteristics of the subject's movement are significantly different from the previous focus detection history, so it is difficult to predict that the subject will move significantly at the next moment. Furthermore, the closer the distance between the photographer (camera) and the subject, the greater the amount of image plane movement observed at the moment the subject moves. Therefore, it becomes difficult to observe the continuity of the distance measurement history, especially when tracking a subject that rapidly moves from a stationary state in the foreground.

そこで本実施形態では、被写体がカメラから比較的近い場所にあるときに連続性判定閾値を大きくすることで、このような急激な像面位置変化に対応できるようになる。 Therefore, in this embodiment, by increasing the continuity determination threshold when the subject is relatively close to the camera, it is possible to cope with such sudden changes in the image plane position.

一方、図11のように、被写体の手前に障害物がある場合(図11(a))、被写体が小さい場合(図11(b))、カメラが振れている場合等の被写体を捉え続けにくい状況で、単純に被写体までの距離に応じた対策を行うと、追従対象ではない被写体を捉えてしまう可能性がある。そこで、本願発明では、被写体を捉え続けにくい状況である場合を判定し、連続性判定閾値を抑えることで、追従対象ではない被写体を捕捉対象として誤検知しないようにする。 On the other hand, as shown in Figure 11, it is difficult to continue capturing the subject when there is an obstacle in front of the subject (Figure 11(a)), when the subject is small (Figure 11(b)), or when the camera is shaking. If you simply take measures based on the distance to the subject, you may end up capturing a subject that you are not tracking. Therefore, in the present invention, it is determined when the situation is such that it is difficult to continue capturing the subject, and the continuity determination threshold value is suppressed to prevent erroneously detecting a subject that is not a tracking target as a capture target.

以上説明した通り、本実施形態では、今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を近景において大きな値に設定する。これは、撮影者(カメラ)と被写体の距離が近いほど、被写体の動きに対し検出されるデフォーカス量変化が大きくなるためである。更に被写体の捕捉しにくさを評価し、この評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているかどうか判定するための閾値を動的に変化させた。具体的には、前回焦点検出時点でのデフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つで評価した。これによって、近景で急に動き出す被写体に対しても追従を可能とした。また、所望でない被写体を捕捉対象として誤検知しやすい環境では、近景での被写体追従性を保持しつつ誤検知を抑えることを実現可能とした。 As described above, in the present embodiment, the threshold value for determining whether the current focus detection result continues to capture the currently captured subject is set to a large value in the foreground. This is because the closer the distance between the photographer (camera) and the subject, the greater the change in defocus amount detected with respect to the movement of the subject. Furthermore, the difficulty of capturing the subject was evaluated, and in accordance with this evaluation result, the threshold value used to determine whether the current focus detection result could continue to capture the currently captured subject was dynamically changed. Specifically, evaluation was made using three factors: the size of the target object within the angle of view obtained from defocus information at the time of previous focus detection, the presence or absence of obstacles, and camera shake information obtained from angular velocity information. This makes it possible to track objects that suddenly start moving in the foreground. In addition, in environments where it is easy to falsely detect undesired objects as capture targets, it is possible to suppress false detections while maintaining close subject tracking performance.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、第三の閾値が被写体の追従し易さによって変化する数値として設定される例を説明した。これに対し、第2の実施形態では、第三の閾値が第一の閾値と一致する、すなわち被写体を追従しにくい条件下では、被写体が前回と同一であると認めるデフォーカス量の差を大きくしない例について説明する。
<Second embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, an example has been described in which the third threshold value is set as a numerical value that changes depending on the ease of tracking the subject. In contrast, in the second embodiment, when the third threshold matches the first threshold, that is, under conditions where it is difficult to track the subject, the difference in defocus amount is increased to determine that the subject is the same as the previous one. An example of not doing so will be explained below.

以下、図12を参照して、本発明の第2の実施形態における連続性判定閾値設定処理について説明する。なお、第2の実施形態は、図4のS401における処理が第1の実施形態と異なり、図12に示す処理が図7に示す処理の代わりに実行される。それ以外は第1の実施形態と同様であるため、説明を省略する。 The continuity determination threshold setting process in the second embodiment of the present invention will be described below with reference to FIG. 12. Note that the second embodiment differs from the first embodiment in the process in S401 of FIG. 4, and the process shown in FIG. 12 is executed instead of the process shown in FIG. 7. The rest is the same as the first embodiment, so the explanation will be omitted.

図12は、第2の実施形態においてS401で行われる連続性判定閾値設定処理の動作の一例を示す図である。 FIG. 12 is a diagram illustrating an example of the operation of the continuity determination threshold setting process performed in S401 in the second embodiment.

S1201では、マイクロコンピュータ124は、距離測定回路142により計測した被写体距離情報を、レンズ内マイクロコンピュータ141、レンズ通信回路103を介して受信することで、現在捕捉中の被写体がカメラに対して一定以上の距離であるかどうかを判定する。被写体が一定以上の距離であればS1202へ遷移し、そうでなければS1204に遷移する。 In S1201, the microcomputer 124 receives object distance information measured by the distance measuring circuit 142 via the in-lens microcomputer 141 and the lens communication circuit 103, so that the currently captured object is closer to the camera than a certain level. Determine whether the distance is . If the distance of the subject is a certain distance or more, the process transitions to S1202, otherwise the process transitions to S1204.

S1202では、マイクロコンピュータ124は、連続性判定閾値を第一の閾値に設定し、連続性判定閾値設定処理を終了する。 In S1202, the microcomputer 124 sets the continuity determination threshold to the first threshold, and ends the continuity determination threshold setting process.

一方S1204において、マイクロコンピュータ124は、被写体を捕捉しにくいかどうかを判断する。ここでは、以下の3条件のいずれかに該当するかどうかを判定する。
・デフォーカス情報より得られる対象被写体の画角内のサイズが一定値より小さい
・障害物がある(画角内に所望の被写体の手前に写っている被写体がある)
・角速度情報により得られるカメラの振れ量が一定値より大きい
上述したいずれかの条件に該当する場合は、被写体を捕捉しにくく、そうでない場合は被写体を捕捉し易いと判断する。被写体を捕捉し易いと判断した場合はS1206へ遷移し、そうでなければS1202に遷移する。
On the other hand, in S1204, the microcomputer 124 determines whether the subject is difficult to capture. Here, it is determined whether any of the following three conditions apply.
- The size of the target subject within the angle of view obtained from defocus information is smaller than a certain value - There is an obstacle (there is an object in front of the desired subject within the angle of view)
- If any of the above-mentioned conditions in which the amount of camera shake obtained from the angular velocity information is greater than a certain value is met, it is determined that it is difficult to capture the subject; otherwise, it is determined that it is easy to capture the subject. If it is determined that the subject is easy to capture, the process moves to S1206; otherwise, the process moves to S1202.

S1206で、マイクロコンピュータ124は、連続性判定閾値を第一の閾値よりも大きい第二の閾値に設定し、連続性判定閾値設定処理を終了する。この第二の閾値は、被写体距離に応じて可変であって、至近であるほど大きくなる。 In S1206, the microcomputer 124 sets the continuity determination threshold to a second threshold that is larger than the first threshold, and ends the continuity determination threshold setting process. This second threshold value is variable depending on the distance to the subject, and becomes larger as the subject gets closer.

以上説明した通り、第2の実施形態では、被写体を追い続けられないことが危惧される場合には、デフォーカス量の差異が大きく出たときに同一被写体と認めにくくなるようにした。これにより、第1の実施形態に比べ、より連続性判定閾値を拡張しにくく設定することができ、特に誤った被写体を捕捉することを避けたい場合に適当である。また、演算量を減らすことができるため、全体のパフォーマンスに大きな影響を与えることがない。 As explained above, in the second embodiment, if there is a fear that the subject cannot be continued to be tracked, it is made difficult to recognize that the subject is the same subject when the difference in defocus amount becomes large. This makes it possible to set the continuity determination threshold more difficult to expand than in the first embodiment, which is particularly suitable when it is desired to avoid capturing the wrong subject. Furthermore, since the amount of calculation can be reduced, overall performance is not significantly affected.

<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第1の実施形態では、被写体の追従しにくさを評価する条件として、デフォーカス情報より得られる対象被写体の画角内のサイズ、障害物の有無、角速度情報により得られるカメラの振れ情報の3つを用いた。
<Third embodiment>
Next, a third embodiment of the present invention will be described. In the first embodiment, the following three conditions are used to evaluate the difficulty of tracking a subject: the size of the target subject within the angle of view obtained from defocus information, the presence or absence of obstacles, and camera shake information obtained from angular velocity information. One was used.

第3の実施形態では、カメラ姿勢とカメラ振れ情報から得られるパン・チルト情報あるいはxy平面動きベクトル、被写界深度、ユーザ設定の被写体の動き特性、画像処理により取得される被写体サイズ、顔や動物などの被写体の個数、の情報(難易度情報)を用いて、被写体の補足しにくさを表現する。 In the third embodiment, pan/tilt information or xy plane motion vectors obtained from camera posture and camera shake information, depth of field, motion characteristics of the subject set by the user, subject size obtained by image processing, face and Information on the number of objects such as animals (difficulty level information) is used to express the difficulty of capturing the objects.

以下、図13と被写体捕捉難易度算出方法の説明によって、本発明の第3の実施形態における被写体捕捉難易度の算出方法の違いについて説明する。なお、第3の実施形態では、第1の実施形態で説明した図4の処理の代わりに、図13に示す処理を行うが、それ以外は第1の実施形態と同様であるため、説明を省略する。また、図13において、図4における処理と同じ処理には同じ参照番号を付し、説明を省略する。 Hereinafter, with reference to FIG. 13 and an explanation of the method for calculating the difficulty level of capturing a subject, the difference in the method of calculating the difficulty level of capturing the subject in the third embodiment of the present invention will be explained. Note that in the third embodiment, the process shown in FIG. 13 is performed instead of the process shown in FIG. Omitted. Further, in FIG. 13, the same processes as those in FIG. 4 are given the same reference numerals, and the description thereof will be omitted.

図13に示す焦点検出処理において、S1304で、マイクロコンピュータ124は、映像信号処理回路117で取得した画像から、人の顔・身体や動物といった、画像内における被写体の位置と数を抽出する。 In the focus detection process shown in FIG. 13, in S1304, the microcomputer 124 extracts from the image acquired by the video signal processing circuit 117 the position and number of objects in the image, such as a human face/body or an animal.

S1305で、マイクロコンピュータ124は、S1304で抽出した被写体の中から、主被写体を選択し、画面内の被写体サイズを算出する。主被写体としては、ユーザが予め設定した優先すべき被写体や、より大きく写っている被写体を優先的に選択する。 In S1305, the microcomputer 124 selects a main subject from among the subjects extracted in S1304, and calculates the size of the subject within the screen. As the main subject, a subject that should be prioritized in advance by the user or a subject that appears larger is preferentially selected.

S1306で、マイクロコンピュータ124は、S1305で抽出した主被写体の領域と、S1303で作成したデフォーカスマップを用いて、主測距点を決定する。 In S1306, the microcomputer 124 determines the main focus point using the main subject area extracted in S1305 and the defocus map created in S1303.

次に、図7のS703で行われる被写体捕捉難易度の算出方法について、第1の実施形態との違いを説明する。なお、被写体捕捉難易度の算出方法は第1の実施形態と異なるが、その他の処理は図7の処理と同様であるため、説明を省略する。 Next, differences from the first embodiment regarding the method of calculating the subject capture difficulty level performed in S703 of FIG. 7 will be explained. Note that although the method for calculating the subject capture difficulty level is different from that in the first embodiment, other processing is the same as the processing in FIG. 7, so a description thereof will be omitted.

本実施形態では、上述したように、被写体捕捉難易度の算出に、xy平面動きベクトルあるいはパン・チルト情報、被写界深度、被写体の動き特性、被写体サイズ、被写体の個数を利用する。xy平面動きベクトルは、前回の焦点検出時にS1305で検出した主被写体の、その前の焦点検出時における画面上での位置の違いを表現したものである。パン・チルト情報は、動き検出回路140から得られたカメラ姿勢とカメラ振れ情報から算出される。被写界深度は、駆動回路105で駆動させた絞り量から算出され、被写体の動き特性は、図14に示す選択画面にて予めユーザが設定する。被写体サイズは、S1305における画像処理により取得され、顔や動物などの被写体の個数は、S1304で検出されたものを用いる。なお、被写体の動き特性を「速い」に設定すると連続性判定閾値を大きく、「遅い」に設定すると連続性判定閾値を小さく設定できるようにする。このようにすることで、動きが速いと想定される被写体にはデフォーカス量の増減に対応しやすく、動きが遅いと想定される被写体には測距ノイズに左右されにくくすることができる。 In this embodiment, as described above, the xy plane motion vector or pan/tilt information, the depth of field, the motion characteristics of the subject, the size of the subject, and the number of subjects are used to calculate the subject capture difficulty level. The xy plane motion vector expresses the difference in the position of the main subject detected in S1305 during the previous focus detection on the screen at the previous focus detection. The pan/tilt information is calculated from the camera posture and camera shake information obtained from the motion detection circuit 140. The depth of field is calculated from the aperture amount driven by the drive circuit 105, and the movement characteristics of the subject are set in advance by the user on the selection screen shown in FIG. The object size is obtained by image processing in S1305, and the number of objects such as faces and animals detected in S1304 is used. Note that when the motion characteristic of the subject is set to "fast", the continuity determination threshold can be set to a large value, and when the motion characteristic of the subject is set to "slow", the continuity determination threshold can be set to a low value. By doing so, it is possible to easily respond to an increase or decrease in the defocus amount for a subject that is assumed to be moving quickly, and to be less affected by distance measurement noise for a subject that is assumed to be moving slowly.

本実施形態における被写体捕捉難易度Dは、以下の式(3)により表すことができる。

Figure 0007431555000002
式(3)において、Vは、観測したxy平面動きベクトル(画面上での被写体の動きベクトル)を示す。Mは、被写体を安定的に追えていると考えられる画面上での被写体の動き量を示す。Eは、許容できる最小の被写界深度を示す。Eは、今回のカメラ設定での被写界深度を示す。Eは、Eが取りうる最大値を示す。Iは、被写体を安定的に追える限界の最小被写体サイズを示す。Iは、画像処理によって算出した被写体のサイズを示す。Iは、画角のサイズを示す。Fは、被写体の動き特性設定値の全段数を示す。Fは、ユーザの設定した被写体の動き特性設定値を示す。Nは顔や動物などの被写体の個数を示す。なお、被写体を検出できなかったときであっても、Nの最小値は1とする。 The subject capture difficulty level D in this embodiment can be expressed by the following equation (3).
Figure 0007431555000002
In equation (3), VD represents the observed xy plane motion vector (the motion vector of the subject on the screen). MV indicates the amount of movement of the subject on the screen when it is considered that the subject can be stably tracked. E m indicates the minimum allowable depth of field. ED indicates the depth of field with the current camera settings. E M indicates the maximum value that E D can take. I m indicates the minimum object size at which the object can be stably tracked. ID indicates the size of the subject calculated by image processing. IA indicates the size of the angle of view. FN indicates the total number of stages of the motion characteristic setting values of the subject. FU indicates the motion characteristic setting value of the subject set by the user. N indicates the number of subjects such as faces and animals. Note that even when the subject cannot be detected, the minimum value of N is set to 1.

また、被写体が背景と同系色であるなど、被写体を捕捉しにくいことでxy平面動きベクトルが観測できないことがある。このとき、式(3)には、xy平面動きベクトルVの代わりに、観測したカメラのパン・チルトベクトルPを用いる。更に、被写体を安定的に追えていると考えられる画面上での被写体の動き量Mの代わりに、被写体を安定的に追えると考えられるカメラの最大移動量Mを用いる。 Furthermore, the xy plane motion vector may not be observed because it is difficult to capture the subject, such as when the subject has a similar color to the background. At this time, in equation (3), the pan/tilt vector PD of the observed camera is used instead of the xy plane motion vector VD . Further, instead of the amount of movement M V of the subject on the screen that is considered to be able to stably track the subject, the maximum movement amount M P of the camera that is considered to be able to stably track the subject is used.

以上説明した通り第3の実施形態によれば、第1の実施形態とは異なる観点で被写体の捉えにくさを表現し、評価結果に応じて今回の焦点検出結果が現在捕捉中の被写体を引き続き捕捉できているか判定するための閾値を動的に変化させることができる。具体的には、カメラが揺れていても被写体が追従できていると推測できる状況ならば、被写体連続性判定閾値を小さくしないでよい。また、画像にどれだけの影響が出るかを考慮しながら閾値を設定することができる。さらに、他に画面上に見える別の被写体へのフォーカスの移り易さや、ユーザ設定の被写体の動き特性も加味した被写体連続性判定閾値とすることができる。 As explained above, according to the third embodiment, the difficulty of capturing a subject is expressed from a different perspective than the first embodiment, and depending on the evaluation result, the current focus detection result continues to reflect the subject currently being captured. It is possible to dynamically change the threshold value for determining whether the image is captured. Specifically, if the situation is such that it can be assumed that the subject can be tracked even if the camera is shaking, the subject continuity determination threshold need not be made small. Further, the threshold value can be set while considering how much influence it will have on the image. Furthermore, the subject continuity determination threshold can also be set in consideration of the ease with which the focus shifts to another subject visible on the screen and the motion characteristics of the subject set by the user.

<変形例>
上述した第1乃至第3の実施形態では、カメラが焦点検出専用の焦点検出回路110を有する場合について説明した。
<Modified example>
In the first to third embodiments described above, a case has been described in which the camera has the focus detection circuit 110 dedicated to focus detection.

一方、近年では、1つのマイクロレンズに対して複数の光電変換部が設けられた撮像素子により瞳分割信号を取得し、得られた複数の瞳分割信号の位相差に基づいて焦点検出を行う、いわゆる像面位相差AFが行われている。 On the other hand, in recent years, pupil division signals are acquired by an image sensor in which a plurality of photoelectric conversion units are provided for one microlens, and focus detection is performed based on the phase difference of the obtained plurality of pupil division signals. So-called image plane phase difference AF is performed.

図15は、像面位相差AFを行うことができる撮像素子を構成する画素配列を示す図であり、撮像素子113として用いることができる。 FIG. 15 is a diagram showing a pixel array constituting an image sensor capable of performing image plane phase difference AF, and can be used as the image sensor 113.

図15に示す様に、マイクロレンズアレイを形成する各マイクロレンズ201に対して、複数の光電変換部201A,201Bが対応するように配置されている。図中(0,0)、(1,0)、(0,1)等で示される各領域は、撮像素子における単位画素202を示し、各単位画素202は、1つのマイクロレンズ201と、複数の光電変換部201A,201Bとから構成される。なお、本実施形態では単位画素202には2つの光電変換部201A,201BがX軸方向に並べられた場合を示しているが、Y軸方向に並べても、また、3つ以上の光電変換部を各マイクロレンズ201に対応するように構成しても良い。 As shown in FIG. 15, a plurality of photoelectric conversion units 201A and 201B are arranged to correspond to each microlens 201 forming a microlens array. In the figure, each region indicated by (0,0), (1,0), (0,1), etc. indicates a unit pixel 202 in the image sensor, and each unit pixel 202 includes one microlens 201 and a plurality of microlenses 201. It is composed of photoelectric conversion units 201A and 201B. Note that although this embodiment shows a case in which two photoelectric conversion units 201A and 201B are arranged in the X-axis direction in the unit pixel 202, it is also possible to arrange three or more photoelectric conversion units in the Y-axis direction. may be configured to correspond to each microlens 201.

このように構成された、X軸方向に並ぶ複数の単位画素202のうち、瞳分割された光電変換部201Aの焦点検出用信号群で構成した被写体像をA像、瞳分割された光電変換部201Bの焦点検出用信号群で構成した被写体像をB像とする。そして、A像とB像に対して相関演算を実施することで、像のずれ量(位相差)を検出する。さらに、像のずれ量に対して焦点位置と光学系の特性に応じて決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基に、撮影レンズ101に含まれるフォーカスレンズを制御することで、焦点状態を検出する撮像面位相差AFが可能となる。 Among the plurality of unit pixels 202 arranged in the X-axis direction configured in this way, a subject image composed of a focus detection signal group of the pupil-divided photoelectric conversion unit 201A is referred to as an A image, and the pupil-divided photoelectric conversion unit The subject image composed of the focus detection signal group 201B is referred to as a B image. Then, by performing a correlation calculation on the A image and the B image, the amount of image shift (phase difference) is detected. Furthermore, by multiplying the image shift amount by a conversion coefficient determined according to the focus position and the characteristics of the optical system, it is possible to calculate the focus position corresponding to an arbitrary subject position within the screen. By controlling the focus lens included in the photographing lens 101 based on the focal position information calculated here, imaging plane phase difference AF for detecting the focal state becomes possible.

また、単位画素202毎に光電変換部201Aの信号と光電変換部201Bの信号を加算して出力することで、画像信号(A+B像)を得ることができる。 Further, by adding and outputting the signal of the photoelectric conversion unit 201A and the signal of the photoelectric conversion unit 201B for each unit pixel 202, an image signal (A+B image) can be obtained.

上述した撮像素子を用いた場合にも、第1乃至第3の実施形態で説明した処理を実施することができると共に、焦点検出回路110を省略することができる。 Even when the above-described image sensor is used, the processes described in the first to third embodiments can be performed, and the focus detection circuit 110 can be omitted.

<他の実施形態>
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
Further, the present invention provides a system or device with a program that implements one or more functions of the above-described embodiments via a network or a storage medium, and one or more processors in a computer of the system or device executes the program. This can also be realized by reading and executing processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

101:撮影レンズ、102:レンズ駆動回路、104:絞りユニット、105:絞り駆動回路、109:測光回路、110:焦点検出回路、113:撮像素子、117:映像信号処理回路、124:マイクロコンピュータ、125:操作部材、140:動き検出回路、141:レンズ内マイクロコンピュータ、142:距離測定回路 101: Photographing lens, 102: Lens drive circuit, 104: Aperture unit, 105: Aperture drive circuit, 109: Photometry circuit, 110: Focus detection circuit, 113: Image sensor, 117: Video signal processing circuit, 124: Microcomputer, 125: Operation member, 140: Movement detection circuit, 141: In-lens microcomputer, 142: Distance measurement circuit

Claims (12)

撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出手段と、
前記焦点検出手段により繰り返し検出される前記デフォーカス量を記憶する記憶手段と、
前記記憶手段に記憶された過去の焦点検出履歴と前記焦点検出手段により新たに検出されたデフォーカス量とに基づいて同じ被写体を継続的に捕捉できているかどうかを判定するための閾値を設定する設定手段と、
前記焦点検出手段により検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出手段と、を有し、
前記設定手段は、前記閾値として、被写体の捕捉し易さを示す難易度情報が第1の難易度よりも高い第2の難易度を示す場合に、前記第1の難易度の場合よりも、同じ被写体を継続的に捕捉できていると判定しにくい閾値を設定し、
前記難易度情報は、前記被写体の大きさを含み、前記被写体の大きさが小さいほど難易度が高いことを特徴とする撮像装置。
a focus detection means for detecting a defocus amount based on a signal obtained by photoelectrically converting light incident through the photographing optical system;
storage means for storing the defocus amount repeatedly detected by the focus detection means;
Setting a threshold value for determining whether the same subject can be continuously captured based on the past focus detection history stored in the storage means and the amount of defocus newly detected by the focus detection means. a setting means for
a subject detection means for detecting a subject within the angle of view based on the defocus amount detected by the focus detection means,
The setting means sets the threshold value to a second difficulty level that is higher than the first difficulty level, when the difficulty level information indicating the ease of capturing the subject indicates a second difficulty level that is higher than the first difficulty level. We set a threshold that makes it difficult to determine that the same subject is being captured continuously .
The imaging device is characterized in that the difficulty level information includes the size of the subject, and the smaller the size of the subject, the higher the difficulty level .
前記設定手段は、更に、前記記憶手段に記憶された過去の焦点検出履歴に対応する距離に基づいて閾値を設定し、
前記距離が、予め決められた距離よりも長い場合に、長くない場合よりも同じ被写体を継続的に捕捉できていると判定しにくい閾値を設定することを特徴とする請求項1に記載の撮像装置。
The setting means further sets a threshold based on a distance corresponding to a past focus detection history stored in the storage means,
Imaging according to claim 1, characterized in that when the distance is longer than a predetermined distance, a threshold value is set that makes it more difficult to determine that the same subject has been continuously captured than when the distance is not longer. Device.
記難易度情報は、更に、前記被写体より至近側の障害物の有無、カメラの振れ情報の内の少なくともいずれかを含み、
記障害物がある場合により難易度が高く、カメラの振れが大きいほど難易度が高いことを特徴とする請求項1または2に記載の撮像装置。
The difficulty level information further includes at least one of the presence or absence of an obstacle closer to the subject and camera shake information,
The imaging device according to claim 1 or 2, wherein the difficulty level is higher when the obstacle is present , and the difficulty level is higher as the camera shake is larger.
記難易度情報は、前記被写体の移動量、パン・チルト情報、被写界深度、被写体の動き特性、前記被写体の大きさ、前記被写体検出手段により検出された被写体の個数の内の少なくともいずれかを含み、
記被写体の移動量が大きいほど難易度が高く、パン・チルトの大きさが大きいほど難易度が高く、被写界深度が大きいほど難易度が高く、前記被写体の動き特性が大きいほど難易度が高く、前記被写体が大きいほど難易度が高く、前記検出された被写体の個数が少ないほど難易度が高いことを特徴とする請求項1または2に記載の撮像装置。
The difficulty level information includes at least one of the following : amount of movement of the subject, pan/tilt information, depth of field, motion characteristics of the subject, size of the subject, and number of subjects detected by the subject detection means. including
The larger the amount of movement of the object , the higher the difficulty, the larger the pan/tilt, the higher the difficulty, the larger the depth of field, the higher the difficulty, and the movement characteristics of the object. 3. The difficulty level is higher as the number of detected objects is larger, the difficulty level is higher as the object is larger, and the difficulty level is higher as the number of detected objects is smaller. Imaging device.
前記設定手段は、前記難易度情報が、予め決められた条件に該当しない場合に、前記条件に該当する場合よりも同じ被写体を継続的に捕捉できていると判定し易い閾値を設定することを特徴とする請求項1または2に記載の撮像装置。 The setting means sets a threshold value that makes it easier to determine that the same subject has been continuously captured when the difficulty level information does not fall under a predetermined condition than when the condition falls under the condition. The imaging device according to claim 1 or 2. 記条件は、前記同じ被写体の大きさが予め決められた値よりも小さいこと、前記被写体より至近側に障害物があること、焦点検出装置の振れ量が予め決められた振れ量よりも大きいこと、の少なくともいずれかを含むことを特徴とする請求項に記載の撮像装置。 The conditions include that the size of the same subject is smaller than a predetermined value, that there is an obstacle closer to the subject, and that the amount of shake of the focus detection device is greater than the predetermined amount of shake. The imaging device according to claim 5 , comprising at least one of the following. デフォーカス量に基づいて、前記撮影光学系に含まれるフォーカスレンズを駆動するように制御する制御手段を更に有し、
前記過去の焦点検出履歴と前記焦点検出手段により新たに検出されたデフォーカス量とに基づいて、前記同じ被写体を継続的に捕捉できていると判定されなかった場合に、前記制御手段は、前記焦点検出手段により新たに検出されたデフォーカス量に基づく前記フォーカスレンズの駆動を行わないように制御することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。
further comprising a control means for controlling to drive a focus lens included in the photographing optical system based on the amount of defocus,
If it is not determined that the same subject can be continuously captured based on the past focus detection history and the defocus amount newly detected by the focus detection means, the control means 7. The imaging apparatus according to claim 1, wherein control is performed so that the focus lens is not driven based on the defocus amount newly detected by the focus detection means.
前記撮影光学系を含むことを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 7 , comprising the imaging optical system. 前記撮影光学系が着脱可能であることを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 7 , wherein the imaging optical system is removable. 撮影光学系を介して入射した光を光電変換して得られた信号に基づいて、デフォーカス量を検出する焦点検出工程と、
前記焦点検出工程で繰り返し検出される前記デフォーカス量を記憶する記憶工程と、
前記記憶工程で記憶された過去の焦点検出履歴と前記焦点検出工程で新たに検出されたデフォーカス量とに基づいて同じ被写体を継続的に捕捉できているかどうかを判定するための閾値を設定する設定工程と、
前記焦点検出工程で検出されたデフォーカス量に基づいて、画角内の被写体を検出する被写体検出工程と、を有し、
前記設定工程では、前記閾値として、被写体の捕捉しにくさを示す難易度情報が第1の難易度よりも高い第2の難易度を示す場合に、前記第1の難易度の場合よりも同じ被写体を継続的に捕捉できていると判定しにくい閾値を設定し、
前記難易度情報は、前記被写体の大きさを含み、前記被写体の大きさが小さいほど難易度が高いことを特徴とする撮像装置の制御方法。
a focus detection step of detecting a defocus amount based on a signal obtained by photoelectrically converting the light incident through the photographing optical system;
a storage step of storing the defocus amount repeatedly detected in the focus detection step;
Setting a threshold value for determining whether the same subject can be continuously captured based on the past focus detection history stored in the storage step and the defocus amount newly detected in the focus detection step. a setting process to
a subject detection step of detecting a subject within the angle of view based on the defocus amount detected in the focus detection step,
In the setting step, when the difficulty level information indicating the difficulty of capturing the subject indicates a second difficulty level that is higher than the first difficulty level, the threshold value is set to be the same as the first difficulty level. We set a threshold that makes it difficult to determine that the subject is being continuously captured .
The method for controlling an imaging device , wherein the difficulty level information includes the size of the subject, and the smaller the subject size, the higher the difficulty level .
コンピュータに、請求項10に記載の制御方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 10 . 請求項11に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer readable storage medium storing the program according to claim 11 .
JP2019199244A 2019-10-31 2019-10-31 Imaging device and its control method Active JP7431555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019199244A JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019199244A JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Publications (3)

Publication Number Publication Date
JP2021071656A JP2021071656A (en) 2021-05-06
JP2021071656A5 JP2021071656A5 (en) 2022-11-09
JP7431555B2 true JP7431555B2 (en) 2024-02-15

Family

ID=75713706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019199244A Active JP7431555B2 (en) 2019-10-31 2019-10-31 Imaging device and its control method

Country Status (1)

Country Link
JP (1) JP7431555B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128613A (en) 2007-11-22 2009-06-11 Olympus Imaging Corp Camera and automatic focusing device for camera
JP2012203207A (en) 2011-03-25 2012-10-22 Canon Inc Imaging apparatus
JP2012203345A (en) 2011-03-28 2012-10-22 Canon Inc Focus adjustment device and focus adjustment method
JP2017223751A (en) 2016-06-14 2017-12-21 キヤノン株式会社 Focus adjustment device
WO2018004001A1 (en) 2016-06-30 2018-01-04 株式会社ニコン Camera
JP2019020716A (en) 2017-07-13 2019-02-07 キヤノン株式会社 Control device, imaging apparatus and program
JP2019176249A (en) 2018-03-27 2019-10-10 オリンパス株式会社 Image processing device, image processing method, image processing program, and imaging device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009128613A (en) 2007-11-22 2009-06-11 Olympus Imaging Corp Camera and automatic focusing device for camera
JP2012203207A (en) 2011-03-25 2012-10-22 Canon Inc Imaging apparatus
JP2012203345A (en) 2011-03-28 2012-10-22 Canon Inc Focus adjustment device and focus adjustment method
JP2017223751A (en) 2016-06-14 2017-12-21 キヤノン株式会社 Focus adjustment device
WO2018004001A1 (en) 2016-06-30 2018-01-04 株式会社ニコン Camera
JP2019020716A (en) 2017-07-13 2019-02-07 キヤノン株式会社 Control device, imaging apparatus and program
JP2019176249A (en) 2018-03-27 2019-10-10 オリンパス株式会社 Image processing device, image processing method, image processing program, and imaging device

Also Published As

Publication number Publication date
JP2021071656A (en) 2021-05-06

Similar Documents

Publication Publication Date Title
JP4998308B2 (en) Focus adjustment device and imaging device
US10863079B2 (en) Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
US10477101B2 (en) Focus detection apparatus, control method and storage medium
CN106470317B (en) Image pickup apparatus and control method thereof
JP5056168B2 (en) Focus adjustment device and imaging device
US8913177B2 (en) Focus adjustment apparatus having a sensor with a plurality of modes
JP6486098B2 (en) Imaging apparatus and control method thereof
JP6140945B2 (en) Focus adjustment device and imaging device
JP2008107657A (en) Imaging apparatus, its control method, program, and recording medium
JP5947489B2 (en) Focus adjustment device and focus adjustment method
JP7431555B2 (en) Imaging device and its control method
JP2015111226A (en) Subject tracking device and control method of the same, imaging device, program, and storage medium
JP5359150B2 (en) Imaging device
US9402023B2 (en) Image capturing apparatus, control method therefor, and storage medium
JP5871196B2 (en) Focus adjustment device and imaging device
JP2017223751A (en) Focus adjustment device
JP2012108281A (en) Focus detector and imaging apparatus
JP2018197845A (en) Focus control device and imaging device
JP7379083B2 (en) Control device, imaging device, control method, and program
JP2018180372A (en) Imaging apparatus and control method thereof
JP2017224908A (en) Imaging apparatus
JPWO2016157569A1 (en) Imaging apparatus and focus evaluation apparatus
JP2018116265A (en) Focal point detector, method for control, program, and storage medium
JP2012128441A (en) Focus adjustment device and imaging apparatus
JP2018159785A (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R151 Written notification of patent or utility model registration

Ref document number: 7431555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151