JP6346484B2 - Image processing apparatus and control method thereof - Google Patents
Image processing apparatus and control method thereof Download PDFInfo
- Publication number
- JP6346484B2 JP6346484B2 JP2014073726A JP2014073726A JP6346484B2 JP 6346484 B2 JP6346484 B2 JP 6346484B2 JP 2014073726 A JP2014073726 A JP 2014073726A JP 2014073726 A JP2014073726 A JP 2014073726A JP 6346484 B2 JP6346484 B2 JP 6346484B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- reference image
- subject
- control unit
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は画像処理装置およびその制御方法に関し、特には被写体追尾技術に関する。 The present invention relates to an image processing apparatus and a control method thereof, and more particularly to a subject tracking technique.
従来、固体撮像素子を搭載したカメラにおいて、撮像された画像から抽出された任意の被写体(主被写体)を、その後撮影された画像で継続的に検出することにより、主被写体を追尾する機能が実用化されている。このようなカメラでは、主被写体の画像内の位置を検出することにより、主被写体に適切な自動焦点調節や自動露出演算を行うことが可能である。 Conventionally, in a camera equipped with a solid-state image sensor, a function for tracking the main subject by continuously detecting an arbitrary subject (main subject) extracted from the captured image from the captured image is practical. It has become. In such a camera, it is possible to perform automatic focus adjustment and automatic exposure calculation appropriate for the main subject by detecting the position of the main subject in the image.
このような被写体追尾技術を有するカメラには、追尾している主被写体をユーザが認識できるよう、主被写体の位置を表示する機能を有するものがある。例えば特許文献1には、テンプレートマッチングで検出された主被写体の位置と重複するAF枠のマークを光学ファインダーの表示部に強調表示する機能を有するカメラが開示されている。これにより、ユーザはフォーカシングスクリーンに投影された被写体光学像と、AF枠の像が重畳した像を光学ファインダーで観察することができる。 Some cameras having such subject tracking technology have a function of displaying the position of the main subject so that the user can recognize the main subject being tracked. For example, Patent Document 1 discloses a camera having a function of highlighting an AF frame mark that overlaps the position of a main subject detected by template matching on a display unit of an optical viewfinder. Thereby, the user can observe the subject optical image projected on the focusing screen and the image in which the image of the AF frame is superimposed with the optical viewfinder.
しかし、特許文献1のカメラにおける光学ファインダー像は、フォーカシングスクリーンに投影された被写体光学像と、光学ファインダーの表示部に表示されたAF枠の像との合成像である。そのため、光学ファインダー像をAEセンサ(撮像素子)で撮影して得られた画像を用いて被写体追跡を行う構成とした場合、被写体光学像には含まれていないが光学ファインダー像に含まれるAF枠の像が、追尾精度を悪化させるという問題があった。 However, the optical viewfinder image in the camera of Patent Document 1 is a composite image of the subject optical image projected on the focusing screen and the AF frame image displayed on the display unit of the optical viewfinder. For this reason, when subject tracking is performed using an image obtained by photographing an optical viewfinder image with an AE sensor (imaging device), an AF frame that is not included in the subject optical image but is included in the optical viewfinder image. However, this image has a problem that the tracking accuracy deteriorates.
本発明はこのような従来技術の課題に鑑みなされたものであり、被写体像に付加情報の像が重畳した画像を用いた被写体追尾処理の精度低下を抑制可能な画像処理装置およびその制御方法の提供を目的とする。 The present invention has been made in view of the above-described problems of the prior art, and provides an image processing apparatus and a control method thereof that can suppress a decrease in accuracy of subject tracking processing using an image in which an image of additional information is superimposed on a subject image. For the purpose of provision.
上述の目的は、付加情報像が被写体光学像に重畳した画像を取得する取得手段と、取得手段が取得した複数の画像について、追尾対象の被写体を含んだ基準画像に対応した領域を検出することにより、被写体の追尾を実現する追尾手段と、基準画像を更新する更新手段とを有し、更新手段は、新たな基準画像の元となる画像に含まれる付加情報像の画素を、更新前の基準画像の画素で補完して、更新後の基準画像を生成することを特徴とする画像処理装置によって達成される。 The purpose described above is to acquire an image obtained by superimposing an additional information image on a subject optical image, and to detect a region corresponding to a reference image including a subject to be tracked from a plurality of images acquired by the acquisition unit. Thus, the tracking means for realizing tracking of the subject and the updating means for updating the reference image, the updating means converts the pixels of the additional information image included in the original image of the new reference image to the pixels before the update. This is achieved by an image processing apparatus characterized in that the updated reference image is generated by complementing with pixels of the reference image.
このような構成により、本発明によれば、被写体像に付加情報の像が重畳した画像を用いた被写体追尾処理の精度低下を抑制可能な画像処理装置およびその制御方法を提供することができる。 With such a configuration, according to the present invention, it is possible to provide an image processing apparatus and a control method thereof that can suppress a decrease in accuracy of subject tracking processing using an image in which additional information is superimposed on a subject image.
●(第1の実施形態)
以下、添付図面を参照して、本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態においては、本発明を画像処理装置の一例である撮像装置に適用した例について説明するが、本発明において被写体追尾に用いる、付加情報像が被写体光学像に重畳した画像は、予め記録されたものであってもよい。また、付加情報像の形状や位置に関する情報、撮影時に用いられた測距点の情報も、画像データの付加情報として取得することができる。従って、本発明に撮影機能は必須でなく、一般的な電子機器において実施可能である。また、撮像装置は撮像機能を有する電子機器を意味し、携帯電話機、ゲーム機、パーソナルコンピュータ等、カメラを有するまたは使用可能な任意の電子機器が含まれる。
● (first embodiment)
Hereinafter, the present invention will be described in detail based on exemplary embodiments with reference to the accompanying drawings. In the following embodiment, an example in which the present invention is applied to an imaging apparatus that is an example of an image processing apparatus will be described. However, an image in which an additional information image used for subject tracking in the present invention is superimposed on a subject optical image is described below. It may be recorded in advance. In addition, information on the shape and position of the additional information image and information on the distance measuring point used at the time of photographing can be acquired as additional information of the image data. Therefore, the photographing function is not essential to the present invention, and can be implemented in a general electronic device. The imaging device means an electronic device having an imaging function, and includes any electronic device that has or can use a camera, such as a mobile phone, a game machine, and a personal computer.
図2は、本発明の実施形態に係る撮像装置の一例としてのデジタル一眼レフカメラ(DSLR)の主要な構成部品の配置例を示す側断面図である。DSLRは、本体201と本体201の前面に装着される撮影レンズ202を有する。撮影レンズ202は交換可能であり、また本体201と撮影レンズ202は、不図示のレンズマウントにより機械的および電気的に接続される。撮影レンズ202の中には、フォーカシングレンズ213と絞り214がある。フォーカシングレンズ213と絞り214はレンズマウント接点群215を介した、本体201による電気的な制御に従って動作し、撮影レンズ202の焦点や撮影レンズ202から入射する光量を調整する。 FIG. 2 is a side sectional view showing an example of the arrangement of main components of a digital single lens reflex camera (DSLR) as an example of an imaging apparatus according to an embodiment of the present invention. The DSLR includes a main body 201 and a photographing lens 202 attached to the front surface of the main body 201. The taking lens 202 can be exchanged, and the main body 201 and the taking lens 202 are mechanically and electrically connected by a lens mount (not shown). The taking lens 202 includes a focusing lens 213 and a diaphragm 214. The focusing lens 213 and the diaphragm 214 operate according to electrical control by the main body 201 via the lens mount contact group 215, and adjust the focus of the photographing lens 202 and the amount of light incident from the photographing lens 202.
メインミラー203はハーフミラーであり、背面にはサブミラー204が設けられている。図示した、ミラーアップされていない状態では、撮影レンズ202からの光束の一部を反射して上方のファインダー光学系へ入射させ、透過光をサブミラー204で反射して下方のAFユニット205へ入射させる。露光時などミラーアップされた状態では、光路から退避する。 The main mirror 203 is a half mirror, and a sub mirror 204 is provided on the back surface. In the state where the mirror is not raised, a part of the light beam from the photographing lens 202 is reflected and incident on the upper finder optical system, and the transmitted light is reflected by the sub mirror 204 and incident on the lower AF unit 205. . In a mirror-up state, such as during exposure, it is retracted from the optical path.
AFユニット205は位相差検出方式のAFセンサである。撮影レンズ202の二次結像面を、AFユニット205が有する焦点検出ラインセンサ上に形成することによって、撮影レンズ202のデフォーカス量と焦点方向を検出し、検出結果をもとにフォーカシングレンズ213を駆動して自動焦点調節を行う。位相差検出方式による合焦制御については公知であり、AFユニット205には公知の構成を適用可能であるため、AFユニット205の詳細な構成や合焦制御についての説明は省略する。本実施形態のAFユニット205では61個の測距点(焦点検出領域またはAF枠とも呼ばれる)が図4に示すようにレイアウトされているものとする。 The AF unit 205 is a phase difference detection type AF sensor. By forming the secondary imaging plane of the photographic lens 202 on the focus detection line sensor of the AF unit 205, the defocus amount and the focal direction of the photographic lens 202 are detected, and the focusing lens 213 is based on the detection result. To adjust the focus automatically. Since focus control by the phase difference detection method is known and a known configuration can be applied to the AF unit 205, a detailed configuration of the AF unit 205 and description of focus control are omitted. In the AF unit 205 of the present embodiment, 61 ranging points (also called focus detection areas or AF frames) are laid out as shown in FIG.
ピント板206はファインダー光学系としての撮影レンズ202の予定結像面に配置された半透明の板状部材である。また、撮影レンズ202の予定結像面もしくはその近傍にはさらにファインダー表示部220が配置されている。ファインダー表示部220はたとえば透過型の液晶ディスプレイであり、図4に示される測距点の枠を示すマークなどの付加情報像を表示する。ユーザは、アイピース209からファインダー光路変更用のペンタプリズム207を通じてピント板206を観察することにより、撮影される視野の光学像に、ファインダー表示部220が表示する付加情報像が重畳された像を見ることができる。なお、ファインダー表示部220には発光ダイオード(LED)、有機発光ダイオード(OLED)、有機ELディスプレイなど、他の方式の表示装置を用いてもよいし、複数の表示装置を用いてもよい。また、表示内容に応じて異なる方式の表示装置を用いてもよい。なお、ファインダー表示部220がピント板206を兼ねてもよい。 The focus plate 206 is a translucent plate-like member disposed on the planned image plane of the photographic lens 202 as a finder optical system. In addition, a finder display unit 220 is further disposed on or near the planned imaging plane of the photographic lens 202. The finder display unit 220 is a transmissive liquid crystal display, for example, and displays an additional information image such as a mark indicating the frame of the distance measuring point shown in FIG. The user observes the focusing screen 206 from the eyepiece 209 through the finder optical path changing pentaprism 207 to view an image in which the additional information image displayed on the finder display unit 220 is superimposed on the optical image of the field of view to be photographed. be able to. The finder display unit 220 may use other types of display devices such as a light emitting diode (LED), an organic light emitting diode (OLED), and an organic EL display, or a plurality of display devices. Different display devices may be used depending on display contents. The finder display unit 220 may also serve as the focus plate 206.
AEユニット208は、被写体の明るさを観測するため、複数画素を持つAEセンサで光学ファインダー像を測光画像データに変換する。ここでは、AEセンサが光学ファインダー像のうち、図4に測光センサ範囲402として示した範囲を撮影するものとする。この光学ファインダー像には、ファインダー表示部220で表示された測距点の枠などの情報が重畳されている。AEセンサは画素数を除いて撮像素子211と同様の構成であってよいが、主に被写体輝度の検出に用いられるためAEセンサと呼ぶ。測光画像データは、R、G、およびB成分を有する。本実施形態においてAEユニット208は、生成された測光画像データを用いて、被写体の明るさ検出、露出演算、被写体検出および被写体追尾などを行う。なお、必要に応じて複数の測光画像データを加算することで、測光画像データのダイナミックレンジを拡張してもよい。 The AE unit 208 converts an optical viewfinder image into photometric image data with an AE sensor having a plurality of pixels in order to observe the brightness of the subject. Here, it is assumed that the AE sensor captures the range indicated as the photometric sensor range 402 in FIG. On this optical viewfinder image, information such as a frame of a distance measuring point displayed on the viewfinder display unit 220 is superimposed. The AE sensor may have the same configuration as that of the image sensor 211 except for the number of pixels. However, since the AE sensor is mainly used for detection of subject luminance, it is called an AE sensor. The photometric image data has R, G, and B components. In the present embodiment, the AE unit 208 performs subject brightness detection, exposure calculation, subject detection, subject tracking, and the like using the generated photometric image data. Note that the dynamic range of the photometric image data may be expanded by adding a plurality of photometric image data as necessary.
撮像素子211はCMOSイメージセンサやCCDイメージセンサなどであり、光電変換素子を有する画素が複数配列されている。メインミラー203およびサブミラー204を撮影光路から退避させ、フォーカルプレーンシャッタ210を開くことにより、撮像素子211が露光され、被写体光学像が撮影される。 The imaging element 211 is a CMOS image sensor, a CCD image sensor, or the like, and a plurality of pixels having photoelectric conversion elements are arranged. By retracting the main mirror 203 and the sub mirror 204 from the photographing optical path and opening the focal plane shutter 210, the image sensor 211 is exposed and a subject optical image is photographed.
ディスプレイ212は例えば液晶ディスプレイ(LCD)であり、ライブビュー画像を表示して電子ビューファインダーとして用いたり、各種の設定値、撮影情報、装置情報、GUI画面、撮影済み画像などの表示に用いたりする。 The display 212 is a liquid crystal display (LCD), for example, and displays a live view image and uses it as an electronic viewfinder, or displays various setting values, shooting information, device information, GUI screens, shot images, and the like. .
図3は、本実施形態のDSLRの機能的な構成例を示すブロック図である。なお、図2と同じ構成要素については、同一符号を付してある。 FIG. 3 is a block diagram illustrating a functional configuration example of the DSLR according to the present embodiment. In addition, the same code | symbol is attached | subjected about the same component as FIG.
操作部301は、ユーザが本体201や撮影レンズ202に取り付けられたボタン、スイッチ、ダイヤル、接続機器等を介して行った操作を検知し、操作内容に応じた信号をシステム制御部306に出力する。また操作部301は、レリーズボタンの押下量によってSW1信号とSW2信号を送信する。具体的には、レリーズボタンが半分程度押下されるとSW1信号を、レリーズボタンがさらに所定量押されるとSW2信号を、それぞれシステム制御部306に出力する。なお、SW1信号が出力されるレリーズボタンの押下状態を「半押し」、SW2信号が出力されるレリーズボタンの押下状態を「全押し」と呼ぶ。また、レリーズボタンの半押し状態が維持されている状態を「SW1保持状態」と呼び、全押し状態が維持されている状態を「SW2保持状態」と呼ぶ。また、操作部301は、レリーズボタンの押下量がSW1信号を送信するに満たない状態になるとSW1解除信号を、SW2信号を送信するに満たない状態になるとSW2解除信号を、それぞれシステム制御部306に出力する。 The operation unit 301 detects an operation performed by a user via a button, a switch, a dial, a connected device, or the like attached to the main body 201 or the photographing lens 202, and outputs a signal corresponding to the operation content to the system control unit 306. . Further, the operation unit 301 transmits a SW1 signal and a SW2 signal according to the amount of pressing the release button. Specifically, the SW1 signal is output to the system control unit 306 when the release button is pressed about half, and the SW2 signal is output when the release button is further pressed by a predetermined amount. The pressed state of the release button that outputs the SW1 signal is called “half-pressed”, and the pressed state of the release button that outputs the SW2 signal is called “fully pressed”. In addition, a state where the half-pressed state of the release button is maintained is referred to as “SW1 holding state”, and a state where the fully pressed state is maintained is referred to as “SW2 holding state”. In addition, the operation unit 301 displays the SW1 release signal when the release button is pressed less than the SW1 signal is transmitted, and the SW2 release signal when the release button is less than the SW2 signal is transmitted. Output to.
システム制御部306は例えばCPUやMPUといった、プログラムを実行可能なプロセッサであってよく、不揮発性のメモリや記憶装置に記録されたプログラムを実行して、DSLR100を制御する。なお、AE制御部302およびAF制御部304の少なくとも一部の機能は、システム制御部306が実行するようにしてもよい。 The system control unit 306 may be a processor that can execute a program, such as a CPU or MPU, and controls the DSLR 100 by executing a program recorded in a non-volatile memory or storage device. Note that at least some of the functions of the AE control unit 302 and the AF control unit 304 may be executed by the system control unit 306.
上述の通り、AFユニット205は位相差検出方式による自動焦点検出および、焦点検出結果に基づく、フォーカシングレンズ213の合焦位置への駆動(自動焦点調節)を行う。AFユニット205は、AF制御部304および測距センサ305で構成される。測距センサ305は例えば図4に示した61箇所の測距点に対応する複数のラインセンサで構成され、サブミラー204を介して入射される光を電気信号に変換し、各測距点に対して一対の像信号をAF制御部304に出力する。AF制御部304は、被写体追尾処理で検出された被写体位置の近傍にある測距点もしくはデフォーカス量の最も小さい測距点の焦点検出結果に基づいて焦点調節演算を行い、レンズマウント接点群215を通じてフォーカシングレンズ213の位置を制御する。 As described above, the AF unit 205 performs automatic focus detection by the phase difference detection method and drives the focusing lens 213 to the in-focus position (automatic focus adjustment) based on the focus detection result. The AF unit 205 includes an AF control unit 304 and a distance measuring sensor 305. The distance measuring sensor 305 is composed of, for example, a plurality of line sensors corresponding to the 61 distance measuring points shown in FIG. 4, and converts the light incident through the sub mirror 204 into an electric signal, for each distance measuring point. The pair of image signals are output to the AF control unit 304. The AF control unit 304 performs a focus adjustment calculation based on a focus detection result of a distance measuring point near the object position detected by the object tracking process or a distance measuring point with the smallest defocus amount, and the lens mount contact group 215. Through, the position of the focusing lens 213 is controlled.
AEユニット208は自動露出演算および被写体追尾を行う。AEユニット208はAE制御部302および測光センサ303で構成される。AE制御部302は測光センサ303から読み出した測光画像データに基づいて自動露出演算を行い、結果をシステム制御部306に出力する。システム制御部306はAE制御部302から出力された自動露出演算の結果に基づいて、絞り214の値(開口の大きさ)を制御し、本体201に入射する光量を調節する。 The AE unit 208 performs automatic exposure calculation and subject tracking. The AE unit 208 includes an AE control unit 302 and a photometric sensor 303. The AE control unit 302 performs automatic exposure calculation based on the photometric image data read from the photometric sensor 303 and outputs the result to the system control unit 306. The system control unit 306 controls the value (aperture size) of the aperture 214 based on the result of the automatic exposure calculation output from the AE control unit 302 and adjusts the amount of light incident on the main body 201.
また、SW1保持状態および連写中において、AE制御部302は測光センサ303による連続した撮像で順次得られる測光画像データを用いて被写体を順次検出することにより、被写体を追尾し、検出した被写体の位置情報をシステム制御部306に出力する。被写体検出処理および被写体追尾処理の詳細については後述する。システム制御部306はAE制御部302から出力された被写体の位置情報をAF制御部304に出力する。 In the SW1 holding state and during continuous shooting, the AE control unit 302 tracks the subject by sequentially detecting the subject using photometric image data sequentially obtained by continuous imaging by the photometric sensor 303, and detects the detected subject. The position information is output to the system control unit 306. Details of the subject detection processing and subject tracking processing will be described later. The system control unit 306 outputs the subject position information output from the AE control unit 302 to the AF control unit 304.
AF制御部304は、システム制御部306から出力された被写体の位置もしくはその近傍にある測距点のデフォーカス量を計算し、計算結果をあらかじめ設定された閾値と比較する。比較の結果デフォーカス量が閾値以下であれば、システム制御部306に出力する選択測距点位置データを、AF制御部304が各測距点におけるデフォーカス量に基づいて選択した測距点から、被写体またはその近傍にある測距点に更新する。 The AF control unit 304 calculates the defocus amount of the distance measuring point at or near the position of the subject output from the system control unit 306, and compares the calculation result with a preset threshold value. If the defocus amount is equal to or smaller than the threshold value as a result of the comparison, the selected ranging point position data output to the system control unit 306 is selected from the ranging points selected by the AF control unit 304 based on the defocus amount at each ranging point. Update to a distance measuring point near the subject.
システム制御部306は、操作部301からSW2信号が出力されると、メインミラー203(およびサブミラー204)をアップし、光路から退避させる。そして、フォーカルプレーンシャッタ210を駆動し、撮像素子211を自動露出演算の結果に基づく時間、露光する。露光時間が終了すると、システム制御部306は、メインミラー203(およびサブミラー204)をダウンさせる。 When the SW2 signal is output from the operation unit 301, the system control unit 306 raises the main mirror 203 (and the sub mirror 204) and retracts it from the optical path. Then, the focal plane shutter 210 is driven to expose the image sensor 211 for a time based on the result of the automatic exposure calculation. When the exposure time ends, the system control unit 306 lowers the main mirror 203 (and the sub mirror 204).
撮像素子211は露光時間中に撮影レンズ202を通して入射する光を各画素で電気信号に変換して画像データを生成し、システム制御部306へ出力する。システム制御部306は撮像素子211から出力された画像データに対して所定の画像処理などを適用し、ディスプレイ212で表示させたり、画像記憶装置307へ書き込んだりする。 The image sensor 211 converts light incident through the photographing lens 202 during the exposure time into an electrical signal at each pixel, generates image data, and outputs the image data to the system control unit 306. The system control unit 306 applies predetermined image processing or the like to the image data output from the image sensor 211 and displays the data on the display 212 or writes it in the image storage device 307.
本実施形態における撮像素子211および測光センサ303の撮影範囲と、ファインダー表示部220が表示可能な測距点マークの配置との関係例を図4に示す。撮像素子211の撮影範囲は401で、測光センサ303の撮影範囲は402で示され、測距センサ305の測距点は枠状の固定パターンである測距点マーク403によって示されている。 FIG. 4 shows an example of the relationship between the imaging ranges of the image sensor 211 and the photometric sensor 303 in this embodiment and the arrangement of distance measuring point marks that can be displayed by the finder display unit 220. The imaging range of the image sensor 211 is 401, the imaging range of the photometric sensor 303 is indicated by 402, and the distance measuring point of the distance measuring sensor 305 is indicated by a distance measuring point mark 403 which is a frame-shaped fixed pattern.
メインミラー203が図2に示すダウン状態のとき、ピント板206に被写体光学像が投影されるため、ユーザはアイピース209を覗き込むことで、被写体光学像を視認することができる。また、図4の測距点マーク403のうち、その時点で焦点調節に用いられている測距点に対応するものがファインダー表示部220に表示されるため、ユーザは被写体光学像に測距点マークが重畳した光学ファインダー像から測距点を確認することができる。 When the main mirror 203 is in the down state shown in FIG. 2, the subject optical image is projected onto the focus plate 206, so that the user can view the subject optical image by looking into the eyepiece 209. Also, among the distance measuring point marks 403 in FIG. 4, the one corresponding to the distance measuring point used for focus adjustment at that time is displayed on the finder display unit 220, so that the user can display the distance measuring point on the subject optical image. The distance measuring point can be confirmed from the optical viewfinder image on which the mark is superimposed.
測光センサ303は光学ファインダー像を撮影し、測光および被写体追尾に用いる画像データを生成するので、被写体追尾に用いる画像データには、被写体光学像に測距点マーク403が写りこんでいる。
なお、測光センサ303によって得られる画像データにおいて写りこんでいる測距点マーク403の画像中の位置は、予め本体201内の不揮発性メモリなどに保存してある測距点配置情報と、撮影時に用いられた測距点の情報とから判別することができる。
Since the photometric sensor 303 takes an optical viewfinder image and generates image data used for photometry and subject tracking, a distance measuring point mark 403 is reflected in the subject optical image in the image data used for subject tracking.
The position in the image of the distance measuring point mark 403 reflected in the image data obtained by the photometric sensor 303 is the distance measuring point arrangement information stored in advance in the non-volatile memory in the main body 201 and the time of shooting. It can be discriminated from the information of the distance measuring points used.
図1はSW1が押下された状態におけるDSLR100の動作を示すフローチャートである。
S101で、システム制御部306は、基準画像フラグをFALSEに設定する。基準画像フラグは、追尾処理を開始してから基準画像が一度でも生成されていればTRUEとなるフラグである。
FIG. 1 is a flowchart showing the operation of the DSLR 100 in a state where SW1 is pressed.
In step S101, the system control unit 306 sets the reference image flag to FALSE. The reference image flag is a flag that is TRUE if the reference image has been generated even once after the tracking process is started.
S102でシステム制御部306は、基準画像フラグの値がTRUEであれば、追尾用の基準画像が生成されているため、追尾処理を行うために処理をS103に進める。また、システム制御部306は、基準画像フラグの値がFALSEであれば、基準画像が生成されていないため、基準画像を生成するために処理をS109に進める。 In S102, if the value of the reference image flag is TRUE, the system control unit 306 advances the process to S103 in order to perform the tracking process because the tracking reference image has been generated. If the value of the reference image flag is FALSE, the system control unit 306 advances the process to S109 in order to generate a reference image because no reference image has been generated.
S109〜S113は基準画像が存在しない場合に実行される処理であり、S109でシステム制御部306はAF制御部304へ動作開始を指示し、AF制御部304は、測距センサ305における電荷蓄積および読み出しを実行する。 S109 to S113 are processes executed when there is no reference image. In S109, the system control unit 306 instructs the AF control unit 304 to start the operation, and the AF control unit 304 performs charge accumulation and distance measurement in the distance measurement sensor 305. Perform a read.
S110でAF制御部304は、測距センサ305から読み出した像信号に基づいて、全測距点に対してデフォーカス量を演算し、最小のデフォーカス量を有する測距点を選択する。そしてAF制御部304は、選択した測距点の情報をシステム制御部306に出力する。システム制御部306は、選択された測距点に対応する測距点マークを、ファインダー表示部220に表示させる。 In S110, the AF control unit 304 calculates the defocus amount for all the distance measurement points based on the image signal read from the distance measurement sensor 305, and selects the distance measurement point having the minimum defocus amount. Then, the AF control unit 304 outputs information on the selected distance measuring point to the system control unit 306. The system control unit 306 causes the finder display unit 220 to display a ranging point mark corresponding to the selected ranging point.
S111でシステム制御部306は、新規に基準画像を生成するため、AE制御部302へ動作開始を指示し、AE制御部302は測光センサ303における電荷蓄積および読み出しを実行する。また、システム制御部306は、選択された測距点の情報をAE制御部302に通知する。 In step S <b> 111, the system control unit 306 instructs the AE control unit 302 to start operation in order to newly generate a reference image, and the AE control unit 302 executes charge accumulation and readout in the photometric sensor 303. In addition, the system control unit 306 notifies the AE control unit 302 of information on the selected distance measuring point.
S112でAE制御部302は、S111で測光センサ303から読み出した画像から、S110で選択された測距点の位置を中心とする所定の大きさの領域を切り出し、追尾処理用の基準画像を生成する。 In step S112, the AE control unit 302 cuts out an area having a predetermined size centered on the position of the distance measuring point selected in step S110 from the image read from the photometric sensor 303 in step S111, and generates a reference image for tracking processing. To do.
S110で、選択された測距点に対応する測距点マークがファインダー表示部220に表示されるので、S111で測光センサ303によって取得した光学ファインダー像には測距点マークが写り込んでいる。そして、選択された測距点を中心に基準画像を生成するので、測距点マークは基準画像にも写り込んでいる。 In S110, a distance measuring point mark corresponding to the selected distance measuring point is displayed on the finder display unit 220. Therefore, the distance measuring point mark is reflected in the optical viewfinder image acquired by the photometric sensor 303 in S111. Since the reference image is generated around the selected distance measuring point, the distance measuring point mark is also reflected in the reference image.
図5は、測光センサ303で撮影された画像501と、測距点マーク502と、基準画像504との関係例を模式的に示している。ここでは、撮影範囲の中央に存在する犬の顔に対応する測距点が選択されており、対応する測距点マーク502が表示されている。そして、選択された測距点を中心として予め定められた領域503を切り出すことで、基準画像504を生成するため、基準画像504には測距点マーク502が写り込んでいる。 FIG. 5 schematically shows an example of the relationship between the image 501 captured by the photometric sensor 303, the distance measuring point mark 502, and the reference image 504. Here, a distance measuring point corresponding to a dog face existing in the center of the photographing range is selected, and a corresponding distance measuring point mark 502 is displayed. A reference image 504 is generated by cutting out a predetermined region 503 centered on the selected distance measurement point. Therefore, a distance measurement point mark 502 is reflected in the reference image 504.
図1に戻り、S113でシステム制御部306は、新規に基準画像を生成したため、基準画像フラグをTRUEとし、処理をS114に進める。 Returning to FIG. 1, since the system control unit 306 newly generates a reference image in S113, the reference image flag is set to TRUE, and the process proceeds to S114.
一方、S102で基準画像フラグがTrueであった場合、システム制御部306はS103でAE制御部302へ動作開始を指示し、AE制御部302は測光センサ303における電荷蓄積および読み出しを実行する。 On the other hand, if the reference image flag is True in S102, the system control unit 306 instructs the AE control unit 302 to start operation in S103, and the AE control unit 302 executes charge accumulation and readout in the photometric sensor 303.
S104でAE制御部302は被写体追尾処理を行う。AE制御部302は、基準画像を追尾対象画像(テンプレート)とし、S102で読み出した画像に対してテンプレートマッチング処理を実行する。そして、AE制御部302は読み出した画像中における基準画像の位置を被写体追尾結果として検出し、システム制御部306に通知する。 In S104, the AE control unit 302 performs subject tracking processing. The AE control unit 302 uses the reference image as a tracking target image (template), and executes template matching processing on the image read in S102. Then, the AE control unit 302 detects the position of the reference image in the read image as a subject tracking result and notifies the system control unit 306 of it.
テンプレートマッチング処理の具体的な方法については、特に制限はないが、例えば以下の様に行うことができる。まず、AE制御部302は測光センサ303から読み出した画像に対して、画像中の任意の領域を基準画像と同じ大きさになるようにして切り出し、追尾入力画像とする。そして、AE制御部302はこの追尾入力画像と基準画像との対応する全ての画素について、輝度信号と色差信号の差分値の総和を計算し、結果をマッチング評価値とする。マッチング評価値は小さければ小さいほど相関度が高いことを表す。 Although there is no restriction | limiting in particular about the specific method of a template matching process, For example, it can carry out as follows. First, the AE control unit 302 cuts out an arbitrary region in the image so as to have the same size as the reference image from the image read from the photometric sensor 303 and sets it as a tracking input image. Then, the AE control unit 302 calculates the sum of the difference values of the luminance signal and the color difference signal for all corresponding pixels of the tracking input image and the reference image, and uses the result as a matching evaluation value. The smaller the matching evaluation value, the higher the degree of correlation.
AE制御部302は、追尾入力画像を切り出す位置を所定値ずつシフトしながら画像全体についてマッチング評価値を算出し、最も相関度の高いマッチング評価値が得られた追尾入力画像の切り出し位置を、追尾対象の検出位置(被写体位置)とする。被写体位置は、切り出し範囲の頂点座標および中心座標の1つ以上であってよい。追尾入力画像の大きさはシステム制御部306に既知であるため、システム制御部306は被写体位置に対応する追尾入力画像の範囲を特定することができる。AE制御部302における被写体追尾処理で得られた被写体位置の情報は、システム制御部306を通じてAF制御部304に通知される。 The AE control unit 302 calculates the matching evaluation value for the entire image while shifting the position where the tracking input image is cut out by a predetermined value, and the tracking input image where the matching evaluation value with the highest correlation is obtained is tracked. The target detection position (subject position) is used. The subject position may be one or more of the vertex coordinates and the center coordinates of the cutout range. Since the size of the tracking input image is known to the system control unit 306, the system control unit 306 can specify the range of the tracking input image corresponding to the subject position. Information on the subject position obtained by subject tracking processing in the AE control unit 302 is notified to the AF control unit 304 through the system control unit 306.
S105でシステム制御部306はAF制御部304へ動作開始を指示し、AF制御部304は、測距センサ305における電荷蓄積および読み出しを実行する。 In step S <b> 105, the system control unit 306 instructs the AF control unit 304 to start operation, and the AF control unit 304 performs charge accumulation and readout in the distance measuring sensor 305.
S106でAF制御部304は、測距センサ305から読み出した像信号に基づいて、全測距点に対してデフォーカス量を演算し、被写体位置を考慮した位置の測距点、典型的には最も近い測距点を選択する。そしてAF制御部304は、選択した測距点の情報をシステム制御部306に出力する。システム制御部306は、選択された測距点に対応する測距点マークを、ファインダー表示部220に表示させる。この時、被写体位置に近い測距点が複数ある場合には、複数の測距点マークを表示する。ここで、被写体位置に近い測距点とは、例えば被写体位置に対応する追尾入力画像の領域内に含まれる測距点および、被写体位置に対応する追尾入力画像の領域に最も近い測距点であってよい。 In step S106, the AF control unit 304 calculates the defocus amount for all the distance measuring points based on the image signal read from the distance measuring sensor 305, and typically the distance measuring point at the position in consideration of the subject position, typically Select the closest focus point. Then, the AF control unit 304 outputs information on the selected distance measuring point to the system control unit 306. The system control unit 306 causes the finder display unit 220 to display a ranging point mark corresponding to the selected ranging point. At this time, if there are a plurality of distance measuring points close to the subject position, a plurality of distance measuring point marks are displayed. Here, the distance measuring point close to the subject position is, for example, a distance measuring point included in the tracking input image region corresponding to the subject position and a distance measuring point closest to the tracking input image region corresponding to the subject position. It may be.
S107でAE制御部302は、基準画像の更新要否を判定する。ここでは、S104の被写体追尾処理において得られた被写体位置の信頼度が高い場合に基準画像の更新を行うものと判定し、処理をS108に進める。これは、信頼度が低いと、後に説明する基準画像の補完処理の精度が低下するためである。一方、追尾処理で得られた被写体位置の信頼度が高くないと判定された場合、AE制御部302は基準画像の更新を行わないものと判定し、処理をS114に進める。 In step S107, the AE control unit 302 determines whether the reference image needs to be updated. Here, it is determined that the reference image is to be updated when the reliability of the subject position obtained in the subject tracking process of S104 is high, and the process proceeds to S108. This is because if the reliability is low, the accuracy of the complementary processing of the reference image described later is lowered. On the other hand, if it is determined that the reliability of the subject position obtained by the tracking process is not high, the AE control unit 302 determines that the reference image is not updated, and the process proceeds to S114.
被写体位置の信頼度の指標に特に制限はないが、例えばテンプレートマッチング処理において求められた最も相関度の高い(つまり、被写体位置に対応する追尾入力画像に対応する)マッチング評価値を用いることができる。最も相関値の高いマッチング評価値の値が予め定めた第1の値以下である場合に基準画像を更新すると判定することができる。 Although there is no particular limitation on the reliability index of the subject position, for example, a matching evaluation value having the highest correlation (ie, corresponding to the tracking input image corresponding to the subject position) obtained in the template matching process can be used. . It can be determined that the reference image is updated when the matching evaluation value having the highest correlation value is equal to or less than a first predetermined value.
S108でAE制御部302は、追尾処理において最も相関度の高いマッチング評価値が得られた追尾入力画像で基準画像を置き換え、写り込んだ測距点マーク部分の画素を補完することにより、基準画像を更新する。 In S108, the AE control unit 302 replaces the reference image with the tracking input image that has obtained the matching evaluation value having the highest degree of correlation in the tracking process, and complements the pixels of the distance measuring point mark portion that is reflected, thereby correcting the reference image. Update.
S108における基準画像更新処理について、図6を用いて詳細に説明する。図6は、基準画像504を用いた被写体追尾が実施され、606の領域を切り出した追尾入力画像602について、最も相関度の高いマッチング評価値が得られた場合を模式的に示している。また、ファインダー光学像を測光センサ303で撮影した画像601には、ファインダー表示部220に表示された、被写体位置に近い複数の測距点のマーク605が写り込んでいる。また、ここでは更新前の基準画像504にも測距点マークが写り込んでいる。 The reference image update process in S108 will be described in detail with reference to FIG. FIG. 6 schematically illustrates a case where subject tracking using the reference image 504 is performed and a matching evaluation value with the highest degree of correlation is obtained for the tracking input image 602 obtained by cutting out the area 606. Further, the image 601 obtained by photographing the finder optical image with the photometric sensor 303 includes a plurality of distance measuring point marks 605 displayed on the finder display unit 220 and close to the subject position. Further, here, the distance measuring point mark is also reflected in the reference image 504 before the update.
ここで、基準画像の更新にあたっては、図6に示すように、新たに基準画像とする追尾入力画像602に写り込んでいる測距点マークの画素を、現在の基準画像において対応する位置の画素で置換することにより、写り込んだ測距点マークを除去する。置換処理後の追尾入力画像602を、補完画像603として示す。 Here, in updating the reference image, as shown in FIG. 6, the pixel of the distance measuring point mark reflected in the tracking input image 602 as a new reference image is replaced with the pixel at the corresponding position in the current reference image. By replacing with, the reflected distance measuring point mark is removed. A tracking input image 602 after the replacement processing is shown as a complementary image 603.
通常はこの置換処理によって測距点マークは除去できる。しかし、最初に生成された基準画像504のように、基準画像に測距点マークが写り込んでいる場合、基準画像504と追尾入力画像602の双方において同じ位置に写り込んでいる測距点マークは補完画像603にも残ってしまう。そこで、AE制御部302は、このような画素を補完画像603における周囲の画素値を補間した値で補完し、測距点マークを除去した新基準画像604を生成する。そして、次の追尾処理には新基準画像604を用いる。 Usually, the distance measuring point mark can be removed by this replacement process. However, when a distance measuring point mark is reflected in the reference image as in the first generated reference image 504, the distance measuring point mark reflected in the same position in both the reference image 504 and the tracking input image 602. Also remains in the complementary image 603. Therefore, the AE control unit 302 complements such pixels with values obtained by interpolating surrounding pixel values in the complementary image 603, and generates a new reference image 604 from which the distance measuring point mark is removed. The new reference image 604 is used for the next tracking process.
なお、AE制御部302は、現在の基準画素に写り込んでいる測距点マークの位置と、新たな基準画像の元になる追尾入力画像に写り込んでいる測距点マークの位置を、それぞれの選択測距点情報と、測距点マークの情報とから判別可能である。より具体的には、測距点位置ごとに、対応する測距点マークの画像座標を対応付けた情報を予め記憶しておき、選択測距点に応じて対応する測距点マークの画像座標を取得し、切り出し画像範囲でクリッピングすれば良い。あるいは、測距点マークの表示に用いられる特定色の画素を抽出し、測距点マークのパターン(形状および大きさ)に合致する画素を特定することによって測距点マークの画像座標を特定してもよい。なお、これらは単なる例示であり、他の任意の方法を用いることができる。 Note that the AE control unit 302 determines the position of the distance measuring point mark reflected in the current reference pixel and the position of the distance measuring point mark reflected in the tracking input image that is the basis of the new reference image, respectively. The selected distance measuring point information and the distance measuring point mark information can be discriminated. More specifically, information corresponding to the image coordinates of the corresponding distance measuring point mark is stored in advance for each distance measuring point position, and the image coordinates of the corresponding distance measuring point mark corresponding to the selected distance measuring point are stored. Can be obtained and clipped within the cut-out image range. Alternatively, the image coordinates of the distance measuring point mark are specified by extracting pixels of a specific color used for displaying the distance measuring point mark and specifying pixels that match the pattern (shape and size) of the distance measuring point mark. May be. These are merely examples, and other arbitrary methods can be used.
AE制御部302は、現在の基準画像504と新たな基準画像の元になる追尾入力画像602の同位置に写り込んでいる測距点マークの画素を特定し、補完画像603における周辺画素の値から補完する。補完は、例えば欠陥画素位置の画素値を周辺画素値から求める場合に用いられる方法など、任意の方法で行うことができる。
以上のようにして基準画像を更新することにより、更新後の基準画像には測距点マークが含まれなくなるため、基準画像との相関度に基づく追尾処理の精度に対する測距点マークの影響を抑制することができる。
The AE control unit 302 specifies the pixel of the distance measuring point mark reflected at the same position in the tracking input image 602 that is the basis of the current reference image 504 and the new reference image, and the values of the surrounding pixels in the complementary image 603. Complement from Complementation can be performed by an arbitrary method such as a method used when the pixel value of the defective pixel position is obtained from the peripheral pixel value.
By updating the reference image as described above, the updated reference image does not include the distance measurement point mark, so the influence of the distance measurement point mark on the accuracy of the tracking process based on the degree of correlation with the reference image is reduced. Can be suppressed.
S114でAE制御部302は、S103で測光センサ303から読み出した画像データに基づいて自動露出演算を行い、露出演算結果をシステム制御部306に出力する。なお、追尾対象である主被写体領域を基準に自動露出演算を行う場合には、基準画像のデータに基づいて自動露出演算を行ってもよい。 In step S <b> 114, the AE control unit 302 performs automatic exposure calculation based on the image data read from the photometric sensor 303 in step S <b> 103 and outputs an exposure calculation result to the system control unit 306. In addition, when performing the automatic exposure calculation based on the main subject region that is the tracking target, the automatic exposure calculation may be performed based on the data of the reference image.
S115でシステム制御部306は、S106あるいはS110で得られた、選択測距点についての焦点検出結果に基づいてフォーカシングレンズ213を駆動し、自動焦点調節を行う。また、S114の自動露出演算結果に基づいて本撮影時の絞り値とシャッター速度(および必要に応じてさらに撮影感度)を決定する。 In S115, the system control unit 306 drives the focusing lens 213 based on the focus detection result for the selected distance measuring point obtained in S106 or S110, and performs automatic focus adjustment. Further, based on the automatic exposure calculation result of S114, an aperture value and a shutter speed (and further photographing sensitivity as necessary) at the time of actual photographing are determined.
S116では、システム制御部306は、操作部301からSW2信号を受信しているかどうかを判定し、受信していれば処理をS117に進め、受信していなければ、処理をS102に戻す。 In S116, the system control unit 306 determines whether or not the SW2 signal has been received from the operation unit 301. If the SW2 signal has been received, the system control unit 306 advances the processing to S117, and if not, returns the processing to S102.
S117でシステム制御部306はメインミラー203(およびサブミラー204)をアップさせて光路から退避させる。また、直前に行われた自動露出演算の結果に応じて絞り214およびフォーカルプレーンシャッタ210の制御を行い、本撮影を実行する。その後、システム制御部306は、メインミラー203(およびサブミラー204)をダウンさせ、処理をS102に戻す。
以上の処理を、SW1がONである間(SW1信号を受信している間)繰り返す。SW1信号を受信しなくなると、図1の処理を終了する。
In step S117, the system control unit 306 raises the main mirror 203 (and the sub mirror 204) and retracts it from the optical path. In addition, the diaphragm 214 and the focal plane shutter 210 are controlled according to the result of the automatic exposure calculation performed immediately before, and the main photographing is executed. Thereafter, the system control unit 306 lowers the main mirror 203 (and the sub mirror 204), and returns the process to S102.
The above processing is repeated while SW1 is ON (while the SW1 signal is received). When the SW1 signal is no longer received, the processing in FIG.
このように、本実施形態によれば、被写体光学像と付加情報像とが重畳された光学ファインダー像を用いて被写体の追尾処理を行う場合に、追尾処理に用いる基準画像の更新時に、付加情報像を除去することにより、追尾処理の精度に与える影響を抑制できる。 As described above, according to the present embodiment, when subject tracking processing is performed using an optical viewfinder image in which a subject optical image and an additional information image are superimposed, additional information is updated when a reference image used for tracking processing is updated. By removing the image, the influence on the accuracy of the tracking process can be suppressed.
なお、本実施形態では、最初に生成する基準画像に含まれる測距点マークは除去しないものとして説明したが、測距点マークの画素を周辺画素から補完するように構成してもよい。
また、測距点マークを付加情報像の一例として説明したが、他の付加情報像についても同様の処理によって除去することができる。
In the present embodiment, the distance measuring point mark included in the reference image generated first is not removed. However, the pixels of the distance measuring point mark may be complemented from the peripheral pixels.
Further, although the distance measuring point mark has been described as an example of the additional information image, other additional information images can be removed by the same processing.
●(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態では、基準画像を更新する際、新たな基準画像とする追尾入力画像に写り込んだ測距点マークを現在の基準画像の画素もしくは周辺画素に基づいて補完することで除去するものであった。しかし、周辺画素からの補間を用いた場合、補完する画素付近の空間周波数が高い場合、適切な補間が困難となる場合があり、結果として被写体追尾処理の精度を低下させることがあった。本実施形態では、被写体追尾処理におけるマッチング処理を変更することで、このような被写体追尾処理の精度低下を抑制することを特徴とする。
● (Second embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, when the reference image is updated, the distance measuring point marks reflected in the tracking input image as a new reference image are removed by complementing them based on the pixels of the current reference image or peripheral pixels. It was a thing. However, when interpolation from surrounding pixels is used, if the spatial frequency near the pixel to be complemented is high, proper interpolation may be difficult, and as a result, the accuracy of subject tracking processing may be reduced. The present embodiment is characterized in that such a decrease in accuracy of the subject tracking process is suppressed by changing the matching process in the subject tracking process.
本実施形態は、図1のS104の被写体追尾処理におけるマッチング処理の方法を除き、第1の実施形態と同様であってよいため、マッチング処理についてのみ説明する。本実施形態のマッチング処理は、基準画像あるいは追尾入力画像に含まれる、測距点マークの画素を相関演算の対象から除外することを特徴とする。 Since the present embodiment may be the same as the first embodiment except for the matching processing method in the subject tracking processing in S104 of FIG. 1, only the matching processing will be described. The matching process according to the present embodiment is characterized in that the pixels of the distance measuring point mark included in the reference image or the tracking input image are excluded from the correlation calculation targets.
図7は、8×8画素の基準画像701と追尾入力画像702のマッチング処理(相関演算)を模式的に示した図である。図7において、黒色画素が測距点マークの画素を、白色画素が被写体光学像の画素を示している。なお、マッチング領域703は、測距点マークの画素について、基準画像701と追尾入力画像702との論理和を示している。 FIG. 7 is a diagram schematically showing matching processing (correlation calculation) between the reference image 701 of 8 × 8 pixels and the tracking input image 702. In FIG. 7, black pixels indicate distance measurement point pixels, and white pixels indicate subject optical image pixels. The matching area 703 indicates the logical sum of the reference image 701 and the tracking input image 702 for the pixels of the distance measuring point mark.
本実施形態では、マッチング領域703における白色画素位置、すなわち基準画像701と追尾入力画像702のいずれにおいても測距点マークでない位置の画素間の差分値の総和を求める。そして、総和を、マッチング領域703中の白色画素の数(差分を求めた画素対の数)で割ることにより正規化した値をマッチング評価値とする。この計算を式で表すと以下のようになる。
このようにして求めたマッチング評価値に基づいて被写体位置を検出することにより、基準画像と追尾入力画像の少なくとも一方に測距点マークが写りこんでいる場合でも、測距点マークの影響を受けることなく相関度を計算することができる。つまり、測距点マークの画素を除外し、被写体光学像のみについて相関度を計算できるため、測距点マークが写りこむことによる追尾精度の低下を軽減できる。 By detecting the subject position based on the matching evaluation value obtained in this way, even when the distance measuring point mark is reflected in at least one of the reference image and the tracking input image, the object is affected by the distance measuring point mark. The degree of correlation can be calculated without any problem. That is, since the distance measurement point mark pixels are excluded and the degree of correlation can be calculated only for the subject optical image, a decrease in tracking accuracy due to the reflection of the distance measurement point mark can be reduced.
また、同様の効果が得られる別の手法として、基準画像701と追尾入力画像702について、他方の画像に写り込んだ測距点マークの画素を反映させたのちにマッチング処理を行ってもよい。つまり、基準画像701と追尾入力画像702のいずれもが、マッチング領域703に示すような測距点マークの画素を有するようにしてからマッチング処理を行うのである。このように、基準画像701と追尾入力画像602とで測距点マークの画素を共通化してから、式(1)に従ったマッチング評価値を求める。 As another method for obtaining the same effect, the reference image 701 and the tracking input image 702 may be subjected to the matching process after reflecting the pixel of the distance measuring point mark reflected in the other image. That is, the matching process is performed after both the reference image 701 and the tracking input image 702 have pixels of distance measuring point marks as shown in the matching area 703. As described above, after the pixels of the distance measuring point mark are shared by the reference image 701 and the tracking input image 602, the matching evaluation value according to the equation (1) is obtained.
測距点マークの画素についてはマッチング処理時に差分値が0になるため、差分値の総和にカウントされない。そして、差分値の総和を測距点マークのない部分の画素数で正規化するので、測距点マークの画素を除外したマッチング評価値を得ることができる。 For the pixels of the distance measuring point mark, the difference value becomes 0 at the time of the matching processing, and thus is not counted in the sum of the difference values. Then, since the sum of the difference values is normalized by the number of pixels in the portion without the distance measuring point mark, a matching evaluation value excluding the pixels of the distance measuring point mark can be obtained.
本実施形態によれば、被写体光学像と付加情報像とが重畳された光学ファインダー像を用いて被写体の追尾処理を行う場合に、付加情報像の画素を除外し、被写体光学像の画素にのみ基づく評価値によって被写体位置を検出する。そのため、測距点マーク近傍における被写体光学像の空間周波数が高い場合でも、精度の良い追尾処理結果を得ることができる。 According to the present embodiment, when subject tracking processing is performed using an optical viewfinder image in which a subject optical image and an additional information image are superimposed, pixels of the additional information image are excluded and only pixels of the subject optical image are excluded. The subject position is detected based on the evaluation value based on the evaluation value. Therefore, even if the spatial frequency of the subject optical image in the vicinity of the distance measuring point mark is high, it is possible to obtain an accurate tracking process result.
●(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態は、現在の基準画像に含まれる測距点マークの画素数を考慮して、基準画像の更新要否を判定することを特徴とする。基準画像に含まれる測距点マークの画素数が少ない場合には、多い場合よりも更新要と判定されにくくすることで、基準画像に測距点マークの画素が入り込む可能性を低減し、被写体追尾処理の精度低下を抑制するものである。
● (Third embodiment)
Next, a third embodiment of the present invention will be described. The present embodiment is characterized in that the necessity of updating the reference image is determined in consideration of the number of pixels of the distance measuring point mark included in the current reference image. When the number of AF points included in the reference image is small, it is less likely to be updated than when there are many, thereby reducing the possibility that the AF points will enter the reference image. This suppresses a decrease in accuracy of the tracking process.
本実施形態は、図1のS107に相当する基準画像の更新要否判定処理を除き、第1の実施形態と同様であってよい。そのため、以下の説明においては、本実施形態に特徴的な基準画像の更新要否判定処理について説明する。 This embodiment may be the same as the first embodiment except for the reference image update necessity determination process corresponding to S107 in FIG. Therefore, in the following description, reference image update necessity determination processing characteristic of the present embodiment will be described.
図8はSW1が押下された状態における本実施形態のDSLR100の動作を示すフローチャートであり、第1の実施形態と同様の処理を行うステップについては図1と同じ参照数字を付して重複する説明を省略する。 FIG. 8 is a flowchart showing the operation of the DSLR 100 of this embodiment in a state where SW1 is pressed. Steps for performing the same processing as in the first embodiment are denoted by the same reference numerals as in FIG. Is omitted.
S801でAE制御部302は、現在の基準画像に含まれる、測距点マークの画素数が所定値よりも少なければ処理をS802へ、所定値以上であれば処理をS803に進める。 In step S801, the AE control unit 302 advances the process to step S802 if the number of pixels of the distance measurement point mark included in the current reference image is less than the predetermined value, and advances the process to step S803 if the number is greater than the predetermined value.
S802でAE制御部302は、S104の被写体追尾処理で得られた最も高い相関度が、第1の判定値よりも高い第2の判定値より高いか比較する。AE制御部302は、相関度が第2の判定値よりも高い場合には処理をS108へ進め、上述した基準画像の更新処理を行う。一方、相関度が第2の判定値以下であった場合、AE制御部302は基準画像の更新は行わずに処理をS114へ進める。なお、上述の通り、相関度をマッチング評価値で表す場合、S802の処理は、第1の判定値よりも低い第2の判定値未満かどうかの判定になる。 In step S802, the AE control unit 302 compares whether the highest correlation obtained in the subject tracking process in step S104 is higher than a second determination value that is higher than the first determination value. If the degree of correlation is higher than the second determination value, the AE control unit 302 advances the process to S108, and performs the above-described reference image update process. On the other hand, when the correlation degree is equal to or lower than the second determination value, the AE control unit 302 advances the process to S114 without updating the reference image. As described above, when the degree of correlation is represented by a matching evaluation value, the process of S802 is a determination as to whether or not it is less than a second determination value that is lower than the first determination value.
S803でAE制御部302は、S104の被写体追尾処理で得られた最も高い相関度が、第2の判定値よりも低い第1の判定値より高いか比較する。AE制御部302は、相関度が第1の判定値よりも高い場合には処理をS108へ進め、上述した基準画像の更新処理を行う。一方、相関度が第1の判定値以下であった場合、AE制御部302は基準画像の更新は行わずに処理をS114へ進める。 In step S803, the AE control unit 302 compares whether the highest correlation obtained in the subject tracking process in step S104 is higher than the first determination value that is lower than the second determination value. If the degree of correlation is higher than the first determination value, the AE control unit 302 advances the process to S108, and performs the above-described reference image update process. On the other hand, when the correlation degree is equal to or less than the first determination value, the AE control unit 302 advances the process to S114 without updating the reference image.
このように、基準画像中に含まれる付加情報像の画素数が所定値よりも少ない場合には所定値以上の場合よりも基準画像が更新されにくくすることで、基準画像への付加情報像の画素が混入する確率を低減することができる。 As described above, when the number of pixels of the additional information image included in the reference image is smaller than the predetermined value, the reference image is less likely to be updated than when the additional information image is greater than or equal to the predetermined value. The probability that pixels are mixed can be reduced.
第1および第2の実施形態では、被写体追尾処理の結果の信頼性が高い場合には、最も高い相関度に対応する追尾入力画像に含まれる付加情報像の画素数にかかわらず基準画像の更新を行うものであった。しかし、基準画像に含まれる付加情報像の画素数が多くなると、相関演算における付加情報像の画素の影響が増加したり、相関演算に用いる被写体光学像の画素数が減少するため、相関演算の信頼性が低下するおそれがある。本実施形態によれば、付加情報像の画素数が少ない基準画像については更新されにくくなるため、このような問題の発生を抑制することができる。 In the first and second embodiments, when the reliability of the subject tracking processing result is high, the reference image is updated regardless of the number of pixels of the additional information image included in the tracking input image corresponding to the highest correlation. It was something to do. However, if the number of pixels of the additional information image included in the reference image increases, the influence of the pixels of the additional information image in the correlation calculation increases or the number of pixels of the subject optical image used in the correlation calculation decreases. Reliability may be reduced. According to this embodiment, since it becomes difficult to update the reference image having a small number of pixels of the additional information image, occurrence of such a problem can be suppressed.
●(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態は、人物の顔のような特定被写体を画像から検出する被写体検出機能を有する場合に、被写体検出機能で検出された特定被写体の位置で基準画像が生成されたかどうかを考慮して、基準画像の更新要否を判定することを特徴とする。特定被写体の位置で基準画像が生成されていれば、正しい追尾が行われる可能性が高いため、そうでない場合よりも更新要と判定されにくくすることで、被写体追尾処理の精度低下を抑制するものである。
● (Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In the present embodiment, in the case of having a subject detection function for detecting a specific subject such as a human face from an image, considering whether or not the reference image is generated at the position of the specific subject detected by the subject detection function, It is characterized by determining whether or not the reference image needs to be updated. If the reference image is generated at the position of the specific subject, there is a high possibility that correct tracking will be performed. It is.
本実施形態に係るDSLRは、AE制御部302またはシステム制御部306が画像中の特定被写体領域を検出する機能、例えば顔検出機能を有している。ここでは典型例として、人物の顔が特定被写体であるものとして説明するが、画像の特徴量などに基づいて検出可能な任意の被写体であってよい。顔検出機能は、入力される画像を解析して画像内に存在する全ての顔を検出し、各顔の座標位置と大きさを特定する機能である。 The DSLR according to the present embodiment has a function in which the AE control unit 302 or the system control unit 306 detects a specific subject area in an image, for example, a face detection function. Here, as a typical example, a person's face is described as being a specific subject, but it may be any subject that can be detected based on a feature amount of an image. The face detection function is a function for analyzing an input image to detect all faces existing in the image and specifying the coordinate position and size of each face.
図9はSW1が押下された状態における本実施形態のDSLR100の動作を示すフローチャートであり、第1または第3の実施形態と同様の処理を行うステップについては図1または図8と同じ参照数字を付して重複する説明を省略する。 FIG. 9 is a flowchart showing the operation of the DSLR 100 of this embodiment in a state where SW1 is pressed, and the same reference numerals as in FIG. 1 or FIG. 8 are used for the steps for performing the same processing as in the first or third embodiment. A duplicate description will be omitted.
S901でシステム制御部306はAE制御部302へ動作開始を指示し、AE制御部302は測光センサ303における電荷蓄積および読み出しを実行する。 In step S <b> 901, the system control unit 306 instructs the AE control unit 302 to start operation, and the AE control unit 302 executes charge accumulation and readout in the photometric sensor 303.
S902でAE制御部302は、測光センサ303から読み出した画像に対して顔検出処理を行い、画像内に存在する顔の位置と大きさを検出する。顔が複数検出された場合、AE制御部302はその1つを主顔として選択する。主顔の選択方法は任意だが、最も大きいもの、画面の中央に最も近いもの、ユーザが予め選択してある測距点に最も近いもの、などを例示することができる。顔が1つのみ検出された場合は、その顔が主顔となる。AE制御部302は、主顔の大きさと位置の情報をシステム制御部306に通知する。 In step S <b> 902, the AE control unit 302 performs face detection processing on the image read from the photometric sensor 303 and detects the position and size of the face present in the image. When a plurality of faces are detected, the AE control unit 302 selects one of them as the main face. The method of selecting the main face is arbitrary, but examples include the largest one, the one closest to the center of the screen, the one closest to the distance measuring point selected in advance by the user, and the like. If only one face is detected, that face becomes the main face. The AE control unit 302 notifies the system control unit 306 of information on the size and position of the main face.
S903でシステム制御部306は、S902で顔が検出されていれば処理をS904へ進め、検出されていなければ処理をS109へ進める。
S904およびS109でシステム制御部306はAF制御部304へ動作開始を指示し、AF制御部304は、測距センサ305における電荷蓄積および読み出しを実行する。また、システム制御部306は、AE制御部302から通知された主顔の情報をAF制御部304に通知する。
In step S903, the system control unit 306 advances the process to step S904 if a face is detected in step S902, and advances the process to step S109 if no face is detected.
In S904 and S109, the system control unit 306 instructs the AF control unit 304 to start operation, and the AF control unit 304 executes charge accumulation and readout in the distance measuring sensor 305. Further, the system control unit 306 notifies the AF control unit 304 of the main face information notified from the AE control unit 302.
S905でAF制御部304は、S110と同様に全ての測距点についてデフォーカス量を演算し、主顔に最も近い測距点を選択測距点とする。あるいは、AF制御部304は、主顔に最も近い測距点についてのみデフォーカス量を演算してもよい。 In step S905, the AF control unit 304 calculates the defocus amount for all distance measuring points in the same manner as in step S110, and sets the distance measuring point closest to the main face as the selected distance measuring point. Alternatively, the AF control unit 304 may calculate the defocus amount only for the distance measuring point closest to the main face.
S906でAE制御部302は、S901で測光センサ303から読み出した画像から、主顔の検出位置と大きさに合わせて画像を切り出し、新規の基準画像とする。 In step S906, the AE control unit 302 cuts out an image from the image read from the photometric sensor 303 in step S901 according to the detection position and size of the main face, and sets it as a new reference image.
一方、基準画像フラグがTrueの場合には、S106において測距点の選択が行われた後、S907でAE制御部302は、現在の基準画像が主顔に対して生成されたもの(S906で生成されたもの)かどうか判定する。そして、AE制御部302は、基準画像が主顔に対して生成されたものであればS802へ、そうでない(S112で生成された)場合にはS803へ処理を進める。 On the other hand, if the reference image flag is True, after the ranging point is selected in S106, the AE control unit 302 generates the current reference image for the main face in S907 (S906). Generated). Then, the AE control unit 302 advances the process to S802 if the reference image is generated for the main face, and advances to S803 if not (generated in S112).
S802およびS803移行の処理は第3の実施形態と同様である。ただし、第1および第2の判定値は第3の実施形態と同一であってもなくてもよい(第2の判定値>第1の判定値であることは変わらない)。 The processing of S802 and S803 is the same as that of the third embodiment. However, the first and second determination values may or may not be the same as in the third embodiment (the second determination value> the first determination value does not change).
基準画像が顔検出機能によって検出された主顔について生成された場合、その時点で適切な位置、大きさで生成されていると考えられ、主顔以外の位置で生成された基準画像よりも信頼できると考えられる。そのため、主顔について生成された基準画像は、そうでない基準画像よりも更新されにくくすることで、高い追尾精度を維持するように制御する。 When the reference image is generated for the main face detected by the face detection function, it is considered that the reference image is generated at an appropriate position and size at that time, and is more reliable than the reference image generated at a position other than the main face. It is considered possible. For this reason, the reference image generated for the main face is controlled to maintain high tracking accuracy by making it less likely to be updated than a reference image that is not.
(その他の実施形態)
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、被写体の位置を認識する手法に関しては、テンプレートマッチングによる被写体追跡だけでなく、色情報を用いた追跡を用いても良い。
(Other embodiments)
As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary. For example, as a method for recognizing the position of a subject, tracking using color information as well as subject tracking by template matching may be used.
また、現在の基準画像に付加情報像が含まれている場合、更新しない場合であっても、付加情報像の補完に用いる程度に相関が高いと判断される追尾入力画像が得られた場合には、現在の基準画像の付加情報像の画素を追尾入力画像の画素で補完してもよい。これにより、引き続いて実施される被写体追尾処理の精度を向上させることができる。 In addition, when the additional information image is included in the current reference image, even when not updated, a tracking input image that is determined to have a high correlation enough to be used for complementing the additional information image is obtained. May supplement the pixels of the additional information image of the current reference image with the pixels of the tracking input image. As a result, the accuracy of the subject tracking process that is subsequently performed can be improved.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
201…本体、202…撮影レンズ、203…メインミラー、204…サブミラー、206…ピント板、211…撮像素子、212…ディスプレイ、213…フォーカシングレンズ、214…絞り DESCRIPTION OF SYMBOLS 201 ... Main body, 202 ... Shooting lens, 203 ... Main mirror, 204 ... Sub mirror, 206 ... Focus plate, 211 ... Imaging element, 212 ... Display, 213 ... Focusing lens, 214 ... Aperture
Claims (8)
前記取得手段が取得した複数の画像について、追尾対象の被写体を含んだ基準画像に対応した領域を検出することにより、前記被写体の追尾を実現する追尾手段と、
前記基準画像を更新する更新手段とを有し、
前記更新手段は、新たな基準画像の元となる画像に含まれる前記付加情報像の画素を、更新前の前記基準画像の画素で補完して、更新後の基準画像を生成することを特徴とする画像処理装置。 Acquisition means for acquiring an image in which the additional information image is superimposed on the subject optical image;
For a plurality of images acquired by the acquisition means, tracking means for realizing tracking of the subject by detecting a region corresponding to a reference image including the subject to be tracked;
Updating means for updating the reference image,
The update means complements the pixels of the additional information image included in the original image of the new reference image with the pixels of the reference image before update to generate an updated reference image. An image processing apparatus.
前記更新手段は、前記更新前の基準画像が前記検出手段で検出された前記特定の被写体について生成されている場合は、前記更新前の基準画像が前記検出手段で検出された前記特定の被写体について生成されていない場合よりも、前記基準画像が更新されにくくすることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 A detecting unit for detecting a specific subject from the image acquired by the acquiring unit;
When the reference image before the update is generated for the specific subject detected by the detection unit, the update unit is configured for the specific subject detected by the detection unit. The image processing apparatus according to claim 1, wherein the reference image is less likely to be updated than when the reference image is not generated.
光学ファインダー像を撮影する測光センサを前記取得手段として用いることを特徴とする撮像装置。 It has an image processing device given in any 1 paragraph of Claims 1-5 ,
A photometric sensor that captures an optical viewfinder image is used as the acquisition unit.
追尾手段が、前記取得工程で取得した複数の画像について、追尾対象の被写体を含んだ基準画像に対応した領域を検出することにより、前記被写体の追尾を実現する追尾工程と、
更新手段が、前記基準画像を更新する更新工程とを有し、
前記更新工程において前記更新手段は、新たな基準画像の元となる画像に含まれる前記付加情報像の画素を、更新前の前記基準画像の画素で補完して、更新後の基準画像を生成することを特徴とする画像処理装置の制御方法。 An acquisition step of acquiring an image in which the additional information image is superimposed on the subject optical image;
A tracking step that realizes tracking of the subject by detecting a region corresponding to a reference image including the subject to be tracked for the plurality of images acquired in the acquisition step;
An update means for updating the reference image,
In the updating step, the updating means supplements the pixels of the additional information image included in the image that is the basis of the new reference image with the pixels of the reference image before the update, and generates a reference image after the update. And a control method for the image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014073726A JP6346484B2 (en) | 2014-03-31 | 2014-03-31 | Image processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014073726A JP6346484B2 (en) | 2014-03-31 | 2014-03-31 | Image processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015198264A JP2015198264A (en) | 2015-11-09 |
JP2015198264A5 JP2015198264A5 (en) | 2017-04-27 |
JP6346484B2 true JP6346484B2 (en) | 2018-06-20 |
Family
ID=54547762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014073726A Active JP6346484B2 (en) | 2014-03-31 | 2014-03-31 | Image processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6346484B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11115583B2 (en) | 2018-06-29 | 2021-09-07 | Canon Kabushiki Kaisha | Apparatus and method for determination of a focus detection target |
JP2020003741A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Image capturing device and control method therefor |
US20220390646A1 (en) * | 2021-06-02 | 2022-12-08 | Pixart Imaging Inc. | Optical tracking device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5110043B2 (en) * | 2009-06-18 | 2012-12-26 | 株式会社ニコン | Imaging device |
JP5966299B2 (en) * | 2011-09-29 | 2016-08-10 | 株式会社ニコン | FOCUS DETECTION DEVICE AND IMAGING DEVICE HAVING THE SAME |
-
2014
- 2014-03-31 JP JP2014073726A patent/JP6346484B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015198264A (en) | 2015-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6512810B2 (en) | Image pickup apparatus, control method and program | |
JP5843486B2 (en) | Imaging apparatus and control method thereof | |
JP5950664B2 (en) | Imaging apparatus and control method thereof | |
US9781330B2 (en) | Focus detection apparatus and control method for focus detection apparatus | |
JP2014002283A (en) | Focus adjustment device and control method therefor | |
JP2014202875A (en) | Subject tracking device | |
JP5925186B2 (en) | Imaging apparatus and control method thereof | |
JP2018004918A (en) | Focus adjustment device and method, and imaging apparatus | |
JP2010091669A (en) | Imaging device | |
JP5963552B2 (en) | Imaging device | |
US11808561B2 (en) | Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium | |
JP6346484B2 (en) | Image processing apparatus and control method thereof | |
JP2015152749A (en) | Imaging device and control method of the same | |
JP2009010672A (en) | Focus detector and image pickup device | |
JP2012235257A (en) | Photographing device | |
JP2015122669A (en) | Image processing system, control method of the same, and program | |
JP5930792B2 (en) | Imaging apparatus and control method thereof | |
JP2010282107A (en) | Imaging apparatus and control method therefor | |
WO2016056089A1 (en) | Camera, and image-capturing method | |
JP2016099432A (en) | Focus detection device, and method, program and storage medium | |
JP2012010006A (en) | Imaging apparatus | |
JP5981898B2 (en) | Imaging apparatus and control method thereof | |
JP2015045759A (en) | Imaging device and control method of the same | |
JP2013218062A (en) | Focus detector | |
JP2016142777A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170321 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170321 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180427 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6346484 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |