JP2009225248A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009225248A
JP2009225248A JP2008069210A JP2008069210A JP2009225248A JP 2009225248 A JP2009225248 A JP 2009225248A JP 2008069210 A JP2008069210 A JP 2008069210A JP 2008069210 A JP2008069210 A JP 2008069210A JP 2009225248 A JP2009225248 A JP 2009225248A
Authority
JP
Japan
Prior art keywords
template
subject
imaging
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008069210A
Other languages
Japanese (ja)
Inventor
Soichi Ueda
壮一 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008069210A priority Critical patent/JP2009225248A/en
Publication of JP2009225248A publication Critical patent/JP2009225248A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means capable of accurately tracking a subject to be tracked, with a relatively small load, even when tilting of an imaging apparatus is changed with respect to the optical axis of an imaging optical system. <P>SOLUTION: An imaging apparatus comprises an imaging unit, a memory, an attitude sensor, a control unit, and a subject tracking unit. The imaging unit picks up a subject image within a photographing screen via an imaging optical system. The memory stores a template indicating features of a tracking object. The attitude sensor detects tilting of the photographing screen with the optical axis of the imaging optical system as a rotation center. The control unit adjusts the direction of the template so as to enlarge the rotation amount of the template with respect to the photographing screen in accordance with the magnitude of a change in tilting of the photographing screen. The subject tracking unit uses the adjusted template to continuously detect the subject to be tracked from the photographing screen. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、被写体の追尾機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having a subject tracking function.

従来から、動きのある主要被写体に追従してフォーカス調整や露光条件の演算などを行うために、テンプレートマッチングによる被写体追尾機能を備えた撮像装置が種々提案されている。また、回転移動を伴う2つの画像間の位置合わせのときに、各画像で注目する特徴部分を抽出するとともに、各画像の特徴部分から求めた移動ベクトル量を用いることも提案されている(一例として特許文献1参照)。
特開11−112869号公報
Conventionally, in order to perform focus adjustment, calculation of exposure conditions, and the like following a moving main subject, various imaging devices having a subject tracking function by template matching have been proposed. It has also been proposed to extract a feature portion of interest in each image and to use a movement vector amount obtained from the feature portion of each image when aligning two images with rotational movement (an example) Patent Document 1).
Japanese Patent Laid-Open No. 11-112869

ところで、従来の撮像装置では、被写体追尾のときに光軸に対する撮像装置の傾きが変化すると、被写体追尾の精度が大きく低下しうる点で改善の余地があった。一方、各々の回転角度が異なる複数のテンプレートを用いて同一箇所でマッチングを複数回行うと、演算負荷の増大によって撮像装置の応答性が大きく損なわれてしまう。   By the way, in the conventional imaging device, there is room for improvement in that the accuracy of subject tracking can be greatly reduced if the inclination of the imaging device with respect to the optical axis changes during subject tracking. On the other hand, if matching is performed a plurality of times at the same location using a plurality of templates having different rotation angles, the responsiveness of the imaging apparatus is greatly impaired due to an increase in calculation load.

そこで、本発明の目的は、撮像光学系の光軸に対して撮像装置の傾きが変化したときにも、追尾対象の被写体を比較的少ない負荷で精度良く追尾できる手段を提供することにある。   Accordingly, an object of the present invention is to provide means capable of accurately tracking a subject to be tracked with a relatively small load even when the inclination of the imaging device changes with respect to the optical axis of the imaging optical system.

一の態様の撮像装置は、撮像部と、メモリと、姿勢センサと、制御部と、被写体追尾部とを備える。撮像部は、撮像光学系を介して撮影画面内の被写体像を撮像する。メモリは、追尾対象の特徴を示すテンプレートを記憶する。姿勢センサは、撮像光学系の光軸を回転中心として撮影画面の傾きを検出する。制御部は、撮影画面の傾きの変化の大きさに応じて、撮影画面に対するテンプレートの回転量が大きくなるようにテンプレートの向きを調整する。被写体追尾部は、調整後のテンプレートを用いて、追尾対象の被写体を撮影画面から継続的に検出する。   An imaging apparatus according to one aspect includes an imaging unit, a memory, a posture sensor, a control unit, and a subject tracking unit. The imaging unit captures a subject image in the shooting screen via the imaging optical system. The memory stores a template indicating the characteristics of the tracking target. The attitude sensor detects the tilt of the shooting screen with the optical axis of the imaging optical system as the center of rotation. The control unit adjusts the orientation of the template so that the amount of rotation of the template with respect to the shooting screen increases according to the magnitude of the change in the tilt of the shooting screen. The subject tracking unit uses the adjusted template to continuously detect the tracking target subject from the shooting screen.

上記の一の態様において、姿勢センサは、重力方向に対する撮像光学系の光軸の傾きを検出可能な加速度センサであってもよい。   In the one aspect described above, the attitude sensor may be an acceleration sensor that can detect the inclination of the optical axis of the imaging optical system with respect to the direction of gravity.

上記の一の態様において、制御部は、調整後のテンプレートを用いて追尾対象の被写体を検出できたときに、該検出時の撮像部の出力に基づいてテンプレートを更新するようにしてもよい。   In the one aspect described above, the control unit may update the template based on the output of the imaging unit at the time of detection when the subject to be tracked can be detected using the adjusted template.

一の態様の撮像装置は、姿勢センサが検出した撮影画面の傾きの変化に応じて、撮影画面に対するテンプレートの回転量が大きくなるようにテンプレートの向きを調整する。よって、撮像光学系の光軸に対して撮像装置の傾きが変化したときにも、追尾対象の被写体を比較的少ない負荷で精度良く追尾できる。   The imaging apparatus according to one aspect adjusts the orientation of the template so that the amount of rotation of the template with respect to the imaging screen increases in accordance with the change in the inclination of the imaging screen detected by the orientation sensor. Therefore, even when the inclination of the imaging apparatus changes with respect to the optical axis of the imaging optical system, the subject to be tracked can be accurately tracked with a relatively small load.

<一の実施形態の説明>
図1は一の実施形態の電子カメラの概略構成を説明するブロック図である。一の実施形態の電子カメラは、時系列に取得される複数の画像から追尾対象の被写体を継続的に検出する被写体追尾機能を有している。一の実施形態では、任意の撮影モード(例えば子供の撮影に適したキッズモードなど)の一機能として、被写体追尾機能が電子カメラに実装される。
<Description of One Embodiment>
FIG. 1 is a block diagram illustrating a schematic configuration of an electronic camera according to an embodiment. The electronic camera of one embodiment has a subject tracking function for continuously detecting a subject to be tracked from a plurality of images acquired in time series. In one embodiment, a subject tracking function is implemented in an electronic camera as a function of an arbitrary shooting mode (for example, a kids mode suitable for child shooting).

電子カメラは、撮像光学系11と、レンズ駆動部12と、撮像素子13と、AFE14と、姿勢センサ15と、CPU16と、第1メモリ17および第2メモリ18と、記録I/F(インターフェース)19と、モニタ20と、レリーズ釦21および操作部材22とを有している。ここで、上記の各構成部品はそれぞれ筐体23に格納されている。また、レンズ駆動部12、AFE14、姿勢センサ15、第1メモリ17および第2メモリ18、記録I/F19、モニタ20、レリーズ釦21および操作部材22は、それぞれCPU16に接続されている。   The electronic camera includes an imaging optical system 11, a lens driving unit 12, an imaging element 13, an AFE 14, an attitude sensor 15, a CPU 16, a first memory 17 and a second memory 18, and a recording I / F (interface). 19, a monitor 20, a release button 21 and an operation member 22. Here, each component described above is stored in the housing 23. The lens driving unit 12, the AFE 14, the attitude sensor 15, the first memory 17 and the second memory 18, the recording I / F 19, the monitor 20, the release button 21, and the operation member 22 are connected to the CPU 16, respectively.

撮像光学系11は、ズームレンズ、フォーカシングレンズを含む複数のレンズ群で構成されている。また、上記のフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the focusing lens is adjusted by the lens driving unit 12 in the optical axis direction. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

撮像素子13は、撮像光学系11を通過した光束に基づく撮影画面内の被写体像を光電変換してアナログの画像信号を生成する。この撮像素子13の出力はAFE14に接続されている。   The image sensor 13 photoelectrically converts the subject image in the shooting screen based on the light beam that has passed through the imaging optical system 11 to generate an analog image signal. The output of the image sensor 13 is connected to the AFE 14.

ここで、電子カメラの撮影モードにおいて、撮像素子13はレリーズ釦21の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子13は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ20での動画像表示やCPU16による各種の演算処理に使用される。   Here, in the photographing mode of the electronic camera, the image sensor 13 captures a still image for recording (main image) in response to the full pressing operation of the release button 21. The imaging element 13 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the through-image data acquired in time series is used for moving image display on the monitor 20 and various arithmetic processes by the CPU 16.

AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。そして、AFE14から出力される画像信号はCPU16に入力される。   The AFE 14 is an analog front end circuit that performs analog signal processing on the output of the image sensor 13. The AFE 14 performs correlated double sampling, image signal gain adjustment, and A / D conversion of the image signal. The image signal output from the AFE 14 is input to the CPU 16.

姿勢センサ15は、撮像光学系11の光軸を回転中心として撮影画面の傾きの変化を検出するセンサである。例えば、一の実施形態での姿勢センサ15は、重力加速度(静的加速度)の計測に対応した公知の3軸加速度センサで構成される。   The attitude sensor 15 is a sensor that detects a change in the tilt of the shooting screen with the optical axis of the imaging optical system 11 as the rotation center. For example, the posture sensor 15 in one embodiment is configured by a known three-axis acceleration sensor that supports measurement of gravitational acceleration (static acceleration).

ここで、図2を参照しつつ、一の実施形態の姿勢センサ15における3軸の向きの設定例を説明する。図2では、電子カメラが正位置で保持されている状態を前提として、電子カメラの筐体23と姿勢センサ15の3軸(XYZ直交座標系)とが以下の位置関係をなしている。上記の状態において、姿勢センサ15のZ軸方向は重力方向と一致するとともに、姿勢センサ15のX軸方向およびY軸方向はそれぞれ重力方向に対して直交する。また、上記の状態において、姿勢センサ15のY軸方向は、撮像光学系11の光軸に対して平行となるように設定される。   Here, an example of setting the orientations of the three axes in the posture sensor 15 of one embodiment will be described with reference to FIG. In FIG. 2, on the assumption that the electronic camera is held at the normal position, the housing 23 of the electronic camera and the three axes (XYZ orthogonal coordinate system) of the attitude sensor 15 have the following positional relationship. In the above state, the Z-axis direction of the attitude sensor 15 coincides with the gravity direction, and the X-axis direction and the Y-axis direction of the attitude sensor 15 are orthogonal to the gravity direction. In the above state, the Y-axis direction of the attitude sensor 15 is set to be parallel to the optical axis of the imaging optical system 11.

また、姿勢センサ15の各軸の出力は、その軸方向に重力加速度の成分が検出されないときには「0」値を示すようになっている。例えば、電子カメラが正位置で保持されている状態では、姿勢センサ15のX軸、Y軸の出力は「0」値となる一方で、Z軸の出力は「0」以外の値を示す。一方、図2に示す「O−P」方向が重力方向に一致するように電子カメラの姿勢を変化させると、姿勢センサ15の各軸の出力はいずれも「0」以外の値に変化を示す。なお、電子カメラを自由落下させた場合には、姿勢センサ15の各軸の出力はいずれも「0」値を示す。   Further, the output of each axis of the attitude sensor 15 shows a “0” value when no gravity acceleration component is detected in the axial direction. For example, when the electronic camera is held in the normal position, the X-axis and Y-axis outputs of the attitude sensor 15 are “0” values, while the Z-axis output is a value other than “0”. On the other hand, when the attitude of the electronic camera is changed so that the “OP” direction shown in FIG. 2 coincides with the direction of gravity, the output of each axis of the attitude sensor 15 changes to a value other than “0”. . When the electronic camera is freely dropped, the output of each axis of the attitude sensor 15 shows a “0” value.

図3(a)は、Y軸を回転中心として電子カメラを正位置から傾けた状態(ローリングの場合)の姿勢センサ15の出力例を示す図である。図3(b)は、X軸を回転中心として電子カメラを正位置から傾けた状態(ピッチングの場合)の姿勢センサ15の出力例を示す図である。なお、簡単のため、図3では電子カメラの筐体23の図示はいずれも省略する。   FIG. 3A is a diagram illustrating an output example of the posture sensor 15 in a state where the electronic camera is tilted from the normal position with the Y axis as the rotation center (in the case of rolling). FIG. 3B is a diagram illustrating an output example of the posture sensor 15 in a state where the electronic camera is tilted from the normal position with the X axis as the rotation center (in the case of pitching). For simplicity, the illustration of the housing 23 of the electronic camera is omitted in FIG.

図3(a)に示すように、Y軸を回転中心として電子カメラを正位置から傾けると、重力加速度の成分は、その回転量に応じて姿勢センサ15のX軸方向とZ軸方向とに分離されて現れる。したがって、撮像光学系11の光軸が重力方向に対して直交する場合、CPU16は、姿勢センサ15のX軸およびZ軸の各出力に基づいて、撮像光学系11の光軸を回転中心とする撮影画面の傾きを求めることができる。   As shown in FIG. 3A, when the electronic camera is tilted from the normal position with the Y axis as the center of rotation, the gravitational acceleration component varies in the X axis direction and the Z axis direction of the attitude sensor 15 according to the amount of rotation. Appears separated. Therefore, when the optical axis of the imaging optical system 11 is orthogonal to the direction of gravity, the CPU 16 uses the optical axis of the imaging optical system 11 as the rotation center based on the X-axis and Z-axis outputs of the attitude sensor 15. The inclination of the shooting screen can be obtained.

一方、図3(b)に示すように、X軸を回転中心として電子カメラを正位置から傾けると、重力加速度の成分は、その回転量に応じて姿勢センサ15のY軸方向とZ軸方向とに分離されて現れる。したがって、CPU16は、姿勢センサ15のY軸およびZ軸の各出力に基づいて、重力方向に対する撮像光学系11の光軸の傾きを求めることができる。   On the other hand, as shown in FIG. 3B, when the electronic camera is tilted from the normal position with the X axis as the center of rotation, the gravitational acceleration component depends on the rotation amount in the Y axis direction and Z axis direction of the attitude sensor 15. Appears separately. Therefore, the CPU 16 can determine the inclination of the optical axis of the imaging optical system 11 with respect to the direction of gravity based on the Y-axis and Z-axis outputs of the attitude sensor 15.

ところで、実際の撮影時には、電子カメラの撮影姿勢は三次元空間において複雑な挙動で変化する。そのため、撮影画面の傾きを求める場合には、重力方向に対する撮像光学系11の光軸の傾きを考慮することがより好ましい。   By the way, at the time of actual photographing, the photographing posture of the electronic camera changes with a complicated behavior in a three-dimensional space. Therefore, when obtaining the tilt of the shooting screen, it is more preferable to consider the tilt of the optical axis of the imaging optical system 11 with respect to the direction of gravity.

例えば、電子カメラを正位置から上方(または下方)にピッチングさせて、かつ撮像光学系11の光軸を中心として電子カメラを回転させた場合を考える。上記の場合には重力加速度の成分が姿勢センサ15のXYZ各軸に分離されて現れる。このとき、姿勢センサ15のX軸およびZ軸の出力のみに着目して撮影画面の傾きを求めると、ピッチングでY軸方向とZ軸方向とに分離した重力加速度の影響が考慮されないため、撮影画面の傾きの検出精度が低下する。そのため、一の実施形態でのCPU16は、姿勢センサ15のXYZ軸のすべての出力を用いて、撮影画面の傾きを求めている。   For example, consider a case where the electronic camera is pitched upward (or downward) from the normal position and the electronic camera is rotated around the optical axis of the imaging optical system 11. In the above case, the gravitational acceleration component appears separately on the XYZ axes of the attitude sensor 15. At this time, if the inclination of the photographing screen is obtained by paying attention only to the X-axis and Z-axis outputs of the attitude sensor 15, the influence of gravity acceleration separated into the Y-axis direction and the Z-axis direction by pitching is not taken into consideration. The detection accuracy of the screen tilt decreases. Therefore, the CPU 16 in one embodiment obtains the tilt of the shooting screen using all the outputs of the XYZ axes of the attitude sensor 15.

一例として、電子カメラに近づくペットなどを高い視点から撮影するシーンでは、ユーザーが被写体の動きに合わせて電子カメラを動かすと、重力方向に対して撮像光学系11の光軸の傾きが徐々に変化してゆく。しかし、上記の状況においても、CPU16は、姿勢センサ15のXYZ軸の出力に基づいて、撮影画面の傾きの変化を精度よく検出できる。   As an example, in a scene where a pet approaching the electronic camera is photographed from a high viewpoint, when the user moves the electronic camera in accordance with the movement of the subject, the inclination of the optical axis of the imaging optical system 11 gradually changes with respect to the direction of gravity. I will do it. However, even in the above situation, the CPU 16 can accurately detect a change in the tilt of the shooting screen based on the output of the XYZ axes of the attitude sensor 15.

CPU16は、電子カメラの動作を統括的に制御するとともに、各種の画像処理を行うプロセッサである。このCPU16は、第2メモリ18に格納されたプログラムの実行によって、画像処理部24、撮像条件調整部25、テンプレート管理部26、被写体追尾部27として機能する。   The CPU 16 is a processor that performs overall control of the operation of the electronic camera and performs various types of image processing. The CPU 16 functions as an image processing unit 24, an imaging condition adjustment unit 25, a template management unit 26, and a subject tracking unit 27 by executing a program stored in the second memory 18.

画像処理部24は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部24は、画像の解像度変換(画素数変換)を実行する。一例として、撮影モードでの撮影待機時には、画像処理部24は、スルー画像に解像度変換を施してモニタ表示用のビュー画像を生成する。   The image processing unit 24 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. The image processing unit 24 performs image resolution conversion (pixel number conversion). As an example, at the time of shooting standby in the shooting mode, the image processing unit 24 performs resolution conversion on the through image and generates a view image for monitor display.

撮像条件調整部25は、スルー画像のデータを用いて、公知のコントラスト検出によるオートフォーカス(AF)制御や、公知の自動露出(AE)演算をそれぞれ実行する。   The imaging condition adjustment unit 25 executes known auto-focus (AF) control by contrast detection and known auto-exposure (AE) calculation using the through image data.

テンプレート管理部26は、入力された画像から追尾対象の物体を識別するためのテンプレートのデータを生成する。一の実施形態の電子カメラでは、人間、動物、建築物、乗物などを含むあらゆる物体を追尾対象としてテンプレートを生成することが可能である。一例として、テンプレート管理部26は、撮影画面内に設定されているテンプレート生成範囲のスルー画像を用いてテンプレートのデータを生成する。なお、上記のテンプレートのデータには、例えば、YCbCrの各チャンネルのデータ(被写体の輝度情報、色差情報)が含まれる。   The template management unit 26 generates template data for identifying the tracking target object from the input image. In the electronic camera of one embodiment, it is possible to generate a template with any object including a human being, an animal, a building, a vehicle, etc. as a tracking target. As an example, the template management unit 26 generates template data using a through image of the template generation range set in the shooting screen. The template data includes, for example, YCbCr channel data (subject luminance information and color difference information).

また、テンプレート管理部26は、姿勢センサ15の出力に基づいて、撮影画面の傾きの変化に応じてテンプレートの向きを調整する。   Further, the template management unit 26 adjusts the orientation of the template based on the change in the tilt of the shooting screen based on the output of the attitude sensor 15.

被写体追尾部27は、上記のテンプレートを用いて、撮影画面内における追尾対象の被写体の位置を継続的に検出する。これにより、撮像条件調整部25では、テンプレートに対応する被写体の動きに追従してAF制御を行うことができる。また、CPU16は、テンプレートに対応する被写体の位置を示すマークをビュー画像上にオーバーレイ表示させることもできる。   The subject tracking unit 27 continuously detects the position of the subject to be tracked in the shooting screen using the template. Thereby, the imaging condition adjustment unit 25 can perform AF control following the movement of the subject corresponding to the template. In addition, the CPU 16 can display a mark indicating the position of the subject corresponding to the template on the view image.

第1メモリ17は、CPU16による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。この第1メモリ17は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 17 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the CPU 16. The first memory 17 is constituted by an SDRAM which is a volatile storage medium.

第2メモリ18は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ18には、上記のテンプレートのデータや、被写体追尾処理に必要となる各種データ(例えば、追尾対象の検出位置のデータや、撮影画面の傾きのデータなど)が記憶される。なお、第2メモリ18には、CPU16によって実行されるプログラムも記憶される。このプログラムによる被写体追尾処理の動作例については後述する。   The second memory 18 is configured by a non-volatile storage medium such as a flash memory. The second memory 18 stores the above-described template data and various types of data necessary for subject tracking processing (for example, data on the detection position of the tracking target and data on the tilt of the shooting screen). The second memory 18 also stores a program executed by the CPU 16. An operation example of subject tracking processing by this program will be described later.

記録I/F19には、不揮発性の記憶媒体28を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記憶媒体28に対してデータの書き込み/読み込みを実行する。上記の記憶媒体28は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体28の一例としてメモリカードを図示する。   The recording I / F 19 is formed with a connector for connecting the nonvolatile storage medium 28. The recording I / F 19 executes data writing / reading with respect to the storage medium 28 connected to the connector. The storage medium 28 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 28.

モニタ20は、CPU16の指示に応じて各種画像を表示する。例えば、撮影モードでの撮影待機時において、CPU16の制御によりモニタ20には上記のビュー画像が動画表示される。このとき、CPU16は、撮影に必要となる各種情報をビュー画像にオーバーレイ表示させることもできる。また、CPU16は、各種設定を変更するためのメニュー画面をモニタ20に表示させることもできる。   The monitor 20 displays various images according to instructions from the CPU 16. For example, at the time of shooting standby in the shooting mode, the view image is displayed as a moving image on the monitor 20 under the control of the CPU 16. At this time, the CPU 16 can also display various information necessary for photographing on the view image in an overlay manner. The CPU 16 can also display a menu screen for changing various settings on the monitor 20.

レリーズ釦21は、半押し操作による撮影前のAF動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。   The release button 21 receives from the user an instruction input for starting an AF operation before photographing by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

操作部材22は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。そして、操作部材22は電子カメラの各種入力をユーザーから受け付ける。例えば、操作部材22は、上記のメニュー画面での入力操作や、電子カメラの動作モードの切替操作、後述する被写体追尾指示の操作などに用いられる。   The operation member 22 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 22 receives various inputs of the electronic camera from the user. For example, the operation member 22 is used for an input operation on the menu screen, an operation mode switching operation of the electronic camera, a subject tracking instruction operation described later, and the like.

以下、図4の流れ図を参照しつつ、一の実施形態における被写体追尾処理の動作例を説明する。この被写体追尾処理のときの電子カメラの動作は、CPU16が実行するプログラムによって制御される。   Hereinafter, an operation example of subject tracking processing in one embodiment will be described with reference to the flowchart of FIG. The operation of the electronic camera during the subject tracking process is controlled by a program executed by the CPU 16.

ここで、図4に示す被写体追尾処理の起動手順を説明する。まず、CPU16は、被写体追尾が可能である撮影モードの選択操作を受け付けると、撮像素子13を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。   Here, the starting procedure of the subject tracking process shown in FIG. 4 will be described. First, when receiving an operation for selecting a photographing mode in which subject tracking is possible, the CPU 16 drives the image sensor 13 to start capturing a through image. Thereafter, the through images are sequentially generated at predetermined intervals.

そして、CPU16は、スルー画像から生成されたビュー画像をモニタ20に動画表示させる。このとき、CPU16は、撮影画面内でのテンプレート生成範囲を示すガイドマーク(矩形の枠表示)をビュー画像に重畳させる(図5参照)。上記の枠表示は、CPU16の制御によって撮影画面の中央部に白色で表示される。上記の枠表示の中に追尾対象の被写体を収めた状態でユーザーが被写体追尾指示の操作(例えば、操作部材22の決定釦の押圧など)を実行すると、CPU16は以下に述べる被写体追尾処理を開始する。   Then, the CPU 16 displays the view image generated from the through image on the monitor 20 as a moving image. At this time, the CPU 16 superimposes a guide mark (rectangular frame display) indicating the template generation range in the shooting screen on the view image (see FIG. 5). The frame display is displayed in white at the center of the shooting screen under the control of the CPU 16. When the user performs a subject tracking instruction operation (for example, pressing of the determination button on the operation member 22) while the subject to be tracked is contained in the frame display, the CPU 16 starts subject tracking processing described below. To do.

ステップS101:撮像条件調整部25は、撮影画面の中央部(上記の枠表示の位置)を焦点検出エリアとしてAF制御を実行する。   Step S101: The imaging condition adjustment unit 25 executes AF control with the central portion of the shooting screen (the position of the frame display) as a focus detection area.

なお、S101のAF制御でフォーカスレンズの合焦位置が検出できない場合、CPU16は、テンプレート生成範囲(枠表示に対応する範囲)の被写体が非合焦状態である旨の表示を行うとともに、被写体追尾処理を中止する。非合焦状態の場合には、テンプレート生成範囲のスルー画像から電子カメラが適正なテンプレートを生成できないからである。   When the focus position of the focus lens cannot be detected by the AF control in S101, the CPU 16 displays that the subject in the template generation range (the range corresponding to the frame display) is out of focus, and performs subject tracking. Cancel processing. This is because in the out-of-focus state, the electronic camera cannot generate an appropriate template from the through image in the template generation range.

ステップS102:テンプレート管理部26は、AF後に撮像されたスルー画像を用いて追尾対象のテンプレートを生成する。   Step S102: The template management unit 26 generates a tracking target template using a through image captured after AF.

一例として、テンプレート管理部26は、上記のスルー画像のうちからテンプレート生成範囲の部分画像を切り出す。そして、テンプレート管理部26は、部分画像の輝度成分を参照して追尾対象の輝度情報(Y)のテンプレートを生成するとともに、部分画像の色差成分を参照して追尾対象の色差情報(Cb,Cr)のテンプレートをそれぞれ生成する。なお、上記の各テンプレートのデータは、CPU16によって第2メモリ18に記録される。   As an example, the template management unit 26 cuts out a partial image in the template generation range from the above through images. Then, the template management unit 26 generates a template of luminance information (Y) to be tracked with reference to the luminance component of the partial image, and also refers to the color difference information (Cb, Cr) of the tracking target with reference to the color difference component of the partial image. ) Templates are generated. Note that the data of each template is recorded in the second memory 18 by the CPU 16.

ステップS103:CPU16は、テンプレートの生成に用いたスルー画像の撮像時点における姿勢センサ15の出力に基づいて、撮像光学系11の光軸を回転中心とする撮影画面の傾きθ1を求める。その後、CPU16は、撮影画面の傾きθ1のデータを第2メモリ18に記録する。 Step S103: The CPU 16 obtains the inclination θ 1 of the imaging screen with the optical axis of the imaging optical system 11 as the rotation center based on the output of the orientation sensor 15 at the time of imaging the through image used for generating the template. Thereafter, the CPU 16 records data of the inclination θ 1 of the shooting screen in the second memory 18.

ここで、S103でのCPU16は、以下の式(1)によって、姿勢センサ15のX軸の出力値(X),Y軸の出力値(Y),Z軸の出力値(Z)を用いて撮影画面の傾きθ1を演算する。 Here, the CPU 16 in S103 uses the X-axis output value (X), the Y-axis output value (Y), and the Z-axis output value (Z) of the attitude sensor 15 by the following equation (1). The inclination θ 1 of the shooting screen is calculated.

Figure 2009225248
なお、S102およびS103の処理が終了すると、被写体追尾部27は上記のテンプレートを用いて被写体追尾処理を開始する。このとき、CPU16は、被写体追尾の実行状態を示す表示(被写体追尾マーク)をモニタ20に出力する。一例として、CPU16は、図5に示すガイドマークの表示色を白色から黄色に変更する。これにより、ユーザーはテンプレートの生成完了と、被写体追尾が開始されたこととをモニタ20で確認できる。
Figure 2009225248
When the processes of S102 and S103 are completed, the subject tracking unit 27 starts the subject tracking process using the template. At this time, the CPU 16 outputs a display (subject tracking mark) indicating the subject tracking execution state to the monitor 20. As an example, the CPU 16 changes the display color of the guide mark shown in FIG. 5 from white to yellow. As a result, the user can confirm on the monitor 20 that the template generation has been completed and subject tracking has started.

ステップS104:CPU16は、スルー画像のうちで被写体追尾の判定を行う判定フレームが撮像されたか否かを判定する。判定フレームが撮像された場合(YES側)にはS105に移行する。一方、判定フレームが撮像されていない場合(NO側)には、CPU16は判定フレームの撮像を待機する。   Step S104: The CPU 16 determines whether or not a determination frame for determining subject tracking is captured in the through image. When the determination frame is captured (YES side), the process proceeds to S105. On the other hand, when the determination frame is not captured (NO side), the CPU 16 waits for the determination frame to be captured.

ステップS105:CPU16は、判定フレーム(S104)の撮像時点における姿勢センサ15の出力に基づいて、撮像光学系11の光軸を回転中心とする撮影画面の傾きθ2を求める。なお、S105でのθ2の演算はS103と同様であるので重複説明を省略する。 Step S105: The CPU 16 obtains the inclination θ 2 of the photographing screen around the optical axis of the imaging optical system 11 based on the output of the attitude sensor 15 at the time of imaging of the determination frame (S104). Note that the calculation of θ 2 in S105 is the same as that in S103, and therefore redundant description is omitted.

ステップS106:CPU16は、テンプレート取得時から判定フレームの撮像時までの撮影画面の傾きの変化量Δθを求める。具体的には、CPU16は、S103で求めたθ1とS105で求めたθ2との差分をとって、撮影画面の傾きの変化量Δθを演算する(Δθ=θ1−θ2)。 Step S106: The CPU 16 obtains the change amount Δθ of the inclination of the shooting screen from the time of template acquisition to the time of shooting of the determination frame. Specifically, the CPU 16 calculates the amount of change Δθ in the inclination of the shooting screen by taking the difference between θ 1 obtained in S103 and θ 2 obtained in S105 (Δθ = θ 1 −θ 2 ).

ステップS107:テンプレート管理部26は、撮影画面の傾きの変化の大きさに応じて、撮影画面に対するテンプレートの回転量が大きくなるようにテンプレートの向きを調整する。なお、S107でのテンプレート管理部26は、Y,Cb,Crの各テンプレートの向きをいずれも同様に調整する。   Step S107: The template management unit 26 adjusts the orientation of the template so that the amount of rotation of the template with respect to the shooting screen increases according to the magnitude of the change in the tilt of the shooting screen. Note that the template management unit 26 in S107 similarly adjusts the orientations of the Y, Cb, and Cr templates.

例えば、テンプレート管理部26は、公知の幾何学的変換処理によって、第2メモリ18から読み出したテンプレートを変化量Δθ(S106)に応じて回転させる。このとき、テンプレート管理部26は、必要に応じてテンプレートの再標本化処理および補間処理も実行する。これにより、撮影画面の傾きの変化量Δθに応じて回転補正されたテンプレートが生成される(図6参照)。   For example, the template management unit 26 rotates the template read from the second memory 18 according to the change amount Δθ (S106) by a known geometric conversion process. At this time, the template management unit 26 also executes a template re-sampling process and an interpolation process as necessary. As a result, a template whose rotation is corrected in accordance with the change amount Δθ of the inclination of the shooting screen is generated (see FIG. 6).

ステップS108:被写体追尾部27は、判定フレーム(S105)に含まれる被写体と、回転補正後のテンプレート(S107)との類似度を求めるマッチング処理を実行する。上記のマッチング処理は、判定フレームのうちの部分領域(探索エリア)に含まれる被写体を対象として行われる。また、上記の探索エリアの位置は、例えば、前回の判定時に撮影画面上で追尾対象を検出できた位置(初回の判定のときは撮影画面の中央部)を中心として設定されるものとする(図5参照)。   Step S108: The subject tracking unit 27 executes a matching process for obtaining a similarity between the subject included in the determination frame (S105) and the template after rotation correction (S107). The matching process is performed on a subject included in a partial region (search area) of the determination frame. Further, the position of the search area is set, for example, centering on the position where the tracking target can be detected on the shooting screen at the previous determination (the center of the shooting screen at the first determination) ( (See FIG. 5).

そして、S108のマッチング処理では、被写体追尾部27は、以下の(イ)から(ハ)の処理を実行する。なお、以下の各処理は、各テンプレートごとにそれぞれ行われるものとする。   In the matching process of S108, the subject tracking unit 27 executes the following processes (A) to (C). Note that the following processing is performed for each template.

(イ)被写体追尾部27は、判定フレームのうちから、テンプレートとのマッチングを行う対象領域を決定する。この対象領域のサイズは、回転補正後のテンプレートと同じサイズに設定される。   (A) The subject tracking unit 27 determines a target area to be matched with the template from the determination frame. The size of this target area is set to the same size as the template after rotation correction.

(ロ)次に、被写体追尾部27は、上記(イ)で設定された対象領域の画像と、回転補正後のテンプレートとでそれぞれ対応位置にある注目画素間の階調差を求める。そして、被写体追尾部27は、上記の対象領域での類似度を以下の式(2)で求める。なお、類似度の値は、被写体追尾部27によって第2メモリ18に記録される。   (B) Next, the subject tracking unit 27 obtains a gradation difference between target pixels at corresponding positions in the image of the target area set in (a) and the template after rotation correction. Then, the subject tracking unit 27 calculates the similarity in the above target area by the following equation (2). The similarity value is recorded in the second memory 18 by the subject tracking unit 27.

Figure 2009225248
ここで、式(2)において、I1はテンプレートに対応し、I2は対象領域の画像に対応する。そして、I1およびI2の注目画素は、テンプレートおよび対象領域の画像でそれぞれ対応位置にある画素を示す。また、式(2)では、テンプレートおよび判定フレームでの階調がともに8bit(0〜255の階調値)であることを前提とする。なお、上記の類似度の単位は%である。すなわち、上記の式(2)では、対応画素の階調差の絶対値を合計して類似度を求めている。そして、式(2)では、階調差の絶対値の総和が大きくなるほど類似度の値が小さくなる。
Figure 2009225248
Here, in Expression (2), I 1 corresponds to a template, and I 2 corresponds to an image of the target area. The target pixels of I 1 and I 2 indicate pixels at corresponding positions in the template and the image of the target area, respectively. Further, in the expression (2), it is assumed that the gradation in the template and the determination frame is 8 bits (gradation value of 0 to 255). Note that the unit of similarity is%. That is, in the above equation (2), the absolute value of the gradation difference of the corresponding pixels is summed to obtain the similarity. In equation (2), the similarity value decreases as the sum of the absolute values of the gradation differences increases.

(ハ)被写体追尾部27は、対象領域をシフトさせて上記(ロ)の処理を繰り返す。これにより、被写体追尾部27は、判定フレームの各位置でテンプレートとの類似度をそれぞれ求める。   (C) The subject tracking unit 27 shifts the target area and repeats the process (B). Thereby, the subject tracking unit 27 obtains the similarity to the template at each position of the determination frame.

ステップS109:被写体追尾部27は、追尾対象をロストしたか否かを判定する。具体的には、被写体追尾部27は、マッチング処理(S108)で求めた類似度がいずれもロスト状態を示す判定閾値未満であるか否かを判定する。上記要件を満たす場合(YES側)にはS118に移行する。なお、この場合(S109のYES側)には、CPU16は、追尾対象のロストを示すエラー表示をモニタ20に出力するようにしてもよい。一方、上記要件を満たさない場合(NO側)にはS110に移行する。   Step S109: The subject tracking unit 27 determines whether or not the tracking target has been lost. Specifically, the subject tracking unit 27 determines whether all the similarities obtained in the matching process (S108) are less than a determination threshold value indicating a lost state. If the above requirement is satisfied (YES side), the process proceeds to S118. In this case (YES side of S109), the CPU 16 may output an error display indicating the tracking target lost to the monitor 20. On the other hand, when the above requirement is not satisfied (NO side), the process proceeds to S110.

ステップS110:CPU16は、被写体追尾処理の停止操作を受け付けたか否かを判定する。被写体追尾処理の停止操作があった場合(YES側)にはS118に移行する。一方、被写体追尾処理の停止操作がない場合(NO側)にはS111に移行する。   Step S110: The CPU 16 determines whether or not a subject tracking process stop operation has been accepted. When the subject tracking process is stopped (YES side), the process proceeds to S118. On the other hand, when there is no operation for stopping the subject tracking process (NO side), the process proceeds to S111.

ステップS111:被写体追尾部27は、S108で求めた類似度の最大値(最大類似度)を抽出する。そして、被写体追尾部27は、判定フレーム内で最大類似度を示す対象領域の位置を追尾対象の位置として決定する。   Step S111: The subject tracking unit 27 extracts the maximum value (maximum similarity) of the similarity obtained in S108. Then, the subject tracking unit 27 determines the position of the target area indicating the maximum similarity in the determination frame as the tracking target position.

そして、被写体追尾部27は、この追尾対象の位置に合わせて、ビュー画像に重畳する被写体追尾マークの表示位置を更新する。その結果、モニタ20上での枠表示の位置は追尾対象の被写体の動きに追従してシフトすることとなる。これにより、ユーザーは追尾対象の検出結果をモニタ20で確認できる。   Then, the subject tracking unit 27 updates the display position of the subject tracking mark superimposed on the view image in accordance with the position of the tracking target. As a result, the position of the frame display on the monitor 20 shifts following the movement of the subject to be tracked. As a result, the user can check the detection result of the tracking target on the monitor 20.

また、被写体追尾部27は、追尾対象の検出位置(S111で決定したもの)を第2メモリ18に記録する。なお、被写体追尾部27は、追尾対象の検出を行うごとに、第2メモリ18に記憶された追尾対象の検出位置のデータを逐次更新してゆく。   In addition, the subject tracking unit 27 records the detection position of the tracking target (determined in S111) in the second memory 18. The subject tracking unit 27 sequentially updates the data of the detection position of the tracking target stored in the second memory 18 every time the tracking target is detected.

ステップS112:焦点調節部41は、追尾対象の被写体の位置(S111)を焦点検出エリアに設定してAF制御を実行する。   Step S112: The focus adjustment unit 41 sets the position of the subject to be tracked (S111) as a focus detection area and executes AF control.

ステップS113:CPU16は、レリーズ釦21が半押しされたか否かを判定する。レリーズ釦21が半押しされた場合(YES側)にはS114に移行する。一方、レリーズ釦21が半押しされていない場合(NO側)には、CPU16はS104に戻って上記動作を繰り返す。   Step S113: The CPU 16 determines whether or not the release button 21 is half-pressed. When the release button 21 is half-pressed (YES side), the process proceeds to S114. On the other hand, when the release button 21 is not half-pressed (NO side), the CPU 16 returns to S104 and repeats the above operation.

ステップS114:CPU16は、被写体追尾部27による被写体の追尾を一時停止させる。そして、撮像条件調整部25は、被写体追尾処理で最後に検出された追尾対象の位置(第2メモリ18に記憶されている追尾対象の検出位置)を焦点検出エリアとしてAF制御を実行する。その後、撮像条件調整部25は、本画像の撮像が行われるか、あるいはレリーズ釦21の半押し操作が解除されるまでAF制御を停止してフォーカスレンズの焦点位置を固定する。   Step S114: The CPU 16 temporarily stops the tracking of the subject by the subject tracking unit 27. Then, the imaging condition adjustment unit 25 performs AF control using the position of the tracking target last detected in the subject tracking process (the detection position of the tracking target stored in the second memory 18) as a focus detection area. Thereafter, the imaging condition adjustment unit 25 stops the AF control and fixes the focus position of the focus lens until the actual image is captured or the half-press operation of the release button 21 is released.

なお、S114での撮像条件調整部25は、追尾対象の位置を基準としてスポット測光によるAE演算を実行してもよい。   Note that the imaging condition adjustment unit 25 in S114 may execute AE calculation by spot photometry with the position of the tracking target as a reference.

ステップS115:CPU16は、レリーズ釦21の半押しが解除されたか否かを判定する。レリーズ釦21の半押しが解除された場合(YES側)には、CPU16はS104に戻って被写体の追尾を再開する。一方、レリーズ釦21の半押しが継続している場合(NO側)にはS116に移行する。   Step S115: The CPU 16 determines whether or not the half-press of the release button 21 has been released. When the half-press of the release button 21 is released (YES side), the CPU 16 returns to S104 and resumes tracking of the subject. On the other hand, when the half-press of the release button 21 is continued (NO side), the process proceeds to S116.

ステップS116:CPU16は、レリーズ釦21が全押しされたか否かを判定する。レリーズ釦21が全押しされた場合(YES側)にはS117に移行する。一方、レリーズ釦21が全押しされていない場合(NO側)には、CPU16はS115に戻って上記動作を繰り返す。   Step S116: The CPU 16 determines whether or not the release button 21 is fully pressed. When the release button 21 is fully pressed (YES side), the process proceeds to S117. On the other hand, when the release button 21 is not fully pressed (NO side), the CPU 16 returns to S115 and repeats the above operation.

ステップS117:CPU16は、撮像素子13を駆動させて本画像の撮像処理を実行する。本画像のデータは、AFE14および画像処理部24で所定の処理が施された後に、記録I/F19を介して記憶媒体28に記録される。   Step S117: The CPU 16 drives the image pickup device 13 to execute an image pickup process for the main image. The data of the main image is recorded in the storage medium 28 via the recording I / F 19 after predetermined processing is performed by the AFE 14 and the image processing unit 24.

ステップS118:CPU16は、追尾終了の処理を実行する。例えば、CPU16は、第2メモリ18に記憶されている被写体追尾処理の各種データ(テンプレートのデータ、追尾対象の検出位置のデータおよび撮影画面の傾きのデータ)を初期化する。そして、CPU16は、ビュー画像の被写体追尾マークを消灯して一連の処理を終了する。以上で、図4の流れ図の説明を終了する。   Step S118: The CPU 16 executes a tracking end process. For example, the CPU 16 initializes various types of subject tracking processing data (template data, tracking target detection position data, and shooting screen tilt data) stored in the second memory 18. Then, the CPU 16 turns off the subject tracking mark of the view image and ends the series of processes. Above, description of the flowchart of FIG. 4 is complete | finished.

以下、一の実施形態での作用効果を述べる。一の実施形態の電子カメラは、撮影画面の傾きの変化に合わせてテンプレートを回転させるとともに、回転補正後のテンプレートを適用して追尾対象の被写体を検出する(S107、S108)。したがって、図6に示すように、テンプレートの生成時点(図6のT1)と判定フレームの撮像時(図6のT2)とで撮影画面の傾きが異なる場合でも、撮影画面の傾きの変化に応じてテンプレートの向きが調整されるので、追尾対象を高い精度で検出できる。   Hereinafter, the operational effects of the embodiment will be described. The electronic camera of one embodiment detects the subject to be tracked by rotating the template in accordance with the change in the tilt of the shooting screen and applying the template after the rotation correction (S107, S108). Therefore, as shown in FIG. 6, even when the tilt of the shooting screen is different between the template generation time (T1 in FIG. 6) and the time when the determination frame is shot (T2 in FIG. 6), Since the orientation of the template is adjusted, the tracking target can be detected with high accuracy.

<他の実施形態の説明>
図7は、他の実施形態における被写体追尾処理の動作例の流れ図である。ここで、図7のS201からS212の処理は、図4のS101からS112の処理にそれぞれ対応する。また、図7のS215からS220の処理は、図4のS113からS118の処理にそれぞれ対応する。そのため、他の実施形態では、上記の処理に関する重複説明は省略する。なお、他の実施形態における電子カメラの構成は、図1と共通するので重複説明は省略する。
<Description of other embodiments>
FIG. 7 is a flowchart of an operation example of subject tracking processing in another embodiment. Here, the processing from S201 to S212 in FIG. 7 corresponds to the processing from S101 to S112 in FIG. 4, respectively. Also, the processing from S215 to S220 in FIG. 7 corresponds to the processing from S113 to S118 in FIG. 4, respectively. For this reason, in other embodiments, a duplicate description regarding the above processing is omitted. In addition, since the structure of the electronic camera in other embodiment is common in FIG. 1, duplication description is abbreviate | omitted.

ステップS213:テンプレート管理部26は、判定フレーム(S204)から切り出した追尾対象の検出位置の画像を用いて追尾対象のテンプレートを更新する。このとき、テンプレート管理部26は、すべてのテンプレート(Y,Cb,Cr)を生成する。また、更新後の各テンプレートのデータは、CPU16によってそれぞれ第2メモリ18に記録される。   Step S213: The template management unit 26 updates the tracking target template using the image of the tracking target detection position cut out from the determination frame (S204). At this time, the template management unit 26 generates all templates (Y, Cb, Cr). The updated data of each template is recorded in the second memory 18 by the CPU 16.

ステップS214:CPU16は、第2メモリ18に記憶されているθ1の値を、判定フレームの撮像時点のθ2の値(S205で求めたもの)に書き換える。これにより、次の判定フレームでは、テンプレート更新時からの撮影画面の傾きの変化量がCPU16によって演算されることとなる。以上で、図7の説明を終了する。 Step S214: The CPU 16 rewrites the value of θ 1 stored in the second memory 18 to the value of θ 2 at the time of imaging of the determination frame (obtained in S205). As a result, in the next determination frame, the CPU 16 calculates the amount of change in the tilt of the shooting screen since the template was updated. Above, description of FIG. 7 is complete | finished.

他の実施形態の電子カメラでは、回転補正後のテンプレートを用いて追尾対象の検出に成功したときにテンプレートが順次更新される(S213)。そのため、被写体追尾処理のときに追尾対象の形状や明るさなどが緩やかに変化する場合にも、電子カメラが被写体追尾処理を精度よく行うことが可能となる。   In the electronic camera according to another embodiment, the template is sequentially updated when the tracking target is successfully detected using the rotation-corrected template (S213). Therefore, even when the shape or brightness of the tracking target changes gently during the subject tracking process, the electronic camera can accurately perform the subject tracking process.

<実施形態の補足事項>
(1)本発明の姿勢センサ15の構成は上記実施形態の例に限定されない。例えば、撮像光学系11の光軸に対して直交する2軸(図2のX軸,Z軸)の出力を検出する2軸加速度センサを適用して、CPU16が撮影画面の傾きを求めるようにしてもよい。
<Supplementary items of the embodiment>
(1) The configuration of the posture sensor 15 of the present invention is not limited to the example of the above embodiment. For example, a biaxial acceleration sensor that detects the output of two axes (X axis and Z axis in FIG. 2) orthogonal to the optical axis of the imaging optical system 11 is applied so that the CPU 16 obtains the tilt of the shooting screen. May be.

(2)上記の一の実施形態において、電子カメラは、本画像を撮像した後(S117)にS104に戻って被写体追尾処理を継続してもよい。また、上記の一の実施形態において、電子カメラは、レリーズ釦21の半押しを解除したとき(S115のYES側)に被写体追尾処理を終了させてもよい。   (2) In the one embodiment described above, the electronic camera may return to S104 and continue the subject tracking process after capturing the main image (S117). In the above-described embodiment, the electronic camera may end the subject tracking process when the half-press of the release button 21 is released (YES side of S115).

(3)上記実施形態では、追尾対象の輝度情報および色差情報のテンプレートをそれぞれ生成する例を説明した。しかし、上記実施形態はあくまで一例にすぎず、本発明の撮像装置では、上記の輝度情報、色差情報のテンプレートのいずれかを選択的に生成するものでもよい。また、被写体追尾部27は、例えば、画像のRGBの階調値、画像の輪郭成分または画像のコントラスト比の情報などを用いて、スルー画像から追尾対象を検出してもよい。   (3) In the above-described embodiment, the example in which the luminance information and color difference information templates to be tracked are generated has been described. However, the above embodiment is merely an example, and the imaging apparatus according to the present invention may selectively generate one of the above-described templates of luminance information and color difference information. In addition, the subject tracking unit 27 may detect the tracking target from the through image using, for example, information on the RGB gradation values of the image, the contour component of the image, or the contrast ratio of the image.

(4)上記実施形態では、画像処理部24、撮像条件調整部25、テンプレート管理部26、被写体追尾部27の各機能をプログラムによってソフトウエア的に実現する例を説明したが、これらの一部または全部の構成をハードウエア的に実現してもよい。   (4) In the above embodiment, an example has been described in which the functions of the image processing unit 24, the imaging condition adjustment unit 25, the template management unit 26, and the subject tracking unit 27 are realized by software. Alternatively, the entire configuration may be realized by hardware.

(5)上記実施形態において、テンプレートのデータ、類似度の値のデータ、追尾対象の検出位置のデータ、撮影画面の傾きのデータは、それぞれ第1メモリ17に記憶される構成であってもよい。   (5) In the above-described embodiment, the template data, the similarity value data, the tracking target detection position data, and the shooting screen tilt data may be stored in the first memory 17, respectively. .

(6)上記実施形態では、コンパクト型の電子カメラでの構成例を説明した。しかし、本発明の撮像装置は、レンズ交換可能な一眼レフレックス型の電子カメラにも適用することが可能である。なお、本発明を一眼レフレックス型の電子カメラに適用する場合には、本画像を撮像する撮像素子13でスルー画像を撮像してもよく、また、本画像を撮像する撮像素子13とは別にスルー画像を撮像するための撮像素子を設けてもよい。また、本発明の撮像装置は、例えば、携帯電話などの電子機器に内蔵されるカメラモジュールに適用することも可能である。   (6) In the above embodiment, the configuration example of the compact electronic camera has been described. However, the imaging apparatus of the present invention can also be applied to a single-lens reflex type electronic camera with interchangeable lenses. When the present invention is applied to a single-lens reflex type electronic camera, a through image may be picked up by the image pickup device 13 for picking up the main image, and separately from the image pickup device 13 for picking up the main image. You may provide the image pick-up element for imaging a through image. The imaging device of the present invention can also be applied to a camera module built in an electronic device such as a mobile phone.

(7)上記実施形態および変形例の構成はあくまで一例にすぎない。そのため、本発明の撮像装置を実施するときには、上述の実施形態および補足事項に示す構成やその処理の順序についてあらゆる組み合わせをとることができる。   (7) The configurations of the above embodiment and the modification are merely examples. Therefore, when implementing the imaging apparatus of the present invention, all combinations of the configurations shown in the above-described embodiments and supplementary items and the order of the processing can be taken.

なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

一の実施形態の電子カメラの概略構成を説明するブロック図1 is a block diagram illustrating a schematic configuration of an electronic camera according to an embodiment. 姿勢センサにおける3軸の向きの設定例を示す図The figure which shows the example of a setting of direction of 3 axes | shafts in an attitude | position sensor (a)Y軸を回転中心として電子カメラを正位置から傾けた状態の姿勢センサの出力例を示す模式図、(b)X軸を回転中心として電子カメラを正位置から傾けた状態の姿勢センサの出力例を示す模式図(A) Schematic diagram showing an output example of a posture sensor in a state where the electronic camera is tilted from the normal position with the Y axis as the rotation center, (b) posture sensor in a state where the electronic camera is tilted from the normal position with the X axis as the rotation center Schematic diagram showing an output example 一の実施形態における被写体追尾処理の動作例の流れ図Flow chart of an example of subject tracking processing in one embodiment ガイドマークの重畳されたビュー画像の表示例を示す図The figure which shows the example of a display of the view image on which the guide mark was superimposed 撮影画面の傾きの変化とテンプレートの回転との関係を示す模式図Schematic diagram showing the relationship between the change in the tilt of the shooting screen and the rotation of the template 他の実施形態における被写体追尾処理の動作例の流れ図Flow chart of an operation example of subject tracking processing in another embodiment

符号の説明Explanation of symbols

11…撮像光学系、13…撮像素子、15…姿勢センサ、16…CPU、18…第2メモリ、24…画像処理部、26…テンプレート管理部、27…被写体追尾部
DESCRIPTION OF SYMBOLS 11 ... Imaging optical system, 13 ... Image sensor, 15 ... Attitude sensor, 16 ... CPU, 18 ... 2nd memory, 24 ... Image processing part, 26 ... Template management part, 27 ... Subject tracking part

Claims (3)

撮像光学系を介して撮影画面内の被写体像を撮像する撮像部と、
追尾対象の特徴を示すテンプレートを記憶するメモリと、
前記撮像光学系の光軸を回転中心として前記撮影画面の傾きを検出する姿勢センサと、
前記撮影画面の傾きの変化の大きさに応じて、前記撮影画面に対する前記テンプレートの回転量が大きくなるように前記テンプレートの向きを調整する制御部と、
前記調整後のテンプレートを用いて、前記追尾対象の被写体を前記撮影画面から継続的に検出する被写体追尾部と、
を備えることを特徴とする撮像装置。
An imaging unit that captures a subject image in a shooting screen via an imaging optical system;
A memory for storing a template indicating the characteristics of the tracking target;
An attitude sensor that detects an inclination of the shooting screen with the optical axis of the imaging optical system as a rotation center;
A control unit that adjusts the orientation of the template so that the amount of rotation of the template with respect to the shooting screen increases according to the magnitude of the change in the inclination of the shooting screen;
A subject tracking unit that continuously detects the subject to be tracked from the shooting screen using the template after adjustment;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記姿勢センサは、重力方向に対する前記撮像光学系の光軸の傾きを検出可能な加速度センサであることを特徴とする撮像装置。
The imaging device according to claim 1,
The imaging apparatus according to claim 1, wherein the posture sensor is an acceleration sensor capable of detecting an inclination of an optical axis of the imaging optical system with respect to a direction of gravity.
請求項1または請求項2に記載の撮像装置において、
前記制御部は、前記調整後のテンプレートを用いて前記追尾対象の被写体を検出できたときに、該検出時の前記撮像部の出力に基づいて前記テンプレートを更新することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The control device updates the template based on an output of the imaging unit at the time of detection when the subject to be tracked can be detected using the adjusted template.
JP2008069210A 2008-03-18 2008-03-18 Imaging apparatus Withdrawn JP2009225248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008069210A JP2009225248A (en) 2008-03-18 2008-03-18 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008069210A JP2009225248A (en) 2008-03-18 2008-03-18 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009225248A true JP2009225248A (en) 2009-10-01

Family

ID=41241536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008069210A Withdrawn JP2009225248A (en) 2008-03-18 2008-03-18 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009225248A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014527655A (en) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft Pedestrian gait recognition method and device for portable terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014527655A (en) * 2011-07-14 2014-10-16 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフトBayerische Motoren Werke Aktiengesellschaft Pedestrian gait recognition method and device for portable terminal

Similar Documents

Publication Publication Date Title
JP4218720B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
US7403710B2 (en) Image processing apparatus and image processing method
KR101370145B1 (en) Image recovery apparatus, camera, and program
JP5054063B2 (en) Electronic camera, image processing apparatus, and image processing method
JP6418879B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP5115210B2 (en) Imaging device
JP2020095069A (en) Imaging device
JP2019186911A (en) Image processing apparatus, image processing method, and imaging apparatus
US20140071302A1 (en) Processing apparatus, processing method, and program
JP6212991B2 (en) Image processing apparatus, imaging apparatus, and program
JP5217451B2 (en) Imaging device
JP7158841B2 (en) Imaging device, imaging method, program, recording medium, and image processing device
JP2008288797A (en) Imaging apparatus
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5067047B2 (en) Imaging device
JP2018007272A (en) Image processing apparatus, imaging apparatus, and program
JP6226731B2 (en) Imaging apparatus, control method, and program
JP2007259004A (en) Digital camera, image processor, and image processing program
JP5062095B2 (en) Imaging device
JP2015230515A (en) Subject tracking device and camera
JP2009225248A (en) Imaging apparatus
JP2008187332A (en) Image tracking device and image pickup device
JP4810440B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6645690B2 (en) Automatic focus adjustment device, imaging device, and automatic focus adjustment method
JP2013128165A (en) Imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607