JP5040669B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5040669B2
JP5040669B2 JP2008007102A JP2008007102A JP5040669B2 JP 5040669 B2 JP5040669 B2 JP 5040669B2 JP 2008007102 A JP2008007102 A JP 2008007102A JP 2008007102 A JP2008007102 A JP 2008007102A JP 5040669 B2 JP5040669 B2 JP 5040669B2
Authority
JP
Japan
Prior art keywords
image
subject
tracking
subject tracking
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008007102A
Other languages
Japanese (ja)
Other versions
JP2009171233A5 (en
JP2009171233A (en
Inventor
敏行 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008007102A priority Critical patent/JP5040669B2/en
Publication of JP2009171233A publication Critical patent/JP2009171233A/en
Publication of JP2009171233A5 publication Critical patent/JP2009171233A5/ja
Application granted granted Critical
Publication of JP5040669B2 publication Critical patent/JP5040669B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、被写体の追尾機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having a subject tracking function.

従来から、動きのある主要被写体に追従してフォーカス調整や露光条件の演算などを行うために、被写体追尾機能を備えた撮像装置が種々提案されている。一例として、特許文献1には、入力画像に対してテンプレートマッチング処理を施して被写体追尾を行う撮像装置が開示されている。
特開2001−60269号公報
Conventionally, various imaging apparatuses having a subject tracking function have been proposed in order to perform focus adjustment, calculation of exposure conditions, and the like following a moving main subject. As an example, Patent Document 1 discloses an imaging apparatus that performs subject tracking by performing template matching processing on an input image.
JP 2001-60269 A

ところで、被写体の追尾機能を有するとともに、静止画撮影を行う撮像装置では、全押し操作によって静止画の撮像タイミングを指示するレリーズ釦を半押しすることで、被写体追尾動作が行われる。そのため、半押し操作で被写体追尾動作を行っているときに誤って全押し操作が行われる可能性も高く、誤操作によってユーザーの意図しないタイミングで静止画が撮像され易い点で改善の余地があった。   By the way, in an imaging apparatus that has a subject tracking function and performs still image shooting, the subject tracking operation is performed by half-pressing a release button that indicates the still image capturing timing by a full press operation. For this reason, there is a high possibility that the full-pressing operation will be mistakenly performed when the subject tracking operation is performed by a half-pressing operation, and there is room for improvement in that it is easy to capture a still image at a timing not intended by the user due to the erroneous operation .

また、上述した撮像装置では、静止画の撮像指示の操作と被写体追尾動作の操作とが同じ操作部材に割り当てられている。そのため、追尾中の被写体をロストした状態や撮影モードを切り替えた状態において撮像装置の操作が複雑になり、ユーザーが混乱をきたすおそれもある。   In the above-described imaging device, the operation for instructing the imaging of a still image and the operation for subject tracking are assigned to the same operation member. Therefore, the operation of the imaging apparatus becomes complicated in a state where the subject being tracked is lost or the shooting mode is switched, and the user may be confused.

そこで、本発明は、被写体の追尾機能を有する撮像装置において、被写体追尾時の操作性をより向上させる手段を提供することを目的とする。   Therefore, an object of the present invention is to provide means for further improving the operability during subject tracking in an imaging apparatus having a subject tracking function.

一の形態の撮像装置は、撮像部と、メモリと、被写体追尾部と、画像を表示するモニタと、筐体と、第1操作部材と、第2操作部材とを備える。撮像部は、被写体像を撮像して画像のデータを生成する。メモリは、追尾対象の特徴を示すテンプレートを記憶する。被写体追尾部は、テンプレートを用いて、追尾対象の被写体を画像から継続的に検出する。筐体は、撮像部、メモリ被写体追尾部およびモニタを収納する。第1操作部材は、筐体の外面に配置されるとともに、撮像部に記録用の静止画像を撮像させる撮像指示を受け付ける。第2操作部材は、第1操作部材とは独立して筐体の外面に配置されるとともに、被写体追尾部に追尾対象の検出を開始させる追尾開始操作を受け付ける。モニタは、筐体の一方の側面側に寄せて配置され、第1部材および第2部材は、モニタの位置よりも筐体の他方の側面側に寄せて配置される。また、被写体追尾部は、追尾開始操作があった後に第2操作部材での追尾開始操作が継続して行われていないときも追尾対象の検出を継続し、第2操作部材による追尾開始操作の後にさらに第2操作部材からの入力を受け付けたときに追尾対象の検出を終了する。 An imaging apparatus according to one aspect includes an imaging unit, a memory, a subject tracking unit, a monitor that displays an image, a housing, a first operation member, and a second operation member. The imaging unit captures a subject image and generates image data. The memory stores a template indicating the characteristics of the tracking target. The subject tracking unit uses the template to continuously detect the tracking target subject from the image. The housing houses an imaging unit, a memory , a subject tracking unit, and a monitor . The first operation member is disposed on the outer surface of the housing and receives an imaging instruction for causing the imaging unit to capture a still image for recording. The second operation member is disposed on the outer surface of the housing independently of the first operation member, and accepts a tracking start operation for causing the subject tracking unit to start detection of the tracking target. The monitor is disposed close to one side surface of the housing, and the first member and the second member are disposed close to the other side surface of the housing from the position of the monitor. Further, the subject tracking unit continues to detect the tracking target even when the tracking start operation by the second operation member is not continuously performed after the tracking start operation is performed, and the tracking start operation by the second operation member is performed. When the input from the second operation member is further received later, the detection of the tracking target is ended.

本発明では、撮像の指示を受け付ける第1操作部材とは別の第2操作部材によって追尾対象の検出を開始させる操作を受け付ける。これにより、被写体の追尾機能を有する撮像装置において被写体追尾時の操作性がより向上する。   In the present invention, an operation for starting detection of a tracking target is received by a second operating member different from the first operating member that receives an imaging instruction. Thereby, the operability at the time of subject tracking is further improved in an imaging apparatus having a subject tracking function.

<電子カメラの構成の説明>
図1は本実施形態の電子カメラの構成を説明するブロック図である。また、図2は、本実施形態の電子カメラの背面側外観図である。ここで、本実施形態の電子カメラは、撮影モードの一つとして、被写体追尾モードを有している。なお、被写体追尾モードでは、時系列に取得される複数の画像から追尾対象の被写体を電子カメラが継続的に検出することができる。なお、上記の被写体追尾モードは、例えば、子供の撮影に適したキッズモードなどの一機能として電子カメラに実装されるものであってもよい。
<Description of the configuration of the electronic camera>
FIG. 1 is a block diagram illustrating the configuration of the electronic camera of this embodiment. FIG. 2 is an external view of the back side of the electronic camera of this embodiment. Here, the electronic camera of the present embodiment has a subject tracking mode as one of the shooting modes. In the subject tracking mode, the electronic camera can continuously detect the subject to be tracked from a plurality of images acquired in time series. Note that the subject tracking mode described above may be implemented in an electronic camera as one function such as a kids mode suitable for photographing children.

電子カメラは、撮像光学系11およびレンズ駆動部12と、絞り13および絞り駆動部14と、撮像素子15と、AFE16と、画像処理部17と、第1メモリ18と、記録I/F(インターフェース)19と、モニタ20と、操作部材21と、振動センサ22と、CPU23と、第2メモリ24と、バス25とを有している。   The electronic camera includes an imaging optical system 11 and a lens driving unit 12, an aperture 13 and an aperture driving unit 14, an imaging device 15, an AFE 16, an image processing unit 17, a first memory 18, and a recording I / F (interface). ) 19, a monitor 20, an operation member 21, a vibration sensor 22, a CPU 23, a second memory 24, and a bus 25.

ここで、上記の構成部品は、全体形状が薄箱状の筐体26に格納されている。また、画像処理部17、第1メモリ18、記録I/F19、モニタ20、CPU23および第2メモリ24は、バス25を介してそれぞれ接続されている。さらに、レンズ駆動部12、絞り駆動部14、撮像素子15、AFE16、操作部材21および振動センサ22は、それぞれCPU23に接続されている。   Here, the above-described component parts are stored in a casing 26 having a thin box shape as a whole. Further, the image processing unit 17, the first memory 18, the recording I / F 19, the monitor 20, the CPU 23, and the second memory 24 are respectively connected via a bus 25. Further, the lens driving unit 12, the diaphragm driving unit 14, the image sensor 15, the AFE 16, the operation member 21, and the vibration sensor 22 are each connected to the CPU 23.

撮像光学系11は、ズームレンズ、フォーカシングレンズ、ブレ補正レンズを含む複数のレンズ群で構成されている。撮像光学系11のうちでズームレンズやフォーカシングレンズのレンズ位置は、レンズ駆動部12によって光軸方向に調整される。また、レンズ駆動部12は、撮像光学系11のブレ補正レンズを光軸に対して直角方向に揺動させる。これにより、被写体像の結像位置がシフトして、撮像素子15の受光面における被写体の像ブレが抑制される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens, a focusing lens, and a shake correction lens. The lens positions of the zoom lens and the focusing lens in the imaging optical system 11 are adjusted by the lens driving unit 12 in the optical axis direction. The lens driving unit 12 swings the blur correction lens of the imaging optical system 11 in a direction perpendicular to the optical axis. Thereby, the imaging position of the subject image is shifted, and the image blur of the subject on the light receiving surface of the image sensor 15 is suppressed. For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

絞り13は、複数の絞り羽根の開閉によって撮像素子15に入射する光量を調節する。この絞り13の開口量は、CPU23の指示に応じて絞り駆動部14が調整する。   The diaphragm 13 adjusts the amount of light incident on the image sensor 15 by opening and closing a plurality of diaphragm blades. The aperture of the aperture 13 is adjusted by the aperture drive unit 14 in accordance with an instruction from the CPU 23.

撮像素子15は、撮像光学系11および絞り13を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子15の出力はAFE16に接続されている。なお、撮像素子15の電荷蓄積時間および信号読みだしは、CPU23によって制御される。   The image sensor 15 photoelectrically converts a subject image formed by a light beam that has passed through the imaging optical system 11 and the diaphragm 13 to generate an analog image signal. The output of the image sensor 15 is connected to the AFE 16. The charge accumulation time and signal reading of the image sensor 15 are controlled by the CPU 23.

ここで、電子カメラの撮影モードにおいて、撮像素子15は後述のレリーズ釦30の全押し操作に応答して記録用の静止画像(本画像)を撮像する。また、撮影モードでの撮像素子15は、撮影待機時にも所定間隔毎に観測用の画像(スルー画像)を連続的に撮像する。ここで、時系列に取得されたスルー画像のデータは、モニタ20での動画像表示やCPU23による各種の演算処理に使用される。なお、各々のスルー画像の解像度は、本画像よりも低く設定されている。   Here, in the shooting mode of the electronic camera, the imaging device 15 captures a still image (main image) for recording in response to a full pressing operation of a release button 30 described later. Further, the imaging element 15 in the shooting mode continuously takes images for observation (through images) at predetermined intervals even during standby for shooting. Here, the data of the through image acquired in time series is used for moving image display on the monitor 20 and various arithmetic processes by the CPU 23. Note that the resolution of each through image is set lower than that of the main image.

AFE16は、撮像素子15の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE16は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。そして、AFE16の出力は画像処理部17に接続されている。なお、CPU23は、AFE16において画像信号のゲインを調整することで、ISO感度に相当する撮像感度を調整できる。   The AFE 16 is an analog front end circuit that performs analog signal processing on the output of the image sensor 15. The AFE 16 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion. The output of the AFE 16 is connected to the image processing unit 17. The CPU 23 can adjust the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal in the AFE 16.

画像処理部17は、デジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部17は、本画像のデータの圧縮伸長処理も実行する。   The image processing unit 17 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal. The image processing unit 17 also executes compression / decompression processing of the main image data.

また、画像処理部17は、画像の解像度変換(画素数変換)を実行する。一例として、撮影モードでの撮影待機時には、画像処理部17は、スルー画像に解像度変換を施してモニタ表示用のビュー画像を生成する。   The image processing unit 17 performs image resolution conversion (pixel number conversion). As an example, at the time of shooting standby in the shooting mode, the image processing unit 17 performs resolution conversion on the through image and generates a view image for monitor display.

第1メモリ18は、画像処理部17による画像処理の前工程や後工程で画像のデータを一時的に記憶するバッファメモリである。この第1メモリ18は揮発性の記憶媒体であるSDRAMにより構成される。   The first memory 18 is a buffer memory that temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 17. The first memory 18 is constituted by an SDRAM which is a volatile storage medium.

記録I/F19には、不揮発性の記憶媒体27を接続するためのコネクタが形成されている。そして、記録I/F19は、コネクタに接続された記憶媒体27に対してデータの書き込み/読み込みを実行する。上記の記憶媒体27は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体27の一例としてメモリカードを図示する。   The recording I / F 19 is formed with a connector for connecting a nonvolatile storage medium 27. Then, the recording I / F 19 executes data writing / reading with respect to the storage medium 27 connected to the connector. The storage medium 27 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 27.

モニタ20は、CPU23の指示に応じて各種画像を表示する。本実施形態の例では、筐体26の背面に配置された液晶表示パネルによってモニタ20が構成される(図2参照)。なお、モニタ20は、筐体26の背面からみて左側(図2の左側)に寄せて配置されている。   The monitor 20 displays various images according to instructions from the CPU 23. In the example of the present embodiment, the monitor 20 is configured by a liquid crystal display panel disposed on the back surface of the housing 26 (see FIG. 2). The monitor 20 is arranged close to the left side (left side in FIG. 2) when viewed from the back of the housing 26.

また、撮影モードでの撮影待機時において、モニタ20には、CPU23の制御により上記のビュー画像が動画表示される。このとき、CPU23は、撮影に必要となる各種情報をモニタ20のビュー画像上にオーバーレイ表示させることもできる。また、CPU23は、各種の設定項目の入力が可能なメニュー画面をモニタ20に表示させることもできる。   Further, during the shooting standby in the shooting mode, the above-described view image is displayed as a moving image on the monitor 20 under the control of the CPU 23. At this time, the CPU 23 can also display various information necessary for shooting on the view image of the monitor 20 in an overlay manner. Further, the CPU 23 can also display on the monitor 20 a menu screen on which various setting items can be input.

操作部材21は、ユーザーの操作を受け付ける複数のスイッチを有している。具体的には、本実施形態の操作部材21には、レリーズ釦30、ズームスイッチ31と、モード選択釦32と、再生釦33と、メニュー釦34と、削除釦35と、多機能操作スイッチ36とが含まれる。   The operation member 21 has a plurality of switches that accept user operations. Specifically, the operation member 21 of the present embodiment includes a release button 30, a zoom switch 31, a mode selection button 32, a playback button 33, a menu button 34, a delete button 35, and a multi-function operation switch 36. And are included.

ここで、レリーズ釦30は、半押し操作による撮影前のオートフォーカス(AF)動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。   Here, the release button 30 receives from the user an instruction input for starting an autofocus (AF) operation before photographing by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

ズームスイッチ31は、ズームレンズの移動による光学的なズーム操作や、ビュー画像の解像度変更による電子的なズーム操作をユーザーから受け付ける。   The zoom switch 31 receives an optical zoom operation by moving the zoom lens and an electronic zoom operation by changing the resolution of the view image from the user.

モード選択釦32は、電子カメラの動作モードを選択するための操作をユーザーから受け付ける。再生釦33は、本画像の再生表示を行う再生モードへの移行操作をユーザーから受け付ける。メニュー釦34は、メニュー画面を立ち上げるための操作をユーザーから受け付ける。削除釦35は、上記の再生モードにおいて、表示中の再生画像に対応する本画像のデータを消去する操作をユーザーから受け付ける。   The mode selection button 32 receives an operation for selecting an operation mode of the electronic camera from the user. The playback button 33 receives from the user an operation of shifting to a playback mode for performing playback display of the main image. The menu button 34 receives an operation for starting up the menu screen from the user. The delete button 35 receives, from the user, an operation for erasing the main image data corresponding to the displayed reproduction image in the reproduction mode.

多機能操作スイッチ36の上面には、決定釦37およびダイヤル38が配置されている。ダイヤル38の全体形状は環状であって、ダイヤル38の内周側には決定釦37が配置されている。そして、ダイヤル38では、例えばメニュー画面等での項目選択の入力をユーザーから受け付ける。また、決定釦37では、メニュー画面等での項目決定の入力をユーザーから受け付ける。さらに、多機能操作スイッチ36の本体部分は、上下左右の4方向の入力を受け付ける十字キーとして機能する。なお、被写体追尾モードでは、被写体追尾の開始および停止に関する操作が上記の決定釦37に割り当てられている。   An enter button 37 and a dial 38 are arranged on the upper surface of the multi-function operation switch 36. The overall shape of the dial 38 is annular, and a determination button 37 is disposed on the inner peripheral side of the dial 38. The dial 38 receives an input for selecting an item on a menu screen, for example, from the user. The decision button 37 accepts an item decision input on the menu screen or the like from the user. Furthermore, the main body portion of the multi-function operation switch 36 functions as a cross key that accepts input in four directions, up, down, left, and right. In the subject tracking mode, operations related to the start and stop of subject tracking are assigned to the determination button 37 described above.

また、図2に示すように、操作部材21の各スイッチは、筐体26の背面からみて右側(図2の右側)に寄せて配置されている。そのため、操作部材21の各スイッチは、ユーザーが簡単に片手操作できるようになっている。また、ズームスイッチ31、モード選択釦32、再生釦33、メニュー釦34、削除釦35および多機能操作スイッチ36はそれぞれ筐体26の背面に配置される一方で、レリーズ釦30は筐体26の上面に配置されている。そのため、ユーザーは、レリーズ釦30と他のスイッチとを容易に識別することができる。   As shown in FIG. 2, each switch of the operation member 21 is arranged close to the right side (the right side in FIG. 2) when viewed from the back of the housing 26. Therefore, each switch of the operation member 21 can be easily operated by the user with one hand. The zoom switch 31, the mode selection button 32, the playback button 33, the menu button 34, the delete button 35, and the multi-function operation switch 36 are respectively arranged on the back of the housing 26, while the release button 30 is provided on the housing 26. Arranged on the top surface. Therefore, the user can easily identify the release button 30 and other switches.

振動センサ22は、電子カメラに対する振動の方向および大きさを検知する。本実施形態での振動センサ22は、電子カメラの縦揺れを検出する縦方向角速度センサと、電子カメラの横揺れを検出する横方向角速度センサとを備えている。上記の各々の角速度センサには、例えば回転によるコリオリ力を検出する圧電振動式角速度センサなどが用いられる。   The vibration sensor 22 detects the direction and magnitude of vibration with respect to the electronic camera. The vibration sensor 22 in the present embodiment includes a vertical angular velocity sensor that detects the pitch of the electronic camera and a horizontal angular velocity sensor that detects the roll of the electronic camera. As each of the above angular velocity sensors, for example, a piezoelectric vibration type angular velocity sensor that detects Coriolis force due to rotation is used.

CPU23は、電子カメラの動作を統括的に制御するプロセッサである。例えば、CPU23は、振動センサ22の出力に基づいてブレ補正レンズを駆動させて、光学的なブレ補正を実行する。また、CPU23は、第2メモリ24に格納されたプログラムの実行により、パラメータ設定部40、焦点調節部41、テンプレート生成部42、被写体追尾部43として機能する。   The CPU 23 is a processor that comprehensively controls the operation of the electronic camera. For example, the CPU 23 drives the blur correction lens based on the output of the vibration sensor 22 and executes optical blur correction. Further, the CPU 23 functions as a parameter setting unit 40, a focus adjustment unit 41, a template generation unit 42, and a subject tracking unit 43 by executing a program stored in the second memory 24.

パラメータ設定部40では、スルー画像のデータを用いて公知の自動露出(AE)演算を実行する。そして、パラメータ設定部40は、絞り13の絞り値、撮像素子15での電荷蓄積時間(シャッタスピード)、AFE16のゲイン(撮像感度)の各パラメータをそれぞれ設定する。なお、CPU23は、上記のパラメータに基づいて電子カメラの各部を制御し、スルー画像や本画像の撮像を実行することとなる。   The parameter setting unit 40 executes a known automatic exposure (AE) calculation using the live view image data. The parameter setting unit 40 sets parameters for the aperture value of the aperture 13, the charge accumulation time (shutter speed) in the image sensor 15, and the gain (imaging sensitivity) of the AFE 16. Note that the CPU 23 controls each part of the electronic camera based on the above parameters, and executes the through image and the main image.

また、パラメータ設定部40は、スルー画像のデータや本画像のデータを用いてホワイトバランス演算を実行する。   Further, the parameter setting unit 40 performs white balance calculation using the data of the through image and the data of the main image.

具体的には、パラメータ設定部40は、画像のデータをR(赤),G(緑),B(青)成分に分解し、各色成分の階調の平均値Rave,Gave,Baveをそれぞれ求める。そして、パラメータ設定部40は、画像のホワイトバランスを調整するためのホワイトバランス調整値(Grd,Gbd)を求める。Rのレベルを補正するためのホワイトバランス調整値Grdは、Gave/Raveから求めることができる。また、Bのレベルを補正するためのホワイトバランス調整値Gbdは、Gave/Baveから求めることができる。なお、画像処理部17は、上記のホワイトバランス調整値(Grd,Gbd)を適用してホワイトバランス調整を実行する。   Specifically, the parameter setting unit 40 decomposes the image data into R (red), G (green), and B (blue) components, and obtains average values Rave, Gave, and Bave of each color component, respectively. . Then, the parameter setting unit 40 obtains white balance adjustment values (Grd, Gbd) for adjusting the white balance of the image. The white balance adjustment value Grd for correcting the R level can be obtained from Gave / Rave. The white balance adjustment value Gbd for correcting the B level can be obtained from Gave / Bave. The image processing unit 17 executes white balance adjustment by applying the white balance adjustment values (Grd, Gbd) described above.

焦点調節部41は、スルー画像のデータを用いて、公知のコントラスト検出によるAF制御を実行する。   The focus adjustment unit 41 executes AF control by known contrast detection using the through image data.

テンプレート生成部42は、入力された画像から追尾対象の物体を識別するためのテンプレートのデータを生成する。本実施形態の電子カメラでは、人間、動物、建築物、乗物などを含むあらゆる物体を追尾対象としてテンプレートを生成することが可能である。   The template generation unit 42 generates template data for identifying the tracking target object from the input image. In the electronic camera of this embodiment, it is possible to generate a template with any object including a human, an animal, a building, a vehicle, etc. as a tracking target.

一例として、テンプレート生成部42は、撮影画面内に設定されているテンプレート生成範囲のスルー画像を用いてテンプレートのデータを生成する。なお、上記のテンプレートのデータには、YCbCrの各チャンネルのデータ(被写体の輝度情報、色差情報)が含まれる。   As an example, the template generation unit 42 generates template data using a through image of the template generation range set in the shooting screen. The template data includes YCbCr channel data (subject luminance information and color difference information).

被写体追尾部43は、上記のテンプレートを用いて、撮影画面内における追尾対象の被写体の位置を継続的に検出する。これにより、焦点調節部41では、テンプレートに対応する被写体の動きに追従してAF制御を行うことができる。また、CPU23は、テンプレートに対応する被写体の位置を示すマークをモニタ20のビュー画像上に重畳表示させることもできる。   The subject tracking unit 43 continuously detects the position of the subject to be tracked in the shooting screen using the template. Accordingly, the focus adjustment unit 41 can perform AF control following the movement of the subject corresponding to the template. The CPU 23 can also superimpose and display a mark indicating the position of the subject corresponding to the template on the view image of the monitor 20.

第2メモリ24は、フラッシュメモリ等の不揮発性の記憶媒体で構成される。この第2メモリ24には、上記のテンプレートのデータや、被写体追尾処理での各種データ(撮影画面内での追尾対象の位置や、後述の類似度など)がそれぞれ記憶される。なお、第2メモリ24には、CPU23によって実行されるプログラムも記憶される。このプログラムによる被写体追尾モードでの動作例については後述する。   The second memory 24 is configured by a nonvolatile storage medium such as a flash memory. The second memory 24 stores the above-described template data and various data in the subject tracking process (the position of the tracking target in the shooting screen, the similarity described later, etc.). Note that the second memory 24 also stores a program executed by the CPU 23. An example of the operation in the subject tracking mode by this program will be described later.

<電子カメラの動作説明>
以下、本実施形態の電子カメラにおける被写体追尾モードを説明する。まず、被写体追尾モードの起動方法の一例を説明する。
<Description of electronic camera operation>
Hereinafter, the subject tracking mode in the electronic camera of this embodiment will be described. First, an example of a method for starting the subject tracking mode will be described.

ユーザーによるモード選択釦32の入力があると、CPU23は撮影モードの選択画面(不図示)をモニタ20に表示する。この撮影モードの選択画面ではGUI形式のダイヤルがモニタ20に表示され、ユーザーは「通常撮影モード」、「シーンモード」などの選択入力を行うことができる。そして、撮影モードの選択画面でシーンモードを選択する入力を受け付けると、CPU23はシーンモードに含まれる撮影モード(例えば、夜景撮影モード、風景撮影モード、被写体追尾モードなど)のうちのいずれかを立ち上げる。このとき、シーンモードにおけるデフォルトの撮影モードが「被写体追尾モード」である場合には、CPU23は被写体追尾モードで電子カメラを起動させる。   When the user inputs the mode selection button 32, the CPU 23 displays a shooting mode selection screen (not shown) on the monitor 20. In this shooting mode selection screen, a GUI-type dial is displayed on the monitor 20, and the user can select and input "normal shooting mode", "scene mode", and the like. Then, upon receiving an input for selecting a scene mode on the shooting mode selection screen, the CPU 23 sets one of shooting modes included in the scene mode (for example, night view shooting mode, landscape shooting mode, subject tracking mode, etc.). increase. At this time, if the default shooting mode in the scene mode is the “subject tracking mode”, the CPU 23 activates the electronic camera in the subject tracking mode.

また、シーンモードでの動作時にユーザーがメニュー釦34を押圧すると、CPU23はシーンモードにおけるメニュー画面(不図示)をモニタ20に表示する。このメニュー画面では、シーンモードに含まれる各撮影モードの切り替えをユーザーが実行できる。そして、メニュー画面で「被写体追尾モード」を選択する入力を受け付けると、CPU23は被写体追尾モードで電子カメラを起動させる。   When the user presses the menu button 34 during operation in the scene mode, the CPU 23 displays a menu screen (not shown) in the scene mode on the monitor 20. On this menu screen, the user can switch between shooting modes included in the scene mode. When receiving an input for selecting the “subject tracking mode” on the menu screen, the CPU 23 activates the electronic camera in the subject tracking mode.

次に、図3,図4の流れ図を参照しつつ、被写体追尾モードでの動作例を詳述する。なお、被写体追尾モードでの電子カメラの動作は、CPUの実行するプログラムによって制御される。   Next, an example of the operation in the subject tracking mode will be described in detail with reference to the flowcharts of FIGS. The operation of the electronic camera in the subject tracking mode is controlled by a program executed by the CPU.

ステップS101:CPU23は、撮像素子15を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。また、CPU23は、スルー画像から生成されたビュー画像をモニタ20に動画表示させる。したがって、ユーザーは、モニタ20のビュー画像を参照して、撮影構図を決定するためのフレーミングを行うことができる。   Step S101: The CPU 23 drives the image sensor 15 to start capturing a through image. Thereafter, the through images are sequentially generated at predetermined intervals. Further, the CPU 23 causes the monitor 20 to display a moving image of the view image generated from the through image. Therefore, the user can perform framing for determining the shooting composition with reference to the view image on the monitor 20.

また、S101でのCPU23は、撮影画面内のテンプレート生成範囲を示すガイドマーク(矩形の枠表示)をビュー画像に重畳させる(図5参照)。上記の枠表示は、CPU23の制御によって撮影画面の中央部に白色で表示される。なお、上記の枠表示の中に追尾対象の被写体を収めた状態でユーザーが決定釦37を押圧すると、CPU23は被写体追尾処理を開始する。   In S101, the CPU 23 superimposes a guide mark (rectangular frame display) indicating the template generation range in the shooting screen on the view image (see FIG. 5). The frame display is displayed in white at the center of the shooting screen under the control of the CPU 23. When the user presses the enter button 37 with the subject to be tracked contained in the frame display, the CPU 23 starts subject tracking processing.

ステップS102:CPU23は、多機能操作スイッチ36の決定釦37が押圧されたか否かを判定する。決定釦37が押圧された場合(YES側)にはS103に移行する。一方、決定釦37が押圧されていない場合(NO側)にはS120に移行する。   Step S102: The CPU 23 determines whether or not the determination button 37 of the multi-function operation switch 36 has been pressed. When the determination button 37 is pressed (YES side), the process proceeds to S103. On the other hand, when the determination button 37 is not pressed (NO side), the process proceeds to S120.

ステップS103:焦点調節部41は、撮影画面の中央部(S101での枠表示の位置)を焦点検出エリアとしてAF制御を実行する。また、パラメータ設定部40は、スルー画像のデータを用いてAE演算およびホワイトバランス演算を実行する。   Step S103: The focus adjustment unit 41 executes AF control with the central portion of the shooting screen (the frame display position in S101) as the focus detection area. The parameter setting unit 40 performs AE calculation and white balance calculation using the data of the through image.

ステップS104:CPU23は、S103でのAF制御によって、焦点検出エリアにおけるフォーカスレンズの合焦位置を検出できたか否かを判定する。上記要件を満たす場合(YES側)にはS106に移行する。一方、上記要件を満たさない場合(NO側)にはS105に移行する。   Step S104: The CPU 23 determines whether or not the in-focus position of the focus lens in the focus detection area has been detected by the AF control in S103. If the above requirement is satisfied (YES side), the process proceeds to S106. On the other hand, if the above requirement is not satisfied (NO side), the process proceeds to S105.

ステップS105:CPU23は、テンプレート生成範囲(枠表示に対応する範囲)の被写体が非合焦状態であることを示すNG処理を実行する。一例として、CPU23は、モニタ20の枠表示を一時的に赤色に変更するとともに、スピーカー(不図示)から非合焦時の警告音を出力する。   Step S105: The CPU 23 executes an NG process indicating that the subject in the template generation range (range corresponding to the frame display) is out of focus. As an example, the CPU 23 temporarily changes the frame display of the monitor 20 to red, and outputs a warning sound when out of focus from a speaker (not shown).

その後、CPU23は、枠表示を再び白色に変更するとともにS102に戻って上記動作を繰り返す。なお、S105の場合には、テンプレート生成範囲のスルー画像から適正なテンプレートを生成できないため、電子カメラが被写体追尾処理を実行することはない。   Thereafter, the CPU 23 changes the frame display to white again and returns to S102 to repeat the above operation. In the case of S105, since an appropriate template cannot be generated from the through image in the template generation range, the electronic camera does not execute the subject tracking process.

ステップS106:テンプレート生成部42は、AF後に撮像されたスルー画像を用いて追尾対象のテンプレートを生成する。一例として、テンプレート生成部42は、上記のスルー画像のうちからテンプレート生成範囲の部分画像を切り出す。そして、テンプレート生成部42は、部分画像のY成分を参照して追尾対象の輝度情報(Y)のテンプレートを生成するとともに、部分画像のCbCr成分を参照して追尾対象の色差情報(Cb,Cr)のテンプレートをそれぞれ生成する。なお、上記の各テンプレートのデータは、CPU23によって第2メモリ24に記録される。   Step S106: The template generation unit 42 generates a tracking target template using the through image captured after AF. As an example, the template generation unit 42 cuts out a partial image in the template generation range from the above through images. Then, the template generation unit 42 generates a template of tracking target luminance information (Y) with reference to the Y component of the partial image, and also references the CbCr component of the partial image with the color difference information (Cb, Cr) of the tracking target. ) Templates are generated. Note that the data of each template is recorded in the second memory 24 by the CPU 23.

その後、被写体追尾部43は、上記のテンプレートを用いて被写体追尾処理を開始する。なお、本実施形態において、被写体追尾処理は決定釦37の押圧(S102)をトリガとして開始するが、その後に決定釦37の押圧操作が継続されていない状態(被写体追尾処理の開始後にユーザーが決定釦37の押圧を解除した状態)でも、被写体追尾部43は被写体追尾処理を継続する。   Thereafter, the subject tracking unit 43 starts subject tracking processing using the template. In the present embodiment, the subject tracking process is started with the pressing of the decision button 37 (S102) as a trigger, but the pressing operation of the decision button 37 is not continued thereafter (the user decides after the subject tracking process is started). Even when the button 37 is released, the subject tracking unit 43 continues the subject tracking process.

また、被写体追尾処理が開始されたときには、CPU23は、被写体追尾の実行状態を示す表示(被写体追尾マーク)をモニタ20に出力する。一例として、CPU23は、ガイドマークの枠表示(S101)を白色から黄色に変更する。これにより、ユーザーはテンプレートの生成完了と、被写体追尾が開始されたこととをモニタ20で確認できる(被写体追尾マークの表示画面は図5とほぼ同様であるため図示を省略する)。   When the subject tracking process is started, the CPU 23 outputs a display (subject tracking mark) indicating the subject tracking execution state to the monitor 20. As an example, the CPU 23 changes the guide mark frame display (S101) from white to yellow. Thus, the user can confirm the completion of template generation and the start of subject tracking on the monitor 20 (the subject tracking mark display screen is substantially the same as in FIG. 5 and is not shown).

さらに、被写体追尾処理の実行時には、パラメータ設定部40はAE演算およびホワイトバランス演算を停止する。したがって、被写体追尾処理の実行時には、AE演算に基づく各パラメータ(絞り値、シャッタスピード、撮像感度)およびホワイトバランス調整値は、テンプレート生成時の設定値(S103で求めたもの)に固定される。これにより、被写体追尾処理のときには、各々のスルー画像における追尾対象の明るさや色差の状態が各テンプレートとほぼ同様となるので、追尾対象の検出精度をより向上させることができる。   Further, when the subject tracking process is executed, the parameter setting unit 40 stops the AE calculation and the white balance calculation. Therefore, when the subject tracking process is executed, each parameter (aperture value, shutter speed, imaging sensitivity) and white balance adjustment value based on the AE calculation are fixed to the setting values (calculated in S103) at the time of template generation. Thereby, in the subject tracking process, the brightness and color difference state of the tracking target in each through image are substantially the same as those of each template, so that the detection accuracy of the tracking target can be further improved.

ステップS107:CPU23は、スルー画像のうちで被写体追尾の判定を行う判定フレームが撮像されたか否かを判定する。判定フレームが撮像された場合(YES側)にはS108に移行する。一方、判定フレームが撮像されていない場合(NO側)には、CPU23は判定フレームの撮像を待機する。   Step S107: The CPU 23 determines whether or not a determination frame for determining subject tracking is captured in the through image. When the determination frame is captured (YES side), the process proceeds to S108. On the other hand, when the determination frame is not captured (NO side), the CPU 23 waits for the determination frame to be captured.

ステップS108:被写体追尾部43は、判定フレーム(S107)に含まれる被写体とテンプレート(S106)との類似度を求めるマッチング処理を実行する。   Step S108: The subject tracking unit 43 executes a matching process for obtaining the similarity between the subject included in the determination frame (S107) and the template (S106).

このS108でのマッチング処理は、判定フレームのうちの部分領域(探索エリア)を対象として行われる。図6は、本実施形態における探索エリアの初期状態の一例を示した図である。被写体追尾部43は、3×3の配列をなすように撮影画面を9つに等分割した領域のうちで、画面中央の部分領域を探索エリアに指定する。   The matching process in S108 is performed on a partial area (search area) in the determination frame. FIG. 6 is a diagram showing an example of the initial state of the search area in the present embodiment. The subject tracking unit 43 designates a partial area at the center of the screen among the areas obtained by equally dividing the shooting screen into nine so as to form a 3 × 3 array as a search area.

また、S108のマッチング処理では、被写体追尾部43は、以下の(イ)から(ハ)の処理を実行する。なお、以下の各処理は、各テンプレートごとにそれぞれ行われるものとする。   In the matching process of S108, the subject tracking unit 43 executes the following processes (a) to (c). Note that the following processing is performed for each template.

(イ)被写体追尾部43は、判定フレームのうちの探索エリアに対応する範囲から、テンプレートとのマッチングを行う対象領域を決定する。この対象領域のサイズは、テンプレートの生成範囲と同じサイズに設定される。   (A) The subject tracking unit 43 determines a target region to be matched with the template from a range corresponding to the search area in the determination frame. The size of the target area is set to the same size as the template generation range.

(ロ)次に、被写体追尾部43は、上記(イ)で設定された対象領域の画像とテンプレートとでそれぞれ対応位置にある注目画素間の階調差を求める。そして、被写体追尾部43は、上記の対象領域での類似度を以下の式(1)によって求める。なお、類似度の値は、被写体追尾部43によって第2メモリ24に記録される。   (B) Next, the subject tracking unit 43 obtains the gradation difference between the target pixels at the corresponding positions in the image and the template of the target area set in (a) above. Then, the subject tracking unit 43 obtains the similarity in the above target area by the following equation (1). Note that the similarity value is recorded in the second memory 24 by the subject tracking unit 43.

Figure 0005040669
ここで、式(1)において、I1はテンプレートに対応し、I2は対象領域の画像に対応する。そして、I1およびI2の注目画素は、テンプレートおよび対象領域の画像でそれぞれ対応位置にある画素を示す。また、式(1)では、テンプレートおよび判定フレームでの階調がともに8bit(0〜255の階調値)であることを前提とする。なお、上記の類似度の単位は%である。すなわち、上記の式(1)では、対応画素の階調差の絶対値を合計して類似度を求めている。そして、式(1)では、階調差の絶対値の総和が大きくなるほど類似度の値が小さくなる。
Figure 0005040669
Here, in Expression (1), I 1 corresponds to a template, and I 2 corresponds to an image of the target area. The target pixels of I 1 and I 2 indicate pixels at corresponding positions in the template and the image of the target area, respectively. Further, in the expression (1), it is assumed that the gradation in the template and the determination frame is 8 bits (gradation value of 0 to 255). Note that the unit of similarity is%. That is, in the above equation (1), the absolute value of the gradation difference of the corresponding pixels is summed to obtain the similarity. In equation (1), the similarity value decreases as the sum of the absolute values of the gradation differences increases.

(ハ)被写体追尾部43は、対象領域をシフトさせて上記(ロ)の処理を繰り返す。これにより、被写体追尾部43は、探索エリア内の各位置でテンプレートとの類似度をそれぞれ求めることとなる。   (C) The subject tracking unit 43 shifts the target area and repeats the process (B). As a result, the subject tracking unit 43 obtains the similarity to the template at each position in the search area.

ステップS109:被写体追尾部43は、追尾対象をロストしたか否かを判定する。具体的には、被写体追尾部43は、マッチング処理(S108)で求めた類似度がいずれもロスト判定の閾値未満であるか否かを判定する。上記要件を満たす場合(YES側)にはS111に移行する。なお、この場合(S109のYES側)には、CPU23は、追尾対象をロストしたことを示すロスト表示をモニタ20に出力するようにしてもよい。一方、上記要件を満たさない場合(NO側)にはS110に移行する。   Step S109: The subject tracking unit 43 determines whether or not the tracking target has been lost. Specifically, the subject tracking unit 43 determines whether or not all of the similarities obtained in the matching process (S108) are less than the lost determination threshold. If the above requirement is satisfied (YES side), the process proceeds to S111. In this case (YES side of S109), the CPU 23 may output a lost display indicating that the tracking target has been lost to the monitor 20. On the other hand, when the above requirement is not satisfied (NO side), the process proceeds to S110.

ステップS110:CPU23は、被写体追尾処理の停止操作をユーザーから受け付けたか否かを判定する。具体的には、本実施形態でのCPU23は、S102の後に2回目の決定釦37の押圧があったときに被写体追尾処理の停止操作があったものと判定する。被写体追尾処理の停止操作があった場合(YES側)にはS111に移行する。一方、被写体追尾処理の停止操作がない場合(NO側)にはS112に移行する。   Step S110: The CPU 23 determines whether or not an operation for stopping the subject tracking process has been received from the user. Specifically, the CPU 23 in this embodiment determines that the subject tracking process has been stopped when the second determination button 37 is pressed after S102. If the subject tracking process is stopped (YES side), the process proceeds to S111. On the other hand, if the subject tracking process is not stopped (NO side), the process proceeds to S112.

ステップS111:CPU23は、被写体追尾処理を終了するとともに、ビュー画像の被写体追尾マークを消灯する。その後、CPU23は、テンプレート生成範囲を示すガイドマーク(S101)をビュー画像の中央に再び重畳表示してS102に戻る。   Step S111: The CPU 23 ends the subject tracking process and turns off the subject tracking mark of the view image. Thereafter, the CPU 23 superimposes again the guide mark (S101) indicating the template generation range on the center of the view image, and returns to S102.

したがって、例えば、追尾対象の被写体をロストしたときには、電子カメラが被写体追尾処理を行う前の初期状態に戻るため、追尾対象と異なる被写体を誤って追尾するおそれが低減する。   Therefore, for example, when the subject to be tracked is lost, the electronic camera returns to the initial state before subject tracking processing, so that the possibility of accidentally tracking a subject different from the tracking target is reduced.

ステップS112:被写体追尾部43は、判定フレーム内で最も高い類似度を示す対象領域の位置を追尾対象の位置として決定する。   Step S112: The subject tracking unit 43 determines the position of the target region showing the highest similarity in the determination frame as the tracking target position.

そして、被写体追尾部43は、追尾対象の位置に合わせて、ビュー画像に重畳する被写体追尾マークの表示位置を更新する。その結果、モニタ20上での枠表示の位置は追尾対象の被写体の動きに追従してシフトすることとなる。これにより、ユーザーは追尾対象の検出結果をモニタ20で確認できる。なお、S112で求めた追尾対象の位置は、被写体追尾部43によって第2メモリ24に記録される。   Then, the subject tracking unit 43 updates the display position of the subject tracking mark superimposed on the view image in accordance with the position of the tracking target. As a result, the position of the frame display on the monitor 20 shifts following the movement of the subject to be tracked. As a result, the user can check the detection result of the tracking target on the monitor 20. The position of the tracking target obtained in S112 is recorded in the second memory 24 by the subject tracking unit 43.

また、被写体追尾部43は、追尾対象の位置に合わせて探索エリアの位置も更新する。図7は、追尾対象の移動に伴う探索エリアのシフトを示す図である。被写体追尾部43は、追尾対象の位置が探索エリアの中央と重なるように、撮影画面に対して探索エリアをシフトさせる。これにより、追尾対象の動きに合わせて探索エリアが移動するため、電子カメラが追尾対象をロストする確率が低減する。   The subject tracking unit 43 also updates the position of the search area in accordance with the position of the tracking target. FIG. 7 is a diagram illustrating the shift of the search area accompanying the movement of the tracking target. The subject tracking unit 43 shifts the search area with respect to the shooting screen so that the position of the tracking target overlaps the center of the search area. Thereby, since the search area moves in accordance with the movement of the tracking target, the probability that the electronic camera loses the tracking target is reduced.

ステップS113:焦点調節部41は、追尾対象の被写体の位置(S112)を焦点検出エリアに設定してAF制御を実行する。   Step S113: The focus adjustment unit 41 sets the position of the subject to be tracked (S112) as a focus detection area and executes AF control.

ステップS114:CPU23は、レリーズ釦30が半押しされたか否かを判定する。レリーズ釦30が半押しされた場合(YES側)にはS116に移行する。一方、レリーズ釦30が半押しされていない場合(NO側)にはS115に移行する。   Step S114: The CPU 23 determines whether or not the release button 30 is half-pressed. When the release button 30 is half-pressed (YES side), the process proceeds to S116. On the other hand, if the release button 30 is not half-pressed (NO side), the process proceeds to S115.

ステップS115:CPU23は、被写体追尾モードの終了指示をユーザーから受け付けたか否かを判定する。一例として、本実施形態でのCPU23は、他の動作モードへの切替操作があったときや、電子カメラの電源オフ操作があったときに、被写体追尾モードの終了指示があったものと判定する。   Step S115: The CPU 23 determines whether or not an instruction to end the subject tracking mode has been received from the user. As an example, the CPU 23 in the present embodiment determines that there has been an instruction to end the subject tracking mode when there is a switching operation to another operation mode or when the electronic camera is turned off. .

上記要件を満たす場合(YES側)には、CPU23は、被写体追尾モードの一連の処理を終了する。一方、上記要件を満たさない場合(NO側)には、CPU23はS107に戻って上記動作を繰り返す。これにより、被写体追尾部43は、撮影画面内での追尾対象の位置変化を継続的に検出できる。   If the above requirement is satisfied (YES side), the CPU 23 ends the series of processes in the subject tracking mode. On the other hand, when the above requirement is not satisfied (NO side), the CPU 23 returns to S107 and repeats the above operation. Accordingly, the subject tracking unit 43 can continuously detect a change in the position of the tracking target in the shooting screen.

ステップS116:この場合には、CPU23は、被写体追尾部43による被写体追尾処理を一時停止させる。そして、焦点調節部41は、被写体追尾処理で最後に検出された追尾対象の位置を焦点検出エリアとしてAF制御を実行する。その後、焦点調節部41は、本画像の撮像が行われるか、あるいはレリーズ釦30の半押し操作が解除されるまでAF制御を停止し、フォーカスレンズの焦点位置を固定する。   Step S116: In this case, the CPU 23 temporarily stops the subject tracking process by the subject tracking unit 43. Then, the focus adjustment unit 41 performs AF control using the position of the tracking target last detected in the subject tracking process as a focus detection area. Thereafter, the focus adjustment unit 41 stops the AF control until the main image is captured or the half-press operation of the release button 30 is released, and the focus position of the focus lens is fixed.

なお、S116でのCPU23はパラメータ設定部40にAE演算を実行させて、本画像の撮像時に適用する絞り値、シャッタスピード、撮像感度をそれぞれ求めてもよい。   Note that the CPU 23 in S116 may cause the parameter setting unit 40 to perform an AE calculation to obtain an aperture value, a shutter speed, and an imaging sensitivity that are applied when the main image is captured.

ステップS117:CPU23は、レリーズ釦30の半押しが解除されたか否かを判定する。レリーズ釦30の半押しが解除された場合(YES側)には、CPU23は、被写体追尾部43に被写体追尾処理を再開させるとともに、S107に戻って上記動作を繰り返す。一方、レリーズ釦30の半押しが継続している場合(NO側)にはS118に移行する。   Step S117: The CPU 23 determines whether or not the half-press of the release button 30 has been released. When the half-press of the release button 30 is released (YES side), the CPU 23 causes the subject tracking unit 43 to resume the subject tracking process and returns to S107 to repeat the above operation. On the other hand, when the half-press of the release button 30 is continued (NO side), the process proceeds to S118.

ステップS118:CPU23は、レリーズ釦30が全押しされたか否かを判定する。レリーズ釦30が全押しされた場合(YES側)にはS119に移行する。一方、レリーズ釦30が全押しされていない場合(NO側)には、CPU23はS117に戻って上記動作を繰り返す。   Step S118: The CPU 23 determines whether or not the release button 30 has been fully pressed. When the release button 30 is fully pressed (YES side), the process proceeds to S119. On the other hand, when the release button 30 is not fully pressed (NO side), the CPU 23 returns to S117 and repeats the above operation.

ステップS119:CPU23は、撮像素子15を駆動させて本画像の撮像処理を実行する。本画像のデータは、AFE16および画像処理部17で所定の処理が施された後に、記録I/F19を介して記憶媒体27に記録される。なお、S119での画像処理部17は、パラメータ設定部40が本画像のデータから求めたホワイトバランス調整値を用いてホワイトバランス調整を行う。また、CPU23は、本画像の撮像処理において、複数フレーム分の本画像を連写撮影するようにしてもよい。   Step S119: The CPU 23 drives the image pickup device 15 to execute an image pickup process for the main image. The data of the main image is recorded in the storage medium 27 via the recording I / F 19 after predetermined processing is performed by the AFE 16 and the image processing unit 17. Note that the image processing unit 17 in S119 performs white balance adjustment using the white balance adjustment value obtained by the parameter setting unit 40 from the data of the main image. In addition, the CPU 23 may continuously shoot a plurality of frames of main images in the main image capturing process.

その後、CPU23は、被写体追尾部43に被写体追尾処理を再開させるとともに、S107に戻って上記動作を繰り返す。   Thereafter, the CPU 23 causes the subject tracking unit 43 to restart the subject tracking process, and returns to S107 to repeat the above operation.

なお、被写体追尾処理の再開時(S117のYES側,S119の場合)には、被写体追尾部43は、追尾対象を最後に検出した位置を基準として、探索エリア(S108)の位置を決定する。そして、被写体追尾部43は、次回のマッチング処理において、追尾対象を最後に検出した位置を起点として追尾対象を探索する。例えば、被写体追尾部43は、次回のマッチング処理での対象領域として、追尾対象を最後に検出した位置を最初に指定する。   When the subject tracking process is resumed (YES side of S117, in the case of S119), the subject tracking unit 43 determines the position of the search area (S108) based on the position where the tracking target was last detected. Then, the subject tracking unit 43 searches for the tracking target from the position where the tracking target was last detected in the next matching process. For example, the subject tracking unit 43 first designates the position where the tracking target is last detected as the target region in the next matching process.

ステップS120:CPU23は、レリーズ釦30が半押しされたか否かを判定する。レリーズ釦30が半押しされた場合(YES側)にはS121に移行する。一方、レリーズ釦30が半押しされていない場合(NO側)にはS125に移行する。   Step S120: The CPU 23 determines whether or not the release button 30 is half-pressed. When the release button 30 is half-pressed (YES side), the process proceeds to S121. On the other hand, when the release button 30 is not half-pressed (NO side), the process proceeds to S125.

ステップS121:焦点調節部41は、例えば、中央優先または至近優先のアルゴリズムで通常のAF制御を実行する。その後、焦点調節部41は、本画像の撮像が行われるか、あるいはレリーズ釦30の半押し操作が解除されるまでAF制御を停止し、フォーカスレンズの焦点位置を固定する。また、S121でのCPU23はパラメータ設定部40にAE演算を実行させて、本画像の撮像時に適用する絞り値、シャッタスピード、撮像感度をそれぞれ求める。   Step S121: The focus adjustment unit 41 performs normal AF control using, for example, a center priority or close priority algorithm. Thereafter, the focus adjustment unit 41 stops the AF control until the main image is captured or the half-press operation of the release button 30 is released, and the focus position of the focus lens is fixed. In S121, the CPU 23 causes the parameter setting unit 40 to execute an AE calculation to obtain an aperture value, a shutter speed, and an imaging sensitivity to be applied when the main image is captured.

ステップS122:CPU23は、レリーズ釦30の半押しが解除されたか否かを判定する。レリーズ釦30の半押しが解除された場合(YES側)には、CPU23はS102に戻って上記動作を繰り返す。一方、レリーズ釦30の半押しが継続している場合(NO側)にはS123に移行する。   Step S122: The CPU 23 determines whether or not the half-press of the release button 30 has been released. When the half-press of the release button 30 is released (YES side), the CPU 23 returns to S102 and repeats the above operation. On the other hand, when the half-press of the release button 30 is continued (NO side), the process proceeds to S123.

ステップS123:CPU23は、レリーズ釦30が全押しされたか否かを判定する。レリーズ釦30が全押しされた場合(YES側)にはS124に移行する。一方、レリーズ釦30が全押しされていない場合(NO側)には、CPU23はS122に戻って上記動作を繰り返す。   Step S123: The CPU 23 determines whether or not the release button 30 has been fully pressed. When the release button 30 is fully pressed (YES side), the process proceeds to S124. On the other hand, when the release button 30 is not fully pressed (NO side), the CPU 23 returns to S122 and repeats the above operation.

ステップS124:CPU23は、撮像素子15を駆動させて本画像の撮像処理を実行する。このS124での処理は上記のS119と共通するため、重複説明を省略する。その後、CPU23は、S102に戻って上記動作を繰り返す。   Step S124: The CPU 23 drives the image pickup device 15 to execute an image pickup process for the main image. Since the processing in S124 is common to S119 described above, a duplicate description is omitted. Thereafter, the CPU 23 returns to S102 and repeats the above operation.

ステップS125:CPU23は、被写体追尾モードの終了指示をユーザーから受け付けたか否かを判定する。上記要件を満たす場合(YES側)には、CPU23は被写体追尾モードの一連の処理を終了する。一方、上記要件を満たさない場合(NO側)には、CPU23はS102に戻って上記動作を繰り返す。以上で、図3,図4の流れ図の説明を終了する。   Step S125: The CPU 23 determines whether or not an instruction to end the subject tracking mode has been received from the user. If the above requirement is satisfied (YES side), the CPU 23 ends the series of processes in the subject tracking mode. On the other hand, if the above requirement is not satisfied (NO side), the CPU 23 returns to S102 and repeats the above operation. Above, description of the flowchart of FIG. 3, FIG. 4 is complete | finished.

以下、本実施形態での作用効果を述べる。本実施形態の電子カメラでは、多機能操作スイッチ36の決定釦37によって、被写体追尾処理の開始および終了の操作をユーザーから受け付ける。   Hereinafter, the operational effects of this embodiment will be described. In the electronic camera of this embodiment, the start and end operations of the subject tracking process are received from the user by the determination button 37 of the multi-function operation switch 36.

このように、本実施形態の電子カメラでは、本画像の撮像指示を行うレリーズ釦30と、被写体追尾処理の操作に用いるスイッチ(決定釦37)とが独立している。そのため、電子カメラのユーザーインターフェースがユーザーにとって直感的に把握しやすくなり、電子カメラの操作性が大きく向上する。特に、本実施形態では、レリーズ釦30と、多機能操作スイッチ36の決定釦37とがそれぞれ筐体26の異なる面に配置されているので、ユーザーが誤操作をする可能性はより低くなる。   As described above, in the electronic camera of the present embodiment, the release button 30 for instructing to capture the main image and the switch (decision button 37) used for the subject tracking process are independent. Therefore, the user interface of the electronic camera can be easily understood intuitively by the user, and the operability of the electronic camera is greatly improved. In particular, in the present embodiment, the release button 30 and the determination button 37 of the multi-function operation switch 36 are arranged on different surfaces of the casing 26, so that the possibility that the user performs an erroneous operation is further reduced.

また、本実施形態の電子カメラでは、レリーズ釦30を用いて被写体追尾処理の操作を行わないため、被写体追尾時に誤操作でレリーズ釦30が全押しされる可能性は低くなる。そのため、ユーザーの意図しないタイミングで本画像が撮影されるおそれは著しく低減する。   Further, in the electronic camera of the present embodiment, since the subject tracking processing operation is not performed using the release button 30, the possibility that the release button 30 is fully pressed by an erroneous operation during subject tracking is low. Therefore, the possibility that the main image is shot at a timing not intended by the user is significantly reduced.

さらに、本実施形態の電子カメラでは、ビュー画像の表示中に使用されていない決定釦37に被写体追尾処理に関する操作を割り当てることで、カメラのサイズをコンパクトに保ちつつ、上記の各効果を享受することが可能となる。   Furthermore, in the electronic camera of this embodiment, by assigning an operation related to the subject tracking process to the decision button 37 that is not used during the display of the view image, the above effects can be enjoyed while keeping the camera size compact. It becomes possible.

<実施形態の補足事項>
(1)上記実施形態では、被写体追尾処理の開始および終了の操作を多機能操作スイッチ36の決定釦37に割り当てた例を説明した。しかし、本発明では、レリーズ釦30以外の他のスイッチに被写体追尾処理に関する操作を割り当ててもよい。
<Supplementary items of the embodiment>
(1) In the above embodiment, the example in which the start and end operations of the subject tracking process are assigned to the determination button 37 of the multi-function operation switch 36 has been described. However, in the present invention, operations related to the subject tracking process may be assigned to switches other than the release button 30.

(2)本発明において、被写体追尾処理に関する操作を行うスイッチは筐体26の背面以外に配置されるものであってもよい。一例として、図8に示すように、被写体追尾処理に関する操作を受け付ける専用のスイッチ(被写体追尾釦39)を、筐体26の上面においてレリーズ釦30と隣接する位置に設けてもよい。この場合には、ユーザーはレリーズ釦30を押圧する指と同じ指で被写体追尾釦39を素早く操作できるので、被写体追尾処理に関する操作を迅速に行うことが可能となる。さらに、他の変形例として、上記の被写体追尾釦39を、例えば筐体26の他の面(筐体26の正面など)に配置してもよい(この場合の図示は省略する)。   (2) In the present invention, the switch for performing an operation related to the subject tracking process may be arranged other than the back surface of the housing 26. As an example, as illustrated in FIG. 8, a dedicated switch (subject tracking button 39) for receiving an operation related to the subject tracking process may be provided at a position adjacent to the release button 30 on the upper surface of the housing 26. In this case, the user can quickly operate the subject tracking button 39 with the same finger that presses the release button 30, and thus it is possible to quickly perform an operation related to the subject tracking process. Furthermore, as another modification, the subject tracking button 39 may be disposed on, for example, another surface of the housing 26 (such as the front surface of the housing 26) (illustration is omitted in this case).

(3)上記実施形態では、1回目の決定釦37の押圧に応じて電子カメラが被写体追尾処理を開始するとともに、2回目の決定釦37の押圧に応じて電子カメラが被写体追尾処理を終了する例を説明した。しかし、本発明の電子カメラは、上記S102のYES側から決定釦37の押圧が継続している期間は被写体追尾処理を継続し、上記S110で決定釦37の押圧が解除されたときに被写体追尾処理を終了するようにしてもよい。   (3) In the above embodiment, the electronic camera starts the subject tracking process in response to the first press of the determination button 37, and the electronic camera ends the subject tracking process in response to the second press of the determination button 37. An example was explained. However, the electronic camera of the present invention continues the subject tracking process during the period in which the determination button 37 is continuously pressed from the YES side in S102, and the subject tracking is performed when the determination button 37 is released in S110. You may make it complete | finish a process.

また、上記実施形態のS110において、CPU23は、ズームスイッチ31の操作があった場合には被写体追尾処理を停止させて、ズームレンズの移動などを行うようにしてもよい。   In S110 of the above embodiment, the CPU 23 may stop the subject tracking process when the zoom switch 31 is operated, and may move the zoom lens.

(4)上記実施形態では、パラメータ設定部40、焦点調節部41、テンプレート生成部42、被写体追尾部43などの機能をプログラムによってソフトウエア的に実現する例を説明したが、これらの構成をASICを用いてハードウエア的に実現しても勿論かまわない。   (4) In the above embodiment, the example in which the functions of the parameter setting unit 40, the focus adjustment unit 41, the template generation unit 42, the subject tracking unit 43, and the like are realized by software is described. Of course, it may be realized in hardware using

(5)上記実施形態では、コンパクト型の電子カメラでの構成例を説明した。しかし、本発明の撮像装置は、レンズ交換可能な一眼レフレックス型の電子カメラにも適用することが勿論可能である。なお、本発明を一眼レフレックス型の電子カメラに適用する場合には、本画像を撮像する撮像素子によってスルー画像を撮像してもよく、また、本画像を撮像する撮像素子とは別にスルー画像を撮像するための撮像素子を設けるようにしてもよい。   (5) In the above embodiment, the configuration example of the compact electronic camera has been described. However, the imaging apparatus of the present invention can of course be applied to a single-lens reflex type electronic camera in which lenses can be exchanged. Note that when the present invention is applied to a single-lens reflex electronic camera, a through image may be captured by an image sensor that captures the main image, and the through image is separate from the image sensor that captures the main image. You may make it provide the image pick-up element for imaging.

また、本発明の撮像装置は、例えば、携帯電話などの電子機器に内蔵されるカメラモジュールに適用することも可能である。   The imaging device of the present invention can also be applied to a camera module built in an electronic device such as a mobile phone.

(6)上記実施形態において、被写体追尾処理での電子カメラの負荷を軽減させるために、被写体追尾処理のときのAF制御(S113)を停止してもよい。   (6) In the above embodiment, the AF control (S113) during the subject tracking process may be stopped in order to reduce the load on the electronic camera during the subject tracking process.

(7)上記実施形態では、簡単のため、最初に生成されたテンプレートのみを用いて被写体追尾処理を行う例を説明した。しかし、本発明のテンプレート生成部は、追尾対象の検出に成功したときに逐次テンプレートを生成して、テンプレートの蓄積または更新を行うようにしてもよい。   (7) In the above embodiment, for simplicity, the example in which the subject tracking process is performed using only the template generated first has been described. However, the template generation unit of the present invention may generate templates sequentially when the tracking target is successfully detected, and accumulate or update the templates.

(8)上記実施形態では、追尾対象の輝度情報および色差情報のテンプレートをそれぞれ生成する例を説明した。しかし、上記実施形態はあくまで一例にすぎず、本発明の撮像装置では、上記の輝度情報、色差情報のテンプレートのいずれかを選択的に生成するものであってもよい。また、被写体追尾部43は、例えば、画像のRGBの階調値、画像の輪郭成分または画像のコントラスト比の情報などを用いて、スルー画像から追尾対象を検出してもよい。   (8) In the above-described embodiment, an example in which templates of luminance information and color difference information to be tracked are generated has been described. However, the above embodiment is merely an example, and the imaging apparatus according to the present invention may selectively generate any one of the templates of the luminance information and the color difference information. In addition, the subject tracking unit 43 may detect the tracking target from the through image using, for example, information on the RGB gradation values of the image, the contour component of the image, or the contrast ratio of the image.

(9)上記実施形態および変形例の構成はあくまで一例にすぎない。そのため、本発明の撮像装置を実施するときには、上述の実施形態および変形例に示す構成やその処理の順序についてあらゆる組み合わせをとることができる。   (9) The configuration of the above embodiment and the modification is merely an example. Therefore, when implementing the imaging apparatus of the present invention, all combinations of the configurations and the processing order shown in the above-described embodiments and modifications can be taken.

なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   It should be noted that the present invention can be implemented in various other forms without departing from the spirit or main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

本実施形態の電子カメラの構成を説明するブロック図A block diagram for explaining a configuration of an electronic camera of the present embodiment 本実施形態の電子カメラの背面側外観図Rear view of the electronic camera of the present embodiment 被写体追尾モードでの動作例を示す流れ図Flow chart showing an example of operation in subject tracking mode 図3の続きの流れ図Flowchart continued from FIG. ガイドマークの重畳されたビュー画像の表示例を示す図The figure which shows the example of a display of the view image on which the guide mark was superimposed 本実施形態の探索エリアの初期状態を示した図The figure which showed the initial state of the search area of this embodiment 追尾対象の動きに伴う探索エリアのシフトを示す図The figure which shows the shift of the search area with the movement of the tracking object 本実施形態の変形例における電子カメラの背面側外観図Rear side external view of electronic camera in modified example of embodiment

符号の説明Explanation of symbols

15…撮像素子、17…画像処理部、20…モニタ、21…操作部材、23…CPU、24…第2メモリ、26…筐体、30…レリーズ釦、37…決定釦、39…被写体追尾釦、43…被写体追尾部
DESCRIPTION OF SYMBOLS 15 ... Image pick-up element, 17 ... Image processing part, 20 ... Monitor, 21 ... Operation member, 23 ... CPU, 24 ... 2nd memory, 26 ... Case, 30 ... Release button, 37 ... Decision button, 39 ... Subject tracking button , 43 ... Subject tracking section

Claims (5)

被写体像を撮像して画像のデータを生成する撮像部と、
追尾対象の特徴を示すテンプレートを記憶するメモリと、
前記テンプレートを用いて、前記追尾対象の被写体を前記画像から継続的に検出する被写体追尾部と、
前記画像を表示するモニタと、
前記撮像部、前記メモリ前記被写体追尾部および前記モニタを収納する筐体と、
前記筐体の外面に配置されるとともに、前記撮像部に記録用の静止画像を撮像させる撮像指示を受け付ける第1操作部材と、
前記第1操作部材とは独立して前記筐体の外面に配置されるとともに、前記被写体追尾部に前記追尾対象の検出を開始させる追尾開始操作を受け付ける第2操作部材と、
を備え、
前記モニタは、前記筐体の一方の側面側に寄せて配置され、
前記第1部材および前記第2部材は、前記モニタの位置よりも前記筐体の他方の側面側に寄せて配置され、
前記被写体追尾部は、前記追尾開始操作があった後に前記第2操作部材での前記追尾開始操作が継続して行われていないときも前記追尾対象の検出を継続し、前記第2操作部材による前記追尾開始操作の後にさらに前記第2操作部材からの入力を受け付けたときに前記追尾対象の検出を終了することを特徴とする撮像装置。
An imaging unit that captures a subject image and generates image data;
A memory for storing a template indicating the characteristics of the tracking target;
A subject tracking unit for continuously detecting the subject to be tracked from the image using the template;
A monitor for displaying the image;
A housing that houses the imaging unit, the memory , the subject tracking unit, and the monitor ;
A first operation member disposed on an outer surface of the housing and receiving an imaging instruction for causing the imaging unit to capture a still image for recording;
A second operation member that is disposed on the outer surface of the housing independently of the first operation member, and that receives a tracking start operation that causes the subject tracking unit to start detection of the tracking target;
With
The monitor is arranged close to one side of the housing,
The first member and the second member are arranged closer to the other side surface of the housing than the position of the monitor,
The subject tracking unit continues to detect the tracking target even when the tracking start operation with the second operation member is not continuously performed after the tracking start operation is performed. An imaging apparatus, wherein the tracking target detection is terminated when an input from the second operation member is further received after the tracking start operation.
請求項1に記載の撮像装置において、
前記筐体は、少なくとも2つの面を有する形状であって、
前記第1操作部材と前記第2操作部材とは、それぞれ前記筐体の異なる面に配置されていることを特徴とする撮像装置。
The imaging device according to claim 1,
The housing has a shape having at least two surfaces,
The imaging apparatus, wherein the first operation member and the second operation member are respectively disposed on different surfaces of the casing.
請求項1に記載の撮像装置において、
前記筐体は、少なくとも2つの面を有する形状であって、
前記第1操作部材および前記第2操作部材は、前記筐体の同一の面に隣接して配置されていることを特徴とする撮像装置。
The imaging device according to claim 1,
The housing has a shape having at least two surfaces,
The imaging apparatus, wherein the first operating member and the second operating member are disposed adjacent to the same surface of the casing.
請求項1に記載の撮像装置において、
前記モニタは、前記画像に対応する視野画像を表示し、
前記被写体追尾部は、前記追尾対象の検出を開始したときに、前記被写体の追尾が行われていることを示す表示を前記視野画像とともに前記モニタに表示させることを特徴とする撮像装置。
The imaging device according to claim 1,
The monitor displays a field-of-view image corresponding to the image;
The subject tracking unit displays, on the monitor, the display indicating that the subject is being tracked together with the visual field image when the detection of the tracking target is started.
請求項1に記載の撮像装置において、
前記モニタは、前記画像に対応する視野画像を表示し、
前記被写体追尾部は、前記追尾対象の検出を終了したときに、前記テンプレートを生成する被写体の位置を示す指標を前記視野画像とともに前記モニタに表示させることを特徴とする撮像装置。
The imaging device according to claim 1,
The monitor displays a field-of-view image corresponding to the image;
The subject tracking unit displays an index indicating a position of a subject for generating the template on the monitor together with the visual field image when the detection of the tracking target is finished.
JP2008007102A 2008-01-16 2008-01-16 Imaging device Expired - Fee Related JP5040669B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008007102A JP5040669B2 (en) 2008-01-16 2008-01-16 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008007102A JP5040669B2 (en) 2008-01-16 2008-01-16 Imaging device

Publications (3)

Publication Number Publication Date
JP2009171233A JP2009171233A (en) 2009-07-30
JP2009171233A5 JP2009171233A5 (en) 2011-08-11
JP5040669B2 true JP5040669B2 (en) 2012-10-03

Family

ID=40971924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008007102A Expired - Fee Related JP5040669B2 (en) 2008-01-16 2008-01-16 Imaging device

Country Status (1)

Country Link
JP (1) JP5040669B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115104299A (en) * 2020-02-21 2022-09-23 索尼集团公司 Program, information processing method, and electronic device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003309761A (en) * 2002-04-17 2003-10-31 Sony Corp Imaging device and editing device
JP2006254129A (en) * 2005-03-11 2006-09-21 Casio Comput Co Ltd Histogram display device

Also Published As

Publication number Publication date
JP2009171233A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
JP5115210B2 (en) Imaging device
JP4761146B2 (en) Imaging apparatus and program thereof
JP5054583B2 (en) Imaging device
JP4657960B2 (en) Imaging method and apparatus
US20070269196A1 (en) System for and method of taking image
US8988579B2 (en) Imaging apparatus
JP2007306416A (en) Method for displaying face detection frame, method for displaying character information, and imaging apparatus
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP6495122B2 (en) Imaging apparatus and image processing method
JP4614143B2 (en) Imaging apparatus and program thereof
JP5217451B2 (en) Imaging device
JP5499853B2 (en) Electronic camera
JP2007129310A (en) Imaging apparatus
US10999489B2 (en) Image processing apparatus, image processing method, and image capture apparatus
US10554891B2 (en) Image stabilization apparatus, image stabilization method, image capturing apparatus, image capturing system and non-transitory storage medium
US9274402B2 (en) Imaging device that executes auto focus control by referring to distance image data regarding a depth of a region
JP2007311962A (en) Electronic camera and image display program
JP5062095B2 (en) Imaging device
JP5040669B2 (en) Imaging device
JP5169542B2 (en) Electronic camera
JP5027029B2 (en) Camera with enlargement display function and camera control method
JP2009048123A (en) Photographing equipment and method of controlling same
JP2009086036A (en) Imaging device and control method for imaging device
JP2008187332A (en) Image tracking device and image pickup device
JP6346398B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120625

R150 Certificate of patent or registration of utility model

Ref document number: 5040669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150720

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees