JP5762038B2 - Imaging apparatus and control method - Google Patents

Imaging apparatus and control method Download PDF

Info

Publication number
JP5762038B2
JP5762038B2 JP2011029996A JP2011029996A JP5762038B2 JP 5762038 B2 JP5762038 B2 JP 5762038B2 JP 2011029996 A JP2011029996 A JP 2011029996A JP 2011029996 A JP2011029996 A JP 2011029996A JP 5762038 B2 JP5762038 B2 JP 5762038B2
Authority
JP
Japan
Prior art keywords
accumulation
tracking
image signal
imaging
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011029996A
Other languages
Japanese (ja)
Other versions
JP2012169921A5 (en
JP2012169921A (en
Inventor
尚幸 中川原
尚幸 中川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011029996A priority Critical patent/JP5762038B2/en
Priority to US13/369,923 priority patent/US9374533B2/en
Priority to EP12155352.3A priority patent/EP2512120B1/en
Priority to EP14164137.3A priority patent/EP2768215B1/en
Priority to CN201210034273.9A priority patent/CN102685383B/en
Publication of JP2012169921A publication Critical patent/JP2012169921A/en
Publication of JP2012169921A5 publication Critical patent/JP2012169921A5/ja
Application granted granted Critical
Publication of JP5762038B2 publication Critical patent/JP5762038B2/en
Priority to US15/161,912 priority patent/US9674424B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Cameras In General (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、被写体の追尾が可能な撮像装置に関する。   The present invention relates to an imaging apparatus capable of tracking a subject.

従来、撮像画面内で主要被写体がどこにあるかを認識し、その位置を自動的に追尾する、いわゆる、被写体追尾機能を有する撮像装置が知られている。この被写体追尾機能を用いることで、動きのある主要被写体に対して連続的に自動焦点調節制御(AF制御)や露出制御を行うことが可能となる。   2. Description of the Related Art Conventionally, there is known an imaging apparatus having a so-called subject tracking function that recognizes where a main subject is in an imaging screen and automatically tracks its position. By using this subject tracking function, automatic focus adjustment control (AF control) and exposure control can be continuously performed on a moving main subject.

このような被写体追尾機能を有する撮像装置の一例として、一眼レフカメラのような、撮像素子とは別に測光に用いる測光部を有する撮像装置において、測光部から出力される測光データに基づいて被写体追尾を行うものが特許文献1に記載されている。   As an example of an imaging apparatus having such a subject tracking function, in an imaging apparatus such as a single-lens reflex camera having a photometry unit used for photometry separately from an image sensor, subject tracking is performed based on photometric data output from the photometry unit. Japanese Patent Application Laid-Open No. H10-228707 describes that.

特開平5−22670号公報JP-A-5-22670

しかしながら、特許文献1に記載された撮像装置のように、測光部から出力される測光データに基づいて被写体追尾を行う場合、以下のような問題が生じてしまう。   However, when subject tracking is performed based on photometric data output from the photometric unit as in the imaging device described in Patent Document 1, the following problems occur.

特許文献1に記載された撮像装置のような一般的な一眼レフカメラは、カメラ内に設けられたクイックリターンミラーの位置を移動させることで、被写体からの入射光束を撮像素子へ導く状態と接眼レンズ(光学ファインダ)へ導く状態とを切り換える構成である。   A general single-lens reflex camera such as the image pickup apparatus described in Patent Document 1 moves the position of a quick return mirror provided in the camera to guide the incident light flux from the subject to the image sensor and the eyepiece. It is the structure which switches the state led to a lens (optical viewfinder).

また、被写体からの入射光束を接眼レンズへ導く状態のときに測光部にも被写体からの入射光束が導かれて被写体の測光が可能となる。すなわち、被写体からの入射光束を撮像素子へ導く状態では測光部で測光を行うことができない。   Further, when the incident light beam from the subject is guided to the eyepiece, the incident light beam from the subject is also guided to the photometry unit, and the subject can be measured. That is, in the state where the incident light beam from the subject is guided to the image sensor, the photometry unit cannot perform photometry.

つまり、連続撮影時(連写撮影時)のように、被写体からの入射光束を撮像素子へ導く状態と測光部へ導く状態とが短い周期で連続して切り換わる場合、測光部で測光を行う際の蓄積時間が制限される。特に、測光部から出力される測光データを被写体追尾に用いようとすると、AF制御や露出制御を行う前に被写体追尾の演算処理を終了する必要があり、被写体からの入射光束が測光部へ導かれている期間よりも蓄積時間はさらに制限される。   That is, if the state in which the incident light flux from the subject is guided to the image sensor and the state to be guided to the photometry unit are continuously switched in a short cycle as in continuous shooting (during continuous shooting), photometry is performed by the photometry unit Storage time is limited. In particular, if the photometry data output from the photometry unit is to be used for subject tracking, the subject tracking calculation process must be terminated before AF control or exposure control is performed, and the incident light flux from the subject is guided to the photometry unit. Accumulation time is further limited than the period of time.

そのため、測光部の蓄積時間がフリッカー周期より短くなってフリッカーの影響が大きくなり、正確な測光値が得られない場合が生じる。ここで、フリッカーについて説明する。蛍光灯下などで測光を行う場合、AC電源周波数の影響により周期的に照明光の明るさが変化する、いわゆる、フリッカー現象が起きる。フリッカーの周期は電源周波数が50Hzの地域では約10ms、60Hzの地域では約8.3msとなっている。このような環境下で測光を行う場合、測光部の蓄積時間がフリッカー周期の整数倍でないと、フリッカー周期の位相のどの部分と蓄積を行う期間が重複するかによって測光値がばらついてしまう。そのため、安定した露出制御を行うことが困難となる。   Therefore, the accumulation time of the photometry unit is shorter than the flicker cycle, and the influence of flicker becomes large, and an accurate photometric value may not be obtained. Here, flicker will be described. When photometry is performed under a fluorescent lamp or the like, a so-called flicker phenomenon occurs in which the brightness of illumination light periodically changes due to the influence of the AC power supply frequency. The flicker cycle is about 10 ms in the region where the power supply frequency is 50 Hz, and about 8.3 ms in the region where 60 Hz. When photometry is performed in such an environment, if the accumulation time of the photometry unit is not an integral multiple of the flicker period, the photometric value varies depending on which part of the phase of the flicker period overlaps the accumulation period. Therefore, it becomes difficult to perform stable exposure control.

そこで、フリッカーの影響を軽減するために測光部の蓄積時間を長くしてしまうと、被写体追尾の演算処理を終了するまでの時間も長くなり、連続撮影時の連続撮影速度が低下してしまう。   Therefore, if the accumulation time of the photometry unit is increased in order to reduce the influence of flicker, the time until the subject tracking calculation process is completed also increases, and the continuous shooting speed during continuous shooting decreases.

そこで、本発明は、連続撮影時の連続撮影速度を低下させることなく被写体追尾を行い、フリッカーの影響を軽減した露出制御を行うことができるようにすることを目的とする。   Therefore, an object of the present invention is to perform subject tracking without reducing the continuous shooting speed during continuous shooting, and to perform exposure control that reduces the effect of flicker.

上記の目的を達成するために、本発明にかかる撮像装置は、撮像手段と、入射光量に応じた電荷の蓄積を行う電荷蓄積手段と、被写体の追尾を行う追尾手段と、露出制御を行う露出制御手段と、を有し、前記電荷蓄積手段は、第1の蓄積を行った後に第2の蓄積を行い、前記追尾手段は、前記第2の蓄積を行って得られた画像信号を用いずに前記第1の蓄積を行って得られた画像信号に基づいて前記追尾を行い、前記露出制御手段は、前記第1の蓄積を行って得られた画像信号及び前記第2の蓄積を行って得られた画像信号に基づいて、露出制御を行うことを特徴とする。 In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging unit, a charge accumulation unit that accumulates charges according to the amount of incident light, a tracking unit that tracks a subject, and an exposure that performs exposure control. Control means, wherein the charge accumulation means performs second accumulation after performing the first accumulation, and the tracking means does not use the image signal obtained by performing the second accumulation. The tracking is performed based on the image signal obtained by performing the first accumulation, and the exposure control means performs the image signal obtained by performing the first accumulation and the second accumulation. based on the obtained image signal, and performs exposure will control.

また、上記の目的を達成するために、本発明にかかる撮像装置の制御方法は、撮像手段と、入射光量に応じた電荷の蓄積を行う電荷蓄積手段と、を備えた撮像装置の制御方法であって、前記電荷蓄積手段により第1の蓄積を行う第1の電荷蓄積ステップと、前記第1の蓄積の後に第2の蓄積を行う第2の電荷蓄積ステップと、前記第2の蓄積を行って得られた画像信号を用いずに前記第1の蓄積を行って得られた画像信号に基づいて、被写体の追尾を行う追尾ステップと、前記第1の蓄積を行って得られた画像信号及び前記第2の蓄積を行って得られた画像信号に基づいて、露出制御を行う露出制御ステップと、を有することを特徴とする。 In order to achieve the above object, an image pickup apparatus control method according to the present invention is an image pickup apparatus control method including an image pickup means and charge accumulation means for accumulating charges according to the amount of incident light. A first charge accumulation step for performing first accumulation by the charge accumulation means; a second charge accumulation step for performing second accumulation after the first accumulation; and performing the second accumulation. A tracking step for tracking the subject based on the image signal obtained by performing the first accumulation without using the image signal obtained in the above; an image signal obtained by performing the first accumulation; and An exposure control step of performing exposure control based on an image signal obtained by performing the second accumulation.

本発明によれば、連続撮影時の連続撮影速度を低下させることなく被写体追尾を行い、フリッカーの影響を軽減した露出制御を行うことができる。   According to the present invention, it is possible to perform subject control without reducing the continuous shooting speed during continuous shooting, and to perform exposure control that reduces the influence of flicker.

本発明の実施形態にかかる撮像装置の概略構成図。1 is a schematic configuration diagram of an imaging apparatus according to an embodiment of the present invention. 本発明の実施形態における撮影時の動作シーケンスを示す図。The figure which shows the operation | movement sequence at the time of imaging | photography in embodiment of this invention. 本発明の実施形態における測光動作の概略を示す図The figure which shows the outline of the photometry operation | movement in embodiment of this invention. 本発明の実施形態における測光センサの読み出し画像の画素加算数による違いを説明する図。The figure explaining the difference by the pixel addition number of the read-out image of the photometry sensor in embodiment of this invention. 本発明の実施形態における測光演算の説明図。Explanatory drawing of the photometry calculation in embodiment of this invention. 本発明の実施形態における追尾対象の移動に合わせたAF制御を示した図。The figure which showed AF control according to the movement of the tracking object in embodiment of this invention. 本発明の実施形態における顔検知結果を用いた場合の追尾対象の移動に合わせたAF制御を示した図。The figure which showed AF control according to the movement of the tracking object at the time of using the face detection result in embodiment of this invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかる撮像装置の概略構成を示した図であり、100はカメラ本体であり、200はカメラ本体100に着脱可能なレンズユニットである。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus according to an embodiment of the present invention, in which 100 is a camera body, and 200 is a lens unit that can be attached to and detached from the camera body 100.

101はカメラ本体100の各部を制御するマイクロコンピュータCPU(以下、CPUとする)である。102は赤外カットフィルタやローパスフィルタ等を含むCCD、CMOS等の撮像素子であり、レンズユニット200の撮影レンズを介して入射した光束を光電変換して画像信号を出力する。   Reference numeral 101 denotes a microcomputer CPU (hereinafter referred to as CPU) that controls each part of the camera body 100. Reference numeral 102 denotes an image sensor such as a CCD or CMOS including an infrared cut filter, a low-pass filter, and the like, which photoelectrically converts a light beam incident through the photographing lens of the lens unit 200 and outputs an image signal.

103はメカニカルシャッターであり、撮影レンズを介して入射した光束から撮像素子102を遮光する遮光状態、及び、撮影レンズを介して入射した光束を撮像素子102に導く退避状態となるように走行する。   Reference numeral 103 denotes a mechanical shutter that travels in a light shielding state in which the image sensor 102 is shielded from a light beam incident through the photographing lens and a retracted state in which the light beam incident through the photographing lens is guided to the image sensor 102.

104はハーフミラーであり、撮影レンズを介して入射した光束を撮像素子102へ導く位置(ミラーアップ状態)と測光センサ106へ導く位置(ミラーダウン状態)とに移動可能である。すなわち、ハーフミラー104は、撮像素子102へ導く状態と測光センサ106へ導く状態とに、撮影レンズを介して入射した光束の光路変更を行う。また、測光センサ106へ導く位置にある場合には、撮影レンズを介して入射した光束をピント板105に結像させる。   Reference numeral 104 denotes a half mirror, which is movable between a position for guiding a light beam incident through the photographing lens to the image sensor 102 (mirror up state) and a position for guiding it to the photometric sensor 106 (mirror down state). In other words, the half mirror 104 changes the optical path of the light beam incident through the photographing lens between the state leading to the image sensor 102 and the state leading to the photometric sensor 106. Further, when it is at a position to be guided to the photometric sensor 106, the light beam incident through the photographing lens is imaged on the focus plate 105.

106はCCD等の撮像素子を用いた測光センサであり、被写体像を光電変換して電荷の蓄積を行い画像信号を出力する。本実施形態では、縦M個、横N個のマトリックス状に配置されたM×N個の画素を有するCCDを測光センサ106に用いた例を説明する。   Reference numeral 106 denotes a photometric sensor using an image sensor such as a CCD, which photoelectrically converts a subject image to accumulate charges and output an image signal. In the present embodiment, an example in which a CCD having M × N pixels arranged in a matrix of M vertical and N horizontal pixels is used for the photometric sensor 106 will be described.

107はペンタプリズムであり、ハーフミラー104で反射された撮影レンズを介して入射した光束を測光センサ106及び不図示の光学ファインダに導く。
108はCPU101に接続されているRAMやROM等のメモリである。
109は焦点検出回路、110はAFミラーであり、AFミラー110は撮影レンズを介して入射しハーフミラー104を通過した光束の一部を反射して焦点検出回路内のAFセンサに導く。AFセンサは撮像画面内に複数のAF領域を有していて、各AF領域のデフォーカス量を求めることができる。
Reference numeral 107 denotes a pentaprism, which guides the light beam incident through the photographing lens reflected by the half mirror 104 to the photometric sensor 106 and an optical viewfinder (not shown).
Reference numeral 108 denotes a memory such as a RAM or a ROM connected to the CPU 101.
Reference numeral 109 denotes a focus detection circuit, and 110 denotes an AF mirror. The AF mirror 110 reflects a part of the light beam incident through the taking lens and passed through the half mirror 104 and guides it to the AF sensor in the focus detection circuit. The AF sensor has a plurality of AF areas in the imaging screen, and can determine the defocus amount of each AF area.

CPU101は、焦点検出回路109からの出力に基づくAF制御情報を、レンズユニット200の各部を制御するレンズCPU201(以下、LCPUとする)へと送信する。LCPU201は、受信したAF制御情報に基づいてレンズユニット200内の撮影レンズを駆動させて自動焦点調節制御(以下、AF制御とする)を行う。   The CPU 101 transmits AF control information based on the output from the focus detection circuit 109 to a lens CPU 201 (hereinafter referred to as LCPU) that controls each part of the lens unit 200. The LCPU 201 performs automatic focus adjustment control (hereinafter referred to as AF control) by driving the photographing lens in the lens unit 200 based on the received AF control information.

111は電荷蓄積を行った後に測光センサ106から出力される画像信号の画像処理及び演算処理を行うためのCPU(以下、ICPUとする)であり、測光センサ106から出力される画像信号に基づいて、後述する被写体追尾や測光、顔検出などの演算を行う。ICPU111の測光演算の結果はCPU101へと伝えられ、CPU101は測光演算の結果に基づいてシャッター速度や絞り値を設定し露出制御を行う。   Reference numeral 111 denotes a CPU (hereinafter referred to as ICPU) for performing image processing and calculation processing of an image signal output from the photometric sensor 106 after charge accumulation, and based on the image signal output from the photometric sensor 106. Calculations such as subject tracking, photometry, and face detection described later are performed. The result of the photometric calculation of the ICPU 111 is transmitted to the CPU 101, and the CPU 101 sets the shutter speed and aperture value based on the result of the photometric calculation and performs exposure control.

なお、本実施形態では、測光センサ106から出力される画像信号の画像処理及び演算処理を行うためのCPUを、カメラ本体100の各部を制御するCPUとは別に設けたが、1つのCPUで両方の処理を行う構成であっても構わない。   In this embodiment, the CPU for performing image processing and calculation processing of the image signal output from the photometric sensor 106 is provided separately from the CPU that controls each part of the camera main body 100. It may be configured to perform the process.

また、レンズユニット200がカメラ本体100に内蔵されている構成や、CPU101が撮影レンズを駆動させてAF制御を行う構成であっても構わない。
112はICPU111に接続されているRAMやROM等のメモリである。
Further, a configuration in which the lens unit 200 is built in the camera body 100 or a configuration in which the CPU 101 drives the photographing lens to perform AF control may be used.
Reference numeral 112 denotes a memory such as a RAM or a ROM connected to the ICPU 111.

次に、図2を用いて、本実施形態における撮影時の動作シーケンスについて説明する。なお、図2では、連続撮影時のNコマ目(N≧2)の撮影を行う前のミラーダウン状態から(N+2)コマ目の撮影を行う前のミラーダウン状態までの動作シーケンスを示している。   Next, an operation sequence at the time of shooting in the present embodiment will be described with reference to FIG. FIG. 2 shows an operation sequence from the mirror-down state before shooting the Nth frame (N ≧ 2) during continuous shooting to the mirror-down state before shooting the (N + 2) th frame. .

まず、Nコマ目の撮影のために、ミラーダウン状態において測光センサ106が蓄積a1(第1の蓄積)を行う。この蓄積a1は被写体追尾に用いる画像信号を得るための蓄積であり、その蓄積時間は連続撮影時の連続撮影速度を低下させないように、かつ、AF制御に被写体追尾の演算処理の結果を反映できるようにICPU111によって設定される。そのため、連続撮影の連続撮影速度が所定値よりも高速の場合にはフリッカー周期より短い時間に設定される。ただし、蓄積時間が短すぎると十分な蓄積が行われず被写体追尾の演算処理ができなくなってしまうため、被写体追尾の演算処理が可能な画像信号を得るのに必要な蓄積時間が設定される。   First, in order to capture the Nth frame, the photometric sensor 106 performs accumulation a1 (first accumulation) in the mirror-down state. This accumulation a1 is an accumulation for obtaining an image signal used for subject tracking, and the accumulation time can reflect the result of subject tracking calculation processing in AF control so as not to reduce the continuous photographing speed during continuous photographing. Is set by the ICPU 111. Therefore, when the continuous shooting speed of continuous shooting is higher than a predetermined value, the time is set shorter than the flicker cycle. However, if the accumulation time is too short, sufficient accumulation is not performed and subject tracking calculation processing cannot be performed. Therefore, an accumulation time necessary for obtaining an image signal that can be subject tracking calculation processing is set.

なお、図2には示していないが、AF制御を行うための焦点検出回路109内のAFセンサによる蓄積も蓄積a1と並行して行われ、AFセンサによる蓄積の結果に基づいて、各AF領域のデフォーカス量の演算処理などが行われる。その後、デフォーカス量の演算結果や後述する追尾演算の結果等に基づいてAF制御が行われる。   Although not shown in FIG. 2, accumulation by the AF sensor in the focus detection circuit 109 for performing AF control is also performed in parallel with the accumulation a1, and each AF area is based on the accumulation result by the AF sensor. The defocus amount calculation processing is performed. After that, AF control is performed based on the calculation result of the defocus amount, the result of the tracking calculation described later, and the like.

このように、蓄積a1で得られた画像信号に基づいて被写体追尾を行うことで、連続撮影時の連続撮影速度を低下させることなく追尾結果を反映させたAF制御を行うことができる。   In this way, by performing subject tracking based on the image signal obtained in the accumulation a1, it is possible to perform AF control that reflects the tracking result without reducing the continuous shooting speed during continuous shooting.

蓄積a1が終了すると、蓄積された画像信号を読み出す読み出しRa1を開始する。さらに、読み出しRa1と並行して蓄積b1(第2の蓄積)を行う。この蓄積b1は、フリッカーの影響を軽減した測光演算を行うための蓄積であり、露出制御の開始までに測光演算処理を終了できるように設定される。   When the accumulation a1 is completed, the reading Ra1 for reading the accumulated image signal is started. Further, accumulation b1 (second accumulation) is performed in parallel with the reading Ra1. This accumulation b1 is an accumulation for performing photometric calculation with reduced influence of flicker, and is set so that the photometric calculation process can be completed before the start of exposure control.

このように、蓄積a1に続いて蓄積b1を行い、蓄積a1で得られた画像信号と蓄積b1で得られた画像信号とに基づいて測光演算を行うことで、フリッカーの影響を軽減した露出制御を行うことができる。   As described above, the exposure control that reduces the flicker effect by performing the storage b1 following the storage a1 and performing the photometric calculation based on the image signal obtained by the storage a1 and the image signal obtained by the storage b1. It can be performed.

図3(a)及び(b)に示すように、蓄積a1がフリッカー周期より短い場合には、蓄積a1がフリッカー周期の位相のどの部分と重複するかによって、蓄積された画像信号に基づく輝度値はばらついてしまう。そこで、図3(c)及び(d)に示すように、蓄積a1に続いて蓄積b1を行い、それぞれで蓄積された画像信号に基づいて測光演算を行う。そうすることで、蓄積a1で蓄積された画像信号のみに基づいて測光演算を行う場合よりも、測光演算に用いる画像信号の総蓄積時間が長くなる。そのため、蓄積a1で蓄積された画像信号のみに基づいて測光演算を行う場合よりもフリッカーの影響が軽減され、より正確な露出制御を行うことができる。さらに、蓄積a1と蓄積b1とで重複するフリッカー周期の位相を異ならせることで、蓄積a1及び蓄積b1を合わせた蓄積期間中のフリッカー光源の光量の平均値の変動が小さくなり、測光演算の結果が安定してより正確な露出制御を行うことができる。   As shown in FIGS. 3A and 3B, when the accumulation a1 is shorter than the flicker period, the luminance value based on the accumulated image signal depends on which part of the phase of the flicker period the accumulation a1 overlaps. It will vary. Therefore, as shown in FIGS. 3C and 3D, the accumulation b1 is performed after the accumulation a1, and the photometric calculation is performed based on the image signals accumulated in each. By doing so, the total accumulation time of the image signal used for the photometric calculation becomes longer than when the photometric calculation is performed based only on the image signal accumulated in the accumulation a1. Therefore, the influence of flicker is reduced compared to the case where the photometric calculation is performed based only on the image signal stored in the storage a1, and more accurate exposure control can be performed. Further, by varying the phase of the flicker cycle that overlaps between the accumulation a1 and the accumulation b1, the fluctuation of the average value of the light amount of the flicker light source during the accumulation period including the accumulation a1 and the accumulation b1 is reduced, and the result of the photometric calculation However, stable and more accurate exposure control can be performed.

なお、蓄積a1の蓄積時間と蓄積b1の蓄積時間との和がフリッカー周期の整数倍と略等しくなるように設定すれば、フリッカーの影響をより軽減することができる。   If the sum of the accumulation time of accumulation a1 and the accumulation time of accumulation b1 is set to be substantially equal to an integral multiple of the flicker cycle, the effect of flicker can be further reduced.

次に、読み出しRa1が終了したら被写体追尾の演算処理を開始する。被写体追尾の演算処理はAF制御の開始までに終了する必要があり、追尾演算処理がAF制御の開始までに終了するように、ICPU111は蓄積a1の蓄積時間を設定する。   Next, when the reading Ra1 is completed, the subject tracking calculation process is started. The subject tracking calculation process must be completed before the start of AF control, and the ICPU 111 sets the accumulation time of accumulation a1 so that the tracking calculation process is completed before the start of AF control.

そして、蓄積b1が終了すると、蓄積された画像信号を読み出す読み出しRb1を開始する。さらに、読み出しRb1と並行して蓄積c1(第3の蓄積)を行う。この蓄積c1は被写体の顔検出に用いる画像信号を得るための蓄積である。しかしながら、顔検出演算は追尾演算や測光演算に比べて演算に要する時間が長いため、蓄積c1が終了した直後に行われる撮影のためのAF制御などに顔検出演算の終了が間に合わない。そこで、蓄積c1で得られた画像信号を用いた顔検出演算の結果は、蓄積c1が終了した直後に行われる撮影ではなくその次の撮影のためのAF制御などに用いる。なお、蓄積c1で蓄積された画像信号を読み出す読み出しRc1はミラーアップ中でも実行可能なため、蓄積a1を開始してから蓄積c1が終了するまでの一連の処理がミラーダウン中に完了するように蓄積c1の蓄積時間はICPU111により設定される。そして、蓄積c1で蓄積された画像信号を読み出す読み出しRc1が終了する前にミラーアップ動作が開始される。そのため、顔検出演算は、ミラーアップ動作を開始した後に行われる。
以降も同様に、N+1及びN+2コマ目の撮影の前のミラーダウン中に、蓄積a2、b2、c2及び蓄積a3、b3、c3を行う。
When the accumulation b1 is completed, the read Rb1 for reading the accumulated image signal is started. Further, accumulation c1 (third accumulation) is performed in parallel with the reading Rb1. This accumulation c1 is an accumulation for obtaining an image signal used for detecting the face of the subject. However, since the face detection calculation requires a longer time than the tracking calculation or photometry calculation, the face detection calculation cannot be completed in time for AF control for photographing performed immediately after the accumulation c1 is completed. Therefore, the result of the face detection calculation using the image signal obtained in the storage c1 is used for AF control for the next shooting, not the shooting performed immediately after the storage c1 ends. The read Rc1 for reading the image signal stored in the storage c1 can be executed even while the mirror is up, so that the series of processes from the start of the storage a1 to the end of the storage c1 is completed during the mirror down. The accumulation time of c1 is set by the ICPU 111. Then, the mirror-up operation is started before the reading Rc1 for reading the image signal accumulated in the accumulation c1 is completed. Therefore, the face detection calculation is performed after the mirror up operation is started.
Similarly, accumulation a2, b2, and c2, and accumulation a3, b3, and c3 are performed during mirror down before photographing of the (N + 1) and N + 2 frames.

以上のように、本実施形態では、ミラーダウン中に蓄積a1、b1、c1を行う構成であるが、各種処理におけるフリッカーの影響を軽減するため、それぞれの蓄積において間欠蓄積を行ってもよい。   As described above, in the present embodiment, the accumulations a1, b1, and c1 are performed while the mirror is down. However, in order to reduce the influence of flicker in various processes, intermittent accumulation may be performed in each accumulation.

図3(a)及び(b)に示すように、蓄積a1がフリッカー周期より短い場合には、蓄積期間がフリッカー周期の位相のどの部分と重複するかによって、蓄積された画像信号に基づく輝度値はばらついてしまう。   As shown in FIGS. 3A and 3B, when the accumulation a1 is shorter than the flicker period, the luminance value based on the accumulated image signal depends on which part of the phase of the flicker period the accumulation period overlaps. It will vary.

そこで、図3(e)に示すように間欠させて複数回の蓄積を行い、一括して蓄積を行う場合の蓄積時間を蓄積回数で分割した時間でそれぞれ蓄積を行うようにする。すなわち、図3(a)に示した蓄積時間と、図3(e)の複数回の蓄積の総蓄積時間とは等しい時間である。そして、間欠蓄積により得られた画像信号を蓄積a1で得られた画像信号とする。   Therefore, as shown in FIG. 3E, accumulation is performed intermittently for a plurality of times, and accumulation is performed for each time divided by the number of times of accumulation when accumulation is performed collectively. That is, the accumulation time shown in FIG. 3A is equal to the total accumulation time of a plurality of accumulations shown in FIG. The image signal obtained by intermittent accumulation is used as the image signal obtained by accumulation a1.

このように間欠蓄積を行う場合、蓄積期間と重複するフリッカー周期の位相が分散されるため、通常の蓄積を行う場合よりもフリッカーの影響を軽減することができる。   When intermittent accumulation is performed in this way, the flicker cycle phase overlapping with the accumulation period is dispersed, so that the influence of flicker can be reduced compared to normal accumulation.

なお、上述の間欠蓄積において、各蓄積が終了するごとに画像信号を読み出すのではなく、各蓄積で蓄積された画像信号を積分し、すべての蓄積が終了してから画像信号を読み出すことが望ましい。このようにすれば、各蓄積の後の画像信号の読み出しを省略することができ、処理の負荷を軽減することができる。   In the intermittent accumulation described above, it is desirable not to read out the image signal every time each accumulation is completed, but to integrate the image signals accumulated in each accumulation and read out the image signal after all the accumulations are completed. . In this way, reading of the image signal after each accumulation can be omitted, and the processing load can be reduced.

このような間欠蓄積は、蓄積a1、b1、c1の少なくとも1つで実行してもよく、それぞれの蓄積時間に応じて間欠蓄積を行うか否かを切り換えてもよい。例えば、蓄積時間がフリッカー周期よりも短くフリッカーの影響が大きいと思われる場合に間欠蓄積を行うようにしてもよい。   Such intermittent accumulation may be executed in at least one of accumulations a1, b1, and c1, and whether to perform intermittent accumulation may be switched according to each accumulation time. For example, intermittent accumulation may be performed when the accumulation time is shorter than the flicker cycle and the influence of flicker is considered large.

また、図3(f)に示すように、蓄積a1と蓄積b1の両方で間欠蓄積の行った場合、図3(c)及び(d)の示す場合よりもさらに蓄積期間と重複するフリッカー周期の位相が分散されるため、フリッカーの影響をより軽減することができる。   Further, as shown in FIG. 3 (f), when intermittent accumulation is performed in both accumulation a1 and accumulation b1, the flicker cycle overlapping with the accumulation period is further increased than in the cases shown in FIGS. 3 (c) and 3 (d). Since the phase is dispersed, the influence of flicker can be further reduced.

次に、本実施形態のおける画像信号の読み出し方法について図4を用いて説明する。本実施形態では、図4に示すような、R、G、Bの各画素がストライプ状に並んだストライプ型CCDを測光センサ106に用いており、このようなストライプ型CCDでは垂直方向にアナログ的に画素加算をすることが可能となる。   Next, a method for reading an image signal in this embodiment will be described with reference to FIG. In this embodiment, a striped CCD in which R, G, and B pixels are arranged in a stripe shape as shown in FIG. 4 is used for the photometric sensor 106. In such a striped CCD, an analog type is used in the vertical direction. It is possible to add a pixel to.

そこで、例えば、画素加算数を4画素にして加算すると、読み出される画像信号に基づく画像のサイズは垂直方向に1/4縮小される。このとき、画素加算することで画像信号の出力レベルは画素加算しないとき(全画素読み出し)の約4倍になるので、約1/4の蓄積時間で画素加算しないで読み出した画像信号に基づく画像と同等の明るさの画像を得ることができる。また、画素加算しないときよりも画像信号の読み出し量も減少するため、画像信号の読み出しに要する時間を短縮することができる。   Therefore, for example, when the number of added pixels is set to 4 pixels, the size of the image based on the read image signal is reduced by ¼ in the vertical direction. At this time, the output level of the image signal by adding pixels is about four times that when no pixels are added (reading all pixels). Therefore, an image based on an image signal read without adding pixels in an accumulation time of about 1/4. Can be obtained. In addition, since the amount of image signal read out is smaller than when no pixels are added, the time required to read out the image signal can be shortened.

また、読み出しRa1、Rb1において、上述したように画素加算読み出しを行うことで、暗い被写体に対しても短い蓄積時間で被写体追尾の演算処理が可能な画像信号を得ることができる。なお、画素加算読み出しを行うことで蓄積時間が短くなりフリッカーの影響が大きくなることが考えられるが、前述した間欠蓄積と組み合わせることでフリッカーの影響を抑えることができる。   Further, by performing pixel addition reading as described above in the readings Ra1 and Rb1, it is possible to obtain an image signal that can be subjected to subject tracking calculation processing in a short accumulation time even for a dark subject. Although it is considered that the accumulation time is shortened and the influence of flicker is increased by performing pixel addition reading, the influence of flicker can be suppressed by combining with the intermittent accumulation described above.

なお、画素加算を行うと画像の解像度が落ちてしまうため、予め用意された顔のパターンとのマッチングによって画像内に人物の顔があるかどうかを判定する方法により被写体の顔検出を行う場合には検出精度が低下してしまう。そのため、このような方法により被写体の顔検出を行う場合には、被写体の顔検出に用いる画像信号を得るための蓄積である蓄積c1で蓄積された画像信号を読み出す読み出しRc1では、画素加算を行わずに全画素読み出しを行うことが望ましい。   Note that when pixel addition is performed, the resolution of the image is reduced. Therefore, when face detection of a subject is performed by a method for determining whether a human face is present in an image by matching with a face pattern prepared in advance. Will reduce the detection accuracy. Therefore, when subject face detection is performed by such a method, pixel addition is performed in the read Rc1 for reading out the image signal accumulated in the accumulation c1, which is accumulation for obtaining an image signal used for subject face detection. It is desirable to read out all pixels without using any other method.

次に、本実施形態における測光演算について図5を用いて説明する。図5のように、測光センサ106で蓄積を行って得られた画像信号に基づく画像は縦I個、横J個の測光領域に分割される。ここで、各測光領域には縦m個、横n個の画素があり、I×m=M、J×n=Nで、測光センサ106全体ではM×Nの画素となる。   Next, photometric calculation in this embodiment will be described with reference to FIG. As shown in FIG. 5, the image based on the image signal obtained by accumulation by the photometric sensor 106 is divided into I photometers and J photometers. Here, each photometric area has m pixels vertically and n pixels horizontally, I × m = M, J × n = N, and the photometric sensor 106 as a whole becomes M × N pixels.

そして、各測光領域において、R、G、Bのそれぞれの画素の平均出力Ra、Ga、Baを算出し、算出されたRa、Ga、Baから各測光領域の輝度値Yijを算出する。
Yijは例えば以下の式(1)によって求められる。
Yij=A×Ra+B×Ga+C×Ba ・・・(1)
R、G、Bの混合比A、B、Cに適当な値を入れることで輝度Yijが求められる。
In each photometric area, average outputs Ra, Ga, and Ba of R, G, and B pixels are calculated, and a luminance value Yij of each photometric area is calculated from the calculated Ra, Ga, and Ba.
Yij is obtained by the following equation (1), for example.
Yij = A × Ra + B × Ga + C × Ba (1)
Luminance Yij is obtained by entering an appropriate value for the mixing ratios A, B, and C of R, G, and B.

次に、評価測光やスポット測光等の測光モードに応じて各測光領域のYijに重み付けをかけた加重平均演算を行い、測光領域全体の輝度値を取得する。
以上の測光演算を蓄積a1を行って得られた画像信号、及び、蓄積b1を行って得られた画像信号に対して行い、それぞれの輝度値Y1、Y2を取得する。
Next, a weighted average calculation is performed by weighting Yij of each photometric area in accordance with a photometric mode such as evaluation photometry or spot photometry, and a luminance value of the entire photometric area is obtained.
The above photometric calculation is performed on the image signal obtained by performing accumulation a1 and the image signal obtained by performing accumulation b1, and respective luminance values Y1 and Y2 are obtained.

ここで、蓄積a1の蓄積時間をT1、蓄積b1の蓄積時間をT2とすると、露出制御に用いる最終輝度値Yは以下の式(2)で表される。
Y=(Y1/T1+Y2/T2)×T1/2 ・・・(2)
上記の式(2)は、蓄積a1、b1をともに蓄積時間T1で蓄積を行った場合に得られるそれぞれの輝度値の平均値を求める式となっているが、最終輝度値を求める計算式は式(2)に限らない。例えば、蓄積a1、b1をともに蓄積時間T2で蓄積を行った場合に得られるそれぞれの輝度値の平均値を求める式としてもよいし、蓄積a1、b1をともに所定の蓄積時間Tsで蓄積を行った場合に得られるそれぞれの輝度値の平均値を求める式としてもよい。
Here, when the accumulation time of accumulation a1 is T1, and the accumulation time of accumulation b1 is T2, the final luminance value Y used for exposure control is expressed by the following equation (2).
Y = (Y1 / T1 + Y2 / T2) × T1 / 2 (2)
The above equation (2) is an equation for obtaining the average value of the respective luminance values obtained when the accumulations a1 and b1 are both accumulated at the accumulation time T1, but the calculation equation for obtaining the final luminance value is as follows. It is not restricted to Formula (2). For example, an equation for obtaining the average value of the respective luminance values obtained when the accumulations a1 and b1 are both accumulated at the accumulation time T2 may be used, or the accumulations a1 and b1 are both accumulated at the predetermined accumulation time Ts. It is also possible to use an equation for obtaining an average value of the respective luminance values obtained in the case of

また、蓄積a1の蓄積時間と蓄積b1の蓄積時間とを同じにするとともに、それぞれの蓄積時間をフリッカー周期の半分にして単純に加算平均する式(3)等も考えられる。
Y=(Y1+Y2)/2 ・・・(3)
式(3)のように、蓄積a1の蓄積時間と蓄積b1の蓄積時間とを合わせた総蓄積時間時間がフリッカー周期と同じ時間となるようにそれぞれの蓄積時間を設定すると、フリッカーの影響をより軽減することができる。
In addition, the storage time of the storage a1 and the storage time of the storage b1 are set to be the same, and the expression (3) or the like in which each storage time is half the flicker cycle and is simply added and averaged is also considered.
Y = (Y1 + Y2) / 2 (3)
If each accumulation time is set so that the total accumulation time of the accumulation time of accumulation a1 and the accumulation time of accumulation b1 becomes the same time as the flicker cycle as shown in Expression (3), the influence of flicker is further increased. Can be reduced.

なお、蓄積a1、b1、c1の蓄積時間は、予め決められた所定時間を設定してもよいし、前回の測光演算の結果に基づいてICPU111によって設定してもよい。前回の測光演算の結果に基づいてICPU111によって設定する場合は、例えば、前回の測光演算の結果から得られた最終輝度値Yが低い時よりも最終輝度値Yが高い時の方が蓄積時間が短くなるように設定する。   Note that the accumulation times of accumulations a1, b1, and c1 may be set to a predetermined time, or may be set by the ICPU 111 based on the result of the previous photometric calculation. When setting by the ICPU 111 based on the result of the previous photometric calculation, for example, the accumulation time is higher when the final luminance value Y is higher than when the final luminance value Y obtained from the result of the previous photometric calculation is low. Set to be shorter.

次に、被写体追尾の演算処理について説明する。本実施形態における追尾演算は、例えば、蓄積a1を行って得られた画像と蓄積a2を行って得られた画像とを比較し、所定の条件を満たす追尾対象の輝度パターン及び色パターンの分布からその追尾対象がどこに移動したかを演算(パターンマッチング)する。すなわち、撮像画面内において所定の条件を満たす対象の追尾を行う。そして、追尾対象の移動に合わせてピントを合わせるAF領域を変更させてAF制御を行う。あるいは、追尾対象の移動に合わせて各測光領域に対する重み付けを変更させて露出制御を行う。   Next, subject tracking calculation processing will be described. The tracking calculation in the present embodiment is performed by, for example, comparing an image obtained by performing accumulation a1 with an image obtained by performing accumulation a2, and based on the distribution of luminance patterns and color patterns to be tracked satisfying predetermined conditions. Calculate (pattern matching) where the tracking target has moved. That is, tracking of a target that satisfies a predetermined condition in the imaging screen is performed. Then, AF control is performed by changing the AF area to be focused in accordance with the movement of the tracking target. Alternatively, exposure control is performed by changing the weighting for each photometric area in accordance with the movement of the tracking target.

図6は、追尾対象の移動に合わせたAF制御を示した図である。
連続撮影時の初期状態において、撮像画面内の図6(a)の位置に主要被写体が存在していた場合、主要被写体が存在する位置にあるAF枠7がピントを合わせるAF領域を示す枠として設定されてAF制御が行われる。なお、図6(a)〜(d)において、ピントを合わせるAF領域を示す枠として設定されたAF枠は他のAF枠に比べて太い枠で表すこととする。
FIG. 6 is a diagram illustrating AF control in accordance with the movement of the tracking target.
In the initial state at the time of continuous shooting, when the main subject exists at the position of FIG. 6A in the imaging screen, the AF frame 7 at the position where the main subject exists is used as a frame indicating the AF area to be focused. It is set and AF control is performed. In FIGS. 6A to 6D, the AF frame set as a frame indicating the AF area to be focused is represented by a thicker frame than the other AF frames.

AF制御を行いAF枠7に対応する領域にピントを合わせた後、被写体追尾に用いる画像信号を得るための蓄積を行う。そして、ICPU111は、得られた画像中のAF枠7を基準とした所定領域を、追尾演算において輝度パターン及び色パターンのマッチングを行う領域である追尾領域として設定する。なお、被写体追尾の演算処理に用いる画像信号は画素加算を行って読み出すことも可能であるが、図6では全画素読み出しを行った場合の画像を示している。   After performing AF control and focusing on an area corresponding to the AF frame 7, accumulation for obtaining an image signal used for subject tracking is performed. Then, the ICPU 111 sets a predetermined area based on the AF frame 7 in the obtained image as a tracking area that is an area for matching the luminance pattern and the color pattern in the tracking calculation. Note that an image signal used for subject tracking calculation processing can be read out by performing pixel addition, but FIG. 6 shows an image when all pixels are read out.

その後、主要被写体の存在する位置が移動して図6(b)の位置に変化した状態で、次の被写体追尾に用いる画像信号を得るための蓄積を行ったとする。そのようにして得られた今回の画像中のどこに追尾対象が移動したかを判定するため、ICPU111は、AF枠7に基づいて設定された追尾領域を基準とした所定領域を追尾対象を探索する領域である探索領域として設定する。なお、探索領域は、追尾領域を含み、追尾領域よりも広い領域となるように設定される。   Thereafter, it is assumed that accumulation for obtaining an image signal used for tracking the next subject is performed in a state where the position where the main subject exists is changed to the position shown in FIG. 6B. In order to determine where the tracking target has moved in the current image thus obtained, the ICPU 111 searches the tracking target for a predetermined area based on the tracking area set based on the AF frame 7. It is set as a search area that is an area. The search area includes the tracking area and is set to be an area wider than the tracking area.

そして、ICPU111は、今回得られた画像の探索領域内において、前回得られた画像の追尾領域の輝度パターン及び色パターンとマッチングする領域が存在するか判定する。なお、探索領域を広く設定するほど追尾対象の位置が大きく変化しても追尾可能となるが、広くするほど判定に要する時間が長くなるため、追尾精度や追尾演算に利用可能な時間などを鑑みて探索領域を設定すればよい。   Then, the ICPU 111 determines whether there is an area that matches the luminance pattern and the color pattern of the tracking area of the previously obtained image in the search area of the image obtained this time. As the search area is set wider, tracking is possible even if the position of the tracking target changes greatly. However, the wider the search area, the longer the time required for determination, so in consideration of tracking accuracy, time available for tracking calculation, etc. To set the search area.

探索領域内に追尾領域とマッチングする領域が存在すると判定した場合、その領域内に存在するAF枠を次のピントを合わせるAF領域を示すAF枠として設定する。図6(b)では、AF枠8がそれに相当する。そして、AF枠8に対応する領域にピントを合わせるようにAF制御が行われた後に撮像が行われる。   When it is determined that there is an area that matches the tracking area in the search area, the AF frame existing in the area is set as an AF frame indicating an AF area to be focused next. In FIG. 6B, the AF frame 8 corresponds to that. Then, after AF control is performed so that the area corresponding to the AF frame 8 is focused, imaging is performed.

なお、探索領域内に追尾領域とマッチングする領域が存在すると判定する際には、追尾領域との一致度が所定値以上の領域が存在すればマッチングする領域が存在すると判定してもよい。   When determining that there is a region that matches the tracking region in the search region, it may be determined that there is a matching region if there is a region whose degree of coincidence with the tracking region is a predetermined value or more.

また、ICPU111は、今回得られた画像における、前回得られた画像の追尾領域とマッチングする領域を新たに追尾領域に設定する。   Further, the ICPU 111 newly sets an area that matches the tracking area of the previously obtained image in the image obtained this time as a tracking area.

その後、主要被写体の存在する位置が移動して図6(c)の位置に変化した状態で、次の被写体追尾に用いる画像信号を得るための蓄積を行ったとする。そのようにして得られた今回の画像中のどこに追尾対象が移動したかを判定するため、ICPU111は、追尾領域の位置を基準にして探索領域を設定する。すなわち、前回新たに設定された追尾領域はAF枠8を中心付近とした領域であるため、それに合わせて前回とは探索領域を変更させる。   After that, it is assumed that accumulation for obtaining an image signal used for the next subject tracking is performed in a state where the position where the main subject exists is changed to the position shown in FIG. In order to determine where the tracking target has moved in the current image thus obtained, the ICPU 111 sets a search area based on the position of the tracking area. That is, since the tracking area newly set last time is an area having the AF frame 8 near the center, the search area is changed from the previous time accordingly.

図6(c)から主要被写体の位置が移動した図6(d)も同様に、探索領域を変更して追尾対象の探索を行う。
以降も連続撮影時の各撮像を行う前に追尾演算を行うことで、初期状態で追尾対象とした主要被写体に対して常にピントを合わせた撮像を行うことができる。
Similarly in FIG. 6D in which the position of the main subject has moved from FIG. 6C, the search area is changed and the tracking target is searched.
Thereafter, by performing the tracking calculation before each imaging in the continuous shooting, it is possible to always perform the imaging in focus on the main subject to be tracked in the initial state.

なお、連続撮影時の各追尾演算において、追尾演算に失敗した場合、例えば、図6(a)〜(d)の図6(c)の状態において追尾演算に失敗した場合、図6(d)の状態での追尾演算では、図6(b)の追尾領域に基づいて追尾演算を行えばよい。すなわち、図6(d)に示した画像における、図6(b)に示した画像の追尾領域とマッチングする領域を探索すればよい。この場合、連続した画像間で追尾演算を行う場合よりも被写体の位置が大きく変化することが想定されるため、探索領域を通常よりも広く設定して探索を行うようにしてもよい。   In addition, in each tracking calculation at the time of continuous shooting, when the tracking calculation fails, for example, when the tracking calculation fails in the state of FIG. 6C of FIGS. 6A to 6D, FIG. In the tracking calculation in this state, the tracking calculation may be performed based on the tracking area in FIG. That is, an area that matches the tracking area of the image shown in FIG. 6B in the image shown in FIG. In this case, since it is assumed that the position of the subject changes more than in the case where the tracking calculation is performed between consecutive images, the search may be performed with the search area set wider than usual.

あるいは、連続撮影時の各追尾演算において、追尾演算に失敗した場合、再度追尾対象を設定し直すようにしてもよい。
また、被写体の追尾演算に用いる各画像は、その蓄積時間がフリッカー周期より短い時間であればフリッカーの影響により明るさがばらついてしまうことが考えられる。そのような場合は、各画像の明るさを略同レベルにするような処理を行ってから画像の比較を行えばよい。
Alternatively, if the tracking calculation fails in each tracking calculation during continuous shooting, the tracking target may be set again.
Further, it is conceivable that the brightness of each image used for subject tracking calculation varies due to the effect of flicker if the accumulation time is shorter than the flicker cycle. In such a case, the images may be compared after performing a process for making the brightness of each image substantially the same level.

また、上述の被写体追尾の演算処理に顔検出演算の結果を用いることも可能であり、顔検出結果を用いることでより正確に被写体追尾を行うことができる。以下では、顔検出結果を用いた被写体追尾の演算処理を図7を用いて説明する。図7は、顔検出結果を用いた場合の追尾対象の移動に合わせたAF制御を示した図である。なお、人物の顔を検出する技術については、周知の方法のいずれかの方法を用いればよく、例えば、測光データを色相と彩度に変換し、この2次元ヒストグラムを作成、解析することで顔領域を判断する方法を用いればよい。あるいは、人物の顔の形状に相当する顔候補領域を抽出し、その領域内の特徴量から顔領域を決定する方法を用いればよい。   Further, the result of face detection calculation can be used in the above-described subject tracking calculation process, and subject tracking can be performed more accurately by using the face detection result. Hereinafter, the subject tracking calculation process using the face detection result will be described with reference to FIG. FIG. 7 is a diagram illustrating AF control in accordance with the movement of the tracking target when the face detection result is used. As a technique for detecting a person's face, any one of well-known methods may be used. For example, the face is obtained by converting photometric data into hue and saturation, and creating and analyzing this two-dimensional histogram. A method for determining an area may be used. Alternatively, a method may be used in which a face candidate area corresponding to the shape of the person's face is extracted and the face area is determined from the feature amount in the area.

連続撮影時の初期状態において、図7(a)の位置に主要被写体が存在していた場合、主要被写体が存在する位置にあるAF枠7に対応するAF領域にピントを合わせるようにAF制御が行われる。なお、図7(a)〜(d)において、ピントを合わせるAF領域を示す枠として設定されたAF枠は他のAF枠に比べて太い枠で表すこととする。この状態では、主要被写体の顔以外の領域がピントを合わせるAF領域として設定されていてもよい。   When the main subject is present at the position shown in FIG. 7A in the initial state during continuous shooting, AF control is performed so that the AF area corresponding to the AF frame 7 at the position where the main subject exists is focused. Done. In FIGS. 7A to 7D, the AF frame set as a frame indicating the AF area to be focused is represented by a thicker frame than the other AF frames. In this state, an area other than the face of the main subject may be set as an AF area to be focused.

そして、AF枠7に対応する領域にピントを合わせた状態で、被写体追尾に用いる画像信号を得るための蓄積、及び、被写体の顔検出に用いる画像信号を得るための蓄積を行う。そして、得られた画像信号に基づいて顔検出演算を行い、検出された被写体の顔領域を、被写体追尾に用いる画像における追尾領域として設定する。   Then, in a state where the area corresponding to the AF frame 7 is in focus, accumulation for obtaining an image signal used for subject tracking and accumulation for obtaining an image signal used for detecting the face of the subject are performed. Then, face detection calculation is performed based on the obtained image signal, and the detected face area of the subject is set as a tracking area in an image used for subject tracking.

その後、主要被写体の存在する位置が移動して図7(b)の位置に変化した状態で、次の被写体追尾に用いる画像信号を得るための蓄積及び被写体の顔検出に用いる画像信号を得るための蓄積を行ったとする。そのようにして今回得られた画像中のどこに追尾対象が移動したかを判定するため、前回得られた画像中の追尾領域の位置を基準とした探索領域を設定する。すなわち、図7(a)に示す画像において、顔検出演算によりAF枠2付近の領域を被写体の顔領域とし、この顔領域を追尾領域として設定しているため、探索領域はこの顔検出領域を基準とした所定領域に設定される。   Thereafter, in a state where the position where the main subject exists is moved and changed to the position shown in FIG. 7B, accumulation for obtaining an image signal used for tracking the next subject and image signal used for detecting the face of the subject are obtained. Is accumulated. Thus, in order to determine where in the image obtained this time the tracking target has moved, a search area is set based on the position of the tracking area in the previously obtained image. That is, in the image shown in FIG. 7A, the area near the AF frame 2 is set as the face area of the subject by face detection calculation, and this face area is set as the tracking area. The predetermined area is set as a reference.

そして、今回得られた画像の探索領域内において、前回得られた画像の追尾領域の輝度パターン及び色パターンとマッチングする領域が存在するか探索する。   Then, in the search area of the image obtained this time, it is searched whether there is an area that matches the luminance pattern and color pattern of the tracking area of the image obtained last time.

探索領域内に追尾領域とマッチングする領域が存在した場合、その領域内に存在するAF枠を次のピントを合わせるAF領域を示すAF枠として設定する。図7(b)では、AF枠3がそれに相当する。そして、AF枠3に対応する領域にピントを合わせるようにAF制御が行われた後に撮像が行われる。   If there is an area that matches the tracking area in the search area, the AF frame that exists in that area is set as an AF frame that indicates the AF area to be focused next. In FIG. 7B, the AF frame 3 corresponds to that. Then, after AF control is performed so that an area corresponding to the AF frame 3 is focused, imaging is performed.

なお、ここでのAF制御には、図7(b)の位置に被写体がいる状態で蓄積された画像信号を用いた顔検出演算は間に合わないため、顔検出演算の結果は次のAF制御のための追尾演算に用いられる。   In this AF control, the face detection calculation using the image signal accumulated with the subject at the position shown in FIG. 7B is not in time, so the result of the face detection calculation is the result of the next AF control. Used for tracking operation.

また、図7(b)の位置に被写体がいる状態で蓄積された画像信号を用いた顔検出演算を行い、検出された被写体の顔領域を、被写体追尾に用いる画像における追尾領域として新たに設定する。
このように、顔検出演算の結果に基づいて、各追尾演算の追尾領域を設定することで、追尾対象の顔領域を正確に追尾することができる。
Further, face detection calculation is performed using the image signal accumulated with the subject at the position of FIG. 7B, and the detected face area of the subject is newly set as a tracking area in the image used for subject tracking. To do.
In this manner, by setting the tracking area for each tracking calculation based on the result of the face detection calculation, the tracking target face area can be accurately tracked.

なお、今回得られた被写体の追尾演算に用いる画像における前回の追尾領域とマッチングする領域と、検出された被写体の顔領域とが略等しい場合には、前回の追尾領域とマッチングする領域を新たな追尾領域として設定してもよい。   If the region that matches the previous tracking region in the image used for the tracking operation of the subject obtained this time and the detected face region of the subject are substantially equal, the region that matches the previous tracking region is a new region. It may be set as a tracking area.

その後、さらに主要被写体の存在する位置が移動して図7(c)の位置に変化した状態で、次の被写体追尾に用いる画像信号を得るための蓄積及び被写体の顔検出に用いる画像信号を得るための蓄積を行ったとする。   Thereafter, in a state where the position where the main subject exists further moves and changes to the position shown in FIG. 7C, an image signal used for accumulation and image detection used to detect the face of the subject is obtained. Suppose you have accumulated for that.

そのようにして今回得られた画像中のどこに追尾対象が移動したかを判定するため、前回得られた画像中の追尾領域の位置を基準として探索領域を設定する。すなわち、前回の画像の追尾領域は、図7(b)の状態において被写体の顔領域が存在したAF枠3を中心付近とした領域であるため、それに合わせて前回とは探索領域を変更させる。探索領域内に追尾領域とマッチングする領域が存在した場合、その領域内に存在するAF枠を次のピントを合わせるAF領域を示すAF枠として設定する。図7(c)では、AF枠4がそれに相当する。そして、AF枠4に対応する領域にピントを合わせるようにAF制御が行われた後に撮像が行われる。   In this manner, in order to determine where the tracking target has moved in the image obtained this time, a search area is set based on the position of the tracking area in the image obtained last time. That is, since the tracking area of the previous image is an area around the center of the AF frame 3 where the face area of the subject exists in the state of FIG. 7B, the search area is changed from the previous area accordingly. If there is an area that matches the tracking area in the search area, the AF frame that exists in that area is set as an AF frame that indicates the AF area to be focused next. In FIG. 7C, the AF frame 4 corresponds to that. Then, after AF control is performed so that an area corresponding to the AF frame 4 is focused, imaging is performed.

図7(c)からさらに主要被写体の位置が移動した図7(d)も同様に、図7(c)の位置に被写体がいる状態で蓄積された画像信号を用いた顔検出演算により検出された顔領域を追尾領域として探索領域を設定して追尾対象の探索を行う。   Similarly, FIG. 7D in which the position of the main subject has moved further from FIG. 7C is detected by face detection calculation using an image signal accumulated with the subject at the position of FIG. 7C. The search area is set with the face area as the tracking area, and the tracking target is searched.

以降も連続撮影時の各撮影を行う前に顔検出結果を用いた追尾演算を行うことで、初期状態で追尾対象とした主要被写体、特に主要被写体の顔領域に対して常にピントを合わせた撮影を行うことができる。   After that, by performing tracking calculation using the face detection result before each shooting in continuous shooting, the main subject that is the tracking target in the initial state, especially the focus area of the main subject is always in focus It can be performed.

なお、図7では、検出された被写体の顔領域に対応するAF領域にピントを合わせるようにAF制御を行っている。しかしながら、被写体の顔領域の下側の領域も顔領域と被写体距離が略同一であると考えられるため、検出された被写体の顔領域に対応するAF領域が存在しない場合などには被写体の顔領域の下側の領域に対応するAF領域にピントを合わせるようにしてもよい。   In FIG. 7, AF control is performed so that the AF area corresponding to the detected face area of the subject is in focus. However, since the lower area of the subject's face area is also considered to have substantially the same subject distance as the face area, the subject's face area is used when there is no AF area corresponding to the detected face area of the subject. The AF area corresponding to the lower area may be focused.

以上のように、連続撮影時の各撮撮像前に測光センサ106による蓄積動作を複数回行い、最初の蓄積動作により得られた画像信号に基づいて被写体追尾を行うことで、連続撮影時の連続撮影速度を低下させることなく被写体追尾を行うことができる。また、複数回の蓄積動作により得られた画像信号に基づいて露出制御を行うことで、1回の蓄積動作の蓄積時間がフリッカー周期よりも短い場合であっても、フリッカーの影響を軽減した露出制御を行うことができる。   As described above, the accumulation operation by the photometric sensor 106 is performed a plurality of times before each photographing at the time of continuous photographing, and subject tracking is performed based on the image signal obtained by the first accumulation operation, thereby continuously Subject tracking can be performed without reducing the shooting speed. In addition, by performing exposure control based on image signals obtained by a plurality of accumulation operations, even if the accumulation time of one accumulation operation is shorter than the flicker cycle, the exposure that reduces the influence of flicker Control can be performed.

また、前回のミラーダウン状態において測光センサ10で蓄積を行って得られた画像信号に基づく顔検出の結果を今回の撮像のための追尾演算に用いることで、連続撮影速度を低下させることなく被写体検出の検出結果を反映させた被写体追尾を行うことができる。   In addition, by using the face detection result based on the image signal obtained by accumulation by the photometric sensor 10 in the previous mirror-down state for the tracking calculation for the current imaging, the subject can be captured without reducing the continuous shooting speed. Subject tracking reflecting the detection result of detection can be performed.

なお、本実施形態では、追尾演算の基準となる輝度パターン及び色パターンを被写体追尾に用いる画像が得られるたびに更新する場合を説明したが、最初に追尾基準として決定された輝度パターン及び色パターンを維持して追尾演算を行ってもよい。   In the present embodiment, the case where the luminance pattern and the color pattern that are the reference for the tracking calculation are updated every time an image used for subject tracking is obtained is described. However, the luminance pattern and the color pattern that are initially determined as the tracking reference are described. The tracking calculation may be performed while maintaining

また、本実施形態では、蓄積a1と蓄積b1のように、測光演算に用いる蓄積を複数回行っているが、連続撮影ではない場合や連続撮影の1コマ目の撮像前など1回の蓄積で十分な蓄積時間を確保できる場合には、測光演算に用いる蓄積を複数回行わなくてもよい。あるいは、連続撮影を行う場合であっても、連続撮影速度が所定値よりも高速である場合は測光演算に用いる蓄積を複数回行い、連続撮影速度が所定値よりも高速でない場合は測光演算に用いる蓄積を複数回行わなくてもよい。   In this embodiment, the accumulation used for the photometric calculation is performed a plurality of times as in the accumulation a1 and the accumulation b1. If a sufficient accumulation time can be secured, the accumulation used for the photometric calculation need not be performed a plurality of times. Or, even when continuous shooting is performed, if the continuous shooting speed is higher than the predetermined value, accumulation used for photometry calculation is performed multiple times, and if the continuous shooting speed is not higher than the predetermined value, the photometry calculation is performed. The accumulation used may not be performed a plurality of times.

また、本実施形態では、顔検出演算により人物である被写体の顔領域の検出を行っているが、その他の所定の条件を持たす被写体領域を検出対象として被写体検出を行ってもよい。例えば、予めユーザが検出対象とする被写体領域を設定し、以降の被写体検出演算において設定された被写体領域の検出を行うようにしてもよい。   In the present embodiment, the face area of a subject that is a person is detected by face detection calculation. However, the subject detection may be performed using a subject area that has other predetermined conditions as a detection target. For example, a subject area to be detected by the user may be set in advance, and the subject area set in the subsequent subject detection calculation may be detected.

100 カメラ本体
101 CPU
102 撮像素子
106 測光センサ
109 焦点検出回路
111 ICPU
200 レンズユニット
201 LCPU
100 Camera body 101 CPU
102 Image sensor 106 Photometric sensor 109 Focus detection circuit 111 ICPU
200 Lens unit 201 LCPU

Claims (13)

撮像手段と、
入射光量に応じた電荷の蓄積を行う電荷蓄積手段と、
被写体の追尾を行う追尾手段と、
露出制御を行う露出制御手段と、を有し、
前記電荷蓄積手段は、第1の蓄積を行った後に第2の蓄積を行い、
前記追尾手段は、前記第2の蓄積を行って得られた画像信号を用いずに前記第1の蓄積を行って得られた画像信号に基づいて前記追尾を行い、
前記露出制御手段は、前記第1の蓄積を行って得られた画像信号及び前記第2の蓄積を行って得られた画像信号に基づいて、露出制御を行うことを特徴とする撮像装置。
Imaging means;
Charge storage means for storing charges according to the amount of incident light;
Tracking means for tracking the subject;
Exposure control means for performing exposure control,
The charge storage means performs a second accumulation after the first accumulation,
The tracking means performs the tracking based on the image signal obtained by performing the first accumulation without using the image signal obtained by performing the second accumulation,
Said exposure control means, said first accumulating image signals and the obtained by performing on the basis of the second image signal obtained by performing accumulation of the imaging device and performs Exposure control.
撮影レンズを介して入射した光束の光路を前記電荷蓄積手段へ導く第1の状態と前記撮像手段へ導く第2の状態とに変更する光路変更手段を有し、
前記電荷蓄積手段は、前記光路が前記第1の状態のときに前記第1の蓄積及び前記第2の蓄積を行うことを特徴とする請求項1に記載の撮像装置。
An optical path changing means for changing an optical path of a light beam incident through the taking lens into a first state leading to the charge storage means and a second state leading to the imaging means;
The imaging apparatus according to claim 1, wherein the charge accumulation unit performs the first accumulation and the second accumulation when the optical path is in the first state.
前記撮像装置は、連続撮影が可能であって、
前記光路変更手段は、前記撮像手段により撮像を行うときは前記光路を前記第2の状態にして前記撮像手段により撮像を行った後は前記光路を前記第1の状態にし、
前記電荷蓄積手段は、前記光路が前記第2の状態から前記第1の状態に変更されてから、前記第1の状態から前記第2の状態に変更されるまでの間に、前記第1の蓄積及び前記第2の蓄積を行うことを特徴とする請求項2に記載の撮像装置。
The imaging device is capable of continuous shooting,
The optical path changing means sets the optical path to the first state after imaging by the imaging means with the optical path set to the second state when imaging by the imaging means,
The charge accumulating means may be configured such that the first optical path is changed from the first state to the second state after the optical path is changed from the second state to the first state. The imaging apparatus according to claim 2, wherein accumulation and the second accumulation are performed.
前記電荷蓄積手段は、連続撮影における連続撮影速度が所定値よりも高速である場合、前記第1の蓄積及び前記第2の蓄積を行うことを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the charge accumulation unit performs the first accumulation and the second accumulation when a continuous photographing speed in continuous photographing is higher than a predetermined value. 前記露出制御手段は、前記第1の蓄積を行って得られた画像信号に基づく輝度値と前記第2の蓄積を行って得られた画像信号に基づく輝度値との平均値に基づいて、前記露出制御を行うことを特徴とする請求項1ないし4のいずれか1項に記載の撮像装置。   The exposure control means is based on an average value of a luminance value based on the image signal obtained by performing the first accumulation and a luminance value based on the image signal obtained by performing the second accumulation. The image pickup apparatus according to claim 1, wherein exposure control is performed. 前記平均値は加重平均値であることを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the average value is a weighted average value. 前記追尾手段の追尾結果に基づいて焦点調節を行う焦点調節手段と、を有し、
前記追尾手段は、前記焦点調節手段が前記焦点調節を行う前に前記追尾の演算処理を終了させることを特徴とする請求項ないしのいずれか1項に記載の撮像装置。
Focus adjusting means for performing focus adjustment based on the tracking result of the tracking means,
The tracking means, the imaging apparatus according to any one of the to the focusing means claims 2, characterized in that to terminate the processing of the tracking before performing the focus adjustment 4.
前記焦点調節手段は、前記光路が前記第2の状態のときに前記焦点調節を行うことを特徴とする請求項7に記載の撮像装置。   The imaging apparatus according to claim 7, wherein the focus adjustment unit performs the focus adjustment when the optical path is in the second state. 前記電荷蓄積手段は、前記焦点調節手段が前記焦点調節を行う前に前記追尾手段による前記追尾の演算処理を終了できるような蓄積時間で前記第1の蓄積を行うことを特徴とする請求項7または8に記載の撮像装置。   8. The charge accumulation unit performs the first accumulation in an accumulation time such that the tracking calculation process by the tracking unit can be completed before the focus adjustment unit performs the focus adjustment. Or the imaging device of 8. 前記電荷蓄積手段は、前記第1の蓄積の蓄積時間と前記第2の蓄積の蓄積時間との和が光源の光量変化周期の整数倍と略等しくなるように、前記第1の蓄積及び前記第2の蓄積を行うことを特徴とする請求項1ないし9のいずれか1項に記載の撮像装置。   The charge accumulating means includes the first accumulation and the second accumulation so that the sum of the accumulation time of the first accumulation and the accumulation time of the second accumulation is substantially equal to an integral multiple of the light amount change period of the light source. The image pickup apparatus according to claim 1, wherein accumulation of 2 is performed. 前記第1の蓄積及び前記第2の蓄積の少なくとも1つは間欠した複数回の蓄積を行うものであって、
前記電荷蓄積手段は、前記第1の蓄積及び前記第2の蓄積のいずれか1つとしての前記複数回の蓄積がすべて終了してから前記画像信号を出力することを特徴とする請求項1ないし10のいずれか1項に記載の撮像装置。
At least one of the first accumulation and the second accumulation is to perform intermittent accumulation multiple times,
2. The charge storage unit according to claim 1, wherein the charge storage unit outputs the image signal after all of the plurality of storages as one of the first storage and the second storage is completed. The imaging apparatus according to any one of 10.
前記追尾手段は、所定の条件を満たす対象の追尾を行うことを特徴とする請求項1ないし11のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the tracking unit performs tracking of a target that satisfies a predetermined condition. 撮像手段と、入射光量に応じた電荷の蓄積を行う電荷蓄積手段と、を備えた撮像装置の制御方法であって、
前記電荷蓄積手段により第1の蓄積を行う第1の電荷蓄積ステップと、
前記第1の蓄積の後に第2の蓄積を行う第2の電荷蓄積ステップと、
前記第2の蓄積を行って得られた画像信号を用いずに前記第1の蓄積を行って得られた画像信号に基づいて、被写体の追尾を行う追尾ステップと、
前記第1の蓄積を行って得られた画像信号及び前記第2の蓄積を行って得られた画像信号に基づいて、露出制御を行う露出制御ステップと、を有することを特徴とする撮像装置の制御方法。
A control method for an imaging apparatus comprising: an imaging unit; and a charge accumulation unit that accumulates charges according to an incident light amount,
A first charge accumulation step of performing first accumulation by the charge accumulation means;
A second charge accumulation step of performing a second accumulation after the first accumulation;
A tracking step of tracking a subject based on the image signal obtained by performing the first accumulation without using the image signal obtained by performing the second accumulation;
An exposure control step of performing exposure control based on the image signal obtained by performing the first accumulation and the image signal obtained by performing the second accumulation. Control method.
JP2011029996A 2011-02-15 2011-02-15 Imaging apparatus and control method Active JP5762038B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2011029996A JP5762038B2 (en) 2011-02-15 2011-02-15 Imaging apparatus and control method
US13/369,923 US9374533B2 (en) 2011-02-15 2012-02-09 Imaging apparatus and control method for tracking a subject based on an image signal
EP14164137.3A EP2768215B1 (en) 2011-02-15 2012-02-14 Imaging apparatus and control method
EP12155352.3A EP2512120B1 (en) 2011-02-15 2012-02-14 Imaging apparatus and control method
CN201210034273.9A CN102685383B (en) 2011-02-15 2012-02-15 Imaging apparatus and control method
US15/161,912 US9674424B2 (en) 2011-02-15 2016-05-23 Imaging apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011029996A JP5762038B2 (en) 2011-02-15 2011-02-15 Imaging apparatus and control method

Publications (3)

Publication Number Publication Date
JP2012169921A JP2012169921A (en) 2012-09-06
JP2012169921A5 JP2012169921A5 (en) 2014-04-03
JP5762038B2 true JP5762038B2 (en) 2015-08-12

Family

ID=46973593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011029996A Active JP5762038B2 (en) 2011-02-15 2011-02-15 Imaging apparatus and control method

Country Status (1)

Country Link
JP (1) JP5762038B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5161712B2 (en) * 2008-09-03 2013-03-13 キヤノン株式会社 Imaging apparatus and imaging method
JP2010200138A (en) * 2009-02-26 2010-09-09 Nikon Corp Photographic subject tracking device
JP2012133172A (en) * 2010-12-22 2012-07-12 Nikon Corp Camera

Also Published As

Publication number Publication date
JP2012169921A (en) 2012-09-06

Similar Documents

Publication Publication Date Title
US9674424B2 (en) Imaging apparatus and control method
US8284261B2 (en) External ranging image pickup apparatus and ranging method
JP6460829B2 (en) IMAGING DEVICE, ELECTRONIC DEVICE, AND METHOD FOR CALCULATION OF LIGHT CHANGE CHARACTERISTICS
JP4802742B2 (en) Focus control device, imaging device, and focus control method
US10594938B2 (en) Image processing apparatus, imaging apparatus, and method for controlling image processing apparatus
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
JPH10186460A (en) Range-finding device for camera
JP2012226206A (en) Image tracking device and imaging apparatus
JP2015055635A (en) Imaging device and control method of the same
JP6987524B2 (en) Control device, image pickup device, control method, program, and storage medium
JP2013042298A (en) Imaging apparatus and flicker generation frequency detection method
JP5762037B2 (en) Imaging apparatus and control method
JP5762038B2 (en) Imaging apparatus and control method
JP6501512B2 (en) Focus control apparatus, focus control method and focus control program
JP6541312B2 (en) Image pickup apparatus and control method thereof
JP2013042300A (en) Imaging apparatus and flicker generation frequency detection method
JP2010200138A (en) Photographic subject tracking device
JP5439971B2 (en) Photometric device and imaging device
JP2017005495A (en) Imaging apparatus, method for controlling the same, and program
JP2004361431A (en) Imaging unit
JP5820137B2 (en) Focus detection device
JP7158880B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND CONTROL PROGRAM
US20200099842A1 (en) Image capturing apparatus and control method thereof, and storage medium
JP6806471B2 (en) Focus detection device and method, and imaging device
JP2013040994A (en) Imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150609

R151 Written notification of patent or utility model registration

Ref document number: 5762038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151