JP2010183145A - Photographing device and program - Google Patents
Photographing device and program Download PDFInfo
- Publication number
- JP2010183145A JP2010183145A JP2009022362A JP2009022362A JP2010183145A JP 2010183145 A JP2010183145 A JP 2010183145A JP 2009022362 A JP2009022362 A JP 2009022362A JP 2009022362 A JP2009022362 A JP 2009022362A JP 2010183145 A JP2010183145 A JP 2010183145A
- Authority
- JP
- Japan
- Prior art keywords
- image
- focusing
- tracking
- subject
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮影装置に関し、特に、焦点を合わせる撮影装置に関する。 The present invention relates to a photographing apparatus, and more particularly, to a photographing apparatus for focusing.
従来、デジタルカメラは、一般的に、焦点を自動的に合わせるオートフォーカス(以下、AFと略記する)機能を有している。そのオートフォーカスの方法としては、従来から、コントラスト検出方式が広く用いられている。このコントラスト検出方式では、AF評価値を合焦位置(焦点が合うときのフォーカスレンズのレンズ位置)の判断に用いている。このAF評価値とは、焦点が合っている度合いを示す評価値である。デジタルカメラは、撮像素子から得られる画像の高周波成分または画像上の近接画素の輝度差の成分をAF評価値としている。 Conventionally, a digital camera generally has an autofocus (hereinafter abbreviated as AF) function for automatically focusing. Conventionally, a contrast detection method has been widely used as an autofocus method. In this contrast detection method, the AF evaluation value is used to determine the in-focus position (the lens position of the focus lens when in focus). This AF evaluation value is an evaluation value indicating the degree of focus. In a digital camera, an AF evaluation value is a high-frequency component of an image obtained from an image sensor or a luminance difference component of adjacent pixels on the image.
デジタルカメラは、フォーカスレンズを光軸方向に進退させながら、フォーカスレンズが各レンズ位置にあるとき撮影した画像のAF評価値を順次取得する。そして、AF評価値が最も大きくなったときのフォーカスレンズのレンズ位置に、フォーカスレンズを停止させて合焦動作を完了させている。 The digital camera sequentially acquires AF evaluation values of images taken when the focus lens is at each lens position while moving the focus lens back and forth in the optical axis direction. Then, the focus lens is stopped at the lens position of the focus lens when the AF evaluation value becomes the largest, and the focusing operation is completed.
しかしながら、合焦動作によってデジタルカメラが被写体に焦点を合わせても、その後に被写体が移動して被写体までの距離が変化してしまうと、移動後の被写体に焦点が合わなくなる。 However, even when the digital camera focuses on the subject by the focusing operation, if the subject moves and the distance to the subject changes after that, the subject after the movement cannot be focused.
そこで、合焦動作を連続的に再起動させることにより、被写体に常時焦点を合わせておくコンティニュアスオートフォーカス(以下、「コンティニュアスAF」と略記する)モードを設定可能なデジタルカメラがある。コンティニュアスAFによれば、被写体が移動しても合焦動作を再起動するので、動く被写体にも常時焦点を合わせることができる。 Therefore, there is a digital camera capable of setting a continuous autofocus (hereinafter abbreviated as “continuous AF”) mode in which the subject is always focused by continuously restarting the focusing operation. . According to the continuous AF, since the focusing operation is restarted even when the subject moves, it is possible to always focus on the moving subject.
このコンティニュアスAFモードにおいてコントラスト検出方式で合焦動作を再起動させる方式としては、フォーカスレンズを移動させる合焦動作を一旦終えてから、一定の時間間隔(例えば1秒)で、無条件に合焦動作を再起動させてフォーカスレンズを再び移動させる方式がある。 In this continuous AF mode, as a method of restarting the focusing operation by the contrast detection method, the focusing operation for moving the focus lens is temporarily ended and then unconditionally at a fixed time interval (for example, 1 second). There is a method of restarting the focusing operation and moving the focus lens again.
しかしながら、コンティニュアスAF方式により合焦動作を再起動させる従来の方式には、以下の問題がある。一定の時間間隔で合焦動作を再起動させる従来の方式では、前回の合焦動作における合焦状態(焦点が合っている状態)が維持されているか否かに関わらず、無条件で合焦動作が再起動される。このため、前回の合焦動作における合焦状態が維持されている場合に合焦動作が再起動されると、無駄なフォーカスレンズの移動が行われることになる。さらには、合焦動作中にモータなどの駆動手段により無駄なフォーカスレンズの移動が行われると、消費電流が増加して電池の寿命が短くなってしまう。 However, the conventional method of restarting the focusing operation by the continuous AF method has the following problems. In the conventional method in which the focusing operation is restarted at regular time intervals, focusing is performed unconditionally regardless of whether or not the focusing state (in-focus state) in the previous focusing operation is maintained. The operation is restarted. For this reason, if the focusing operation is restarted when the in-focus state in the previous focusing operation is maintained, useless movement of the focus lens is performed. Furthermore, if the focus lens is moved unnecessarily by driving means such as a motor during the focusing operation, the current consumption increases and the battery life is shortened.
そこで、特許文献1に記載の技術は、コンティニュアスAFモードの設定時には、ライブビュー表示のために所定時間ごとに得られる最新画像と、その直前の画像である前回画像との相関値に基づいて、フレーミングの変化や特定領域に位置する主要被写体の移動を検出する(図7等参照)。そして、特許文献1に記載の技術は、シャッタボタンが半押しされたときに合焦動作を一旦実行しておく。そして、そこからフレーミングが変化したと判断した場合でも、特定領域に位置する主要被写体が移動していないために合焦状態が維持されているとさらに判断した場合には、合焦動作を再起動しないようにしている。
Therefore, the technique described in
特許文献1に記載の技術では、フレーミングの変化や特定領域に位置する主要被写体の移動が検知された場合に限って合焦動作を再起動させるため、コンティニュアスAF方式における無駄な合焦動作を防止できる。
In the technique described in
しかしながら、特許文献1に記載の技術では、主要被写体の移動に関しては、特定領域に位置する主要被写体の移動しか判断していない。つまり、特許文献1に記載の技術では、特定領域以外の任意の領域に位置する主要被写体が移動したか否かを判断することができない。そのため、特許文献1に記載の技術では、特定領域以外の任意の領域に位置する主要被写体が移動していないことにより合焦状態が維持されている場合であっても、フレーミングが変化した場合には常に合焦動作を再起動するため、無駄な合焦動作をいまだ十分に防止できないという問題がった。
However, in the technique described in
そこで、本発明の目的は、無駄な合焦動作を防止することにある。 Therefore, an object of the present invention is to prevent useless focusing operation.
上記目的を達成するために、本発明の第1の態様は、
被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段と、
を備えることを特徴とする。
In order to achieve the above object, the first aspect of the present invention provides:
Photographing means for photographing an image of a subject;
Focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculation unit is smaller than a predetermined threshold;
It is characterized by providing.
上記目的を達成するために、本発明の第2の態様は、
被写体の画像を撮影する撮影手段と、
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値以上である場合にのみ、前記合焦手段に合焦動作を行わせる合焦制御手段と、
を備えることを特徴とする。
In order to achieve the above object, the second aspect of the present invention provides:
Photographing means for photographing an image of a subject;
A focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that causes the focusing unit to perform a focusing operation only when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
It is characterized by providing.
本発明によれば、無駄な合焦動作を防止できる。 According to the present invention, useless focusing operation can be prevented.
以下、図面に基づき、本発明の一実施形態に係る撮影装置100について説明する。
Hereinafter, based on the drawings, a photographing
<撮影装置の構成>
図1は、本実施形態に係る撮影装置100の機能的構成を示すブロック図である。図1を用いて、本実施形態に係る撮影装置100の構成を説明する。撮影装置100は、デジタルカメラなどにより構成することができる。
<Configuration of photographing apparatus>
FIG. 1 is a block diagram showing a functional configuration of the photographing
撮影装置100は、制御部10と、RAM11と、ROM12と、光学レンズ装置13と、光学系制御部14と、光学系駆動部15と、シャッタ装置16と、シャッタ制御部17と、シャッタ駆動部18と、撮像素子19と、撮像素子駆動部20と、前処理部21と、画像メモリ22と、画像処理部23と、表示制御部24と、表示部25と、操作部26と、記録媒体27と、被写体追尾部28と、追尾画像メモリ29と、AF評価部30と、相関値算出部31と、を備える。
The photographing
制御部10は、撮影装置100全体の動作を制御する。制御部10は、CPU(Central Processing Unit)や、計時回路であるリアルタイムクロック(Real Time Clock)などにより構成される。
The
RAM11は、制御部10が各処理を実行する際にワーキングエリアとして機能する。RAM11は、DRAM(Dynamic Random Access Memory)などから構成される。ROM12は、撮影装置100が各処理を実行するのに必要なプログラムやデータを記憶する。ROM12は、フラッシュメモリなどから構成される。制御部10は、RAM11をワーキングエリアとして、ROM12に記憶されているプログラムとの協働により各処理を実行する。
The RAM 11 functions as a working area when the
光学レンズ装置13は、フォーカスレンズやズームレンズなどで構成される。フォーカスレンズは、被写体像を撮像素子19の受光面に結像させるためレンズである。
The optical lens device 13 includes a focus lens, a zoom lens, and the like. The focus lens is a lens for forming a subject image on the light receiving surface of the
光学系制御部14は、制御部10による制御に従って光学系駆動部15を制御することにより、光学系駆動部15に、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。これにより、フォーカスレンズの位置が変化して焦点が調節される。光学系駆動部13は、ステッピングモータなどで構成される。光学系制御部14は、光学系駆動部15を制御する制御回路などで構成される。
The optical
シャッタ装置16は、機械式のシャッタとして機能するとともに、撮像素子19へ入射する被写体像の光量を調節する絞りとしても機能する機構である。シャッタ装置16は、シャッタ羽根などから構成される。
The shutter device 16 is a mechanism that functions as a mechanical shutter and also functions as an aperture that adjusts the amount of light of a subject image incident on the
シャッタ制御部17は、制御部10による制御に従って、シャッタ駆動部18を駆動させる。具体的には、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16のシャッタ羽根を開閉させる。また、シャッタ制御部17は、制御部10による制御に従ってシャッタ駆動部18を制御することにより、シャッタ駆動部18にシャッタ装置16の絞りを調節させる。シャッタ駆動部18は、シャッタ羽根を蹴飛ばすレバーなどで構成される。駆動制御部17は、シャッタ駆動部18を制御する制御回路などで構成される。
The
撮像素子19は、光学レンズ装置13から入射されて受光面に結像した被写体像を光電変換(撮影)する素子である。撮像素子19の受光面には、光電変換素子であるフォトダイオードが行列状に配置されている。これらフォトダイオードが撮像素子19の各画素を構成している。各フォトダイオード上には、ベイヤ方式の配列に従って、R(赤)、G(緑)B(青)の色フィルタが配置されている。撮像素子19は、撮像素子駆動部20による制御に従って、所定時間毎に被写体像を光電変換して画像信号を蓄積し、蓄積した画像信号をアナログ信号として順次出力する。撮像素子19は、CCD(Charge Coupled Device)型のイメージセンサなどから構成される。
The
撮像素子駆動部20は、制御部10による制御に従って撮像素子19を駆動する。撮像素子駆動部20は、制御部10による制御に従って各種クロックパルス等を生成する。撮像素子駆動部20は,生成した各種クロックパルスおよび制御回路10から供給される制御信号に基づいて、一定時間毎に撮像素子19から被写体像を表現するアナログ信号を読み出す。撮像素子駆動部20は、各種クロックパルス等を生成するタイミングジェネレータや、走査回路などから構成される。
The image
前処理部21は、撮像素子19から供給されたアナログ信号に対し、相関二重サンプリング処理、利得制御処理、A/D(Analog/Digital)変換処理などの各種信号処理を施してディジタル信号であるベイヤデータを生成して出力する。前処理部21は、A/D変換器などにより構成される。
The
画像メモリ22は、前処理部21により生成されたベイヤデータや、画像処理部23により生成される画像データを一時的に記憶する。また、画像メモリ21には、画像処理部22がベイヤデータから画像データを生成する際にワーキングエリアとしても使用される。画像メモリ21は、DRAM(Dynamic Random Access Memory)などから構成される。
The
画像処理部23は、画像メモリ22に記憶されたベイヤデータに対し、ホワイトバランス補正処理、γ補正処理、YC変換処理などの画像処理を施して、輝度信号と色差信号とが重畳した画像データを生成する。この画像データにより被写体が表現される。また、画像処理部23は、シャッタボタンが全押し操作されたときは、比較的高画質で大容量の撮影画像用の画像データを生成する。一方、画像処理部23は、ライブビュー画像を表示するときは、比較的低画質で小容量のライブビュー画像用の画像データを生成する。画像処理部23は、例えば、DSP(Digital Signal Processor)などから構成される。
The
表示制御部24は、制御部10による制御に従って、画像メモリ22に記憶されている画像データをアナログ信号に変換して出力する。表示制御部24は、VRAM(Video Random Access Memory)やD/A(Digital/Analog)変換器などから構成される。
The
表示部25は、表示制御部24から供給されたアナログ信号により表現される画像などを表示する。表示部25は、撮影装置100の筐体の背面に設けられた液晶ディスプレイなどから構成される。
The
操作部26は、ユーザから各種ボタンの操作を受け付ける。操作部25は、電源ボタン、シャッタボタン、ズームボタン、カーソルキー、決定ボタン、メニューボタンなどを備える。操作部26は、ユーザから受け付けた各種のキー操作を示す信号を制御部10に供給する。シャッタボタンは、撮影準備(合焦動作など)を指示するための半押し操作と、撮影を指示するための全押し操作とをユーザから受け付けることが可能な構成である。制御部10は、操作部26からこれらの信号を受信すると、受信した信号に基づいた処理を実行する。
The
記録媒体27は、画像処理部23により生成された画像データを記録する。記録媒体27は、撮影装置100に着脱可能な半導体メモリカードなどから構成される。
The
被写体追尾部28は、ライブビュー画像に写る被写体を追尾する。1つの追尾ブロックを追尾する手法としては様々な手法が公知となっている。被写体追尾部28は、それらの何れの手法をも採用可能である。本実施形態に係る撮影装置100は、追尾処理の手法として公知のブロックマッチング法を採用する。
The
図2を用いて、本実施形態における追尾処理の手法について簡単に説明する。図2(a)において、符号F(n−1)は、(n−1)番目に撮影されたフレーム画像を示す(nは任意の自然数)。符号P(n−1)は、この(n−1)番目のフレーム画像における追尾ブロックを示す。図2(b)において、符号F(n)は、n番目に撮影されたフレーム画像を示す。符号C(n)は、このn番目のフレーム画像における候補ブロックを示す。符号S(n)は、候補ブロックC(n)が移動しうる探索ブロックを表す。本実施形態では、順次撮影される各フレーム画像における探索ブロックS(n)のサイズは、フレーム画像を9分割した各画像領域のうちの1つ分の画像領域のサイズに等しいものとする。 With reference to FIG. 2, the tracking processing method in the present embodiment will be briefly described. In FIG. 2A, the symbol F (n-1) indicates the (n-1) th frame image (n is an arbitrary natural number). A symbol P (n−1) indicates a tracking block in the (n−1) -th frame image. In FIG. 2B, the symbol F (n) indicates the nth frame image taken. A symbol C (n) indicates a candidate block in the nth frame image. The code S (n) represents a search block to which the candidate block C (n) can move. In the present embodiment, it is assumed that the size of the search block S (n) in each sequentially captured frame image is equal to the size of one image area of each image area obtained by dividing the frame image into nine.
被写体追尾部28は、追尾ブロックP(n−1)と候補ブロックC(n)との間の相関値E1を算出する。この際、候補ブロックC(n)は、探索ブロックS(n)内で水平方向又は垂直方向に1画素ずつ移動させられ、その移動の度に相関値E1が算出される。相関値E1は、例えば、追尾ブロックP(n−1)と候補ブロックC(n)との間において、同じ位置にある各画素の輝度差の絶対値の総和とされる。この相関値E1は、一般的にSAD(Sum of Absolute Difference)と呼ばれる。なお、輝度差の2乗和(Sum of Squared Differece)などによって相関値を求めてもよい。
The
相関値E1(各画素の輝度差など)は、追尾ブロックP(n−1)と候補ブロックC(n)の画像との間の類似度が高いほど小さくなる。従って、相関値E1が最も小さくなる候補ブロックC(n)の位置を求めれば、追尾ブロックP(n−1)が、n番目のフレーム画像内のどこに位置しているかを求めることができる。これにより、(n−1)番目のフレーム画像のP(n−1)とn番目のフレーム画像の追尾ブロックP(n)との動きベクトルが求まる。被写体追尾部28は、時間的に隣接するフレーム画像間で動きベクトルを繰り返し求め、動きベクトルに応じて追尾ブロックを逐次移動させることにより、追尾ブロック内に収まる被写体を追尾する。
The correlation value E1 (such as the luminance difference of each pixel) becomes smaller as the similarity between the tracking block P (n−1) and the candidate block C (n) is higher. Therefore, if the position of the candidate block C (n) having the smallest correlation value E1 is obtained, it can be determined where the tracking block P (n-1) is located in the nth frame image. As a result, a motion vector between P (n−1) of the (n−1) th frame image and the tracking block P (n) of the nth frame image is obtained. The
図1に戻り、追尾画像メモリ29は、追尾ブロック内の画像を表現する画像データを記憶する。追尾画像メモリ29は、DRAM(Dynamic Random Access Memory)などから構成される。
Returning to FIG. 1, the tracking
図3は、追尾画像メモリ29の記憶領域の構成を示す図である。図3に示されるように、追尾画像メモリ29の記憶領域は、第1追尾画像記憶領域29aと、第2追尾画像記憶領域29bとを含む。第1追尾画像記憶領域29aは、最新のフレーム画像(現在時点で撮影されたフレーム画像)における追尾ブロック内を表現する画像データを記憶する記憶領域である。第1追尾画像記憶領域29aでは、新しい画像データが記憶される度に、直前に記憶されていた画像データが上書きされて消去される。第2追尾画像記憶領域29bは、直前の合焦時点(直前の合焦動作により被写体に焦点が合った時点)で撮影されたフレーム画像における追尾ブロック内を表現する画像データを記憶する記憶領域である。第2追尾画像記憶領域29bでは、新しい画像データが記憶される度に、直前に記憶されていた画像データが上書きされて消去される。
FIG. 3 is a diagram showing the configuration of the storage area of the
図1に戻り、AF評価部30は、画像メモリ22に記憶された画像データから高周波数成分であるAF評価値を抽出して、抽出したAF評価値を制御部10に供給する。制御部10は、合焦動作時に、光学系制御部14を制御することにより光学系駆動部15を駆動させて、光学レンズ装置13のフォーカスレンズを光軸方向に進退させる。そして、制御部10は、AF評価部30に、フォーカスレンズが各位置にあるときに得られた画像データからAF評価値を抽出させる。そして、制御部10は、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる合焦動作を行う。
Returning to FIG. 1, the
相関値算出部31は、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの相関値E2を算出する。つまり、相関値算出部31は、第1追尾画像記憶領域29aに記憶されている画像データと、第2追尾画像記憶領域29bに記憶されている画像データとの相関値E2を算出する。相関値E2は、例えば、これらの画像データ間で同じ位置にある各画素の輝度差の絶対値の総和(SAD)とされる。なお、輝度差の2乗和などによって相関値E2を求めてもよい。 The correlation value calculation unit 31 calculates a correlation value E2 between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before the focusing. That is, the correlation value calculation unit 31 calculates the correlation value E2 between the image data stored in the first tracking image storage area 29a and the image data stored in the second tracking image storage area 29b. The correlation value E2 is, for example, the sum of absolute values (SAD) of the luminance differences of the pixels located at the same position between these image data. Note that the correlation value E2 may be obtained by the sum of squares of the luminance difference or the like.
ここで、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとにおいて、相関値E2(各画素の輝度差)が小さいということは、両者が類似しているということを示している。即ち、上記算出方法では、相関値E2の値が小さいほど、最新のフレーム画像における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの類似度が大きくなる。 Here, the correlation value E2 (luminance difference of each pixel) is small between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before focusing. It shows that there is. That is, in the above calculation method, the smaller the value of the correlation value E2, the greater the similarity between the tracking block in the latest frame image and the tracking block in the frame image taken immediately before the focusing.
相関値E2が所定の閾値Eth以上の場合には、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に、追尾ブロックに写っていた被写体の大きさが変化したと考えられる。この場合、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられる。一方、相関値E2が所定の閾値Ethより小さい場合には、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に、追尾ブロックに写っていた被写体の大きさが変化していないと考えられる。この場合、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられる。なお、所定の閾値Ethは、実際に合焦動作の再起動が良好に作用する値(実験値など)とする。 When the correlation value E2 is equal to or greater than the predetermined threshold Eth, the size of the subject in the tracking block has changed between the time when the frame image at the time of focusing was taken and the time when the latest frame image was taken. Conceivable. In this case, it is considered that the distance to the subject existing in the tracking block of the frame image shot at the time of focusing has changed between the shooting time of the frame image at the focusing time and the shooting time of the latest frame image. . On the other hand, when the correlation value E2 is smaller than the predetermined threshold Eth, the size of the subject shown in the tracking block changes between the time when the frame image at the time of focusing is taken and the time when the latest frame image is taken. It is thought that it is not. In this case, the distance to the subject existing in the tracking block of the frame image captured at the time of focusing is not changed between the time of capturing the frame image at the time of focusing and the time of capturing the latest frame image. Conceivable. Note that the predetermined threshold Eth is a value (experimental value or the like) at which the reactivation of the focusing operation actually works well.
<撮影装置の動作>
図4は、本実施形態に係る撮影装置100のコンティニュアスAFモードにおける動作を示すフローチャートである。図4を用いて、撮影装置100が実行するコンティニュアスAFモードにおける動作を説明する。
<Operation of the photographing device>
FIG. 4 is a flowchart showing an operation in the continuous AF mode of the photographing
本実施形態に係るコンティニュアスAFモードにおいても、通常のコンティニュアスAFモードと同様に、自動的に合焦動作がくり返し実行される。ここで、一旦合焦された被写体までの距離が変化していない場合には、合焦動作を再起動する必要はない。そこで、本実施形態に係るコンティニュアスAFモードにおいては、撮影装置100は、合焦動作により追尾される被写体が一旦合焦されると、追尾される被写体までの距離が変化していないと考えられる場合には合焦動作を再起動しないようにしている。これにより、無駄な合焦動作を防止できる。また、無駄な合焦動作を防止できるので、合焦動作に要する電力を低減して電池寿命を長くすることができる。
Also in the continuous AF mode according to the present embodiment, the focusing operation is automatically executed repeatedly as in the normal continuous AF mode. Here, when the distance to the subject once focused has not changed, it is not necessary to restart the focusing operation. Therefore, in the continuous AF mode according to the present embodiment, the
ユーザの操作部26に対する所定の操作によりコンティニュアスAFモードが設定されると、撮影装置100は、ROM12に記憶されているプログラムを読み出して、このプログラムとの協働により図4のフローチャートにより示される処理を開始する。
When the continuous AF mode is set by a predetermined operation on the
まずステップS1において、制御部10は、ライブビュー表示を開始する。具体的には、制御部10は、画像処理部23により順次生成されるフレーム画像を表示制御部24に順次供給することにより、表示制御部24に、フレーム画像をライブビュー画像として表示部25に表示させる。
First, in step S1, the
次にステップS2において、制御部10は、ユーザによりシャッタボタンが半押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタンの半押し操作に応じた信号を監視することにより、ユーザによりシャッタボタンが半押し操作されているか否かを判断する。制御部10は、シャッタボタンが半押し操作されていないと判断した場合(ステップS2:NO)、シャッタボタンの半押し操作に応じた信号を検知するまでライブビュー表示を継続させる。一方、制御部10は、シャッタボタンが半押し操作されていると判断した場合(ステップS2:YES)、ステップS3に処理を進める。
Next, in step S2, the
次にステップS3において、制御部10は、追尾処理の初期設定を実行する。具体的には、制御部10は、被写体追尾部28に、ステップS3の時点で撮影されたフレーム画像上の所定の中央領域に位置するAF枠内の画像を切り出させ、この切り出した画像を表現する画像データを、初期状態における追尾ブロックの画像データとして第1追尾画像記憶領域29aに記憶させる。また、制御部10は、被写体追尾部28に、ステップS3の時点で撮影されたフレーム画像を9分割した各画像領域のうち中央に位置する画像領域を、初期状態における探索ブロックとして設定させる。
Next, in step S <b> 3, the
図5は、初期状態における追尾ブロックP(1)と初期状態における探索ブロックS(2)とを示す図である。追尾ブロックP(1)は、制御部10がシャッタボタンの半押し操作を検知してから1番目に撮影されたフレーム画像における追尾ブロックである。探索ブロックS(2)は、1番目のフレーム画像の次に撮影された2番目のフレーム画像における探索ブロックである。
FIG. 5 is a diagram illustrating the tracking block P (1) in the initial state and the search block S (2) in the initial state. The tracking block P (1) is a tracking block in the first frame image taken after the
本実施形態においては、図5に示されるように、まずユーザが自身の手に構えている撮影装置100の姿勢を変化させることにより、主要被写体Mの顔がライブビュー画像の中央領域に位置するAF枠内に収まる状態になるように構図を調整する。そして、この状態においてユーザがシャッタボタンを半押し操作すると、AF枠内の主要被写体Mの顔を表現する画像データが、初期状態における追尾ブロックP(1)の画像データとして第1追尾画像メモリ29aに記憶される。このとき、ライブビュー画像(1番目のフレーム画像)を9分割した各画像領域のうち中央に位置する画像領域が、初期状態における探索ブロックS(2)として設定される。
In the present embodiment, as shown in FIG. 5, the face of the main subject M is positioned in the central region of the live view image by first changing the posture of the photographing
また、制御部10は、ステップS3において、追尾処理の初期設定としてコントラスト検出方式に従う1回目の合焦動作を行う。合焦動作に際して、制御部10は、AF評価部30に、ステップS3の時点で順次撮影されるフレーム画像におけるAF枠内の画像領域からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、AF枠内の主要被写体Mの顔に焦点が合うこととなる。
In step S3, the
図4に戻り、ステップS4において、制御部10は、追尾処理を実行する。具体的には、制御部10は、被写体追尾部28に、ステップS4の時点での最新のフレーム画像であるn番目のフレーム画像において、候補ブロックC(n)を探索ブロックS(n)内で水平方向又は垂直方向に1画素ずつ移動させる。被写体追尾部28は、この移動の度に、(n−1)番目のフレーム画像における追尾ブロックP(n−1)と候補ブロックC(n)との相関値E1を算出する。被写体追尾部28は、この相関値E1が最も小さくなるときの候補ブロックC(n)の位置を、n番目のフレーム画像における追尾ブロックP(n)の位置として設定する。このようにして主要被写体Mの動きに合わせて追尾ブロックの位置が設定されることにより、主要被写体Mが追尾される。制御部10は、被写体追尾部28に、n番目のフレーム画像から追尾ブロックP(n)を表現する画像データを切り出させ、切り出した画像データを第1追尾画像記憶領域29aに記憶させる。これにより、第1追尾画像記憶領域29aに記憶される画像データが、追尾ブロックP(n−1)の画像データから追尾ブロックP(n)の画像データへと更新される。
Returning to FIG. 4, in step S <b> 4, the
また、被写体追尾部28は、(n+1)番目のフレーム画像における探索ブロックS(n+1)の中心が追尾ブロックP(n)の中心と一致するように、(n+1)番目のフレーム画像に対して探索ブロックS(n+1)の位置を設定する。
In addition, the
図6は、追尾処理により追尾される主要被写体Mの様子を示す図である。ライブビュー画像において、主要被写体Mが移動すると、追尾ブロックPが主要被写体Mの動きに追従して移動するとともに、追尾ブロックPの動きに追従するように探索ブロックSも移動する。また、図6に示されるように、制御部10は、ライブビュー画像に表示されるAF枠も主要被写体Mの移動に合わせて移動させる。
FIG. 6 is a diagram illustrating a state of the main subject M tracked by the tracking process. When the main subject M moves in the live view image, the tracking block P moves following the movement of the main subject M, and the search block S also moves so as to follow the movement of the tracking block P. Further, as illustrated in FIG. 6, the
図4に戻り、ステップS5において、制御部10は、所定時間(例えば1秒)が経過したか否かを判断する。具体的には、制御部10は、制御部10内の計時回路が示す直前のステップS5の判断がYESになったときからの経過時間が、所定時間に達したか否か経過したか否かを判断する。制御部10は、所定時間が経過していないと判断した場合(ステップS5:NO)、ステップS10に処理を進める。一方、制御部10は、所定時間が経過したと判断した場合(ステップS5:YES)、ステップS6に処理を進める。
Returning to FIG. 4, in step S <b> 5, the
次にステップS6において、制御部10は、追尾ブロックの相関値を算出する。具体的には、制御部10は、相関値算出部31に、最新のフレーム画像における追尾ブロックの画像データと、直前の合焦時点に撮影されたフレーム画像における追尾ブロックの画像データとを取得させる。つまり、被写体追尾部28は、ステップS6の時点で、第1追尾画像記憶領域29aに記憶されている画像データを読み出すとともに、第2追尾画像記憶領域29bに記憶されている画像データから読み出す。そして、制御部10は、相関値算出部31に、読み出したこれらの画像データ間の相関値E2を算出させる。
Next, in step S6, the
次にステップS7において、制御部10は、直前のステップS6の処理により算出された相関値E2が閾値Eth以上であるか否かを判断する。制御部10は、相関値E2が閾値Ethより小さいと判断した場合(ステップS7:NO)、合焦動作を行うことなくステップS10に処理を進める。一方、制御部10は、相関値E2が閾値Eth以上であると判断した場合(ステップS7:YES)、ステップS8に処理を進める。上述の通り、相関値E2が所定の閾値Eth以上の場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられる。一方、相関値E2が所定の閾値Ethより小さい場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられる。
Next, in step S7, the
次にステップS8において、制御部10は、コントラスト検出方式の合焦動作を行う。合焦動作に際して、制御部10は、AF評価部30に、ステップS8の時点で順次撮影されるフレーム画像における追尾ブロック内の画像領域からAF評価値を算出させる。そして、制御部10は、光学系制御部14を介して光学系駆動部15を制御することにより、光学系駆動部15にフォーカスレンズを光軸方向に進退させて、AF評価部30から供給されるAF評価値が最も高くなるレンズ位置でフォーカスレンズを停止させる。これにより、追尾ブロック内の主要被写体Mの顔に焦点が合うこととなる。
Next, in step S8, the
次にステップS9において、制御部10は、被写体追尾部28に、直前のステップS8の処理における合焦時点で撮影されたフレーム画像における追尾ブロックの画像を切り出させ、この切り出した画像を表現する画像データを第2追尾画像記憶領域29bに記憶させる。これにより、第2追尾画像記憶領域29bに記憶される画像データが、前回のステップS9での合焦時点で撮影されたフレーム画像上の追尾ブロックの画像データから、今回のステップS9での合焦時点で撮影されたフレーム画像上の追尾ブロックの画像データへと更新される。
Next, in step S9, the
ステップS10において、制御部10は、ユーザによりシャッタボタンが全押し操作されているか否かを判断する。具体的には、制御部10は、操作部26からのシャッタボタンの全押し操作に応じた信号を監視することにより、ユーザによりシャッタボタンが全押し操作されているか否かを判断する。制御部10は、シャッタボタンが全押し操作されていないと判断した場合(ステップS10:NO)、ステップS4に処理を戻す。一方、制御部10は、シャッタボタンが全押し操作されていると判断した場合(ステップS10:YES)、ステップS11に処理を進める。
In step S10, the
次にステップS11において、制御部10は、撮影を実行する。具体的には、制御部10は、シャッタ制御部17を制御することにより、シャッタ駆動部18にシャッタ装置16を開閉させる。これにより、撮像素子19が被写体像を撮影して電気信号を蓄積し、前処理部21がこの電気信号からディジタル信号を生成する。そして、制御部10は、画像処理部23に、ディジタル信号から画像データを生成させて、生成した画像データをJPEG(Joint Photographic Experts Group)方式で圧縮させる。そして、制御部10は、圧縮された画像データを記録媒体27に記録させる。
Next, in step S11, the
制御部10は、ステップS11の処理の後、図4のフローチャートに示される処理を終了させる。
After the process of step S11, the
以上説明したように、相関値E2が閾値Ethより小さい場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化していないと考えられるので、合焦動作を再起動させる必要がない。これとは逆に、相関値E2が閾値Eth以上である場合には、合焦時点で撮影されたフレーム画像の追尾ブロックに存在した被写体までの距離が、合焦時点のフレーム画像の撮影時点から最新のフレーム画像の撮影時点までの間に変化したと考えられるので、合焦動作を再起動させる必要がある。 As described above, when the correlation value E2 is smaller than the threshold Eth, the distance to the subject existing in the tracking block of the frame image shot at the time of focusing is the latest from the shooting time of the frame image at the focusing time. Since it is considered that there has been no change until the time point when the frame image is captured, there is no need to restart the focusing operation. On the contrary, when the correlation value E2 is equal to or greater than the threshold value Eth, the distance to the subject existing in the tracking block of the frame image captured at the time of focusing is determined from the time of capturing the frame image at the time of focusing. Since it is considered that it has changed between the time of shooting the latest frame image, it is necessary to restart the focusing operation.
そこで、本実施形態に係る撮影装置100は、合焦動作をくり返し実行するコンティニュアスAFモードにおいて、最新のフレーム画像(現在時点で撮影されたフレーム画像)における追尾ブロックと、直前の合焦時点で撮影されたフレーム画像における追尾ブロックとの相関値E2を算出する。そして、撮影装置100は、算出した相関値E2が閾値Ethより小さいと判断した場合には、合焦動作を再起動させないようにした。換言すれば、撮影装置100は、算出した相関値E2が閾値Eth以上である判断した場合にのみ、合焦動作を再起動させるようにした。このため、本実施形態に係る撮影装置100によれば、無駄な合焦動作を防止できる。また、無駄な合焦動作を防止できるので、合焦動作に要する電力を低減して電池寿命を長くすることができる。
Therefore, in the continuous AF mode in which the focusing operation is repeatedly performed, the
また、本実施形態に係る撮影装置100は、最新のフレーム画像上で主要被写体Mが位置する追尾ブロックと、直前の合焦時点で撮影されたフレーム画像上で主要被写体Mが位置していた追尾ブロックとの相関値E2を算出するようにした。これにより、撮影装置100は、最新のフレーム画像上で任意の領域に位置している主要被写体Mについても、最新のフレーム画像と直前の合焦時点で撮影されたフレーム画像との間における相関値E2を算出できる。すなわち、撮影装置100は、最新のフレーム画像上で任意の領域に位置している主要被写体Mについても、その主要被写体Mが直前の合焦時点から移動したか否かを判断することができる。
In addition, the
上記の実施形態は本発明の単なる例に過ぎず、本発明を限定する趣旨のものではない。したがって、本実施形態に対してなされ得る変形はすべて本発明に含まれるものである。 The above-described embodiments are merely examples of the present invention and are not intended to limit the present invention. Accordingly, all modifications that can be made to the present embodiment are included in the present invention.
100・・・撮影装置、10・・・制御部、11・・・RAM、12・・・ROM、13・・・光学レンズ装置、14・・・光学系制御部、15・・・光学系駆動部、16・・・シャッタ装置、17・・・シャッタ制御部、18・・・シャッタ駆動部、19・・・撮像素子、20・・・撮像素子駆動部、21・・・前処理部、22・・・画像メモリ、23・・・画像処理部、24・・・表示制御部、25・・・表示部、26・・・操作部、27・・・記録媒体、28・・・被写体追尾部、29・・・追尾画像メモリ、30・・・AF評価部、31・・・相関値算出部。
DESCRIPTION OF
Claims (5)
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段と、
を備えることを特徴とする撮影装置。 Photographing means for photographing an image of a subject;
A focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculation unit is smaller than a predetermined threshold;
An imaging apparatus comprising:
前記算出手段は、前記第1の記憶領域に記憶されている画像データと前記第2の記憶領域に記憶されている画像データとの相関値を算出する
ことを特徴とする請求項1に記載の撮影装置。 A tracking image memory having a first storage area for storing the image data of the first tracking block and a second storage area for storing the image data of the second tracking block;
2. The calculation unit according to claim 1, wherein the calculation unit calculates a correlation value between the image data stored in the first storage area and the image data stored in the second storage area. Shooting device.
被写体に焦点を合わせる合焦動作をくり返し行う合焦手段と、
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段と、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段と、
前記算出手段により算出された相関値が所定の閾値以上である場合にのみ、前記合焦手段に合焦動作を行わせる合焦制御手段と、
を備えることを特徴とする撮影装置。 Photographing means for photographing an image of a subject;
Focusing means for repeatedly performing a focusing operation to focus on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is performed;
A focusing control unit that causes the focusing unit to perform a focusing operation only when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
An imaging apparatus comprising:
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段、
前記算出手段により算出された相関値が所定の閾値より小さい場合に、前記合焦手段に合焦動作を行わせない合焦制御手段、
として機能させるプログラム。 A computer comprising photographing means for photographing an image of a subject and focusing means for repeatedly performing a focusing operation for focusing on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is executed;
A focusing control unit that does not cause the focusing unit to perform a focusing operation when the correlation value calculated by the calculating unit is smaller than a predetermined threshold;
Program to function as.
前記撮影手段により撮影された画像において、被写体の移動に追尾するように追尾ブロックを移動させる追尾手段、
現在時点で撮影された画像上の第1の追尾ブロックと、前記合焦動作が実行されたときに撮影された画像上の第2の追尾ブロックとの相関値を算出する算出手段、
前記算出手段により算出された相関値が所定の閾値以上である場合に、前記合焦手段に合焦動作を行わせる合焦制御手段、
として機能させるプログラム。 A computer comprising photographing means for photographing an image of a subject and focusing means for repeatedly performing a focusing operation for focusing on the subject;
Tracking means for moving the tracking block so as to track the movement of the subject in the image photographed by the photographing means;
Calculating means for calculating a correlation value between the first tracking block on the image captured at the current time point and the second tracking block on the image captured when the focusing operation is executed;
A focusing control unit that causes the focusing unit to perform a focusing operation when the correlation value calculated by the calculating unit is equal to or greater than a predetermined threshold;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022362A JP5326613B2 (en) | 2009-02-03 | 2009-02-03 | Imaging apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022362A JP5326613B2 (en) | 2009-02-03 | 2009-02-03 | Imaging apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010183145A true JP2010183145A (en) | 2010-08-19 |
JP5326613B2 JP5326613B2 (en) | 2013-10-30 |
Family
ID=42764376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009022362A Expired - Fee Related JP5326613B2 (en) | 2009-02-03 | 2009-02-03 | Imaging apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5326613B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012099175A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Auto focus system |
JP2017142318A (en) * | 2016-02-09 | 2017-08-17 | キヤノン株式会社 | Image processing apparatus, imaging device, image processing method, program, and storage medium |
JP2018071979A (en) * | 2016-10-24 | 2018-05-10 | キヤノン株式会社 | Distance detector and distance detection method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244520A (en) * | 2002-02-20 | 2003-08-29 | Minolta Co Ltd | Photographing device |
JP2007052061A (en) * | 2005-08-15 | 2007-03-01 | Sharp Corp | Imaging device, focusing operation control method, and electronic information apparatus |
-
2009
- 2009-02-03 JP JP2009022362A patent/JP5326613B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003244520A (en) * | 2002-02-20 | 2003-08-29 | Minolta Co Ltd | Photographing device |
JP2007052061A (en) * | 2005-08-15 | 2007-03-01 | Sharp Corp | Imaging device, focusing operation control method, and electronic information apparatus |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012099175A1 (en) * | 2011-01-18 | 2012-07-26 | 富士フイルム株式会社 | Auto focus system |
JP5914364B2 (en) * | 2011-01-18 | 2016-05-11 | 富士フイルム株式会社 | Auto focus system |
US9402019B2 (en) | 2011-01-18 | 2016-07-26 | Fujifilm Corporation | Autofocus system |
JP2017142318A (en) * | 2016-02-09 | 2017-08-17 | キヤノン株式会社 | Image processing apparatus, imaging device, image processing method, program, and storage medium |
JP2018071979A (en) * | 2016-10-24 | 2018-05-10 | キヤノン株式会社 | Distance detector and distance detection method |
Also Published As
Publication number | Publication date |
---|---|
JP5326613B2 (en) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3867687B2 (en) | Imaging device | |
JP5954336B2 (en) | Image processing apparatus, image processing method, and recording medium | |
US8634016B2 (en) | Imaging device and main photographic subject recognition method | |
JP5775679B2 (en) | Digital camera | |
JP3823921B2 (en) | Imaging device | |
TW200925756A (en) | Image capture device | |
JP2007074394A (en) | Image pickup device and control method of same | |
JP2003307669A (en) | Camera | |
JP2006091915A (en) | Imaging apparatus | |
JP2003244520A (en) | Photographing device | |
JP2007052061A (en) | Imaging device, focusing operation control method, and electronic information apparatus | |
JP2009169282A (en) | Imaging apparatus and its program | |
JP5407373B2 (en) | Imaging apparatus and program | |
JP2007101907A (en) | Autofocus controller, image forming apparatus using same and autofocus control method | |
JP2009175821A (en) | Detection method and photographing device for specific image | |
JP5326613B2 (en) | Imaging apparatus and program | |
JP5836761B2 (en) | Focus adjustment apparatus and control method thereof | |
JP5858658B2 (en) | Imaging device | |
JP2003295040A (en) | Camera | |
JP5430309B2 (en) | Imaging device | |
JP2008287050A (en) | Automatic focusing device and imaging apparatus | |
JP2006217249A (en) | Electronic camera, electronic camera system and program | |
JP5877228B2 (en) | Digital camera and control method of digital camera | |
JP4055463B2 (en) | camera | |
JP2009267893A (en) | Imaging apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5326613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |