JP6497987B2 - 画像処理装置及び画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP6497987B2
JP6497987B2 JP2015049970A JP2015049970A JP6497987B2 JP 6497987 B2 JP6497987 B2 JP 6497987B2 JP 2015049970 A JP2015049970 A JP 2015049970A JP 2015049970 A JP2015049970 A JP 2015049970A JP 6497987 B2 JP6497987 B2 JP 6497987B2
Authority
JP
Japan
Prior art keywords
subject
vector
motion vector
motion
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015049970A
Other languages
English (en)
Other versions
JP2016171460A5 (ja
JP2016171460A (ja
Inventor
洋晃 朽木
洋晃 朽木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015049970A priority Critical patent/JP6497987B2/ja
Priority to US15/067,008 priority patent/US9865064B2/en
Priority to CN201610141171.5A priority patent/CN105979135B/zh
Publication of JP2016171460A publication Critical patent/JP2016171460A/ja
Publication of JP2016171460A5 publication Critical patent/JP2016171460A5/ja
Application granted granted Critical
Publication of JP6497987B2 publication Critical patent/JP6497987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、流し撮り撮影の補助を行う技術に関するものである。
移動している被写体のスピード感を表現する撮影技術として流し撮りの手法が知られている。この撮影手法は、撮影者が被写体の動きに合わせてカメラをパンニングすることにより、移動している被写体を静止させて背景は流すことを目的としている。一般的な流し撮りは、撮影したい被写体の移動速度に合わせて露光時間を通常より長めに調節することで撮影を行う。
流し撮り撮影においては、撮影者が被写体の動きに合わせてパンニングをする必要があるが、パンニング速度が速すぎたり遅すぎたりすることで、被写体の移動速度とパンニング速度の間に差が発生してしまうと、被写体までブレた画像になることも多い。このような問題に対し、ユーザの流し撮り撮影の補助を行う技術として、手ブレを補正するためのシフトレンズを移動させることにより被写体の移動速度とパンニング速度の差を吸収する手法が提案されている。例えば特許文献1では、ジャイロセンサで装置の振れを検出するとともに画像の動きベクトルから被写体を検出し、検出された被写体を画像中央に位置させるための補正量を算出し、光軸シフトレンズの移動で補正して流し撮り撮影を行う構成が開示されている。特許文献2では、画像を複数の領域に分割し、領域ごとに検出した被写体輝度と被写体距離、撮影倍率、被写体の移動分布を用いて、主被写体を検出する構成が開示されている。
特開2006−317848号公報 特開2003−279848号公報
しかしながら、上述の特許文献1に開示された技術では、ジャイロセンサで装置の振れを検出し、画像の動きベクトルから被写体を検出している。そのため、被写体が向かってくる場合や被写体が複数存在する場合などに、大きさと向きが似ている動きベクトルが複数検出されることがあり、ユーザが止めたい被写体の場所に合わせてブレを抑えることは難しいという問題がある。
また特許文献2に開示された技術では、移動被写体が複数存在するような流し撮り撮影を考えると、カメラのパンニングの影響を考慮していないため、カメラのパンニング速度と被写体の移動速度がずれているときに、ユーザが止めたい被写体を適切に検出することは難しい。
本発明は上述した課題に鑑みてなされたものであり、その目的は、流し撮りを行う場合に、撮影者が止めたいと思う被写体をより正確にブレなく撮影できるようにすることである。
本発明に係わる画像処理装置は、撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え、前記特定手段は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記被写体の距離に関する情報と、その他の領域の前記被写体の距離に関する情報との差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする。
また、本発明に係わる画像処理装置は、撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え、前記特定手段は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記動きベクトルと、その他の領域の前記動きベクトルとの差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする。
また、本発明に係わる画像処理装置は、撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え、前記特定手段は、設定された基準位置を基準とした前記被写体ベクトルの連続領域を用いて、前記被写体領域を特定することを特徴とする。
本発明によれば、流し撮りを行う場合に、撮影者が止めたいと思う被写体をより正確にブレなく撮影することが可能となる。
本発明の第1の実施形態に係わる撮像装置の基本構成を示すブロック図。 第1の実施形態における流し撮り撮影アシストの処理を示すフローチャート。 動きベクトルのヒストグラムの推移を表わした図。 被写体領域と背景領域を判別する方法の説明図。 被写体ベクトル領域を示した図。 第1の実施形態における距離マップと動きベクトルの推移を表わした図。 第1の実施形態における距離マップの信頼度テーブルを示した図。 第1の実施形態における被写体の移動量の算出方法を示した図。 第1の実施形態における効果シーンを示した図。 第2の実施形態における流し撮り撮影アシストの処理を示すフローチャート。 第2の実施形態における距離マップと動きベクトルの推移を表わした図。 第2の実施形態における距離マップと動きベクトルの信頼度テーブルを示した図。
以下、本発明の実施形態について添付図面を参照して詳細に説明する。
(第1の実施形態)
図1は、本発明の画像処理装置の第1の実施形態である撮像装置100の基本構成を示すブロック図である。撮像装置100は、デジタルカメラ、デジタルビデオカメラのようなカメラはもとより、カメラ機能付き携帯電話、カメラ付きコンピュータなど、カメラ機能を備える任意の電子機器であっても良い。
図1において、光学系101は、レンズ、シャッター、絞りから構成されており、CPU103の制御によって被写体からの光を撮像素子102に結像させる。CCDイメージセンサ、CMOSイメージセンサなどからなる撮像素子102は、光学系101を通って結像した光を画像信号に変換する。ジャイロセンサなどの角速度センサ105は、撮像装置100の移動量を表わすパンニング角速度を検出し、電気信号に変換してCPU103へ伝達する。測距センサ106は、撮像素子102で撮像された被写体の被写体距離やデフォーカス量(以降、距離マップと呼ぶ)を検出(距離検出)し、電気信号に変換してCPU103へ伝達する。測距センサ106の代わりとして、撮像素子102により位相差やコントラストを検出して焦点位置を求め、それに基づいて被写体距離を求めてもよい。
CPU103は、入力された信号や予め記憶されたプログラムに従い、撮像装置100を構成する各部を制御することで、撮像装置100の機能を実現させる。一次記憶装置104は例えばRAMのような揮発性メモリであり、一時的にデータを記憶するとともに、CPU103の作業領域として使われる。また、一次記憶装置104に記憶されている情報は、画像処理装置107で利用されたり、記録媒体108へ記録されたりもする。二次記憶装置109は例えばEEPROMのような不揮発性メモリであり、撮像装置100を制御するためのプログラム(ファームウェア)や各種の設定情報を記憶し、CPU103によって利用される。
記録媒体108は、一次記憶装置104に記憶されている、撮影により得られた画像のデータなどを記録する。なお、記録媒体108は例えば半導体メモリカードなどで、撮像装置100から取り外し可能であり、パーソナルコンピュータなどに装着することにより記録されたデータを読み出すことが可能である。つまり、撮像装置100は、記録媒体108の着脱機構及び読み書き機能を有する。表示部110は、撮影時のビューファインダー画像の表示、撮影した画像の表示、対話的な操作のためのGUI画像などの表示を行う。
操作部111は、ユーザの操作を受け付けてCPU103へ入力情報を伝達する入力デバイス群であり、例えばボタン、レバー、タッチパネル等はもちろん、音声や視線などを用いた入力機器であってもよい。なお、本実施形態の撮像装置100では、画像処理装置107が撮像画像に適用する画像処理のパターンを複数有し、そのパターンを撮像モードとして操作部111から設定可能である。画像処理装置107は、いわゆる現像処理と呼ばれる画像処理をはじめ、色調の調整なども行う。なお、画像処理装置107の機能の少なくとも一部は、CPU103がソフトウェア的に実現しても良い。
なお、図1においては、撮像装置100を光学系101が撮像装置の本体と一体化された装置としているが、光学系の部分を撮像装置の本体に対して着脱可能にして、レンズ交換式の撮像システムとして構成してもよい。
図2は、本実施形態における流し撮り撮影をアシストする動作の流れを示したフローチャートである。なお、このフローは、例えば操作部111に含まれるシャッターボタンの半押しなどにより開始させることが可能である。また、この流し撮り撮影のアシスト動作は、ライブビューや測光センサなどにより連続的に複数フレームの画像を取得している状態で行われる。
まずS201において、CPU103は、角速度センサ105で検出された撮像装置100のパンニング角速度を検出(パンニング検出)する。次にS202において、CPU103は、撮像素子102で連続して取得された画像を画面内でそれぞれ複数のブロック領域に分割し、ブロック領域ごとに測距センサ106で検出された距離マップを検出する。S203において、CPU103は、S202と同様に分割されたブロック領域ごとに、画像処理装置107を用いて画像間における動きベクトルを検出(ベクトル検出)する。そして、検出された動きベクトルを撮像面上の移動量v[mm]に換算する。
S204において、焦点距離をf[mm]、画像を取得する間隔(以降、フレームレートと呼ぶ)をfps[frame/sec]としたとき、CPU103は、S201で取得した撮像装置100のパンニングの角速度ω[rad/sec]を、式(1)を用いて画像間における撮像面上の移動量L[mm]に変換する。
L=f・tan(ω/fps) …(1)
S205において、CPU103は、S203で検出した動きベクトルから、例えば図3(a)のような縦軸がベクトルのブロック数、横軸がベクトルの大きさのヒストグラムを、画像処理装置107で作成する。
S206において、CPU103は、S204で移動量L[mm]に変換した撮像装置100の角速度ω[rad/sec]と、S205で作成した動きベクトルのヒストグラムを用いて、被写体の動きを表わすベクトル(以降、被写体ベクトルと呼ぶ)と、背景の動きを表わすベクトル(以降、背景ベクトルと呼ぶ)を判別(分離)する。被写体の判別は、例えばS204で移動量L[mm]に変換した撮像装置100の角速度ω[rad/sec]に近い動きベクトルを背景ベクトルとし、それ以外で検出数の多い動きベクトルを被写体ベクトルとして行えばよい。また、撮像装置100の角速度ω[rad/sec]がある程度の大きさがある場合は、フレーム間で背景もある程度動いていると考えられるため、動きが小さいベクトルを被写体ベクトルとしてもよい。なお、ここでいう被写体ベクトルと背景ベクトルは撮像面上の移動量に換算された後の値を表わす。
他にも、S202で検出した距離マップを用いて、被写体を判別する方法がある。図4(a)、図4(b)を、ある連続するフレームで取得された画像とする。403を画像中の左側方向に移動している被写体としたとき、背景402は流し撮り撮影においてフレーム間で移動してしまうため、ブロック領域401で検出される被写体距離はフレームごとに異なる。また、図4(c)をある任意のフレームで取得された画像とすると、メイン被写体と異なる動きをしている被写体404はぶれてしまうため、距離マップが取得しにくい。したがって、フレーム間で安定して同じ距離マップを検出できるブロック領域を被写体領域としても良い。
分割されたブロック領域が低コントラストな場合は、S202で被写体距離を検出したり、S203で動きベクトルを検出したりできない場合があるので、被写体領域をある程度広くとって最終的な被写体速度を算出することが望ましい。したがって、S207において、CPU103は、画像処理装置107を用いて、被写体距離や動きベクトルを検出できなかったブロック領域に対し、式(2)で隣接ブロック領域と色比(R/G、B/G)を比較(色比検出)し、所定の閾値以内であれば同じ被写体と判定する。
閾値Rm≦{(Ri/Gi)−(Ri-1/Gi-1)}≦閾値Rp
閾値Bm≦{(Bi/Gi)−(Bi-1/Gi-1)}≦閾値Rp …(2)
図4(d)、4(e)を用いて、図2のS207の処理について説明する。図4(d)、4(e)は、あるフレームにおける被写体速度の算出領域例を示した図である。図4(d)の403を画像中の左側方向に移動している被写体、405を分割されたブロック領域とする。また、図4(e)の406を被写体ベクトルが検出されたブロック領域、407を被写体距離や動きベクトルが検出できなかった領域とする。被写体ベクトルが検出された最大連続ブロック領域で最終的な被写体速度を算出すると仮定したとき、被写体速度は被写体の後方408の領域で算出されることになってしまう。しかし、色で判別を行うことで、被写体全体の領域409で被写体速度を算出することができる。以上のようにして、被写体を判別する。
以下、本実施形態の特徴的な部分である、距離マップを用いた被写体ベクトルへの重み付け方法に関して説明する。
図2のS208において、CPU103は、S202で検出されたブロック領域ごとの距離マップを用いて、S206で被写体ベクトルとして判別された動きベクトルに重み付けをする。
図3、図5、図6を用いて、S208の処理について説明する。まず、図3は、あるフレームにおける動きベクトルのヒストグラムの推移を示した図である。なお、本実施形態では、図3(a)〜(c)のみを説明に用いる。次に、図5は、あるフレームにおける被写体ベクトル領域を示した図である。最後に、図6は、図5に示すフレームにおける被写体速度算出領域の推移を示した図である。
図6(a1)〜(a6)は距離マップにおけるデフォーカス量を表わしており、合焦位置は0、被写体が合焦位置よりも手前にある場合は負の値、被写体が合焦位置よりも奥にある場合は正の値をとるものとする。また、合焦位置からのずれ量の大きさを数字で表わす。図6(b1)〜(b6)は動きベクトルを表わしており、動きベクトルの方向を矢印の方向で、動きベクトルの大きさを矢印の長さで示すものとする。
図5(a)の501のように分割されたブロック領域から検出された距離マップを図6(a1)、動きベクトルを図6(b1)とする。また、動きベクトルの分布を、縦軸に「ベクトルのブロック数」をとり、横軸に「ベクトルの大きさ」をとってヒストグラムとして表わしたものを図3(a)とする。図3(a)の301は、S204において撮像面上の移動量L[mm]に変換された撮像装置100の角速度ω[rad/sec]である。
図2のS206において、CPU103は、撮像装置100の角速度301と同等程度の移動量である302を背景ベクトル、背景ベクトルとは異なり、動き量も小さいベクトル306を被写体ベクトルとして判別する。被写体ベクトル306として判別されたブロック領域を図5(b)の506(領域506は領域503、504、505を合わせたもの)としたときの距離マップを示したものが図6(a2)、動きベクトルを示したものが図6(b2)である。なお、図5の背景502の動きベクトル、被写体503〜505の動きベクトルを、それぞれ図3の302、303〜305で表わすものとする。
なお、図3において、被写体503の動きベクトル303を斜めハッチングで示し、被写体504の動きベクトル304をクロスハッチングで示し、被写体505の動きベクトル305をドットで示している。ここで、例えば被写体503に着目すると、被写体503である1台の車の中でも各部分において動きベクトルの検出誤差等がある。そのため、動きベクトルの大きさは、図6(b2)の被写体503に対応する部分を見てもわかるように、−2mm、−1mm、0mmの範囲に分布しており、図3(a)では、斜めハッチングの部分がこの3つにまたがっている。被写体504についても同様に、被写体504に対応する動きベクトル304の大きさは、図3(a)の−3mm、−2mmにまたがって分布している。一方、被写体505に対応する動きベクトル305の大きさは、図6(a2)に示すように0なので、図3(a)では0mmの位置に分布している。
図7は、距離マップで被写体ベクトルに重み付けするための信頼度テーブルである。図7の信頼度テーブルに従うと、被写体504に対応するブロック領域(図6(a3)の604)は、デフォーカス量が20となっているため、信頼度が0%となる。また、被写体505に対応するブロック領域(図6(a3)の605)は、デフォーカス量が−10となっているため、信頼度が50%となる。つまり、ピントがずれていてぼけてしまっている被写体は、流し撮りにおいて止めたい被写体部分ではないであろうと判断する。なお、図7の閾値は一例であり、これに限定されるものではない。
図3(b)、図6(a4)、図6(b3)は、図2のS208の処理を行った後の状態を示す図である。図5の被写体504に対応する図6(a3)のブロック領域604の信頼度が0%となっているため、図3(a)の動きベクトル304は、図3(b)の307のように被写体ベクトルから除外される。図6(a3)のブロック領域605、すなわち図5(b)の被写体505に対応するブロック領域の信頼度が50%となっているため、図3(a)の動きベクトル305は、図3(b)のように被写体ベクトルに含まれるブロック数が1/2となる。以上のようにして、距離マップを用いて、被写体ベクトルに重み付けを行う。
図2のS209において、CPU103は、画像処理装置107を用いて、距離マップと被写体ベクトルが合焦位置と同等な連続領域を抽出する。本実施形態では、複数領域が抽出された場合、最も大きな連続領域を抽出するものとするが、画面中央など構図から抽出領域を判断しても良い。
図3と図6を用いて、S209の処理について説明する。図6(a5)のブロック領域605は、合焦位置のブロック領域と隣接していないため、異なる被写体の動きベクトルとして判別される。したがって、図3(b)の動きベクトル305は、図3(c)の308のように被写体ベクトルから除外される。
以上のようにして、最終的な被写体ベクトル領域を特定し、被写体ベクトル領域に含まれる動きベクトルを平均することで、被写体ベクトルを算出する。
図2のS210において、CPU103は、画像処理装置107を用いて被写体ベクトルから被写体速度を算出する。あるフレーム間における被写体の像面上の移動量(被写体ベクトルの大きさ)をv[mm]、焦点距離をf[mm]、フレームレートをfps[frame/sec]としたとき、式(3)を用いて、被写体の撮像面上の移動量(被写体ベクトルの大きさ)v[mm]を角速度ωv[rad/sec]に変換する。
ωv=fps×tan-1(v/f) …(3)
そして、撮像装置100の角速度ω[rad/sec]、フレーム間における被写体ベクトルの角速度変換値をωv[rad/sec]としたとき、式(4)を用いて、被写体角速度ωs[rad/sec]を算出する。
ωs=(ω+ωv) …(4)
以上のようにして、被写体速度を算出する。
S211において、CPU103は、露光動作を行うかどうかの判定を行う。なお、ここでは操作部111に含まれるシャッターボタンの全押し(以降、SW2のON)がなされたかどうかの判定を行う。SW2のONが行われていない場合、CPU103は、S201からS210までの動作を繰り返し行う。SW2のONが行われた場合、S212へ進む。
S212において、CPU103は、撮像素子102を露光させている間、S210で算出した被写体速度と、撮像装置100の角速度の差分値に基づいて、光学系101のシフトレンズを動作させ、流し撮り撮影のアシストを行う。
図8は、被写体が左右だけでなく前後にも移動している、すなわち、被写体距離も変化している場合の例を示した図である。図8(a)において、あるnフレーム目の被写体の位置を801、n+1フレーム目の被写体の位置を802とすると、本来の被写体速度に該当する移動量v0を表わしているのは803である。しかしながら、被写体距離固定として被写体の移動量を検出すると、像面上の移動量808(v2)が同じである804(v1)が被写体の移動量として検出されてしまう。
図8(b)において、SW2がONされる前の被写体の移動量をv0,v1,v2、SW2がONされた後、すなわち、露光中の被写体の移動量をv0',v1',v2'とすると、被写体が等速運動(v0=v0')している場合でも、像面上の移動量は変化してしまう(v2≠v2')。したがって、被写体距離固定として被写体距離が変化してしまう被写体の移動量を検出するためには、SW2がONされる前の被写体の移動量v1ではなく、SW2がONされた後の被写体の移動量v1'を予測する必要がある。本実施形態では距離マップにより、被写体距離(L1,L2)を検出できるため、式(5)を用いて、本来の被写体速度に該当する移動量v0を算出する。
v0=√(L02+v12
L0=√(L12−v12)−L2 …(5)
そして、上記演算結果と式(6)を用いて、SW2がONされた後の移動量v1'を算出する。
v1'=2√(v02−L02)−v1
v0'=v0
L0'=2L0 …(6)
上記移動量v1'を用いて算出した被写体速度をもとにシフトレンズを動作させることで、被写体が左右だけでなく前後にも移動している場合にも流し撮り撮影のアシストを行うことができる。このように、流し撮り撮影のユーザ補助において、被写体領域、及び、被写体速度をより高精度に検出することが可能となる。
なお、本実施形態では、図9(a)のような複数の被写体の中から1つの被写体901に絞り込む例を説明した。しかし、図9(b)のように向かってくる被写体、すなわち、同一被写体内でも被写体距離が異なる領域があるものに対しても、上記と同様の処理で902のように被写体速度を算出する領域を制限することができる。
また、本実施形態においてはシフトレンズにより被写体の結像位置を補正する例を示したが、本発明はこれに限定されるものではなく、例えば撮像素子102自体をシフトさせるなどといった形態でも実現することが可能である。
(第2の実施形態)
この第2の実施形態では、撮像装置の構成は、図1で示した第1の実施形態の撮像装置100の構成と同様であるため、ここでは説明を省略する。
図10は、第2の実施形態における流し撮り撮影をアシストする動作の流れを示したフローチャートである。なお、このフローは、例えば操作部111に含まれるシャッターボタンの半押しなどにより開始させることが可能である。また、この流し撮り撮影のアシスト動作は、ライブビューや測光センサなどにより連続的に複数フレームの画像を取得している状態で行われる。
まず、S1001において、CPU103は、ユーザが操作部111を用いて設定した測距位置を取得する。なお、S201〜S207に関しては、第1の実施形態における図2のS201〜S207と同様であるため、ここでは説明を省略する。
以下、本実施形態の特徴部分である、測距位置と距離マップを用いた動きベクトルへの重み付け、及び、被写体ベクトルの算出方法について説明する。
S1002において、CPU103は、S1001で取得した測距位置(図11の1101)と対応する距離マップと動きベクトルのブロック領域を検出する。S1003において、CPU103は、S1002で検出したブロック領域の距離マップと動きベクトルを用いて、他ブロックの距離マップと動きベクトルに重み付けを行う。
図3、図5、図11、図12を用いて、S1002、S1003の動作の詳細について説明する。まず、図3は、あるフレームにおける動きベクトルのヒストグラムの推移を示した図である。なお、本実施形態では、(a)と(d)のみを説明に用いる。次に、図5は、あるフレームにおける被写体ベクトル領域を示した図である。そして、図11は、図5に示すフレームにおける被写体速度算出領域の推移を示した図である。図11(a1)〜(a4)は測距位置を基準とした被写体距離の差分値を示し、図11(b1)〜(b4)は動きベクトルを示している。最後に、図12は、被写体ベクトルに重み付けするための信頼度テーブルを示している。図12(a)は距離マップの信頼度テーブル、図12(b)は動きベクトルの信頼度テーブルを示している。
第1の実施形態と同様、図3の306を被写体ベクトル、図5(b)の506(領域506は領域503、504、505を合わせたもの)を被写体ベクトルとして判別されたブロック領域とする。また、図5の背景502の動きベクトル、被写体503〜505の動きベクトルを、それぞれ図3の302、303〜305で表わすものとする。また、図11(a1)は、被写体ベクトルとして判定されたブロック領域506の距離マップ、図11(b1)は、被写体ベクトルとして判定されたブロック領域506の動きベクトルを表わしている。
図11(a1)の1101を測距位置としたとき、図12(a)の距離マップの信頼度テーブルに従うと、図11(a1)のブロック領域604は、被写体距離の差分値が20となっているため、信頼度が0%となる。また、ブロック領域605は、被写体距離の差分値が−10となっているため、信頼度が50%となる。ここで、距離マップの信頼度テーブルによる重み付けの結果を、図11(a2)に示す。なお、『×』は信頼度0%、『/』は、信頼度50%を示している。
同様に、図12(b)の動きベクトルの信頼度テーブルに従うと、式(7)の条件下では、図11(b1)のブロック領域604は信頼度が0%、ブロック領域605は信頼度が50%となる。ここで、動きベクトルの信頼度テーブルによる重み付け結果を、図11(b2)に示す。なお、『×』は信頼度0%、『\』は、信頼度50%を示している。
ブロック領域604:動きベクトルの大きさの差≧b
ブロック領域605:動きベクトルの大きさの差=(a+b)/2 …(7)
そして、式(8)を用いて、距離マップと動きベクトルの信頼度を掛け合わせることで、被写体ベクトルへの重み付け量を決定する。なお、図11(a3)、(b3)は、被写体ベクトルへの重み付け量を示しており、『×』は信頼度25%、『\』は信頼度50%を表わしている。
(被写体ベクトル信頼度)=(距離マップ信頼度)×(動きベクトル信頼度)
…(8)
このようにして、測距位置に対して被写体距離と動きベクトルが類似しているブロック領域を被写体領域として検出するように重み付けを行う。なお、上記で説明した距離マップと動きベクトルの重み付け方法は一例であり、これに限定されるものではない。以上、S1002、S1003の詳細について示した。
図10のS1004の処理により測距点位置と連続した領域を抽出することで、図11のブロック領域605は除外されるため、図11(a3)、(b3)は、図11(a4)、(b4)のようになる。なお、S1004に関しては、第1の実施形態で説明した図2のS209と基本的には同じであり、合焦位置を基準にするか、測距位置を基準にするかの違いだけであるため、ここでは説明を省略する。
図3(d)は、図3(a)に対して、S1003〜S1004の処理を行った結果である。図3(a)の304は距離マップの信頼度が低いため、305は測距位置から連続していない領域であるため、それぞれ図3(d)の309、310のように被写体ベクトルから除外される。また、図11(a4)の603のように信頼度による重み付けをすることで、図3の311のように被写体ベクトルに対して影響を与える割合を減らすことができる。
S210において、CPU103は、画像処理装置107を用いて、上記のように重み付けされた被写体ベクトルから被写体速度を算出する。なお、被写体速度の算出方法に関しては、第1の実施形態と同様であるため、ここでは説明を省略する。S211,S212に関しては、第1の実施形態と同様であるため、ここでは説明を省略する。上記のようなステップを経ることで、流し撮り撮影をアシストすることができる。
以上により、測距位置を基準とした被写体ベクトルの検出が可能となるため、よりユーザが止めたい被写体領域に合わせた被写体速度を検出することが可能となる。
なお、本実施形態においては、シフトレンズにより被写体の結像位置を補正する例を示したが、本発明はこれに限定されるものではなく、例えば撮像素子102自体をシフトさせるなどといった形態でも実現することが可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:撮像装置、101:光学系、102:撮像素子、103:中央演算装置(CPU)、104:一次記憶装置、105:角速度センサ、106:測距センサ、107:画像処理装置、108:記録媒体、110:表示部、111:操作部

Claims (14)

  1. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え
    前記特定手段は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記被写体の距離に関する情報と、その他の領域の前記被写体の距離に関する情報との差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする画像処理装置。
  2. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え、
    前記特定手段は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記動きベクトルと、その他の領域の前記動きベクトルとの差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする画像処理装置。
  3. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割手段と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出手段と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出手段により検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離手段と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定手段と、を備え、
    前記特定手段は、設定された基準位置を基準とした前記被写体ベクトルの連続領域を用いて、前記被写体領域を特定することを特徴とする画像処理装置。
  4. 前記特定された被写体領域についての被写体ベクトルを用いて、被写体の速度を算出する算出手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記算出された被写体の速度に基づいて、画像の振れを補正する振れ補正手段の動きを制御し、流し撮り撮影をアシストするアシスト手段をさらに備えることを特徴とする請求項に記載の画像処理装置。
  6. 前記アシスト手段は、前記算出された被写体の速度と前記パンニングの速度の差分に基づいて、前記振れ補正手段の動きを制御することを特徴とする請求項に記載の画像処理装置。
  7. 前記被写体の距離に関する情報は、デフォーカス量であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 前記基準位置として測距位置を取得する取得手段をさらに備えことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  9. 前記分割された領域ごとに、色比を検出する色比検出手段をさらに備え、前記特定手段は、前記色比が所定の閾値以内であれば、同一の被写体として見なして前記被写体領域を特定することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割工程と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出工程と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出工程において検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離工程と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定工程と、を有し、
    前記特定工程は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記被写体の距離に関する情報と、その他の領域の前記被写体の距離に関する情報との差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする画像処理方法。
  11. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割工程と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出工程と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出工程において検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離工程と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定工程と、を有し、
    前記特定工程は、前記複数の領域のうちの、設定された基準位置に対応した領域の前記動きベクトルと、その他の領域の前記動きベクトルとの差分値を用いて、前記被写体ベクトルに重み付けをすることを特徴とする画像処理方法。
  12. 撮像手段により連続的に撮影された複数フレームの画像をそれぞれ画面内で複数の領域に分割する分割工程と、
    前記複数フレームの画像について、前記分割された領域ごとに動きベクトルを検出する動きベクトル検出工程と、
    パンニング検出手段により検出した装置のパンニングの速度と、前記動きベクトル検出工程において検出された動きベクトルとを用いて、被写体の動きを示す被写体ベクトルと、背景の動きを示す背景ベクトルを分離する分離工程と、
    距離検出手段により前記複数フレームの画像について前記分割された領域ごとに検出された被写体の距離に関する情報を用いて、前記被写体ベクトルに重み付けをし、被写体領域を特定する特定工程と、を有し、
    前記特定工程は、設定された基準位置を基準とした前記被写体ベクトルの連続領域を用いて、前記被写体領域を特定することを特徴とする画像処理方法。
  13. 請求項10乃至12のいずれか1項に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
  14. 請求項10乃至12のいずれか1項に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2015049970A 2015-03-12 2015-03-12 画像処理装置及び画像処理方法、プログラム、記憶媒体 Active JP6497987B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015049970A JP6497987B2 (ja) 2015-03-12 2015-03-12 画像処理装置及び画像処理方法、プログラム、記憶媒体
US15/067,008 US9865064B2 (en) 2015-03-12 2016-03-10 Image processing apparatus, image processing method, and storage medium
CN201610141171.5A CN105979135B (zh) 2015-03-12 2016-03-11 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015049970A JP6497987B2 (ja) 2015-03-12 2015-03-12 画像処理装置及び画像処理方法、プログラム、記憶媒体

Publications (3)

Publication Number Publication Date
JP2016171460A JP2016171460A (ja) 2016-09-23
JP2016171460A5 JP2016171460A5 (ja) 2018-04-19
JP6497987B2 true JP6497987B2 (ja) 2019-04-10

Family

ID=56888448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015049970A Active JP6497987B2 (ja) 2015-03-12 2015-03-12 画像処理装置及び画像処理方法、プログラム、記憶媒体

Country Status (3)

Country Link
US (1) US9865064B2 (ja)
JP (1) JP6497987B2 (ja)
CN (1) CN105979135B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598537B2 (ja) * 2015-07-01 2019-10-30 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
KR102403065B1 (ko) * 2015-07-14 2022-05-27 삼성전자주식회사 영상 촬영 장치 및 그 동작 방법
TWI554108B (zh) * 2015-08-04 2016-10-11 緯創資通股份有限公司 電子裝置及影像處理方法
JP2018146663A (ja) * 2017-03-02 2018-09-20 キヤノン株式会社 像ブレ補正装置およびその制御方法、撮像装置、レンズ装置
JP6858065B2 (ja) * 2017-04-17 2021-04-14 キヤノン株式会社 撮像装置およびその制御方法
JP7286294B2 (ja) * 2017-10-27 2023-06-05 キヤノン株式会社 撮像装置、撮像装置の制御方法、および、プログラム
JP7321691B2 (ja) * 2017-10-27 2023-08-07 キヤノン株式会社 撮像装置、撮像装置の制御方法、および、プログラム
CN108063946B (zh) * 2017-11-16 2021-09-24 腾讯科技(成都)有限公司 图像编码方法和装置、存储介质及电子装置
JP7034690B2 (ja) * 2017-12-05 2022-03-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
KR102645340B1 (ko) * 2018-02-23 2024-03-08 삼성전자주식회사 전자 장치 및 그의 녹화 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2600504B2 (ja) * 1991-01-25 1997-04-16 日本ビクター株式会社 動きベクトル検出回路
JP2003279848A (ja) 2003-02-07 2003-10-02 Olympus Optical Co Ltd 主要被写体検出装置
JP2006317848A (ja) 2005-05-16 2006-11-24 Canon Inc 静止画撮像装置
JP2007288726A (ja) * 2006-04-20 2007-11-01 Matsushita Electric Ind Co Ltd 撮像装置
JP4178480B2 (ja) * 2006-06-14 2008-11-12 ソニー株式会社 画像処理装置、画像処理方法、撮像装置および撮像方法
CN100495438C (zh) * 2007-02-09 2009-06-03 南京大学 一种基于视频监控的运动目标检测与识别方法
JP4561845B2 (ja) * 2008-02-29 2010-10-13 カシオ計算機株式会社 撮像装置と画像処理プログラム
JP2010021598A (ja) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd 撮像装置および撮像方法
JP2010114752A (ja) * 2008-11-07 2010-05-20 Canon Inc 撮像装置及び撮像方法及びプログラム
JP5589527B2 (ja) * 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
WO2012014430A1 (ja) * 2010-07-27 2012-02-02 パナソニック株式会社 移動体検出装置および移動体検出方法
JP6271990B2 (ja) * 2013-01-31 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
JP2015012482A (ja) * 2013-06-28 2015-01-19 キヤノン株式会社 画像処理装置及び画像処理方法
JP6157242B2 (ja) * 2013-06-28 2017-07-05 キヤノン株式会社 画像処理装置及び画像処理方法
US9432575B2 (en) * 2013-06-28 2016-08-30 Canon Kabushiki Kaisha Image processing apparatus
JP6486087B2 (ja) * 2014-12-03 2019-03-20 キヤノン株式会社 像ブレ補正装置、撮像装置および制御方法

Also Published As

Publication number Publication date
CN105979135B (zh) 2019-06-25
US9865064B2 (en) 2018-01-09
CN105979135A (zh) 2016-09-28
US20160269636A1 (en) 2016-09-15
JP2016171460A (ja) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6497987B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
JP6157242B2 (ja) 画像処理装置及び画像処理方法
JP6539091B2 (ja) 撮像装置およびその制御方法
US10212348B2 (en) Image processing apparatus, its control method, image capturing apparatus, and storage medium
JP6415196B2 (ja) 撮像装置および撮像装置の制御方法
JP2015194672A (ja) 撮像装置
JP2017138379A (ja) 像振れ補正装置およびその制御方法、撮像装置、プログラム、記憶媒体
JP2015012482A (ja) 画像処理装置及び画像処理方法
JP2019083364A (ja) 画像処理装置、撮像装置および制御方法
US20240171855A1 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium that provide a notification based on an accuracy
JP2018137613A (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP6465705B2 (ja) 動きベクトル検出装置、動体角速度算出装置、撮像装置およびレンズ装置
US10200612B2 (en) Image stabilization apparatus and control method thereof, and storage medium
JP6659126B2 (ja) 像振れ補正装置、像振れ補正方法、撮像装置およびプログラム
JP2019152807A (ja) 焦点検出装置および焦点検出方法
JP2018082232A (ja) 撮像装置および制御方法
JP2010072559A (ja) 撮像装置および対象物領域抽出方法
JP6089232B2 (ja) 撮像装置
US10681274B2 (en) Imaging apparatus and control method thereof
JP2014131188A (ja) 撮像装置、その制御方法、および制御プログラム
JP6833607B2 (ja) 制御装置、撮像装置、制御方法、プログラム、および、記憶媒体
JP7254555B2 (ja) 撮像装置および撮像装置の制御方法
JP2018197845A (ja) フォーカス制御装置および撮像装置
JP6415279B2 (ja) 撮像制御装置、撮像装置および撮像制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190312

R151 Written notification of patent or utility model registration

Ref document number: 6497987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151