JP5216984B2 - 動き情報取得装置及び画像処理装置 - Google Patents

動き情報取得装置及び画像処理装置 Download PDF

Info

Publication number
JP5216984B2
JP5216984B2 JP2009202780A JP2009202780A JP5216984B2 JP 5216984 B2 JP5216984 B2 JP 5216984B2 JP 2009202780 A JP2009202780 A JP 2009202780A JP 2009202780 A JP2009202780 A JP 2009202780A JP 5216984 B2 JP5216984 B2 JP 5216984B2
Authority
JP
Japan
Prior art keywords
motion information
image
frame rate
frame
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009202780A
Other languages
English (en)
Other versions
JP2011055278A (ja
Inventor
友子 青野
嘉浩 北浦
隆之 浜本
忠明 保坂
可苗 松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Sharp Corp
Original Assignee
Tokyo University of Science
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science, Sharp Corp filed Critical Tokyo University of Science
Priority to JP2009202780A priority Critical patent/JP5216984B2/ja
Publication of JP2011055278A publication Critical patent/JP2011055278A/ja
Application granted granted Critical
Publication of JP5216984B2 publication Critical patent/JP5216984B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、高フレームレートの動画像から動き情報を取得する動き情報取得装置及びその動き情報を用いて各種画像処理を行う画像処理装置に関する。
フレーム間の動き情報を利用した動画像のアプリケーションは数多く存在する。例えば、(a)FRC(Frame Rate Conversion)の補間フレームを生成するための動き情報の利用、(b)手振れ補正のための動き情報の利用、(c)動画像符号化におけるインター予測用動きベクトルとしての動き情報の利用、(d)複数フレームから高解像度画像を得るための位置合わせのための動き情報の利用、などがある。
図14は、従来の画像処理装置の構成例を示すブロック図である。図14(A)はFRCの補間フレームを生成するために動き情報を利用する場合あるいは動画像符号化におけるインター予測用動きベクトルとして動き情報を利用する場合の装置構成を示し、図14(B)は手振れ補正のために動き情報を利用する場合あるいは動画像符号化におけるインター予測用動きベクトルとして動き情報を利用する場合の装置構成を示し、図14(C)は手振れ補正のために動き情報を利用する場合の装置構成を示し、図14(D)は複数フレームから高解像度画像を得るための位置合わせに動き情報を利用する場合の装置構成を示す。
図14において、101は撮像部、102は動画像エンコーダ、103は動画像デコーダ、104はFRC部、105は手振れ補正部、106は高解像度化処理部、107は静止画/動画像エンコーダ、108は静止画/動画像デコーダを示す。また、動き検出部及び位置合わせ部では動きベクトルが検出されるが、図14(A)の場合、動き検出部を動画像エンコーダ102とFRC部104の内部に設け、図14(B)の場合、動き検出部を動画像エンコーダ102と手振れ補正部105の内部に設け、図14(C)の場合、動き検出部を手振れ補正部105の内部に設け、図14(D)の場合、位置合わせ部を高解像度化処理部106の内部に設けている。
上記の図14に示すように、アプリケーションに合わせて動画像エンコーダの内部、あるいは、動画像エンコーダあるいは静止画エンコーダの前処理、あるいは、動画像デコーダの後処理のように、装置内の様々な部分で別々に動きベクトルを求めていた。
ところで、近年のイメージセンサの高フレームレート化により、高速撮像時の強いフレーム間拘束を利用すれば、小さな処理量で正確な動きベクトルを求めることができる。しかしながら、高フレームレートの動画像をセンサから出力すると、動画像のデータ量が膨大になるため、長時間連続して出力するためには、低解像度で出力するか、あるいは必要な情報のみに限定して出力しなければならない。
そこで、イメージセンサ内部で高フレームレートの動画像を用いて動き検出を行い、通常のフレームレートで撮像される画像の揺れを補正した後、撮像部から出力する技術が提案されている。
例えば、特許文献1には、動画像をアプリケーションに用いるフレームレート(30fpsあるいは60fps)の基準フレームと、それより高フレームレートのサブフレームとの2種類に分け、処理対象フレームの複数の局所領域に対し相関の高い参照フレーム中の領域を探索し、相関が最大となる領域を局所領域の移動先とみなし、動きベクトルを求め、この動きベクトルを用いて動画像の揺れを計算し、通常のフレームレートで取得した動画像に対し揺れを補正して出力する技術が記載されている。
特開2004−289709号公報
しかしながら、上記の特許文献1に記載の技術では、高フレームレートの動画像を利用しているにもかかわらず、動き検出のアルゴリズム自体は高フレームレートの特性を利用しない一般的なアルゴリズムであるため、処理負荷が十分小さくならないという問題がある。この特許文献1に記載の技術では、処理負荷を抑制するために、例えば、局所領域の数の上限を設ける等、1画面中の処理対象領域を制限するようにしている。また撮像部で動きベクトルを算出しているにもかかわらず、動きベクトルを撮像部内部のみで使用するため、特定の用途(この場合は揺れ補正)にしか利用できない。
本発明は、上述のごとき実情に鑑みてなされたものであり、高フレームレートの動画像を利用し、少ない処理量で正確な動きを求めることが可能な動き検出アルゴリズムを提供し、また、検出した動きベクトルを複数の用途で利用するため、撮像装置と外部の機器間の互換性を保証する動画像と動きベクトルの出力フォーマットを提供すること、を目的とする。
上記課題を解決するために、本発明の第1の技術手段は、基準フレームからなる第1のフレームレートの画像及び前記基準フレームを含む前記第1のフレームレートより高い第2のフレームレートの画像を撮像する撮像手段と、前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備え、前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレームと各サブフレーム間の動き情報とを同期させ、前記出力手段は、前記同期手段で同期させた第1のフレームレートの画像と前記動き情報とを所定のフォーマットで出力することを特徴としたものである。
の技術手段は、第1の技術手段において、前記動き情報検出手段は、前記第2のフレームレートの隣接画像間の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴としたものである。
第3の技術手段は、基準フレームからなる第1のフレームレートの画像及び前記基準フレームを含む前記第1のフレームレートより高い第2のフレームレートの画像を撮像する撮像手段と、前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備え、前記動き情報検出手段は、前記第2のフレームレートの隣接画像間の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴としたものである。
第4の技術手段は、第1〜第3のいずれか1の技術手段において、前記動き情報検出手段は、前記第2のフレームレートの隣接画像間において既に検出した動き情報に基づいて、対象ブロックの動き探索範囲を変更する手段を備えたことを特徴としたものである。
第5の技術手段は、第3の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、これに対応する少なくとも1枚以上の第2のフレームレートの画像を構成する各ブロックの動き情報とを同期させ、前記出力手段は、前記同期手段で同期させた第1のフレームレートの画像と動き情報とを所定のフォーマットで出力することを特徴としたものである。
の技術手段は、第の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレーム間の動きベクトルとを同期させることを特徴としたものである。
の技術手段は、第の技術手段において、前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレームとサブフレーム間の動きベクトルとを同期させることを特徴としたものである。
の技術手段は、第1またはの技術手段において、前記所定のフォーマットには、動き情報が属するサブフレームのフレーム数、ブロックサイズ、動きベクトルの精度のうち、少なくとも1つが含まれることを特徴としたものである。
第9の技術手段は、第1または第5の技術手段において、前記所定のフォーマットに格納可能なデータ量に制限がある場合、動き情報の属するブロックサイズ、または動きベクトル精度を変更して、前記データ量以内で動き情報を格納することを特徴としたものである。
第10の技術手段は、第1〜第9のいずれか1の技術手段において、前記動き情報検出手段は、時間的に新しい基準フレームから古い基準フレームに向けて動き情報を検出し、該動き情報は、前記新しい基準フレーム内の対象ブロックから順次算出されるものであることを特徴としたものである。
第11の技術手段は、第1〜第10のいずれか1の技術手段における動き情報取得装置から出力された画像と動き情報とを用いて画像処理を行う画像処理装置であって、前記第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動き情報とから、該第2のフレームレートの少なくとも一部の画像を補間によって生成することを特徴としたものである。
本発明によれば、低フレームレートの動画像のみを利用する場合と比べて、処理量を大幅に削減しつつ、動き検出の精度を向上させることができる。また、撮像装置から同期を取って動画像および動きベクトルを出力するフォーマットを予め定めておくことで、後段の様々な画像処理に必要な動きベクトルとして、動きベクトルをそのまま、あるいは適宜修正して利用することができる。そのため後段の画像処理の動きベクトル検出に必要な処理を大幅に削減することができる。
基準フレーム、サブフレーム、およびフレーム間の動きベクトルの関係の一例を示す図である。 基準フレーム、サブフレーム、およびフレーム間の動きベクトルの関係の他の例を示す図である。 高いフレームレートで画素値を読み出したときの状態を説明するための図である。 動きベクトルの探索方法の一例を説明するための図である。 基準フレームの距離に応じた画素の間引き方法の一例を説明するための図である。 ブロックにおける静止領域と動領域の一例を示す図である。 本発明に係る動き情報取得方法の一例を説明するためのフロー図である。 本発明の動き情報取得装置に相当する撮像装置の構成例を示すブロック図である。 補助データのパケット構造を示す図である。 1125/60方式のHDTV信号における有効映像領域および補助データ多重可能領域を示す図である。 基準フレームの間隔a=4とした場合の動きベクトルをメモリに格納する方法の一例を説明するための図である。 撮像装置から出力される動画像、動きベクトルを利用して各種画像処理を行う画像処理装置の一例を示すブロック図である。 再生フレームから中間フレームを補間する様子を説明するための図である。 従来の画像処理装置の構成例を示すブロック図である。
以下、添付図面を参照しながら、本発明の動き情報取得装置及び画像処理装置に係る好適な実施の形態について説明する。
(第1の実施形態)
1.サブフレームを用いた動き検出
図1、2は、基準フレーム、サブフレーム、およびフレーム間の動きベクトルの関係の一例を示す図である。図1、2に示すように、基準フレームF(am)に対し、過去のサブフレームをF(am−1)、F(am−2)、・・・、F(a(m−1)+1)とし、直前の基準フレームをF(a(m−1))とする。この例では基準フレームの間隔はaフレーム、サブフレームの枚数は(a−1)枚とする。
図1(A)は、時間的に新しい基準フレームから古いフレームへと動きベクトルを順次検出する例について示したもので、図1(B)は図1(A)に示す基準フレームF(am)とF(a(m−1))及びこの間のサブフレームを拡大した図である。また、図2は、時間的に古い基準フレームから新しいフレームへと動きベクトルを順次検出する例について示したものである。これについては後述する。
ここでサブフレームの画素値については、図示しないイメージセンサからの非破壊読み出しにより、図3(A)に示すような通常フレームレートより高いフレームレートで画素値を読み出すことができる。ここで、イメージセンサの中には、撮像途中でも、その時点における画像を随時取得できる「高速非破壊CMOSイメージセンサ」と呼ばれるものがある。これは、光を受けると電荷を蓄積する素子の一種であるが、通常のイメージセンサと異なり、画素値の読み出しを行っても蓄積された電荷が破壊されない特性を持つ。
図3において、縦軸は画素値、横軸は時間、Sは前フレームとの差分値を表している。このSの部分の値を取り出したものを図3(B)に示す。例えば、通常フレームレートが30fps、高フレームレートが240fpsの場合、図3(B)の画素値は1/240秒間蓄積した値である。図3(B)の画素値は、図3(A)の蓄積中間画素値の差分値として以外にも、単に高フレームレート撮像時の画素値として求められる。また図3(B)の画素値を通常フレームレートに相当する時間、加算したものを図3(C)に示す。図3(C)は高フレームレートで画像を取得するものの、その画素値の蓄積時間は、通常フレームレートで撮像した画素値と同じ蓄積時間である。
以下の説明において、基準フレーム、サブフレームの画素値はフレーム間の差分値(図3(B))、あるいは高フレームレート撮像時の画素値としてもよいし、基準フレームに相当する時間だけ蓄積した値(図3(C))を使ってもよい。
次に隣接する2枚のフレーム間の動きベクトルをΔVk=(ΔVxk、ΔVyk)(ここでk=1〜a)とする。例えばフレームF(am−b)とF(am−(b−1))(ここでb=1〜a)間の動きベクトルはΔVb=(ΔVxb、ΔVyb)と表される。
また基準フレームF(am)と各フレーム間の動きベクトルをVk=(Vxk、Vyk)(ここでk=1〜a)とする。例えば基準フレームF(am)とフレームF(am−b)(ここでb=1〜a)間の動きベクトルは
Figure 0005216984
と表される。最終的に基準フレームF(am)とF(a(m−1))間の動きベクトルであるVaを求めるのであるが、その探索方法には以下の2種類がある。
(方法1)ブロックマッチングを基準フレームF(am)との間で計算する方法
この方法1では、高フレームレートの動画像では物体の移動がごく狭い範囲にかぎられることを利用して、探索範囲を限定し、ブロックマッチングはフレームF(am−b)と基準フレームF(am)との間で計算する。図4(A)で基準フレームの対象ブロック(i,j)(ここでi,jはフレーム上の水平、垂直位置であり、ブロックの左上の画素に相当する)とF(am−(b−1))間の動きベクトルVb−1=(Vxb−1、Vyb−1)が求められているとする。
次に、基準フレームF(am)とフレームF(am−b)間のマッチングを計算する時、探索範囲は(i+Vxb−1、j+Vyb−1)を中心に所定の範囲(±SRx、±SRy)を探索する。すなわち、方法1の場合、基準フレームの対象ブロック(i,j)とフレームF(am−(b−1))間の動きベクトルVb−1を参照しながら、基準フレームF(am)とフレームF(am−b)間のマッチングを順次計算していく。このようにして、フレームF(am−b)の上記範囲内で、基準フレームF(am)とフレームF(am−b)のマッチングを直接計算し、最もよく似た領域が基準フレームF(am)の対象ブロック(i,j)の移動先となる。
上記したブロックマッチングの評価指標として、例えば、SAD(Sum of Absolute Difference)、あるいはSSD(Sum of Squared Difference)等を用いることができる。
Figure 0005216984
ここでbx、byはブロックの水平、垂直方向のサイズ、F(am,i,j)はフレームF(am)上の(i,j)に位置する画素値、(x,y) (ただし−SRx≦x≦SRx、−SRy≦y≦SRy)は対象ブロック(i,j)の変位量(隣接フレーム間の動きベクトル)を表す。
(方法2)ブロックマッチングを隣接するフレームF(am−(b−1))とF(am−b)との間で計算する方法
この方法2では、ブロックマッチングを基準フレームとの間で計算するのではなく、図4(B)に示すように隣接する2枚のフレーム間で計算するところが方法1と異なる。この場合、SADあるいはSSDは次式で表される。
Figure 0005216984
方法1あるいは2で求めたSADあるいはSSDに対し、
ΔVb=(ΔVxb、ΔVyb)=(x’、y’) …(5)
となる。ここで(x’、y’)=arg min SAD(x、y)あるいは(x’、y’)=arg min SSD(x、y)(ただし-SRx≦x≦SRx、-SRy≦y≦SRy)である。さらに、
Vb=Vb-1+ΔVb …(6)
である。
方法1では、必ず基準フレームをブロックマッチングに使用するので、ノイズ等の影響を受けにくく、サブフレームを用いた複数回の探索の過程で検出誤りが発生しても、最終結果の基準フレーム間の動きベクトル検出に影響を及ぼしにくいというメリットがある。また、方法2では、ブロックマッチングを行う2フレーム間の相関が高いので、より正確な動きベクトルを求めやすいというメリットがある。また、方法1、2ともにサブフレームを使用することで動き検出の処理量を削減することができるという効果がある。各フレームにおける動きの探索範囲は、基準フレーム間で直接ブロックマッチングを取る場合の探索範囲(±Sx、±Sy)に対し、水平・垂直方向とも各々1/aとなり、サブフレームを介した場合の各ブロックの探索範囲は(±SRx、±SRy)=(±Sx/a、±Sy/a)である。サブフレームを用いることで、探索するフレーム数はa倍になるので、基準フレーム間の動きを検出するために必要な処理量は(1/a)・(1/a)・a=1/aとなり、サブフレームを使用することで動き検出の処理量を削減することができる。
2.可変探索範囲
上記の例では、サブフレームを用いた場合の探索範囲は、基準フレーム間で直接探索した探索範囲(Sx,Sy)の水平、垂直方向に対して各々1/aを固定的に設定したが、直前のサブフレームとのブロックマッチングの結果を利用して探索範囲を適応的に変更しても良い。直前のサブフレームにおけるフレーム間の動きΔVb−1=(ΔVxb−1,ΔVyb−1)と予め定められた閾値TH1との関係から、次のフレームとのブロックマッチングの探索範囲(±SRx、 ±SRy)は、
SRx=(1/a)・Sx if |ΔVxb-1|≧TH1 …(7)
Sxl otherwise
SRy=(1/a)・Sy if |ΔVyb-1|≧TH1 …(8)
Syl otherwise
ここで、Sxl<(1/a)・Sx、Syl<(1/a)・Syである。直前のフレームにおいて動き量が小さい場合、次フレームに対する動き量も小さいと仮定し、動き検出の探索範囲を小さく設定する。上記の例では閾値TH1は水平方向と垂直方向で同じ値を使っているが、異なる値を設定してもよい。
3.画素の間引き
基準フレームとの距離に応じて処理対象とする画素を間引くことで、さらに処理量を削減することができる。例えば、サブフレームF(am−1)においては図5(A)に示すように、水平、垂直に対して各々a画素毎に処理の対象とし、サブフレームF(am−2)においては、図5(B)に示すように、水平、垂直に対して各々a/2画素毎に処理の対象とする等、基準フレームからの距離に応じて処理対象の画素数を変更する。なお、図5の例では、間引く画素数a=4、ブロックの水平方向のサイズbx=8、ブロックの垂直方向のサイズby=8としている。
これらの間引き処理を上記の可変探索範囲処理と組み合わせ、上記の式(7)、式(8)に示す可変探索範囲に対して適用することで、探索範囲を変更しない場合に較べて、さらにブロックマッチングの処理量を削減することも可能である。
4.動領域の重み付け
以上の説明では、1ブロックの内部は均一の性質を持つ領域と仮定した。以下では1ブロック内に静止領域と動領域のような異なる領域が含まれる場合について説明する。ブロックマッチングを行うフレーム間の差分値d(ix,jy)と予め定められた閾値TH2との大小関係により、ブロックを図6に示すような静止領域と動領域とに分類する。
方法1(基準フレームとのブロックマッチング)の場合、d(ix,jy)は次式で計算する。
d(ix,jy)=|F(am-b, ix, jy)-F(am, ix, jy)| …(9)
方法2(隣接フレーム間のブロックマッチング)の場合、d(ix,jy)は次式で計算する。
d(ix,jy)=|F(am-b, ix, jy)-F(am-b-1, ix, jy)| …(10)
ここで(ix,jy)は対象画素の位置を示す。d(ix,jy)<TH2であれば画素(ix,jy)は静止領域に存在すると判定し、d(ix,jy)≧TH2であれば画素(ix,jy)は動領域に存在すると判定する。ブロック内の各画素を図6に示すように静止領域と動領域とに分類した後、SAD、SSD等の評価方法を、静止領域と動領域とで各画素毎に重みweightを変えて計算する。例えば方法1の場合に画素毎の重みweightを導入した評価方法を次式で示す。
Figure 0005216984
ただしweight_m>weight_sである。これにより、評価方法に対し、動領域の画素差分値が大きく影響するように調整することが可能である。またブロック内のすべての画素値に対し、d(ix,jy)<TH2の場合、対象ブロックを静止ブロックとみなし、その後のブロックマッチング、評価方法の計算を省略し、動きベクトルを0とすることで、処理量を削減することが可能である。
以上の処理を図7のフローチャートに基づいて説明する。まず、基準フレーム番号m、サブフレーム番号b、ブロック番号pを初期化する(ステップS1)。次に、ブロックマッチングの探索範囲を前述の方法で決定する(ステップS2)。次に、決定した探索範囲に対し、前述した方法1あるいは方法2を使ってブロックマッチングを行う(ステップS3)。すなわち、方法1の場合には基準フレームF(am)とフレームF(am−b)間において、方法2の場合にはフレームF(am−(b−1))とF(am−b)間においてブロックマッチングを行う。
そして、上記処理を全てのブロックを対象として行い、1フレームの最後のブロックの処理が終了したか否かを判定する(ステップS4)。ここで、最後のブロックの処理が終了していないと判定した場合(NOの場合)、ブロック番号pを1つインクリメントして(ステップS5)、ステップS2に戻り処理を繰り返す。また、ステップS4において、最後のブロックの処理が終了したと判定した場合(YESの場合)、次のサブフレームに対して同様の処理を行う。
そして、基準フレーム間の全サブフレームを対象として上記処理を行い、直前の基準フレームの処理が終了したか否かを判定する(ステップS6)。ここで、直前の基準フレームの処理が終了していないと判定した場合(NOの場合)、サブフレーム番号bを1つインクリメントして(ステップS7)、ステップS2に戻り処理を繰り返す。また、ステップS6において、直前の基準フレームの処理が終了したと判定した場合(YESの場合)、直前の基準フレームF(a(m−1))とF(am)間の動きベクトルを求める。
そして、シーケンスの最終基準フレームの処理が終了したか否かを判定する(ステップS8)。ここで、最終基準フレームの処理が終了していないと判定した場合(NOの場合)、基準フレーム番号mを1つインクリメントして(ステップS9)、ステップS2に戻り処理を繰り返す。また、ステップS8において、最終基準フレームの処理が終了したと判定した場合(YESの場合)、一連の処理を終了する。
なお、本例では、1フレームの全ブロックの処理を終了した後、次のサブフレームの処理に移行したが、1ブロックにつき、全てのサブフレームの処理を行い、直前の基準フレームF(a(m−1))とF(am)間の動きベクトルを求めた後、次のブロックの処理に進む方法をとっても構わない。
以上の例では、前述の図1に基づいて、時間的に新しい(現在の)基準フレームから古い(過去の)フレームへと動きベクトルを順次検出したが、前述の図2に示すように、時間的に古い基準フレームから新しいフレームへと動きベクトルを順次検出することもできる。この場合、まず基準フレームF(a(m−1))とサブフレームF(a(m−1)+1)間の動きベクトルΔVを求め、次にサブフレームF(a(m−1)+1)とサブフレームF(a(m−1)+2)間の動きベクトルΔVを求め、同様に時間的に新しい方向へと動き検出処理を進める。もしくは、先と同様に、常に基準フレームF(a(m−1))との間でブロックマッチングを行う方法をとってもよい。
最終的に、基準フレームF(a(m−1))から基準フレームF(am)への動きベクトルであるVaが求められ、必要であれば、この動きベクトルVaを反転させて、基準フレームF(am)から基準フレームF(a(m−1))への動きベクトルを算出する。
この方法では入力された画像を順次処理できるので、前述の図1の方法に比べ、必要とするメモリ量を削減できるメリットがある。つまり図1の場合、F(a(m−1))、F(am)間の動きベクトルを求めるためには、この間のサブフレームを全て蓄積し、F(am)を取得した後でなければ、動き検出処理ができなかったが、図2の場合は、F(a(m−1)+1)を取得した時点で動き検出処理を開始できる。
これまでに説明したように、本発明によれば、高フレームレートの動画像の高いフレーム間相関を利用し、処理量を削減しながらも正確な動きベクトルを求めることが可能となる。
以下では、これまで説明した動きベクトルと動画像とを同期させて出力するときに、撮像装置と接続する機器間でデータの互換性を保証するための、動画像と動きベクトルのフォーマットについて説明する。
図8は、本発明の動き情報取得装置に相当する撮像装置の構成例を示すブロック図である。この撮像装置は、撮像手段に相当するイメージセンサ11、動き情報検出手段に相当する動き検出部12、同期手段及び出力手段に相当するデータ作成部13、及び出力画像選択部14とから構成される。イメージセンサ11では、高フレームレートの動画像を取得し、動き検出部12では、フレーム間の動きベクトルを計算する。動き検出部12の処理は、例えば、前述したように、高フレームレートの動画像を利用した動き検出処理であり、基準フレーム間あるいはサブフレーム間の動きベクトルを検出する。出力画像選択部14は、イメージセンサ11で取得した高フレームレートの動画像の中から基準フレームを選択する。データ作成部13は、動き検出部12で計算した動きベクトルと、出力画像選択部14で選択した基準フレームとを同期させて出力する。
なお、イメージセンサ11としては、例えば、前述の「高速非破壊CMOSイメージセンサ」を適用することができ、これによれば、入射光を2系統に分岐させ、一方の分岐光を第1のフレームレートで撮像し、他方の分岐光を第1のフレームレートより高い第2のフレームレートで撮像することができる。
すなわち、本発明に係る撮像装置は、基準フレームからなる第1のフレームレートの画像及び基準フレームを含む第1のフレームレートより高い第2のフレームレートの画像を撮像するイメージセンサ11と、第2のフレームレートの画像を用いて、第1のフレームレートの各画像を構成する各ブロックの動き情報として動きベクトルを順次検出する動き検出部12と、第1のフレームレートの画像とこれに対応する各ブロックの動きベクトルとを同期させるデータ作成部13とを備え、このデータ作成部13は、同期させた第1のフレームレートの画像と動きベクトルとを出力する。
また、動き検出部12は、前述したように、第2のフレームレートの隣接画像間において既に検出した動きベクトルに基づいて、対象ブロックの動き探索範囲を変更する手段を備えていてもよい。
また、動き検出部12は、第2のフレームレートの画像の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、評価手段が、判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価するようにしてもよい。この領域の重み付け方法については前述した通りであるため、ここでの説明は省略する。
また、データ作成部13は、第1のフレームレートの画像と、これに対応する少なくとも1枚以上の第2のフレームレートの画像を構成する各ブロックの動きベクトルとを同期させて、所定のフォーマットで出力することができる。例えば、前述の図1の例の場合、データ作成部13は、第1のフレームレートの画像と、第2のフレームレートの画像を構成する基準フレームと基準あるいはサブフレーム間の動きベクトル(Vi(i=1〜a))とを同期させてもよく、あるいは、Viを隣接する2フレーム間の動きベクトル(ΔVi(i=1〜a))に分けて、同期させてもよい。
上記において、撮像装置と接続する機器の間でデータの互換性を保証するため、予めフォーマットを定めておく必要がある。この一例として、1125/60方式HDTVスタジオシステム規格(BTA S−005B)に、動きベクトルを多重化する時のデータ構造と伝送方法が示されている。このBTA S−005Bにはデジタルブランキング期間に補助データを伝送するためのデータ構造が記載されており、補助データのパケット構造を図9に示す。
図9において、ADFは補助データパケットの開始を示す補助データフラグ(3ワード)である。DIDは後述のUDWの種類を示すデータ識別ワード(1ワード)である。DBNは同一のDIDを持つパケットの順序を示すデータブロック番号ワード(1ワード)である。DCはUDWのワード数を示すデータカウントワード(1ワード)である。UDWは256ワード以下の補助データを書き込む領域であり、前述の動きベクトルはこの領域に書き込む。CSはチェックサム値(1ワード)である。ここで1ワードは10ビットである。
図10は、1125/60方式のHDTV信号における有効映像領域および補助データ多重可能領域を示す図である。図10(A)は輝度成分について示したもので、図10(B)は色差成分について示したものである。図中、縦軸にライン番号(走査線数1125本)、横軸(時間方向)に映像サンプル番号(サンプル数2200)を示し、15が有効映像領域(画像を格納する領域)、16が補助データ多重可能領域(補助データパケットを格納する領域)である。本例では、有効映像領域15に通常フレームレートの基準フレームの画像データを格納し、補助データ多重可能領域16に高フレームレートのサブフレームに対応する動きベクトルを、図9に示す補助データパケット(UDW)に格納した後、記録する。
ここで格納する動きベクトルは、基準フレーム間の動きベクトル(図1,2のVa)でも、基準フレームとサブフレーム間の動きベクトル(図1,2のVk(ここでk=1〜a−1))でも、各サブフレーム間の差分動きベクトル(図1,2のΔVk(ここでk=1〜a−1))であってもよいが、以下では差分動きベクトルを格納する場合について説明する。また全てのサブフレームの動きベクトルではなく、qフレーム毎のサブフレームに対し、結合動きベクトルを格納しても良い。例えば、2フレーム毎のサブフレームに対し動きベクトルを格納する場合は、図1,2のΔV+ΔV、ΔV+ΔV、・・・が格納する差分動きベクトルの値となる。
なお、補助データ多重可能領域16に格納できるデータ量に制限があるため、格納可能なサブフレーム数は動きベクトルの対応するブロックサイズや、動きベクトルの精度に依存する。例えば図10の例の場合、補助データ多重可能領域16は、輝度成分(Y)および色差成分(Pb、Pr)を含め、458404ワードである。ブロックサイズが16x16、動きベクトルを5ビット(固定長符号)で表現する場合、1フレームに必要な動きベクトルのデータ量は8160ワード、補助データパケットは32個必要となり、1フレーム分の補助データは8384ワードとなる。従って、54フレーム分の動きベクトルを補助データ多重可能領域16に格納することができる。なお、ブロックサイズや動きベクトルの精度が異なる場合、格納可能なフレーム数も変わることになる。また、動きベクトルは可変長符号で表現することも可能である。
上記の動きベクトルは、前述した方法1あるいは方法2により取得することができる。以下は、動きベクトルの計算に方法1を使った場合の一例である。前述の図1に示したように、F(a(m−1))〜F(am)間のサブフレームの動きベクトルは、F(am)を撮像装置から取得しなければ計算することはできない。そこでデータ作成部13には、a+2フレーム分の画像データ、および動きベクトルを格納するメモリが必要である。a=4とした場合の例を図11に示す。
図11において、時刻4m+1では、サブフレームF(4m+1)をメモリ5に格納する間に、基準フレームF(4m)とサブフレームF(4m−1)間の動きベクトルV=ΔVを計算し、メモリに格納する。時刻4m+2では、サブフレームF(4m−1)を格納していたメモリ3にサブフレームF(4m+2)の画像データを格納し、その間に基準フレームF(4m)とサブフレームF(4m−2)間の動きベクトルVを計算し、ΔV=V-Vをメモリに格納する。同様に処理を続け、時刻4(m+1)では、基準フレームF(4m)とF(4(m−1))間の動きベクトルV4を計算し、ΔV=V-Vをメモリに格納し、一方、サブフレームF(4m−3)を格納していたメモリ1に基準フレームF(4(m+1))を格納する。ここで、基準フレームF(4m)の画像を図9の有効映像領域15に、F(4m)〜F(4(m−1))間の差分動きベクトルΔVk(k=1〜a)を補助データ多重可能領域16に格納し、外部に出力する。
以上の処理により、撮像装置から動画像と同期させた動きベクトルを出力することができる。なお、動画像と同期して格納するサブフレームの間隔(フレーム数)、動きベクトルの対応するブロックサイズ、動きベクトルの精度が可変である場合、先頭の補助データパケットのUDWには動きベクトルではなく、フレーム間隔、ブロックサイズ、精度等の値を格納することで、外部の処理装置にこれらの情報を通知することができる。
(第2の実施形態)
本実施形態では、第1の実施形態で説明した所定のフォーマットで動画像と同期をとって出力される動きベクトルの利用方法について説明する。
図12は、撮像装置から出力される動画像、動きベクトルを利用して各種画像処理を行う画像処理装置の一例を示すブロック図である。図中、21は撮像装置(動き情報取得装置)、22は動画像エンコーダ、23は動画像デコーダ、24はFRC部、25は動きベクトルエンコーダ、26は動きベクトルデコーダ、27は手振れ補正部、28は高解像度化処理部、29は静止画/動画像エンコーダを示す。図12(A)の装置例の場合、動き検出部を動画像エンコーダ22とFRC部24に備え、図12(B)の装置例の場合、動き検出部を動画像エンコーダ22と手振れ補正部27に備え、図12(C)の装置例の場合、動き検出部を手振れ補正部27と動画像エンコーダ22に備え、図12(D)の装置例の場合、位置合わせ部を高解像度化処理部28に備えている。
図12に示す構成は、前述の図14に示した従来構成と基本的に同じであるが、独立に計算して求めていた動きベクトルを、撮像装置21から出力される動きベクトルで代替、あるいは、撮像装置21から出力される動きベクトルに基づいて計算する部分が異なる。撮像装置21の構成は前述の図8で説明したものであり、撮像装置21で求めた動きベクトルを、図12(A)、(B)では、動画像エンコーダ22の動き検出、動きベクトルエンコーダ25の動きベクトルに用いる場合について示し、さらに図12(A)ではFRC部24の動き検出に、図12(B)では手振れ補正部27の動き検出に用いる場合について示す。図12(C)では、前処理としての手ぶれ補正部の動き検出、および動画像エンコーダ22の動きベクトルに用いる場合について示し、図12(D)では、静止画のまたは動画像の高解像度化処理で必要な位置合わせの動き情報として用いる場合について示している。
この中で図12(A)の装置構成を代表例として具体的に説明する。図12(A)の例は、撮像装置21で計算した動きベクトルを、動画像エンコーダ22の動き検出、および画像処理装置の一例である表示装置でのフレームレート変換(FRC:Frame Rate Conversion)に用いた場合について示したものである。撮像装置21から出力された動画像と動きベクトルは動画像エンコーダ22で動画像と動きベクトルに分離され、動きベクトルはまず動画像エンコーダ22内の動き検出部でそのまま、あるいは加工されて、動画像を符号化するために使用される。この符号化データは動画像デコーダ23で復号され、再生された動画像がFRC部24に入力される。撮像装置21で求めた動きベクトルを使用することで、動画像エンコーダ22の中で動き検出に関わる処理量を大幅に削減することができる。
さらに、撮像装置21から出力された動画像と動きベクトルは、動きベクトルエンコーダ25において必要とされる動きベクトルのみ符号化される。例えば、動画像エンコーダ22で符号化される動画像が60fps、表示では120fpsの動画像が必要な場合、図13に示すように再生フレームから中間フレームを補間しなければならない。この場合、撮像装置21から出力されたサブフレーム用の動きベクトルの中から、中間フレーム(120fps)に相当する動きベクトルを作成し、符号化すればよい。表示側では、動きベクトルデコーダ26でこれを復号し、FRC部24に入力する。
FRC部24では、従来基準フレーム間の動きベクトルを用いて、例えば1/2にスケーリングして、中間フレームを補間していたが、本発明では、動画像と同期して入力される動きベクトルを用いて中間フレームを補間する。すなわち、FRC部24は、第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動きベクトルとから、第2のフレームレートの各画像を補間によって生成する。
この動きベクトルは撮像装置21で、実際の中間フレーム(120fpsの基準フレームあるいはサブフレーム)を用いて検出した動きベクトルであるため、(1)表示装置に入力された中間フレームを持たない動画像を用いて推定した動きベクトルよりも正確である、(2)膨大な処理を必要とする動き検出用の回路が表示側で不要となる、というメリットがある。
なお、サブフレームのフレームレートが表示可能なフレームレートより高い場合、例えば240fpsの場合には、撮像装置21から出力されたサブフレーム用の動きベクトルの中から、中間フレーム(120fps)に相当する動きベクトルのみを符号化しても良いし、全てのサブフレームの動きベクトルを符号化し、FRC部24で表示に必要な動きベクトルのみを使用してフレームを補間しても良い。この240fpsの場合には、サブフレームは3枚なので、FRC部24では真ん中のサブフレームの動きベクトルのみを使用してフレームを補間することになる。
現在、TVの高級機ではFRCは標準装備されているものの、これらはHD(ハイビジョン)までの解像度であり、今後更なる高解像度化が進み4K、8K解像度の動画像を視聴する時に、同時に膨大なデータ量の画像に対して動き検出を行うことは困難である。従って、今後の高解像度化に向けて、動きベクトルを撮影側で検出する効果は大きい。2倍速の中間フレーム以外にも、4倍速、8倍速等、複数の動きベクトルを用いて、複数枚のフレームを補間し、さらに動きを滑らかに見せることも可能である。
11…イメージセンサ、12…動き検出部、13…データ作成部、14…出力画像選択部、15…有効映像領域、16…補助データ多重可能領域、21…撮像装置(動き情報取得装置)、22…動画像エンコーダ、23…動画像デコーダ、24…FRC部、25…動きベクトルエンコーダ、26…動きベクトルデコーダ、27…手振れ補正部、28…高解像化処理部、29…静止画/動画像エンコーダ。

Claims (11)

  1. 基準フレームからなる第1のフレームレートの画像及び前記基準フレームを含む前記第1のフレームレートより高い第2のフレームレートの画像を撮像する撮像手段と、
    前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、
    前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、
    該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備え
    前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレームと各サブフレーム間の動き情報とを同期させ、
    前記出力手段は、前記同期手段で同期させた第1のフレームレートの画像と前記動き情報とを所定のフォーマットで出力することを特徴とする動き情報取得装置。
  2. 前記動き情報検出手段は、前記第2のフレームレートの隣接画像間の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、
    前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、
    該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴とする請求項1に記載の動き情報取得装置。
  3. 基準フレームからなる第1のフレームレートの画像及び前記基準フレームを含む前記第1のフレームレートより高い第2のフレームレートの画像を撮像する撮像手段と、
    前記第2のフレームレートの画像を用いて、前記第1のフレームレートの各画像を構成する各ブロックの動き情報を順次検出する動き情報検出手段と、
    前記第1のフレームレートの画像とこれに対応する各ブロックの動き情報とを同期させる同期手段と、
    該同期手段で同期させた第1のフレームレートの画像と動き情報とを出力する出力手段とを備え、
    前記動き情報検出手段は、前記第2のフレームレートの隣接画像間の各画素が、静止領域、動領域のいずれに属するかを判定する判定手段と、
    前記動き情報を求めるために、2枚の画像の対応する画素値を用いて、対象および参照ブロック間の相関を評価する評価手段とを備え、
    該評価手段は、前記判定手段で求められた各画素の属する領域によって、評価値の算出時に重み付けして評価することを特徴とする動き情報取得装置。
  4. 前記動き情報検出手段は、前記第2のフレームレートの隣接画像間において既に検出した動き情報に基づいて、対象ブロックの動き探索範囲を変更する手段を備えたことを特徴とする請求項1〜3のいずれか1項に記載の動き情報取得装置。
  5. 前記同期手段は、前記第1のフレームレートの画像と、これに対応する少なくとも1枚以上の第2のフレームレートの画像を構成する各ブロックの動き情報とを同期させ、前記出力手段は、前記同期手段で同期させた第1のフレームレートの画像と動き情報とを所定のフォーマットで出力することを特徴とする請求項に記載の動き情報取得装置。
  6. 前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレーム間の動きベクトルとを同期させることを特徴とする請求項に記載の動き情報取得装置。
  7. 前記同期手段は、前記第1のフレームレートの画像と、前記第2のフレームレートの画像を構成する基準フレームとサブフレーム間の動きベクトルとを同期させることを特徴とする請求項に記載の動き情報取得装置。
  8. 前記所定のフォーマットには、動き情報が属するサブフレームのフレーム数、ブロックサイズ、動きベクトルの精度のうち、少なくとも1つが含まれることを特徴とする請求項1または5に記載の動き情報取得装置。
  9. 前記所定のフォーマットに格納可能なデータ量に制限がある場合、動き情報の属するブロックサイズ、または動きベクトル精度を変更して、前記データ量以内で動き情報を格納することを特徴とする請求項1または5に記載の動き情報取得装置。
  10. 前記動き情報検出手段は、時間的に新しい基準フレームから古い基準フレームに向けて動き情報を検出し、該動き情報は、前記新しい基準フレーム内の対象ブロックから順次算出されるものであることを特徴とする請求項1〜9のいずれか1項に記載の動き情報取得装置。
  11. 請求項1〜10のいずれか1項に記載の動き情報取得装置から出力された画像と動き情報とを用いて画像処理を行う画像処理装置であって、
    前記第1のフレームレートの各画像と、各画像間に位置する第2のフレームレートの画像に対応する動き情報とから、該第2のフレームレートの少なくとも一部の画像を補間によって生成することを特徴とする画像処理装置。
JP2009202780A 2009-09-02 2009-09-02 動き情報取得装置及び画像処理装置 Expired - Fee Related JP5216984B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009202780A JP5216984B2 (ja) 2009-09-02 2009-09-02 動き情報取得装置及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009202780A JP5216984B2 (ja) 2009-09-02 2009-09-02 動き情報取得装置及び画像処理装置

Publications (2)

Publication Number Publication Date
JP2011055278A JP2011055278A (ja) 2011-03-17
JP5216984B2 true JP5216984B2 (ja) 2013-06-19

Family

ID=43943825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009202780A Expired - Fee Related JP5216984B2 (ja) 2009-09-02 2009-09-02 動き情報取得装置及び画像処理装置

Country Status (1)

Country Link
JP (1) JP5216984B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013165485A (ja) * 2012-01-11 2013-08-22 Panasonic Corp 画像処理装置、撮像装置およびコンピュータブログラム
JP2013162357A (ja) * 2012-02-06 2013-08-19 Nikon Corp 画像処理プログラム、画像処理装置、および撮像装置
WO2016151734A1 (ja) * 2015-03-23 2016-09-29 日立マクセル株式会社 撮像装置、画像処理装置、およびデジタルカメラ
JP2016197795A (ja) * 2015-04-03 2016-11-24 日立オートモティブシステムズ株式会社 撮像装置
JP2018191230A (ja) * 2017-05-11 2018-11-29 ソニーセミコンダクタソリューションズ株式会社 撮像素子及びその駆動方法、並びに、電子機器
JP6643517B2 (ja) * 2019-05-23 2020-02-12 日立オートモティブシステムズ株式会社 撮像装置
JPWO2021186889A1 (ja) * 2020-03-16 2021-09-23

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089379A (ja) * 1994-06-15 1996-01-12 Sanyo Electric Co Ltd 動きベクトル検出方法
JPH11112993A (ja) * 1997-09-30 1999-04-23 Victor Co Of Japan Ltd 動画像符号化装置及びその方法
JP2004289709A (ja) * 2003-03-25 2004-10-14 Toshiba Corp 撮像装置、撮像方法
CN101317450B (zh) * 2005-11-29 2010-09-15 日本先锋公司 记录装置、再现装置、记录方法

Also Published As

Publication number Publication date
JP2011055278A (ja) 2011-03-17

Similar Documents

Publication Publication Date Title
JP5216984B2 (ja) 動き情報取得装置及び画像処理装置
US8315481B2 (en) Image transmitting apparatus, image receiving apparatus, image transmitting and receiving system, recording medium recording image transmitting program, and recording medium recording image receiving program
JP5844394B2 (ja) 適応探索範囲を用いた動き推定
US8385422B2 (en) Image processing apparatus and image processing method
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
JP5341010B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5220777B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
US7929611B2 (en) Frame rate converting apparatus, pan/tilt determining apparatus, and video apparatus
US20140010308A1 (en) Block Error Compensating Apparatus of Image Frame and Method Thereof
KR20100021574A (ko) 화상처리장치, 화상처리방법 및 프로그램
KR101049922B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
US8982248B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
US7961961B2 (en) Image processing apparatus and image processing program using motion information
JP2007122232A (ja) 画像処理装置及びプログラム
JP5812808B2 (ja) 画像処理装置及び画像処理方法
JP5448983B2 (ja) 解像度変換装置及び方法、走査線補間装置及び方法、並びに映像表示装置及び方法
JP2001339695A (ja) 画像信号処理装置及び画像信号処理方法
JP2009065283A (ja) 画像ぶれ補正装置
WO2010143497A1 (ja) 動画像データ処理装置、撮像装置および動画像再生装置
JP2009188470A (ja) 高解像度化装置及び方法
US20120082394A1 (en) Image processing apparatus and image processing method
JP5686316B2 (ja) カラー動画像動き推定方法及びカラー動画像動き推定装置
JP3587188B2 (ja) ディジタル画像信号処理装置および処理方法
JP4250807B2 (ja) フィールド周波数変換装置および変換方法
JP2008244686A (ja) 映像処理装置及び映像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5216984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees