JP5977964B2 - 多視点映像フレーム内挿装置、方法及びプログラム - Google Patents

多視点映像フレーム内挿装置、方法及びプログラム Download PDF

Info

Publication number
JP5977964B2
JP5977964B2 JP2012052259A JP2012052259A JP5977964B2 JP 5977964 B2 JP5977964 B2 JP 5977964B2 JP 2012052259 A JP2012052259 A JP 2012052259A JP 2012052259 A JP2012052259 A JP 2012052259A JP 5977964 B2 JP5977964 B2 JP 5977964B2
Authority
JP
Japan
Prior art keywords
video
motion
interpolation
input
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012052259A
Other languages
English (en)
Other versions
JP2013187777A (ja
Inventor
俊枝 三須
俊枝 三須
境田 慎一
慎一 境田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2012052259A priority Critical patent/JP5977964B2/ja
Publication of JP2013187777A publication Critical patent/JP2013187777A/ja
Application granted granted Critical
Publication of JP5977964B2 publication Critical patent/JP5977964B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Description

本発明は、映像のフレーム内挿を行う技術に関し、特に、多視点映像のうちのある視点の低速映像に対し、別の視点の高速映像を利用して内挿フレームを生成する多視点映像フレーム内挿装置、方法及びプログラムに関する。
従来、対象物を複数の視点から撮影し、これにより得られた多視点映像を伝送する多視点映像伝送システムが知られている。多視点映像(2視点映像を含む)を立体テレビ放送等で用いる場合には、ある視点の映像は高フレームレート(高速)で伝送し、他の視点の映像はより低フレームレート(低速)で伝送する。この多視点映像伝送システムによれば、伝送帯域を節減することができ、効率的な多視点映像の伝送を実現することができる。
このような多視点映像伝送システムでは、映像のフレームレートに差があったとしても、視聴者は、視差の認知が可能であるため、提示された映像に立体感を感じ取ることができる。また、人間の視覚特性は、より高品質な映像に頼って精細な絵柄を認知する傾向があるため、視聴者は、どちらかというと高品質寄りの映像を主観品質として認知することができる。
ところで、映像処理の技術分野では、映像品質を向上させるための技術が知られている。例えば、映像のフレームレートを、低フレームレートから高フレームレートに変換する手法として、同一フレームを複数回提示する手法、近傍フレーム同士で平均値または重みつき平均値を用いる手法、動きベクトルに基づいて被写体の動きを考慮した中割フレームを生成する手法(特許文献1を参照)が提案されている。具体的には、特許文献1の手法は、映像のフィールド間で動きベクトルを検出し、外部からの指示により映像を内挿する時間位置を決定し、検出した動きベクトルに基づいて、決定した時間位置に映像を内挿するものである。これにより、映像の速度を可変にすることができる。
特開平11−88841号公報
しかしながら、前述の同一フレームを複数回提示する手法では、映像の動きにぎこちなさを生じる。また、前述の近傍フレーム同士で平均値または重みつき平均値を用いる手法では、中割画像にぼやけや二重像を生じてしまい、精細感が低下し、またはフリッカが発生してしまう。また、前述の特許文献1に記載された動きベクトルに基づく手法では、特に動きが大きい場合に、動きベクトルの頑健な抽出が困難となり、動き補償の単位であるブロック状に、劣化が露呈してしまう。
これらのいずれの手法も、一つの映像系列に対して内挿を行うものであり、複数の映像系列の相関を利用する方式にはなっていない。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、ある視点の第一入力映像及び別の視点の第二入力映像を含む多視点映像に対し、第二入力映像の内挿フレームを、第一入力映像を利用して生成することで、第二入力映像の高精細化を実現可能な多視点映像フレーム内挿装置、方法及びプログラムを提供することにある。
前記課題を解決するため、本発明の請求項に係る多視点映像フレーム内挿装置は、ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿装置であって、前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定する視差推定手段と、前記第一入力映像の動きベクトルを推定する動き推定手段と、前記動き推定手段により推定された動きベクトルに従って、前記視差推定手段により推定された視差ベクトルを動き補償する動き補償手段と、前記動き補償手段により動き補償された視差ベクトルに従って、前記第一入力映像を視差補償し、前記第二入力映像の内挿フレームを生成する視差補償手段と、を備えることを特徴とする。
本発明の請求項に係る多視点映像フレーム内挿装置は、ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿装置であって、前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定する視差推定手段、前記第一入力映像の動きベクトルを推定する動き推定手段、前記視差推定手段により推定された視差ベクトルに従って、前記動き推定手段により推定された動きベクトルを視差補償する視差補償手段、及び前記視差補償手段により視差補償された動きベクトルに従って、前記第二入力映像を動き補償し、前記第二入力映像の内挿フレームを生成する動き補償手段を備える第1の多視点映像フレーム内挿装置、及び、請求項に記載の多視点映像フレーム内挿装置のうちのいずれか一方または両方と、前記第二入力映像の動きベクトルを、第二動きベクトルとして推定する第二動き推定手段と、前記第二動き推定手段により推定された第二動きベクトルに従って、前記第二入力映像を動き補償し、前記第二入力映像の内挿フレームを生成する第二動き補償手段と、前記第1の多視点映像フレーム内挿装置及び請求項に記載の多視点映像フレーム内挿装置のうちのいずれか一方または両方により生成された内挿フレームと、前記第二動き補償手段により生成された内挿フレームとを合成し、合成後の内挿フレームを前記第二入力映像の新たな内挿フレームとして出力する映像合成手段と、を備えることを特徴とする。
本発明の請求項に係る多視点映像フレーム内挿方法は、ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿方法であって、前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定するステップと、前記第一入力映像の動きベクトルを推定するステップと、前記動きベクトルに従って前記視差ベクトルを動き補償し、動き補償した視差ベクトルを生成するステップと、前記動き補償した視差ベクトルに従って前記第一入力映像を視差補償し、前記第二入力映像の内挿フレームを生成するステップと、を有することを特徴とする。
本発明の請求項に係る多視点映像フレーム内挿プログラムは、コンピュータを、請求項1または2に記載の多視点映像フレーム内挿装置として機能させることを特徴とする。
以上のように、本発明によれば、第二入力映像の内挿フレームを、第一入力映像を利用して生成するようにしたから、第二入力映像を時間方向に高精細化することができる。
実施例1に係る多視点映像フレーム内挿装置の動作例の説明図である。 実施例1に係る多視点映像フレーム内挿装置の構成例を示すブロック図である。 実施例1に係る多視点映像フレーム内挿装置の処理を示すフローチャートである。 実施例1の視差補償手段の処理を説明する図であり、(1)は動きベクトルVの例を示し、(2)は視差ベクトルDの例を示し、(3)は視差ベクトルDだけ部分領域をずらしたときの動きベクトルVの例を示し、(4)は視差補償した動きベクトルWの例を示す。 実施例1の動き補償手段の処理を説明する図であり、(1)は第二入力映像Sの例を示し、(2)は動きベクトルWの例を示し、(3)は出力内挿映像Sの例を示す。 実施例2に係る多視点映像フレーム内挿装置の動作例の説明図である。 実施例2に係る多視点映像フレーム内挿装置の構成例を示すブロック図である。 実施例2に係る多視点映像フレーム内挿装置の処理を示すフローチャートである。 実施例2の動き補償手段の処理を説明する図である。(1)は視差ベクトルDの例を示し、(2)は動きベクトルVの例を示し、(3)は動きベクトルVだけ部分領域をずらしたときの視差ベクトルDの例を示し、(4)は動き補償した視差ベクトルEの例を示す。 実施例2の視差補償手段の処理を説明する図である。(1)は第一入力映像Fの例を示し、(2)は視差ベクトルEの例を示し、(3)は出力内挿映像Sの例を示す。 実施例3に係る多視点映像フレーム内挿装置の動作例の説明図である。 実施例3に係る多視点映像フレーム内挿装置の構成例を示すブロック図である。 実施例3に係る多視点映像フレーム内挿装置の処理を示すフローチャートである。 実施例4に係る多視点映像フレーム内挿装置の動作例の説明図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。以下に説明する実施例1〜4に係る多視点映像フレーム内挿装置は、ある視点(視点1)から撮影された高速映像(第一入力映像F)と、別の視点(視点2)から撮影された低速映像(第二入力映像S)とを入力し、第一入力映像F及び第二入力映像Sを用いて、視点2の第二入力映像Sの内挿フレームである出力内挿映像を生成する。
尚、多視点映像フレーム内挿装置は、さらに別の視点(視点V;Vは3以上の整数)から撮影された低速映像も入力し、視点1の第一入力映像F及び視点Vの第二入力映像Sを用いて、視点Vの第二入力映像Sの内挿フレームである出力内挿映像を生成するようにしてもよい。この場合の多視点映像フレーム内挿装置は、後述する「視点2」を「視点V」に置き換えた構成を付加したものとすればよい。
以下、高速映像である第一入力映像をFとし、低速映像である第二入力映像をSとする。添え字のtはフレーム番号を表す。第一入力映像Fについては、整数tのフレームが存在するものとし、第二入力映像Sについては、Dの整数倍(Dは2以上の整数)のtについてフレームが存在するものとする。多視点映像フレーム内挿装置は、第二入力映像Sに対し、Dの整数倍以外のtについてフレームを生成するものであり、以下に示す実施例1〜4では、D=2の場合を示している。第一入力映像Fのサンプリング時刻はt=・・・,−2,−1,0,1,2,・・・、第二入力映像Sのサンプリング時刻はt=・・・,−4,−2,0,2,4,・・・であり、多視点映像フレーム内挿装置は、第二入力映像Sに対し、t=・・・,−3,−1,1,3,・・・の内挿フレームを生成する。
まず、実施例1について説明する。実施例1は、視点1と視点2との間の視差ベクトル及び視点1の動きベクトルを用いて、視点2の動きベクトルを予測し、予測した視点2の動きベクトルを用いて視点2の映像を動き補償し、視点2の内挿フレーム(出力内挿映像)を生成するものである。
図1は、実施例1に係る多視点映像フレーム内挿装置の動作例の説明図であり、図2は、その構成例を示すブロック図であり、図3は、その処理を示すフローチャートである。図2を参照して、実施例1に係る多視点映像フレーム内挿装置1は、視差推定手段11、遅延手段12、動きベクトル推定手段(動き推定手段)13、視差補償手段14及び動き補償手段15を備えている。
以下、第一入力映像Fの隣接する2個のフレームF,F(以下、第一入力映像F0,という。)及び第二入力映像SのフレームS(以下、第二入力映像Sという。)から、視点2の出力内挿映像のフレームS(以下、出力内挿映像Sという。)を生成する手法について説明する。生成する視点2の出力内挿映像Sは、視点1の第一入力映像Fであるサンプリング時刻t=1のフレームに対応するものである。多視点映像フレーム内挿装置1が視点1の第一入力映像F,F及び視点2の第二入力映像Sを入力すると(ステップS301)、視差推定手段11は、第一入力映像Fを入力すると共に、第二入力映像Sを入力し、第一入力映像F及び第二入力映像Sに基づいて、第二入力映像Sから第一入力映像Fへの視差ベクトルDを推定する(ステップS302)。視差ベクトルDは、視差補償手段14に出力される。
視差ベクトルDは、典型的には、第一入力映像Fと第二入力映像Sとの間のパターン照合により部分領域毎の対応付けが行われ、視差推定されたベクトルであって、フレーム内の部分領域毎に求めた複数の視差ベクトルのマップである。すなわち、マッチングした部分領域を基準にした、第一入力映像Fの画素座標と第二入力映像Sの画素座標との間の差をいい、その差の大きさ及び方向を示すべクトルで表したものである。
例えば、視差推定手段11は、第二入力映像S(または第一入力映像F)をブロック分割し(部分領域に分割し)、各ブロックの画素値パターンと最も類似する領域を、相互相関の最大化または誤差の最小化によって第一入力映像F(または第二入力映像S)の中から探索することにより、視差ベクトルDを推定する。
遅延手段12は、第一入力映像Fを入力し、第一入力映像Fを、第一入力映像Fのフレーム間隔に相当する時間分遅延させ、遅延させた第一入力映像Fを動きベクトル推定手段13に出力する(ステップS303)。後述する動きベクトル推定手段13において、時刻t−1(=0)のフレーム(第一入力映像F)を時刻t(=1)の時点で参照するために、遅延手段12は、1時点前のフレーム(第一入力映像F)を記憶する。
動きベクトル推定手段13は、第一入力映像Fを入力すると共に、遅延手段12から第一入力映像Fを入力し、第一入力映像F,Fに基づいて、第一入力映像Fから第一入力映像Fへの動きベクトルVを推定する(ステップS304)。動きベクトルVは、視差補償手段14に出力される。
動きベクトルVは、典型的には、第一入力映像F,Fのパターン照合により部分領域毎の対応付けが行われ、推定されたベクトルであって、フレーム内の部分領域毎に求めた複数の動きベクトルのマップである。すなわち、マッチングした部分領域を基準にした、第一入力映像Fの画素座標と第一入力映像Fの画素座標との間の差をいい、その差の大きさ及び方向を示すべクトルで表したものである。
例えば、動きベクトル推定手段13は、第一入力映像F(または第一入力映像F)をブロック分割し(部分領域に分割し)、各ブロックの画素値パターンと最も類似する領域を、相互相関の最大化または誤差の最小化によって第一入力映像F(または第一入力映像F)の中から探索することにより、動きベクトルVを推定する。
視差補償手段14は、視差推定手段11から視差ベクトルDを入力すると共に、動きベクトル推定手段13から動きベクトルVを入力し、第二入力映像Sの部分領域毎に、視差ベクトルDの符号を逆にしたベクトル−Dに従って、動きベクトルVを視差補償し、視差補償した動きベクトルW(第二入力映像Sから出力内挿映像Sへの動きベクトルW)を生成する(ステップS305)。視差補償した動きベクトルWは、動き補償手段15に出力される。これにより、視点1における動きベクトルVの分布が、視点2における動きベクトルの予測分布を示す動きベクトルWに変換される。
図4は、視差補償手段14の処理を説明する図である。(1)は動きベクトルVの例を示し、(2)は視差ベクトルDの例を示し、(3)は視差ベクトルDだけ部分領域をずらしたときの動きベクトルVの例を示し、(4)は視差補償した動きベクトルWの例を示す。図4(1)に示すように、動きベクトルVは、第一入力映像Fのフレームがブロック分割された所定の部分領域毎に、異なるベクトルを有しており、図4(2)に示すように、視差ベクトルDは、第二入力映像Sのフレームがブロック分割された所定の部分領域毎に、異なるベクトルを有している。尚、動きベクトルV及び視差ベクトルDは、画素単位で異なるベクトルを有していてもよい。
視差補償手段14は、図4(1)に示した動きベクトルVに対し、図4(2)に示した視差ベクトルDだけずらした部分領域(図4(3)の点線で示す領域)に存在する動きベクトル(図4(3)の点線内の動きベクトル)について、その動きベクトルを、視差ベクトルDの符号を反転したベクトル−Dだけ並進することにより、動きベクトルVを視差補償し、視差補償した動きベクトルWを生成する(図4(4)を参照)。尚、図4(3)に示した動きベクトルを、視差ベクトルDの符号を反転したベクトル−Dだけ並進させた結果、図4(4)の斜線部のように、ベクトルが未定義の箇所が存在し得る。この場合、視差補償手段14は、その箇所の動きベクトルWについてはゼロベクトルとするか、または近傍の動きベクトルWを用いて外挿したベクトルに設定する。
図1〜図3に戻って、動き補償手段15は、第二入力映像Sを入力すると共に、視差補償手段14から動きベクトルの予測分布を示す動きベクトルWを入力し、第二入力映像Sの部分領域毎に、動きベクトルWに従って第二入力映像Sを動き補償し、動き補償した出力内挿映像Sを生成し(ステップS306)、出力内挿映像Sを出力する(ステップS307)。出力内挿映像Sは、第一入力映像Fの時刻に対応した映像となる。
図5は、動き補償手段15の処理を説明する図である。(1)は第二入力映像Sの例を示し、(2)は動きベクトルWの例を示し、(3)は出力内挿映像Sの例を示す。動き補償手段15は、図5(1)に示した第二入力映像Sに対し、図5(2)に示した動きベクトルWの符号を逆にしたベクトル−Wだけずらした部分領域(図5(3)の点線で示す領域)に存在する映像(図5(3)の点線内の映像)について、その映像を、動きベクトルWだけ並進することにより、第二入力映像Sを動き補償し、動き補償した出力内挿映像Sを生成する(図5(3)を参照)。
以上のように、実施例1に係る多視点映像フレーム内挿装置1によれば、視差推定手段11が、第一入力映像F及び第二入力映像Sに基づいて、第二入力映像Sから第一入力映像Fへの視差ベクトルDを推定し、動きベクトル推定手段13が、第一入力映像F,Fに基づいて、第一入力映像Fから第一入力映像Fへの動きベクトルVを推定し、視差補償手段14が、第二入力映像Sの部分領域毎に、視差ベクトルDの符号を逆にしたベクトル−Dに従って、動きベクトルVを視差補償し、視差補償した動きベクトルW(第二入力映像Sから出力内挿映像Sへの動きベクトルW)を生成するようにした。また、動き補償手段15が、第二入力映像Sの部分領域毎に、動きベクトルWに従って第二入力映像Sを動き補償し、動き補償した出力内挿映像Sを生成するようにした。これにより、視点2の低速映像である第二入力映像Sの内挿フレーム(出力内挿映像S)を、別の視点1の高速映像である第一入力映像F,Fを利用して生成するようにしたから、低速映像の高精細化を実現することができる。
(実施例1の変形例)
実施例1の変形例として、多視点映像フレーム内挿装置1は、第一入力映像F,Fの代わりに第一入力映像F,Fを入力し、第二入力映像Sの代わりに第二入力映像Sを入力するようにしてもよい(後述する図14を参照)。この場合、視差推定手段11は、第一入力映像F及び第二入力映像Sに基づいて視差ベクトルDを推定し、動きベクトル推定手段13は、第一入力映像F,Fに基づいて動きベクトル−Vを推定する。また、視差補償手段14は、視差ベクトルDに従って動きベクトル−Vを視差補償し、動きベクトル−Wを生成し、動き補償手段15は、動きベクトル−Wに従って第二入力映像Sを動き補償し、出力内挿映像Sを生成する。
次に、実施例2について説明する。実施例2は、視点1と視点2との間の視差ベクトル及び視点1の動きベクトルを用いて、生成すべき内挿フレームの時点の視差ベクトルを予測し、予測した視差ベクトルを用いて視点1の映像を視差補償し、視点2の内挿フレーム(出力内挿映像)を生成するものである。
図6は、実施例2に係る多視点映像フレーム内挿装置の動作例の説明図であり、図7は、その構成例を示すブロック図であり、図8は、その処理を示すフローチャートである。図7を参照して、実施例2に係る多視点映像フレーム内挿装置2は、視差推定手段11、遅延手段12、動きベクトル推定手段13、動き補償手段21及び視差補償手段22を備えている。多視点映像フレーム内挿装置2の視差推定手段11、遅延手段12及び動きベクトル推定手段13は、図2に示した多視点映像フレーム内挿装置1の視差推定手段11、遅延手段12及び動きベクトル推定手段13と同様である。
以下、視点1の第一入力映像F,F及び視点2の第二入力映像Sから視点2の出力内挿映像Sを生成する手法について説明する。図8において、ステップS801〜ステップS804の処理は、図3に示したステップS301〜ステップS304の処理と同様であるから、説明を省略する。
動き補償手段21は、ステップS804から移行して、視差推定手段11から視差ベクトルDを入力すると共に、動きベクトル推定手段13から動きベクトルVを入力し、第二入力映像Sの部分領域毎に、動きベクトルVに従って視差ベクトルDを動き補償し、動き補償した視差ベクトルE(第一入力映像Fから出力内挿映像Sへの視差ベクトルE)を生成する(ステップS805)。動き補償した視差ベクトルEは、視差補償手段22に出力される。これにより、時刻t=0における視点2から視点1への視差ベクトルDの分布が、時刻t=1における視点1から視点2への視差ベクトルの予測分布を示す視差ベクトルEに変換される。
図9は、動き補償手段21の処理を説明する図である。(1)は視差ベクトルDの例を示し、(2)は動きベクトルVの例を示し、(3)は動きベクトルVだけ部分領域をずらしたときの視差ベクトルDの例を示し、(4)は動き補償した視差ベクトルEの例を示す。図9(1)に示すように、視差ベクトルDは、第二入力映像Sのフレームがブロック分割された所定の部分領域毎に、異なるベクトルを有しており、図9(2)に示すように、動きベクトルVは、第一入力映像Fのフレームがブロック分割された所定の部分領域毎に、異なるベクトルを有している。尚、視差ベクトルD及び動きベクトルVは、画素単位で異なるベクトルを有していてもよい。
動き補償手段21は、図9(1)に示した視差ベクトルDに対し、図9(2)に示した動きベクトルVの符号を反転したベクトル−Vだけずらした部分領域(図9(3)の点線で示す領域)に存在する視差ベクトル(図9(3)の点線内の視差ベクトル)について、その視差ベクトルを、動きベクトルVだけ並進することにより、視差ベクトルDを動き補償し、動き補償した視差ベクトルEを生成する(図9(4)を参照)。尚、図9(3)に示した視差ベクトルを、動きベクトルVだけ並進させた結果、図9(4)の斜線部のように、ベクトルが未定義の箇所が存在し得る。この場合、動き補償手段21は、その箇所の視差ベクトルEについてはゼロベクトルとするか、または近傍の視差ベクトルEを用いて外挿したベクトルに設定する。
図6〜図8に戻って、視差補償手段22は、第一入力映像Fを入力すると共に、動き補償手段21から視差ベクトルの予測分布を示す視差ベクトルEを入力し、第二入力映像Sの部分領域毎に、視差ベクトルEに従って第一入力映像Fを視差補償し、視差補償した出力内挿映像Sを生成し(ステップS806)、出力内挿映像Sを出力する(ステップS807)。出力内挿映像Sは、第一入力映像Fの時刻に対応した映像となる。
図10は、視差補償手段22の処理を説明する図である。(1)は第一入力映像Fの例を示し、(2)は視差ベクトルEの例を示し、(3)は出力内挿映像Sの例を示す。視差補償手段22は、図10(1)に示した第一入力映像Fに対し、図10(2)に示した視差ベクトルEの符号を逆にしたベクトル−Eだけずらした部分領域(図10(3)の点線で示す領域)に存在する映像(図10(3)の点線内の映像)について、その映像を、視差ベクトルEだけ並進することにより、第一入力映像Fを視差補償し、視差補償した出力内挿映像Sを生成する(図10(3)を参照)。
以上のように、実施例2に係る多視点映像フレーム内挿装置2によれば、視差推定手段11が、第一入力映像F及び第二入力映像Sに基づいて、第二入力映像Sから第一入力映像Fへの視差ベクトルDを推定し、動きベクトル推定手段13が、第一入力映像F,Fに基づいて、第一入力映像Fから第一入力映像Fへの動きベクトルVを推定し、動き補償手段21が、第二入力映像Sの部分領域毎に、動きベクトルVに従って視差ベクトルDを動き補償し、動き補償した視差ベクトルE(第一入力映像Fから出力内挿映像Sへの視差ベクトルE)を生成するようにした。また、視差補償手段22が、第二入力映像Sの部分領域毎に、視差ベクトルEに従って第一入力映像Fを視差補償し、視差補償した出力内挿映像Sを生成するようにした。これにより、視点2の低速映像である第二入力映像Sの内挿フレーム(出力内挿映像S)を、別の視点1の高速映像である第一入力映像F,Fを利用して生成するようにしたから、低速映像の高精細化を実現することができる。
(実施例2の変形例)
実施例2の変形例として、多視点映像フレーム内挿装置2は、第一入力映像F,Fの代わりに第一入力映像F,Fを入力し、第二入力映像Sの代わりに第二入力映像Sを入力するようにしてもよい(後述する図14を参照)。この場合、視差推定手段11は、第一入力映像F及び第二入力映像Sに基づいて視差ベクトルDを推定し、動きベクトル推定手段13は、第一入力映像F,Fに基づいて動きベクトル−Vを推定する。また、動き補償手段21は、動きベクトル−Vに従って視差ベクトルDを動き補償し、視差ベクトルEを生成し、視差補償手段22は、視差ベクトルEに従って第一入力映像Fを視差補償し、出力内挿映像Sを生成する。
次に、実施例3について説明する。実施例3は、視点2の動きベクトルを用いて視点2の映像を動き補償し、視点2の内挿フレーム(出力内挿映像)を生成し、この出力内挿映像と、実施例1または2にて生成した視点2の出力内挿映像とを合成するものである。
図11は、実施例3に係る多視点映像フレーム内挿装置の動作例の説明図であり、図12は、その構成例を示すブロック図であり、図13は、その処理を示すフローチャートである。図12を参照して、実施例3に係る多視点映像フレーム内挿装置3は、図2に示した実施例1の多視点映像フレーム内挿装置1の構成または図7に示した実施例2の多視点映像フレーム内挿装置2の構成に加え、第二遅延手段31、第二動きベクトル推定手段(第二動き推定手段)32、第二動き補償手段33及び映像合成手段34を備えている。
以下、視点1の第一入力映像F,F及び視点2の第二入力映像S,Sから視点2の出力内挿映像Sを生成する手法について説明する。生成する視点2の出力内挿映像Sは、視点1の第一入力映像Fであるサンプリング時刻t=1のフレームに対応するものである。多視点映像フレーム内挿装置3は、視点1の第一入力映像F,F及び視点2の第二入力映像S,Sを入力すると(ステップS1301)、実施例1,2に示したとおり、第一入力映像F,F及び第二入力映像Sに基づいて出力内挿映像Sを生成し(ステップS1302)、出力内挿映像Sを第一内挿映像S1−1とする(ステップS1303)。図13におけるステップS1302の処理は、多視点映像フレーム内挿装置3が多視点映像フレーム内挿装置1を備える場合、図3に示した実施例1のステップS302〜ステップS306の処理と同様であり、多視点映像フレーム内挿装置3が多視点映像フレーム内挿装置2を備える場合、図8に示した実施例2のステップS802〜ステップS806の処理と同様であるから、説明を省略する。
第二遅延手段31は、ステップS1301から移行して、第二入力映像Sを入力し、第二入力映像Sを、第二入力映像Sのフレーム間隔に相当する時間分遅延させ、遅延させた第二入力映像Sを第二動きベクトル推定手段32に出力する(ステップS1304)。後述する第二動きベクトル推定手段32において、第二入力映像Sから第二入力映像Sへの動きベクトルZの分布を生成するために、第二遅延手段31は、1時点前の第二入力映像Sを記憶する。
第二動きベクトル推定手段32は、第二入力映像Sを入力すると共に、遅延手段31から第二入力映像Sを入力し、第二入力映像S,Sに基づいて、第二入力映像Sから第二入力映像Sへの動きベクトルZを推定する(ステップS1305)。動きベクトルZは、第二動き補償手段33に出力される。
動きベクトルZは、典型的には、第二入力映像S,Sのパターン照合により部分領域毎の対応付けが行われ、推定されたベクトルであって、フレーム内の部分領域毎に求めた複数の動きベクトルのマップである。すなわち、マッチングした部分領域を基準にした、第二入力映像Sの画素座標と第二入力映像Sの画素座標との間の差をいい、その差の大きさ及び方向を示すべクトルで表したものである。
例えば、第二動きベクトル推定手段32は、第二入力映像S(または第二入力映像S)をブロック分割し(部分領域に分割し)、各ブロックの画素値パターンと最も類似する領域を、相互相関の最大化または誤差の最小化によって第二入力映像S(または第二入力映像S)の中から探索することにより、動きベクトルZを推定する。
第二動き補償手段33は、第二入力映像Sを入力すると共に、第二動きベクトル推定手段32から動きベクトルZを入力し、第二入力映像Sの部分領域毎に、動きベクトルZを所定倍したベクトルに従って、第二入力映像Sを動き補償し、動き補償した第二内挿映像S1−2を生成する(ステップS1306)。ここで、所定倍とは、例えば、動き補償元の第二入力映像Sから動き補償先の第二内挿映像S1−2への時刻の差分を、動きベクトルZを推定した2フレームにおける第二入力映像Sから第二入力映像Sへの時間の差分で除した値である。本例の所定倍は1/2である。
尚、第二動き補償手段33は、第二入力映像Sの代わりに第二入力映像Sを入力し、第二入力映像Sの部分領域毎に、動きベクトルZを所定倍して符号を逆にしたベクトルに従って、第二入力映像Sを動き補償し、動き補償した第二内挿映像S1−2を生成するようにしてもよい。
映像合成手段34は、ステップS1303及びステップS1306から移行して、多視点映像フレーム内挿装置1または多視点映像フレーム内挿装置2から第一内挿映像S1−1を入力すると共に、第二動き補償手段33から第二内挿映像S1−2を入力し、第一内挿映像S1−1と第二内挿映像S1−2とを合成して出力内挿映像Sを生成し(ステップS1307)、出力内挿映像Sを出力する(ステップS1308)。出力内挿映像Sは、第一入力映像Fの時刻に対応した映像となる。例えば、映像合成手段34は、第一内挿映像S1−1と第二内挿映像S1−2との平均を求め、その結果を出力内挿映像Sとして出力する。
以上のように、実施例3に係る多視点映像フレーム内挿装置3によれば、実施例1の多視点映像フレーム内挿装置1または実施例2の多視点映像フレーム内挿装置2が第一内挿映像S1−1を生成し、第二動きベクトル推定手段32が、第二入力映像S,Sに基づいて、第二入力映像Sから第二入力映像Sへの動きベクトルZを推定し、第二動き補償手段33が、第二入力映像Sの部分領域毎に、動きベクトルZを所定倍したベクトルに従って、第二入力映像Sを動き補償し、動き補償した第二内挿映像S1−2を生成するようにした。また、映像合成手段34が、第一内挿映像S1−1と第二内挿映像S1−2とを合成して出力内挿映像Sを生成するようにした。これにより、視点2の低速映像である第二入力映像Sの内挿フレーム(出力内挿映像S)を、別の視点1の高速映像である第一入力映像F,Fを利用して生成するようにしたから、低速映像の高精細化を実現することができる。また、第一内挿映像S1−1と第二内挿映像S1−2とを合成するようにしたから、実施例1,2に比べて頑健性の高い出力内挿映像Sを生成することができる。
次に、実施例4について説明する。実施例4は、視点2の動きベクトルを用いて視点2の映像を動き補償し、視点2の内挿フレーム(出力内挿映像)を生成し、この出力内挿映像と、前述の実施例1の変形例または実施例2の変形例(第一入力映像F,Fの代わりに第一入力映像F,Fを入力し、第二入力映像Sの代わりに第二入力映像Sを入力する例)にて生成した視点2の出力内挿映像とを合成するものである。
図14は、実施例4に係る多視点映像フレーム内挿装置の動作例の説明図である。実施例4に係る多視点映像フレーム内挿装置4は、図12に示した実施例3と同様の構成部を備えているが、多視点映像フレーム内挿装置1,2が、第一入力映像F,Fの代わりに第一入力映像F,Fを入力し、第二入力映像Sの代わりに第二入力映像Sを入力する点で、実施例3と相違する。多視点映像フレーム内挿装置1,2の視差推定手段11及び遅延手段12、多視点映像フレーム内挿装置1の動きベクトル推定手段13及び視差補償手段14、多視点映像フレーム内挿装置2の動き補償手段21及び視差補償手段22の各処理は、実施例1の変形例及び実施例2の変形例に示したので、ここでは説明を省略する。このように、多視点映像フレーム内挿装置4が多視点映像フレーム内挿装置1を備える場合、多視点映像フレーム内挿装置1の動き補償手段15は、動きベクトル−Wに従って第二入力映像Sを動き補償し、第一内挿映像S1−1を生成する。また、多視点映像フレーム内挿装置4が多視点映像フレーム内挿装置2を備える場合、多視点映像フレーム内挿装置2の視差補償手段22は、視差ベクトルEに従って第一入力映像Fを視差補償し、第一内挿映像S1−1を生成する。
したがって、多視点映像フレーム内挿装置4は、第一入力映像F,F及び第二入力映像S,Sを入力し、第一入力映像F,F及び第二入力映像Sから第一内挿映像S1−1を生成し、第二入力映像S,Sから第二内挿映像S1−2を生成し、第一内挿映像S1−1及び第二入力映像S,Sから出力内挿映像Sを生成する。
以上のように、実施例4に係る多視点映像フレーム内挿装置4によれば、視点2の低速映像である第二入力映像Sの内挿フレーム(出力内挿映像S)を、別の視点1の高速映像である第一入力映像F,Fを利用して生成するようにしたから、低速映像の高精細化を実現することができる。また、第一内挿映像S1−1と第二内挿映像S1−2とを合成するようにしたから、実施例1,2に比べて頑健性の高い出力内挿映像Sを生成することができる。
尚、実施例3,4の多視点映像フレーム内挿装置3,4における映像合成手段34は、第一内挿映像S1−1と第二内挿映像S1−2との間で重み付き平均を求め、その結果を出力内挿映像Sとするようにしてもよい。この場合の重み付けは、例えば、第一内挿映像S1−1及び第二内挿映像S1−2における部分領域毎の信頼度に応じて、信頼度が高いほど大きな重みを与えるようにする。
信頼度は、例えば、視差推定時に用いた照合方法(例えば、ブロックマッチング)の評価関数(例えば、相互相関または誤差の評価関数)の値、及び/または動き推定時に用いた照合方法(例えば、ブロックマッチング)の評価関数(例えば、相互相関または誤差の評価関数)の値に基づいて、部分領域毎に定義する。
具体的には、実施例1,2の多視点映像フレーム内挿装置1,2による視差推定手段11は、視差ベクトルDを求めた際の評価関数の値に基づいて、信頼度r(0≦r≦1;相互相関が大きいまたは誤差が小さいほどrは大きくする)を部分領域毎に求め、動きベクトル推定手段13は、動きベクトルVを求めた際の評価関数の値に基づいて、信頼度r(0≦r≦1;相互相関が大きいまたは誤差が小さいほどrは大きくする)を部分領域毎に求める。また、実施例3,4の第二動きベクトル推定手段32は、動きベクトルZを求めた際の評価関数の値に基づいて、信頼度rV2(0≦rV2≦1;相互相関が大きいまたは誤差が小さいほどrV2は大きくする)を部分領域毎に求める。そして、映像合成手段34は、多視点映像フレーム内挿装置1,2の視差推定手段11及び動きベクトル推定手段13から部分領域毎の信頼度r,rを入力し、これらの積r×rを第一内挿映像S1−1の部分領域毎の信頼度とする。また、映像合成手段34は、第二動きベクトル推定手段32から部分領域毎の信頼度rV2を入力し、これを第二内挿映像S1−2の部分領域毎の信頼度とする。そして、映像合成手段34は、第一内挿映像S1−1の部分領域毎の信頼度r×r及び第二内挿映像S1−2の部分領域毎の信頼度rV2に基づいて、信頼度が高いほど大きい重みを与えるように、部分領域毎に、第一内挿映像S1−1の重み及び第二内挿映像S1−2の重みを求める。そして、映像合成手段34は、これらの重みを用いて、第一内挿映像S1−1と第二内挿映像S1−2との間で部分領域毎に重み付き平均を求め、その結果を出力内挿映像Sとする。
この場合、映像合成手段34は、第一内挿映像S1−1の信頼度と第二内挿映像S1−2の信頼度とを部分領域毎に比較し、部分領域毎に、信頼度が高い方の第一内挿映像S1−1または第二内挿映像S1−2をパッチ状につなぎ合わせ、出力内挿映像Sを生成するようにしてもよい。
(実施例3,4の変形例)
実施例3,4の変形例1として、多視点映像フレーム内挿装置3,4は、多視点映像フレーム内挿装置1及び多視点映像フレーム内挿装置2を備え、映像合成手段34は、多視点映像フレーム内挿装置1により生成された第一内挿映像S1-1-1と、多視点映像フレーム内挿装置2により生成された第一内挿映像S1-1-2とを入力すると共に、第二動き補償手段33から第二内挿映像S1−2を入力するようにしてもよい。この場合、映像合成手段34は、第一内挿映像S1-1-1と第一内挿映像S1-1-2と第二内挿映像S1−2との平均を求める等して合成し、出力内挿映像Sを生成する。
また、実施例3,4の変形例2として、多視点映像フレーム内挿装置3,4の第二動きベクトル推定手段32は、第二入力映像Sから第二入力映像Sへの動きベクトルZを推定することに加えて、第二入力映像Sから第二入力映像Sへの動きベクトルZ’も推定し、第二動き補償手段33は、第二入力映像Sを入力すると共に、第二動きベクトル推定手段32から動きベクトルZを入力し、第二入力映像Sを動き補償し、動き補償した第二内挿映像S1-2-1を生成することに加えて、第二入力映像Sを入力すると共に、第二動きベクトル推定手段32から動きベクトルZ’を入力し、第二入力映像Sの部分領域毎に、動きベクトルZ’を所定倍したベクトルに従って、第二入力映像Sを動き補償し、動き補償した第二内挿映像S1-2-2を生成するようにしてもよい。この場合、映像合成手段34は、第一内挿映像S1−1と第二内挿映像S1-2-1と第二内挿映像S1-2-2との平均を求める等して合成し、出力内挿映像Sを生成する。
また、実施例3,4の変形例3として、多視点映像フレーム内挿装置3,4は、多視点映像フレーム内挿装置1及び多視点映像フレーム内挿装置2を備え、多視点映像フレーム内挿装置3の第二動きベクトル推定手段32は、動きベクトルZ,Z’を推定し、第二動き補償手段33は、第二内挿映像S1-2-1,S1-2-2を生成するようにしてもよい。この場合、映像合成手段34は、第一内挿映像S1-1-1と第一内挿映像S1-1-2と第二内挿映像S1-2-1と第二内挿映像S1-2-2との平均を求める等して合成し、出力内挿映像Sを生成する。
また、実施例3,4の変形例4として、新たな多視点映像フレーム内挿装置は、実施例3の多視点映像フレーム内挿装置1,2及び実施例4の多視点映像フレーム内挿装置1,2の4つの多視点映像フレーム内挿装置のうち、1つ以上の多視点映像フレーム内挿装置を備え、さらに、第二遅延手段31、第二動きベクトル推定手段32、第二動き補償手段33及び映像合成手段34を備えるようにしてもよい。この場合、映像合成手段34は、1つ以上の多視点映像フレーム内挿装置から1つ以上の第一内挿映像を入力すると共に、第二動き補償手段33から1つまたは2つの第二内挿映像を入力し、これらの平均を求める等して合成し、出力内挿映像Sを生成する。
尚、本発明の実施例1〜4による多視点映像フレーム内挿装置1〜4のハードウェア構成としては、通常のコンピュータを使用することができる。多視点映像フレーム内挿装置1〜4は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。実施例1の多視点映像フレーム内挿装置1に備えた視差推定手段11、遅延手段12、動きベクトル推定手段13、視差補償手段14及び動き補償手段15の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。実施例2の多視点映像フレーム内挿装置2に備えた視差推定手段11、遅延手段12、動きベクトル推定手段13、動き補償手段21及び視差補償手段22の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。実施例3,4の多視点映像フレーム内挿装置3,4に備えた多視点映像フレーム内挿装置1または多視点映像フレーム内挿装置2、第二遅延手段31、第二動きベクトル推定手段32、第二動き補償手段33及び映像合成手段34は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1,2,3,4 多視点映像フレーム内挿装置
11 視差推定手段
12 遅延手段
13 動きベクトル推定手段
14,22 視差補償手段
15,21 動き補償手段
31 第二遅延手段
32 第二動きベクトル推定手段
33 第二動き補償手段
34 映像合成手段

Claims (4)

  1. ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿装置であって、
    前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定する視差推定手段と、
    前記第一入力映像の動きベクトルを推定する動き推定手段と、
    前記動き推定手段により推定された動きベクトルに従って、前記視差推定手段により推定された視差ベクトルを動き補償する動き補償手段と、
    前記動き補償手段により動き補償された視差ベクトルに従って、前記第一入力映像を視差補償し、前記第二入力映像の内挿フレームを生成する視差補償手段と、
    を備えることを特徴とする多視点映像フレーム内挿装置。
  2. ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿装置であって、
    前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定する視差推定手段、前記第一入力映像の動きベクトルを推定する動き推定手段、前記視差推定手段により推定された視差ベクトルに従って、前記動き推定手段により推定された動きベクトルを視差補償する視差補償手段、及び前記視差補償手段により視差補償された動きベクトルに従って、前記第二入力映像を動き補償し、前記第二入力映像の内挿フレームを生成する動き補償手段を備える第1の多視点映像フレーム内挿装置、及び、請求項に記載の多視点映像フレーム内挿装置のうちのいずれか一方または両方と、
    前記第二入力映像の動きベクトルを、第二動きベクトルとして推定する第二動き推定手段と、
    前記第二動き推定手段により推定された第二動きベクトルに従って、前記第二入力映像を動き補償し、前記第二入力映像の内挿フレームを生成する第二動き補償手段と、
    前記第1の多視点映像フレーム内挿装置及び請求項に記載の多視点映像フレーム内挿装置のうちのいずれか一方または両方により生成された内挿フレームと、前記第二動き補償手段により生成された内挿フレームとを合成し、合成後の内挿フレームを前記第二入力映像の新たな内挿フレームとして出力する映像合成手段と、
    を備えることを特徴とする多視点映像フレーム内挿装置。
  3. ある視点の第一入力映像と別の視点の第二入力映像とに基づいて、前記第二入力映像の内挿フレームを生成する多視点映像フレーム内挿方法であって、
    前記第一入力映像と前記第二入力映像との間の視差ベクトルを推定するステップと、
    前記第一入力映像の動きベクトルを推定するステップと、
    前記動きベクトルに従って前記視差ベクトルを動き補償し、動き補償した視差ベクトルを生成するステップと、
    前記動き補償した視差ベクトルに従って前記第一入力映像を視差補償し、前記第二入力映像の内挿フレームを生成するステップと、
    を有することを特徴とする多視点映像フレーム内挿方法。
  4. コンピュータを、請求項1または2に記載の多視点映像フレーム内挿装置として機能させるための多視点映像フレーム内挿プログラム。
JP2012052259A 2012-03-08 2012-03-08 多視点映像フレーム内挿装置、方法及びプログラム Active JP5977964B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012052259A JP5977964B2 (ja) 2012-03-08 2012-03-08 多視点映像フレーム内挿装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012052259A JP5977964B2 (ja) 2012-03-08 2012-03-08 多視点映像フレーム内挿装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013187777A JP2013187777A (ja) 2013-09-19
JP5977964B2 true JP5977964B2 (ja) 2016-08-24

Family

ID=49388840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012052259A Active JP5977964B2 (ja) 2012-03-08 2012-03-08 多視点映像フレーム内挿装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5977964B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101966920B1 (ko) 2012-07-10 2019-04-08 삼성전자주식회사 다시점 영상의 시차 정보를 이용하여 영상의 움직임을 추정하는 방법 및 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2008003375A (es) * 2005-09-22 2008-03-27 Samsung Electronics Co Ltd Metodo para calcular vector de disparidad y metodo y aparato para codificar y descodificar pelicula de vision multiple utilizando el metodo de calculo de vector de disparidad.
JP4780046B2 (ja) * 2007-06-19 2011-09-28 日本ビクター株式会社 画像処理方法、画像処理装置及び画像処理プログラム
JP2011223493A (ja) * 2010-04-14 2011-11-04 Canon Inc 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP2013187777A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
KR101385514B1 (ko) 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
JP5337218B2 (ja) 立体画像変換装置、立体画像出力装置および立体画像変換方法
US8803947B2 (en) Apparatus and method for generating extrapolated view
KR101580284B1 (ko) 중간 시점 영상 생성 장치 및 방법
JP2005235211A (ja) 中間時点の画像合成方法及びそれを適用した3dディスプレイ装置
KR20090071624A (ko) 이미지 개선
JP2012506650A (ja) 入力された三次元ビデオ信号を処理するための方法及びシステム
US8610707B2 (en) Three-dimensional imaging system and method
JP2008518317A (ja) 視差マップ
JP2012019513A (ja) 2d画像を3d画像に変換するための方法および装置
JP4892113B2 (ja) 画像処理方法及び装置
US20110122227A1 (en) 3d image display apparatus and display method
JP5521608B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8330799B2 (en) Image output apparatus and image output method
JP5977964B2 (ja) 多視点映像フレーム内挿装置、方法及びプログラム
WO2012098974A1 (ja) 画像処理装置および方法、画像表示装置および方法
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
US8976175B2 (en) Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device
JP4815004B2 (ja) 多視点画像符号化装置
JP2012004653A (ja) 画像処理装置及びその制御方法
Liu et al. Deinterlacing of depth-image-based three-dimensional video for a depth-image-based rendering system
WO2012117462A1 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
WO2011114745A1 (ja) 映像再生装置
TWI410120B (zh) 三維成像系統及方法
KR101323194B1 (ko) 2차원 영상을 3차원으로 변환하는 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R150 Certificate of patent or registration of utility model

Ref document number: 5977964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R150 Certificate of patent or registration of utility model

Ref document number: 5977964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250