JP2013171522A - Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法 - Google Patents

Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法 Download PDF

Info

Publication number
JP2013171522A
JP2013171522A JP2012036627A JP2012036627A JP2013171522A JP 2013171522 A JP2013171522 A JP 2013171522A JP 2012036627 A JP2012036627 A JP 2012036627A JP 2012036627 A JP2012036627 A JP 2012036627A JP 2013171522 A JP2013171522 A JP 2013171522A
Authority
JP
Japan
Prior art keywords
image
camera
computer graphics
marker
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012036627A
Other languages
English (en)
Other versions
JP5847610B2 (ja
Inventor
Kazuhiko Ito
和彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micronet KK
Original Assignee
Micronet KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micronet KK filed Critical Micronet KK
Priority to JP2012036627A priority Critical patent/JP5847610B2/ja
Priority to PCT/JP2012/078175 priority patent/WO2013125098A1/ja
Priority to TW101142213A priority patent/TWI501193B/zh
Publication of JP2013171522A publication Critical patent/JP2013171522A/ja
Application granted granted Critical
Publication of JP5847610B2 publication Critical patent/JP5847610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ARマーカ像の一部がカメラフレームから外れたり、カメラフレーム内のARマーカ像が小さくてその識別が困難になったりして、正しくARマーカ像の位置を検出することができないといった問題が起きず、カメラの位置や画角、カメラワークに制約を課すことがないAR技術を提供する。
【解決手段】ARマーカ101の位置検出のためのカメラ5は常に定点を観測するカメラとしておき、CG空間に仮想カメラを定義したうえで仮想カメラ側の画角や位置を変化させることを特徴とするARを用いたコンピュータ・グラフィックス画像処理技術である。
【選択図】 図1

Description

本発明は、拡張現実感(AR)を利用したコンピュータ・グラフィックス画像処理システム及び方法に関する。
近年、さまざまな分野において、画像認識技術による拡張現実感(AR)を取り入れたCG(コンピュータ・グラフィックス)演出が行われるようになってきている。既存の画像認識型AR技術としては、例えば、図21に示すような特定形状と特徴点群を表記したARマーカ101を使用したものがある。
一般的なAR技術は、基本的には図22に示す処理内容である。すなわち、STEP1,STEP2でウェブカメラやデジタルビデオカメラのようなカメラ103によってARマーカ101を含むシーンを撮影してカメラフレーム105を取得し、STEP3でカメラフレーム105内のARマーカ像101の位置検出や空間的な画像認識を行い、STEP4でARマーカ像101の位置、姿勢、スケールに応じてその上にあらかじめ対応づけたCGオブジェクト107を同姿勢、スケールにて合成して表示するものである。
このようなAR処理を行うコンピュータビジョンでは、一般的にピンホールカメラモデルを使用して近似される。ピンホールカメラモデルにおいての考え方は、画像平面に至る光は全て1点の焦点であるピンホールを通過し、画像平面と交差した位置で像を結ぶと考える。このような射影は中心射影と呼ばれる。
図23に示すように、ピンホールカメラモデルにおいて、光軸111と画像平面113との交点を原点O1とし、カメラ103の素子配置方向に合わせて画像平面113上にx軸とy軸をとる座標系を画像座標系と呼ぶ。また、ピンホールO2をカメラ103の中心とみなし、光軸111の方向をZ軸とし、X軸とY軸を画像座標系のx軸とy軸に平行にとる座標系を、カメラ座標系と呼ぶ。
また、実際に撮影したデジタル画像はレンズやコンピュータによる補正などを通して記録される画像であり、カメラ103の機械的特性やレンズ歪み、記録素子の特性などにより、画像の原点や画素のアスペクト比などは実際の(x,y,z)画像座標系のそれとは一致しない。そこで、デジタル画像において、座標原点を左上にとり、右方向をu軸、上下方向をv軸とするような座標系をデジタル画像座標系と呼ぶ。
ここで、三次元空間中に任意の世界座標系をとり、その空間中に存在する(X,Y,Z)カメラ座標系の(u,v,w)デジタル画像座標系への中心射影を考えた場合、一般的に3×4の射影変換行列Pを用いて、
と表現できる。
ここで、
は空間上の任意の座標の同次座標表現、
は画像平面の座標の同次座標表現である。
このような射影変換行列Pは、カメラの内部パラメータ行列Aと回転行列R、及び並進ベクトルtによって、
と決定できる。回転行列Rは3×3行列、[R|t]は同次座標系であり、3×4行列として表される。
このような、カメラ103の内部パラメータ行列Aと回転行列R及び並進ベクトルtを求めることを、カメラ内部パラメータ推定又はカメラキャリブレーションという。一般的には、カメラ103の内部パラメータAと外部パラメータ[R|t]を決定するために、図24に示すようなカメラキャリブレーション用のパターン例P1,P2を角度などを変えて撮影し、複数画像から得られる相関関係によって方程式の解を求め、カメラパラメータを決定する。これにはZangの手法を利用する。この手法は、上記の非特許文献1に説明されている。もっとも、他の手法を利用することも制限されるわけではない。
このようにして得たカメラパラメータを利用し、実際にカメラで撮影されたデジタル画像105からARマーカ像101の位置を画像認識により検出するシステムをAR解析器と呼ぶ。
通常のAR解析器を利用するコンピュータ・グラフィックスシステムでは、検出したARマーカ像101の姿勢を三次元CGで描画するため、一般的な三次元コンピュータ・グラフィックスの計算で用いられる4×4のプロジェクション行列Paと4×4のモデルビュー行列Maを算出し、デジタル画像105上のARマーカ像101の位置を基準にして三次元空間上の任意の点を射影変換し、表示する。
ここで、プロジェクション行列Paは、ピンホールカメラモデルを図25に示す錐台121として定義した場合に、
と定義し、又はその転置行列と定義できる。転置行列の場合、行列の演算方向を逆にすれば良いので、ここでは上記表記を用いる。
ここで、
であり、(X,Y,Z)カメラ座標系においてピンホールに相当する原点O2から、錐台121の手前左上の頂点が(l,t,−n)、手前左下の頂点が(l,b,−n)、手前右上の頂点が(r,t,−n)、手前左上の頂点が(r,b,−n)とし、奥の面までの距離をfとしている。
一般的に、プロジェクション行列Paはカメラキャリブレーションを行えば、AR解析器の撮影系では固定値となり、モデルビュー行列MaがARマーカ像の検出位置、姿勢及びスケールを表わす。
デジタル画像に対応する射影変換は、
で表され、求められたm’に対してデジタル画像の解像度に応じたビューポート変換を経てCGが表示される。また、上記射影変換により変換されたm’をビューポート変換した後のデジタル画像座標と、Mと原点を通る直線が平面Z=nと交わる交点の位置は相似関係である。平面Z=nの[l,t]−[r,b]をプロジェクション面ともいう。
このような一般的なAR解析器においては、モデルビュー行列Maが決定できなければ、ARマーカ像101の検出位置に対応するCGオブジェクトを描画することができない。
モデルビュー行列Maが決定できない要因は、ARマーカ像が認識できない場合に他ならない。この要因として、図26(a)に示すようにカメラ103で撮影されたデジタル画像105中にAR解析器が認識し得る範囲にARマーカ像101が含まれていない場合、同図(b)に示すように画角が広い若しくはカメラ103から実際のARマーカまでの距離が遠くてARマーカ像101がフレーム中に小さく写り、識別が困難な場合、同図(c)に示すようにカメラ103の移動速度や画角の変化が速くカメラの記録素子の性能に起因して撮影されたデジタル画像105の中でARマーカ像101がぼやけてしまうといった場合がある。これらのことが、カメラワークに制約を与える。特に、テレビ放送用途では大きな制約となる。
また、専用のARマーカを使用しない、いわゆるマーカレスのAR技術も開発されている。これは、カメラで撮影されたフレーム内の現実世界のオブジェクト、例えば山や人の顔の形状から特徴点を検出し、姿勢検知と固体識別を行うAR技術である。このマーカレスのAR技術においても、特徴点群を識別対象として利用するシステムでは、特徴点群がカメラフレームから外れる場合や画角の変化等により特徴点群が識別困難な場合には、同様の問題が生じる。
特開2011−141828号公報 特開2012−003598号公報
"A flexible new technique for camera calibration" IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000年
本発明は、画像認識型AR技術を利用してCGを合成表示する際に生じる上記従来技術の問題点を解決するためになされたものであり、カメラの位置や画角、カメラワークに制約を課すことが少ないAR技術を提供することを目的とする。
本発明のAR技術は、ARマーカの位置検出のためのカメラは常に定点を観測するカメラとしておき、CG空間に仮想カメラを定義した上で当該仮想カメラ側の画角や位置を変化させることを特徴とする。
より具体的には、本発明の1つの特徴は、ARマーカを撮影する、位置が固定されている固定カメラと、前記固定カメラのカメラパラメータを記憶するパラメータ設定部と、前記固定カメラの撮影した前記ARマーカ像を含む画像フレームに対して、前記パラメータ設定部に記憶されているカメラパラメータを使用し、前記ARマーカの位置、姿勢及びスケールを解析するARマーカ姿勢解析部と、前記ARマーカに対応したオブジェクトを、前記ARマーカ姿勢解析部の解析結果に基づいてコンピュータ・グラフィックス画像空間上における前記画像フレーム上での前記ARマーカ像の位置に対応した位置に、当該ARマーカ像の姿勢及びスケールに対応した姿勢及びスケールのコンピュータ・グラフィックス画像として生成するオブジェクト画像生成部と、前記オブジェクト画像生成部の生成した前記オブジェクトのコンピュータ・グラフィックス画像に対して、前記コンピュータ・グラフィックス画像空間上の所定の座標位置に設置された仮想カメラから見た場合の見え方を割り出し、仮想カメラ観察画像として生成する仮想カメラ観察画像生成部と、背景画像と前記仮想カメラ観察画像生成部の生成する前記仮想カメラから見た前記オブジェクトのコンピュータ・グラフィックス画像とを合成するコンピュータ・グラフィックス画像合成部と、前記コンピュータ・グラフィックス画像合成部の合成したコンピュータ・グラフィックス合成画像を表示する表示部とを備えたAR技術を用いたコンピュータ・グラフィックス画像処理システムにある。
また、本発明の別の特徴は、コンピュータを用いて、固定カメラで撮影したARマーカの画像を含む画像フレームを取り込み、当該コンピュータにあらかじめ記憶されているカメラパラメータを使用し、前記ARマーカ像を含む画像フレームを解析して前記ARマーカ像の位置及び姿勢を割り出し、前記ARマーカに対応したオブジェクトを、前記ARマーカ像の姿勢の解析結果に基づいてコンピュータ・グラフィックス画像空間上における前記画像フレーム上での前記ARマーカ像の位置に対応した位置に、当該ARマーカ像の姿勢及びスケールに対応した姿勢及びスケールのコンピュータ・グラフィックス画像として生成し、前記オブジェクト画像フレーム上の前記ARマーカ像に対応して前記オブジェクトのコンピュータ・グラフィックス画像に対して、前記コンピュータ・グラフィックス画像空間上の所定の座標位置に設置された仮想カメラから見た場合の見え方を割り出し、仮想カメラ観察画像として生成し、背景画像と前記仮想カメラから見た前記オブジェクトのコンピュータ・グラフィックス画像とを合成し、前記合成したコンピュータ・グラフィックス合成画像を表示するAR技術を用いたコンピュータ・グラフィックス画像処理方法にある。
本発明によれば、ARマーカの一部がカメラフレームから外れたり、カメラフレーム内のARマーカ像が小さかったりしてその識別が困難になり、正しくARマーカ像の位置を検出することができないといった問題が起きず、カメラの位置や画角、カメラワークに制約を課すことがないAR技術を用いたコンピュータ・グラフィックス画像処理技術を提供できる。
本発明の1つの実施の形態のコンピュータ・グラフィックス画像処理システムの機能ブロック図。 上記コンピュータ・グラフィックス画像処理システムが実行するコンピュータ・グラフィックス画像処理のフローチャート。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理の原理説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理における実カメラスクリーンと仮想カメラスクリーンとの関係を示す説明図。 上記実施の形態のシステムにおけるAR解析器で射影されたデジタル画像の説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理における実カメラ撮影系でのプロジェクションボリュームとCGオブジェクトとの空間座標配置を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理における実カメラ撮影座標系のY−Z平面でのCGオブジェクトの第1スクリーン面への投影(t+b=0のとき)を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理における実カメラ撮影座標系のY−Z平面でのCGオブジェクトの第1スクリーン面への投影(t+b≠0のとき)を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において実カメラ撮影座標系でCGオブジェクトを第1スクリーン面へ投影する処理を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において実カメラ撮影座標系でCGオブジェクトを第1スクリーン面へ投影した状態の説明図。 従来のAR解析技術により実カメラ撮影座標系でCGオブジェクトを第1スクリーン面へ投影した状態を第2スクリーンから見た状態の説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において実カメラ撮影座標系でCGオブジェクトを第1スクリーン面へ投影した状態を第2スクリーンから見た状態の説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において実カメラ撮影座標系で第1スクリーン面のARマーカ像の位置にCGオブジェクトを表示した状態の説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において実カメラ撮影座標系で第1スクリーン面のARマーカ像の位置にCGオブジェクトを表示した状態を、仮想カメラの第2スクリーン面に拡大して投影した状態を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理において仮想カメラを移動させる場合の画像処理の説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理においてARマーカを移動させた場合の実カメラのデジタル画像上でのARマーカ像の移動を示す説明図。 上記実施の形態のシステムによるコンピュータ・グラフィックス画像処理においてARマーカを移動させた場合に仮想カメラから見たCGオブジェクトの移動を示す説明図。 比較例のAR解析器による定点撮影画像に対してARマーカ像の位置にCGオブジェクトを合成した画像の写真。 本発明の実施例1のコンピュータ・グラフィックス画像処理システムによるCG上の仮想カメラ観察系からの射影変換画像を写真。 本発明の実施例2のコンピュータ・グラフィックス画像処理システムによるサッカー解説画像(2枚のARマーカを移動させることにより対応する2人のプレーヤを移動させるCG)の説明図。 一般的なARマーカを含むシーンの撮影画像の写真。 従来のAR解析処理の説明図。 一般的なAR解析処理におけるピンホールカメラモデルにおけるカメラ座標系(X,Y,Z)と画像座標系(x,y,z)の関係を示す説明図。 一般的なカメラキャリブレーションに用いるパターン例の説明図。 一般的なピンホールカメラモデルにおける視錐台の定義の説明図。 従来のAR解析技術の問題点の説明図。
以下、本発明の実施の形態を図に基づいて詳説する。本発明の1つの実施の形態のAR技術を利用したコンピュータ・グラフィックス表示システムは、図1に示す構成であり、AR解析器1とコンピュータ・グラフィックス(CG)レンダリング部2、表示器3、さらにカメラキャリブレーション部4、固定位置に据えられている実カメラCAM−Aとしての固定カメラ5、オフセット行列設定部6、固定カメラ5の撮影画像に対して必要な場合にクロマキー合成処理を行うクロマキー装置7を備えている。
ここで、AR解析器1、CGレンダリング部2,カメラキャリブレーション部4、オフセット行列設定部6については、これらを1台のコンピュータシステムに対して必要なソフトウェアプログラムをインストールして実行させることにより1台のコンピュータシステムに統合することができるが、以下の説明では、本実施の形態の実施に必要な処理機能毎に分解し、それぞれを特定の処理部として説明する。
AR解析器1は、後述するプロジェクション行列Pa、ビューモデル行列Ma、カメラパラメータ、その他の必要なデータを記憶する記憶部11、固定カメラ5の映像に対してARマーカ像を見つけ出し、その位置、姿勢、スケールを解析してビューモデル行列Maを記憶部11に登録するARマーカ像解析部13、ARマーカ像の解析結果に対して行列Mqを算出するMq行列決定部15を備えている。
CGレンダリング部2は、例えばCGグラフィックスカードにより構成され、ARマーカ像位置に表示させるオブジェクトのデジタル画像やその他の必要なデータを記憶する記憶部21、Pb行列を設定するPb行列設定部23、オブジェクト画像の表示位置、姿勢、スケールを決定するオブジェクト姿勢決定部25、固定カメラ5の撮影画像に対して記憶部21に記憶させているオブジェクト画像をオブジェクト姿勢決定部25が決定した姿勢にてARマーカ像の位置に合成し、CG合成画像を作成するCG画像合成部27を備えている。CGレンダリング部2は背景画像上にオブジェクト画像を合成する場合のために、背景画像を入力する背景画像入力部29も備えている。
テレビ放送に利用するシステムとして、固定カメラ5はウェブカメラや映像のデジタル出力が可能なビデオカメラを用いる。固定カメラ5の撮影画像にクロマキー合成する場合は、クロマキー装置7を用い、クロマキー合成映像をCGレンダリング部2に入力する。
カメラキャリブレーション部4は、固定カメラ5のカメラキャリブレーションによりカメラ内部パラメータ、外部パラメータを演算し、AR解析器1の記憶部11に登録する。
固定カメラ5は主にARマーカ101を鮮明に撮影するために、その位置や画角を一定の状態に固定している。
オフセット行列設定部6はオフセット行列Mpを設定するもので、ここで設定された行列MpのデータはCGレンダリング部2の記憶部21に登録される。
次に、上記構成のAR技術を用いたCGコンピュータ・グラフィックス処理システムの動作原理について説明する。本実施の形態のシステムでは、CGレンダリング部2において、実カメラCAM−Aである固定カメラ5による撮影系とは別に、仮想カメラCAM−Bにより観察系を定義する。図3に示すように、実カメラCAM−A(5)で撮影した画像をAR解析器1で射影変換したARマーカ像MRK1をCG空間20上の第1スクリーン面SCR−Aにアフィン変換し、第1スクリーン面SCR−A相当位置にアフィン変換されたARマーカ像MRK1を、同じCG空間20上に配置された仮想カメラVRCAM−Bから見た第2スクリーン面SCR−Bに射影変換する。第1スクリーン面SCR−Aは同じCG空間20上に配置されているので、仮想カメラVRCAM−B系から自由な位置及び画角から観察できる。
ここで従来技術では、仮想カメラVRCAM−Bから第1スクリーン面SCR−Aを観察した場合、実カメラCAM−Aで撮影しAR解析器1で射影変換されたCG画像を第1スクリーン面SCR−Aに容易に射影変換可能である。ところが、この方法では、スクリーン面SCR−Aに射影された平面状態のCG画像しか観察できない。
そこで、図4に示すように、第1スクリーン面SCR−Aに相当する位置に、第1スクリーン面SCR−A、すなわち、実カメラCAM−A撮影系の射影画像と同じ縦横比をもった矩形領域SQ−Aを、VRCAM−Bワールド空間20上に定義する。そしてこの矩形領域SQ−Aに、AR解析器1で射影変換したデジタル画像をテクスチャマッピングする。しかし、前述のように、この状態では仮想カメラVRCAM−Bからの観察結果、すなわち、第2スクリーン面SCR−Bへの射影変換結果は、矩形領域SQ−Aの第2スクリーン面SCR−Bへの写像しか得られず、立体形状として設計されるCGオブジェクトOBJ1が平面へ歪められて第2スクリーン面SCR−Bに射影されるにすぎない。
そこで、本実施の形態では、この問題を解決するために、AR解析器1によって第1スクリーン面SCR−A上に射影変換されるARマーカ像MRK1の位置に、仮想カメラVRCAM−B観察系の画角でCGオブジェクトOBJ1を置き、これを第2スクリーンSCR−Bに射影変換する。これによると、第2スクリーンSCR−Bに射影変換されるCGオブジェクトOBJ1は、仮想カメラVRCAM−B系の座標上に配置された、第1スクリーン面SCR−A上に射影変換されるARマーカ像MRK1の位置に正しく配置され、かつ、CGオブジェクトOBJ1の射影変換は仮想カメラVRCAM−B系の射影変換であるから、立体形状を保った状態で第2スクリーン面SCR−Bへ投影される。
本実施の形態のシステムの動作に対応する、AR技術を用いたコンピュータ・グラフィックス画像処理方法について、図2のフローチャートを用いて説明する。
STEP11:あらかじめARマーカ101を作成すると共に、ARマーカ101に対応するオブジェクトOBJ1のCGを作成して記憶しておく。
STEP13:また、あらかじめ固定カメラ5のカメラキャリブレーションによりカメラパラメータである、内部パラメータ行列Aと回転行列R及び並進ベクトルtを決定して記憶する。
STEP15:固定カメラ5による撮影画像に対応するAR解析器1の撮影空間を決定して記憶する。つまり、プロジェクション行列Paを決定して記憶する。
STEP17:ARマーカ101の存在するシーンを固定カメラ5で撮影し、ARマーカ像MRK1が写る撮影画像を得る。
STEP19:撮影したデジタル画像からARマーカ像MRK1を見つけ出す。
STEP21:ARマーカ像MRK1の位置(奥行き)、向き(姿勢)、大きさ(スケール)を割り出し、ビューモデル行列Maを決定し記憶する。
STEP23:記憶部11の行列Pa,Maを用いて、ARマーカ像MRK1に対応するCGオブジェクトOBJ1の実カメラスクリーンSCR−A上での見え方を計算する。
STEP25:実カメラ(第1)スクリーンSCR−A上での見え方を決定したCGオブジェクトOBJ1に対して、仮想カメラ(第2)スクリーンSCR−B上に投影した場合の見え方を決定する。
STEP27:背景となるデジタル画像と仮想カメラスクリーン上でのCGオブジェクトOBJ1とを合成する。
STEP29:背景となるデジタル画像と仮想カメラスクリーン上でのCGオブジェクトOBJ1との合成画像を表示する。
以上のコンピュータ・グラフィックス画像処理について、さらに詳しく説明する。実カメラCAM−A系のデジタル画像の射影変換については、従来技術と同じであり、以下の式で表される。
ここで、Maは、実カメラCAM−A撮影系における4×4モデルビュー行列を表しており、実カメラCAM−A撮影系の座標における空間座標のアフィン変換そのものである。これは、前に説明したとおり、実カメラCAM−Aのカメラパラメータから算出された相対的な値であり、常にプロジェクション行列Paを乗じなければ、実カメラCAM−A撮影系のデジタル画像中のARマーカ像MRK1の位置に正しくCGオブジェクトを表示することはできない。しかし、プロジェクション行列Paによる射影変換は、実カメラCAM−A系における第1スクリーン面SCR−Aへの写像に等しいことから、射影変換行列Paをそのまま適用することはできない。
そこで、本実施の形態では、実カメラCAM−A撮影系の座標におけるビューボリュームに相当する錐台形状を仮想カメラVRCAM−B観察系の座標上に定義し、ARマーカ像MRK1の位置に配置するCGオブジェクトOBJ1の座標を第1スクリーン面SCR−AのARマーカ像MRK1の位置へ投影するアフィン変換を行う。
仮想カメラVRCAM−B観察系の座標上に実カメラCAM−Aのビューボリューム状の幾何学領域を定義するにあたって、既知であるパラメータは、AR解析器1によって定義された4×4プロジェクション行列Paと、実カメラCAM−A撮影系の座標での4×4モデルビュー行列Maであり、次のように決定される。
図5には、AR解析器1によって第1スクリーン面SCR−Aに投影されるCGオブジェクトOBJ1を示している。この第1スクリーン面SCR−Aに投影されるCGオブジェクトOBJ1は、図6に示すとおり、実カメラCAM−A撮影系の空間座標において、モデルビュー行列Maによるアフィン変換による空間座標系での並進・回転・スケーリングと、プロジェクション行列Paによる射影変換の写像である。そこで、モデルビュー行列Maによるアフィン変換を、ARマーカ像MRK1の上に配置するCGオブジェクトOBJ1を表現する任意の空間座標
に乗じる。
これにより、CGオブジェクトOBJ1の空間座標
は、実カメラCAM−A座標系においてプロジェクション行列Paで射影変換を行えばARマーカ像MRK1の観測位置へ正しく射影される状態にある。
次に、実カメラCAM−A系ビューボリュームを構成する幾何学的要素を射影変換行列Paから導く。
この行列Paの構成要素は、従来同様に図25、数6式にて定義され、
であるから、r,l,t,bについての連立方程式は、nが既知であれば容易に解くことが可能である。nが既知であるとき、r,l,t,bは次のように決定できる。
通常、実カメラCAM−A系のカメラパラメータを決定する際、nには任意の値を設定するので、既知である。一般的に、n=1を与えることが多い。
こうして実カメラCAM−A系のビューボリュームの幾何学的構成要素が得られたので、次に、
を第1スクリーン面SCR−A上のARマーカ像MRK1の位置へアフィン変換する。この場合には、射影変換行列Paには光学的中心偏向成分が含まれていることを考慮する必要がある。
r+l=0かつt+b=0場合のビューボリュームは、実カメラCAM−A系の光軸中心がスクリーン面Aの中心座標に完全に一致している場合であり、ビューポート変換されたデジタル画像の中心座標に一致することを意味している。
t+b=0場合には、図7に示すように実カメラCAM−A座標系のZ−Y座標平面において、
のZ−Y平面における座標の第1スクリーン面SCR−A、すなわちZ=n上への写像m′(z′,y′)とすると、
として計算できる。しかし、ここで着目すべきは、Mbは射影行列Pa、すなわち実カメラCAM−Aのカメラパラメータにより決定された実カメラCAM−Aビューボリューム内での見かけ上、ARマーカ像MRK1に一致するモデルビュー行列である点である。実際に撮影したデジタル画像はレンズや計算機による補正などを通して記録される画像であり、固定カメラ5の機械的特性やレンズ歪み、記録素子の特性などにより、画像の原点や画素のアスペクト比などは実際の画像座標系のそれと一致することはほとんどなく、カメラキャリブレーションを行った場合、r+l≠0又はt+b≠0としてカメラパラメータが推定される。
すなわち、t+b≠0である場合、図8に示すように第1スクリーン面SCR−Aとカメラキャリブレーションを行った結果の光学的中心軸Oaxとの交点をC、画像高さ方向の画角線AG1と第1スクリーン面SCR−Aとの交点をHとした場合に、線分の長さHm′とCm′との比d
は、図8の場合の方が図7の場合よりも小さくなる。
このことは、
を第1スクリーン面SCR−Aの位置にアフィン変換する場合に、この光学的中心軸Oaxによる偏向を考慮しなければ、第1スクリーン面SCR−Aに対応するデジタル画像上に観測される実際のARマーカ像MRK1の位置とずれが生じることを示している。尚、このことはr+l≠0の場合のX−Y平面にも同様のことが生じる。
また、
を第1スクリーン面SCR−Aの位置にアフィン変換する場合に、実カメラCAM−A系で撮影されたデジタル画像のARマーカ像MRK1のスケールを表す、射影変換行列Paによる射影変換のスケーリングを考慮する必要がある。
以上を考慮し、実カメラCAM−A撮影系の座標における任意空間座標
を第1スクリーン面SCR−Aに対応するデジタル画像中のARマーカ観測位置MRK1へアフィン変換する。まず、
を第1スクリーン面SCR−Aの位置へ移動する並進ベクトルTrは、モデルビュー行列Maとnから次のように決定できる。
[数22]
Tr(-e12,-e13,-e14+n)
プロジェクション行列Paによる射影変換を考慮したスケーリングパラメータを、以下のように定義する。
[数23]
s=-(1/e14・Vb)/(t-b)
ここで、Vbは定数であり、仮想カメラVRCAM−B観察系における第1スクリーン面SCR−Aの高さスケールである。
さらに、光学的中心軸Oaxの偏向成分を考慮した第1スクリーン面SCR−Aの位置での移動量Tpを次のように定義する。
[数24]
Tp(sx/sz・Vb・Ax,sy/sz・Vb,0)
ただし、
sx=a0・e12+a1・e14
sy=b0・e13+b1・e14
sz=c0・e14+e14
である。ここで、Axは第1スクリーン面SCR−Aの横方向のアスペクト比を表す定数であり、実カメラCAM−A系のデジタル画像が16:9画像の場合には16/9、4:3画像の場合には4/3という値となる。
以上のパラメータを用い、同次座標表現で実カメラCAM−A系の座標における任意空間座標
を第1スクリーン面SCR−Aに対応するデジタル画像中のARマーカ像MRK1の観測位置へアフィン変換する4×4行列を、次のMpとする。この行列Mpはあらかじめオフセット行列設定部6により設定され、記憶部21に記憶されている。また、そのデータは可変である。
ただし、[Tp]、[Tr]は、それぞれの並進ベクトルの4×4行列同次座標表現である。
この行列Mpにより、CGオブジェクトOBJ1の空間座標表現である任意空間座標
が第1スクリーン面SCR−A相当位置へアフィン変換される写像は、図9のようになり、CGオブジェクトOBJ1の原点座標
は、立体形状を保ったまま第1スクリーン面SCR−Aのデジタル画像中に観測されるARマーカ像MRK1に一致する位置へ変換される。
この状態で、仮想カメラVRCAM−B観察系の座標に、実カメラCAM−A撮影系の座標を配置するための任意のアフィン変換行列をMqとおき、仮想カメラVRCAM−B観察系の座標上の第2スクリーン面SCR−Bに射影する4×4行列をPbとおく。このとき、CGオブジェクトOBJ1の空間座標表現である任意空間座標
の第2スクリーン面SCR−Bへの射影変換mb′は次の式で表すことができる。
この射影変換式を使用することにより、実カメラCAM−A系のデジタル画像中に観測されたARマーカ像MRK1上に、CG空間中に任意に設定された仮想カメラVRCAM−B座標系による画角・撮影位置で、CGオブジェクトOBJ1をその立体形状を保ったまま仮想カメラVRCAM−B系の第2スクリーン面SCR−Bに射影変換することが可能となる。
また、行列PbとMqは一般的な3次元コンピュータ・グラフィックス技術における射影変換を表しているので、仮想カメラVRCAM−B系から観察する実カメラCAM−A座標系は任意の位置へ移動・回転・スケーリング及び描画画角の変更が可能である。
本実施の形態のAR技術を用いたコンピュータ・グラフィックス画像処理システム及びそれが実行する画像処理方法によれば、次のような作用、効果を奏する。固定カメラ5によるデジタル画像に対して、従来技術では、図11に示すように、例えば仮想カメラVRCAM−B系を実カメラCAM−A撮影系の真横に配置した場合、CGオブジェクトOBJ1は平面でしか描画されないため直線に変換されてしまっていた。これに対して、本実施の形態では、図12に示すようにCGオブジェクトOBJ1を真横から見るように描画することが可能である。
仮想カメラVRCAM−Bは画角の変更も可能であることから、図26(a)に示したようにフレーム105からARマーカ101がはみ出す場合にARマーカ101が認識できなくなる問題点を解消できる。図13に示すように、実カメラCAM−A系はARマーカを認識できる画角に設定し固定しておくと、図14に示すように、仮想カメラVRCAM−Bで拡大縮小表示するようにできる。これは、図26(b)に示したARマーカ101の識別が困難なケースも同様に解決可能である。
また、図26(c)に示したようなARマーカ101が移動している時のボケは、ARマーカ101自体が高速で動いている場合にはAR解析器1での認識が不可能な問題は残るが、カメラ側が高速に動くケースでは、図15に示すように、仮想カメラVRCAM−Bの位置を変化させることにより表現可能となり、この場合、実カメラCAM−A系は固定してあるのでマーカ解析器1はARマーカ像MRK1の位置を正しく検出しながら、仮想カメラVRCAM−B系で高速なカメラワークを表現することが可能となる。
さらに、図16、図17は、AR解析器1により観察されるARマーカ像MRK1の移動を、仮想カメラVRCAM−B系から見たCGオブジェクトOBJ1の移動へ反映された様子を表している。これは、図10からも明らかであるが、ARマーカ像MRK1の移動は第1スクリーン面SCR−A上の平面上で表現されているが、仮想カメラVRCAM−B座標系上に配置された第1スクリーン面SCR−Aは任意の平面空間にアフィン変換可能なため、実カメラCAM−A撮影系の平面上の動きを、仮想カメラVRCAM−B座標系における空間上の動きに変換可能となる。
また、
によるアフィン変換は、仮想カメラVRCAM−B座標系への変換に他ならず、例えば、
は第1スクリーン面SCR−A上のARマーカ像MRK1の検出位置の原点となるので、この点を注目するように仮想カメラVRCAM−Bの向きや位置を計算したり画角範囲を調節したりするような制御も可能である。
図18は比較例としてAR解析器1による定点撮影画像に対し、ARマーカ像の位置に立体ARマーカオブジェクトを合成表示したCG画像を示している。そして、図19は実施例1として、同じ実カメラCAM−Aによる定点撮影画像に対してクロマキー処理を行い、そのクロマキー映像に対し、仮想カメラCAM−B系から射影変換して得られるCG画像を示している。このように、従来であれば、ARマーカ101が小さすぎて解像できず、ARマーカ像MRK1の位置にCGオブジェクトOBJ1を表示できなかったものが、任意の小さな画角にしてもCGオブジェクトOBJ1をARマーカ像MRK1の位置、姿勢、スケールで表示できていることが理解できる。
また、図20はクロマキー処理によりサッカーゲームの解説画像を生成する実施例2を示すものである。同図(a)に示すARマーカに代えて、同図(b)に示すようにサッカー解説用に用意された2枚のARマーカをサッカーフィールドボードの前に配し、登場人物にそのARマーカの一方、あるいは両方を移動させてもらうと、同図(c)に示すようにクロマキー処理とCG画像合成処理によりサッカーフィールド上で二人のサッカープレーヤのCG画像がARマーカ像の上に配置され、ARマートの動きと同様にサッカープレーヤ像が移動するというリアルなCG画像が表現される。また、仮想カメラを上下に移動させて観察系を移動させることによりサッカーフィールド像もその上のプレーヤ像と共にそれに応じた角度、方向から俯瞰した状態の映像として表現できる。http://www.youtube.com/watch?v=W8msVZAlI3k&feature=player_embeddedに動画がアップロードされている。
以上のように、本発明のAR技術を用いたコンピュータ・グラフィックス画像処理システム及び方法によれば、ARマーカの位置検出のための固定カメラ5は常に定点を観測する実カメラCAM−Aとし、CG空間側に仮想カメラVRCAM−Bを定義し、仮想カメラ側の画角や位置を変化させることにより、画像認識型AR(ARマーカ)を使用したCGを合成表示する際に生じる問題点を解決し、従来のシステムでは不可能であった、画像認識型AR(ARマーカ)を使用したCG合成画像を作成し表示することができる。それ故、本発明によれば、テレビ放送分野での利用が容易になる。
尚、本発明は上記一連の処理をコンピュータシステムによって行わせるためのプログラム、またそのプログラムを記録した記録媒体も技術的範囲とする。
1 AR解析器
2 CGレンダリング部
3 表示器
4 カメラキャリブレーション部
5 固定カメラ
6 オフセット行列設定部
7 クロマキー装置
11 記憶部
13 ARマーカ像解析部
15 アフィン変換行列決定部
21 記憶部
23 行列Pb設定部
25 オブジェクト姿勢決定部
27 CG画像合成部
29 背景画像入力部
101 ARマーカ

Claims (6)

  1. ARマーカを撮影する、位置が固定されている固定カメラと、
    前記固定カメラのカメラパラメータを記憶するパラメータ設定部と、
    前記固定カメラの撮影した前記ARマーカ像を含む画像フレームに対して、前記パラメータ設定部に記憶されているカメラパラメータを使用し、前記ARマーカの位置、姿勢及びスケールを解析するARマーカ姿勢解析部と、
    前記ARマーカに対応したオブジェクトを、前記ARマーカ姿勢解析部の解析結果に基づいてコンピュータ・グラフィックス画像空間上における前記画像フレーム上での前記ARマーカ像の位置に対応した位置に、当該ARマーカ像の姿勢及びスケールに対応した姿勢及びスケールのコンピュータ・グラフィックス画像として生成するオブジェクト画像生成部と、
    前記オブジェクト画像生成部の生成した前記オブジェクトのコンピュータ・グラフィックス画像に対して、前記コンピュータ・グラフィックス画像空間上の所定の座標位置に設置された仮想カメラから見た場合の見え方を割り出し、仮想カメラ観察画像として生成する仮想カメラ観察画像生成部と、
    背景画像と前記仮想カメラ観察画像生成部の生成する前記仮想カメラから見た前記オブジェクトのコンピュータ・グラフィックス画像とを合成するコンピュータ・グラフィックス画像合成部と、
    前記コンピュータ・グラフィックス画像合成部の合成したコンピュータ・グラフィックス合成画像を表示する表示部とを備えたことを特徴とするAR技術を用いたコンピュータ・グラフィックス画像処理システム。
  2. 前記仮想カメラは、前記コンピュータ・グラフィックス画像空間上での設置座標が可変であることを特徴とする請求項1に記載のコンピュータ・グラフィックス画像処理システム。
  3. 前記ARマーカは、複数枚を前記固定カメラの画角の範囲内の任意の位置にセット可能にしたことを特徴とする請求項1又は2に記載のコンピュータ・グラフィックス画像処理システム。
  4. コンピュータを用いて、
    固定カメラで撮影したARマーカの画像を含む画像フレームを取り込み、
    当該コンピュータにあらかじめ記憶されているカメラパラメータを使用し、前記ARマーカ像を含む画像フレームを解析して前記ARマーカ像の位置及び姿勢を割り出し、
    前記ARマーカに対応したオブジェクトを、前記ARマーカ像の姿勢の解析結果に基づいてコンピュータ・グラフィックス画像空間上における前記画像フレーム上での前記ARマーカ像の位置に対応した位置に、当該ARマーカ像の姿勢及びスケールに対応した姿勢及びスケールのコンピュータ・グラフィックス画像として生成し、
    前記オブジェクト画像フレーム上の前記ARマーカ像に対応して前記オブジェクトのコンピュータ・グラフィックス画像に対して、前記コンピュータ・グラフィックス画像空間上の所定の座標位置に設置された仮想カメラから見た場合の見え方を割り出し、仮想カメラ観察画像として生成し、
    背景画像と前記仮想カメラから見た前記オブジェクトのコンピュータ・グラフィックス画像とを合成し、
    前記合成したコンピュータ・グラフィックス合成画像を表示することを特徴とするAR技術を用いたコンピュータ・グラフィックス画像処理方法。
  5. 前記仮想カメラは、前記コンピュータ・グラフィックス画像空間上での設置座標を可変とすることを特徴とする請求項4に記載のコンピュータ・グラフィックス画像処理方法。
  6. 前記ARマーカは、複数枚を前記固定カメラの画角の範囲内の任意の位置にセットし、前記固定カメラにて同時に撮影することを特徴とする請求項4又は5に記載のコンピュータ・グラフィックス画像処理方法。
JP2012036627A 2012-02-22 2012-02-22 Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法 Active JP5847610B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012036627A JP5847610B2 (ja) 2012-02-22 2012-02-22 Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法
PCT/JP2012/078175 WO2013125098A1 (ja) 2012-02-22 2012-10-31 Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法
TW101142213A TWI501193B (zh) 2012-02-22 2012-11-13 Computer graphics using AR technology. Image processing systems and methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036627A JP5847610B2 (ja) 2012-02-22 2012-02-22 Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法

Publications (2)

Publication Number Publication Date
JP2013171522A true JP2013171522A (ja) 2013-09-02
JP5847610B2 JP5847610B2 (ja) 2016-01-27

Family

ID=49005299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036627A Active JP5847610B2 (ja) 2012-02-22 2012-02-22 Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法

Country Status (3)

Country Link
JP (1) JP5847610B2 (ja)
TW (1) TWI501193B (ja)
WO (1) WO2013125098A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012342A (ja) * 2017-06-29 2019-01-24 ファナック株式会社 仮想オブジェクト表示システム
WO2020206423A1 (en) * 2019-04-04 2020-10-08 Centerline Biomedical, In C. Registration of spatial tracking system with augmented reality display
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
JP7404282B2 (ja) 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム
JP7404137B2 (ja) 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115460395A (zh) * 2022-06-24 2022-12-09 北京电影学院 一种基于led背景墙分时复用的摄影机注册跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057350A (ja) * 1998-08-10 2000-02-25 Toshiba Corp 画像処理装置と方法及び画像送信装置と方法
JP2010259497A (ja) * 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
JP2011141828A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
JP2012003598A (ja) * 2010-06-18 2012-01-05 Riso Kagaku Corp 拡張現実感表示システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI419081B (zh) * 2009-12-29 2013-12-11 Univ Nat Taiwan Science Tech 提供擴增實境的標籤追蹤方法、系統與電腦程式產品
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
TW201126451A (en) * 2011-03-29 2011-08-01 Yuan-Hong Li Augmented-reality system having initial orientation in space and time and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057350A (ja) * 1998-08-10 2000-02-25 Toshiba Corp 画像処理装置と方法及び画像送信装置と方法
JP2010259497A (ja) * 2009-04-30 2010-11-18 Osaka Univ 網膜投影型ヘッドマウントディスプレイ装置を用いた手術ナビゲーションシステムおよびシミュレーションイメージの重ね合わせ方法
JP2011141828A (ja) * 2010-01-08 2011-07-21 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
JP2012003598A (ja) * 2010-06-18 2012-01-05 Riso Kagaku Corp 拡張現実感表示システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019012342A (ja) * 2017-06-29 2019-01-24 ファナック株式会社 仮想オブジェクト表示システム
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
WO2020206423A1 (en) * 2019-04-04 2020-10-08 Centerline Biomedical, In C. Registration of spatial tracking system with augmented reality display
CN113646808A (zh) * 2019-04-04 2021-11-12 中心线生物医药股份有限公司 空间跟踪系统与增强现实显示器的配准
US11538574B2 (en) 2019-04-04 2022-12-27 Centerline Biomedical, Inc. Registration of spatial tracking system with augmented reality display
JP7404137B2 (ja) 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム
JP7404282B2 (ja) 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム

Also Published As

Publication number Publication date
JP5847610B2 (ja) 2016-01-27
WO2013125098A1 (ja) 2013-08-29
TWI501193B (zh) 2015-09-21
TW201335884A (zh) 2013-09-01

Similar Documents

Publication Publication Date Title
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP5872923B2 (ja) Ar画像処理装置及び方法
JP7007348B2 (ja) 画像処理装置
JP5847610B2 (ja) Ar技術を用いたコンピュータ・グラフィックス画像処理システム及び方法
EP3572916B1 (en) Apparatus, system, and method for accelerating positional tracking of head-mounted displays
JP2013521544A (ja) 拡張現実のポインティング装置
WO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP2004213355A (ja) 情報処理方法
KR20140121529A (ko) 광 필드 영상을 생성하는 방법 및 장치
JPWO2019163129A1 (ja) 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム
JP6061334B2 (ja) 光学式シースルー型hmdを用いたarシステム
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
TWI615808B (zh) 全景即時影像處理方法
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP6486603B2 (ja) 画像処理装置
KR101529820B1 (ko) 월드 좌표계 내의 피사체의 위치를 결정하는 방법 및 장치
Schwandt et al. Glossy reflections for mixed reality environments on mobile devices
US20200134779A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP2008203538A (ja) 画像表示システム
Zheng et al. Pixel-wise closed-loop registration in video-based augmented reality
US20230306676A1 (en) Image generation device and image generation method
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2012227700A (ja) 情報処理装置およびプログラム
JP5590680B2 (ja) 映像合成装置、映像合成方法、および映像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151125

R150 Certificate of patent or registration of utility model

Ref document number: 5847610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250