JP6356784B2 - 拡張現実用のラジアンス伝達サンプリングのための装置および方法 - Google Patents
拡張現実用のラジアンス伝達サンプリングのための装置および方法 Download PDFInfo
- Publication number
- JP6356784B2 JP6356784B2 JP2016510671A JP2016510671A JP6356784B2 JP 6356784 B2 JP6356784 B2 JP 6356784B2 JP 2016510671 A JP2016510671 A JP 2016510671A JP 2016510671 A JP2016510671 A JP 2016510671A JP 6356784 B2 JP6356784 B2 JP 6356784B2
- Authority
- JP
- Japan
- Prior art keywords
- rays
- environment
- video frame
- subset
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/55—Radiosity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
Description
ポイントが別のサーフェスポイントによってブロックされる場合、v(r, s,φ,θ)→0
そうでない場合(光線が環境ライティングを確認することができる)、v(r, s,φ,θ)→1
インターリーブドサンプリングでは、サンプリング作業負荷が、一連のフレーム、たとえばnフレームにわたって分布する。たとえば、ピクセルp(r,s)ごとのサンプリング作業負荷の半分が第1のフレームで処理され、ピクセルp(r+1,s)について第2のフレームで別の半分が処理される。インターリーブされた中間結果が、最終結果で、完全にサンプリングされた最終結果に組み合わされる。このことは、画面空間(r,s)または視程(光線)空間(φ,θ)のどちらかで達成される。このケースでは、このフレームに関連するRTだけに関心があり得るので、(r,s)は、画面上のピクセルに対応するサーフェスポイントを指す。光線空間(φ,θ)が世界座標系に対して与えられる得る。n個の方向の空間(φ,θ)が、kの独立サブセットに分割され、k個の隣接するピクセルにそれぞれ1つが割り当てられ、階層化ランダムサンプリング方式が達成される。vが主にすべての4つの次元で滑らかな変形を示すと仮定する理由があり得るので、最大解像度でのvの妥当な再構築が、4Dガウスカーネル(またはハットまたはボックスフィルタなどのより単純な近似)でフィルタ処理することによって得られ得る。得られるフィルタ処理済み視程関数が、ピクセルごとにSH表現に投射される。
3Dサーフェスポイントの視程は、画面空間座標ではなく、オブジェクト空間座標に自然に関連付けられ得る。したがって、視程計算をオブジェクト空間内に格納することがより自然であり得る。しかし、ボクセルグリッドが使用され得るので、SH情報の格納は大量のメモリを必要とする。その代わりに、次の情報が格納され得る:あらゆるビットが特定の方向についての値v(φ,θ)を示す長さnの視程ビットベクトル、およびどの光線がすでに追跡されているかを示すサンプリング収束ビットベクトル。
定期的なインターリーブドサンプリングを実施するのではなく、可視の違いが予想され得る領域内に計算労力を集中するために適応サンプリングが利用され得る。その目的で、より良好なアップサンプリングをサポートするためにより多くのサンプリングの必要をコード化する、画面空間内の重み付けマスクが使用され得る。次いで、どこでより多くのサンプルが計算されるべきかを決定するために、(たとえば、単純なしきい値分け操作を使用して)この重み付けマスクが検査され得る。追加のサンプリングの後、影響を受けるサーフェスポイントに対するSH投射が再計算されなければならない。重み付けマスクを得るためにいくつかの方法が利用され得ることを理解できる。
複数の要素が重み付けマスクに寄与し得る。重み付けマスク内のシャドー境界を保持するために、v(r,s,φ,θ)にわたる4D分散が計算され得る。視程信号の分散を計算するために、4D領域への細分(subdivision)がなければならない。あらゆるピクセル(r,s)が個々であると見なされ得、光線空間(φ,θ)がオクタントに細分され得る。サンプリングは、オクタント当たり1光線の最小値で開始され得る(ピクセル当たり8光線)。1つのピクセルの1つのオクタントは、領域と呼ばれ得る。適応および/またはインターリーブドサンプリングは、より多くの光線を計算し得、もちろんその分散は、領域についてのすべての利用可能な光線を考慮すべきである。
適応サンプリングのための重み付けマスクが、差分レンダリングの結果も考慮するために拡張され得る。シーン全体についての高品質解を計算する必要がないことが使用され得る。差分レンダリング後の可視部分、たとえば可視仮想部分および可視である仮想から現実へのシャドーだけに関心があり得る。高品質を有さなければならないのは、これらの領域の境界付近のピクセルだけである。したがって、最後のフレームからの差分レンダリング結果も重みとして加えられ、現フレームに再投射され得る。これは、非常に粗い解像度において行われ得る。言い換えれば、差分レンダリングは、シーン内で何がレンダリングに重要で、何が重要でないことがあり得るかを判定し得る。差分レンダリングでは、現実世界背景上で仮想オブジェクトだけがレンダリングされ得る。
現実シーンの幾何形状が、アイソサーフェスレイトレーシングによってボクセルグリッドから得られ、仮想オブジェクトの幾何形状が、多角形で明示的に与えられ得る。シーンの幾何形状は既知で利用可能であり得るので、現在のビューについての深度および垂直バッファが計算され得る。これらの幾何形状バッファの勾配イメージが計算され、この情報が2つの目的で使用され得る:(1)重み付けマスクについての因子として(より多くのサンプリングが深度または垂直不連続付近で適用されるべきである)、および(2)視程再構築フィルタの計算においてと、分散のための両方で、ジョイント双方向フィルタ処理のための誘導バッファとして。
一般には、カメラはフレームごとに移動してよく、得られるイメージを変化させる。しかし、カメラが極めて高速に移動していることがない限り、イメージ内の大部分の情報は有効なままとなる。したがって、前のフレーム(レンダキャッシュ)から現フレームに再投射され得る。逆再投射の標準手法を使用して、現フレームからのピクセルが前のフレームに再投射される。再投射は、再投射された深度を、前のフレーム内に格納されたものと比較することによって確認され得る。ピクセルが首尾よく再投射され場合、ペイロード(前のフレームからの情報)が抽出され、再利用され得る。再投射が成功しない場合(たとえば、非閉鎖のケース)、ペイロードが最初から計算されなければならない。
いくつかのSDKアルゴリズム(たとえば、KinectFusion)が深度イメージの入射ストリームを継続的に評価し、容積形式で現実シーンを表すボクセルグリッドを更新し得る。ボクセルが更新され得るときはいつでも、更新されたボクセルと、妥当なサイズ近傍内のすべてのボクセル(RTは近くのボクセルについても変化するので)についての関連するビットベクトル内に格納され得る任意の視程サンプリング情報が無効にされ得る。仮想オブジェクトが移動するケースで同じことが行われ得る。
101 筐体
102 ディスプレイ
104 スピーカ
106 マイクロフォン
110 カメラ
112 出力デバイス
114 通信サブシステム
116 非一時的記憶デバイス
180 制御ユニット
180b バス
181 プロセッサ
182 ハードウェア
183 ファームウェア
184 メモリ
185 ソフトウェア
191 サーフェス再構築ユニット
193 ラジアンス伝達ユニット
194 照明データユニット
195 ライティング推定ユニット
196 ライティング評価ユニット
197 レンダリングユニット
300 シーン幾何形状
310 カメラ
330 現実世界オブジェクト
340 仮想世界オブジェクト
35 光線
Claims (12)
- 環境の少なくとも1つのビデオフレームを受信するステップと、
前記環境のサーフェス再構築を生成するステップと、
前記環境の前記サーフェス再構築内で仮想オブジェクトおよび現実世界オブジェクトに向けて複数の光線を投射するステップと、
前記少なくとも1つのビデオフレームから前記環境の照明データを生成するステップと、
改善を必要とする前記環境内のエリアに基づき、前記環境内の前記複数の光線から光線のサブセットを求めるステップであって、前記複数の光線および近似分散解析を含む光線空間の4D細分に基づいて適応サンプリング技法を適用するステップを含むステップと、
前記サーフェス再構築、前記照明データ、および光線の前記サブセットを除外する前記複数の光線に基づいて、前記少なくとも1つのビデオフレームに関連する前記環境の推定現実世界ライティングデータを生成するステップと、
前記推定現実世界ライティングデータを使用して、光線の前記サブセットを除外する前記複数の光線に基づいて、前記少なくとも1つのビデオフレームにわたって前記仮想オブジェクトをレンダリングするステップと
を含む方法。 - 改善を必要とする前記環境内の前記エリアが、シャドーエリア、サーフェスエッジ、およびシャドーエッジを含む請求項1に記載の方法。
- 前記複数の光線から光線のサブセットを求める前記ステップが、ライティングおよび差分レンダリング技法を前記環境に適用するステップと、その結果としてのシャドー情報を解析するステップとを含む請求項1に記載の方法。
- 光線の前記サブセットに関連する時間コヒーレンス情報を2レベル階層キャッシュ内に格納するステップをさらに含み、第1のレベルが画面空間内の情報を格納し、第2のレベルがオブジェクト空間内の情報を格納する請求項1に記載の方法。
- 前記照明データを生成する前記ステップが、
前記少なくとも1つのビデオフレームを輝度成分および色成分に変換するステップと、
前記輝度成分をノイズ除去して前記照明データを抽出するステップと
を含む請求項1に記載の方法。 - 前記環境の前記サーフェス再構築を生成する前記ステップが、前記少なくとも1つのビデオフレームを使用して実施される請求項1に記載の方法。
- 環境の少なくとも1つのビデオフレームを受信するための手段と、
前記環境のサーフェス再構築を生成するための手段と、
前記環境の前記サーフェス再構築内で仮想オブジェクトおよび現実世界オブジェクトに向けて複数の光線を投射するための手段と、
前記少なくとも1つのビデオフレームから前記環境の照明データを生成するための手段と、
改善を必要とする前記環境内のエリアに基づき、前記環境内の前記複数の光線から光線のサブセットを求めるための手段であって、前記環境内の前記複数の光線から光線のサブセットを求めることが、前記複数の光線および近似分散解析を含む光線空間の4D細分に基づいて適応サンプリング技法を適用することを含む手段と、
前記サーフェス再構築、前記照明データ、および光線の前記サブセットを除外する前記複数の光線に基づいて、前記少なくとも1つのビデオフレームに関連する前記環境の推定現実世界ライティングデータを生成するための手段と、
前記推定現実世界ライティングデータを使用して、光線の前記サブセットを除外する前記複数の光線に基づいて、前記少なくとも1つのビデオフレームにわたって前記仮想オブジェクトをレンダリングするための手段と
を備える装置。 - 改善を必要とする前記環境内の前記エリアが、シャドーエリア、サーフェスエッジ、およびシャドーエッジを含む請求項7に記載の装置。
- 前記複数の光線から光線のサブセットを求めるための前記手段が、ライティングおよび差分レンダリング技法を前記環境に適用すること、ならびにその結果としてのシャドー情報を解析することを含む請求項7に記載の装置。
- 光線の前記サブセットに関連する時間コヒーレンス情報を2レベル階層キャッシュ内に格納するための手段をさらに備え、第1のレベルが画面空間内の情報を格納し、第2のレベルがオブジェクト空間内の情報を格納する請求項8に記載の装置。
- 前記照明データを生成するための前記手段が、
前記少なくとも1つのビデオフレームを輝度成分および色成分に変換するための手段と、
前記輝度成分をノイズ除去して前記照明データを抽出するための手段と
を備える請求項8に記載の装置。 - プロセッサに、請求項1から6のいずれか一項に記載の方法を実行させるように構成されたプロセッサ可読命令を含むプロセッサ可読非一時的記録媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361815692P | 2013-04-24 | 2013-04-24 | |
US61/815,692 | 2013-04-24 | ||
US14/189,838 US10062210B2 (en) | 2013-04-24 | 2014-02-25 | Apparatus and method for radiance transfer sampling for augmented reality |
US14/189,838 | 2014-02-25 | ||
PCT/US2014/018775 WO2014175958A1 (en) | 2013-04-24 | 2014-02-26 | Apparatus and method for radiance transfer sampling for augmented reality |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016520908A JP2016520908A (ja) | 2016-07-14 |
JP2016520908A5 JP2016520908A5 (ja) | 2017-03-09 |
JP6356784B2 true JP6356784B2 (ja) | 2018-07-11 |
Family
ID=51788883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016510671A Active JP6356784B2 (ja) | 2013-04-24 | 2014-02-26 | 拡張現実用のラジアンス伝達サンプリングのための装置および方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10062210B2 (ja) |
EP (1) | EP2989614B1 (ja) |
JP (1) | JP6356784B2 (ja) |
KR (1) | KR101933860B1 (ja) |
CN (1) | CN105144245B (ja) |
WO (1) | WO2014175958A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7239345B1 (en) * | 2001-10-12 | 2007-07-03 | Worldscape, Inc. | Camera arrangements with backlighting detection and methods of using same |
CN106133796B (zh) * | 2014-03-25 | 2019-07-16 | 苹果公司 | 用于在真实环境的视图中表示虚拟对象的方法和系统 |
CN110363840A (zh) * | 2014-05-13 | 2019-10-22 | 河谷控股Ip有限责任公司 | 通过反照率模型、系统和方法的增强现实内容渲染 |
JP7298809B2 (ja) * | 2016-07-15 | 2023-06-27 | ライト フィールド ラボ、インコーポレイテッド | 2次元、ライトフィールドおよびホログラフィックリレーによるエネルギー伝搬および横方向アンダーソン局在 |
WO2018014045A2 (en) * | 2016-07-15 | 2018-01-18 | Light Field Lab, Inc. | Method of calibration for holographic energy directing systems |
EP3590096A4 (en) * | 2017-03-03 | 2020-12-23 | Intergraph Corporation | SHADING TECHNIQUE FOR AN ELEVATION DATA GRID |
CN107452031B (zh) * | 2017-03-09 | 2020-06-26 | 叠境数字科技(上海)有限公司 | 虚拟光线跟踪方法及光场动态重聚焦显示系统 |
EP3503037A1 (en) * | 2017-12-24 | 2019-06-26 | Dassault Systèmes | Visibility function of a three-dimensional scene |
CN112105968A (zh) | 2018-01-14 | 2020-12-18 | 光场实验室公司 | 全息衍射光学编码系统 |
EP3737980A4 (en) | 2018-01-14 | 2021-11-10 | Light Field Lab, Inc. | SYSTEMS AND METHODS FOR LOCATING TRANSVERSE ENERGY IN ENERGY RELAYS USING ORDERED STRUCTURES |
JP7274682B2 (ja) | 2018-01-14 | 2023-05-17 | ライト フィールド ラボ、インコーポレイテッド | 3d環境からデータをレンダリングするためのシステムおよび方法 |
CN115430062A (zh) | 2018-01-14 | 2022-12-06 | 光场实验室公司 | 光场视力矫正装置 |
CN108305328A (zh) * | 2018-02-08 | 2018-07-20 | 网易(杭州)网络有限公司 | 虚拟物体渲染方法、系统、介质和计算设备 |
JP7420400B2 (ja) | 2018-07-25 | 2024-01-23 | ライト フィールド ラボ、インコーポレイテッド | ライトフィールドディスプレイシステムベースの遊園地のアトラクション |
US11244493B2 (en) * | 2018-07-26 | 2022-02-08 | Nvidia Corporation | Global illumination using shared lighting contributions for interactions in path tracing |
US10909373B1 (en) | 2018-08-24 | 2021-02-02 | Snap Inc. | Augmented reality system using structured light |
US10930049B2 (en) | 2018-08-27 | 2021-02-23 | Apple Inc. | Rendering virtual objects with realistic surface properties that match the environment |
US10904479B2 (en) | 2019-03-12 | 2021-01-26 | Light Field Lab, Inc. | Video communication including holographic content |
US11212514B2 (en) | 2019-03-25 | 2021-12-28 | Light Field Lab, Inc. | Light field display system for cinemas |
US11428933B2 (en) | 2019-05-13 | 2022-08-30 | Light Field Lab, Inc. | Light field display system for performance events |
JP2022552770A (ja) | 2019-08-09 | 2022-12-20 | ライト フィールド ラボ、インコーポレイテッド | ライトフィールドディスプレイシステムに基づいたデジタルサイネージシステム発明者:ジョナサン・シャン・カラフィン、ブレンダン・エルウッド・ベベンシー、ジョン・ドーム |
CA3148816A1 (en) | 2019-08-26 | 2021-03-04 | Light Field Lab, Inc. | Light field display system for sporting events |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5488700A (en) | 1993-07-30 | 1996-01-30 | Xerox Corporation | Image rendering system with local, adaptive estimation of incident diffuse energy |
US6628298B1 (en) * | 1998-07-17 | 2003-09-30 | The Regents Of The University Of California | Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination |
US7164420B2 (en) | 2003-07-24 | 2007-01-16 | Autodesk, Inc. | Ray tracing hierarchy |
US7382369B2 (en) | 2003-10-10 | 2008-06-03 | Microsoft Corporation | Systems and methods for robust sampling for real-time relighting of objects in natural lighting environments |
US20090109240A1 (en) | 2007-10-24 | 2009-04-30 | Roman Englert | Method and System for Providing and Reconstructing a Photorealistic Three-Dimensional Environment |
US9082213B2 (en) | 2007-11-07 | 2015-07-14 | Canon Kabushiki Kaisha | Image processing apparatus for combining real object and virtual object and processing method therefor |
JP4999711B2 (ja) | 2007-11-07 | 2012-08-15 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US8223148B1 (en) | 2007-11-12 | 2012-07-17 | Adobe Systems Incorporated | Method and apparatus for computing indirect lighting for global illumination rendering in 3-D computer graphics |
US20120120071A1 (en) | 2010-07-16 | 2012-05-17 | Sony Ericsson Mobile Communications Ab | Shading graphical objects based on face images |
-
2014
- 2014-02-25 US US14/189,838 patent/US10062210B2/en active Active
- 2014-02-26 CN CN201480021107.2A patent/CN105144245B/zh active Active
- 2014-02-26 EP EP14713282.3A patent/EP2989614B1/en active Active
- 2014-02-26 WO PCT/US2014/018775 patent/WO2014175958A1/en active Application Filing
- 2014-02-26 JP JP2016510671A patent/JP6356784B2/ja active Active
- 2014-02-26 KR KR1020157033153A patent/KR101933860B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
WO2014175958A1 (en) | 2014-10-30 |
US20140320530A1 (en) | 2014-10-30 |
KR20160002994A (ko) | 2016-01-08 |
EP2989614B1 (en) | 2018-01-17 |
CN105144245B (zh) | 2018-06-22 |
US10062210B2 (en) | 2018-08-28 |
JP2016520908A (ja) | 2016-07-14 |
EP2989614A1 (en) | 2016-03-02 |
KR101933860B1 (ko) | 2018-12-31 |
CN105144245A (zh) | 2015-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6356784B2 (ja) | 拡張現実用のラジアンス伝達サンプリングのための装置および方法 | |
TWI764974B (zh) | 使用一類神經網路過濾影像資料 | |
US9578226B2 (en) | Photometric registration from arbitrary geometry for augmented reality | |
US20200380769A1 (en) | Image processing method and apparatus, storage medium, and computer device | |
US20200082571A1 (en) | Method and apparatus for calibrating relative parameters of collector, device and storage medium | |
Lensing et al. | Instant indirect illumination for dynamic mixed reality scenes | |
JP5655095B2 (ja) | デプスカメラの互換性 | |
CN110322542B (zh) | 重建真实世界3d场景的视图 | |
JP5778182B2 (ja) | デプスカメラの互換性 | |
WO2022057598A1 (zh) | 图像渲染的方法和装置 | |
JP2016522485A (ja) | 再構成からの隠消現実感効果および媒介現実感効果 | |
US10832375B2 (en) | Image decomposition and path-space motion estimation | |
Dos Santos et al. | Real time ray tracing for augmented reality | |
US20240177394A1 (en) | Motion vector optimization for multiple refractive and reflective interfaces | |
US8891857B2 (en) | Concave surface modeling in image-based visual hull | |
US10212406B2 (en) | Image generation of a three-dimensional scene using multiple focal lengths | |
CN115272575B (zh) | 图像生成方法及装置、存储介质和电子设备 | |
JP2017102896A (ja) | シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 | |
Kronander et al. | Real-time video based lighting using GPU raytracing | |
US11508119B2 (en) | Inverse path tracing for material and lighting estimation | |
CN109685882B (zh) | 在渲染中将光场作为更好的背景 | |
EP3557532A1 (en) | Device and method for scene rendering with a depth-of-field effect | |
Wang | Scene Lighting Estimation for Augmented reality with Neural Models | |
Knuth et al. | A Hybrid Ambient Occlusion Technique for Dynamic Scenes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6356784 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |