JP6542207B2 - モニタリングのための拡張現実方法およびシステム - Google Patents
モニタリングのための拡張現実方法およびシステム Download PDFInfo
- Publication number
- JP6542207B2 JP6542207B2 JP2016522710A JP2016522710A JP6542207B2 JP 6542207 B2 JP6542207 B2 JP 6542207B2 JP 2016522710 A JP2016522710 A JP 2016522710A JP 2016522710 A JP2016522710 A JP 2016522710A JP 6542207 B2 JP6542207 B2 JP 6542207B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- parameters
- camera
- surveillance
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
a0)デバイスの少なくとも1つ状態パラメータが取得されるステップと、
a1)システムが複数のカメラを備える場合には、アクティブカメラと称されるカメラが、複数のカメラから選択されるステップと、
a2)具体的には取得画像パラメータの1組と合成画像パラメータの1組とである2組の画像パラメータが決定されるステップであって、各組の画像パラメータが、デバイスに対する相対的なカメラ位置および向きと、カメラの1つまたは複数の光学パラメータとを含む、決定されるステップと、
b2)アクティブカメラを用い、取得された画像パラメータに従って、デバイスの全体または一部を示す取得画像が取得されるステップと、
c)合成画像パラメータを考慮しながら仮想カメラが提供することができるように、デバイスまたはデバイスの一部の合成画像が計算されるステップと、
d)監視画像と称される画像が、監視画像を形成するために取得画像と合成画像とが現実的に組み合わされるように、取得画像と合成画像とから形成されるステップと、
e)監視画像がディスプレイ上に表示されるステップと
を含む。
画像パラメータ(デバイスに対するカメラの向きおよび位置、カメラの光学パラメータ)とは、カメラの画像に何が現れるかを決定するパラメータである。画像パラメータは、実際に、カメラがどこに位置決めされるか、カメラがどの向きに配置されるか、およびカメラの光学パラメータ(ズームなど)が何であるかを特定する。
− アクティブカメラの位置決めおよび/もしくは向きのエラーの補償に関して異なり得るし、ならびに/または、アクティブカメラの光学パラメータにおいて異なり得るのであって、
− その理由は、合成画像はアクティブ画像の一部だけを表現するからである。
合成画像とは、仮想カメラが提供し得るようなデバイスまたはデバイスの一部の画像である。合成画像は、実際、デバイス(またはその一部)の3次元デジタルモデルを含んでおり1つまたは複数の「仮想カメラ」が位置決めされている仮想シーンから(それ自体が知られているように)取得され、レンダリングされた画像である。
監視画像では、取得画像と合成画像とを、複数の異なる方法で組み合わせることが可能である。
− ステップa2)において、画像パラメータが決定され、および/または
− ステップc)において、合成画像が計算され、および/または
− ステップd)において、監視画像が形成される。
a)監視画像と称される画像のために、前記少なくとも1つのカメラによって撮影されるデバイスに対する相対的なカメラ位置および向きとカメラの1つまたは複数の光学パラメータとを含む画像パラメータを決定し、システムが複数の実カメラを備えるときには複数のカメラからアクティブカメラと称されるカメラの選択を行うことができる決定手段(またはモジュール)と、
b2)決定手段によって決定された画像パラメータに従って、アクティブカメラの画像を取得することができる取得手段と、
c)決定手段によって決定された画像パラメータを考慮しながら仮想カメラが提供することができるように、デバイスまたはデバイスの一部の合成画像を計算することができる計算手段と、
d)監視画像を形成するために取得画像と合成画像とが現実的に組み合わされるように、取得画像と合成画像とから監視画像と称される画像を形成することができる画像形成手段と
を備えており、ディスプレイが監視画像を表示する(e)ことができ、システムにおいては、
− 決定手段が、画像パラメータを、デバイスの前記少なくとも1つの状態パラメータに応じて決定することができ、および/または
− 計算手段が、合成画像を、デバイスの前記少なくとも1つの状態パラメータに応じて計算することができ、および/または
− 監視画像形成手段が、監視画像を、デバイスの前記少なくとも1つの状態パラメータに応じて形成することができる。
b2)決定手段によって決定された画像パラメータに従って、アクティブカメラの画像を取得し、
c)決定手段によって決定された画像パラメータを仮想カメラが考慮し得るように、デバイスまたはデバイスの一部の合成画像を計算し、
d)監視画像を形成するように取得画像と合成画像とが現実的に組み合わされるように、監視画像と称される画像を、取得画像と合成画像とから形成する、
ように構成されることがいえる。
− 取得手段は、少なくとも1つの実カメラの少なくとも1つのパラメータを、前記パラメータと計算ユニットによって決定された画像パラメータとが等しくなるように、調節できることがあり得る。
− 計算および/または画像形成手段は、監視画像を形成するために取得画像とここで修正されたおよび/または再計算された画像とがステップd)において現実的に組み合わされるように、取得画像に応じて合成画像を修正および/または再計算できることがあり得る。
− 監視システムでは、モニタリング手段は、異常検出手段であり得る。
− 決定手段は、デバイス上で検出された異常に応じて、画像パラメータを(ステップa2で)決定できることがあり得る。
− モニタリング手段は、この場合に、大量の入手可能な異常情報から主たる異常情報を選択できる異常インタープリタを、修正された画像をこの主たる異常情報に応じて計算するために備えた異常検出手段を備えていることがあり得る。
− 計算手段は、デバイス上で検出された異常に応じて、合成画像をステップc)で計算できることがあり得る。
3Dシーンの作成
計算ユニット12の表示プログラムは、データとして、モータ20の3次元デジタルモデル20’を用いる。プログラムの初期化の間に、モータ20のデジタルモデル20’がその中に配置された仮想シーンが定義される。実カメラ24のものと同一の光学(仮想)特性を有する仮想カメラ24’が、仮想シーンの中に位置決めされる。結果的な仮想シーンが、図4によって図解されている。
また、予め定義された振る舞いの1組がプログラムされる。
− センサ22によって測定された状態パラメータの関数である条件または基準(および、オプションとして時間などの他の数値)と、
− このように定義された条件または基準が満たされる場合に用いられる画像パラメータの値と
を含む。
− アクティブカメラがベアリングの配置位置に向けられ、最大の拡大倍率(ズーム)で画像を取得するように、画像パラメータが調節される、
− ベアリングに最も近いカメラが、アクティブカメラとして選択され、ベアリングの近くに移動され、ベアリングの方向に向けられ、その拡大倍率が最大にされる、
− 画像が、このカメラによって取得される、
− 計算手段12cが、その中ではベアリングが特定の色で示されているベアリングの合成画像を計算する、
− 画像形成手段12dが、ベアリングのこの合成画像とモータの残りを示す取得画像とを組み合わせて、得られた監視画像がモータの全体画像中のベアリングの合成画像を示すようにする。監視画像が形成されている間は、監視画像の中で合成画像が全体として可視的となるように、合成画像が、カメラによって取得された画像を含む層の前に配置された層の上に配置される。
− 電力消費、
− 熱伝達。
表示プログラムの主なステップが、図2によって図解されている。
このプログラムの冒頭のステップa0は、何よりもまず、モータ20の状態パラメータの更新された値を取得することで構成される。この情報は、リアルタイムで、コンピュータ26によって、計算ユニット12に送られる。この情報は、計算ユニット12の画像パラメータの決定手段12aによって、取得される。
第1の処理ステップa1)およびa2)は、計算ユニット12の決定手段12aによって行われる。この決定手段は、アクティブカメラを決定し、取得画像パラメータと合成画像パラメータとを決定する。次にモニタ14上に表示される監視画像の形成を考慮すると、このステップは、したがって、以下を決定することによって構成される:
− 異なる複数のカメラ24から、デバイスまたはその一部の写真を供給するアクティブカメラと、
− 具体的にはモータ20に対するアクティブカメラの画像化位置および向きである、アクティブカメラによって取得画像が有することになる取得画像パラメータ、および、たとえばズーム倍率などそのカメラが取らなければならない光学パラメータと、
− 具体的にはモータ20のデジタルモデルに対する合成画像の画像化位置および向きである、合成画像が有することになる合成画像パラメータ、空間におけるデジタルモデルの特定の位置(これは、対応する実際のものの位置とは異なり得る)、ならびに、たとえばズーム倍率などの仮想シーンの画像を生成するために仮想カメラが取らなければならない光学パラメータと
である。
このステップは、2つの部分ステップを含む。
画像パラメータが決定された(ステップa2)後で、アクティブカメラのパラメータが取得画像パラメータと対応しない場合には、アクティブカメラが、そのパラメータが決定手段12aによって決定された好適な取得画像パラメータと対応するように、調節される。
(必要な場合に)いったんカメラが位置決めされ取得画像パラメータに調節されると、取得手段12bが、アクティブカメラ24の画像の取得を実行する。
他方で、システム10は、合成画像パラメータに従って、合成画像を計算する。この画像は、モータ20の一部を、またはオプションであるがモータ20全体を示す。
− 見ることができるようにするという目的のために、いくつかのコンポーネントを透明にすること(可視的/非可視的コンポーネント)、
− 結果的に得られる視野がより優れたものとなるように、いくつかのコンポーネントを特定の位置に位置決めすること(たとえば、モータの内部が可視的になるように、モータのコンポーネントが「展開された状態」に位置決めされるように特定され得る)、
− 監視スタッフが関連の誤動作メッセージを受信する場合には、監視スタッフにとって最も重要であると考えられるパラメータの値を表示すること。パラメータの値は、モータ自体の上に(または、そのコンポーネントのいくつかの上だけに)、デジタル形式で、または、より有利には、故障を示す従来の色を用いて、表示され得る、
− 所定の従来の意味を有するいくつかの色に従って、オプションでは明滅するようにして、デフォルトのコンポーネントを表すこと。
いったん取得画像と合成画像とが取得されると、ユニット12の画像形成手段12dが、監視画像を形成する。
Claims (9)
- ディスプレイ(14)と、デバイス(20)の全体または一部を撮影できるように配置された少なくとも1つの実カメラ(24)とを備えた監視システム(10)を用いた、動作中のデバイスの監視のために、監視画像を表示するための方法であって、
a1)システムが複数のカメラを備える場合には、アクティブカメラと称されるカメラが、複数のカメラから選択されるステップと、
a2)具体的には取得画像パラメータの1組と合成画像パラメータの1組とである2組の画像パラメータが決定されるステップであって、各組の画像パラメータが、デバイスに対する相対的なカメラ位置および向きと、カメラの1つまたは複数の光学パラメータとを含む、決定されるステップと、
b2)取得された画像パラメータに従って、アクティブカメラを用いてデバイスの全体または一部を示す取得画像(50)が取得されるステップと、
c)合成画像パラメータを考慮しながら仮想カメラが提供することができるように、デバイスまたはデバイスの一部の合成画像(52)が計算されるステップと、
d)監視画像(54)と称される画像が、監視画像を形成するために取得画像と合成画像とが現実的に組み合わされるように、取得画像と合成画像とから形成されるステップと、
e)監視画像がディスプレイ上に表示されるステップと
を含んでいる方法において、
デバイスの少なくとも1つの状態パラメータが取得されるステップa0)をさらに含み、前記少なくとも1つの状態パラメータは、温度、圧力および加速度のうちの1つ以上を含むこと、ならびに
− ステップa2)において、画像パラメータが、デバイスの前記少なくとも1つの状態パラメータに応じて決定され、および/または
− ステップc)において、合成画像が、デバイスの前記少なくとも1つの状態パラメータに応じて計算される
ことを特徴とする、監視画像を表示するための方法。 - ステップa2)において、実カメラのどの1つのものでもない画像パラメータが決定され、ステップb2)において取得画像を取得するのに先立ち、ステップb1)の間に、アクティブカメラのパラメータが、ステップa2)において決定される画像パラメータと実質的に対応するように構成される、請求項1に記載の表示方法。
- 監視画像を形成するためにステップd)において取得画像と合成画像とが現実的に組み合わされるように、合成画像が、取得画像に応じて修正および/または再計算される、請求項1または2に記載の表示方法。
- ステップa0)において取得されたデバイスの状態パラメータが所定のしきい値を超えると、ステップa2)において画像パラメータが修正される、および/または、ステップc)において合成画像が再計算される、および/または、ステップd)において監視画像が再形成される、請求項1から3のいずれか一項に記載の表示方法。
- 計算ユニット(12)とディスプレイ(14)と少なくとも1つのカメラ(24)とを備えた、動作中のデバイスの監視のための監視システム(10)であって、計算ユニットが、
a)監視画像と称される画像(54)のために、前記少なくとも1つのカメラによって撮影されるデバイスに対する相対的なカメラ位置および向きとカメラの1つまたは複数の光学パラメータとを含む画像パラメータを決定し、システムが複数のカメラを備えるときには複数のカメラからアクティブカメラと称されるカメラの選択を行うことができる決定手段(12a)と、
b2)決定手段によって決定された画像パラメータに従って、アクティブカメラを用いて動作中のデバイスの全体または一部を示す画像を取得することができる取得手段(12b)と、
c)決定手段によって決定された画像パラメータを考慮しながら仮想カメラが提供することができるように、デバイスまたはデバイスの一部の合成画像を計算することができる計算手段(12c)と、
d)監視画像(54)を形成するために取得画像(50)と合成画像(52)とが現実的に組み合わされるように、取得画像と合成画像とから前記監視画像を形成することができる画像形成手段(12d)と
を備えており、ディスプレイが監視画像を表示する(e)ことができる監視システムにおいて、
デバイスの少なくとも1つの状態パラメータを取得することができるデバイスのモニタリング手段(22)をさらに備え、前記少なくとも1つの状態パラメータは、温度、圧力および加速度のうちの1つ以上を含むこと、ならびに
決定手段が、画像パラメータを、デバイスの前記少なくとも1つの状態パラメータに応じて決定することができ、および/または
計算手段が、合成画像を、デバイスの前記少なくとも1つの状態パラメータに応じて計算することができる
ことを特徴とする、監視システム。 - 取得手段(12b)が、少なくとも1つの実カメラ(24)の少なくとも1つのパラメータを調節することにより、前記パラメータが、計算ユニットによって決定される画像パラメータと等しくなるようにすることができる、請求項5に記載の監視システム。
- 計算および/または画像形成手段が、合成画像を取得画像に応じて修正および/または再計算することにより、監視画像を形成するためにステップd)において取得画像とここで修正および/または再計算された画像とが現実的に組み合わされるようにできるようにする、請求項5または6に記載の監視システム。
- デバイス(20)の全体または一部を撮影できるように配置された少なくとも1つの実カメラ(24)に接続されたコンピュータによって実行されると、請求項1から4のいずれか一項に記載の表示方法のステップを実行するための命令を含む、コンピュータプログラム。
- デバイス(20)の全体または一部を撮影できるように配置された少なくとも1つの実カメラ(24)に接続されたコンピュータによって実行されると、請求項1から4のいずれか一項に記載の表示方法のステップを実行するための命令を含むコンピュータプログラムが記録された、コンピュータ可読な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1356483A FR3008210B1 (fr) | 2013-07-03 | 2013-07-03 | Procede et systeme de realite augmentee pour la supervision |
FR1356483 | 2013-07-03 | ||
PCT/FR2014/051639 WO2015001233A1 (fr) | 2013-07-03 | 2014-06-27 | Procede et systeme de realite augmentee pour la supervision |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016528775A JP2016528775A (ja) | 2016-09-15 |
JP6542207B2 true JP6542207B2 (ja) | 2019-07-10 |
Family
ID=49322554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016522710A Active JP6542207B2 (ja) | 2013-07-03 | 2014-06-27 | モニタリングのための拡張現実方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160371887A1 (ja) |
EP (1) | EP3017427A1 (ja) |
JP (1) | JP6542207B2 (ja) |
FR (1) | FR3008210B1 (ja) |
WO (1) | WO2015001233A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7281401B2 (ja) * | 2017-01-24 | 2023-05-25 | ロンザ リミテッド | 仮想又は拡張現実表示を使用して産業保守を遂行するための方法及びシステム |
FR3065561B1 (fr) * | 2017-04-24 | 2019-04-19 | Safran Aircraft Engines | Systeme et procede d'inspection d'un systeme mecanique base sur la realite augmentee |
CN116484269B (zh) * | 2023-06-25 | 2023-09-01 | 深圳市彤兴电子有限公司 | 显示屏模组的参数处理方法、装置、设备及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2236244C (en) * | 1997-07-17 | 2001-10-09 | Landis & Staefa, Inc. | Method and apparatus for monitoring and controlling real-time information in a building automation system |
US6289299B1 (en) * | 1999-02-17 | 2001-09-11 | Westinghouse Savannah River Company | Systems and methods for interactive virtual reality process control and simulation |
JP4262011B2 (ja) * | 2003-07-30 | 2009-05-13 | キヤノン株式会社 | 画像提示方法及び装置 |
JP4401727B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 画像表示装置及び方法 |
US20080217472A1 (en) * | 2005-10-03 | 2008-09-11 | Rocket Racing, Inc. | Rocket-powered vehicle racing reality system |
WO2007066166A1 (en) * | 2005-12-08 | 2007-06-14 | Abb Research Ltd | Method and system for processing and displaying maintenance or control instructions |
JP4804256B2 (ja) * | 2006-07-27 | 2011-11-02 | キヤノン株式会社 | 情報処理方法 |
JP5403974B2 (ja) * | 2008-09-09 | 2014-01-29 | キヤノン株式会社 | 三次元cadシステム |
JP5522630B2 (ja) * | 2009-05-08 | 2014-06-18 | 国立大学法人 宮崎大学 | 三次元化装置 |
JP2011248443A (ja) * | 2010-05-24 | 2011-12-08 | Fujifilm Corp | 拡張現実映像の提示装置及び提示方法 |
US8982156B2 (en) * | 2010-06-10 | 2015-03-17 | Sartorius Stedim Biotech Gmbh | Assembling method, operating method, augmented reality system and computer program product |
JP5510833B2 (ja) * | 2011-02-16 | 2014-06-04 | カシオ計算機株式会社 | 携帯端末装置及びプログラム |
WO2012144389A1 (ja) * | 2011-04-20 | 2012-10-26 | Necカシオモバイルコミュニケーションズ株式会社 | 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム |
JP2012239068A (ja) * | 2011-05-12 | 2012-12-06 | Hitachi Kokusai Electric Inc | 監視システム及び監視方法 |
US10069703B2 (en) * | 2012-10-31 | 2018-09-04 | Elwha Llc | Methods and systems for monitoring and/or managing device data |
-
2013
- 2013-07-03 FR FR1356483A patent/FR3008210B1/fr active Active
-
2014
- 2014-06-27 EP EP14749899.2A patent/EP3017427A1/fr active Pending
- 2014-06-27 US US14/902,180 patent/US20160371887A1/en not_active Abandoned
- 2014-06-27 WO PCT/FR2014/051639 patent/WO2015001233A1/fr active Application Filing
- 2014-06-27 JP JP2016522710A patent/JP6542207B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3017427A1 (fr) | 2016-05-11 |
JP2016528775A (ja) | 2016-09-15 |
FR3008210A1 (fr) | 2015-01-09 |
WO2015001233A1 (fr) | 2015-01-08 |
FR3008210B1 (fr) | 2016-12-09 |
US20160371887A1 (en) | 2016-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102627352B1 (ko) | 증강 현실 디바이스를 교정하기 위한 방법 | |
US8866811B2 (en) | Image processing apparatus and image processing method | |
JP6542207B2 (ja) | モニタリングのための拡張現実方法およびシステム | |
JP2013179397A5 (ja) | ||
JP2019088025A5 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR20150139610A (ko) | 부품 조립 작업 지원 시스템 및 부품 조립 방법 | |
US10885647B2 (en) | Estimation of electromechanical quantities by means of digital images and model-based filtering techniques | |
JP2015515628A5 (ja) | ||
JP6847712B2 (ja) | 3次元位置計測システム及び方法 | |
US11237057B2 (en) | Temperature processing apparatus and temperature processing method | |
WO2016006170A1 (ja) | 視線入力パラメータの補正装置、及び視線入力装置 | |
JP2020036116A5 (ja) | ||
Igritskaia et al. | Diagnostics of the launch system structures by analyzing the video footage of their motion | |
JP6671899B2 (ja) | 自動故障予測システム及び方法 | |
WO2020010033A1 (en) | Building maintaining method and system | |
JP2020170252A5 (ja) | ||
US9868216B2 (en) | Robot | |
JP2020509505A5 (ja) | ||
JP6897100B2 (ja) | 判定装置、判定方法、および判定プログラム | |
JP2013239905A (ja) | 車載カメラのキャリブレーション装置 | |
CN116030223A (zh) | 车辆图像生成方法、装置、计算机设备及存储介质 | |
JP2015046937A5 (ja) | 情報処理装置、情報処理システム、その制御方法およびプログラム | |
CN103874599B (zh) | 用于运行车辆显示器用的控制装置的方法以及相应工作的控制装置 | |
JP2021060633A (ja) | 診断装置 | |
WO2022014443A1 (ja) | プラント管理方法、プラント管理装置およびプラント管理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6542207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |