JP2021029673A - 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 - Google Patents
医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 Download PDFInfo
- Publication number
- JP2021029673A JP2021029673A JP2019154045A JP2019154045A JP2021029673A JP 2021029673 A JP2021029673 A JP 2021029673A JP 2019154045 A JP2019154045 A JP 2019154045A JP 2019154045 A JP2019154045 A JP 2019154045A JP 2021029673 A JP2021029673 A JP 2021029673A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- monitoring
- self
- response
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 208
- 238000000034 method Methods 0.000 title claims description 66
- 238000010801 machine learning Methods 0.000 claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 230000004044 response Effects 0.000 claims description 85
- 238000000605 extraction Methods 0.000 claims description 74
- 238000006243 chemical reaction Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 24
- 230000000740 bleeding effect Effects 0.000 claims description 22
- 239000008280 blood Substances 0.000 claims description 10
- 210000004369 blood Anatomy 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 7
- 238000012545 processing Methods 0.000 description 36
- 238000013135 deep learning Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 238000003703 image analysis method Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000002390 adhesive tape Substances 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000000449 premovement Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010049119 Emotional distress Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Landscapes
- Media Introduction/Drainage Providing Device (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
【解決手段】撮影部110と、監視対象者を特定する監視対象特定部123と、監視対象者の身体に装着されている医療用装身器具の装着位置を特定する装着位置特定部124と、監視対象者の動作を認識する動作認識部125と、医療用装身器具の装着位置と、監視対象者の動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定部127と、対応要求通知を出力する対応要求通知出力部130と、を備え、装着位置特定部124は、ニューラルネットワークを有する機械学習型の画像認識手段によって、監視画像中の医療用装身器具11を認識して、その装着位置を特定する、医療用装身器具の自己抜去監視システム100とする。
【選択図】図1
Description
[全体構成]
図1に示す通り、本発明の自己抜去監視システム(自己抜去監視システム100)においては、先ず、病院等における、監視対象者(患者)10の滞在している監視対象者滞在エリア(病室)210等の監視対象領域内が撮影部(監視カメラ)110により撮影され、撮影された監視画像の解析により、監視対象者(患者)110による、医療用装身器具の装着位置Pに対する特定の動作(例えば、図1中における監視対象者10の動作)が認識される。そして、医療用装身器具の装着位置Pに係る位置情報と特定の動作(例えば、図1中における監視対象者10Aの動作)との組合せが、特定の組合せであるか否かによって対応の要否が判定される。この結果、対応が必要であると判定された場合には、監視者滞在エリア220等、監視者20の携帯する携帯情報処理端末等の対応要求通知出力部130に、対応要求通知が出力される。そして、対応要求通知を受信した監視者20Aは、必要な対応に速やかに着手することにより、自己抜去に起因する医療事故の発生の多くを未然に防止することができる。
撮影部110は、所謂、監視カメラである。そして、この撮影部110は、監視対象領域を連続的に撮影する監視撮影ステップ(S12)を行う。
演算処理部120は、撮影部110から送信された画像データに対して、監視に必要な演算処理を行う。演算処理部120は、例えば、パーソナルコンピュータやタブレット端末、スマートフォン等を利用して構成することができる。或いは、演算処理部120は、監視動作に特化した専用の装置として構成することもできる。これらの何れの構成においても、演算処理部120は、CPU、メモリ、通信部等のハードウェアを備えている。そして、このような構成からなる演算処理部120は、コンピュータプログラム(監視プログラム)を実行することにより、以下に説明する各種動作、及び、監視方法を具体的に実行することができる。
座標設定部121は、撮影部110が撮影した監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標を設定する座標設定ステップ(S11)を行う。尚、撮影部110に3Dカメラや各種の距離センサー等を備えさせ、これにより監視対象領域内の奥行情報を得ることによっても上記座標を設定することもできる。
座標変換部122は、上述の座標変換ステップ(S15)を行う。この座標変換は、監視画像に係る画像データに対する演算処理として行うことができる。
監視対象特定部123は、監視動作中に、撮影部110が撮影した監視画像中の任意の患者等を自動的に検出して、これを監視対象者として特定する監視対象特定ステップ(S13)を行う。又、監視対象特定部123は、複数の監視対象者を同時に並行して個別に特定する機能を有するものであることがより好ましい。
装着位置特定部124は、監視画像を解析することによって、監視対象特定部123によって特定された監視対象者10(10a、10b、10c)の身体に装着されている医療用装身器具11の装着位置P(Pa、Pb、Pc)(図5参照)を、特定する装着位置特定ステップ(S14)を行う。
動作認識部125は、監視対象特定部123によって特定された監視対象者の動作を認識する動作認識ステップ(S16)を行う。ここで、監視対象者の「動作」とは、身体各部の位置及び動きのことを言う。又、「身体各部の位置及び動き」には、監視対象者の位置変動、位置変動を伴わない姿勢の変化等、骨格の特徴点の位置変動によって把握することが可能な監視対象者のあらゆる「身体各部の位置及び動き」が含まれる。これらの「動作」の特定は、従来公知の様々な画像解析方法によることができる。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
又、演算処理部120は、監視画像中における装着位置Pの周辺の色の変化から血液の流出を検知する出血検知部126を、更に備えることが好ましい。出血を検知する機能を有する限り、出血検知部126の具体的構成は特に限定されないが、例えば、特定位置(装着位置P)周辺に特定の色(赤色)が出現したことを判別して判別結果に係る情報を対応要否判定部127に出力することができる画像解析プログラム等により出血検知部126を構成することができる。
対応要否判定部127は、装着位置Pと監視対象者の動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定ステップ(S17)を行う。又、演算処理部120が出血検知部126を備える場合には、対応要否判定部127は、出血に係る情報を要否判定の判断材料とすることができる。
対応要求通知出力部130は、監視画像を表示する監視画面を有し、又、対応要否判定部127によって対応が必要であると判定された場合には、対応要否判定部127の判定結果を対応要求通知として監視者20が認知可能な形式で出力することができる情報出力手段を備える。
[全体構成]
図3は、自己抜去監視システム100を用いて実行することができる本発明の自己抜去監視方法の流れを示すフローチャートである。
座標設定ステップ(S11)では、座標設定部121が、座標設定処理を行う。この座標設定ステップ(S11)で行われる座標設定処理とは、好ましくは、座標設定部121が、撮影部110が撮影した監視画像中の床面又は地面に相当する位置を監視対象領域3次元空間内における実寸法と関連付けて特定可能な座標、即ち、監視対象領域についての奥行き情報も有する3次元座標を設定する処理である。
監視撮影ステップ(S12)では、撮影部110が、監視撮影を行う。ここで、監視撮影は、静止画の撮影を所定間隔で連続して行い、撮影される画像の連続として後述する監視動作を行うが、撮影間隔を非常に短くすることにより、実質的には、動画撮影として、監視動作を行っているものと捉えることもできる。
監視対象特定ステップ(S13)では、監視対象特定部123が、撮影部110によって撮影された監視画像中の監視対象者を検出して特定したか否かについて判定を行う。監視対象者を検出して特定した場合(S13、Yes)には、装着位置特定ステップ(S14)へ進み、監視対象者が検出されていない場合(S13、No)には、監視撮影ステップ(S12)へ戻り、監視動作を継続する。
「ディープラーニングと画像認識、オペレーションズ・リサーチ」
(http://www.orsj.o.jp/archive2/or60−4/or60_4_198.pdf)
装着位置特定ステップ(S14)では、装着位置特定部124が、前記監視対象特定ステップ(S13)において特定された監視対象者の身体に装着されている医療用装身器具の装着位置を自動的に特定する。具体的には、例えば、図5に示されるように、監視対象者10(10a、10b、10c)の身体に装着されている医療用装身器具11の装着位置P(Pa、Pb、Pc)を特定する装着位置の特定を、上述の通り、ニューラルネットワークを有する機械学習型の画像認識装置(所謂「ディープラーニング技術を用いた画像認識装置」)によって監視画像を解析することによって行う。
座標変換ステップ(S15)では、座標変換部122が、撮影部110が撮影した監視画像に設定されている座標軸を回転させる座標変換を行う。この座標変換は、ソフトウエアにおける処理として、演算処理として座標軸を回転させることによって行うことができる。又、座標軸は固定したまま、監視画像自体を回転させることによっても座標変換ステップ(S15)を行うことができる。この監視画像の回転は、ソフトウエアにおける処理として、演算処理として画像データを変換することによって行うこともできるし、より簡易的な実施方法としては、撮影部110を構成する監視カメラ若しくはこれを構成する撮像素子を実際に回転させることによっても行うことができる。
動作認識ステップ(S16)では、動作認識部125が、監視対象特定ステップ(S13)において特定した監視対象者の動作を認識する。この動作認識は、公知の各種の画像解析方法によることができる。動作認識ステップS16を行うための画像解析方法は特定の方法に限定されないが、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部と、骨格抽出部が抽出した特徴点の3次元空間内における位置を特定する特徴点位置特定部と、を備えなる動作認識部125によって行われる動作認識方法によることが好ましい。以下、動作認識ステップS16が、上記の骨格抽出部及び特徴点位置特定部を備える動作認識部125によって行われる場合の実施形態について、具体的に説明する。
「Zhe Cao 他 Realtime Multi−Person 2D Human Pose Estimation using Part Affinity Fields, CVPR 2017」
対応要否判定ステップ(S17)では、対応要否判定部127が、監視対象者における医療用装身器具の装着位置と、当該監視対象者の動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定を行う。又、演算処理部120が出血検知部126を備える場合には、対応要否判定部127は、出血に係る情報を要否判定の判断材料とすることができる。
対応要求通知出力ステップ(S18)では、演算処理部120が、監視対象者に対する対応が必要であると判定した場合に、対応要求通知を対応要求通知出力部130に出力する。対応要求通知の形式は監視者20がどの監視対象者に対して対応が必要であるのかを識別できる形式であれば特定の形式に限定されない。監視対象者を他の対象から区別する特定の色の囲み枠線、動作の状態を認識可能な当該監視対象者の骨格情報、対応を必要としていることを示すサイン(光の点滅や警告音等)等が監視者20の保持する、対応要求通知出力部130から出力されることが好ましい。
110 撮影部(監視カメラ)
111 撮像素子
112 撮影レンズ
113 画像処理部
120 演算処理部
121 座標設定部
122 座標変換部
123 監視対象特定部
124 装着位置特定部
125 動作認識部
126 出血検知部
127 対応要否判定部
130 対応要求通知出力部(携帯端末)
210 監視対象者滞在エリア(病室)
220 監視者滞在エリア
10(10A) 監視対象者
11 医療用装身器具
12 先端部
13 粘着テープ
P 装着位置
20 監視者
S11 座標設定ステップ
S12 監視撮影ステップ
S13 監視対象特定ステップ
S14 装着位置特定ステップ
S15 座標変換ステップ
S16 動作認識ステップ
S17 対応要否判定ステップ
S18 対応要求通知出力ステップ
Claims (10)
- 医療用装身器具の自己抜去監視システムであって、
監視対象者を撮影する撮影部と、
前記撮影部が撮影した監視画像中の監視対象者を特定する監視対象特定部と、
前記監視対象特定部によって特定された監視対象者の身体に装着されている前記医療用装身器具の装着位置を特定する装着位置特定部と、
前記監視対象特定部によって特定された監視対象者の動作を認識する動作認識部と、
前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定部と、
前記対応要否判定部によって対応が必要であると判定された場合に、対応要求通知を出力する対応要求通知出力部と、を備え、
前記装着位置特定部は、ニューラルネットワークを有する機械学習型の画像認識手段によって、前記監視画像中の前記医療用装身器具を認識して、その位置を特定する、
自己抜去監視システム。 - 前記監視画像に設定されている座標軸を360°逐次回転させて座標変換を行う座標変換部を、更に備え、
前記動作認識部は、前記座標軸が監視対象者の姿勢に応じた適切な角度に回転されたときに前記監視画像中の監視対象者の動作を認識する、
請求項1に記載の自己抜去監視システム。 - 前記動作認識部は、複数の特徴点を連接する骨格線で構成される監視対象者の骨格を抽出する骨格抽出部と、前記骨格抽出部が抽出した前記特徴点の監視対象領域を構成する3次元空間内における位置を特定する特徴点位置特定部と、を含んでなり、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、
請求項1又は2に記載の自己抜去監視システム。 - 前記動作認識部は、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知部を、更に備え、
前記対応要否判定部は、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定する、
請求項1から3の何れかに記載の自己抜去監視システム。 - 前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知部を、更に備え、
前記対応要否判定部は、前記出血検知部が所定量以上の血液の流出を検知した場合にも、対応が必要であると判定する、
請求項1から4の何れかに記載の自己抜去監視システム。 - 医療用装身器具の自己抜去監視方法であって、
撮影部が監視対象者を撮影する監視撮影ステップと、
監視対象特定部が、前記監視撮影ステップにおいて撮影した監視画像中の監視対象者を特定する監視対象特定ステップと、
装着位置特定部が、前記監視対象特定ステップにおいて特定された監視対象者の身体に装着されている医療用装身器具の装着位置を特定する装着位置特定ステップと、
動作認識部が、前記監視対象特定ステップにおいて特定された前記監視対象者の動作を認識する動作認識ステップと、
対応要否判定部が、前記装着位置と、前記動作との組合せが、特定の組合せであるか否かによって対応の要否を判定する対応要否判定ステップと、
対応要求通知出力部が、前記対応要否判定ステップにおいて対応が必要であると判定された場合に対応要求通知を出力する対応要求通知出力ステップと、
を含んでなり、
装着位置特定ステップにおいては、前記装着位置特定部は、ニューラルネットワークを有する機械学習型の画像認識手段によって、前記監視画像中の前記医療用装身器具を認識して、その位置を特定する、
自己抜去監視方法。 - 前記監視対象特定ステップに先行して、前記監視画像に設定される座標軸を任意の角度で回転させる座標変換ステップが行われ、
前記監視対象特定ステップにおいては、前記座標軸の回転中に前記監視画像中において正立状態にない監視対象を特定する、請求項6に記載の自己抜去監視方法。 - 前記動作認識ステップにおいては、複数の特徴点を連接する骨格線で構成される前記監視対象者の骨格を抽出する骨格抽出処理と、前記骨格抽出処理によって抽出された前記特徴点の監視対象領域を構成する3次元空間内における位置を特定する特徴点位置特定処理とが行われ、前記特徴点の前記位置の変動に係る情報に基づいて、前記監視対象者の動作を認識する、
請求項6又は7に記載の自己抜去監視方法。 - 前記動作認識ステップにおいては、前記監視画像中における前記監視対象者の視線方向を検知する、視線方向検知処理が、更に行われ、
前記対応要否判定ステップにおいては、前記視線方向の前記装着位置を目視する方向に対する相対的変動量及び変動速度が、所定の変動量及び変動速度である場合に対応が必要であると判定される、
請求項6から8の何れかに記載の自己抜去監視方法。 - 前記動作認識ステップにおいては、前記監視画像中における前記装着位置の周辺の色の変化から血液の流出を検知する出血検知処理が、更に行われ、
前記対応要否判定ステップにおいては、前記動作認識部が所定量以上の血液の流出を検知した場合に、対応が必要であると判定される、
請求項6から9の何れかに記載の自己抜去監視方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154045A JP6621127B1 (ja) | 2019-08-26 | 2019-08-26 | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154045A JP6621127B1 (ja) | 2019-08-26 | 2019-08-26 | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6621127B1 JP6621127B1 (ja) | 2019-12-18 |
JP2021029673A true JP2021029673A (ja) | 2021-03-01 |
Family
ID=68917198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019154045A Active JP6621127B1 (ja) | 2019-08-26 | 2019-08-26 | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6621127B1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230555A (ja) * | 2001-02-01 | 2002-08-16 | Noa Syst:Kk | 動きを検知する検知装置及び方法 |
JP2007072964A (ja) * | 2005-09-09 | 2007-03-22 | Ishihara Sangyo:Kk | 離床予測自動感知通報方法と同自動感知通報システム |
JP2015019777A (ja) * | 2013-07-18 | 2015-02-02 | 株式会社東芝 | 体位決定支援装置及び医用画像診断装置 |
JP2015066071A (ja) * | 2013-09-27 | 2015-04-13 | 富士通株式会社 | 監視プログラム、監視装置および監視方法 |
WO2016199749A1 (ja) * | 2015-06-10 | 2016-12-15 | コニカミノルタ株式会社 | 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム |
-
2019
- 2019-08-26 JP JP2019154045A patent/JP6621127B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230555A (ja) * | 2001-02-01 | 2002-08-16 | Noa Syst:Kk | 動きを検知する検知装置及び方法 |
JP2007072964A (ja) * | 2005-09-09 | 2007-03-22 | Ishihara Sangyo:Kk | 離床予測自動感知通報方法と同自動感知通報システム |
JP2015019777A (ja) * | 2013-07-18 | 2015-02-02 | 株式会社東芝 | 体位決定支援装置及び医用画像診断装置 |
JP2015066071A (ja) * | 2013-09-27 | 2015-04-13 | 富士通株式会社 | 監視プログラム、監視装置および監視方法 |
WO2016199749A1 (ja) * | 2015-06-10 | 2016-12-15 | コニカミノルタ株式会社 | 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6621127B1 (ja) | 2019-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11250268B2 (en) | Abnormality detection device and abnormality detection method | |
WO2020189313A1 (ja) | 監視装置、監視システム、及び、監視方法 | |
JP6655727B2 (ja) | 監視システム | |
JP6562437B1 (ja) | 監視装置、及び、監視方法 | |
Auvinet et al. | Multiple cameras fall dataset | |
RU2676147C2 (ru) | Непрерывное автоматическое наблюдение за движениями пациента | |
JP6253311B2 (ja) | 画像処理装置、画像処理方法 | |
JP6579411B1 (ja) | 介護設備又は病院用の監視システム及び監視方法 | |
KR102052883B1 (ko) | 열화상 카메라를 이용한 낙상 예측 시스템 및 열화상 카메라를 이용한 낙상 예측 방법 | |
US11666247B2 (en) | Method, device and computer program for capturing optical image data of patient surroundings and for identifying a patient check-up | |
WO2015133195A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2014515291A5 (ja) | ||
CN107077214A (zh) | 用于在医院中使用的通信的方法和系统 | |
EP3496607B1 (en) | Device, system and method for fall detection | |
KR20140110484A (ko) | 영상정보를 이용한 위험 행동 검지방법 | |
JP6583953B1 (ja) | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 | |
KR102544147B1 (ko) | 영상분석 기반 1인 낙상 감지 시스템 및 방법 | |
JP6621127B1 (ja) | 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法 | |
WO2020241034A1 (ja) | 監視システム及び監視方法 | |
Silapasuphakornwong et al. | A conceptual framework for an elder-supported smart home | |
Khawandi et al. | Integrated monitoring system for fall detection in elderly | |
Pathak et al. | Fall detection for elderly people in homes using Kinect sensor | |
US20220292865A1 (en) | Spatial infection risk determination system, spatial infection risk determination method, and storage medium | |
US20220167880A1 (en) | Patient position monitoring methods and systems | |
US20230329590A1 (en) | Non-Contact Monitoring System and Method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190826 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190826 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190903 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190917 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6621127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |