JP6693710B2 - 映像解析装置及び映像解析方法 - Google Patents
映像解析装置及び映像解析方法 Download PDFInfo
- Publication number
- JP6693710B2 JP6693710B2 JP2015125102A JP2015125102A JP6693710B2 JP 6693710 B2 JP6693710 B2 JP 6693710B2 JP 2015125102 A JP2015125102 A JP 2015125102A JP 2015125102 A JP2015125102 A JP 2015125102A JP 6693710 B2 JP6693710 B2 JP 6693710B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- setting
- image
- video
- time point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 115
- 238000003860 storage Methods 0.000 claims description 45
- 238000000605 extraction Methods 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 23
- 230000033001 locomotion Effects 0.000 claims description 22
- 238000010191 image analysis Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 13
- 238000003703 image analysis method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 45
- 238000012545 processing Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 238000005498 polishing Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Image Analysis (AREA)
- General Factory Administration (AREA)
- Closed-Circuit Television Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
また、本発明の他の目的は、コンピュータによって作業の映像を解析する映像解析方法として、当該作業を構成する複数の動作の各々の区切り目を容易に見つけることが可能な方法を提供することにある。
上記のように構成された本発明の映像解析装置では、作業を撮像した音入り映像から当該作業中に発生する音を抽出し、抽出した音がいずれかの設定音とマッチングするかどうかを、設定音情報に基づいて判定する。そして、上記の音入り映像に対して設定された時間軸において、ある動作の設定音とマッチングする音の発生時点を基準として、ある動作の区切り目を設定する。以上の手順により、本発明の映像解析装置は、作業を構成する動作の区切り目を自動的に設定する。この結果、本発明の映像解析装置を用いることにより、解析者が作業の映像を見ながら動作の区切り目を見つける手間を要さず、より容易に動作の区切り目を設定することが可能となる。
また上記の構成によれば、音入り映像から抽出した音やフレーム画像から、動作の区切り目である開始時点や終了時点を設定することになる。これにより、作業を構成する動作の区切り目を自動的に設定する方法についてバリエーションが増え、動作の区切り目を設定する方法についての自由度が高まることになる。
上記の構成によれば、作業者が発する音声に基づいて各動作の区切り目を自動的に設定することが可能となる。
また上記の構成によれば、作業に用いられる工具または装置が発する機械音に基づいて各動作の区切り目を自動的に設定することが可能となる。
上記の構成によれば、作業を構成する複数の動作の各々の区切り目を自動的に設定することが可能となる。
また、上記の映像解析装置において、前記映像取得部は、複数回の前記作業を撮像した際の前記音入り映像を取得し、複数回の前記作業の各々に対して、前記抽出部による音の抽出、前記判定部による判定、及び前記設定部による前記区切れ目の設定が、各々の前記作業に含まれる前記動作の数に応じて繰り返し実行されると更によい。
上記の構成によれば、複数回の作業を撮影した際の映像を解析し、それぞれの作業における各動作の区切り目を自動的に設定することが可能となる。つまり、上記の構成では、より容易に各動作の区切り目を設定するという本発明の効果がより有意義に発揮されることになる。
上記の構成によれば、各動作の区切り目として、各動作の開始時点及び終了時点を自動的に設定することが可能となる。
上記の構成によれば、作業者が発する音声に基づいて各動作の区切り目を自動的に設定することが可能となる。
上記の構成によれば、作業者が発生する音声によって規定された設定音、及び、当該設定音に関する設定音情報が、登録された作業者だけ用意されている。これにより、作業者が変わった場合であっても、各動作の区切り目を適切に且つ自動的に設定することが可能となる。
上記の構成によれば、音入り映像から抽出した音と設定音とがマッチングしているかどうかを判定する際に、両者の波形を比較して判定することになる。これにより、上記2つの音がマッチングしているかどうかを適切に判定することが可能となる。
上記の構成によれば、音入り映像から抽出した音やフレーム画像から、動作の区切り目である開始時点や終了時点を設定することになる。これにより、作業を構成する動作の区切り目を自動的に設定する方法についてバリエーションが増え、動作の区切り目を設定する方法についての自由度が高まることになる。
上記の方法によれば、作業を構成する動作の区切り目をコンピュータによって自動的に設定するので、より容易に動作の区切り目を設定することが可能となる。
先ず、本実施形態に係る映像解析装置(以下、映像解析装置1)について、その概要を説明する。映像解析装置1は、作業分析用のツールとして用いられ、より具体的には、作業の所要時間(作業時間)を算出して当該作業の効率等を評価するために用いられる装置である。ここで、「作業」とは、複数の動作からなり、具体的には、作業者が設定された計画や目的の下で行う一連の動作の集まりである。また、「動作」とは、作業を構成する要素に相当し、作業を細分化したときの最小単位である。
次に、映像解析装置1の解析対象となる映像について図2を参照しながら説明する。図2は、解析対象の映像についての説明図であり、図中の左側は、作業映像Mt(ハッチングが施された部分)を含むカメラ2の撮像映像Ms全体を示すイメージ図を示しており、図中の右側は、作業映像Mt中の内容(具体的にはフレーム画像)を断片的に図示している。
次に、本実施形態に係る映像解析装置1の構成について説明する。映像解析装置1は、前述したように、コンピュータによって構成されており、具体的にはパソコンやタブレット型端末によって構成されている。映像解析装置1を構成するコンピュータは、CPU、ROMやRAM等のメモリ、ハードディスクドライブ、通信用インタフェース、キーボードやマウス等の入力デバイス、及びモニタ等の出力デバイスを構成機器として備えている。また、ハードディスクドライブには、コンピュータを映像解析装置1として機能させるためのコンピュータプログラム(以下、映像解析プログラム)が格納されている。この映像解析プログラムがCPUによって読み出されて実行されることで、作業分析(映像解析)に係る一連のデータ処理が行われるようになる。
以下、映像取得部11、記憶部12、抽出部13、判定部14及び設定部15のそれぞれについて個別に説明する。
映像取得部11は、複数回分の作業映像Mtを含んだ撮像映像Msをカメラ2から取得するものである。なお、本実施形態では、映像取得部11がネットワークN経由でカメラ2から直接取得することとしたが、これに限定されるものではなく、撮像映像Msのデータを所謂クラウドサーバに一時的に保管し、当該クラウドサーバから撮像映像Msのデータをダウンロードしてくることとしてもよい。
記憶部12は、映像解析において必要となる情報を記憶するものである。ここで、記憶部12が記憶している情報について説明すると、記憶部12が記憶している情報の中には、作業映像Mtを要素映像に区分するための情報としての設定音情報が含まれている。設定音情報とは、作業における動作の区切り目を決めるために動作別に設定された設定音に関する情報であり、具体的には、設定音の波形に関する情報である。
抽出部13は、撮像映像Msから作業中に発生する音を抽出するものである。具体的に説明すると、予め音抽出条件が設定されており、抽出部13は、撮像映像Msにおいて当該音抽出条件を満たす音が流れる(再生される)と、その音を検知し、抽出対象として抽出する。なお、音抽出条件は、音量、音色若しくは音域を基準として設定されることになっており、本実施形態では、所定の音量以上の音であることが音抽出条件として設定されている。
判定部14は、抽出部13が抽出した音がいずれかの設定音とマッチングするかどうかを、記憶部12に記憶された設定音情報に基づいて判定するものである。具体的に説明すると、判定部14は、抽出部13が抽出した音の波形を特定する。その後、判定部14は、記憶部12に設定音情報として記憶された波形情報を順次読み出し、読み出した波形情報と抽出音の波形情報とを対比し、両者間のマッチング度合いを評価する。そして、判定部14は、評価したマッチング度合いが閾値(予め設定された基準値)を超えているか否かを確認する。確認の結果、上記のマッチング度合いが閾値を超えている場合、判定部14は、抽出音がそのときの設定音とマッチングしていると判定する。
設定部15は、撮像映像Msに対して設定された時間軸において、ある動作の設定音とマッチングする音(抽出音)の発生時点を基準として、ある動作の区切り目を設定するものである。具体的に説明すると、設定部15は、撮像映像Msにおいて作業映像Mtに該当する映像を特定し、特定した当該映像の中で動作A、B、Cの区切り目、具体的には各動作の開始時点及び終了時点を設定する。
次に、映像解析装置1によって実行される映像解析処理の流れについて説明する。なお、映像解析処理では、本発明の映像解析方法が採用されている。つまり、以下に説明する映像解析処理の内容には、本発明の映像解析方法の説明が含まれている。そして、図6に図示した映像解析処理における各ステップは、本発明の映像解析方法を構成するステップに相当する。図6は、映像解析処理の流れを示す図である。
上記の実施形態では、本発明の映像解析装置及び映像解析方法について具体例を挙げて説明した。しかしながら、上記の実施形態は本発明の一例に過ぎず、上記以外の実施形態も考えられる。例えば、上記の実施形態では、ライン生産にて所定の製品を生産するときに行われる加工作業を作業の一例として挙げて説明した。すなわち、上記の実施形態では、上記の加工作業を撮影した撮像映像Msを解析する映像解析装置について説明した。ただし、これに限定されるものではなく、本発明の映像解析装置が解析対象とする作業の映像については、ライン生産における加工作業以外の作業の映像、またはセル生産にて製品を生産するときに行われる各種作業の映像であってもよい。あるいは、製品の生産を伴わない類の作業の映像、例えば、事務作業の映像を解析する際にも本発明の映像解析装置は有効である。また、作業には、業務として行われる作業以外の作業(例えば、スポーツや料理)が含まれ、そのような類の映像を解析する際にも本発明の映像解析装置は有効である。また、作業には、人が介在しない作業(例えば、ロボットや装置のみによって行われる作業)が含まれ、そのような類の映像を解析する際にも本発明の映像解析装置は有効である。
2 撮像装置
3 作業者
4 装置
5 工具
6 製品
11 映像取得部
12 記憶部
13 抽出部
14 判定部
15 設定部
Ma,Mb,Mb 要素映像
Ms 撮像映像
Mt 作業映像
T 期間
Claims (9)
- 複数の動作からなる作業を撮影した際の音入り映像を解析する映像解析装置であって、
前記音入り映像を取得する映像取得部と、
前記動作の区切り目を決めるために前記動作別に設定された設定音に関する設定音情報と、前記動作別に設定された設定画像を示す設定画像データとを記憶している記憶部と、
前記音入り映像から前記作業中に発生する音を抽出すると共に、前記音入り映像からフレーム画像を抽出する抽出部と、
該抽出部が抽出した音が前記動作別の前記設定音のいずれかとマッチングするかどうかを、前記設定音情報に基づいて判定すると共に、前記抽出部が抽出したフレーム画像が前記動作別の前記設定画像のいずれかとマッチングするかどうかを、前記設定画像データに基づいて判定する判定部と、
前記音入り映像に対して設定された時間軸において、ある動作の前記設定音とマッチングする前記音の発生時点を基準として、前記ある動作の前記区切り目を設定すると共に、前記ある動作の前記設定画像とマッチングする前記フレーム画像が映し出される時点を基準として、前記ある動作の前記区切り目を設定する設定部と、を備えており、
前記動作の開始時点及び終了時点が前記区切り目として設定され、
前記記憶部は、
前記動作の前記開始時点及び前記終了時点のうち、一方の時点を決めるために前記動作別に設定された前記設定音に関する前記設定音情報と、
前記動作の前記開始時点及び前記終了時点のうち、他方の時点を決めるために前記動作別に設定された設定画像を示す設定画像データと、を記憶しており、
前記設定部は、前記時間軸において、前記ある動作の前記設定音とマッチングする前記音の発生時点を基準として、前記ある動作における前記一方の時点を設定すると共に、前記時間軸において、前記ある動作の前記設定画像とマッチングする前記フレーム画像が映し出される時点を基準として、前記ある動作における前記他方の時点を設定することを特徴とする映像解析装置。 - 複数の動作からなる作業を撮影した際の音入り映像を解析する映像解析装置であって、
前記音入り映像を取得する映像取得部と、
前記動作の区切り目を決めるために前記動作別に設定された設定音に関する設定音情報を記憶している記憶部と、
前記音入り映像から前記作業中に発生する音を抽出する抽出部と、
該抽出部が抽出した音が前記動作別の前記設定音のいずれかとマッチングするかどうかを、前記設定音情報に基づいて判定する判定部と、
前記音入り映像に対して設定された時間軸において、ある動作の前記設定音とマッチングする前記音の発生時点を基準として、前記ある動作の前記区切り目を設定する設定部と、を備えており、
前記動作別に設定された前記設定音の中には、前記作業を行う作業者が発する音声によって規定された前記設定音と、前記作業に用いられる工具又は装置が発する機械音によって規定された前記設定音とが含まれており、
前記記憶部は、前記作業者が発する音声によって規定された前記設定音に関する前記設定音情報を記憶すると共に、前記工具または装置が発する機械音によって規定された前記設定音に関する前記設定音情報を記憶しており、
前記設定部は、
前記ある動作において前記作業者が前記工具又は装置を用いない場合には、前記音声によって規定された前記設定音によって前記動作の区切り目を決定し、
前記ある動作において前記作業者が前記工具又は装置を用いる場合には、前記音声又は前記機械音によって前記動作の区切り目を決定することを特徴とする映像解析装置。 - 前記抽出部による音の抽出、前記判定部による判定、及び前記設定部による前記区切れ目の設定が、前記作業に含まれる前記動作の数に応じて繰り返し実行されることを特徴とする請求項1又は2に記載の映像解析装置。
- 前記映像取得部は、複数回の前記作業を撮像した際の前記音入り映像を取得し、
複数回の前記作業の各々に対して、前記抽出部による音の抽出、前記判定部による判定、及び前記設定部による前記区切れ目の設定が、各々の前記作業に含まれる前記動作の数に応じて繰り返し実行されることを特徴とする請求項3に記載の映像解析装置。 - 前記動作の開始時点を決めるための前記設定音、及び、前記動作の終了時点を決めるための前記設定音が、それぞれ前記動作別に設定されており、
前記記憶部は、前記開始時点を決めるための前記設定音に関する前記設定音情報、及び、前記終了時点を決めるための前記設定音に関する前記設定音情報を、それぞれ記憶していることを特徴とする請求項1乃至4のいずれか一項に記載の映像解析装置。 - 前記動作別に設定された前記設定音の中には、前記作業を行う作業者が発する音声によって規定された前記設定音が含まれており、
前記記憶部は、前記作業者が発する音声によって規定された前記設定音に関する前記設定音情報を記憶していることを特徴とする請求項1に記載の映像解析装置。 - 前記作業者が発する音声によって規定された前記設定音は、登録された前記作業者の人数分だけ設定されており、
前記記憶部は、前記作業者が発する音声によって規定された前記設定音に関する前記設定音情報を、登録された前記作業者別に記憶していることを特徴とする請求項2又は6に記載の映像解析装置。 - 前記記憶部は、前記設定音情報として、前記設定音の波形に関する情報を記憶していることを特徴とする請求項1乃至7のいずれか一項に記載の映像解析装置。
- 複数の動作からなる作業を撮影した際の音入り映像を解析する映像解析方法であって、
コンピュータが、前記音入り映像を取得するステップと、
コンピュータが、前記音入り映像から前記作業中に発生する音を抽出すると共に、前記音入り映像からフレーム画像を抽出するステップと、
コンピュータが、抽出した音が前記動作の区切り目を決めるために前記動作別に設定された設定音のいずれかとマッチングするかどうかを、記憶部に記憶された前記設定音に関する設定音情報に基づいて判定すると共に、抽出したフレーム画像が前記動作別に設定された設定画像のいずれかとマッチングするかどうかを、記憶部に記憶された前記設定画像を示す設定画像データに基づいて判定するステップと、
コンピュータが、前記音入り映像に対して設定された時間軸において、ある動作の前記設定音とマッチングする前記音の発生時点を基準として、前記ある動作の前記区切り目を設定すると共に、前記ある動作の前記設定画像とマッチングする前記フレーム画像が映し出される時点を基準として、前記ある動作の前記区切り目を設定するステップと、を備えており、
前記動作の開始時点及び終了時点が前記区切り目として設定され、
前記記憶部には、
前記動作の前記開始時点及び前記終了時点のうち、一方の時点を決めるために前記動作別に設定された前記設定音に関する前記設定音情報と、
前記動作の前記開始時点及び前記終了時点のうち、他方の時点を決めるために前記動作別に設定された設定画像を示す設定画像データと、が記憶されており、
前記設定するステップでは、前記時間軸において、前記ある動作の前記設定音とマッチングする前記音の発生時点を基準として、前記ある動作における前記一方の時点を設定すると共に、前記時間軸において、前記ある動作の前記設定画像とマッチングする前記フレーム画像が映し出される時点を基準として、前記ある動作における前記他方の時点を設定することを特徴とする映像解析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015125102A JP6693710B2 (ja) | 2015-06-22 | 2015-06-22 | 映像解析装置及び映像解析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015125102A JP6693710B2 (ja) | 2015-06-22 | 2015-06-22 | 映像解析装置及び映像解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017010276A JP2017010276A (ja) | 2017-01-12 |
JP6693710B2 true JP6693710B2 (ja) | 2020-05-13 |
Family
ID=57761693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015125102A Active JP6693710B2 (ja) | 2015-06-22 | 2015-06-22 | 映像解析装置及び映像解析方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6693710B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019012321A (ja) * | 2017-06-29 | 2019-01-24 | 富士通株式会社 | 情報処理装置、工程時間算出方法および工程時間算出プログラム |
JP7222688B2 (ja) * | 2018-12-14 | 2023-02-15 | エヌ・ティ・ティ・スマートコネクト株式会社 | 情報処理端末、情報処理方法、および情報処理プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001344366A (ja) * | 2000-05-31 | 2001-12-14 | Soatec Inc | 作業データ管理方法 |
JP2002340666A (ja) * | 2001-05-15 | 2002-11-27 | Sumitomo Forestry Co Ltd | 建設作業解析システム |
JP2007243846A (ja) * | 2006-03-10 | 2007-09-20 | Matsushita Electric Ind Co Ltd | 画像抽出分析装置、画像抽出分析システム及び画像抽出分析方法 |
-
2015
- 2015-06-22 JP JP2015125102A patent/JP6693710B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017010276A (ja) | 2017-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021182420A (ja) | アイデンティティ認証方法及び装置 | |
CN108010526B (zh) | 语音处理方法及装置 | |
JP6104227B2 (ja) | 画像識別方法および画像識別装置 | |
WO2019184299A1 (zh) | 基于微表情识别的影视评分方法、存储介质及智能终端 | |
US10146992B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
WO2009089142A2 (en) | Digital camera focusing using stored object recognition | |
CN110659397A (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
JP2009157767A (ja) | 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体 | |
CN112597850B (zh) | 一种身份识别方法及装置 | |
JP2017010210A (ja) | 顔検出装置、顔検出システム、及び顔検出方法 | |
CN111597938A (zh) | 活体检测、模型训练方法及装置 | |
JPWO2009004916A1 (ja) | なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム | |
WO2020034645A1 (zh) | 人脸识别方法、人脸识别系统、及电子设备 | |
WO2020172870A1 (zh) | 一种目标对象的移动轨迹确定方法和装置 | |
JP2016126510A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP6693710B2 (ja) | 映像解析装置及び映像解析方法 | |
CN113627387A (zh) | 基于人脸识别的并行身份认证方法、装置、设备和介质 | |
KR101936947B1 (ko) | 비디오 인식을 위한 영상 세그먼트 프레임별 특징점의 시간 정보 인코딩 방법 | |
CN110213518A (zh) | 虚拟快门图像捕获 | |
US10360221B2 (en) | Method, system, and client for content management | |
CN110866418A (zh) | 图像底库生成方法、装置、设备、系统及存储介质 | |
JP2006133937A (ja) | 動作識別装置 | |
JP2008059108A (ja) | 画像処理装置,画像処理方法、そのプログラムおよび人流監視システム | |
CN113515986A (zh) | 视频处理、数据处理方法及设备 | |
TWI722705B (zh) | 臉部肌肉特徵點自動標記方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190730 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190906 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200416 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6693710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |