JP6945767B2 - 受話者推定装置、受話者推定方法、及び受話者推定プログラム - Google Patents
受話者推定装置、受話者推定方法、及び受話者推定プログラム Download PDFInfo
- Publication number
- JP6945767B2 JP6945767B2 JP2021521651A JP2021521651A JP6945767B2 JP 6945767 B2 JP6945767 B2 JP 6945767B2 JP 2021521651 A JP2021521651 A JP 2021521651A JP 2021521651 A JP2021521651 A JP 2021521651A JP 6945767 B2 JP6945767 B2 JP 6945767B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- feature amount
- receiver
- constraint
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000000605 extraction Methods 0.000 claims description 62
- 230000002093 peripheral effect Effects 0.000 claims description 27
- 238000001228 spectrum Methods 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 239000000284 extract Substances 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000012706 support-vector machine Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000013179 statistical model Methods 0.000 description 9
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
- Image Analysis (AREA)
Description
《1−1》構成
図1は、実施の形態1に係る受話者推定システムの構成を概略的に示す図である。受話者推定システムは、状態取得部20と、機器30と、入力部40と、受話者推定装置100と、出力部50とを有する。入力部40及び出力部50は、受話者推定装置100の一部であってもよい。入力部40は、信号を受信する入力装置として入力インタフェースである。出力部50は、信号を出力する出力装置として出力インタフェースである。
次に、実施の形態1に係る受話者推定装置100の動作を説明する。図8は、受話者推定装置100の動作を示すフローチャートである。
ステップS10において、入力部40は、機器情報B0及び領域状態情報A0を受信する。すなわち、入力部40は、対象機器情報B1及び周辺機器情報B2の少なくとも1つと、音声情報A1及び映像情報A2の少なくとも1つを受信する。
ステップS20において、制約状態情報取得部110は、機器情報B0、領域状態情報A0、及び制約基準データC1に基づいて制約状態情報D2を取得(すなわち、生成)する。
ステップS30において、特徴量抽出部120は、領域状態情報A0から特徴量を抽出することによって特徴量情報D1を生成する。すなわち、特徴量抽出部120は、音声情報A1及び映像情報A2の少なくとも1つから特徴量を抽出することによって特徴量情報D1を生成する。
ステップS40において、特徴量加工部130は、制約状態情報D2及び制約基準データC1を用いて、特徴量情報D1から加工特徴量情報D3を生成する。
ステップS50において、受話者推定部140は、推定基準データC2を参照して、加工特徴量情報D3から受話者を推定し、推定の結果を示す推定結果情報D4を出力する。つまり、受話者推定部140は、受話者の推定の対象となる発話に伴う音声特徴量又は画像特徴量を少なくとも1つを含む加工特徴量情報D3を受け取り、加工特徴量情報D3と推定基準データC2とに基づいて、受話者を推定する。ただし、受話者推定部140は、推定基準データC2を用いないで、加工特徴量情報D3から受話者を推定してもよい。
ステップS60において、出力部50は、推定結果情報D4に基づく出力情報D5を出力する。出力部50は、推定結果情報D4に基づく文字列情報、数値情報、受話者を示す画像、などを出力情報D5として出力する。また、出力部50は、参加者の各々が受話者である確率を示す数値情報を出力情報D5として出力してもよい。
以上に説明したように、実施の形態1に係る受話者推定装置100、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて生成された加工特徴量情報D3を用いて受話者が推定されるので、受話者の推定の精度を向上させることができる。例えば、図10又は図11に示されるように、制約状態情報D2に応じて受話者の推定に用いられる加工特徴量情報D3を設定するので、受話者の推定の精度を向上させることができる。
《2−1》構成
図12は、実施の形態2に係る受話者推定装置200の構成を概略的に示す機能ブロック図である。受話者推定装置200は、実施の形態2に係る受話者推定方法を実施することができる装置である。図12において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態2に係る受話者推定装置200は、特徴量抽出部120が、特徴量としての要件を示すデータである特徴量基準データC3を予め記憶する第3の記憶部170から特徴量基準データC3を取得し、取得された特徴量基準データC3によって示される特徴量としての要件を満たす特徴量を領域状態情報A0から抽出することによって特徴量情報D1を生成する点において、実施の形態1に係る受話者推定装置100と相違する。他の点に関して、実施の形態2に係る受話者推定装置200は、実施の形態1に係る受話者推定装置100と同じである。
次に、実施の形態2の受話者推定装置の動作を説明する。図13は、受話者推定装置200の動作を示すフローチャートである。図13において、図8に示される処理ステップと同一又は対応する処理ステップには、図8に示される符号と同じ符号が付される。
ステップS21において、制約状態情報取得部110は、特徴量基準データC3を、制約状態情報D2を参照して更新する。
ステップS30において、特徴量抽出部120は、音声情報A1又は映像情報A2のいずれか1つを受け取り、特徴量基準データC3を参照して、特徴量を抽出することによって特徴量情報D1を生成する。
ステップS41において、推定基準データC2は、制約状態情報D2を参照し、受話者の推定に用いる基準データを更新する。
以上に説明したように、実施の形態2に係る受話者推定装置200、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて生成された加工特徴量情報D3を用いて受話者が推定されるので、受話者の推定の精度を向上させることができる。
《3−1》構成
図14は、実施の形態3に係る受話者推定装置300の構成を概略的に示す機能ブロック図である。受話者推定装置300は、実施の形態3に係る受話者推定方法を実施することができる装置である。図14において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態3に係る受話者推定装置300は、機器情報B0に基づいて対象機器31が表示画面を有するか否かを示す画面有無情報F1を取得する画面有無情報取得部180をさらに有し、特徴量加工部130が制約状態情報D2、制約基準データC1、及び画面有無情報F1に基づいて加工特徴量情報D3を生成する点において、実施の形態1に係る受話者推定装置100と相違する。他の点に関して、実施の形態3に係る受話者推定装置300は、実施の形態1に係る受話者推定装置100と同じである。
次に、実施の形態3に係る受話者推定装置300の動作を説明する。図15は、受話者推定装置300の動作を示すフローチャートである。図15において、図8に示される処理ステップと同一又は対応する処理ステップには、図8に示される符号と同じ符号が付される。
ステップS11において、画面有無情報取得部180は、対象機器情報B1を参照して、画面有無情報F1を取得する。
ステップS40において、特徴量加工部130は、制約状態情報D2、画面有無情報F1、及び制約基準データC1を用いて、特徴量情報D1から加工特徴量情報D3を生成する。
以上に説明したように、実施の形態3に係る受話者推定装置300、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて生成された加工特徴量情報D3を用いて受話者が推定されるので、受話者の推定の精度を向上させることができる。
《4−1》構成
図16は、実施の形態4に係る受話者推定装置400の構成を概略的に示す機能ブロック図である。受話者推定装置400は、実施の形態4に係る受話者推定方法を実施することができる装置である。図16において、図2に示される構成要素と同一又は対応する構成要素には、図2に示される符号と同じ符号が付される。実施の形態4に係る受話者推定装置400は、参加者の互いの関係を示す情報である参加者情報G1を受け取り、参加者情報G1に基づいて参加者の互いの親密度を示す親密度情報G2を生成する親密度取得部190をさらに有し、特徴量加工部130は、制約状態情報D2、制約基準データC1、及び親密度情報G2に基づいて加工特徴量情報D3を生成する点において、実施の形態1に係る受話者推定装置100と相違する。他の点に関して、実施の形態4に係る受話者推定装置400は、実施の形態1に係る受話者推定装置100と同じである。
次に、実施の形態4に係る受話者推定装置400の動作を説明する。図18は、受話者推定装置400の動作を示すフローチャートである。図18において、図8に示される処理ステップと同一又は対応する処理ステップには、図8に示される符号と同じ符号が付される。
ステップS31において、親密度取得部190は、参加者情報G1に基づいて親密度情報G2を取得(すなわち、生成)する。
ステップS32において、推定基準データC2は、親密度情報G2に基づいて、受話者の推定に用いる基準データ情報が更新される。
ステップS40において、特徴量加工部130は、制約状態情報D2と、親密度情報G2と、制約基準データC1とを参照し、特徴量情報D1を選択及び加工し、加工特徴量情報D3として出力する。
以上に説明したように、実施の形態4に係る受話者推定装置400又は500、受話者推定方法、及び受話者推定プログラムを用いれば、会話時における参加者の制約状態を考慮に入れて生成された加工特徴量情報D3を用いて受話者が推定されるので、受話者の推定の精度を向上させることができる。
上記実施の形態では、第1の記憶部150、第2の記憶部160、及び第3の記憶部170が受話者推定装置の一部として示されているが、これらは、受話者推定装置に接続された外部の記憶装置又は受話者推定装置に備えられた通信装置によって通信可能なネットワーク上のサーバに備えられた記憶装置であってもよい。
Claims (17)
- 発話者が発する音声の受話者を推定する受話者推定装置であって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成する特徴量抽出部と、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得する制約状態情報取得部と、
前記制約状態情報及び前記制約基準データに基づいて前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成する特徴量加工部と、
前記加工特徴量情報に基づいて前記受話者を推定する受話者推定部と、
を有することを特徴とする受話者推定装置。 - 前記状態取得部は、前記領域内における音声を取得することによって音声情報を生成する音声取得部と、前記領域内の映像を撮影することによって映像情報を生成する映像取得部とを有し、
前記領域状態情報は、前記音声情報及び前記映像情報のうちの少なくとも1つを含む
ことを特徴とする請求項1に記載の受話者推定装置。 - 前記音声情報は、前記音声の音圧を示す情報、前記音声の基本周波数成分を示す情報、及び前記音声のスペクトルのうちの少なくとも1つを含むことを特徴とする請求項2に記載の受話者推定装置。
- 前記映像情報は、前記参加者の座席の位置を示す情報、前記参加者の顔向きを示す情報、前記参加者の視線方向を示す情報、及び前記参加者の口の開口度を示す情報のうちの少なくとも1つを含むことを特徴とする請求項2又は3に記載の受話者推定装置。
- 前記機器は、前記対象機器の他に、前記参加者によって操作される周辺機器を含むことを特徴とする請求項1から4のいずれか1項に記載の受話者推定装置。
- 前記機器状態情報は、前記周辺機器の状態及び前記周辺機器に対して実行された操作のうちの少なくとも1つを含むことを特徴とする請求項5に記載の受話者推定装置。
- 前記加工特徴量情報は、前記特徴量抽出部によって生成された前記特徴量情報から選択された前記1つ以上の特徴量を含む情報であることを特徴とする請求項1から6のいずれか1項に記載の受話者推定装置。
- 前記加工特徴量情報は、前記特徴量抽出部によって生成された前記特徴量情報から選択された前記1つ以上の特徴量と、前記1つ以上の特徴量の各々の重みとを含む情報であることを特徴とする請求項1から6のいずれか1項に記載の受話者推定装置。
- 前記受話者推定部は、
前記参加者のいずれか1人が発話するときの前記参加者が存在する領域内の状態を示す推定基準データを予め記憶している第2の記憶部から前記推定基準データを取得し、
前記推定基準データと前記加工特徴量情報とに基づいて前記受話者を推定する
ことを特徴とする請求項1から8のいずれか1項に記載の受話者推定装置。 - 前記受話者推定部は、前記対象機器及び前記参加者のうちの前記発話者以外の人の中から、前記受話者を推定することを特徴とする請求項1から9のいずれか1項に記載の受話者推定装置。
- 前記特徴量抽出部は、
前記特徴量としての要件を示すデータである特徴量基準データを予め記憶する第3の記憶部から前記特徴量基準データを取得し、
前記特徴量基準データによって示される前記特徴量としての前記要件を満たす特徴量を前記領域状態情報から抽出することによって前記特徴量情報を生成する
ことを特徴とする請求項1から10のいずれか1項に記載の受話者推定装置。 - 前記特徴量基準データは、前記制約状態情報に基づいて更新されることを特徴とする請求項11に記載の受話者推定装置。
- 前記機器状態情報に基づいて前記対象機器が表示画面を有するか否かを示す画面有無情報を取得する画面有無情報取得部をさらに有し、
前記特徴量加工部は、前記制約状態情報、前記制約基準データ、及び前記画面有無情報に基づいて前記加工特徴量情報を生成する
ことを特徴とする請求項1から12のいずれか1項に記載の受話者推定装置。 - 前記参加者の互いの関係を示す情報である参加者情報を受け取り、前記参加者情報に基づいて前記参加者の互いの親密度を示す親密度情報を取得する親密度取得部をさらに有し、
前記特徴量加工部は、前記制約状態情報、前記制約基準データ、及び前記親密度情報に基づいて前記加工特徴量情報を生成する
ことを特徴とする請求項1から13のいずれか1項に記載の受話者推定装置。 - 前記参加者の互いに関係を示す情報である参加者情報を受け取り、前記参加者情報に基づいて前記参加者の互いの親密度を示す親密度情報を取得する親密度取得部をさらに有し、
前記推定基準データは、前記親密度情報に基づいて更新される
ことを特徴とする請求項9に記載の受話者推定装置。 - 発話者が発する音声の受話者を推定する受話者推定装置が実施する受話者推定方法であって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成するステップと、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得するステップと、
前記制約状態情報及び前記制約基準データに基づいて前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成するステップと、
前記加工特徴量情報に基づいて前記受話者を推定するステップと、
を有することを特徴とする受話者推定方法。 - 発話者が発する音声の受話者を推定する処理をコンピュータに実行させる受話者推定プログラムであって、
状態取得部によって取得された、前記発話者を含む1人以上の参加者が存在する領域内の状態を示す領域状態情報から前記領域内の状態についての特徴量を抽出することによって、特徴量情報を生成する処理と、
音声による操作を受け付ける対象機器を含む機器の状態を示す機器状態情報を取得し、前記領域内において前記参加者の行動を制約する状態を示すデータである制約基準データを予め記憶する第1の記憶部から前記制約基準データを取得し、前記領域状態情報、前記機器状態情報、及び前記制約基準データに基づいて、前記参加者の行動を制約している状態を示す制約状態情報を取得する処理と、
前記制約状態情報及び前記制約基準データに基づいて前記特徴量情報から前記受話者の推定に用いられる1つ以上の特徴量を選択し、前記1つ以上の特徴量に基づく加工特徴量情報を生成する処理と、
前記加工特徴量情報に基づいて前記受話者を推定する処理と、
を前記コンピュータに実行させることを特徴とする受話者推定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/021287 WO2020240730A1 (ja) | 2019-05-29 | 2019-05-29 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020240730A1 JPWO2020240730A1 (ja) | 2021-09-30 |
JP6945767B2 true JP6945767B2 (ja) | 2021-10-06 |
Family
ID=73552773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521651A Active JP6945767B2 (ja) | 2019-05-29 | 2019-05-29 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6945767B2 (ja) |
WO (1) | WO2020240730A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7309095B2 (ja) * | 2021-05-20 | 2023-07-14 | 三菱電機株式会社 | 受話者推定装置、受話者推定方法、及び受話者推定プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006079427A (ja) * | 2004-09-10 | 2006-03-23 | Toshiba Tec Corp | 携帯情報機器 |
JP4804801B2 (ja) * | 2005-06-03 | 2011-11-02 | 日本電信電話株式会社 | 会話構造推定方法、プログラム、および記録媒体 |
JP2007272534A (ja) * | 2006-03-31 | 2007-10-18 | Advanced Telecommunication Research Institute International | 省略語補完装置、省略語補完方法、及びプログラム |
JP5235722B2 (ja) * | 2009-03-02 | 2013-07-10 | 日本電信電話株式会社 | 発話向き推定装置、方法及びプログラム |
CN104539873B (zh) * | 2015-01-09 | 2017-09-29 | 京东方科技集团股份有限公司 | 远程会议系统和进行远程会议的方法 |
WO2019097674A1 (ja) * | 2017-11-17 | 2019-05-23 | 日産自動車株式会社 | 車両用操作支援装置 |
JP2020080503A (ja) * | 2018-11-14 | 2020-05-28 | 本田技研工業株式会社 | エージェント装置、エージェント提示方法、およびプログラム |
JP2020095121A (ja) * | 2018-12-11 | 2020-06-18 | パナソニックIpマネジメント株式会社 | 音声認識システム、学習済みモデルの生成方法、音声認識システムの制御方法、プログラム、及び移動体 |
-
2019
- 2019-05-29 WO PCT/JP2019/021287 patent/WO2020240730A1/ja active Application Filing
- 2019-05-29 JP JP2021521651A patent/JP6945767B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2020240730A1 (ja) | 2020-12-03 |
JPWO2020240730A1 (ja) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6869339B2 (ja) | 音声認識のためのシステム及び方法 | |
US10943400B2 (en) | Multimodal user interface for a vehicle | |
US20180204572A1 (en) | Dialog device and dialog method | |
US10872603B2 (en) | Dialog device and dialog method | |
US10929652B2 (en) | Information providing device and information providing method | |
US20190279629A1 (en) | Speech system | |
JP2019164345A (ja) | サウンドデータを処理するシステム、ユーザ端末及びシステムの制御方法 | |
JP6713490B2 (ja) | 情報提供装置及び情報提供方法 | |
US11995536B2 (en) | Learning device, estimating device, estimating system, learning method, estimating method, and storage medium to estimate a state of vehicle-occupant with respect to vehicle equipment | |
JP2020109578A (ja) | 情報処理装置及びプログラム | |
KR20190056720A (ko) | 뉴럴 네트워크 학습 방법 및 디바이스 | |
CN107825429A (zh) | 对话装置和方法 | |
JP6552548B2 (ja) | 地点提案装置及び地点提案方法 | |
JP6945767B2 (ja) | 受話者推定装置、受話者推定方法、及び受話者推定プログラム | |
JP2020068973A (ja) | 感情推定統合装置、感情推定統合方法およびプログラム | |
JP2019101472A (ja) | 感情推定装置 | |
CN112988990A (zh) | 信息提供装置、信息提供方法及存储介质 | |
JP7309095B2 (ja) | 受話者推定装置、受話者推定方法、及び受話者推定プログラム | |
JP2019053785A (ja) | サービス提供装置 | |
US20220227375A1 (en) | Information processing device, information processing method, computer readable medium, and map storage device | |
JP2016095705A (ja) | 不明事項解消処理システム | |
CN114296680B (zh) | 基于面部图像识别的虚拟试驾装置、方法和存储介质 | |
WO2023210171A1 (ja) | 音声対話装置及び音声対話方法 | |
JP2023162857A (ja) | 音声対話装置及び音声対話方法 | |
JP2021108072A (ja) | レコメンドシステム、レコメンド方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6945767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |