JP6671020B2 - 対話行為推定方法、対話行為推定装置及びプログラム - Google Patents
対話行為推定方法、対話行為推定装置及びプログラム Download PDFInfo
- Publication number
- JP6671020B2 JP6671020B2 JP2016124900A JP2016124900A JP6671020B2 JP 6671020 B2 JP6671020 B2 JP 6671020B2 JP 2016124900 A JP2016124900 A JP 2016124900A JP 2016124900 A JP2016124900 A JP 2016124900A JP 6671020 B2 JP6671020 B2 JP 6671020B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- speaker
- dialogue
- dialogue act
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
Description
特許文献1では、音声認識結果と中間言語データとの対である学習データに基づいて、識別誤りが最小となるように、中間言語として対話行為と概念の組み合わせを識別する際に、理解率が低いことを問題としている。この問題の解決策として、概念推定用及び発話行為推定用有限状態オートマトンによる推定と、複数の概念及び概念の組み合わせのバイグラムモデルを用いたリランキングとを用いて、音声認識結果を、発話行為、概念又は概念の組み合わせの系列に変換している。
まず、本実施の形態に係る対話行為推定装置100の構成を説明する。図1は、本実施の形態に係る対話行為推定装置100の構成を示すブロック図である。
101、103、105 記憶部
102、104 処理部
111 訓練データ取得部
112 学習部
113 対話データ取得部
114 対話行為推定部
131、161 形態素解析部
132、162 単語特徴抽出部
133、163 文脈依存抽出部
134、164 シーン依存抽出部
135、165 対話行為予測部
136 重み更新部
166 推定部
121 訓練コーパス
122 学習結果情報
123 対話データ
124 推定結果
141 訓練データ
142 訓練情報
143 対話ID
144、172 時刻情報
145 対話行為情報
146、173 話者識別情報
147、174 話者交代情報
148 文章
151、152、153、154 モデル
171 対話情報
175 発話文
181 推定結果情報
182 予測対話行為
400 携帯端末
401 マイク
402 信号処理部
403、501 通信部
404 応答実行部
500 サーバ
502 音声処理部
503 対話管理部
504 応答生成部
Claims (8)
- 発話文が分類される対話行為を推定する対話行為推定装置における対話行為推定方法であって、
前記対話行為学習装置が備えるプロセッサに、
現在の発話文となりうる第1の文章のテキストデータと、前記第1の文章の直前の発話文となりうる第2の文章のテキストデータと、前記第1の文章の話者が前記第2の文章の話者と同一であるか否かを示す第1の話者交代情報と、前記第1の文章の分類を示す対話行為情報とを対応付けた第1の訓練データを取得させ、
前記第1の訓練データを所定のモデルに適用することにより、前記現在の発話文と前記対話行為情報との対応付けを学習させ、
前記学習した結果を学習結果情報として記憶装置に記憶させる
対話行為推定方法。 - 前記第1の訓練データは、さらに、前記第1の文章の話者を示す第1の話者識別情報と、前記第2の文章の話者を示す第2の話者識別情報とを含む
請求項1記載の対話行為推定方法。 - 前記モデルは、
前記第1の文章のテキストデータと、前記第2の文章のテキストデータと、前記第1の話者識別情報と、前記第2の話者識別情報と、第1の重みパラメータとに基づき、第1の特徴ベクトルを出力する第1のモデルと、
前記第1の文章のテキストデータと、前記第2の文章のテキストデータと、前記第1の話者交代情報と、第2の重みパラメータとに基づき、第2の特徴ベクトルを出力する第2のモデルと、
前記第1の特徴ベクトルと、前記第2の特徴ベクトルと、第3の重みパラメータとに基づき、前記第1の文章に対応する対話行為の事後確率を出力する第3のモデルとを含み、
前記学習は、前記事後確率と、前記第1の訓練データで示される前記対話行為情報との間で誤差逆伝搬学習を行うことにより実行される
請求項2記載の対話行為推定方法。 - 前記第1のモデルは、前記第1の話者識別情報及び前記第2の話者識別情報に依存した前記第1の重みパラメータを持つ第1のRNN−LSTM(Recurrent Neural Network−Long Short Term Memory)に従って、前記第1の文章と前記第2の文章とから前記第1の特徴ベクトルを求め、
前記第2のモデルは、前記第1の話者交代情報に依存した前記第2の重みパラメータを持つ第2のRNN−LSTMに従って、前記第1の文章と前記第2の文章とから前記第2の特徴ベクトルを求める
請求項3記載の対話行為推定方法。 - 前記第1の訓練データは、2以上の訓練データを集積したコーパスから取得される
請求項1〜4のいずれか1項に記載の対話行為推定方法。 - 前記対話行為推定方法は、さらに、前記プロセッサに、
ユーザにより発話された、現在の発話文である第3の文章のテキストデータと、前記第3の文章の直前の発話文である第4の文章のテキストデータと、前記第3の文章の話者が前記第4の文章の話者と同一であるか否かを示す第2の話者交代情報とを含む対話データを取得させ、
前記学習結果情報に基づき、前記対話データを前記モデルに適用することにより、前記第3の文章が分類される対話行為を推定させる
請求項1〜5のいずれか1項に記載の対話行為推定方法。 - 発話文が分類される対話行為を推定する対話行為推定装置であって、
現在の発話文となりうる第1の文章のテキストデータと、前記第1の文章の直前の発話文となりうる第2の文章のテキストデータと、前記第1の文章の話者が前記第2の文章の話者と同一であるか否かを示す第1の話者交代情報と、前記第1の文章の分類を示す対話行為情報とを対応付けた第1の訓練データを取得する訓練データ取得部と、
前記第1の訓練データを所定のモデルに適用することにより、前記現在の発話文と前記対話行為情報との対応付けを学習する学習部と、
前記学習した結果を学習結果情報として記憶する記憶部とを備える
対話行為推定装置。 - 請求項1記載の対話行為推定方法をコンピュータに実行させる
プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124900A JP6671020B2 (ja) | 2016-06-23 | 2016-06-23 | 対話行為推定方法、対話行為推定装置及びプログラム |
CN201710275956.6A CN107545897A (zh) | 2016-06-23 | 2017-04-25 | 对话行为推定方法、对话行为推定装置以及程序 |
US15/615,856 US10460721B2 (en) | 2016-06-23 | 2017-06-07 | Dialogue act estimation method, dialogue act estimation apparatus, and storage medium |
EP17176522.5A EP3260996A1 (en) | 2016-06-23 | 2017-06-19 | Dialogue act estimation method, dialogue act estimation apparatus, and storage medium |
JP2020022292A JP6910002B2 (ja) | 2016-06-23 | 2020-02-13 | 対話行為推定方法、対話行為推定装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124900A JP6671020B2 (ja) | 2016-06-23 | 2016-06-23 | 対話行為推定方法、対話行為推定装置及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020022292A Division JP6910002B2 (ja) | 2016-06-23 | 2020-02-13 | 対話行為推定方法、対話行為推定装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017228160A JP2017228160A (ja) | 2017-12-28 |
JP6671020B2 true JP6671020B2 (ja) | 2020-03-25 |
Family
ID=59101286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016124900A Active JP6671020B2 (ja) | 2016-06-23 | 2016-06-23 | 対話行為推定方法、対話行為推定装置及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10460721B2 (ja) |
EP (1) | EP3260996A1 (ja) |
JP (1) | JP6671020B2 (ja) |
CN (1) | CN107545897A (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9978374B2 (en) * | 2015-09-04 | 2018-05-22 | Google Llc | Neural networks for speaker verification |
US10229111B1 (en) * | 2016-02-03 | 2019-03-12 | Google Llc | Sentence compression using recurrent neural networks |
CN107704482A (zh) * | 2016-08-09 | 2018-02-16 | 松下知识产权经营株式会社 | 方法、装置以及程序 |
US11081104B1 (en) * | 2017-06-27 | 2021-08-03 | Amazon Technologies, Inc. | Contextual natural language processing |
JP2019057123A (ja) * | 2017-09-21 | 2019-04-11 | 株式会社東芝 | 対話システム、方法、及びプログラム |
US10565981B2 (en) * | 2017-09-26 | 2020-02-18 | Microsoft Technology Licensing, Llc | Computer-assisted conversation using addressible conversation segments |
CN107957989B9 (zh) * | 2017-10-23 | 2021-01-12 | 创新先进技术有限公司 | 基于集群的词向量处理方法、装置以及设备 |
GB2568233A (en) * | 2017-10-27 | 2019-05-15 | Babylon Partners Ltd | A computer implemented determination method and system |
CN108170663A (zh) | 2017-11-14 | 2018-06-15 | 阿里巴巴集团控股有限公司 | 基于集群的词向量处理方法、装置以及设备 |
CN107832439B (zh) * | 2017-11-16 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 多轮状态追踪的方法、系统及终端设备 |
JP2019106054A (ja) * | 2017-12-13 | 2019-06-27 | 株式会社東芝 | 対話システム |
CN108090218B (zh) * | 2017-12-29 | 2022-08-23 | 北京百度网讯科技有限公司 | 基于深度强化学习的对话系统生成方法和装置 |
CN108389576B (zh) * | 2018-01-10 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 压缩后的语音识别模型的优化方法及系统 |
US10621990B2 (en) * | 2018-04-30 | 2020-04-14 | International Business Machines Corporation | Cognitive print speaker modeler |
US10210860B1 (en) * | 2018-07-27 | 2019-02-19 | Deepgram, Inc. | Augmented generalized deep learning with special vocabulary |
JP7125630B2 (ja) * | 2018-08-15 | 2022-08-25 | 日本電信電話株式会社 | 要点抽出装置、要点抽出方法、及びプログラム |
US10853577B2 (en) * | 2018-09-21 | 2020-12-01 | Salesforce.Com, Inc. | Response recommendation system |
JP6988756B2 (ja) * | 2018-09-26 | 2022-01-05 | 日本電信電話株式会社 | タグ推定装置、タグ推定方法、プログラム |
US10957320B2 (en) * | 2019-01-25 | 2021-03-23 | International Business Machines Corporation | End-of-turn detection in spoken dialogues |
CN110188190B (zh) * | 2019-04-03 | 2023-07-14 | 创新先进技术有限公司 | 对话解析方法、装置、服务器及可读存储介质 |
JP7180513B2 (ja) * | 2019-04-10 | 2022-11-30 | 日本電信電話株式会社 | 対話行為推定装置、対話行為推定方法、対話行為推定モデル学習装置及びプログラム |
CN110399456B (zh) * | 2019-06-06 | 2023-01-06 | 深思考人工智能机器人科技(北京)有限公司 | 一种问题对话补全的方法及装置 |
US11043218B1 (en) * | 2019-06-26 | 2021-06-22 | Amazon Technologies, Inc. | Wakeword and acoustic event detection |
US11132990B1 (en) * | 2019-06-26 | 2021-09-28 | Amazon Technologies, Inc. | Wakeword and acoustic event detection |
JP7192995B2 (ja) * | 2019-08-08 | 2022-12-20 | 日本電信電話株式会社 | 判定装置、学習装置、判定方法及び判定プログラム |
CN111046157B (zh) * | 2019-12-10 | 2021-12-07 | 北京航空航天大学 | 一种基于平衡分布的通用英文人机对话生成方法和系统 |
CN111159401A (zh) * | 2019-12-20 | 2020-05-15 | 中国建设银行股份有限公司 | 基于短会的关联信息提方法、装置、电子设备及存储介质 |
EP4130904A1 (en) * | 2020-03-25 | 2023-02-08 | Sony Group Corporation | Information processing device, program, and method |
CN113449087B (zh) * | 2020-03-25 | 2024-03-08 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、设备及计算机可读存储介质 |
CN111400489B (zh) * | 2020-04-08 | 2022-12-02 | 科大讯飞股份有限公司 | 对话文本摘要生成方法、装置、电子设备和存储介质 |
CN111950275B (zh) * | 2020-08-06 | 2023-01-17 | 平安科技(深圳)有限公司 | 基于循环神经网络的情绪识别方法、装置及存储介质 |
JP7000547B1 (ja) * | 2020-12-22 | 2022-01-19 | 株式会社オプティム | プログラム、方法、情報処理装置、システム |
CN112700277A (zh) * | 2020-12-30 | 2021-04-23 | 北京爱笔科技有限公司 | 用户行为数据的处理方法和多行为序列转化模型训练方法 |
CN112989822B (zh) * | 2021-04-16 | 2021-08-27 | 北京世纪好未来教育科技有限公司 | 识别对话中句子类别的方法、装置、电子设备和存储介质 |
CN114020897A (zh) * | 2021-12-31 | 2022-02-08 | 苏州浪潮智能科技有限公司 | 一种对话情感识别方法及相关装置 |
CN114420169B (zh) * | 2022-03-31 | 2022-06-21 | 北京沃丰时代数据科技有限公司 | 情绪识别方法、装置及机器人 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0769709B2 (ja) * | 1993-01-08 | 1995-07-31 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 対話音声認識装置 |
JP3059413B2 (ja) | 1998-03-16 | 2000-07-04 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 自然言語理解装置及び自然言語理解システム |
JP3016779B1 (ja) | 1999-03-08 | 2000-03-06 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音声理解装置及び音声理解システム |
JP4369132B2 (ja) * | 2001-05-10 | 2009-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 話者音声のバックグランド学習 |
US8990126B1 (en) * | 2006-08-03 | 2015-03-24 | At&T Intellectual Property Ii, L.P. | Copying human interactions through learning and discovery |
WO2010084881A1 (ja) * | 2009-01-20 | 2010-07-29 | 旭化成株式会社 | 音声対話装置、対話制御方法及び対話制御プログラム |
JP5562219B2 (ja) * | 2010-12-06 | 2014-07-30 | 日本電信電話株式会社 | 要約装置、要約作成方法及びプログラム |
JP5506738B2 (ja) * | 2011-05-30 | 2014-05-28 | 日本電信電話株式会社 | 怒り感情推定装置、怒り感情推定方法およびそのプログラム |
JP5591772B2 (ja) | 2011-08-25 | 2014-09-17 | 日本電信電話株式会社 | 文脈依存性推定装置、発話クラスタリング装置、方法、及びプログラム |
KR101709187B1 (ko) * | 2012-11-14 | 2017-02-23 | 한국전자통신연구원 | 계층적 대화 태스크 라이브러리를 이용한 이중 대화관리 기반 음성대화시스템 |
JP5728527B2 (ja) * | 2013-05-13 | 2015-06-03 | 日本電信電話株式会社 | 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム |
US9232063B2 (en) * | 2013-10-31 | 2016-01-05 | Verint Systems Inc. | Call flow and discourse analysis |
US9721562B2 (en) * | 2013-12-17 | 2017-08-01 | Google Inc. | Generating representations of acoustic sequences |
KR20150084520A (ko) * | 2014-01-14 | 2015-07-22 | 삼성전자주식회사 | 디스플레이 장치, 대화형 서버 및 응답 정보 제공 방법 |
JP5911911B2 (ja) * | 2014-05-26 | 2016-04-27 | 日本電信電話株式会社 | 結束性判定装置、モデル学習装置、方法、及びプログラム |
CN104217226B (zh) * | 2014-09-09 | 2017-07-11 | 天津大学 | 基于深度神经网络与条件随机场的对话行为识别方法 |
KR102305584B1 (ko) * | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
CN105488662B (zh) * | 2016-01-07 | 2021-09-03 | 北京华品博睿网络技术有限公司 | 一种基于双向推荐的在线招聘系统 |
-
2016
- 2016-06-23 JP JP2016124900A patent/JP6671020B2/ja active Active
-
2017
- 2017-04-25 CN CN201710275956.6A patent/CN107545897A/zh active Pending
- 2017-06-07 US US15/615,856 patent/US10460721B2/en active Active
- 2017-06-19 EP EP17176522.5A patent/EP3260996A1/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
JP2017228160A (ja) | 2017-12-28 |
EP3260996A1 (en) | 2017-12-27 |
US10460721B2 (en) | 2019-10-29 |
CN107545897A (zh) | 2018-01-05 |
US20170372694A1 (en) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6671020B2 (ja) | 対話行為推定方法、対話行為推定装置及びプログラム | |
US10417329B2 (en) | Dialogue act estimation with learning model | |
US11189302B2 (en) | Speech emotion detection method and apparatus, computer device, and storage medium | |
US8069043B2 (en) | System and method for using meta-data dependent language modeling for automatic speech recognition | |
JP6823809B2 (ja) | 対話行為推定方法、対話行為推定装置およびプログラム | |
JP6832501B2 (ja) | 意味生成方法、意味生成装置及びプログラム | |
Xia et al. | DBN-ivector Framework for Acoustic Emotion Recognition. | |
CN113314119B (zh) | 语音识别智能家居控制方法及装置 | |
JP6910002B2 (ja) | 対話行為推定方法、対話行為推定装置及びプログラム | |
JP7329393B2 (ja) | 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム | |
CN106710588B (zh) | 语音数据句类识别方法和装置及系统 | |
Liu et al. | Learning salient features for speech emotion recognition using CNN | |
JP6646337B2 (ja) | 音声データ処理装置、音声データ処理方法および音声データ処理プログラム | |
US20220122584A1 (en) | Paralinguistic information estimation model learning apparatus, paralinguistic information estimation apparatus, and program | |
CN114155883B (zh) | 基于进阶式的语音深度神经网络训练方法、装置 | |
JP5860439B2 (ja) | 言語モデル作成装置とその方法、そのプログラムと記録媒体 | |
JP7013332B2 (ja) | 学習装置、学習方法および学習プログラム | |
JP7013329B2 (ja) | 学習装置、学習方法および学習プログラム | |
JP7044642B2 (ja) | 評価装置、評価方法および評価プログラム | |
Gokul et al. | Personality Identification Using Auditory Nerve Modelling of Human Speech | |
JP7013331B2 (ja) | 抽出装置、抽出方法および抽出プログラム | |
WO2020196021A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP7042701B2 (ja) | 評価装置、評価方法および評価プログラム | |
Salaja et al. | Automatic speech recognition using artificial life | |
Samanta et al. | An energy-efficient voice activity detector using reconfigurable Gaussian base normalization deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200213 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6671020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |