JP6832501B2 - 意味生成方法、意味生成装置及びプログラム - Google Patents
意味生成方法、意味生成装置及びプログラム Download PDFInfo
- Publication number
- JP6832501B2 JP6832501B2 JP2017007869A JP2017007869A JP6832501B2 JP 6832501 B2 JP6832501 B2 JP 6832501B2 JP 2017007869 A JP2017007869 A JP 2017007869A JP 2017007869 A JP2017007869 A JP 2017007869A JP 6832501 B2 JP6832501 B2 JP 6832501B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- model
- meaning
- paraphrase
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
非特許文献1には、単語列とラベル(意味情報)のセットからなる訓練文書を基に、ニューラルネットワークモデルを用いて学習することで、ラベルに対する語句の重要度を抽出し、極性(正・負)などのラベルを予測する技術が記載されている。この技術では、ニューラルネットの中でも、単語列などの時系列データの処理に適したLSTM(Long short−term memory)と呼ばれるリカレントニューラルネットワークの亜種が用いられている。これにより、この技術は、任意長かつ長い単語列に対しても適用可能である。
まず、本実施の形態に係る意味生成装置100の構成を説明する。図1は、本実施の形態の意味生成装置100の構成を示すブロック図である。
101、103、105 記憶部
102、104 処理部
111 意味訓練データ取得部
112 換言訓練データ取得部
113 学習部
114 意味学習部
115 換言学習部
116 発話文取得部
117 形態素解析部
118 意味生成部
121 意味訓練コーパス
122 換言訓練コーパス
123 学習結果情報
124 発話文テーブル
125、125A 意味情報テーブル
131 意味訓練データ
132 意味情報
133 文章ID
134 文章
141 換言訓練データ
142 換言文
151、152、153 ニューラルネットワークモデル
161 発話文データ
162 発話ID
163 発話文
171 意味情報データ
172 事後確率
400 携帯端末
401 マイク
402 信号処理部
403、501 通信部
404 応答実行部
500 サーバ
502 音声処理部
503 解析部
504 応答生成部
Claims (9)
- 発話文の意味を生成する意味生成装置における意味生成方法であって、
前記発話文となりうる第1の文章のテキストデータと、前記第1の文章の意味を示す意味情報とを対応付けた第1の意味訓練データを取得し、
前記第1の文章のテキストデータと、前記第1の文章の換言文である第2の文章のテキストデータとを対応付けた第1の換言訓練データを取得し、
前記第1の意味訓練データ及び前記第1の換言訓練データを共通のモデルに適用することにより、前記発話文に含まれる単語の重要度を含む、前記発話文と前記意味情報及び前記換言文との対応付けを学習し、
前記学習した結果を学習結果情報として記憶し、
前記共通のモデルは、第1のモデルと、前記第1のモデルに隠れ層を介して結合され、前記第1のモデルの内部情報の一部を用いる第2のモデルとを含み、
前記第1のモデル及び前記第2のモデルの内部情報は、前記重要度に対応する共通の学習パラメータを含み、
前記学習では、前記意味情報を教師データとして前記第1の意味訓練データを前記第1のモデルに適用し、かつ、前記第2の文章を教師データとして前記第1の換言訓練データを第2のモデルに適用して、前記第1のモデル及び前記第2のモデルの前記内部情報を更新することで、前記発話文と前記意味情報及び前記換言文との対応付けを学習する
意味生成方法。 - 前記意味生成方法は、さらに、
ユーザにより発話された第3の文章のテキストデータを取得し、
前記学習結果情報に基づき、前記第3の文章に対応する意味情報を生成する
請求項1記載の意味生成方法。 - 前記第1の意味訓練データは、2以上の意味訓練データを集積した第1のコーパスから取得される
請求項1又は2記載の意味生成方法。 - 前記第1の換言訓練データは、2以上の換言訓練データを集積した第2のコーパスから取得される
請求項1〜3のいずれか1項に記載の意味生成方法。 - 前記モデルはニューラルネットワークモデルである
請求項1〜4のいずれか1項に記載の意味生成方法。 - 前記学習は、前記第1の文章に対応付けられた前記意味情報及び前記第2の文章と、前記モデルを用いて算出された前記第1の文章に対する前記意味情報及び前記第2の文章の事後確率との間で誤差逆伝搬学習を行うことにより実行される
請求項5記載の意味生成方法。 - 前記モデルはニューラルネットワークモデルであり、
前記内部情報は、前記ニューラルネットワークモデルにおける各層間の重みである
請求項1記載の意味生成方法。 - 発話文の意味を生成する意味生成装置であって、
前記発話文となりうる第1の文章のテキストデータと、前記第1の文章の意味を示す意味情報とを対応付けた第1の意味訓練データを取得する意味訓練データ取得部と、
前記第1の文章のテキストデータと、前記第1の文章の換言文である第2の文章のテキストデータとを対応付けた第1の換言訓練データを取得する換言訓練データ取得部と、
前記第1の意味訓練データ及び前記第1の換言訓練データを共通のモデルに適用することにより、前記発話文に含まれる単語の重要度を含む、前記発話文と前記意味情報及び前記換言文との対応付けを学習する学習部と、
前記学習した結果を学習結果情報として記憶する記憶部とを備え、
前記共通のモデルは、第1のモデルと、前記第1のモデルに隠れ層を介して結合され、前記第1のモデルの内部情報の一部を用いる第2のモデルとを含み、
前記第1のモデル及び前記第2のモデルの内部情報は、前記重要度に対応する共通の学習パラメータを含み、
前記学習部は、前記意味情報を教師データとして前記第1の意味訓練データを前記第1のモデルに適用し、かつ、前記第2の文章を教師データとして前記第1の換言訓練データを第2のモデルに適用して、前記第1のモデル及び前記第2のモデルの前記内部情報を更新することで、前記発話文と前記意味情報及び前記換言文との対応付けを学習する
意味生成装置。 - 請求項1記載の意味生成方法をコンピュータに実行させる
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710328057.8A CN107526720A (zh) | 2016-06-17 | 2017-05-11 | 意思生成方法、意思生成装置以及程序 |
EP17173957.6A EP3258390A1 (en) | 2016-06-17 | 2017-06-01 | Meaning generation method, meaning generation apparatus, and storage medium |
US15/618,383 US10319368B2 (en) | 2016-06-17 | 2017-06-09 | Meaning generation method, meaning generation apparatus, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016120983 | 2016-06-17 | ||
JP2016120983 | 2016-06-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017228272A JP2017228272A (ja) | 2017-12-28 |
JP6832501B2 true JP6832501B2 (ja) | 2021-02-24 |
Family
ID=60889308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017007869A Active JP6832501B2 (ja) | 2016-06-17 | 2017-01-19 | 意味生成方法、意味生成装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6832501B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6612716B2 (ja) * | 2016-11-16 | 2019-11-27 | 株式会社東芝 | パターン識別装置、パターン識別方法およびプログラム |
JP7224618B2 (ja) * | 2018-09-03 | 2023-02-20 | 孝文 栢 | 行動推奨装置及び行動推奨システム |
JP7099254B2 (ja) * | 2018-10-31 | 2022-07-12 | 富士通株式会社 | 学習方法、学習プログラム及び学習装置 |
CN111199157B (zh) * | 2018-11-19 | 2023-04-18 | 阿里巴巴集团控股有限公司 | 一种文本数据处理方法及其装置 |
CN109684640B (zh) * | 2018-12-26 | 2023-05-30 | 科大讯飞股份有限公司 | 一种语义提取方法及装置 |
CN110795945B (zh) * | 2019-10-30 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 一种语义理解模型训练方法、语义理解方法、装置及存储介质 |
CN113160854B (zh) * | 2020-01-22 | 2024-10-18 | 阿里巴巴集团控股有限公司 | 语音交互系统、相关方法、装置及设备 |
CN113590768B (zh) * | 2020-04-30 | 2023-10-27 | 北京金山数字娱乐科技有限公司 | 一种文本关联度模型的训练方法及装置、问答方法及装置 |
CN113449927B (zh) * | 2021-07-13 | 2022-09-30 | 广东电网有限责任公司 | 基于自然语言故障抢修的评价方法、设备及存储介质 |
CN115048944B (zh) * | 2022-08-16 | 2022-12-20 | 之江实验室 | 一种基于主题增强的开放域对话回复方法及系统 |
-
2017
- 2017-01-19 JP JP2017007869A patent/JP6832501B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017228272A (ja) | 2017-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6832501B2 (ja) | 意味生成方法、意味生成装置及びプログラム | |
US10319368B2 (en) | Meaning generation method, meaning generation apparatus, and storage medium | |
US10460721B2 (en) | Dialogue act estimation method, dialogue act estimation apparatus, and storage medium | |
US10621975B2 (en) | Machine training for native language and fluency identification | |
US11580145B1 (en) | Query rephrasing using encoder neural network and decoder neural network | |
KR102462426B1 (ko) | 발화의 의미를 분석하기 위한 전자 장치 및 그의 동작 방법 | |
JP7268711B2 (ja) | 信号処理システム、信号処理装置、信号処理方法、およびプログラム | |
JP5932869B2 (ja) | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム | |
JP2015075706A (ja) | 誤り修正モデル学習装置、及びプログラム | |
WO2008001486A1 (fr) | Dispositif et programme de traitement vocal, et procédé de traitement vocal | |
KR101627428B1 (ko) | 딥 러닝을 이용하는 구문 분석 모델 구축 방법 및 이를 수행하는 장치 | |
US11157707B2 (en) | Natural language response improvement in machine assisted agents | |
US20180277145A1 (en) | Information processing apparatus for executing emotion recognition | |
US20210406483A1 (en) | Device, method and program for natural language processing | |
Dubey et al. | Deep speech based end-to-end automated speech recognition (asr) for indian-english accents | |
WO2018109806A1 (ja) | モデル学習装置及びモデル学習方法 | |
JP6910002B2 (ja) | 対話行為推定方法、対話行為推定装置及びプログラム | |
JP6605997B2 (ja) | 学習装置、学習方法及びプログラム | |
Baranwal et al. | Improved Mispronunciation detection system using a hybrid CTC-ATT based approach for L2 English speakers | |
JP2008293098A (ja) | 応答スコア情報生成装置、対話処理装置 | |
JP2013109738A (ja) | 意味ラベル付与モデル学習装置、意味ラベル付与装置、意味ラベル付与モデル学習方法、及びプログラム | |
KR20200072005A (ko) | 음성 인식된 문장의 보정 방법 | |
US20180033425A1 (en) | Evaluation device and evaluation method | |
KR102606415B1 (ko) | 딥러닝 기반 음성인식을 이용한 문맥 의도 인식 장치 및 방법 | |
JP7411149B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191030 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210113 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6832501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |