JP6909832B2 - オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 - Google Patents
オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 Download PDFInfo
- Publication number
- JP6909832B2 JP6909832B2 JP2019149241A JP2019149241A JP6909832B2 JP 6909832 B2 JP6909832 B2 JP 6909832B2 JP 2019149241 A JP2019149241 A JP 2019149241A JP 2019149241 A JP2019149241 A JP 2019149241A JP 6909832 B2 JP6909832 B2 JP 6909832B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- important
- important phrase
- text
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000012549 training Methods 0.000 claims description 230
- 238000007781 pre-processing Methods 0.000 claims description 19
- 238000005516 engineering process Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000003058 natural language processing Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 206010013883 Dwarfism Diseases 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Description
Claims (30)
- 第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するステップと、
第2のトレーニングテキストにおける、主人公、所定のシーン、時間又はそれらの組み合わせを含む重要語句を標識する第2のトレーニングデータを取得するステップと、
前記第1のトレーニングデータと前記第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するステップと、をコンピュータが行うことを含む、
ことを特徴とする重要語句認識モデルをトレーニングするための方法。 - 前記第1のトレーニングデータを取得するステップは、
前記第1のトレーニングテキストを取得するステップと、
前記第1のトレーニングテキストを前処理することにより前記第1のトレーニングデータを生成するステップと、を含む、
ことを特徴とする請求項1に記載の重要語句認識モデルをトレーニングするための方法。 - 前記第1のトレーニングテキストを取得するステップは、
前記重要語句認識モデルをトレーニングするための第1のオーディオサンプルを取得するステップと、
音声認識技術で前記第1のオーディオサンプルを前記第1のトレーニングテキストに変換するステップと、を含む、
ことを特徴とする請求項2に記載の重要語句認識モデルをトレーニングするための方法。 - 前記第1のトレーニングテキストを前処理するステップは、
前記第1のトレーニングテキストを少なくとも一つの文に分割するステップと、
自然言語処理技術で前記少なくとも一つの文における前記単語の前記特徴情報を決定するステップと、を含む、
ことを特徴とする請求項2に記載の重要語句認識モデルをトレーニングするための方法。 - 前記特徴情報は、前記単語のテキストと、品詞と、意味と、文法情報とのうち少なくとも一つを含む、
ことを特徴とする請求項4に記載の重要語句認識モデルをトレーニングするための方法。 - 前記第2のトレーニングデータを取得するステップは、
前記第2のトレーニングテキストを取得するステップと、
前記第2のトレーニングテキストを前処理することにより、前記第2のトレーニングデータを生成するステップと、を含む、
ことを特徴とする請求項1に記載の重要語句認識モデルをトレーニングするための方法。 - 前記第2のトレーニングテキストを取得するステップは、
前記重要語句認識モデルをトレーニングするための第2のオーディオサンプルを取得するステップと、
音声認識技術で前記第2のオーディオサンプルを前記第2のトレーニングテキストに変換するステップと、を含む、
ことを特徴とする請求項6に記載の重要語句認識モデルをトレーニングするための方法。 - 前記第2のトレーニングテキストを前処理するステップは、
前記第2のトレーニングテキストを少なくとも一つの文に分割するステップと、
複数のタグで前記少なくとも一つの文における前記重要語句を標識するステップと、を含む、
ことを特徴とする請求項6に記載の重要語句認識モデルをトレーニングするための方法。 - 複数のタグで前記少なくとも一つの文における前記重要語句を標識するステップは、
第1のタグで前記重要語句の先頭文字を標識するステップと、
第2のタグで前記重要語句における前記先頭文字に続く後続文字を標識するステップと、
第3のタグで前記少なくとも一つの文における前記重要語句に属しない文字を標識するステップと、を含む、
ことを特徴とする請求項8に記載の重要語句認識モデルをトレーニングするための方法。 - 認識すべきオーディオデータを取得するステップと、
トレーニングされた重要語句認識モデルにより前記オーディオデータにおける重要語句を認識するステップと、をコンピュータが行うことを含み、
前記重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、
前記第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、
前記第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識し、
前記重要語句は、主人公、所定のシーン、時間又はそれらの組み合わせを含む、
ことを特徴とするオーディオにおける重要語句を認識するための方法。 - 前記オーディオデータにおける重要語句を認識するステップは、
音声認識技術で前記オーディオデータを前記オーディオデータに対応したテキストに変換するステップと、
前記テキストを少なくとも一つの文に分割するステップと、
前記重要語句認識モデルで前記少なくとも一つの文における文字に対応する対応タグを決定するステップと、
前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するステップと、を含む、
ことを特徴とする請求項10に記載のオーディオにおける重要語句を認識するための方法。 - 前記対応タグは、
前記文字が前記重要語句の先頭文字であることを示す第1のタグと、
前記文字が前記重要語句における前記先頭文字に続く後続文字であることを示す第2のタグと、
前記文字が前記重要語句に属しないことを示す第3のタグと、のうち一つを含む、
ことを特徴とする請求項11に記載のオーディオにおける重要語句を認識するための方法。 - 前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するステップは、
前記第1のタグで標識された前記先頭文字と前記第2のタグで標識された前記後続文字との集合を前記重要語句として認識するステップを含む、
ことを特徴とする請求項12に記載のオーディオにおける重要語句を認識するための方法。 - 第1のトレーニングテキストにおける単語の特徴情報を標識する第1のトレーニングデータを取得するように構成される第1の取得モジュールと、
第2のトレーニングテキストにおける、主人公、所定のシーン、時間又はそれらの組み合わせを含む重要語句を標識する第2のトレーニングデータを取得するように構成される第2の取得モジュールと、
前記第1のトレーニングデータと前記第2のトレーニングデータとに基づいて重要語句認識モデルをトレーニングすることにより、オーディオデータにおける重要語句を認識するように構成されるモデルトレーニングモジュールと、を含む、
ことを特徴とする重要語句認識モデルをトレーニングするための装置。 - 前記第1の取得モジュールは、
前記第1のトレーニングテキストを取得するように構成される第1の取得ユニットと、
前記第1のトレーニングテキストを前処理することにより前記第1のトレーニングデータを生成する第1の前処理ユニットと、を含む、
ことを特徴とする請求項14に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第1の取得ユニットは、さらに、
前記重要語句認識モデルをトレーニングするための第1のオーディオサンプルを取得し、
音声認識技術で前記第1のオーディオサンプルを前記第1のトレーニングテキストに変換するように構成される、
ことを特徴とする請求項15に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第1の前処理ユニットは、さらに、
前記第1のトレーニングテキストを少なくとも一つの文に分割し、
自然言語処理技術で前記少なくとも一つの文における前記単語の前記特徴情報を決定するように構成される、
ことを特徴とする請求項15に記載の重要語句認識モデルをトレーニングするための装置。 - 前記特徴情報は、前記単語のテキストと、品詞と、意味と、文法情報とのうち少なくとも一つを含む、
ことを特徴とする請求項17に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第2の取得モジュールは、
前記第2のトレーニングテキストを取得するように構成される第2の取得ユニットと、
前記第2のトレーニングテキストを前処理することにより、前記第2のトレーニングデータを生成するように構成される第2の前処理ユニットと、を含む、
ことを特徴とする請求項14に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第2の取得ユニットは、さらに、
前記重要語句認識モデルをトレーニングするための第2のオーディオサンプルを取得し、
音声認識技術で前記第2のオーディオサンプルを前記第2のトレーニングテキストに変換するように構成される、
ことを特徴とする請求項19に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第2の前処理ユニットは、さらに、
前記第2のトレーニングテキストを少なくとも一つの文に分割し、
複数のタグで前記少なくとも一つの文における前記重要語句を標識するように構成される、
ことを特徴とする請求項19に記載の重要語句認識モデルをトレーニングするための装置。 - 前記第2の前処理ユニットは、さらに、
第1のタグで前記重要語句の先頭文字を標識し、
第2のタグで前記重要語句における前記先頭文字に続く後続文字を標識し、
第3のタグで前記少なくとも一つの文における前記重要語句に属しない文字を標識するように構成される、
ことを特徴とする請求項21に記載の重要語句認識モデルをトレーニングするための装置。 - 認識すべきオーディオデータを取得するように構成されるオーディオ取得モジュールと、
トレーニングされた重要語句認識モデルにより前記オーディオデータにおける重要語句を認識するように構成される認識モジュールと、を含み、
前記重要語句認識モデルは、第1のトレーニングデータと第2のトレーニングデータとに基づいてトレーニングされ、
前記第1のトレーニングデータは、第1のトレーニングテキストにおける単語の特徴情報を標識し、
前記第2のトレーニングデータは、第2のトレーニングテキストにおける重要語句を標識し、
前記重要語句は、主人公、所定のシーン、時間又はそれらの組み合わせを含む、
ことを特徴とするオーディオにおける重要語句を認識するための装置。 - 前記認識モジュールは、
音声認識技術で前記オーディオデータを前記オーディオデータに対応したテキストに変換するように構成されるデータ変換ユニットと、
前記テキストを少なくとも一つの文に分割するように構成されるテキスト分割ユニットと、
前記重要語句認識モデルで前記少なくとも一つの文における文字に対応する対応タグを決定するように構成されるタグ決定ユニットと、
前記対応タグに基づいて前記オーディオデータにおける重要語句を認識するように構成される認識ユニットと、を含む、
ことを特徴とする請求項23に記載のオーディオにおける重要語句を認識するための装置。 - 前記対応タグは、
前記文字が前記重要語句の先頭文字であることを示す第1のタグと、
前記文字が前記重要語句における前記先頭文字に続く後続文字であることを示す第2のタグと、
前記文字が前記重要語句に属しないことを示す第3のタグと、のうち一つを含む、
ことを特徴とする請求項24に記載のオーディオにおける重要語句を認識するための装置。 - 前記認識ユニットは、さらに、
前記第1のタグで標識された前記先頭文字と前記第2のタグで標識された前記後続文字との集合を前記重要語句として認識するように構成される、
ことを特徴とする請求項25に記載のオーディオにおける重要語句を認識するための装置。 - 一つ又は複数のプロセッサと、
一つ又は複数のプログラムを記憶するための記憶装置と、を含み、
前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが請求項1〜9のいずれかに記載の方法を実現する、
ことを特徴とする電子機器。 - 一つ又は複数のプロセッサと、
一つ又は複数のプログラムを記憶するための記憶装置と、を含み、
前記一つ又は複数のプログラムが前記一つ又は複数のプロセッサによって実行される場合に、前記一つ又は複数のプロセッサが請求項10〜13のいずれかに記載の方法を実現する、
ことを特徴とする電子機器。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1〜9のいずれかに記載の方法が実現される、
ことを特徴とするコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行される場合に、請求項10〜13のいずれかに記載の方法が実現される、
ことを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810949733.8 | 2018-08-20 | ||
CN201810949733.8A CN109241330A (zh) | 2018-08-20 | 2018-08-20 | 用于识别音频中的关键短语的方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030408A JP2020030408A (ja) | 2020-02-27 |
JP6909832B2 true JP6909832B2 (ja) | 2021-07-28 |
Family
ID=65070939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019149241A Active JP6909832B2 (ja) | 2018-08-20 | 2019-08-16 | オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11308937B2 (ja) |
EP (1) | EP3614378A1 (ja) |
JP (1) | JP6909832B2 (ja) |
KR (1) | KR102316063B1 (ja) |
CN (1) | CN109241330A (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190103111A1 (en) * | 2017-10-03 | 2019-04-04 | Rupert Labs Inc. ( DBA Passage AI) | Natural Language Processing Systems and Methods |
CN109885832A (zh) * | 2019-02-14 | 2019-06-14 | 平安科技(深圳)有限公司 | 模型训练、语句处理方法、装置、计算机设备及存储介质 |
CN110245334B (zh) * | 2019-06-25 | 2023-06-16 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
CN111524503B (zh) * | 2020-04-15 | 2023-01-17 | 上海明略人工智能(集团)有限公司 | 音频数据的处理方法、装置、音频识别设备和存储介质 |
CN111739537B (zh) * | 2020-06-08 | 2023-01-24 | 北京灵蚌科技有限公司 | 语义识别方法、装置、存储介质及处理器 |
CN111950291B (zh) * | 2020-06-22 | 2024-02-23 | 北京百度网讯科技有限公司 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
CN112101020B (zh) * | 2020-08-27 | 2023-08-04 | 北京百度网讯科技有限公司 | 训练关键短语标识模型的方法、装置、设备和存储介质 |
CN112634892B (zh) * | 2020-12-17 | 2023-11-24 | 北京大米科技有限公司 | 一种语音处理方法、装置、可读存储介质和电子设备 |
CN112822506A (zh) * | 2021-01-22 | 2021-05-18 | 百度在线网络技术(北京)有限公司 | 用于分析视频流的方法和装置 |
CN113221555B (zh) * | 2021-05-07 | 2023-11-14 | 支付宝(杭州)信息技术有限公司 | 一种基于多任务模型的关键词识别方法、装置及设备 |
CN113742411B (zh) * | 2021-09-06 | 2024-05-31 | 科大讯飞股份有限公司 | 一种信息获取方法、装置、系统和计算机可读存储介质 |
CN114492419B (zh) * | 2022-04-01 | 2022-08-23 | 杭州费尔斯通科技有限公司 | 基于标注中新增关键词语的文本标注方法、系统及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004361873A (ja) | 2003-06-09 | 2004-12-24 | Tsuyoshi Yamamoto | 音声認識システムとそのプログラム |
JP3899414B2 (ja) | 2004-03-31 | 2007-03-28 | 独立行政法人情報通信研究機構 | 教師データ作成装置およびプログラム、ならびに言語解析処理装置およびプログラム |
US8145482B2 (en) * | 2008-05-25 | 2012-03-27 | Ezra Daya | Enhancing analysis of test key phrases from acoustic sources with key phrase training models |
JP2016061954A (ja) | 2014-09-18 | 2016-04-25 | 株式会社東芝 | 対話装置、方法およびプログラム |
CN106815194A (zh) * | 2015-11-27 | 2017-06-09 | 北京国双科技有限公司 | 模型训练方法及装置和关键词识别方法及装置 |
CN106095749A (zh) * | 2016-06-03 | 2016-11-09 | 杭州量知数据科技有限公司 | 一种基于深度学习的文本关键词提取方法 |
CN107818077A (zh) * | 2016-09-13 | 2018-03-20 | 北京金山云网络技术有限公司 | 一种敏感内容识别方法及装置 |
US10565982B2 (en) * | 2017-11-09 | 2020-02-18 | International Business Machines Corporation | Training data optimization in a service computing system for voice enablement of applications |
CN107797992A (zh) * | 2017-11-10 | 2018-03-13 | 北京百分点信息科技有限公司 | 命名实体识别方法及装置 |
CN108133045B (zh) * | 2018-01-12 | 2020-07-24 | 广州杰赛科技股份有限公司 | 关键词提取方法与系统、关键词提取模型生成方法与系统 |
-
2018
- 2018-08-20 CN CN201810949733.8A patent/CN109241330A/zh active Pending
-
2019
- 2019-08-02 US US16/530,853 patent/US11308937B2/en active Active
- 2019-08-16 JP JP2019149241A patent/JP6909832B2/ja active Active
- 2019-08-16 EP EP19192012.3A patent/EP3614378A1/en not_active Ceased
- 2019-08-20 KR KR1020190101833A patent/KR102316063B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US11308937B2 (en) | 2022-04-19 |
JP2020030408A (ja) | 2020-02-27 |
KR102316063B1 (ko) | 2021-10-22 |
US20200058291A1 (en) | 2020-02-20 |
KR20200021429A (ko) | 2020-02-28 |
CN109241330A (zh) | 2019-01-18 |
EP3614378A1 (en) | 2020-02-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6909832B2 (ja) | オーディオにおける重要語句を認識するための方法、装置、機器及び媒体 | |
CN111046656B (zh) | 文本处理方法、装置、电子设备及可读存储介质 | |
US9330084B1 (en) | Automatically generating question-answer pairs during content ingestion by a question answering computing system | |
JP5901001B1 (ja) | 音響言語モデルトレーニングのための方法およびデバイス | |
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
JP2016536652A (ja) | モバイル機器におけるリアルタイム音声評価システム及び方法 | |
CN107861948B (zh) | 一种标签提取方法、装置、设备和介质 | |
CN111597800B (zh) | 同义句的获取方法及装置、设备及存储介质 | |
US10740570B2 (en) | Contextual analogy representation | |
CN112016271A (zh) | 语言风格转换模型的训练方法、文本处理方法以及装置 | |
CN112185361B (zh) | 一种语音识别模型训练方法、装置、电子设备及存储介质 | |
CN111144102A (zh) | 用于识别语句中实体的方法、装置和电子设备 | |
CN114218945A (zh) | 实体识别方法、装置、服务器及存储介质 | |
CN113761923A (zh) | 命名实体识别方法、装置、电子设备及存储介质 | |
CN117275466A (zh) | 一种业务意图识别方法、装置、设备及其存储介质 | |
CN115115432B (zh) | 基于人工智能的产品信息推荐方法及装置 | |
WO2019148797A1 (zh) | 自然语言处理方法、装置、计算机设备和存储介质 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN115858776A (zh) | 一种变体文本分类识别方法、系统、存储介质和电子设备 | |
CN110276001B (zh) | 盘点页识别方法、装置、计算设备和介质 | |
CN114239601A (zh) | 语句的处理方法、装置及电子设备 | |
US11423228B2 (en) | Weakly supervised semantic entity recognition using general and target domain knowledge | |
CN111401034B (zh) | 文本的语义分析方法、语义分析装置及终端 | |
US10325025B2 (en) | Contextual analogy representation | |
JP6145011B2 (ja) | 文正規化システム、文正規化方法及び文正規化プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6909832 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |