JP7100087B2 - 情報を出力する方法および装置 - Google Patents
情報を出力する方法および装置 Download PDFInfo
- Publication number
- JP7100087B2 JP7100087B2 JP2020099160A JP2020099160A JP7100087B2 JP 7100087 B2 JP7100087 B2 JP 7100087B2 JP 2020099160 A JP2020099160 A JP 2020099160A JP 2020099160 A JP2020099160 A JP 2020099160A JP 7100087 B2 JP7100087 B2 JP 7100087B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- sequence
- dictionary
- sample
- entity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Description
Claims (15)
- 情報を出力する方法であって、
認識されるステートメントを取得するステップと、
前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するステップと、および
前記ワードシーケンスを、シーケンスタギングとエンティティワードの予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力するステップであって、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワードの予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワードの予測ネットワークは、エンティティワードの予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワードの予測ネットワークと融合され、前記シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワードの予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含む、ステップと、
ワードシーケンスを前記埋め込み層によってワードベクトルシーケンスに変換するステップと、
前記ワードベクトルシーケンスを前記コンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
前記フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得するステップと、
前記ディクショナリプレゼンテーション層を介して前記フュージョンベクトルシーケンスを前記コンテキストベクトルシーケンスに完全に接続させるステップと、
前記CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
前記ディクショナリ生成層によって前記ディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力するステップと、を含む、
情報を出力する方法。 - 前記マルチタスク要素認識モデルは、
トレーニングサンプルセットを取得するステップであって、前記トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含む、ステップと、および
前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワードの予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するステップとによって、トレーニングされることを特徴とする
請求項1に記載の方法。 - 前記シーケンスタギングネットワークは、BILSTM-CRFネットワークであり、
前記機械学習法でシーケンスタギングタスクとエンティティワードの予測タスクを学習して、前記初期マルチタスク要素認識モデルを取得するステップは、
前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含み、
前記トレーニングステップは、
選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、
前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
ディクショナリ生成層によってディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、エンティティワードの予測結果を取得するステップと、および
前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワードの予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含むことを特徴とする
請求項2に記載の方法。 - 前記トレーニングサンプルセットを取得するステップは、
非構造化/半構造化のドキュメントを取得するステップと、
前記ドキュメントを文分割するステップと、および
それぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするステップとを含むことを特徴とする
請求項2に記載の方法。 - 前記事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップは、
前記サンプルワードシーケンス中の各サンプルワードを、前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得するステップと、
前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを、注意力メカニズムによって前記サンプルワードのディクショナリベクトルに融合するステップと、および
前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するステップとを含むことを特徴とする
請求項3に記載の方法。 - 前記ディクショナリ生成層は、予めトレーニングされた分類モデルであることを特徴とする
請求項3に記載の方法。 - 情報を出力する装置であって、
認識されるステートメントを取得するように構成される取得ユニットと、
前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するように構成されるワードワードカッティングユニットと、
前記ワードシーケンスを、シーケンスタギングとエンティティワードの予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力するように構成される出力ユニットであって、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワードの予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワードの予測ネットワークは、エンティティワードの予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワードの予測ネットワークと融合され、前記シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワードの予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含み、ワードシーケンスを前記埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスを前記コンテキストコーディング層によってコンテキストベクトルシーケンスに変換し、事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換し、前記フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得し、前記ディクショナリプレゼンテーション層を介して前記フュージョンベクトルシーケンスを前記コンテキストベクトルシーケンスに完全に接続させ、前記CRF層によってシーケンスタギングして、シーケンスタギング結果を取得し、前記ディクショナリ生成層によって前記ディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力する、出力ユニットとを含む、
情報を出力する装置。 - 前記装置は、トレーニングユニットをさらに含み、
前記トレーニングユニットは、
トレーニングサンプルセットを取得し、トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含み、および
前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワードの予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するように構成されることを特徴とする
請求項7に記載の装置。 - 前記シーケンスタギングネットワークは、BILSTM-CRFネットワークであり、
前記トレーニングユニットは、
前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含むようにさらに構成され、
前記トレーニングステップは、
選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、
前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
ディクショナリ生成層によってディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、エンティティワードの予測結果を取得するステップと、および
前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワードの予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含むことを特徴とする
請求項8に記載の装置。 - 前記トレーニングユニットは、
非構造化/半構造化のドキュメントを取得し、
前記ドキュメントを文分割し、および
それぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするようにさらに構成されることを特徴とする
請求項8に記載の装置。 - 前記トレーニングユニットは、
前記サンプルワードシーケンス中の各サンプルワードを前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得し、
前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、注意力メカニズムによって前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを前記サンプルワードのディクショナリベクトルに融合し、および
前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するようにさらに構成されることを特徴とする
請求項9に記載の装置。 - 前記ディクショナリ生成層は、予めトレーニングされた分類モデルであることを特徴とする
請求項9に記載の装置。 - 電子機器であって、
1つまたは複数のプロセッサと、および
1つまたは複数のプログラムが記憶されている記憶装置とを含み、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサは請求項1~6のいずれか一項に記載の方法を実施することを特徴とする、電子機器。 - コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
前記プログラムがプロセッサによって実行されると、請求項1~6のいずれか一項に記載の方法が実施される、コンピュータ可読媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1~6のいずれか一項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911378383.5A CN111090987B (zh) | 2019-12-27 | 2019-12-27 | 用于输出信息的方法和装置 |
CN201911378383.5 | 2019-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108096A JP2021108096A (ja) | 2021-07-29 |
JP7100087B2 true JP7100087B2 (ja) | 2022-07-12 |
Family
ID=70397500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020099160A Active JP7100087B2 (ja) | 2019-12-27 | 2020-06-08 | 情報を出力する方法および装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11507748B2 (ja) |
JP (1) | JP7100087B2 (ja) |
CN (1) | CN111090987B (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487942B1 (en) * | 2019-06-11 | 2022-11-01 | Amazon Technologies, Inc. | Service architecture for entity and relationship detection in unstructured text |
US11556579B1 (en) | 2019-12-13 | 2023-01-17 | Amazon Technologies, Inc. | Service architecture for ontology linking of unstructured text |
JP6884436B1 (ja) * | 2020-01-16 | 2021-06-09 | 株式会社テンクー | 文書表示支援システム及び文書表示支援方法並びに該方法を実行するためのプログラム |
CN113761882B (zh) * | 2020-06-08 | 2024-09-20 | 北京沃东天骏信息技术有限公司 | 一种词典构建方法和装置 |
CN112131380A (zh) * | 2020-08-20 | 2020-12-25 | 彭涛 | 用于识别问题类别的方法、装置、电子设备及存储介质 |
CN112214987B (zh) * | 2020-09-08 | 2023-02-03 | 深圳价值在线信息科技股份有限公司 | 一种信息提取方法、提取装置、终端设备及可读存储介质 |
CN112307766B (zh) * | 2020-09-22 | 2024-08-16 | 北京京东世纪贸易有限公司 | 用于识别预设类别实体的方法、装置、电子设备和介质 |
CN112084783B (zh) * | 2020-09-24 | 2022-04-12 | 中国民航大学 | 基于民航不文明旅客的实体识别方法及系统 |
CN113536793A (zh) * | 2020-10-14 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 一种实体识别方法、装置、设备以及存储介质 |
CN112257448A (zh) * | 2020-10-29 | 2021-01-22 | 重庆紫光华山智安科技有限公司 | 一种多任务命名实体识别方法、系统、介质及终端 |
CN112559727B (zh) * | 2020-12-15 | 2024-04-09 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、设备、存储介质和程序 |
CN113268452B (zh) * | 2021-05-25 | 2024-02-02 | 联仁健康医疗大数据科技股份有限公司 | 一种实体抽取的方法、装置、设备和存储介质 |
CN113254656B (zh) * | 2021-07-06 | 2021-10-22 | 北京邮电大学 | 专利文本分类方法、电子设备及计算机存储介质 |
CN113627424B (zh) * | 2021-07-14 | 2023-09-12 | 重庆师范大学 | 一种协同门控循环融合lstm图像标注方法 |
CN113537345B (zh) * | 2021-07-15 | 2023-01-24 | 中国南方电网有限责任公司 | 一种通信网设备数据关联的方法及系统 |
CN113676348B (zh) * | 2021-08-04 | 2023-12-29 | 南京赋乐科技有限公司 | 一种网络通道破解方法、装置、服务器及存储介质 |
CN113743746A (zh) * | 2021-08-17 | 2021-12-03 | 携程旅游网络技术(上海)有限公司 | 模型训练方法、事件分派处理方法、设备及介质 |
CN113392189B (zh) * | 2021-08-17 | 2022-02-08 | 东华理工大学南昌校区 | 基于自动分词的新闻文本处理方法 |
CN113836940B (zh) * | 2021-09-26 | 2024-04-12 | 南方电网数字电网研究院股份有限公司 | 电力计量领域的知识融合方法、装置和计算机设备 |
CN113626564B (zh) * | 2021-10-09 | 2021-12-17 | 腾讯科技(深圳)有限公司 | 一种概念标签生成方法、装置、电子设备和存储介质 |
US20230161962A1 (en) * | 2021-11-23 | 2023-05-25 | Microsoft Technology Licensing, Llc | System for automatically augmenting a message based on context extracted from the message |
CN114281987B (zh) * | 2021-11-26 | 2024-08-30 | 联通沃悦读科技文化有限公司 | 一种用于智能语音助手的对话短文本语句匹配方法 |
CN114139545A (zh) * | 2021-12-07 | 2022-03-04 | 北京金山数字娱乐科技有限公司 | 信息提取方法及装置 |
CN114330345B (zh) * | 2021-12-24 | 2023-01-17 | 北京百度网讯科技有限公司 | 命名实体识别方法、训练方法、装置、电子设备及介质 |
CN114821622B (zh) * | 2022-03-10 | 2023-07-21 | 北京百度网讯科技有限公司 | 文本抽取方法、文本抽取模型训练方法、装置及设备 |
CN114997169B (zh) * | 2022-05-30 | 2023-06-13 | 中电金信软件有限公司 | 一种实体词识别方法、装置、电子设备及可读存储介质 |
CN115081451A (zh) * | 2022-06-30 | 2022-09-20 | 中国电信股份有限公司 | 实体识别方法、装置、电子设备及存储介质 |
CN115204150B (zh) * | 2022-09-06 | 2022-12-09 | 北京国电通网络技术有限公司 | 信息校验方法、装置、电子设备和计算机可读介质 |
CN115374788B (zh) * | 2022-10-26 | 2023-02-07 | 江西农业大学 | 农业病虫害文本命名实体的方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176355A (ja) | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | モデル学習装置、方法及びプログラム |
JP2016126748A (ja) | 2014-12-26 | 2016-07-11 | Kddi株式会社 | ラベル付与装置、方法およびプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10509860B2 (en) * | 2016-02-10 | 2019-12-17 | Weber State University Research Foundation | Electronic message information retrieval system |
US10997223B1 (en) * | 2017-06-28 | 2021-05-04 | Amazon Technologies, Inc. | Subject-specific data set for named entity resolution |
CN109388795B (zh) * | 2017-08-07 | 2022-11-08 | 芋头科技(杭州)有限公司 | 一种命名实体识别方法、语言识别方法及系统 |
CN107977361B (zh) * | 2017-12-06 | 2021-05-18 | 哈尔滨工业大学深圳研究生院 | 基于深度语义信息表示的中文临床医疗实体识别方法 |
US11392828B2 (en) * | 2018-09-24 | 2022-07-19 | Salesforce.Com, Inc. | Case object context embeddings for machine learning training of case context |
CN109657230B (zh) * | 2018-11-06 | 2023-07-28 | 众安信息技术服务有限公司 | 融合词向量和词性向量的命名实体识别方法及装置 |
WO2020172329A1 (en) * | 2019-02-19 | 2020-08-27 | Google Llc | Learning to extract entities from conversations with neural networks |
CN110147551B (zh) * | 2019-05-14 | 2023-07-11 | 腾讯科技(深圳)有限公司 | 多类别实体识别模型训练、实体识别方法、服务器及终端 |
US11354506B2 (en) * | 2019-07-30 | 2022-06-07 | Baidu Usa Llc | Coreference-aware representation learning for neural named entity recognition |
CN111274815B (zh) * | 2020-01-15 | 2024-04-12 | 北京百度网讯科技有限公司 | 用于挖掘文本中的实体关注点的方法和装置 |
-
2019
- 2019-12-27 CN CN201911378383.5A patent/CN111090987B/zh active Active
-
2020
- 2020-06-08 JP JP2020099160A patent/JP7100087B2/ja active Active
- 2020-06-09 US US16/896,465 patent/US11507748B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176355A (ja) | 2014-03-14 | 2015-10-05 | 日本電信電話株式会社 | モデル学習装置、方法及びプログラム |
JP2016126748A (ja) | 2014-12-26 | 2016-07-11 | Kddi株式会社 | ラベル付与装置、方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20210200951A1 (en) | 2021-07-01 |
CN111090987B (zh) | 2021-02-05 |
CN111090987A (zh) | 2020-05-01 |
US11507748B2 (en) | 2022-11-22 |
JP2021108096A (ja) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7100087B2 (ja) | 情報を出力する方法および装置 | |
Schuller et al. | A review on five recent and near-future developments in computational processing of emotion in the human voice | |
US11037657B2 (en) | Personalized questionnaire for health risk assessment | |
US20200279147A1 (en) | Method and apparatus for intelligently recommending object | |
US20200104409A1 (en) | Method and system for extracting information from graphs | |
US11321534B2 (en) | Conversation space artifact generation using natural language processing, machine learning, and ontology-based techniques | |
US11495332B2 (en) | Automated prediction and answering of medical professional questions directed to patient based on EMR | |
US11532387B2 (en) | Identifying information in plain text narratives EMRs | |
CN110517767B (zh) | 辅助诊断方法、装置、电子设备及存储介质 | |
US11880664B2 (en) | Identifying and transforming text difficult to understand by user | |
Kaswan et al. | AI-based natural language processing for the generation of meaningful information electronic health record (EHR) data | |
US11176441B2 (en) | Neural network architecture for performing medical coding | |
CN113657105A (zh) | 基于词汇增强的医学实体抽取方法、装置、设备及介质 | |
CN114708976A (zh) | 辅助诊断技术的方法、装置、设备及存储介质 | |
Gillies et al. | Theme and topic: How qualitative research and topic modeling can be brought together | |
Ahmed et al. | MED-Prompt: A novel prompt engineering framework for medicine prediction on free-text clinical notes | |
US11532174B2 (en) | Product baseline information extraction | |
CN110580294B (zh) | 实体融合方法、装置、设备及存储介质 | |
CN115357710B (zh) | 表格描述文本生成模型的训练方法、装置及电子设备 | |
Qin | Research on the application of intelligent speech recognition technology in medical big data fog computing system | |
Yun et al. | Transforming unstructured voice and text data into insight for paramedic emergency service using recurrent and convolutional neural networks | |
Xia et al. | An online intelligent electronic medical record system via speech recognition | |
CN115862794A (zh) | 病历文本生成方法、装置、计算机设备及存储介质 | |
Kulkarni et al. | Deep Reinforcement-Based Conversational AI Agent in Healthcare System | |
US11989520B2 (en) | System and method for morality assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220630 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7100087 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |