JP2017509963A - 文書のベクトル表現の生成 - Google Patents
文書のベクトル表現の生成 Download PDFInfo
- Publication number
- JP2017509963A JP2017509963A JP2016549301A JP2016549301A JP2017509963A JP 2017509963 A JP2017509963 A JP 2017509963A JP 2016549301 A JP2016549301 A JP 2016549301A JP 2016549301 A JP2016549301 A JP 2016549301A JP 2017509963 A JP2017509963 A JP 2017509963A
- Authority
- JP
- Japan
- Prior art keywords
- word
- document
- sequence
- vector representation
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000012549 training Methods 0.000 claims description 55
- 238000011478 gradient descent method Methods 0.000 claims description 14
- 230000008878 coupling Effects 0.000 claims description 6
- 238000010168 coupling process Methods 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 abstract description 15
- 230000008569 process Effects 0.000 description 26
- 238000012545 processing Methods 0.000 description 11
- 230000026676 system process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
102 入力文書
104 文書ID
106 ワードシーケンス
110 ニューラルネットワークシステム
112 埋め込み層
114 結合層
116 分類層
120 文書表現
122 ワード表現
124 結合表現
126 ワードスコア
Claims (20)
- 新規文書を取得するステップであって、前記新規文書は、複数のワードのシーケンスと、ワードのシーケンスごとに、前記新規文書の前記ワードのシーケンスの最終ワードの次に続くワードとを含む、ステップと、
トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のためのベクトル表現を決定するステップと
を含み、
前記トレーニングされたニューラルネットワークシステムは、入力文書と、前記入力文書からのワードのシーケンスとを受信し、かつ、あらかじめ定められたワードのセットのワードごとに、それぞれのワードスコアを生成するようにトレーニングされ、
前記それぞれのワードスコアの各々は、対応するワードが、前記入力文書の前記シーケンスの最終ワードの次に続くことの予測尤度を表し、
前記トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のための前記ベクトル表現を決定するステップは、前記トレーニングされたニューラルネットワークシステムに前記複数のワードのシーケンスをそれぞれ反復して提供して、勾配降下法を使用して前記新規文書のための前記ベクトル表現を決定するステップを含む、方法。 - 前記トレーニングされたニューラルネットワークシステムは、
前記入力文書と、前記入力文書からの前記ワードのシーケンスの各ワードとをそれぞれのベクトル表現にマッピングするように構成された埋め込み層と、
前記ベクトル表現を結合表現に結合するように構成された結合層と、
前記結合表現を使用して、前記ワードスコアを生成するように構成された分類層と
を含む、請求項1に記載の方法。 - 前記埋め込み層は、第1のパラメータのセットにしたがって、前記ワードのシーケンスの前記ワードをベクトル表現にマッピングし、かつ、
前記分類層は、第2のパラメータのセットにしたがって、前記結合表現から前記ワードスコアを生成する、請求項2に記載の方法。 - 前記第1のパラメータのセットの値と、前記第2のパラメータのセットの値とは、前記ワードスコアを生成するために、前記ニューラルネットワークシステムをトレーニングすることから定められる、請求項3に記載の方法。
- 前記トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のための前記ベクトル表現を決定するステップは、勾配降下法の以前の反復から前記新規文書の前記ベクトル表現を調整するように、前記複数のワードのシーケンスごとに勾配降下法のそれぞれの反復を実行するステップを含む、請求項2に記載の方法。
- 前記複数のワードのシーケンスごとに勾配降下法の前記それぞれの反復を実行するステップは、
前記埋め込み層を使用して、前記シーケンスの前記ワードのそれぞれをベクトル表現にマッピングするステップと、
結合表現を生成するため、前記シーケンスの前記ワードのための前記ベクトル表現と、前記以前の反復からの前記新規文書のための前記ベクトル表現とを結合するステップと、
前記結合表現からワードスコアを生成するステップと、
前記ワードスコアと、前記新規文書の前記シーケンスの次に続く前記ワードとを使用して、勾配を計算するステップと、
前記勾配を使用して、前記以前の反復から前記新規文書のための前記ベクトル表現を調整するステップと
を含む、請求項5に記載の方法。 - 前記結合層は、前記シーケンスの前記ワードの前記ベクトル表現と、前記入力文書の前記ベクトル表現とを連結するように構成された、請求項2に記載の方法。
- 前記結合層は、前記シーケンスの前記ワードの前記ベクトル表現と、前記入力文書の前記ベクトル表現とを平均するように構成された、請求項2に記載の方法。
- 前記複数のワードのシーケンスのそれぞれは固定された数のワードを含む、請求項1に記載の方法。
- 複数のトレーニング文書を取得するステップであって、前記複数のトレーニング文書の各文書は、複数のワードのトレーニングシーケンスと、ワードのシーケンスごとに、前記トレーニング文書の前記ワードのトレーニングシーケンスの最終ワードの次に続くワードとを含む、ステップと、
勾配降下法と逆伝搬法とを使用して、前記トレーニング文書のそれぞれに対し、ニューラルネットワークシステムをトレーニングするステップであって、前記ニューラルネットワークシステムは、入力文書を識別するデータと、前記入力文書からのワードの入力シーケンスとを受信し、かつ、あらかじめ定められたワードのセットのワードごとに、それぞれのワードスコアを生成するように構成された、ステップと
を含み、
前記それぞれのワードスコアの各々は、対応するワードが、前記入力文書の前記ワードのシーケンスの最終ワードの次に続くことの予測尤度を表し、かつ、
前記トレーニング文書のそれぞれに対し前記ニューラルネットワークシステムをトレーニングするステップは、各トレーニング文書について、前記トレーニング文書のワードのシーケンスごとに勾配降下法のそれぞれの反復を実行するステップを含む、方法。 - 前記ニューラルネットワークシステムは、
前記入力文書と、前記入力文書からの前記ワードのシーケンスの各ワードとをそれぞれのベクトル表現にマッピングするように構成された埋め込み層と、
前記ベクトル表現を結合表現に結合するように構成された結合層と、
前記結合表現を使用して、前記ワードスコアを生成するように構成された分類層と
を含む、請求項10に記載の方法。 - 前記埋め込み層は、第1のパラメータのセットにしたがって、前記ワードのシーケンスの前記ワードをベクトル表現にマッピングし、かつ、
前記分類層は、第2のパラメータのセットにしたがって、前記結合表現から前記ワードスコアを生成する、請求項11に記載の方法。 - 前記トレーニング文書の前記複数のシーケンスごとに勾配降下法の前記それぞれの反復を実行するステップは、
前記埋め込み層を使用して、前記シーケンスの前記ワードのそれぞれをベクトル表現にマッピングするステップと、
前記埋め込み層を使用して、前記トレーニング文書を識別する前記データをベクトル表現にマッピングするステップと、
結合表現を生成するために、前記シーケンスの前記ワードのための前記ベクトル表現と、以前の反復からの前記トレーニング文書のための前記ベクトル表現とを結合するステップと、
前記結合表現からワードスコアを生成するステップと、
前記ワードスコアと、新規文書の前記シーケンスの次に続く前記ワードとを使用して、勾配を計算するステップと、
前記勾配を使用して、前記第2のパラメータのセットの値を調整するステップと
を含む、請求項12に記載の方法。 - 勾配降下法の前記それぞれの反復を実行するステップは、逆伝搬法を使用して、前記第1のパラメータのセットの値を調整するステップをさらに含む、請求項13に記載の方法。
- 結合層は、前記シーケンスの前記ワードのベクトル表現と、前記入力文書のベクトル表現とを連結するように構成される、請求項10に記載の方法。
- 結合層は、前記シーケンスの前記ワードのベクトル表現と、前記入力文書のベクトル表現とを平均するように構成される、請求項10に記載の方法。
- 前記複数のワードのシーケンスのそれぞれは固定された数のワードを含む、請求項10に記載の方法。
- 1又は複数のコンピュータと、命令を格納する1又は複数の記憶デバイスとを含むシステムであって、前記命令は、前記1又は複数のコンピュータによって実行されると、前記1又は複数のコンピュータに、
新規文書を取得するステップであって、前記新規文書は、複数のワードのシーケンスと、ワードのシーケンスごとに、前記新規文書の前記ワードのシーケンスの最終ワードの次に続くワードとを含む、ステップと、
トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のためのベクトル表現を決定するステップと
を含む操作を実行させ、
前記トレーニングされたニューラルネットワークシステムは、入力文書と、前記入力文書からのワードのシーケンスとを受信し、かつ、あらかじめ定められたワードのセットのワードごとに、それぞれのワードスコアを生成するようにトレーニングされ、
前記それぞれのワードスコアの各々は、対応するワードが、前記入力文書の前記シーケンスの最終ワードの次に続くことの予測尤度を表し、
前記トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のための前記ベクトル表現を決定するステップは、前記トレーニングされたニューラルネットワークシステムに前記複数のワードのシーケンスのそれぞれを反復して提供して、勾配降下法を使用して前記新規文書のための前記ベクトル表現を決定するステップを含む、システム。 - 前記トレーニングされたニューラルネットワークシステムは、
前記入力文書と、前記入力文書からの前記ワードのシーケンスの各ワードとをそれぞれのベクトル表現にマッピングするように構成された埋め込み層と、
前記ベクトル表現を結合表現に結合するように構成された結合層と、
前記結合表現を使用して、前記ワードスコアを生成するように構成された分類層と
を含む、請求項18に記載のシステム。 - 前記トレーニングされたニューラルネットワークシステムを使用して、前記新規文書のための前記ベクトル表現を決定するステップは、勾配降下法の以前の反復からの前記新規文書の前記ベクトル表現を調整するように、前記複数のワードのシーケンスごとに勾配降下法のそれぞれの反復を実行するステップを含む、請求項19に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461934674P | 2014-01-31 | 2014-01-31 | |
US61/934,674 | 2014-01-31 | ||
PCT/US2015/013717 WO2015116909A1 (en) | 2014-01-31 | 2015-01-30 | Generating vector representations of documents |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017509963A true JP2017509963A (ja) | 2017-04-06 |
JP6588449B2 JP6588449B2 (ja) | 2019-10-09 |
Family
ID=52478097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016549301A Active JP6588449B2 (ja) | 2014-01-31 | 2015-01-30 | 文書のベクトル表現の生成 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10366327B2 (ja) |
EP (1) | EP3100212A1 (ja) |
JP (1) | JP6588449B2 (ja) |
KR (1) | KR102363369B1 (ja) |
CN (1) | CN105940395B (ja) |
WO (1) | WO2015116909A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139772A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
JP2020520492A (ja) * | 2018-03-08 | 2020-07-09 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 |
JP2020532012A (ja) * | 2017-08-29 | 2020-11-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | ランダム・ドキュメント埋め込みを用いたテキスト・データ表現学習 |
JP2022040026A (ja) * | 2020-08-28 | 2022-03-10 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | エンティティリンキング方法、装置、電子デバイス及び記憶媒体 |
JP7547077B2 (ja) | 2020-05-13 | 2024-09-09 | 株式会社Nttドコモ | 文章翻訳装置及び翻訳モデル |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10614100B2 (en) * | 2014-06-19 | 2020-04-07 | International Business Machines Corporation | Semantic merge of arguments |
US10366324B2 (en) | 2015-09-01 | 2019-07-30 | Google Llc | Neural network for processing graph data |
US10803380B2 (en) | 2015-09-11 | 2020-10-13 | Google Llc | Generating vector representations of documents |
KR101778679B1 (ko) | 2015-10-02 | 2017-09-14 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
US10354182B2 (en) | 2015-10-29 | 2019-07-16 | Microsoft Technology Licensing, Llc | Identifying relevant content items using a deep-structured neural network |
JP6651629B2 (ja) * | 2015-12-10 | 2020-02-19 | ディープマインド テクノロジーズ リミテッド | 外部メモリを用いたニューラルネットワークの拡張 |
US10055489B2 (en) * | 2016-02-08 | 2018-08-21 | Ebay Inc. | System and method for content-based media analysis |
CN105760932B (zh) * | 2016-02-17 | 2018-04-06 | 第四范式(北京)技术有限公司 | 数据交换方法、数据交换装置及计算装置 |
JP6605997B2 (ja) * | 2016-03-17 | 2019-11-13 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
WO2017161320A1 (en) * | 2016-03-18 | 2017-09-21 | Google Inc. | Generating dependency parses of text segments using neural networks |
US10699183B2 (en) * | 2016-03-31 | 2020-06-30 | ZenDesk, Inc. | Automated system for proposing help center articles to be written to facilitate resolving customer-service requests |
US11436610B2 (en) * | 2016-03-31 | 2022-09-06 | ZenDesk, Inc. | Automatically clustering customer-support requests to form customer-support topics |
CN107315575B (zh) * | 2016-04-26 | 2020-07-31 | 中科寒武纪科技股份有限公司 | 一种用于执行向量合并运算的装置和方法 |
WO2017192183A1 (en) * | 2016-05-04 | 2017-11-09 | Google Llc | Augmenting neural networks with external memory using reinforcement learning |
US10909459B2 (en) * | 2016-06-09 | 2021-02-02 | Cognizant Technology Solutions U.S. Corporation | Content embedding using deep metric learning algorithms |
US9807037B1 (en) | 2016-07-08 | 2017-10-31 | Asapp, Inc. | Automatically suggesting completions of text |
US10083451B2 (en) | 2016-07-08 | 2018-09-25 | Asapp, Inc. | Using semantic processing for customer support |
KR101886373B1 (ko) * | 2016-07-14 | 2018-08-09 | 주식회사 언더핀 | 딥러닝 인공신경망 기반의 타스크 제공 플랫폼 |
US10762439B2 (en) | 2016-07-26 | 2020-09-01 | International Business Machines Corporation | Event clustering and classification with document embedding |
KR101842362B1 (ko) | 2016-09-01 | 2018-03-26 | 성균관대학교산학협력단 | 인공 신경망 기반의 문단 생성 방법 및 장치 |
EP3510594B1 (en) * | 2016-10-10 | 2020-07-01 | Google LLC | Very deep convolutional neural networks for end-to-end speech recognition |
CN109923560A (zh) * | 2016-11-04 | 2019-06-21 | 谷歌有限责任公司 | 使用变分信息瓶颈来训练神经网络 |
US11636314B2 (en) | 2016-11-15 | 2023-04-25 | Google Llc | Training neural networks using a clustering loss |
KR101869438B1 (ko) * | 2016-11-22 | 2018-06-20 | 네이버 주식회사 | 딥 러닝을 이용하여 환자의 진단 이력으로부터 질병 예후를 예측하는 방법 및 시스템 |
GB201620232D0 (en) * | 2016-11-29 | 2017-01-11 | Microsoft Technology Licensing Llc | Data input system with online learning |
CA3039755A1 (en) * | 2016-12-14 | 2018-06-21 | Landmark Graphics Corporation | Automatic classification of drilling reports with deep natural language processing |
US10109275B2 (en) | 2016-12-19 | 2018-10-23 | Asapp, Inc. | Word hash language model |
WO2018126325A1 (en) * | 2017-01-06 | 2018-07-12 | The Toronto-Dominion Bank | Learning document embeddings with convolutional neural network architectures |
US10817781B2 (en) * | 2017-04-28 | 2020-10-27 | SparkCognition, Inc. | Generation of document classifiers |
EP3602419B1 (en) * | 2017-04-28 | 2023-09-20 | Google LLC | Neural network optimizer search |
CN109214519B (zh) * | 2017-07-07 | 2022-07-01 | 阿里巴巴集团控股有限公司 | 数据处理系统、方法和设备 |
US10755144B2 (en) | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
US10755142B2 (en) | 2017-09-05 | 2020-08-25 | Cognizant Technology Solutions U.S. Corporation | Automated and unsupervised generation of real-world training data |
CN110019830B (zh) * | 2017-09-20 | 2022-09-23 | 腾讯科技(深圳)有限公司 | 语料处理、词向量获取方法及装置、存储介质及设备 |
CN107957989B9 (zh) * | 2017-10-23 | 2021-01-12 | 创新先进技术有限公司 | 基于集群的词向量处理方法、装置以及设备 |
CN108170663A (zh) | 2017-11-14 | 2018-06-15 | 阿里巴巴集团控股有限公司 | 基于集群的词向量处理方法、装置以及设备 |
US10497004B2 (en) | 2017-12-08 | 2019-12-03 | Asapp, Inc. | Automating communications using an intent classifier |
US10489792B2 (en) | 2018-01-05 | 2019-11-26 | Asapp, Inc. | Maintaining quality of customer support messages |
US10891943B2 (en) * | 2018-01-18 | 2021-01-12 | Citrix Systems, Inc. | Intelligent short text information retrieve based on deep learning |
US10210244B1 (en) | 2018-02-12 | 2019-02-19 | Asapp, Inc. | Updating natural language interfaces by processing usage data |
US11003856B2 (en) * | 2018-02-22 | 2021-05-11 | Google Llc | Processing text using neural networks |
US10606955B2 (en) * | 2018-03-15 | 2020-03-31 | Servicenow, Inc. | Incident matching with vector-based natural language processing |
US10169315B1 (en) | 2018-04-27 | 2019-01-01 | Asapp, Inc. | Removing personal information from text using a neural network |
US11182415B2 (en) * | 2018-07-11 | 2021-11-23 | International Business Machines Corporation | Vectorization of documents |
US11216510B2 (en) | 2018-08-03 | 2022-01-04 | Asapp, Inc. | Processing an incomplete message with a neural network to generate suggested messages |
US10747957B2 (en) | 2018-11-13 | 2020-08-18 | Asapp, Inc. | Processing communications using a prototype classifier |
US11551004B2 (en) | 2018-11-13 | 2023-01-10 | Asapp, Inc. | Intent discovery with a prototype classifier |
KR102216689B1 (ko) * | 2018-11-23 | 2021-02-17 | 네이버 주식회사 | 시계열 의료 데이터를 통한 질병 예후 예측을 위한 딥 뉴럴 네트워크의 분류 결과 시각화 방법 및 시스템 |
US11410031B2 (en) * | 2018-11-29 | 2022-08-09 | International Business Machines Corporation | Dynamic updating of a word embedding model |
US12026462B2 (en) | 2018-11-29 | 2024-07-02 | International Business Machines Corporation | Word embedding model parameter advisor |
RU2744028C2 (ru) * | 2018-12-26 | 2021-03-02 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и система для хранения множества документов |
US10789510B2 (en) | 2019-01-11 | 2020-09-29 | Google Llc | Dynamic minibatch sizes |
WO2020154373A1 (en) * | 2019-01-23 | 2020-07-30 | Google Llc | Neural network training using the soft nearest neighbor loss |
AU2019200976A1 (en) * | 2019-02-12 | 2020-08-27 | Canon Kabushiki Kaisha | Method, system and apparatus for generating training samples for matching objects in a sequence of images |
US10922486B2 (en) | 2019-03-13 | 2021-02-16 | International Business Machines Corporation | Parse tree based vectorization for natural language processing |
CN111858841A (zh) * | 2019-04-24 | 2020-10-30 | 京东数字科技控股有限公司 | 一种生成词向量的方法和装置 |
US11107096B1 (en) * | 2019-06-27 | 2021-08-31 | 0965688 Bc Ltd | Survey analysis process for extracting and organizing dynamic textual content to use as input to structural equation modeling (SEM) for survey analysis in order to understand how customer experiences drive customer decisions |
US11354361B2 (en) * | 2019-07-11 | 2022-06-07 | International Business Machines Corporation | Document discrepancy determination and mitigation |
US11163963B2 (en) * | 2019-09-10 | 2021-11-02 | Optum Technology, Inc. | Natural language processing using hybrid document embedding |
KR102280856B1 (ko) | 2019-09-16 | 2021-07-23 | 서울대학교산학협력단 | 문서 임베딩을 생성하는 장치 및 방법 |
US11425064B2 (en) | 2019-10-25 | 2022-08-23 | Asapp, Inc. | Customized message suggestion with user embedding vectors |
US11275934B2 (en) * | 2019-11-20 | 2022-03-15 | Sap Se | Positional embeddings for document processing |
KR102348689B1 (ko) * | 2019-12-31 | 2022-01-07 | 성균관대학교산학협력단 | 감정점수를 활용한 시퀀스-투-시퀀스 기반의 텍스트 요약 |
CN113627135B (zh) | 2020-05-08 | 2023-09-29 | 百度在线网络技术(北京)有限公司 | 一种招聘岗位描述文本的生成方法、装置、设备及介质 |
CN112104919B (zh) * | 2020-09-11 | 2022-05-06 | 腾讯科技(深圳)有限公司 | 基于神经网络的内容标题生成方法、装置、设备、和计算机可读存储介质 |
KR102666670B1 (ko) * | 2020-11-25 | 2024-05-20 | 한국과학기술원 | 그룹 레이블링 학습에서 뉴럴 네트워크 기반 효과적인 임베딩 벡터 생성 및 이를 이용한 레이블 예측 방법, 장치 및 그 예측 모델에서의 학습 방법 |
KR102501869B1 (ko) * | 2021-04-14 | 2023-02-21 | 건국대학교 산학협력단 | 문장 중요도에 기반한 문서 수준의 감성 분류 방법 및 장치 |
KR102569562B1 (ko) * | 2022-04-05 | 2023-08-24 | 주식회사 타날리시스 | 자연어 처리 기반의 유사도 판단을 통한 특허 문헌의 시각화 방법 및 이를 제공하는 장치 |
US11989506B2 (en) * | 2022-07-27 | 2024-05-21 | Capital One Services, Llc | Systems for database searching and database schemas management and methods of use thereof |
KR20240043541A (ko) * | 2022-09-27 | 2024-04-03 | 네이버 주식회사 | 커뮤니티 네이티브 광고를 제공하는 방법, 시스템, 및 컴퓨터 프로그램 |
CN115879508A (zh) * | 2022-09-30 | 2023-03-31 | 华为技术有限公司 | 一种数据处理方法及相关装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08221439A (ja) * | 1995-02-15 | 1996-08-30 | Oki Electric Ind Co Ltd | テキストファイルの自動分類方法 |
JP2007171944A (ja) * | 1996-10-02 | 2007-07-05 | Sri Internatl | 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06309293A (ja) * | 1993-04-26 | 1994-11-04 | Nippon Telegr & Teleph Corp <Ntt> | 多層構造型ニューラルネットワークの構成方法 |
CN101887443B (zh) * | 2009-05-13 | 2012-12-19 | 华为技术有限公司 | 一种文本的分类方法及装置 |
CN102968410A (zh) | 2012-12-04 | 2013-03-13 | 江南大学 | 一种基于rbf神经网络算法与语义特征选取的文本分类方法 |
US9519858B2 (en) * | 2013-02-10 | 2016-12-13 | Microsoft Technology Licensing, Llc | Feature-augmented neural networks and applications of same |
-
2015
- 2015-01-30 JP JP2016549301A patent/JP6588449B2/ja active Active
- 2015-01-30 US US14/609,869 patent/US10366327B2/en active Active
- 2015-01-30 KR KR1020167023661A patent/KR102363369B1/ko active IP Right Grant
- 2015-01-30 CN CN201580006653.3A patent/CN105940395B/zh active Active
- 2015-01-30 WO PCT/US2015/013717 patent/WO2015116909A1/en active Application Filing
- 2015-01-30 EP EP15705162.4A patent/EP3100212A1/en active Pending
-
2019
- 2019-07-26 US US16/523,766 patent/US11853879B2/en active Active
-
2023
- 2023-12-22 US US18/395,172 patent/US20240202519A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08221439A (ja) * | 1995-02-15 | 1996-08-30 | Oki Electric Ind Co Ltd | テキストファイルの自動分類方法 |
JP2007171944A (ja) * | 1996-10-02 | 2007-07-05 | Sri Internatl | 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020532012A (ja) * | 2017-08-29 | 2020-11-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | ランダム・ドキュメント埋め込みを用いたテキスト・データ表現学習 |
JP7002638B2 (ja) | 2017-08-29 | 2022-01-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ランダム・ドキュメント埋め込みを用いたテキスト・データ表現学習 |
US11823013B2 (en) | 2017-08-29 | 2023-11-21 | International Business Machines Corporation | Text data representation learning using random document embedding |
JP2019139772A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
JP2020520492A (ja) * | 2018-03-08 | 2020-07-09 | 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 |
JP7547077B2 (ja) | 2020-05-13 | 2024-09-09 | 株式会社Nttドコモ | 文章翻訳装置及び翻訳モデル |
JP2022040026A (ja) * | 2020-08-28 | 2022-03-10 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | エンティティリンキング方法、装置、電子デバイス及び記憶媒体 |
JP7234483B2 (ja) | 2020-08-28 | 2023-03-08 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | エンティティリンキング方法、装置、電子デバイス、記憶媒体及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10366327B2 (en) | 2019-07-30 |
CN105940395B (zh) | 2019-07-16 |
CN105940395A (zh) | 2016-09-14 |
KR102363369B1 (ko) | 2022-02-15 |
EP3100212A1 (en) | 2016-12-07 |
US20240202519A1 (en) | 2024-06-20 |
JP6588449B2 (ja) | 2019-10-09 |
US11853879B2 (en) | 2023-12-26 |
US20150220833A1 (en) | 2015-08-06 |
KR20160117516A (ko) | 2016-10-10 |
US20190347552A1 (en) | 2019-11-14 |
WO2015116909A1 (en) | 2015-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6588449B2 (ja) | 文書のベクトル表現の生成 | |
US12014259B2 (en) | Generating natural language descriptions of images | |
US11809824B1 (en) | Computing numeric representations of words in a high-dimensional space | |
US20220101082A1 (en) | Generating representations of input sequences using neural networks | |
US10409908B2 (en) | Generating parse trees of text segments using neural networks | |
US10083169B1 (en) | Topic-based sequence modeling neural networks | |
US10803380B2 (en) | Generating vector representations of documents | |
CN109074517B (zh) | 全局归一化神经网络 | |
US20160117586A1 (en) | Augmenting neural networks with external memory | |
KR20160127100A (ko) | 머신 러닝에서의 대안 트레이닝 분포 데이터 | |
CN110678882A (zh) | 使用机器学习从电子文档选择回答跨距 | |
US20160062979A1 (en) | Word classification based on phonetic features | |
US20190147365A1 (en) | Deep vector table machine systems | |
KR20220085806A (ko) | 실제 오디오 트레이닝 데이터의 자동 마이닝 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181121 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6588449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |