JP2021111314A - 構造化クエリステートメントを出力する方法および装置 - Google Patents

構造化クエリステートメントを出力する方法および装置 Download PDF

Info

Publication number
JP2021111314A
JP2021111314A JP2020097333A JP2020097333A JP2021111314A JP 2021111314 A JP2021111314 A JP 2021111314A JP 2020097333 A JP2020097333 A JP 2020097333A JP 2020097333 A JP2020097333 A JP 2020097333A JP 2021111314 A JP2021111314 A JP 2021111314A
Authority
JP
Japan
Prior art keywords
structured query
sample
statement
directed acyclic
acyclic graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020097333A
Other languages
English (en)
Other versions
JP7096289B2 (ja
Inventor
ワン,リジェ
Lijie Wang
ユ,ボ
Bo Yu
スン,ケ
Ke Sun
リ,ティンティン
Tingting Li
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021111314A publication Critical patent/JP2021111314A/ja
Application granted granted Critical
Publication of JP7096289B2 publication Critical patent/JP7096289B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/2433Query languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • G06F16/24522Translation of natural language queries to structured queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/288Entity relationship models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Discrete Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】構造化クエリステートメントを出力する方法、装置、電子機器、コンピュータ可読媒体及びプログラムを提供する。【解決手段】方法は、変換する自然言語ステートメントを取得するステップ201と、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップ202と、アクションシーケンスにしたがって有向非循環グラフを生成するステップ203と、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップ204と、を含み、構造化クエリステートメントを出力する精度を向上させる。【選択図】図2

Description

本出願の実施例は、コンピュータ技術分野に関し、特に、構造化クエリステートメントを出力する方法および装置に関する。
情報化時代において、データベースは情報のキャリアとしてますます広く使用されている。人々はデータベースからさまざまなデータをクエリする必要があり、標準の構造化クエリ言語(Structured Query Language,SQL)を習得する必要がある。しかし、多くの非専門家にとって、SQLの習得は困難であり、SQLのさまざまな文法を学習する必要があるため、非専門家がデータベースを使用するために自然言語を構造化クエリステートメントに変換する方法が急務である。
構造化クエリステートメントを生成する既存の方法は、通常、構造化クエリステートメントを手動で作成するか、事前トレーニング済みの機械学習モデルに自然言語クエリステートメントを直接入力して、構造化クエリステートメントを取得することである。
本出願の実施例は、構造化クエリステートメントを出力する方法および装置を提出する。
第1の態様では、本出願のいくつかの実施例は、変換する自然言語ステートメントを取得するステップと、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップと、アクションシーケンスにしたがって有向非循環グラフを生成するステップと、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップとを含む、構造化クエリステートメントを出力する方法を提供する。
いくつかの実施例では、Seq2Seqモデルは、以下のステップのトレーニングによって取得されるモデルを含み、サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するステップと、事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するステップと、確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するステップと、サンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングしてSeq2Seqモデルを取得するステップである。
いくつかの実施例では、アクションシーケンスにしたがって有向非循環グラフを生成するステップは、Shift−reduce法に基づいて、アクションシーケンスにしたがって有向非循環グラフを生成するステップを含む。
いくつかの実施例では、有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含む。
いくつかの実施例では、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップは、有向非循環グラフのノードを構造化クエリステートメント中の第1の部分として確定するステップであって、第1の部分は、演算子、フィールド名、テーブル名、属性を含むステップと、有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するステップとを含む。
第2の態様では、本出願のいくつかの実施例は、変換する自然言語ステートメントを取得するように構成される取得ユニットと、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するように構成される入力ユニットと、アクションシーケンスにしたがって有向非循環グラフを生成するように構成される生成ユニットと、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するように構成される出力ユニットとを含む、構造化クエリステートメントを出力する装置を提供する。
いくつかの実施例では、装置は、トレーニングユニットをさらに含み、トレーニングユニットは、サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するように構成される取得サブユニットと、事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するように構成される第1の確定サブユニットと、確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するように構成される取得サブユニットと、サンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングして前記Seq2Seqモデルを取得するように構成されるトレーニングサブユニットとを含む。
いくつかの実施例では、生成ユニットはさらに、Shift−reduce法に基づいて、アクションシーケンスにしたがって有向非循環グラフを生成するように構成される。
いくつかの実施例では、有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含む。
いくつかの実施例では、出力ユニットは、有向非循環グラフのノードを構造化クエリステートメント中の第1の部分として確定するように構成される第2の確定サブユニットであって、第1の部分は、演算子、フィールド名、テーブル名、属性を含む第2の確定サブユニットと、有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するように構成される第3の確定サブユニットとを含む。
第3の態様では、本出願のいくつかの実施例は、1つまたは複数のプロセッサと、および1つまたは複数のプログラムが記憶されている記憶装置とを含み、1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサは、第1の態様に記載の方法を実施する電子機器を提供する。
第4の態様では、本出願のいくつかの実施例は、プログラムがプロセッサによって実行されると、第1の態様に記載の方法が実施されるコンピュータ可読媒体を提供する。
本出願の実施例によって提供される構造化クエリステートメントを出力する方法および装置は、変換する自然言語ステートメントを取得するステップと、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップと、アクションシーケンスにしたがって有向非循環グラフを生成するステップと、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップによって、構造化クエリステートメントを出力する精度を向上させる。
本出願のいくつかの実施例を適用することができる例示的なシステムアーキテクチャ図である。
本出願に係る構造化クエリステートメントを出力する方法の一実施例のフローチャートである。
本出願に係る構造化クエリステートメントを出力する方法の一アプリケーションシナリオの模式図である。
本出願に係る構造化クエリステートメントを出力する方法の別実施例のフローチャートである。
本出願に係る構造化クエリステートメントを出力する装置の一実施例の構造模式図である。
本出願のいくつかの実施例のサーバまたは端末を実現するのに適したコンピュータシステムの構造模式図である。
以下の図面を参照して行われる非限定的な実施例の詳細な説明を読むことにより、本出願の他の特徴、目的、および利点がより明らかになるであろう。
図面および実施例を結び付けて、本出願をさらに詳細に説明する。本明細書に記載される具体的な実施例は、関連する発明を説明するためだけに使用され、本発明を限定するためではないことが理解され得る。また、説明を簡単にするために、本発明に関連する部分のみが図面に示されていることにも留意されたい。
なお、矛盾しない場合、本願の実施例と実施例の特徴は、互いに組み合わせることができる。以下、図面を参照し、実施例と結び付けて、本出願を詳細に説明する。
図1は、本出願の構造化クエリステートメントを出力する方法または構造化クエリステートメントを出力する装置を適用できる実施例の例示的なシステムアーキテクチャ100である。
図1に示すように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104、およびサーバ105を含むことができる。ネットワーク104は、端末機器101、102、103とサーバ105との間に通信リンクを提供するために使用される媒体である。ネットワーク104は、有線、無線通信リンクまたは光ファイバーケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末機器101、102、103を使用して、ネットワーク104と介してサーバ105とインタラクトして、メッセージなどを送信または受信することができる。端末機器101、102、103には、データベースアプリケーション、言語処理アプリケーション、電子商取引アプリケーション、および検索アプリケーションなど、さまざまなクライアントアプリケーションがインストールされることができる。
端末機器101、102、103は、ハードウェアまたはソフトウェアであり得る。端末機器101、102、103がハードウェアである場合、スマートフォン、タブレットコンピュータ、ラップトップポータブルコンピュータ、およびデスクトップコンピュータなどを含むがこれらに限定されず、ディスプレイ画面を備える様々な電子機器であることができる。端末機器101、102、103がソフトウェアである場合、上記の電子機器にインストールされることができる。それは、複数のソフトウェアまたはソフトウェアモジュールとして実現でき、単一のソフトウェアまたはソフトウェアモジュールとしても実現できる。ここでは具体的に制限しない。
サーバ105は、端末機器101、102、103にインストールされたアプリケーションにサポートを提供するバックグラウンドサーバなどの様々なサービスを提供するサーバであることができ、サーバ105は、変換する自然言語ステートメントを取得することができ、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得することができ、アクションシーケンスにしたがって有向非循環グラフを生成することができ、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力することができる。
説明すべきなのは、本出願の実施例によって提供される構造化クエリステートメントを出力する方法は、サーバ105によって実行されることができ、端末機器101、102、103によって実行されることもでき、対応的に、構造化クエリステートメントを出力する装置は、サーバ105に設置されることができ、端末機器101、102、103に設置されることもできる。
説明すべきなのは、サーバは、ハードウェアまたはソフトウェアであり得る。サーバがハードウェアである場合、複数のサーバから構成される分散型サーバクラスタとして実現でき、単一のサーバとしても実現できる。サーバがソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散型サービスを提供するための)として実現でき、単一のソフトウェアまたはソフトウェアモジュールとしても実現できる。ここでは具体的に制限しない。
図1の端末機器、ネットワークおよびサーバの数は模式的にすぎないことを理解されたい。実現のニーズに応じて、任意の数の端末機器、ネットワーク、およびサーバを有することができる。
図2を引き続き参照すると、本出願による構造化クエリステートメントを出力する方法の一実施例のフロー200を示している。前記構造化クエリステートメントを出力する方法は、以下のステップを含む。
ステップ201において、変換する自然言語ステートメントを取得する。
本実施例では、構造化クエリステートメントを出力する方法の実行本体(例えば、図1に示されたサーバまたは端末)は、まず変換する自然言語ステートメントを取得することができる。変換する自然言語ステートメントは、ユーザが入力したテキスト、画像または音声の形式の自然言語情報から由来することができる。
ステップ202において、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得する。
本実施例では、前記実行本体は、ステップ201で取得された変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得することができる。Seq2Seqモデルは、自然言語ステートメントとアクションシーケンスとの対応関係を特徴付けるために使用されることができる。Seq2Seqモデル(Sequence to Sequence,Seq2Seq)は、エンコーダー、デコーダー(Encoder−Decoder)モデルを含むことができ、1つまたは複数のニューラルネットワークモデルを含むこともでき、ニューラルネットワークモデルは、リカレントニューラルネットワークモデル(Recurrent Neural Network、RNN)を使用することができ、リカレントニューラルネットワークモデルネットワーク構造中の隠れノード間の接続はリングを形成し、現在の情報を学習するだけでなく、以前のシーケンス情報にも依存する。特殊なネットワークモデル構造により、情報保存の問題を解決する。したがって、RNNは、時系列および言語テキストシーケンスの問題を処理するのに対して独特の利点がある。さらに、RNNバリアント(variant)の長期短期記憶ネットワーク(Long Short Term Memory networks,LSTM)およびゲーテッドリカレントユニット(Gated Recurrent Unit,GRU)の1つまたは複数からなるSeq2Seqモデルを使用することができる。
本実施例のいくつかの選択可能な実現形態では、Seq2Seqモデルは、以下のステップのトレーニングによって取得されるモデルを含み、サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するステップと、事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するステップと、確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するステップと、サンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングしてSeq2Seqモデルを取得するステップである。
本実施例のいくつかの選択可能な実現形態では、Seq2Seqモデルのデュアルモデル、すなわち、入力がアクションシーケンスであり、出力が自然言語ステートメントであるモデルをさらに構築することができ、その後、強化学習法に基づいて2つのモデルを共同でトレーニングして、Seq2Seqモデルを取得する。
ステップ203において、アクションシーケンスにしたがって有向非循環グラフを生成する。
本実施例では、前記実行本体は、ステップ202で取得されたアクションシーケンスにしたがって有向非循環グラフを生成することができる。ここで、前記実行本体は、グラフベースの解析手法、転送ベースの解析手法またはアクションシーケンスと有向非循環グラフの対応関係を特徴付ける事前トレーニングされたモデルに基づいて、アクションシーケンスを有向非循環グラフに変換することができる。グラフベースの解析手法は、動的プログラミングに基づく復号化アルゴリズムを使用でき、転送ベースの分析方法は、一連のShift−reduceなどの転送アクションを通じて有向非循環グラフを構築できる。
ステップ204において、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力する。
本実施例では、前記実行本体は、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、ステップ203で生成された有向非循環グラフに対応する構造化クエリステートメントを出力することができる。有向非循環グラフと構造化クエリステートメントとの対応関係は、有向非循環グラフの語義ブロックと構造化クエリステートメントとの対応関係、または有向非循環グラフ全体と構造化クエリステートメントとの対応関係を含むことができる。前記対応関係は、列挙によって得ることができる。
本実施例のいくつかの選択可能な実現形態では、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップは、有向非循環グラフのノードを構造化クエリステートメント中の第1の部分として確定するステップであって、上記第1の部分は、演算子、フィールド名、テーブル名、属性を含むステップと、および有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するステップとを含む。
SQLクエリステートメントは、特定の文法にしたがったサブクエリステートメントによって組み合わされて取得され、例示として、SQLクエリステートメント「Sel_S」に関連付けられたサブクエリステートメントは、「SELECT (A_S)+ FROM table WHERE (W_S)?」を含むことができ、SQLクエリステートメント「A_S」に関連付けられたサブクエリステートメントは、「(AGG)? column」を含むことができ、SQLクエリステートメント「W_S」に関連付けられたサブクエリステートメントは、「C_S (condition_relation C_S)*」を含むことができ、SQLクエリステートメント「C_S」に関連付けられたサブクエリステートメントは、「Column OP value」を含むことができる。ここで、「*」は、0回または複数回を表すことができ、「+」は、1回または複数回を表すことができ、「?」は、0回また1回を表すことができる。AGGは、SQL中の演算子(aggregators)を表すことができ、min(最小)、max(最大)、count(総数)、sum(合計)、avg(平均)を含むことができる。OPは、SQLの演算子(operators)の略称であり、>(より大きい)、>=(以上)、<(より小さい)、<=(以下)、==(等しい)、!=(等しくない)などを含むことができる。Columnは、テーブル(table)のリスト名またはフィールド名を表すことができ、valueは、属性、すなわち具体的な値を表すことができる。conditon_relationは、SQLで定義された条件間の関係を表すことができ、and(および)およびor(または)を含む。
本実施例のいくつかの選択可能な実現形態では、有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含む。本実施形態では、有向非循環グラフは、アクションシーケンスとの相互変換を容易にするいくつかの情報アイテムの組み合わせとして表され、構造化クエリステートメントの出力効率をさらに向上させる。例示として、情報アイテムの組み合わせの形式は(親ノード情報、子ノード情報、関係情報)以下のとおりであり、関連するサブクエリステートメント「SELECT (A_S)+ FROM table WHERE (W_S)?」に対応するグラフは、「(root, parent of A_S, SELECT) (root, table, FROM) (root, parent of W_S, WHEER)」であることができ、関連するサブクエリステートメント「(AGG)? column」に対応するグラフは、「(AGG, column, ARGS)」であることができ、関連するサブクエリステートメント「C_S (condition_relation C_S)*」に対応するグラフは、「(parent of first C_S, parent of second C_S, condition_relation)」であることができ、関連するサブクエリステートメント「Column OP value」に対応するグラフは、「(column, value, OP)」であることができ、ここで、rootは、仮想ルートノードを表すことができ、ARGSは所有権関係を表すことができ、「の」として理解することができる。SQLクエリステートメントの全体的な構文を列挙できるため、完全な対応関係を得ることができる。
図3を引き続き参照すると、図3は、本実施例に係る構造化クエリステートメントを出力する方法のアプリケーションシナリオの模式図である。図3のアプリケーションシナリオでは、取得された変換する自然言語ステートメントは、「What is the average, minimum, and maximum age of all singers from France(フランス歌手の年齢の平均値、最大値、最小値は何ですか)?」であり、その後事前トレーニングされたSeq2Seqモデルに入力して、対応するアクションシーケンスを取得し、アクションシーケンスにしたがって図3に示したような有向非循環グラフを生成し、最後に事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力し、それは「SELECT avg(age), min(age), max(age) FROM singer WHERE country = France」であり、ここで、singer(歌手)は、テーブル名であり、age(年齢)、country(国)は、テーブルsingerのフィールドであり、France(フランス)は、フィールドcountryの属性値である。
本出願の前記実施例によって提供される方法は、変換する自然言語ステートメントを取得するステップと、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップと、アクションシーケンスにしたがって有向非循環グラフを生成するステップと、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップとを介して、構造化クエリステートメントを出力する精度を向上させる。
図4をさらに参照すると、構造化クエリステートメントを出力する方法の別の実施例のフロー400を示している。前記構造化クエリステートメントを出力する方法のフロー400は、以下のステップを含む。
ステップ401において、変換する自然言語ステートメントを取得する。
本実施例では、構造化クエリステートメントを出力する方法の実行本体(例えば、図1に示されたサーバまたは端末)は、まず変換する自然言語ステートメントを取得することができる。
ステップ402において、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得する。
本実施例では、前記実行本体は、ステップ401で取得された変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得することができる。
ステップ403において、Shift−reduce法に基づいて、アクションシーケンスにしたがって有向非循環グラフを生成する。
本実施例では、前記実行本体は、ステップ402で取得されたアクションシーケンスにしたがって有向非循環グラフを生成することができる。
Shift−reduce法は、構成ファイルとアクションセットによって完成されることができる。構成ファイルC=(δ, η, β, G)。ここで、δは、η由来し、再処理される(index, node)(インデックス、ノード)ペアを保存する1つのスタックを表す。βは、処理される入力情報を保存するために使用される。ηは、サイズを固定する1つのキャッシュである。Gは、構成されたグラフである。構成ファイルの初期状態は、([ ], [$, …, $], [n, …, n|n|], φ)であり、ここで、「[]」および「φ」は、スタックδおよびグラフGがすべて空であることを表し、[$,…, $]は、キャッシュを表し、βは、全体の入力、すなわち、[n,…,n|n|]に等しく、βが空である場合、処理が完了したことを表し、グラフGは構築したグラフを表す。
アクションセットは、PushNode(n)を含むことができ、入力nを入力βからキャッシュηに移動し、最後の位置に配置し、η中の1つの要素をスタックδに移動することを表す。Popは、(i,v)をスタックδからキャッシュηの第iの位置に移動し、キャッシュηの第iの位置以降の要素は順次に右に移動され、最後の要素はキャッシュを削除することを表す。ArcGen(i,d,l)は、入力βの最左端の要素とキャッシュη中の第iの要素を関係判断し、方向はdであり、円弧上の関係はlであることを表す。入力β中の最左端の要素がすべてのキャッシュη要素に順次に関係判断する際、関係が存在しない場合、円弧上の関係はNoneである。
アクションセットはさらに、shift、arc_left_l、arc_right_l、pop_rootなどを含むことができ、具体的に、実際のニーズに応じて設定することができる。
例示として、表1は、Shift−reduce法に基づく、自然言語ステートメント「what is the maximum age of all singers from France?」(すべてのフランス歌手の年齢の中、最大年齢はいくつですか?)に対応するアクションシーケンス「max(maximum) age(age) singer(singers) france(France)」にしたがって有向非循環グラフを生成するプロセスを示した。
(表1)
Figure 2021111314
ステップ404において、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力する。
本実施例では、前記実行本体は、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、ステップ403で生成された有向非循環グラフに対応する構造化クエリステートメントを出力することができる。
本実施例では、ステップ401、ステップ402、ステップ404の操作は、ステップ201、ステップ202、ステップ204の操作と基本的に同じであり、ここで繰り返して説明しない。
図4から分かるように、図2に対応する実施例と比較して、本実施例の構造化クエリステートメントを出力する方法のフロー400では、Shift−reduce法に基づいて、アクションシーケンスにしたがって有向非循環グラフを生成することにより、本実施例で説明された手段で生成された有向非循環グラフはより正確で、構造化クエリステートメントの精度をさらに向上させる。
さらに図5を参照すると、上記各図に示された方法の実現として、本出願は、構造化クエリステートメントを出力する装置の一実施例を提供し、前記装置の実施例は、図2に示された方法の実施例に対応し、前記装置は、具体的に様々な電子機器に適用することができる。
図5に示すように、本実施例の構造化クエリステートメントを出力する装置500は、取得ユニット501、入力ユニット502、生成ユニット503、および出力ユニット504を含む。ここで、取得ユニットは、変換する自然言語ステートメントを取得するように構成され、入力ユニットは、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するように構成され、生成ユニットは、アクションシーケンスにしたがって有向非循環グラフを生成するように構成され、出力ユニットは、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するように構成される。
本実施例では、構造化クエリステートメントを出力する装置500の取得ユニット501、第1の確定ユニット502、第2の確定ユニット503、第1の生成ユニット504の具体的な処理は、図2に対応する実施例のステップ201、ステップ202、ステップ203およびステップ204を参照することができる。
本実施例のいくつかの選択可能な実現形態では、装置は、トレーニングユニットをさらに含み、トレーニングユニットは、サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するように構成される取得サブユニットと、事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するように構成される第1の確定サブユニットと、確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するように構成される取得サブユニットと、およびサンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングしてSeq2Seqモデルを取得するように構成されるトレーニングサブユニットとを含む。
本実施例のいくつかの選択可能な実現形態では、生成ユニットはさらに、Shift−reduce法に基づいて、アクションシーケンスにしたがって有向非循環グラフを生成するように構成される。
本実施例のいくつかの選択可能な実現形態では、有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含む。
本実施例のいくつかの選択可能な実現形態では、出力ユニットは、有向非循環グラフのノードを構造化クエリステートメント中の演算子、フィールド名、テーブル名、属性を含む第1の部分として確定するように構成される第2の確定サブユニットと、有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するように構成される第3の確定サブユニットとを含む。
本出願の前記実施例によって提供される装置は、変換する自然言語ステートメントを取得するステップと、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップと、アクションシーケンスにしたがって有向非循環グラフを生成するステップと、事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメント出力するステップとを介して、構造化クエリステートメントを出力する精度を向上させる。
以下、図6を参照すると、本出願の実施例のサーバまたは端末を実現するのに適したコンピュータシステム600の構造模式図である。図6に示されたサーバまたは端末は単なる例であり、本出願の実施例の機能および使用範囲にいかなる制限をももたらすべきではない。
図6に示すように、コンピュータシステム600は、読み取り専用メモリ(ROM)602に記憶されたプログラムに従って、または記憶部分608からランダムアクセスメモリ(RAM)603にロードされて、さまざまな適切なアクションと処理を実行することができる中央処理装置(CPU)601を含む。RAM603では、システム600の操作に必要な様々なプログラムとデータがさらに記憶されている。CPU601、ROM602およびRAM603は、バス604を介して相互に接続されている。入力/出力(I/O)インターフェース605もバス604に接続されている。
キーボード、マウスなどを含む入力部分606と、ブラウン管(CRT)、液晶ディスプレイ(LCD)などおよびスピーカーなどを含む出力部分607と、ハードディスクなどを含む記憶部分608と、およびLANカード、モデムなどのネットワークインターフェースカードを含む通信部分609との部材は、I/Oインターフェース605に接続されることができる。通信部分609は、インターネットなどのネットワークを介して通信処理を行う。ドライバ610も、必要に応じてI/Oインターフェース605に接続されることができる。磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどのリムーバブルメディア611は、必要に応じてドライバ610に装着されて、読み出されたコンピュータプログラムが必要に応じて記憶部分608にインストールされるようにする。
特に、本開示の実施例によれば、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に搭載されるコンピュータプログラムを含むコンピュータプログラム製品を含み、前記コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、前記コンピュータプログラムは、通信部分609を介してネットワークからダウンロードおよびインストールされ、および/またはリムーバブルメディア611からインストールされることができる。前記コンピュータプログラムが中央処理装置(CPU)601によって実行されると、本開示の実施例の方法で限定された前記機能を実行する。説明すべきなのは、本出願で説明されるコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読媒体、または前記2つの任意の組み合わせであってもよい。コンピュータ可読媒体は、電気、磁気、光学、電磁気、赤外線、または半導体のシステム、装置またはデバイス、あるいは上記の任意の組み合わせであることができるが、これらに限定されない。コンピュータ可読媒体のより具体的な例は、1つまたは複数のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光ストレージデバイス、磁気ストレージデバイス、またはこれらの適切な組み合わせを含むが、これらに限定されない。本出願では、コンピュータ可読媒体は、プログラムを含むまたは記憶する任意の有形媒体であることができ、前記プログラムは、命令実行システム、装置、またはデバイスと組み合わせて使用することができる。本出願では、コンピュータ可読信号媒体は、コンピュータ可読プログラムコードを搭載する、ベースバンド中または搬送波の一部として伝播されるデータ信号を含むことができる。このような伝播されたデータ信号は、電磁信号、光信号、または上記の任意の適切な組み合わせを含むがこれらに限定されず、多くの形態をとることができる。コンピュータ可読信号媒体は、コンピュータ可読媒体以外の任意のコンピュータ可読媒体であってもよく、前記コンピュータ可読信号媒体は、命令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用するプログラムを送信、伝播、または転送することができる。コンピュータ可読媒体に含まれるプログラムコードは、無線、電線、光ケーブル、RF(無線周波数)など、または前述の任意の適切な組み合わせを含むがこれらに限定されない任意の適切な媒体を使用して伝送されることができる。
本出願の実施例の操作を実行するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語またはそれらの組み合わせで作成されることができ、前記プログラミング言語は、Java、Smalltalk、C++などの対象指向プログラミング言語を含み、「C」言語または類似のプログラミング言語などの従来の手続き型プログラミング言語を含むことができる。プログラムコードは、完全にユーザのコンピュータで実行され、一部はユーザのコンピュータで実行され、独立したソフトウェアパッケージとして、一部はユーザのコンピュータで一部はリモートコンピュータで、または完全にリモートコンピュータまたはサーバで実行されることができる。リモートコンピュータが関係する状況では、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含むあらゆる種類のネットワークを介してユーザのコンピュータに接続するか、または外部コンピュータに接続することができる(例えば、インターネットサービスプロバイダーを使用してインターネットを介して接続する)。
図面のフローチャートおよびブロック図は、本出願の様々な実施例によるシステム、方法、およびコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および動作を示している。この点で、フローチャートまたはブロック図のそれぞれのブロックは、指定された論理関数を実現するための実行可能命令を含むモジュール、プログラムセグメント、またはコードの一部を表すことができる。この点で、フローチャートまたはブロック図のそれぞれのブロックは、指定された論理関数を実現するための実行可能命令を含むモジュール、プログラムセグメント、またはコードの一部を表すことができる。また、一部の代替実現では、ブロックでマークされた機能は、図面でマークされたものとは異なる順序で発生する場合もある。例えば、連続して示されている2つのブロックは、実際には並行して実行でき、関連する機能によっては、逆の順序で実行することもできる。また、ブロック図および/またはフローチャートのそれぞれのブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、指定された機能または操作を実行する専用のハードウェアベースのシステムで実現することができ、または、専用のハードウェアとコンピュータの命令を組み合わせて実現することもできる。
本出願の実施例で説明されるユニットは、ソフトウェアまたはハードウェアで実現されることができる。上記のユニットは、プロセッサに設置されることもでき、例えば、プロセッサは、取得ユニット、生成ユニット、入力ユニット、および出力ユニットを含むと記述することができる。ここで、これらのユニットの名称は、ある場合ではユニット自体を限定するものではなく、例えば、取得ユニットは、「変換する自然言語ステートメントを取得するように構成されるユニット」と表現することもできる。
別の態様として、本出願は、前述の実施例で説明された装置に含まれてもよく、または装置に組み込まれることなく単独で存在してもよい、コンピュータ可読媒体をさらに提供する。前記コンピュータ可読媒体は、1つまたは複数のプログラムを搭載し、1つまたは複数のプログラムが前記装置によって実行されると、前記装置は、以下を行う:変換する自然言語ステートメントを取得し、変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、変換する自然言語ステートメントに対応するアクションシーケンスを取得し、アクションシーケンスにしたがって有向非循環グラフを生成し、および事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力する。
上記の説明は、本出願の好ましい実施例および適用された技術原理の説明にすぎない。当業者は、本出願の実施例に関する本発明の範囲が、上記の技術的特徴の特定の組み合わせによって形成される技術的解決策に限定されず、同時に上記の発明の概念から逸脱することなく、上記の技術的特徴またはそれらの同等物の任意の組み合わせによって形成される他の技術的解決策も網羅すべきであることを理解できるだろう。例えば、上記の特徴を、類似の機能を有する本開示の実施例に開示される(しかし、これらに限定されない)技術的特徴で置き換えることによって形成される技術的解決策である。

Claims (12)

  1. 構造化クエリステートメント(query statement)を出力する方法であって、
    変換する自然言語ステートメントを取得するステップと、
    前記変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、前記変換する自然言語ステートメントに対応するアクションシーケンスを取得するステップと、
    前記アクションシーケンスにしたがって有向非循環グラフを生成するステップと、
    事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップとを含む、構造化クエリステートメントを出力する方法。
  2. 前記Seq2Seqモデルは、以下のステップのトレーニングによって取得されるモデルを含み、
    サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するステップと、
    事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、前記サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するステップと、
    確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するステップと、
    サンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングして前記Seq2Seqモデルを取得するステップであることを特徴とする
    請求項1に記載の方法。
  3. 前記アクションシーケンスにしたがって有向非循環グラフを生成するステップは、
    Shift−reduce法に基づいて、前記アクションシーケンスにしたがって有向非循環グラフを生成するステップを含むことを特徴とする
    請求項1に記載の方法。
  4. 前記有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含むことを特徴とする
    請求項1に記載の方法。
  5. 前記事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するステップは、
    有向非循環グラフのノードを構造化クエリステートメント中の第1の部分として確定するステップであって、前記第1の部分は、演算子、フィールド名、テーブル名、属性を含むステップと、
    有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するステップとを含むことを特徴とする
    請求項1〜4のいずれか一項に記載の方法。
  6. 構造化クエリステートメントを出力する装置であって、
    変換する自然言語ステートメントを取得するように構成される取得ユニットと、
    前記変換する自然言語ステートメントを事前トレーニングされたSeq2Seqモデルに入力して、前記変換する自然言語ステートメントに対応するアクションシーケンスを取得するように構成される入力ユニットと、
    前記アクションシーケンスにしたがって有向非循環グラフを生成するように構成される生成ユニットと、
    事前設置された有向非循環グラフと構造化クエリステートメントとの対応関係にしたがって、生成された有向非循環グラフに対応する構造化クエリステートメントを出力するように構成される出力ユニットとを含む、構造化クエリステートメントを出力する装置。
  7. 前記装置は、トレーニングユニットをさらに含み、前記トレーニングユニットは、
    サンプル自然言語ステートメントおよびサンプル自然言語ステートメントに対応するサンプル構造化クエリステートメントを含むサンプルセットを取得するように構成される取得サブユニットと、
    事前設置された有向非循環グラフと構造化クエリステートメントの対応関係にしたがって、前記サンプルセット中のサンプル構造化クエリステートメントに対応するサンプル有向非循環グラフを確定するように構成される第1の確定サブユニットと、
    確定されたサンプル有向非循環グラフのサンプルアクションシーケンスを取得するように構成される取得サブユニットと、
    サンプル自然言語ステートメントとサンプル自然言語ステートメントに対応するサンプルアクションシーケンスをそれぞれ、入力と出力として、トレーニングして前記Seq2Seqモデルを取得するように構成されるトレーニングサブユニットとを含むことを特徴とする
    請求項6に記載の装置。
  8. 前記生成ユニットは、Shift−reduce法に基づいて、前記アクションシーケンスにしたがって有向非循環グラフを生成するようにさらに構成されることを特徴とする
    請求項6に記載の装置。
  9. 前記有向非循環グラフは、親ノード情報、子ノード情報および関係情報を含む少なくとも1つの情報アイテムの組み合わせを含むことを特徴とする
    請求項6に記載の装置。
  10. 前記出力ユニットは、
    有向非循環グラフのノードを構造化クエリステートメント中の第1の部分として確定するように構成される第2の確定サブユニットであって、前記第1の部分は、演算子、フィールド名、テーブル名、属性を含む第2の確定サブユニットと、
    有向非循環グラフ中のノード間の関係を構造化クエリステートメント中の第2の部分として確定するように構成される第3の確定サブユニットとを含むことを特徴とする
    請求項5〜9のいずれか一項に記載の装置。
  11. 電子機器であって、
    1つまたは複数のプロセッサと、および
    1つまたは複数のプログラムが記憶されている記憶装置とを含み、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサが請求項1〜5のいずれか一項に記載の方法を実施する、電子機器。
  12. コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
    前記プログラムがプロセッサによって実行されると、請求項1〜5のいずれか一項に記載の方法が実施される、コンピュータ可読媒体。
JP2020097333A 2019-12-31 2020-06-04 構造化クエリステートメントを出力する方法および装置 Active JP7096289B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911413464.4 2019-12-31
CN201911413464.4A CN111125154B (zh) 2019-12-31 2019-12-31 用于输出结构化查询语句的方法和装置

Publications (2)

Publication Number Publication Date
JP2021111314A true JP2021111314A (ja) 2021-08-02
JP7096289B2 JP7096289B2 (ja) 2022-07-05

Family

ID=70506553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097333A Active JP7096289B2 (ja) 2019-12-31 2020-06-04 構造化クエリステートメントを出力する方法および装置

Country Status (3)

Country Link
US (1) US11449500B2 (ja)
JP (1) JP7096289B2 (ja)
CN (1) CN111125154B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114461665B (zh) * 2022-01-26 2023-01-24 北京百度网讯科技有限公司 用于生成语句转换模型的方法、装置及计算机程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018213530A2 (en) * 2017-05-18 2018-11-22 Salesforce.Com, Inc Neural network based translation of natural language queries to database queries
US20180349377A1 (en) * 2017-06-03 2018-12-06 Apple Inc. Converting natural language input to structured queries

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8312389B2 (en) * 2007-08-31 2012-11-13 Fair Isaac Corporation Visualization of decision logic
CN104657439B (zh) * 2015-01-30 2019-12-13 欧阳江 用于自然语言精准检索的结构化查询语句生成系统及方法
CN107451153B (zh) * 2016-05-31 2020-03-31 北京京东尚科信息技术有限公司 输出结构化查询语句的方法和装置
CN108319585B (zh) * 2018-01-29 2021-03-02 北京三快在线科技有限公司 数据处理方法及装置、电子设备、计算机可读介质
CN109271496B (zh) * 2018-08-30 2021-12-24 广东工业大学 一种基于文本、知识库及序列到序列的自然问答方法
CN109635253B (zh) * 2018-11-13 2024-05-28 平安科技(深圳)有限公司 文本风格转换方法、装置及存储介质、计算机设备
CN109684501B (zh) * 2018-11-26 2023-08-22 平安科技(深圳)有限公司 歌词信息生成方法及其装置
CN109766355A (zh) * 2018-12-28 2019-05-17 上海汇付数据服务有限公司 一种支持自然语言的数据查询方法和系统
US11550783B2 (en) * 2019-04-18 2023-01-10 Sap Se One-shot learning for text-to-SQL
CN110377902B (zh) * 2019-06-21 2023-07-25 北京百度网讯科技有限公司 描述文本生成模型的训练方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018213530A2 (en) * 2017-05-18 2018-11-22 Salesforce.Com, Inc Neural network based translation of natural language queries to database queries
US20180349377A1 (en) * 2017-06-03 2018-12-06 Apple Inc. Converting natural language input to structured queries

Also Published As

Publication number Publication date
CN111125154B (zh) 2021-04-02
CN111125154A (zh) 2020-05-08
JP7096289B2 (ja) 2022-07-05
US20210200763A1 (en) 2021-07-01
US11449500B2 (en) 2022-09-20

Similar Documents

Publication Publication Date Title
KR102342604B1 (ko) 뉴럴 네트워크 생성 방법 및 장치
JP7208952B2 (ja) 対話モデルを生成するための方法及び装置
CN111159220B (zh) 用于输出结构化查询语句的方法和装置
CN110969012B (zh) 文本纠错方法、装置、存储介质及电子设备
JP2022002079A (ja) 異種グラフノード表現用のモデル生成方法及び装置
CN109992338B (zh) 用于跨多个平台显露虚拟助理服务的方法和系统
US11321534B2 (en) Conversation space artifact generation using natural language processing, machine learning, and ontology-based techniques
CN116127020A (zh) 生成式大语言模型训练方法以及基于模型的搜索方法
WO2021259205A1 (zh) 一种文本序列生成方法、装置、设备和介质
CN111104796B (zh) 用于翻译的方法和装置
CN117591650A (zh) 计算机实施的方法、训练系统和计算机程序产品
CN110097936B (zh) 用于输出病历的方法和装置
CN112487137A (zh) 使用集成共享资源来流线化对话处理
CN111008213A (zh) 用于生成语言转换模型的方法和装置
CN112182255A (zh) 用于存储媒体文件和用于检索媒体文件的方法和装置
CN113190517B (zh) 数据集成方法、装置、电子设备和计算机可读介质
JP7096289B2 (ja) 構造化クエリステートメントを出力する方法および装置
CN113468344A (zh) 实体关系抽取方法、装置、电子设备和计算机可读介质
KR20210080561A (ko) 컨설팅 정보 처리 방법 및 장치
CN110689285A (zh) 测试方法、装置、电子设备及计算机可读存储介质
CN112148847B (zh) 一种语音信息的处理方法及装置
CN109857838B (zh) 用于生成信息的方法和装置
WO2021098876A1 (zh) 一种基于知识图谱的问答方法及装置
JP2018198043A (ja) 文字や単語を入力する方法、及び入力システム
CN110990528A (zh) 一种问答方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150