JP2023076413A - 言語モデルを利用してドメインに特化した対話を提供する方法、コンピュータ装置、およびコンピュータプログラム - Google Patents

言語モデルを利用してドメインに特化した対話を提供する方法、コンピュータ装置、およびコンピュータプログラム Download PDF

Info

Publication number
JP2023076413A
JP2023076413A JP2022185689A JP2022185689A JP2023076413A JP 2023076413 A JP2023076413 A JP 2023076413A JP 2022185689 A JP2022185689 A JP 2022185689A JP 2022185689 A JP2022185689 A JP 2022185689A JP 2023076413 A JP2023076413 A JP 2023076413A
Authority
JP
Japan
Prior art keywords
document
sample
query
processor
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022185689A
Other languages
English (en)
Inventor
東賢 郭
Donghyun Kwak
相煥 ▲ぺ▼
Sanghwan Bae
東勳 咸
Dong-Hoon Ham
宇明 朴
Woomyoung Park
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2023076413A publication Critical patent/JP2023076413A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3322Query formulation using system suggestions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】言語モデルを利用してドメインに特化して対話を提供する方法、コンピュータ装置およびコンピュータプログラムを提供する。【解決手段】方法は、与えられた文書301に対して、言語モデルを利用して前記文書で回答可能な少なくとも1つのクエリデータ302を生成する段階および特定のドメインに属する各前記文書と当該文書に対して生成された前記クエリデータとのペア(Document、Query)からなるデータを対話ボットのための検索モデル320の学習に利用する段階を含む。【選択図】図3

Description

以下の説明は、ユーザの質問に対して適切な文書を参照しながら回答を提供する技術に関する。
QA(question and answer)システムとは、ユーザが質問を入力すると、適切な文書を参照しながら回答を提供する対話システムである。
近年は、言語モデル(language model)の発展にともなって対話システムの性能も急速に高まっており、自然語だけでなくイメージや音声のようなマルチモーダル(multi-modal)領域にまで広がっている。
一例として、特許文献1(公開日2002年4月25日)には、人工知能技術と自然語処理技術を利用して質問に対する回答を提供する技術が開示されている。
韓国公開特許第10-2002-0030545号公報
与えられたドメインの文書に基づいて、大規模言語モデルを利用して当該ドメインに特化した対話ボットを生成する技術を提供する。
コンピュータを作動するための検索モデルであって、特定のドメインに属する各文書と、当該文書に対して生成されたクエリとのペア(Document、Query)からなるデータに基づき、入力されたユーザの質問に対して、回答内容が含まれ得る文書を選定し、前記ユーザの質問に対する回答を出力するように学習された、コンピュータを作動するための検索モデルを提供する。
一側面によると、前記ユーザの質問に対する各文書のスコアを利用することによってランク付けを実行し、回答内容が含まれ得る文書を選定するように、コンピュータを作動するための検索モデルを提供する。
他の側面によると、前記生成されたクエリは、前記文書に基づいて既に学習された言語モデルを利用して生成されたことを特徴とする、検索モデルを提供する。
コンピュータ装置で実行される方法であって、前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、当該方法は、前記少なくとも1つのプロセッサが、与えられた文書に対して、言語モデル(language model)を利用して前記文書で回答可能な少なくとも1つのクエリを生成する段階、および前記少なくとも1つのプロセッサが、前記文書と前記クエリを対話ボットのための検索モデル(retrieval model)の学習に利用する段階を含む、方法を提供する。
一側面によると、前記生成する段階は、ドメイン(domain)に特化した検索モデルのために、前記ドメインに属するターゲット文書を対象にして前記クエリを生成してよい。
他の側面によると、前記生成する段階は、サンプル文書とサンプルクエリからなるサンプルデータを利用してターゲット文書に対するプロンプト(prompt)を構成する段階、および前記プロンプトを前記言語モデルの入力とし、前記サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成する段階を含んでよい。
また他の側面によると、前記生成する段階は、第1サンプル文書と第1サンプルキーワードからなる第1サンプルデータを利用して、ターゲット文書に対する第1プロンプトを構成する段階、前記第1プロンプトを前記言語モデルの入力とし、前記第1サンプルデータのパターンにそって前記ターゲット文書に対するキーワードを生成する段階、第2サンプル文書、第2サンプルキーワード、およびサンプルクエリからなる第2サンプルデータを利用して、前記ターゲット文書のキーワードに対する第2プロンプトを構成する段階、および前記第2プロンプトを前記言語モデルの入力とし、前記ターゲット文書のキーワードに対して前記第2サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成する段階を含んでよい。
また他の側面によると、当該方法は、前記少なくとも1つのプロセッサが、ユーザが入力した質問に対して、前記検索モデルによって選定された文書を参照しながら前記質問に対する回答を提供する段階をさらに含んでよい。
さらに他の側面によると、前記提供する段階は、前記質問に対して、前記検索モデルによって計算された各文書のスコアを確率分布の形態に変換する段階、および前記確率分布のエントロピー(entropy)によって前記質問に対する回答の類型を決定する段階を含んでよい。
上述した方法を前記コンピュータ装置に実行させるためにコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラムを提供する。
コンピュータ装置であって、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、与えられた文書に対して、言語モデルを利用して前記文書で回答可能な少なくとも1つのクエリを生成する過程、および前記文書と前記クエリを、対話ボットのための検索モデルの学習に利用する過程を実行する、コンピュータ装置を提供する。
本発明の実施形態によると、与えられたドメインの文書に基づいて、言語モデルを利用して当該ドメインに特化した大規模データを生成することにより、迅速かつ効率的に対話システムを生成することができる。
本発明の実施形態によると、大規模言語モデルによって生成されたデータを検索モデル(retrieval model)の学習に利用し、検索モデルを中心とした対話システムを構築することにより、推論(inference)速度が速くて高度な対話ボットを生成することができる。
本発明の一実施形態における、ネットワーク環境の例を示した図である。 本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。 本発明の一実施形態における、大規模言語モデルを利用した対話システムの生成体系を説明するための図である。 本発明の一実施形態における、コンピュータ装置が実行することができる対話データ生成方法の例を示したフローチャートである。 本発明の一実施形態における、プロンプトを利用したクエリデータ生成過程の一例を説明するためのフローチャートである。 本発明の一実施形態における、クエリ生成方法の一例を説明するための図である。 本発明の一実施形態における、クエリ生成方法の一例を説明するための図である。 は本発明の一実施形態における、クエリ生成方法の他の例を説明するための図である。 は本発明の一実施形態における、クエリ生成方法の他の例を説明するための図である。 本発明の一実施形態における、ユーザの質問に対する回答を提供する過程の一例を説明するためのフローチャートである。 本発明の一実施形態における、回答の類型を分類する過程の一例を説明するための図である。 本発明の一実施形態における、回答の類型を分類する過程の一例を説明するための図である。 本発明の一実施形態における、ユーザの質問と関連のある文章を区別する表示する過程の一例を説明するための図である。
以下、本発明の実施形態について、添付の図面を参照しながら詳しく説明する。
本発明の実施形態は、ユーザの質問に対して適切な文書を参照しながら回答を提供する技術に関する。
本明細書で具体的に開示される事項を含む実施形態は、ドメインに特化した対話システムを生成するために必要な対話データの収集過程を、大規模言語モデルを利用した自動化過程に置換することにより、対話システムを迅速かつ効率的に生成することができる。
本発明の実施形態に係る対話データ生成システムは、少なくとも1つのコンピュータ装置によって実現されてよく、本発明の実施形態に係る対話データ生成方法は、対話データ生成システムに含まれる少なくとも1つのコンピュータ装置によって実行されてよい。このとき、コンピュータ装置においては、本発明の一実施形態に係るコンピュータプログラムがインストールされて実行されてよく、コンピュータ装置は、実行されたコンピュータプログラムの制御に従って本発明の実施形態に係る対話データ生成方法を実行してよい。上述したコンピュータプログラムは、コンピュータ装置と結合して対話データ生成方法をコンピュータに実行させるためにコンピュータ読み取り可能な記録媒体に記録されてよい。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。また、図1のネットワーク環境は、本実施形態に適用可能な環境のうちの一例を説明したものに過ぎず、本実施形態に適用可能な環境が図1のネットワーク環境に限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、PC(personal computer)、ノート型PC、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、図1では、電子機器110の例としてスマートフォンを示しているが、本発明の実施形態において、電子機器110は、実質的に無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信することができる多様な物理的なコンピュータ装置のうちの1つを意味してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を利用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター-バスネットワーク、ツリーまたは階層的ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、複数の電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供する1つ以上のコンピュータ装置によって実現されてよい。例えば、サーバ150は、ネットワーク170を介して接続した複数の電子機器110、120、130、140にサービス(一例として、対話ボットサービス)を提供するシステムであってよい。
図2は、本発明の一実施形態における、コンピュータ装置の例を示したブロック図である。上述した複数の電子機器110、120、130、140それぞれやサーバ150、160それぞれは、図2に示したコンピュータ装置200によって実現されてよい。例えば、本発明の実施形態に係る対話データ生成システムは、図2に示したコンピュータ装置200によって実現されてよい。
このようなコンピュータ装置200は、図2に示すように、メモリ210、プロセッサ220、通信インタフェース230、および入力/出力インタフェース240を含んでよい。メモリ210は、コンピュータ読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永続的大容量記録装置を含んでよい。ここで、ROMやディスクドライブのような永続的大容量記録装置は、メモリ210とは区分される別の永続的記録装置としてコンピュータ装置200に含まれてもよい。また、メモリ210には、オペレーティングシステムと、少なくとも1つのプログラムコードが記録されてよい。このようなソフトウェア構成要素は、メモリ210とは別のコンピュータ読み取り可能な記録媒体からメモリ210にロードされてよい。このような別のコンピュータ読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD-ROMドライブ、メモリカードなどのコンピュータ読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータ読み取り可能な記録媒体ではない通信インタフェース230を通じてメモリ210にロードされてもよい。例えば、ソフトウェア構成要素は、ネットワーク170を介して受信されるファイルによってインストールされるコンピュータプログラムに基づいてコンピュータ装置200のメモリ210にロードされてよい。
プロセッサ220は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ210または通信インタフェース230によって、プロセッサ220に提供されてよい。例えば、プロセッサ220は、メモリ210のような記録装置に記録されたプログラムコードに従って受信される命令を実行するように構成されてよい。
通信インタフェース230は、ネットワーク170を介してコンピュータ装置200が他の装置(一例として、上述した記録装置)と互いに通信するための機能を提供してよい。一例として、コンピュータ装置200のプロセッサ220がメモリ210のような記録装置に記録されたプログラムコードに従って生成した要求や命令、データ、ファイルなどが、通信インタフェース230の制御に従ってネットワーク170を介して他の装置に伝達されてよい。これとは逆に、他の装置からの信号や命令、データ、ファイルなどが、ネットワーク170を経てコンピュータ装置200の通信インタフェース230を通じてコンピュータ装置200に受信されてよい。通信インタフェース230を通じて受信された信号や命令、データなどは、プロセッサ220やメモリ210に伝達されてよく、ファイルなどは、コンピュータ装置200がさらに含むことのできる記録媒体(上述した永続的記録装置)に記録されてよい。
入力/出力インタフェース240は、入力/出力装置250とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を含んでよく、出力装置は、ディスプレイ、スピーカのような装置を含んでよい。他の例として、入力/出力インタフェース240は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置250は、コンピュータ装置200と1つの装置で構成されてもよい。
また、他の実施形態において、コンピュータ装置200は、図2の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、コンピュータ装置200は、上述した入力/出力装置250のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、データベースなどのような他の構成要素をさらに含んでもよい。
本実施形態は、ドメインに特化した対話ボットを生成するために大規模言語モデルを活用することで、当該ドメインの膨大なデータ収集問題を解決することができる。
本発明で使用される大規模言語モデルとは、膨大なデータを学習した言語モデルであって、Few-Shotサンプル(sample)が与えられるだけでタスクを適切に実行することができる自然語生成モデルを意味する。
言い換えれば、大規模言語モデルは自己回帰(autoregressive)モデルであり、Few-Shot学習などのような方式を利用することでファインチューニング(fine-tuning)を経なくても推論が可能な言語モデルであると言える。これは、既存の一般的な言語モデルに比べて10倍以上の媒介変数(例えば、1000億個以上の媒介変数など)を持つことができる。例えば、GPT-3(Generative Pre-trained Transformer 3)やHyperClova(登録商標)のような大規模言語モデルは、自然なプロンプト(prompt)によって制御が可能な優れたFew-Shot学習器であって、プロンプトによって少量のデータだけでもパターンを理解し、NLP問題を解決する能力であるインコンテキスト学習(in-context learning)が可能である。
本実施形態は、ドメインに特化した対話ボットを大規模言語モデルと検索モデルを中心にして設計する。言語モデル基盤の生成器(generator)と検索モデルを用いた文書基盤の対話システムとして、推論速度が速くて高度な対話ボットを生成することができる。
図3は、本発明の一実施形態における、大規模言語モデルを利用した対話システムの生成体系を説明するための図である。
図3を参照すると、本実施形態において、大規模言語モデル310は、ドメインに特化した対話ボットの生成に必要なデータとして当該ドメインに適合するクエリデータ(query data)302を生成するためのバックボーンとして用いられる。
プロセッサ220は、特定のドメイン文書301、例えば、ホームページ内のウェプページが与えられた場合、当該文書内の内容に対して質疑回答(QA)が可能なチャットボットを生成するために大規模言語モデル310を用いることで、与えられた文書301から予想される質問を示すクエリデータ302を生成してよい。
プロセッサ220は、言語モデル310で生成されたクエリデータ302を学習データとし、対話ボットのための検索モデル320の学習に利用してよい。ドメインに適合するクエリデータ302を検索モデル320の学習に利用することにより、ドメインに特化したモデルを構成することができる。
プロセッサ220は、ユーザが質問を入力すると、検索モデル320によってユーザの質問に対応する文書を参照しながら回答を提供してよい。
図4は、本発明の一実施形態における、コンピュータ装置が実行することができる対話データ生成方法の例を示したフローチャートである。
本実施形態に係る対話データ生成方法は、上述したコンピュータ装置200によって実行されてよい。この場合、コンピュータ装置200のプロセッサ220は、メモリ210が含むオペレーティングシステムのコードと、少なくとも1つのプログラムのコードとによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ220は、コンピュータ装置200に記録されたコードが提供する制御命令に従ってコンピュータ装置200が図4の対話データ生成方法に含まれる段階410~段階430を実行するようにコンピュータ装置200を制御してよい。
図4を参照すると、段階410において、プロセッサ220は、大規模言語モデルを利用して、与えられたドメインのターゲット文書からクエリデータを生成してよい。プロセッサ220は、言語モデルの入力文となるプロンプトを利用して、ターゲット文書に対して予想される質問を生成してよい。プロセッサ220は、言語モデルの優れたデータ生成能力とインコンテキスト学習能力を利用して、モデル学習のためのデータを生成してよい。このように生成された質問と、当該質問を生成したターゲット文書(あるいは、ターゲット文書内に含まれる正解文句)とのペアが、QAモデルに対する学習データとして利用されてよい。
段階420において、プロセッサ220は、ターゲット文書とクエリデータを学習データとして、QAのための検索モデルの学習に利用してよい。プロセッサ220は、ドメインのターゲット文書と、当該ターゲット文書を対象とし、言語モデルで生成されたクエリデータとを、検索モデル320の学習に利用することにより、当該ドメインに対する対話モデルを構築してよい。
段階430において、プロセッサ220は、ユーザが質問を入力すると、検索モデル320を利用して、ユーザの質問に対応する文書を参照しながら回答を提供してよい。プロセッサ220は、ユーザの質問に対応する文書によって回答フォーマッティング(formatting)または回答生成(generation)を実行してよい。言い換えれば、プロセッサ220は、ユーザの質問として検索された文書をフォーマッティングして回答として提供するか、当該文書を利用して回答を直接生成して提供してよい。
図5は、本発明の一実施形態における、プロンプトを利用したクエリデータ生成過程の一例を説明するためのフローチャートである。
図5を参照すると、段階501において、プロセッサ220は、プロンプトに使用する原本データを選定してよい。
プロセッサ220は、事前に定められた少なくとも1つ以上の文書(Document)と当該文書で回答可能な質問(Query)のペアを原本データとして利用してよい。予め定められた原本サンプルペアの他に別のデータセットが存在してもよく、実施形態によっては、データセット内から文書と質問からなる原本サンプルペアを選定してもよい。
このとき、プロンプトは、少なくとも1つ以上の文書、当該文書で回答可能な質問の原本サンプルペア、ターゲット文書で構成されてよい。プロンプト構成の詳しい方法については、図6を参照しながら説明する。
段階502において、プロセッサ220は、言語モデルの入力に該当するプロンプトを構成してよい。プロセッサ220は、段階501で選択された原本データを利用して言語モデルの入力プロンプトを構成してよい。プロセッサ220は、与えられたNLP問題の特性が適切に反映された専用プロンプトテンプレートを製作するようになるが、このとき、プロンプトテンプレートにはタスクの定義やメタ情報が含まれてよい。言い換えれば、プロセッサ220は、データセットから選択された原本データを利用して自然語形態のプロンプトを構成するが、このとき、プロンプトは、言語モデルの理解が可能な形式で製作されて言語モデルの入力として与えられる。プロセッサ220は、原本データがラベル付きデータである場合、ラベル情報とともに入力文が生成されるようにプロンプトを設計してよい。プロンプトの形式自体は多様に構成されてよいが、一例として、プロンプトは、文書(例えば、ウェプページなど)と当該文書で回答可能なクエリがサンプルとして構成されてよい。
プロセッサ220は、与えられたタスクTに対して、データセットからサンプリングされた原本データである文書サンプルと、与えられたタスクTの特性を考慮したプロンプトテンプレートを組み合わせて、言語モデルの入力プロンプトを構成してよい。
段階503において、プロセッサ220は、段階502で構成されたプロンプトを言語モデルに入力し、言語モデルから自然語形態のクエリデータを生成してよい。言い換えれば、プロセッサ220は、プロンプト入力文を言語モデルに入力した後、言語モデルの生成あるいは完成機能による言語生成結果としてクエリデータを取得してよい。プロセッサ220は、プロンプトを言語モデルに入力し、言語モデルでプロンプトに含まれたサンプルの自然語パターンを分析することで、当該パターンを有する新たな結果を取得することができる。
図6および図7は、本発明の一実施形態における、クエリ生成方法の一例を説明するための図である。
図6を参照すると、プロセッサ220は、原本データに選定された文書と当該文書の内容に回答可能な少なくとも1つのクエリからなるサンプルデータペアを利用してプロンプト入力文610を構成してよい。
プロセッサ220は、少なくとも1つのサンプルデータペアとターゲット文書で構成されたプロンプト入力文610を言語モデルの入力とし、言語モデルがターゲット文書に対する質問を生成するようにしてよい。すなわち、言語モデルの完成機能によって、ターゲット文書で回答可能な少なくとも1つのクエリを生成してよい。
一例として、プロセッサ220は、サンプルデータペアで構成されたプロンプト入力文610を利用したクエリ生成を繰り返すことにより、ターゲット文書に対して事前に定められた一定の件数のクエリを生成してよい。実施形態によっては、新しいクエリがこれ以上生成されない飽和状態に至るまで、ターゲット文書に対するクエリを生成してよい。
プロセッサ220は、[サンプル文書+クエリ]形態のサンプルデータペアと[ターゲット文書]で構成されたプロンプト610を利用して、プロンプトに含まれるサンプルデータのパターンにそってターゲット文書に対するクエリを生成してよい。
例えば、図7に示すように、プロセッサ220は、ターゲット文書701が与えられる場合、プロンプト入力文610としてサンプルデータとターゲット文書701を言語モデルに入力し、サンプルデータのパターンにそってターゲット文書701から予想されるクエリデータ702を生成してよい。
言い換えれば、プロセッサ220は、文書と文書から導出されるクエリをサンプルとして提供し、サンプルのパターンにそってターゲット文書に対するクエリを生成してよい。
図8および図9は、本発明の一実施形態における、クエリ生成方法の他の例を説明するための図である。
プロセッサ220は、言語モデルで生成したクエリの品質を高めるために、キーワードに基づいてクエリを生成する方法を適用してよい。
一例として、プロセッサ220は、2つのプロンプトを段階的に利用することにより、最初の段階では文書から当該文書と関連するキーワードを抽出した後、次の段階では抽出したキーワードに対するクエリを生成するようにしてよい。追加でキーワードを利用する場合、文書からより多様なクエリを生成することができ、質問の範囲(coverage)が広がるようになる。
図8を参照すると、プロセッサ220は、原本データに選定された文書と当該文書に対するキーワードからなる第1サンプルデータペアを利用して、第1プロンプト入力文810を構成してよい。
プロセッサ220は、キーワード基盤の少なくとも1つの第1サンプルデータペアとターゲット文書で構成された第1プロンプト入力文810を言語モデルに入力し、言語モデルの生成機能によってターゲット文書に対する少なくても1つのキーワードを生成してよい。
次に、プロセッサ220は、原本データに選定された文書、当該文書から抽出したキーワード、さらに当該文書の内容に回答可能なクエリからなる第2サンプルデータペアを利用して、第2プロンプト入力文820を構成してよい。
このとき、第2プロンプト入力文820には、第1プロンプト入力文810を利用した言語モデルで生成された、ターゲット文書に対するキーワードが含まれてよい。
プロセッサ220は、キーワード基盤の少なくとも1つの第2サンプルデータペア、ターゲット文書、さらにターゲット文書に対するキーワードで構成された第2プロンプト入力文820を言語モデルに入力し、言語モデルの完成機能によってターゲット文書で回答可能な少なくとも1つのクエリを生成してよい。
プロセッサ220は、[サンプル文書+キーワード]からなる第1サンプルデータペアと[ターゲット文書]で構成された一次プロンプトを利用して一次プロンプトのパターンにそってターゲット文書に対するキーワードを生成した後、各キーワードに対して、[サンプル文書+キーワード+クエリ]からなる第2サンプルデータペアと[ターゲット文書+キーワード]で構成された二次プロンプトを利用して二次プロンプトのパターンにそってターゲット文書に対するクエリを生成してよい。
例えば、図9に示すように、プロセッサ220は、ターゲット文書901が与えられる場合、先ず、第1プロンプト入力文810を言語モデルに入力し、サンプルデータのパターンにそってターゲット文書901でクエリとして登場し得るキーワード90を生成してよい。
この後、プロセッサ220は、キーワード90が含まれた第2プロンプト入力文820を言語モデルに入力し、サンプルデータのパターンにそって、キーワード90に基づいてターゲット文書901に対して予想されるクエリデータ902を生成してよい。
プロセッサ220は、ターゲット文書901に対して少なくとも1つのキーワード90を抽出してよく、キーワード90それぞれに該当するクエリデータ902を生成してよい。このように、キーワードを利用すれば、各キーワードと関連があり、キーワードに該当する意図を持つクエリデータが均一に生成されるようになる。このように、多様なデータを学習に利用する場合、検索モデルの性能は高まるであろう。
したがって、プロセッサ220は、文書、文書から抽出したキーワード、およびキーワードが含まれたクエリをサンプルとして提供し、サンプルのパターンにそって、ターゲット文書から抽出したキーワードに基づいてターゲット文書に対するクエリを生成することができる。
プロセッサ220は、ターゲット文書とターゲット文書に対して生成されたクエリからなるデータを対話ボットのためのモデル学習に利用してよい。
検索モデル320の場合、一例として、ポリエンコーダ(poly encoder)構造を適用してよく、クエリから文書を探索して回答を提供してよい。検索モデル320は、クロスエンコーダ(cross encoder)構造のリランカー(reranker)を含んでよく、これによってクエリに対応する文書をリランキング(reranking)して回答を提供してよい。
検索モデル320の学習には、該当するドメインに対する各文書と、当該文書に対して生成されたクエリとのペア(Document、Query)が利用されてよい。検索モデル320は、ラベリングされたデータセットを利用した事前トレーニング(pre-training)が適用されたモデルまたはラベリングされていない多様な言語特性のコーパス(corpus)から教師なし(unsupervised)検索モデル320によって事前に学習されたモデルを、本発明の実施形態を利用して生成されたデータを利用してファインチューニング(find-tuning)することによって生成してよい。
検索モデル320をファインチューニングする過程において、ターゲット文書が属するドメインに特化した類義語および同義語情報を利用したデータ拡張(data augmentation)技法が使用されてよい。学習バッチの質問に対して一定の確率で各単語を類義語や同義語に置換して学習させることにより、一定のデータ拡張効果を期待することができる。例えば、「博士後の研究員」をポスドク、Post-doc、ポストドクターなどに置換したり、「OCR」を光学文字認識、オーシーアールなどに置換したりして学習させてよい。
検索モデル320の学習性能を改善するために、データ拡張技法の他にも、推論入力から単語をルール(rule)基盤に置換する方法を利用することも可能である。
図10は、本発明の一実施形態における、ユーザの質問に対する回答を提供する過程の一例を説明するためのフローチャートである。
図10を参照すると、段階1001において、プロセッサ220は、検索モデル320によってユーザの質問に対する各文書のスコアを計算してよい。プロセッサ220は、検索モデル320を利用して、ユーザの質問に対して回答内容が含まれる文書を探索してランク付けを実行してよい。プロセッサ220は、ユーザの質問に該当する文章と文書の類似度を測定することによって各文書のスコアを計算してよい。
段階1002において、プロセッサ220は、検索モデル320によって計算された文書のスコアを確率分布の形態に変換してよい。一例として、プロセッサ220は、ソフトマックス(softmax)関数を利用して、検索モデル320の文書スコアを確率分布の形態に変換してよい。
段階1003において、プロセッサ220は、文書スコアの確率分布によってユーザの質問に対する回答の類型を決定してよい。プロセッサ220は、ユーザの質問に対して、検索モデル320によるランキングに基づいて選定された少なくとも1つの文書をフォーマッティングして回答として提供してよい。
回答として提供される文書の件数は質問によって異なってよく、回答の類型ごとに文書の件数が定義されてよい。文書スコアを確率分布の形態に変換したとき、質問に対する関連文書のうちで1位が確実なケースは、スコア確率分布のエントロピー(entropy)が0に近く、関連文書が多いほどエントロピーが増加する。また、関連文書が探索されない質問の場合は、均一な(uniform)分布を帯びた傾向性を有する。
このような傾向性により、スコア確率分布のエントロピーに基づいて閾値(thresholding)を設定して回答の類型を分類してよい。
例えば、図11に示すように、スコア確率分布のエントロピーが0に近い特定の閾値以下(例えば、0.3以下)である場合は、1位(top1)が確実なケース1に区分し、エントロピーが閾値よりも大きくて1よりも小さい場合(例えば0.4~1の場合)は、1位から3位の文書がすべて有用なケース2に区分し、エントロピーが2以上の場合は、関連文書が1つもないケース3に区分して、回答の類型を3つのケースに分類してよい。他の例として、回答の類型を分類するための閾値を0.1と1.75を基準に設定してよい。スコア確率分布のエントロピー(E)が0≦E<0.1の場合はケース1に区分し、0.1≦E<1.75の場合はケース2に区分し、E≧1.75の場合はケース3に区分してよい。
図12に示すように、プロセッサ220は、「ランプの色」に関する質問に対して、文書スコア確率分布のエントロピーがケース2と示される場合、文書スコアを基準にして上位3件の文書を選定して回答を提供してよい。ランプの色の内容が含まれる文書として、赤色、黄色、緑色についての詳細文書が類似スコアとして探索された場合、閾値によって3つの文書すべてを回答として活用してよい。このとき、ユーザの質問に対する回答として先ずは3つの文書に対するタイトルを示した後、ユーザが特定の文書を選択すれば、選択された文書の詳細内容が表示されるようにしてよい。一方、プロセッサ220は、「インターン優待条件」に関する質問に対して、文書スコア確率分布のエントロピーがケース1と示される場合、文書スコアを基準にして上位1件の文書を選定して回答を提供してよい。インターン優待条件の内容が含まれる最高スコアの文書1つを、当該質問に対する回答として示してよい。
プロセッサ220は、回答として提供された文書内のうちでユーザの質問と関連のある文章を、他の文章と区別して示してよい。例えば、図13に示すように、回答結果として提供された文書1310の内容のうちのどの部分がユーザの質問に対する回答内容に該当するかを、ハイライティング(highlighting)1301によって表示してよい。
文書内のユーザの質問に該当する文章をハイライティングするためには、文書に含まれる各文章に対して、当該文章を回答とする質問を生成し、これを検索モデルの学習のためのデータとして活用してよい。言い換えれば、プロセッサ220は、ターゲット文書内の各文章に対して、[サンプル文章+クエリ]と[ターゲット文章]で構成されたプロンプトを利用して、プロンプトのパターンにそってターゲット文章に対するクエリを生成してよく、[ターゲット文章+クエリ]からなるデータペアを検索モデルの学習に利用し、文書内からユーザの質問に対する回答文章を探索してハイライティング表示してよい。
プロセッサ220は、文書内の回答文章のハイライティングのために、文章と当該文章を回答とするクエリをサンプルとしてターゲット文章に対するクエリを生成するにあたり、クエリ生成の品質を高めるために、クエリ生成に先立ってターゲット文章が回答可能な文章であるかをフィルタリングするロジックを適用してよい。例えば、ターゲット文書のタイトルや当該文書内の他の文章などを考慮して、ターゲット文章をフィルタリングしてよい。言い換えれば、文書のタイトルから外れた文章、文書内の他の文章とは形式が異なる文章などをクエリ生成対象から除外してよい。
本実施形態では、文書基盤の対話ボットにTOD(Task Oriented Dialog)を結合することで、問い返しや必要な情報クエリなどの能動的な会話はもちろん、APIコールによる実際のユーザ要請の処理などのより高度なサービスを提供することができる。上述した対話システムがTODと結合するようになれば、適切な回答をユーザに提供できると同時に、ユーザの暗黙的な要求事項を把握し、これを先制的に問いて解決するという能動的な対話システムを構築することができる。
このように、本発明の実施形態によると、与えられたドメインの文書に基づいて、言語モデルを利用して当該ドメインに特化した大規模データを生成することにより、迅速かつ効率的に対話システムを生成することができる。本発明の実施形態によると、大規模言語モデルで生成されたデータを検索モデル(retrieval model)の学習に利用し、検索モデルを中心にした対話システムを構築することにより、推論(inference)速度が早くて高度な対話ボットを生成することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
以上のように、実施形態を、限定された実施形態および図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付の特許請求の範囲に属する。
301:ドメイン文書
302:クエリデータ
310:大規模言語モデル
320:検索モデル

Claims (16)

  1. 検索モデルであって、
    特定のドメインに属する各文書と、当該文書に対して生成されたクエリとのペア(Document、Query)からなるデータに基づいて学習されたものであり、
    当該検索モデルに入力されたユーザの質問に対して、前記データに基づいて、回答内容が含まれ得る文書を選定し、前記ユーザの質問に対する回答を出力するように、コンピュータを機能させるための検索モデル。
  2. 前記ユーザの質問に対する各文書のスコアを利用することによってランク付けを実行することによって、前記回答内容が含まれ得る文書を選定するように、コンピュータを機能させるための請求項1に記載の検索モデル。
  3. 前記生成されたクエリは、前記文書に基づいて既に学習された言語モデルを利用して生成されたことを特徴とする、請求項1に記載の検索モデル。
  4. コンピュータ装置で実行される方法であって、
    前記コンピュータ装置は、メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサを含み、
    当該方法は、
    前記少なくとも1つのプロセッサが、与えられた文書に対して、言語モデルを利用して前記文書で回答可能な少なくとも1つのクエリを生成する段階、および
    前記少なくとも1つのプロセッサが、前記文書と前記クエリを対話ボットのための検索モデルの学習に利用する段階
    を含む、方法。
  5. 前記生成する段階は、
    ドメインに特化した検索モデルのために、前記ドメインに属するターゲット文書を対象にして前記クエリを生成すること
    を特徴とする、請求項4に記載の方法。
  6. 前記生成する段階は、
    サンプル文書とサンプルクエリからなるサンプルデータを利用して、ターゲット文書に対するプロンプトを構成する段階、および
    前記プロンプトを前記言語モデルの入力とし、前記サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成する段階
    を含む、請求項4に記載の方法。
  7. 前記生成する段階は、
    第1サンプル文書と第1サンプルキーワードからなる第1サンプルデータを利用して、ターゲット文書に対する第1プロンプトを構成する段階、
    前記第1プロンプトを前記言語モデルの入力とし、前記第1サンプルデータのパターンにそって前記ターゲット文書に対するキーワードを生成する段階、
    第2サンプル文書、第2サンプルキーワード、およびサンプルクエリからなる第2サンプルデータを利用して、前記ターゲット文書のキーワードに対する第2プロンプトを構成する段階、および
    前記第2プロンプトを前記言語モデルの入力とし、前記ターゲット文書のキーワードに対して前記第2サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成する段階
    を含む、請求項4に記載の方法。
  8. 当該方法は、
    前記少なくとも1つのプロセッサが、入力されたユーザの質問に対して、前記検索モデルによって選定された文書を参照しながら前記ユーザの質問に対する回答を提供する段階
    をさらに含む、請求項4に記載の方法。
  9. 前記提供する段階は、
    前記ユーザの質問に対して、前記検索モデルによって計算された各文書のスコアを確率分布の形態に変換する段階、および
    前記確率分布のエントロピーによって前記ユーザの質問に対する回答の類型を決定する段階
    を含む、請求項8に記載の方法。
  10. 請求項4乃至9のうちのいずれか一項に記載の方法を前記コンピュータ装置に実行させるためのコンピュータプログラム。
  11. コンピュータ装置であって、
    メモリに含まれるコンピュータ読み取り可能な命令を実行するように構成された少なくとも1つのプロセッサ
    を含み、
    前記少なくとも1つのプロセッサは、
    与えられた文書に対して、言語モデルを利用して前記文書で回答可能な少なくとも1つのクエリを生成する過程、および
    前記文書と前記クエリを対話ボットのための検索モデルの学習に利用する過程
    を実行する、コンピュータ装置。
  12. 前記少なくとも1つのプロセッサは、
    ドメインに特化した検索モデルのために、前記ドメインに属するターゲット文書を対象にして前記クエリを生成すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  13. 前記少なくとも1つのプロセッサは、
    サンプル文書とサンプルクエリからなるサンプルデータを利用してターゲット文書に対するプロンプトを構成し、
    前記プロンプトを前記言語モデルの入力とし、前記サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  14. 前記少なくとも1つのプロセッサは、
    第1サンプル文書と第1サンプルキーワードからなる第1サンプルデータを利用して、ターゲット文書に対する第1プロンプトを構成し、
    前記第1プロンプトを前記言語モデルの入力とし、前記第1サンプルデータのパターンにそって前記ターゲット文書に対するキーワードを生成し、
    第2サンプル文書、第2サンプルキーワード、およびサンプルクエリからなる第2サンプルデータを利用して、前記ターゲット文書のキーワードに対する第2プロンプトを構成し、
    前記第2プロンプトを前記言語モデルの入力とし、前記ターゲット文書のキーワードに対して前記第2サンプルデータのパターンにそって前記ターゲット文書に対するクエリを生成すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  15. 前記少なくとも1つのプロセッサは、
    入力されたユーザの質問に対して、前記検索モデルによって選定された文書を参照しながら前記ユーザの質問に対する回答を提供すること
    を特徴とする、請求項11に記載のコンピュータ装置。
  16. 前記少なくとも1つのプロセッサは、
    前記ユーザの質問に対して、前記検索モデルによって計算された各文書のスコアを確率分布の形態に変換し、
    前記確率分布のエントロピーによって前記ユーザの質問に対する回答の類型を決定すること
    を特徴とする、請求項15に記載のコンピュータ装置。
JP2022185689A 2021-11-22 2022-11-21 言語モデルを利用してドメインに特化した対話を提供する方法、コンピュータ装置、およびコンピュータプログラム Pending JP2023076413A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210161268A KR20230075052A (ko) 2021-11-22 2021-11-22 언어 모델을 이용하여 도메인에 특화된 대화를 제공하는 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
KR10-2021-0161268 2021-11-22

Publications (1)

Publication Number Publication Date
JP2023076413A true JP2023076413A (ja) 2023-06-01

Family

ID=86543938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022185689A Pending JP2023076413A (ja) 2021-11-22 2022-11-21 言語モデルを利用してドメインに特化した対話を提供する方法、コンピュータ装置、およびコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2023076413A (ja)
KR (1) KR20230075052A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402164A (zh) * 2023-06-06 2023-07-07 之江实验室 基于预训练语言模型的机器人任务生成方法、装置及介质
CN117194410A (zh) * 2023-07-13 2023-12-08 广州白码科技有限公司 一种人工智能语言模型生成业务报表的方法及系统
JP7441366B1 (ja) 2023-09-19 2024-02-29 株式会社東芝 情報処理装置、情報処理方法及びコンピュータプロググラム
JP7511068B1 (ja) 2023-10-16 2024-07-04 PayPay株式会社 情報処理装置、情報処理方法および情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102658967B1 (ko) * 2023-07-03 2024-04-19 주식회사 렛서 인공지능 기반 솔루션을 제공하기 위한 방법, 전자 장치, 및 시스템
KR102653266B1 (ko) * 2023-07-07 2024-04-02 주식회사 비씨티원 인공지능 기반의 챗봇 대화 상담 시스템 및 그 방법
KR102637029B1 (ko) 2023-10-11 2024-02-15 주식회사 마인즈앤컴퍼니 거대언어모델을 활용하여 멀티턴 챗봇 데이터 생성을 위한 장치 및 그 장치의 구동방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402164A (zh) * 2023-06-06 2023-07-07 之江实验室 基于预训练语言模型的机器人任务生成方法、装置及介质
CN116402164B (zh) * 2023-06-06 2023-09-05 之江实验室 基于预训练语言模型的机器人任务生成方法、装置及介质
CN117194410A (zh) * 2023-07-13 2023-12-08 广州白码科技有限公司 一种人工智能语言模型生成业务报表的方法及系统
CN117194410B (zh) * 2023-07-13 2024-05-14 广州白码科技有限公司 一种人工智能语言模型生成业务报表的方法及系统
JP7441366B1 (ja) 2023-09-19 2024-02-29 株式会社東芝 情報処理装置、情報処理方法及びコンピュータプロググラム
JP7511068B1 (ja) 2023-10-16 2024-07-04 PayPay株式会社 情報処理装置、情報処理方法および情報処理プログラム

Also Published As

Publication number Publication date
KR20230075052A (ko) 2023-05-31

Similar Documents

Publication Publication Date Title
US20210232762A1 (en) Architectures for natural language processing
JP2023076413A (ja) 言語モデルを利用してドメインに特化した対話を提供する方法、コンピュータ装置、およびコンピュータプログラム
CN107368515B (zh) 应用程序页面推荐方法及系统
US11556573B2 (en) Semantic cluster formation in deep learning intelligent assistants
CN116775847A (zh) 一种基于知识图谱和大语言模型的问答方法和系统
WO2022154897A1 (en) Classifier assistance using domain-trained embedding
Shen et al. Kwickchat: A multi-turn dialogue system for aac using context-aware sentence generation by bag-of-keywords
US11379527B2 (en) Sibling search queries
CN112035626A (zh) 一种大规模意图的快速识别方法、装置和电子设备
CN110851650A (zh) 一种评论输出方法、装置、以及计算机存储介质
El Janati et al. Adaptive e-learning AI-powered chatbot based on multimedia indexing
CN114416926A (zh) 关键词匹配方法、装置、计算设备及计算机可读存储介质
Borisov et al. Keyword extraction for improved document retrieval in conversational search
Mallinar et al. iterative data programming for expanding text classification corpora
KR102663908B1 (ko) 시맨틱 분석을 통한 의미 검색 서비스 제공 방법
CN111026908A (zh) 歌曲标签确定方法、装置、计算机设备以及存储介质
CN116340502A (zh) 基于语义理解的信息检索方法和装置
KR20200011251A (ko) 대화 인지를 위한 규칙 생성 방법, 규칙 기반의 추론 방법 및 그 방법이 적용된 장치
CN114942981A (zh) 问答查询方法、装置、电子设备及计算机可读存储介质
Shahade et al. Deep learning approach-based hybrid fine-tuned Smith algorithm with Adam optimiser for multilingual opinion mining
KR20200023620A (ko) 대화 인지를 위한 규칙기반의 사용자 의도 추론 장치
US11934794B1 (en) Systems and methods for algorithmically orchestrating conversational dialogue transitions within an automated conversational system
CN117436457B (zh) 反讽识别方法、装置、计算设备及存储介质
Che et al. A feature and deep learning model recommendation system for mobile application
CN116955615A (zh) 意图识别方法、装置、设备、介质及程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240408