JP2016099381A - 音声対話システムおよび音声対話方法 - Google Patents

音声対話システムおよび音声対話方法 Download PDF

Info

Publication number
JP2016099381A
JP2016099381A JP2014233815A JP2014233815A JP2016099381A JP 2016099381 A JP2016099381 A JP 2016099381A JP 2014233815 A JP2014233815 A JP 2014233815A JP 2014233815 A JP2014233815 A JP 2014233815A JP 2016099381 A JP2016099381 A JP 2016099381A
Authority
JP
Japan
Prior art keywords
information
voice
speaker
sentence
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014233815A
Other languages
English (en)
Other versions
JP6433765B2 (ja
Inventor
秀治 倉本
Hideji Kuramoto
秀治 倉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2014233815A priority Critical patent/JP6433765B2/ja
Publication of JP2016099381A publication Critical patent/JP2016099381A/ja
Application granted granted Critical
Publication of JP6433765B2 publication Critical patent/JP6433765B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】特定のドメインにおける話題について人と音声で対話することができる音声対話システムを提供する。【解決手段】特定のドメインにおける話題について人と音声で対話する音声対話システム10は、発話者の発話を音声認識して発話文を生成する音声認識部11と、発話文を解析して、発話者がドメインにおけるどのような情報を知りたがっているかを理解する意図理解部12と、発話者が知りたがっている情報の内容に応じて、ドメインにおけるさまざまな情報を保持する第1の情報源およびドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して、目的の情報を取得する対話管理部13と、取得された目的の情報を用いて発話者の発話に対する応答文を生成する応答文生成部14と、応答文を音声合成して音声信号を生成する音声合成部15とを備える。【選択図】図1

Description

本発明は、音声対話システムに関し、特に、特定のドメインにおける話題について人と音声で対話する音声対話システムに関する。
近年、スマートフォンやタブレット端末などの携帯情報端末(PDA)やカーナビゲーションといった各種システムに音声認識機能が搭載されている。音声認識機能を搭載したシステムでは、ユーザーは、システムに対して音声で指示を出し、システムはその音声による指示を理解して所期の動作をする。システムがさらに音声合成機能を有する場合には、ユーザーはシステムと音声で対話することができる。
従来、音声対話システムとして、コミュニケーションギャップをリアルタイムに解決し、持続的かつ自然なコミュニケーションを行うものや(例えば、特許文献1を参照)、話者側からの聞き返しおよび確認に係る音声を認識し、これに基づいた回答や処理を実行することが可能なもの(例えば、特許文献2を参照)などがある。また、ユーザーの音声に対して適切な応答文を生成する対話システムとして、認識対象となっているキーワードに対して、それらを応答文中に含める場合に使用する言い換え語と、応答文の種類を表す応答タイプと、言い換え語と応答タイプが選択される条件とを記録し、言い換え語と応答タイプが選択される条件に基づいて、認識されたキーワードに対する言い換え語と応答文テンプレートを決定し、決定された応答文テンプレートに言い換え語を挿入することにより応答文を生成するものがある(例えば、特許文献3を参照)。
特開2012−181697号公報 特開2010−197858号公報 特開2008−39928号公報
近年、テレビジョン装置などのAVシステムにも音声認識機能が搭載されつつある。しかし、現在のAVシステムは、「Volume up」や「Turn off」などのような命令の発話を理解して所期の動作をするコマンドベースの音声認識システムに過ぎない。このため、ユーザーがコンテンツを視聴しながらそのコンテンツについて知りたいことがあっても、システムと音声対話によって必要な情報を得ることはできない。また、ユーザーが知りたい情報は、5W1Hで回答できるような単純な情報に限らず、コンテンツに関する意見や感想といった複雑な情報であることもある。
上記問題に鑑み、本発明は、特定のドメインにおける話題について人と音声で対話することができる音声対話システムを提供することを目的とする。
本発明の一局面に従った音声対話システムは、特定のドメインにおける話題について人と音声で対話する音声対話システムであって、発話者の発話を音声認識して発話文を生成する音声認識部と、前記発話文を解析して、前記発話者が前記ドメインにおけるどのような情報を知りたがっているかを理解する意図理解部と、前記発話者が知りたがっている情報の内容に応じて、前記ドメインにおけるさまざまな情報を保持する第1の情報源および前記ドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して、目的の情報を取得する対話管理部と、前記目的の情報を用いて前記発話者の発話に対する応答文を生成する応答文生成部と、前記応答文を音声合成して音声信号を生成する音声合成部とを備えているシステムである。
また、本発明の別の局面に従った音声対話方法は、特定のドメインにおける話題について人と音声で対話する方法であって、音声認識部が、発話者の発話を音声認識して発話文を生成し、意図理解部が、前記発話文を解析して、前記発話者が前記ドメインにおけるどのような情報を知りたがっているかを理解し、対話管理部が、前記発話者が知りたがっている情報の内容に応じて、前記ドメインにおけるさまざまな情報を保持する第1の情報源および前記ドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して、目的の情報を取得し、応答文生成部が、前記目的の情報を用いて前記発話者の発話に対する応答文を生成し、音声合成部が、前記応答文を音声合成して音声信号を生成する方法である。
これらシステムまたは方法によると、ユーザー(発話者)が音声対話システムに対して何か発話すると、ユーザーが特定のドメインにおけるどのような情報を発話者が知りたがっているかが理解され、当該知りたがっている情報の内容に応じて、ドメインにおけるさまざまな情報を保持する第1の情報源およびドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して目的の情報が取得され、その情報を用いた応答文が音声としてユーザーに返される。これにより、ユーザーは、システムとの対話を通じて、5W1Hで回答できるような単純な情報のみならず、意見などの複雑な情報を取得することができる。
前記第1の情報源が、インターネット上のウェブサイトであってもよい。
これによると、インターネット上のウェブサイトの情報は頻繁に追加・更新されるため、インターネット上のウェブサイトを第1の情報源として使用することで音声対話システムは常に最新の情報を取得することができる。
上記の音声対話システムは、前記第2の情報源としての感想データベースを備えていてもよく、前記対話管理部は、インターネット上のウェブサイトから定期的または不定期にユーザーレビューを取得し、当該ユーザーレビューから評価表現を含む文を抽出して前記感想データベースに登録するものであってもよい。
これによると、インターネット上のウェブサイトに公開されているユーザーレビューがそのままではなく、感想として有用な評価表現を含む文が抽出されて感想データベースに登録される。また、インターネット上のウェブサイトに新たに投稿されたユーザーレビューを定期的または不定期に感想データベースに取り込んで感想データベースを更新することができる。
本発明によれば、特定のドメインにおける話題について人と音声で対話することができる音声対話システムが実現される。これにより、ユーザーが欲する有用な情報を、対話という簡単なインターラクションによりユーザーに提供することができる。
本発明の一実施形態に係る音声対話システムのブロック図 音声対話システムの動作を示すフローチャート 音声対話システムの実施例であるテレビジョン装置の外観図
以下、図面を参照しながら本発明を実施するための形態について説明する。図1は、本発明の一実施形態に係る音声対話システムのブロック図である。本実施形態に係る音声対話システム10は、音声認識部11と、意図理解部12と、対話管理部13と、応答文生成部14と、音声合成部15とを備え、特定のドメインにおける話題について発話者と音声で対話するものである。ドメインとは、音声対話システム10が扱う対話内容・分野・ジャンルなどのことをいい、例えば、映画、音楽、料理、天気といった特定の話題領域のことである。例えば、ドメインが映画の場合、発話者は、映画について音声対話システム10と対話することができる。
なお、以下の説明ではドメインが映画の場合について説明するが本発明が対象とするドメインは映画に限定されない。また、音声対話システム10が対応可能なドメインは一つとは限らず、音声対話システム10は複数のドメインに対応することができる。
音声認識部11は、発話者の発話を音声認識して発話文を生成する。発話者の発話は、図示しないマイクロフォンから音声信号として音声認識部11に入力される。音声認識部11の音声認識機能として既知の技術を利用することができる。生成される発話文は、「監督は誰?」、「いつ劇場公開されたの?」、「誰が出演しているの?」、「この映画の感想を聞かせて」などとさまざまである。
意図理解部12は、音声認識部11が生成した発話文を解析して、発話者がドメインにおけるどのような情報を知りたがっているか、すなわち発話者の意図を理解する。ここで、発話文は、例えば、「監督は誰?」などのように目的が曖昧なケースが多い。また、例えば、出演者を尋ねる発話文として「誰が出演しているの?」以外に、「出演者は誰?」、「誰が出ているの?」などのようにさまざまな表現が使われる。意図理解部12は、意図理解モデル121および問題解決知識122を参照して、そのような目的が曖昧な発話文やさまざまな表現の発話文に込められた発話者の意図を正しく理解することができる。
意図理解モデル121は、意図ごとにさまざまな言い方を集めた発話文例集である。意図理解モデル121には、発話文の単語や表現パターンがどのような意図を示す傾向があるのかがデータベース化されている。意図理解部12は、意図理解モデル121を参照することで、発話文でさまざまな表現が使われていても表面的な言葉遣いに左右されずに発話者の意図を正しく理解することできる。
問題解決知識122には、さまざまな発話表現(問題)とその解決策との対応関係が保存されている。発話者が知りたがっている情報の内容に応じて問題は二つのタイプに分類することができる。一つは、監督名、公開日、出演者などを問い合わせる簡単な問題である。もう一つは、映画の感想を問い合わせる複雑な問題である。簡単な問題に対応する解決策は「ウェブサイトを検索する」である。一方、複雑な問題に対応する解決策は「感想データベースを検索する」である。このように、意図理解部12は、問題解決知識122を参照することで、問題とその解決策を特定することができる。
対話管理部13は、意図理解部12から意図理解結果を受け、発話者が知りたがっている情報の内容に応じて二つの情報源のうちいずれか一方の情報源を検索して目的の情報を取得する。情報源の一つは、インターネット上のウェブサイトである。当該ウェブサイトとして、例えば、DBpedia((公序良俗違反につき、不掲載))を利用することができる。DBpediaは、Wikipedia((公序良俗違反につき、不掲載))の情報を構造化したデータセットであり、RDF(Resource Description Framework)クエリ言語のSPARQLで所望の情報を検索することができる。もう一つの情報源は、感想データベース131である。感想データベース131にはドメインにおける他人のさまざまな感想が保存されている。本実施形態の場合、感想データベース131にはさまざまな映画に関する他人の感想が保存されている。
対話管理部13は、対話シナリオ132に従ってシステム行動を決定する。対話シナリオ132には、さまざまな意図が入力されたときにそれぞれどのようなやりとりをすべきかといった対話の流れが記述されている。例えば、発話意図が「監督の名前を知りたい」であり、解決策が「ウェブサイトを検索する」である場合、対話管理部13は、システム行動としてインターネット上のウェブサイトを検索して監督名を取得する。一方、発話意図が「映画の感想が聞きたい」であり、解決策が「感想データベースを検索する」である場合、対話管理部13は、システム行動として感想データベース131を検索して発話者に提供すべき適当な感想を取得する。
対話管理部13は、インターネット上のウェブサイトからユーザーレビューを収集して感想データベース131に登録することができる。当該ウェブサイトとして、例えば、(公序良俗違反につき、不掲載)
例えば、対話管理部13は、次のようにしてウェブサイトからユーザーレビューを収集して感想データベース131に格納することができる。まず、対話管理部13は、Yahoo!映画サイトから各映画のユーザーレビューを取得する。ユーザーレビューは映画ごとに複数存在する。そして、対話管理部13は、形態素解析エンジンを使用してユーザーレビューの各文を形態素解析し、さらに不要な文字を除去し、意見抽出ツールを用いて評価表現を含む意見文のみを抽出する。当該意見抽出ツールとして、独立行政法人情報通信研究機構が提供する意見(評価表現)抽出ツール(http://alaginrc.nict.go.jp/opinion/)を利用することができる。当該ツールを使用してユーザーレビューごとに評価表現のデータを抽出する。評価表現とは、「○○は良い」、「○○はつまらない」といった、肯定的または否定的意見や評判、提言を表す表現をいう。こうして抽出されたデータ集合が感想となる。すなわち、本明細書でいう感想とは、評価表現を含む文の集合である。
さらに、対話管理部13は、抽出した感想から特徴量を抽出する。具体的には、各感想について形容詞と名詞の利用傾向として形容詞TF(Term Frequency)および名詞TFを計算する。さらに、対話管理部13は、名詞についてはTF−IDF(Term Frequency - Inverse Document Frequency)を計算する。そして、対話管理部13は、抽出した感想とともに、これら形容詞TF、名詞TF、名詞TF−IDFを感想データベース131に登録する。形容詞TF、名詞TF、名詞TF−IDFは、感想データベース131から適当な感想を検索するときの指標となる。
なお、ウェブサイト上のユーザーレビューは頻繁に追加され、また、映画も次々に新しいものが公開されるため、対話管理部13は、感想データベース131を定期的または不定期に更新することが望ましい。例えば、感想データベース131を毎日決まった時刻に更新してもよいし、ユーザーから指示を受ける都度更新してもよい。
応答文生成部14は、対話管理部13のシステム行動結果を発話者に伝えるための応答文を生成する。具体的には、応答文生成部14は、対話管理部13が各種情報源から取得した目的の情報を用いて発話者の発話に対する応答文を生成する。例えば、発話者の発話が「いつ劇場公開されたの?」であり、対話管理部13が目的の情報として「2014年1月20日」を取得した場合、応答文生成部14は、例えば、「この映画は2014年1月20日に劇場公開されました」といった応答文を生成する。
音声合成部15は、応答文生成部14が生成した応答文を音声合成して音声信号を生成する。当該音声信号は図示しないスピーカーに出力され、音となって発話者に伝えられる。音声合成部15の音声合成機能として既知の技術を利用することができる。
次に、音声対話システム10の処理フローについて説明する。図2は、音声対話システム10の動作を示すフローチャートである。
まず、音声認識部11が、発話者の発話を音声認識して発話文を生成する(S1)。そして、意図理解部12が、生成された発話文を解析して発話者の意図を理解する(S2)。
発話者の意図が5W1Hの質問であり、発話者が知りたがっている情報が単純な情報である場合(S3でYES)、対話管理部13は、インターネット上のウェブサイト(例えば、Yahoo!映画)を検索して目的の情報を取得する。一方、発話者が知りたがっている情報が感想といった複雑な情報である場合(S3でNO)、対話管理部13は、感想データベース131を検索して適当な感想を取得する(S5)。
対話管理部13が目的の情報を取得したら、応答文生成部14が、対話管理部13が取得した目的の情報を用いて発話者の発話に対する応答文を生成する(S6)。そして、音声合成部15が、生成された応答文を音声合成して音声信号を生成し、スピーカーから音声を出力する(S7)。
以上のように、本実施形態によれば、特定のドメインにおける話題について人と音声で対話することができる。これにより、ユーザーが欲する有用な情報を、対話という簡単なインターラクションによりユーザーに提供することができ、ユーザーの利便性を向上させることができる。
なお、意図理解モデル121、問題解決知識122、感想データベース131、対話シナリオ132は、音声対話システム10内の記憶装置(図略)に配置されていてもよいし、外部の記憶装置(図略)に配置されていてもよい。また、これらは、同一の記憶装置に配置されていてもよいし、複数の異なる記憶装置に分散配置されていてもよい。また、音声認識部11、意図理解部12、対話管理部13、応答文生成部13、音声合成部15は、同一のサーバー装置に実装されていてもよいし、複数のサーバー装置に機能分散されていてもよい。分散配置された知識や機能はネットワークを通じて互いに通信することができる。
≪実施例≫
次に、音声対話システム10の実施例について説明する。図3は、音声対話システム10の実施例であるテレビジョン装置の外観を示す。本実施形態に係る音声対話システム10は、例えば、表示パネル101と、マイクロフォン102と、スピーカー103とを備えたテレビジョン装置100に搭載することができる。
テレビジョン装置100は、図示しないテレビチューナーを備えており、地上デジタル放送104、BS(Broadcasting Satellite)/CS(Communication Satellite)デジタル放送105を受信することができる。地上デジタル放送104およびBS/CSデジタル放送105は、図示しないアンテナ端子を通じてテレビジョン装置100に入力される。
また、テレビジョン装置100は、有線または無線でインターネット106に接続可能である。テレビジョン装置100は、インターネット106上のコンテンツサーバー107からVOD(Video On Demand)などのコンテンツを受信することができる。また、テレビジョン装置100は、DVD(Digital Versatile Disc)/BD(Blu-ray Disc)などのレコーダー108に接続可能である。テレビジョン装置100は、レコーダー108に搭載されたハードディスク装置(図略)や、DVDやBDなどの光ディスクに記録されたコンテンツを再生することができる。テレビジョン装置100がレコーダー機能を有することもある。
テレビジョン装置100が受信したコンテンツは表示パネル101に表示され、ユーザー200(発話者)はそれを視聴しながらテレビジョン装置100に当該コンテンツに関するさまざまな問いかけをすることができる。テレビジョン装置100は、ユーザー200が発した声をマイクロフォン102で集音してユーザー200の発話内容を理解し、ユーザー200の問いかけに対して適当な回答を生成してスピーカー103からその回答を音声で出力する。このように、ユーザー200は、テレビジョン装置100と音声で対話することができる。
以上、本発明の実施形態について説明したが、本発明は上記の実施形態の構成に限られず種々の変形が可能である。例えば、本実施形態に係る音声対話システム10は、テレビジョン装置100以外にも、例えば、コンテンツ再生機能を有するスマートフォンやPCに搭載することもできる。
また、上記実施形態により示した構成は、本発明の一実施形態に過ぎず、本発明を当該構成に限定する趣旨ではない。
10 音声対話システム
12 音声認識部
13 意図理解部
14 対話管理部
15 応答文生成部
16 音声合成部
131 感想データベース
200 ユーザー(発話者)

Claims (6)

  1. 特定のドメインにおける話題について人と音声で対話する音声対話システムであって、
    発話者の発話を音声認識して発話文を生成する音声認識部と、
    前記発話文を解析して、前記発話者が前記ドメインにおけるどのような情報を知りたがっているかを理解する意図理解部と、
    前記発話者が知りたがっている情報の内容に応じて、前記ドメインにおけるさまざまな情報を保持する第1の情報源および前記ドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して、目的の情報を取得する対話管理部と、
    前記目的の情報を用いて前記発話者の発話に対する応答文を生成する応答文生成部と、
    前記応答文を音声合成して音声信号を生成する音声合成部とを備えている
    ことを特徴とする音声対話システム。
  2. 前記第1の情報源が、インターネット上のウェブサイトである
    ことを特徴とする請求項1に記載の音声対話システム。
  3. 前記第2の情報源としての感想データベースを備え、
    前記対話管理部は、インターネット上のウェブサイトから定期的または不定期にユーザーレビューを取得し、当該ユーザーレビューから評価表現を含む文を抽出して前記感想データベースに登録する
    ことを特徴とする請求項1または請求項2に記載の音声対話システム。
  4. 特定のドメインにおける話題について人と音声で対話する方法であって、
    音声認識部が、発話者の発話を音声認識して発話文を生成し、
    意図理解部が、前記発話文を解析して、前記発話者が前記ドメインにおけるどのような情報を知りたがっているかを理解し、
    対話管理部が、前記発話者が知りたがっている情報の内容に応じて、前記ドメインにおけるさまざまな情報を保持する第1の情報源および前記ドメインにおける他人の感想を保持する第2の情報源のいずれかを検索して、目的の情報を取得し、
    応答文生成部が、前記目的の情報を用いて前記発話者の発話に対する応答文を生成し、
    音声合成部が、前記応答文を音声合成して音声信号を生成する
    ことを特徴とする音声対話方法。
  5. 前記第1の情報源が、インターネット上のウェブサイトである
    ことを特徴とする請求項4に記載の音声対話方法。
  6. 前記第2の情報源が、感想データベースであり、
    前記対話管理部が、インターネット上のウェブサイトから定期的または不定期にユーザーレビューを取得し、当該ユーザーレビューから評価表現を含む文を抽出して前記感想データベースに登録する
    ことを特徴とする請求項4または請求項5に記載の音声対話方法。
JP2014233815A 2014-11-18 2014-11-18 音声対話システムおよび音声対話方法 Expired - Fee Related JP6433765B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014233815A JP6433765B2 (ja) 2014-11-18 2014-11-18 音声対話システムおよび音声対話方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014233815A JP6433765B2 (ja) 2014-11-18 2014-11-18 音声対話システムおよび音声対話方法

Publications (2)

Publication Number Publication Date
JP2016099381A true JP2016099381A (ja) 2016-05-30
JP6433765B2 JP6433765B2 (ja) 2018-12-05

Family

ID=56076968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014233815A Expired - Fee Related JP6433765B2 (ja) 2014-11-18 2014-11-18 音声対話システムおよび音声対話方法

Country Status (1)

Country Link
JP (1) JP6433765B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190039079A (ko) 2016-08-16 2019-04-10 코쿠리츠켄큐카이하츠호진 죠호츠신켄큐키코 대화 시스템 및 그것을 위한 컴퓨터 프로그램
KR102144370B1 (ko) * 2019-11-18 2020-08-13 주식회사 오투오 대화형 정보 검색장치
JP7491002B2 (ja) 2020-03-19 2024-05-28 Toppanホールディングス株式会社 拡張情報提供装置、拡張情報提供端末、拡張情報提供方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241952A (ja) * 2004-02-26 2005-09-08 Gap Kk 知識処理装置、知識処理方法および知識処理プログラム
JP2006099424A (ja) * 2004-09-29 2006-04-13 Hitachi Ltd 音声情報サービスシステム及び音声情報サービス端末
JP2006277676A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 情報検索装置、情報検索方法および情報検索プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241952A (ja) * 2004-02-26 2005-09-08 Gap Kk 知識処理装置、知識処理方法および知識処理プログラム
JP2006099424A (ja) * 2004-09-29 2006-04-13 Hitachi Ltd 音声情報サービスシステム及び音声情報サービス端末
JP2006277676A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 情報検索装置、情報検索方法および情報検索プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190039079A (ko) 2016-08-16 2019-04-10 코쿠리츠켄큐카이하츠호진 죠호츠신켄큐키코 대화 시스템 및 그것을 위한 컴퓨터 프로그램
US10936664B2 (en) 2016-08-16 2021-03-02 National Institute Of Information And Communications Technology Dialogue system and computer program therefor
KR102144370B1 (ko) * 2019-11-18 2020-08-13 주식회사 오투오 대화형 정보 검색장치
JP7491002B2 (ja) 2020-03-19 2024-05-28 Toppanホールディングス株式会社 拡張情報提供装置、拡張情報提供端末、拡張情報提供方法及びプログラム

Also Published As

Publication number Publication date
JP6433765B2 (ja) 2018-12-05

Similar Documents

Publication Publication Date Title
US20220188302A1 (en) Retrieving context from previous sessions
US10586541B2 (en) Communicating metadata that identifies a current speaker
US20190034040A1 (en) Method for extracting salient dialog usage from live data
US8521766B1 (en) Systems and methods for providing information discovery and retrieval
CN111919249B (zh) 词语的连续检测和相关的用户体验
US11687526B1 (en) Identifying user content
WO2019010138A1 (en) OBTAINING ADAPTIVE INFORMATION FROM MULTIPLE CORPUS
JP7171911B2 (ja) ビジュアルコンテンツからのインタラクティブなオーディオトラックの生成
CN110717337A (zh) 信息处理方法、装置、计算设备和存储介质
KR102619568B1 (ko) 네트워크에서 디지컬 컨텐츠에 대한 음성 기반 검색
KR20160032564A (ko) 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체
CN110188278A (zh) 应用程序推荐方法、装置、电子设备及计算机可读存储介质
JP6433765B2 (ja) 音声対話システムおよび音声対話方法
CN114064943A (zh) 会议管理方法、装置、存储介质及电子设备
US20140129221A1 (en) Sound recognition device, non-transitory computer readable storage medium stored threreof sound recognition program, and sound recognition method
US10657202B2 (en) Cognitive presentation system and method
KR20230025708A (ko) 오디오 제시 인터렉션을 갖는 자동화된 어시스턴트
Moreira Smart speakers and the news in Portuguese: consumption pattern and challenges for content producers
US11984113B2 (en) Method and server for training a neural network to generate a textual output sequence
US20210264910A1 (en) User-driven content generation for virtual assistant
de Andrade Moreira et al. Smart speakers and the news in Portuguese: consumption pattern and challenges for content producers
US20200074872A1 (en) Methods and systems for displaying questions for a multimedia
KR20230014680A (ko) 서드파티 디지털 어시스턴트 액션을 위한 비트 벡터 기반 콘텐츠 매칭
CN113903335A (zh) 一种用户意图识别方法、用户意图识别装置和存储介质
JP2023162822A (ja) 情報処理方法、情報処理システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181107

R150 Certificate of patent or registration of utility model

Ref document number: 6433765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees