JP2018021987A - 会話処理装置、及びプログラム - Google Patents

会話処理装置、及びプログラム Download PDF

Info

Publication number
JP2018021987A
JP2018021987A JP2016151925A JP2016151925A JP2018021987A JP 2018021987 A JP2018021987 A JP 2018021987A JP 2016151925 A JP2016151925 A JP 2016151925A JP 2016151925 A JP2016151925 A JP 2016151925A JP 2018021987 A JP2018021987 A JP 2018021987A
Authority
JP
Japan
Prior art keywords
conversation
user
conversation application
application
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016151925A
Other languages
English (en)
Inventor
高史 小山
Takashi Koyama
高史 小山
佐知夫 前田
Sachio Maeda
佐知夫 前田
真人 土居
Masato Doi
真人 土居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unirobot Corp
Original Assignee
Unirobot Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unirobot Corp filed Critical Unirobot Corp
Priority to JP2016151925A priority Critical patent/JP2018021987A/ja
Priority to PCT/JP2017/026490 priority patent/WO2018025668A1/ja
Publication of JP2018021987A publication Critical patent/JP2018021987A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザとの会話をより自然に行うことができるシステムが望まれている。【解決手段】会話処理装置は、ユーザの発言を検出する検出部と、実行中の会話アプリケーションがユーザの発言に対して応答できる場合、実行中の会話アプリケーションを選択し、実行中の会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の会話アプリケーションを選択する選択部と、選択された会話アプリケーションが実行中の会話アプリケーションの場合、実行中の会話アプリケーションを継続し、選択された会話アプリケーションが他の会話アプリケーションの場合、実行中の会話アプリケーションを中断して、他の会話アプリケーションを実行することにより、ユーザの発言に対して応答する応答部とを備える。【選択図】図5

Description

本発明は、会話処理装置、及びプログラムに関する。
ユーザとの会話を実現するシステムが様々提案されている。
特許文献1 特開2015−011621号公報
ユーザとの会話をより自然に行うことができるシステムが望まれている。
本発明の一態様に係る会話処理装置は、ユーザの発言に対して予め定められたアルゴリズムに従って応答する複数の会話アプリケーションを実行する。会話処理装置は、ユーザの発言を検出する検出部と、実行中の会話アプリケーションがユーザの発言に対して応答できる場合、実行中の会話アプリケーションを選択し、実行中の会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の会話アプリケーションを選択する選択部と、選択された会話アプリケーションが実行中の会話アプリケーションの場合、実行中の会話アプリケーションを継続し、選択された会話アプリケーションが他の会話アプリケーションの場合、実行中の会話アプリケーションを中断して、他の会話アプリケーションを実行することにより、ユーザの発言に対して応答する応答部とを備える。
複数の会話アプリケーションは、予め定められた条件を満たすまでアルゴリズムに従ってユーザとの会話を継続する複数の特定会話アプリケーションを含んでよい。選択部は、実行中の特定会話アプリケーションがユーザの発言に対して応答できる場合、実行中の特定会話アプリケーションを選択し、実行中の特定会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の特定会話アプリケーションを選択してよい。
複数の会話アプリケーションは、ユーザの1つの発言に対して1つの応答を実行する日常会話アプリケーションを更に含んでよい。選択部は、実行中の特定会話アプリケーションがユーザの発言に対して応答できる場合、実行中の特定会話アプリケーションを選択し、実行中の特定会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の特定会話アプリケーションを選択し、ユーザの発言に対して応答できる他の特定会話アプリケーションを選択できない場合、日常会話アプリケーションを選択してよい。
日常会話アプリケーションは、深層学習アルゴリズムに従ってユーザの1つの発言に対して1つの応答を実行してよい。
上記会話処理装置は、検出部により検出されたユーザの発言から抽出された少なくとも1つの単語を含む単語情報を取得する単語情報取得部と、複数の特定会話アプリケーションに関連付けて、複数の特定会話アプリケーションが応答できるユーザの発言に対応する少なくとも1つの単語が登録された単語リストを格納する単語リスト格納部とを更に備えてよい。選択部は、単語リストを参照して、単語情報に含まれる少なくとも1つの単語が実行中の特定会話アプリケーションに関連付けて単語リストに登録されている場合、実行中の特定会話アプリケーションを選択し、単語情報に含まれる少なくとも1つの単語が、実行中の特定会話アプリケーションに関連付けて単語リストに登録されておらず、かつ他の特定会話アプリケーションに関連付けて単語リストに登録されている場合、単語リストに登録されている他の特定会話アプリケーションを選択してよい。
リスト格納部は、複数の特定会話アプリケーションごとに単語リストを格納してよい。選択部は、実行中の特定会話アプリケーションに関連付けられた単語リストを参照して、特定会話アプリケーションを選択してよい。
応答部は、実行中の特定会話アプリケーションを中断して、他の特定会話アプリケーションを実行することにより、ユーザの発言に対して応答する場合、実行中の特定会話アプリケーションの実行中にユーザから得られた情報に基づいて、他の特定会話アプリケーションのアルゴリズムの開始位置を決定し、決定された開始位置に基づいて他の特定会話アプリケーションを実行してよい。
上記会話処理装置は、実行中の特定会話アプリケーションを中断する場合に、実行中の特定会話アプリケーションのアルゴリズムの中断状態を記憶する中断状態記憶部を更に備えてよい。応答部は、中断状態記憶部を参照して、実行中の特定会話アプリケーションのアルゴリズムの中断状態を特定し、他の特定会話アプリケーションが終了または中断したことに対応して、先に中断された特定会話アプリケーションを中断状態に基づいて再開してよい。
上記会話処理装置は、検出部により検出されたユーザの発言が、予め定められた特定の発言である場合、実行中の会話アプリケーションを強制的に終了する終了部を更に備えてよい。
上記会話処理装置は、会話処理装置の周囲を撮像する撮像部と、会話処理装置の周囲に存在する物体の存在を検出する赤外線センサと、赤外線センサによる検出結果に応じて、ユーザの顔が撮像部の撮像範囲に含まれるように、撮像部の撮像範囲を調整する調整部とを更に備えてよい。
本発明の一態様に係るプログラムは、ユーザの発言に対して予め定められたアルゴリズムに従って応答する複数の会話アプリケーションをコンピュータに実行させるためのプログラムである。プログラムは、ユーザの発言を検出する手順と、実行中の会話アプリケーションがユーザの発言に対して応答できる場合、実行中の会話アプリケーションを選択し、実行中の会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の会話アプリケーションを選択する手順と、選択された会話アプリケーションが実行中の会話アプリケーションの場合、実行中の会話アプリケーションを継続し、選択された会話アプリケーションが他の会話アプリケーションの場合、実行中の会話アプリケーションを中断して、他の会話アプリケーションを実行することにより、ユーザの発言に対して応答する手順とをコンピュータに実行させる。
上記の発明の概要は、本発明の特徴の全てを列挙したものではない。これらの特徴群のサブコンビネーションも発明となりうる。
会話処理システムのシステム構成の一例を示す図である。 会話処理装置の機能ブロックの一例を示す図である。 単語リストの一例を示す図である。 ユーザプロファイルの一例を示す図である。 会話処理装置の会話処理の手順の一例を示すフローチャートである。 コンピュータの一例を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図1は、本実施形態に係る会話処理システムのシステム構成の一例を示す。会話処理システムは、会話処理装置100、テキスト変換装置200、及び形態素解析装置300を備える。会話処理装置100、テキスト変換装置200、及び形態素解析装置300は、ネットワーク50を介して接続される。会話処理装置100は、ユーザの発言に対して音声、画像、動きなどで応答する。
会話処理装置100は、マイク101、カメラ102、スピーカ104、表示部105、タッチセンサ106などを備える。会話処理装置100は、マイク101を介してユーザの音声を検出する。会話処理装置100は、カメラ102を介してユーザの表情等を検出する。会話処理装置100は、スピーカ104を介してユーザに音声で情報を伝達する。会話処理装置100は、表示部105を介してユーザに画像で情報を伝達する。会話処理装置100は、タッチセンサ106等を介して音声以外の手段でユーザとコミュニケーションしてよい。
テキスト変換装置200は、会話処理装置100から提供された音声データから単語を抽出してテキストデータを生成する。テキスト変換装置200は、生成されたテキストデータを会話処理装置100に返信する。形態素解析装置300は、会話処理装置100から提供されたテキストデータに対して形態素解析を実行して、形態素解析データを生成する。形態素解析装置300は、生成された形態素解析データを会話処理装置100に返信する。会話処理装置100は、形態素解析データを参照して、ユーザの発言に対して応答する。
図2は、会話処理装置100の機能ブロックの一例を示す。会話処理装置100は、ユーザの発言に対して予め定められたアルゴリズムに従って応答する複数の会話アプリケーションを実行する。複数の会話アプリケーションは、予め定められた条件を満たすまでアルゴリズムに従ってユーザとの会話を継続する複数の特定会話アプリケーションを含んでよい。特定会話アプリケーションは、ユーザとの会話を通じて特定の目的を達成するための会話アプリケーションでよい。複数の特定会話アプリケーションは、ユーザの所望のスケジュールが登録されるまでユーザとの会話を継続するスケジュール会話アプリケーションを含む。複数の特定会話アプリケーションは、特定の場所の特定の日時における天気情報を提供するまでユーザとの会話を継続する天気会話アプリケーションを含む。複数の特定会話アプリケーションは、特定の料理のレシピを提供するまでユーザとの会話を継続するレシピ会話アプリケーションを含む。複数の特定会話アプリケーションは、ユーザとの会話を通じて予め定められたルールに従ったゲームを実行するゲーム会話アプリケーションを含む。
複数の会話アプリケーションは、更にユーザの1つの発言に対して1つの応答を実行する日常会話アプリケーションを含む。日常会話アプリケーションは、特定会話アプリケーションとは異なるアルゴリズムに従って動作してよい。日常会話アプリケーションは、例えば、深層学習アルゴリズムに従ってユーザの特性に合わせた応答を実行する。
会話処理装置100が日常会話アプリケーションを実行中に、ユーザが会話処理装置100にとって未知の単語を発言したとする。会話処理装置100がその単語の意味をユーザに聞くように、日常会話アプリケーションのアルゴリズムが設計されてよい。例えば、会話処理装置100にとって未知の単語を、「_UNK」と定義する。例えば、「今日、○○で_UNKに会ったよ。」というユーザの発言に対して、「_UNKってどんな人ですか?」と応答するように、日常会話アプリケーションのアルゴリズムが設計されてよい。このような設計により、会話処理装置100にとって未知の単語をユーザが発言した場合でも、適切な回答ができるように、アルゴリズムが設計されてよい。
複数の会話アプリケーションは、更に、ユーザとの会話を通じて会話処理装置100の各種設定を行うシステム会話アプリケーションを含む。ユーザは、会話処理装置100の音量を設定したい場合、通信設定をしたい場合などにシステム会話アプリケーションを通じて、会話処理装置100と会話して、会話処理装置100の各種設定を行う。
会話処理装置100は、ユーザの発言に対する応答を現在実行中の会話アプリケーションで実行できないと判断した場合、実行中の会話アプリケーションを中断する。会話処理装置100は、そのユーザの発言に対する応答が可能な適切な会話アプリケーションを選択して、そのユーザの発言に対して応答する。
会話処理装置100は、マイク101、カメラ102、スピーカ104、表示部105、タッチセンサ106、赤外線センサ107、アクチュエータ108、検出部110、画像処理部112、音声制御部114、表示制御部116、センサ制御部118、及びアクチュエータ制御部119を備える。会話処理装置100は、アプリケーション実行部120、送受信部130、単語情報取得部132、選択部134、アプリケーション格納部140、単語リスト格納部142、及びユーザプロファイル格納部144を更に備える。
マイク101は、ユーザが発した音声を検出する。マイク101は、指向性マイクでよい。カメラ102は、会話処理装置100の周囲の環境を撮像する。カメラ102は、例えば、会話処理装置100と会話するユーザの顔を撮像する。スピーカ104は、音声を出力する。表示部105は、ユーザに提示する各種情報を表示する。表示部105は、タッチパネル付きの液晶表示ユニットでよい。タッチセンサ106は、ユーザの指、掌などが接触したことを検出する。赤外線センサ107は、会話処理装置100の周囲に存在するユーザなどの物体を検出する。赤外線センサ107は、焦電型赤外線センサでよい。あアクチュエータ108は、会話処理装置100が備える可動部材を作動させる動力を提供する。会話処理装置100が、頭部、及び腕部を有する場合、アクチュエータ108は、例えば、頭部、及び腕部の少なくとも一方を回転させてよい。
会話処理装置100は、カメラ102により撮像された画像に基づいて、ユーザが存在する方向を特定してよい。会話処理装置100は、特定された方向に、マイク101が向くように、アクチュエータ108を制御して、マイク101が設けられた頭部などの可動部材を回転させてよい。
赤外線センサ107は、カメラ102の撮像範囲外に存在する物体を検出するように配置されてよい。例えば、ユーザがカメラ102の撮像範囲外に存在する場合に、会話処理装置100は、赤外線センサ107を利用してユーザの位置を推定する。会話処理装置100は、ユーザがカメラ102の撮像範囲内に含まれるように、カメラ102が設けられた頭部などの可動部材を回転させてよい。ユーザがカメラ102の画角内に存在しない場合でも、会話処理装置100は、容易にユーザを検出して、ユーザとの会話に最適な方向にカメラ102及びマイク101を向けることができる。
検出部110は、ユーザの発言を検出する。検出部110は、音声認識部111を含む。音声認識部111は、ユーザの発言を音声データに変換する。画像処理部112は、カメラ102により撮像された画像データを処理する。画像処理部112は、例えば、画像データからユーザの顔画像データを抽出する。画像処理部112は、抽出された顔画像データから顔の特徴量を抽出する。特徴量は、人物などの対象物を識別可能な情報であればよく、顔画像データの画素値の情報、または顔画像データに含まれる顔の目、鼻、口の間隔または大きさ、肌の色、髪型などの外見的特徴を数値で示した情報などでよい。画像処理部112は、顔の特徴量を示すデータをアプリケーション実行部120に提供する。
音声制御部114は、アプリケーション実行部120から提供された音声情報に基づく音声をスピーカ104に出力する。表示制御部116は、アプリケーション実行部120から提供される画像情報を表示部105に表示させる。センサ制御部118は、タッチセンサ106及び赤外線センサ107からの検出信号を受信して、アクチュエータ制御部119及びアプリケーション実行部120に提供する。
アクチュエータ制御部119は、アクチュエータ108を制御する。アクチュエータ制御部119は、調整部109を有する。調整部109は、赤外線センサ107による検出結果に応じて、カメラ102の撮像範囲を調整する。ユーザがカメラ102の撮像範囲外に存在する場合に、調整部109は、赤外線センサ107を利用してユーザの位置を推定する。調整部109は、ユーザの顔がカメラ102の撮像範囲内に含まれるように、アクチュエータ108を制御して、カメラ102が設けられた頭部などの可動部材を回転させてよい。調整部109は、カメラ102の画角を調整することで、カメラ102の撮像範囲を調整してよい。
会話処理装置100は、カメラ102を利用してビデオ通話を実現してよい。会話処理装置100は、カメラ102、カメラ102が設けられた頭部などの可動部材、カメラ102の画角の制御により、会話処理装置100の周囲の環境を遠隔から監視する遠隔カメラとしてカメラ102を機能させてよい。また、会話処理装置100は、ユーザとの会話などのユーザとのコミュニケーションを履歴情報として記憶してよい。会話処理装置100は、履歴情報に基づいてユーザに異常がないかどうかを判断してよい。会話処理装置100は、履歴情報からユーザの生活パターンを予測し、その生活パターンと異なる行動をユーザがとった場合に、ユーザに異常があると判断してよい。会話処理装置100は、ユーザに異常があると判断した場合に、送受信部130を介して特定の宛先に異常を通知してよい。
送受信部130は、ネットワーク50を介してテキスト変換装置200及び形態素解析装置300とデータを送受信する。単語情報取得部132は、検出部110により検出されたユーザの発言から抽出された少なくとも1つの単語を含む単語情報を取得する。単語情報取得部132は、形態素解析装置300から送受信部130を介して提供された形態素解析データを単語情報として取得してよい。形態素解析データは、ユーザの発言に含まれる各単語、各単語の発言順、各単語の品詞などを含むデータでよい。
アプリケーション格納部140は、複数の会話アプリケーションを格納する。アプリケーション格納部140は、複数の特定会話アプリケーション、及び日常会話アプリケーションを格納してよい。
選択部134は、実行中の会話アプリケーションがユーザの発言に対して応答できる場合、実行中の会話アプリケーションを選択する。選択部134は、実行中の会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の会話アプリケーションを選択する。
選択部134は、実行中の特定会話アプリケーションがユーザの発言に対して応答できる場合、実行中の特定会話アプリケーションを選択する。選択部134は、実行中の特定会話アプリケーションがユーザの発言に対して応答できない場合、ユーザの発言に対して応答できる他の特定会話アプリケーションを選択する。選択部134は、ユーザの発言に対して応答できる他の特定会話アプリケーションを選択できない場合、日常会話アプリケーションを選択する。選択部134により選択された会話アプリケーションがアプリケーション実行部120により実行される。
単語リスト格納部142は、複数の特定会話アプリケーションに関連付けて、複数の特定会話アプリケーションが応答できるユーザの発言に対応する少なくとも1つの単語が登録された単語リストを格納する。単語リスト格納部142は、例えば、図3に示すような単語リストを格納する。単語リストは、ユーザの発言に含まれる発言順に並ぶ単語の組み合わせと、その単語の組み合わせから適切な応答ができると推定される特定会話アプリケーションとを含む。単語リストは、更に選択部134により選択される優先度を含む。例えば、実行中の特定会話アプリケーションの種類に関わらず、ユーザが特定の発言をした場合に、選択される会話アプリケーションに対して最も高い優先度「1」が設定される。次いで、実行中の特定会話アプリケーションに対して次の優先度「2」が設定される。その他の特定会話アプリケーションに対して優先度「3」が設定される。図3に示す単語リストは、数値が小さいほど優先度が高いことを示している。しかし、単語リストは、数値が大きいほど優先度が高いことを示してもよい。優先の度合いを示す指標は、数値でなくてもよい。
実行中の特定会話アプリケーションの種類によって、より自然な会話を実現すべく実行中の特定会話アプリケーションを中断して割り込んで実行される他の特定会話アプリケーションの種類は異なる可能性がある。よって、単語リスト格納部142は、特定会話アプリケーションごとに単語リストを格納してよい。
選択部134は、単語情報に含まれる少なくとも1つの単語が実行中の特定会話アプリケーションに関連付けて単語リストに登録されている場合、実行中の特定会話アプリケーションを選択する。選択部134は、単語情報に含まれる少なくとも1つの単語が、実行中の特定会話アプリケーションに関連付けて単語リストに登録されておらず、かつ他の特定会話アプリケーションに関連付けて単語リストに登録されている場合、単語リストに登録されている他の特定会話アプリケーションを選択する。
例えば、ユーザが「明日の天気は?」と発言したとする。選択部134は、ユーザの発言に含まれる(1)「明日」−(2)「天気」という単語の組み合わせに対して応答できる特定会話アプリケーションとして、天気会話アプリケーションを選択する。その後、ユーザが「じゃあ、明後日は?」と発言したとする。この場合、選択部134は、実行中の特定会話アプリケーションとして、引き続き天気会話アプリケーションを選択する。一方、その後、ユーザが「じゃあ、明日の予定を入力しよう。」と発言したとする。この場合、選択部134は、天気会話アプリケーションを中断して、他の特定会話アプリケーションとして、スケジュール会話アプリケーションを選択する。
ユーザプロファイル格納部144は、ユーザに関連する少なくとも1つの項目を含む少なくとも1つのユーザプロファイルを格納する。ユーザプロファイルの各項目には、ユーザとの会話を通じて抽出された単語が登録される。ユーザプロファイル格納部144は、例えば、図4に示すような、ユーザの名前、生年月日、住所、好きな食べ物、好きなスポーツなどユーザの個性を示す複数の項目を含むユーザプロファイルを格納する。応答部121は、ユーザプロファイルの各項目の単語に基づいて、ユーザへの応答に含める情報を決定してよい。
アプリケーション実行部120は、応答部121、登録部122、中断状態記憶部123、及び終了部124を含む。応答部121は、選択された会話アプリケーションが実行中の会話アプリケーションの場合、実行中の会話アプリケーションを継続する。応答部121は、選択された会話アプリケーションが他の会話アプリケーションの場合、実行中の会話アプリケーションを中断して、他の会話アプリケーションを実行することにより、ユーザの発言に対して応答する。
登録部122は、単語情報に含まれる少なくとも1つの単語のうち少なくとも1つの項目に属する単語をユーザプロファイルに登録する。例えば、ユーザが好きな食べ物を発言したとする。すると、登録部122は、ユーザの発言からユーザの好きな食べ物の単語を抽出して、ユーザプロファイルに登録する。応答部121は、ユーザプロファイルを参照して、ユーザへの応答の内容を最適化してよい。応答部121は、ユーザへの応答の内容の一部を、ユーザプロファイルの内容を応じて変更して、応答を最適化してよい。
例えば、ユーザの好きな食べ物を、_FAV_FOODと定義する。「今日はすごくいいことがあったよ」というユーザの発言に対して、「それは良かったですね。今日の夕飯は、_FAV_FOODでお祝いしましょう。」という応答用のフレーズを定義する。この場合、応答部121は、ユーザプロファイルを参照して、ユーザの好きな食べ物を特定して、特定された単語を応答用のフレーズに挿入して、応答の内容を最適化する。
中断状態記憶部123は、実行中の特定会話アプリケーションを中断する場合に、実行中の特定会話アプリケーションのアルゴリズムの中断状態を記憶する。中断状態は、特定会話アプリケーションのアルゴリズムの中断位置、及び特定会話アプリケーションが中断されるまでにユーザの発言から得られた情報を含む。ユーザの発言から得られた情報は、ユーザプロファイルに登録される情報を含んでよい。応答部121は、実行中の特定会話アプリケーションを中断して、他の特定会話アプリケーションを実行することにより、ユーザの発言に対して応答する場合、実行中の特定会話アプリケーションの実行中にユーザから得られた情報に基づいて、他の特定会話アプリケーションのアルゴリズムの開始位置を決定してよい。応答部121は、決定された開始位置に基づいて他の特定会話アプリケーションを実行してよい。
例えば、天気会話アプリケーションを利用して、ユーザが週末の天気について会話処理装置100と会話しているときに、ユーザが、週末が晴れそうなことがわかり、外出の予定を入れたくなったとする。ユーザは、会話処理装置100に対して「では、その日の予定を入力したい。」のような発言をする。応答部121は、入力すべき予定が週末であることを考慮して、スケジュール会話アプリケーションのアルゴリズムの開始位置を決定する。例えば、応答部121は、スケジュールを入力すべき日が決定された後の時点から、スケジュール会話アプリケーションのアルゴリズムを開始する。
応答部121は、実行中の特定会話アプリケーションを中断して、他の特定会話アプリケーションを実行することにより、ユーザの発言に対して応答する場合、中断状態記憶部123を参照して、実行中の特定会話アプリケーションのアルゴリズムの中断状態を特定する。応答部121は、他の特定会話アプリケーションが終了または中断したことに対応して、先に中断された特定会話アプリケーションを中断状態に基づいて再開する。例えば、応答部121は、他の特定会話アプリケーションを実行中に、他の会話アプリケーションが応答できない発言をユーザがした場合、他の特定会話アプリケーションを中断する。言い換えれば、応答部121は、他の特定会話アプリケーションを実行中に、ユーザが他の特定会話アプリケーションに関する話題とは異なる話題を開始した場合、他の特定会話アプリケーションを中断する。応答部121は、他の特定会話アプリケーションが中断したことに対応して、先に中断された特定会話アプリケーションのうちユーザの発言に対して応答できる特定会話アプリケーションを、その特定会話アプリケーションの中断状態に基づいて再開してよい。すなわち、応答部121は、他の特定会話アプリケーションが中断したことに対応して、先に中断された特定会話アプリケーションのうちユーザが新たに始めた話題に対応する特定会話アプリケーションを、その特定会話アプリケーションの中断状態に基づいて再開してよい。
終了部124は、検出部110により検出されたユーザの発言が、予め定められた特定の発言である場合、実行中の会話アプリケーションを強制的に終了する。例えば、ユーザが、「ホーム」、「強制終了」などの特定の発言をした場合、終了部124は、実行中の会話アプリケーションを強制的に終了する。
会話処理装置100は、赤外線受光部126、赤外線発光部128、及び周辺機器制御部129を更に備える。周辺機器制御部129は、会話処理装置100を周辺機器用の遠隔制御端末(例えば、リモートコントローラ)として機能させる。周辺機器は、例えば、テレビ及びレコーダなどのAV機器、エアコン及び扇風機などの家電機器など、遠隔制御端末から赤外線または無線で送信される制御命令に応じて動作する機器である。赤外線受光部126は、遠隔制御端末から赤外線で制御命令を受信する。赤外線発光部128は、周辺機器を制御するための制御命令を赤外線で送信する。
周辺機器制御部129は、制御対象の周辺機器の制御命令と制御内容とを関連付けた制御命令リストを記憶する。周辺機器制御部129は、例えば、ユーザが新たな制御対象の周辺機器を登録することを希望する場合に、ユーザとの会話を通じて制御命令の登録処理を実行する。例えば、周辺機器制御部129は、ユーザに遠隔制御端末の操作を依頼して、遠隔制御端末から各種の制御命令を送信させ、受信した各種の制御命令と各制御内容とを関連付けた制御命令リストを生成する。周辺機器制御部129は、制御内容に応じた遠隔制御端末のボタンを順次ユーザに押下させて、遠隔制御端末から発光された各制御命令を赤外線受光部126を介して受光してよい。周辺機器制御部129は、受光された各制御命令と各制御内容とを関連付けた制御命令リストに生成してよい。あるいは、周辺機器制御部129は、制御対象の周辺機器の種類を一意に特定する番号を遠隔制御端末を介してユーザに入力させてもよい。周辺機器制御部129は、入力された番号に対応する制御命令リストをインターネットなどネットワーク50を介して取得してよい。周辺機器制御部129は、周辺機器の制御をユーザから依頼された場合、制御命令リストを参照して、依頼された制御内容に関連付けられた制御命令を特定する。周辺機器制御部129は、特定された制御命令を赤外線発光部128を介して赤外線で制御対象の周辺機器に送信する。
会話処理装置100は、WiFi、Bluetooth(登録商標)などの無線を介して周辺機器と通信してもよい。周辺機器制御部129は、制御対象の周辺機器を制御するためのデバイスドライバをネットワーク50を介して取得してよい。周辺機器制御部129は、デバイスドライバを利用して、ユーザとの会話を通じて、周辺機器を制御してよい。
図5は、会話処理装置100の会話処理の手順の一例を示すフローチャートである。会話処理装置100は、ユーザの発言を検出した場合に図5に示すフローチャートの手順を実行してよい。
マイク101を介して検出部110がユーザの音声を検出する(S100)。音声認識部111は、検出された音声から音声データを生成する(S102)。送受信部130は、音声データをテキスト変換装置200に送信する(S104)。テキスト変換装置200は、音声データから単語を抽出して、例えば、単語が発言順に並んだテキストデータを生成する。送受信部130は、テキスト変換装置200からテキストデータを受信する(S106)。送受信部130は、受信したテキストデータを形態素解析装置300に送信する(S108)。選択部134は、テキストデータに基づいてパターンマッチを実行する(S110)。選択部134は、受信したテキストデータに基づいて、ユーザの発言が会話処理装置100の各種設定などのシステムに関する話題であるか否かを判定する(S112)。選択部134は、受信したテキストデータと一致するテキストデータがシステム会話アプリケーションに関連付けられている場合、システム会話アプリケーションを選択する(S120)。
形態素解析装置300は、テキストデータを受信すると、受信したテキストデータを形態素解析して形態素解析データを生成する。形態素解析装置300は、生成された形態素解析データを会話処理装置100に送信する。送受信部130は、形態素解析装置300から形態素解析データを受信する(S114)。単語情報取得部132は、形態素解析データを単語情報として取得し、選択部134に提供する。選択部134は、単語情報に基づいてパターンマッチを実行する(S116)。選択部134は、実行中の特定会話アプリケーションに関連付けられた単語リストを参照して、ユーザの発言に対して応答する会話アプリケーションを選択する。
選択部134は、単語リストを参照して、ユーザの発言が、会話処理装置100の各種設定などのシステムに関する話題であるか否かを判定する(S118)。ユーザの発言が、会話処理装置100の各種設定などのシステムに関する話題であれば、選択部134は、システム会話アプリケーションを選択する(S120)。
ユーザの発言がシステムに関する話題でなければ、選択部134は、単語リストを参照して、ユーザの発言が現在の話題の続きかどうかを判定する(S122)。選択部134は、単語リストを参照して、単語情報に含まれる少なくとも1つの単語が実行中の特定会話アプリケーションに関連付けて単語リストに登録されている場合、ユーザの発言が現在の話題の続きであると判断する。ユーザの発言が現在の話題の続きであれば、選択部134は、実行中の特定会話アプリケーションを選択する(S124)。
ユーザの発言が現在の話題の続きでなければ、選択部134は、単語リストを参照して、ユーザの発言が新たな話題であるかどうかを判定する(S126)。選択部134は、単語情報に含まれる少なくとも1つの単語が、実行中の特定会話アプリケーションに関連付けて単語リストに登録されておらず、かつ他の特定会話アプリケーションに関連付けて単語リストに登録されている場合、新たな話題であると判断する。ユーザの発言が新たな話題であれば、選択部134は、単語情報に含まれる少なくとも1つの単語と関連付けて単語リストに登録されている他の特定会話アプリケーションを選択する(S128)。
ユーザの発言が新たな話題でなければ、すなわちユーザの発言に対して適切な応答ができる特定会話アプリケーションがなければ、選択部134は、日常会話アプリケーションを選択する(S130)。
ユーザの発言に対して適当な会話アプリケーションが選択部134により選択された後、応答部121は、選択された会話アプリケーションを実行して、ユーザの発言に対して応答する(S134)。
以上のとおり、本実施形態に係る会話処理装置100によれば、ユーザの発言に対して現在実行中の特定会話アプリケーションによる応答が適切でない場合には、そのユーザの発言に対して適当な応答ができる他の特定会話アプリケーションを実行する。さらに、そのユーザの発言に対して適当な応答ができる他の特定会話アプリケーションが存在しない場合には、会話処理装置100は、日常会話アプリケーションを実行する。よって、ユーザが、1つの話題の会話の途中で、他の話題の会話を始めようとした場合でも、会話処理装置100は、ユーザの発言に対してより自然な応答を実現できる。
また、中断された特定会話アプリケーションを再開する場合には、会話処理装置100は、中断前に特定会話アプリケーションを介したユーザとの会話で得られた情報に基づいて、特定会話アプリケーションのアルゴリズムの開始位置を決定する。よって、新たな話題に移ったのち、前回の話題に戻った場合でも、会話処理装置100は、ユーザの発言に対してより自然な応答を実現できる。
図6は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ1200の例を示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ1200に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、ROM1230、グラフィックコントローラ1216、およびディスプレイデバイス1218を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、及び入力/出力コントローラ1220を含む。コンピュータ1200は、任意の入/出力ユニットを含んでよく、それらは入力/出力コントローラ1220を介してホストコントローラ1210に接続されてよい。
CPU1212は、ROM1230およびRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等またはそれ自体の中にCPU1212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。通信インタフェース1222は、ネットワークを介してテキスト変換装置200及び形態素解析装置300などの他の電子デバイスと通信する。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、および/またはコンピュータ1200のハードウェアに依存するプログラムを格納する。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもある、RAM1214、またはROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ1200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200および外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御下、RAM1214のような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ1200上またはコンピュータ1200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
100 会話処理装置
101 マイク
102 カメラ
104 スピーカ
105 表示部
106 タッチセンサ
107 赤外線センサ
108 アクチュエータ
109 調整部
110 検出部
111 音声認識部
112 画像処理部
114 音声制御部
116 表示制御部
118 センサ制御部
119 アクチュエータ制御部
120 アプリケーション実行部
121 応答部
122 登録部
123 中断状態記憶部
124 終了部
126 赤外線受光部
128 赤外線発光部
129 周辺機器制御部
130 送受信部
132 単語情報取得部
134 選択部
140 アプリケーション格納部
142 単語リスト格納部
144 ユーザプロファイル格納部
200 テキスト変換装置
300 形態素解析装置
1200 コンピュータ
1210 ホストコントローラ
1212 CPU
1214 RAM
1216 グラフィックコントローラ
1218 ディスプレイデバイス
1220 入力/出力コントローラ
1222 通信インタフェース
1230 ROM

Claims (11)

  1. ユーザの発言に対して予め定められたアルゴリズムに従って応答する複数の会話アプリケーションを実行する会話処理装置であって、
    ユーザの発言を検出する検出部と、
    実行中の会話アプリケーションが前記ユーザの発言に対して応答できる場合、前記実行中の会話アプリケーションを選択し、前記実行中の会話アプリケーションが前記ユーザの発言に対して応答できない場合、前記ユーザの発言に対して応答できる他の会話アプリケーションを選択する選択部と、
    選択された会話アプリケーションが前記実行中の会話アプリケーションの場合、前記実行中の会話アプリケーションを継続し、選択された会話アプリケーションが前記他の会話アプリケーションの場合、前記実行中の会話アプリケーションを中断して、前記他の会話アプリケーションを実行することにより、前記ユーザの発言に対して応答する応答部と
    を備える会話処理装置。
  2. 前記複数の会話アプリケーションは、予め定められた条件を満たすまで前記アルゴリズムに従って前記ユーザとの会話を継続する複数の特定会話アプリケーションを含み、
    前記選択部は、実行中の特定会話アプリケーションが前記ユーザの発言に対して応答できる場合、前記実行中の特定会話アプリケーションを選択し、前記実行中の特定会話アプリケーションが前記ユーザの発言に対して応答できない場合、前記ユーザの発言に対して応答できる他の特定会話アプリケーションを選択する、請求項1に記載の会話処理装置。
  3. 前記複数の会話アプリケーションは、前記ユーザの1つの発言に対して1つの応答を実行する日常会話アプリケーションを更に含み、
    前記選択部は、実行中の特定会話アプリケーションが前記ユーザの発言に対して応答できる場合、前記実行中の特定会話アプリケーションを選択し、前記実行中の特定会話アプリケーションが前記ユーザの発言に対して応答できない場合、前記ユーザの発言に対して応答できる他の特定会話アプリケーションを選択し、前記ユーザの発言に対して応答できる他の特定会話アプリケーションを選択できない場合、前記日常会話アプリケーションを選択する、請求項2に記載の会話処理装置。
  4. 前記日常会話アプリケーションは、深層学習アルゴリズムに従って前記ユーザの1つの発言に対して1つの応答を実行する、請求項3に記載の会話処理装置。
  5. 前記検出部により検出された前記ユーザの発言から抽出された少なくとも1つの単語を含む単語情報を取得する単語情報取得部と、
    前記複数の特定会話アプリケーションに関連付けて、前記複数の特定会話アプリケーションが応答できるユーザの発言に対応する少なくとも1つの単語が登録された単語リストを格納する単語リスト格納部と
    を更に備え、
    前記選択部は、前記単語リストを参照して、前記単語情報に含まれる前記少なくとも1つの単語が前記実行中の特定会話アプリケーションに関連付けて前記単語リストに登録されている場合、前記実行中の特定会話アプリケーションを選択し、前記単語情報に含まれる前記少なくとも1つの単語が、前記実行中の特定会話アプリケーションに関連付けて前記単語リストに登録されておらず、かつ他の特定会話アプリケーションに関連付けて前記単語リストに登録されている場合、前記単語リストに登録されている前記他の特定会話アプリケーションを選択する、請求項2から4のいずれか1つに記載の会話処理装置。
  6. 前記リスト格納部は、前記複数の特定会話アプリケーションごとに前記単語リストを格納し、
    前記選択部は、前記実行中の特定会話アプリケーションに関連付けられた前記単語リストを参照して、特定会話アプリケーションを選択する、請求項5に記載の会話処理装置。
  7. 前記応答部は、前記実行中の特定会話アプリケーションを中断して、前記他の特定会話アプリケーションを実行することにより、前記ユーザの発言に対して応答する場合、前記実行中の特定会話アプリケーションの実行中に前記ユーザから得られた情報に基づいて、前記他の特定会話アプリケーションの前記アルゴリズムの開始位置を決定し、決定された前記開始位置に基づいて前記他の特定会話アプリケーションを実行する、請求項2から6のいずれか1つに記載の会話処理装置。
  8. 前記実行中の特定会話アプリケーションを中断する場合に、前記実行中の特定会話アプリケーションの前記アルゴリズムの中断状態を記憶する中断状態記憶部を更に備え、
    前記応答部は、前記中断状態記憶部を参照して、前記実行中の特定会話アプリケーションの前記アルゴリズムの中断状態を特定し、前記他の特定会話アプリケーションが終了または中断したことに対応して、先に中断された前記特定会話アプリケーションを前記中断状態に基づいて再開する、請求項2から7のいずれか1つに記載の会話処理装置。
  9. 前記検出部により検出されたユーザの発言が、予め定められた特定の発言である場合、前記実行中の会話アプリケーションを強制的に終了する終了部を更に備える、請求項1から8のいずれか1つに記載の会話処理装置。
  10. 前記会話処理装置の周囲を撮像する撮像部と、
    前記会話処理装置の周囲に存在する物体の存在を検出する赤外線センサと、
    前記赤外線センサによる検出結果に応じて、前記ユーザの顔が前記撮像部の撮像範囲に含まれるように、前記撮像部の撮像範囲を調整する調整部と
    を更に備える、請求項1から9のいずれか1つに会話処理装置。
  11. ユーザの発言に対して予め定められたアルゴリズムに従って応答する複数の会話アプリケーションをコンピュータに実行させるためのプログラムであって、
    ユーザの発言を検出する手順と、
    実行中の会話アプリケーションが前記ユーザの発言に対して応答できる場合、前記実行中の会話アプリケーションを選択し、前記実行中の会話アプリケーションが前記ユーザの発言に対して応答できない場合、前記ユーザの発言に対して応答できる他の会話アプリケーションを選択する手順と、
    選択された会話アプリケーションが前記実行中の会話アプリケーションの場合、前記実行中の会話アプリケーションを継続し、選択された会話アプリケーションが前記他の会話アプリケーションの場合、前記実行中の会話アプリケーションを中断して、前記他の会話アプリケーションを実行することにより、前記ユーザの発言に対して応答する手順と
    を前記コンピュータに実行させるためのプログラム。
JP2016151925A 2016-08-02 2016-08-02 会話処理装置、及びプログラム Pending JP2018021987A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016151925A JP2018021987A (ja) 2016-08-02 2016-08-02 会話処理装置、及びプログラム
PCT/JP2017/026490 WO2018025668A1 (ja) 2016-08-02 2017-07-21 会話処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151925A JP2018021987A (ja) 2016-08-02 2016-08-02 会話処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2018021987A true JP2018021987A (ja) 2018-02-08

Family

ID=61072831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151925A Pending JP2018021987A (ja) 2016-08-02 2016-08-02 会話処理装置、及びプログラム

Country Status (2)

Country Link
JP (1) JP2018021987A (ja)
WO (1) WO2018025668A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020144260A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム
EP3859568A4 (en) * 2018-09-28 2021-09-29 Fujitsu Limited DIALOGUE DEVICE, DIALOGUE PROCEDURE AND DIALOGUE PROGRAM

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190133100A (ko) * 2018-05-22 2019-12-02 삼성전자주식회사 어플리케이션을 이용하여 음성 입력에 대한 응답을 출력하는 전자 장치 및 그 동작 방법
JP7145105B2 (ja) 2019-03-04 2022-09-30 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099128A (ja) * 1995-06-22 1997-01-10 Canon Inc 撮影装置
JP2000069459A (ja) * 1998-08-25 2000-03-03 Matsushita Electric Ind Co Ltd 監視システム
JP2001056694A (ja) * 1999-08-19 2001-02-27 Denso Corp 対話型ユーザインタフェース装置
JP2002032370A (ja) * 2000-07-18 2002-01-31 Fujitsu Ltd 情報処理装置
JP2002350555A (ja) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
JP2003058187A (ja) * 2001-08-10 2003-02-28 Fujitsu Ten Ltd 対話システム
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2014222402A (ja) * 2013-05-13 2014-11-27 日本電信電話株式会社 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム
JP2015081971A (ja) * 2013-10-22 2015-04-27 株式会社Nttドコモ 機能実行指示システム及び機能実行指示方法
JP2016062550A (ja) * 2014-09-22 2016-04-25 ソフトバンク株式会社 会話処理システム及びプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099128A (ja) * 1995-06-22 1997-01-10 Canon Inc 撮影装置
JP2000069459A (ja) * 1998-08-25 2000-03-03 Matsushita Electric Ind Co Ltd 監視システム
JP2001056694A (ja) * 1999-08-19 2001-02-27 Denso Corp 対話型ユーザインタフェース装置
JP2002032370A (ja) * 2000-07-18 2002-01-31 Fujitsu Ltd 情報処理装置
JP2002350555A (ja) * 2001-05-28 2002-12-04 Yamaha Motor Co Ltd 人検出装置
JP2003058187A (ja) * 2001-08-10 2003-02-28 Fujitsu Ten Ltd 対話システム
JP2014219594A (ja) * 2013-05-09 2014-11-20 ソフトバンクモバイル株式会社 会話処理システム及びプログラム
JP2014222402A (ja) * 2013-05-13 2014-11-27 日本電信電話株式会社 発話候補生成装置、発話候補生成方法、及び発話候補生成プログラム
JP2015081971A (ja) * 2013-10-22 2015-04-27 株式会社Nttドコモ 機能実行指示システム及び機能実行指示方法
JP2016062550A (ja) * 2014-09-22 2016-04-25 ソフトバンク株式会社 会話処理システム及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3859568A4 (en) * 2018-09-28 2021-09-29 Fujitsu Limited DIALOGUE DEVICE, DIALOGUE PROCEDURE AND DIALOGUE PROGRAM
JP2020144260A (ja) * 2019-03-07 2020-09-10 本田技研工業株式会社 車載エージェントシステム、車載エージェントシステムの制御方法、およびプログラム
US11508370B2 (en) 2019-03-07 2022-11-22 Honda Motor Co., Ltd. On-board agent system, on-board agent system control method, and storage medium
JP7198122B2 (ja) 2019-03-07 2022-12-28 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
WO2018025668A1 (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
US10838765B2 (en) Task execution method for voice input and electronic device supporting the same
US11955124B2 (en) Electronic device for processing user speech and operating method therefor
KR102414122B1 (ko) 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
EP3567584B1 (en) Electronic apparatus and method for operating same
WO2018025668A1 (ja) 会話処理装置、及びプログラム
JP5777731B2 (ja) ジェスチャー認識のための環境依存型ダイナミックレンジ制御
US20190258456A1 (en) System for processing user utterance and controlling method thereof
KR102551715B1 (ko) Iot 기반 알림을 생성 및 클라이언트 디바이스(들)의 자동화된 어시스턴트 클라이언트(들)에 의해 iot 기반 알림을 자동 렌더링하게 하는 명령(들)의 제공
JPWO2016157662A1 (ja) 情報処理装置、制御方法、およびプログラム
US11404060B2 (en) Electronic device and control method thereof
KR20210002598A (ko) 루틴 실행 중에 클라이언트 디바이스간 자동화 어시스턴트 루틴 전송
US11157169B2 (en) Operating modes that designate an interface modality for interacting with an automated assistant
US20190130898A1 (en) Wake-up-word detection
CN104184890A (zh) 一种信息处理方法及电子设备
US11880559B2 (en) Confidence level based controls on a second device
US11756545B2 (en) Method and device for controlling operation mode of terminal device, and medium
US11620996B2 (en) Electronic apparatus, and method of controlling to execute function according to voice command thereof
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
US10901520B1 (en) Content capture experiences driven by multi-modal user inputs
KR20180116725A (ko) 음성 인식 서비스의 운용 화면 표시 방법 및 이를 지원하는 전자 장치
KR102507249B1 (ko) 성능 모드 제어 방법 및 이를 지원하는 전자 장치
US20240129370A1 (en) A computer software module arrangement, a circuitry arrangement, an arrangement and a method for an improved user interface for internet of things devices
JP2017220089A (ja) 情報処理システム、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181016

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181013

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190118