JP2015076040A - 情報処理方法、情報処理装置、及びプログラム - Google Patents

情報処理方法、情報処理装置、及びプログラム Download PDF

Info

Publication number
JP2015076040A
JP2015076040A JP2013213690A JP2013213690A JP2015076040A JP 2015076040 A JP2015076040 A JP 2015076040A JP 2013213690 A JP2013213690 A JP 2013213690A JP 2013213690 A JP2013213690 A JP 2013213690A JP 2015076040 A JP2015076040 A JP 2015076040A
Authority
JP
Japan
Prior art keywords
information
schedule
information processing
predetermined command
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013213690A
Other languages
English (en)
Inventor
玲二 藤川
Reiji Fujikawa
玲二 藤川
雅彦 原田
Masahiko Harada
雅彦 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2013213690A priority Critical patent/JP2015076040A/ja
Publication of JP2015076040A publication Critical patent/JP2015076040A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】対話検索に引き続きスケジューラに追記可能な情報処理方法、情報処理装置、及びプログラムを提供する。【解決手段】入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理方法であって、所定のコマンドおよび実行結果を記憶し、スケジュールの追加コマンドに対応するテキスト情報が認識されると、記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出し、抽出された時間情報と場所情報とに基づいてスケジュールを追加する。【選択図】図5

Description

本発明は、情報処理方法、情報処理装置、及びプログラムに関する。
近年、テレビ受像器やパーソナルコンピュータ等の電子機器に対するユーザ・コマンドの入力を支援する対話型操作支援システムが開発されている(例えば、特許文献1参照)。
特許文献1に記載の発明は、「対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体」に関する発明であり、具体的には、「音声合成やアニメーションによるリアクションを行なう擬人化されたアシスタントと呼ばれるキャラクタのアニメーションをユーザ・インターフェースとすることにより、ユーザに対して親しみを持たせると同時に複雑な命令への対応やサービスへの入り口を提供することができる。また、自然言語に近い感じの命令体系を備えているので、ユーザは、通常の会話と同じ感覚で機器の操作を容易に行なうことができる」ものである。
特開2002−41276号公報
しかしながら、特許文献1には、対話検索に引き続きスケジューラに追記することはできなかった。
そこで、本発明の目的は、対話検索に引き続きスケジューラに追記可能な情報処理方法、情報処理装置、及びプログラムを提供することにある。
上記課題を解決するため、請求項1に記載の発明は、入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理方法であって、前記所定のコマンドおよび実行結果を記憶し、スケジュールの追加コマンドに対応するテキスト情報が認識されると、前記記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出し、前記抽出された時間情報と場所情報とに基づいてスケジュールを追加することを特徴とする。
本発明によれば、対話検索に引き続きスケジューラに追記可能な情報処理方法、情報処理装置、及びプログラムの提供を実現できる。
一実施形態に係る情報処理装置としてのパーソナルコンピュータ100のブロック図である。 図1に示したパーソナルコンピュータの主要部のブロック図の一例である。 (a)はスケジューラへの追記の動作を説明するためのフローチャートの一例であり、(b)はケジューラへの追記の動作を説明するためのフローチャートの他の一例である。 ユーザが音声でパーソナルコンピュータに問いかけをしている状態を示す図である。 ユーザとパーソナルコンピュータとの対話によるスケジュール修正の説明図である。
次に実施の形態について述べる。
<構 成>
図1は、一実施形態に係る情報処理装置としてのパーソナルコンピュータ100のブロック図である。
同図に示すパーソナルコンピュータ(以下、PC)100は、マイクロフォン101、増幅回路102、104、スピーカ103、表示装置105、キーボード106、マウス107、光学読取装置108、制御手段109、HDD(Hard Disk Drive)110、ネットワーク接続部111、I/O(Input/Output)112、及びバスライン113を有する。
マイクロフォン101は、ユーザの音声を電気信号に変換する機能を有する。マイクロフォン101としては、例えばコンデンサマイクロフォンが挙げられるが、ダイナミックマイクロフォンでもよい。
増幅回路102は、マイクロフォン101からの電気信号を増幅する回路である。
スピーカ103は、電気信号を音声に変換する機能を有する。スピーカ103は、主にアバターの声をユーザへ伝達する機能を有する。アバターは、本実施形態では女性であるが、限定されるものではない。
増幅回路104は、音声信号を、スピーカ103を駆動させるレベルまで増幅する回路である。
表示装置105は、アバターやアバターの発話内容を文字で表示した吹き出しを含む画像や文字等を表示する機能を有する。表示装置105としては、例えば、液晶表示素子が挙げられる。
キーボード106は、文字、数字、符号を入力する入力装置である。
マウス107は、入力装置の一種であり、机上を移動させることで表示装置105のカーソルを移動させる等の機能を有する。
光学読取装置108は、CD(Compact Disk)、DVD(Digital Versatile Disc)やCD−R(Compact Disc-Recordable)等の光学媒体を読み取る機能を有する。
制御手段109は、PC100を統括制御機能、及び音声処理機能を有する素子であり、例えばCPU(Central Processing Unit)が挙げられる。音声処理機能とは、主に入力した音声をテキストデータとして出力し、解析し、合成する機能である。
制御手段109は、それぞれソフトウェアで構成される入力制御手段109a、音声認識手段109b、音声解析手段109c、検索手段109d、音声合成手段109e、及び修正手段109fを有する。
入力制御手段109aは、マイクロフォン101に入力された音声が変換された信号を解析して得られたコマンドに基づいて処理させる機能の他、キーボード106からのキー入力、及びマウス107からのクリックやドラッグ等による信号を文字表示、数字表示、符号表示、カーソル移動、コマンド等に変換する機能を有する。
音声認識手段109bは、マイクロフォン101からの信号をテキストデータとして出力する機能を有し、クライアント型音声認識部203である。
音声解析手段109cは、テキストデータを解析する機能を有する。音声解析手段109cは、ユーザから音声による問いかけがあると、その問いかけに関するテキストデータを解析する。
検索手段109dは、ネットワーク207を介してインターネット検索する手段である。検索手段109dは、ユーザから検索の指示があると、予め設定されたブラウザでネットワークに接続し、予め設定されたインターネット検索サービスに接続し、キーワード検索する機能を有する。
音声合成手段109eは、クライアント型音声合成部210であり、人間の音声を人工的に作り出す機能を有する。音声はアバターの年齢性別に対応した音質が設定されている。音声合成手段109eの出力は、バスライン113、及び増幅回路104を経て出力手段としてのスピーカ103から発音される。
修正手段109fは、対話検索の文脈上覚えておき、その文脈から詳細情報を把握しておき、スケジューラに追記する機能を有する。スケジュールの作成は、例えばユーザ200からの「いいね」、もしくは「追記して」の音声をトリガとして作成する。「文脈上覚えておき」とは、例えば「スケジューラに追記」をコマンドとして実行するときに利用できるよう、その前に検索した情報等(レストラン情報やイベント情報)を、所定期間一時記憶しておくことである。従って、「追記して」をトリガとして、記憶している情報を追記可能となる。
HDD110は、記憶装置の一種であり、ROM(Read Only Memory)エリア、及びRAM(Random Access Memory)エリアを有する。ROMエリアは制御プログラムを格納するエリアであり、RAMエリアはメモリとして用いられるエリアである。
ネットワーク接続部111は、ネットワーク207を介して外部のサーバに接続する機能を有する公知の装置である。無線もしくは有線のいずれの手段を用いてもよい。
I/O112は、外部の電子機器、例えばUSB(Universal Serial Bus line)フラッシュメモリやプリンタを接続する機能を有する入出力装置である。
尚、PC100は、入力手段としてタッチパネルを有していてもよい。
図2は、図1に示したパーソナルコンピュータの主要部のブロック図の一例である。
図2において、本発明の実施形態におけるPC100は、マイクロフォン101から入力されたユーザの音声が音声データ(電気信号)に変換されて、当該音声データが音声信号解釈部202によって解釈され、その結果がクライアント型音声認識部203において認識される。クライアント型音声認識部203は、認識した音声データをクライアントアプリケーション部204に渡す。
クライアントアプリケーション部204は、ユーザからの問い合わせに対する回答が、オフライン状態にあるローカルコンテンツ部208に格納されているか否かを確認し、ローカルコンテンツ部208に格納されている場合は、当該ユーザからの問い合わせに対する回答を、後述するテキスト読上部209、クライアント型音声合成部210を経由して、スピーカ103から音声出力する。
ユーザからの問い合わせに対する回答が、ローカルコンテンツ部208に格納されていない場合は、PC100単独で回答を持ち合わせていないことになるので、インターネット等のネットワーク207に接続されるネットワーク接続部111を介して、インターネット上の検索エンジン等を用いてユーザからの問い合わせに対する回答を検索し、得られた検索結果を、テキスト読上部209、クライアント型音声合成部210を経由して、スピーカ103から音声出力する。
クライアントアプリケーション部204は、ローカルコンテンツ部208、又はネットワーク207から得られた回答をテキスト(文字)データに変換し、テキスト読上部209に渡す。テキスト読上部209は、テキストデータを読み上げ、クライアント型音声合成部210に渡す。クライアント型音声合成部210は、音声データを人間が認識可能な音声データに合成しスピーカ103に渡す。スピーカ103は、音声データ(電気信号)を音声に変換する。また、スピーカ103から音声を発するのに合わせて、表示装置105に当該音声に関連する詳細な情報を表示する。
<動 作>
図3(a)は、スケジューラへの追記の動作を説明するためのフローチャートの一例であり、図3(b)は、スケジューラへの追記の動作を説明するためのフローチャートの他の一例である。
図3(a)において動作の主体は制御手段である。
音声認識が開始されると(ステップS1)、スケジュール追加コマンドか有るか否かを判断し(ステップS2)、スケジュール追加コマンドが無い場合(ステップS2/N)、コマンドを実行し(ステップS3)、スケジュール追加コマンドがある場合(ステップS2/Y)、ステップS5に進む。
コマンド実行後、コマンド・実行結果を一時記憶し、ステップS1に戻る(ステップS4)。
ステップS5では一時記憶から時間・場所情報を抽出し(ステップS5)、スケジュール追加し終了する(ステップS6)。
尚、コマンドには例えばスケジュール追加、スケジュール変更、スケジュール取消等が挙げられる。また、スケジュール追加後、再度スケジュールの修正をしたい場合にはステップS1に戻ればよい。
図3(b)において動作の主体は制御手段である。
ステップS11〜S14は図3(a)のステップS1〜S4と同様のため、説明を省略し、ステップS15から説明する。
ステップS15では一時記憶から時間・場所情報を抽出したか否かを判断し、時間・場所情報を抽出しない場合(ステップS15/N)、不足情報を質問し、回答を音声認識し(ステップS16)、スケジュールを追加して終了する(ステップS17)。
時間場所情報を抽出した場合(ステップS15/Y)、スケジュールに追加して終了する(ステップS17)。
スケジュール追加後、再度スケジュールの修正をしたい場合にはステップS11に戻ればよい。
図4は、ユーザが音声でPCに問いかけをしている状態を示す図である。図5は、ユーザとPCとの対話によるスケジュール修正の説明図である。
例えば、図4に示すユーザ200がドレッサーのチェストに座ってメークをしている場合について述べる。このときユーザ200は両手がふさがっており、かつPC100から離れている。ユーザ200はメークを続けながらソファーに載置されたPC100に対し、特定のキーワードとしてのウェークアップキーワードである「シェリー」と言うと、PC100は、判別手段としての制御手段が判別し、コマンドとしての問いかけに対する応答動作を開始し、例えば「お呼びでしょうか?」と返事をする。
PC100のモニタ100aには、図5に示すようなアバター400及びアバター400の吹き出し401を含むウィンドウ500が最大限のサイズで表示される。
ここで、アバター400は、吹き出し300のような「おはようございます。」等の挨拶を発音するように設定されている。挨拶は時間や曜日で異なるように設定されている。
ユーザ200はドレッサーの前でメークを続けながら、ソファー上のPC100に対し、「シェリー、イタリアン食べに行きたいんだけど。」301と問いかける。すなわちユーザ200は、両手がふさがった状態であっても音声による検索の要求を行うことができる(このとき別のコンテンツから突然話題をかえてもよい)。
この要求に対して、PC100からアバター400に対応した音声で「調べてみます。有楽町駅周辺のお店はこんな感じですよ。」302と応答すると共に、モニタ100aに検索結果を表示する(有楽町駅はユーザ200の話の中に出現した場所であり、PC100が記憶しているものとする。)。
検索結果がモニタ100aに表示されていることを確認するため、ユーザ200はドレッサーからソファーまで歩いて移動し、モニタ100aを見ているものとする。
ユーザ200はモニタ100aに表示された検索結果に対して「1番見せて」303とPC100に問いかける(続けて自由に条件を変更できる)。
PC100は、ユーザ200の問いかけに対し、「1番の『マッテロ銀座店の詳細です。』」と発音しながら、モニタ100aに結果を表示する。
この結果の表示に対して、ユーザ200は「いいね!食事の予定を追加して。」306と言うと、PC100は、ユーザ200からの検索の内容がユーザ200の外出を伴うと判断し、スケジュールに追記するものと判断し、「ご予定はいつにしましょうか?」305とユーザ200に質問する。この後、ユーザ200はPC100に予定を言うと、PC100はスケジューラに予定を追加する。尚、レストランの情報は文脈上覚えていて、予定の詳細にレストランのURL(Uniform Resource Locator等の情報が自動で追記される。
以上において、本実施形態によれば、対話検索に引き続きスケジューラへの追記が可能となる。
<プログラム>
以上で説明した本発明に係る情報装置は、コンピュータで処理を実行させるプログラムによって実現されている。コンピュータとしては、例えばパーソナルコンピュータやワークステーションなどの汎用的なものが挙げられるが、本発明はこれに限定されるものではない。よって、一例として、プログラムにより本発明の機能を実現する場合の説明を以下で行う。
例えば、
情報処理装置のコンピュータに、
入力された音声情報に予め定められたキーワードが含まれるか否かを判別する手順と、
音声情報から所定のテキスト情報を認識する手順と、
認識する手順により認識された所定のテキスト情報に基づいて特定される所定のコマンドを実行する手順と、
判別する手順により予め定められたキーワードが含まれると判別されたとき、コマンドを実行する手順を起動させる処理と、
を実行させるためのプログラムであって、
コンピュータが、
表示手段に、ナビゲータ画像を含むウィンドウと、検索結果と、を表示する手順と、
検索手段に、ユーザから音声による問いかけがあると、前記ナビゲータ画像に対応した音声で応答すると共に問いかけに関する検索を開始する手順と、
修正手段に、検索結果が得られると、修正指示がある場合にはユーザのスケジュールに修正を行う手順と、
を実行させるためのプログラムが挙げられる。
また、
入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理装置のコンピュータが、
記憶手段に、所定のコマンドおよび実行結果を記憶する手順と、
抽出手段に、スケジュールの追加コマンドに対応するテキスト情報が認識されると、前記記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出する手順と、
修正手段に、抽出された時間情報と場所情報とに基づいてスケジュールを追加する手順と、
を実行させるためのプログラムでもよい。
これにより、プログラムが実行可能なコンピュータ環境さえあれば、どこにおいても本発明にかかる情報処理装置を実現することができる。
このようなプログラムは、コンピュータに読み取り可能な記憶媒体に記憶されていてもよい。
<記憶媒体>
ここで、記憶媒体としては、例えばCD−ROM、フレキシブルディスク(FD)、CD−R等のコンピュータで読み取り可能な記憶媒体、フラッシュメモリ、RAM、ROM、FeRAM等の半導体メモリやHDDが挙げられる。
CD−ROMは、Compact Disc Read Only Memoryの略である。フレキシブルディスクは、Flexible Disk:FDを意味する。FeRAMは、Ferroelectric RAMの略で、強誘電体メモリを意味する。
以上において、本発明によれば、入力された音声情報に予め定められたキーワードが含まれるか否かを判別する判別手段と、音声情報から所定のテキスト情報を認識する音声認識手段と、音声認識手段により認識された所定のテキスト情報に基づいて特定される所定のコマンドを実行するコマンド実行手段と、判別手段により予め定められたキーワードが含まれると判別されたとき、コマンド実行手段を起動させる起動手段と、を備え、ナビゲータ画像を含むウィンドウと、検索結果と、を表示する表示手段と、ユーザから音声による問いかけがあると、ナビゲータ画像に対応した音声で応答すると共に問いかけに関する検索を開始する検索手段と、検索結果が得られると、修正指示がある場合にはユーザのスケジュールに修正を行う修正手段と、を備えたことにより、対話検索に引き続きスケジューラに追記可能な情報処理方法、情報処理装置、及びプログラムの提供を実現できる。
尚、上述した実施の形態は、本発明の好適な実施の形態の一例を示すものであり、本発明はそれに限定されることなく、その要旨を逸脱しない範囲内において、種々変形実施が可能である。例えば、本実施形態ではユーザから音声による検索の内容が外出を伴う場合で説明したが、本発明はこれに限定されるものではなく、ユーザへの来客を伴う場合であってもスケジュールに追記するように構成してもよい。さらに、ユーザから検索結果に対して、修正指示がある場合にもスケジュールに追記するように構成してもよい。
100 パーソナルコンピュータ(PC、情報処理装置)
100a モニタ
101 マイクロフォン
102、104 増幅回路
103 スピーカ
105 表示装置
106 キーボード
107 マウス
108 光学読取装置
109 制御手段
109a 入力制御手段
109b 音声認識手段
109c 音声解析手段
109d 検索手段
109e 音声合成手段
109f 修正手段
110 HDD
111 ネットワーク接続部
112 I/O
113 バスライン
200 ユーザ
202 音声信号解釈部
203 クライアント型音声認識部
204 クライアントアプリケーション部
209 テキスト読上部
210 クライアント型音声合成部
300、301、302、303、304、305、401 吹き出し
400 アバター
500 ウィンドウ

Claims (4)

  1. 入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理方法であって、
    前記所定のコマンドおよび実行結果を記憶し、
    スケジュールの追加コマンドに対応するテキスト情報が認識されると、前記記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出し、
    前記抽出された時間情報と場所情報とに基づいてスケジュールを追加することを特徴とする情報処理方法。
  2. 前記記憶された所定のコマンドおよび実行結果から時間情報または場所情報が抽出できないとき、抽出できない情報への回答を促す質問を発話し、
    その後入力された音声情報から認識されたテキスト情報に基づいて特定される前記抽出できなかった時間情報または場所情報を加えてスケジュールを追加することを特徴とする請求項1記載の情報処理方法。
  3. 入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理装置であって、
    前記所定のコマンドおよび実行結果を記憶する記憶手段と、
    スケジュールの追加コマンドに対応するテキスト情報が認識されると、前記記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出する抽出手段と、
    前記抽出された時間情報と場所情報とに基づいてスケジュールを追加する修正手段と、
    を備えたことを特徴とする情報処理装置。
  4. 入力された音声情報から認識されたテキスト情報に基づいて特定される所定のコマンドを実行する情報処理装置のコンピュータが、
    記憶手段に、前記所定のコマンドおよび実行結果を記憶する手順と、
    抽出手段に、スケジュールの追加コマンドに対応するテキスト情報が認識されると、前記記憶された所定のコマンドおよび実行結果から時間情報と場所情報とを抽出する手順と、
    修正手段に、前記抽出された時間情報と場所情報とに基づいてスケジュールを追加する手順と、
    を実行させるためのプログラム。
JP2013213690A 2013-10-11 2013-10-11 情報処理方法、情報処理装置、及びプログラム Pending JP2015076040A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013213690A JP2015076040A (ja) 2013-10-11 2013-10-11 情報処理方法、情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013213690A JP2015076040A (ja) 2013-10-11 2013-10-11 情報処理方法、情報処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2015076040A true JP2015076040A (ja) 2015-04-20

Family

ID=53000817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013213690A Pending JP2015076040A (ja) 2013-10-11 2013-10-11 情報処理方法、情報処理装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2015076040A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927697A (zh) * 2021-01-22 2021-06-08 济南浪潮高新科技投资发展有限公司 一种基于语音识别的日程管理方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
WO2013048880A1 (en) * 2011-09-30 2013-04-04 Apple Inc. Automatically adapting user interfaces for hands-free interaction
JP2013517566A (ja) * 2010-01-18 2013-05-16 アップル インコーポレイテッド インテリジェント自動アシスタント

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
JP2013517566A (ja) * 2010-01-18 2013-05-16 アップル インコーポレイテッド インテリジェント自動アシスタント
WO2013048880A1 (en) * 2011-09-30 2013-04-04 Apple Inc. Automatically adapting user interfaces for hands-free interaction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927697A (zh) * 2021-01-22 2021-06-08 济南浪潮高新科技投资发展有限公司 一种基于语音识别的日程管理方法及装置

Similar Documents

Publication Publication Date Title
US11823659B2 (en) Speech recognition through disambiguation feedback
US10489112B1 (en) Method for user training of information dialogue system
JP6588637B2 (ja) 個別化されたエンティティ発音の学習
US8073700B2 (en) Retrieval and presentation of network service results for mobile device using a multimodal browser
JP2019050019A (ja) 提案される音声ベースのアクションクエリの提供
CN107992587A (zh) 一种浏览器的语音交互方法、装置、终端和存储介质
US10860289B2 (en) Flexible voice-based information retrieval system for virtual assistant
JP2020079921A (ja) 音声インタラクション実現方法、装置、コンピュータデバイス及びプログラム
KR20130034630A (ko) 컨텍스트 정보를 이용한 음성 인식 복구
JP2004310748A (ja) ユーザ入力に基づくデータの提示
CN108648750A (zh) 混合模型语音识别
JP2002116796A (ja) 音声処理装置、音声処理方法及び記憶媒体
WO2019031268A1 (ja) 情報処理装置、及び情報処理方法
US20090150341A1 (en) Generation of alternative phrasings for short descriptions
WO2019045816A1 (en) GRAPHIC DATA SELECTION AND DIGITAL CONTENT PRESENTATION
JP6069157B2 (ja) 情報処理装置、制御方法、及びプログラム
US11694682B1 (en) Triggering voice control disambiguation
JP2015052743A (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015076040A (ja) 情報処理方法、情報処理装置、及びプログラム
JP5882972B2 (ja) 情報処理装置、及びプログラム
JP6746886B2 (ja) 学習支援装置及びその学習支援装置用のプログラム
JP7310907B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP2015076038A (ja) 情報処理方法、情報処理装置、及びプログラム
KR20220089537A (ko) 전자 장치 및 이의 제어 방법
JP5936588B2 (ja) 情報処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105