JP2011209787A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents
情報処理装置、および情報処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2011209787A JP2011209787A JP2010074158A JP2010074158A JP2011209787A JP 2011209787 A JP2011209787 A JP 2011209787A JP 2010074158 A JP2010074158 A JP 2010074158A JP 2010074158 A JP2010074158 A JP 2010074158A JP 2011209787 A JP2011209787 A JP 2011209787A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- processing
- information processing
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 233
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012545 processing Methods 0.000 claims abstract description 313
- 238000000034 method Methods 0.000 claims abstract description 194
- 230000008569 process Effects 0.000 claims description 191
- 238000004458 analytical method Methods 0.000 claims description 69
- 230000009471 action Effects 0.000 claims description 36
- 238000010191 image analysis Methods 0.000 claims description 22
- 230000005764 inhibitory process Effects 0.000 claims description 12
- 230000008921 facial expression Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 18
- 230000002401 inhibitory effect Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000003909 pattern recognition Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 238000013479 data entry Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】ユーザ発話の音声解析や、ユーザ動作(ジェスチャー)の解析を実行し、解析結果に基づいて情報処理装置の処理を決定する。さらに、ユーザ発話やユーザ動作に基づく情報処理装置の処理過程において、処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する。ユーザはこれらのフィードバック情報を取得することで、処理ステージに応じたエラー発生状況を即座に取得することができ、無駄な待機処理等を行うことなく、再発話等のエラー対応処理を即時、実行することができる。
【選択図】図10
Description
ユーザ発話の解析処理を実行する音声解析部と、
前記音声解析部の解析結果を入力し、情報処理装置の実行する処理を決定するデータ処理部を有し、
前記データ処理部は、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行う情報処理装置にある。
情報処理装置において、情報処理を実行する情報処理方法であり、
音声解析部が、ユーザ発話の解析処理を実行する音声解析ステップと、
データ処理部が、前記音声解析ステップにおける解析結果を入力し、情報処理装置の実行する処理を決定するデータ処理ステップを有し、
前記データ処理ステップは、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行うステップを含む情報処理方法にある。
情報処理装置において、情報処理を実行させるプログラムであり、
音声解析部に、ユーザ発話の解析処理を実行させる音声解析ステップと、
データ処理部に、前記音声解析ステップにおける解析結果を入力させ、情報処理装置の実行する処理を決定させるデータ処理ステップを有し、
前記データ処理ステップは、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行わせるステップを含むプログラムにある。
1.本発明の情報処理装置の実行する処理の概要について
2.本発明の情報処理装置の構成例について
3.ユーザに対するフィードバックおよび誘導(ガイド)による相互理解の向上を行う処理例について
(3−1)アバターを利用したフィードバック処理例
(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例
(3−3)ユーザに対するフィードバック情報と誘導(ガイド)情報を併せて利用する処理例
(3−4)ユーザ同定処理について
4.ユーザに対するフィードバックにより、ユーザ入力の必要性や入力タイミングを理解させる処理例について
(4−1)ユーザの発話に対するフィードバック処理例について
(4−2)ユーザの動作(ジェスチャー)に対するフィードバック処理例について
5.情報処理装置のハードウェア構成例について
まず、図1を参照して本発明の情報処理装置の実行する処理の概要について説明する。図1には、本発明に係る情報処理装置の例としてテレビを示している。情報処理装置100は、例えば、放送コンテンツの表示処理の他、内蔵する録画再生機器、例えばハードディスク、DVDやBlu−rayディスク等に記録されたコンテンツの再生処理や、録画再生機器に対する番組の録画処理などを実行する。
次に、図2を参照して本発明の情報処理装置の構成例について説明する。図2に示す情報処理装置100は、例えば図1に示す情報処理装置100に対応する。なお、本発明の情報処理装置はテレビに限らず、PCや、録画再生機、その他、様々な家電製品として実現可能である。すなわち、ユーザ要求に応じて様々な処理を行う情報処理装置である。
次に、本発明の情報処理装置の実行する処理例として、ユーザに対するフィードバックおよび誘導(ガイド)による相互理解の向上を行う処理例について説明する。
(3−1)アバターを利用したフィードバック処理例
(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例
(3−3)ユーザに対するフィードバック情報と誘導(ガイド)情報を併せて利用する処理例
(3−4)ユーザ同定処理について
まず、情報処理装置の代理としてのアバターを利用したフィードバック処理例について説明する。
図3を参照して、情報処理装置の実行する具体的な処理例について説明する。
図3は、例えば図1に示すテレビ等の情報処理装置100の表示部の表示例を示している。情報処理装置100は、ユーザの発話やジェスチャーを解析して、解析結果に応じた処理を実行する。例えばチャンネルの変更や、コンテンツの選択再生処理、録画処理などである。
ユーザは、このユーザ画像301を見て、情報処理装置100が認識したユーザが自分であることを確認できる。
例えば、自分でないユーザの顔がユーザ画像301として表示された場合は、ユーザは「ユーザが違います」といった発話等による入力を行って、情報処理装置100に対して、ユーザの誤認を通知することができる。
なお、アバター303は、ユーザの入力(発話や動作)の理解レベルや情報処理装置100の実行する処理などに応じて、その表情を変化させる。ユーザは、アバターの表情の変化に基づいて、情報処理装置の状況等を知ることができる。この具体例については後述する。
ユーザは、このユーザ入力情報302の表示に基づいて、情報処理装置100が正しく要求を理解したか否かを判断することができる。
例えば、ユーザの実際の要求と異なるユーザ入力情報302の表示がなされた場合は、ユーザは「要求が違います」といった発話等による入力を行って、情報処理装置100に対して、ユーザ入力の誤認を通知することができる。
これは、ユーザ入力「移動コマンド:6番目再生」に対応した情報処理装置100側の処理である。
情報処理装置100の解釈が誤っていれば、その誤った処理情報が表示される。
ユーザは、この装置処理情報304の表示に基づいて、情報処理装置100が正しく要求を理解し、ユーザ要求に応じた正しい処理を行おうとしているか否かを判断することができる。
例えば、ユーザの実際の要求と異なる処理に対応する装置処理情報304の表示がなされた場合は、ユーザは「処理が違います」といった発話等による入力を行って、情報処理装置100に対して、実行する処理が誤っていることを通知することができる。
ユーザ画像301の提示によるユーザ同定処理の正否の確認、
ユーザ入力情報302の表示によるユーザ入力の解釈の正否の確認、
アバター303と、装置処理情報304の表示による情報処理装置の状態の確認、
これらの情報をユーザに対するフィードバック情報として提示する。
ユーザはこれらのフィードバック情報に基づいて、情報処理装置100がユーザおよびユーザ要求を正しく理解しているか否かを容易に把握することができ、誤りがある場合は誤りを具体的に情報処理装置に対して通知することが可能となる。
現状の問題点として、例えば、図4に示す(1)〜(4)がある。
本発明の情報処理装置は、この問題点を解決するため、インタラクション状態を表示して、現在の状態を確認可能とする。具体的には、図3に示すような、ユーザ画像301、ユーザ入力情報302、アバター303、装置処理情報304の表示である。
図5には、
(X)ユーザに対するフィードバック不足の態様
(Y)アバター経由のフィードバック情報の内容
(Z)アバターの表情と装置処理情報の出力例
これらの対応データを示している。
(a)いつ話せばいいかが分からない?
(b)発話が装置(システム)に入力されたか否かが分からない?
(c)発話が装置(システム)に理解されたか否かが分からない?
(d)発話に基づく処理を装置(システム)が実行しているか否かが分からない?
例えば、これら(a)〜(d)のようなフィードバック情報不足に基づくユーザが困る状況が発生する。
具体的には、
(a)いつ話せばいいかが分からない?
この問題に対して、
図5(Z)に示すように、アバターの発話として「指示お願いします」といった発話の出力(表示と音声出力)を実行する。
このような処理によって(Y)に示すように、装置(システム)がユーザ発話の待機状態であることを示すような構成としている。
この問題に対して、
図5(Z)に示すように、アバターの発話として「話を聴いています」といった発話の出力(表示と音声出力)を実行する。さらに、アバターの耳を大きくするなど、強調表示しての聞いている状態にあることを視覚的に理解可能としたアバター表示を行う。
このような処理によって(Y)に示すように、装置(システム)がユーザ発話を聴いていることを示す構成としている。
この問題に対して、
図5(Z)に示すように、アバターの発話として「分かりました」といった発話の出力(表示と音声出力)を実行する。さらに、アバターの表情を笑顔にするなど、理解したことを視覚的に示したアバター表示を行う。
このような処理によって(Y)に示すように、装置(システム)がユーザ発話を理解したことを示す構成としている。
この問題に対して、
図5(Z)に示すように、アバターの発話として「処理中です」といった発話の出力(表示と音声出力)を実行する。この処理によって(Y)に示すように、装置(システム)がユーザ発話に基づく処理を実行中であることを示す構成としている。
(a)ユーザの話を聞いている状態であることを示すアバターの表示例であり、耳を強調表示したアバターの表示例である。
(b)ユーザの話を理解して、行動する状態であることを示すアバターの表示例であり、笑顔を示すアバターの表示例である。
(c)ユーザの話がよく聞こえなかった状態であることを示すアバターの表示例であり、聞こえてない困った表情を設定したアバターの表示例である。
(d)ユーザの話が理解できなかった状態であることを示すアバターの表示例であり、理解できずに困った状態である表情を示したアバターの表示例である。
次に、ユーザの入力可能な情報についての誘導(ガイド)を行う処理例について説明する。
本発明の情報処理装置は、例えばこのようなコンテンツ検索の際の指定条件をカテゴリ単位で、どのような選択条件の指定ができるか等の情報をユーザに提供する。
図7は、再生コンテンツの選択処理に際して情報処理装置100の表示部に表示されるガイド付き情報入力領域350の表示例である。
しかし、これらの情報入力欄に、実際どのような情報が入力む可能であるかについては、初心者は分かりづらい。
図8に示すように、タイトル情報の入力欄には、「例えばXYZニュースと入力してください」と表示する。これは、図7を参照して説明したと同様である。
おすすめ情報入力欄には、「あり」「なし」のいずれかを提示する。あるいは、「あり」「なし」の切り替え表示を行う。ユーザ入力によって確定した場合は、切り替え表示から確定データの常時表示に切り換える。
ジャンル欄には、アニメ。スポーツ、・・・音楽、これらの登録されたジャンル情報のいずれか、あるいは、切り換えて繰り返し表示する。ユーザ入力によって確定した場合は、確定情報を常時表示する。
時間帯、時間、曜日情報についても、それぞれ入力可能な情報のいずれか、あるいは、切り換えて順次表示する。ユーザ入力によって確定した場合は、確定情報を常時表示する。
ガイド情報表示欄372には、先に、図7、図8を参照して説明したユーザ入力の態様等についての説明を表示する。
図に示す例では、ユーザの発話に基づく入力の仕方についての説明をガイド情報表示欄372の上部の「音声コマンド」の欄に表示し、ユーザの動作(ジェスチャー)に基づく入力の仕方についての説明をガイド情報表示欄372の下部の「ジェスチャー」の欄に表示している。
ユーザは、これらの説明を見て、各データ入力欄に対して容易に正しい入力を行うことが可能となる。
次に、上述したユーザに対するフィードバック情報と誘導(ガイド)情報を併せて利用する処理例について図10を参照して説明する。
図10は、例えば図1のテレビなどの情報処理装置100の表示部の表示データの例を示す図である。
アバターとの対話設定を可能としたフィードバック情報表示領域381、
各データ入力欄単位で誘導(ガイド)情報を表示したガイド付き情報入力領域382、
独立した誘導(ガイド)情報を表示したガイド情報表示領域383、
コンテンツリスト表示領域384、
これらの各領域によって構成されている。
各データ入力欄単位で誘導(ガイド)情報を表示したガイド付き情報入力領域382は、先に、図7〜図8を参照して説明した[(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例]に対応する誘導(ガイド)情報の表示領域である。
独立した誘導(ガイド)情報を表示したガイド情報表示領域383は、先に、図9を参照して説明した[(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例]に対応する誘導(ガイド)情報の表示領域である。
次に、ユーザ同定処理について説明する。例えば、図1のような環境では、情報処理装置100の前に複数のユーザが存在する。ユーザa11〜ユーザc13である。情報処理装置100は、カメラ101(=図2の画像入力部(カメラ)203)を介して、情報処理装置100の前の画像を取得し、図2に示す画像解析部204において、あらかじめ記憶部に格納されたユーザの顔画像との比較を実行して、ユーザの識別処理を実行する。図2に示すデータ処理部205は、この識別結果のフィードバック情報を生成する。
なお、どのユーザが話したかについては、音声解析部202における音声解析処理、すなわち予め情報処理装置100に格納されているユーザ単位の音声特徴情報との呼格処理によって実行される。また画像解析部204において画像から口の動きを解析してその解析結果を利用してもよい。
このニックネームの呼びかけを情報処理装置100の音声解析部202が検出するとデータ処理部205は、例えば図12に示す表示データを表示する。
この図11、図12に示す画面は、例えば初期画面であり、情報処理装置の起動時などに表示される。
この図11、図12に示す初期画面の出力後、ユーザは情報処理装置に対して、様々な要求を発話またはジェスチャーによって入力する。
図13を参照して、本発明の情報処理装置100の表示部に表示される画面遷移の具体的な例について説明する。
図13には、
(A)初期画面
(B)入力画面
(C)再生画面
これらの3つの画面表示例を示している。
情報処理装置100の画像解析部204におけるユーザ画像の解析と、音声解析部202におけるユーザ発話の解析情報を用いて、データ処理部205が生成する初期画面である。
ユーザは、この画面を見ることで、自分が装置に正しく認識され、自分の要求が装置に正しく伝わっていることを確認することができる。
アバターとの対話設定を可能としたフィードバック情報表示領域、
各データ入力欄単位で誘導(ガイド)情報を表示したガイド付き情報入力領域、
独立した誘導(ガイド)情報を表示したガイド情報表示領域、
コンテンツリスト表示領域、
これらの各領域によって構成されている。
この表示例は、コンテンツリスト表示領域に表示されたコンテンツから再生コンテンツを選択するための処理を行う場合に表示部に表示するデータの例である。
各データ入力欄単位で誘導(ガイド)情報を表示したガイド付き情報入力領域は、先に、図7〜図8を参照して説明した[(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例]に対応する誘導(ガイド)情報の表示領域である。
独立した誘導(ガイド)情報を表示したガイド情報表示領域は、先に、図9を参照して説明した[(3−2)ユーザの入力可能な情報についての誘導(ガイド)を行う処理例]に対応する誘導(ガイド)情報の表示領域である。
これらの各情報を併せて表示することで、ユーザは迷うことなく情報処理装置に対する指示を発話またはジェスチャーによって行うことができる。
この状態においてもユーザは、アバターとの会話が可能であり、例えば再生コンテンツの切り替え要求などを随時実行することができる。
次に、ユーザに対するフィードバック処理を実行して、ユーザ入力の必要性や入力タイミングをユーザに理解させる処理例について説明する。
しかし、このような構成を提供しても、100%誤りのないユーザ入力が行われる保証はない。必ず、何らかの入力ミスが発生し、また、ユーザの意図とは異なる情報処理装置の処理が開始される場合もある。
具体的には音声解析のエラーが発生した場合には、ユーザの発話に対して情報処理装置が全く処理を開始できない場合が発生する。
また、情報処理装置の前に複数のユーザがいる場合、情報処理装置に対して話かけたユーザと異なる無関係のユーザの発話に対して処理を開始してしまうといった場合も発生する可能性がある。
また、ユーザの要求が情報処理装置の実行可能な処理でない場合もある。
具体的には、図2に示す情報処理装置のデータ処理部205は、ユーザ発話やユーザ動作(ジェスチャー)に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行う。
例えば本発明のシステムは、ユーザ発話を音声認識によって解析し、解析結果に基づいて情報処理装置の処理を決定する。
この音声認識による処理決定までのプロセスにおいては、複数の異なる処理を連続的に実行することが必要となる。すなわち複数の処理ステージをパイプライン処理としてシーケンシャルに実行することが必要である。
複数の処理ステージが順調に進めば、最終的な処理、例えばユーザに対する応答が出力される。具体的にはアバターの出力が画像として表示、あるいは音声出力される。
このような場合、ユーザは、ただ待機するしかなく、情報処理装置の状態について知ることができない。
図14は、ユーザ501が何らかの発話を実行した場合に情報処理装置が実行する処理に含まれる処理ステージを実行順に従って示した図である。
すべての処理が進めば、最終的な処理として、アバター502がユーザに対して何らかの発話を行う場合の処理例である。
この例について、図15を参照して説明する。
(1)音響分析(S101)
(2)意味抽出(S102)
(3)信頼度算出(S103)
(4)環境理解(S104)
(5)ユーザ管理(S105)
(6)対話管理(S106)
(7)タスク管理(S107)
図14、図15を参照して説明した処理は、ユーザの発話に対する音声解析における処理ステージと各処理ステージにおけるとフィードバック処理例である。次に、ユーザの動作(ジェスチャー)の画像解析における処理ステージと各処理ステージにおけるフィードバック処理形について図16、図17を参照して説明する。
図16は、ユーザが手の指を使って何らかの動作(ジェスチャー)を実行した場合に情報処理装置が実行する処理に含まれる処理ステージを実行順(ステップS210→S220→S230→S240)に従って示した図である。
すべての処理が進めば、最終的な処理として、例えばアバターがユーザに対して何らかの発話を行う。あるいは指示された処理(例えばコンテンツ再生など)を実行する。
この例について、図17を参照して説明する。
(1)手検出処理(S210)
(2)指検出処理(S220)
(3)手のパターン認識処理(S230)
(4)動作(ジェスチャー)識別処理(S240)
(5)タスク管理
最後に、図18を参照して、上述した処理を実行する情報処理装置のハードウェア構成例について説明する。CPU(Central Processing Unit)701は、ROM(Read Only Memory)702、または記憶部708に記憶されているプログラムに従って各種の処理を実行する。
例えば、図2の情報処理装置の構成における音声解析部202、画像解析部204、データ処理部205の処理を実行する。RAM(Random Access Memory)703には、CPU701が実行するプログラムやデータなどが適宜記憶される。これらのCPU701、ROM702、およびRAM703は、バス704により相互に接続されている。
さらに、音声認識処理に必用となる各種の音声情報や辞書データ、さらには、ユーザ認識処理に必用となるユーザ画像データ等が記録されている。通信部709は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
100 情報処理装置
101 カメラ
102 音声入出力部
201 音声入力部
202 音声解析部
203 画像入力部
204 画像解析部
205 データ処理部
206 音声出力部
207 画像出力部
300 フィードバック情報表示領域
301 ユーザ画像
302 ユーザ入力情報
303 アバター
304 装置処理情報
350 ガイド付き情報入力領域
370 ガイド情報表示領域
371 装置状態表示欄
372 ガイド情報表示欄
381 フィードバック情報表示領域
382 ガイド付き情報入力領域
383 ガイド情報表示領域
384 コンテンツリスト表示領域
391,392 ユーザ画像
395 アバター
501 ユーザ
502 アバター
701 CPU
702 ROM
703 RAM
704 バス
705 入出力インタフェース
706 入力部
707 出力部
708 記憶部
709 通信部
710 ドライブ
711 リムーバブルメディア
Claims (8)
- ユーザ発話の解析処理を実行する音声解析部と、
前記音声解析部の解析結果を入力し、情報処理装置の実行する処理を決定するデータ処理部を有し、
前記データ処理部は、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行う情報処理装置。 - 前記情報処理装置は、
ユーザ動作を解析する画像解析部を有し、
前記データ処理部は、前記画像解析部の解析結果を入力し、情報処理装置の実行する処理を決定し、ユーザ動作に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行う請求項1に記載の情報処理装置。 - 前記データ処理部は、
前記フィードバック情報として、情報処理装置の代理としてのアバターを表示部に表示し、表示したアバターの表示態様を変更する処理を行う請求項1または2に記載の情報処理装置。 - 前記データ処理部は、
前記フィードバック情報として、情報処理装置の代理としてのアバターを表示部に表示し、表示したアバターの表情を変更する処理を行う請求項1または2に記載の情報処理装置。 - 前記データ処理部は、
前記フィードバック情報として、情報処理装置の代理としてのアバターを表示部に表示し、表示したアバターを介して情報処理装置の状況の説明情報を出力する処理を行う請求項1または2に記載の情報処理装置。 - 前記データ処理部は、
ユーザ発話またはユーザ動作に基づく処理に成功した場合は、情報処理装置の代理としてのアバターを表示部に表示し、表示したアバターの表情を変更、またはアバターを介して情報処理装置が処理に成功したことの説明情報を出力する請求項1または2に記載の情報処理装置。 - 情報処理装置において、情報処理を実行する情報処理方法であり、
音声解析部が、ユーザ発話の解析処理を実行する音声解析ステップと、
データ処理部が、前記音声解析ステップにおける解析結果を入力し、情報処理装置の実行する処理を決定するデータ処理ステップを有し、
前記データ処理ステップは、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行うステップを含む情報処理方法。 - 情報処理装置において、情報処理を実行させるプログラムであり、
音声解析部に、ユーザ発話の解析処理を実行させる音声解析ステップと、
データ処理部に、前記音声解析ステップにおける解析結果を入力させ、情報処理装置の実行する処理を決定させるデータ処理ステップを有し、
前記データ処理ステップは、
ユーザ発話に基づく処理において処理継続の阻害要因が発生した場合、阻害要因が発生した処理ステージに対応したフィードバック情報を生成して出力する処理を行わせるステップを含むプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010074158A JP2011209787A (ja) | 2010-03-29 | 2010-03-29 | 情報処理装置、および情報処理方法、並びにプログラム |
US13/069,237 US8983846B2 (en) | 2010-03-29 | 2011-03-22 | Information processing apparatus, information processing method, and program for providing feedback on a user request |
CN201110074074.6A CN102207844B (zh) | 2010-03-29 | 2011-03-22 | 信息处理设备和信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010074158A JP2011209787A (ja) | 2010-03-29 | 2010-03-29 | 情報処理装置、および情報処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011209787A true JP2011209787A (ja) | 2011-10-20 |
JP2011209787A5 JP2011209787A5 (ja) | 2013-04-25 |
Family
ID=44696697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010074158A Pending JP2011209787A (ja) | 2010-03-29 | 2010-03-29 | 情報処理装置、および情報処理方法、並びにプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8983846B2 (ja) |
JP (1) | JP2011209787A (ja) |
CN (1) | CN102207844B (ja) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104635574A (zh) * | 2014-12-15 | 2015-05-20 | 山东大学 | 一种面向幼儿的早教陪护机器人系统 |
US10185399B2 (en) | 2015-03-31 | 2019-01-22 | Fujitsu Limited | Image processing apparatus, non-transitory computer-readable recording medium, and image processing method |
WO2019039591A1 (ja) * | 2017-08-24 | 2019-02-28 | 株式会社オトングラス | 読み上げシステム及び読み上げ方法 |
WO2019093105A1 (ja) * | 2017-11-07 | 2019-05-16 | 株式会社 資生堂 | クライアント装置、サーバ、プログラム |
CN110223711A (zh) * | 2019-06-03 | 2019-09-10 | 清华大学 | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 |
WO2019171792A1 (ja) * | 2018-03-09 | 2019-09-12 | 川崎重工業株式会社 | 乗物における情報伝達方法、及び自動二輪車用の情報伝達システム |
JP2021522612A (ja) * | 2018-05-07 | 2021-08-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | ヒューマンマシン会話方法、クライアント、電子デバイス、およびプログラム |
JP2021166052A (ja) * | 2018-06-03 | 2021-10-14 | アップル インコーポレイテッドApple Inc. | 促進されたタスク実行 |
JP2021182440A (ja) * | 2017-01-09 | 2021-11-25 | アップル インコーポレイテッドApple Inc. | デジタルアシスタントとのアプリケーション統合 |
US11462213B2 (en) | 2016-03-31 | 2022-10-04 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
JP7347725B1 (ja) * | 2022-08-04 | 2023-09-20 | 住友電気工業株式会社 | 表示プログラム、表示方法及び表示システム |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
WO2024029135A1 (ja) * | 2022-08-04 | 2024-02-08 | 住友電気工業株式会社 | 表示プログラム、表示方法及び表示システム |
JP7535141B2 (ja) | 2018-09-28 | 2024-08-15 | アップル インコーポレイテッド | 凝視情報を用いたデバイス制御 |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
JP7545267B2 (ja) | 2020-09-08 | 2024-09-04 | セコム株式会社 | 対話型応対装置 |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
US12124770B2 (en) | 2023-08-24 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9501941B2 (en) | 2011-09-14 | 2016-11-22 | Leapfrog Enterprises, Inc. | Tablet learning apparatus |
EP2860726B1 (en) * | 2011-12-30 | 2017-12-06 | Samsung Electronics Co., Ltd | Electronic apparatus and method of controlling electronic apparatus |
TW201408052A (zh) * | 2012-08-14 | 2014-02-16 | Kentec Inc | 電視裝置及其虛擬主持人顯示方法 |
KR102091236B1 (ko) * | 2012-09-28 | 2020-03-18 | 삼성전자 주식회사 | 전자기기 및 그 제어방법 |
CN102945672B (zh) | 2012-09-29 | 2013-10-16 | 深圳市国华识别科技开发有限公司 | 一种多媒体设备语音控制系统及方法 |
CN103986845B (zh) * | 2013-02-07 | 2018-02-27 | 联想(北京)有限公司 | 信息处理方法和信息处理设备 |
US9313646B2 (en) | 2013-10-17 | 2016-04-12 | At&T Intellectual Property I, Lp | Method and apparatus for adjusting device persona |
US10311482B2 (en) * | 2013-11-11 | 2019-06-04 | At&T Intellectual Property I, Lp | Method and apparatus for adjusting a digital assistant persona |
US9564130B2 (en) * | 2014-12-03 | 2017-02-07 | Samsung Electronics Co., Ltd. | Wireless controller including indicator |
CN104504089A (zh) * | 2014-12-26 | 2015-04-08 | 安徽寰智信息科技股份有限公司 | 一种基于视频交互技术的科普系统 |
JP6478713B2 (ja) * | 2015-03-04 | 2019-03-06 | キヤノン株式会社 | 計測装置および計測方法 |
CN105549841A (zh) * | 2015-12-02 | 2016-05-04 | 小天才科技有限公司 | 一种语音交互方法、装置及设备 |
CN107015736B (zh) * | 2016-01-27 | 2020-08-21 | 北京搜狗科技发展有限公司 | 一种按键处理方法和装置、一种用于按键处理的装置 |
CN107508745B (zh) * | 2017-08-11 | 2020-02-21 | 北京三快在线科技有限公司 | 提示消息的关联输入方法和装置以及计算设备 |
JP7276129B2 (ja) * | 2017-12-22 | 2023-05-18 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
JP2021529382A (ja) | 2018-06-19 | 2021-10-28 | エリプシス・ヘルス・インコーポレイテッド | 精神的健康評価のためのシステム及び方法 |
US20190385711A1 (en) | 2018-06-19 | 2019-12-19 | Ellipsis Health, Inc. | Systems and methods for mental health assessment |
CN110033776A (zh) * | 2019-03-08 | 2019-07-19 | 佛山市云米电器科技有限公司 | 一种应用于屏幕设备的虚拟形象交互系统与方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2005037615A (ja) * | 2003-07-18 | 2005-02-10 | Omron Corp | クライアント装置、音声認識サーバ、分散型音声認識システム、音声認識プログラム、およびコンピュータ読み取り可能な記録媒体 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7243945B2 (en) * | 1992-05-05 | 2007-07-17 | Automotive Technologies International, Inc. | Weight measuring systems and methods for vehicles |
US6229533B1 (en) * | 1996-08-02 | 2001-05-08 | Fujitsu Limited | Ghost object for a virtual world |
GB2348035B (en) * | 1999-03-19 | 2003-05-28 | Ibm | Speech recognition system |
US6233561B1 (en) * | 1999-04-12 | 2001-05-15 | Matsushita Electric Industrial Co., Ltd. | Method for goal-oriented speech translation in hand-held devices using meaning extraction and dialogue |
US6434527B1 (en) | 1999-05-17 | 2002-08-13 | Microsoft Corporation | Signalling and controlling the status of an automatic speech recognition system for use in handsfree conversational dialogue |
GB9928011D0 (en) * | 1999-11-27 | 2000-01-26 | Ibm | Voice processing system |
US20030018531A1 (en) * | 2000-09-08 | 2003-01-23 | Mahaffy Kevin E. | Point-of-sale commercial transaction processing system using artificial intelligence assisted by human intervention |
US6964023B2 (en) * | 2001-02-05 | 2005-11-08 | International Business Machines Corporation | System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input |
US7194411B2 (en) * | 2001-02-26 | 2007-03-20 | Benjamin Slotznick | Method of displaying web pages to enable user access to text information that the user has difficulty reading |
US6931416B2 (en) * | 2001-12-05 | 2005-08-16 | International Business Machines Corp. | Ephemeral list for object-action navigation |
JP3724461B2 (ja) * | 2002-07-25 | 2005-12-07 | 株式会社デンソー | 音声制御装置 |
US7260539B2 (en) * | 2003-04-25 | 2007-08-21 | At&T Corp. | System for low-latency animation of talking heads |
US7669134B1 (en) * | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
GB2409561A (en) * | 2003-12-23 | 2005-06-29 | Canon Kk | A method of correcting errors in a speech recognition system |
US7437297B2 (en) * | 2005-01-27 | 2008-10-14 | International Business Machines Corporation | Systems and methods for predicting consequences of misinterpretation of user commands in automated systems |
US20070055520A1 (en) * | 2005-08-31 | 2007-03-08 | Microsoft Corporation | Incorporation of speech engine training into interactive user tutorial |
CN101346758B (zh) * | 2006-06-23 | 2011-07-27 | 松下电器产业株式会社 | 感情识别装置 |
MX2009000753A (es) * | 2006-07-20 | 2009-03-16 | Lg Electronics Inc | Metodo y operacion de sistema interactivo de refrigerador. |
JP4181590B2 (ja) * | 2006-08-30 | 2008-11-19 | 株式会社東芝 | インタフェース装置及びインタフェース処理方法 |
CN200953239Y (zh) * | 2006-09-28 | 2007-09-26 | 北京远大超人机器人科技有限公司 | 机器人语音动作的控制系统 |
US20080104512A1 (en) * | 2006-10-31 | 2008-05-01 | Motorola, Inc. | Method and apparatus for providing realtime feedback in a voice dialog system |
US8160210B2 (en) * | 2007-01-08 | 2012-04-17 | Motorola Solutions, Inc. | Conversation outcome enhancement method and apparatus |
CN101572084A (zh) * | 2008-04-29 | 2009-11-04 | 环达电脑(上海)有限公司 | 智能语音系统及方法 |
KR101092820B1 (ko) * | 2009-09-22 | 2011-12-12 | 현대자동차주식회사 | 립리딩과 음성 인식 통합 멀티모달 인터페이스 시스템 |
US20110172873A1 (en) * | 2010-01-08 | 2011-07-14 | Ford Global Technologies, Llc | Emotive advisory system vehicle maintenance advisor |
US8400332B2 (en) * | 2010-02-09 | 2013-03-19 | Ford Global Technologies, Llc | Emotive advisory system including time agent |
-
2010
- 2010-03-29 JP JP2010074158A patent/JP2011209787A/ja active Pending
-
2011
- 2011-03-22 US US13/069,237 patent/US8983846B2/en not_active Expired - Fee Related
- 2011-03-22 CN CN201110074074.6A patent/CN102207844B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10301675A (ja) * | 1997-02-28 | 1998-11-13 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
JP2005037615A (ja) * | 2003-07-18 | 2005-02-10 | Omron Corp | クライアント装置、音声認識サーバ、分散型音声認識システム、音声認識プログラム、およびコンピュータ読み取り可能な記録媒体 |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11699448B2 (en) | 2014-05-30 | 2023-07-11 | Apple Inc. | Intelligent assistant for home automation |
CN104635574B (zh) * | 2014-12-15 | 2017-07-25 | 山东大学 | 一种面向幼儿的早教陪护机器人系统 |
CN104635574A (zh) * | 2014-12-15 | 2015-05-20 | 山东大学 | 一种面向幼儿的早教陪护机器人系统 |
US10185399B2 (en) | 2015-03-31 | 2019-01-22 | Fujitsu Limited | Image processing apparatus, non-transitory computer-readable recording medium, and image processing method |
US11462213B2 (en) | 2016-03-31 | 2022-10-04 | Sony Corporation | Information processing apparatus, information processing method, and program |
US11749275B2 (en) | 2016-06-11 | 2023-09-05 | Apple Inc. | Application integration with a digital assistant |
US12079458B2 (en) | 2016-09-23 | 2024-09-03 | Apple Inc. | Image data for enhanced user interactions |
US11656884B2 (en) | 2017-01-09 | 2023-05-23 | Apple Inc. | Application integration with a digital assistant |
JP2021182440A (ja) * | 2017-01-09 | 2021-11-25 | アップル インコーポレイテッドApple Inc. | デジタルアシスタントとのアプリケーション統合 |
JP7235814B2 (ja) | 2017-01-09 | 2023-03-08 | アップル インコーポレイテッド | デジタルアシスタントとのアプリケーション統合 |
WO2019039591A1 (ja) * | 2017-08-24 | 2019-02-28 | 株式会社オトングラス | 読み上げシステム及び読み上げ方法 |
JP7390891B2 (ja) | 2017-11-07 | 2023-12-04 | 株式会社 資生堂 | クライアント装置、サーバ、プログラム、及び、情報処理方法 |
JPWO2019093105A1 (ja) * | 2017-11-07 | 2020-12-17 | 株式会社 資生堂 | クライアント装置、サーバ、プログラム |
WO2019093105A1 (ja) * | 2017-11-07 | 2019-05-16 | 株式会社 資生堂 | クライアント装置、サーバ、プログラム |
JP2019156034A (ja) * | 2018-03-09 | 2019-09-19 | 川崎重工業株式会社 | 乗物における情報伝達方法、及び自動二輪車用の情報伝達システム |
WO2019171792A1 (ja) * | 2018-03-09 | 2019-09-12 | 川崎重工業株式会社 | 乗物における情報伝達方法、及び自動二輪車用の情報伝達システム |
US11487364B2 (en) | 2018-05-07 | 2022-11-01 | Apple Inc. | Raise to speak |
JP2021522612A (ja) * | 2018-05-07 | 2021-08-30 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | ヒューマンマシン会話方法、クライアント、電子デバイス、およびプログラム |
JP7050990B2 (ja) | 2018-06-03 | 2022-04-08 | アップル インコーポレイテッド | 促進されたタスク実行 |
JP2022104947A (ja) * | 2018-06-03 | 2022-07-12 | アップル インコーポレイテッド | 促進されたタスク実行 |
CN113867516A (zh) * | 2018-06-03 | 2021-12-31 | 苹果公司 | 加速的任务执行 |
JP2021166052A (ja) * | 2018-06-03 | 2021-10-14 | アップル インコーポレイテッドApple Inc. | 促進されたタスク実行 |
CN113867516B (zh) * | 2018-06-03 | 2024-05-10 | 苹果公司 | 加速的任务执行 |
JP7128376B2 (ja) | 2018-06-03 | 2022-08-30 | アップル インコーポレイテッド | 促進されたタスク実行 |
US12105874B2 (en) | 2018-09-28 | 2024-10-01 | Apple Inc. | Device control using gaze information |
JP7535141B2 (ja) | 2018-09-28 | 2024-08-15 | アップル インコーポレイテッド | 凝視情報を用いたデバイス制御 |
US11705130B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | Spoken notifications |
US11888791B2 (en) | 2019-05-21 | 2024-01-30 | Apple Inc. | Providing message response suggestions |
CN110223711B (zh) * | 2019-06-03 | 2021-06-01 | 清华大学 | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 |
CN110223711A (zh) * | 2019-06-03 | 2019-09-10 | 清华大学 | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 |
JP7545267B2 (ja) | 2020-09-08 | 2024-09-04 | セコム株式会社 | 対話型応対装置 |
JP7574018B2 (ja) | 2020-09-08 | 2024-10-28 | セコム株式会社 | 対話型応対装置 |
US12099586B2 (en) | 2021-01-25 | 2024-09-24 | Apple Inc. | Implementation of biometric authentication |
WO2024029135A1 (ja) * | 2022-08-04 | 2024-02-08 | 住友電気工業株式会社 | 表示プログラム、表示方法及び表示システム |
JP7347725B1 (ja) * | 2022-08-04 | 2023-09-20 | 住友電気工業株式会社 | 表示プログラム、表示方法及び表示システム |
US12124770B2 (en) | 2023-08-24 | 2024-10-22 | Apple Inc. | Audio assisted enrollment |
Also Published As
Publication number | Publication date |
---|---|
US20110282673A1 (en) | 2011-11-17 |
US8983846B2 (en) | 2015-03-17 |
CN102207844B (zh) | 2016-01-20 |
CN102207844A (zh) | 2011-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011209787A (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP2011209786A (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US6332122B1 (en) | Transcription system for multiple speakers, using and establishing identification | |
US8381238B2 (en) | Information processing apparatus, information processing method, and program | |
JP6463825B2 (ja) | 多重話者音声認識修正システム | |
JP4679254B2 (ja) | 対話システム、対話方法、及びコンピュータプログラム | |
US20140036023A1 (en) | Conversational video experience | |
US10049665B2 (en) | Voice recognition method and apparatus using video recognition | |
JP6819672B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5381988B2 (ja) | 対話音声認識システム、対話音声認識方法および対話音声認識用プログラム | |
KR101213835B1 (ko) | 음성 인식에 있어서 동사 에러 복원 | |
US10699706B1 (en) | Systems and methods for device communications | |
CN107403011B (zh) | 虚拟现实环境语言学习实现方法和自动录音控制方法 | |
US20140028780A1 (en) | Producing content to provide a conversational video experience | |
CN107342085A (zh) | 语音处理方法及装置 | |
WO2018105373A1 (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
US20230186941A1 (en) | Voice identification for optimizing voice search results | |
CN109460548B (zh) | 一种面向智能机器人的故事数据处理方法及系统 | |
US10841411B1 (en) | Systems and methods for establishing a communications session | |
CN113779208A (zh) | 用于人机对话的方法和装置 | |
WO2019202804A1 (ja) | 音声処理装置および音声処理方法 | |
TWI297123B (en) | Interactive entertainment center | |
JPWO2018105373A1 (ja) | 情報処理装置、情報処理方法、および情報処理システム | |
CN117251595A (zh) | 视频录像处理 | |
WO2013181633A1 (en) | Providing a converstional video experience |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130312 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140513 |