JPWO2017195388A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JPWO2017195388A1 JPWO2017195388A1 JP2018516335A JP2018516335A JPWO2017195388A1 JP WO2017195388 A1 JPWO2017195388 A1 JP WO2017195388A1 JP 2018516335 A JP2018516335 A JP 2018516335A JP 2018516335 A JP2018516335 A JP 2018516335A JP WO2017195388 A1 JPWO2017195388 A1 JP WO2017195388A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- result
- processing apparatus
- intention interpretation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 75
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000000007 visual effect Effects 0.000 claims description 19
- 230000000153 supplemental effect Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 26
- 239000000047 product Substances 0.000 description 146
- 239000003795 chemical substances by application Substances 0.000 description 110
- 241000209094 Oryza Species 0.000 description 77
- 235000007164 Oryza sativa Nutrition 0.000 description 77
- 235000009566 rice Nutrition 0.000 description 77
- 238000010586 diagram Methods 0.000 description 32
- 238000004891 communication Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000010411 cooking Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 239000003599 detergent Substances 0.000 description 4
- 238000005401 electroluminescence Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 235000021186 dishes Nutrition 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 235000010746 mayonnaise Nutrition 0.000 description 2
- 239000008268 mayonnaise Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 208000035473 Communicable disease Diseases 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 235000012041 food component Nutrition 0.000 description 1
- 239000005417 food ingredient Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9532—Query formulation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.本開示の実施形態
1.1.概要
1.2.機能構成例
1.3.機能詳細
1.3.1.画面構成例
1.3.2.商品絞り込み時の対話例
1.3.3.商品絞り込み時の画面構成例
1.3.4.状況に応じた意図解釈
1.3.5.表示情報を見ているか否かに応じた対話
1.3.6.EC画面の表示例
1.3.7.絞り込みを支援する技術
1.3.8.属性情報の選択
1.3.9.補足情報のアナウンス
1.4.ハードウェア構成例
1.5.補足
1.5.1.計算における変形例の詳細
1.5.2.補足事項1
1.5.3.補足事項2
1.5.4.補足事項3
1.5.5.補足事項4
1.5.6.補足事項5
1.5.7.補足事項6
1.5.8.補足事項7
1.5.9.補足事項8
1.5.10.補足事項9
1.5.11.補足事項10
1.5.12.補足事項11
[1.1.概要]
まず、図面を参照しながら、本開示の一実施形態に係る情報処理装置の概要について説明する。図1および図2は、本開示の一実施形態に係る情報処理装置の概要について説明するための図である。本開示の一実施形態においては、図1および図2に示すように、情報処理装置10とユーザ80とが登場する。
続いて、エージェント10の機能構成例について説明する。図3は、エージェント10の機能構成例を示す図である。図3に示したように、エージェント10は、音出力部111、音声入力部113、非音声入力部114、距離検出部115、制御部120、記憶部130、通信部140および表示部150を有している。また、エージェント10は、通信ネットワーク931を介して意図理解器30およびサーバ装置40と接続されている。通信ネットワーク931は、例えば、インターネットにより構成される。
(1.3.1.画面構成例)
続いて、エージェント10の機能詳細について説明する。まず、PC型のエージェント10−1の表示部150によって表示される画面例について説明する。図5は、PC型のエージェント10−1の表示部150によって表示される画面例を示す図である。図5に示すように、表示部150によって画面G10が表示される。画面G10には、キャラクタ画像表示エリアG20が含まれる他、EC画面G30が含まれる。
基本的には、最初に商品名をメインキーとした検索がなされるが、商品名を検索キーとして利用するだけでは、目的の商品だけが残るように絞り込みを行うことができない場合がある。かかる場合には、ユーザが追加的に絞り込みワード(商品絞り込みのための検索キー)を入力する必要がある。例えば、ユーザは、品種、量、産地およびブランドなどの絞り込みキーを「お米」というメインキーに付加していく必要がある。
続いて、商品絞り込み時の画面構成例について説明する。図6は、商品絞り込み時の画面構成例を説明するための図である。図6を参照すると、ユーザ発話の各段階が示されており、ユーザ発話の各段階に対応した「ロボット型エージェント」「2D型エージェントUI遷移」および「エージェントの処理」が示されている。
ユーザは、エージェント10に対して同じ発話を行ったとしても、状況に応じて発話の意図が異なることが想定される。例えば、ユーザは、エージェント10に対して「XXXを加えて」と発話を行ったとしても、以下に例を示すように、状況に応じてユーザ発話「XXXを加えて」の意図が異なることが想定される。
表示情報がユーザによって見られている場合には、ユーザが処理結果を見ることが可能な状況であるため、処理結果は視覚的にユーザによって認識され得る。一方、表示情報がユーザによって見られていない場合には、ユーザが処理結果を見ることができない状況であるため、処理結果が視覚的にユーザによって認識され得ない。例えば、処理結果は、エージェント10が認識している状態(context;ユーザが入力した検索キーを含み得る)であり得る。
EC画面G30の表示例について説明する。図11は、EC画面G30の表示例を示す図である。図11に示すように、表示部150によって表示される画面G10には、EC画面G30が含まれ得る。ECサイトによる検索が行われると、EC画面G30には、検索によって得られた商品リストが表示される。図11に示された例では、商品リストとして、商品1〜4が表示されている。
上記においては、ユーザに絞り込みキーを入力させる例を示した。かかる例によれば、ユーザは、絞り込みキーの入力によって目的の商品にたどり着くことが可能である。しかし、現実的には、ユーザは商品に対してどのような絞り込みキーを入力すべきか判断しにくい場合もあり得る。すなわち、絞り込みキーをユーザが自力で思いついて、最短距離で商品にたどり着くのは困難である場合もあり得る。
上記では、ユーザが発する音声によって検索キーを生成する例を説明した。しかし、ユーザが発する音声から認識されるテキストだけでは、そのテキストが何を意味しているかを判断するのが難しいこともある。図21は、一般的に検索に利用される画面G90の例を示す図である。図21に示すように、画面G90には、マイクアイコンG41が含まれている。ユーザによってマイクアイコンG41が選択され、音声「ベートーベン」が入力されると、音声「ベートーベン」が認識され、「ベートーベン」によって検索がなされる。
ここで、意図解釈結果に基づく処理に画像情報のロードが含まれる場合が想定される。かかる場合には、画像情報がロードされている時間が有効に利用されるとよい。図27は、画像情報がロード時間の例を示す図である。図27に示す例においては、意図解釈結果に基づく処理として、メインキー「お米」に対して、絞り込みキー「XXX(銘柄)」を追加する処理が実行される場合を想定している。
次に、図28を参照して、本開示の実施形態に係る情報処理装置(エージェント)10のハードウェア構成について説明する。図28は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
エージェント10は、計算において音声認識をする場合、ECサイトにおけるサジェスチョンと同様に、認識したキーワードに応じて数学記号を予測表示してもよい。この変形例においては、エージェント10は、認識したキーワードに応じて、数学記号や数値等の計算に関連するキーワードのみを認識してもよい。
本開示の実施形態は、特定の装置、方法、プログラム、システムおよび記録媒体等に適用されてよい。例えば、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上記した制御部120が有する機能と同等の機能を発揮させるためのプログラムも作成可能である。また、該プログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
本開示の実施形態および変形例によれば、例えば、文章作成のための音声入力がなされたのか、あるいは、エージェント10への音声指示がなされたのかを判別することができる。文章作成の一例としては、小説の執筆やビジネス文書の作成が挙げられる。
本開示の実施形態においては、実空間の画像認識情報に基づいて意図解釈モードが決定されてもよい。実空間の画像認識情報が取得される場合、ユーザのジェスチャ、実オブジェクトを含む環境情報に基づいて意図解釈モードが決定されてもよい。また、画像認識情報に含まれる特定用途の実オブジェクトに基づいて意図解釈モードが決定されてもよい。特定の実オブジェクトは、家電、調理器具等の一般家庭に備えられた実オブジェクトに限定されない。例えば、医療器具等の特殊用途の実オブジェクトが認識されてもよい。
あるいは、特定機器に関連した情報に基づいて、意図解釈モードが決定されてもよい。このようなケースとしては、いわゆる家庭内におけるIoTの例が挙げられる。あるいは、特定の機器間で連携して処理が行われるケースにおいては、連携している機器の状態情報に基づいて、意図解釈入力モードが決定されてもよい。例えば、起動している機器(例えば、コーヒーメーカー、炊飯器など)に対応する意図解釈モードが決定されてもよい。ここで、機器間の連携は、有線/無線のいずれであってもよい。
本開示の実施形態は、医療用途にも適用され得る。医療用途においては、手術中等においてユーザが非接触で端末を操作入力する需要があるため、スムーズにキーワードが認識されることが有効である。また、非接触で操作入力できることは、感染症予防の観点からも有効である。
また、本開示の実施形態は、医療用途以外にも、工場、車両、農業等に適用され得る。例えば、車両、特に乗用車においては、車両の走行状態情報(速度、加速度、温度、SOC(State of Charge)、燃料の残量等)、ナビゲーション情報、車両内の音情報(音声、音楽等)等に基づいて、意図解釈モードが決定されてよい。例えば、車両が走行状態であるときには、主に道路交通情報、地図情報に関するキーワードが認識されるようにしてもよい。車両が停止状態であるときのみ、音楽等のエンターテイメントに関連したキーワードが認識されてもよい。車両のコンポーネントのいずれかに異常がある場合には、異常に関連したキーワードが認識されてもよい。
また、複数のユーザの属性情報を取得した場合、ユーザそれぞれの属性情報に応じて認識されるキーワードが切り替えられてもよい。すなわち、ある時点において、ユーザごとに異なる意図解釈モードが設定されていてもよい。
認識されたキーワードと認識されなかったキーワードが区別されて表示されてもよい。この場合、認識されなかったキーワードは、ユーザにわずかでも視認できる程度の視認性を有していればよい。例えば、認識されたキーワードの視認性が、認識されなかったキーワードの視認性よりも大きく設定されてもよい。この場合、例えば、視認性は、明度、輝度、サイズ、あるいは、太さの変更によって変更されてよい。例えば、視認性の変更には、フォント種類の変更、フォント彩度(色)の変更、フォントサイズの変更、太字、斜体、下線等の表示処理の付加、フォントに対するアニメーションの付加等、種々の方法が採用されてよい。
エージェント10は、視覚情報と音声情報の少なくとも一方を用いて意図解釈モードを示す情報を提供する。また、エージェント10は、提供している/提供した意図解釈モードを示す情報に基づいて、音声認識に応じて提供する意図解釈結果を異ならせる。この場合、意図解釈結果は、視覚情報と音声情報の少なくとも一方を用いて提供されればよい。エージェント10は、意図解釈モードを示す情報が異なる場合、提供する意図解釈結果の少なくとも一部を異ならせる。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏し得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
表示装置によって表示される表示情報に関連する関連情報を取得するデータ取得部と、
前記関連情報に応じて音声認識結果の意図解釈がなされると、意図解釈結果に基づく処理結果をユーザに提供する提供部と、
を備える、情報処理装置。
(2)
前記表示情報は、第1の関連情報と関連する第1の表示情報および第2の関連情報と関連する第2の表示情報の少なくとも一方を含み、
前記第1の関連情報に応じた意図解釈結果と、前記第1の関連情報とは異なる前記第2の関連情報に応じた意図解釈結果とは異なる、
前記(1)に記載の情報処理装置。
(3)
前記提供部は、前記関連情報に応じて音声認識結果の意図解釈モードが決定されると、前記意図解釈モードを示す情報をユーザに提供する、
前記(1)または(2)に記載の情報処理装置。
(4)
前記意図解釈モードを示す情報は、キャラクタ画像、アイコン画像、背景画像およびBGMのうち少なくともいずれか一つを含む、
前記(3)に記載の情報処理装置。
(5)
前記提供部は、前記処理結果を、視覚情報および音声情報の少なくとも一方によって前記ユーザに提供する、
前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記提供部は、前記ユーザが前記表示情報を見ている場合と、前記ユーザが前記表示情報を見ていない場合とにおいて、異なる音声情報を前記ユーザに提供する、
前記(5)に記載の情報処理装置。
(7)
前記提供部は、前記ユーザが前記表示情報を見ていない場合には、前記ユーザが前記表示情報を見ている場合よりも、詳細な音声情報を前記ユーザに提供する、
前記(6)に記載の情報処理装置。
(8)
前記提供部は、前記ユーザが前記表示情報を見ている場合には、前記処理結果を少なくとも視覚情報として前記ユーザに提供し、前記ユーザが前記表示情報を見ていない場合には、前記視覚情報に対応する音声情報を前記詳細な音声情報として前記ユーザに提供する、
前記(7)に記載の情報処理装置。
(9)
前記データ取得部は、前記関連情報に応じて第1の音声認識結果の意図解釈がなされると、意図解釈結果に含まれる第1の入力ワードに対応する1または複数の候補ワードを含む候補リストを取得し、
前記提供部は、前記候補リストに基づいて、前記第1の音声認識結果の後に取得される第2の音声認識結果の意図解釈結果に基づく処理結果を前記ユーザに提供する、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記提供部は、前記第2の音声認識結果に含まれる第2の入力ワードが前記候補リストに含まれている場合、かつ、前記第2の音声認識結果に前記第2の入力ワードの処理に関する指示ワードが含まれていない場合、前記第2の入力ワードに応じた意図解釈結果に基づく処理結果を前記ユーザに提供する、
前記(9)に記載の情報処理装置。
(11)
前記提供部は、前記第2の音声認識結果に含まれる第2の入力ワードが前記候補リストに含まれていない場合、かつ、前記第2の音声認識結果に前記第2の入力ワードの処理に関する指示ワードが含まれている場合、前記第2の入力ワードに応じた意図解釈結果に基づく処理結果を前記ユーザに提供する、
前記(9)または(10)に記載の情報処理装置。
(12)
前記提供部は、前記第2の音声認識結果に含まれる前記第2の入力ワードが前記候補リストに含まれていない場合、かつ、前記第2の音声認識結果に前記指示ワードが含まれていない場合、前記第2の入力ワードを無視する、
前記(10)または(11)に記載の情報処理装置。
(13)
前記提供部は、前記候補リストの少なくとも一部を前記ユーザに提供し、
前記提供部は、前記第2の音声認識結果の前に取得される第3の音声認識結果に属性情報が含まれる場合、前記属性情報に対応する前記候補リストの少なくとも一部を前記ユーザに提供する、
前記(9)〜(11)のいずれか一項に記載の情報処理装置。
(14)
前記提供部は、前記候補リストの少なくとも一部を前記候補リストに対応する属性情報ごとに前記ユーザに提供する、
前記(9)〜(11)のいずれか一項に記載の情報処理装置。
(15)
音声入力部と非音声入力部とを備え、
前記データ取得部は、音声入力に関連付けられかつ前記表示装置によって表示されている少なくとも1つの属性情報が前記非音声入力部への入力により選択された場合、前記選択された属性情報に対応する1または複数の候補ワードを含む候補リストを取得し、
前記提供部は、前記候補リストに基づいて、前記音声認識結果の意図解釈結果に基づく処理結果を前記ユーザに提供する、
前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(16)
前記非音声入力部はタッチパネルであり、
前記表示装置は、前記タッチパネルに第1の音声入力部を表示し、
前記タッチパネルへのタッチ操作により前記第1の音声入力部が選択されている間、前記第1の音声入力部の隣接する位置に、前記属性情報に応じた少なくとも1つの第2の音声入力部を表示する、
前記(15)に記載の情報処理装置。
(17)
前記提供部は、前記音声認識結果に含まれる入力ワードが前記関連情報に対応している場合にのみ、前記処理結果を前記ユーザに提供する、
前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記提供部は、前記意図解釈結果に基づく処理に画像情報のロードが含まれる場合、前記画像情報のロード中に、前記意図解釈結果に含まれる入力ワードに対応する所定の補足情報を音声情報として前記ユーザに提供する、
前記(1)〜(17)のいずれか一項に記載の情報処理装置。
(19)
表示装置によって表示される表示情報に関連する関連情報を取得することと、
前記関連情報に応じて音声認識結果の意図解釈がなされると、プロセッサにより、意図解釈結果に基づく処理結果をユーザに提供することと、
を含む、情報処理方法。
(20)
コンピュータを、
表示装置によって表示される表示情報に関連する関連情報を取得するデータ取得部と、
前記関連情報に応じて音声認識結果の意図解釈がなされると、意図解釈結果に基づく処理結果をユーザに提供する提供部と、
を備える情報処理装置として機能させるためのプログラム。
111 音出力部
113 音声入力部
114 非音声入力部
115 距離検出部
120 制御部
121 データ取得部
122 認識部
123 提供部
124 処理部
130 記憶部
131 辞書
132 検索履歴
133 購入履歴
140 通信部
150 表示部
30 意図理解器
40 サーバ装置
Claims (20)
- 表示装置によって表示される表示情報に関連する関連情報を取得するデータ取得部と、
前記関連情報に応じて音声認識結果の意図解釈がなされると、意図解釈結果に基づく処理結果をユーザに提供する提供部と、
を備える、情報処理装置。 - 前記表示情報は、第1の関連情報と関連する第1の表示情報および第2の関連情報と関連する第2の表示情報の少なくとも一方を含み、
前記第1の関連情報に応じた意図解釈結果と、前記第1の関連情報とは異なる前記第2の関連情報に応じた意図解釈結果とは異なる、
請求項1に記載の情報処理装置。 - 前記提供部は、前記関連情報に応じて音声認識結果の意図解釈モードが決定されると、前記意図解釈モードを示す情報をユーザに提供する、
請求項1に記載の情報処理装置。 - 前記意図解釈モードを示す情報は、キャラクタ画像、アイコン画像、背景画像およびBGMのうち少なくともいずれか一つを含む、
請求項3に記載の情報処理装置。 - 前記提供部は、前記処理結果を、視覚情報および音声情報の少なくとも一方によって前記ユーザに提供する、
請求項1に記載の情報処理装置。 - 前記提供部は、前記ユーザが前記表示情報を見ている場合と、前記ユーザが前記表示情報を見ていない場合とにおいて、異なる音声情報を前記ユーザに提供する、
請求項5に記載の情報処理装置。 - 前記提供部は、前記ユーザが前記表示情報を見ていない場合には、前記ユーザが前記表示情報を見ている場合よりも、詳細な音声情報を前記ユーザに提供する、
請求項6に記載の情報処理装置。 - 前記提供部は、前記ユーザが前記表示情報を見ている場合には、前記処理結果を少なくとも視覚情報として前記ユーザに提供し、前記ユーザが前記表示情報を見ていない場合には、前記視覚情報に対応する音声情報を前記詳細な音声情報として前記ユーザに提供する、
請求項7に記載の情報処理装置。 - 前記データ取得部は、前記関連情報に応じて第1の音声認識結果の意図解釈がなされると、意図解釈結果に含まれる第1の入力ワードに対応する1または複数の候補ワードを含む候補リストを取得し、
前記提供部は、前記候補リストに基づいて、前記第1の音声認識結果の後に取得される第2の音声認識結果の意図解釈結果に基づく処理結果を前記ユーザに提供する、
請求項1に記載の情報処理装置。 - 前記提供部は、前記第2の音声認識結果に含まれる第2の入力ワードが前記候補リストに含まれている場合、かつ、前記第2の音声認識結果に前記第2の入力ワードの処理に関する指示ワードが含まれていない場合、前記第2の入力ワードに応じた意図解釈結果に基づく処理結果を前記ユーザに提供する、
請求項9に記載の情報処理装置。 - 前記提供部は、前記第2の音声認識結果に含まれる第2の入力ワードが前記候補リストに含まれていない場合、かつ、前記第2の音声認識結果に前記第2の入力ワードの処理に関する指示ワードが含まれている場合、前記第2の入力ワードに応じた意図解釈結果に基づく処理結果を前記ユーザに提供する、
請求項9に記載の情報処理装置。 - 前記提供部は、前記第2の音声認識結果に含まれる前記第2の入力ワードが前記候補リストに含まれていない場合、かつ、前記第2の音声認識結果に前記指示ワードが含まれていない場合、前記第2の入力ワードを無視する、
請求項10に記載の情報処理装置。 - 前記提供部は、前記候補リストの少なくとも一部を前記ユーザに提供し、
前記提供部は、前記第2の音声認識結果の前に取得される第3の音声認識結果に属性情報が含まれる場合、前記属性情報に対応する前記候補リストの少なくとも一部を前記ユーザに提供する、
請求項9に記載の情報処理装置。 - 前記提供部は、前記候補リストの少なくとも一部を前記候補リストに対応する属性情報ごとに前記ユーザに提供する、
請求項9に記載の情報処理装置。 - 音声入力部と非音声入力部とを備え、
前記データ取得部は、音声入力に関連付けられかつ前記表示装置によって表示されている少なくとも1つの属性情報が前記非音声入力部への入力により選択された場合、前記選択された属性情報に対応する1または複数の候補ワードを含む候補リストを取得し、
前記提供部は、前記候補リストに基づいて、前記音声認識結果の意図解釈結果に基づく処理結果を前記ユーザに提供する、
請求項1に記載の情報処理装置。 - 前記非音声入力部はタッチパネルであり、
前記表示装置は、前記タッチパネルに第1の音声入力部を表示し、
前記タッチパネルへのタッチ操作により前記第1の音声入力部が選択されている間、前記第1の音声入力部の隣接する位置に、前記属性情報に応じた少なくとも1つの第2の音声入力部を表示する、
請求項15に記載の情報処理装置。 - 前記提供部は、前記音声認識結果に含まれる入力ワードが前記関連情報に対応している場合にのみ、前記処理結果を前記ユーザに提供する、
請求項1に記載の情報処理装置。 - 前記提供部は、前記意図解釈結果に基づく処理に画像情報のロードが含まれる場合、前記画像情報のロード中に、前記意図解釈結果に含まれる入力ワードに対応する所定の補足情報を音声情報として前記ユーザに提供する、
請求項1に記載の情報処理装置。 - 表示装置によって表示される表示情報に関連する関連情報を取得することと、
前記関連情報に応じて音声認識結果の意図解釈がなされると、プロセッサにより、意図解釈結果に基づく処理結果をユーザに提供することと、
を含む、情報処理方法。 - コンピュータを、
表示装置によって表示される表示情報に関連する関連情報を取得するデータ取得部と、
前記関連情報に応じて音声認識結果の意図解釈がなされると、意図解釈結果に基づく処理結果をユーザに提供する提供部と、
を備える情報処理装置として機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662335419P | 2016-05-12 | 2016-05-12 | |
US62/335,419 | 2016-05-12 | ||
PCT/JP2016/074223 WO2017195388A1 (ja) | 2016-05-12 | 2016-08-19 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2017195388A1 true JPWO2017195388A1 (ja) | 2019-03-07 |
Family
ID=60266977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018516335A Pending JPWO2017195388A1 (ja) | 2016-05-12 | 2016-08-19 | 情報処理装置、情報処理方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11195517B2 (ja) |
EP (1) | EP3457297A4 (ja) |
JP (1) | JPWO2017195388A1 (ja) |
CN (1) | CN109074364A (ja) |
WO (1) | WO2017195388A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7409628B2 (ja) * | 2018-04-05 | 2024-01-09 | 株式会社サウスポイント | 結婚式における音楽選曲のための自動選曲システム |
CN111222322B (zh) * | 2019-12-31 | 2022-10-25 | 联想(北京)有限公司 | 信息处理方法和电子设备 |
JP2022050169A (ja) * | 2020-09-17 | 2022-03-30 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システム及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013205523A (ja) * | 2012-03-27 | 2013-10-07 | Yahoo Japan Corp | 応答生成装置、応答生成方法および応答生成プログラム |
JP2015151059A (ja) * | 2014-02-18 | 2015-08-24 | 本田技研工業株式会社 | 車載機器操作装置 |
JP2015531109A (ja) * | 2012-07-15 | 2015-10-29 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 自然動作入力を使用する文脈的クエリ調整 |
WO2016003510A1 (en) * | 2014-06-30 | 2016-01-07 | Apple Inc. | Real-time digital assistant knowledge updates |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070078552A1 (en) * | 2006-01-13 | 2007-04-05 | Outland Research, Llc | Gaze-based power conservation for portable media players |
JP2002041460A (ja) * | 2000-07-31 | 2002-02-08 | Oki Electric Ind Co Ltd | ネットワーク上での情報提供方法及びシステム |
US10437459B2 (en) * | 2007-01-07 | 2019-10-08 | Apple Inc. | Multitouch data fusion |
EP3125134B1 (en) * | 2014-03-28 | 2018-08-15 | Panasonic Intellectual Property Management Co., Ltd. | Speech retrieval device, speech retrieval method, and display device |
JP6355383B2 (ja) * | 2014-03-28 | 2018-07-11 | Kddi株式会社 | 電子機器、検索方法及びプログラム |
US10317992B2 (en) * | 2014-09-25 | 2019-06-11 | Microsoft Technology Licensing, Llc | Eye gaze for spoken language understanding in multi-modal conversational interactions |
US10423303B1 (en) * | 2016-09-29 | 2019-09-24 | A9.Com, Inc. | Progressive information panels in a graphical user interface |
-
2016
- 2016-08-19 EP EP16901733.2A patent/EP3457297A4/en not_active Ceased
- 2016-08-19 US US16/098,142 patent/US11195517B2/en active Active
- 2016-08-19 WO PCT/JP2016/074223 patent/WO2017195388A1/ja active Application Filing
- 2016-08-19 CN CN201680085327.0A patent/CN109074364A/zh not_active Withdrawn
- 2016-08-19 JP JP2018516335A patent/JPWO2017195388A1/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013205523A (ja) * | 2012-03-27 | 2013-10-07 | Yahoo Japan Corp | 応答生成装置、応答生成方法および応答生成プログラム |
JP2015531109A (ja) * | 2012-07-15 | 2015-10-29 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 自然動作入力を使用する文脈的クエリ調整 |
JP2015151059A (ja) * | 2014-02-18 | 2015-08-24 | 本田技研工業株式会社 | 車載機器操作装置 |
WO2016003510A1 (en) * | 2014-06-30 | 2016-01-07 | Apple Inc. | Real-time digital assistant knowledge updates |
Also Published As
Publication number | Publication date |
---|---|
CN109074364A (zh) | 2018-12-21 |
US20200335087A1 (en) | 2020-10-22 |
EP3457297A4 (en) | 2019-08-14 |
US11195517B2 (en) | 2021-12-07 |
WO2017195388A1 (ja) | 2017-11-16 |
EP3457297A1 (en) | 2019-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12067985B2 (en) | Virtual assistant operations in multi-device environments | |
US11526368B2 (en) | Intelligent automated assistant in a messaging environment | |
Khan et al. | An insight into smartphone-based assistive solutions for visually impaired and blind people: issues, challenges and opportunities | |
US11853647B2 (en) | Proactive assistance based on dialog communication between devices | |
AU2018282384B2 (en) | Intelligent task discovery | |
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
US20210365174A1 (en) | Digital assistant user interfaces and response modes | |
EP3414667B1 (en) | Digital assistant providing automated status report | |
CN106104677B (zh) | 所识别的语音发起的动作的视觉指示 | |
CN107615378B (zh) | 设备语音控制 | |
US9720644B2 (en) | Information processing apparatus, information processing method, and computer program | |
JP6229287B2 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
WO2015178078A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20180103136A (ko) | 크리덴셜을 제공하는 음성 입력의 식별 | |
KR20170105581A (ko) | 가상 어시스턴트 연속성 | |
JP2014203208A (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
WO2019231537A1 (en) | Virtual assistant operation in multi-device environments | |
WO2017195388A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20180103547A (ko) | 휴대 장치 및 휴대 장치의 화면 제어방법 | |
WO2018139036A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
AU2017100557A4 (en) | Digital assistant providing automated status report | |
KR102057936B1 (ko) | 차량에 탑재 가능한 단말 장치 및 이와 연동하는 모바일 디바이스와, 이들의 서비스 제공 방법 | |
CN112099720A (zh) | 数字助理用户界面和响应模式 | |
WO2018139050A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20230409174A1 (en) | Home automation device control and designation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200707 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200728 |