JPWO2016151956A1 - 情報処理システムおよび情報処理方法 - Google Patents
情報処理システムおよび情報処理方法 Download PDFInfo
- Publication number
- JPWO2016151956A1 JPWO2016151956A1 JP2017507338A JP2017507338A JPWO2016151956A1 JP WO2016151956 A1 JPWO2016151956 A1 JP WO2016151956A1 JP 2017507338 A JP2017507338 A JP 2017507338A JP 2017507338 A JP2017507338 A JP 2017507338A JP WO2016151956 A1 JPWO2016151956 A1 JP WO2016151956A1
- Authority
- JP
- Japan
- Prior art keywords
- voice recognition
- information processing
- control unit
- user
- processing system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 136
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000000034 method Methods 0.000 claims abstract description 158
- 238000012545 processing Methods 0.000 claims abstract description 82
- 230000008569 process Effects 0.000 claims description 143
- 210000003128 head Anatomy 0.000 description 40
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 230000006870 function Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000004913 activation Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
0.背景
1.本開示の実施形態
1.1.システム構成例
1.2.機能構成例
1.3.情報処理システムの機能詳細
1.4.システム構成の変形例
1.5.動きオブジェクトの表示形態
1.6.ユーザのジェスチャの変形例
1.7.ハードウェア構成例
2.むすび
まず、図面を参照しながら本開示の実施形態の背景を説明する。図1は、一般的なシステムにおける音声認識処理を説明するための図である。以下の説明において、音声(voiceまたはspeech)と音(sound)とは区別して用いられる。また、発話は、ユーザが音声を発している状態を示し、無音は、閾値よりも小さい音量によって音情報が集音されている状態を示す。
[1.1.システム構成例]
続いて、図面を参照しながら本開示の実施形態に係る情報処理システム10の構成例について説明する。図2は、本開示の実施形態に係る情報処理システム10の構成例を示す図である。図2に示したように、本開示の実施形態に係る情報処理システム10は、画像入力部110と、操作入力部115と、集音部120と、出力部130とを備える。情報処理システム10は、ユーザU(以下、単に「ユーザ」とも言う。)によって発せられた音声に対して音声認識処理を行うことが可能である。
続いて、本開示の実施形態に係る情報処理システム10の機能構成例について説明する。図3は、本開示の実施形態に係る情報処理システム10の機能構成例を示すブロック図である。図3に示したように、本開示の実施形態に係る情報処理システム10は、画像入力部110と、操作入力部115と、集音部120と、出力部130と、情報処理装置140(以下、「制御部140」とも言う。)と、を備える。
続いて、本開示の実施形態に係る情報処理システム10の機能詳細について説明する。本開示の実施形態においては、認識制御部144が、集音部120から入力される音情報に対して音声認識処理が音声認識部145によって施されるように音声認識部145を制御し、認識制御部144が、所定のタイミングにおいて検出されたユーザのジェスチャに基づいて音声認識処理を継続するか否かを制御する。
上記においては、出力部130がテーブルTblの天面に画面を投影することが可能なプロジェクタである例について説明した。しかし、情報処理システム10のシステム構成は、かかる例に限定されない。以下では、情報処理システム10のシステム構成の変形例について説明する。図11は、情報処理システム10の構成の変形例1を示す図である。図11に示すように、情報処理システム10が携帯端末である場合に、出力部130は、携帯端末に備わっていてもよい。携帯端末の種類は特に限定されず、タブレット端末であってもよいし、スマートフォンであってもよいし、携帯電話であってもよい。
上記では、動きオブジェクトG14の表示について説明した。ここで、動きオブジェクトG14の表示形態は特に限定されない。図21は、3次元空間における視野領域に動きオブジェクトG14が表示される例を示す図である。例えば、図21に示すように、出力部130がシースルー型のヘッドマウントディスプレイである場合、出力部130は、3次元空間Reにおける視野領域Viに動きオブジェクトG14を表示させてよい。また、図21には、動きオブジェクトの軌跡K10が示されている。ユーザは、このように表示されている動きオブジェクトG14を見続けることによって、音声認識処理を継続させることが可能となる。
上記では、認識制御部144が、ユーザの視線に基づいて、音声認識処理を継続するか否かを制御する例を説明する例を説明した。しかし、音声認識処理を継続するか否かを制御する例は、かかる例に限定されない。例えば、認識制御部144は、ユーザの頭部の傾きに基づいて、音声認識処理を継続するか否かを制御してもよい。かかる例について、図23および図24を参照しながら説明する。
次に、図27を参照して、本開示の実施形態に係る情報処理システム10のハードウェア構成について説明する。図27は、本開示の実施形態に係る情報処理システム10のハードウェア構成例を示すブロック図である。
以上説明したように、本開示の実施形態によれば、集音部120から入力される音情報に対して音声認識処理が音声認識部145によって施されるように音声認識部145を制御する認識制御部144を備え、認識制御部144は、所定のタイミングにおいて検出されたユーザのジェスチャに基づいて音声認識処理を継続するか否かを制御する、情報処理システム10が提供される。かかる構成によれば、音情報に対する音声認識処理を継続させるか否かをユーザが容易に指示することが可能となる。
(1)
集音部から入力される音情報に対して音声認識処理が音声認識部によって施されるように前記音声認識部を制御する認識制御部を備え、
前記認識制御部は、所定のタイミングにおいて検出されたユーザのジェスチャに基づいて前記音声認識処理を継続するか否かを制御する、
情報処理システム。
(2)
前記認識制御部は、前記ユーザの視線に基づいて、前記音声認識処理を継続するか否かを制御する、
前記(1)に記載の情報処理システム。
(3)
前記認識制御部は、前記ユーザの視点と動きオブジェクトとに基づいて、前記音声認識処理を継続するか否かを制御する、
前記(2)に記載の情報処理システム。
(4)
前記認識制御部は、前記ユーザの視点と前記動きオブジェクトとの一致度に基づいて、前記音声認識処理を継続するか否かを制御する、
前記(3)に記載の情報処理システム。
(5)
前記認識制御部は、前記一致度が閾値を上回る場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
前記(4)に記載の情報処理システム。
(6)
前記認識制御部は、前記一致度が前記閾値を下回る場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
前記(5)に記載の情報処理システム。
(7)
前記情報処理システムは、前記動きオブジェクトを出力部に出力させる出力制御部を備える、
前記(4)〜(6)のいずれか一項に記載の情報処理システム。
(8)
前記出力制御部は、前記音声認識処理が開始されてから前記音情報の音量が継続して基準音量を下回る継続時間が所定の目標時間に達した場合に、前記動きオブジェクトを前記出力部に出力させる、
前記(7)に記載の情報処理システム。
(9)
前記所定のタイミングは、前記動きオブジェクトが前記出力部によって出力された後のタイミングである、
前記(7)または(8)に記載の情報処理システム。
(10)
前記出力制御部は、前記一致度が閾値を上回っている場合には、所定の第1の通知オブジェクトを前記出力部に出力させる、
前記(7)〜(9)のいずれか一項に記載の情報処理システム。
(11)
前記出力制御部は、前記一致度が前記閾値を下回っている場合には、前記第1の通知オブジェクトとは異なる所定の第2の通知オブジェクトを前記出力部に出力させる、
前記(10)に記載の情報処理システム。
(12)
前記認識制御部は、前記ユーザの頭部の傾きに基づいて、前記音声認識処理を継続するか否かを制御する、
前記(1)に記載の情報処理システム。
(13)
前記認識制御部は、前記ユーザの頭部の傾きが所定の基準値を上回る場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
前記(12)に記載の情報処理システム。
(14)
前記認識制御部は、前記ユーザの頭部の傾きが前記基準値を下回る場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
前記(13)に記載の情報処理システム。
(15)
前記認識制御部は、前記ユーザの頭部の動きに基づいて、前記音声認識処理を継続するか否かを制御する、
前記(1)に記載の情報処理システム。
(16)
前記認識制御部は、前記ユーザの頭部の動きが所定の動きを示す場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
前記(15)に記載の情報処理システム。
(17)
前記認識制御部は、前記ユーザの頭部の動きが前記所定の動きを示さない場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
前記(16)に記載の情報処理システム。
(18)
前記認識制御部は、前記音声認識処理の起動トリガが検出された場合に、前記音声認識処理を前記音声認識部に開始させる、
前記(1)〜(17)のいずれか一項に記載の情報処理システム。
(19)
前記実行動作は、前記音声認識処理の結果に応じた検索結果を出力させる動作、前記音声認識処理の結果を出力させる動作、前記音声認識処理の過程において得られた処理結果候補を出力させる動作および前記音声認識処理の結果から抽出される発話内容に返答するための文字列を出力させる動作のいずれか一つを含む、
前記(6)に記載の情報処理システム。
(20)
集音部から入力される音情報に対して音声認識処理が音声認識部によって施されるように前記音声認識部を制御することを含み、
プロセッサにより所定のタイミングにおいて検出されたユーザのジェスチャに基づいて前記音声認識処理を継続するか否かを制御することを含む、
情報処理方法。
110 画像入力部
115 操作入力部
120 集音部
130 出力部
140 情報処理装置(制御部)
141 入力画像取得部
142 音情報取得部
143 操作検出部
144 認識制御部
145 音声認識部
146 出力制御部
G10 初期画面
G11 認識文字列表示欄
G12 全削除操作オブジェクト
G13 確定操作オブジェクト
G14 音声認識開始操作オブジェクト(動きオブジェクト)
G15 前方移動操作オブジェクト
G16 後方移動操作オブジェクト
G17 削除操作オブジェクト
K10 動きオブジェクトの軌跡
K20、K21 ユーザの視点の軌跡
G41 第1の通知オブジェクト
G42 第2の通知オブジェクト
r 一致度
Claims (20)
- 集音部から入力される音情報に対して音声認識処理が音声認識部によって施されるように前記音声認識部を制御する認識制御部を備え、
前記認識制御部は、所定のタイミングにおいて検出されたユーザのジェスチャに基づいて前記音声認識処理を継続するか否かを制御する、
情報処理システム。 - 前記認識制御部は、前記ユーザの視線に基づいて、前記音声認識処理を継続するか否かを制御する、
請求項1に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの視点と動きオブジェクトとに基づいて、前記音声認識処理を継続するか否かを制御する、
請求項2に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの視点と前記動きオブジェクトとの一致度に基づいて、前記音声認識処理を継続するか否かを制御する、
請求項3に記載の情報処理システム。 - 前記認識制御部は、前記一致度が閾値を上回る場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
請求項4に記載の情報処理システム。 - 前記認識制御部は、前記一致度が前記閾値を下回る場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
請求項5に記載の情報処理システム。 - 前記情報処理システムは、前記動きオブジェクトを出力部に出力させる出力制御部を備える、
請求項4に記載の情報処理システム。 - 前記出力制御部は、前記音声認識処理が開始されてから前記音情報の音量が継続して基準音量を下回る継続時間が所定の目標時間に達した場合に、前記動きオブジェクトを前記出力部に出力させる、
請求項7に記載の情報処理システム。 - 前記所定のタイミングは、前記動きオブジェクトが前記出力部によって出力された後のタイミングである、
請求項7に記載の情報処理システム。 - 前記出力制御部は、前記一致度が閾値を上回っている場合には、所定の第1の通知オブジェクトを前記出力部に出力させる、
請求項7に記載の情報処理システム。 - 前記出力制御部は、前記一致度が前記閾値を下回っている場合には、前記第1の通知オブジェクトとは異なる所定の第2の通知オブジェクトを前記出力部に出力させる、
請求項10に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の傾きに基づいて、前記音声認識処理を継続するか否かを制御する、
請求項1に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の傾きが所定の基準値を上回る場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
請求項12に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の傾きが前記基準値を下回る場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
請求項13に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の動きに基づいて、前記音声認識処理を継続するか否かを制御する、
請求項1に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の動きが所定の動きを示す場合に、前記音声認識処理を継続するように前記音声認識部を制御する、
請求項15に記載の情報処理システム。 - 前記認識制御部は、前記ユーザの頭部の動きが前記所定の動きを示さない場合に、前記音声認識処理の結果に基づく所定の実行動作を実行するように前記音声認識部を制御する、
請求項16に記載の情報処理システム。 - 前記認識制御部は、前記音声認識処理の起動トリガが検出された場合に、前記音声認識処理を前記音声認識部に開始させる、
請求項1に記載の情報処理システム。 - 前記実行動作は、前記音声認識処理の結果に応じた検索結果を出力させる動作、前記音声認識処理の結果を出力させる動作、前記音声認識処理の過程において得られた処理結果候補を出力させる動作および前記音声認識処理の結果から抽出される発話内容に返答するための文字列を出力させる動作のいずれか一つを含む、
請求項6に記載の情報処理システム。 - 集音部から入力される音情報に対して音声認識処理が音声認識部によって施されるように前記音声認識部を制御することを含み、
プロセッサにより所定のタイミングにおいて検出されたユーザのジェスチャに基づいて前記音声認識処理を継続するか否かを制御することを含む、
情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015059567 | 2015-03-23 | ||
JP2015059567 | 2015-03-23 | ||
PCT/JP2015/084293 WO2016151956A1 (ja) | 2015-03-23 | 2015-12-07 | 情報処理システムおよび情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016151956A1 true JPWO2016151956A1 (ja) | 2018-01-11 |
JP6729555B2 JP6729555B2 (ja) | 2020-07-22 |
Family
ID=56977095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017507338A Active JP6729555B2 (ja) | 2015-03-23 | 2015-12-07 | 情報処理システムおよび情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10475439B2 (ja) |
EP (1) | EP3276618A4 (ja) |
JP (1) | JP6729555B2 (ja) |
CN (1) | CN107430856B (ja) |
WO (1) | WO2016151956A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102591413B1 (ko) * | 2016-11-16 | 2023-10-19 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN107919130B (zh) * | 2017-11-06 | 2021-12-17 | 百度在线网络技术(北京)有限公司 | 基于云端的语音处理方法和装置 |
US10923122B1 (en) * | 2018-12-03 | 2021-02-16 | Amazon Technologies, Inc. | Pausing automatic speech recognition |
US11151993B2 (en) * | 2018-12-28 | 2021-10-19 | Baidu Usa Llc | Activating voice commands of a smart display device based on a vision-based mechanism |
JP6842489B2 (ja) * | 2019-03-28 | 2021-03-17 | Necパーソナルコンピュータ株式会社 | 電子機器、制御方法およびプログラム |
JP7351642B2 (ja) * | 2019-06-05 | 2023-09-27 | シャープ株式会社 | 音声処理システム、会議システム、音声処理方法、及び音声処理プログラム |
US20220406300A1 (en) * | 2021-06-16 | 2022-12-22 | Roku, Inc. | Voice Control Device with Push-To-Talk (PTT) and Mute Controls |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944297A (ja) * | 1995-07-25 | 1997-02-14 | Canon Inc | データ入力方法及びその装置 |
JP2002091489A (ja) * | 2000-09-13 | 2002-03-27 | Alpine Electronics Inc | 音声認識装置 |
JP2005012377A (ja) * | 2003-06-17 | 2005-01-13 | Sharp Corp | 通信端末、通信端末の制御方法、音声認識処理装置、音声認識処理装置の制御方法、通信端末制御プログラム、通信端末制御プログラムを記録した記録媒体、音声認識処理装置制御プログラム、および、音声認識処理装置制御プログラムを記録した記録媒体 |
JP2007094104A (ja) * | 2005-09-29 | 2007-04-12 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2010009484A (ja) * | 2008-06-30 | 2010-01-14 | Denso It Laboratory Inc | 車載機器制御装置および車載機器制御方法 |
JP2014095766A (ja) * | 2012-11-08 | 2014-05-22 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
JP2014517429A (ja) * | 2011-06-24 | 2014-07-17 | トムソン ライセンシング | ユーザの眼球の動きによって操作可能なコンピュータ装置、およびそのコンピュータ装置を操作する方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6243683B1 (en) * | 1998-12-29 | 2001-06-05 | Intel Corporation | Video control of speech recognition |
EP1215658A3 (en) * | 2000-12-05 | 2002-08-14 | Hewlett-Packard Company | Visual activation of voice controlled apparatus |
US6804396B2 (en) * | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
US9250703B2 (en) | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
JP5601045B2 (ja) * | 2010-06-24 | 2014-10-08 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
CN103778359B (zh) * | 2014-01-24 | 2016-08-31 | 金硕澳门离岸商业服务有限公司 | 多媒体信息处理系统及多媒体信息处理方法 |
-
2015
- 2015-12-07 US US15/536,299 patent/US10475439B2/en active Active
- 2015-12-07 CN CN201580077946.0A patent/CN107430856B/zh not_active Expired - Fee Related
- 2015-12-07 WO PCT/JP2015/084293 patent/WO2016151956A1/ja active Application Filing
- 2015-12-07 JP JP2017507338A patent/JP6729555B2/ja active Active
- 2015-12-07 EP EP15886508.9A patent/EP3276618A4/en not_active Ceased
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944297A (ja) * | 1995-07-25 | 1997-02-14 | Canon Inc | データ入力方法及びその装置 |
JP2002091489A (ja) * | 2000-09-13 | 2002-03-27 | Alpine Electronics Inc | 音声認識装置 |
JP2005012377A (ja) * | 2003-06-17 | 2005-01-13 | Sharp Corp | 通信端末、通信端末の制御方法、音声認識処理装置、音声認識処理装置の制御方法、通信端末制御プログラム、通信端末制御プログラムを記録した記録媒体、音声認識処理装置制御プログラム、および、音声認識処理装置制御プログラムを記録した記録媒体 |
JP2007094104A (ja) * | 2005-09-29 | 2007-04-12 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2010009484A (ja) * | 2008-06-30 | 2010-01-14 | Denso It Laboratory Inc | 車載機器制御装置および車載機器制御方法 |
JP2014517429A (ja) * | 2011-06-24 | 2014-07-17 | トムソン ライセンシング | ユーザの眼球の動きによって操作可能なコンピュータ装置、およびそのコンピュータ装置を操作する方法 |
JP2014095766A (ja) * | 2012-11-08 | 2014-05-22 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN107430856B (zh) | 2021-02-19 |
US20170330555A1 (en) | 2017-11-16 |
EP3276618A4 (en) | 2018-11-07 |
CN107430856A (zh) | 2017-12-01 |
JP6729555B2 (ja) | 2020-07-22 |
US10475439B2 (en) | 2019-11-12 |
EP3276618A1 (en) | 2018-01-31 |
WO2016151956A1 (ja) | 2016-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729555B2 (ja) | 情報処理システムおよび情報処理方法 | |
JP6635049B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
JP6848881B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2017130486A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10771707B2 (en) | Information processing device and information processing method | |
WO2016152200A1 (ja) | 情報処理システムおよび情報処理方法 | |
JP6627775B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JPWO2017030193A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US10720154B2 (en) | Information processing device and method for determining whether a state of collected sound data is suitable for speech recognition | |
WO2018139036A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6575518B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
US10522140B2 (en) | Information processing system and information processing method | |
JP2016189121A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016109726A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016156877A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016180778A (ja) | 情報処理システムおよび情報処理方法 | |
JP2017138698A (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2016170584A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181012 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181012 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6729555 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |