JP2015055718A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2015055718A JP2015055718A JP2013188220A JP2013188220A JP2015055718A JP 2015055718 A JP2015055718 A JP 2015055718A JP 2013188220 A JP2013188220 A JP 2013188220A JP 2013188220 A JP2013188220 A JP 2013188220A JP 2015055718 A JP2015055718 A JP 2015055718A
- Authority
- JP
- Japan
- Prior art keywords
- user
- predetermined object
- information processing
- processing apparatus
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 308
- 238000003672 processing method Methods 0.000 title claims abstract description 51
- 238000012545 processing Methods 0.000 claims abstract description 94
- 238000000034 method Methods 0.000 claims description 175
- 230000004807 localization Effects 0.000 claims description 18
- 238000000926 separation method Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 12
- 230000005236 sound signal Effects 0.000 claims description 12
- 230000008569 process Effects 0.000 description 156
- 238000004891 communication Methods 0.000 description 38
- 238000003384 imaging method Methods 0.000 description 24
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000003760 hair shine Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Ophthalmology & Optometry (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を、本実施形態に係る情報処理装置が行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
上述したように、特定のユーザ操作や特定のワードの発話によって音声認識が行われる場合には、ユーザの利便性を低下させる恐れがある。また、特定のユーザ操作や特定のワードの発話を音声認識を開始するトリガーとする場合には、ユーザが行っていた他の操作や会話などを妨げる可能性があることから、特定のユーザ操作や特定のワードの発話は、自然な操作であるとは言い難い。
次に、本実施形態に係る情報処理方法に係る処理について、より具体的に説明する。
本実施形態に係る情報処理装置は、例えば、表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定する。
本実施形態に係る情報処理装置は、例えば、ユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第1領域内に含まれる場合に、ユーザが所定のオブジェクトを見たと判定する。
本実施形態に係る情報処理装置は、例えば、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第2領域内に含まれなくなったときに、ユーザが所定のオブジェクトを見ていないと判定する。
本実施形態に係る情報処理装置は、例えば、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定の領域内に含まれない状態が、設定された第2設定時間以上継続する場合に、ユーザが所定のオブジェクトを見ていないと判定する。また、本実施形態に係る情報処理装置は、例えば所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定の領域内に含まれない状態が、第2設定時間より長く継続する場合に、ユーザが所定のオブジェクトを見ていないと判定してもよい。
本実施形態に係る情報処理装置は、例えば、一のユーザが所定のオブジェクトを見たと判定した後に、当該一のユーザが所定のオブジェクトを見ていないと判定されていない場合には、他のユーザが所定のオブジェクトを見たとは判定しない。
また、本実施形態に係る情報処理装置は、ユーザを特定し、特定されたユーザに対応するユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定してもよい。
本実施形態に係る情報処理装置は、例えば、上記(1)の処理(判定処理)においてユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御し、音声認識を行わせる。
本実施形態に係る情報処理装置は、音源分離を行うことが可能な音声入力デバイスと連携して、音声認識を行わせる。本実施形態に係る音源分離を行うことが可能な音声入力デバイスは、例えば、本実施形態に係る情報処理装置が備える音声入力デバイスであってもよいし、本実施形態に係る情報処理装置の外部の音声入力デバイスであってもよい。
本実施形態に係る情報処理装置は、音源定位を行うことが可能な音声入力デバイスと連携して、音声認識を行わせる。本実施形態に係る音源定位を行うことが可能な音声入力デバイスは、例えば、本実施形態に係る情報処理装置が備える音声入力デバイスであってもよいし、本実施形態に係る情報処理装置の外部の音声入力デバイスであってもよい。
本実施形態に係る情報処理装置は、上記(1)の処理(判定処理)においてユーザが見たと判定された所定のオブジェクトに対応する命令を認識するように制御する。
認識する命令を動的に変える制御の制御対象が自装置である場合、本実施形態に係る情報処理装置は、例えば、オブジェクトと命令(または、命令群)とが対応付けられているテーブル(または、データベース)と、判定された所定のオブジェクトとに基づいて、判定された所定のオブジェクトに対応する命令(または、命令群)を特定する。そして、本実施形態に係る情報処理装置は、取得された音声信号から、特定された命令を認識することによって、所定のオブジェクトに対応する命令を認識する。
また、認識する命令を動的に変える制御の制御対象が上記外部装置である場合、本実施形態に係る情報処理装置は、例えば、“認識する命令を動的に変えさせる命令”と、所定のオブジェクトに対応するオブジェクトを示す情報とを含む制御データを、通信部(後述する)などに、上記外部装置へと送信させる。本実施形態に係るオブジェクトを示す情報としては、例えば、オブジェクトを示すIDや、オブジェクトを示すデータなどが挙げられる。また、上記制御データには、例えば、さらにユーザが発話した音声を示す音声信号が含まれていてもよい。上記制御データを取得した上記外部装置は、例えば、上記(A−1)に示す本実施形態に係る情報処理装置と同様の処理行うことによって、所定のオブジェクトに対応する命令を認識する。
本実施形態に係る情報処理装置は、上記(1)の処理(判定処理)においてユーザが見たと判定された所定のオブジェクトを含む表示画面における領域内に含まれる、他のオブジェクトに対応する命令を認識するように制御する。また、本実施形態に係る情報処理装置は、例えば、上記(A)に示すように所定のオブジェクトに対応する命令を認識することに加え、さらに(B)の処理を行ってもよい。
認識する命令を動的に変える制御の制御対象が自装置である場合、本実施形態に係る情報処理装置は、例えば、本実施形態に係る所定のオブジェクトを含む表示画面における領域に基準位置が含まれるオブジェクトのうち、所定のオブジェクト以外のオブジェクトを、他のオブジェクトと判定する。なお、本実施形態に係る他のオブジェクトの判定方法は、上記に限られない。例えば、本実施形態に係る情報処理装置は、本実施形態に係る所定のオブジェクトを含む表示画面における領域内に少なくとも一部が表示されるオブジェクトのうち、所定のオブジェクト以外のオブジェクトを、他のオブジェクトとして判定してもよい。
また、認識する命令を動的に変える制御の制御対象が上記外部装置である場合、本実施形態に係る情報処理装置は、例えば、“認識する命令を動的に変えさせる命令”と、他のオブジェクトに対応するオブジェクトを示す情報とを含む制御データを、通信部(後述する)などに、上記外部装置へと送信させる。また、上記制御データには、例えば、さらにユーザが発話した音声を示す音声信号や、所定のオブジェクトに対応するオブジェクトを示す情報が含まれていてもよい。上記制御データを取得した上記外部装置は、例えば、上記(B−1)に示す本実施形態に係る情報処理装置と同様の処理行うことによって、他のオブジェクトに対応する命令に対応する命令(または、さらに所定のオブジェクトに対応する命令)を認識する。
本実施形態に係る情報処理装置は、本実施形態に係る所定のオブジェクトを表示画面に表示させる。より具体的には、本実施形態に係る情報処理装置は、例えば、下記の第1の例に係る表示制御処理〜下記の第4の例に係る表示制御処理の処理を行う。
本実施形態に係る情報処理装置は、例えば、表示画面における設定されている位置に、所定のオブジェクトを表示させる。つまり、本実施形態に係る情報処理装置は、ユーザの視線の位置に関する情報が示す視線の位置がどのような位置であっても、ユーザの視線の位置に関する情報が示す視線の位置によらずに、設定されている位置に、所定のオブジェクトを表示させる。
本実施形態に係る情報処理装置は、例えば、ユーザの視線の位置に関する情報に基づいて、所定のオブジェクトを選択的に表示させる。
本実施形態に係る情報処理装置は、例えば、上記(2)の処理(音声認識制御処理)により音声認識が行われている場合、所定のオブジェクトの表示態様を変える。本実施形態に係る情報処理装置が所定のオブジェクトの表示態様を変えることによって、本実施形態に係る情報処理方法に係る処理の状態を、ユーザに対してフィードバックすることが可能となる。
本実施形態に係る情報処理装置は、例えば、上記第1の例に係る表示制御処理または第2の例に係る表示制御処理と、第3の例に係る表示制御処理とを組み合わせ処理を行うことも可能である。
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な、本実施形態に係る情報処理装置の構成の一例について、説明する。
図9は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164とを備える。また、情報処理装置100は、例えば、データの伝送路としてのバス166で各構成要素間を接続する。
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記(1)の処理(判定処理)、および上記(2)の処理(音声認識制御処理)”や“上記(1)の処理(判定処理)〜(3)の処理(表示制御処理)”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、音声認識が行われる場合におけるユーザの利便性の向上を図ることができる。
(1)
表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定する判定部と、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御する音声認識制御部と、
を備える、情報処理装置。
(2)
前記音声認識制御部は、見たと判定された前記所定のオブジェクトに基づいて、認識する命令を動的に変えるよう制御する、(1)に記載の情報処理装置。
(3)
前記音声認識制御部は、見たと判定された前記所定のオブジェクトに対応する命令を認識するよう制御する、(1)、または(2)に記載の情報処理装置。
(4)
前記音声認識制御部は、見たと判定された前記所定のオブジェクトを含む表示画面における領域内に含まれる、他のオブジェクトに対応する命令を認識するよう制御する、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記音声認識制御部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報に基づいて、音源分離を行うことが可能な音声入力デバイスに、所定のオブジェクトを見たと判定されたユーザの位置から発せられる音声を示す音声信号を取得させ、
前記音声入力デバイスにより取得された音声信号に対して音声認識を行わせる、(1)〜(4)のいずれか1つに記載の情報処理装置。
(6)
前記音声認識制御部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報に基づくユーザの位置と、音源定位を行うことが可能な音声入力デバイスが測定した音源の位置との差分が、設定された閾値以下の場合、または、
前記ユーザの位置と前記音源の位置との差分が、前記閾値より小さい場合に、
前記音声入力デバイスにより取得された音声を示す音声信号に対して音声認識を行わせる、(1)〜(4)のいずれか1つに記載の情報処理装置。
(7)
前記判定部は、ユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第1領域内に含まれる場合に、ユーザが所定のオブジェクトを見たと判定する、(1)〜(6)のいずれか1つに記載の情報処理装置。
(8)
前記判定部が、ユーザが所定のオブジェクトを見たと判定した場合、
前記判定部は、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第2領域内に含まれなくなったときに、前記ユーザが所定のオブジェクトを見ていないと判定し、
前記音声認識制御部は、前記ユーザが所定のオブジェクトを見ていないと判定されたときに、前記ユーザに対する音声認識を終了させる、(1)〜(7)のいずれか1つに記載の情報処理装置。
(9)
前記判定部が、ユーザが所定のオブジェクトを見たと判定した場合、
前記判定部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第2領域内に含まれない状態が、設定された設定時間以上継続するとき、または、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が前記第2領域内に含まれない状態が、前記設定時間より長く継続するときに、
前記ユーザが所定のオブジェクトを見ていないと判定し、
前記音声認識制御部は、前記ユーザが所定のオブジェクトを見ていないと判定されたときに、前記ユーザに対する音声認識を終了させる、(1)〜(7)のいずれか1つに記載の情報処理装置。
(10)
前記判定部は、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置の履歴に基づいて、前記設定時間を動的に設定する、(9)に記載の情報処理装置。
(11)
前記判定部は、一のユーザが所定のオブジェクトを見たと判定した後に、前記一のユーザが所定のオブジェクトを見ていないと判定されていない場合には、他のユーザが所定のオブジェクトを見たとは判定しない、(1)〜(10)のいずれか1つに記載の情報処理装置。
(12)
前記判定部は、
前記表示画面において画像が表示される方向が撮像された撮像画像に基づいてユーザを特定し、
特定されたユーザに対応するユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定する、(1)〜(11)のいずれか1つに記載の情報処理装置。
(13)
前記所定のオブジェクトを表示画面に表示させる表示制御部をさらに備える、(1)〜(12)のいずれか1つに記載の情報処理装置。
(14)
前記表示制御部は、前記ユーザの視線の位置に関する情報が示す視線の位置によらず、表示画面における設定されている位置に、前記所定のオブジェクトを表示させる、(13)に記載の情報処理装置。
(15)
前記表示制御部は、前記ユーザの視線の位置に関する情報に基づいて、前記所定のオブジェクトを選択的に表示させる、(13)に記載の情報処理装置。
(16)
前記表示制御部は、前記所定のオブジェクトを表示させる場合には、設定されている表示方法を用いて前記所定のオブジェクトを表示させる、(15)に記載の情報処理装置。
(17)
前記表示制御部は、前記所定のオブジェクトを表示させる場合には、前記ユーザの視線の位置に関する情報が示す視線の位置に基づいて、段階的に前記所定のオブジェクトを表示させる、(15)、または(16)に記載の情報処理装置。
(18)
前記表示制御部は、音声認識が行われている場合、前記所定のオブジェクトの表示態様を変える、(13)〜(17)のいずれか1つに記載の情報処理装置。
(19)
表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定するステップと、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御するステップと、
を有する、情報処理装置により実行される情報処理方法。
(20)
表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定するステップ、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御するステップ、
をコンピュータに実行させるためのプログラム。
102 通信部
104 制御部
110 判定部
112 音声認識制御部
114 表示制御部
Claims (20)
- 表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定する判定部と、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御する音声認識制御部と、
を備える、情報処理装置。 - 前記音声認識制御部は、見たと判定された前記所定のオブジェクトに基づいて、認識する命令を動的に変えるよう制御する、請求項1に記載の情報処理装置。
- 前記音声認識制御部は、見たと判定された前記所定のオブジェクトに対応する命令を認識するよう制御する、請求項1に記載の情報処理装置。
- 前記音声認識制御部は、見たと判定された前記所定のオブジェクトを含む表示画面における領域内に含まれる、他のオブジェクトに対応する命令を認識するよう制御する、請求項1に記載の情報処理装置。
- 前記音声認識制御部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報に基づいて、音源分離を行うことが可能な音声入力デバイスに、所定のオブジェクトを見たと判定されたユーザの位置から発せられる音声を示す音声信号を取得させ、
前記音声入力デバイスにより取得された音声信号に対して音声認識を行わせる、請求項1に記載の情報処理装置。 - 前記音声認識制御部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報に基づくユーザの位置と、音源定位を行うことが可能な音声入力デバイスが測定した音源の位置との差分が、設定された閾値以下の場合、または、
前記ユーザの位置と前記音源の位置との差分が、前記閾値より小さい場合に、
前記音声入力デバイスにより取得された音声を示す音声信号に対して音声認識を行わせる、請求項1に記載の情報処理装置。 - 前記判定部は、ユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第1領域内に含まれる場合に、ユーザが所定のオブジェクトを見たと判定する、請求項1に記載の情報処理装置。
- 前記判定部が、ユーザが所定のオブジェクトを見たと判定した場合、
前記判定部は、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第2領域内に含まれなくなったときに、前記ユーザが所定のオブジェクトを見ていないと判定し、
前記音声認識制御部は、前記ユーザが所定のオブジェクトを見ていないと判定されたときに、前記ユーザに対する音声認識を終了させる、請求項1に記載の情報処理装置。 - 前記判定部が、ユーザが所定のオブジェクトを見たと判定した場合、
前記判定部は、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が、所定のオブジェクトを含む表示画面における第2領域内に含まれない状態が、設定された設定時間以上継続するとき、または、
所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置が前記第2領域内に含まれない状態が、前記設定時間より長く継続するときに、
前記ユーザが所定のオブジェクトを見ていないと判定し、
前記音声認識制御部は、前記ユーザが所定のオブジェクトを見ていないと判定されたときに、前記ユーザに対する音声認識を終了させる、請求項1に記載の情報処理装置。 - 前記判定部は、所定のオブジェクトを見たと判定されたユーザに対応するユーザの視線の位置に関する情報が示す視線の位置の履歴に基づいて、前記設定時間を動的に設定する、請求項9に記載の情報処理装置。
- 前記判定部は、一のユーザが所定のオブジェクトを見たと判定した後に、前記一のユーザが所定のオブジェクトを見ていないと判定されていない場合には、他のユーザが所定のオブジェクトを見たとは判定しない、請求項1に記載の情報処理装置。
- 前記判定部は、
前記表示画面において画像が表示される方向が撮像された撮像画像に基づいてユーザを特定し、
特定されたユーザに対応するユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定する、請求項1に記載の情報処理装置。 - 前記所定のオブジェクトを表示画面に表示させる表示制御部をさらに備える、請求項1に記載の情報処理装置。
- 前記表示制御部は、前記ユーザの視線の位置に関する情報が示す視線の位置によらず、表示画面における設定されている位置に、前記所定のオブジェクトを表示させる、請求項13に記載の情報処理装置。
- 前記表示制御部は、前記ユーザの視線の位置に関する情報に基づいて、前記所定のオブジェクトを選択的に表示させる、請求項13に記載の情報処理装置。
- 前記表示制御部は、前記所定のオブジェクトを表示させる場合には、設定されている表示方法を用いて前記所定のオブジェクトを表示させる、請求項15に記載の情報処理装置。
- 前記表示制御部は、前記所定のオブジェクトを表示させる場合には、前記ユーザの視線の位置に関する情報が示す視線の位置に基づいて、段階的に前記所定のオブジェクトを表示させる、請求項15に記載の情報処理装置。
- 前記表示制御部は、音声認識が行われている場合、前記所定のオブジェクトの表示態様を変える、請求項13に記載の情報処理装置。
- 表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定するステップと、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御するステップと、
を有する、情報処理装置により実行される情報処理方法。 - 表示画面におけるユーザの視線の位置に関する情報に基づいて、ユーザが所定のオブジェクトを見たかを判定するステップ、
ユーザが所定のオブジェクトを見たと判定された場合に、音声認識処理を制御するステップ、
をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188220A JP6221535B2 (ja) | 2013-09-11 | 2013-09-11 | 情報処理装置、情報処理方法、およびプログラム |
US14/916,899 US20160217794A1 (en) | 2013-09-11 | 2014-07-25 | Information processing apparatus, information processing method, and program |
PCT/JP2014/003947 WO2015037177A1 (en) | 2013-09-11 | 2014-07-25 | Information processing apparatus method and program combining voice recognition with gaze detection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013188220A JP6221535B2 (ja) | 2013-09-11 | 2013-09-11 | 情報処理装置、情報処理方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015055718A true JP2015055718A (ja) | 2015-03-23 |
JP2015055718A5 JP2015055718A5 (ja) | 2016-02-12 |
JP6221535B2 JP6221535B2 (ja) | 2017-11-01 |
Family
ID=51422116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013188220A Active JP6221535B2 (ja) | 2013-09-11 | 2013-09-11 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160217794A1 (ja) |
JP (1) | JP6221535B2 (ja) |
WO (1) | WO2015037177A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017078893A (ja) * | 2015-10-19 | 2017-04-27 | 株式会社コロプラ | 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム |
WO2019087495A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2019518259A (ja) * | 2016-03-07 | 2019-06-27 | フェイスブック,インク. | コンテンツを提示するためのシステムおよび方法 |
WO2019181218A1 (ja) * | 2018-03-19 | 2019-09-26 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
WO2019235229A1 (ja) * | 2018-06-06 | 2019-12-12 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2020510865A (ja) * | 2017-02-27 | 2020-04-09 | ブイタッチ・カンパニー・リミテッド | 音声認識トリガーを提供するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
JP2020075088A (ja) * | 2018-09-05 | 2020-05-21 | ネットマーブル・コーポレイション | オーディオを視覚的に表現するインタフェースに基づいてゲームサービスを提供するゲームサービス提供サーバ及び方法 |
WO2020145071A1 (ja) | 2019-01-07 | 2020-07-16 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2021039636A1 (ja) | 2019-08-26 | 2021-03-04 | ダイキン工業株式会社 | 空気調和システム、および、空気調和システムを用いた情報提供方法 |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
EP4138075A1 (en) | 2013-02-07 | 2023-02-22 | Apple Inc. | Voice trigger for a digital assistant |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP6412778B2 (ja) * | 2014-11-19 | 2018-10-24 | 東芝映像ソリューション株式会社 | 映像装置、方法、およびプログラム |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10867606B2 (en) | 2015-12-08 | 2020-12-15 | Chian Chiu Li | Systems and methods for performing task using simple code |
JP2017134558A (ja) * | 2016-01-27 | 2017-08-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体 |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US9811315B1 (en) | 2017-01-03 | 2017-11-07 | Chian Chiu Li | Systems and methods for presenting location related information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20190066667A1 (en) * | 2017-08-25 | 2019-02-28 | Lenovo (Singapore) Pte. Ltd. | Determining output receipt |
US10327097B2 (en) | 2017-10-02 | 2019-06-18 | Chian Chiu Li | Systems and methods for presenting location related information |
US10768697B2 (en) | 2017-11-02 | 2020-09-08 | Chian Chiu Li | System and method for providing information |
CN108334272B (zh) * | 2018-01-23 | 2020-08-21 | 维沃移动通信有限公司 | 一种控制方法及移动终端 |
US10540015B2 (en) | 2018-03-26 | 2020-01-21 | Chian Chiu Li | Presenting location related information and implementing a task based on gaze and voice detection |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10847159B1 (en) | 2019-05-01 | 2020-11-24 | Chian Chiu Li | Presenting location related information and implementing a task based on gaze, gesture, and voice detection |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11386898B2 (en) | 2019-05-27 | 2022-07-12 | Chian Chiu Li | Systems and methods for performing task using simple code |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11074040B2 (en) | 2019-12-11 | 2021-07-27 | Chian Chiu Li | Presenting location related information and implementing a task based on gaze, gesture, and voice detection |
US11237798B2 (en) * | 2020-02-03 | 2022-02-01 | Chian Chiu Li | Systems and methods for providing information and performing task |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN116348922A (zh) * | 2020-10-13 | 2023-06-27 | 谷歌有限责任公司 | 基于用户熟悉度终止执行图像分类 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07244556A (ja) * | 1994-03-04 | 1995-09-19 | Hitachi Ltd | 情報端末 |
JPH10260773A (ja) * | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JPH1124694A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 命令認識装置 |
JP2007310620A (ja) * | 2006-05-18 | 2007-11-29 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001056017A1 (de) * | 2000-01-27 | 2001-08-02 | Siemens Aktiengesellschaft | System und verfahren zur blickfokussierten sprachverarbeitung |
US7219062B2 (en) * | 2002-01-30 | 2007-05-15 | Koninklijke Philips Electronics N.V. | Speech activity detection using acoustic and facial characteristics in an automatic speech recognition system |
US20060192775A1 (en) * | 2005-02-25 | 2006-08-31 | Microsoft Corporation | Using detected visual cues to change computer system operating states |
US9250703B2 (en) * | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
US9606621B2 (en) * | 2006-07-28 | 2017-03-28 | Philips Lighting Holding B.V. | Gaze interaction for information display of gazed items |
JP2009064395A (ja) | 2007-09-10 | 2009-03-26 | Hiroshima Univ | ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
KR101178801B1 (ko) * | 2008-12-09 | 2012-08-31 | 한국전자통신연구원 | 음원분리 및 음원식별을 이용한 음성인식 장치 및 방법 |
US9108513B2 (en) * | 2008-11-10 | 2015-08-18 | Volkswagen Ag | Viewing direction and acoustic command based operating device for a motor vehicle |
US9443510B2 (en) * | 2012-07-09 | 2016-09-13 | Lg Electronics Inc. | Speech recognition apparatus and method |
US10359841B2 (en) * | 2013-01-13 | 2019-07-23 | Qualcomm Incorporated | Apparatus and method for controlling an augmented reality device |
CN105122353B (zh) * | 2013-05-20 | 2019-07-09 | 英特尔公司 | 用于语音识别的计算装置和用于计算装置上的语音识别的方法 |
-
2013
- 2013-09-11 JP JP2013188220A patent/JP6221535B2/ja active Active
-
2014
- 2014-07-25 US US14/916,899 patent/US20160217794A1/en not_active Abandoned
- 2014-07-25 WO PCT/JP2014/003947 patent/WO2015037177A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07244556A (ja) * | 1994-03-04 | 1995-09-19 | Hitachi Ltd | 情報端末 |
JPH10260773A (ja) * | 1997-03-19 | 1998-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方法及びその装置 |
JPH1124694A (ja) * | 1997-07-04 | 1999-01-29 | Sanyo Electric Co Ltd | 命令認識装置 |
JP2007310620A (ja) * | 2006-05-18 | 2007-11-29 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017078893A (ja) * | 2015-10-19 | 2017-04-27 | 株式会社コロプラ | 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム |
JP2019518259A (ja) * | 2016-03-07 | 2019-06-27 | フェイスブック,インク. | コンテンツを提示するためのシステムおよび方法 |
JP2020510865A (ja) * | 2017-02-27 | 2020-04-09 | ブイタッチ・カンパニー・リミテッド | 音声認識トリガーを提供するための方法、システムおよび非一過性のコンピュータ読み取り可能な記録媒体 |
WO2019087495A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2019181218A1 (ja) * | 2018-03-19 | 2019-09-26 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
WO2019235229A1 (ja) * | 2018-06-06 | 2019-12-12 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP2020075088A (ja) * | 2018-09-05 | 2020-05-21 | ネットマーブル・コーポレイション | オーディオを視覚的に表現するインタフェースに基づいてゲームサービスを提供するゲームサービス提供サーバ及び方法 |
US10987575B2 (en) | 2018-09-05 | 2021-04-27 | Netmarble Corporation | Server and method for providing game service based on interface expressing audio visually |
WO2020145071A1 (ja) | 2019-01-07 | 2020-07-16 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2021039636A1 (ja) | 2019-08-26 | 2021-03-04 | ダイキン工業株式会社 | 空気調和システム、および、空気調和システムを用いた情報提供方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2015037177A1 (en) | 2015-03-19 |
JP6221535B2 (ja) | 2017-11-01 |
US20160217794A1 (en) | 2016-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6221535B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10180718B2 (en) | Information processing apparatus and information processing method | |
WO2015037310A1 (ja) | 情報処理装置、および情報処理方法 | |
JP6143975B1 (ja) | 画像の取り込みを支援するためにハプティックフィードバックを提供するためのシステムおよび方法 | |
US10438058B2 (en) | Information processing apparatus, information processing method, and program | |
JP5829390B2 (ja) | 情報処理装置、および情報処理方法 | |
JP5625643B2 (ja) | 情報処理装置、および情報処理方法 | |
WO2015064165A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5900161B2 (ja) | 情報処理システム、方法およびコンピュータ読み取り可能な記録媒体 | |
US11126389B2 (en) | Controlling visual indicators in an audio responsive electronic device, and capturing and providing audio using an API, by native and non-native computing devices and services | |
TW201344597A (zh) | 顯示裝置控制方法、控制器及多媒體系統 | |
JP2015170175A (ja) | 情報処理装置、および情報処理方法 | |
US20150331598A1 (en) | Display device and operating method thereof | |
US9921796B2 (en) | Sharing of input information superimposed on images | |
JP2015005809A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10321008B2 (en) | Presentation control device for controlling presentation corresponding to recognized target | |
JP2016109726A (ja) | 情報処理装置、情報処理方法およびプログラム | |
WO2020132831A1 (en) | Systems and methods for pairing devices using visual recognition | |
WO2019054037A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11386870B2 (en) | Information processing apparatus and information processing method | |
JP2014021893A (ja) | 情報処理装置、操作信号生成方法、およびプログラム | |
JP2014209778A (ja) | 情報処理装置および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151215 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6221535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |