JP2019113928A - 情報処理装置、情報処理方法、および記録媒体 - Google Patents
情報処理装置、情報処理方法、および記録媒体 Download PDFInfo
- Publication number
- JP2019113928A JP2019113928A JP2017245033A JP2017245033A JP2019113928A JP 2019113928 A JP2019113928 A JP 2019113928A JP 2017245033 A JP2017245033 A JP 2017245033A JP 2017245033 A JP2017245033 A JP 2017245033A JP 2019113928 A JP2019113928 A JP 2019113928A
- Authority
- JP
- Japan
- Prior art keywords
- target device
- information processing
- control target
- control
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/38—Information transfer, e.g. on bus
- G06F13/382—Information transfer, e.g. on bus using universal interface adapter
- G06F13/385—Information transfer, e.g. on bus using universal interface adapter for adaptation of a particular data processing system to different peripheral devices
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M11/00—Telephonic communication systems specially adapted for combination with other electrical systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M11/00—Telephonic communication systems specially adapted for combination with other electrical systems
- H04M11/007—Telephonic communication systems specially adapted for combination with other electrical systems with remote control systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Selective Calling Equipment (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】どの制御対象機器に操作コマンドが発行されたかをユーザに直感的に気付かせることが可能な情報処理装置、情報処理方法、および記録媒体を提供する。【解決手段】制御対象機器の場所にユーザの視線を誘導する処理と、前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部を備える、情報処理装置。【選択図】図7
Description
本開示は、情報処理装置、情報処理方法、および記録媒体に関する。
近年、スマートフォン、タブレット端末、及びデジタルサイネージ等の情報処理装置が広く普及しており、このような複雑な処理及び表現が可能な情報処理装置における表示オブジェクト(即ち、UI:User Interface)に関する開発が、様々な観点で行われている。例えば、ユーザがより直観的に操作可能なUI、複雑な操作を簡易に実現可能なUI、ユーザの利便性を向上させるUI等が開発されている。その一例として、例えば下記特許文献1には、テーブル上にUIを表示して、UIとユーザとのインタラクションを実現する技術が開示されている。
また、近年は、IoT(Internet of Things)の普及に伴い、家電であってもネットワークに接続され、他デバイスと協調動作するものが増えてきている。
従来、テレビなどのデバイスが他の機器と連携することなく、単独で動作していたため、ユーザの操作に対するフィードバックもデバイス上に設置されたディスプレイやLEDなどを用いれば十分であった。しかしながら、IoTの普及に伴い、家電であってもネットワークに接続され、他デバイスと協調動作するものが増えてくると(例えば、テーブル上に表示されたUIとの連動など)、ユーザがデバイスのフィードバックに気付き難いという問題が生じる。
そこで、本開示では、どの制御対象機器に操作コマンドが発行されたかをユーザに直感的に気付かせることが可能な情報処理装置、情報処理方法、および記録媒体を提案する。
本開示によれば、制御対象機器の場所にユーザの視線を誘導する処理と、前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部を備える、情報処理装置を提案する。
本開示によれば、プロセッサが、制御対象機器の場所にユーザの視線を誘導することと、前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御することと、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、制御対象機器の場所にユーザの視線を誘導する処理と、前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部として機能させるためのプログラムが記録された、記録媒体を提案する。
以上説明したように本開示によれば、どの制御対象機器に操作コマンドが発行されたかをユーザに直感的に気付かせることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成例
2−1.出力装置200
2−2.センサ装置300
2−3情報処理装置100
3.動作処理
3−1.エージェントの呼び出し
3−2.デバイス制御の流れ
3−3.デバイスによる憑依表現処理
3−4.システムによる憑依表現処理
3−5.補足
4.応用例
5.ハードウェア構成例
6.まとめ
1.本開示の一実施形態による情報処理システムの概要
2.構成例
2−1.出力装置200
2−2.センサ装置300
2−3情報処理装置100
3.動作処理
3−1.エージェントの呼び出し
3−2.デバイス制御の流れ
3−3.デバイスによる憑依表現処理
3−4.システムによる憑依表現処理
3−5.補足
4.応用例
5.ハードウェア構成例
6.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。本実施形態による情報処理システムは、情報処理装置100(図1では不図示)、出力装置200(図1では、一例としてプロジェクタ210とTV220を図示)及びセンサ装置300を含む。
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。本実施形態による情報処理システムは、情報処理装置100(図1では不図示)、出力装置200(図1では、一例としてプロジェクタ210とTV220を図示)及びセンサ装置300を含む。
センサ装置300は、様々な情報をセンシングする装置である。例えば、センサ装置300は、カメラ、デプスセンサ、及びマイクロフォン等を含み、ユーザ及びユーザがいる空間に関する情報をセンシングする。例えば、センサ装置300は、ユーザの位置、姿勢、動き、視線、部屋の形状、及び家具の配置等をセンシングする。
出力装置200は、情報処理装置100からの様々な情報を出力する装置であって、例えばプロジェクタ210やTV220を想定する。プロジェクタ210は、センサ装置300がセンシングする空間に含まれる壁、床、テーブル、又はその他家具等の任意の場所(即ち、領域)を投影場所(即ち、投影面又は投影領域)として情報を投影可能である。なお、投影場所は、平面に限定されず、曲面であってもよいし、複数の面に分かれていてもよい。また、プロジェクタ210は、空間内のどこへでも投影できるよう、複数台、若しくは所謂ムービングプロジェクタにより実現される。
出力装置200及びセンサ装置300は、単数であってもよいし複数であってもよい。
図1に示す例では、プロジェクタ210により、テーブル30の天面に表示画像20が表示されている。表示画像20は、ユーザ入力に対するアプリケーションからのインタラクションを示す表示オブジェクトであって、例えば静止画、動画(映像)、メニュー画面又はコントロール画面といった各種UI等である。
表示画像20に対するユーザによる操作入力はセンサ装置300により検出されるため、ユーザは、表示画像20上で操作体、例えば手を接触又は近接させて動かすことで、表示画像20に対し各種の操作入力を行うことができる。
表示画像20の表示位置は、テーブル30の天面に限定されず、空間内における壁、床、又は家具等の任意の場所であってよく、自動的に、またはユーザによる指示に従って制御される。
ここで、空間内の機器(例えば家電等のIoTデバイス)が情報処理装置100と通信接続されている場合、情報処理装置100は、テーブル30に表示したコントロール画面(表示画像20)に対するユーザによる操作入力において、各機器のON/OFF等の制御が可能となる。この際、ユーザはコントロール画面を見ながら操作するため、実際にどの機器が自分のコントロール下で動作しているのか気付き難い場合がある。また、例えばコントロール画面の操作によりユーザが家の中を映画モードに切り替えた場合、テレビの画質設定が映画モードになり、オーディオシステムが重低音モードになり、天井照明が暗くなる等、多数のデバイスが協調動作するが、多くの変化が同時に起きるため、ユーザは一瞬では何が起きたか理解できない場合もある。
ここでは一例としてテーブル30に表示されたコントロール画面からの操作を例にして問題点を説明したが、ユーザがスマートフォン上で動作するアプリケーションを用いて操作した場合も同様の問題が生じる。
このような問題に対処するため、本開示では、ユーザに対する適切なフィードバックを提示し、どの制御対象機器に操作コマンドが発行されたかをユーザに直感的に気付かせることを可能とする仕組みを提案する。
具体的には、本開示では、操作コマンドを実行するデバイスの位置、すなわち制御対象機器の場所にユーザの視線を誘導し、当該視線の誘導のタイミングに応じて、制御対象機器における操作コマンドの実行タイミングを制御する処理を行う。具体的には、制御対象機器にユーザの視線を誘導し、誘導完了後に当該制御対象機器に操作コマンドが作用したことを示すフィードバック(可能であればデバイスの特性を活かしたフィードバック表現)を提示するよう制御することで、制御対象機器への作用をユーザに直感的に気付かせることを可能とする。
<<2.構成>>
図2は、本実施形態に係るシステム1の構成の一例を示すブロック図である。図2に示すように、システム1は、情報処理装置100、出力装置200及びセンサ装置300を含む。
図2は、本実施形態に係るシステム1の構成の一例を示すブロック図である。図2に示すように、システム1は、情報処理装置100、出力装置200及びセンサ装置300を含む。
<2−1.出力装置200>
出力装置200は、プロジェクタ210、TV220、タブレット230、スマートフォン240、PC250、スピーカ260、及び単一指向性スピーカ270を含む。なお、システム1は、出力装置200として、これらのうち一つ又は複数の組み合わせを含んでも良いし、同一種類の装置を複数含んでも良い。
出力装置200は、プロジェクタ210、TV220、タブレット230、スマートフォン240、PC250、スピーカ260、及び単一指向性スピーカ270を含む。なお、システム1は、出力装置200として、これらのうち一つ又は複数の組み合わせを含んでも良いし、同一種類の装置を複数含んでも良い。
プロジェクタ210は、空間の任意の場所に画像を投影する投影装置である。プロジェクタ210は、例えば固定型の広角プロジェクタであってもよいし、Pan/Tilt駆動型等の投影方向を変更可能な可動部を備えるいわゆるムービングプロジェクタであってもよい。TV220は、テレビジョン放送の電波を受信して、画像及び音声を出力する装置である。タブレット230は、典型的にはスマートフォン240より大きな画面を有する無線通信可能なモバイル機器であり、画像、音声及び振動等を出力可能である。スマートフォン240は、典型的にはタブレット230より小さな画面を有する無線通信可能なモバイル機器であり、画像、音声及び振動等を出力可能である。PC250は、固定型のデスクトップPCであってもよいし、モバイル型のノートPCであってもよく、画像及び音声等を出力可能である。スピーカ260は、DAC(Digital Analog Converter)およびアンプを介して、音声データをアナログ信号に変換し、出力(再生)する。単一指向性スピーカ270は、単一の方向に指向性を形成可能なスピーカである。
出力装置200は、情報処理装置100による制御に基づいて情報を出力する。情報処理装置100は、出力する情報の内容に加えて、出力方法も制御可能である。例えば、情報処理装置100は、プロジェクタ210の投影方向を制御したり、単一指向性スピーカ270の指向性を制御したりすることができる。
なお、出力装置200は、上述した構成要素以外の任意の出力が可能な構成要素を含んでいてもよい。例えば、出力装置200は、HMD(Head Mounted Display)、AR(Augmented Reality)グラス、及び時計型デバイス等のウェアラブルデバイスを含んでいてもよい。
また、出力装置200は、照明装置、空調装置、又は音楽再生装置等を含んでいてもよい。
<2−2.センサ装置300>
センサ装置300は、カメラ310、デプスセンサ320及びマイクロフォン330を含む。
センサ装置300は、カメラ310、デプスセンサ320及びマイクロフォン330を含む。
カメラ310は、RGBカメラ等の、レンズ系、駆動系、及び撮像素子を有し、画像(静止画像又は動画像)を撮像する撮像装置である。デプスセンサ320は、赤外線測距装置、超音波測距装置、LiDAR(Laser Imaging Detection and Ranging)又はステレオカメラ等の深度情報を取得する装置である。マイクロフォン330は、周囲の音を収音し、アンプおよびADC(Analog Digital Converter)を介してデジタル信号に変換した音声データを出力する装置である。マイクロフォン330は、アレイマイクであってもよい。
センサ装置300は、情報処理装置100による制御に基づいて情報をセンシングする。例えば、情報処理装置100は、カメラ310のズーム率及び撮像方向を制御することができる。
なお、センサ装置300は、上述した構成要素以外の任意のセンシングが可能な構成要素を含んでいてもよい。例えば、センサ装置300は、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバー等、ユーザによって情報が入力される装置を含んでいてもよい。また、センサ装置300は、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、照度センサ、力センサ、超音波センサ、気圧センサ、ガスセンサ(Co2)、サーモカメラ等の各種のセンサを含み得る。
<2−3.情報処理装置100>
情報処理装置100は、I/F(Interface)部110、ジェスチャ検出部120、ユーザ検出部130、環境検出部140、機器検出部150、記憶部160、及び制御部170を含む。
情報処理装置100は、I/F(Interface)部110、ジェスチャ検出部120、ユーザ検出部130、環境検出部140、機器検出部150、記憶部160、及び制御部170を含む。
・I/F部110
I/F部110は、情報処理装置100と他の機器とを接続するための接続装置である。I/F部110は、例えばUSB(Universal Serial Bus)コネクタ等により実現され、出力装置200及びセンサ装置300の各構成要素との間で情報の入出力を行う。
I/F部110は、情報処理装置100と他の機器とを接続するための接続装置である。I/F部110は、例えばUSB(Universal Serial Bus)コネクタ等により実現され、出力装置200及びセンサ装置300の各構成要素との間で情報の入出力を行う。
・ジェスチャ検出部120
ジェスチャ検出部120は、センサ装置300によりセンシングされた情報に基づいてユーザのジェスチャ情報を検出する機能を有する。ジェスチャ情報は、例えばデプスカメラ、サーモカメラ、RGBカメラ、又は超音波センサ等により検出され得る。ジェスチャ情報は、例えばユーザの手の動き、腕の動き、姿勢(例えばボーン情報)、視線、タッチ操作等の情報である。より具体的には、ジェスチャ検出部120は、指差しや頭の動き、視線等による方向を指し示す動作や、壁、床、テーブル、又はその他家具等の投影場所に対するタッチ操作を、ジェスチャ情報として検出する。タッチ操作は、壁、床、又は家具等に投影された表示画像に対するユーザによる操作入力としても検出される。例えばテーブル30に表示画像20が表示されている場合、ジェスチャ検出部120は、センサ装置300から入力された撮像画像やデプス情報を解析して表示画面上に位置するユーザの手や指の位置や深度情報(換言すると、三次元情報)を取得し、高さ方向におけるテーブル30へのユーザの手の接触若しくは近接、及びテーブル30からの手の離脱を検出する。本明細書では、ユーザが情報に表示画面に手等の操作体を接触又は近接させることを、まとめて単に「接触」とも称する。
ジェスチャ検出部120は、センサ装置300によりセンシングされた情報に基づいてユーザのジェスチャ情報を検出する機能を有する。ジェスチャ情報は、例えばデプスカメラ、サーモカメラ、RGBカメラ、又は超音波センサ等により検出され得る。ジェスチャ情報は、例えばユーザの手の動き、腕の動き、姿勢(例えばボーン情報)、視線、タッチ操作等の情報である。より具体的には、ジェスチャ検出部120は、指差しや頭の動き、視線等による方向を指し示す動作や、壁、床、テーブル、又はその他家具等の投影場所に対するタッチ操作を、ジェスチャ情報として検出する。タッチ操作は、壁、床、又は家具等に投影された表示画像に対するユーザによる操作入力としても検出される。例えばテーブル30に表示画像20が表示されている場合、ジェスチャ検出部120は、センサ装置300から入力された撮像画像やデプス情報を解析して表示画面上に位置するユーザの手や指の位置や深度情報(換言すると、三次元情報)を取得し、高さ方向におけるテーブル30へのユーザの手の接触若しくは近接、及びテーブル30からの手の離脱を検出する。本明細書では、ユーザが情報に表示画面に手等の操作体を接触又は近接させることを、まとめて単に「接触」とも称する。
ジェスチャ検出部120は、検出したジェスチャ情報を制御部170に出力する。
・ユーザ検出部130
ユーザ検出部130は、センサ装置300によりセンシングされた情報に基づいてユーザに関する情報(ユーザ情報)を検出する機能を有する。
ユーザ検出部130は、センサ装置300によりセンシングされた情報に基づいてユーザに関する情報(ユーザ情報)を検出する機能を有する。
ユーザ情報は、センサ装置300によりセンシングされる空間内におけるユーザの位置及び人数を示す情報を含み得る。ユーザの位置及び人数は、サーモカメラ、RGBカメラ、赤外線センサ又は超音波センサ等により検出され得る。
ユーザ情報は、ユーザの視線を示す情報を含み得る。ユーザの視線を示す情報は、視点の位置及び視線方向を示す情報を含む。またユーザの視線を示す情報は、ユーザの顔や頭の向きを示す情報であってもよいし、さらに眼球の向きを示す情報であってもよい。ユーザの視線を示す情報は、RGBカメラ、赤外線カメラ、又はユーザに装着された接眼カメラ等により得られるユーザの目の画像を解析することで検出され得る。
ユーザ情報は、ユーザの姿勢を示す情報を含み得る。ユーザの姿勢を示す情報は、RGBカメラ又は赤外線カメラ等により得られる画像を解析することで検出され得る。
ユーザ情報は、ユーザの発話音声を示す情報を含み得る。ユーザの発話音声を示す情報は、マイクロフォンにより得られる音声情報を解析することで検出され得る。
ユーザ検出部130は、検出したユーザ情報を制御部170に出力する。
・環境検出部140
環境検出部140は、センサ装置300によりセンシングされた情報に基づいて環境情報を検出する機能を有する。環境情報は、ユーザがいる空間に関する情報である。環境情報は多様な情報を含み得る。
環境検出部140は、センサ装置300によりセンシングされた情報に基づいて環境情報を検出する機能を有する。環境情報は、ユーザがいる空間に関する情報である。環境情報は多様な情報を含み得る。
環境情報は、ユーザがいる空間の形状を示す情報を含み得る。空間の形状を示す情報は、例えば、壁面、天井、床、ドア、家具、及び生活用品等の、空間を形成する物体の形状を示す情報を含む。空間の形状を示す情報は、2次元情報であってもよいし、ポイントクラウド等の3次元情報であってもよい。空間の形状を示す情報は、例えば赤外線測距、超音波測距、又はステレオカメラにより得られる深度情報に基づいて検出され得る。
環境情報は、投影面の状態を示す情報を含み得る。投影面の状態は、例えば投影面の凹凸及び色を意味する。投影面の凹凸は、例えばLiDARにより得られる深度情報に基づいて検出され得る。投影面の色は、例えばRGBカメラにより撮像された画像を解析することで検出され得る。
環境情報は、投影面の明るさを示す情報を含み得る。投影面の明るさは、照度センサ又はRGBカメラにより検出され得る。
環境情報は、空間内の物体の位置(三次元位置)を示す情報を含み得る。例えば、部屋の中のコップ、椅子、テーブル、及び電子機器等の位置は、画像認識により検出され得る。また、例えば、部屋の中のスマートフォンの位置は、スマートフォンと無線LANのアクセスポイントとの通信に係る電波強度により検出され得る。
環境情報は、環境音を含み得る。環境音は、マイクロフォンにより検出され得る。
環境検出部140は、検出した環境情報を制御部170に出力する。
機器検出部150は、空間内の機器に関する情報(機器情報)を検出する機能を有する。機器情報は、機器の存在及び機器の三次元位置を含み得る。
情報処理装置100は、I/F部110を介して各機器(出力装置200)と接続する。例えばI/F部110は、無線/有線LAN(Local Area Network)、DLNA(登録商標)(Digital Living Network Alliance)、Wi−Fi(登録商標)、Bluetooth(登録商標)、USB接続、又はその他専用線等により空間内の各機器と接続する。機器検出部150は、I/F部110を介して各機器が接続されることでその機器の存在を把握する。
機器の三次元位置は、センサ装置300によりセンシングされた情報に基づいて特定され得る。例えば機器検出部150は、機器に設けられた再帰性反射材を、センサ装置300のIR(infrared)カメラで撮影した赤外線画像の解析により抽出し、空間内における機器の位置を特定してもよい。また、機器検出部150は、機器に設けられた特定パターン(メーカー名、又は二次元バーコード等)を、センサ装置300のカメラ(RGBカメラ)で撮影した撮影画像の解析により抽出し、空間内における機器の位置を特定してもよい。また、機器検出部150は、機器毎に発信されるユニークな超音波を、センサ装置300のマイクロフォンで取得し、空間内における機器の位置を特定してもよい。また、機器検出部150は、ユーザによる場所指定の動作(指差し、タッチ、視線、又はマーカーを置く等)と登録操作(UI選択、又は音声発話等)をセンサ装置300によりセンシングし、空間内における機器の位置を特定してもよい。
機器検出部150は、検出した機器情報を制御部170に出力する。
以上、空間内の人、環境、及び機器に関する情報を検出する機能について説明した。本明細書において、ジェスチャ検出部120、ユーザ検出部130、環境検出部140、及び機器検出部150による各情報の検出は、空間認識に相当し、得られた情報(空間の環境センシング処理の結果)は、空間情報とも称す。
・制御部170
制御部170は、各種プログラムに従って情報処理装置100内の動作全般を制御する。制御部170は、表示制御部171、及び音響制御部173を含む。表示制御部171は、出力装置200による表示を制御する。音響制御部173は、出力装置200による音声出力を制御する。
制御部170は、各種プログラムに従って情報処理装置100内の動作全般を制御する。制御部170は、表示制御部171、及び音響制御部173を含む。表示制御部171は、出力装置200による表示を制御する。音響制御部173は、出力装置200による音声出力を制御する。
また、制御部170は、I/F部110を介して接続する各種機器の動作制御を行い得る。情報処理装置100により制御を行うことが可能な機器を「制御対象機器」とも称す。制御対象機器には、上述した出力装置200の例の他、洗濯機や冷蔵庫等のIoT家電、玩具、家具、自家用車等の様々なIoTデバイス、及び床暖房、ふろ給湯器、浴室乾燥機、ドア/窓の施錠、窓シャッター、車庫等のホーム設備も含まれる。制御部170は、所定の制御を指示するコマンド(制御信号)を、I/F部110を介して制御対象機器へ送信する。
また、制御部170は、空間内から取得した情報に基づいて、操作コマンドを取得する。
例えば制御部170は、ユーザの音声発話、操作入力(ジェスチャや、空間内に表示したコントロール画面に対する操作)、又はユーザの状況等を解析し、制御対象機器の制御に関する操作コマンドを取得する。
具体的には、例えば制御部170は、マイクロフォン330により集音した音声情報(発話音声)から、音声認識エンジンを用いて文字列を取得し、さらに構文解析を行ってユーザの発話内容を認識し、操作トリガを検出する。操作トリガは、所定のキーワード(例えばシステムの名称、システムへの呼び掛け等)又は動作の指示(例えば「表示して」、「見せて」、「○○モードに移行」、「電気をつけて」等)であってもよい。トリガが検出された場合、制御部170は、操作コマンドの生成を行う。操作コマンドとは、空間内の機器に何等かの動作を実行させるための制御信号である。制御部170は、認識したユーザの発話内容から、制御対象機器と制御内容を取得し、操作コマンドを生成する。例えば「テレビをつけて」とユーザが発話した場合、制御部170は、「TV_ONコマンド」として有効に認識する。
また、制御部170は、ユーザが寒そうにしてる等の状況を解析し、暖房を点ける等の有効コマンドを認識してもよい。この場合、制御部170は、エージェントを表示させて「暖房を点けますか?」、「暖房を点けますね」等とユーザにコマンド内容を提示してから操作コマンドの発行を行うようにしてもよい。
次いで、制御部170は、生成した操作コマンドを制御対象機器に発行(送信)する前に、ユーザの視線誘導処理を行う。すなわち、本実施形態による制御部170は、ユーザの視線を制御対象機器に誘導し、誘導タイミングに応じて、制御対象機器の動作を制御する(制御対象機器における操作コマンドの実行タイミングを制御する)ことで、制御対象機器への作用をユーザに直感的に気付かせることを可能とする。視線誘導処理は、例えば画像又は音声により行う。例えば制御部170は、視線誘導が終了するタイミングで制御対象機器に操作コマンドを送信する制御を行う。視線誘導が終了するタイミングとは、例えば誘導画像が制御対象機器の位置に到達した場合である。「制御対象機器の位置に到達した場合」は、例えば、誘導画像が制御対象機器の端から所定の距離以内、または制御対象機器の重心位置から所定の距離以内に入った場合に到達したと判定してもよい。より具体的には、例えば制御部170は、プロジェクタ210により誘導画像をユーザの視線方向に表示し、誘導画像を制御対象機器の位置まで移動させることで、ユーザの視線を制御対象機器に誘導する。そして、誘導画像を制御対象機器の位置まで移動させた後、制御部170は、操作コマンドを制御対象機器に発行して制御対象機器を動作させる(例えばTVの電源をONにする等)。なお、「視線誘導が終了するタイミング」は上記の例に限定されず、例えば、誘導画像が制御対象機器の位置に到達し、かつ、ユーザの視線方向が制御対象機器に向いた場合としてもよい。若しくは、「視線誘導が終了するタイミング」は、誘導画像が制御対象機器の位置に到達し、かつ、制御対象機器から操作コマンドの実行準備完了通知を受信した場合(予め制御対象機器に操作コマンドの実行準備指示コマンドを情報処理装置100が送信していることが前提となる)としてもよい。
さらに、制御部170は、誘導画像を制御対象機器の位置まで移動させた後、操作コマンドを制御対象機器に発行する前に、制御対象機器に対して誘導画像の憑依表現を出力する制御を行った上で、操作コマンドを制御対象機器に発行するようにしてもよい。憑依表現を出力することで、システムのコントロールが制御対象機器に作用したことを直感的にユーザに示すことが可能となる。憑依表現を出力する制御とは、例えば制御対象機器からの音声出力、画像表示、振動、又は動き、若しくは、プロジェクタ210による制御対象機器への所定画像の投影が想定される。例えば誘導画像を制御対象機器の位置まで移動させた後に制御対象機器が少し動くと、ユーザは、システムのコントロールが制御対象機器に作用していることを直感的に認識することができる。また、制御部170は、このような憑依表現の出力制御が終了したタイミングで、制御対象機器に操作コマンドを発行するようにしてもよい。
また、制御部170は、発話者の特定を行うことも可能である。本システムでは、ユーザ検出部130および環境検出部140により、空間内の全ユーザの位置や姿勢が定期的に認識されているため、制御部170は、マイクロフォンで一定以上の音量の音声信号を取得した場合に、マイクアレイを用いて発話者の方向を特定し、予め認識している全ユーザの位置を参照して発話者を特定する。これにより、例えば制御部170は、上述したように発話者の視線方向に誘導画像を表示することが可能となる。
・記憶部160
記憶部160は、制御部170の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、記憶部160は、ジェスチャ検出部120により検出されたジェスチャ情報、ユーザ検出部130により検出されたユーザ情報、環境検出部140により検出された環境情報、及び機器検出部150により検出された機器情報等を記憶する。
記憶部160は、制御部170の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、記憶部160は、ジェスチャ検出部120により検出されたジェスチャ情報、ユーザ検出部130により検出されたユーザ情報、環境検出部140により検出された環境情報、及び機器検出部150により検出された機器情報等を記憶する。
以上、本実施形態による情報処理装置100の構成について具体的に説明した。なお情報処理装置100の構成は、図2に示す例に限定されない。例えば、情報処理装置100が出力装置200及びセンサ装置300と同じ空間内にあってもよいし、他の空間にあってもよい。また、情報処理装置100がネットワーク上にあってもよい。また、情報処理装置100の少なくとも一部の構成が外部装置にあってもよい。情報処理装置100の各構成を適宜分散することで、リアルタイム性の向上や処理負担の軽減、さらにはセキュリティを担保することが可能となる。
<<3.動作処理>>
続いて、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
続いて、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
<3−1.エージェントの呼び出し>
まず、ユーザは、音声又はジェスチャによりエージェントの呼び出しを行う。情報処理装置100は、センサ装置300により空間から取得した情報を解析し、エージェントの名前やシステムへの呼び掛けが行われた場合や、所定のジェスチャを認識した場合に、プロジェクタ210によりエージェント画像を投影する。
まず、ユーザは、音声又はジェスチャによりエージェントの呼び出しを行う。情報処理装置100は、センサ装置300により空間から取得した情報を解析し、エージェントの名前やシステムへの呼び掛けが行われた場合や、所定のジェスチャを認識した場合に、プロジェクタ210によりエージェント画像を投影する。
図3は、本実施形態に係る音声によるエージェントの呼び出しについて説明する図である。図3左に示すように、例えばユーザが「マイケル」というエージェントの名前を発話した場合、情報処理装置100は、発話とユーザの方向(発話者の位置)をアレイマイクにより特定する。次いで、情報処理装置100は、特定した方向にいるユーザをデプスカメラで捉え、顔向き(もしくは視線)の方向Vを認識する。次に、情報処理装置100は、図3右に示すように、その顔向きの方向Vの先に、プロジェクタ210を用いてエージェント画像10を表示する。
図4は、本実施形態に係るコントロールUIによるエージェントの呼び出しについて説明する図である。図4左に示すように、ユーザがテーブルや壁などをタップした場合、情報処理装置100は、図4中央に示すように、タップした場所にメニューUI21をプロジェクタ210により投影表示する。そして、ユーザがメニューUI21の中から「Agent」という項目を選択した場合、情報処理装置100はエージェント画像10を投影表示する。この場合はタップした場所にエージェント画像10が表示される。
<3−2.デバイス制御の流れ>
このようにエージェントを呼び出したのち、ユーザがエージェントを介してデバイス(機器)の制御を行う場合の動作処理について、図5を参照して説明する。図5は、本実施形態に係るシステム1の情報処理装置100において実行されるデバイス制御の流れの一例を示すフローチャートである。
このようにエージェントを呼び出したのち、ユーザがエージェントを介してデバイス(機器)の制御を行う場合の動作処理について、図5を参照して説明する。図5は、本実施形態に係るシステム1の情報処理装置100において実行されるデバイス制御の流れの一例を示すフローチャートである。
図5に示すように、まず、情報処理装置100は、マイクロフォン330から取得した音声情報に基づいてユーザの発話認識を行う(ステップS103)。例えばユーザがエージェントに対して、「テレビつけて」と発話した場合、情報処理装置100は、発話内容を解析して、TV_ONコマンドとして有効に認識する。
次に、情報処理装置100は、ユーザの発話音声から、有効な操作コマンドを認識する(ステップS106)。有効なコマンドであった場合、情報処理装置100は、そのコマンドの送信先デバイス(制御対象機器)を判定する。例えば「テレビつけて」であれば、TV220であるし、「音楽流して」であれば音楽プレイヤー(またはスピーカー260)である。発話認識に失敗した場合(ステップS106/No)、情報処理装置100は何もせずに終了してもよいし、「もう一度言ってください」等とユーザに再度発話を促してもよい。
次いで、情報処理装置100は、判定した送信先デバイスが憑依表現可能なデバイスであるか否かを判断する(ステップS109)。憑依表現とは、システムが対象のデバイスに作用したことをユーザに直感的に把握させるためデバイスのフィードバックである。エージェントがデバイスに乗り移ったように見せるため、「憑依表現」と称している。デバイスのフィードバックは、例えば画像表示、音声出力、振動、または所定の動き等により行うことが想定される。情報処理装置100は、例えばTV220はディスプレイを有しているため、憑依表現可能であると判定できる。なお、憑依表現が可能である否かは、情報処理装置100からデバイスに問い合わせてもよいし、予めデバイスから取得した機器情報に基づいて判断してもよい。
次に、デバイスが憑依表現可能である場合(ステップS109/Yes)、情報処理装置100は、デバイスによる憑依表現を行うよう制御する(ステップS112)。詳細については図6を参照して後述する。
一方、デバイスが憑依表現に対応していない場合(ステップS109/No)、情報処理装置100は、システムによる憑依表現を行うよう制御する(ステップS115)。システムによる憑依表現とは、制御対象のデバイス以外のデバイスを用いた制御であって、例えばプロジェクタ210により制御対象のデバイスに所定の画像投影等を行い、制御対象のデバイスが動いているように見せたりする。詳細については図6を参照して後述する。
そして、憑依表現の出力完了後、情報処理装置100はデバイスに操作コマンドを発行(送信)する(ステップS118)。例えば、認識した有効コマンドがTV_ONコマンドの場合、情報処理装置100は、TV220を前回設定していた入力に切り替えるよう指示する操作コマンドを発行する。具体的には、例えば、前回電源オフ時に地上デジタル放送3chにしていたのであれば、DIGITAL_3CHコマンドを発行する。この場合、情報処理装置100は、HDMI1(HDMI(登録商標):High-Definition Multimedia Interface)に信号を送出する。憑依表現の出力完了は、例えばデバイスで憑依表現出力を行った場合、デバイスからの完了通知受信により判断することが可能である。また、システムで憑依表現出力を行った場合は、例えばシステム側の完了通知受信により判断することが可能である。
<3−3.デバイスによる憑依表現処理>
図6は、本実施形態に係るデバイスによる憑依表現処理の流れの一例を示すフローチャートである。
図6は、本実施形態に係るデバイスによる憑依表現処理の流れの一例を示すフローチャートである。
図6に示すように、まず、情報処理装置100は、デバイスに憑依準備コマンドを出力する(ステップS123)。憑依準備コマンドとは、憑依表現出力の準備であって、デバイスをフィードバック提示可能な状態にするものである。例えばTV220の場合であれば、電源をONにし、HDMI1に切り換える等である。TV220の入力を切り替える手法としては、DLNA(登録商標)を用いてもよいし、専用のWeb APIを用いてもよい。
次に、デバイスによる憑依準備が完了すると(ステップS126/Yes)、情報処理装置100は、視線誘導を開始する(ステップS129)。デバイスによる憑依準備の完了は、デバイスから準備完了通知を受信することで確認してもよいし、所定時間経過後(タイムアウト)により準備完了とみなしてもよい。
視線誘導は、ユーザの視線をデバイスへ誘導する処理であって、例えばユーザの視線方向に誘導画像を表示して行う。本実施形態では、既に表示しているエージェント画像10(図3、図4参照)を誘導画像として用いる。例えば、情報処理装置100は、図7左上に示すように、エージェント画像10を現在の表示位置(ユーザの視線方向に表示されている)からTV220に移動させることで、視線誘導を実現する。
この際、情報処理装置100は、視線誘導の軌跡42を算出する。ここで、図8に、視線誘導の軌跡算出について説明する図を示す。情報処理装置100は、図8に示すように、例えばエージェント画像10の移動元地点M1、ユーザの視点位置P、及びエージェント画像10の移動先地点M2の3点を含む平面40を規定し、その平面40と実空間上の壁面との交線を算出して、軌跡42としてもよい。なお、実空間上の壁面はデプスカメラ等により認識されている。また、軌跡42上に絵画やその他オブジェクトがあり、映像投影に不向きな場合、情報処理装置100は、障害物を避ける軌跡を算出してもよい。
情報処理装置100は、算出した軌跡42に従って、視線誘導アニメーションを出力する。具体的には、図7左に示すように、エージェント画像10が現在位置から軌跡42を辿ってTV220に移動するよう投影制御する。この際、情報処理装置100は、エージェント画像10を視線誘導しやすい形に変化させてもよい。例えば、図9に示すように、エージェント画像10を単なる点の形状に変形させてから移動させ、TV220の位置に到達した場合は元のエージェント画像10に戻すようにしてもよい。
また、情報処理装置100は、視線誘導開始直後は、エージェント画像10の移動スピードをゆっくり目に(ユーザが目で追うのに十分な速度に)設定してもよい。これにより、ユーザがエージェント画像10を見失わないようにすることができる。また、情報処理装置100は、ユーザの視線方向をデプスカメラ等で認識することで、ユーザがエージェント画像10を目で追えているか逐次判定し、見失っているようであれば、エージェント画像10をその場に待機させたり、明滅させたりするなどして、ユーザに再度発見させる制御を行ってもよい。
次いで、視線誘導が終了すると(ステップS132/Yes)、情報処理装置100は、デバイスに憑依表現出力コマンドを発行する(ステップS135)。視線誘導の終了は、誘導画像がデバイスに到達した時点で終了としてもよいし、誘導画像がデバイスに到達し、かつ、ユーザがデバイスの方向を見た場合に終了としてもよい。若しくは、誘導画像がデバイスに到達し、かつ、所定時間が経過した場合に終了としてもよい。
ここで、憑依表現の一例について説明する。例えば移動先がTV220の場合、情報処理装置100は、エージェント画像10がTV220の位置に到達した際に、エージェント画像10の出力先をプロジェクタ210から、TV220へと切り替える。これにより、図7の右上に示すように、TV220にエージェント画像10が表示され、エージェントがTV220に憑依したかのようにユーザに認識させることが可能となる。この際、プロジェクタ210からの出力(すなわち視線誘導)とTV220からの出力(すなわち憑依表現の出力)の切り替えは一括で行うのではなく、図10に示すように、エージェント画像10の一部がTV220の画面端に入り込むよう、エージェント画像10を分割して一時的にプロジェクタ210とTV220の両方から同時に出力するようにしてもよい。図10に示す例では、エージェント画像10は、プロジェクタ210からの投影画像11と、TV220による表示画像221により形成されている。これにより、より効果的に、エージェントがTV220に憑依したかのように見せることができる。なお、視線誘導中にエージェント画像10を図9に示すような点の表現にしていた場合は、移動先到達後に通常の表現に戻してもよい。このように、視線誘導と憑依表現が同時に行われてもよい。
そして、情報処理装置100は、憑依表現の出力完了を確認する(ステップS138)。憑依表現の出力完了は、デバイスからの憑依表現出力完了通知を受信した場合に判断してもよいし、憑依表現出力コマンドを発行してから所定時間経過した場合(タイムアウト)であってもよい。若しくは、ユーザが憑依表現を見た場合に憑依表現完了と判断してもよい。そして、憑依表現出力が完了すると、情報処理装置100は、図5を参照して説明したように、デバイスに操作コマンドを発行し、デバイスにおいて操作コマンドを実行させる。具体的には、例えば図7の右下に示すように、TV220において前回設定していたチャンネルに入力が切り替えられる。
以上、本実施形態による憑依表現処理の一例について説明した。なお図6に示す動作処理は一例であって、本開示は図6に示す例に限定されない。例えば、ステップS123〜S126に示す憑依表現の準備処理と、ステップS129〜S132に示す視線誘導処理が並列して行われてもよい。視線誘導終了時点で憑依表現の準備が完了していればよい。なお、情報処理装置100は、憑依表現の準備が完了に視線誘導の終了タイミングを合わせるよう制御してもよい。例えば、エージェント画像10に遠回りをさせたり無駄な動きをさせたり移動速度を遅くさせたりして対象のデバイスに到着する時間(視線誘導の終了するタイミング)を調整してもよい。
また、例えばステップS132とステップS135は、図6に示す順番で行われてなくともよい。すなわち、図10に示すように、視線誘導と憑依表現が同時に行われてもよく、情報処理装置100は、憑依表現出力コマンド発行後に視線誘導を終了する処理を行ってもよい。
<3−4.システムによる憑依表現処理>
図11は、本実施形態に係るシステムによる憑依表現処理の流れの一例を示すフローチャートである。デバイスが憑依表現に対応していない場合は、システム側で憑依表現を出力する。
図11は、本実施形態に係るシステムによる憑依表現処理の流れの一例を示すフローチャートである。デバイスが憑依表現に対応していない場合は、システム側で憑依表現を出力する。
図11に示すように、まず、情報処理装置100は、視線誘導を開始する(ステップS153)。視線誘導の詳細については、上述したステップS129〜S132と同様である。
次に、視線誘導が終了すると(ステップS156/Yes)、情報処理装置100は、システム側で憑依表現を出力する処理を行う(ステップS159)。システム側での憑依表現の出力とは、すなわち制御対象のデバイス(憑依表現の出力に対応していないデバイス)以外のデバイスを用いて、制御対象のデバイスによるフィードバックのようにユーザに見せる制御である。例えば、情報処理装置100は、プロジェクタ210などで制御対象のデバイスに所定の画像を投影して憑依表現を出力したり、デバイス周辺を光らせたり、プロジェクションマッピング等により、あたかもデバイスが動いているかのようにユーザに錯覚させる映像を投影してもよい。
そして、情報処理装置100は、憑依表現の出力完了を確認する(ステップS162)。憑依表現の出力完了は、憑依表現の出力を行っている他のデバイス、例えばプロジェクタ210からの憑依表現出力完了通知を受信した場合に判断してもよいし、憑依表現出力をプロジェクタ210により開始してから所定時間経過した場合(タイムアウト)であってもよい。若しくは、ユーザが憑依表現を見た場合に、憑依表現完了と判断してもよい。
以上、本実施形態による憑依表現処理の一例について説明した。なお図11に示す動作処理は一例であって、本開示は図11に示す例に限定されない。例えばステップS156とステップS159は、図11に示す順番で行われてなくともよい。すなわち、視線誘導と憑依表現が同時に行われてもよく、情報処理装置100は、憑依表現出力制御後に視線誘導を終了する処理を行ってもよい。
また、情報処理装置100は、ステップS153〜ステップS162に示す処理と並行して、制御対象のデバイスに操作コマンド実行の準備を指示する準備コマンドを出力してもよい。例えば制御対処のデバイスが起動に時間がかかるものである場合は操作コマンドの発行前に起動させておくことで、起動の間に視線誘導と憑依表現を行い、憑依表現の出力完了後に待ち時間なく操作コマンドを実行させることが可能となる。
<3−5.補足>
以上、本実施形態によるデバイス制御の処理の流れについて具体的に説明した。なお、図5、図6、および図11に示す動作処理は一例であって、本開示は図5、図6、および図11に示す例に限定されない。例えば、エージェントが憑依したように見せる憑依表現の出力は必須ではなく、情報処理装置100は、視線誘導後に、操作コマンドをデバイスに発行するようにしてもよい。この際、情報処理装置100は、誘導画像がデバイスの位置に到達した場合、誘導画像がデバイスの位置に到達して所定時間経過した場合、誘導画像がデバイスの位置に到達し、かつ、ユーザがデバイスを見ている場合、又はデバイスから操作コマンド実行準備完了通知を受信した場合に(デバイスには予め操作コマンド実行準備コマンドを送信している)、操作コマンドをデバイスに発行してデバイスでの操作コマンドを実行させてもよい。
以上、本実施形態によるデバイス制御の処理の流れについて具体的に説明した。なお、図5、図6、および図11に示す動作処理は一例であって、本開示は図5、図6、および図11に示す例に限定されない。例えば、エージェントが憑依したように見せる憑依表現の出力は必須ではなく、情報処理装置100は、視線誘導後に、操作コマンドをデバイスに発行するようにしてもよい。この際、情報処理装置100は、誘導画像がデバイスの位置に到達した場合、誘導画像がデバイスの位置に到達して所定時間経過した場合、誘導画像がデバイスの位置に到達し、かつ、ユーザがデバイスを見ている場合、又はデバイスから操作コマンド実行準備完了通知を受信した場合に(デバイスには予め操作コマンド実行準備コマンドを送信している)、操作コマンドをデバイスに発行してデバイスでの操作コマンドを実行させてもよい。
また、情報処理装置100は、視線誘導が終了するタイミングを算出し、予め操作コマンドをデバイスに発行してもよい。例えば情報処理装置100は、視線誘導にかかる時間を算出し、N秒後に操作コマンドを実行すると指示する指示コマンドを送出してもよい。また、デバイス側で視線誘導の終了タイミングを認識し、操作コマンドの実行タイミングを制御してもよい。例えば、デバイスは、情報処理装置100から視線誘導完了の通知を受信した場合に、操作コマンドを実行するようにしてもよいし、情報処理装置100から視線誘導完了の通知を受信し、かつ所定時間経過後又はユーザがデバイスを見ている場合に、操作コマンドを実行するようにしてもよい。
また、情報処理装置100は、憑依表現が終了するタイミングをデバイス側で判断したのち、操作コマンドを実行するよう指示する指示コマンドを予め発行してもよい。例えばデバイスは、指示コマンドに従い、デバイスにおいて憑依表現の出力が完了した場合、憑依表現を出力してから所定時間経過した場合、又は憑依表現を出力し、かつ、ユーザの視線方向がデバイスに向いた場合(ユーザが憑依表現を視認した場合)に、憑依表現を完了して操作コマンドを実行する。
<<4.応用例>>
本開示によるシステムは、ホームシステムへの適用に限定されず、例えばエンターテインメントへの応用も可能である。
本開示によるシステムは、ホームシステムへの適用に限定されず、例えばエンターテインメントへの応用も可能である。
(対戦型ボルタリング)
例えば、対戦型ボルダリングにおいて、一方のユーザによる発話に応じて何らかの制御を行う際に、制御先への視線誘導を行うエフェクトを出力するようにしてもよい。図12は、対戦型ボルダリングへの応用例について説明する図である。
例えば、対戦型ボルダリングにおいて、一方のユーザによる発話に応じて何らかの制御を行う際に、制御先への視線誘導を行うエフェクトを出力するようにしてもよい。図12は、対戦型ボルダリングへの応用例について説明する図である。
図12に示す例では、ユーザAおよびユーザBが壁面に登りながら対戦する対戦型ボルダリングにおいて、相手側のホールを順番に言い合い、言われた場所が使えなくなるゲームを想定する。例えば図12上段に示すように、ユーザAが「Bの5」と発話した場合、システム1は、図12下段に示すように、エフェクト画像15がユーザAの付近から相手側の指定のホールまで飛び、相手側の指定のホールを攻撃して使えないようにするエフェクトを出力してもよい。
また、対戦型ボルダリングにおいて、左右両陣に分かれ、各自の両手両足を好きな場所に固定し、その後、順番にエリアを言い合い、先に相手の両手両足を言い当てた方が勝ちとするゲームでも、同様にエフェクトを出力する制御を行い得る。
また、このようなエフェクトは、対戦型ボルダリングに限定されず、チェスや将棋等にも応用可能である。
(変形ロボット)
図13は、本システムの変形ロボットへの応用例について説明する図である。図13に示すロボット25は、音声で変形するロボットである。例えばユーザが「ミキサー車」とロボット25を選択した場合、システム1は、エージェント画像10をロボット25の位置まで移動させてユーザの視線誘導処理を行い、さらにロボット25の周辺にエフェクト画像27を投影し、エージェントがロボット25に憑依したように見せる表現を出力する。一方で、システム1は、視線誘導および憑依表現の間にロボット25に対して変形を開始するための準備動作を行わせるよう準備コマンドを送出する。これにより、憑依表現出力完了後に、変形を開始させることができる。
図13は、本システムの変形ロボットへの応用例について説明する図である。図13に示すロボット25は、音声で変形するロボットである。例えばユーザが「ミキサー車」とロボット25を選択した場合、システム1は、エージェント画像10をロボット25の位置まで移動させてユーザの視線誘導処理を行い、さらにロボット25の周辺にエフェクト画像27を投影し、エージェントがロボット25に憑依したように見せる表現を出力する。一方で、システム1は、視線誘導および憑依表現の間にロボット25に対して変形を開始するための準備動作を行わせるよう準備コマンドを送出する。これにより、憑依表現出力完了後に、変形を開始させることができる。
(憑依表現の派生例)
例えばユーザが「8時に目覚ましセットして」と発話した場合、システム1は、エージェントを目覚まし時計に憑依させるが、目覚まし時計の憑依表現出力としては、例えば時計の針がぐるりと一周する、アラーム音が一瞬鳴る等であってもよい。
例えばユーザが「8時に目覚ましセットして」と発話した場合、システム1は、エージェントを目覚まし時計に憑依させるが、目覚まし時計の憑依表現出力としては、例えば時計の針がぐるりと一周する、アラーム音が一瞬鳴る等であってもよい。
また、例えばユーザが「ポットでお湯沸かして」と発話した場合、システム1は、エージェントを電気ポットに憑依させるが、電気ポットの憑依表現出力としては、例えば電気ポットから湯気のようなものが噴出しているように見える映像を投影してもよいし、電気ポットの蓋を一瞬開け閉めさせてもよい。
また、例えばユーザが「おばあちゃんに電話して」と発話した場合、システム1は、エージェントを電話に憑依させるが、電話の憑依表現出力としては、例えば電話からダイヤル音を鳴らしてもよい。
また、例えばユーザが「お風呂を沸かして」と発話した場合、システム1は、エージェントを浴室に憑依させるが、浴室の憑依表現出力としては、例えばエージェント画像を浴室の方に移動させて視線誘導を行い、浴室の近くにあるスピーカ等から「お風呂を沸かします」等の音声を出力するようにしてもよい。
また、例えばユーザが「扇風機をつけて」と発話した場合、システム1は、エージェントを扇風機に憑依させるが、扇風機の憑依表現出力としては、例えば扇風機の首を軽く左右に振らせるようにしてもよい。
また、例えばユーザが「音楽を流して」と発話した場合、システム1は、エージェントをスピーカに憑依させるが、スピーカの憑依表現出力としては、例えばスピーカから一瞬音(効果音)を出してもよいし、照明付きスピーカである場合は、照明を一瞬明滅させてもよい。
(有効コマンド認識のトリガ)
システム1は、ユーザの音声発話、ジェスチャー、又はユーザの状況に限らず、空間内の環境に応じて有効コマンドを認識するようにしてもよい。例えば室内の気温が所定の最適温度よりも高い場合、「気温が高いのでエアコンをつけますね」等とシステム側からユーザに提示を行って有効コマンドの実行を開始してもよい。
システム1は、ユーザの音声発話、ジェスチャー、又はユーザの状況に限らず、空間内の環境に応じて有効コマンドを認識するようにしてもよい。例えば室内の気温が所定の最適温度よりも高い場合、「気温が高いのでエアコンをつけますね」等とシステム側からユーザに提示を行って有効コマンドの実行を開始してもよい。
(デバイスの状態に応じて憑依表現の変形)
例えば、既にTV220の電源がついている場合、憑依表現出力のためにTV220の映像を切り替えるとユーザの視聴を妨げてしまう恐れがある。この場合、システム1は、TV220の周りをプロジェクションで光らせるなどして、憑依を表現してもよい。
例えば、既にTV220の電源がついている場合、憑依表現出力のためにTV220の映像を切り替えるとユーザの視聴を妨げてしまう恐れがある。この場合、システム1は、TV220の周りをプロジェクションで光らせるなどして、憑依を表現してもよい。
また、例えば、既にTV220の電源がついており、ユーザがエージェントに「5chにして」とTV220のチャンネルを変えさせる場合は、憑依表現の出力やTV220への準備コマンドの発行を行わなくともよい。この場合、ユーザとしては即座に反応して欲しいコマンドであるため、システム1は、即時に操作コマンドを発行してもよい。また、既にユーザがTV220を見ている場合、システム1は、エージェント画像10はTV220の周辺に表示し、即座に操作コマンドを実行させる。
(視線誘導の応用例)
視線誘導の表現として、エージェントそのものが移動するのではなく、エージェントは当初の位置に留まったまま、コマンドを可視化し、デバイスに向かって移動するような表現を行ってもよい。例えば、システム1は、エージェント画像10からデバイスの位置に電波を飛ばすようなエフェクトを投影するようにしてもよい。
視線誘導の表現として、エージェントそのものが移動するのではなく、エージェントは当初の位置に留まったまま、コマンドを可視化し、デバイスに向かって移動するような表現を行ってもよい。例えば、システム1は、エージェント画像10からデバイスの位置に電波を飛ばすようなエフェクトを投影するようにしてもよい。
また、ユーザが「テレビと電気をつけて」と発話した場合、まずTV220に視線誘導を行って電源をつけた上で、その後、TV220から電気(照明装置又は照明装置のスイッチ)に向かって視線誘導し、電気をつけるようにしてもよい。または、エージェント画像10からTV220と電気(照明装置)に向かって順次又は同時にコマンドが発行されていることを可視化するエフェクトを投影してもよい。
<<5.ハードウェア構成例>>
最後に、図14を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図14は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図14に示す情報処理装置900は、例えば、図2に示した情報処理装置100を実現し得る。本実施形態に係る情報処理装置100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
最後に、図14を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図14は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図14に示す情報処理装置900は、例えば、図2に示した情報処理装置100を実現し得る。本実施形態に係る情報処理装置100による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図14に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図2に示すジェスチャ検出部120、ユーザ検出部130、環境検出部140、機器検出部150、及び制御部170を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図2に示す記憶部160を形成し得る。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。接続ポート911は、例えば、図2に示すI/F部110を形成し得る。そして、接続ポート911は、図2に示す出力装置200及びセンサ装置300に接続される。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図2に示すI/F部110を形成し得る。そして、通信装置913は、図2に示す出力装置200及びセンサ装置300と通信し得る。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<6.まとめ>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置100に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置100の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記視線の誘導が終了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記視線の誘導が終了するタイミングで前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、前記(1)に記載の情報処理装置。
(4)
前記制御部は、
前記制御対象機器の空間内における3次元位置情報を取得し、
投影装置から誘導画像を投影し、前記制御対象機器の位置まで移動させることで、前記ユーザの視線誘導を行う、前記(2)または(3)に記載の情報処理装置。
(5)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達した場合である、前記(4)に記載の情報処理装置。
(6)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合である、前記(4)に記載の情報処理装置。
(7)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記制御対象機器から前記操作コマンドの実行準備完了通知を受信した場合である、前記(4)に記載の情報処理装置。
(8)
前記制御部は、
前記誘導画像を前記制御対象機器の位置まで移動させた後、前記制御対象機器に対して憑依表現を出力する制御を行い、
前記憑依表現の出力制御が完了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(4)〜(6)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記制御対象機器に前記憑依表現の出力コマンドを送信する、前記(8)に記載の情報処理装置。
(10)
前記制御部は、
前記制御対象機器における前記憑依表現の出力完了通知を受信した場合に、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(9)に記載の情報処理装置。
(11)
前記憑依表現の前記出力コマンドは、前記制御対象機器による所定の音声出力、画像表示、振動、または動きを指示するコマンドである、前記(9)または(10)に記載の情報処理装置。
(12)
前記憑依表現の前記出力コマンドは、前記制御対象機器の表示部に前記誘導画像を表示することを指示するコマンドである、前記(11)に記載の情報処理装置。
(13)
前記制御部は、
前記制御対象機器に、前記憑依表現の出力完了後、前記憑依表現を出力してから所定時間経過後、又は前記憑依表現を出力し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合、前記憑依表現を完了して前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、前記(9)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記憑依表現の出力制御として、前記制御対象機器に対して前記誘導画像を投影する制御を行う、前記(8)に記載の情報処理装置。
(15)
前記制御部は、
前記制御対象機器に前記誘導画像を投影した後、所定時間経過後又は前記ユーザの視線方向が前記制御対象機器に向いた場合、前記誘導画像の投影を終了し、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(14)に記載の情報処理装置。
(16)
前記制御部は、
前記ユーザの発話音声から取得した指示に基づいて前記操作コマンドを生成する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記制御部は、
前記ユーザの状況に基づいて前記操作コマンドを生成する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(18)
プロセッサが、
制御対象機器の場所にユーザの視線を誘導することと、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御することと、
を含む、情報処理方法。
(19)
コンピュータを、
制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部として機能させるためのプログラムが記録された、記録媒体。
(1)
制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記視線の誘導が終了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記視線の誘導が終了するタイミングで前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、前記(1)に記載の情報処理装置。
(4)
前記制御部は、
前記制御対象機器の空間内における3次元位置情報を取得し、
投影装置から誘導画像を投影し、前記制御対象機器の位置まで移動させることで、前記ユーザの視線誘導を行う、前記(2)または(3)に記載の情報処理装置。
(5)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達した場合である、前記(4)に記載の情報処理装置。
(6)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合である、前記(4)に記載の情報処理装置。
(7)
前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記制御対象機器から前記操作コマンドの実行準備完了通知を受信した場合である、前記(4)に記載の情報処理装置。
(8)
前記制御部は、
前記誘導画像を前記制御対象機器の位置まで移動させた後、前記制御対象機器に対して憑依表現を出力する制御を行い、
前記憑依表現の出力制御が完了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(4)〜(6)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記制御対象機器に前記憑依表現の出力コマンドを送信する、前記(8)に記載の情報処理装置。
(10)
前記制御部は、
前記制御対象機器における前記憑依表現の出力完了通知を受信した場合に、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(9)に記載の情報処理装置。
(11)
前記憑依表現の前記出力コマンドは、前記制御対象機器による所定の音声出力、画像表示、振動、または動きを指示するコマンドである、前記(9)または(10)に記載の情報処理装置。
(12)
前記憑依表現の前記出力コマンドは、前記制御対象機器の表示部に前記誘導画像を表示することを指示するコマンドである、前記(11)に記載の情報処理装置。
(13)
前記制御部は、
前記制御対象機器に、前記憑依表現の出力完了後、前記憑依表現を出力してから所定時間経過後、又は前記憑依表現を出力し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合、前記憑依表現を完了して前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、前記(9)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記憑依表現の出力制御として、前記制御対象機器に対して前記誘導画像を投影する制御を行う、前記(8)に記載の情報処理装置。
(15)
前記制御部は、
前記制御対象機器に前記誘導画像を投影した後、所定時間経過後又は前記ユーザの視線方向が前記制御対象機器に向いた場合、前記誘導画像の投影を終了し、前記制御対象機器に前記操作コマンドを送信する制御を行う、前記(14)に記載の情報処理装置。
(16)
前記制御部は、
前記ユーザの発話音声から取得した指示に基づいて前記操作コマンドを生成する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(17)
前記制御部は、
前記ユーザの状況に基づいて前記操作コマンドを生成する、前記(1)〜(15)のいずれか1項に記載の情報処理装置。
(18)
プロセッサが、
制御対象機器の場所にユーザの視線を誘導することと、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御することと、
を含む、情報処理方法。
(19)
コンピュータを、
制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部として機能させるためのプログラムが記録された、記録媒体。
10 エージェント画像
40 平面
42 軌跡
100 情報処理装置
110 I/F部
120 ジェスチャ検出部
130 ユーザ検出部
140 環境検出部
150 機器検出部
160 記憶部
170 制御部
171 表示制御部
173 音響制御部
200 出力装置
210 プロジェクタ
230 タブレット
240 スマートフォン
260 スピーカ
270 単一指向性スピーカ
300 センサ装置
310 カメラ
320 デプスセンサ
330 マイクロフォン
40 平面
42 軌跡
100 情報処理装置
110 I/F部
120 ジェスチャ検出部
130 ユーザ検出部
140 環境検出部
150 機器検出部
160 記憶部
170 制御部
171 表示制御部
173 音響制御部
200 出力装置
210 プロジェクタ
230 タブレット
240 スマートフォン
260 スピーカ
270 単一指向性スピーカ
300 センサ装置
310 カメラ
320 デプスセンサ
330 マイクロフォン
Claims (19)
- 制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部を備える、情報処理装置。 - 前記制御部は、
前記視線の誘導が終了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、請求項1に記載の情報処理装置。 - 前記制御部は、
前記視線の誘導が終了するタイミングで前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、請求項1に記載の情報処理装置。 - 前記制御部は、
前記制御対象機器の空間内における3次元位置情報を取得し、
投影装置から誘導画像を投影し、前記制御対象機器の位置まで移動させることで、前記ユーザの視線誘導を行う、請求項2に記載の情報処理装置。 - 前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達した場合である、請求項4に記載の情報処理装置。
- 前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合である、請求項4に記載の情報処理装置。
- 前記視線の誘導が終了するタイミングは、前記誘導画像が前記制御対象機器の位置に到達し、かつ、前記制御対象機器から前記操作コマンドの実行準備完了通知を受信した場合である、請求項4に記載の情報処理装置。
- 前記制御部は、
前記誘導画像を前記制御対象機器の位置まで移動させた後、前記制御対象機器に対して憑依表現を出力する制御を行い、
前記憑依表現の出力制御が完了したタイミングで、前記制御対象機器に前記操作コマンドを送信する制御を行う、請求項4に記載の情報処理装置。 - 前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記制御対象機器に前記憑依表現の出力コマンドを送信する、請求項8に記載の情報処理装置。 - 前記制御部は、
前記制御対象機器における前記憑依表現の出力完了通知を受信した場合に、前記制御対象機器に前記操作コマンドを送信する制御を行う、請求項9に記載の情報処理装置。 - 前記憑依表現の前記出力コマンドは、前記制御対象機器による所定の音声出力、画像表示、振動、または動きを指示するコマンドである、請求項9に記載の情報処理装置。
- 前記憑依表現の前記出力コマンドは、前記制御対象機器の表示部に前記誘導画像を表示することを指示するコマンドである、請求項11に記載の情報処理装置。
- 前記制御部は、
前記制御対象機器に、前記憑依表現の出力完了後、前記憑依表現を出力してから所定時間経過後、又は前記憑依表現を出力し、かつ、前記ユーザの視線方向が前記制御対象機器に向いた場合、前記憑依表現を完了して前記操作コマンドを実行するよう指示する指示コマンドを、前記制御対象機器に送信する制御を行う、請求項9に記載の情報処理装置。 - 前記制御部は、
前記誘導画像が前記制御対象機器の位置に到達した後、前記憑依表現の出力制御として、前記制御対象機器に対して前記誘導画像を投影する制御を行う、請求項8に記載の情報処理装置。 - 前記制御部は、
前記制御対象機器に前記誘導画像を投影した後、所定時間経過後又は前記ユーザの視線方向が前記制御対象機器に向いた場合、前記誘導画像の投影を終了し、前記制御対象機器に前記操作コマンドを送信する制御を行う、請求項14に記載の情報処理装置。 - 前記制御部は、
前記ユーザの発話音声から取得した指示に基づいて前記操作コマンドを生成する、請求項1に記載の情報処理装置。 - 前記制御部は、
前記ユーザの状況に基づいて前記操作コマンドを生成する、請求項1に記載の情報処理装置。 - プロセッサが、
制御対象機器の場所にユーザの視線を誘導することと、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御することと、
を含む、情報処理方法。 - コンピュータを、
制御対象機器の場所にユーザの視線を誘導する処理と、
前記視線の誘導のタイミングに応じて、前記制御対象機器における操作コマンドの実行タイミングを制御する処理と、を行う制御部として機能させるためのプログラムが記録された、記録媒体。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017245033A JP2019113928A (ja) | 2017-12-21 | 2017-12-21 | 情報処理装置、情報処理方法、および記録媒体 |
US16/772,623 US11449451B2 (en) | 2017-12-21 | 2018-09-26 | Information processing device, information processing method, and recording medium |
KR1020207016205A KR20200101912A (ko) | 2017-12-21 | 2018-09-26 | 정보 처리 장치, 정보 처리 방법, 및 기록 매체 |
PCT/JP2018/035729 WO2019123754A1 (ja) | 2017-12-21 | 2018-09-26 | 情報処理装置、情報処理方法、および記録媒体 |
EP18891673.8A EP3731076A4 (en) | 2017-12-21 | 2018-09-26 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
CN201880080597.1A CN111492339A (zh) | 2017-12-21 | 2018-09-26 | 信息处理设备、信息处理方法以及记录介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017245033A JP2019113928A (ja) | 2017-12-21 | 2017-12-21 | 情報処理装置、情報処理方法、および記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019113928A true JP2019113928A (ja) | 2019-07-11 |
Family
ID=66994593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017245033A Pending JP2019113928A (ja) | 2017-12-21 | 2017-12-21 | 情報処理装置、情報処理方法、および記録媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11449451B2 (ja) |
EP (1) | EP3731076A4 (ja) |
JP (1) | JP2019113928A (ja) |
KR (1) | KR20200101912A (ja) |
CN (1) | CN111492339A (ja) |
WO (1) | WO2019123754A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11244372B2 (en) * | 2019-02-27 | 2022-02-08 | International Business Machines Corporation | Remote determination of a suitable item |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10253510A1 (de) * | 2002-11-16 | 2004-05-27 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur Verbesserung der Sicht in einem Kraftfahrzeug |
US8645985B2 (en) * | 2005-09-15 | 2014-02-04 | Sony Computer Entertainment Inc. | System and method for detecting user attention |
JP4829696B2 (ja) | 2006-06-19 | 2011-12-07 | 日本電信電話株式会社 | 会話支援システム |
US8180735B2 (en) * | 2006-12-29 | 2012-05-15 | Prodea Systems, Inc. | Managed file backup and restore at remote storage locations through multi-services gateway at user premises |
US9003326B2 (en) * | 2008-09-23 | 2015-04-07 | Apple Inc. | Indicating input focus by showing focus transitions |
US8446288B2 (en) * | 2008-10-15 | 2013-05-21 | Panasonic Corporation | Light projection device |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
US10394320B2 (en) * | 2012-01-04 | 2019-08-27 | Tobii Ab | System for gaze interaction |
US8963805B2 (en) * | 2012-01-27 | 2015-02-24 | Microsoft Corporation | Executable virtual objects associated with real objects |
JP5702411B2 (ja) | 2013-01-21 | 2015-04-15 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 遠隔制御システム、遠隔制御方法及び遠隔制御プログラム |
KR20150039355A (ko) * | 2013-10-02 | 2015-04-10 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP6070512B2 (ja) | 2013-11-05 | 2017-02-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US9533772B2 (en) * | 2014-07-09 | 2017-01-03 | Honeywell International Inc. | Visual search assistance for an occupant of a vehicle |
JP2016169080A (ja) | 2015-03-12 | 2016-09-23 | パナソニックIpマネジメント株式会社 | 照明機能を有する検索システム |
-
2017
- 2017-12-21 JP JP2017245033A patent/JP2019113928A/ja active Pending
-
2018
- 2018-09-26 KR KR1020207016205A patent/KR20200101912A/ko not_active Application Discontinuation
- 2018-09-26 EP EP18891673.8A patent/EP3731076A4/en not_active Withdrawn
- 2018-09-26 CN CN201880080597.1A patent/CN111492339A/zh not_active Withdrawn
- 2018-09-26 US US16/772,623 patent/US11449451B2/en active Active
- 2018-09-26 WO PCT/JP2018/035729 patent/WO2019123754A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
CN111492339A (zh) | 2020-08-04 |
WO2019123754A1 (ja) | 2019-06-27 |
EP3731076A1 (en) | 2020-10-28 |
US11449451B2 (en) | 2022-09-20 |
EP3731076A4 (en) | 2021-02-24 |
KR20200101912A (ko) | 2020-08-28 |
US20210081343A1 (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018163637A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
CN109088803B (zh) | 一种ar遥控装置、智能家居遥控系统及方法 | |
US9983687B1 (en) | Gesture-controlled augmented reality experience using a mobile communications device | |
KR102126595B1 (ko) | 상황적 사용자 인터페이스 | |
US11373650B2 (en) | Information processing device and information processing method | |
KR20160135242A (ko) | 시선 검출을 통한 원격 디바이스 제어 | |
JP7258766B2 (ja) | 割り込みに対するゲーム内反応 | |
JP6569726B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6627775B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN113485626A (zh) | 一种智能显示设备、移动终端和显示控制方法 | |
WO2019123754A1 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
CN109949721A (zh) | 一种全息影像显示装置以及全息影像的显示控制方法 | |
KR102136461B1 (ko) | 스마트 디바이스 및 그 제어 방법 | |
US20170246534A1 (en) | System and Method for Enhanced Immersion Gaming Room | |
US11402917B2 (en) | Gesture-based user interface for AR and VR with gaze trigger | |
US11221684B2 (en) | Information processing device, information processing method, and recording medium | |
CN111033606A (zh) | 信息处理装置、信息处理方法和程序 | |
KR102136462B1 (ko) | 스마트 디바이스 및 그 제어 방법 | |
US20240198226A1 (en) | Method and ar glasses for ar glasses interactive display | |
WO2016159163A1 (ja) | 映像表示システム及び映像表示方法 | |
TW202017627A (zh) | 互動式遊戲系統 | |
WO2019239902A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN114779924A (zh) | 头戴显示设备及控制家居设备的方法、存储介质 |