JP6601402B2 - 制御装置、制御方法およびプログラム - Google Patents
制御装置、制御方法およびプログラム Download PDFInfo
- Publication number
- JP6601402B2 JP6601402B2 JP2016548589A JP2016548589A JP6601402B2 JP 6601402 B2 JP6601402 B2 JP 6601402B2 JP 2016548589 A JP2016548589 A JP 2016548589A JP 2016548589 A JP2016548589 A JP 2016548589A JP 6601402 B2 JP6601402 B2 JP 6601402B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- control device
- view
- image field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
- G02B27/022—Viewing apparatus
- G02B27/027—Viewing apparatus comprising magnifying means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.本開示の一実施形態に係る制御装置の概要
2.第1の実施形態(操作体の位置姿勢に基づいて画像視野を制御する例)
2−1.制御装置の構成
2−2.制御装置の処理
2−3.変形例
3.第2の実施形態(動作装置の位置姿勢に基づいて画像視野を制御する例)
3−1.制御装置の構成
3−2.制御装置の処理
3−3.変形例
4.第3の実施形態(操作体の画像視野を利用した表示の例)
4−1.制御装置の構成
4−2.制御装置の処理
4−3.変形例
5.本開示の一実施形態に係る制御装置のハードウェア構成
6.むすび
まず、図1を参照して、本開示の一実施形態に係る制御装置の概要について説明する。図1は、本開示の一実施形態に係る制御装置の概要を説明するための図である。
以上、本開示の一実施形態に係る制御装置100の概要について説明した。次に、本開示の第1の実施形態に係る制御装置100−1について説明する。
まず、図2を参照して、本開示の第1の実施形態に係る制御装置100−1の構成について説明する。図2は、本開示の第1の実施形態に係る制御装置100−1を用いて構成される制御システムの概略的な機能構成を示すブロック図である。
操作体200−1は、センサ202、制御部204および通信部206を備える。
また、制御装置100−1は、図2に示したように、通信部102、センサ104、決定部106、表示制御部108および表示部110を備える。
次に、図5を参照して、本実施形態における制御装置100−1の処理について説明する。図5は、本実施形態における制御装置100−1の処理を概念的に示すフローチャートである。
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1〜第7の変形例について説明する。
本実施形態の第1の変形例として、制御装置100−1は、ユーザが映像酔いに陥った場合、ユーザの画像視野に基づいて生成される画像に切り替えてもよい。具体的には、制御装置100−1は、ユーザが映像酔い状態であるかを判定する判定部をさらに備え、表示制御部108は、当該判定部によってユーザが映像酔い状態あると判定される場合、ユーザの画像視野を選択する。より具体的には、判定部は、ユーザの頭部の変位が閾値以上である場合、ユーザが映像酔い状態であると判定する。
本実施形態の第2の変形例として、複数のユーザが仮想空間を共有する場合、ユーザ毎に画像視野が異なってもよい。具体的には、表示制御部108は、ユーザが操作体200−1の画像視野の操作者であるかに基づいて、操作体200−1の画像視野またはユーザの画像視野のいずれかを選択する。さらに、図3を参照して本変形例の処理について詳細に説明する。
本実施形態の第3の変形例として、制御装置100−1は、ユーザの頭部以外の身体の部位(以下、ユーザ身体の部位とも称する。)を操作体200−1として認識してもよい。具体的には、決定部106は、ユーザ身体の部位の位置姿勢情報に基づいて、当該ユーザ身体の部位を視線元とする画像視野(以下、ユーザ身体の部位の画像視野とも称する。)を決定し、表示制御部108は、当該ユーザ身体の部位の画像視野に基づいて生成される画像を表示部110に表示させる。なお、ユーザ身体の部位の位置姿勢情報は、当該ユーザ身体の部位に装着されるモーションセンサから取得されてもよく、制御装置100−1の外部装置において当該ユーザ身体の部位を被写体とする画像が解析され、当該外部装置から通信を介して取得されてもよい。さらに、図6A〜図6Dを参照して本変形例について詳細に説明する。図6A〜図6Dは、操作体200−1であると認識されるユーザ身体の部位およびその形態の例を示す図である。
本実施形態の第4の変形例として、制御装置100−1は、操作体200−1に対応する表示(以下、対応オブジェクトとも称する。)を操作体200−1の画像視野に基づいて生成される画像において表示してもよい。具体的には、表示制御部108は、表示部110に、操作体200−1の少なくとも一部を示す対応オブジェクトを操作体200−1の画像視野に基づいて生成される画像において表示させる。さらに、図7を参照して本変形例の処理について詳細に説明する。図7は、本実施形態の第4の変形例に係る制御装置100−1の表示する対応オブジェクトの例を示す図である。
本実施形態の第5の変形例として、制御装置100−1は、仮想空間上のオブジェクト(以下、仮想オブジェクトとも称する。)の位置姿勢に基づいて特定される画像視野(以下、仮想オブジェクトの画像視野とも称する。)に基づいて生成される画像を表示してもよい。具体的には、表示制御部108は、仮想オブジェクトの仮想空間上の移動方向を特定し、特定される移動方向を視線先とする画像視野に基づいて生成される画像を表示部110に表示させる。さらに、図8を参照して本変形例の処理について詳細に説明する。図8は、本実施形態の第5の変形例に係る制御装置100−1の処理における画像視野に基づいて生成される画像を説明するための図である。
本実施形態の第6の変形例として、制御装置100−1は、ユーザの頭部の位置姿勢情報に基づいて、第5の変形例における仮想オブジェクトの画像視野を制御してもよい。具体的には、表示制御部108は、ユーザの頭部の位置または姿勢の変化に応じて仮想オブジェクトの画像視野を変更する。さらに、図8を参照して本変形例の処理について詳細に説明する。
本実施形態の第7の変形例として、制御装置100−1は、仮想オブジェクトの仮想空間上の移動の速さを操作体200−1の姿勢に応じて変化させてもよい。具体的には、操作体200−1の一部の位置姿勢が変化される場合、表示制御部108は、操作体200−1の一部の位置姿勢の変化に応じて仮想オブジェクトの仮想空間上の移動の速さを変更する。さらに、図9を参照して本変形例の処理について詳細に説明する。図9は、本実施形態の第7の変形例に係る制御装置100−1に接続される操作体200−1の一部の姿勢変化の例を示す図である。
以上、本開示の第1の実施形態に係る制御装置100−1について説明した。次に、本開示の第2の実施形態に係る制御装置100−2について説明する。制御装置100−2は、操作体200−2の操作に応じて制御される動作装置300の画像に係る画像視野を制御する。
まず、図10を参照して、本開示の第2の実施形態に係る制御装置100−2および制御システムの構成について説明する。図10は、本開示の第2の実施形態に係る制御装置100−2を用いて構成される制御システムの概略的な機能構成を示すブロック図である。なお、第1の実施形態の機能と実質的に同一である機能については説明を省略する。
制御装置100−2は、通信部102、センサ104、決定部106、表示制御部108および表示部110に加えて動作制御部112を備える。
動作装置300は、図10に示したように、通信部302、制御部304、センサ306および撮像部308を備える。
次に、図11を参照して、本実施形態における制御装置100−2の処理について説明する。図11は、本実施形態における制御装置100−2の処理を概念的に示すフローチャートである。なお、第1の実施形態と実質的に同一である処理については説明を省略する。
以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
以上、本開示の第2の実施形態に係る制御装置100−2について説明した。次に、本開示の第3の実施形態に係る制御装置100−3について説明する。制御装置100−3は、操作体200−3から得られる画像に、操作体200−3の画像視野に基づいて生成される画像を重畳する。
まず、図13を参照して、本開示の第3の実施形態に係る制御装置100−3および制御システムの構成について説明する。図13は、本開示の第3の実施形態に係る制御装置100−3を用いて構成される制御システムの概略的な機能構成を示すブロック図である。なお、第1および第2の実施形態の機能と実質的に同一である機能については説明を省略する。
操作体200−3は、図13に示したように、センサ202、制御部204および通信部206に加えて、撮像部208を備える。
制御装置100−3の機能構成は、第1の実施形態の機能構成と実質的に同一であるが、通信部102および表示制御部108の機能が一部異なる。
次に、図14を参照して、本実施形態における制御装置100−3の処理について説明する。図14は、本実施形態における制御装置100−3の処理を概念的に示すフローチャートである。なお、第1および第2の実施形態と実質的に同一である処理については説明を省略する。
以上、本開示の第3の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
以上、本開示の実施形態を説明した。上述した制御装置100の処理は、ソフトウェアと、以下に説明する制御装置100のハードウェアとの協働により実現される。
以上、本開示の第1の実施形態によれば、ユーザの操作する操作体等の位置姿勢に応じた画像が表示されることにより、ユーザが頭部を動かすことなく、表示装置の表示対象となる範囲をユーザの意図通りに制御することが可能となる。また、これにより、ユーザの頭部の可動範囲を超えた動きにおけるダイナミックな視点変化をユーザに提供することが可能となる。また、本開示の第2の実施形態によれば、例えばロボット等の操作において、操作によって変化されるロボット等の画像視野に基づいて生成される画像とユーザの頭部の動きとが一致しないことによるユーザの映像酔いを抑制することが可能となる。また、本開示の第3の実施形態によれば、操作体200−3の位置姿勢に応じて決定される画像視野に基づいて生成される仮想オブジェクトが、操作体200−3の撮像により得られる画像に重畳されることにより、ユーザに違和感を与えることなく表示の情報量または躍動感等を向上させることが可能となる。
(1)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得部と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御部と、を備える制御装置。
(2)前記画像視野は、仮想空間の少なくとも一部を含む、前記(1)に記載の制御装置。
(3)前記取得部は、ユーザの頭部の位置姿勢情報を取得し、前記制御部は、前記ユーザの態様に基づいて、前記ユーザ操作に係る物体の位置姿勢情報により特定される第1の画像視野または前記ユーザの頭部の位置姿勢情報により特定される第2の画像視野のいずれかを前記画像として表示される範囲として選択する、前記(2)に記載の制御装置。
(4)前記制御部は、所定のユーザ操作が行われる場合、前記第2の画像視野を選択する、前記(3)に記載の制御装置。
(5)前記制御部は、前記ユーザ操作に係る物体および前記ユーザの頭部の位置または姿勢が互いに異なる方向に変化される場合、前記第2の画像視野を選択する、前記(4)に記載の制御装置。
(6)前記ユーザが映像酔い状態であるかを判定する判定部をさらに備え、前記制御部は、前記判定部によって前記ユーザが映像酔い状態あると判定される場合、前記第2の画像視野を選択する、前記(3)〜(5)のいずれか1項に記載の制御装置。
(7)前記判定部は、前記ユーザの頭部の変位が閾値以上である場合、前記ユーザが映像酔い状態であると判定する、前記(6)に記載の制御装置。
(8)前記制御部は、前記ユーザが前記第1の画像視野の操作者であるかに基づいて、前記第1の画像視野または前記第2の画像視野のいずれかを選択する、前記(3)に記載の制御装置。
(9)前記制御部は、前記ユーザ操作に係る物体に対応する対応オブジェクトが前記第1の画像視野に基づいて生成される画像に表示されるように制御を行う、前記(3)〜(8)のいずれか1項に記載の制御装置。
(10)前記対応オブジェクトは、前記ユーザ操作に係る物体の少なくとも一部を示す、前記(9)に記載の制御装置。
(11)前記対応オブジェクトは、前記ユーザ操作に係る物体の形態または種類に応じて異なる、前記(9)または(10)に記載の制御装置。
(12)前記制御部は、前記ユーザ操作の操作量に応じて、前記第1の画像視野の広さを制御する、前記(3)〜(11)のいずれかの1項に記載の制御装置。
(13)前記ユーザ操作に係る物体は、仮想空間上の仮想オブジェクトを含み、前記第1の画像視野は、前記仮想オブジェクトの位置姿勢に基づいて特定される画像視野を含む、前記(3)〜(12)のいずれか1項に記載の制御装置。
(14)前記ユーザ操作に係る物体は、操作体を含み、前記制御部は、前記操作体の一部のみの位置または姿勢が変化される場合、前記操作体の一部の位置または姿勢の変化量に応じて前記仮想オブジェクトの仮想空間上の移動の速さを変更する、前記(13)に記載の制御装置。
(15)前記制御部は、前記ユーザの頭部の位置姿勢情報に基づいて、前記第1の画像視野を制御する、前記(13)に記載の制御装置。
(16)前記制御部は、前記第1の画像視野または前記第2の画像視野において、前記ユーザと異なる他のユーザを示すオブジェクトが表示されるように制御を行う、前記(9)〜(15)のいずれか1項に記載の制御装置。
(17)前記画像視野は、現実空間の一部を含む、前記(1)に記載の制御装置。
(18)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を受信することと、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御することと、を含む制御方法。
(19)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を受信する受信機能と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御機能と、をコンピュータに実現させるためのプログラム。
(20)ユーザの頭部に装着される表示装置と、前記ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得部と、前記位置姿勢情報に基づいて、前記表示装置に画像として表示される範囲である画像視野を制御する制御部と、を有する制御装置と、を備える制御システム。
102 通信部
104 センサ
106 決定部
108 表示制御部
110 表示部
112 動作制御部
200 操作体
202 センサ
204 制御部
206 通信部
208 撮像部
300 動作装置
400 サーバ
Claims (19)
- ユーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得する取得部と、
前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択する制御部と、
を備える制御装置。 - 前記画像視野は、仮想空間の少なくとも一部を含む、請求項1に記載の制御装置。
- 前記制御部は、所定のユーザ操作が行われる場合、前記第2の画像視野を選択する、請求項2に記載の制御装置。
- 前記制御部は、前記ユーザ操作に係る物体および前記ユーザの頭部の位置または姿勢が互いに異なる方向に変化される場合、前記第2の画像視野を選択する、請求項3に記載の制御装置。
- 前記ユーザが映像酔い状態であるかを判定する判定部をさらに備え、
前記制御部は、前記判定部によって前記ユーザが映像酔い状態あると判定される場合、前記第2の画像視野を選択する、請求項3または4に記載の制御装置。 - 前記判定部は、前記ユーザの頭部の変位が閾値以上である場合、前記ユーザが映像酔い状態であると判定する、請求項5に記載の制御装置。
- 前記制御部は、前記ユーザが前記第1の画像視野の操作者であるかに基づいて、前記第1の画像視野または前記第2の画像視野のいずれかを選択する、請求項2に記載の制御装置。
- 前記制御部は、前記ユーザ操作に係る物体に対応する対応オブジェクトが前記第1の画像視野に基づいて生成される画像に表示されるように制御を行う、請求項3から7のいずれか1項に記載の制御装置。
- 前記対応オブジェクトは、前記ユーザ操作に係る物体の少なくとも一部を示す、請求項8に記載の制御装置。
- 前記対応オブジェクトは、前記ユーザ操作に係る物体の形態または種類に応じて異なる、請求項8または9に記載の制御装置。
- 前記制御部は、前記ユーザ操作の操作量に応じて、前記第1の画像視野の広さを制御する、請求項3から10のいずれか1項に記載の制御装置。
- 前記ユーザ操作に係る物体は、仮想空間上の仮想オブジェクトを含み、
前記第1の画像視野は、前記仮想オブジェクトの位置姿勢に基づいて特定される画像視野を含む、請求項3から11のいずれか1項に記載の制御装置。 - 前記ユーザ操作に係る物体は、操作体を含み、
前記制御部は、前記操作体の一部のみの位置または姿勢が変化される場合、前記操作体の一部の位置または姿勢の変化量に応じて前記仮想オブジェクトの仮想空間上の移動の速さを変更する、請求項12に記載の制御装置。 - 前記制御部は、前記第2の位置姿勢情報に基づいて、前記第1の画像視野を制御する、請求項12に記載の制御装置。
- 前記制御部は、前記第1の画像視野または前記第2の画像視野において、前記ユーザと異なる他のユーザを示すオブジェクトが表示されるように制御を行う、請求項8から14のいずれか1項に記載の制御装置。
- 前記画像視野は、現実空間の一部を含む、請求項1に記載の制御装置。
- 前記画像視野は、撮像装置の撮像における被写体の範囲を含む、請求項16に記載の制御装置。
- ユーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得することと、
前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択することと、
を含む制御方法。 - ユーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得する取得機能と、
前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択する制御機能と、
をコンピュータに実現させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014192006 | 2014-09-19 | ||
JP2014192006 | 2014-09-19 | ||
PCT/JP2015/067152 WO2016042862A1 (ja) | 2014-09-19 | 2015-06-15 | 制御装置、制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016042862A1 JPWO2016042862A1 (ja) | 2017-07-06 |
JP6601402B2 true JP6601402B2 (ja) | 2019-11-06 |
Family
ID=55532907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016548589A Active JP6601402B2 (ja) | 2014-09-19 | 2015-06-15 | 制御装置、制御方法およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10579109B2 (ja) |
EP (1) | EP3196734B1 (ja) |
JP (1) | JP6601402B2 (ja) |
KR (1) | KR20170062439A (ja) |
CN (1) | CN106687888A (ja) |
WO (1) | WO2016042862A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180018211A (ko) * | 2016-08-12 | 2018-02-21 | 엘지전자 주식회사 | 자가 학습 로봇 |
JP6984645B2 (ja) * | 2017-02-23 | 2021-12-22 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、および画像システム |
JP6684746B2 (ja) * | 2017-05-12 | 2020-04-22 | 株式会社コロプラ | 情報処理方法、コンピュータ及びプログラム |
DE102017208936A1 (de) * | 2017-05-29 | 2018-11-29 | Audi Ag | Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System |
CN108854072A (zh) * | 2018-06-22 | 2018-11-23 | 北京心智互动科技有限公司 | 一种声音提示方法及装置 |
CN110868581A (zh) | 2018-08-28 | 2020-03-06 | 华为技术有限公司 | 一种图像的显示方法、装置及系统 |
JP2022051972A (ja) * | 2019-02-06 | 2022-04-04 | ソニーグループ株式会社 | 情報処理装置および方法、並びにプログラム |
JPWO2020235191A1 (ja) * | 2019-05-21 | 2020-11-26 | ||
TWI813907B (zh) * | 2020-09-30 | 2023-09-01 | 優派國際股份有限公司 | 觸控顯示裝置及其操作方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06270076A (ja) * | 1993-03-25 | 1994-09-27 | Nippon Steel Corp | 遠隔操作用カメラ制御装置 |
JPH06289773A (ja) * | 1993-04-05 | 1994-10-18 | Toshiba Corp | 発電所運転訓練装置 |
JP3447397B2 (ja) * | 1994-10-24 | 2003-09-16 | 株式会社ナムコ | 3次元シミュレータ装置及び画像合成方法 |
US6603491B2 (en) * | 2000-05-26 | 2003-08-05 | Jerome H. Lemelson | System and methods for controlling automatic scrolling of information on a display or screen |
US6497649B2 (en) * | 2001-01-21 | 2002-12-24 | University Of Washington | Alleviating motion, simulator, and virtual environmental sickness by presenting visual scene components matched to inner ear vestibular sensations |
JP4208601B2 (ja) * | 2003-02-24 | 2009-01-14 | キヤノン株式会社 | 表示制御方法、及び表示制御装置 |
WO2006020846A2 (en) * | 2004-08-11 | 2006-02-23 | THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory | Simulated locomotion method and apparatus |
JP4642538B2 (ja) * | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
CN100590660C (zh) * | 2005-07-15 | 2010-02-17 | 佳能株式会社 | 图像处理设备和设计方法 |
JP4914123B2 (ja) * | 2005-07-15 | 2012-04-11 | キヤノン株式会社 | 画像処理装置及び方法 |
JP2007272067A (ja) * | 2006-03-31 | 2007-10-18 | Brother Ind Ltd | 画像表示装置 |
JP4757115B2 (ja) * | 2006-06-28 | 2011-08-24 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP6026088B2 (ja) * | 2011-08-09 | 2016-11-16 | 株式会社トプコン | 遠隔操作システム |
JP5990998B2 (ja) * | 2012-04-23 | 2016-09-14 | セイコーエプソン株式会社 | 虚像表示装置 |
JP2013258614A (ja) | 2012-06-13 | 2013-12-26 | Sony Computer Entertainment Inc | 画像生成装置および画像生成方法 |
JP6066676B2 (ja) * | 2012-11-06 | 2017-01-25 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイおよび映像提示システム |
US20140168261A1 (en) * | 2012-12-13 | 2014-06-19 | Jeffrey N. Margolis | Direct interaction system mixed reality environments |
US9645395B2 (en) * | 2013-03-15 | 2017-05-09 | Mark Bolas | Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments |
CN103927005B (zh) * | 2014-04-02 | 2017-02-01 | 北京智谷睿拓技术服务有限公司 | 显示控制方法及显示控制装置 |
-
2015
- 2015-06-15 WO PCT/JP2015/067152 patent/WO2016042862A1/ja active Application Filing
- 2015-06-15 JP JP2016548589A patent/JP6601402B2/ja active Active
- 2015-06-15 KR KR1020177003570A patent/KR20170062439A/ko not_active Application Discontinuation
- 2015-06-15 EP EP15842184.2A patent/EP3196734B1/en active Active
- 2015-06-15 US US15/510,557 patent/US10579109B2/en not_active Expired - Fee Related
- 2015-06-15 CN CN201580048384.7A patent/CN106687888A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20170062439A (ko) | 2017-06-07 |
US20170285694A1 (en) | 2017-10-05 |
CN106687888A (zh) | 2017-05-17 |
WO2016042862A1 (ja) | 2016-03-24 |
EP3196734A4 (en) | 2018-04-18 |
EP3196734B1 (en) | 2019-08-14 |
US10579109B2 (en) | 2020-03-03 |
JPWO2016042862A1 (ja) | 2017-07-06 |
EP3196734A1 (en) | 2017-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6601402B2 (ja) | 制御装置、制御方法およびプログラム | |
JP6093473B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
US11380021B2 (en) | Image processing apparatus, content processing system, and image processing method | |
EP3117290B1 (en) | Interactive information display | |
EP3262505B1 (en) | Interactive system control apparatus and method | |
TW202105129A (zh) | 具有用於閘控使用者介面元件的個人助理元件之人工實境系統 | |
EP3797931B1 (en) | Remote control system, information processing method, and program | |
CN111831104B (zh) | 头戴式显示系统、相关方法及相关计算机可读取记录媒体 | |
WO2019142560A1 (ja) | 視線を誘導する情報処理装置 | |
JP6220937B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
US20220291744A1 (en) | Display processing device, display processing method, and recording medium | |
EP3221771A1 (en) | Interactive vehicle control system | |
JP2022184958A (ja) | アニメーション制作システム | |
JPWO2017064926A1 (ja) | 情報処理装置及び情報処理方法 | |
JP2019197478A (ja) | プログラム、及び情報処理装置 | |
US8307295B2 (en) | Method for controlling a computer generated or physical character based on visual focus | |
JP6122194B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US12017351B2 (en) | Remote control system, information processing method, and non-transitory computer-readable recording medium | |
GB2535730A (en) | Interactive system control apparatus and method | |
WO2024075565A1 (ja) | 表示制御装置および表示制御方法 | |
JP2018029969A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP7113065B2 (ja) | コンピュータプログラム、方法、及び、サーバ | |
JP2018026099A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP2022184456A (ja) | 画像処理装置、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180502 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190923 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6601402 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |