JP6601402B2 - 制御装置、制御方法およびプログラム - Google Patents

制御装置、制御方法およびプログラム Download PDF

Info

Publication number
JP6601402B2
JP6601402B2 JP2016548589A JP2016548589A JP6601402B2 JP 6601402 B2 JP6601402 B2 JP 6601402B2 JP 2016548589 A JP2016548589 A JP 2016548589A JP 2016548589 A JP2016548589 A JP 2016548589A JP 6601402 B2 JP6601402 B2 JP 6601402B2
Authority
JP
Japan
Prior art keywords
user
image
control device
view
image field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016548589A
Other languages
English (en)
Other versions
JPWO2016042862A1 (ja
Inventor
稀淳 金
俊一 笠原
昌彦 稲見
孝太 南澤
裕太 杉浦
友佑 水品
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016042862A1 publication Critical patent/JPWO2016042862A1/ja
Application granted granted Critical
Publication of JP6601402B2 publication Critical patent/JP6601402B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/027Viewing apparatus comprising magnifying means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、制御装置、制御方法およびプログラムに関する。
近年、表示装置の軽量化および縮小化に伴い、ヘッドマウントディスプレイ(HMD:Head Mount Display)等のような頭部に装着される表示装置が開発されるようになっている。さらに、HMDの表示する映像への没入感を向上させるために、ユーザの頭部運動に応じた画像をHMDに表示させる技術が開発されている。
例えば、特許文献1では、HMDに備えられる姿勢センサ等から把握される頭部の回転に応じて、HMDに表示されるパノラマ画像の視線方向を変更する表示制御技術が開示されている。
特開2013−258614号公報
しかし、特許文献1で開示される技術では、ユーザが頭部を動かすことによってHMD等の表示装置の表示が変化されるため、操作を行うユーザに負担がかかる。
そこで、本開示では、ユーザが頭部を動かすことなく、ユーザが頭部運動をする場合のように表示を制御することが可能な、新規かつ改良された制御装置、制御方法およびプログラムを提案する。
本開示によれば、ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得部と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御部と、を備える制御装置が提供される。
また、本開示によれば、ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得することと、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御することと、を含む制御方法が提供される。
また、本開示によれば、ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得機能と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御機能と、をコンピュータに実現させるためのプログラムが提供される。
以上説明したように本開示によれば、ユーザが頭部を動かすことなく、ユーザが頭部運動をする場合のように表示を制御することが可能な制御装置、制御方法およびプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る制御装置の概要を説明するための図である。 本開示の第1の実施形態に係る制御装置を用いて構成される制御システムの概略的な機能構成を示すブロック図である。 本実施形態に係る制御装置によって決定される画像視野に基づいて生成される仮想空間を示す画像の表示例を示す図である。 本実施形態に係る制御装置のユーザの頭部の動きおよび操作体の動きの例を示す図である。 本実施形態における制御装置の処理を概念的に示すフローチャートである。 操作体であると認識されるユーザ身体の部位およびその形態の例を示す図である。 操作体であると認識されるユーザ身体の部位およびその形態の例を示す図である。 操作体であると認識されるユーザ身体の部位およびその形態の例を示す図である。 操作体であると認識されるユーザ身体の部位およびその形態の例を示す図である。 本実施形態の第4の変形例に係る制御装置の表示する対応オブジェクトの例を示す図である。 本実施形態の第5の変形例に係る制御装置の処理における画像視野に基づいて生成される画像を説明するための図である。 本実施形態の第7の変形例に係る制御装置に接続される操作体の一部の姿勢変化の例を示す図である。 本開示の第2の実施形態に係る制御装置を用いて構成される制御システムの概略的な機能構成を示すブロック図である。 本実施形態における制御装置の処理を概念的に示すフローチャートである。 本実施形態の変形例に係る制御装置の表示する、動作装置の画像視野に基づいて生成される画像の例を示す図である。 本実施形態の変形例に係る制御装置の表示する、動作装置の画像視野に基づいて生成される画像の他の例を示す図である。 本開示の第3の実施形態に係る制御装置を用いて構成される制御システムの概略的な機能構成を示すブロック図である。 本実施形態における制御装置の処理を概念的に示すフローチャートである。 本実施形態の第2の変形例に係る制御装置を用いた制御システムの構成例を示す図である。 本開示に係る制御装置のハードウェア構成を示した説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の一実施形態に係る制御装置の概要
2.第1の実施形態(操作体の位置姿勢に基づいて画像視野を制御する例)
2−1.制御装置の構成
2−2.制御装置の処理
2−3.変形例
3.第2の実施形態(動作装置の位置姿勢に基づいて画像視野を制御する例)
3−1.制御装置の構成
3−2.制御装置の処理
3−3.変形例
4.第3の実施形態(操作体の画像視野を利用した表示の例)
4−1.制御装置の構成
4−2.制御装置の処理
4−3.変形例
5.本開示の一実施形態に係る制御装置のハードウェア構成
6.むすび
<1.本開示の一実施形態に係る制御装置の概要>
まず、図1を参照して、本開示の一実施形態に係る制御装置の概要について説明する。図1は、本開示の一実施形態に係る制御装置の概要を説明するための図である。
本開示の一実施形態に係る制御装置100は、ユーザの頭部に装着され、ユーザの視野の一部または全部を覆う表示部を備える携帯可能な装置である。また、制御装置100は、通信機能および表示制御機能を有する。通信機能は、外部装置から情報を受信し、または外部装置に情報を送信する。表示制御機能は、ディスプレイに表示させる画像の表示に係る制御を行う。このため、制御装置100は、外部装置から画像を受信し、受信される画像をディスプレイに表示させることが可能である。
例えば、図1に示したように、制御装置100は、ユーザの頭部に装着される眼鏡型のHMDであり得る。制御装置100は、外部装置から画像を受信し、受信される当該画像を表示部に表示させる。
ここで、HMDの表示する画像への没入感を向上させるために、ユーザの頭部運動に応じた画像をHMDに表示させることが一般に知られている。しかし、この場合、ユーザが頭部を動かすことによってHMDの表示が変更されるため、操作を行うユーザに負担がかかる。また、HMDの表示範囲は、ユーザの頭部運動が可能な範囲に留まるため、頭部の可動範囲を超えるダイナミックな視点の変化を表示させることが困難である。そこで、本開示の一実施形態に係る制御装置100は、ユーザの頭部と異なる位置にある操作体等の位置もしくは姿勢またはその両方(以下、位置姿勢とも称する。)に係る情報(以下、位置姿勢情報とも称する。)を受信し、当該位置姿勢情報に基づいて、ユーザの頭部に装着される表示装置に画像として表示される範囲(以下、画像視野とも称する。)を制御する。
例えば、図1に示したように、制御装置100は、ユーザ操作可能な人形型の操作体200と通信可能に接続され得る。制御装置100は、操作体200において検出される操作体200の位置姿勢を示す位置姿勢情報を操作体200から受信する。次に、制御装置100は、受信される位置姿勢情報に基づいて、操作体200の所定の位置、例えば操作体200の顔の位置を視線元とする画像視野、例えば画角を決定する。そして、制御装置100は、決定される画角に基づいて画像を生成し、生成される画像を表示部に表示させる。
このように、本開示の一実施形態に係る制御装置100は、ユーザの頭部と異なる位置にある操作体等の位置姿勢情報を受信し、当該位置姿勢情報に基づいて、ユーザの頭部に装着される表示装置に画像として表示される範囲を制御する。このため、ユーザの操作する操作体等の位置姿勢に応じた画像が表示されることにより、ユーザが頭部を動かすことなく、表示装置の表示対象となる範囲をユーザの意図通りに制御することが可能となる。なお、図1においては制御装置100の一例として眼鏡型のHMDを示しているが、制御装置100は、帽子型またはその他の形態のHMDであってもよく、表示装置を含まず表示装置と接続される装置、例えばサーバ等であってもよい。また、説明の便宜上、第1〜第3の実施形態に係る制御装置100の各々を、制御装置100−1、制御装置100−2のように、末尾に実施形態に対応する番号を付することにより区別する。
<2.第1の実施形態(操作体の位置姿勢に基づいて画像視野を制御する例)>
以上、本開示の一実施形態に係る制御装置100の概要について説明した。次に、本開示の第1の実施形態に係る制御装置100−1について説明する。
一般的に、人間は複数の感覚を組み合わせて仮想空間を知覚しており、特に視覚および身体感覚の整合性を担保することが仮想空間の知覚において重要となる。この整合性が担保されない場合、仮想空間への没入感もしくは臨場感の減退、または映像酔い等が引き起こされ得る。これに対し、人間の頭部運動に応じた画像を提供することが一般に知られている。しかし、この場合、画像として表示される範囲は、人間の頭部運動が可能な範囲に留まるため、頭部の可動範囲を超えるダイナミックな視点の変化を表示させることが困難である。
そこで、本開示の第1の実施形態に係る制御装置100−1では、人間の身体運動の代わりに、人間が操作する別の物体の身体運動を利用して、表示部に仮想空間に係る画像として表示される範囲を制御する。
<2−1.制御装置の構成>
まず、図2を参照して、本開示の第1の実施形態に係る制御装置100−1の構成について説明する。図2は、本開示の第1の実施形態に係る制御装置100−1を用いて構成される制御システムの概略的な機能構成を示すブロック図である。
図2に示したように、制御システムは、制御装置100−1および操作体200−1で構成される。
(操作体200−1の機能構成)
操作体200−1は、センサ202、制御部204および通信部206を備える。
センサ202は、操作体200−1の位置姿勢の変化を検出する。具体的には、センサ202は、制御部204の指示に基づいて検出状態に遷移され、検出状態である間、操作体200−1の位置姿勢の変化および変化量を検出する。例えば、センサ202は、加速度センサ、角速度センサ、地磁気センサまたはその他のモーションセンサであり得る。なお、本実施形態では、センサ202は、位置姿勢の変化を検出する。
制御部204は、操作体200−1の動作を全体的に制御する。具体的には、制御部204は、センサ202に動作指示等を行い、センサ202によって検出される操作体200−1の位置姿勢の変化量を示す情報を位置姿勢情報として生成する。また、制御部204は、生成される位置姿勢情報を通信部206に送信させる。
通信部206は、制御装置100−1と通信を行う。具体的には、通信部206は、制御部204によって生成される位置姿勢情報を制御装置100−1に送信する。例えば、通信部206は、WiFi(登録商標)、Bluetooth(登録商標)またはZigbee(登録商標)等を利用した無線通信を行い得る。また、通信部206は、有線を介して通信を行ってもよい。
(制御装置100−1の機能構成)
また、制御装置100−1は、図2に示したように、通信部102、センサ104、決定部106、表示制御部108および表示部110を備える。
通信部102は、取得部として、操作体200−1と通信を行う。具体的には、通信部102は、操作体200−1から位置姿勢情報を受信する。なお、図2では、通信部102は受信のみ行う図を示したが、通信部102は位置姿勢情報等の送信要求等を操作体200−1に送信してもよい。
センサ104は、取得部として、ユーザの頭部運動を検出する。具体的には、センサ104は、ユーザの頭部に装着される制御装置100−1の位置姿勢の変化および変化量を検出する。なお、本実施形態のセンサ104は、センサ202と実質的に同一であるため詳細な説明を省略する。
決定部106は、制御部として、画像視野を決定する。具体的には、決定部106は、通信部102によって受信される操作体200−1の位置姿勢情報に基づいて、第1の画像視野としての、操作体200−1を視線元とする画像視野(以下、操作体200−1の画像視野とも称する。)を決定する。例えば、決定部106は、過去の操作体200−1の画像視野について、受信される位置姿勢情報の示す位置姿勢の変化方向および変化量に対応する方向および量の変更を行い、新たな操作体200−1の画像視野を決定する。
また、決定部106によって決定される操作体200−1の画像視野は仮想空間の少なくとも一部を含む。例えば、決定部106は、制御装置100−1の動作開始時における操作体200−1の画像視野(以下、初期視野とも称する。)とし、位置姿勢の変化に応じて当該初期視野から操作体200−1の画像視野を変更する。なお、初期視野は、仮想空間を構築するアプリケーション等によって決定され、または変更され得る。
なお、操作体200−1の画像視野は、操作体200−1における予め決定される位置を視線元とする画像視野であり得る。例えば、操作体200−1の画像視野は、操作体200−1が人形型である場合、当該人形の顔または目に相当する部位を視線元とする画角であり得る。しかし、操作体200−1の画像視野の視線元は、これに限定されず、例えばユーザ操作等によって設定され、または変更されてもよい。
また、決定部106は、ユーザの頭部の位置姿勢に基づいて、第2の画像視野としての、ユーザの視野に相当する画像視野(以下、ユーザの画像視野とも称する。)を決定する。例えば、決定部106は、センサ104によって検出される制御装置100−1、すなわちユーザの頭部の位置姿勢の変化量に基づいて、制御装置100−1を装着するユーザの画像視野を決定する。なお、決定部106は、一般的なヘッドトラッキング技術を用いて特定されるユーザの頭部の位置姿勢に基づいてユーザの画像視野を決定してもよい。
表示制御部108は、制御部として、表示部110の表示を制御する。具体的には、表示制御部108は、決定部106によって決定される操作体200−1の画像視野に基づいて生成される仮想空間を示す画像を表示部110に表示させる。さらに、図3を参照して、表示制御部108の処理について詳細に説明する。図3は、本実施形態に係る制御装置100−1によって決定される画像視野に基づいて生成される仮想空間を示す画像の表示例を示す図である。
まず、表示制御部108は、初期視野の仮想空間を表示部110に表示させる。例えば、表示制御部108は、図3の左図に示した初期視野F0の仮想空間を示す画像10を表示部110に表示させる。例えば、画像視野は、仮想空間上のカメラ(以下、仮想カメラとも称する。)の画角によって決定され得る。なお、初期視野を決定する仮想カメラの画角は、画像視野が人間の視野よりも狭くなるような画角であり得る。
次に、表示制御部108は、操作体200−1の画像視野の変化に応じて表示部110の表示を変更させる。例えば、表示制御部108は、決定部106によって決定される操作体200−1の画像視野が、図3の右図に示したような初期視野F0から画像視野F1、F2およびF3の順に変化される場合、画像11、12および13の順に表示部110に表示させる。なお、説明の便宜上、階段状に画像視野が変化される程度の時間間隔で操作体200−1の画像視野が決定される例を示したが、操作体200−1の画像視野の決定および当該画像視野に基づいて生成される画像の表示は、より滑らかに画像視野が変化される程度の時間間隔で行われ得る。
また、表示制御部108は、画像視野の選択を行う。具体的には、表示制御部108は、ユーザの態様に基づいて、操作体200−1の画像視野またはユーザの画像視野のいずれかを画像として表示される範囲として選択する。例えば、表示制御部108は、所定のユーザ操作が行われる場合、ユーザの画像視野を選択する。さらに、図4を参照して画像視野の選択処理について詳細に説明する。図4は、本実施形態に係る制御装置100−1のユーザの頭部の動きおよび操作体200−1の動きの例を示す図である。
まず、上述したように、表示制御部108は、操作体200−1の画像視野に基づいて生成される仮想空間を示す画像を表示部110に表示させる。例えば、表示制御部108は、図3の左図に示したような操作体200−1の画像視野F0の仮想空間を示す画像10を表示部110に表示させる。
そして、表示制御部108は、操作体200−1およびユーザの頭部の位置姿勢が互いに異なる方向に変化される場合、ユーザの画像視野を選択する。例えば、決定部106は、操作体200−1およびユーザの頭部の位置姿勢が変化される場合、操作体200−1およびユーザの頭部の位置姿勢の変化方向を特定する。そして、操作体200−1の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向が異なる、例えば、図4に示したように、操作体200−1の画像視野の視線元である頭部の回転方向とユーザの頭部の回転方向とが逆方向である場合、表示制御部108は、ユーザの画像視野を、画像として表示される範囲として選択する。
次に、表示制御部108は、選択されるユーザの画像視野に基づいて生成される仮想空間を示す画像を表示部110に表示させる。例えば、表示制御部108は、ユーザの画像視野が選択されると、例えば図3の右図のようなユーザの画像視野F4の仮想空間を示す画像14を表示部110に表示させる。当該ユーザの画像視野は、操作体200−1の画像視野よりも広くあり得る。また、ユーザの画像視野に基づいて生成される仮想空間を示す画像14は、図3の右図に示したように、操作体200−1の画像視野に基づいて生成される仮想空間を示す画像10〜13の合成、すなわち表示済みの仮想空間の範囲であり得る。なお、ユーザの画像視野に基づいて生成される仮想空間を示す画像は、当該画像視野の仮想空間全体を示す画像であってもよく、既に表示された画像視野に相当する当該仮想空間全体の一部を示す画像であってもよい。
なお、上記では、所定のユーザ操作は、操作体200−1およびユーザの頭部の位置姿勢が異なる方向に変化される操作である例を示したが、所定のユーザ操作は、ユーザによる明示的な画像視野の切り替え操作であってもよい。例えば、表示制御部108は、画像視野の切り替えを示すジェスチャが行われたり、制御装置100−1の別途備える操作部に対する操作、例えば所定のボタンの押下等が行われたりすると、ユーザの画像視野を選択する。また、別途、ユーザの画像視野から操作体200−1の画像視野への切り替えが行われてもよい。
また、所定のユーザ操作は、操作体200−1の変更であってもよい。例えば、表示制御部108は、操作体200−1が他の操作体200−1に変更される場合、操作体200−1の種類に応じて操作体200−1の画像視野またはユーザの画像視野のいずれかに切り替える。
ここで図2を参照して制御装置100−1の構成の説明に戻ると、表示部110は、表示制御部108の指示に基づいて表示を行う。具体的には、表示制御部108によって選択される画像視野に基づいて生成される仮想空間を示す画像を表示する。例えば、表示部110は、液晶または有機EL(Electro−Luminescence)等のディスプレイであり得る。
<2−2.制御装置の処理>
次に、図5を参照して、本実施形態における制御装置100−1の処理について説明する。図5は、本実施形態における制御装置100−1の処理を概念的に示すフローチャートである。
まず、制御装置100−1は、操作体200−1の位置姿勢情報を受信するまで待機する(ステップS602)。具体的には、通信部102は、操作体200−1において生成される操作体200−1の位置姿勢情報を受信する。
位置姿勢情報が受信されると、制御装置100−1は、受信される操作体200−1の位置姿勢情報に基づいて操作体200−1の画像視野を決定する(ステップS604)。具体的には、決定部106は、受信される操作体200−1の位置姿勢情報の示す位置姿勢の変化量に応じて操作体200−1の画像視野を変更する。
次に、制御装置100−1は、制御装置100−1の位置姿勢情報を取得する(ステップS606)。具体的には、決定部106は、センサ104によって検出される制御装置100−1の位置姿勢の変化量を示す情報を含む位置姿勢情報をセンサ104から取得する。
次に、制御装置100−1は、取得される制御装置100−1の位置姿勢情報に基づいてユーザの画像視野を決定する(ステップS608)。具体的には、決定部106は、取得される制御装置100−1の位置姿勢情報の示す位置姿勢の変化量に応じてユーザの画像視野を変更する。
次に、制御装置100−1は、操作体200−1およびユーザの頭部の位置姿勢が互いに異なる方向に変化したかを判定する(ステップS610)。具体的には、決定部106は、操作体200−1の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向とが異なるかを判定する。
操作体200−1およびユーザの頭部の位置姿勢が互いに異なる方向に変化したと判定される場合、制御装置100−1は、ユーザの画像視野に基づいて画像を生成する(ステップS612)。具体的には、表示制御部108は、操作体200−1の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向とが異なると判定される場合、ユーザの画像視野に基づいて仮想空間を示す画像を生成する。
また、操作体200−1およびユーザの頭部の位置姿勢が互いに異なる方向に変化していないと判定される場合、制御装置100−1は、操作体200−1の画像視野に基づいて画像を生成する(ステップS614)。具体的には、表示制御部108は、操作体200−1の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向とが同一または同一とみなされる程度の差異であると判定される場合、操作体200−1の画像視野に基づいて仮想空間を示す画像を生成する。なお、操作体200−1またはユーザの頭部の位置姿勢のいずれか一方または両方が変化しない場合も、決定部106は上記の場合と同様に判定する。
制御装置100−1は、生成される画像を表示する(ステップS616)。具体的には、表示制御部108は、生成される画像を表示部110に表示させる。
このように、本開示の第1の実施形態によれば、制御装置100−1は、ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置姿勢に係る位置姿勢情報を受信し、当該位置姿勢情報に基づいて、ユーザの頭部に装着される表示部に画像として表示される範囲である画像視野を制御する。このため、ユーザの操作する操作体等の位置姿勢に応じた画像が表示されることにより、ユーザが頭部を動かすことなく、表示装置の表示対象となる範囲をユーザの意図通りに制御することが可能となる。また、これにより、ユーザの頭部の可動範囲を超えた動きにおけるダイナミックな視点変化をユーザに提供することが可能となる。
また、上記の画像視野は、仮想空間の少なくとも一部を含む。このため、現実世界の操作によって仮想空間の表示される範囲が決定されることにより、仮想空間への没入感を向上させることが可能となる。
また、制御装置100−1は、ユーザの頭部の位置姿勢情報を取得し、ユーザの態様に基づいて、操作体200−1の画像視野またはユーザの画像視野のいずれかを画像として表示される範囲として選択する。このため、画像視野が切り替えられることにより、ユーザにとって適した画像視野に基づいて生成される画像を表示することが可能となる。
また、制御装置100−1は、所定のユーザ操作が行われる場合、ユーザの画像視野を選択する。このため、ユーザの操作に起因して画像視野が切り替えられることにより、画像視野の切り替えについてユーザに唐突感を与える可能性を低下させることが可能となる。
また、制御装置100−1は、ユーザ操作に係る物体およびユーザの頭部の位置姿勢が互いに異なる方向に変化される場合、ユーザの画像視野を選択する。一般的には、人間が自己の視野を変更する場合、人間は自己の頭を移動または回転させる。そのため、制御装置100−1のユーザは、操作体200−1を操作して画像視野を変更する際に、自己の頭を移動等させ得る。ここで、操作体200−1の画像視野の変化方向が、自己の頭の変化方向、すなわちユーザの画像視野の変化方向と異なる場合、ユーザは違和感を覚え、さらには嘔吐を催す場合がある。そこで、制御装置100−1は、この場合にはユーザの画像視野に基づいて表示を行うことにより、ユーザの違和感等の発生を抑制することが可能となる。
<2−3.変形例>
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の第1〜第7の変形例について説明する。
(第1の変形例)
本実施形態の第1の変形例として、制御装置100−1は、ユーザが映像酔いに陥った場合、ユーザの画像視野に基づいて生成される画像に切り替えてもよい。具体的には、制御装置100−1は、ユーザが映像酔い状態であるかを判定する判定部をさらに備え、表示制御部108は、当該判定部によってユーザが映像酔い状態あると判定される場合、ユーザの画像視野を選択する。より具体的には、判定部は、ユーザの頭部の変位が閾値以上である場合、ユーザが映像酔い状態であると判定する。
例えば、判定部は、センサ104によって検出されるユーザの頭部の位置姿勢情報に基づいて、頭部の変位量を算出する。そして、判定部は、算出される頭部の変位量が閾値以上である場合、ユーザが映像酔い状態であると判定する。表示制御部108は、判定部によってユーザが映像酔い状態であると判定される場合、操作体200−1の画像視野が選択されているときは、ユーザの画像視野を選択し、表示部110に当該ユーザの画像視野に基づいて生成される画像に切り替えさせる。
このように、本実施形態の第1の変形例によれば、制御装置100−1は、ユーザが映像酔い状態であるかを判定する判定部を備え、表示制御部108は、当該判定部によってユーザが映像酔い状態あると判定される場合、ユーザの画像視野を選択する。このため、ユーザの体調変化に応じて画像視野が切り替えられることにより、ユーザの体調悪化を防止することが可能となる。
また、判定部は、ユーザの頭部の変位が閾値以上である場合、ユーザが映像酔い状態であると判定する。このため、センサ104によって得られる情報に基づいて映像酔い状態の判定が行われることにより、制御装置100−1への機能追加を抑制することができ、制御装置100−1のコストを低減することが可能となる。
なお、判定部は、ユーザの生体情報に基づいて、ユーザが映像酔い状態であるかを判定してもよい。例えば、判定部は、ユーザの発汗または脈拍の状態等に基づいて、ユーザが映像酔い状態であるかを判定し得る。また、乗り物酔いを判定するための技術が応用されてもよい。
(第2の変形例)
本実施形態の第2の変形例として、複数のユーザが仮想空間を共有する場合、ユーザ毎に画像視野が異なってもよい。具体的には、表示制御部108は、ユーザが操作体200−1の画像視野の操作者であるかに基づいて、操作体200−1の画像視野またはユーザの画像視野のいずれかを選択する。さらに、図3を参照して本変形例の処理について詳細に説明する。
通信部102は、他の制御装置100−1と通信を行い、仮想表示の操作要求を送受信する。例えば、通信部102は、ユーザ操作等に基づいて操作要求を他の制御装置100−1に送信する。また、通信部102は、他の制御装置100−1から操作要求を受信すると表示制御部108にその旨を通知し、表示制御部108は、ユーザに操作要求に応じるかの判断および操作をユーザに促す表示を表示部110に表示させる。操作要求に応じる旨の操作が行われると、通信部102は、当該操作要求への応答を他の制御装置100−1に送信する。
そして、表示制御部108は、送信される操作要求への応答が他の制御装置100−1から受信されると、操作体200−1の画像視野に基づいて生成される画像を表示部110に表示させる。例えば、表示制御部108は、図3の左図に示したような、制御装置100−1に接続される操作体200−1の画像視野に基づいて生成される画像を表示部110に表示させる。
その後、表示制御部108は、他の制御装置100−1から操作要求が受信されると、ユーザの画像視野に基づいて生成される画像を選択する。例えば、表示制御部108は、他の制御装置100−1の操作要求に応じる旨の応答が返信される場合、表示部110に表示される画像を図3の右図に示したようなユーザの画像視野に基づいて生成される画像に切り替えさせる。
このように、本実施形態の第2の変形例によれば、表示制御部108は、ユーザが操作体200−1の画像視野の操作者であるかに基づいて、操作体200−1の画像視野またはユーザの画像視野のいずれかを選択する。このため、仮想空間が複数のユーザで共有される場合に、他のユーザが操作する操作体200−1の画像視野に基づいて生成される画像が表示され、ユーザが映像酔い状態になることを防止することが可能となる。
なお、ユーザの画像視野に基づいて生成される画像において、他のユーザの操作体200−1の画像視野を示すオブジェクトが表示されてもよい。
(第3の変形例)
本実施形態の第3の変形例として、制御装置100−1は、ユーザの頭部以外の身体の部位(以下、ユーザ身体の部位とも称する。)を操作体200−1として認識してもよい。具体的には、決定部106は、ユーザ身体の部位の位置姿勢情報に基づいて、当該ユーザ身体の部位を視線元とする画像視野(以下、ユーザ身体の部位の画像視野とも称する。)を決定し、表示制御部108は、当該ユーザ身体の部位の画像視野に基づいて生成される画像を表示部110に表示させる。なお、ユーザ身体の部位の位置姿勢情報は、当該ユーザ身体の部位に装着されるモーションセンサから取得されてもよく、制御装置100−1の外部装置において当該ユーザ身体の部位を被写体とする画像が解析され、当該外部装置から通信を介して取得されてもよい。さらに、図6A〜図6Dを参照して本変形例について詳細に説明する。図6A〜図6Dは、操作体200−1であると認識されるユーザ身体の部位およびその形態の例を示す図である。
まず、決定部106は、ユーザ身体の部位の形態を特定する。例えば、位置姿勢情報には、ユーザ身体の部位および当該部位の形態を示す情報(以下、部位情報とも称する。)が含まれる。そして、決定部106は、取得される位置姿勢情報から部位情報を取得し、取得される部位情報の示す部位および形態と、制御装置100−1の別途備える記憶部に記憶される部位および形態のパターンとの比較を行うことにより、ユーザ身体の部位の形態を特定する。ユーザ身体の部位の形態には、例えば、図6Aに示したような手の甲側を正面として二本の指が突き立てられる形態、図6Bに示したような手の平を正面として二組の二本の指がそれぞれ揃えられ、残りの指は離隔される形態、図6Cに示したような手の平を正面として五指のうちの一本の指が伸長される形態、図6Dに示したような手の甲を正面として腕を突き出す形態等が考えられる。
次に、決定部106は、特定されるユーザ身体の部位の形態に基づいてユーザ身体の部位の画像視野を決定する。例えば、ユーザ身体の部位の形態に応じて視線元となる位置が予め決定され得る。例えば、図6Aに示した形態では二本の指の根元が視線元となり、図6Bに示した形態では中央に揃えられる二本の指の先端部分が視線元となり、図6Cに示した形態では伸長される指の先端部分が視線元となり、図6Dに示した形態では肘と手の間における腕の所定の位置が視線元となる。そのため、決定部106は、ユーザ身体の部位の形態に応じて特定される位置を視線元とする画像視野をユーザ身体の部位の画像視野の初期視野とし、取得される位置姿勢情報に基づいてユーザ身体の部位の画像視野を決定する。
そして、表示制御部108は、決定されるユーザ身体の部位の画像視野に基づいて生成される画像を表示部110に表示させる。詳細は第1の実施形態の処理と実質的に同一であるため説明を省略する。
このように、本実施形態の第3の変形例によれば、決定部106は、ユーザ身体の部位の位置姿勢情報からユーザ身体の部位の画像視野を決定し、表示制御部108は、当該ユーザ身体の部位の画像視野に基づいて生成される画像を表示部110に表示させる。このため、ユーザの身体の一部が操作体とみなされることにより、操作体が装置である場合に比べてユーザはより手軽に自己の視野と異なる画像視野で操作をすることが可能となる。
なお、上記では、ユーザ身体の部位の例として図6A〜図6Dに示される形態を説明したが、ユーザ身体の部位は、これに限定されず、ユーザの頭部運動を表現可能な様々な部位であり得る。
(第4の変形例)
本実施形態の第4の変形例として、制御装置100−1は、操作体200−1に対応する表示(以下、対応オブジェクトとも称する。)を操作体200−1の画像視野に基づいて生成される画像において表示してもよい。具体的には、表示制御部108は、表示部110に、操作体200−1の少なくとも一部を示す対応オブジェクトを操作体200−1の画像視野に基づいて生成される画像において表示させる。さらに、図7を参照して本変形例の処理について詳細に説明する。図7は、本実施形態の第4の変形例に係る制御装置100−1の表示する対応オブジェクトの例を示す図である。
まず、表示制御部108は、操作体200−1の形態または種類に応じた対応オブジェクトを取得する。例えば、通信部102は、制御装置100−1に接続される操作体200−1の種類を示す情報を操作体200−1から受信する。そして、表示制御部108は、受信される当該情報の示す種類に対応する対応オブジェクトを記憶部から取得する。例えば、操作体200−1が人形型である場合、対応オブジェクトは、図7に示したような人形の手および腕を示すオブジェクト20であり得る。なお、表示制御部108は、通信部102を介して外部装置から対応オブジェクトを取得してもよい。
次に、表示制御部108は、操作体200−1の画像視野に基づいて生成される画像に対応オブジェクトが表示されるように制御する。例えば、表示部110の表示する操作体200−1の画像視野に基づいて生成される画像10に取得されるオブジェクト20が重畳される。
なお、仮想物体表示は、操作体200−1の位置姿勢に応じて変化し得る。例えば、操作体200−1が人形である場合、当該人形の手を曲げると、図7に示したようなオブジェクト20の人形の手が曲げられる。
このように、本実施形態の第4の変形例によれば、表示制御部108は、操作体200−1に対応する対応オブジェクトが操作体200−1の画像視野に基づいて生成される画像において表示されるように制御を行う。このため、ユーザ操作によって表示が制御されることをユーザに認識させ、ユーザの操作感覚と表示の変化との整合性を向上させることが可能となる。
また、対応オブジェクトは、操作体200−1の少なくとも一部を示す。このため、対応オブジェクトと操作体200−1とが一致する印象をユーザに与えることにより、仮想空間上における操作に対する現実感を向上させることが可能となる。
また、対応オブジェクトは、操作体200−1の形態または種類に応じて異なる。このため、操作体200−1と仮想物体表示とが対応付けられることにより、仮想空間上における操作に対する現実感をさらに向上させることが可能となる。
なお、上記では、操作体200−1は装置である例を説明したが、操作体200−1はユーザ身体の部位であってもよい。また、対応オブジェクトは、操作体200−1の画像視野に基づいて生成される画像において表示される例を説明したが、対応オブジェクトは、ユーザの画像視野に基づいて生成される画像において表示されてもよい。
(第5の変形例)
本実施形態の第5の変形例として、制御装置100−1は、仮想空間上のオブジェクト(以下、仮想オブジェクトとも称する。)の位置姿勢に基づいて特定される画像視野(以下、仮想オブジェクトの画像視野とも称する。)に基づいて生成される画像を表示してもよい。具体的には、表示制御部108は、仮想オブジェクトの仮想空間上の移動方向を特定し、特定される移動方向を視線先とする画像視野に基づいて生成される画像を表示部110に表示させる。さらに、図8を参照して本変形例の処理について詳細に説明する。図8は、本実施形態の第5の変形例に係る制御装置100−1の処理における画像視野に基づいて生成される画像を説明するための図である。
まず、表示制御部108は、仮想オブジェクトを表示部110に表示させる。例えば、表示制御部108は、操作体200−1の画像視野に基づいて生成される画像10は、図8の左図に示したような車両等の仮想オブジェクト30が表示され得る。
次に、表示制御部108は、仮想オブジェクトを選択する操作が行われると、表示部110に、仮想オブジェクトを視線元とする画像視野に基づいて生成される画像に表示を切り替えさせる。例えば、図8の左図に示したような仮想オブジェクト30をつまむ操作が行われると、表示制御部108は、図8の中図に示したような、表示部110に、当該仮想オブジェクト30を視線元とする当該仮想オブジェクト30の移動方向の画像視野に基づいて生成される画像10に表示を切り替えさせる。
次に、決定部106は、ユーザ操作によって仮想オブジェクトの位置姿勢が変化される場合、仮想オブジェクトの位置姿勢の変化に応じて画像視野を変更する。例えば、決定部106は、仮想オブジェクトの座標情報等から位置姿勢の変化を検出し、当該変化に応じて仮想オブジェクトの画像視野を変更する。
そして、表示制御部108は、仮想オブジェクトの画像視野に基づいて生成される画像を表示部110に表示させる。詳細については上述の実施形態等と実質的に同一であるため説明を省略する。
このように、本実施形態の第5の変形例によれば、表示制御部108は、仮想空間上のオブジェクトの位置姿勢に基づいて特定される画像視野に基づいて生成される画像を表示部110に表示させる。このため、仮想空間上でユーザによって操作される仮想オブジェクトの画像視野に基づいて生成される画像に表示が切り替えられることにより、ユーザの仮想空間への没入感を向上させることが可能となる。
(第6の変形例)
本実施形態の第6の変形例として、制御装置100−1は、ユーザの頭部の位置姿勢情報に基づいて、第5の変形例における仮想オブジェクトの画像視野を制御してもよい。具体的には、表示制御部108は、ユーザの頭部の位置または姿勢の変化に応じて仮想オブジェクトの画像視野を変更する。さらに、図8を参照して本変形例の処理について詳細に説明する。
まず、表示制御部108は、表示部110に、仮想オブジェクトを表示させ、仮想オブジェクトを選択する操作が行われると、仮想オブジェクトの画像視野に基づいて生成される画像を切り替えさせる。ここで、画像切り替えの際のユーザの頭部の位置姿勢が、切り替え後の画像に係る画像視野についての視線元の位置姿勢となり得る。なお、画像切り替え処理は第5の変形例の処理と実質的に同一であるため説明を省略する。
次に、決定部106は、ユーザの頭部の位置姿勢が変化されると、当該変化に応じて仮想オブジェクトの画像視野を変更する。例えば、決定部106は、図8の右図に示したような、センサ104によって制御装置100−1、すなわちユーザの頭部の位置姿勢の変化が検出されると、ユーザの頭部の視線元の位置姿勢からの変化量に応じて仮想オブジェクト30の画像視野を変更する。
そして、表示制御部108は、変更後の仮想オブジェクトの画像視野に基づいて生成される画像を表示部110に表示させる。例えば、表示制御部108は、図8の右図に示したような、仮想オブジェクト30である車両の進行方向に向かって左側の風景を当該車両から見たような画像を表示部110に表示させる。
このように、本実施形態の第6の変形例によれば、表示制御部108は、ユーザの頭部の位置姿勢情報に基づいて、第5の変形例における仮想オブジェクトの画像視野を制御する。このため、仮想オブジェクトの画像視野が現実空間におけるユーザの頭部の動きに応じて変化されることにより、仮想空間への没入感をさらに向上させることが可能となる。
なお、上記では、仮想オブジェクトの画像視野が変化される例を説明したが、操作体200−1の画像視野が変化されてもよい。
(第7の変形例)
本実施形態の第7の変形例として、制御装置100−1は、仮想オブジェクトの仮想空間上の移動の速さを操作体200−1の姿勢に応じて変化させてもよい。具体的には、操作体200−1の一部の位置姿勢が変化される場合、表示制御部108は、操作体200−1の一部の位置姿勢の変化に応じて仮想オブジェクトの仮想空間上の移動の速さを変更する。さらに、図9を参照して本変形例の処理について詳細に説明する。図9は、本実施形態の第7の変形例に係る制御装置100−1に接続される操作体200−1の一部の姿勢変化の例を示す図である。
操作体200−1は、複数の位置姿勢情報を検出する。例えば、操作体200−1は、2つのセンサ202を備え、制御部204は、各センサ202において検出される位置姿勢の変化に基づいて位置姿勢情報を生成する。例えば、センサ202は、図9に示されるような操作体200−1の頭部Aおよび下部Bのそれぞれに備えられ得る。なお、センサ202の設置態様はこれに限定されず、例えばセンサ202はユーザの主要な間接毎に設けられ得る。また、位置姿勢情報は、センサ202の備えられる位置を示す情報を含む。
表示制御部108は、操作体200−1から位置姿勢情報が受信されると、操作体200−1の一部のみの位置姿勢が変化されたかを判定する。例えば、図9に示したように、操作体200−1が下部Bを中心に上半身のみが傾けられる場合、頭部Aに備えられるセンサ202は姿勢が変化した旨を検出するが、下部Bに備えられるセンサ202は姿勢が変化していない、または変化していないとみなされる程度にしか変化していない旨を検出する。そのため、頭部Aに備えられるセンサ202に係る位置姿勢情報は受信されるが、下部Bに備えられるセンサ202に係る位置姿勢情報は受信されない。そこで、表示制御部108は、位置姿勢情報の受信有無に基づいて、操作体200−1の一部のみの位置姿勢が変化されたと判定する。ここでは、表示制御部108は、操作体200−1の頭部Aの周辺のみ姿勢が変化されたと判定する。
そして、表示制御部108は、操作体200−1の一部のみの位置姿勢が変化されたと判定される場合、仮想オブジェクトの移動の速さを変更する。例えば、表示制御部108は、図9に示したように、操作体200−1の頭部Aの周辺のみ姿勢が変化される場合、操作体200−1の画像視野を変更することなく、仮想オブジェクトの移動の速さを向上させる。
さらに、表示制御部108は、位置姿勢情報の示す位置姿勢の基準からの変化量に応じて、仮想オブジェクトの移動の速さを変更する。例えば、図9の左図に示したような、初期視野における位置姿勢が基準に設定され得る。そして、下部Bを中心に、図9の中図に示したような角度まで姿勢が変化されると、仮想オブジェクトの移動の速さは向上され、さらに図9の右図に示したような角度まで姿勢が変化されると、仮想オブジェクトの移動の速さはさらに向上される。
このように、本実施形態の第7の変形例によれば、表示制御部108は、操作体200−1の一部のみの位置姿勢が変化される場合、操作体200−1の一部の位置姿勢の変化量に応じて仮想オブジェクトの仮想空間上の移動の速さを変更する。このため、仮想オブジェクトが直観的に操作されることにより、操作が原因となって仮想空間から現実空間に意識が戻されることを抑制することが可能となる。
なお、上記では、操作体200−1の位置姿勢が変化されない場合、位置姿勢情報が受信されない例を説明したが、センサ202のいずれかによって操作体200−1の位置姿勢が変化した旨が検出される場合には、制御部204は、通信部206に各センサ202の位置姿勢情報を送信させてもよい。この場合、表示制御部108は、受信される位置姿勢情報と過去の位置姿勢情報とを比較し、位置姿勢が変化したかを判定する。
また、上記では、1つの操作体200−1の異なる位置における位置姿勢が変化される場合について説明したが、表示制御部108は、複数の操作体200−1の各々の位置姿勢の変化に基づいて処理を行ってもよい。例えば、表示制御部108は、複数の操作体200−1のうちの1つの操作体200−1のみの位置姿勢が変化される場合、当該1つの操作体200−1の位置姿勢の変化に応じて仮想オブジェクトの仮想空間上の移動の速さを変更する。この場合、1つの操作体200−1の場合と比べて仮想オブジェクトの移動の速さを変更する操作が容易となり、ユーザの操作性を向上させることが可能となる。
<3.第2の実施形態(動作装置の位置姿勢に基づいて画像視野を制御する例)>
以上、本開示の第1の実施形態に係る制御装置100−1について説明した。次に、本開示の第2の実施形態に係る制御装置100−2について説明する。制御装置100−2は、操作体200−2の操作に応じて制御される動作装置300の画像に係る画像視野を制御する。
<3−1.制御装置の構成>
まず、図10を参照して、本開示の第2の実施形態に係る制御装置100−2および制御システムの構成について説明する。図10は、本開示の第2の実施形態に係る制御装置100−2を用いて構成される制御システムの概略的な機能構成を示すブロック図である。なお、第1の実施形態の機能と実質的に同一である機能については説明を省略する。
図10に示したように、第2の実施形態に係る制御システムは、制御装置100−2、操作体200−2および動作装置300で構成される。
(制御装置100−2の機能構成)
制御装置100−2は、通信部102、センサ104、決定部106、表示制御部108および表示部110に加えて動作制御部112を備える。
通信部102は、動作装置300と通信する。具体的には、通信部102は、動作装置300に動作要求を送信し、動作装置300から位置姿勢情報および画像を受信する。
動作制御部112は、制御部として、操作体200−2の位置姿勢情報に基づいて動作装置300の制御を行う。具体的には、動作制御部112は、操作体200−2から受信される位置姿勢情報の示す位置姿勢の変化に応じた位置姿勢の変化を動作装置300に行わせるための動作要求を生成する。
決定部106は、動作装置300に係る画像視野を決定する。具体的には、決定部106は、通信部102によって受信される動作装置300の位置姿勢情報に基づいて、動作装置300を視線元とする画像視野(以下、動作装置300の画像視野とも称する。)を決定する。処理の詳細については、第1の実施形態における操作体200−1の画像視野の決定処理と実質的に同一であるため説明を省略する。
表示制御部108は、動作装置300から受信される画像を表示部110に表示させる。また、表示制御部108は、ユーザの態様に基づいて、動作装置300の画像視野またはユーザの画像視野のいずれかを選択する。具体的には、表示制御部108は、動作装置300およびユーザの頭部の位置姿勢が互いに異なる方向に変化される場合、ユーザの画像視野を選択する。なお、ユーザの画像視野に基づいて生成される画像は、広角画像または全天球画像であってもよく、複数の撮像部または外部の撮像装置の撮像により得られる画像が合成されることにより生成される画像であってもよい。処理の詳細については、第1の実施形態における処理と実質的に同一であるため説明を省略する。
(動作装置300の機能構成)
動作装置300は、図10に示したように、通信部302、制御部304、センサ306および撮像部308を備える。
通信部302は、制御装置100−2と通信する。具体的には、通信部302は、制御装置100−2から動作要求を受信し、制御装置100−2に位置姿勢情報および画像を送信する。なお、通信部302は、有線通信または無線通信を介して制御装置100−2との通信を行う。
制御部304は、動作装置300の動作を全体的に制御する。具体的には、制御部304は、センサ306によって検出される位置姿勢の変化に基づいて位置姿勢情報を生成し、通信部302に生成される位置姿勢情報を制御装置100−2に向けて送信させる。
また、制御部304は、制御装置100−2から受信される動作要求に基づいて動作装置300の動きを制御する。例えば、制御部304は、動作装置300の別途備えるモータおよびアクチュエータ等に動作指示を行い、制御装置100−2の動作要求に応じた動作を動作装置300に行わせる。
また、制御部304は、撮像部308の動作を制御する。例えば、制御部304は、動作指示によって、撮像部308を撮像状態に遷移させ、または撮像状態から元の状態に遷移させる。そして、制御部304は、通信部302に撮像部308の撮像により得られる画像を制御装置100−2に向けて送信させる。
センサ306は、動作装置300の位置姿勢の変化を検出する。なお、本実施形態のセンサ306は、第1の実施形態のセンサ104およびセンサ202と実質的に同一であるため詳細な説明を省略する。
撮像部308は、動作装置300の周辺の現実空間の一部を撮像する。具体的には、撮像部308は、制御部304の動作指示に基づいて撮像状態に遷移し、撮像状態中においては定期的に撮像を行う。そして、撮像部308は、撮像により得られる画像を制御部304に提供する。例えば、撮像部308は、集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備え得る。なお、撮像部308は、広角または全天球の撮像を行ってもよい。
<3−2.制御装置の処理>
次に、図11を参照して、本実施形態における制御装置100−2の処理について説明する。図11は、本実施形態における制御装置100−2の処理を概念的に示すフローチャートである。なお、第1の実施形態と実質的に同一である処理については説明を省略する。
まず、制御装置100−2は、操作体200−2から位置姿勢情報を受信するまで待機する(ステップS702)。
操作体200−2から位置姿勢情報が受信されると、制御装置100−2は、操作体の位置姿勢情報に基づいて動作装置300に動作指示を行う(ステップS704)。具体的には、動作制御部112は、操作体200−2から受信される位置姿勢情報に基づいて動作要求を生成する。そして、動作制御部112は、通信部102に生成される動作要求を動作装置300に向けて送信させる。
次に、制御装置100−2は、動作装置300から位置姿勢情報を受信するまで待機する(ステップS706)。
動作装置300から位置姿勢情報が受信されると、制御装置100−2は、動作装置300の位置姿勢情報に基づいて動作装置300の画像視野を検出する(ステップS708)。
次に、制御装置100−2は、制御装置の位置姿勢情報を取得し(ステップS710)、取得される制御装置の位置姿勢情報に基づいてユーザの画像視野を決定する(ステップS712)。
次に、制御装置100−2は、動作装置300およびユーザの頭部の位置姿勢が互いに異なる方向に変化したかを判定する(ステップS714)。
動作装置300およびユーザの頭部の位置姿勢が互いに異なる方向に変化していないと判定される場合、制御装置100−2は、動作装置から受信される画像を表示する(ステップS716)。具体的には、通信部102は、動作装置300から撮像部308の撮像により得られる画像を受信する。そして、表示制御部108は、動作装置300の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向とが同一または同一とみなされる程度の差異であると判定される場合、受信される画像を表示部110に表示させる。
動作装置300およびユーザの頭部の位置姿勢が互いに異なる方向に変化したと判定される場合、制御装置100−2は、動作装置300から受信される画像に基づいてユーザの画像視野に相当する画像を生成し(ステップS718)、生成される画像を表示する(ステップS720)。具体的には、表示制御部108は、動作装置300の位置姿勢の変化方向とユーザの頭部の位置姿勢の変化方向とが異なると判定される場合、動作装置300から受信される画像に基づいて画像を生成する。例えば、表示制御部108は、受信される複数の画像を合成し、1つの画像を生成する。そして、表示制御部108は、生成される画像を表示部110に表示させる。なお、当該生成される画像は、ユーザの画像視野の広さに基づいて生成される。
このように、本開示の第2の実施形態によれば、制御装置100−2は、操作体200−2の操作に応じて制御される動作装置300の画像視野に基づいて表示を制御する。このため、例えばロボット等の操作において、操作によって変化されるロボット等の画像視野に基づいて生成される画像とユーザの頭部の動きとが一致しないことによるユーザの映像酔いを抑制することが可能となる。
また、画像視野は、現実空間の一部を含む。さらに、画像視野は、撮像装置の撮像における被写体の範囲を含む。このため、現実空間においてユーザの頭部の可動範囲を超えた動きにおけるダイナミックな視点変化をユーザに提供することが可能となる。
<3−3.変形例>
以上、本開示の第2の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
本実施形態の変形例として、制御装置100−2は、動作装置300の画像視野の広さを制御してもよい。具体的には、動作制御部112は、ユーザ操作の操作量に応じて、動作装置300の画像視野の広さを制御する。さらに、図12Aおよび図12Bを参照して本変形例の処理について詳細に説明する。図12Aおよび図12Bは、本実施形態の変形例に係る制御装置100−2の表示する、動作装置300の画像視野に基づいて生成される画像の例を示す図である。
動作制御部112は、操作体200−2の操作量に応じて、動作装置300の画像視野の広さを変更する。具体的には、動作制御部112は、受信される操作体200−2の位置姿勢情報の示す位置姿勢の変化量に応じて、動作装置300に備えられる撮像部308の画角を制御部304に変更させる。例えば、動作制御部112は、位置姿勢情報の示す位置姿勢の変化量が大きくなる程、制御部304に撮像部308の画角を広くさせ、図12Aに示したような画像を受信する。また、動作制御部112は、位置姿勢の変化量が小さくなる程、制御部304に撮像部308の画角を狭くさせ、図12Bに示したような画像を受信する。
このように、本実施形態の変形例によれば、表示制御部108は、ユーザ操作の操作量に応じて動作装置300の画像視野の広さを制御する。このため、操作の細かさを推定して画像視野の広さが制御されることにより、当該操作に適した表示をユーザに提供することができ、ユーザの利便性を向上させることが可能となる。
なお、本変形例の処理は、第1の実施形態についても適用可能である。具体的には、表示制御部108は、ユーザ操作の操作量に応じて動作装置300の画像視野の広さを制御する。例えば、表示制御部108は、受信される操作体200−2の位置姿勢情報の示す位置姿勢の変化量に応じて仮想カメラの画角を変更する。
さらに、表示制御部108は、第1の実施形態において、操作体200−1の大きさに応じて画像視野の広さを変更してもよい。具体的には、通信部102は操作体200−1から操作体200−1の大きさに係る情報を受信し、表示制御部108は、受信される操作体200−1の大きさに応じて仮想カメラの画角を変更する。この場合、操作体200−1の大きさをユーザに体感させ、表示への没入感を向上させることが可能となる。
<4.第3の実施形態(操作体の画像視野を利用した表示の例)>
以上、本開示の第2の実施形態に係る制御装置100−2について説明した。次に、本開示の第3の実施形態に係る制御装置100−3について説明する。制御装置100−3は、操作体200−3から得られる画像に、操作体200−3の画像視野に基づいて生成される画像を重畳する。
<4−1.制御装置の構成>
まず、図13を参照して、本開示の第3の実施形態に係る制御装置100−3および制御システムの構成について説明する。図13は、本開示の第3の実施形態に係る制御装置100−3を用いて構成される制御システムの概略的な機能構成を示すブロック図である。なお、第1および第2の実施形態の機能と実質的に同一である機能については説明を省略する。
(操作体200−3の機能構成)
操作体200−3は、図13に示したように、センサ202、制御部204および通信部206に加えて、撮像部208を備える。
制御部204は、撮像部208の動作を制御する。具体的には、制御部204は、動作指示によって、撮像部208を撮像状態に遷移させ、または撮像状態から元の状態に遷移させる。そして、制御部204は、通信部206に撮像部208の撮像により得られる画像を制御装置100−3に向けて送信させる。
通信部206は、位置姿勢情報に加えて、撮像部208の撮像により得られる画像を制御装置100−3に送信する。
撮像部208は、操作体200−3の周辺を撮像する。具体的には、第2の実施形態における撮像部308の機能と実質的に同一であるため説明を省略する。
(制御装置100−3の機能構成)
制御装置100−3の機能構成は、第1の実施形態の機能構成と実質的に同一であるが、通信部102および表示制御部108の機能が一部異なる。
通信部102は、位置姿勢情報に加えて、画像を操作体200−3から受信する。
表示制御部108は、操作体200−3から受信される画像に操作体200−3の画像視野に基づいて生成される画像を重畳させる。具体的には、表示制御部108は、決定部106によって決定される操作体200−3の画像視野に基づいて生成される画像を生成し、生成される画像を受信される画像に重畳させる。例えば、一般的なAR(Augmented Reality)技術等を用いて仮想空間と現実空間とがマッピングされ、例えば仮想空間および現実空間の座標とが対応付けられ得る。そして、表示制御部108は、決定部106によって決定される操作体200−3の画像視野に基づいて生成される仮想空間を示す画像の一部、例えば仮想オブジェクトを仮想空間から抽出する。そして、現実空間を表示する操作体200−3から受信される画像に、抽出される仮想オブジェクトを座標の対応付けに従って重畳させる。
<4−2.制御装置の処理>
次に、図14を参照して、本実施形態における制御装置100−3の処理について説明する。図14は、本実施形態における制御装置100−3の処理を概念的に示すフローチャートである。なお、第1および第2の実施形態と実質的に同一である処理については説明を省略する。
まず、制御装置100−3は、操作体200−3から位置姿勢情報を受信するまで待機する(ステップS802)。
操作体200−3から位置姿勢情報が受信されると、制御装置100−3は、操作体200−3の位置姿勢情報に基づいて操作体200−3の画像視野を決定する(ステップS804)。
次に、制御装置100−3は、操作体200−3の画像視野に基づいて生成される画像を生成する(ステップS806)。具体的には、表示制御部108は、操作体200−3の画像視野によって特定される仮想空間内の仮想オブジェクトを抽出する。
次に、制御装置100−3は、操作体200−3から受信される画像に、画像視野に基づいて生成される画像を重畳し(ステップS808)、重畳により得られる画像を表示する(ステップS810)。具体的には、表示制御部108は、受信される画像に、抽出される仮想オブジェクトを重畳する。そして、表示制御部108は、重畳の結果として得られる画像を表示部110に表示させる。
このように、本開示の第3の実施形態によれば、制御装置100−3は、操作体200−3から得られる画像に操作体200−3の画像視野に基づいて生成される画像を重畳する。このため、操作体200−3の位置姿勢に応じて決定される画像視野に基づいて生成される上述の仮想オブジェクトのような画像が、操作体200−3の撮像により得られる画像に重畳されることにより、ユーザに違和感を与えることなく表示の情報量または躍動感等を向上させることが可能となる。
なお、重畳される仮想オブジェクトは、操作体200−3の位置姿勢情報に基づいて変更されてもよい。例えば、表示制御部108は、操作体200−1のジェスチャ、例えばうなずく動作、かしげる動作またはジャンプ等が行われることによって変化する操作体200−1の位置姿勢に応じて、仮想オブジェクトの表示位置、色彩もしくは形態等を変更し、または表示される仮想オブジェクトを異なる仮想オブジェクトに変更する。
また、重畳される仮想オブジェクトは、操作体200−3から受信される画像に基づいて別途生成されてもよい。例えば、表示制御部108は、画像認識技術等を用いて、受信される画像に写されている物体を特定し、特定される物体に係る表示オブジェクトを生成する。そして、表示制御部108は、生成される表示オブジェクトを当該画像に重畳させる。なお、表示オブジェクトは外部装置から取得されてもよい。
<4−3.変形例>
以上、本開示の第3の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
本実施形態の変形例として、制御装置100−3は、当該装置のユーザと異なる他の制御装置100−3のユーザ(以下、他のユーザとも称する。)に係る対応オブジェクトが操作体200−3の画像視野に基づいて生成される画像において表示されるように制御を行ってもよい。具体的には、表示制御部108は、操作体200−3から受信される画像に写される他のユーザに係る対応オブジェクトを当該画像に重畳させる。さらに、図15を参照して本変形例について詳細に説明する。図15は、本実施形態の第2の変形例に係る制御装置100−3を用いた制御システムの構成例を示す図である。
例えば、本変形例に係る制御システムは、図15に示したように、制御装置100−3、サーバ400および無線ルータ500で構成され得る。
まず、制御装置100−3は、通信を介してサーバ400に操作体200−3の位置姿勢情報を送信する。例えば、図15に示したような制御装置100−3Aの通信部102は、操作体200−3Aから位置姿勢情報を受信すると、無線ルータ500Aおよびネットワーク1を介してサーバ400に位置姿勢情報を送信する。
サーバ400は、位置姿勢情報の送受信および管理を行う。例えば、サーバ400は、制御装置100−3の各々から受信される位置姿勢情報を記憶部に記憶させる。そして、定期的に、または制御装置100−3からの要求があった際に、制御装置100−3の各々に送信先の制御装置100−3以外の制御装置100−3の位置姿勢情報を送信する。例えば、サーバ400は、制御装置100−3Aの位置姿勢情報を制御装置100−3Bに送信し得る。なお、位置姿勢情報は同一空間座標系の情報であり得る。
他の制御装置100−3の位置姿勢情報が受信されると、制御装置100−3は、当該位置姿勢情報に基づいて当該他の制御装置100−3の他のユーザを示す対応オブジェクトを生成する。例えば、表示制御部108は、受信される位置姿勢情報の示す位置に対応する仮想空間上の位置に他のユーザを示す対応オブジェクト、例えば人型のオブジェクトを生成する。なお、対応オブジェクトは、ユーザを示すオブジェクトに限定されず、ユーザの操作に係る物体、例えば操作される人形が擬人化されたオブジェクトであってもよい。また、対応オブジェクトはユーザ毎に異なってもよい。
そして、制御装置100−3は、操作体200−3の画像視野内に生成される対応オブジェクトが位置する場合、当該対応オブジェクトを操作体200−3から受信される画像に重畳させる。
なお、図11では、サーバ400は無線ルータ500を介して制御装置100−3の各々と接続される例を示したが、サーバ400は有線のみを介して制御装置100−3の各々と接続されてもよい。
このように、本実施形態の変形例によれば、表示制御部108は、操作体200−3の画像視野に基づいて生成される画像において他のユーザに係る対応オブジェクトが表示されるように制御を行う。このため、制御装置100−3の利用ユーザが一目で把握されることにより、ユーザ間でコミュニケーションが行われ易くすることが可能となる。
なお、本変形例の処理は、第1の実施形態についても適用可能である。例えば、表示制御部108は、操作体200−1の画像視野に基づいて生成される画像に他のユーザに係る対応オブジェクトを表示する。
さらに、表示制御部108は、第1の実施形態において、ユーザの画像視野に基づいて生成される画像において他のユーザに係る対応オブジェクトが表示されるように制御を行ってもよい。
<5.本開示の一実施形態に係る制御装置のハードウェア構成>
以上、本開示の実施形態を説明した。上述した制御装置100の処理は、ソフトウェアと、以下に説明する制御装置100のハードウェアとの協働により実現される。
図16は、本開示に係る制御装置100のハードウェア構成を示した説明図である。図16に示したように、制御装置100は、CPU(Central Processing Unit)132と、ROM(Read Only Memory)134と、RAM(Random Access Memory)136と、ブリッジ138と、バス140と、インターフェース142と、入力装置144と、出力装置146と、ストレージ装置148と、ドライブ150と、接続ポート152と、通信装置154とを備える。
CPU132は、演算処理部および制御部として機能し、各種プログラムと協働して制御装置100内の決定部106、表示制御部108、動作制御部112、判定部および検出部の動作を実現する。また、CPU132は、マイクロプロセッサであってもよい。ROM134は、CPU132が使用するプログラムまたは演算パラメータ等を記憶する。RAM136は、CPU132の実行にいて使用するプログラムまたは実行において適宜変化するパラメータ等を一時記憶する。ROM134およびRAM136により、制御装置100内の記憶部の一部を実現する。CPU132、ROM134およびRAM136は、CPUバスなどから構成される内部バスにより相互に接続されている。
入力装置144は、マウス、キーボード、タッチパネル、ボタン、マイクロホン、スイッチおよびレバーなどユーザが情報を入力するための入力手段、ならびにユーザによる入力に基づいて入力信号を生成し、CPU132に出力する入力制御回路などから構成されている。制御装置100のユーザは、入力装置144を操作することにより、制御装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置146は、例えば、制御装置100の表示部110の一例として、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置、ランプなどの装置への出力を行う。さらに、出力装置146は、スピーカおよびヘッドフォンなどの音声出力を行ってもよい。
ストレージ装置148は、データ格納用の装置である。ストレージ装置148は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置148は、CPU132が実行するプログラムや各種データを格納する。
ドライブ150は、記憶媒体用リーダライタであり、制御装置100に内蔵、あるいは外付けされる。ドライブ150は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記憶されている情報を読み出して、RAM134に出力する。また、ドライブ150は、リムーバブル記憶媒体に情報を書込むこともできる。
接続ポート152は、例えば、制御装置100の外部の制御装置または周辺機器と接続するためのバスである。また、接続ポート152は、USB(Universal Serial Bus)であってもよい。
通信装置154は、例えば、制御装置100の通信部102の一例として、ネットワークに接続するための通信デバイスで構成された通信インターフェースである。また、通信装置154は、赤外線通信対応装置であっても、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<6.むすび>
以上、本開示の第1の実施形態によれば、ユーザの操作する操作体等の位置姿勢に応じた画像が表示されることにより、ユーザが頭部を動かすことなく、表示装置の表示対象となる範囲をユーザの意図通りに制御することが可能となる。また、これにより、ユーザの頭部の可動範囲を超えた動きにおけるダイナミックな視点変化をユーザに提供することが可能となる。また、本開示の第2の実施形態によれば、例えばロボット等の操作において、操作によって変化されるロボット等の画像視野に基づいて生成される画像とユーザの頭部の動きとが一致しないことによるユーザの映像酔いを抑制することが可能となる。また、本開示の第3の実施形態によれば、操作体200−3の位置姿勢に応じて決定される画像視野に基づいて生成される仮想オブジェクトが、操作体200−3の撮像により得られる画像に重畳されることにより、ユーザに違和感を与えることなく表示の情報量または躍動感等を向上させることが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、表示制御部108はユーザの態様等に基づいて画像視野を切り替える例を説明したが、表示制御部108は仮想空間上のイベントに基づいて画像視野を切り替えてもよい。例えば、表示制御部108は場面の切り替えに応じて操作体200の画像視野またはユーザの画像視野のうちのいずれかに画像視野を切り替え得る。
また、表示制御部108は、制御装置100のユーザの移動に基づいて画像視野を切り替えてもよい。例えば、表示制御部108は、センサ104によって制御装置100の移動、すなわちユーザの移動が検出されると、操作体200の画像視野からユーザの画像視野に切り替える。
また、上記実施形態では、初期視野における仮想カメラの画角は、画像視野が人間の視野よりも狭くなるような画角である例を説明したが、初期視野における仮想カメラの画角は、画像視野が人間の視野と同じ広さとなるような画角であってもよい。
また、上記実施形態では、表示制御部108はユーザ操作の操作量に応じて画像視野の広さを制御する例を説明したが、表示制御部108はユーザの操作する操作体200のサイズもしくは種類に応じて、または操作体200毎に画像視野の広さを変更してもよい。
また、表示制御部108は、仮想空間上のイベントに基づいて画像視野の広さを変更してもよい。例えば、表示制御部108は、仮想空間上のイベントが発生すると、仮想カメラまたは撮像部の画角を当該発生イベントに対応する予め決定される画角に変更する。
また、表示制御部108は、操作体200等と位置姿勢に応じて画像視野の広さを変更してもよい。例えば、表示制御部108は、操作体200が下方を向いている場合、画像視野を狭くしてもよく、操作体200が上方を向いている場合、画像視野を広くしてもよい。
また、表示制御部108は、画像視野の広さに応じて表示の変化量を制御してもよい。例えば、表示制御部108は、画像視野が狭くなる程に、例えば仮想空間の景色の変化の速さを低下させ得る。
また、上記実施形態では、制御装置100は、表示部110を備えるHMDである例を説明したが、制御装置100は、別体の表示装置と接続される制御装置であってもよい。例えば、制御装置100は、通信部102、決定部106および表示制御部108を備えるサーバであってもよい。
また、操作体200は出力部を備え、制御装置100は、仮想空間上のイベント等に基づいて操作体200の出力部の動作を制御してもよい。例えば、動作制御部112は、仮想空間上のイベントが発生すると、当該イベントに対するハプティクスフィードバックとして、通信を介して操作体200の出力部に動作指示を行う。なお、出力部は、例えば音声出力または振動出力等であり得る。
また、操作体200は入力部を備え、制御装置100は、表示部110とは異なる出力部を備え、出力部は、通信を介して操作体200の入力部に入力される情報を取得し、取得される情報に基づいて出力を行ってもよい。例えば、入力部はステレオマイク等の集音センサであり、出力部はヘッドフォン等のスピーカであり得る。
また、表示制御部108は、表示部110に表示させる画像の描画の速さを制御してもよい。例えば、表示制御部108は、操作体200もしくは動作装置300から受信される画像、または仮想空間に係る画像のレンダリングの遅延時間を制御し得る。これにより、表示される画像に対してユーザに遅さまたは重さの印象を与えることが可能となる。
また、本開示の各実施形態に係る制御装置100は、ゲームアプリケーション、メカニカルマニピュレーションまたはロボットを用いたテレプレゼンス等に適用可能である。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得部と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御部と、を備える制御装置。
(2)前記画像視野は、仮想空間の少なくとも一部を含む、前記(1)に記載の制御装置。
(3)前記取得部は、ユーザの頭部の位置姿勢情報を取得し、前記制御部は、前記ユーザの態様に基づいて、前記ユーザ操作に係る物体の位置姿勢情報により特定される第1の画像視野または前記ユーザの頭部の位置姿勢情報により特定される第2の画像視野のいずれかを前記画像として表示される範囲として選択する、前記(2)に記載の制御装置。
(4)前記制御部は、所定のユーザ操作が行われる場合、前記第2の画像視野を選択する、前記(3)に記載の制御装置。
(5)前記制御部は、前記ユーザ操作に係る物体および前記ユーザの頭部の位置または姿勢が互いに異なる方向に変化される場合、前記第2の画像視野を選択する、前記(4)に記載の制御装置。
(6)前記ユーザが映像酔い状態であるかを判定する判定部をさらに備え、前記制御部は、前記判定部によって前記ユーザが映像酔い状態あると判定される場合、前記第2の画像視野を選択する、前記(3)〜(5)のいずれか1項に記載の制御装置。
(7)前記判定部は、前記ユーザの頭部の変位が閾値以上である場合、前記ユーザが映像酔い状態であると判定する、前記(6)に記載の制御装置。
(8)前記制御部は、前記ユーザが前記第1の画像視野の操作者であるかに基づいて、前記第1の画像視野または前記第2の画像視野のいずれかを選択する、前記(3)に記載の制御装置。
(9)前記制御部は、前記ユーザ操作に係る物体に対応する対応オブジェクトが前記第1の画像視野に基づいて生成される画像に表示されるように制御を行う、前記(3)〜(8)のいずれか1項に記載の制御装置。
(10)前記対応オブジェクトは、前記ユーザ操作に係る物体の少なくとも一部を示す、前記(9)に記載の制御装置。
(11)前記対応オブジェクトは、前記ユーザ操作に係る物体の形態または種類に応じて異なる、前記(9)または(10)に記載の制御装置。
(12)前記制御部は、前記ユーザ操作の操作量に応じて、前記第1の画像視野の広さを制御する、前記(3)〜(11)のいずれかの1項に記載の制御装置。
(13)前記ユーザ操作に係る物体は、仮想空間上の仮想オブジェクトを含み、前記第1の画像視野は、前記仮想オブジェクトの位置姿勢に基づいて特定される画像視野を含む、前記(3)〜(12)のいずれか1項に記載の制御装置。
(14)前記ユーザ操作に係る物体は、操作体を含み、前記制御部は、前記操作体の一部のみの位置または姿勢が変化される場合、前記操作体の一部の位置または姿勢の変化量に応じて前記仮想オブジェクトの仮想空間上の移動の速さを変更する、前記(13)に記載の制御装置。
(15)前記制御部は、前記ユーザの頭部の位置姿勢情報に基づいて、前記第1の画像視野を制御する、前記(13)に記載の制御装置。
(16)前記制御部は、前記第1の画像視野または前記第2の画像視野において、前記ユーザと異なる他のユーザを示すオブジェクトが表示されるように制御を行う、前記(9)〜(15)のいずれか1項に記載の制御装置。
(17)前記画像視野は、現実空間の一部を含む、前記(1)に記載の制御装置。
(18)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を受信することと、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御することと、を含む制御方法。
(19)ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を受信する受信機能と、前記位置姿勢情報に基づいて、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野を制御する制御機能と、をコンピュータに実現させるためのプログラム。
(20)ユーザの頭部に装着される表示装置と、前記ユーザの頭部と異なる位置にあるユーザ操作に係る物体の位置または姿勢に係る位置姿勢情報を取得する取得部と、前記位置姿勢情報に基づいて、前記表示装置に画像として表示される範囲である画像視野を制御する制御部と、を有する制御装置と、を備える制御システム。
100 制御装置
102 通信部
104 センサ
106 決定部
108 表示制御部
110 表示部
112 動作制御部
200 操作体
202 センサ
204 制御部
206 通信部
208 撮像部
300 動作装置
400 サーバ

Claims (19)

  1. ーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得する取得部と、
    前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択する制御部と、
    を備える制御装置。
  2. 前記画像視野は、仮想空間の少なくとも一部を含む、請求項1に記載の制御装置。
  3. 前記制御部は、所定のユーザ操作が行われる場合、前記第2の画像視野を選択する、請求項に記載の制御装置。
  4. 前記制御部は、前記ユーザ操作に係る物体および前記ユーザの頭部の位置または姿勢が互いに異なる方向に変化される場合、前記第2の画像視野を選択する、請求項に記載の制御装置。
  5. 前記ユーザが映像酔い状態であるかを判定する判定部をさらに備え、
    前記制御部は、前記判定部によって前記ユーザが映像酔い状態あると判定される場合、前記第2の画像視野を選択する、請求項3または4に記載の制御装置。
  6. 前記判定部は、前記ユーザの頭部の変位が閾値以上である場合、前記ユーザが映像酔い状態であると判定する、請求項に記載の制御装置。
  7. 前記制御部は、前記ユーザが前記第1の画像視野の操作者であるかに基づいて、前記第1の画像視野または前記第2の画像視野のいずれかを選択する、請求項に記載の制御装置。
  8. 前記制御部は、前記ユーザ操作に係る物体に対応する対応オブジェクトが前記第1の画像視野に基づいて生成される画像に表示されるように制御を行う、請求項3からのいずれか1項に記載の制御装置。
  9. 前記対応オブジェクトは、前記ユーザ操作に係る物体の少なくとも一部を示す、請求項に記載の制御装置。
  10. 前記対応オブジェクトは、前記ユーザ操作に係る物体の形態または種類に応じて異なる、請求項またはに記載の制御装置。
  11. 前記制御部は、前記ユーザ操作の操作量に応じて、前記第1の画像視野の広さを制御する、請求項3から10のいずれか1項に記載の制御装置。
  12. 前記ユーザ操作に係る物体は、仮想空間上の仮想オブジェクトを含み、
    前記第1の画像視野は、前記仮想オブジェクトの位置姿勢に基づいて特定される画像視野を含む、請求項3から11のいずれか1項に記載の制御装置。
  13. 前記ユーザ操作に係る物体は、操作体を含み、
    前記制御部は、前記操作体の一部のみの位置または姿勢が変化される場合、前記操作体の一部の位置または姿勢の変化量に応じて前記仮想オブジェクトの仮想空間上の移動の速さを変更する、請求項12に記載の制御装置。
  14. 前記制御部は、前記第2の位置姿勢情報に基づいて、前記第1の画像視野を制御する、請求項12に記載の制御装置。
  15. 前記制御部は、前記第1の画像視野または前記第2の画像視野において、前記ユーザと異なる他のユーザを示すオブジェクトが表示されるように制御を行う、請求項から14のいずれか1項に記載の制御装置。
  16. 前記画像視野は、現実空間の一部を含む、請求項1に記載の制御装置。
  17. 前記画像視野は、撮像装置の撮像における被写体の範囲を含む、請求項16に記載の制御装置。
  18. ーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得することと、
    前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択することと、
    を含む制御方法。
  19. ーザ操作に係る物体の位置または姿勢に係る第1の位置姿勢情報と、ユーザの頭部の第2の位置姿勢情報とを取得する取得機能と、
    前記第1の位置姿勢情報により特定される第1の画像視野または前記第2の位置姿勢情報により特定される第2の画像視野のいずれかを、前記ユーザの頭部に装着される表示装置に画像として表示される範囲である画像視野として選択する制御機能と、
    をコンピュータに実現させるためのプログラム。
JP2016548589A 2014-09-19 2015-06-15 制御装置、制御方法およびプログラム Active JP6601402B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014192006 2014-09-19
JP2014192006 2014-09-19
PCT/JP2015/067152 WO2016042862A1 (ja) 2014-09-19 2015-06-15 制御装置、制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2016042862A1 JPWO2016042862A1 (ja) 2017-07-06
JP6601402B2 true JP6601402B2 (ja) 2019-11-06

Family

ID=55532907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016548589A Active JP6601402B2 (ja) 2014-09-19 2015-06-15 制御装置、制御方法およびプログラム

Country Status (6)

Country Link
US (1) US10579109B2 (ja)
EP (1) EP3196734B1 (ja)
JP (1) JP6601402B2 (ja)
KR (1) KR20170062439A (ja)
CN (1) CN106687888A (ja)
WO (1) WO2016042862A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180018211A (ko) * 2016-08-12 2018-02-21 엘지전자 주식회사 자가 학습 로봇
JP6984645B2 (ja) * 2017-02-23 2021-12-22 ソニーグループ株式会社 画像処理装置、画像処理方法、および画像システム
JP6684746B2 (ja) * 2017-05-12 2020-04-22 株式会社コロプラ 情報処理方法、コンピュータ及びプログラム
DE102017208936A1 (de) * 2017-05-29 2018-11-29 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
CN108854072A (zh) * 2018-06-22 2018-11-23 北京心智互动科技有限公司 一种声音提示方法及装置
CN110868581A (zh) 2018-08-28 2020-03-06 华为技术有限公司 一种图像的显示方法、装置及系统
JP2022051972A (ja) * 2019-02-06 2022-04-04 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
JPWO2020235191A1 (ja) * 2019-05-21 2020-11-26
TWI813907B (zh) * 2020-09-30 2023-09-01 優派國際股份有限公司 觸控顯示裝置及其操作方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06270076A (ja) * 1993-03-25 1994-09-27 Nippon Steel Corp 遠隔操作用カメラ制御装置
JPH06289773A (ja) * 1993-04-05 1994-10-18 Toshiba Corp 発電所運転訓練装置
JP3447397B2 (ja) * 1994-10-24 2003-09-16 株式会社ナムコ 3次元シミュレータ装置及び画像合成方法
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US6497649B2 (en) * 2001-01-21 2002-12-24 University Of Washington Alleviating motion, simulator, and virtual environmental sickness by presenting visual scene components matched to inner ear vestibular sensations
JP4208601B2 (ja) * 2003-02-24 2009-01-14 キヤノン株式会社 表示制御方法、及び表示制御装置
WO2006020846A2 (en) * 2004-08-11 2006-02-23 THE GOVERNMENT OF THE UNITED STATES OF AMERICA as represented by THE SECRETARY OF THE NAVY Naval Research Laboratory Simulated locomotion method and apparatus
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
CN100590660C (zh) * 2005-07-15 2010-02-17 佳能株式会社 图像处理设备和设计方法
JP4914123B2 (ja) * 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法
JP2007272067A (ja) * 2006-03-31 2007-10-18 Brother Ind Ltd 画像表示装置
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6026088B2 (ja) * 2011-08-09 2016-11-16 株式会社トプコン 遠隔操作システム
JP5990998B2 (ja) * 2012-04-23 2016-09-14 セイコーエプソン株式会社 虚像表示装置
JP2013258614A (ja) 2012-06-13 2013-12-26 Sony Computer Entertainment Inc 画像生成装置および画像生成方法
JP6066676B2 (ja) * 2012-11-06 2017-01-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイおよび映像提示システム
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
US9645395B2 (en) * 2013-03-15 2017-05-09 Mark Bolas Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
CN103927005B (zh) * 2014-04-02 2017-02-01 北京智谷睿拓技术服务有限公司 显示控制方法及显示控制装置

Also Published As

Publication number Publication date
KR20170062439A (ko) 2017-06-07
US20170285694A1 (en) 2017-10-05
CN106687888A (zh) 2017-05-17
WO2016042862A1 (ja) 2016-03-24
EP3196734A4 (en) 2018-04-18
EP3196734B1 (en) 2019-08-14
US10579109B2 (en) 2020-03-03
JPWO2016042862A1 (ja) 2017-07-06
EP3196734A1 (en) 2017-07-26

Similar Documents

Publication Publication Date Title
JP6601402B2 (ja) 制御装置、制御方法およびプログラム
JP6093473B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
EP3117290B1 (en) Interactive information display
EP3262505B1 (en) Interactive system control apparatus and method
TW202105129A (zh) 具有用於閘控使用者介面元件的個人助理元件之人工實境系統
EP3797931B1 (en) Remote control system, information processing method, and program
CN111831104B (zh) 头戴式显示系统、相关方法及相关计算机可读取记录媒体
WO2019142560A1 (ja) 視線を誘導する情報処理装置
JP6220937B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
US20220291744A1 (en) Display processing device, display processing method, and recording medium
EP3221771A1 (en) Interactive vehicle control system
JP2022184958A (ja) アニメーション制作システム
JPWO2017064926A1 (ja) 情報処理装置及び情報処理方法
JP2019197478A (ja) プログラム、及び情報処理装置
US8307295B2 (en) Method for controlling a computer generated or physical character based on visual focus
JP6122194B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US12017351B2 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
GB2535730A (en) Interactive system control apparatus and method
WO2024075565A1 (ja) 表示制御装置および表示制御方法
JP2018029969A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP7113065B2 (ja) コンピュータプログラム、方法、及び、サーバ
JP2018026099A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2022184456A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190923

R151 Written notification of patent or utility model registration

Ref document number: 6601402

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151