JP2022118501A - 表示システム、表示装置とその制御方法及びプログラム - Google Patents

表示システム、表示装置とその制御方法及びプログラム Download PDF

Info

Publication number
JP2022118501A
JP2022118501A JP2021015070A JP2021015070A JP2022118501A JP 2022118501 A JP2022118501 A JP 2022118501A JP 2021015070 A JP2021015070 A JP 2021015070A JP 2021015070 A JP2021015070 A JP 2021015070A JP 2022118501 A JP2022118501 A JP 2022118501A
Authority
JP
Japan
Prior art keywords
display
information processing
processing device
virtual object
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021015070A
Other languages
English (en)
Other versions
JP2022118501A5 (ja
Inventor
隆幸 安田
Takayuki Yasuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021015070A priority Critical patent/JP2022118501A/ja
Priority to US17/575,752 priority patent/US11842119B2/en
Publication of JP2022118501A publication Critical patent/JP2022118501A/ja
Publication of JP2022118501A5 publication Critical patent/JP2022118501A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/32Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory with means for controlling the display position

Abstract

【課題】仮想オブジェクトを表示した際に、視認性を維持しながら高い操作性を得ることが可能な表示システムを提供する。【解決手段】スマートフォン100と、撮像部203を備えるスマートグラス110とが通信可能に接続されて構成される表示システムは、撮像部203により撮像された画像からスマートフォン100の情報を検出する検出手段を有する。スマートグラス110は、仮想オブジェクト600の表示が可能な表示部204と、検出されたスマートフォン100の情報に基づいてスマートフォン100に隣接させ又は一部を重畳させて仮想オブジェクト600を表示部204に表示する表示制御部304を備える。【選択図】図7

Description

本発明は、表示システム、表示装置とその制御方法及びプログラムに関する。
頭部装着型の表示装置の表示部に拡張現実画像を効果的に表示させる技術が知られている。例えば、特許文献1には、頭部装着型の表示装置の表示部に、拡張現実画像を実物体に付加されているように表示させて、高いリアル感を得ることを可能にする技術が記載されている。
特開2015-32131号公報
しかしながら、上記特許文献1に記載された技術では、仮想オブジェクトが実物体に付加されているように表示させることができるが、視認性が低下してしまうという問題や、視認性の低下によって仮想オブジェクトの操作性が低下してしまうという問題がある。
本発明は、仮想オブジェクトを表示した際に、視認性を維持しながら高い操作性を得ることが可能な表示システムを提供することを目的とする。
本発明に係る表示システムは、情報処理装置と、前記情報処理装置と通信可能であり、撮像手段を有する頭部装着型の表示装置と、を備える表示システムであって、前記撮像手段により撮像された画像から前記情報処理装置の情報を検出する検出手段を有し、前記表示装置は、仮想オブジェクトの表示が可能な表示部と、前記情報に基づいて前記情報処理装置に隣接させ又は一部を重畳させて前記仮想オブジェクトを前記表示部に表示する表示制御手段と、を有することを特徴とする。
本発明によれば、仮想オブジェクトを表示した際に、視認性を維持しながら高い操作性を得ることが可能な表示システムを実現することができる。
本発明の実施形態に係る表示システムの概略構成を示す図である。 スマートグラスの外観斜視図である。 第1実施形態に係る表示システムを構成するスマートグラス及びスマートフォンの概略構成を示すブロック図である。 第1実施形態でのスマートフォンが右表示部を通して視認可能な位置にある状態の一例を示す図である。 第1実施形態でのスマートフォンの傾きを検出する方法を示す模式図である。 第1実施形態での仮想オブジェクトの表示例を示す図である。 第1実施形態での仮想オブジェクトの表示方法を説明する模式図である。 第1実施形態での表示システムの制御を説明するフローチャートである。 第2実施形態に係る表示システムを構成するスマートグラスの概略構成を示すブロック図である。 第2実施形態でのスマートフォンの画面表示例と、スマートグラスの表示部に表示される仮想オブジェクトとの関係を説明する模式図である。 第2実施形態での表示システムの制御を説明するフローチャートである。 第3実施形態に係る表示システムを構成するスマートグラスの概略構成を示すブロック図である。 第3実施形態での仮想オブジェクトの表示例を示す図である。 第2実施形態でのスマートグラスの制御を説明するフローチャートである。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
<表示システムの概略構成>
図1は、本発明の実施形態に係る表示システムの概略構成を示す図である。図1の表示システムは、情報処理装置の一例としてのスマートフォン100と、頭部装着型の表示装置の一例としてのスマートグラス110とが、無線通信経路120を介して通信可能に接続されることによって構成される。
スマートフォン100は、各種のアイコンや写真情報等を表示することができ、また、タッチパネルが重畳配置されてタッチ操作が可能となっている表示部101を有する。スマートフォン100のより詳しい構成については後述する。
なお、スマートフォン100は周知のもので構わないため、詳細な説明を省略する。また、本発明に係る表示システムを構成する情報処理装置は、スマートフォン100に限定されるものではなく、タブレットPCや携帯ゲーム機等の他の電子機器であってもよい。本発明は、情報処理装置としては、ユーザが手に取って操作する携帯型のものを想定している。
無線通信経路120は、スマートフォン100とスマートグラス110とを通信可能に接続する。無線通信経路120としては、Bluetooth(登録商標)やWi-Fiによる直接通信や、不図示のアクセスポイント装置を介した無線LAN通信等が挙げられ、特に限定されるものではない。スマートフォン100とスマートグラス110の間で行われる通信には、スマートグラス110からスマートフォン100へのペアリング要求と、これに対するスマートフォン100からスマートグラス110へのペアリング許可が挙げられる。
次に、スマートグラス110について図2を参照して説明する。図2は、スマートグラス110の外観斜視図である。なお、図1では、スマートグラス110については、細部が省略されて表されている。スマートグラス110は、無線通信部201、制御ユニット202、撮像部203及び表示部204を備える。また、スマートグラス110は、電源スイッチ等の不図示の操作部を備える。
スマートグラス110は、眼鏡型のヘッドマウントディスプレイ(HMD)として構成されている。スマートグラス110は、ユーザが表示部204に表示された画像(表示画像)を視認すると同時に外景を直接視認することが可能な光学透過型のHMDとして構成されている。なお、本発明に係る表示システムを構成する頭部装着型の表示装置は、眼鏡型に限られず、目の周囲を覆うゴーグル型や頭部全体に被さるヘルメット型等の他の型のものであってもよい。
無線通信部201は、無線通信経路120を介してスマートフォン100との間で双方向に通信を行う。なお、無線通信部201は、図2ではシンボルとしてのアンテナで示されているが、スマートグラス110のフレームに内蔵されていてもよい。撮像部203は、レンズやイメージセンサを有するカメラであるが、これに限られない。例えば、撮像部として、ライダー(LIDAR:Laser Imaging Detection and Ranging)を備えていてもよい。つまり、撮像部は、対象物の撮像画像(距離画像)を取得できるものであれば、その種類を問わない。制御ユニット202は、スマートグラス110の全体的な動作を制御し、その詳細については図3を参照して後述する。
スマートグラス110は、前述したように光学透過型のHMDとして構成されている。つまり、一般的な眼鏡のレンズに相当する表示部204は、透光性の高い(透光率の大きい)材料で形成されており、画像を表示していない状態ではユーザの視界を遮らない透過型ディスプレイとなっている。そして、スマートグラス110は、透過型ディスプレイである表示部204に、仮想オブジェクト600(図6及び図7等参照)を表示すると共に、表示部204を通して実物体を視認することができるように構成されている。表示部204は、ユーザの右眼の眼前に配置される右表示部204Rと、左眼の眼前に配置される左表示部204Lから構成される。
<第1実施形態>
図3(a)は、第1実施形態に係るスマートグラス110の概略構成を示すブロック図である。スマートグラス110は、無線通信部201、制御ユニット202、撮像部203及び表示部204を備える。無線通信部201、撮像部203及び表示部204については、図2を参照して説明済みであるため、ここでの説明を省略する。
制御ユニット202は、CPU、ROM、RAM、フラッシュメモリ等から構成される所謂マイクロコンピュータを備えている。CPUがROMに格納された所定のプログラムをRAMに展開、実行することにより、制御ユニット202は、検出部及び表示制御部304として機能する。検出部は、距離検出部301、位置検出部302及び傾き検出部303を有し、撮像部203により撮像された画像からスマートフォン100の情報を検出する。なお、CPUは、ROMに格納されたOSプログラムをRAMに展開することにより、スマートグラス110で実行可能な各種の動作を制御する。
距離検出部301は、スマートフォン100の情報の1つとして、撮像部203により撮像された画像から、スマートグラス110(表示部204)からスマートフォン100までの距離情報を検出する。ここで、第1実施形態での説明において、撮像部203による撮像対象となるスマートフォン100の無線通信部311(図3(b)参照)とスマートグラス110の無線通信部201は、無線通信経路120を介して無線通信を実行するための無線接続が確立されている(ペアリングされている)ものとする。距離検出部301は、撮像部203によりスマートフォン100が撮像された画像から演算(画像処理)により、スマートグラス110(表示部204)とスマートフォン100の間の距離Lを、例えば‘L=50cm’のように距離情報として検出する。
位置検出部302は、スマートフォン100の情報の1つとして、撮像部203によりスマートフォン100が撮像された画像から、演算(画像処理)により、スマートフォン100の位置情報を検出する。スマートフォン100の位置情報とは、撮像された画像内のスマートフォン100が表示部204に対してどの位置(方角)にあるか示す情報である。なお、位置情報の検出方法については図4を参照して後述する。
傾き検出部303は、スマートフォン100の情報の1つとして、撮像部203によりスマートフォン100が撮像された画像から、演算(画像処理)により、撮像されたスマートフォン100の傾きを検出する。傾き検出部303は、具体的には、縦回転方向の傾き、水平回転方向の傾き、回転軸方向の傾きを検出する。なお、スマートフォン100の傾き情報の検出方法については図5を参照して後述する。
表示制御部304は、距離検出部301、位置検出部302及び傾き検出部303により検出された距離、位置及び傾きの情報に基づいて、表示部204に仮想オブジェクトを表示するための制御を司る。
図3(b)は、スマートフォン100のブロック図である。スマートフォン100は、無線通信部311、制御ユニット312及び表示部101を有する。無線通信部311は、例えば、無線通信経路120を介してスマートグラス110からのペアリング要求等の通信確立要求に対して許可を行う。また、無線通信部311は、スマートグラス110
制御ユニット312は、CPU、ROM、RAM、EEPROM等で構成され、ROMやEEPROMに格納されている所定のプログラムを実行することにより、スマートフォン100の全体的な動作を制御する。表示部101は、各種の情報を表示する液晶ディスプレイや有機ELディスプレイに、操作手段としてのタッチパネルが重畳されて構成される。
次に、スマートグラス110によるスマートフォン100の検出方法について説明する。まず、スマートグラス110の位置検出部302によるスマートフォン100の位置検出方法について説明する。
図4は、右表示部204Rを通してスマートフォン100を実物体として視認している状態の一例を示している。前述したように、スマートフォン100の位置情報は、撮像部203の撮影画角内にスマートフォン100がある状態で撮像部203により撮像された画像を用いて求められる。右表示部204Rの原点401に対して、スマートフォン100の座標402はスマートフォン100の右上の角の位置で定義されるものとする。右表示部204Rは、横の長さが‘A’、縦の長さが‘B’となっている。例えば、右表示部204Rの横の長さA=3cm、縦の長さB=2cmの場合に、位置検出部302は、スマートフォン100の座標402を[縦,横]=[1.5cm,0.5cm]のように検出される。
続いて、傾き検出部303によるスマートフォン100の傾き検出方法について説明する。傾き検出部303は、縦回転方向の傾き、水平回転方向の傾き、回転軸方向の傾きを検出する。
図5(a)は、スマートフォン100の縦回転方向の傾きを検出する方法を示す模式図である。なお、図5(a)及び後に示す図5(b),(c)では、スマートフォン100を簡略化して示している。スマートフォン100の縦回転方向とは、鉛直方向と直交する軸まわりの回転方向を指す。スマートフォン100の縦回転方向の傾きは、撮像部203により撮像されたスマートフォン100の下辺の長さ‘M’と上辺の長さ‘N’の比で求められる。例えば、M=5、N=4、と検出された場合の縦回転方向の傾きは、M:N=5:4、と求められる。なお、スマートフォン100は、表示部101と直交する方向から見た場合に、略四角形形状を有するものとする。
図5(b)は、スマートフォン100の水平回転方向の傾きを検出する方法を示す模式図である。スマートフォン100の水平回転方向とは、水平面と直交する軸まわりの回転方向を指す。スマートフォン100の水平回転方向の傾きは、スマートフォンの左辺の長さ‘K’と右辺の長さ‘L’の比で求められる。例えば、K=7、L=6、と検出された場合の水平回転方向の傾きは、K:L=7:6、と求められる。
図5(c)は、スマートフォン100の回転軸方向の傾きを検出する方法を示す模式図である。スマートフォン100の回転軸方向の傾きは、スマートフォン100の上辺が水平面に対して傾いている角度‘α’で求められる。例えば、スマートフォン100の上辺の水平面に対する傾きが30度であると検出された場合、α=30度、と求められる。
第1実施形態では、撮像部203によりスマートフォン100が撮像された画像から検出されるスマートグラス110に対するスマートフォン100の距離、位置及び傾きの各情報に基づいて、右表示部204Rに表示する仮想オブジェクトの態様が制御される。
図6(a),(b)はそれぞれ、スマートグラス110の右表示部204Rを透過して視認されるスマートフォン100に対する仮想オブジェクト600の右表示部204Rでの表示例を示す図である。仮想オブジェクト600は、透光性の高い材料で形成された右表示部204Rを通して直接視認されるスマートフォン100の座標402を基準として右辺に接し又は近接するように右表示部204Rに表示される。
距離検出部301、位置検出部302及び傾き検出部303は、スマートグラス110に対するスマートフォン100の距離、位置及び傾きの各情報を、撮像部203によりスマートフォン100が撮像された画像から逐次取得して検出し続ける。そして、図6(a),(b)に示されるように、スマートグラス110に対するスマートフォン100の距離、位置及び姿勢の変化に合わせて、右表示部204Rに表示される仮想オブジェクト600の表示態様を制御する。その制御の詳細について、図7及び図8を参照して以下に説明する。
図7は、スマートグラス110の右表示部204Rへの表示制御部304による仮想オブジェクト600の表示方法を説明する模式図である。表示制御部304は、スマートグラス110に対するスマートフォン100の距離、位置及び傾きの情報に基づいて、右表示部204Rに表示する仮想オブジェクト600の表示態様を制御する。
表示制御部304は、例えば、スマートフォン100の距離情報が50cmの場合、スマートグラス110の視点において50cmの位置に見えるように、仮想オブジェクト600を配置するように制御する。そして、表示制御部304は、仮想オブジェクト600の縦回転方向の傾き及び水平回転方向の傾きがそれぞれ、スマートフォン100の縦回転方向の傾き及び水平回転方向の傾きと同じになるように、仮想オブジェクト600にアフィン変換を施す。例えば、スマートフォン100の縦回転方向の傾きが‘M:N=5:4’であれば、下辺と上辺の比が‘下辺:上辺=5:4’となるように仮想オブジェクト600にアフィン変換を施す。また、スマートフォン100の水平回転方向の傾きが‘K:L=7:6’であれば、左辺と右辺の比が‘左辺:右辺=7:6’となるように仮想オブジェクト600にアフィン変換を施す。更に表示制御部304は、アフィン変換後の仮想オブジェクト600に対して、回転軸方向の傾きがスマートフォン100の回転軸方向の傾きと同じになるように回転処理を施す。例えば、スマートフォン100の回転軸方向の角度が30度であれば、アフィン変換後の仮想オブジェクト600を30度だけベクトル回転させる。
表示制御部304は、仮想オブジェクト600の左上の角の座標をスマートフォン100の座標402に一致又は近接させて、仮想オブジェクト600を右表示部204Rに配置するよう制御する。このとき、仮想オブジェクト600は、その上辺及び下辺がそれぞれスマートフォン100の上辺及び下辺と略一直線となるように、右表示部204Rに表示される。換言すれば、仮想オブジェクト600の左辺の長さは、スマートフォン100の右辺の長さと略等しい長さに設定される。こうして、図7に示す表示状態が得られる。
図8は、スマートフォン100の操作により仮想オブジェクト600の表示態様を制御する際にスマートフォン100及びスマートグラス110で実行される処理のフローチャートである。図8のフローチャートにおいて、スマートグラス110についてS番号で示す各処理(ステップ)は、スマートグラス110のCPUがROMに格納された所定のプログラムをRAMに展開してスマートグラス110の各部の動作を制御することにより実現される。
スマートグラス110に設けられた操作部に対するユーザの操作によりスマートグラス110の電源がオンし、これにより、表示部204への仮想オブジェクトの表示が可能となって、本処理が開始される。なお、スマートグラス110での処理開始時には、スマートフォン100の電源はオンの状態になっているものとする。
S801でCPUは、ユーザ操作に応じて、スマートフォン100へペアリング要求を行う。ここでのユーザ操作は、操作部に対する操作であってもよいし、撮像部203により撮像されたユーザのジェスチャーであってもよい。スマートフォン100は、S811にて、S801でのペアリング要求に対してペアリングを許可するものとする。スマートフォン100のブロック図は不図示としているが、スマートフォン100での処理は、スマートフォン100のCPUが所定のプログラムを実行して、スマートフォン100の各部の動作を制御することにより実現される。なお、スマートフォン100とスマートグラス110をペアリングさせるのは、例えば、撮像部203による撮像画像内に複数のスマートフォンがあった場合に、ペアリングされているスマートフォンを特定する手段として用いることができるためである。
S802では距離検出部301が、撮像部203によりスマートフォン100を撮像した画像から、スマートフォン100の距離情報を検出する。なお、第1実施形態では、仮想オブジェクト600をスマートフォン100により操作することを目的としているため、ユーザは表示部204を通してスマートフォン100を直接に視認していることを前提とする。そして、撮像部203による撮像画像には、スマートフォン100が映り込んでいるものとする。また、S802の前に制御ユニット202で撮像画像を解析(画像処理)し、その結果として撮像画像にスマートフォン100(表示部101)が映り込んでいないことが検知された場合には、本フローチャートの処理を終了させてもよい。
S803では位置検出部302が、撮像部203によりスマートフォン100を撮像した画像から、スマートフォン100の位置情報、つまり、スマートフォン100の右上の角の座標402を検出する。S804では傾き検出部303が、撮像部203によりスマートフォン100を撮像した画像から、スマートフォン100の傾き情報として、縦回転方向の傾き、水平回転方向の傾き及び回転軸方向の傾きを検出する。S805では表示制御部304が、S802~S804で求められたスマートフォン100の距離、位置及び傾きの情報に基づいて、表示部204(右表示部204R)に仮想オブジェクト600を表示する。
仮想オブジェクト600の表示は、例えば、ユーザの操作によりスマートグラス110の電源がオフされるまで継続される。その間、スマートフォン100の位置及び姿勢に関する情報の取得と仮想オブジェクト600の表示(S802~S805)の処理が繰り返される。つまり、表示制御部304は、スマートフォン100の位置及び姿勢の変化に追従させて仮想オブジェクトを変形させながら、スマートフォン100に隣接させて表示し続ける。
このように第1実施形態では、制御ユニット202により、スマートフォン100の距離、位置及び傾きの情報を検出し続け、これらの情報に基づいて表示部204に仮想オブジェクトを表示し続ける。これにより、ユーザは、スマートフォン100を直接に視認可能な状態で、スマートフォン100の姿勢や位置を変えることによって仮想オブジェクトの表示態様を変化させて鑑賞することができる。
なお、第1実施形態では、スマートフォン100の距離、位置及び傾きの情報をスマートグラス110で検出する構成としたが、このような構成に限られない。例えば、スマートフォン100がジャイロセンサ等により各種の傾き情報を持つ場合には、スマートフォン100がスマートグラス110へそれらの傾き情報を提供する構成としてもよい。また、スマートフォン100の距離情報及び位置情報についても、スマートフォン100がライダー等の測距機能を備える場合には、スマートフォン100がスマートグラス110へ距離情報及び位置情報を提供する構成としてもよい。
また、第1実施形態では、表示部204を通して直接視認可能なスマートフォン100の右側に隣接させて仮想オブジェクトを表示したが、仮想オブジェクトの表示位置はこれに限られない。例えば、スマートフォン100の左側に隣接させて仮想オブジェクトを表示してもよい。また、仮想オブジェクト600の一部又は全体がスマートフォン100の表示部101に重なるように表示してもよい。
<第2実施形態>
本発明の第2実施形態に係る表示システムは、第1実施形態に係る表示システムと比較すると、基本構成は同じであるが、スマートグラス110が備える制御ユニット202の構成が異なる。そこで、以下では、第2実施形態に係る表示システムの構成と制御について、制御ユニット202の構成とその機能を中心に説明する。なお、第2実施形態に係る表示システムの構成要素のうち、第1実施形態に係る表示システムの構成要素と実質的に同じものについては、同じ名称及び同じ符号を用いて、説明済みの事項については説明を省略する。
図9は、第2実施形態に係る表示システムを構成するスマートグラス110の概略構成を示すブロック図である。スマートグラス110は、無線通信部201、制御ユニット202、撮像部203及び表示部204を有する。制御ユニット202は、距離検出部301、位置検出部302、傾き検出部303、アイコン表示部901及び表示制御部902としての機能を備える。距離検出部301、位置検出部302及び傾き検出部303のそれぞれの機能は、第1実施形態での機能と同等であり、ここでの説明を省略する。
アイコン表示部901は、表示部204に表示される仮想オブジェクトの操作に用いられるアイコンをスマートフォン100に配置するための制御を行う。つまり、アイコン表示部901は、スマートフォン100に対して、仮想オブジェクトを操作するためのアイコンを表示部101に表示するように要求する。この要求を受けたスマートフォン100は、アイコン表示要求を許可する通知をアイコン表示部901に返すと共に、スマートフォン100の画面上に仮想オブジェクトを操作するためのアイコンを表示する。
なお、仮想オブジェクトを操作するためのアイコンを表示部101に表示するためのアプリケーション(ソフトウェア)は、事前にスマートフォン100に格納され、又は、無線通信経路120を介して外部装置から取得される。例えば、アイコンに対するユーザのフリック操作により仮想オブジェクト内のカーソルを移動させ、また、ダブルタップ操作により仮想オブジェクト600を部分的に拡大することが可能とする。
スマートフォン100の表示部101に配置されたアイコンに対する操作は、信号に変換されてスマートグラス110の表示制御部902へ送信される。表示制御部902は、スマートフォン100の表示部101に表示されたアイコンに対するユーザの操作を表す信号を受信し、受信した信号にしたがって仮想オブジェクト内に表示されたカーソルの移動や仮想オブジェクトの拡大/縮小表示等を制御する。
図10(a),(b)はそれぞれ、スマートフォン100での画面表示例と、スマートグラス110の表示部204に表示される仮想オブジェクト600との関係を説明する模式図である。なお、図10では、表示部204の表示を省略している。
図10(a)では、スマートフォン100の表示部101の左下に、仮想オブジェクト600を操作するためのアイコン1002が配置(表示)されている。アイコン1002内に示される矢印1003は、ユーザの指の操作方向を模式的に示しており(矢印1003が表示されているわけではない)、ここでは、アイコン1002に対して左側から右側へのフリック操作が行われている様子が示されている。
図10(a)に示される仮想オブジェクト600において、アイコン1002に対する左側から右側にフリック操作に基づいて、表示制御部902は、仮想オブジェクト600上のカーソル1004を矢印1005で示されるように左側から右側に移動させる。その結果、不図示であるが、カーソル1004は、右側の人物1006上へ移動する。
図10(b)において、アイコン1002内に示される丸印1007は、ユーザの指のダブルタップ操作を模式的に示している。図10(a)でのアイコン1002に対するフリック操作が行われた後に、図10(b)で示すようにユーザがアイコン1002に対してダブルタップ操作を行ったとする。これにより、図10(a)でのフリック操作によってカーソル1004は人物1006上へ移動しているため、人物1006上でカーソル1004が位置している領域が拡大表示される。こうして、図10(b)では、仮想オブジェクト600として、人物1006の上半身部1008のみが表示された状態となる。
図11は、アイコン1002に対する操作による仮想オブジェクト600の操作を可能とするために、スマートフォン100及びスマートグラス110で実行される処理のフローチャートである。図10のフローチャートにおいて、スマートグラス110についてS番号で示す各処理(ステップ)は、スマートグラス110のCPUがROMに格納された所定のプログラムをRAMに展開してスマートグラス110の各部の動作を制御することにより実現される。また、スマートフォン100についてS番号で示す各処理は、スマートフォン100のCPUが所定のプログラムを実行して、スマートフォン100の各部の動作を制御することにより実現される。
スマートグラス110に設けられた操作部に対するユーザの操作によりスマートグラス110の電源がオンし、これにより、表示部204への仮想オブジェクトの表示が可能となって、本処理が開始される。なお、スマートグラス110での処理開始時には、スマートフォン100の電源はオンの状態になっているものとする。また、S1101~S1105,S1111の処理は、図8のフローチャートのS801~805,S811の処理と同じであるため、説明を省略する。
S1105に続くS1106では制御ユニット202(CPU)が、ユーザの操作によってアイコン表示要求を受け付けたか否かを判定する。なお、ここでのユーザの操作は、操作部に対する操作であってもよいし、撮像部203により撮像されたユーザのジェスチャーであってもよい。制御ユニット202は、アイコン表示要求を受け付けていないと判定した場合(S1106でNO)、仮想オブジェクト600の表示を、第1実施形態と同様にして、例えば、ユーザの操作によりスマートグラス110の電源がオフされるまで継続する。その間、スマートフォン100の位置及び姿勢に関する情報の取得と仮想オブジェクト600の表示(S1102~S1105)の処理が繰り返される。
制御ユニット202は、アイコン表示要求を受け付けたと判定した場合(S1106でYES)、処理をS1107へ進める。S1107ではアイコン表示部901が、スマートフォン100へアイコン表示要求を行う。スマートフォン100のCPUはS1112にて、S1107でのアイコン表示要求に対してアイコン表示を許可し、アイコン表示を許可した旨をアイコン表示部へ返す。そして、S1113にてスマートフォン100のCPUは、表示部101にアイコン1002を表示する。これにより、ユーザによるアイコン1002の操作が可能となる。
スマートグラス110では、S1107でのアイコン表示要求に対するアイコン表示許可の応答に応じて、S1108にて表示制御部902が、表示部204へ仮想オブジェクト600を表示する。その際、図10に示したように、カーソル1004を仮想オブジェクト600に重畳表示する。S1108の後の処理は、S1106の判定が‘NO’となった場合の処理と同じであるため、説明を省略する。
このように第2実施形態では、表示部204に表示される仮想オブジェクトを操作するためのアイコンをスマートフォン100の表示部101に表示して、アイコンに対するユーザの操作によって仮想オブジェクトの操作を可能とする。これにより、仮想オブジェクトが表示されている表示部204に触れることなく、表示部204を通じて直視しているスマートフォン100にて、仮想オブジェクトを直感的に操作することが可能となる。つまり、スマートフォン100及び仮想オブジェクトの視認性を確保しながら、仮想オブジェクトを簡単に操作することが可能になる。
アイコン1002の表示位置は表示部101の左下に限られるものではなく、アイコン1002の大きさもユーザによる操作が容易である限りにおいて制限されない。また、表示部101に表示されるアイコンは、1つに限られるものではなく、複数のアイコン(例えば、所定の操作を行うための専用のアイコン)を表示するようにしてもよい。アイコン1002に対して実行可能な操作は、フリック及びダブルタップに限定されるものではなく、また、これらが必須である必要もなく、シングルタップやスワイプ、ピンチイン、ピンチアウト等であってもよい。
<第3実施形態>
本発明の第3実施形態に係る表示システムは、第1実施形態に係る表示システムと比較すると、基本構成は同じであるが、スマートグラス110が備える制御ユニット202の構成が異なる。そこで、以下では、第3実施形態に係る表示システムの構成と制御について、制御ユニット202の構成とその機能を中心に説明する。なお、第3実施形態に係る表示システムの構成要素のうち、第1実施形態に係る表示システムの構成要素と実質的に同じものについては、同じ名称及び同じ符号を用いて、説明済みの事項については説明を省略する。
図12は、第3実施形態に係る表示システムを構成するスマートグラス110の概略構成を示すブロック図である。スマートグラス110は、制御ユニット202、撮像部203及び表示部204を有する。制御ユニット202は、物体認識部1201、距離検出部301、位置検出部302、傾き検出部303及び表示制御部1202としての機能を備える。距離検出部301、位置検出部302及び傾き検出部303の機能は、第1実施形態での機能と同等であり、ここでの説明を省略する。
第3実施形態では、スマートフォン100の電源はオフとなっており、スマートグラス110とのペアリングは行われない。一方で、物体認識部1201は、ユーザのスマートフォン100に対するダブルタップ等の特定の操作を、撮像部203を通じて取得される画像から検出することによって、スマートフォン100を認識する。
ここで、傾き検出部303により検出されたスマートフォン100の縦回転方向の傾き、水平回転方向の傾き、回転軸方向の傾きがそれぞれ、予め設定された傾き閾値よりも大きくなる状況が生じることも予想される。その場合に表示制御部1202は、スマートフォン100に接触させずに、傾き検出部303により検出された傾き情報を無効化して、表示部204に仮想オブジェクトを通常表示する。
仮想オブジェクトを通常表示するとは、スマートグラス110を装着したユーザの右目と左目を結ぶ線と、仮想オブジェクトの上辺又は下辺が略平行となる位置関係で、仮想オブジェクトを表示部204に表示することを指す。例えば、傾き検出部303により検出されたスマートフォン100の回転軸方向の角度αが、予め設定された傾き閾値よりも大きい場合に、仮想オブジェクトを回転軸方向にベクトル回転させずに表示部204に表示する。なお、予め設定された傾き閾値は、スマートグラス110にデフォルト値として設定されている値であってもよいし、ユーザによる設定値であってもよい。
図13は、表示制御部1202による仮想オブジェクト600の表示例を示す図であり、スマートフォン100の回転軸方向の傾きが60度の状態が示されている。例えば、傾き閾値が30度である場合に、スマートフォン100の回転軸方向の傾きを20度から60度へ傾けていったとする。この場合、回転軸方向の傾きが20度から30度になるまでは、回転軸方向の傾きにしたがって仮想オブジェクト600を回転軸方向にベクトル回転させる。そして、回転軸方向の傾きが30度を超えると、仮想オブジェクト600を更にベクトル回転させることなく、回転軸方向の傾きが30度となっている状態での表示が維持される。よって、回転軸方向の傾きが30度を超えて60度に至る間は、仮想オブジェクト600の表示は変化しない。
これにより、仮想オブジェクト600の内容をユーザが認識し難い状態で仮想オブジェクト600が表示部24に表示されてしまうことを抑制することができる。なお、縦回転方向の傾きと横回転方向の傾きについても、それぞれに閾値(上辺と下辺の比の閾値、左辺と右辺の比の閾値)が設けられて、同様の表示制御が行われる。
図14は、仮想オブジェクト600の傾きを規制する表示制御を説明するフローチャートである。図14のフローチャートにおいて、S番号で示す各処理(ステップ)は、スマートグラス110のCPUがROMに格納された所定のプログラムをRAMに展開してスマートグラス110の各部の動作を制御することにより実現される。
スマートグラス110に設けられた操作部に対するユーザの操作によりスマートグラス110の電源がオンし、これにより、表示部204への仮想オブジェクトの表示が可能となって、本処理が開始される。S1401では物体認識部1201が、スマートフォン100を物体として認識する。S1102~S1104の処理は、図8のフローチャートのS802~804の処理と同じであるため、説明を省略する。
1405では表示制御部1202が、S1401で認識されたスマートフォン100について検出された縦回転方向、横回転方向及び回転軸方向の各傾きが、各傾きに対して設定された傾き閾値よりも大きいか否かを判定する。
表示制御部1202は、検出された各傾きが対応する傾き閾値以下であると判定した場合(S1405でNO)、処理をS1406へ進める。S1406及びそれ以降の処理は、図8のフローチャートのS805以降の処理と同じであり、ここでの説明を省略する。一方、表示制御部1202は、検出された各傾きに対応する傾き閾値より大きいものがあると判定した場合(S1405でYES)、処理をS1407へ進める。S1407では表示制御部1202が、傾き閾値を超えたと判定された傾きの情報をキャンセルして(無効として)、仮想オブジェクト600を表示部204に表示する。S1407の後の処理は、S1406の後の処理と同じであり、説明を省略する。
このように第3実施形態では、ペアリングされていないスマートフォン100を認識し、認識されたスマートフォン100に対して検出された傾きが傾き閾値よりも大きい場合には、検出された傾きを無効と判定する。これにより、表示部204を通して視認されるスマートフォン100の操作によって仮想オブジェクトの表示態様を制御することができ。その際に仮想オブジェクトを常にユーザがその内容を認識しやすい状態で表示部204に表示させることができる。
なお、第3実施形態での仮想オブジェクトの変形規制は、第1実施形態の構成のようにスマートフォン100とスマートグラス110がペアリングされた状態での仮想オブジェクトの表示制御にも適用可能である。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
例えば、上記実施形態では、表示装置として光学透過型(光学シースルー型)のHMDの一例であるスマートグラス110を取り上げたが、これに代えて、ビデオシースルー型のHMDを用いてもよい。ビデオシースルー型のHMDにおいて一般的な眼鏡のレンズに相当する表示部は透明ではない。そのため、ビデオシースルー型のHMDを用いる場合にはその表示部に、撮像部で撮像した現実の画像に仮想オブジェクトの画像を重畳した表示画像を、ユーザが視認可能なように表示する。
また、上記実施形態では、撮像部203が撮像した撮像画像からのスマートフォン100の検出をスマートグラス110の制御ユニット202によって行っていたが、その検出を、スマートフォン100の制御ユニット312によって行うようにしてもよい。つまり、スマートフォン100が、撮像部203により撮像された撮像画像(の画像データ)を無線通信部311で受信して制御ユニット312がその検出を行い、無線通信部311から検出結果をスマートグラス110へ送信するようにしてもよい。この手法は、スマートフォン100の制御ユニット312の処理能力がスマートグラス110の制御ユニット202の処理能力よりも優れている場合に有用である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 スマートフォン
110 スマートグラス
120 無線通信経路
202 制御ユニット
203 撮像部
204 表示部
301 距離検出部
302 位置検出部
303 傾き検出部
304,902,1202 表示制御部
901 アイコン表示部
1201 物体認識部

Claims (17)

  1. 情報処理装置と、
    前記情報処理装置と通信可能であり、撮像手段を有する頭部装着型の表示装置と、を備える表示システムであって、
    前記撮像手段により撮像された画像から前記情報処理装置の情報を検出する検出手段を有し、
    前記表示装置は、
    仮想オブジェクトの表示が可能な表示部と、
    前記情報に基づいて前記情報処理装置に隣接させ又は一部を重畳させて前記仮想オブジェクトを前記表示部に表示する表示制御手段と、を有することを特徴とする表示システム。
  2. 前記表示装置が前記検出手段を有することを特徴とする請求項1に記載の表示システム。
  3. 前記検出手段は、
    前記表示装置から前記情報処理装置までの距離情報を検出する距離検出手段と、
    前記表示装置に対する前記情報処理装置の位置情報を検出する位置検出手段と、
    前記情報処理装置の傾き情報を検出する傾き検出手段と、を有することを特徴とする請求項1又は2に記載の表示システム。
  4. 前記距離検出手段は、前記表示装置から前記情報処理装置までの距離情報を前記撮像手段により撮像された画像から検出し、
    前記位置検出手段は、前記表示装置に対する前記情報処理装置の位置を前記画像から検出し、
    前記傾き検出手段は、前記情報処理装置の傾き情報を前記画像から検出することを特徴とする請求項3に記載の表示システム。
  5. 前記距離検出手段は、前記情報処理装置が検出した前記情報処理装置から前記表示装置までの距離情報を通信により前記情報処理装置から取得し、
    前記位置検出手段は、前記情報処理装置が検出した前記表示装置に対する前記情報処理装置の位置情報を通信により前記情報処理装置から取得し、
    前記傾き検出部は、前記情報処理装置が検出した前記情報処理装置の傾き情報を通信により前記情報処理装置から取得することを特徴とする請求項3に記載の表示システム。
  6. 前記表示制御手段は、前記情報処理装置の傾きが所定の閾値よりも大きい場合に、前記傾き情報をキャンセルして前記仮想オブジェクトを前記表示部に表示することを特徴とする請求項3乃至5のいずれか1項に記載の表示システム。
  7. 前記表示制御手段は、前記情報の変化に追従させて、前記仮想オブジェクトを前記情報処理装置に隣接させ又は一部を重畳させて表示し続けることを特徴とする請求項1乃至6のいずれか1項に記載の表示システム。
  8. 前記情報処理装置は、所定の方向から見た場合に略四角形の形状を有し、
    前記表示制御手段は、前記情報に基づき、前記仮想オブジェクトの上辺と下辺との比および左辺と右辺との比がそれぞれ前記情報処理装置の上辺と下辺との比および左辺と右辺との比と同等となるように、前記仮想オブジェクトを変形させて前記表示部に表示することを特徴とする請求項1乃至7のいずれか1項に記載の表示システム。
  9. 前記情報処理装置は、前記仮想オブジェクトに対する操作を行うためのアイコンを表示する表示手段を有し、
    前記表示制御手段は、前記情報処理装置から受信した前記アイコンに対する操作を表す信号にしたがって前記仮想オブジェクトの表示を制御することを特徴とする請求項1乃至8のいずれか1項に記載の表示システム。
  10. 前記表示装置は、前記表示装置と前記情報処理装置とを通信可能に接続することができず、且つ、前記情報処理装置に対して特定のジェスチャーが行われたことを前記撮像手段により撮像した画像から検出した場合、前記ジェスチャーが行われた情報処理装置を前記仮想オブジェクトを隣接させ又は一部を重畳させる情報処理装置として特定する物体認識手段を有することを特徴とする請求項1乃至9のいずれか1項に記載の表示システム。
  11. 情報処理装置と、
    前記情報処理装置と通信可能であり、撮像手段を有する頭部装着型の表示装置と、を有する表示システムの制御方法であって、
    前記撮像手段により撮像された画像から前記情報処理装置の情報を検出するステップと、
    前記情報に基づいて前記情報処理装置に隣接させ又は一部を重畳させて前記表示装置の表示部に仮想オブジェクトを表示するステップと、を有することを特徴とする表示システムの制御方法。
  12. 前記表示装置が、前記仮想オブジェクトを操作するためのアイコンを前記情報処理装置の表示手段に表示するように、前記情報処理装置に要求するステップと、
    前記情報処理装置が、前記要求に対して前記情報処理装置の表示手段に前記アイコンを表示することを通知して、前記アイコンを前記表示手段に表示するステップと、を有し、
    前記表示装置において前記表示部に前記仮想オブジェクトを表示するステップでは、前記情報処理装置から受信した前記アイコンに対する操作を表す信号にしたがって前記仮想オブジェクトの表示が制御されることを特徴とする請求項11に記載の表示システムの制御方法。
  13. 無線通信により情報処理装置と通信可能な頭部装着型の表示装置であって、
    撮像手段と、
    仮想オブジェクトの表示が可能な表示部と、
    前記撮像手段により撮像された画像から検出された前記情報処理装置の情報に基づいて前記情報処理装置に隣接させ又は一部を重畳させて前記仮想オブジェクトを前記表示部に表示する表示制御手段と、を有することを特徴とする表示装置。
  14. 前記情報を検出する検出手段を有し、
    前記検出手段は、
    前記表示装置から前記情報処理装置までの距離情報を検出する距離検出手段と、
    前記表示装置に対する前記情報処理装置の位置情報を検出する位置検出手段と、
    前記情報処理装置の傾き情報を検出する傾き検出手段と、を有することを特徴とする請求項13に記載の表示装置。
  15. 前記仮想オブジェクトを操作するためのアイコンを前記情報処理装置の表示手段に表示するように通信により要求する要求手段を有し、
    前記表示制御手段は、前記情報処理装置から受信した前記アイコンに対する操作を表す信号にしたがって前記仮想オブジェクトの表示を制御することを特徴とする請求項13又は14に記載の表示装置。
  16. 撮像手段を有する頭部装着型の表示装置の制御方法であって、
    情報処理装置との通信を確立するステップと、
    前記撮像手段により撮像された画像から検出された前記情報処理装置の情報に基づいて、仮想オブジェクトを前記情報処理装置に隣接させ又は一部を重畳させて表示するステップと、を有することを特徴とする表示装置の制御方法。
  17. コンピュータを請求項13乃至15のいずれか1項に記載の表示装置の各手段として機能させることを特徴とするプログラム。
JP2021015070A 2021-02-02 2021-02-02 表示システム、表示装置とその制御方法及びプログラム Pending JP2022118501A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021015070A JP2022118501A (ja) 2021-02-02 2021-02-02 表示システム、表示装置とその制御方法及びプログラム
US17/575,752 US11842119B2 (en) 2021-02-02 2022-01-14 Display system that displays virtual object, display device and method of controlling same, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021015070A JP2022118501A (ja) 2021-02-02 2021-02-02 表示システム、表示装置とその制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022118501A true JP2022118501A (ja) 2022-08-15
JP2022118501A5 JP2022118501A5 (ja) 2024-02-09

Family

ID=82611439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021015070A Pending JP2022118501A (ja) 2021-02-02 2021-02-02 表示システム、表示装置とその制御方法及びプログラム

Country Status (2)

Country Link
US (1) US11842119B2 (ja)
JP (1) JP2022118501A (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
JP6044079B2 (ja) * 2012-02-06 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6225546B2 (ja) 2013-08-02 2017-11-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法
US20150062164A1 (en) * 2013-09-05 2015-03-05 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
JP6518582B2 (ja) * 2015-12-21 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および操作受付方法
JP2017146651A (ja) 2016-02-15 2017-08-24 株式会社コロプラ 画像処理方法及び画像処理プログラム
US10334076B2 (en) 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
JP6816492B2 (ja) * 2016-12-14 2021-01-20 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN114556441A (zh) * 2019-10-21 2022-05-27 索尼集团公司 信息处理装置、信息处理系统、信息处理方法和程序

Also Published As

Publication number Publication date
US20220244899A1 (en) 2022-08-04
US11842119B2 (en) 2023-12-12

Similar Documents

Publication Publication Date Title
KR102417968B1 (ko) 시선-기반 사용자 상호작용
US11235871B2 (en) Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight
US10591729B2 (en) Wearable device
JP6551502B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
US10416835B2 (en) Three-dimensional user interface for head-mountable display
EP3144775B1 (en) Information processing system and information processing method
JP5696908B2 (ja) 操作表示システム
US10642348B2 (en) Display device and image display method
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
US11487354B2 (en) Information processing apparatus, information processing method, and program
US20150199111A1 (en) Gui system, display processing device, and input processing device
JP6339887B2 (ja) 画像表示装置
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
JPWO2017051564A1 (ja) 情報処理装置
JP2022188192A (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
US20170139567A1 (en) Entering Unlock Sequences Using Head Movements
EP3109734A1 (en) Three-dimensional user interface for head-mountable display
JP2016126687A (ja) ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム
JP6549066B2 (ja) 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
JP6610022B2 (ja) 画像表示システム、画像表示装置、頭部装着型表示装置及びプログラム
JP6792721B2 (ja) 電子機器、プログラム、制御装置および制御方法
CN110494915B (zh) 电子装置及其控制方法和计算机可读介质
JP2022118501A (ja) 表示システム、表示装置とその制御方法及びプログラム
US20220197580A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
KR101831510B1 (ko) 투명 디스플레이 장치 및 그것의 양면 디스플레이 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240201