JPWO2014188797A1 - 表示制御装置、表示制御方法および記録媒体 - Google Patents
表示制御装置、表示制御方法および記録媒体 Download PDFInfo
- Publication number
- JPWO2014188797A1 JPWO2014188797A1 JP2015518144A JP2015518144A JPWO2014188797A1 JP WO2014188797 A1 JPWO2014188797 A1 JP WO2014188797A1 JP 2015518144 A JP2015518144 A JP 2015518144A JP 2015518144 A JP2015518144 A JP 2015518144A JP WO2014188797 A1 JPWO2014188797 A1 JP WO2014188797A1
- Authority
- JP
- Japan
- Prior art keywords
- display
- display control
- image
- mobile terminal
- reference space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
1.装置構成の例
1−1.第1の装置構成例
1−2.第2の装置構成例
1−3.第3の装置構成例
1−4.第4の装置構成例
2.GUI操作の例
2−1.スクロール操作
2−2.ドラッグ操作
2−3.拡大/縮小操作
3.基準空間の設定
3−1.基準空間の例
3−2.基準空間の切り替え
4.実空間からの割り込み表示
4−1.モバイル端末の割り込み表示
4−2.表示画像の割り込み表示
4−3.一般的なオブジェクトの割り込み表示
5.補足
まず、図1〜図8を参照して、本開示の装置構成の例について説明する。本開示の実施形態では、装置構成に関して数多くのバリエーションが存在する。そこで、以下では、そのうちのいくつかを第1〜第4の装置構成例として例示する。なお、これらの例示的な実施形態は、例えば空間的関係の検出や表示制御といった個々の処理をどの装置が実行するかといった点で互いに異なるものの、結果として実現される表示や制御についてはいずれも共通であるため、後述する表示制御などの例は各実施形態に共通して実現されうる。
図1は、本開示の第1の装置構成例に係るシステムを概略的に示す図である。図1を参照すると、システム10は、ウェアラブルディスプレイ100と、モバイル端末200とを含む。
表示部110は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)などでありうる。表示部110は、プロセッサ140の制御に従って各種の画像を表示する。上述のように、表示部110はユーザの視界を遮蔽して画像を表示させてもよいし、画像をユーザの視界に透過的に重畳表示させてもよい。表示部110がユーザの視界を遮蔽する場合でも、後述するカメラ130が撮像した周囲の実空間の画像を表示部110に表示させることで、ユーザは表示部110を介して透過的に実空間の像を視認することができる。表示部110は、コンテンツや実空間の画像に加えて、これらの画像の表示を制御するためのGUIの画像を表示してもよい。
表示部210は、例えばLCDまたはOLEDなどでありうる。表示部210は、プロセッサ240の制御に従って各種の画像を表示する。以下で説明する例のように、モバイル端末200−1がウェアラブルディスプレイ100−1の操作手段として利用される場合、表示部210には、ウェアラブルディスプレイ100−1を操作するためのGUIが表示されてもよい。あるいは、ウェアラブルディスプレイ100−1でモバイル端末200−1の表示部210に重畳するようにGUI画像を表示させることも可能であるため、モバイル端末200−1がウェアラブルディスプレイ100−1の操作手段として利用される場合に表示部210は画像を表示していなくてもよい。
図3は、本開示の第1の装置構成例におけるウェアラブルディスプレイとモバイル端末との空間的関係の推定について説明するための図である。図3に示された例では、モバイル端末200−1のプロセッサ240によって実現される空間的関係取得部242が、カメラ230が生成した撮像画像2300の解析に基づいてウェアラブルディスプレイ100−1とモバイル端末200−1との空間的関係を推定する。このとき、モバイル端末200−1のカメラ230は、ウェアラブルディスプレイ100−1が装着されたユーザの頭部の方を向いている。従って、例えばユーザがモバイル端末200−1の表示部210を自分の方に向けて操作する場合、カメラ230はいわゆるインカメラでありうる。
図4は、本開示の第2の装置構成例の概略的な機能構成を示すブロック図である。図4を参照すると、システム20は、ウェアラブルディスプレイ100−2と、モバイル端末200−2とを含む。ウェアラブルディスプレイ100−2は、表示部110と、スピーカ120と、カメラ130と、プロセッサ140と、メモリ150と、通信部160とを有する。また、モバイル端末200−2は、表示部210と、タッチセンサ220と、カメラ230と、プロセッサ240と、メモリ250と、通信部260とを有する。なお、図4に示す機能構成は説明のために例示されているにすぎず、ウェアラブルディスプレイ100−2およびモバイル端末200−2は、図示されない他の機能構成をさらに含みうる。
図5は、本開示の第2の装置構成例におけるウェアラブルディスプレイとモバイル端末との空間的関係の推定について説明するための図である。図5に示された例では、ウェアラブルディスプレイ100−2のプロセッサ140によって実現される空間的関係取得部142が、カメラ130が生成した撮像画像1300の解析に基づいてモバイル端末200−2との空間的関係を推定する。このとき、ウェアラブルディスプレイ100−2のカメラ130は、例えばユーザの手に把持されたモバイル端末200−2の方を向いている。従って、このとき、ウェアラブルディスプレイ100−2を装着したユーザはモバイル端末200−2の方を向いている。
図6は、本開示の第3の装置構成例の概略的な機能構成を示すブロック図である。図6を参照すると、システム30は、ウェアラブルディスプレイ100−3と、モバイル端末200−3とを含む。ウェアラブルディスプレイ100−3は、表示部110と、スピーカ120と、カメラ130と、プロセッサ140と、メモリ150と、通信部160とを有する。また、モバイル端末200−3は、表示部210と、タッチセンサ220と、カメラ230と、プロセッサ240と、メモリ250と、通信部260とを有する。なお、図6に示す機能構成は説明のために例示されているにすぎず、ウェアラブルディスプレイ100−3およびモバイル端末200−3は、図示されない他の機能構成をさらに含みうる。
図7は、本開示の第4の装置構成例に係るシステムを概略的に示す図である。図7を参照すると、システム40は、ウェアラブルディスプレイ100と、モバイル端末200と、サーバ300とを含む。
次に、図9〜図14を参照して、本開示におけるGUI操作の例について説明する。なお、以下の説明では、簡単のため、上記の第1の装置構成例を用いて説明するが、装置構成に関する説明を参照すれば明らかなように、第2〜第4の装置構成例、およびその他の装置構成によっても同様のGUI操作が可能である。
(第1の例)
図9は、本開示の実施形態におけるスクロール操作の第1の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示される画像1100において、配列されたアイコン(A〜C)が左から右へとスクロールされている。
図10および図11は、本開示の実施形態におけるスクロール操作の第2の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示される画像1100において、配列されたオブジェクト1106が左から右へとスクロールされている。
図12は、本開示の実施形態におけるドラッグ操作の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示される画像1100において、右側に配置されたオブジェクト1106aが左側にドラッグされてオブジェクト1106bになっている。
(第1の例)
図13は、本開示の実施形態における拡大/縮小操作の第1の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示される画像1100において、小さく表示されていたオブジェクト1106cが拡大されて、大きなオブジェクト1106dになっている。
図14は、本開示の実施形態における拡大/縮小操作の第2の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示される画像1100において、アイコングループ1106gの中に小さく表示されていたオブジェクト1106eが拡大されて、フリースペース1100fに表示される大きなオブジェクト1106fになっている。
次に、図15〜図27を参照して、本開示における基準空間の設定例について説明する。なお、以下の説明でも、簡単のため、上記の第1の装置構成例を用いて説明するが、装置構成に関する説明を参照すれば明らかなように、第2〜第4の装置構成例、およびその他の装置構成によっても同様の設定が可能である。
図15および図16は、本開示の実施形態における基準空間の例について説明するための図である。本開示のいくつかの実施形態では、表示制御部が、基準空間にオブジェクトを配置した画像をウェアラブルディスプレイ100の表示部110に表示させる。ここで表示されるオブジェクトは、例えばGUIにおいて表示されるアイコンであってもよい。
図17および図18は、本開示の実施形態においてモバイル端末基準空間(上述の基準空間C1)を採用した場合の表示例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示された画像1100において、基準空間C1の基底面に複数のウインドウ1110が配列されている。上記の通り、基準空間C1の基底面はモバイル端末200のタッチセンサ220の操作面(または表示部210の表示面)にほぼ一致するため、ウインドウ1110は、操作面(または表示面)が仮想的に拡張されたようなGUIを提供しうる。
図19〜図21は、本開示の実施形態においてウェアラブルディスプレイ基準空間(上述の基準空間C2)を採用した場合の表示例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示された画像1100において、基準空間C2の基底面にオブジェクト1106(ここでは画像のサムネイル)が配置されている。図19に示されているように、画像1100に透過的に表示されるモバイル端末200がオブジェクト1106に重なった状態でモバイル端末200のタッチセンサ220に対するタッチ操作2201が開始されると、オブジェクト1106は、透過的に表示されるモバイル端末200とともに画像1100内で移動する。
図22は、本開示の実施形態において実基準空間(上記の基準空間C3)を採用した場合の表示例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110に表示された画像1100において、基準空間C3にオブジェクト1112が配置されている。上記の通り、基準空間C3は、ウェアラブルディスプレイ100およびモバイル端末200が存在する実空間(環境空間)である。従って、オブジェクト1112は、ウェアラブルディスプレイ100やモバイル端末200の位置や姿勢に関わらず同じ位置に配置されうる。
上述のように、本開示のいくつかの実施形態では、例えばオブジェクトに対する操作状態に応じて、オブジェクトが配置される基準空間を切り替えることができる。この場合、オブジェクトは、異なる基準空間の間を遷移して表示される。以下では、このような基準空間の切り替えのための操作および表示の例についてさらに説明する。
次に、図28〜図31を参照して、本開示の実施形態における実空間からの割り込み表示の例について説明する。なお、以下の説明でも、簡単のため、上記の第1の装置構成例を用いて説明するが、装置構成に関する説明を参照すれば明らかなように、第2〜第4の装置構成例、およびその他の装置構成によっても同様の表示が可能である。
図28は、本開示の実施形態におけるモバイル端末の割り込み表示の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110にユーザの視界を遮蔽するコンテンツ画像1102が表示されているときに、モバイル端末200’が割り込んで表示されている。
図29は、本開示の実施形態における表示画像の割り込み表示の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110にユーザの視界を遮蔽するコンテンツ画像1102が表示されているときに、モバイル端末の表示画像2100’が割り込んで表示されている。
図31は、本開示の実施形態における一般的なオブジェクトの割り込み表示の例を示す図である。図示された例では、ウェアラブルディスプレイ100の表示部110にユーザの視界を遮蔽するコンテンツ画像1102が表示されているときに、ユーザの視界にあるさまざまなオブジェクトが割り込んで表示されている。
本開示の実施形態は、例えば、上記で説明したような表示制御装置(モバイル端末、ウェアラブルディスプレイまたはサーバ)、システム、表示制御装置またはシステムで実行される表示制御方法、表示制御装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
(1)ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得する空間的関係取得部と、
前記端末装置が取得した操作入力を示す情報を取得する操作取得部と、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御する表示制御部と
を備える表示制御装置。
(2)前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させる、前記(1)に記載の表示制御装置。
(3)前記表示制御部は、前記オブジェクトが配置される基準空間を複数の候補から選択する、前記(2)に記載の表示制御装置。
(4)前記表示制御部は、前記オブジェクトの表示エフェクトによって前記選択されている基準空間を表現する、前記(3)に記載の表示制御装置。
(5)前記表示制御部は、前記オブジェクトが選択されているときに表示されるカーソルの種類によって前記選択されている基準空間を表現する、前記(4)に記載の表示制御装置。
(6)前記複数の候補は、互いに異なる第1の基準空間、第2の基準空間、及び第3の基準空間を含み、
前記表示制御部は、第1の基準空間に配置された前記オブジェクトに対する前記操作入力の種類に応じて、前記オブジェクトを第2の基準空間に遷移させるか第3の基準空間に遷移させるかを決定する、前記(3)〜(5)のいずれか1項に記載の表示制御装置。
(7)前記複数の候補は、前記端末装置の操作面を基準にした第1の基準空間、前記画像の表示面を基準にした第2の基準空間、または実空間で定義される第3の基準空間を含む、前記(3)〜(6)のいずれか1項に記載の表示制御装置。
(8)前記空間的関係取得部は、少なくとも前記ウェアラブルディスプレイと前記端末装置との位置関係を示す情報を取得し、
前記表示制御部は、前記操作入力および前記位置関係の変化に基づいて前記画像の表示を制御する、前記(1)〜(7)のいずれか1項に記載の表示制御装置。
(9)前記操作取得部は、前記端末装置が有するタッチセンサへの接触を示す情報を取得し、
前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させ、前記接触を前記オブジェクトを選択する操作入力として扱う、前記(8)に記載の表示制御装置。
(10)前記表示制御部は、前記位置関係の変化に応じて前記選択されたオブジェクトを移動させる、前記(9)に記載の表示制御装置。
(11)前記空間的関係取得部は、前記端末装置の前記表示部に対する奥行き方向の位置を示す情報を取得し、
前記表示制御部は、前記奥行き方向の位置の変化に応じて前記選択されたオブジェクトを拡大または縮小させる、前記(9)または(10)に記載の表示制御装置。
(12)前記表示制御部は、前記オブジェクトが前記接触によって選択されている間は前記オブジェクトを前記端末装置の操作面を基準にした基準空間に配置する、前記(9)〜(11)のいずれか1項に記載の表示制御装置。
(13)前記空間的関係取得部は、少なくとも前記ウェアラブルディスプレイと前記端末装置との姿勢関係を示す情報を取得し、
前記表示制御部は、前記操作入力および前記姿勢関係に基づいて前記画像の表示を制御する、前記(1)〜(12)のいずれか1項に記載の表示制御装置。
(14)前記操作取得部は、前記端末装置が有するタッチセンサへの接触位置の移動を示す情報を取得し、
前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させ、前記接触位置の移動に応じて前記オブジェクトを移動させる、前記(13)に記載の表示制御装置。
(15)前記表示制御部は、前記姿勢関係に基づいて、前記接触位置の移動方向を前記オブジェクトの移動方向に変換する、前記(14)に記載の表示制御装置。
(16)ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得することと、
前記端末装置が取得した操作入力を示す情報を取得することと、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御することと
を含む表示制御方法。
(17)ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得する機能と、
前記端末装置が取得した操作入力を示す情報を取得する機能と、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御する機能と
をコンピュータに実現させるためのプログラムが記録された記録媒体。
100 ウェアラブルディスプレイ
110 表示部
140 プロセッサ
200 モバイル端末
210 表示部
220 タッチセンサ
240 プロセッサ
300 サーバ
320 プロセッサ
142,242,322 空間的関係取得部
144,244,324 操作取得部
146,246,326 表示制御部
Claims (17)
- ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得する空間的関係取得部と、
前記端末装置が取得した操作入力を示す情報を取得する操作取得部と、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御する表示制御部と
を備える表示制御装置。 - 前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させる、請求項1に記載の表示制御装置。
- 前記表示制御部は、前記オブジェクトが配置される基準空間を複数の候補から選択する、請求項2に記載の表示制御装置。
- 前記表示制御部は、前記オブジェクトの表示エフェクトによって前記選択されている基準空間を表現する、請求項3に記載の表示制御装置。
- 前記表示制御部は、前記オブジェクトが選択されているときに表示されるカーソルの種類によって前記選択されている基準空間を表現する、請求項4に記載の表示制御装置。
- 前記複数の候補は、互いに異なる第1の基準空間、第2の基準空間、及び第3の基準空間を含み、
前記表示制御部は、第1の基準空間に配置された前記オブジェクトに対する前記操作入力の種類に応じて、前記オブジェクトを第2の基準空間に遷移させるか第3の基準空間に遷移させるかを決定する、請求項3に記載の表示制御装置。 - 前記複数の候補は、前記端末装置の操作面を基準にした第1の基準空間、前記画像の表示面を基準にした第2の基準空間、または実空間で定義される第3の基準空間を含む、請求項3に記載の表示制御装置。
- 前記空間的関係取得部は、少なくとも前記ウェアラブルディスプレイと前記端末装置との位置関係を示す情報を取得し、
前記表示制御部は、前記操作入力および前記位置関係の変化に基づいて前記画像の表示を制御する、請求項1に記載の表示制御装置。 - 前記操作取得部は、前記端末装置が有するタッチセンサへの接触を示す情報を取得し、
前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させ、前記接触を前記オブジェクトを選択する操作入力として扱う、請求項8に記載の表示制御装置。 - 前記表示制御部は、前記位置関係の変化に応じて前記選択されたオブジェクトを移動させる、請求項9に記載の表示制御装置。
- 前記空間的関係取得部は、前記端末装置の前記表示部に対する奥行き方向の位置を示す情報を取得し、
前記表示制御部は、前記奥行き方向の位置の変化に応じて前記選択されたオブジェクトを拡大または縮小させる、請求項9に記載の表示制御装置。 - 前記表示制御部は、前記オブジェクトが前記接触によって選択されている間は前記オブジェクトを前記端末装置の操作面を基準にした基準空間に配置する、請求項9に記載の表示制御装置。
- 前記空間的関係取得部は、少なくとも前記ウェアラブルディスプレイと前記端末装置との姿勢関係を示す情報を取得し、
前記表示制御部は、前記操作入力および前記姿勢関係に基づいて前記画像の表示を制御する、請求項1に記載の表示制御装置。 - 前記操作取得部は、前記端末装置が有するタッチセンサへの接触位置の移動を示す情報を取得し、
前記表示制御部は、基準空間にオブジェクトを配置した画像を前記表示部に表示させ、前記接触位置の移動に応じて前記オブジェクトを移動させる、請求項13に記載の表示制御装置。 - 前記表示制御部は、前記姿勢関係に基づいて、前記接触位置の移動方向を前記オブジェクトの移動方向に変換する、請求項14に記載の表示制御装置。
- ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得することと、
前記端末装置が取得した操作入力を示す情報を取得することと、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御することと
を含む表示制御方法。 - ウェアラブルディスプレイと端末装置との空間的関係を示す情報を取得する機能と、
前記端末装置が取得した操作入力を示す情報を取得する機能と、
前記操作入力および前記空間的関係に基づいて前記ウェアラブルディスプレイの表示部における画像の表示を制御する機能と
をコンピュータに実現させるためのプログラムが記録された記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013107107 | 2013-05-21 | ||
JP2013107107 | 2013-05-21 | ||
PCT/JP2014/059859 WO2014188797A1 (ja) | 2013-05-21 | 2014-04-03 | 表示制御装置、表示制御方法および記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2014188797A1 true JPWO2014188797A1 (ja) | 2017-02-23 |
JP6288084B2 JP6288084B2 (ja) | 2018-03-07 |
Family
ID=51933363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015518144A Expired - Fee Related JP6288084B2 (ja) | 2013-05-21 | 2014-04-03 | 表示制御装置、表示制御方法および記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160291687A1 (ja) |
EP (1) | EP3001407A4 (ja) |
JP (1) | JP6288084B2 (ja) |
CN (1) | CN105210144B (ja) |
WO (1) | WO2014188797A1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6318596B2 (ja) * | 2013-12-13 | 2018-05-09 | セイコーエプソン株式会社 | 情報処理装置および情報処理装置の制御方法 |
WO2016017956A1 (en) * | 2014-07-30 | 2016-02-04 | Samsung Electronics Co., Ltd. | Wearable device and method of operating the same |
US10102674B2 (en) * | 2015-03-09 | 2018-10-16 | Google Llc | Virtual reality headset connected to a mobile computing device |
US10559117B2 (en) * | 2016-02-08 | 2020-02-11 | Google Llc | Interactions and scaling in virtual reality |
US10083539B2 (en) * | 2016-02-08 | 2018-09-25 | Google Llc | Control system for navigation in virtual reality environment |
US10852913B2 (en) | 2016-06-21 | 2020-12-01 | Samsung Electronics Co., Ltd. | Remote hover touch system and method |
EP3436908A4 (en) * | 2016-07-22 | 2019-11-20 | Hewlett-Packard Development Company, L.P. | DISPLAY OF ADDITIONAL INFORMATION |
JP2018013741A (ja) * | 2016-07-22 | 2018-01-25 | 富士通株式会社 | 表示制御プログラム、表示制御装置、及び表示制御方法 |
KR102239855B1 (ko) * | 2016-07-22 | 2021-04-13 | 구글 엘엘씨 | 가상 현실 사용자 인터페이스를 위한 사용자 모션 범위의 검출 |
JP6996115B2 (ja) * | 2017-05-29 | 2022-01-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US10158751B2 (en) * | 2017-03-13 | 2018-12-18 | International Business Machines Corporation | Performing a notification event at a headphone device |
CN106951171B (zh) * | 2017-03-14 | 2021-10-12 | 北京小米移动软件有限公司 | 虚拟现实头盔的控制方法和装置 |
WO2018173791A1 (ja) * | 2017-03-22 | 2018-09-27 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
CN107332977B (zh) * | 2017-06-07 | 2020-09-08 | 安徽华米信息科技有限公司 | 增强现实的方法及增强现实设备 |
JP7042644B2 (ja) * | 2018-02-15 | 2022-03-28 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、画像生成方法およびコンピュータプログラム |
WO2020146003A1 (en) * | 2019-01-07 | 2020-07-16 | Yutou Technology (Hangzhou) Co., Ltd. | Mobile device integrated visual enhancement system |
CN110442295A (zh) * | 2019-07-09 | 2019-11-12 | 努比亚技术有限公司 | 可穿戴设备控制方法、可穿戴设备及计算机可读存储介质 |
CN110908517B (zh) * | 2019-11-29 | 2023-02-24 | 维沃移动通信有限公司 | 图像编辑方法、装置、电子设备及介质 |
JP6892960B1 (ja) * | 2020-09-29 | 2021-06-23 | Kddi株式会社 | 制御装置、情報処理システム、制御方法及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006127158A (ja) * | 2004-10-28 | 2006-05-18 | Canon Inc | 画像処理方法、画像処理装置 |
WO2007116743A1 (ja) * | 2006-03-31 | 2007-10-18 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
JP2011186856A (ja) * | 2010-03-09 | 2011-09-22 | Nec Corp | ヘッドマウントディスプレイを外部表示装置として使用する携帯端末 |
US20120017147A1 (en) * | 2010-07-16 | 2012-01-19 | John Liam Mark | Methods and systems for interacting with projected user interface |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE511516C2 (sv) * | 1997-12-23 | 1999-10-11 | Ericsson Telefon Ab L M | Handburen displayenhet och metod att visa skärmbilder |
JP2002171460A (ja) | 2000-11-30 | 2002-06-14 | Sony Corp | 再生装置 |
US6798429B2 (en) * | 2001-03-29 | 2004-09-28 | Intel Corporation | Intuitive mobile device interface to virtual spaces |
US8730156B2 (en) * | 2010-03-05 | 2014-05-20 | Sony Computer Entertainment America Llc | Maintaining multiple views on a shared stable virtual space |
JP2009171505A (ja) * | 2008-01-21 | 2009-07-30 | Nikon Corp | ヘッドマウントディスプレイ |
KR20120100702A (ko) * | 2010-02-03 | 2012-09-12 | 닌텐도가부시키가이샤 | 표시 장치, 게임 시스템 및 게임 처리 방법 |
US9229227B2 (en) * | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
JP5655515B2 (ja) * | 2010-11-11 | 2015-01-21 | ソニー株式会社 | 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム |
JP2012173476A (ja) * | 2011-02-21 | 2012-09-10 | Nec Casio Mobile Communications Ltd | 表示システム、端末装置、端末装置の制御方法、および、プログラム |
KR101252169B1 (ko) * | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
KR101303939B1 (ko) * | 2011-10-17 | 2013-09-05 | 한국과학기술연구원 | 디스플레이 장치 및 컨텐츠 디스플레이 방법 |
US9311883B2 (en) * | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
JP6064316B2 (ja) * | 2011-11-28 | 2017-01-25 | セイコーエプソン株式会社 | 透過型表示装置、及び操作入力方法 |
JP5957875B2 (ja) * | 2011-12-26 | 2016-07-27 | ソニー株式会社 | ヘッドマウントディスプレイ |
JP6099348B2 (ja) * | 2012-10-10 | 2017-03-22 | オリンパス株式会社 | 頭部装着型表示装置、ロック解除処理システム、プログラム及びロック解除の制御方法 |
US9684372B2 (en) * | 2012-11-07 | 2017-06-20 | Samsung Electronics Co., Ltd. | System and method for human computer interaction |
WO2014185146A1 (ja) * | 2013-05-15 | 2014-11-20 | ソニー株式会社 | 表示制御装置、表示制御方法および記録媒体 |
KR20150080995A (ko) * | 2014-01-03 | 2015-07-13 | 삼성전자주식회사 | 외부 입력 장치를 갖는 전자장치에서 윈도우 제공 방법 및 장치 |
KR101662214B1 (ko) * | 2014-07-16 | 2016-10-04 | 네이버 주식회사 | 지도 서비스 제공 방법, 표시 제어 방법 및 상기 방법을 컴퓨터로 실행시키기 위한 컴퓨터 프로그램 |
-
2014
- 2014-04-03 EP EP14801047.3A patent/EP3001407A4/en not_active Withdrawn
- 2014-04-03 CN CN201480027665.XA patent/CN105210144B/zh not_active Expired - Fee Related
- 2014-04-03 WO PCT/JP2014/059859 patent/WO2014188797A1/ja active Application Filing
- 2014-04-03 JP JP2015518144A patent/JP6288084B2/ja not_active Expired - Fee Related
- 2014-04-03 US US14/891,350 patent/US20160291687A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006127158A (ja) * | 2004-10-28 | 2006-05-18 | Canon Inc | 画像処理方法、画像処理装置 |
WO2007116743A1 (ja) * | 2006-03-31 | 2007-10-18 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
JP2011186856A (ja) * | 2010-03-09 | 2011-09-22 | Nec Corp | ヘッドマウントディスプレイを外部表示装置として使用する携帯端末 |
US20120017147A1 (en) * | 2010-07-16 | 2012-01-19 | John Liam Mark | Methods and systems for interacting with projected user interface |
Also Published As
Publication number | Publication date |
---|---|
CN105210144B (zh) | 2017-12-08 |
EP3001407A4 (en) | 2017-01-25 |
EP3001407A1 (en) | 2016-03-30 |
JP6288084B2 (ja) | 2018-03-07 |
CN105210144A (zh) | 2015-12-30 |
WO2014188797A1 (ja) | 2014-11-27 |
US20160291687A1 (en) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6288084B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
WO2014188798A1 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
JP7297216B2 (ja) | 拡張現実システムのためのタッチフリーインターフェース | |
US11262835B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
US10678340B2 (en) | System and method for providing user interface tools | |
US10591729B2 (en) | Wearable device | |
US11704016B2 (en) | Techniques for interacting with handheld devices | |
JP6304241B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
EP3550527B1 (en) | Information processing device, information processing method and program | |
JP5900393B2 (ja) | 情報処理装置、操作制御方法及びプログラム | |
JP6304240B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
JP2018077876A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2015095147A (ja) | 表示制御装置、表示制御方法、およびプログラム | |
KR20150026375A (ko) | 포터블 디바이스 및 그 제어 방법 | |
JP7005161B2 (ja) | 電子機器及びその制御方法 | |
US20190391391A1 (en) | Methods and apparatuses for providing input for head-worn image display devices | |
US10359906B2 (en) | Haptic interface for population of a three-dimensional virtual environment | |
KR102561274B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 제어 방법 | |
EP3702008A1 (en) | Displaying a viewport of a virtual space | |
JP6999822B2 (ja) | 端末装置および端末装置の制御方法 | |
CN107077276B (zh) | 用于提供用户界面的方法和装置 | |
JP2015111371A (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180122 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6288084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |