JP2020135544A - 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 - Google Patents
表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 Download PDFInfo
- Publication number
- JP2020135544A JP2020135544A JP2019029701A JP2019029701A JP2020135544A JP 2020135544 A JP2020135544 A JP 2020135544A JP 2019029701 A JP2019029701 A JP 2019029701A JP 2019029701 A JP2019029701 A JP 2019029701A JP 2020135544 A JP2020135544 A JP 2020135544A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- display
- image
- display unit
- determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- General Business, Economics & Management (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
【解決手段】HMD100と、HMD100が接続されるスマートフォン300とを備える表示システム1であって、HMD100は、外景を視認可能に構成され、前記外景に重ねて第1画像PT1を表示し、スマートフォン300は、第2画像PT2を表示する表示パネル331と、表示パネル331に配置されるタッチセンサー332と、表示パネル331がHMD100に対向しているか否かを判定する第1判定部313と、HMD100に対する表示パネル331の位置を検出する検出部314と、表示パネル331の位置が第1画像PT1に含まれるか否かを判定する第2判定部315と、第1判定部313の判定結果と第2判定部315の判定結果とに基づいて、映像表示部20における第1画像PT1の表示を調整する調整部316と、を備える。
【選択図】図5
Description
特許文献1に記載の携帯端末装置は、タッチパネルと、プロセッサーとを備える。プロセッサーは、コンテンツに関連付けられた設定情報に基づいて、タッチパネルにコンテンツを表示させてタッチ入力を受け付ける第1のモードから、タッチパネルにコンテンツを表示させずにタッチ入力を受け付ける第2のモードに携帯端末装置の操作モードを切り換える。そして、操作モードが切り替えられた場合に、コンテンツを表示装置のディスプレイに表示させる。
例えば、HMDに表示された画像とスマートフォンに表示された画像とが重なる場合には、スマートフォンに表示された画像を見難い場合があった。
[1−1.表示システムの全体構成]
図1は、表示システム1の概略構成を示す図である。
図1に示すように、表示システム1は、HMD(Head Mounted Display)100を備える。HMD100は、使用者の頭部に装着される映像表示部20と、接続装置10とを備え、映像表示部20により、使用者の頭部に装着された状態で使用者に虚像を視認させる装置である。HMD100は、「表示装置」の一例に対応する。以下の説明において、使用者とは、HMD100を装着して使用するユーザーを指す。
なお、スマートフォン300は情報処理装置の一例に過ぎない。情報処理装置は、使用者が携帯可能であって、画像を表示する表示部と、タッチセンサーのような位置入力部と、コンピューターとを備えればよい。例えば、情報処理装置として、PDA(Personal Digital Assistant)端末、タブレット型パーソナルコンピューター等を接続装置10に接続可能である。
本実施形態では、コネクター11Dは、一例として、映像データ及び各種データの入出力に対応するインターフェイスであり、USBケーブル46を介してスマートフォン300が接続される。
また、USB−TypeCの代替モードの機能として、HDMI(High Definition Multimedia Interface)規格の映像データ、MHL(Mobile High−definition Link)規格の映像データ等を伝送できる。スマートフォン300は、USBケーブル46を介して、電源供給、データの送受信、及び、映像や音声のストリーミングデータの供給等を行うことができる。USB−TypeCの代替モードは、Alternativeモードとして知られている。HDMIは登録商標である。
映像表示部20は、「第1表示部」の一例に対応する。
前部フレーム27は、右導光板26と左導光板28との連結位置において、映像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合には、鼻当て部と右保持部21及び左保持部23とにより映像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、映像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合には、ベルトによって映像表示部20を使用者の頭部Uに保持できる。
右表示部22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示部24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示部22及び左表示部24を総称して単に「表示駆動部」と呼ぶこともできる。
カメラ61は、映像表示部20の前部フレーム27に配設される。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置されているが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、「撮像部」の一例に対応する。
赤外線センサー66は、「赤外線受光部」の一例に対応する。
マイク63は、音声を集音して、音声信号を接続装置10に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
図2は、映像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示部22と左表示部24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示部22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には図4に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、図4に示す温度センサー239が実装される。
ハーフミラー261、281は、右表示部22及び左表示部24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
図3では、使用者の右眼REに画像光を照射するハーフミラー261及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261を含む右導光板26の全体、及びハーフミラー281を含む左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
図4は、HMD100を構成する各部の構成を示す図である。
映像表示部20の右表示部22は、右表示部基板210を有する。右表示部基板210には、接続ケーブル40に接続される右I/F部211、右I/F部211を介して接続装置10から入力されるデータを受信する受信部213及びEEPROM(Electrically Erasable Programmable Read Only Memory)215が実装される。右I/F部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、照度センサー65、赤外線センサー66、LEDインジケーター67及び内側カメラ68を、接続装置10に接続する。受信部213は、OLEDユニット221を接続装置10に接続する。
左I/F部231は、受信部233、6軸センサー235、磁気センサー237及び温度センサー239を、接続装置10に接続する。受信部233は、OLEDユニット241を接続装置10に接続する。
具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、第1制御部120により読取り可能である。
照度センサー65は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。LEDインジケーター67は、右I/F部211を介して入力される制御信号又は駆動電流に従って点灯する。
内側カメラ68は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
温度センサー217は、OLEDユニット221の温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。
また、受信部233は、左I/F部231を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット241に出力する。OLEDユニット221、241は、接続装置10が伝送する映像データに基づく映像を表示する。
また、I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。
表示制御部124は、例えば、フレームの切り出し、解像度変換、中間フレーム生成、フレームレート変換等の各種処理を実行する。解像度変換は、いわゆるスケーリングを含む。表示制御部124は、OLEDユニット221及びOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、コネクター11Aから、映像信号201として右I/F部211及び左I/F部231に伝送される。映像信号201は、OLEDユニット221及びOLEDユニット241の各々に対応して処理されたデジタル映像データである。
図5は、HMD100の第1制御部120とスマートフォン300との構成を示す図である。
スマートフォン300は、第2制御部310、不揮発性記憶部320、表示部330、I/F部341、通信部345、6軸センサー351、磁気センサー352及び赤外線通信部353を備える。
第2制御部310は、CPUやマイコン等のプロセッサーを備え、このプロセッサーにより制御プログラムを実行することにより、スマートフォン300の各部を制御する。第2制御部310は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM(Read Only Memory)、及び、プロセッサーのワークエリアを構成するRAM(Random Access Memory)のようなメモリーを備えてもよい。プロセッサーは、「コンピューター」の一例に対応する。第2制御部310のメモリーに記憶された制御プログラムは、「制御プログラム」の一例に対応する。
また、不揮発性記憶部320は、第2制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS:Operating System)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
表示パネル331は、「第2表示部」の一例に対応する。
タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを第2制御部310に出力する。タッチ操作は、「位置入力操作」の一例に対応する。
タッチセンサー332は、表示パネル331と一体に形成される。具体的には、タッチセンサー332は、表示パネル331の画像表示面に形成される。本実施形態では、タッチセンサー332は、長方形状である。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。
タッチセンサー332は、「位置入力部」の一例に対応する。
本実施形態で、I/F部341は、USBインターフェイスを備え、USBケーブル46により、コネクター11Dに接続される。第2制御部310は、例えば、USBケーブル46により映像データを出力し、接続装置10からセンサーの出力値に関するデータ等を受信する。
また、I/F部341は、無線通信インターフェイスであってもよい。この場合には、I/F部341は、RF(Radio Frequency)部を含む通信回路を実装したインターフェイス基板、又は、メイン基板に実装される回路とすることができる。
また、通信部345は、例えば、他のスマートフォンと無線電話回線で接続する通信インターフェイスである。
赤外線通信部353は、「赤外線出射部」の一例に対応する。
第1条件:使用者の視野内に表示パネル331が位置する。
第2条件:表示パネル331の表示面の法線方向にHMD100が位置している。
第3条件:表示パネル331とHMD100との間の距離が閾値距離以下である。
第1判定部313は、第2条件を満たすか否かを、カメラ61により形成された外景の画像と、内側カメラ68により形成された画像に基づいて判定する。また、第1判定部313は、第2条件を満たすか否かを、HMD100の第1制御部120から伝送される赤外線センサー66の検出結果に基づいて判定する。
第1条件及び第2条件については、後述にて図6及び図7を参照して詳細に説明する。
第3条件については、後述にて図6を参照して詳細に説明する。
第2判定部315は、まず、HMD100からカメラ61が撮像した外景画像データを取得し、カメラ61が撮像した外景画像の中から、第1画像PT1に含まれる外景画像を抽出する。
そして、第2判定部315は、抽出された外景画像にスマートフォン300の表示パネル331が含まれているか否かを判定する。なお、抽出された外景画像にスマートフォン300の表示パネル331が含まれているか否かの判定は、例えば、画像処理等を用いて実行される。
第4条件:表示パネル331がHMD100に対向していると第1判定部313が判定したこと。
第5条件:HMD100に対するスマートフォン300の表示パネル331の位置が映像表示部20により視認される第1画像PT1に含まれると第2判定部315が判定したこと。
具体的には、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、第1画像PT1の一部の画像を非表示にする。また、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、映像表示部20における第1画像PT1の表示位置を移動する。また、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、映像表示部20における第1画像PT1を縮小して表示する。
調整部316の処理については、後述にて図8〜図10を参照して詳細に説明する。
HMD100の第1制御部120は、第1表示制御部121と、視線検出部123と、赤外線検出部125と、を備える。具体的には、第1制御部120は、第1制御部120が備えるプロセッサーが制御プログラムを実行することにより、第1表示制御部121、視線検出部123及び赤外線検出部125として機能する。
更に具体的には、第1表示制御部121は、スマートフォン300から受信した第2画像PT2から、右画像と左画像とを生成する。そして、第1表示制御部121は、右画像を右表示部22により表示させ、左画像を左表示部24により表示させる。
更に具体的には、第1表示制御部121は、右画像を右I/F部211を介してOLEDユニット221に伝送し、OLEDユニット221により右画像を表示させる。また、第1表示制御部121は、左画像を左I/F部231を介してOLEDユニット241に伝送し、OLEDユニット241により左画像を表示させる。
視線検出部123は、使用者の視線方向を示すデータを第2制御部310に伝送する。
図6〜図10の各々は、第2制御部310の処理の具体例を示す図である。
図6は、表示パネル331がHMD100と対向している状態の一例を示す図である。
図6に示すように、使用者がスマートフォン300を操作する場合には、通常、使用者の視線の方向LSにスマートフォン300が配置される。方向LSは、使用者の視線の方向を示す。方向LSは、内側カメラ68によって撮影された画像に基づいて、視線検出部123によって検出される。
方向DAは、HMD100からスマートフォン300のタッチセンサー332の中心位置PCに向かう方向を示す。方向DAは、カメラ61によって撮像された外景画像に基づいて、第1判定部313によって検出される。
方向DAは、方向LSに対して傾斜角θだけ傾斜している。傾斜角θは方向LSに対する方向DAの傾斜角を示す。
A−A線は、方向DAに対して傾斜角φだけ傾斜している。傾斜角φは、A−A線の方向DAに対する傾斜角を示す。また、B−B線は、方向DAに対して傾斜角ψだけ傾斜している。傾斜角ψは、B−B線の方向DAに対する傾斜角を示す。傾斜角φ及び傾斜角ψは、カメラ61によって撮像された外景画像に基づいて、第1判定部313によって検出される。
また、例えば、傾斜角φ及び傾斜角ψの各々が90度である場合には、表示パネル331の表示面は、方向DAと直交する。
図7に示すように、赤外線通信部353から中心線CLで示す方向に赤外線が出射される。中心線CLは、ベクトルVNと平行である。ベクトルVNは、表示パネル331の表示面の法線ベクトルを示す。すなわち、中心線CLは、表示パネル331の表示面を含む平面と直交する。
中心線CLに対して傾斜角ηA以下の範囲は、赤外線通信部353から出射される赤外線の到達する範囲を示す。換言すれば、傾斜角ηAは、赤外線通信部353から出射される赤外線の拡がり角を示す。
赤外線センサー66が赤外線通信部353から射出された赤外線を受光する場合に、第1判定部313は、表示パネル331の表示面の法線方向にHMD100が位置していると判定する。すなわち、第1判定部313は、第2条件を満たすと判定する。
図8は、表示パネル331の位置が第1画像PT1に含まれる状態の一例を示す画面図である。
図8に示すように、ハーフミラー261及びハーフミラー281の各々には、第1画像PT1が表示される。第1画像PT1は、アイコンA1〜アイコンA5、アイコンB1〜アイコンB5、アイコンC1〜アイコンC5及びボタンP1〜P3を含む。なお、第1画像PT1は背面画像を含まない。すなわち、ハーフミラー261及びハーフミラー281の各々において、アイコンA1〜アイコンA5、アイコンB1〜アイコンB5、アイコンC1〜アイコンC5及びボタンP1〜P3を除く領域では、使用者は外景を視認できる。
また、第1画像PT1は、HMD100に対する表示パネル331の位置を含む。具体的には、ハーフミラー261及びハーフミラー281の各々において、アイコンA4、アイコンA5、アイコンB4及びアイコンB5の位置と、表示パネル331の位置とが一致している。
したがって、表示パネル331の一部は、アイコンA4、アイコンA5、アイコンB4及びアイコンB5の各々に遮られて隠れている。このような場合には、使用者は、表示パネル331に表示された第2画像PT2を見難い可能性があった。
図9に示すように、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、第1画像PT1の一部の画像を非表示にする。具体的には、調整部316は、アイコンA4、アイコンA5、アイコンB4及びアイコンB5の各々を非表示にする。
この場合には、アイコンA4、アイコンA5、アイコンB4及びアイコンB5の各々の濃度が低減されるため、使用者は、表示パネル331に表示される第2画像PT2を視認し易くなる。
また、調整部316が第1画像PT1の一部の画像を半透明化する処理を実行してもよい。具体的には、調整部316が第1画像PT1のうちの表示パネル331の位置に対応する画像を半透明化する処理を実行してもよい。更に具体的には、調整部316がアイコンA4、アイコンA5、アイコンB4及びアイコンB5の各々を半透明化する処理を実行してもよい。
この場合には、アイコンA4、アイコンA5、アイコンB4及びアイコンB5の各々が半透明化されるため、使用者は、表示パネル331に表示される第2画像PT2を視認し易くなる。
図10に示すように、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、第1画像PT1を縮小して移動する。具体的には、調整部316は、第1画像PT1を50%に縮小して、第1画像PT1がハーフミラー261及びハーフミラー281の各々の左辺と接する位置に移動する。
この場合には、調整部316の処理を簡素化できる。したがって、第2制御部310の負荷を軽減できる。
図11は、HMD100の第1制御部120及びスマートフォン300の第2制御部310の処理を示すフローチャートである。
まず、図11に示すように、ステップS101において、第2制御部310が、カメラ61によって撮像された外景画像データを取得する。
次に、ステップS103において、第1制御部120の視線検出部123が、内側カメラ68の撮像画像データを取得する。
次に、ステップS105において、第1制御部120の視線検出部123が、内側カメラ68の撮像画像データに基づいて、使用者の視線の方向を検出する。
更に具体的には、第1判定部313は、カメラ61により形成された外景の画像と、視線検出部123により検出された視線方向とに基づいて、使用者の視野内に表示パネル331が位置するか否かを判定する。また、第1判定部313は、赤外線センサー66の検出結果に基づいて、表示パネル331がHMD100に対向しているか否かを判定する。
第1条件又は第2条件を満たさないと第1判定部313が判定した場合(ステップS107:NO)には、処理がステップS113に進む。
そして、ステップS113において、第1判定部313は、表示パネル331がHMD100に対向していないと判定する。その後、処理がステップS101にリターンする。
そして、ステップS109において、第1判定部313は、距離センサー64によって表示パネル331とHMD100との間の距離LAを取得する。
次に、ステップS111において、第1判定部313は、距離LAが閾値距離LS以下であるか否かを判定する。
距離LAが閾値距離LS以下ではないと第1判定部313が判定した場合(ステップS111:NO)には、 そして、ステップS113において、第1判定部313は、表示パネル331がHMD100に対向していないと判定する。その後、処理がステップS101にリターンする。
そして、ステップS115において、第1判定部313は、表示パネル331がHMD100に対向していると判定する。
次に、ステップS117において、検出部314は、HMD100に対するスマートフォン300の表示パネル331の位置を検出する。
次に、ステップS119において、第2判定部315は、HMD100に対するスマートフォン300の表示パネル331の位置が映像表示部20により視認される第1画像PT1に含まれるか否かを判定する。
表示パネル331の位置が第1画像PT1に含まれないと第2判定部315が判定した場合(ステップS119:NO)には、処理がステップS101にリターンする。表示パネル331の位置が第1画像PT1に含まれると第2判定部315が判定した場合(ステップS119:YES)には、処理がステップS121に進む。
そして、ステップS121において、調整部316は、映像表示部20における第1画像PT1の表示を調整する。具体的には、調整部316は、表示パネル331の位置が第1画像PT1に含まれないように、第1画像PT1の表示を調整する。その後、処理がステップS101にリターンする。
以上説明したように、本実施形態では、HMD100は、外景を視認可能に構成され、前記外景に重ねて第1画像PT1を表示する映像表示部20と、第1画像PT1を映像表示部20に表示させる第1表示制御部121と、を備える。スマートフォン300は、第2画像PT2を表示する表示パネル331と、表示パネル331に配置され、位置入力操作を受け付けて、操作位置の座標を検出するタッチセンサー332と、表示パネル331がHMD100に対向しているか否かを判定する第1判定部313と、HMD100に対する表示パネル331の位置を検出する検出部314と、HMD100に対する表示パネル331の位置が映像表示部20により視認される第1画像PT1に含まれるか否かを判定する第2判定部315と、第1判定部313の判定結果と第2判定部315の判定結果とに基づいて、映像表示部20における第1画像PT1の表示を調整する調整部316と、を備える。
よって、例えば、表示パネル331がHMD100に対向していると第1判定部313が判定し、HMD100に対する表示パネル331の位置が映像表示部20により視認される第1画像PT1に含まれると第2判定部315が判定した場合に、調整部316は、映像表示部20における第1画像PT1の表示を調整する。したがって、映像表示部20における第1画像PT1の表示を調整することによって、表示パネル331に表示される第2画像PT2の視認性を向上できる。その結果、使用者によるタッチセンサー332の操作性を向上できる。
したがって、第1判定部313は、スマートフォン300の表示パネル331がHMD100に対向しているか否かを正確に判定できる。
したがって、第1判定部313は、スマートフォン300の表示パネル331がHMD100に対向しているか否かを正確に判定できる。
したがって、第1判定部313は、スマートフォン300の表示パネル331がHMD100に対向しているか否かを正確に判定できる。
したがって、第1判定部313は、スマートフォン300の表示パネル331がHMD100に対向しているか否かを正確に判定できる。
距離LAが閾値距離LSより大である場合には、第1判定部313は、表示パネル331がHMD100に対向していないと判定する。したがって、閾値距離LSの値を適正に設定することによって、表示パネル331がHMD100に対向しているか否かを的確に判定できる。
よって、映像表示部20における第1画像PT1の表示を調整することによって、表示パネル331に表示される第2画像PT2の視認性を向上できる。したがって、使用者によるタッチセンサー332の操作性を向上できる。
よって、表示パネル331に表示される第2画像PT2の視認性を向上できる。したがって、使用者によるタッチセンサー332の操作性を向上できる。
よって、表示パネル331の位置が第1画像PT1に含まれないため、表示パネル331に表示される第2画像PT2の視認性を向上できる。したがって、使用者によるタッチセンサー332の操作性を向上できる。
調整部316は、例えば、第1画像PT1のうちの表示パネル331の位置に対応する画像を非表示する。したがって、簡素な処理で、表示パネル331に表示される第2画像PT2の視認性を向上できる。
したがって、簡素な処理で、表示パネル331に表示される第2画像PT2の視認性を向上できる。
したがって、簡素な処理で、表示パネル331に表示される第2画像PT2の視認性を向上できる。
本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、「情報処理装置」がスマートフォン300であるが、これに限定されない。「情報処理装置」は、使用者が携帯可能に構成され、表示部と、位置入力部と、制御部とを備えればよい。例えば、「情報処理装置」がPDA端末でもよいし、タブレット型パーソナルコンピューターでもよい。
更に、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、第2制御部310が実行する制御プログラムは、不揮発性記憶部320又は第2制御部310内の他の記憶部に記憶されてもよい。また、外部の装置に記憶された制御プログラムを、通信部345等を介して取得して実行する構成としてもよい。
また、接続装置10に形成された構成が重複して映像表示部20に形成されていてもよい。例えば、接続装置10のプロセッサーと同様のプロセッサーが映像表示部20に配置されてもよいし、接続装置10が備えるプロセッサーと映像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
また、第2制御部310の処理を第1制御部120が実行してもよいし、第1制御部120の処理を第2制御部310が実行してもよい。
Claims (15)
- 使用者の頭部に装着される表示装置と、前記表示装置が接続される情報処理装置とを備える表示システムであって、
前記表示装置は、
外景を視認可能に構成され、前記外景に重ねて第1画像を表示する第1表示部と、
前記第1画像を前記第1表示部に表示させる第1表示制御部と、を備え、
前記情報処理装置は、
第2画像を表示する第2表示部と、
前記第2表示部に配置され、位置入力操作を受け付けて、操作位置の座標を検出する位置入力部と、
前記第2表示部が前記表示装置に対向しているか否かを判定する第1判定部と、
前記表示装置に対する前記第2表示部の位置を検出する検出部と、
前記表示装置に対する前記第2表示部の位置が前記第1表示部により視認される前記第1画像に含まれるか否かを判定する第2判定部と、
前記第1判定部の判定結果と前記第2判定部の判定結果とに基づいて、前記第1表示部における前記第1画像の表示を調整する調整部と、を備える、表示システム。 - 前記表示装置は、前記外景を撮像する撮像部を備え、
前記第1判定部は、前記撮像部が撮像した画像に基づいて、前記情報処理装置の前記第2表示部が前記表示装置に対向しているか否かを判定する、請求項1に記載の表示システム。 - 前記表示装置は、前記使用者の視線の方向を検出する視線検出部を備え、
前記第1判定部は、前記視線検出部の検出結果に基づいて、前記情報処理装置の前記第2表示部が前記表示装置に対向しているか否かを判定する、請求項1又は2に記載の表示システム。 - 前記情報処理装置は、赤外線を出射する赤外線出射部を備え、
前記表示装置は、前記赤外線を受光する赤外線受光部を備え、
前記第1判定部は、前記赤外線受光部の受光結果に基づいて、前記情報処理装置の前記第2表示部が前記表示装置に対向しているか否かを判定する、請求項1から3のいずれか1項に記載の表示システム。 - 前記赤外線出射部は、前記第2表示部の表示面の法線方向に前記赤外線を出射する、請求項4に記載の表示システム。
- 前記表示装置は、距離を検出する距離センサーを備え、
前記第1判定部は、前記距離センサーによって検出された前記表示装置と前記第2表示部との間の距離に基づいて、前記第2表示部が前記表示装置に対向しているか否かを判定する、請求項1から5のいずれか1項に記載の表示システム。 - 前記第2表示部が前記表示装置に対向していると前記第1判定部が判定し、前記表示装置に対する前記第2表示部の位置が前記第1表示部により視認される前記第1画像に含まれると前記第2判定部が判定した場合に、前記調整部は、前記第1表示部における前記第1画像の表示を調整する、請求項1から6のいずれか1項に記載の表示システム。
- 前記調整部は、前記第1表示部における前記第1画像のうちの前記第2表示部の位置に対応する画像の濃度を低減する、請求項7に記載の表示システム。
- 前記調整部は、前記第2表示部の位置が前記第1画像に含まれないように、前記第1表示部における前記第1画像の表示を調整する、請求項7又は8に記載の表示システム。
- 前記調整部は、前記第2表示部の位置が前記第1画像に含まれないように、前記第1表示部における前記第1画像の少なくとも一部の画像を非表示にする、請求項9に記載の表示システム。
- 前記調整部は、前記第2表示部の位置が前記第1画像に含まれないように、前記第1表示部における前記第1画像の表示位置を移動する、請求項9又は10に記載の表示システム。
- 前記調整部は、前記第2表示部の位置が前記第1画像に含まれないように、前記第1表示部における前記第1画像を縮小して表示する、請求項9から11のいずれか1項に記載の表示システム。
- 前記情報処理装置は、
前記第2表示部に前記第2画像を表示させる第2表示制御部と、
前記第1画像を示すデータを前記表示装置に伝送する伝送部と、を備え、
前記第2画像は前記第1画像と一致する、請求項1から12のいずれか1項に記載の表示システム。 - 外景を視認可能に構成され、前記外景に重ねて画像を表示する第1表示部を有する表示装置が接続され、第2表示部と、前記第2表示部に配置される位置入力部と、コンピューターとを備える情報処理装置の制御プログラムであって、前記コンピューターを、
前記第2表示部が前記表示装置に対向しているか否かを判定する第1判定部、
前記表示装置に対する前記情報処理装置の前記第2表示部の位置を検出する検出部、
前記表示装置に対する前記第2表示部の位置が前記第1表示部に表示される前記画像に含まれるか否かを判定する第2判定部、及び、
前記第1判定部の判定結果と前記第2判定部の判定結果とに基づいて、前記第1表示部における前記画像の表示を調整する調整部として機能させる、制御プログラム。 - 外景を視認可能に構成され、前記外景に重ねて画像を表示する第1表示部を有する表示装置が接続され、第2表示部と、前記第2表示部に配置される位置入力部と、コンピューターとを備える情報処理装置の制御方法であって、
前記第2表示部が前記表示装置に対向しているか否かを判定する第1判定ステップと、
前記表示装置に対する前記情報処理装置の前記第2表示部の位置を検出する検出ステップと、
前記表示装置に対する前記第2表示部の位置が前記第1表示部に表示される前記画像に含まれるか否かを判定する第2判定ステップと、
前記第1判定ステップの判定結果と前記第2判定ステップの判定結果とに基づいて、前記第1表示部における前記画像の表示を調整する調整ステップと、を含む、情報処理装置の制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029701A JP7238456B2 (ja) | 2019-02-21 | 2019-02-21 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
CN202010101284.9A CN111600990B (zh) | 2019-02-21 | 2020-02-19 | 显示系统、记录介质以及信息处理装置的控制方法 |
US16/795,829 US11393431B2 (en) | 2019-02-21 | 2020-02-20 | Display system, control program for information processor, and control method for information processor that are configured to adjust display of a first image on a first display unit based on the position of a second display unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019029701A JP7238456B2 (ja) | 2019-02-21 | 2019-02-21 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020135544A true JP2020135544A (ja) | 2020-08-31 |
JP2020135544A5 JP2020135544A5 (ja) | 2022-02-01 |
JP7238456B2 JP7238456B2 (ja) | 2023-03-14 |
Family
ID=72142979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019029701A Active JP7238456B2 (ja) | 2019-02-21 | 2019-02-21 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11393431B2 (ja) |
JP (1) | JP7238456B2 (ja) |
CN (1) | CN111600990B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6892960B1 (ja) * | 2020-09-29 | 2021-06-23 | Kddi株式会社 | 制御装置、情報処理システム、制御方法及びプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10698481B1 (en) * | 2017-09-28 | 2020-06-30 | Apple Inc. | Glint-assisted gaze tracker |
JP2021064320A (ja) * | 2019-10-17 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2022056043A (ja) * | 2020-09-29 | 2022-04-08 | セイコーエプソン株式会社 | 表示システム、表示方法及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012204998A (ja) * | 2011-03-24 | 2012-10-22 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP2013113963A (ja) * | 2011-11-28 | 2013-06-10 | Seiko Epson Corp | 透過型表示装置、及び操作入力方法 |
WO2016194844A1 (ja) * | 2015-05-29 | 2016-12-08 | 京セラ株式会社 | ウェアラブル装置 |
JP2018185638A (ja) * | 2017-04-25 | 2018-11-22 | パナソニックIpマネジメント株式会社 | 表示装置、透過型ヘッドマウントディスプレイ、制御装置および表示システム |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8576276B2 (en) * | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US9217867B2 (en) * | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
JP5957875B2 (ja) * | 2011-12-26 | 2016-07-27 | ソニー株式会社 | ヘッドマウントディスプレイ |
US20160292922A1 (en) * | 2013-05-21 | 2016-10-06 | Sony Corporation | Display control device, display control method, and recording medium |
US9448621B2 (en) * | 2013-12-20 | 2016-09-20 | Nokia Technologies Oy | Causation of display of information on a see through display |
KR102182161B1 (ko) * | 2014-02-20 | 2020-11-24 | 엘지전자 주식회사 | Hmd 및 그 제어 방법 |
JP2015197694A (ja) | 2014-03-31 | 2015-11-09 | シャープ株式会社 | 携帯端末装置およびその制御方法 |
US20150348322A1 (en) * | 2014-06-02 | 2015-12-03 | Dell Products L.P. | Dynamically Composited Information Handling System Augmented Reality at a Primary Display |
WO2016021252A1 (ja) * | 2014-08-05 | 2016-02-11 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びに画像表示システム |
EP2996017B1 (en) * | 2014-09-11 | 2022-05-11 | Nokia Technologies Oy | Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display |
KR102243656B1 (ko) * | 2014-09-26 | 2021-04-23 | 엘지전자 주식회사 | 모바일 디바이스, hmd 및 시스템 |
US9865091B2 (en) * | 2015-09-02 | 2018-01-09 | Microsoft Technology Licensing, Llc | Localizing devices in augmented reality environment |
KR102610120B1 (ko) * | 2016-01-20 | 2023-12-06 | 삼성전자주식회사 | Hmd 디바이스 및 그 제어 방법 |
US10163198B2 (en) * | 2016-02-26 | 2018-12-25 | Samsung Electronics Co., Ltd. | Portable image device for simulating interaction with electronic device |
EP3327544B1 (en) * | 2016-11-25 | 2021-06-23 | Nokia Technologies Oy | Apparatus, associated method and associated computer readable medium |
JP6919222B2 (ja) * | 2017-02-27 | 2021-08-18 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
JP6940702B2 (ja) * | 2018-06-25 | 2021-09-29 | マクセル株式会社 | ヘッドマウントディスプレイ、ヘッドマウントディスプレイ連携システム及びその方法 |
-
2019
- 2019-02-21 JP JP2019029701A patent/JP7238456B2/ja active Active
-
2020
- 2020-02-19 CN CN202010101284.9A patent/CN111600990B/zh active Active
- 2020-02-20 US US16/795,829 patent/US11393431B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012204998A (ja) * | 2011-03-24 | 2012-10-22 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
JP2013113963A (ja) * | 2011-11-28 | 2013-06-10 | Seiko Epson Corp | 透過型表示装置、及び操作入力方法 |
WO2016194844A1 (ja) * | 2015-05-29 | 2016-12-08 | 京セラ株式会社 | ウェアラブル装置 |
JP2018185638A (ja) * | 2017-04-25 | 2018-11-22 | パナソニックIpマネジメント株式会社 | 表示装置、透過型ヘッドマウントディスプレイ、制御装置および表示システム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6892960B1 (ja) * | 2020-09-29 | 2021-06-23 | Kddi株式会社 | 制御装置、情報処理システム、制御方法及びプログラム |
JP2022055697A (ja) * | 2020-09-29 | 2022-04-08 | Kddi株式会社 | 制御装置、情報処理システム、制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7238456B2 (ja) | 2023-03-14 |
US11393431B2 (en) | 2022-07-19 |
CN111600990B (zh) | 2022-04-26 |
CN111600990A (zh) | 2020-08-28 |
US20200273432A1 (en) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10657722B2 (en) | Transmissive display device, display control method, and computer program | |
JP7238456B2 (ja) | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 | |
JP7243193B2 (ja) | 表示システム、表示システムの制御方法、情報処理装置、及び情報処理装置の制御プログラム | |
JP2019128693A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
US11353704B2 (en) | Head mounted device (HMD) coupled to smartphone executing personal authentication of a user | |
US20200265775A1 (en) | Connection device, display device, and control method for the display device | |
US11269188B2 (en) | Display system, control program for information processing device, method for controlling information processing device, and display device | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2017142294A (ja) | 表示装置、及び、表示装置の制御方法 | |
CN111488072B (zh) | 信息处理装置、信息处理装置的控制方法以及记录介质 | |
US11156841B2 (en) | Display device, control program for display device, control method for display device, and display system | |
CN112581920B (zh) | 显示系统、显示控制方法以及记录介质 | |
CN111556310B (zh) | 显示系统、记录介质以及信息处理装置的控制方法 | |
JP2021047370A (ja) | 表示装置、表示装置の制御方法、表示装置の制御プログラム、及び表示システム | |
JP2021057747A (ja) | 表示システム、画像表示装置、画像表示方法及びプログラム | |
JP6631299B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7238456 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |