JP2021119431A - 表示システム、コントローラー、表示システムの制御方法およびプログラム - Google Patents

表示システム、コントローラー、表示システムの制御方法およびプログラム Download PDF

Info

Publication number
JP2021119431A
JP2021119431A JP2020013125A JP2020013125A JP2021119431A JP 2021119431 A JP2021119431 A JP 2021119431A JP 2020013125 A JP2020013125 A JP 2020013125A JP 2020013125 A JP2020013125 A JP 2020013125A JP 2021119431 A JP2021119431 A JP 2021119431A
Authority
JP
Japan
Prior art keywords
display
input
display unit
unit
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020013125A
Other languages
English (en)
Inventor
伸一 小林
Shinichi Kobayashi
伸一 小林
正秀 高野
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020013125A priority Critical patent/JP2021119431A/ja
Priority to CN202110127809.0A priority patent/CN113267896A/zh
Priority to US17/161,857 priority patent/US11681433B2/en
Publication of JP2021119431A publication Critical patent/JP2021119431A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724094Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
    • H04M1/724097Worn on the head
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Abstract

【課題】表示システムにおいて、表示と入力との連携を容易とする。【解決手段】頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する方法を提供する。この表示システムを構成する表示装置に設けられた第1表示部は、外景を視認可能である。この第1表示部に、表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる。このとき、第1表示部における表示の態様に応じて、複数の入力モードのうちの一つの入力モードを設定し、コントローラーに設けられた第2表示部における表示と組み合わせて、複数の入力モードのそれぞれに対応した入力を可能とし、この入力モードでの入力を受け付ける。【選択図】図5A

Description

本開示は、表示装置とコントローラーを備えた表示システムを実現する技術に関する。
使用者の頭部に装着し、外景を透過して視認可能であり、更にこの外景に重ねて様々な表示を行なえる頭部装着型の表示装置が提案されている。こうした表示装置では、例えば特許文献1に示すように、コンピューターなどの情報処理装置の表示画像の一部を表示させる。こうした表示装置では、情報処理装置と表示装置との連係を図り、作業効率の向上などを図ることができる。
特開2019−036914号公報
しかしながら、こうした表示装置では、情報処理装置の画像の一部を視認することができるものの、表示された情報に対して、何らかの入力作業をしようとすると、結局情報処理端末を見て、これを操作する必要がある。
本開示は、以下の形態又は適用例として実現することが可能である。
(1)本開示の第1の実施形態は、頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムとしての形態である。この表示システムでは、前記表示装置は、外景を視認可能な第1表示部と、前記第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる表示制御部と、を備え、前記コントローラーは、第2表示部と、前記第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、前記第1表示部における前記表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、を備える。
(2)また、本開示の他の実施形態は、頭部装着型の表示装置に接続されたコントローラーとしての形態である。このコントローラーは、入力モードによって表示の態様が異なる入力用表示部と、前記入力用表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、外景を視認可能な透過表示部であって、前記表示装置に設けられ透過表示部における表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、を備える。
(3)本開示の更に他の実施形態としては 更に頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する方法があり得る。この表示システムを制御する方法では、前記表示装置に設けられた第1表示部であって、外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせ、前記第1表示部における前記表示の態様に応じて、複数の入力モードのうちの一つの入力モードを設定し、前記コントローラーに設けられた第2表示部における表示と組み合わせて、前記複数の入力モードのそれぞれに対応した入力を可能とし、前記入力モードでの入力を受け付ける。
(4)本開示の更に他の実施形態としては、頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する、コンビューターにより実行可能なプログラムがあり得る。このプログラムは、外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる機能と、前記コントローラーに設けられた第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする機能と、前記第1表示部における前記表示の態様に応じて、前記入力部による入力モードを設定する機能と、を実現する。
実施形態における表示システムとしてのHMDの外観構成を示す説明図。 画像表示部が備える光学系の構成を示す要部平面図。 表示装置の信号処理回路の構成を示す概略構成図。 第1実施形態において、制御装置が実行する表示処理ルーチンを示すフローチャート。 頭部の動きと第1,第2表示部の表示との関係を示す説明図。 各条件での表示処理を示すフローチャート。 制御装置の第2表示部における表示の一例を示す説明図。 制御装置の第2表示部における表示の他の例を示す説明図。 制御装置の第2表示部における表示の他の例を示す説明図。 制御装置の第2表示部における表示の他の例を示す説明図。 制御装置の第2表示部における表示の他の例を示す説明図。 制御装置の第2表示部における表示の他の例を示す説明図。 第1,第2表示部における表示と入力モードとの関係を示す説明図。 ミラーモードでの表示の一例を示す説明図。 トラックモードでの表示の一例を示す説明図。 スイッチモードでの表示の一例を示す説明図。 アシストモードでの表示の一例を示す説明図。 デュアルモードでの表示の一例を示す説明図。 画像表示部における仮想的な表示を示す説明図。
A.第1実施形態:
A−1.HMDの全体構成:
図1は、第1実施形態における表示システムとしてのHMD(頭部装着型表示装置、Head Mounted Display)100の外観構成を示す図である。HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる表示装置としての画像表示部20と、画像表示部20を制御するコントローラーとしての制御装置70と、を備える表示システムである。画像表示部20は、画像表示以外にも各種センサーなどを搭載しているので、画像表示部20のうち、特に画像表示を行なっている部分を、第1表示部と呼ぶ。第1表示部については、後で説明する。他方、制御装置70は、画像表示部20と信号をやり取りして、センサーの値を読み込んだり、画像表示部20に画像を表示させるために必要な処理を行なったりするコントローラーである。制御装置70は、タッチパネル機能を有するディスプレイを備える。このディスプレイを、第2表示部73と呼ぶ。第2表示部73の構成については後で説明する。
この制御装置70は、後述するように、入力部および入力制御部、設定部および表示制御部として働く。このHMD100は、スマートフォンなどの携帯端末110から無線通信により送信された映像(音声を含む)を制御装置70が受け取り、これを画像表示部20に出力し、画像(動画を含む)の表示および音声の再生を行なわせる。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。
右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。
右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。
本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズムやホログラム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。
画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって虚像を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光と、外光とが入射する。このため、使用者における虚像の視認性は、外光の強さに影響を受ける。
このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整することができる。典型的な例では、表示システムであるHMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。
画像表示部20には、上述した画像表示に関する部材の他、ビデオカメラ61R,61L、内側カメラ62、照度センサー65、6軸センサー66、インジケーター67が設けられている。2台のビデオカメラ61R,61Lは、画像表示部20の前部フレーム27の上側に配置されている。2台のビデオカメラ61R,61Lは、使用者のほぼ両眼に対応する位置に設けられており、いわゆる両眼視による対象物までの距離の計測が可能となっている。距離の計測は、制御装置70により行なわれる。なお、ビデオカメラ61R,61Lは、両眼視による距離の計測ができる位置であれば、どこに設けられていてもよく、前部フレーム27の端部ER,ELにそれぞれ配置されていてもよい。なお、対象物までの距離の計測は、単願カメラとその画像の解析により行なう構成や、ミリ波レーダーなどにより行なう構成などによっても実現可能である。
ビデオカメラ61R,61Lは、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。ビデオカメラ61R,61Lは、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外景(実空間)を撮像する。ビデオカメラ61R,61Lは、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。本実施形態では、ビデオカメラ61R,61Lの画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。ビデオカメラ61R,61Lの画角の広さを適宜設定可能な光学系を設けてもよい。
内側カメラ62は、ビデオカメラ61R,61Lと同様に、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。内側カメラ62は、HMD100の内側方向、換言すれば、画像表示部20の装着状態における使用者と対向する方向を撮像する。本実施形態の内側カメラ62は、使用者の右眼を撮像するための内側カメラと、左眼を撮像するための内側カメラと、を含んでいる。本実施形態では、内側カメラ62の画角の広さは、使用者の右眼または左眼の全体を撮像可能な範囲に設定される。内側カメラ62は、使用者の眼球、特に瞳孔の位置を検出し、両眼の瞳孔の位置から、使用者の視線の方向を算出するのに用いられる。もとより、内側カメラ62は、画角の広さを適宜設定可能な光学系を設けてもよく、使用者の瞳孔のみならず、更に広い領域を撮像することで、使用者の表情などを読取るのに用いてもよい。
照度センサー65は、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、前部フレーム27の端部ERに配置される。LEDインジケーター67は、ビデオカメラ61R,61Lによる撮像を実行中に点灯して、撮像中であることを報知する。
6軸センサー66は、加速度センサーであり、使用者の頭部のXYZ方向(3軸)の移動量と、使用者頭部のXYZ方向に対する傾き(3軸)を検出する。XYZ方向は、Z方向が重力方向に沿った方向であり、X方向は、使用者の後から前に向かう方向、Y方向が使用者の左から右に向かう方向である。また、頭部の傾きは、XYZ方向の各軸(X軸,Y軸,Z軸)の周りの角度である。6軸センサー66からの信号を積分することで、初期位置からの使用者頭部の移動量と角度を知ることができる。
画像表示部20は、接続ケーブル40により、制御装置70と接続されている。接続ケーブル40は、左保持部23の先端から引き出され、中継コネクター46を介して、制御装置70に設けられたコネクター77に着脱可能に接続される。接続ケーブル40には、ヘッドセット30が含まれる。ヘッドセット30は、マイク63と使用者の左右の耳に装着される右イヤホン32および左イヤホン34が含まれる。ヘッドセット30は、中継コネクター46に接続されて、接続ケーブル40に一体化される。
制御装置70から画像を表示するための信号が、接続ケーブル40を介して画像表示部20に出力されると、画像表示部20は、右表示ユニット22および左表示ユニット24を用いて画像を形成する。使用者に画像を認識させる光学的な構成について説明する。図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。
右眼REに虚像を視認させる構成として、右画像表示部としての右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。
OLEDユニット221は、OLEDパネル(以下、単にOLEDと略記する)223と、OLED223を駆動するOLED駆動回路(以下、単にR−CPLDと略記する)225とを有する。OLED223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLED223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。
R−CPLD225は、制御装置70から送られる信号に従って、OLED223が備える発光素子の選択および通電を実行し、発光素子を発光させる。R−CPLD225は、OLED223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。R−CPLD225は、例えばOLED223を駆動する半導体デバイスで構成され、OLED223の裏面に固定される基板に実装されてもよい。なお、OLED223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLED223が採用されてもよい。
右光学系251は、OLED223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に虚像を視認させる。
左眼LEに虚像を視認させる構成として、左画像表示部としての左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLED243と、OLED243を駆動するL−CPLD245を有する。各部の詳細は、OLEDユニット221、OLED223、R−CPLD225と同じである。左光学系252の詳細は右光学系251と同じである。
以上、図2を用いて説明したように、画像表示部20は、使用者の右左眼に画像光Lを導く光学系と、外光OLを導く光学系とを備える。このため、使用者の右左眼に画像光Lを導いて虚像を視認させる光学系を、以下の説明では、第1表示部200と呼ぶ。
以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外景(実世界)が見えると共に、この外景に重なるようにして画像光Lによる虚像が視認される。つまり、HMD100の画像表示部20は、外景を透過することで使用者に対して虚像に加え外景を視認させる。
ハーフミラー261およびハーフミラー281は、右表示ユニット22および左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す。また、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。
A−2.制御装置70の構成:
次に、画像表示部20に各種信号を出力する制御装置70の構成について説明する。図3は、制御装置70および画像表示部20の内部構成を示すブロック図である。制御装置70は、既述した第2表示部73に加えて、通信部75、CPU80、タッチパネルドライバー76、ディスプレイドライバー78、入出力インターフェース(以下、単に入出力I/Fと略記する)79等を備える。なお、70の駆動電力は図視しないバッテリーから各部に供給される。
第2表示部73は、画像をフルカラーで表示する表示部71と、表示部71を使用者が指先等で触ったときに、その位置と強さを検出するタッチパネル72とを備える。この表示部71は、CPU80からの信号を受けたディスプレイドライバー78により駆動される。また、タッチパネル72は、タッチパネルドライバー76に接続されており、タッチパネルドライバー76による駆動信号を受けて、第2表示部73におけるタッチ位置の検出をダイナミックに行ない、検出したタッチ位置と強さをタッチパネルドライバー76を介してCPU80に出力する。
通信部75は、携帯端末110と通信して、画像や音声を含む映像信号を受け取る。通信方式としては、WiFi(登録商標)やBlueTooth(登録商標)などどのようなものでも差し支えない。また、有線により携帯端末110から映像信号を受け取るようにしてもよい。入出力I/F79は、いわゆるType−Cの規格に準拠したコネクター形状およびシリアル通信によりデータの入出力が可能である。
これら各部を統御するCPU80は、内部にメモリー85を備え、このメモリー85に記憶したプログラムを実行することにより、オペレーティングシステム(以下、単にOSと略記する)81や、入力イベント検出部82などの機能を実現する。本実施形態で用いるOS81は、携帯端末110などで用いられ汎用のOSと基本機能を同一としている。相違点は、ビデオカメラ61R,61Lを用いて外景を撮像する機能や、内側カメラ62を用いて視線を検出する機能、第1表示部200と共に第2表示部73に画像を表示する機能などが拡張されていることである。従って、OS81用に作られたアプリケーションプログラムを、そのまま、あるいは僅かな修正により、制御装置70で実行することができる。こうしたアプリケーションプログラムとしては、ゲームや、各種の作業支援を行なうアプリケーションプログラム等が考えられる。これらを対象アプリ83と呼ぶ。また、本実施形態では、対象アプリ83とは別に、各種の入力方法を提供するユーザーインタフェース支援アプリケーションプログラム(以下、単にUIアプリと呼ぶ)84を、対象アプリ83と同時に実行可能である。
CPU80は、OS81の管理の下で、通信部75を介して携帯端末110から受け取った映像を入出力I/F79を介して、画像表示部20に出力する。こうした映像信号の入出力と共に、CPU80は、第2表示部73を入力部として扱い、入力に必要なボタンやキー、あるいはフィールドなどの画像を、ディスプレイドライバー78を介して表示部71に表示させ、この表示に応じた使用者のタッチパネル72へのタッチの位置と強さを、タッチパネルドライバー76を介して入力する。タッチパネルドライバー76が検出したタッチの位置と強さは、入力イベント検出部82に入力され、UIアプリ84から受け取った入力用のユーザーインタフェースの状況と照合され、OS81により解釈されて、対象アプリ83に出力される。OS81およびUIアプリ84による入力用のユーザーインタフェースの形態や入力の手法については、後で詳しく説明する。
CPU80はOS81の管理の下で、通信部75を介して入力した映像を、入出力I/F79を介して、画像表示部20に出力する。画像表示部20は、図3下段に示した様に、大きくはベーシックボード35、光学モジュールボード36、カメラモジュールボード37から構成されている。ベーシックボード35は、制御装置70の入出力I/F79との間で映像信号のやり取りを行なうインターフェース部(以下、単にI/F部という)91,I/F部91との間で信号を分離し仲介するHUB92、HUB92からの信号の一方を取り込んで動作するMCU94、MCU94による処理により映像信号を処理し、光学モジュールボード36に出力するディスプレイブリッジ93を搭載している。
HUB92からのもう一つの信号線は、カメラモジュールボード37に接続され、カメラモジュールボード37に搭載されたビデオカメラ61R,61Lおよび内側カメラ62からの映像信号を、HUB92およびI/F部91を介して制御装置70に出力するのに用いられている。CPU80は、ビデオカメラ61R,61Lからの映像を解析し、使用者の視野内に存在する製品などを認識し、製品に対して予め用意された情報を、画像表示部20に表示させるといった処理も可能である。また、CPU80は、内側カメラ62からの映像を解析して、使用者の視線の方向を特定し、ビデオカメラ61R,61Lが撮像した外景の中で、使用者が見ている対象物を特定するといった処理を行なうことも可能である。
光学モジュールボード36は、FPGA95と、既述したR−CPLD225,L−CPLD245と、6軸センサー66とを搭載している。FPGA95は、ベーシックボード35のディスプレイブリッジ93と接続され、ディスプレイブリッジ93から受け取った映像信号を、右眼用と左眼用の映像信号に分離し、更にRGBの信号に変換する。R−CPLD225,L−CPLD245は、このFPGA95からの信号に従って、OLED223,243を駆動する。6軸センサー66は、ベーシックボード35上のディスプレイブリッジ93に接続され、20の姿勢(3軸)と各軸方向への加速度(3軸)を、出力する。
姿勢を示す3軸は、重力方向をZ軸方向(上下方向)、Z軸方向に直交し画像表示部20を使用者が装着した状態(図1)での右眼から左眼方向をY軸方向(左右方向)、Z軸およびY軸に直交する方向をX方向(前後方向)とする姿勢である。もとより、人の頭部は、骨格の構造上、頭部を、おおよそZ軸を中心に右眼側(図1矢印RT側)に回転させる右側回転姿勢、同じく左眼側(図1矢印LT側)に回転させる左側回転姿勢、上方側(図1矢印UP側)に回転させる上方回転姿勢、下方側(図1矢印DW側)に回転させる下方回転姿勢、の4つを取りやすいことから、6軸センサー66からの信号を画像表示部20側で処理し、上記4つの姿勢として出力するように、画像表示部20を構成しても良い。加速度は、X,Y,Zの各軸方向の加速度である。
A−3.表示および入力の態様:
以上説明したハードウェアを前提として、HMD100が行なう表示と入力の態様について説明する。図4は、制御装置70が実行する表示処理ルーチンを示すフローチャートである。この処理は、制御装置70に電源が投入され、特定のアプリケーションプログラム、つまり設定された対象アプリ83が選択されて、その起動が指示されることで開始される。
第1実施形態のHMD100では、制御装置70は、処理が開始されると、接続ケーブル40を介して画像表示部20に電力を送り、HMD100全体を起動する(ステップS300)。その後、制御装置70は、対象アプリ83を開始する前に、UIアプリ84を起動する(ステップS305)。UIアプリ84は、図3に示したように、OS81の指示の下で、各種の対象アプリ83に対するデータの入力をサポートするアプリケーションプログラムである。対象アプリ83はOS81の管理の下で動作するから、UIアプリ84が起動していなければ、自らが管理している画面、つまり画像表示部20に表示される画面に、入力のためのボタンやフィールドを表示し、OS81が用意する入力手段を介して、ボタンの操作やフィールドへのテキストデータの入力などを行なう。入力手段としては、内側カメラ62を用いた視線検出を利用して、画像表示部20に表示された仮想的なボタンを選択し、まぶたの動きによる視線の遮蔽を検出して、選択したボタンを押す(決定する)といった手法や、マイク63により入力した音声を音声認識して視線により選択されているフィールドに対してテキストデータを入力するといった手法である。
こうした手法は、OS81が標準で用意するファンクションコールをアプリケーションプログラム側から呼び出すことにより実現される。OS81は、HMD100専用の各種のファンクションコールを用意することで、UIアプリ84が起動していない状態では、アプリケーションプログラムが、特定のボタンやフィ・ールドを表示し、使用者からの入力を受付け可能とする。他方、ステップS105でUIアプリ84が起動されると、制御装置70上で動作しているOS81は、標準で用意したファンクションコールに対する呼び出しを、UIアプリ84に引き渡すように変更する。
次に、HMD100を装着した使用者の頭部の動きと、第1表示部200および第2表示部73における表示との関係を読み込む処理を行なう(ステップS315)。この関係の一例を、図5Aに示した。本実施形態で起動される対象アプリ83では、頭部の動きとしては、第1から第3の動きを判別する。第1の動きは、頭部が後述する標準姿勢を0度として、ここからから右側RTに40度以上頭部を向けたときというものであり、このときの表示および入力の関係は、第1表示部200に動画を表示し、第2表示部73に動画の再生を制御するリモコンを表示するというものである。この表示および入力態様を第1表示処理と呼ぶ。なお、判断の角度は、40度に限らず、30度など任意に設定可能である。
第2の動きは、頭部が後述する標準姿勢を0度として、ここから左側LTに40度以上頭部を向けたときというものであり、このときの表示および入力の関係は、第1表示部200にゲーム1を表示し、第2表示部73にゲームの進行を制御するゲーム用パッドを表示するというものである。もとより、判断の角度は、40度に限らず、30度など任意に設定可能である。この表示および入力態様を第2表示処理と呼ぶ。また、第3の動きは、頭部が後述する標準姿勢から下方DWに15度以上傾けたときというものであり、このときの表示および入力の関係は、第1表示部200にアプリケーションプログラム選択画面を表示し、第2表示部73に選択画面での選択が可能な複合入力パッドを表示するというものである。この表示および入力態様を第3表示処理と呼ぶ。なお、本実施形態では、標準姿勢からの頭部の動きにより第1から第3表示処理のいずれかを行なったとき、第1表示部200での表示が変わるので、第2表示部73による入力モードが切り替わった可能性があることを使用者は知ることができるが、仮に、標準姿勢での第1表示部200の表示が、第1から第3表示処理での表示によって切り換わらない場合には、第2表示部73での入力モードが切り換わったときには、右左イヤホン32,34に切換音や「入力モードが変更されました」といった案内を出力したりしてもよい。また、制御装置70に圧電素子などを利用した振動子を組み込んでおき、これを振動させて報知するものとしてもよい。もとより、第1表示部200に、73による入力モードが切り換わったことを表示酢。ものとしてもよい。
以上の準備を済ませた後で、起動するよう指定された対象アプリ83による処理が開始される。従って、以下に説明するステップS350以下の処理は、対象アプリ83による処理中に生じる処理である。続いて、制御装置70は、標準姿勢の設定を行なう(ステップS350)。標準姿勢とは、使用者がHMD100を用いて作業を行なう際の初期姿勢である。通常は、ステップS120において対象を検出した際の姿勢を標準姿勢として登録する。標準姿勢は、6軸センサー66からの取得した、使用者頭部のXYZ軸方向の角度として設定される。後述する使用者の頭部の動きは、この標準姿勢からの動きとして検出される。
本実施形態では、標準姿勢を、対象を検出した際の姿勢として定めるものとしたが、標準姿勢は、作業等に応じて種々定めることができる。使用者の姿勢としては、正面を向いている場合に限らず、場合によっては、右側や左側、あるいは上方や下方を向いている姿勢が、標準姿勢となる場合も考えられる。また、座って作業している状態を標準姿勢としてもよく、立って作業している状態を標準姿勢としてもよい。標準姿勢の設定も種々の手法が可能である。一つは、制御装置70のディスプレイ73に「標準姿勢設定ボタン」を表示し、使用者がこのボタンを押した時の姿勢を「標準姿勢」として登録するようにしてもよい。ボタンに代えて音声認識などを用いて標準姿勢を登録してもよい。また、幾つかの姿勢を標準姿勢候補として予め登録しておき、これを選択して標準姿勢としてもよい。更に、使用者が作業している作業台、机、コンベアやラインで運ばれてくる台車やワーク、使用者が操作している工具や治具などに対して、標準姿勢を定めてもよい。
あるいは、使用者がHMD100を利用している場所を移す外部のカメラ(図示省略)やHMD100に設けられたビデオカメラ61R,61Lにより撮像した使用者周辺の多数の画像から、使用者がHMD100を使用している環境の地図とその環境地図の中での使用者の自己位置の推定とを行なうSLAMの技術を利用し、使用環境の中での使用者の位置と姿勢を認識し、これに基づいて、標準姿勢を定めるものとしてもよい。SLAMの技術を利用して認識した使用環境内での使用者の位置と姿勢とから、最も頻繁にまたは長時間、存在している位置と姿勢とを標準姿勢としてもよいし、作業の開始の際に取られている場所と姿勢とを標準姿勢としてもよい。もとより、その他の予め定めたタイミングでの位置と姿勢から、標準姿勢を定めるようにしてもよい。
標準姿勢の設定を終えると、次に初期表示処理を行なう(ステップS360)。初期表示処理は、使用者が画像表示部20を介して見ている外景に、予め設定された初期表示を行なう処理である。初期表示としては、例えば予め用意したHMD100の使用説明を表示したり、標準姿勢の使用者が見ている画面の外側に、他の表示があることを示す矢印を表示したりすることが考えられる。
次に、制御装置70は、画像表示部20に設けられた6軸センサー66からの情報に基づいて、頭部の動きを取得する処理を行なう(ステップS370)。頭部の動きは、種々の形態を取り得るが、例えば、頭部が動いた方向が上下左右のいずれであるかという情報、頭部の角度、その動きの加速度の大きさ、などを任意に組み合わせた情報として取得することができる。ここで上下左右とは、既に図1を用いて説明したように、顔(頭部)を上げる上方UP、顔を下げる下方DW、顔を左方向に向ける左側LT、右方向に向ける右側RT、である。
頭部の動きを取得した後、その動きが予め定めた条件を満たすかを判断し(ステップS375)、条件を満たしていれば、各条件に応じた表示処理を行なう(ステップS400)。この表示処理(ステップ400)の詳細は、後で説明する。条件を満たしていない場合には(ステップS375:「NO」)、ステップS360に戻って上述した処理を繰り返す。他方、条件を満たしていて表示処理(ステップS400)を行なった場合は、その後、作業を終了すべきか判断し(ステップS385)、制御装置70で対象アプリ83が終了されたり、制御装置70の電源がオフとされたりしている場合には、「END」に抜けて、本処理ルーチンを終了する。終了すべきと判断されなかった場合には、ステップS360に戻って、上記の処理を繰り返す。
次に、図4におけるステップS400の処理、つまり各条件が満たされた場合の表示処理について、図5Bを用いて説明する。ステップS375において、頭部の動きが予め定めた条件を満たしている場合、条件毎に、制御装置70、次の表示処理を行なう。図5Pに示した例では、頭部の動きを検出する条件およびその際の表示処理は以下の3つである。
[1]条件1:第1の動き(頭部が右側を向いた場合)
6軸センサー66からの信号に基づいて、頭部が標準姿勢から所定角度(ここでは40度)以上右側を向いたと判断した場合には、対象アプリ83として動画を再生するアプリケーションプログラムを起動して、画像表示部20の第1表示部200に動画を表示し、他方、第2表示部73に、リモコンを表示し、リモコンを用いた入力モードでの入力を可能とする(ステップS410)。
[2]条件2:第2の動き(頭部が左側を向いた場合)
6軸センサー66からの信号に基づいて、頭部が標準姿勢から所定角度(ここでは40度)以上左側を向いたと判断した場合には、対象アプリ83としてゲーム1のプログラムを起動し、第1表示部200にゲーム1の画面を表示し、他方、第2表示部73に、ゲーム用パッドを表示し、ゲーム用パッドを用いた入力モードでの入力を可能とする(ステップS410)。
[3]条件3:第3の動き(頭部が下方を向いた場合)
6軸センサー66からの信号に基づいて、頭部が標準姿勢から所定角度(ここでは15度)以上下方を向いたと判断した場合には、対象アプリ83としてアプリケーションプログラムを選択するためのプログラム起動し、第1表示部200にアプリ選択画面を表示し、他方、第2表示部73に、複合入力パッドを表示し、複合入力パッドを用いた入力モードでの入力を可能とする(ステップS410)。
上記判断と表示処理(ステップS410からS430)のいずれかを実行した後、「NEXT」に抜けて、本処理ルーチンを終了する。
上述した各表示処理(ステップS410からS430)における第2表示部73の表示とその入力モードについて説明する。図6Aは、条件1の場合に第2表示部73に表示されるリモコンを示す模式図である。リモコンには、第1表示部200に表示された動画の再生を指示する再生ボタンPL、停止を指示する停止ボタンST、動画の早送りを指示する早送りボタンFF、動画の巻き戻しを指示する巻き戻しボタンFBなどが表示される。使用者が、第2表示部73のこのリモコンの表示を見て、いずれかのボタンをタッチすると、タッチパネル72の操作をタッチパネルドライバー76を介して入力イベント検出部82が検出し、いずれのボタンを押したかを判別して、そのボタンに割り当てられたイベント、つまり動画の再生開始、停止、早送り、巻き戻しなどのイベントを、対象アプリ83に出力する。この結果、第1表示部200に表示された動画が再生され、停止され、早送りされ、あるいは巻き戻される。
また、図6Bは、条件2の場合に表示されるゲーム用パッドを示す模式図である。ゲーム用バッドには、十字キーXCと、4つの選択ボタンBGとが表示される。使用者が、第1表示部200に表示されるゲームを見ながら、必要に応じて、第2表示部73に表示されたゲーム用パッドの十字キーXCを操作したり、ボタンBGのいずれかをタップしたりすると、こうしたタッチパネル72の操作をタッチパネルドライバー76を介して入力イベント検出部82が検出し、十字キーXCがどの方向に操作されたか、あるいはいずれのボタンBGが押されたかを判別して、そのボタンに割り当てられたイベント、対象となっているキャラクターや武器などの上下左右への移動を指示したり、武器の操作の指定などのイベントを、対象アプリ(ここでは、ゲーム)83に出力する。この結果、第1表示部200に表示されたキャラクターが移動したり、武器が操作されたりする。
また、図6Cは、条件3の場合に表示される複合入力パッドを示す模式図である。複合入力バッドには、十字キーXCと、トラックパッドTPとが表示される。使用者が、第1表示部200に表示されるアプリケーションプログラムの選択画面を見ながら、必要に応じて、第2表示部73に表示された複合入力パッドの十字キーXCを操作したり、トラックパッドTPをタッチあるいはドラッグしたりすると、こうしたタッチパネル72の操作をタッチパネルドライバー76を介して入力イベント検出部82が検出し、十字キーXCがどの方向に操作されたか、あるいはトラックパッドTP上での指の動きを判別して、選択画面でのカーソルの上下左右への移動を指示したり、所望のアプリケーションプログラムの選択などのイベントを、対象アプリ(ここでは、アプリケーションプログラムの選択用Uティティプログラム)83に出力する。この結果、第1表示部200に表示されたアプリケーションプログラムが選択され、場合によっては起動される。
A−4.第1実施形態の作用・効果:
以上説明した第1実施形態によれば、HMD100を使用する使用者は、標準姿勢から頭部を所定方向に、所定の角度以上動かすだけで、第1表示部200に所望の画像を表示させ、かつ第1表示部200の表示に必要な入力モードのための画像を第2表示部73に表示させ、入力作業を行なうことができる。
更に、第1実施形態では、入力処理をタッチパネル72が一体化された第2表示部73により行なうので、画像表示部20を用いた入力処理、例えば視線の方向の検出とまぶたによる視線の遮蔽といった入力処理を採用する必要がない。入力処理を、タッチパネル72を用いた通常の処理、例えば携帯端末110での入力処理などと近似の処理にしやすいので、入力操作を簡略で、直感的なものにすることができる。しかも、本実施形態では、第2表示部73の表示部71での表示を変化させることで、リモコンやゲーム用パッド、あるいは複合入力パッドなど、様々な入力モードを実現することができる。
しかも、こうした多様な入力モードを、OS81が管理するUIアプリ84と入力イベント検出部82とにより、対象アプリ83が動作する環境を用意するオペレーティングシステムのレベルで提供しているので、同様のオペレーティングシステムを搭載した携帯端末などで動作している対象アプリ83の移植も容易である。
本実施形態では、各入力モードとして、リモコンやゲーム用パッド、あるいは複合入力パッドなど、様々な入力手段を制御装置70の第2表示部73に表示したが、入力モードに適した入力手段はこれらに限らないことはもちろんである。例えば図6Dに例示した様に、六角形状のボタンを配置した入力手段を、第2表示部73に表示して、使用者に各ボタンを操作させてもよい。この例では、画像表示部20の第1表示部200に表示されたカーソルなどを上右左下の各方向に移動するボタンBT1〜BT4の他、確定させるボタンBT5、ゲーム等の進行を進める、あるいは戻すボタンBT6、BT7などを表示し、それぞれ選択可能としている。更に、こうした六角形状のボタンを、ボタンBT1〜7の外方に、配列しても良い。こうした平面を埋め尽くせる形状(三角形状、四角形状、六角形状、あるいは複数の形状の組み合わせ形状)のボタンを配列して、多数の選択肢を用意する入力モードも可能である。
あるいは、図6Eに示すように、携帯電話などで用いられるテンキーを利用した入力手段も採用可能である。この例では、第2表示部73にテンキーが表示され、各キーに対応する場所をタッチするとそのキーが選択されたことを示す四角形状のカーソルKSが表示されて、数字やアルファベットが入力できる。もとより、各キーを左右上下にフリップして複数種類の文字を選択的に入力するようしてもよい。また、この例では、各キーをタッチして文字を入力できるだけでなく、表示領域全体がトラックパッドTPとしても機能するので、画像表示部20に表示されたカーソルやキャラクターなどを、任意の方向に移動させるといった使い方も可能である。テンキーは、所定の時間内に複数回タッチすることで、予め対応づけられたアルファベットやカナ文字などを入力可能とすることもでき、更に仮名漢字変換と組み合わせて、仮名漢字混じりのテキストを入力可能とすることも容易である。
更に、図6Fに示すように、仮想的なマウスMSを、制御装置70の第2表示部73に表示し、マウスMSの操作により、第1表示部200におけるカーソルの動きや、ボタン等の選択を実現するようにしてもよい。図示するマウスMSでは、左右のマウスボタンLBT,RBTや、スクロールホイールSRなど、現実のマウスと同様の装置が表示される。使用者が、第2表示部73における各部の表示箇所をタッチすることで、左右のマウスボタンLBT,RBTを操作して、第1表示部200に表示されている対象をクリックしたり、スクロールホイールSRを操作して、画面をスクロールしたり、操作対象を特定の方向に移動させたりすることができる。
以上幾つかの入力モードについて説明したが、これらの入力モードは組み合わせてもよく、また、同じ表示画面において、使用者の求めに応じて切り替えてもよい。使用者の頭部の動きを判断する角度は、任意に設定可能であることは説明した。この角度は、例えば、人がものを視認するときに注視するいわゆる弁別視野が約5度以内であることから、これを超えたら左または右方向を向いたと判断してもよい。あるいは、眼球運動だけで情報を受容できる有効視野が、左右方向で30度程度、上下方向で20度程度であることから、この角度を超えたら、使用者が頭部を動かして、標準姿勢とは異なる方向を見ようとしたと判断するものとしてもよい。更に、体幹を動かすことなく眼球の動きと頭部の運動で、無理なく注視できる安定注視視野が、左右方向で60〜90度(幅があるのは個人差による)、上下方向で45〜70度(幅があるのは個人差による)であることに鑑み、この範囲を超えたら、頭部の運動だけでなく、体全体を使って異なる方向を見たと判断して、表示の態様を変えるようにすることも可能である。使用者の頭部の動きは、角度のみならず、角速度や各種加速度や、これらの組合わせによって判断してもよいことは勿論である。
B.第2実施形態:
次に、第2実施形態について説明する。第2実施形態の表示システムであるHMD100は、図1から図3に示した第1実施形態のシステム構成と同様の構成を備え、表示処理も図4に示したものと同様である。第2実施形態では、使用者の頭部の動きと、第1表示部200,第2表示部73との関係が異なる。第2実施形態における両者の関係を、図7に示した。
図示する様に、第2実施形態では、第1表示部200および第2表示部73の表示と入力の対応を予め5つに分類し、各対応にモード名を付与して、種々の対象アプリ83から利用できるように標準化している。こうした標準化されたモードを、頭部の動きに対応づけるのは、各対象アプリ83に任されている。図において、頭部の動きとモード名とが、線分によって結ばれているのは、各対象アプリ83より両者が関連づけられることを示している。したがって、両者の関係は、各対象アプリ83毎に決めることができる。
図7に示したように、本実施形態では、第1表示部200および第2表示部73への表示と入力との関係を示すモードとして5種類のモードが用意されている。
〈1〉ミラーモード:第2表示部73に表示されている画像を第1表示部200にも表示する。つまり、第1表示部200,第2表示部73に同じ画像を表示酢。モードである。
〈2〉トラックモード:第1表示部200に主画像を表示し、第2表示部73はトラックパッドとして扱うモードである。
〈3〉スイッチモード:第1表示部200に主画像を表示し、第2表示部73にソフトウェアキーボードを表示してテキスト等を入力するモードである。
〈4〉アシストモード:第1表示部200に主画像を表示し、第2表示部73に拡張UIを表示して入力を行なうモードである。
〈5〉デュアルモード:第1表示部200,第2表示部73を独立に扱うモードである。
また、第2実施形態では、これらの各入力モードが、使用者の頭部の動きの第1〜第6の動きに、線分で示すように対応付けられている。ここで、第1から第6の動きとは、以下の通りである。
・第1の動き(頭部が右側を向く動き)
・第2の動き(頭部が左側を向く動き)
・第3の動き(頭部が下方を向く動き)
・第4の動き(頭部が上方を向く動き)
・第5の動き(頭部が素早く右を向く動き)
・第6の動き(頭部が素早く左を向く動き)
第1から第4動きは、6軸センサー66が検出した頭部の角度が、右左については標準姿勢である正面を0度として、それぞれ40度以上、上下については15度以上となったときに、頭部が第1から第4の動きのいずれかに該当したと判断する。他方、第5、第6の動きは、角度40度以下であって、6軸センサー66が検出した左右方向の加速度が、予め定めた閾値以上となった時に、第5,第6の動きに該当したと判断する。なお、判断の角度は、40度に限らず、30度など任意に設定可能である。
第2実施形態においても、第1実施形態と同様、頭部の動きが第1から第6の動きのいずれの条件を満たしているかの判断(図4、ステップS357)と、各条件でのは表示処理(ステップS3と80)とが行なわれる。それぞれの場合について、以下、図面を参照して説明する。
[1]ミラーモードでの表示と入力:
本実施形態では、図7に示したように、使用者の頭部の動きが、第3の動き場合には、第1表示部200および第2表示部73への表示と入力との関係はミラーモードに設定される。ミラーモードでの表示の一例を、図8に示した。図示するように、ミラーモードでは、同一の表示が、第1表示部200には画像MD1として、他方、第2表示部73には画像MD2として、それぞれ表示される。ミラーモードでは、第1表示部200および第2表示部73には、同一の表示がなされるので、使用者が現在、画像表示部20を装着して見ている画像MD1を知ることが容易である。また、両者に同一の画像が表示されるので、画像表示部20を装着して行なっていた作業を、画像表示部20を外した後で、制御装置70を用いて継続することも容易である。
[2]トラックモードでの表示と入力:
図7に示したように、使用者の頭部の動きが、第2の動きの場合には、第1表示部200および第2表示部73への表示と入力との関係はトラックモードに設定される。トラックモードの表示の一例を、図9に示した。図示するように、トラックモードでは、第1表示部200には主画像TD1が表示され、第2表示部73にはトラックパッドTD2が表示される。第2表示部73のトラックパッドTD2は、タッチパネル72の機能を利用して、表面にタッチされた使用者の指の動きを検出する。この指の動きは、例えば第1表示部200に表示されたアイコンの選択などに利用される。トラックパッドTD2を用いた入力をどのように扱うかは、そのとき実行されている対象アプリ83の設定による。なお、図9では、第2表示部73には、現在の時刻が表示されているが、この時刻の表示は、第1表示部200の時刻の表示と同じものである。このように、特定の情報に関しては、第1表示部200と第2表示部73とに表示するようにしてもよい。もとより、第2表示部73には、第1表示部と200と共通の表示を行なわないものとしてもよい。
[3]スイッチモードでの表示と入力:
図7に示したように、使用者の頭部の動きが、第4または第5の動きの場合には、第1表示部200および第2表示部73への表示と入力との関係はスイッチモードに設定される。スイッチモードの表示の一例を、図10に示した。図示するように、スイッチモードでは、第1表示部200には主画像SD1が表示され、第2表示部73にはキーボードSD2TまたはキーボードSD2Nが表示される。第2表示部73のキーボードSD2TまたはキーボードSD2Nは、タッチパネル72の機能を利用して、表面にタッチされた使用者の指の位置を検出する。この指の動きは、そのとき表示されているキーボードSD2TまたはキーボードSD2Nに合せて、特定の文字として認識され、例えば第1表示部200に表示されたテキスト入力用のフィールドFFDへのテキストの入力に利用される。キーボードSD2TまたはキーボードSD2Nを用いた入力をどのように扱うかは、そのとき実行されている対象アプリ83の設定による。図10に示したキーボードSD2Tは、アルファベット配列のテキスト入力用のキーボードであり、キーボードSD2Nは、数字や記号を配列した数字・記号入力用のキーボードである。こうした複数のキーボードのいずれを表示するか、といった指定は、そのとき実行されている対象アプリの設定による。もとより、キーボードは、UIアプリ84を介して切換えられるものとしてもよい。選択されたキーボードに応じて、入力イベント検出部82が、第2表示部73における使用者のタッチ位置を、そのとき表示されていたキーボードの各キーの文字に変換し、入力する。従って対象アプリ83は、必要に応じて、各種テキスト、数字、記号などを入力することができる。なお、キーボードから入力した文字列を利用して、OS81が用意したフロントエンドプロセッサFEPにより更に仮名漢字変換などを行なって、仮名漢字混じりの文字列を変換して、対象アプリ83に受け渡すようにしても良い。
[4]アシストモードでの表示と入力:
図7に示したように、使用者の頭部の動きが、第6の動きの場合には、第1表示部200および第2表示部73への表示と入力との関係はアシストモードに設定される。アシストモードの表示の一例を、図11に示した。図示するように、アシストモードでは、第1表示部200には主画像AD1が表示され、第2表示部73には拡張ユーザーインタフェース(以下、単に拡張UIという)の入力部AD2が表示され、入力が行なわれる。第1表示部200には、主画面と共に、必要な入力要素、ここではアイコンを選択するための選択円PIN1が表示される。この選択円PIN1は常時表示してもよいが、使用者が第2表示部に触れた時に非常時するようにしてもよい。
第2表示部73の入力部AD2は、2つのパートに分離されており、上半分には、確定キーDKと、その周りに配置されて上下左右への移動方向を指示する4つの矢印キーが表示される。矢印キーには、上方向への移動を指示する上方向キーUP2、下方向への移動を指示する下方向キーDW2、右方向への移動を指示する右方向キーRT2、左方向への移動を指示するLT2が含まれる。図11に示した例では、第2表示部73に表示されたこれらの矢印キーに対応して、第1表示部200には、パットナビPJが表示される。パットナビPJは、矢印キーに対応した十字カーソルXGと、この十字カーソル上でのタッチ位置を示す接触円PIN2とからなる。接触円PIN2は、使用者が、第2表示部73の矢印キーの周辺にタッチすると表示され、現時点で、使用者が、第2表示部73に表示された矢印キーのどの辺りを触っているかを表示する。従って、使用者は、アシストモードでの表示の際には、制御装置70に目線を移さなくても、外景に第1表示部200による表示を重ねたまま、自分の指先の動きを、確認することができ、必要な方向に、選択円PIN1を移動させるように、矢印キーを選択して、これを操作することができる。本実施形態の第2表示部73は既述したようにタッチ位置とタッチの強さを検出できるので、使用者が特定の場所で強く第2表示部73の表面を押せば、その場所に表示された矢印キーまたは決定キーが操作されたというイベントを入力イベント検出部82が検出し、これをOS81を介して、対象アプリ83に出力できる。
また、第2表示部73の下半分は、トラックパッドTP2が表示される。第2表示部73のトラックパッドTP2は、タッチパネル72の機能を利用して、表面にタッチされた使用者の指の動きを検出する。この指の動きは、例えば第1表示部200に表示されたアイコンの選択などに利用される。トラックパッドTP2を用いた入力をどのように扱うかは、そのとき実行されている対象アプリ83の設定による。図11に示した例では、トラックパッドTP2の動きに応じて、第1表示部200では、カーソルに対応する選択円PIN1が移動する。このとき、選択円PIN1の動きは、第2表示部73上の使用者の指の動き、つまりトラックパッドTP1にタッチしている指先の軌跡の通りとしてもよいし、図示するように、直線的な動きを3D的な動き、例えば半径の大きな円弧状の動きとしてもよい。使用者が頭部に装着した画像表示部20の第1表示部200を透過して実空間を見ているので、後者のようにすることで、選択円PIN1の動きが、あたかも実空間で、対象を選択しているように感じられ、使用者の現実への没入感を妨げることがない。また、第1表示部200における選択円PINの動きは、軌跡が一定期間残るように表示することも、透過型の第1表示部200における表示として好ましい。
[5]デュアルモードでの表示と入力:
図7に示したように、使用者の頭部の動きが、第1の動き場合には、第1表示部200および第2表示部73への表示と入力との関係はデュアルモードに設定される。デュアルモードでの表示の一例を、図12に示した。図示するように、デュアルモードでは、第1表示部200に表示される画像DD1と、第2表示部73には画像MD表示される画像DD2とは、独立である。この例では、第1表示部200に表示された画像DD1は、対象アプリ83の1つであるブラウザーが表示しているライブカメラの画像であり、第2表示部73に表示された画像DD2は、同時に起動されているもう1つの対象アプリ83である音楽プレーヤーが表示しているリモコンの画像である。画像DD2には、音楽プレーヤーに再生を指示する再生ボタンRC1、再生の停止を指示する停止ボタンRC2、時間軸方向の前後に早送りする早送りボタンRC3,RC4、再生位置を示すインジケーターINDなどが含まれる。
デュアルモードでは、第1表示部200と第2表示部73とは、全く独立しており、2つの対象アプリが、それぞれの表示を司る。従って、音楽を聞きながらライブカメラの画像を確認するとか、ゲームをしながら電卓アプリを起動して計算を行なうといった使い方が可能となる。もとより、第1表示部200と第2表示部73の一部の領域に、現在の時刻など、共通の情報を表示するようにしてもよい。
以上説明した第2実施形態によれば、第1実施形態と同様の作用効果を奏する上、予め頭部の動きに対応する表示と入力との関係を整理し、これをOS81がサポートすることにより、実行されるアプリケーションから、種々の入力モードを自由に組み合わせて利用することができる。これは、頭部の動きに応じて、特定のアプリケーションプログラムを起動し、そのアプリケーションプログラム毎に特定の入力モードを設定するようにしてもよい、起動しているアプリケーションプログラムの中で、頭部の動きにより、特定の入力モードを切換えて利用するようにしてもよい。例えば、図13は、1つのアプリケーションプログラムの中で、頭部の動きにより、様々な情報を表示し、かつ表示に合せて入力を用意する例を示す説明図である。
図示するように、使用者が標準姿勢をとっているときには、第1表示部200には、初期表示としての矢印AMが4方向に表示されている以外は、情報の表示はなく、使用者は画像表示部20の第1表示部200を介して外景を視認する。図13の中心に示した画面SGは、作業をしようとしている使用者が、机上の対象物OBJを見ている状態を示す。画面SGでは、使用者の視野に、使用者の手HDも見えているものとして描いてある。この状態が、標準姿勢での使用者の視野になる。このとき、初期表示として、画面SGには、上下左右の4方向を示す矢印AMが表示される。この矢印AMは、制御装置70が第1表示部200に表示させている画像である。矢印AMは、矢印の方向に何らか情報が存在していることを示す補助表示として機能する。この例では、4方向の全てに情報が用意されているため、上下左右方向に矢印AMを表示したが、例えば左方向に情報がなければ、上下右方向の3方向のみに矢印AMを表示する。もとより、初期表示は、なくてもよく、また矢印に代えて、用意された情報の一部が見えているなど、異なる表示態様であっても差し支えない。
この標準姿勢から、使用者が頭部を動かすと、制御装置70は、画像表示部20に設けられた6軸センサー66からの情報に基づいて、頭部の動きを取得する。頭部の動きは、既に説明したように、種々の形態を取り得るが、例えば、頭部が動いた方向が上下左右のいずれであるか、という情報と、その動きの加速度の大きさなどを組み合わせた情報として取得することができる。ここで上下左右とは、既に図1を用いて説明したように、顔(頭部)を上げる上方UP、顔を下げる下方DW、顔を左方向に向ける左側LT、右方向に向ける右側RT、である。
HMD100の使用者が、標準姿勢で見ていた対象物OBJの右側を予め定めた閾値以上の加速度で見た場合、対象物OBJは視野の中心から外れ、予め用意したコンテンツの一つである情報DC1が、図13の画面RGに例示したように、第1表示部200に表示される。したがって、使用者は、視野内に表示された情報DC1を参照することができる。本実施形態では、標準姿勢から見て右側を素早く見た場合、対象物OBJに対する操作方法や取り扱い方などを説明する情報DC1が表示される。この情報DC1は、画面内に補助表示として表示されたスクロールバーが示すように、スクロール可能である。スクロールバーの操作は、UIアプリ84および入力イベント検出部82を用いて行なう。この処理に必要なインターフェースは、第2表示部73に表示される。
HMD100の使用者が、標準姿勢で見ていた対象物OBJの左側を予め定めた閾値以上の加速度で見た場合、対象物OBJは視野の中心から外れ、予め用意したコンテンツの一つである情報DC2が、画面LGに例示したように、第1表示部200に表示される。したがって、使用者は、視野内に表示された情報DC2を参照することができる。本実施形態では、標準姿勢から見て左側を素早く見た場合、対象物OBJに関する様々な情報DC2が表示される。この情報DC2は、画面内に補助表示として表示されたページめくりのボタンを用いて、前後を参照可能である。ボタンの操作は、スクロールバーと同様、UIアプリ84および入力イベント検出部82を用いて行なう。この処理に必要なインターフェースは、第2表示部73に表示される。
HMD100の使用者が、標準姿勢で見ていた対象物OBJの上方を予め定めた閾値以上の加速度で見た場合、対象物OBJは視野の中心から外れ、予め用意した選択肢を表示する画面UGが、第1表示部200に表示される。この画面UGには、補助表示として、頭部の方向と画面との関係を割り当てるための表示が含まれる。この画面UGを利用して、使用者は、HMD100における表示の設定を行なうことができる。表示の設定とは、標準姿勢から見て、どの方向にどのような情報や画面表示を割り当ているか、というものである。この場合の処理も、UIアプリ84および入力イベント検出部82を用いて行なう。この処理に必要なインターフェースは、第2表示部73に表示される。
HMD100の使用者が、標準姿勢で見ていた対象物OBJの下方を予め定めた閾値以上の加速度で見た場合、対象物OBJは視野の中心から外れ、予め用意した設定・入力を行なう画面DGが、第1表示部200に表示される。この画面DGには、補助表示として、選択される選択肢やテキスト入力用のフィールドなどが表示される。使用者は、この画面DGを参照して、設定変更やテキストの入力などを行なうことができる。設定変更やテキストを入力する処理も、UIアプリ84および入力イベント検出部82を用いて行なう。この処理に必要なインターフェースは、第2表示部73に表示される。
以上説明したように、アプリケーションプログラムの中で、使用者の頭部の動きに応じて、表示と入力態様を切換えるようにしても有用である。なお、図7に示したように、複数の頭部の動きに対して、同じ入力モードを選択するように対応関係を割り当ててもよい。頭部の動きは、6種類に限らず、複数種類であれば種類の多寡は問わない。また、図7に示したものとは異なる入力モードを用意してもよい。
上記実施形態では、HMD100は、シースルータイプとして外景が視認できるものとしたが、第1表示部200を非透過型の表示装置により構成し、ビデオカメラ61Rやビデオカメラ61Lにより撮像した外景を非透過型の表示装置に表示することで、実質的に外景を視認可能な表示装置として構成してもよい。
C.他の実施形態:
本開示は、上述した幾つかの実施形態の他、以下に示す他の実施形態でも実施可能である。
(1)第1の他の実施形態は、頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムとしての形態である。この表示システムでは、前記表示装置は、外景を視認可能な第1表示部と、前記第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる表示制御部と、を備え、前記コントローラーは、第2表示部と、前記第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、前記第1表示部における前記表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、を備える。
この表示システムは、第1表示部における表示の態様に応じて、入力部による入力モードを設定するので、第1表示部と第2表示部を有する表示ステムにおいて、表示の態様に応じて入力モードの設定がなされることになり、表示システムだけで、表示の態様に合わせた入力作業を行なうことが容易となる。頭部装着型の表示装置とコントローラーとは、有線接続でもよいし、WiFi(登録商標)やBlueTooth(登録商標)などの無線接続でもよい。
(2)こうした表示システムにおいて、前記入力モードには、データとして、数値、文字、画像(描線)のうちの少なくとも一つを入力するデータ入力モードと、位置に関連する情報として、入力位置、入力方向、選択位置、選択位置の選択方向のうちの少なくとも一つを入力する選択入力モードと、を含むものとしてもよい。こうすれば、表示の態様に合わせて、データの入力と選択指示の入力とを、切り替えて行なうことができる。データ入力モードにおける数字や文字は、アラビア数字やアルファベットに限らず、種々の言語における数字(例えば漢数字、ハングルにおける数字など)や文字(例えば、漢字、カナ、アラビア文字、ウムラウトなどの添え字を伴う文字など)であっても差し支えない。「画像(描線)」は、テキストデータの一部として描線などを入力可能な場合を含む。また、これら以外のデータ、例えば文字に対する下線、網掛けなどの装飾情報を入力するものとしてもよい。選択入力モードにおける位置に関する情報は、これらに限らず、選択するアイテムの数を指定したり、選択するアイテムが何番目かを入力したりするものであってもよい。このほか、入力部による入力は、これらに留まらず、音声や動画を入力するものでなど、多様な入力モードを、更に備えるものとしてもよい。
(3)こうした表示システムにおいて、前記入力部は、前記第2表示部に重ねて配置されたタッチパネルであり、前記入力制御部は、前記入力モードに応じた表示を前記第2表示部に表示させ、前記タッチパネルへのタッチを、前記第2表示部における表示に従って、前記データまたは前記位置に関連する情報として、前記入力部に入力させるものとしてもよい。こうすれば、第2表示部の表示を変更するだけで、多様な入力手法を実現できる。例えば、タッチパッド(トラックパッド)やキーボード入力など、ハードウェアにより提供されている入力部を、第2表示部に表示して、代替することができる。もとより、単独のハードウェアで実現されていない入力部を提供してもよい。こうした例としては、第2表示部に十字キーやホイールスクロールバーなどの入力部を表示し、使用者がこれらの入力部の近傍をタッチすると、第1表示部に、入力部のどの当たりをタッチしているかを表示するパッドナビなどを表示し、使用者が第2表示部を見ないでも第2表示部の介したタッチ入力を可能とする、と言った構成が考えられる。この他、上述した実施形態であれば、マイク63を利用した音声入力との組合わせや、内側カメラ62による視線やまぶたの動きの検出との組合わせなどにより、データの入力、あるいは位置の選択などを行なう構成も採用可能である。
(4)こうした表示システムにおいて、前記データ入力モードでは、前記第2表示部に、前記数値や前記文字を入力するキーボード、および画像を描画するトラックパッドの少なくとも一方を表示して、前記データの入力を行なわせるものとしてもよい。こうすれば、簡単に数値や文字の入力、あるいは画像を入力できる。
(5)こうした表示システムにおいて、前記情報入力モードでは、前記第2表示部に、十字キー、ホイールキー、ジョイスティック、トラックパッド、マウスのうち、少なくとも一つを表示し、前記タッチパネルの操作によって、前記位置に関連する情報の入力を行なわせるものとしてもよい。こうすれば、従来からある入力手段を模擬しているので、使用者は容易にその使用方法を理解でき、位置に関連する情報を入力できる。
(6)こうした表示システムにおいて、前記表示装置を装着した使用者の頭部について、特定の姿勢を標準姿勢として設定する設定部と、前記表示装置を装着した使用者の頭部の動きを検出する検出部と、を備え、前記表示制御部は、前記検出した頭部の動きと、前記第1表示部の表示の態様である第1態様および前記第1態様とは異なる第2態様とを対応付けており、前記検出した頭部の動きが、予め定めた第1閾値を超えたときには前記第1態様で、第2閾値を超えたときには前記第2態様で、前記第1表示部に表示を行なうものとしてよい。こうすれば、標準姿勢からの頭部の動きを容易に判別でき、頭部の動きに応じた第1または第2態様での表示のいずれかを行なうことができる。なお、頭部の動きは3つ以上を判別しても差し支えなく、その動きに応じた態様での表示を行なえばよい。
(7)こうした表示システムにおいて、前記表示制御部は、前記標準姿勢では、前記外景の視認を優先する態様で前記第1表示部の表示を制御し、前記第1態様および前記第2態様では、予め対応付けられた第1情報および第2情報を、前記第1表示部に表示するものとしてもよい。こうすれば、標準姿勢で外景の視認が容易であって外景を見ながらの作業や情報の取得ができ、他の姿勢では、他の情報が表示されるので、他の情報を容易に取得できる。外景が視認できるタイプの表示装置を装着した使用者は、外景を見ながら作業や処理をすることが想定されるが、こうした場合に、標準姿勢から頭部を動かして、作業等に関連する情報、例えば取扱説明書や作業マニュアルなどを参照できれば、作業性を高めることができる。
(8)こうした表示システムにおいて、前記第1閾値は、前記頭部が前記標準姿勢よりも下方を視認する姿勢に動いたことを検出する閾値であり、前記表示制御部は、前記第1態様では、データ入力を受け付けるための情報を、前記第1情報として前記表示部に表示させ、前記入力制御部は、前記第1情報を用いる入力モードでの入力により、数値、文字、選択肢の選択のうちの少なくとも1つを入力するものとしてもよい。使用者の標準姿勢から下方には、使用者の手元や作業机などか存在することが多く、こうした場所に第2表示部を備えるコントローラーを置いて、データ入力を行なうことは自然である。
(9)こうした表示システムにおいて、前記第2閾値は、前記頭部が前記標準姿勢よりも左または右方向を視認する姿勢に動いたことを検出する閾値であり、前記表示制御部は、前記第2態様では、文字,画像および映像の少なくとも一つを含む所定のコンテンツを前記第2情報として前記第1表示部に表示させ、前記入力制御部は、前記表示されたコンテンツの表示態様を変更させる入力モードでの入力を受け付けるものとしてもよい。こうすれば、標準姿勢から見て左右を見ることで必要な情報を容易に参照でき、またその情報の表示の態様を変更するための入力を受け付けて、表示の態様を変更できる。
(10)上記表示の態様の変更は、具体的には、前記入力制御部が変更する前記コンテンツの表示態様は、前記コンテンツの拡大率または表示の大きさ、前記コンテンツの表示位置、前記コンテンツの表示範囲、前記コンテンツのスクロール、前記コンテンツの頁めくり、前記コンテンツ上のマーキング、のうちの少なくとも1つとしてもよい。
(11)こうした表示システムにおいて、前記表示制御部は、前記標準姿勢,前記第1態様,前記第2態様の表示において、対応する前記入力モードを示す補助表示を、前記第1表示部に表示させるものとしてもよい。この表示システムの第1表示部は、様々な情報が頭部の動きにより表示可能であり、補助表示があれば、標準姿勢からの頭部の動きで、どのような表示が可能か手がかりをえることができる。
(12)こうした表示システムにおいて、前記入力制御部は、音または振動により、前記複数の入力モードの内の一つの入力モードでの前記入力が可能となったことを報知するものとしてもよい。もとより表示の切り替えは、何らの報知なしで行なってもよいが、音や振動による報知があれば、第2表示部を用いる入力モードが切り替わったことを容易に知ることができる。なお、こうした音声や振動による報知に代えて、あるいは報知と共に、第1表示部に、入力モードが切り替わったことを表示してもよい。
(13)本開示の他の実施形態のもう一つは、頭部装着型の表示装置に接続されたコントローラーとしての形態である。このコントローラーは、入力モードによって表示の態様が異なる入力用表示部と、前記入力用表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、外景を視認可能な透過表示部であって、前記表示装置に設けられ透過表示部における表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、を備える。このコントローラーは、上述した表示システムと同様、表示装置に設けられた透過表示部における表示の態様に応じて、入力部による入力モードを設定するので、頭部装着型の表示装置の透過表示部における表示の態様に応じて入力モードの設定がなされることになり、コントローラーを用いて、表示の態様に合わせた入力作業を行なうことが容易となる。
(14)本開示による他の実施形態としては 更に頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する方法があり得る。この表示システムを制御する方法では、前記表示装置に設けられた第1表示部であって、外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせ、前記第1表示部における前記表示の態様に応じて、複数の入力モードのうちの一つの入力モードを設定し、前記コントローラーに設けられた第2表示部における表示と組み合わせて、前記複数の入力モードのそれぞれに対応した入力を可能とし、前記入力モードでの入力を受け付ける。こうした表示システムの制御方法によっても、第1表示部における表示の態様に応じて、入力モードを設定するので、第1表示部と第2表示部を有する表示ステムにおいて、表示の態様に応じて入力モードの設定がなされることになり、表示システムだけで、表示に態様に合わせた入力作業を行なうことが容易となる。
(15)本開示の他の実施形態としては、頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する、コンビューターにより実行可能なプログラムがあり得る。このプログラムは、外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる機能と、前記コントローラーに設けられた第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする機能と、前記第1表示部における前記表示の態様に応じて、前記入力部による入力モードを設定する機能と、を実現する。このプログラムによれば、上述した頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する方法による処理が実現できる。
(16)上記各実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよい。ソフトウェアによって実現されていた構成の少なくとも一部は、ディスクリートな回路構成により実現することも可能である。また、本開示の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。すなわち、「コンピューター読み取り可能な記録媒体」とは、データパケットを一時的ではなく固定可能な任意の記録媒体を含む広い意味を有している。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、35…ベーシックボード、36…光学モジュールボード、37…カメラモジュールボード、40…接続ケーブル、46…中継コネクター、61R,61L…ビデオカメラ、62…内側カメラ、63…マイク、65…照度センサー、66…6軸センサー、67…LEDインジケーター、70…制御装置、71…表示部、72…タッチパネル、73…第2表示部、75…通信部、76…タッチパネルドライバー、77…コネクター、78…ディスプレイドライバー、80…CPU、82…入力イベント検出部、83…対象アプリ、84…UIアプリ、85…メモリー、91…I/F部、93…ディスプレイブリッジ、110…携帯端末、200…第1表示部、221,241…OLEDユニット、223,243…OLED、225…R−CPLD、245…L−CPLD、251…右光学系、252…左光学系、261,281…ハーフミラー

Claims (15)

  1. 頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムであって、
    前記表示装置は、
    外景を視認可能な第1表示部と、
    前記第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる表示制御部と、
    を備え、
    前記コントローラーは、
    第2表示部と、
    前記第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、
    前記第1表示部における前記表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、
    を備える、表示システム。
  2. 前記入力モードには、
    データとして、数値、文字、画像(描線)のうちの少なくとも一つを入力するデータ入力モードと、
    位置に関連する情報として、入力位置、入力方向、選択位置、選択位置の選択方向のうちの少なくとも一つを入力する選択入力モードと、
    を含む、請求項1に記載の表示システム。
  3. 前記入力部は、前記第2表示部に重ねて配置されたタッチパネルであり、
    前記入力制御部は、前記入力モードに応じた表示を前記第2表示部に表示させ、前記タッチパネルへのタッチを、前記第2表示部における表示に従って、前記データまたは前記位置に関連する情報として、前記入力部に入力させる、
    請求項2に記載の表示システム。
  4. 前記データ入力モードでは、前記第2表示部に、前記数値や前記文字を入力するキーボード、および画像を描画するトラックパッドの少なくとも一方を表示して、前記データの入力を行なわせる、
    請求項3に記載の表示システム。
  5. 前記情報入力モードでは、前記第2表示部に、十字キー、ホイールキー、ジョイスティック、トラックパッド、マウスのうち、少なくとも一つを表示し、前記タッチパネルの操作によって、前記位置に関連する情報の入力を行なわせる、
    請求項3または請求項4に記載の表示システム。
  6. 請求項1から請求項5のいずれか一項に記載の表示システムであって、
    前記表示装置を装着した使用者の頭部について、特定の姿勢を標準姿勢として設定する設定部と、
    前記表示装置を装着した使用者の頭部の動きを検出する検出部と、
    を備え、
    前記表示制御部は、
    前記検出した頭部の動きと、前記第1表示部の表示の態様である第1態様および前記第1態様とは異なる第2態様とを対応付けており、前記検出した頭部の動きが、予め定めた第1閾値を超えたときには前記第1態様で、第2閾値を超えたときには前記第2態様で、前記第1表示部に表示を行なう、
    表示システム。
  7. 前記表示制御部は、
    前記標準姿勢では、前記外景の視認を優先する態様で前記第1表示部の表示を制御し、
    前記第1態様および前記第2態様では、予め対応付けられた第1情報および第2情報を、前記第1表示部に表示する、
    請求項6に記載の表示システム。
  8. 前記第1閾値は、前記頭部が前記標準姿勢よりも下方を視認する姿勢に動いたことを検出する閾値であり、
    前記表示制御部は、前記第1態様では、データ入力を受け付けるための情報を、前記第1情報として前記第1表示部に表示させ、
    前記入力制御部は、前記第1情報を用いる入力モードでの入力により、数値、文字、選択肢の選択のうちの少なくとも1つを入力する、
    請求項7に記載の表示システム。
  9. 前記第2閾値は、前記頭部が前記標準姿勢よりも左または右方向を視認する姿勢に動いたことを検出する閾値であり、
    前記表示制御部は、前記第2態様では、文字,画像および映像の少なくとも一つを含む所定のコンテンツを前記第2情報として前記第1表示部に表示させ、
    前記入力制御部は、前記表示されたコンテンツの表示態様を変更させる入力モードでの入力を受け付ける、
    請求項7または請求項8に記載の表示システム。
  10. 前記入力制御部が変更する前記コンテンツの表示態様は、前記コンテンツの拡大率または表示の大きさ、前記コンテンツの表示位置、前記コンテンツの表示範囲、前記コンテンツのスクロール、前記コンテンツの頁めくり、前記コンテンツ上のマーキング、のうちの少なくとも1つである、請求項9に記載の表示システム。
  11. 前記表示制御部は、前記標準姿勢,前記第1態様,前記第2態様の表示において、対応する前記入力モードを示す補助表示を、前記第1表示部に表示させる、請求項6から請求項10のいずれか一項に記載の表示システム。
  12. 前記入力制御部は、音または振動により、前記複数の入力モードの内の一つの入力モードでの前記入力が可能となったことを報知する、請求項1から請求項11のいずれか一項に記載の表示システム。
  13. 頭部装着型の表示装置に接続されたコントローラーであって、
    入力モードによって表示の態様が異なる入力用表示部と、
    前記入力用表示部における表示と組み合わせて複数の入力モードによる入力を可能とする入力部と、
    外景を視認可能な透過表示部であって、前記表示装置に設けられ透過表示部における表示の態様に応じて、前記入力部による入力モードを設定する入力制御部と、
    を備える、コントローラー。
  14. 頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する方法であって、
    前記表示装置に設けられた第1表示部であって、外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせ、
    前記第1表示部における前記表示の態様に応じて、複数の入力モードのうちの一つの入力モードを設定し、
    前記コントローラーに設けられた第2表示部における表示と組み合わせて、前記複数の入力モードのそれぞれに対応した入力を可能とし、
    前記入力モードでの入力を受け付ける、
    表示システムの制御方法。
  15. 頭部装着型の表示装置と前記表示装置に接続されたコントローラーとを備えた表示システムを制御する、コンビューターにより実行可能なプログラムであって、
    外景を視認可能な第1表示部に、前記表示装置を装着した使用者の頭部の状態に応じて、複数の態様のうちのいずれかの態様で表示を行なわせる機能と、
    前記コントローラーに設けられた第2表示部における表示と組み合わせて複数の入力モードによる入力を可能とする機能と、
    前記第1表示部における前記表示の態様に応じて、前記入力モードを設定する機能と、
    を実現するプログラム。
JP2020013125A 2020-01-30 2020-01-30 表示システム、コントローラー、表示システムの制御方法およびプログラム Pending JP2021119431A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020013125A JP2021119431A (ja) 2020-01-30 2020-01-30 表示システム、コントローラー、表示システムの制御方法およびプログラム
CN202110127809.0A CN113267896A (zh) 2020-01-30 2021-01-29 显示系统、控制器、显示系统的控制方法和记录介质
US17/161,857 US11681433B2 (en) 2020-01-30 2021-01-29 Display system, controller, display system control method, and program for receiving input corresponding to image displayed based on head movement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020013125A JP2021119431A (ja) 2020-01-30 2020-01-30 表示システム、コントローラー、表示システムの制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2021119431A true JP2021119431A (ja) 2021-08-12

Family

ID=77195473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020013125A Pending JP2021119431A (ja) 2020-01-30 2020-01-30 表示システム、コントローラー、表示システムの制御方法およびプログラム

Country Status (3)

Country Link
US (1) US11681433B2 (ja)
JP (1) JP2021119431A (ja)
CN (1) CN113267896A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176721A1 (ja) * 2021-02-18 2022-08-25 キヤノン株式会社 メガネ型情報機器、その方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114077302A (zh) * 2020-08-21 2022-02-22 华为技术有限公司 一种智能眼镜及其交互方法和交互装置
TWI765398B (zh) * 2020-11-04 2022-05-21 宏正自動科技股份有限公司 指示圖示共享方法、指示訊號控制方法以及指示訊號處理裝置
JP2022163813A (ja) * 2021-04-15 2022-10-27 キヤノン株式会社 装着型の情報端末、その制御方法及びプログラム
US11599338B2 (en) * 2021-06-18 2023-03-07 Qingdao Pico Technology Co., Ltd. Model loading method and apparatus for head-mounted display device, and head-mounted display device

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI333156B (en) * 2007-08-16 2010-11-11 Ind Tech Res Inst Inertia sensing input controller and receiver and interactive system using thereof
US20120064951A1 (en) * 2010-09-13 2012-03-15 Sony Ericsson Mobile Communications Ab Hands-Free Control of Mobile Communication Device Based on Head Movement
JP5884576B2 (ja) * 2012-03-16 2016-03-15 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR101661526B1 (ko) * 2012-04-08 2016-10-04 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 ui 방법
JP6308214B2 (ja) * 2013-05-15 2018-04-11 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP6268778B2 (ja) * 2013-07-11 2018-01-31 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
CN106199963B (zh) * 2014-09-01 2019-09-27 精工爱普生株式会社 显示装置及其控制方法以及计算机程序
JP2016224086A (ja) * 2015-05-27 2016-12-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US9898868B2 (en) * 2014-11-06 2018-02-20 Seiko Epson Corporation Display device, method of controlling the same, and program
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP2018142168A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019036914A (ja) 2017-08-21 2019-03-07 ウエストユニティス株式会社 連携表示システム
JP2019082891A (ja) * 2017-10-31 2019-05-30 セイコーエプソン株式会社 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP2021119364A (ja) * 2020-01-30 2021-08-12 セイコーエプソン株式会社 表示装置、表示装置の制御方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176721A1 (ja) * 2021-02-18 2022-08-25 キヤノン株式会社 メガネ型情報機器、その方法及びプログラム

Also Published As

Publication number Publication date
US20210240343A1 (en) 2021-08-05
CN113267896A (zh) 2021-08-17
US11681433B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
US11681433B2 (en) Display system, controller, display system control method, and program for receiving input corresponding to image displayed based on head movement
CN108508603B (zh) 头部佩戴型显示装置及其控制方法、以及记录介质
US9007301B1 (en) User interface
JP6149403B2 (ja) 表示装置、および、表示装置の制御方法
WO2013088725A1 (en) Head-mounted display and information display apparatus
JP2018101019A (ja) 表示装置及び表示装置の制御方法
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2018151851A (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP6776578B2 (ja) 入力装置、入力方法、コンピュータープログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018084886A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP2009104429A (ja) ヘッドマウントディスプレイ装置及び携帯装置
US11340736B2 (en) Image display device, image display method, and image display program
JP7247519B2 (ja) 表示装置、及び、表示装置の制御方法
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2018206080A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP6996115B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US11391953B2 (en) Display device, control method for display device, and program
US20170285765A1 (en) Input apparatus, input method, and computer program
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
JP2017182460A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、コンピュータープログラム
JP6790769B2 (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法