JP2020129263A - 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 - Google Patents

表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 Download PDF

Info

Publication number
JP2020129263A
JP2020129263A JP2019021485A JP2019021485A JP2020129263A JP 2020129263 A JP2020129263 A JP 2020129263A JP 2019021485 A JP2019021485 A JP 2019021485A JP 2019021485 A JP2019021485 A JP 2019021485A JP 2020129263 A JP2020129263 A JP 2020129263A
Authority
JP
Japan
Prior art keywords
unit
sensor
display
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019021485A
Other languages
English (en)
Inventor
恵一 岡野
Keiichi Okano
恵一 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019021485A priority Critical patent/JP2020129263A/ja
Priority to CN202010080418.3A priority patent/CN111556310B/zh
Priority to US16/784,819 priority patent/US10990197B2/en
Publication of JP2020129263A publication Critical patent/JP2020129263A/ja
Priority to US17/211,911 priority patent/US11520414B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • G09G3/3208Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED] organic, e.g. using organic light-emitting diodes [OLED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/041Temperature compensation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】スマートフォン等の情報処理装置に対する使用者の操作性を向上する。【解決手段】使用者の頭部に装着されるHMD100と、HMD100が接続されるスマートフォン300とを備える表示システム1であって、スマートフォン300は、位置入力操作を受け付けて、設定された座標軸AXを基準とする操作位置の座標を検出するタッチセンサー332と、タッチセンサー332の向きを検出する磁気センサー352と、磁気センサー352の検出結果に基づいて、座標軸AXの向きを調整する調整部313と、を備える。【選択図】図5

Description

本発明は、表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法に関する。
スマートフォンのような携帯端末装置に表示される画像を、HMDのような表示装置にミラーリング表示することが知られている(例えば、特許文献1参照)。
特許文献1に記載の携帯端末装置は、タッチパネルと、プロセッサーとを備える。プロセッサーは、コンテンツに関連付けられた設定情報に基づいて、タッチパネルにコンテンツを表示させてタッチ入力を受け付ける第1のモードから、タッチパネルにコンテンツを表示させずにタッチ入力を受け付ける第2のモードに携帯端末装置の操作モードを切り換える。そして、操作モードが切り替えられた場合に、コンテンツを表示装置のディスプレイに表示させる。
特開2015−197694号公報
特許文献1記載の構成では、使用者の操作性が充分ではない場合があるという課題があった。
例えば、スマートフォンのタッチパネルの座標軸の向きが固定されているため、使用者の操作性が充分ではない場合があった。
上記課題を解決する一態様は、使用者の頭部に装着される表示装置と、前記表示装置が接続される情報処理装置とを備える表示システムであって、前記情報処理装置は、位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部と、前記位置入力部の向きを検出する第1センサーと、前記第1センサーの検出結果に基づいて、前記座標軸の向きを調整する調整部と、を備える、表示システムである。
上記表示システムにおいて、前記第1センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む構成であってもよい。
上記表示システムにおいて、前記表示装置は、画像を表示する表示部と、前記表示部の向きを検出する第2センサーと、を備え、前記調整部は、前記第2センサーにより検出された向きに対応して、前記座標軸の向きを決定する構成であってもよい。
上記表示システムにおいて、前記第2センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む構成であってもよい。
上記表示システムにおいて、前記情報処理装置は、前記表示装置を接続可能な接続部と、前記位置入力部が検出した入力を前記座標軸における絶対座標での入力として受け付ける第1モードと、前記位置入力部が検出した入力を前記座標軸における相対座標での入力として受け付ける第2モードと、を実行可能であり、前記接続部に前記表示装置が接続されているか否かに応じて、前記第1モードと前記第2モードとを切り換えて実行するモード切換部と、を備える構成であってもよい。
上記表示システムにおいて、前記モード切換部は、前記接続部に前記表示装置が接続されてない場合には、前記第1モードを実行し、前記接続部に前記表示装置が接続されている場合には、前記第2モードを実行する構成であってもよい。
上記表示システムにおいて、前記調整部は、前記座標軸の向きを段階的に調整する構成であってもよい。
上記表示システムにおいて、前記表示装置は、前記情報処理装置の位置を検出する第3センサーを備え、前記調整部は、前記第3センサーの検出結果に基づいて、前記座標軸の向きを調整する構成であってもよい。
上記表示システムにおいて、前記第3センサーは、撮像センサーを含む構成であってもよい。
上記表示システムにおいて、前記情報処理装置は、前記第3センサーの検出結果に基づいて、前記情報処理装置が前記使用者の視野内にあるか否かを判定する判定部を備え、前記調整部は、前記判定部の判定結果に応じて、前記座標軸の向きを調整する構成であってもよい。
上記表示システムにおいて、前記情報処理装置が前記使用者の視野内にあると前記判定部が判定した場合に、前記調整部は前記座標軸の向きを調整し、前記情報処理装置が前記使用者の視野内にはないと前記判定部が判定した場合に、前記調整部は前記座標軸の向きの調整を規制する構成であってもよい。
上記課題を解決する別の一態様は、コンピューターを備え、使用者の頭部に装着される表示装置が接続される情報処理装置の制御プログラムであって、前記コンピューターを、位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部の向きを検出する検出部、及び、前記検出部の検出結果に基づいて、前記座標軸の向きを調整する調整部、として機能させる、制御プログラムである。
上記課題を解決する更に別の一態様は、使用者の頭部に装着される表示装置が接続される情報処理装置の制御方法であって、位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部の向きを検出する検出ステップと、前記検出ステップでの検出結果に基づいて、前記座標軸の向きを調整する調整ステップと、を含む、情報処理装置の制御方法である。
表示システムの構成を示す図。 画像表示部の光学系の構成を示す図。 画像表示部の要部構成を示す斜視図。 HMDを構成する各部の構成を示す図。 HMDの第1制御部とスマートフォンとの構成を示す図。 HMDに対するスマートフォンのタッチセンサーの向きを示す図。 タッチセンサーの座標軸の向きの調整方法の一例を示す図。 タッチセンサーの座標軸の向きの調整方法の他の一例を示す図。 ポインターオブジェクトによる操作の一例を示す画面図。 スマートフォンの第1制御部の処理を示すフローチャート。 スマートフォンの第1制御部の処理を示すフローチャート。
以下、図面を参照して実施形態について説明する。
[1.表示システムの構成]
[1−1.表示システムの全体構成]
図1は、表示システム1の概略構成を示す図である。
図1に示すように、表示システム1は、HMD(Head Mounted Display)100を備える。HMD100は、使用者の頭部に装着される映像表示部20と、接続装置10とを備え、映像表示部20により、使用者の頭部に装着された状態で使用者に虚像を視認させる装置である。HMD100は、「表示装置」の一例に対応する。以下の説明において、使用者とは、HMD100を装着して使用するユーザーを指す。
接続装置10は、箱形のケースに、コネクター11A及びコネクター11Dを備える。コネクター11Aには、映像表示部20が接続ケーブル40を介して接続される。以下、コネクター11A、11Dを区別しない場合はコネクター11と表記する場合がある。接続装置10のケースは、筐体、或いは本体ということもできる。
表示システム1は、HMD100にスマートフォン300を接続して構成されるシステムである。コネクター11Dは、HMD100においてスマートフォン300が接続されるインターフェイスである。すなわち、本実施形態では、コネクター11Dにスマートフォン300が接続される。スマートフォン300は、「情報処理装置」の一例に対応する。
なお、スマートフォン300は情報処理装置の一例に過ぎない。情報処理装置は、使用者が携帯可能であって、タッチセンサーのような位置入力部と、位置入力部の向きを検出するセンサーと、コンピューターとを備えればよい。例えば、情報処理装置として、PDA(Personal Digital Assistant)端末、タブレット型パーソナルコンピューター等を接続装置10に接続可能である。
コネクター11は、通信ケーブルを接続する有線インターフェイスであり、この通信ケーブルにより、接続装置10は外部の装置と接続される。コネクター11Aは、接続ケーブル40を接続する端子、及び、コネクター11Aを介して信号を送受信するインターフェイス回路を備える。
コネクター11Aは、接続装置10に映像表示部20を接続するために設けられる。接続ケーブル40は、接続装置10から映像表示部20に対する電源供給を行うとともに、映像表示部20と接続装置10とが相互にデータを送受信する機能を有する。
コネクター11Dは、スマートフォン300から映像データが入力され、スマートフォン300に対してセンサーデータの出力が可能なインターフェイスである。スマートフォン300は、不揮発性記憶部に記録されたコンテンツデータを再生する。コネクター11Dは、例えば、公知の通信インターフェイス規格に準拠するコネクターである。
本実施形態では、コネクター11Dは、一例として、映像データ及び各種データの入出力に対応するインターフェイスであり、USBケーブル46を介してスマートフォン300が接続される。
コネクター11Dとして、例えば、USB(Universal Serial Bus)−TypeC規格のコネクターを採用することができる。USB−TypeCに対応するインターフェイスは、USB3.1規格に従ったデータの伝送、及び、20ボルト、5アンペア以内の直流電力の供給が可能である。
また、USB−TypeCの代替モードの機能として、HDMI(High Definition Multimedia Interface)規格の映像データ、MHL(Mobile High−definition Link)規格の映像データ等を伝送できる。スマートフォン300は、USBケーブル46を介して、電源供給、データの送受信、及び、映像や音声のストリーミングデータの供給等を行うことができる。USB−TypeCの代替モードは、Alternativeモードとして知られている。HDMIは登録商標である。
映像表示部20は、本実施形態では眼鏡形状を有する。映像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示部22、左表示部24、右導光板26、及び左導光板28を備える。
映像表示部20は、「表示部」の一例に対応する。
右保持部21及び左保持部23は、前部フレーム27の両端部から後方に延び、使用者の頭部Uに映像表示部20を保持する。前部フレーム27の両端部のうち、映像表示部20の装着時に頭部Uの右側に位置する端部を端部ERとし、左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、映像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、映像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、映像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、映像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が映像表示部20を装着する装着状態で、使用者の眉間に対応する。
前部フレーム27は、右導光板26と左導光板28との連結位置において、映像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合には、鼻当て部と右保持部21及び左保持部23とにより映像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、映像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合には、ベルトによって映像表示部20を使用者の頭部Uに保持できる。
右表示部22及び左表示部24の各々は、光学ユニット及び周辺回路をユニット化したモジュールである。
右表示部22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示部24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示部22及び左表示部24を総称して単に「表示駆動部」と呼ぶこともできる。
右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、右表示部22及び左表示部24が出力する画像光を、使用者の眼に導く。右導光板26及び左導光板28は、例えばプリズムである。
使用者の右眼には、右導光板26により導かれた画像光と、右導光板26を透過した外光とが入射する。同様に、左眼には、左導光板28により導かれた画像光と、左導光板28を透過した外光とが入射する。
映像表示部20の前部フレーム27には、照度センサー65が配置される。照度センサー65は、映像表示部20を装着する使用者の前方からの外光を受光する。
カメラ61は、映像表示部20の前部フレーム27に配設される。カメラ61は、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置されているが、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。
カメラ61は、「第3センサー」の一例に対応する。また、カメラ61は、「撮像センサー」の一例に対応する。
カメラ61は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide−Semiconductor)等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。
前部フレーム27には、LED(Light Emitting Diode)インジケーター67が配置される。LEDインジケーター67は、端部ERにおいてカメラ61の近傍に配置され、カメラ61の動作中に点灯して、撮像中であることを報知する。
前部フレーム27には、距離センサー64が設けられる。距離センサー64は、予め設定された測定方向に位置する測定対象物までの距離を検出する。距離センサー64は、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する光反射式距離センサーであってもよい。また、距離センサー64は、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える超音波式の距離センサーであってもよい。また、距離センサー64は、レーザーレンジスキャナーを用いてもよく、この場合には、映像表示部20の前方を含む広範囲の領域に対し測域を行える。
映像表示部20の右表示部22及び左表示部24の各々は、接続装置10に接続される。HMD100では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が映像表示部20内部に敷設され、右表示部22及び左表示部24の各々が接続装置10に接続される。
接続ケーブル40は、オーディオコネクター36を備え、ステレオヘッドホンを構成する右イヤホン32及び左イヤホン34と、マイク63とを有するヘッドセット30が、オーディオコネクター36に接続される。右イヤホン32は、使用者の右耳に装着され、左イヤホン34は、使用者の左耳に装着される。右イヤホン32及び左イヤホン34は、音声出力部ということもできる。
右イヤホン32及び左イヤホン34は、接続装置10が出力する音声信号に基づき音声を出力する。
マイク63は、音声を集音して、音声信号を接続装置10に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
接続装置10は、使用者により操作される被操作部として、輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16を備える。輝度調整キー13、輝度調整キー14、音量調整キー15及び音量調整キー16の各々は、ハードウェアキーで構成される。これらの被操作部は接続装置10の本体の表面に配置され、例えば、使用者の手指により操作される。
輝度調整キー13、14は映像表示部20により表示する映像の表示輝度を調整するためのハードウェアキーである。輝度調整キー13は輝度の増大を指示し、輝度調整キー14は輝度の低減を指示する。音量調整キー15、16は、右イヤホン32及び左イヤホン34から出力される音声の音量を調整するためのハードウェアキーである。音量調整キー15は音量の増大を指示し、音量調整キー16は音量の低減を指示する。
[1−2.HMDの画像表示部の光学系の構成]
図2は、映像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示部22と左表示部24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示部22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221を備える。また、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251を備える。画像光Lは、右光学系251により右導光板26に導かれる。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、第2制御部120の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。第2制御部120については、後述にて図4を参照して説明する。
OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には図4に示す温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
また、使用者の左眼LEに画像を視認させる構成として、左表示部24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。
OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、第2制御部120の指示に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。
OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、図4に示す温度センサー239が実装される。
左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
この構成によれば、HMD100は、透過型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示部22及び左表示部24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
図3は、映像表示部20の要部の構成を示す図である。図3の上図は、映像表示部20を使用者の頭部側から見た要部斜視図である。なお、図3の上図では接続ケーブル40の図示を省略する。
図3の上図は、映像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、図3の上図では、右導光板26及び左導光板28の裏側が見えている。
図3の上図では、使用者の右眼REに画像光を照射するハーフミラー261及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261を含む右導光板26の全体、及びハーフミラー281を含む左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
また、映像表示部20の使用者側には内側カメラ68が配置される。内側カメラ68は、使用者の右眼RE及び左眼LEの各々に対応するように、右導光板26と左導光板28との中央位置に一対、設けられる。内側カメラ68は、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラである。内側カメラ68は、第2制御部120の指示に従って撮像を行う。第2制御部120は、内側カメラ68の撮像画像データを解析する。例えば、第2制御部120は、内側カメラ68の撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、使用者の視線方向を特定する。また、第2制御部120は、使用者の視線方向の変化を求めることができ、右眼RE及び左眼LEのそれぞれの眼球運動を検出してもよい。
内側カメラ68は、「第3センサー」の一例に対応する。
ここで、使用者の視線の移動は、使用者の仮想視点の移動とみることもできる。
また、第2制御部120は、内側カメラ68の撮像画像から右眼RE及び左眼LEの視線方向を検出した場合に、右眼RE及び左眼LEの輻輳角を求めることができる。輻輳角は、使用者が注視する対象物までの距離に対応する。すなわち、使用者が立体的に画像や物体を視認する場合、視認する対象までの距離に対応して、右眼RE及び左眼LEの輻輳角が定まる。したがって、輻輳角を検出することで、使用者が注視する距離を求めることができる。また、使用者の輻輳角を誘導するように画像を表示することにより、立体視を誘導できる。
図3の下図は、ハーフミラー261及びハーフミラー281の各々に表示される画像の座標軸を示す。A−A線は、ハーフミラー261及びハーフミラー281の各々の左右方向に延びる中心線を示す。B−B線は、ハーフミラー261及びハーフミラー281の各々の上下方向に延びる中心線を示す。
ハーフミラー261及びハーフミラー281の各々に表示される画像の座標軸は、α軸とβ軸とで構成される。α軸は、A−A線と平行に設定され、β軸は、B−B線と平行に設定される。
A−A線の方向、及びB−B線の方向は、図4に示す6軸センサー235又は磁気センサー237によって検出される。換言すれば、A−A線の方向、及びB−B線の方向は、3軸加速度センサー、3軸ジャイロセンサー、又は、3軸の地磁気センサーによって検出される。なお、本実施形態では、A−A線の方向、及びB−B線の方向は、磁気センサー237によって検出される。
[1−3.HMDの各部の構成]
図4は、HMD100を構成する各部の構成を示す図である。
映像表示部20の右表示部22は、右表示部基板210を有する。右表示部基板210には、接続ケーブル40に接続される右I/F部211、右I/F部211を介して接続装置10から入力されるデータを受信する受信部213及びEEPROM(Electrically Erasable Programmable Read Only Memory)215が実装される。右I/F部211は、受信部213、EEPROM215、温度センサー217、カメラ61、距離センサー64、照度センサー65、LEDインジケーター67、及び内側カメラ68を、接続装置10に接続する。受信部213は、OLEDユニット221を接続装置10に接続する。
左表示部24は、左表示部基板230を有する。左表示部基板230には、接続ケーブル40に接続される左I/F部231及び左I/F部231を介して接続装置10から入力されるデータを受信する受信部233が実装される。また、左表示部基板230には、6軸センサー235及び磁気センサー237が実装される。
左I/F部231は、受信部233、6軸センサー235、磁気センサー237及び温度センサー239を、接続装置10に接続する。受信部233は、OLEDユニット241を接続装置10に接続する。
I/Fは、インターフェイスの略記である。なお、本実施形態においては、受信部213及び受信部233の各々を、Rx213、Rx233と記載する場合がある。
EEPROM215は、各種のデータを不揮発的に記憶する。EEPROM215は、例えば、映像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示部22又は左表示部24が備えるセンサーの特性に関するデータ等を記憶する。
具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。EEPROM215が記憶するデータは、第2制御部120により読取り可能である。
カメラ61は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
照度センサー65は、外光を受光し、受光量又は受光強度に対応する検出値を出力する。LEDインジケーター67は、右I/F部211を介して入力される制御信号又は駆動電流に従って点灯する。
内側カメラ68は、右I/F部211を介して入力される信号に従って撮像を実行し、撮像画像データを、右I/F部211に出力する。
温度センサー217は、OLEDユニット221の温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。
距離センサー64は、距離検出を実行し、検出結果を示す信号を、右I/F部211を介して接続装置10に出力する。距離センサー64は、例えば、赤外線式深度センサー、超音波式距離センサー、Time Of Flight式距離センサー、画像検出と音声検出とを組み合わせた距離検出ユニット等を用いることができる。また、距離センサー64が、ステレオカメラや単眼カメラによるステレオ撮影で得られる画像を処理して距離を検出する構成であってもよい。
受信部213は、右I/F部211を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット221に出力する。OLEDユニット221は、接続装置10が伝送する映像データに基づく映像を表示する。
また、受信部233は、左I/F部231を介して接続装置10から伝送される表示用の映像データを受信し、OLEDユニット241に出力する。OLEDユニット221、241は、接続装置10が伝送する映像データに基づく映像を表示する。
6軸センサー235は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。
6軸センサー235及び磁気センサー237の各々は、「第2センサー」の一例に対応する。換言すれば、3軸加速度センサー、3軸ジャイロセンサー及び3軸の地磁気センサーの各々は、「第2センサー」の一例に対応する。
本実施形態では、「第2センサー」が磁気センサー237である場合について説明する。
温度センサー239は、OLEDユニット241の温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。
映像表示部20の各部は、接続ケーブル40により接続装置10から供給される電力により動作する。
映像表示部20は、右表示部22に電源部229を備え、左表示部24に電源部249を備える。電源部229は、接続装置10が接続ケーブル40を介して供給する電力を、右表示部基板210を含む右表示部22の各部に分配し、供給する。同様に、電源部249は、接続装置10が接続ケーブル40を介して供給する電力を、左表示部基板230を含む左表示部24の各部に分配し、供給する。右表示部22及び左表示部24は、電圧を変換する変換回路等を備えてもよい。
接続装置10は、I/F部110、第2制御部120、センサー制御部122、表示制御部124、電源制御部126、不揮発性記憶部130、操作部140、接続部145及び音声処理部147を備える。
I/F部110は、コネクター11Dを備える。また、I/F部110は、コネクター11Dに接続されて、各種通信規格に準拠した通信プロトコルを実行するインターフェイス回路を備える。
I/F部110は、例えば、コネクター11D及びインターフェイス回路を実装したインターフェイス基板であってもよい。また、接続装置10の第2制御部120やセンサー制御部122、表示制御部124、電源制御部126が、図示しない接続装置メイン基板に実装される構成としてもよい。この場合には、接続装置メイン基板にI/F部110のコネクター11D及びインターフェイス回路を実装してもよい。
また、I/F部110は、例えば、外部の記憶装置や記憶媒体を接続可能なメモリーカード用インターフェイス等を備えてもよいし、I/F部110を無線通信インターフェイスで構成してもよい。
第2制御部120は、接続装置10の各部を制御する。第2制御部120は、CPU(Central Processing Unit)のようなプロセッサーを有する。第2制御部120において、プロセッサーが制御プログラムを実行することによって、ソフトウェアとハードウェアとの協働によりHMD100の各部を制御する。第2制御部120には、不揮発性記憶部130、操作部140、接続部145及び音声処理部147が接続される。
センサー制御部122は、カメラ61、距離センサー64、照度センサー65、温度センサー217、6軸センサー235、磁気センサー237及び温度センサー239を制御する。具体的には、センサー制御部122は、第2制御部120の制御に従って各センサーのサンプリング周期の設定及び初期化を行い、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。
センサー制御部122は、I/F部110のコネクター11Dに接続され、予め設定されたタイミングで、各センサーから取得した検出値に関するデータをコネクター11Dに出力する。コネクター11Dに接続されたスマートフォン300は、HMD100の各センサーの検出値、カメラ61の撮像画像データ、及び内側カメラ68によって検出された視線方向を示すデータを取得できる。
表示制御部124は、I/F部110に入力される画像データや映像データに基づく画像を映像表示部20により表示するための各種処理を実行する。本実施形態では、コネクター11Dに、スマートフォン300が出力する映像信号が入力される。映像信号は、デジタル映像データであるが、アナログ映像信号であってもよい。
表示制御部124は、例えば、フレームの切り出し、解像度変換、中間フレーム生成、フレームレート変換等の各種処理を実行する。解像度変換は、いわゆるスケーリングを含む。表示制御部124は、OLEDユニット221及びOLEDユニット241の各々に対応する画像データを接続部145に出力する。接続部145に入力された画像データは、コネクター11Aから、映像信号201として右I/F部211及び左I/F部231に伝送される。映像信号201は、OLEDユニット221及びOLEDユニット241の各々に対応して処理されたデジタル映像データである。
本実施形態では、コネクター11DがUSB−TypeCコネクターで構成される。表示制御部124は、コネクター11Dを介して、USB−TypeCの代替モードで伝送される映像データを受信する。
センサー制御部122及び/又は表示制御部124は、プロセッサーがプログラムを実行することにより、ソフトウェアとハードウェアとの協働により実現されてもよい。すなわち、センサー制御部122及び表示制御部124は、プロセッサーにより構成され、プログラムを実行することで上記の動作を実行する。この例で、センサー制御部122及び表示制御部124は、第2制御部120を構成するプロセッサーがプログラムを実行することで実現されてもよい。言い換えれば、プロセッサーがプログラムを実行することで、第2制御部120、表示制御部124及びセンサー制御部122として機能してもよい。ここで、プロセッサーは、コンピューターと言い換えることができる。
また、表示制御部124及びセンサー制御部122は、DSP(Digital Signal Processor)やFPGA(Field Programmable Gate Array)等、プログラムされたハードウェアにより構成されてもよい。また、センサー制御部122及び表示制御部124を統合して、SoC(System−on−a−Chip)−FPGAとして構成してもよい。
電源制御部126は、コネクター11Dに接続される。電源制御部126は、コネクター11Dから供給される電力に基づき、接続装置10の各部および映像表示部20に対する電源供給を行う。また、電源制御部126は、図示しない電圧変換回路を備え、電圧を変換して接続装置10及び映像表示部20の各部に供給する構成であってもよい。電源制御部126は、ロジック回路やFPGA等のプログラムされた半導体デバイスで構成されてもよい。また、電源制御部126をセンサー制御部122及び/又は表示制御部124と共通のハードウェアで構成してもよい。
センサー制御部122、表示制御部124及び電源制御部126は、データ処理を行うためのワークメモリーを具備してもよく、第2制御部120のメモリーを利用して処理を行ってもよい。
操作部140は、接続装置10が備える被操作部に対する操作を検出し、操作内容を示すデータ、又は、操作された被操作部を示す操作信号を第2制御部120に出力する。
音声処理部147は、第2制御部120から入力される音声データに従って、音声信号を生成し、接続部145に出力する。この音声信号は接続部145からオーディオコネクター36を介して右イヤホン32及び左イヤホン34に出力される。また、音声処理部147は、第2制御部120の制御に従って、音声信号のボリュームを調整する。また、音声処理部147は、マイク63が集音した音声の音声データを生成し、第2制御部120に出力する。この音声データは、第2制御部120により、映像表示部20が備えるセンサーの検出値と同様に処理されてもよい。
また、接続装置10は図示しないバッテリーを備え、このバッテリーから接続装置10及び映像表示部20の各部に電力を供給する構成であってもよい。接続装置10が備えるバッテリーは、充電可能な二次電池であってもよい。
[1−4.スマートフォンの構成]
図5は、HMD100の第2制御部120とスマートフォン300との構成を示す図である。
スマートフォン300は、第1制御部310、不揮発性記憶部320、表示部330、I/F部341、通信部345、6軸センサー351及び磁気センサー352を備える。
第1制御部310は、CPUやマイコン等のプロセッサーを備え、このプロセッサーにより制御プログラムを実行することにより、スマートフォン300の各部を制御する。第1制御部310は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM(Read Only Memory)、及び、プロセッサーのワークエリアを構成するRAM(Random Access Memory)のようなメモリーを備えてもよい。プロセッサーは、「コンピューター」の一例に対応する。第1制御部310のメモリーに記憶された制御プログラムは、「制御プログラム」の一例に対応する。
不揮発性記憶部320は、第1制御部310により実行される制御プログラムや、第1制御部310が処理するデータを不揮発的に記憶する。不揮発性記憶部130は、例えば、HDD(Hard Disk Drive)等の磁気的記録装置、又は、フラッシュメモリー等の半導体記憶素子を用いた記憶装置である。
不揮発性記憶部320は、例えば、映像を含むコンテンツのコンテンツデータ321を記憶する。コンテンツデータ321は、第1制御部310により処理可能なフォーマットのファイルであり、映像データを含み、音声データを含んでもよい。
また、不揮発性記憶部320は、第1制御部310が実行する基本制御プログラムとしてのオペレーティングシステム(OS:Operating System)、OSをプラットフォームとして動作するアプリケーションプログラム等を記憶する。また、不揮発性記憶部320は、アプリケーションプログラムの実行時に処理されるデータや処理結果のデータを記憶する。
表示部330が備える表示パネル331及びタッチセンサー332は、第1制御部310に接続される。表示パネル331は、第1制御部310の制御に基づき各種画像を表示する。表示パネル331は、例えばLCD(Liquid Crystal Display)で構成される。表示パネル331は、矩形状に構成される。本実施形態では、表示パネル331は、長方形状である。
タッチセンサー332は、タッチ操作を検出し、検出した操作を示すデータを第1制御部310に出力する。タッチセンサー332は、表示パネル331と一体に形成される。具体的には、タッチセンサー332は、表示パネル331の画像表示面に形成される。本実施形態では、タッチセンサー332は、長方形状である。タッチセンサー332が出力するデータは、タッチセンサー332における操作位置を示す座標データ等である。タッチセンサー332は、「位置入力部」の一例に対応する。
本実施形態では、タッチセンサー332は、絶対座標を示す第1座標データDA1と、相対座標を示す第2座標データDA2とを出力する。
第1座標データDA1は、タッチ操作の位置の絶対座標を示す。初期状態では、例えば、タッチセンサー332の長辺方向に沿ってX軸が設定され、タッチセンサー332の短辺方向に沿ってY軸が設定される。タッチセンサー332の長辺方向は、表示パネル331の長辺方向と一致し、タッチセンサー332の短辺方向は、表示パネル331の短辺方向と一致する。第1座標データDA1は、タッチ操作のX軸方向の位置を示すX座標と、タッチ操作のY軸方向の位置を示すY座標とで構成される。
第2座標データDA2は、タッチ操作の移動量の相対座標を示す。すなわち、第2座標データDA2は、タッチ操作の開始点の位置から移動後のタッチ操作の位置までの移動量を示す。初期状態では、例えば、タッチセンサー332の長辺方向に沿ってX軸が設定され、タッチセンサー332の短辺方向に沿ってY軸が設定される。第2座標データDA2は、タッチ操作のX軸方向の位置の変化量を示すX座標と、タッチ操作のY軸方向の位置の変化量を示すY座標とで構成される。
I/F部341は、外部の装置に接続されるインターフェイスである。I/F部341は、例えば、HDMIインターフェイス、USBインターフェイス等の規格に準拠した通信を実行する。I/F部341は、USBケーブル46を接続するコネクター、及びコネクターを伝送される信号を処理するインターフェイス回路を備える。I/F部341は、コネクター及びインターフェイス回路を有するインターフェイス基板であり、第1制御部310のプロセッサー等が実装されるメイン基板に接続される。或いは、I/F部341を構成するコネクター及びインターフェイス回路が、スマートフォン300のメイン基板に実装される。I/F部341は、「接続部」の一例に対応する。
本実施形態で、I/F部341は、USBインターフェイスを備え、USBケーブル46により、コネクター11Dに接続される。第1制御部310は、例えば、USBケーブル46により映像データを出力し、接続装置10からセンサーの出力値に関するデータ等を受信する。
また、I/F部341は、無線通信インターフェイスであってもよい。この場合には、I/F部341は、RF(Radio Frequency)部を含む通信回路を実装したインターフェイス基板、又は、メイン基板に実装される回路とすることができる。
通信部345は、外部の装置とデータ通信を実行する通信インターフェイスである。通信部345は、ケーブルを接続可能な有線通信インターフェイスであってもよいし、無線通信インターフェイスであってもよい。例えば、Ethernet(登録商標)に対応する有線LANインターフェイスや、IEEE802.11規格に対応する無線LANインターフェイスであってもよい。
また、通信部345は、例えば、他のスマートフォンと無線電話回線で接続する通信インターフェイスである。
6軸センサー351は、3軸加速度センサー、及び、3軸ジャイロセンサーを備えるモーションセンサーである。6軸センサー351は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー352は、例えば、3軸の地磁気センサーである。ジャイロセンサーは、角速度センサーとも呼ばれる。
6軸センサー351及び磁気センサー352の各々は、「第1センサー」の一例に対応する。換言すれば、3軸加速度センサー、3軸ジャイロセンサー及び3軸の地磁気センサーの各々は、「第1センサー」の一例に対応する。
本実施形態では、「第1センサー」が磁気センサー352である場合について説明する。
第1制御部310は、第1表示制御部311と、判定部312と、調整部313と、モード切換部314とを備える。具体的には、第1制御部310は、第1制御部310が備えるプロセッサーが制御プログラムを実行することにより、第1表示制御部311、判定部312、調整部313及びモード切換部314として機能する。
第1表示制御部311は、コンテンツデータ321を再生し、コンテンツデータ321に含まれる映像データに対応する画像PTを表示部330の表示パネル331に表示する。
また、第1表示制御部311は、I/F部341にHMD100が接続されているか否かに応じて、表示部330の表示パネル331の輝度を低減する。具体的には、第1表示制御部311は、I/F部341にHMD100が接続されている場合には、I/F部341にHMD100が接続されていない場合と比較して、表示部330の表示パネル331の輝度を低減する。
例えば、第1表示制御部311は、I/F部341にHMD100が接続されていない場合には、表示部330に表示する画像PTの輝度を、設定された輝度にする。また、第1表示制御部311は、I/F部341にHMD100が接続されている場合には、表示部330に表示する画像PTの輝度を、設定された輝度よりも低減する。
更に具体的には、第1表示制御部311は、画像PTに一定の濃度の画像を重畳することによって、表示パネル331に表示する画像PTの輝度を低減する。「一定の濃度の画像」を、以下の説明では、「暗画像」と記載する場合がある。「暗画像」は、具体的には、一定濃度の灰色の画像である。すなわち、表示パネル331に表示する画像PTの上層に、暗画像が形成されたレイヤーを仮想的に重ねることによって、第1表示制御部311は、表示パネル331に表示する画像PTの輝度を低減する。
また、画像PTはポインターオブジェクトPBを含む。具体的には、I/F部341にHMD100が接続されている場合には、第1表示制御部311は、表示パネル331にポインターオブジェクトPBを表示する。また、I/F部341にHMD100が接続されていない場合には、第1表示制御部311は、表示パネル331にポインターオブジェクトPBを表示しない。ポインターオブジェクトPBは、ポインターの位置を示す。ポインターオブジェクトPBは、例えば、矢印のようなオブジェクトであって、矢印の先端を指し示す。
また、第1表示制御部311は、I/F部341にHMD100が接続されたときに、位置P1又は位置P2にポインターオブジェクトPBを表示する。位置P1は、表示パネル331におけるデフォールトの位置を示す。位置P2は、表示パネル331においてポインターオブジェクトPBが非表示にされた位置を示す。
位置P1は、例えば、表示パネル331の中央位置である。また、位置P1は、例えば、表示パネル331の4つの隅部のいずれかである。また、位置P1は、使用者が設定可能に構成されてもよい。
位置P2は、I/F部341にHMD100が接続された状態からI/F部341にHMD100が接続されていない状態に遷移したときにおけるポインターオブジェクトPBの位置に対応する。
判定部312は、カメラ61及び内側カメラ68の検出結果に基づいて、スマートフォン300が使用者の視野内にあるか否かを判定する。カメラ61は、使用者の視野よりも広い範囲の外景画像を撮像する。内側カメラ68は、使用者の視線方向を検出する。
判定部312は、まず、HMD100からカメラ61が撮像した外景画像データを取得し、カメラ61が撮像した外景画像の中から、使用者の視野内にある外景画像を抽出する。なお、使用者の視野は、内側カメラ68によって検出された使用者の視線方向に基づいて決定される。そして、判定部312は、抽出された外景画像にスマートフォン300が含まれているか否かを判定する。なお、抽出された外景画像にスマートフォン300が含まれているか否かの判定は、例えば、画像処理等を用いて実行される。
本実施形態では、判定部312は、カメラ61及び内側カメラ68の検出結果に基づいて、スマートフォン300が使用者の視野内にあるか否かを判定するが、本発明はこれに限定されない。判定部が、カメラ61及び内側カメラ68の少なくとも一方の検出結果に基づいて、スマートフォン300が使用者の視野内にあるか否かを判定すればよい。換言すれば、「第3センサー」は、カメラ61及び内側カメラ68の少なくとも一方を含む。
本実施形態では、「第3センサー」が、カメラ61及び内側カメラ68を含む場合について説明する。
調整部313は、磁気センサー352の検出結果に基づいて、タッチセンサー332に設定された座標軸の向きを調整する。磁気センサー352は、タッチセンサー332の向きを検出する。タッチセンサー332に設定される座標軸は、X軸とY軸とで構成される。
また、調整部313は、HMD100の磁気センサー237の検出結果に基づいて、タッチセンサー332に設定された座標軸の向きを調整する。磁気センサー237は、映像表示部20の向きを検出する。換言すれば、磁気センサー237は、図3に示すハーフミラー261及びハーフミラー281の向きを検出する。
調整部313は、タッチセンサー332に設定された座標軸の向きを段階的に調整する。例えば、座標軸の向きを30度毎に段階的に調整する。
更に、調整部313は、判定部312の判定結果に基づいて、タッチセンサー332に設定された座標軸の向きを調整する。具体的には、スマートフォン300が使用者の視野内にあると判定部312が判定した場合には、調整部313は、タッチセンサー332に設定された座標軸の向きを調整する。また、スマートフォン300が使用者の視野内にはないと判定部312が判定した場合には、調整部313は、タッチセンサー332に設定された座標軸の向きの調整を規制する。本実施形態では、スマートフォン300が使用者の視野内にはないと判定部312が判定した場合には、調整部313は、タッチセンサー332に設定された座標軸の向きの調整を禁止する。
モード切換部314は、第1モードMD1と第2モードMD2とを実行可能であり、I/F部341にHMD100が接続されているか否かに応じて、第1モードMD1と第2モードMD2とを切り換えて実行する。具体的には、モード切換部314は、I/F部341にHMD100が接続されていない場合には、第1モードMD1を実行する。また、モード切換部314は、I/F部341にHMD100が接続されている場合には、第2モードMD2を実行する。
第1モードMD1は、タッチセンサー332が検出した入力を絶対座標での入力として受け付ける。換言すれば、第1モードMD1は、タッチセンサー332から第1座標データDA1を受け付ける。第1座標データDA1は、タッチ操作の位置の絶対座標を示す。
第2モードMD2は、タッチセンサー332が検出した入力を相対座標での入力として受け付ける。換言すれば、第2モードMD2は、タッチセンサー332から第2座標データDA2を受け付ける。第2座標データDA2は、タッチ操作の移動量の相対座標を示す。
第1制御部310の処理については、図6〜図9を参照して具体的に説明する。
本実施形態では、スマートフォン300が接続装置10に出力する映像データは、スマートフォン300が表示部330の表示パネル331により表示している画像に対応する映像データとする。すなわち、第1表示制御部311は、表示パネル331により表示している画像をHMD100の映像表示部20に表示させる。この場合には、HMD100の映像表示部20は、表示パネル331に表示している画像と同じ画像を表示し、いわゆる「ミラーリング表示」を行う。
[1−5.HMDの第2制御部の構成]
HMD100の第2制御部120は、第2表示制御部121を備える。具体的には、第2制御部120は、第2制御部120が備えるプロセッサーが制御プログラムを実行することにより、第2表示制御部121として機能する。
第2表示制御部121は、第1表示制御部311からの指示に従って、スマートフォン300から画像を受信し、受信した画像を映像表示部20により表示させる。
具体的には、第2表示制御部121は、スマートフォン300から受信した画像から、右画像と左画像とを生成する。そして、第2表示制御部121は、右画像を右表示部22により表示させ、左画像を左表示部24により表示させる。
更に具体的には、第2表示制御部121は、右画像を右I/F部211を介してOLEDユニット221に伝送し、OLEDユニット221により右画像を表示させる。また、第2表示制御部121は、左画像を左I/F部231を介してOLEDユニット241に伝送し、OLEDユニット241により左画像を表示させる。
[2.具体例を用いたスマートフォンの第1制御部の処理の説明]
図6〜図9の各々は、第1制御部310の処理の具体例を示す図である。なお、図6〜図9では、I/F部341にHMD100が接続されている場合について説明する。
[2−1.調整部の処理の説明]
図6は、HMD100に対するスマートフォン300のタッチセンサー332の向きを示す図である。
図6に示すように、使用者がスマートフォン300を操作する場合には、通常、使用者の視線の方向LSにスマートフォン300が配置される。方向LSは、使用者の視線の方向を示す。方向DAは、HMD100からスマートフォン300のタッチセンサー332の中心位置PCに向かう方向を示す。
方向DAは、方向LSに対して傾斜角θだけ傾斜している。傾斜角θは方向LSに対する方向DAの傾斜角を示す。
V−V線は、垂線方向を示す。H−H線は、水平方向を示す。図6では、タッチセンサー332を含む平面が、V−V線とH−H線とを含む場合について説明する。すなわち、タッチセンサー332の長辺方向が、V−V線と平行であり、タッチセンサー332の短辺方向が、H−H線と平行である。
方向DAは、V−V線に対して傾斜角φだけ傾斜している。傾斜角φは、方向DAのV−V線に対する傾斜角を示す。
また、方向DAは、H−H線に対して傾斜角ψだけ傾斜している。傾斜角ψは、方向DAのH−H線に対する傾斜角を示す。傾斜角φ及び傾斜角ψは、使用者又はHMD100に対するタッチセンサー332の中心位置PCの方向を規定する。
スマートフォン300のタッチセンサー332は、V−V線とH−H線とを含む平面内で回転自在である。傾斜角ωは、V−V線とH−H線とを含む平面内におけるタッチセンサー332の長辺方向のV−V線に対する傾斜角を示す。図6では、傾斜角ωが零の状態を示す。
図7は、調整部313によるタッチセンサー332の座標軸AXの向きの調整方法の一例を示す図である。座標軸AXは、X軸とY軸とで構成される。調整部313は、磁気センサー352の検出結果に基づいて座標軸AXの向きを調整する。
図7の上段図は、傾斜角ωが零の状態を示す。傾斜角ωが零の場合には、タッチセンサー332の長辺方向CSは、V−V線と平行である。この場合には、座標軸AXを構成するX軸は、H−H線と平行であり、座標軸AXを構成するY軸は、V−V線と平行である。
具体的には、座標軸AXを構成するY軸の正方向の向きは、V−V線の示す垂線方向のうちの上方向である。また、座標軸AXを構成するX軸の正方向の向きは、H−H線の示す水平方向のうちのY軸の正方向の向きに対して時計回りに90度の向きである。
この場合には、調整部313によって調整された座標軸AXの向きは、通常状態において設定される座標軸AXの向きと一致する。なお、通常状態において設定される座標軸AXの向きは、デフォールト状態で設定されている座標軸AXの向きを示す。
図7の中段図は、傾斜角ωが傾斜角ω1である状態を示す。傾斜角ω1は、長辺方向CSが、V−V線に対して反時計回りに傾斜している状態を示す。
具体的には、調整部313は、座標軸AXを構成するX軸の向きを、H−H線と平行な向きに設定し、座標軸AXを構成するY軸の向きをV−V線と平行な向きに設定する。
更に具体的には、調整部313は、座標軸AXを構成するY軸の正方向の向きをV−V線の示す垂線方向のうちの上方向に設定する。また、調整部313は、座標軸AXを構成するX軸の正方向の向きを、H−H線の示す水平方向のうちのY軸の正方向の向きに対して時計回りに90度の向きに設定する。
図7の下段図は、傾斜角ωが傾斜角ω2である状態を示す。傾斜角ω2は、長辺方向CSが、V−V線に対して時計回りに傾斜している状態を示す。調整部313は、磁気センサー352の検出結果に基づいて座標軸AXの向きを調整する。
具体的には、調整部313は、座標軸AXを構成するX軸の向きを、H−H線と平行な向きに設定し、座標軸AXを構成するY軸の正方向の向きをV−V線と平行な向きに設定する。
更に具体的には、調整部313は、座標軸AXを構成するY軸の正方向の向きをV−V線の示す垂線方向のうちの上方向に設定する。また、調整部313は、座標軸AXを構成するX軸の正方向の向きを、H−H線の示す水平方向のうちのY軸の正方向の向きに対して時計回りに90度の向きに設定する。
このようにして、傾斜角ωが変化した場合にも、座標軸AXを構成するY軸の正方向の向きは、垂線方向のうちの上方向に設定され、座標軸AXを構成するX軸の正方向の向きは、Y軸の正方向の向きに対して時計回りに90度の向きに設定される。したがって、使用者によるタッチセンサー332の操作性を向上できる。
図8は、調整部313によるタッチセンサー332の座標軸AXの向きの調整方法の他の一例を示す図である。座標軸AXは、X軸とY軸とで構成される。調整部313は、HMD100の磁気センサー237の検出結果に基づいて座標軸AXの向きを調整する。
図8の上段図は、傾斜角ηが零の状態を示す。傾斜角ηは、V−V線に対するB−B線の傾斜角を示す。V−V線は、垂線方向を示す。B−B線は、ハーフミラー261及びハーフミラー281の各々の上下方向に延びる中心線を示す。
図8の上段の左図に示すように、傾斜角ηが零の場合には、B−B線はV−V線と平行である。H−H線は、水平方向を示す。
なお、図8の上段の左図、中段の左図、及び下段の左図では、ハーフミラー261及びハーフミラー281の中心位置PDを通るようにV−V線及びH−H線を記載している。
図8の上段の右図は、傾斜角ηが零の場合のタッチセンサー332の座標軸AXの向きを示す。傾斜角ηが零の場合には、座標軸AXを構成するX軸は、H−H線と平行であり、座標軸AXを構成するY軸は、V−V線と平行である。この場合には、調整部313によって調整された座標軸AXの向きは、通常状態において設定される座標軸AXの向きと一致する。
具体的には、座標軸AXを構成するY軸の正方向の向きは、V−V線の示す垂線方向のうちの上方向である。また、座標軸AXを構成するX軸の正方向の向きは、H−H線の示す水平方向のうちのY軸の正方向の向きに対して時計回りに90度の向きである。
図8の中段の左図は、傾斜角ηが傾斜角η1である状態を示す。傾斜角η1は、B−B線がV−V線に対して反時計回りに傾斜している状態を示す。
図8の中段の右図は、傾斜角ηが傾斜角η1である場合のタッチセンサー332の座標軸AXの向きを示す。傾斜角ηが傾斜角η1である場合には、調整部313は、座標軸AXを構成するY軸を、V−V線に対して反時計回りに傾斜角η1だけ傾斜した向きに設定する。
具体的には、調整部313は、座標軸AXを構成するY軸の正方向の向きを、V−V線の示す垂線方向のうちの上方向に対して反時計回りに傾斜角η1だけ傾斜した向きに設定する。また、調整部313は、座標軸AXを構成するX軸の正方向の向きを、Y軸の正方向から時計回りに90度の向きに設定する。
図8の下段の左図は、傾斜角ηが傾斜角η2である状態を示す。傾斜角η2は、B−B線がV−V線に対して時計回りに傾斜している状態を示す。
図8の下段の右図は、傾斜角ηが傾斜角η2である場合のタッチセンサー332の座標軸AXの向きを示す。傾斜角ηが傾斜角η2である場合には、調整部313は、座標軸AXを構成するY軸を、V−V線に対して時計回りに傾斜角η2だけ傾斜した向きに設定する。
具体的には、調整部313は、座標軸AXを構成するY軸の正方向の向きを、V−V線の示す垂線方向のうちの上方向に対して時計回りに傾斜角η2だけ傾斜した向きに設定する。また、調整部313は、座標軸AXを構成するX軸の正方向の向きを、Y軸の正方向の向きに対して時計回りに90度の向きに設定する。
このようにして、傾斜角ηが変化した場合にも、座標軸AXを構成するY軸の正方向の向きは、ハーフミラー261及びハーフミラー281の各々の上下方向に延びる中心線のうちの上方向に対応する向きに設定される。また、座標軸AXを構成するX軸の正方向の向きは、Y軸の正方向の向きに対して時計回りに90度の向きに設定される。したがって、使用者によるタッチセンサー332の操作性を向上できる。
[2−1.相対座標での操作の説明]
図9は、相対座標におけるポインターオブジェクトPBによる操作の一例を示す画面図である。
I/F部341にHMD100が接続されているため、モード切換部314は、第2モードMD2を実行する。すなわち、モード切換部314は、タッチセンサー332が検出した入力を相対座標での入力として受け付ける。
また、I/F部341にHMD100が接続されているため、第1表示制御部311は、ポインターオブジェクトPBを表示部330の表示パネル331に表示する。
図9に示すように、表示パネル331には、第1表示制御部311によって、アイコンA1、アイコンA2、アイコンA3、アイコンA4、アイコンA5、アイコンA6及びポインターオブジェクトPBが表示されている。
アイコンA1〜アイコンA6の各々は、不揮発性記憶部320に記憶されたコンテンツデータ321に対応付けられている。具体的には、コンテンツデータ321は、コンテンツデータMA、コンテンツデータMB、コンテンツデータMC、コンテンツデータMD、コンテンツデータME及びコンテンツデータMFを含む。アイコンA1は、コンテンツデータMAに対応付けられ、アイコンA2は、コンテンツデータMBに対応付けられ、アイコンA3は、コンテンツデータMCに対応付けられる。同様に、アイコンA4〜アイコンA6の各々は、コンテンツデータMD〜コンテンツデータMFの各々に対応付けられる。
ポインターオブジェクトPBは、破線の矢印で示すように、第1表示制御部311によってデフォールトの位置P1に表示される。位置P1は、表示パネル331の中央位置である。
ここでは、使用者によって、タッチ操作が位置PS1で開始され、タッチ操作が位置PS2で終了した場合について説明する。すなわち、使用者は、例えば右手の人差し指を、位置PS1にタッチし、右手の人差し指をタッチセンサー332にタッチした状態で、右手の人差し指を位置PS2まで移動する。そして、使用者は、位置PS2において、右手の人差し指をタッチセンサー332から離間させる。
モード切換部314は、タッチ操作の移動量V1を検出する。この操作によって、ポインターオブジェクトPBは、第1表示制御部311によって、移動量V2のように移動される。すなわち、ポインターオブジェクトPBは、表示パネル331において位置P1から位置P3に移動される。なお、移動量V2は、移動量V1と、向きと長さとが同じである。
また、位置P3において、ポインターオブジェクトPBは、アイコンA5を指し示している。このようにして、位置PS1から位置PS2へのスワイプ操作によって、アイコンA5が選択される。その結果、第1制御部310によって、例えば、アイコンA5に対応付けられたコンテンツデータMEの再生が実行される。
本実施形態では、アイコンがコンテンツデータに対応付けられている場合について説明したが、これに限定されない。アイコンが、例えば、機能を実行するプログラムに対応付けられていてもよい。この場合には、アイコンを指し示すようにポインターオブジェクトPBを移動することによって、アイコンに対応する機能を実行できる。
また、本実施形態では、表示パネル331にアイコンが表示されている場合について説明したが、これに限定されない。表示パネル331にポインターオブジェクトPBに加えて、ポインターオブジェクトPB以外のオブジェクトが表示されていればよい。例えば、表示パネル331にボタンオブジェクトが表示されていてもよい。この場合には、ボタンオブジェクトを指し示すようにポインターオブジェクトPBを移動することによって、ボタンオブジェクトに対応する機能を実行できる。
[3.スマートフォンの第1制御部の処理の説明]
図10及び図11の各々は、スマートフォン300の第1制御部310の処理を示すフローチャートである。
まず、図10に示すように、ステップS101において、第1制御部310が、I/F部341にHMD100が接続されたか否かを判定する。
I/F部341にHMD100が接続されていないと第1制御部310が判定した場合(ステップS101:NO)には、処理が待機状態になる。I/F部341にHMD100が接続されたと第1制御部310が判定した場合(ステップS101:YES)には、処理がステップS103に進む。
そして、ステップS103において、第1表示制御部311は、表示パネル331のデフォールトの位置P1にポインターオブジェクトPBを表示する。
次に、ステップS105において、モード切換部314は、第1モードMD1から第2モードMD2に切り換えて、第2モードMD2を実行する。具体的には、モード切換部314は、タッチセンサー332が検出した入力を相対座標での入力として受け付ける。
次に、ステップS107において、第1制御部310は、HMD100の向きを検出する。具体的には、第1制御部310は、HMD100の磁気センサー237の検出結果に基づいて、HMD100のハーフミラー261及びハーフミラー281の向きを検出する。
次に、ステップS109において、第1制御部310は、スマートフォン300の向きを検出する。具体的には、第1制御部310は、スマートフォン300の磁気センサー352の検出結果に基づいて、タッチセンサー332の向きを検出する。
次に、ステップS111において、第1制御部310は、スマートフォン300の位置を検出する。具体的には、第1制御部310は、カメラ61の検出結果、及び内側カメラ68の検出結果に基づいて、使用者の視野内におけるスマートフォン300の位置を検出する。
次に、図11に示すように、ステップS113において、判定部312は、スマートフォン300が使用者の視野内にあるか否かを判定する。
スマートフォン300が使用者の視野内にはないと判定部312が判定した場合(ステップS113:NO)には、処理がステップS123に進む。スマートフォン300が使用者の視野内にあると判定部312が判定した場合(ステップS113:YES)には、処理がステップS115に進む。
次に、ステップS115において、調整部313は、磁気センサー352及びHMD100の磁気センサー237の検出結果に基づいて、タッチセンサー332に設定された座標軸AXの向きを調整する。
次に、ステップS117において、第1制御部310は、HMD100の向きを検出する。
次に、ステップS119において、第1制御部310は、スマートフォン300の向きを検出する。
次に、ステップS121において、調整部313は、タッチセンサー332に設定された座標軸AXの向きを調整するか否かを判定する。具体的には、調整部313は、タッチセンサー332に設定された座標軸AXの向きが、調整部313が座標軸AXを調整する場合における調整後の座標軸AXの向きに対して、閾値角度以上ズレているか否かを判定する。閾値角度は、例えば30度である。
タッチセンサー332に設定された座標軸AXの向きが、調整後の座標軸AXの向きに対して、閾値角度以上ズレていると調整部313が判定した場合(ステップS121:YES)には、処理がステップS115に戻る。タッチセンサー332に設定された座標軸AXの向きが、調整後の座標軸AXの向きに対して、閾値角度以上ズレてはいないと調整部313が判定した場合(ステップS121:NO)には、処理がステップS123に進む。
次に、ステップS123において、第1制御部310が、I/F部341へのHMD100の接続が切断されたか否かを判定する。
I/F部341へのHMD100の接続が切断されていないと第1制御部310が判定した場合(ステップS123:NO)には、処理が図10のステップS107に戻る。I/F部341へのHMD100の接続が切断されたと第1制御部310が判定した場合(ステップS123:YES)には、処理がステップS125に進む。
そして、ステップS125において、第1表示制御部311は、表示パネル331のポインターオブジェクトPBを非表示にする。
次に、ステップS127において、モード切換部314は、第2モードMD2から第1モードMD1に切り換えて、第1モードMD1を実行する。その後、処理が終了する。
なお、図10のステップS107と図11のステップS117とは、「検出ステップ」の一例に対応する。図11のステップS115は「調整ステップ」の一例に対応する。
[4.本実施形態の効果]
以上説明したように、本実施形態では、表示システム1は、使用者の頭部に装着されるHMD100と、HMD100が接続されるスマートフォン300とを備える。スマートフォン300は、位置入力操作を受け付けて、設定された座標軸AXを基準とする操作位置の座標を検出するタッチセンサー332と、タッチセンサー332の向きを検出する第1センサーと、第1センサーの検出結果に基づいて、座標軸AXの向きを調整する調整部313と、を備える。第1センサーは、例えば磁気センサー352である。
よって、調整部313によって座標軸AXの向きが調整されるため、適切な座標軸AXの向きに調整できる。例えば、図7を参照して説明したように、傾斜角ωが変化した場合に、調整部313は、座標軸AXを構成するY軸の正方向の向きを垂線方向のうちの上方向に調整でき、調整部313は、座標軸AXを構成するX軸の正方向の向きを、水平方向のうちのY軸の正方向の向きから時計回りに90度の向きに調整できる。したがって、使用者のタッチパネルの操作性を向上できる。なお、タッチパネルは、表示部330に対応する。
また、第1センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む。
したがって、第1センサーは、タッチセンサー332の向きを正確に検出できる。
また、HMD100は、画像を表示する映像表示部20と、映像表示部20の向きを検出する第2センサーと、を備え、調整部313は、第2センサーにより検出された向きに対応して、座標軸AXの向きを調整する。第2センサーは、例えば磁気センサー237である。
よって、調整部313は、映像表示部20の向きに対応して、座標軸AXの向きを調整できる。例えば、図8を参照して説明したように、傾斜角ηに応じて座標軸AXの向きを調整できる。傾斜角ηは、V−V線に対するB−B線の傾斜角を示す。V−V線は、垂線方向を示す。B−B線は、ハーフミラー261及びハーフミラー281の各々の上下方向に延びる中心線を示す。したがって、使用者のタッチパネルの操作性を向上できる。
また、第2センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む。
したがって、第2センサーは、映像表示部20の向きを正確に検出できる。
また、スマートフォン300は、HMD100を接続可能なI/F部341と、タッチセンサー332が検出した入力を座標軸AXにおける絶対座標での入力として受け付ける第1モードと、タッチセンサー332が検出した入力を座標軸AXにおける相対座標での入力として受け付ける第2モードと、を実行可能であり、I/F部341にHMD100が接続されているか否かに応じて、第1モードと第2モードとを切り換えて実行するモード切換部314と、を備える。
よって、例えば、I/F部341にHMD100が接続されている場合に、モード切換部314は、タッチセンサー332が検出した入力を座標軸AXにおける相対座標での入力として受け付ける第2モードを実行できる。したがって、使用者のタッチパネルの操作性を向上できる。
また、モード切換部314は、I/F部341にHMD100が接続されてない場合には、第1モードを実行し、I/F部341にHMD100が接続されている場合には、第2モードを実行する。
したがって、使用者のタッチパネルの操作性を向上できる。
また、調整部313は、座標軸AXの向きを段階的に調整する。例えば、座標軸AXの向きを30度毎に段階的に調整する。
したがって、使用者のタッチパネルの操作性を向上できる。また、第1制御部310の負荷を軽減できる。
また、HMD100は、スマートフォン300の位置を検出する第3センサーを備え、調整部313は、第3センサーの検出結果に基づいて、座標軸AXの向きを調整する。第3センサーは、例えばカメラ61及び内側カメラ68に対応する。
よって、例えば、スマートフォン300が使用者の視野内にあるか否かに応じて、調整部313による座標軸AXの向きの調整を実行するか否かを決定できる。したがって、使用者のタッチパネルの操作性を向上できる。また、第1制御部310の負荷を軽減できる。
また、第3センサーは、撮像センサーを含む。
したがって、スマートフォン300の位置を正確に検出できる。
また、スマートフォン300は、第3センサーの検出結果に基づいて、スマートフォン300が使用者の視野内にあるか否かを判定する判定部312を備え、調整部313は、判定部312の判定結果に応じて、座標軸AXの向きを調整する。
よって、スマートフォン300が使用者の視野内にあるか否かに応じて、調整部313による座標軸AXの向きの調整を実行するか否かを決定できる。したがって、使用者のタッチパネルの操作性を向上できる。また、第1制御部310の負荷を軽減できる。
また、スマートフォン300が使用者の視野内にあると判定部312が判定した場合に、調整部313は座標軸AXの向きを調整し、スマートフォン300が使用者の視野内にはないと判定部312が判定した場合に、調整部313は座標軸AXの向きの調整を規制する。
よって、スマートフォン300が使用者の視野内にあると判定部312が判定した場合に限って、調整部313は座標軸AXの向きを調整できる。したがって、使用者のタッチパネルの操作性を向上できる。また、第1制御部310の負荷を軽減できる。
[5.他の実施形態]
本発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、「情報処理装置」がスマートフォン300であるが、これに限定されない。「情報処理装置」は、使用者が携帯可能に構成され、HMD100を接続可能な接続部と、位置入力部と、制御部とを備えればよい。例えば、「情報処理装置」がPDA端末でもよいし、タブレット型パーソナルコンピューターでもよい。
また、上記実施形態では、第1センサーが磁気センサー352である場合について説明したが、本発明はこれに限定されない。第1センサーが加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含めばよい。例えば、第1センサーが6軸センサー351でもよい。
また、上記実施形態では、第2センサーが磁気センサー237である場合について説明したが、本発明はこれに限定されない。第2センサーが加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含めばよい。例えば、第1センサーが6軸センサー235でもよい。
また、上記実施形態では、第3センサーがカメラ61及び内側カメラ68である場合について説明したが、本発明はこれに限定されない。第3センサーがスマートフォン300の位置を検出すればよい。例えば、第3センサーがカメラ61でもよいし、第3センサーが内側カメラ68でもよい。
また、上記実施形態では、接続装置10が映像表示部20と有線接続される構成を例示したが、これに限定されず、接続装置10に対して映像表示部20が無線接続される構成であってもよい。
また、接続装置10が備える一部の機能を映像表示部20に設けてもよく、接続装置10を複数の装置により実現してもよい。例えば、接続装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。
また、上記実施形態では、映像表示部20と接続装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。これに限定されず、接続装置10と映像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。例えば、カメラ61により撮像する外景の画像と、表示画像とを合成した合成画像を映像表示部20により表示する構成とすれば、映像表示部20が外光を透過しなくても、使用者に外景と画像とを視認可能に表示できる。このような、いわゆるビデオシースルー型の表示装置に適用することも勿論可能である。
また、例えば、映像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、表示装置は、例えば、自動車や飛行機等の車両に搭載されるHMDとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。この場合には、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。これに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合には、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
更に、光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、第1制御部310が実行する制御プログラムは、不揮発性記憶部320又は第1制御部310内の他の記憶部に記憶されてもよい。また、外部の装置に記憶された制御プログラムを、通信部345等を介して取得して実行する構成としてもよい。
また、接続装置10に形成された構成が重複して映像表示部20に形成されていてもよい。例えば、接続装置10のプロセッサーと同様のプロセッサーが映像表示部20に配置されてもよいし、接続装置10が備えるプロセッサーと映像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。
また、図10及び図11に示すフローチャートの処理単位は、スマートフォン300の第1制御部310の処理を理解容易にするために、主な処理内容に応じて分割したものである。図10及び図11に示すフローチャートに示す処理単位の分割の仕方や名称によって実施形態が制限されることはない。また、第1制御部310の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、スマートフォン300の制御方法は、スマートフォン300が備えるコンピューターに、スマートフォン300の制御方法に対応した制御プログラムを実行させることで実現できる。また、この制御プログラムは、コンピューターで読み取り可能に記録した記録媒体に記録しておくことも可能である。記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disc)、Blu−ray(登録商標)Disc、光磁気ディスク、フラッシュメモリー、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、記録媒体は、画像表示装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。また、スマートフォン300の制御方法に対応した制御プログラムをサーバー装置等に記憶させておき、サーバー装置からスマートフォン300に、制御プログラムをダウンロードすることでスマートフォン300の制御方法を実現することもできる。
1…表示システム、10…接続装置、11、11A、11D…コネクター、13、14…輝度調整キー、15、16…音量調整キー、20…映像表示部(表示部)、21…右保持部、22…右表示部、23…左保持部、24…左表示部、26…右導光板、261…ハーフミラー、28…左導光板、281…ハーフミラー、40…接続ケーブル、46…USBケーブル、61…カメラ(第3センサーの一部)、68…内側カメラ(第3センサーの一部)、100…HMD(表示装置)、120…第2制御部、121…第2表示制御部、130…不揮発性記憶部、140…操作部、145…接続部、147…音声処理部、210…右表示部基板、221…OLEDユニット、230…左表示部基板、235…6軸センサー、237…磁気センサー(第2センサー)、241…OLEDユニット、249…電源部、300…スマートフォン(情報処理装置)、310…第1制御部、311…第1表示制御部、312…判定部、313…調整部、314…モード切換部、320…不揮発性記憶部、321…コンテンツデータ、331…表示パネル、332…タッチセンサー(位置入力部)、341…I/F部(接続部)、345…通信部、351…6軸センサー、352…磁気センサー(第1センサー)、AX…座標軸、MD1…第1モード、MD2…第2モード、PB…ポインターオブジェクト、PT…画像、TR…軌跡、V1、V2…移動量、θ、φ、ψ、ω、η…傾斜角。

Claims (13)

  1. 使用者の頭部に装着される表示装置と、前記表示装置が接続される情報処理装置とを備える表示システムであって、
    前記情報処理装置は、
    位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部と、
    前記位置入力部の向きを検出する第1センサーと、
    前記第1センサーの検出結果に基づいて、前記座標軸の向きを調整する調整部と、を備える、表示システム。
  2. 前記第1センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む、請求項1に記載の表示システム。
  3. 前記表示装置は、
    画像を表示する表示部と、
    前記表示部の向きを検出する第2センサーと、を備え、
    前記調整部は、前記第2センサーにより検出された向きに対応して、前記座標軸の向きを調整する、請求項1又は2に記載の表示システム。
  4. 前記第2センサーは、加速度センサー、ジャイロセンサー、及び地磁気センサーの少なくとも1つを含む、請求項3に記載の表示システム。
  5. 前記情報処理装置は、
    前記表示装置を接続可能な接続部と、
    前記位置入力部が検出した入力を前記座標軸における絶対座標での入力として受け付ける第1モードと、前記位置入力部が検出した入力を前記座標軸における相対座標での入力として受け付ける第2モードと、を実行可能であり、前記接続部に前記表示装置が接続されているか否かに応じて、前記第1モードと前記第2モードとを切り換えて実行するモード切換部と、を備える、請求項1から4のいずれか1項に記載の表示システム。
  6. 前記モード切換部は、前記接続部に前記表示装置が接続されてない場合には、前記第1モードを実行し、前記接続部に前記表示装置が接続されている場合には、前記第2モードを実行する、請求項5に記載の表示システム。
  7. 前記調整部は、前記座標軸の向きを段階的に調整する、請求項1から6のいずれか1項に記載の表示システム。
  8. 前記表示装置は、前記情報処理装置の位置を検出する第3センサーを備え、
    前記調整部は、前記第3センサーの検出結果に基づいて、前記座標軸の向きを調整する、請求項1から7のいずれか1項に記載の表示システム。
  9. 前記第3センサーは、撮像センサーを含む、請求項8に記載の表示システム。
  10. 前記情報処理装置は、前記第3センサーの検出結果に基づいて、前記情報処理装置が前記使用者の視野内にあるか否かを判定する判定部を備え、
    前記調整部は、前記判定部の判定結果に応じて、前記座標軸の向きを調整する、請求項8又は9に記載の表示システム。
  11. 前記情報処理装置が前記使用者の視野内にあると前記判定部が判定した場合に、前記調整部は前記座標軸の向きを調整し、前記情報処理装置が前記使用者の視野内にはないと前記判定部が判定した場合に、前記調整部は前記座標軸の向きの調整を規制する、請求項10に記載の表示システム。
  12. コンピューターを備え、使用者の頭部に装着される表示装置が接続される情報処理装置の制御プログラムであって、前記コンピューターを、
    位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部の向きを検出する検出部、及び、
    前記検出部の検出結果に基づいて、前記座標軸の向きを調整する調整部、として機能させる、制御プログラム。
  13. 使用者の頭部に装着される表示装置が接続される情報処理装置の制御方法であって、
    位置入力操作を受け付けて、設定された座標軸を基準とする操作位置の座標を検出する位置入力部の向きを検出する検出ステップと、
    前記検出ステップでの検出結果に基づいて、前記座標軸の向きを調整する調整ステップと、を含む、情報処理装置の制御方法。
JP2019021485A 2019-02-08 2019-02-08 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 Pending JP2020129263A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019021485A JP2020129263A (ja) 2019-02-08 2019-02-08 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
CN202010080418.3A CN111556310B (zh) 2019-02-08 2020-02-05 显示系统、记录介质以及信息处理装置的控制方法
US16/784,819 US10990197B2 (en) 2019-02-08 2020-02-07 Display system, control program for information processing device, and method for controlling information processing device
US17/211,911 US11520414B2 (en) 2019-02-08 2021-03-25 Display system, control program for information processing device, and method for controlling information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021485A JP2020129263A (ja) 2019-02-08 2019-02-08 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法

Publications (1)

Publication Number Publication Date
JP2020129263A true JP2020129263A (ja) 2020-08-27

Family

ID=71945170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021485A Pending JP2020129263A (ja) 2019-02-08 2019-02-08 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法

Country Status (3)

Country Link
US (2) US10990197B2 (ja)
JP (1) JP2020129263A (ja)
CN (1) CN111556310B (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710486B (zh) * 2009-11-15 2012-03-14 苏州佳世达电通有限公司 自动对准系统及方法、显示装置测试系统及方法
JP2015197694A (ja) 2014-03-31 2015-11-09 シャープ株式会社 携帯端末装置およびその制御方法
CN112764536A (zh) * 2015-03-05 2021-05-07 奇跃公司 用于增强现实的系统和方法
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
CN107199888A (zh) * 2016-03-18 2017-09-26 松下知识产权经营株式会社 姿势输入系统和姿势输入方法
US10509487B2 (en) * 2016-05-11 2019-12-17 Google Llc Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment
CN106155474A (zh) * 2016-06-15 2016-11-23 广州神马移动信息科技有限公司 显示视图控件动态效果的方法及装置
US10754496B2 (en) * 2017-08-24 2020-08-25 Microsoft Technology Licensing, Llc Virtual reality input
KR102374408B1 (ko) * 2017-09-08 2022-03-15 삼성전자주식회사 가상 현실에서의 포인터 제어 방법 및 전자 장치
US10996742B2 (en) * 2017-10-17 2021-05-04 Logitech Europe S.A. Input device for AR/VR applications
CN108153422B (zh) * 2018-01-08 2023-02-17 维沃移动通信有限公司 一种显示对象控制方法和移动终端
US11323556B2 (en) * 2018-01-18 2022-05-03 Samsung Electronics Co., Ltd. Electronic device and method of operating electronic device in virtual reality
CN108737642A (zh) * 2018-04-13 2018-11-02 维沃移动通信有限公司 内容的显示方法及装置

Also Published As

Publication number Publication date
US10990197B2 (en) 2021-04-27
US11520414B2 (en) 2022-12-06
US20210208701A1 (en) 2021-07-08
CN111556310B (zh) 2022-05-13
CN111556310A (zh) 2020-08-18
US20200257379A1 (en) 2020-08-13

Similar Documents

Publication Publication Date Title
CN110275297B (zh) 头部佩戴型显示装置、显示控制方法以及记录介质
US20180276898A1 (en) Transmissive display device, display control method, and computer program
JP7238456B2 (ja) 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
JP7243193B2 (ja) 表示システム、表示システムの制御方法、情報処理装置、及び情報処理装置の制御プログラム
US10567730B2 (en) Display device and control method therefor
JP2019128693A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
JP2017116562A (ja) 表示装置、表示装置の制御方法、及び、プログラム
US11353704B2 (en) Head mounted device (HMD) coupled to smartphone executing personal authentication of a user
US20210200284A1 (en) Image display device, power supply system, and power supply method for image display device
US11086441B2 (en) Information processing apparatus, method for controlling information processing apparatus, and control program for information processing apparatus
US11269188B2 (en) Display system, control program for information processing device, method for controlling information processing device, and display device
US11156841B2 (en) Display device, control program for display device, control method for display device, and display system
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
CN111556310B (zh) 显示系统、记录介质以及信息处理装置的控制方法
JP6623888B2 (ja) 表示システム、表示装置、頭部装着型表示装置、表示制御方法、表示装置の制御方法、及び、プログラム
JP2021057737A (ja) 表示システム、表示制御方法、および、プログラム
US20240027765A1 (en) Control device, control method for head-mounted display device, and program
JP2021047370A (ja) 表示装置、表示装置の制御方法、表示装置の制御プログラム、及び表示システム
JP6631299B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2021057747A (ja) 表示システム、画像表示装置、画像表示方法及びプログラム