JP2014147033A - Information input/output device and information input/output method - Google Patents

Information input/output device and information input/output method Download PDF

Info

Publication number
JP2014147033A
JP2014147033A JP2013015799A JP2013015799A JP2014147033A JP 2014147033 A JP2014147033 A JP 2014147033A JP 2013015799 A JP2013015799 A JP 2013015799A JP 2013015799 A JP2013015799 A JP 2013015799A JP 2014147033 A JP2014147033 A JP 2014147033A
Authority
JP
Japan
Prior art keywords
user
image
unit
hmd
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013015799A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013015799A priority Critical patent/JP2014147033A/en
Publication of JP2014147033A publication Critical patent/JP2014147033A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information input/output device and information input/output method for improving convenience.SOLUTION: An information input/output device includes: a mounting detection unit for detecting whether the device itself is being mounted close to the head of a user or on the head; a notification unit for notifying the user of an incoming call; and a control unit for controlling the notification unit so as to notify the user of an incoming call from the terminal of a communication partner by sound when it is discriminated that a silent mode for not outputting an incoming call sound by sound from the notification unit has been set on the basis of information indicating whether the silent mode has been set or not and also when the mounting detection unit has detected a fact that the device itself has being mounted close to the head of the user or on the head.

Description

本発明は、情報入出力装置、及び情報入出力方法に関する。   The present invention relates to an information input / output device and an information input / output method.

例えば、携帯電話機では、他の端末から着信があった場合、スピーカーから着信音を音により出力しないサイレントモードが設けられている。このサイレントモードの切り替えについて、例えば特許文献1では、基地局との通信に基づいて、ユーザーが電車に乗っているか否かを判定する。そして、特許文献1では、判定した結果に基づいて、サイレントモードを自動的にオン状態またはオフ状態に制御する。   For example, a cellular phone is provided with a silent mode that does not output a ringtone from a speaker when a call is received from another terminal. Regarding switching of the silent mode, for example, in Patent Document 1, it is determined whether or not the user is on a train based on communication with a base station. And in patent document 1, based on the determined result, silent mode is automatically controlled to an ON state or an OFF state.

特開2003−061153号公報JP 2003-0661153 A

しかしながら、特許文献1の技術では、着信音が鳴ってもユーザーの周囲に迷惑がかからない状況であってもサイレントモードがオン状態の場合、着信音がスピーカーから出力されない。従って、特許文献1の技術では、ユーザーが着信に気づかず、応答できないことがある。このように、特許文献1の技術は、ユーザーにとって利便性が悪いという問題があった。   However, in the technique of Patent Document 1, even when the ring tone sounds and the user is not disturbed, the ring tone is not output from the speaker when the silent mode is on. Therefore, in the technique of Patent Document 1, the user may not be able to respond without noticing the incoming call. As described above, the technique of Patent Document 1 has a problem that it is not convenient for the user.

本発明は、上記の事情に鑑み成されたものであって、利便性を向上する情報入出力装置、及び情報入出力方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an information input / output device and an information input / output method that improve convenience.

上記目的を達成するため、本発明の一態様に係る情報入出力装置は、自装置がユーザーの頭部近傍又は頭部へ装着されているか否かを検出する装着検出部と、着信を報知する報知部と、着信音を前記報知部から音により出力しないサイレントモードが設定されているか否かを示す情報に基づいて前記サイレントモードが設定されていると判別した場合、且つ前記装着検出部により自装置が前記ユーザーの頭部近傍又は頭部へ装着されていることが検出された場合、通信相手の端末からの着信を音により報知するように前記報知部を制御する制御部と、を備えることを特徴としている。   In order to achieve the above object, an information input / output device according to an aspect of the present invention notifies a wear detection unit that detects whether the device is worn in the vicinity of the user's head or on the head, and an incoming call. When it is determined that the silent mode is set based on the notification unit and information indicating whether or not the silent mode that does not output a ring tone from the notification unit by sound is set, and the attachment detection unit automatically A control unit that controls the notification unit so as to notify the incoming call from the terminal of the communication partner by sound when it is detected that the device is mounted near or on the head of the user. It is characterized by.

上記目的を達成するため、本発明の一態様に係る情報入出力方法は、情報入出力装置における情報入出力方法であって、装着検出部が、自装置がユーザーの頭部近傍または頭部へ装着されているか否かを検出する装着検出手順と、制御部が、着信音を報知部から音により出力しないサイレントモードが設定されているか否かを示す情報に基づいて前記サイレントモードが設定されていると判別した場合、且つ前記装着検出手順により自装置が前記頭部近傍または頭部へ装着されていることが検出された場合、通信相手の端末からの着信を音により報知するように前記報知部を制御する手順と、を含むことを特徴としている。   In order to achieve the above object, an information input / output method according to an aspect of the present invention is an information input / output method in an information input / output device, in which the wearing detection unit is connected to the vicinity of the user's head or the head. The silent mode is set on the basis of information indicating whether or not a wearing detection procedure for detecting whether or not the device is worn and a silent mode in which the control unit does not output a ring tone by sound from the notification unit is set. If it is determined that the apparatus is attached to the vicinity of the head or the head by the wearing detection procedure, the notification is made so that the incoming call from the communication partner terminal is notified by sound. And a procedure for controlling the unit.

本発明によれば、情報入出力装置は、利便性を向上することができる。   According to the present invention, the information input / output device can improve convenience.

第1実施形態のヘッドマウントディスプレイの斜視図である。It is a perspective view of the head mounted display of a 1st embodiment. 第1実施形態に係るディスプレイ本体とヘッドバンドを取り外した状態でのヘッドマウントディスプレイを背面側から見た斜視図である。It is the perspective view which looked at the head mounted display in the state where the display main part and headband concerning a 1st embodiment were removed from the back side. 第1実施形態に係るディスプレイ本体の水平断面図である。It is a horizontal sectional view of the display main part concerning a 1st embodiment. 第1実施形態に係るヘッドバンドの動作説明図である。It is operation | movement explanatory drawing of the headband which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。It is a figure which shows the mounting | wearing form (1st display mode) of the head mounted display which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。It is a perspective view which shows the stereo earphone attached to the head mounted display which concerns on 1st Embodiment. 第1実施形態に係る眼球照明ライトの点灯と消灯を説明する図である。It is a figure explaining lighting and extinction of the eyeball illumination light concerning a 1st embodiment. 第1実施形態に係る表示部の構成及び光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the structure and optical system of a display part which concern on 1st Embodiment. 第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。It is a figure explaining the difference of the display area in each of the 1st-3rd observation state. 第1観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 1st observation state. 第1観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 1st observation state. 第2観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 2nd observation state. 第2観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 2nd observation state. 第3観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 3rd observation state. 第3観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 3rd observation state. 眼の正面に表示部を配置して眼を含む周辺の画像を撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part in front of eyes and images the surrounding image containing eyes. 第1実施形態に係る眼の下側に表示部を配置して眼を下から撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part to the lower side of the eye which concerns on 1st Embodiment, and images an eye from the bottom. 第1実施形態に係る撮像素子の画角と選択範囲を説明する図である。It is a figure explaining the angle of view and selection range of the image sensor concerning a 1st embodiment. 第1実施形態に係る撮像領域と選択領域を説明する図である。It is a figure explaining the imaging area and selection area concerning a 1st embodiment. 第1実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。It is a figure explaining the mechanism which performs selection of the selection range concerning a 1st embodiment mechanically. 第1実施形態に係るヘッドマウントディスプレイの機能ブロック図である。It is a functional block diagram of the head mounted display concerning a 1st embodiment. 第1実施形態に係る処理部の機能ブロック図である。It is a functional block diagram of the process part which concerns on 1st Embodiment. 第1実施形態に係るHMDを含む通信システムのシステム構成図である。1 is a system configuration diagram of a communication system including an HMD according to a first embodiment. 第1実施形態に係るHMDの電源オン状態後に行う動作のフローチャートである。It is a flowchart of the operation | movement performed after the power supply state of HMD which concerns on 1st Embodiment. 第1実施形態に係る左右の眼の検出処理手順のフローチャートである。It is a flowchart of the detection process procedure of the right and left eyes which concerns on 1st Embodiment. 右眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the picked-up image of the imaging range S in the case of a right eye observation form. 左眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image of the imaging range S in the case of a left eye observation form. 左眼観察形態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in a left-eye observation form. 第1実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the HMD eyeball illumination light according to the first embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る右眼観察形態における眼球照明ライトの点灯、消灯を説明する図である。It is a figure explaining lighting and extinguishing of the eyeball illumination light in the right eye observation mode according to the first embodiment. 第1実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 1st Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第1実施形態に係るパスワード入力画面の一例である。It is an example of the password input screen which concerns on 1st Embodiment. 第1実施形態に係るメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen which concerns on 1st Embodiment. 第1実施形態に係るユーザーに入力を促す画面の一例である。It is an example of the screen which prompts the user who concerns on 1st Embodiment. 第1実施形態に係る視線入力のアプリケーションの画面の説明を行う図である。It is a figure explaining the screen of the application of the eyes | visual_axis input which concerns on 1st Embodiment. 第1実施形態に係るHMDを用いた乗り物検出処理の手順のフローチャートである。It is a flowchart of the procedure of the vehicle detection process using HMD which concerns on 1st Embodiment. 第1実施形態に係るHMDを用いた乗り物検出処理の手順のフローチャートである。It is a flowchart of the procedure of the vehicle detection process using HMD which concerns on 1st Embodiment. 第1実施形態に係るサイレントモード処理の手順のフローチャートである。It is a flowchart of the procedure of the silent mode process which concerns on 1st Embodiment. 第1実施形態に係るサイレントモード処理の手順のフローチャートである。It is a flowchart of the procedure of the silent mode process which concerns on 1st Embodiment. 第1実施形態に係る言語の選択メニュー画面の一例である。4 is an example of a language selection menu screen according to the first embodiment. 第1実施形態に係る応答選択メニューの画像を示す図である。It is a figure which shows the image of the response selection menu which concerns on 1st Embodiment. 第1実施形態に係る指差しによる項目選択が行われているときに表示パネルに表示される画像の一例を説明する図である。It is a figure explaining an example of the image displayed on a display panel when the item selection by the pointing which concerns on 1st Embodiment is performed. 第2実施形態に係るヘッドマウントディスプレイ(第2表示モード、待避モード)の装着形態を示す図である。It is a figure which shows the mounting | wearing form of the head mounted display (2nd display mode, save mode) which concerns on 2nd Embodiment. 第2実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 2nd Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第2実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the eyeball illumination light of HMD which concerns on 2nd Embodiment. 第3実施形態に係る光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the optical system which concerns on 3rd Embodiment. 第3実施形態に係る観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range which concern on 3rd Embodiment.

本発明に係るヘッドマウントディスプレイは、自装置がユーザーの頭部に装着されているかもしくは近傍にある場合に、着信音を報知部から音により出力しないサイレントモードが設定されている場合且つ装着検出部により自装置が前記ユーザーの頭部近傍又は頭部へ装着されていることが検出された場合、通信相手の端末からの着信を報知部から音により報知するように制御する。これにより、本発明に係るヘッドマウントディスプレイは、ユーザーに情報を報知することができる。
以下、情報入出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
The head mounted display according to the present invention includes a case where a silent mode in which a ring tone is not output from a notification unit by sound is set when the device is mounted on or near the user's head and the mounting detection unit When it is detected that the user's own device is attached to the vicinity of the user's head or to the head, control is performed so as to notify the incoming call from the communication partner terminal by sound from the notification unit. Thereby, the head mounted display which concerns on this invention can alert | report information to a user.
Hereinafter, an example in which the information input / output device is applied to a head mounted display will be described, but the present invention is not limited to this.

以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ、ヘッドマウントディスプレイの各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, an XYZ rectangular coordinate system is set as necessary, and the positional relationship of each part of the head mounted display will be described with reference to the XYZ rectangular coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.

[第1実施形態]
図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)1の斜視図である。図2は、本実施形態に係るディスプレイ本体とヘッドバンドを取り外した状態でのヘッドマウントディスプレイ1を背面側から見た斜視図である。図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。
[First Embodiment]
FIG. 1 is a perspective view of a head mounted display (head mounted device, hereinafter also referred to as HMD) 1 according to the present embodiment. FIG. 2 is a perspective view of the head mounted display 1 as viewed from the back side in a state in which the display main body and the headband according to the present embodiment are removed. FIG. 3 is a horizontal sectional view of the display main body 20 according to the present embodiment. FIG. 4 is an explanatory diagram of the operation of the headband according to the present embodiment. FIG. 5 is a diagram illustrating a mounting mode (first display mode) of the head mounted display according to the present embodiment.

HMD1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のHMD1は、図5に示すように、両眼どちらでも使用可能である。図5(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図5(B)には左眼(左目)で見ている状態が示されている。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The HMD 1 is a monocular head mounted display that includes a display main body 20 and a headband 40 that is attached to the user's head and supports the display main body 20. The HMD 1 of the present embodiment can be used with either eye as shown in FIG. FIG. 5A shows a state where the user is viewing the display unit 60 with the right eye (right eye), and FIG. 5B shows a state where the user is viewing with the left eye (left eye).
As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41. 1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.

以下、HMD1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the HMD 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.

装置本体部21は、概略板状の筐体21A(図3参照)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。   The apparatus main body 21 has a substantially plate-shaped casing 21A (see FIG. 3). In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.

装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34(第2センサー)と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34 (second sensor), and a sound collecting microphone 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A. Yes.
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the HMD 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.

装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23(報知部)と、オーディオコネクター26(報知部)と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137(第2センサー)が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。   As shown in FIG. 2, an ear speaker 23 (notification unit), an audio connector 26 (notification unit), and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. ing. A heart rate sensor 137 (second sensor) is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.

耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば、図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。   The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is, for example, an audio input / output terminal to which the earphone shown in FIG. 6 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.

心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの眼の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。   The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the infrared light is emitted from the light emitting unit, the user will not feel glare.

装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30(第2センサー)と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30 (second sensor), and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In this embodiment, for example, a remote controller (not shown) is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.

図3に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。   As shown in FIG. 3, the apparatus main body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).

装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。   A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。   The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.

ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図5(A)に示す右眼で画像を観察する形態と、図5(B)に示す左眼で画像を観察する形態との切替機能が実現される。   By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a form in which an image is observed with the right eye shown in FIG. 5A and a form in which an image is observed with the left eye shown in FIG. 5B is realized.

またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの眼や耳に対する位置を調整することができる。   Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.

ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。   The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can be brought into contact with the surface of the user's face when the HMD 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。また、図2に示すように、ファインダー開口部67の形状は、長方形である。
表示部60の筐体面には、眼球照明ライト166a〜166dが、ファインダー開口部67の近傍に備えられている。図2では、眼球照明ライト166a及び166bは、ファインダー開口部67の長辺の一方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。また、眼球照明ライト166c及び166dは、ファインダー開口部67の長辺の他方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。
As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60. Moreover, as shown in FIG. 2, the shape of the finder opening 67 is a rectangle.
On the housing surface of the display unit 60, eyeball illumination lights 166 a to 166 d are provided in the vicinity of the finder opening 67. In FIG. 2, the eyeball illumination lights 166 a and 166 b are provided at positions along one of the long sides of the finder opening 67 and in the vicinity of the corner of the finder opening 67. The eyeball illumination lights 166 c and 166 d are provided along the other of the long sides of the finder opening 67 and near the corner of the finder opening 67.

眼球照明ライト166a〜166dは、例えば赤外線の波長領域の光を放射するLED(発光ダイオード)である。眼球照明ライト166a〜166dは、ユーザーと表示部60との位置関係に応じて、点灯または消灯される。以下では、眼球照明ライト166a〜166dを、眼球照明ライト166と総称する。   The eyeball illumination lights 166a to 166d are, for example, LEDs (light emitting diodes) that emit light in the infrared wavelength region. The eyeball illumination lights 166a to 166d are turned on or off according to the positional relationship between the user and the display unit 60. Hereinafter, the eyeball illumination lights 166a to 166d are collectively referred to as an eyeball illumination light 166.

図3に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   As shown in FIG. 3, the display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面21aに、傾斜面21aの法線方向(図3のY’軸方向)に突出するようにして設けられている。   The spherical portion 61b of the apparatus main body 21 has a normal direction of the inclined surface 21a (in FIG. 3) to an inclined surface 21a extending obliquely with respect to the longitudinal direction of the casing 21A formed at the outer surface tip of the apparatus main body 21. It is provided so as to protrude in the Y′-axis direction).

表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の傾斜面21aに設けられており、表示部60が内側に湾曲した形状を有している。   The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. In the present embodiment, the display hinge 61 is provided on the inclined surface 21a of the apparatus main body 21, and the display unit 60 has a shape curved inward.

また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。   Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis. This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

表示部60の内部には、バックライト62(報知部)と、表示パネル63(報知部)と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70(報知部)と、結像レンズ71と、撮像素子72(第1センサー、撮像部)とが設けられている。なお、表示部60の光学系の構成については、後述する。   Inside the display unit 60 are a backlight 62 (informing unit), a display panel 63 (informing unit), a camera 64, a prism 65, a reflecting mirror 66, a front light 68, and a front speaker 70 (informing unit). ), An imaging lens 71, and an imaging element 72 (first sensor, imaging unit). The configuration of the optical system of the display unit 60 will be described later.

カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。カメラ64は、その撮像素子の受光面に結像した画像(光学像)を撮像する。カメラ64は、例えば、ユーザーにとっての正面方向を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。   The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation. The camera 64 captures an image (optical image) formed on the light receiving surface of the image sensor. For example, the camera 64 can capture the front direction for the user. Note that the captured image may be signal-processed in either a moving image format or a still image format.

前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮像する。撮像素子72は、例えば、ユーザーの顔を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
The image sensor 72 captures an image (optical image) formed on the light receiving surface. The image sensor 72 can image a user's face, for example. Note that the captured image may be signal-processed in either a moving image format or a still image format.

また、図3では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。   Although not shown in FIG. 3, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.

次に、ヘッドバンド40について、図2及び図4を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIGS.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。   The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.

また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。   In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。   The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.

ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。   The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.

この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。   With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.

次に、以上の構成を備えたHMD1におけるヘッドバンドの動作等について、図4、図5を参照しつつ説明する。以下、ユーザーにとっての右側を「ユーザーの右側」と称する。また、ユーザーにとっての左側を「ユーザーの左側」と称する。また、ユーザーにとっての上側を「ユーザーの上側」と称する。また、ユーザーにとっての下側を「ユーザーの下側」と称する。また、ユーザーにとっての時計回り方向を「時計回り方向」と称する。また、ユーザーにとっての反時計回り方向を「反時計回り方向」と称する。   Next, the operation of the headband in the HMD 1 having the above configuration will be described with reference to FIGS. Hereinafter, the right side for the user is referred to as “the right side of the user”. Further, the left side for the user is referred to as “the left side of the user”. The upper side for the user is referred to as “the upper side of the user”. Further, the lower side for the user is referred to as “the lower side of the user”. The clockwise direction for the user is referred to as “clockwise direction”. Further, the counterclockwise direction for the user is referred to as “counterclockwise direction”.

図5に示したように、本実施形態のHMD1は、図5(A)に示す右眼観察形態と、図5(B)に示す左眼観察形態を切り替えて使用することができる。ここで、右眼観察形態とは、ユーザーが右眼で表示部60を観察する形態である。また、左眼観察形態とは、ユーザーが左眼で表示部60を観察する形態である。以下、図5(A)及び図5(B)示した形態、すなわち、ユーザーから見てファインダー開口部67が横長に配置される形態を、第1表示モードと称する。   As shown in FIG. 5, the HMD 1 of the present embodiment can be used by switching between the right-eye observation form shown in FIG. 5A and the left-eye observation form shown in FIG. Here, the right-eye observation form is a form in which the user observes the display unit 60 with the right eye. The left-eye observation form is a form in which the user observes the display unit 60 with the left eye. Hereinafter, the form shown in FIGS. 5A and 5B, that is, the form in which the finder opening 67 is arranged horizontally when viewed from the user is referred to as a first display mode.

例えば、右眼観察形態から左眼観察形態へ切り替えるには、まず、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32(図2を参照)の回転軸回り(図5では、A方向)に180°程度回転させる。さらに、ヘッドバンド40において、回動機構56及び57(図4を参照)の軸回りに第2ヘッドバンド44を揺動させることで、第2ヘッドバンド44の位置と第1ヘッドバンド43の位置との前後関係を入れ替える。この操作により、図5(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、且つ、第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に、HMD1は切り替えられる。   For example, to switch from the right-eye observation mode to the left-eye observation mode, first, the display body 20 connected to the headband 40 is moved around the rotation axis of the headband hinge 32 (see FIG. 2) (A in FIG. 5). Direction). Further, in the headband 40, the position of the second headband 44 and the position of the first headband 43 are obtained by swinging the second headband 44 around the axes of the rotation mechanisms 56 and 57 (see FIG. 4). Swap the context. By this operation, as shown in FIG. 5B, the left-eye observation form in which the display main body 20 is arranged on the left eye side of the user and the second headband 44 is arranged on the occipital side of the user is performed. Can be switched.

右眼観察形態では、右眼の近傍にある眼球照明ライト166a及び166bが点灯し、眼球照明ライト166c及び166dが消灯する。一方、左眼観察形態では、左眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   In the right-eye observation mode, the eyeball illumination lights 166a and 166b in the vicinity of the right eye are turned on, and the eyeball illumination lights 166c and 166d are turned off. On the other hand, in the left-eye observation mode, the eyeball illumination lights 166c and 166d in the vicinity of the left eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

本実施形態では、図4に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
In the present embodiment, as shown in FIG. 4, the arc height r <b> 1 of the first headband 43 is smaller than the arc height r <b> 2 of the second headband 44. As a result, even if the second headband 44 is moved so as to intersect the first headband 43, the front and rear can be switched smoothly without interfering with each other.
The arc height r1 shown in FIG. 4 is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanisms 56 and 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44.

なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。   The arc height r1 of the first headband 43 may be larger than the arc height r2 of the second headband 44, and the second headband 44 may be swung inside the first headband 43.

図6は、本実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 6 is a perspective view showing a stereo earphone attached to the head mounted display according to the present embodiment.
Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。   The stereo earphone 100 is used by connecting the connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.

ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。   The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.

また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図5(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 5A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user.
In the right-eye observation mode, the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.

一方、図5(B)に示すようにユーザーの左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。左眼観察形態では、ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。   On the other hand, when the display main body 20 is arranged on the left eye side of the user as shown in FIG. 5B, the sound collecting microphone 24 of the display main body 20 collects the sound on the left side of the user and puts it in the right ear. The attached sound collecting microphone 105 collects sound on the right side of the user. In the left-eye observation mode, left channel sound is output from the first speaker 103 of the stereo earphone 100, and right channel sound is output from the second speaker 104.

次に、眼球照明ライト166a〜166dの点灯と消灯について説明する。
図7は、本実施形態に係る眼球照明ライト166の点灯と消灯を説明する図である。図7(A)は、右眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(B)は、左眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(A)及び図7(B)において、ユーザーの顔の正面方向を、HZと表記する。
Next, lighting and extinguishing of the eyeball illumination lights 166a to 166d will be described.
FIG. 7 is a diagram for explaining turning on and off of the eyeball illumination light 166 according to the present embodiment. FIG. 7A is a diagram for explaining turning on and off of the eyeball illumination light 166 in the right-eye observation mode. FIG. 7B is a diagram for explaining turning on and off of the eyeball illumination light 166 in the left-eye observation mode. In FIG. 7A and FIG. 7B, the front direction of the user's face is denoted as HZ.

図7(A)に示した例では、表示部60は、右眼の斜め下に配置されている。また、正面方向HZと表示部60の画面の法線とは、角度αを成している。HMD1は、眼球照明ライト166a〜166dのうち、ユーザーの眼に近い側の眼球照明ライトを選択し、選択した眼球照明ライトを点灯させる。一方、HMD1は、選択した以外の眼球照明ライト、すなわち、ユーザーの眼から遠い側の眼球照明ライトを消灯させる。   In the example shown in FIG. 7A, the display unit 60 is disposed obliquely below the right eye. Further, the front direction HZ and the normal line of the screen of the display unit 60 form an angle α. The HMD 1 selects an eyeball illumination light on the side close to the user's eye among the eyeball illumination lights 166a to 166d, and turns on the selected eyeball illumination light. On the other hand, the HMD 1 turns off the eyeball illumination lights other than the selected one, that is, the eyeball illumination lights far from the user's eyes.

図7(A)では、眼球照明ライト166a及び166bは、正面方向HZから角度α1だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α2だけ下側に配置されている。ここで、角度α1は、角度αより小さく、角度α2は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの右眼の近くに配置されている。   In FIG. 7A, the eyeball illumination lights 166a and 166b are disposed below the front direction HZ by an angle α1. On the other hand, the eyeball illumination lights 166c and 166d are arranged at an angle α2 below the front direction HZ. Here, the angle α1 is smaller than the angle α, and the angle α2 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's right eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166a及び166bを点灯させ、且つ、眼球照明ライト166c及び166dを消灯させる。この点灯状態で、撮像素子72は、ユーザーの右眼の周りを撮像する。以下、ユーザーの右眼の周りが撮像された画像を、「右眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166a and 166b and turns off the eyeball illumination lights 166c and 166d. In this lighting state, the image sensor 72 images around the right eye of the user. Hereinafter, an image captured around the right eye of the user is referred to as a “right eye peripheral image”.

なお、右眼の周辺画像には、右眼の画像、右眉毛の画像、顔の一部(頭、髪の毛等)の画像が含まれてもよい。また、左眼の周辺画像には、左眼の画像、左眉毛の画像、顔の一部(頭、髪の毛等)が含まれてもよい。以下、右眼の周辺画像、及び左眼の周辺画像を、「眼の周辺画像」と総称する。   The peripheral image of the right eye may include an image of the right eye, an image of the right eyebrow, and an image of a part of the face (head, hair, etc.). The peripheral image of the left eye may include a left eye image, a left eyebrow image, and a part of the face (head, hair, etc.). Hereinafter, the peripheral image of the right eye and the peripheral image of the left eye are collectively referred to as “eye peripheral image”.

図7(A)に示した例では、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dは、ユーザーの頬が邪魔になり、ユーザーの右眼を照明できないこともある。したがって、HMD1は、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7A, the eyeball illumination lights 166c and 166d far from the user's right eye may not be able to illuminate the user's right eye due to the user's cheek getting in the way. Therefore, the HMD 1 turns off the eyeball illumination lights 166c and 166d far from the user's right eye. Thereby, HMD1 can reduce power consumption.

一方、図7(B)では、眼球照明ライト166c及び166dは、正面方向HZから角度α3だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α4だけ下側に配置されている。ここで、角度α3は、角度αより小さく、角度α4は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの左眼の近くに配置されている。   On the other hand, in FIG. 7B, the eyeball illumination lights 166c and 166d are arranged on the lower side by an angle α3 from the front direction HZ. On the other hand, the eyeball illumination lights 166c and 166d are disposed at an angle α4 below the front direction HZ. Here, the angle α3 is smaller than the angle α, and the angle α4 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's left eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166c及び166dを点灯させ、且つ、眼球照明ライト166a及び166bを消灯させる。この点灯状態で、撮像素子72は、ユーザーの左眼の周りを撮像する。以下、ユーザーの左眼の周りが撮像された画像を、「左眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166c and 166d and turns off the eyeball illumination lights 166a and 166b. In this lighting state, the image sensor 72 images around the left eye of the user. Hereinafter, an image in which the periphery of the user's left eye is captured is referred to as a “left eye peripheral image”.

図7(B)に示した例では、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bは、ユーザーの頬が邪魔になり、ユーザーの左眼を照明できないこともある。したがって、HMD1は、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7B, the eyeball illumination lights 166a and 166b far from the user's left eye may not be able to illuminate the user's left eye due to the user's cheek getting in the way. Accordingly, the HMD 1 turns off the eyeball illumination lights 166a and 166b on the side far from the user's left eye. Thereby, HMD1 can reduce power consumption.

つまり、HMD1は、ユーザーの眼と表示部60との位置関係に応じて、眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照明することができる眼球照明ライトを点灯させ、それ以外の眼球照明ライトを消灯させる。   In other words, the HMD 1 turns on an eyeball illumination light that can illuminate the user's eyes from the front, among the eyeball illumination lights 166a to 166d, according to the positional relationship between the user's eyes and the display unit 60. Turn off the eyeball illumination light.

次に、表示部60の構成及び光学系を説明する。
図8は、本実施形態に係る表示部60の構成及び光学系を説明するための表示部60の断面図である。図8に示すように、本実施形態の表示部60は、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75を含んで構成されている。図8において、符号H、I、J、K、L、M、Nは、各々、光線を表す。
Next, the configuration of the display unit 60 and the optical system will be described.
FIG. 8 is a cross-sectional view of the display unit 60 for explaining the configuration and optical system of the display unit 60 according to the present embodiment. As shown in FIG. 8, the display unit 60 of the present embodiment includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, and an image sensor. 72 and a quarter wavelength plate 75. In FIG. 8, symbols H, I, J, K, L, M, and N each represent a light beam.

まず、表示部60の構成を説明する。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
First, the configuration of the display unit 60 will be described.
The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.

第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。   Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.

次に、表示部60の光学系を説明する。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72による眼の周辺画像を撮像する際の補助照明としても利用されてもよい。
Next, the optical system of the display unit 60 will be described.
In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. Further, the image looking at the viewfinder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71.
The captured image acquired via the image sensor 72 is used for analysis of the direction of the user's line of sight, blinking, facial expression, and posture of the display unit 60. The captured image includes a peripheral image of the eye. Note that the backlight 62 may also be used as auxiliary illumination when an image around the eye is captured by the image sensor 72.

バックライト62が照射した光は、表示パネル63を透過して、第1プリズム65aに入射される。このとき、表示パネル63の液晶の特性上、バックライト62が照射した光が偏光され、偏光された光線HのS偏光が第1プリズム65aに入射される。   The light emitted from the backlight 62 passes through the display panel 63 and enters the first prism 65a. At this time, due to the characteristics of the liquid crystal of the display panel 63, the light irradiated by the backlight 62 is polarized, and the S-polarized light of the polarized light beam H is incident on the first prism 65a.

光線Hは、第1プリズム65aの裏面65dに設けられた空気層の影響により全反射し、光線Iとして第1プリズム65aと第2プリズム65bの接合面65cに入射する。ここで2つのプリズムの接合面65cには、S偏光が反射し、P偏光が透過する偏光反射膜が蒸着されている。ここで、光線Hは、S偏光であるため、接合面65cで反射して光線Jとなる。光線Jは、裏面65dに入射角0度で入射されるため、裏面65dを透過して1/4波長板75に入射される。   The light beam H is totally reflected by the influence of the air layer provided on the back surface 65d of the first prism 65a, and enters the joint surface 65c of the first prism 65a and the second prism 65b as the light beam I. Here, a polarizing reflection film that reflects S-polarized light and transmits P-polarized light is deposited on the joint surface 65c of the two prisms. Here, since the light ray H is S-polarized light, it is reflected by the joint surface 65c to become a light ray J. Since the light beam J is incident on the back surface 65d at an incident angle of 0 degree, it passes through the back surface 65d and enters the quarter-wave plate 75.

光線Jは、空気層を通った後に1/4波長板75を透過することで、進行方向に対して右回りの円偏光となる。そして反射ミラー66で反射した光線Kは、反射によって左回りの円偏光となる。そして、光線Kは、1/4波長板75を再び透過し、P偏光となる。
光線Kは、P偏光に変換されたため、接合面65cを透過できるので、ファインダー開口部67を通過できる。このような構成により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越に観察できる。
The light beam J passes through the quarter-wave plate 75 after passing through the air layer, and becomes circularly polarized light clockwise with respect to the traveling direction. The light beam K reflected by the reflecting mirror 66 becomes counterclockwise circularly polarized light by reflection. Then, the light K passes through the quarter-wave plate 75 again and becomes P-polarized light.
Since the light K has been converted to P-polarized light, it can pass through the joint surface 65c, and thus can pass through the finder opening 67. With such a configuration, the user can observe the image data displayed on the display panel 63 through the viewfinder opening 67.

一方、ファインダー開口部67から入射した光線Lは、接合面65cで反射してS偏光の光線Mに変換される。光線Mは、第2プリズム65bにおける前面65eの空気層で全反射して光線Nになる。光線Nは、結像レンズ71により集光され、集光した光線Nが撮像素子72に入射する。このような構成により、ユーザーの眼の前面に、ファインダー開口部67が配置された場合、撮像素子72には、ユーザーの眼の周辺画像(光学像)が結像する。   On the other hand, the light beam L incident from the finder opening 67 is reflected by the joint surface 65c and converted into an S-polarized light beam M. The light ray M is totally reflected by the air layer on the front surface 65e of the second prism 65b to become a light ray N. The light beam N is collected by the imaging lens 71, and the collected light beam N enters the image sensor 72. With such a configuration, when the finder opening 67 is disposed in front of the user's eye, a peripheral image (optical image) of the user's eye is formed on the image sensor 72.

次に、右眼観察形態で、ファインダー開口部67を介してユーザーが観察する画像と、撮像素子72により撮像される画像とについて説明する。
なお、図10、図13及び図15では、光学的に等価になるように、反射ミラー66(図8を参照)は、凸レンズに置き換えられている。また、図10、図13、及び図15において、一点鎖線CTは、結像レンズ71の光軸を表している。
Next, an image observed by the user through the finder opening 67 and an image captured by the image sensor 72 in the right-eye observation mode will be described.
In FIGS. 10, 13, and 15, the reflecting mirror 66 (see FIG. 8) is replaced with a convex lens so as to be optically equivalent. 10, 13, and 15, the alternate long and short dash line CT represents the optical axis of the imaging lens 71.

以下、表示部60が、ユーザーの眼から所定距離内に配置されている状態を、「第1観察状態」という。
図9は、第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。第1観察状態では、表示部60がユーザーの眼から所定距離内に配置されているので、表示パネル63の全表示領域は、ユーザーから観察可能である。したがって、表示パネル63は、この全表示領域に画像を表示させることができる。すなわち、表示パネル63の全表示領域が、表示領域Sとなる。
Hereinafter, a state in which the display unit 60 is disposed within a predetermined distance from the user's eyes is referred to as a “first observation state”.
FIG. 9 is a diagram for explaining a difference in display area in each of the first to third observation states. In the first observation state, since the display unit 60 is disposed within a predetermined distance from the user's eyes, the entire display area of the display panel 63 can be observed by the user. Therefore, the display panel 63 can display an image in the entire display area. That is, the entire display area of the display panel 63 becomes the display area S.

以下、表示領域Sの横の長さを、Swと表記する。また。表示領域Sの縦の長さを、Shと表記する。また、以下では、一例として、Swは800画素、Shは600画素として説明を続ける。また、表示領域Tの縦の長さを、Thと表記する。また、表示領域Tの横の長さを、Twと表記する。また、表示領域Uの縦の長さを、Uhと表記する。また、表示領域Uの横の長さを、Uwと表記する。   Hereinafter, the horizontal length of the display area S is expressed as Sw. Also. The vertical length of the display area S is expressed as Sh. In the following description, as an example, the description will be continued assuming that Sw is 800 pixels and Sh is 600 pixels. In addition, the vertical length of the display area T is expressed as Th. Further, the horizontal length of the display area T is denoted as Tw. Further, the vertical length of the display area U is denoted as Uh. Further, the horizontal length of the display area U is denoted as Uw.

図10は、第1観察状態における観察範囲と撮像範囲を説明する図である。観察範囲67aにユーザーの眼がある場合、ファインダー開口部67を介して、ユーザーは、表示パネル63の全表示領域に相当する表示領域Sを観察することができる。また、観察範囲67aは、反射ミラー66(図10では、凸レンズ)の光軸上では、ファインダー開口部67から距離Pまでの範囲にある。一方、撮像素子72が撮影することができる撮影範囲67cは、観察範囲67aを含んでいる。つまり、撮像素子72は、観察範囲67aにユーザーの眼がない場合でも、撮影範囲67cにユーザーの眼があれば、ユーザーの眼を眉毛なども含めて撮像することができる。   FIG. 10 is a diagram illustrating the observation range and the imaging range in the first observation state. When the user's eyes are in the observation range 67 a, the user can observe the display area S corresponding to the entire display area of the display panel 63 through the finder opening 67. The observation range 67a is in the range from the finder opening 67 to the distance P on the optical axis of the reflection mirror 66 (convex lens in FIG. 10). On the other hand, the imaging range 67c that can be imaged by the imaging device 72 includes an observation range 67a. That is, even when the user's eyes are not in the observation range 67a, the imaging element 72 can capture the user's eyes including eyebrows if the user has the eyes in the shooting range 67c.

図11は、第1観察状態における撮像画像の一例を説明する図である。図11の略中心には、撮像素子72によりユーザーの眼が撮像されている。この場合、図7(A)を用いて説明したように、眼球照明ライト166a及び166bが点灯している。右眼観察形態の場合、図11における+Z側が鉛直上方向、−Z側が鉛直下方向、+X側がユーザーの左側、−X側がユーザーの右側となる。なお、左眼観察形態の場合、表示部60が180度反転されているので、右眼観察形態と比較して、眼の周辺画像は左右上下が反転することになる。   FIG. 11 is a diagram illustrating an example of a captured image in the first observation state. In the approximate center of FIG. 11, the eye of the user is imaged by the imaging element 72. In this case, as described with reference to FIG. 7A, the eyeball illumination lights 166a and 166b are turned on. In the case of the right eye observation mode, the + Z side in FIG. 11 is the vertically upward direction, the −Z side is the vertically downward direction, the + X side is the left side of the user, and the −X side is the right side of the user. In the case of the left-eye observation form, the display unit 60 is inverted 180 degrees, so that the peripheral image of the eye is inverted horizontally and vertically as compared with the right-eye observation form.

図11において、符号601Rは、右眼の画像を示す符号であり、符号602Rは、右眉毛の画像を示す符号である。符号604Aは、眼球照明ライト166a(図2を参照)による輝点の画像を示す符号であり、符号604Bは、眼球照明ライト166b(図2を参照)による輝点の画像を示す符号である。また、符号L41は、X軸方向におけるユーザーの眼の幅を示す符号である。例えば、第1観察状態において、撮像素子72の解像度が、横方向(X軸方向)に640画素である場合、画像における眼の幅L41は、350画素程度である。   In FIG. 11, reference numeral 601 </ b> R indicates a right eye image, and reference numeral 602 </ b> R indicates a right eyebrow image. Reference numeral 604A represents a bright spot image by the eyeball illumination light 166a (see FIG. 2), and reference numeral 604B represents a bright spot image by the eyeball illumination light 166b (see FIG. 2). Reference sign L41 is a sign indicating the width of the user's eyes in the X-axis direction. For example, when the resolution of the image sensor 72 is 640 pixels in the horizontal direction (X-axis direction) in the first observation state, the eye width L41 in the image is about 350 pixels.

図11では、ユーザーの眼と眉毛の距離が幅L41以下なので、撮像画像には、適切な範囲が撮像されているといえる。このように、ユーザーの眼を下側から撮影することは、有効である。
このように、第1観察状態では、ユーザーが正面を見る際、ファインダー開口部67が邪魔にならない。また、後述するように、第1観察状態では、撮像素子72による撮像画像に撮像された眉毛、目元及び眼球の動きに基づいて、HMD1は、ユーザーの視線方向を検出することができる。
In FIG. 11, since the distance between the user's eyes and eyebrows is equal to or smaller than the width L41, it can be said that an appropriate range is captured in the captured image. Thus, it is effective to photograph the user's eyes from below.
Thus, in the first observation state, the finder opening 67 does not get in the way when the user looks at the front. As will be described later, in the first observation state, the HMD 1 can detect the user's line-of-sight direction based on the movements of the eyebrows, the eyes, and the eyeballs captured in the image captured by the image sensor 72.

以下、ユーザーの眼が、第1観測状態と比較して表示部60から離れている状態を、「第2観察状態」という。
次に、第2観察状態について、図9、図12、及び図13を用いて説明する。
Hereinafter, a state in which the user's eyes are separated from the display unit 60 as compared with the first observation state is referred to as a “second observation state”.
Next, a 2nd observation state is demonstrated using FIG.9, FIG12 and FIG.13.

図12は、第2観察状態における撮像画像の一例を説明する図である。符号601R1は、右眼の画像を示す符号であり、符号602R1は、右眉毛の画像を示す符号である。符号604Cは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Dは、眼球照明ライト166bによる輝点の画像を示す符号である。また、符号L71は、X軸方向におけるユーザーの眼の幅を示す符号である。
第2観察状態では、ユーザーの眼が表示部60から離れているので、第1観察状態よりも、ユーザーの眼の画像が小さく撮像される。撮像画像におけるユーザーの眼の幅L71が、第1観察状態におけるユーザーの眼の幅L41以下(例えば、300画素以下)である場合、HMD1は、ユーザーが表示部60から眼を離していると判定する。
FIG. 12 is a diagram illustrating an example of a captured image in the second observation state. Reference numeral 601R1 represents a right eye image, and reference numeral 602R1 represents a right eyebrow image. Reference numeral 604C represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604D represents a bright spot image by the eyeball illumination light 166b. Reference sign L71 is a sign indicating the width of the user's eyes in the X-axis direction.
In the second observation state, since the user's eyes are separated from the display unit 60, an image of the user's eyes is captured smaller than in the first observation state. When the width L71 of the user's eye in the captured image is equal to or smaller than the width L41 of the user's eye in the first observation state (for example, 300 pixels or less), the HMD 1 determines that the user is taking his eyes off the display unit 60. To do.

図13は、第2観察状態における観察範囲と撮像範囲を説明する図である。図13では、ユーザーの眼eyeは、反射ミラー66(図13では、凸レンズ)の光軸上で、ファインダー開口部67から距離P以上距離P2以内の位置に在り、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無い。このため、ユーザーは、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 13 is a diagram illustrating an observation range and an imaging range in the second observation state. In FIG. 13, the user's eye is located on the optical axis of the reflection mirror 66 (convex lens in FIG. 13) at a position within the distance P2 from the finder opening 67 and within the distance P2, and the observation range 67b in the first observation state. There is no distance (within the distance P from the finder opening 67 on the optical axis). For this reason, the user can observe only a part of the display area S (see FIG. 9).

そこで、第2観察状態では、HMD1は、縮小率ηで縮小した画像を、表示領域T(図9を参照)に表示させる。第2観察状態において、表示領域Tに表示される画像の縮小率η(第1観察状態との比率)は、次式(1)により示される。   Therefore, in the second observation state, the HMD 1 displays an image reduced at the reduction rate η in the display area T (see FIG. 9). In the second observation state, the reduction rate η (ratio with the first observation state) of the image displayed in the display region T is expressed by the following equation (1).

η = L71/L41 ・・・(1)   η = L71 / L41 (1)

例えば、ユーザーの眼の幅L41(図11を参照)が350画素であるのに対して、L71(図12を参照)が220画素である場合、HMD1は、約0.63倍(=(L71/L41)=(Th/Sh)=(Tw/Sw))に縦横をそれぞれ縮小した画像を、表示パネル63の表示領域Tに表示させる。表示領域Tに表示された画像(光学像)の全体は、ファインダー開口部67の縁に遮られることなく、ユーザーの眼に届く。なお、第2観察状態において、HMD1は、眼球照明ライト166の輝度を、第1観察状態におけるその輝度と比較して高くしてもよい。   For example, when the user's eye width L41 (see FIG. 11) is 350 pixels and L71 (see FIG. 12) is 220 pixels, HMD1 is about 0.63 times (= (L71 / L41) = (Th / Sh) = (Tw / Sw)), an image reduced in length and width is displayed in the display area T of the display panel 63. The entire image (optical image) displayed in the display area T reaches the user's eyes without being blocked by the edge of the finder opening 67. In the second observation state, the HMD 1 may increase the luminance of the eyeball illumination light 166 compared to the luminance in the first observation state.

以下、表示部60とユーザーの眼との相対位置が、第2観測状態と比較して左右いずれかの方向にずれている状態を、「第3観察状態」という。
次に、第3観察状態について、図9、図14、及び図15を用いて説明する。
図14は、第3観察状態における撮像画像の一例を説明する図である。第3観察状態では、第2観察状態と比較して、ユーザーの眼の画像が、一例として、画像の中心付近から右下方向にベクトルV1だけずれて撮像されているとする。
Hereinafter, a state in which the relative position between the display unit 60 and the user's eye is shifted in either the left or right direction compared to the second observation state is referred to as a “third observation state”.
Next, a 3rd observation state is demonstrated using FIG.9, FIG14 and FIG.15.
FIG. 14 is a diagram illustrating an example of a captured image in the third observation state. In the third observation state, it is assumed that, as an example, an image of the user's eye is captured with a vector V1 shifted from the vicinity of the center of the image in the lower right direction as compared with the second observation state.

符号601R2は、右眼の画像を示す符号であり、符号602R2は、右眉毛の画像を示す符号である。符号604Eは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Fは、眼球照明ライト166bによる輝点の画像を示す符号である。また、一点鎖線で示した605Aは、ユーザーの眼の位置がずれていない場合に撮像される眼球の外形画像を表す。また、符号605Bは、ユーザーの眼が光軸中心にある場合の眼球の画像を表す。   Reference numeral 601R2 represents a right eye image, and reference numeral 602R2 represents a right eyebrow image. Reference numeral 604E represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604F represents a bright spot image by the eyeball illumination light 166b. Also, 605A indicated by a one-dot chain line represents an outline image of an eyeball that is captured when the position of the user's eye is not displaced. Reference numeral 605B represents an image of the eyeball when the user's eye is at the center of the optical axis.

図15は、第3観察状態における観察範囲と撮像範囲を説明する図である。図15では、ユーザーの眼eyeは、観察範囲67e内、すなわち、ファインダー開口部67から距離P以上離れ、且つ、光軸CTから内側にV1のX成分量(=V1x)だけずれている位置に在る。観察範囲67eに在るユーザーの眼は、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無いので、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 15 is a diagram illustrating an observation range and an imaging range in the third observation state. In FIG. 15, the user's eye eye is at a position within the observation range 67e, that is, at a distance P or more from the finder opening 67 and shifted inward from the optical axis CT by the X component amount (= V1x) of V1. exist. Since the user's eye in the observation range 67e is not in the observation range 67b (within the distance P from the finder opening 67 on the optical axis) in the first observation state, one of the display areas S (see FIG. 9). Only the part can be observed.

そこで、第3観察状態では、HMD1は、ユーザーから表示画像の全体が観察できるように、所定の縮小率(=(Uh/Sh)=(Uw/Sw))で画像を縮小する。また、HMD1は、この縮小した画像を、表示領域U(図9を参照)に表示させる。ここで、HMD1は、表示領域S(図9を参照)における表示領域Uの位置を、ユーザーの眼の位置ずれ量及び方向に応じて定める。第3観察状態では、表示領域Uは、表示領域Sの右上に定められている。   Therefore, in the third observation state, the HMD 1 reduces the image at a predetermined reduction rate (= (Uh / Sh) = (Uw / Sw)) so that the entire display image can be observed from the user. Further, the HMD 1 displays the reduced image in the display area U (see FIG. 9). Here, the HMD 1 determines the position of the display area U in the display area S (see FIG. 9) according to the positional deviation amount and direction of the user's eyes. In the third observation state, the display area U is defined at the upper right of the display area S.

ここで、結像レンズ71及び撮像素子72から成る撮像系の記録画素数は、例えば、横640画素、縦480画素であるとする。また、結像レンズ71及び撮像素子72から成る撮像系の画角は、横60度、縦45度であるとする。この場合、1画素当たりの画角は、約0.094度となる。   Here, it is assumed that the number of recording pixels of the imaging system including the imaging lens 71 and the imaging element 72 is, for example, 640 pixels wide and 480 pixels vertically. Further, it is assumed that the angle of view of the imaging system including the imaging lens 71 and the imaging element 72 is 60 degrees lateral and 45 degrees longitudinal. In this case, the angle of view per pixel is about 0.094 degrees.

したがって、ユーザーの眼の位置の水平方向のずれ量(ベクトルV1のX成分量)が、例えば、50画素であれば、ユーザーの眼の位置は、4.7度(=50画素×0.094度)ほどずれていることになる。表示領域S(図9を参照)の水平方向(Sw:800画素)の視野角が、例えば、35度であれば、HMD1は、表示パネル63の中心から、108画素分(=Sw×4.7度÷35度)だけ、水平方向右に表示領域Uの位置を定める。HMD1は、垂直方向についても同様に、所定画素数だけずらした位置に表示領域Uを定める。   Therefore, if the amount of horizontal displacement of the user's eye position (X component amount of the vector V1) is, for example, 50 pixels, the user's eye position is 4.7 degrees (= 50 pixels × 0.094). Degree). If the viewing angle in the horizontal direction (Sw: 800 pixels) of the display area S (see FIG. 9) is, for example, 35 degrees, the HMD 1 is 108 pixels (= Sw × 4. The position of the display area U is determined to the right in the horizontal direction by 7 degrees / 35 degrees. Similarly, in the vertical direction, the HMD 1 defines the display area U at a position shifted by a predetermined number of pixels.

図14及び図15では、HMD1は、表示領域Uの水平方向Uwが500画素、縦方向Uhが375画素となるまで画像を縮小し、表示領域Sの中心から水平方向右に108画素、且つ、ベクトルV1のz成分量(=V1z)に対応する前記所定画素数だけ垂直方向上にずらした位置に、表示領域Uを定める。表示領域Uには、表示領域Uと同じ縮小率で縮小された画像が表示される。これにより、ユーザーの眼eyeが光軸上からずれた場合でも、HMD1は、画像の全体が見えるよう、その画像を表示することができる。   14 and 15, the HMD 1 reduces the image until the horizontal direction Uw of the display area U is 500 pixels and the vertical direction Uh is 375 pixels, 108 pixels to the right in the horizontal direction from the center of the display area S, and A display area U is defined at a position shifted vertically by the predetermined number of pixels corresponding to the z component amount (= V1z) of the vector V1. In the display area U, an image reduced at the same reduction ratio as the display area U is displayed. Thereby, even when the user's eye eye is shifted from the optical axis, the HMD 1 can display the image so that the entire image can be seen.

HMD1は、撮像画像から、例えば、眼の輪郭の画像を抽出し、抽出した眼の輪郭の画像の位置に基づいて、眼の位置ずれ量及び方向(ベクトルV1)を検出する。ここで、眼の位置ずれ量及び方向の検出は、撮像画像から眼球の画像を抽出し、抽出した眼球の輪郭画像のずれ量に基づいて、その眼の位置ずれ量及び方向を検出してもよい。また、HMD1は、眼球照明ライトLED166a〜166d(図2を参照)を適宜点灯させ、それらの眼球照明ライトが投射した光によるスポットを、ユーザーの眼球上で測定することで、ベクトルV1を検出するようにしてもよい。   The HMD 1 extracts, for example, an eye contour image from the captured image, and detects an eye displacement amount and direction (vector V1) based on the extracted position of the eye contour image. Here, the detection of the eye position deviation amount and direction may be performed by extracting an eyeball image from the captured image and detecting the eye position deviation amount and direction based on the extracted deviation amount of the outline image of the eyeball. Good. Further, the HMD 1 detects the vector V1 by appropriately turning on the eyeball illumination lights LEDs 166a to 166d (see FIG. 2) and measuring spots on the eyeball of the user projected by the eyeball illumination lights. You may do it.

上述したように、ユーザーの眼が表示部60から離れている、又は、光軸からずれている場合でも、HMD1では、ユーザーと表示部60との位置関係に応じて、ユーザーが画像の全領域を観察可能となるように、表示部60に画像を表示することができる。なお、表示領域を定めるタイミングは、注視点検出のためのキャリブレーション処理(後述)の前後のいずれでもよい。   As described above, even when the user's eyes are separated from the display unit 60 or deviated from the optical axis, in the HMD 1, the user can select the entire area of the image according to the positional relationship between the user and the display unit 60. An image can be displayed on the display unit 60 so that the image can be observed. Note that the timing for determining the display area may be before or after calibration processing (described later) for detecting a point of interest.

次に、表示部60の配置と、ユーザーの眼の撮像について説明する。
図16は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮像する例を説明する図である。図17は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮像する例を説明する図である。
Next, arrangement of the display unit 60 and imaging of the user's eyes will be described.
FIG. 16 is a diagram illustrating an example in which the display unit 60 is arranged in front of the eyes and a peripheral image including the eyes is captured. FIG. 17 is a diagram illustrating an example in which the display unit 60 is arranged on the lower side of the eye according to the present embodiment and the eye is imaged from below.

図16及び図17において、符号L11は、ユーザーの下瞼から眉毛までの距離を表している。また、図16及び図17において、距離L11は、40[mm]である。また、図16及び図17において、ユーザーの顔を横から見た場合における、上下方向をZ軸方向と、前後方向をY軸方向と称する。   In FIG.16 and FIG.17, the code | symbol L11 represents the distance from a user's lower eyelid to eyebrows. Further, in FIGS. 16 and 17, the distance L11 is 40 [mm]. 16 and 17, when the user's face is viewed from the side, the vertical direction is referred to as the Z-axis direction, and the front-back direction is referred to as the Y-axis direction.

図16に示すように、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、幅L11以上(例えば、幅L31)を撮像できるまで、表示部60の結像レンズ71を、ユーザーの顔から遠ざける必要がある。ここで、幅L31は、例えば、70[mm]である。幅L31の範囲が撮像される場合、ユーザーの眼から結像レンズ71の中心まで、距離L21だけ離される必要がある。ここで、距離L21は、例えば85[mm]である。   As shown in FIG. 16, when the display unit 60 is arranged in front of the eyes, in order to image from the user's lower eyelid to eyebrows, the display unit 60 is captured until a width L11 or more (for example, width L31) can be imaged. It is necessary to keep the imaging lens 71 away from the user's face. Here, the width L31 is, for example, 70 [mm]. When the range of the width L31 is imaged, the distance L21 needs to be separated from the user's eye to the center of the imaging lens 71. Here, the distance L21 is, for example, 85 [mm].

なお、距離L21は、図8に示した光学系において、第1プリズム65a、第2プリズム65b等の光路長も含んでいる。仮に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]であるとすると、ユーザーの顔からY軸方向に65(=85−20)[mm]だけ、表示部60を遠ざける必要がある。   The distance L21 also includes the optical path lengths of the first prism 65a, the second prism 65b, etc. in the optical system shown in FIG. Assuming that the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is only 65 (= 85-20) [mm] in the Y-axis direction from the user's face. It is necessary to keep away.

従って、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、表示部60は、ユーザーの顔から遠ざけられた位置に配置される必要がある。   Therefore, when the display unit 60 is disposed in front of the eyes, the display unit 60 needs to be disposed at a position away from the user's face in order to capture an image from the user's lower eyelid to the eyebrows.

一方、図17に示すように、眼の下側に表示部60が配置された場合、ユーザーの下瞼から眉毛までの距離L11の範囲を撮像するためには、幅L61の撮像範囲を撮像する必要がある。ここで、下から煽るように撮像しているため、幅L61は、図16に示した幅L31より短い。例えば、幅L61は、20[mm]である。この撮像範囲20[mm]を確保するために必要な撮影距離(距離L51)は、例えば、45[mm]である。   On the other hand, as shown in FIG. 17, when the display unit 60 is arranged on the lower side of the eye, in order to image the range of the distance L11 from the user's lower eyelid to the eyebrows, the imaging range of the width L61 is imaged. There is a need. Here, since the image is picked up from below, the width L61 is shorter than the width L31 shown in FIG. For example, the width L61 is 20 [mm]. An imaging distance (distance L51) necessary for securing the imaging range 20 [mm] is, for example, 45 [mm].

図16と同様に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]である場合、表示部60は、ユーザーの顔から25[mm]だけ遠ざけられる。また、Y軸方向に対して表示部60が角度β傾けてられている場合、顔から結像レンズ71までのY軸方向の距離は、45[mm]にcosβが乗算された値となる。   Similarly to FIG. 16, when the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is moved away from the user's face by 25 [mm]. When the display unit 60 is inclined by an angle β with respect to the Y-axis direction, the distance in the Y-axis direction from the face to the imaging lens 71 is a value obtained by multiplying cos β by 45 [mm].

HMD1は、眼の下に配置された表示部60が、眼の周辺画像を撮像できるので(図17を参照)、表示部60が眼の正面に配置された場合と比較して(図16を参照)、顔から表示部60までの距離が短い。これにより、HMD1は、大型化してしまうことがない。また、HMD1は、表示部60がユーザーの正面に配置されないため、表示部60がユーザーの正面視野を遮ることもない。さらに、HMD1は、表示部60がユーザーの顔の近傍に配置されることも可能なので、例えば、狭い作業空間などにおいて、表示部60が邪魔になることもない。   In the HMD 1, the display unit 60 arranged under the eyes can capture a peripheral image of the eye (see FIG. 17), so that the HMD 1 is compared with the case where the display unit 60 is arranged in front of the eyes (see FIG. 16). See), and the distance from the face to the display unit 60 is short. Thereby, HMD1 does not enlarge. Moreover, since the display part 60 is not arrange | positioned in front of a user, HMD1 does not block the front view of a user. Furthermore, since the display part 60 can also be arrange | positioned in the vicinity of a user's face, the display part 60 does not become obstructive, for example in a narrow work space.

また、HMD1は、表示部60が眼の下に配置された場合、表示部60が眼の正面に配置された場合と比較して(図16を参照)、眼球照明ライト166の輝度を低くしてもよい。これにより、HMD1は、消費電力を低減させることができる。   In addition, the HMD 1 lowers the luminance of the eyeball illumination light 166 when the display unit 60 is disposed under the eyes as compared with the case where the display unit 60 is disposed in front of the eyes (see FIG. 16). May be. Thereby, HMD1 can reduce power consumption.

次に、右眼観察形態と左眼観察形態との切り替えに伴う、撮像素子72の設置角度の調整について説明する。
図18は、本実施形態に係る撮像素子72の画角と選択範囲を説明する図である。図18(A)は、右眼観察形態における撮像素子72の画角と選択範囲を説明する図である。図18(B)は、左眼観察形態における撮像素子72の画角と選択範囲を説明する図である。なお、図18(A)及び図18(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等は、図示が省略されている。
Next, adjustment of the installation angle of the image sensor 72 that accompanies switching between the right eye observation mode and the left eye observation mode will be described.
FIG. 18 is a diagram illustrating the angle of view and the selection range of the image sensor 72 according to the present embodiment. FIG. 18A is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the right-eye observation mode. FIG. 18B is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the left-eye observation mode. In FIGS. 18A and 18B, the first headband 43, the second headband 44, the apparatus main body 21 and the like are not shown.

図19は、本実施形態に係る撮像領域と選択領域を説明する図である。図19(A)は、ヘッドバンドヒンジ32(図2を参照)が揺動された場合における、撮像素子72(図3を参照)による撮像領域を説明する図である。また、図19(B)は、撮像領域から選択された選択領域を説明する図である。ここで、符号Pは、撮像素子72が撮像可能な範囲を示す符号である。また、撮像素子72は、例えば、4対3のアスペクト比を有する。   FIG. 19 is a diagram illustrating an imaging area and a selection area according to the present embodiment. FIG. 19A is a diagram illustrating an imaging region by the imaging element 72 (see FIG. 3) when the headband hinge 32 (see FIG. 2) is swung. FIG. 19B is a diagram for explaining a selection area selected from the imaging area. Here, the symbol P is a symbol indicating a range in which the image sensor 72 can capture an image. The image sensor 72 has, for example, an aspect ratio of 4 to 3.

右眼観察形態の場合、第1表示モード(図5(A)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(A)及び図19(B)に示すように、符号Pで示した領域(以下、「撮像領域P」という)のうち、符号Qで示された領域(以下、「選択領域Q」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、右眼観察形態において、眉毛まで含めて右眼の画像データを適切に取り込むことができる。   In the case of the right-eye observation mode, in the first display mode (see FIG. 5A), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18 (A) and 19 (B), the image sensor 72 is a region indicated by a symbol Q among regions indicated by a symbol P (hereinafter referred to as “imaging region P”). The image data of only the range to be imaged is taken in (hereinafter referred to as “selected area Q”). Thereby, the image sensor 72 can appropriately capture the image data of the right eye including the eyebrows in the right eye observation mode.

一方、左眼観察形態の場合、第1表示モード(図5(B)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(B)及び図19(B)に示すように、撮像領域Pのうち、符号Rで示された領域(以下、「選択領域R」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、左眼観察形態において、眉毛まで含めて左眼の画像データを適切に取り込むことができる。   On the other hand, in the case of the left-eye observation mode, in the first display mode (see FIG. 5B), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18B and 19B, the imaging element 72 is imaged in an area indicated by a symbol R (hereinafter referred to as “selection area R”) in the imaging area P. Image data of only the range. Thereby, the image sensor 72 can appropriately capture the image data of the left eye including the eyebrows in the left-eye observation mode.

また、HMD1は、右眼観察形態又は左眼観察形態のいずれであるかを、加速度センサー132が検出した検出値(後述)の代わりに、撮像素子72による撮像画像に基づいて適切に判定することができる。なお、右眼観察形態又は左眼観察形態のいずれであるかを判別する方法は、後述する。   Moreover, HMD1 determines appropriately whether it is a right eye observation form or a left eye observation form based on the picked-up image by the image pick-up element 72 instead of the detection value (after-mentioned) which the acceleration sensor 132 detected. Can do. A method for determining whether the observation mode is the right eye observation mode or the left eye observation mode will be described later.

図20は、本実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。撮像素子72の本体72aには、回転軸72bが固定されている。この回転軸72bに対しては、ダイヤル72cが設けられている。ユーザーは、ダイヤル72cを回動可能範囲で回動(図20では、D方向)にさせることで、回転軸72bを軸として、撮像素子72をチルトさせることができる。   FIG. 20 is a diagram illustrating a mechanism for mechanically selecting a selection range according to the present embodiment. A rotation shaft 72 b is fixed to the main body 72 a of the image sensor 72. A dial 72c is provided for the rotating shaft 72b. The user can tilt the image sensor 72 about the rotation shaft 72b by turning the dial 72c within the rotatable range (in the D direction in FIG. 20).

結像レンズ71が上を向く方向にチルトされた場合、選択領域Q(図19(B)を参照)は、撮像領域Pにおける上側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Qで撮像することができる。一方、結像レンズ71の下を向く方向にチルトされた場合、選択領域R(図19(B)を参照)は、撮像領域Pの下側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Rで撮像することができる。   When the imaging lens 71 is tilted in the upward direction, the selection area Q (see FIG. 19B) is determined as an upper area in the imaging area P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region Q. On the other hand, when tilted in the direction toward the bottom of the imaging lens 71, the selection region R (see FIG. 19B) is defined as a lower region of the imaging region P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region R.

なお、HMD1は、ダイヤル72cにより、撮像領域Q又は選択領域Rの位置を微調節することも可能である。また、撮像素子72による撮像画像が表示部60に表示された場合、ユーザーは、表示部60に表示されている撮像画像を観察しながら、表示部60と眼の位置関係に応じて、撮像素子72の撮像領域を選択することができる。この結果、HMD1は、範囲が適切になるよう撮像された撮像画像を用いて、HMD1の位置合わせ(後述)、及び注視点検出のためのキャリブレーションの精度を高めることができる。   The HMD 1 can also finely adjust the position of the imaging area Q or the selection area R with the dial 72c. When a captured image by the image sensor 72 is displayed on the display unit 60, the user observes the captured image displayed on the display unit 60 and determines the image sensor according to the positional relationship between the display unit 60 and the eyes. 72 imaging areas can be selected. As a result, the HMD 1 can increase the accuracy of calibration for HMD 1 alignment (described later) and gaze point detection using a captured image that is captured so that the range is appropriate.

次に、HMD1の機能ブロックについて説明する。
図21は、本実施形態に係るヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(中央演算装置:Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
Next, functional blocks of the HMD 1 will be described.
FIG. 21 is a functional block diagram of the head mounted display 1 according to the present embodiment.
The HMD 1 includes various electric circuits centering on the processing unit 123. The processing unit 123 is a CPU (Central Processing Unit), and is connected to various circuits of the HMD 1 and comprehensively controls the HMD 1.

バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the HMD 1 under the control of the processing unit 123.

本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BLドライバ126、BT通信回路130、WiFi通信回路131、加速度センサー132(第1センサー)、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135(測位部)、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34、ヘッドバンドセンサー151、眼球照明ライト166a〜166d、バイブレータ167(報知部)が接続されている。   In the present embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, an operation switch 30, a flash memory 122, a BL driver 126, a BT communication circuit 130, a WiFi communication circuit 131, and an acceleration sensor 132 (first sensor). Sensor), geomagnetic sensor 133, forward light 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor 135 (positioning unit), temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, the touch switch 34, the headband sensor 151, the eyeball illumination lights 166a to 166d, and the vibrator 167 (notification unit) are connected.

エンコーダー129は音声信号及び画像信号を所定方式の音声データ及び画像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。   The encoder 129 encodes (encodes) the audio signal and the image signal into audio data and image data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.

エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される画像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される画像信号、及び、眼の周辺画像を撮影する撮像素子72の画像信号が入力される。エンコーダー129に入力された音声信号及び画像信号は音声データ及び画像データにエンコードされた後、処理部123に入力される。入力された音声データ及び画像像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。   The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, an image signal input from the camera 64, an audio signal input from the audio connector 26, an image signal input from the video connector 27, and Then, an image signal of the image sensor 72 that captures a peripheral image of the eye is input. The audio signal and image signal input to the encoder 129 are encoded into audio data and image data, and then input to the processing unit 123. The input audio data and image image data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.

デコーダー121は、音声データ及び画像データを音声信号及び画像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。   The decoder 121 decodes (decodes) audio data and image data into audio signals and image signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.

画像データを再生する場合、フラッシュメモリー122に記録された画像データ、あるいはエンコーダー129から入力される画像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された画像データは、画像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、画像信号が入力された表示パネル36又は表示パネル63に画像データに基づく画像が表示される。また、デコーダー121からビデオコネクター27に出力される画像信号は、ビデオコネクター27を介して外部機器に出力される。   When reproducing the image data, the image data recorded in the flash memory 122 or the image data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The image data input to the decoder 121 is decoded into an image signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The image signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.

また画像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。   When displaying an image, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.

音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。   When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.

本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。   In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.

一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。   On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first speaker 103 and the second speaker 104 is output. Here, since the HMD 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first speaker 103 and the left channel sound is output to the second speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first speaker 103 and the right channel sound is output to the second speaker 104.

メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation on the screen, or the touch switch 34 for performing various operations by a touch operation are operated by the user, the operation can be performed from these switches. A control signal is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。   The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.

加速度センサー132は、HMD1の傾き検出に用いられる。加速度センサー132は、例えば3軸センサーであり、重力加速度を検出する。加速度センサー132は、例えば、装置本体部21内に取り付けられている。   The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The acceleration sensor 132 is a triaxial sensor, for example, and detects gravitational acceleration. The acceleration sensor 132 is attached, for example, in the apparatus main body 21.

以下、加速度センサー132の座標は、地表に直立したユーザーがHMD1を頭に装着している場合における、ユーザーにとっての上下方向をZ軸方向、左右方向をX軸方向、前後方向をY軸方向とする。また、加速度センサー132は、右眼観察形態の場合にZ軸方向の検出値が負値となり、左眼観察形態の場合にZ軸方向の検出値が正値となるように、取り付けられている。   Hereinafter, the coordinates of the acceleration sensor 132 are as follows: when the user standing upright on the ground is wearing the HMD 1 on the head, the vertical direction for the user is the Z-axis direction, the horizontal direction is the X-axis direction, and the longitudinal direction is the Y-axis direction. To do. The acceleration sensor 132 is attached so that the detected value in the Z-axis direction becomes a negative value in the case of the right-eye observation form, and the detected value in the Z-axis direction becomes a positive value in the case of the left-eye observation form. .

地磁気センサー133は、HMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134は、HMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は、環境の温度、湿度の検出に用いられる。
心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出し、検出した検出値を装着処理部311に出力する。心拍数センサー137は、例えば、赤外線を照射し、この赤外線の反射波に基づいて心拍数を測定し、測定した心拍数を示す情報を検出値として制御部302に出力する。また、心拍数センサー137は、赤外線の反射波に基づいて、HMD1が頭部近傍数センチ以内にあることを検出し制御部302に出力する。
The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment.
The heart rate sensor 137 contacts the user's cheek, detects the user's heart rate, and outputs the detected detection value to the wearing processing unit 311. For example, the heart rate sensor 137 irradiates infrared rays, measures the heart rate based on the reflected wave of the infrared rays, and outputs information indicating the measured heart rate to the control unit 302 as a detection value. Further, the heart rate sensor 137 detects that the HMD 1 is within several centimeters of the vicinity of the head based on the infrared reflected wave, and outputs it to the control unit 302.

ヘッドバンドセンサー151はヘッドバンド40に設けられた連結ピン41を検出するセンサーである。具体的にヘッドバンドセンサー151は、連結ピン41が連結孔31に挿通された状態、すなわち、ヘッドバンド40とディスプレイ本体20とが連結された状態を検出し、検出した結果を示す検出信号を装着処理部311へ出力する。
ヘッドバンドセンサー151は、連結ピン41を検出すると、検出信号を処理部123に送信する。処理部123は後述する図41のフローチャートに従って出力切替部として機能する。
なお、ヘッドバンドセンサー151は、ヘッドバンド40の代わりに例えばヘルメットのようなものにディスプレイ本体20が装着される場合を想定して、ヘルメットに設けられた連結ピン41を検出するものであっても良い。
バイブレータ167は、例えば振動モーター、モーター駆動回路を含んで構成される。バイブレータ167は、後述するサイレントモードに設定されている場合、処理部123の制御により振動する。
The headband sensor 151 is a sensor that detects the connecting pin 41 provided on the headband 40. Specifically, the headband sensor 151 detects a state in which the connection pin 41 is inserted into the connection hole 31, that is, a state in which the headband 40 and the display main body 20 are connected, and a detection signal indicating the detection result is attached. The data is output to the processing unit 311.
When the headband sensor 151 detects the connecting pin 41, the headband sensor 151 transmits a detection signal to the processing unit 123. The processing unit 123 functions as an output switching unit in accordance with a flowchart of FIG.
Note that the headband sensor 151 may detect the connecting pin 41 provided on the helmet on the assumption that the display body 20 is mounted on a helmet or the like instead of the headband 40. good.
The vibrator 167 includes, for example, a vibration motor and a motor drive circuit. Vibrator 167 vibrates under the control of processing unit 123 when set in a silent mode to be described later.

なお、本発明において、報知部とは、音響信号により報知する耳元スピーカー23、前方スピーカー70、ステレオイヤホン100、振動により報知するバイブレータ167、光により報知するバックライト62、画像により報知する表示パネル63である。また、本発明において、報知される所定の情報とは、ユーザーの居眠りが検出された場合に警告のための警告音(アラーム)、ユーザーの居眠りが検出された場合に警告のための光の点滅、ユーザーが利用している移動手段に応じたナビゲーションの音響信号または画像信号等である。
また、本発明において、ユーザーが居眠りしている状態(以下、居眠り状態ともいう)とは、ユーザーが目を瞑っている状態、ユーザーの体又は頭部が所定の周期で揺れている状態、ユーザーの体又は頭部が所定の角度以上、倒れている状態のうちのいずれかの状態である。
In the present invention, the notification unit refers to the ear speaker 23 to be notified by an acoustic signal, the front speaker 70, the stereo earphone 100, the vibrator 167 to be notified by vibration, the backlight 62 to be notified by light, and the display panel 63 to be notified by an image. It is. Further, in the present invention, the predetermined information to be notified is a warning sound (alarm) for warning when a user's doze is detected, and blinking light for warning when a user's doze is detected. A navigation acoustic signal or an image signal corresponding to the moving means used by the user.
In the present invention, the state where the user is dozing (hereinafter also referred to as dozing state) is a state where the user is meditating, a state where the user's body or head is shaking at a predetermined cycle, This is one of the states in which the body or head of the body is tilted over a predetermined angle.

図22は、本実施形態に係る処理部123の機能ブロック図である。処理部123は、入力検出部301、制御部302、記憶部303、眼球照明部304、音響制御部305、画像切替部306、画像表示部307、及び送受信部308、乗物検出部(移動手段検出部)309、居眠検出部(制御部)310、装着処理部311を備えている。図22では、WiFi通信回路131及び3G/LTE通信回路138(図21を参照)を、「通信インタフェース(131、138)」と総称する。   FIG. 22 is a functional block diagram of the processing unit 123 according to the present embodiment. The processing unit 123 includes an input detection unit 301, a control unit 302, a storage unit 303, an eyeball illumination unit 304, an acoustic control unit 305, an image switching unit 306, an image display unit 307, a transmission / reception unit 308, a vehicle detection unit (moving means detection). Unit) 309, a dozing detection unit (control unit) 310, and an attachment processing unit 311. In FIG. 22, the WiFi communication circuit 131 and the 3G / LTE communication circuit 138 (see FIG. 21) are collectively referred to as “communication interfaces (131, 138)”.

入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、制御部302、画像切替部306、及び送受信部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、及び受信の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。   The input detection unit 301 determines the type of operation performed on the touch switch 34, and outputs a control signal based on the determined result to the control unit 302, the image switching unit 306, and the transmission / reception unit 308. The types of operations performed on the touch switch 34 are a transmission instruction, a reception instruction, and the like. When a predetermined area on the touch switch 34 is touched, the input detection unit 301 determines the type of these operations based on the touched area.

制御部302は、タッチスイッチ34の操作によりサイレントモードが設定されているか否かを判別する。制御部302は、サイレントモードが設定されているか否かを示す情報(以下、サイレントモード設定情報という)を音響制御部305に出力する。なお、本発明においてサイレントモードとは、他の端末から呼び出しがあったとき、頭部にHMD1が装着されている場合、もしくは頭部近傍にHMD1がある場合、例えば、耳元スピーカー23から呼び出しを知らせる音(報知音ともいう)を出力することでユーザーに着信を知らせるモードである。あるいは、本発明においてサイレントモードとは、他の端末から呼び出しが合ったとき、頭部にHMD1が装着されていない場合、もしくは頭部近傍にHMD1がない場合、例えば、バイブレータが振動することで、ユーザーに着信を知らせるモードである。なお、本発明において着信とは、送受信部が受信した受信信号に含まれている情報基づくものである。本発明において着信とは、例えば、通信相手の端末から通話またはチャット等の通信のための呼び出し、通信相手の端末から通話(音声情報、テキスト情報)、通信相手の端末からの電子メールの受信、通信相手の端末からの画像データの受信、予め登録してあるインターネットやサーバー上の掲示板等に新たな書き込み、つぶやき等の書き込みがあったことのサーバー200からの通知である。
なお、報知音は、例えば、他の端末からの呼び出しを知らせる音である着信音であってもよい。また、例えば、他の端末から電子メール等の情報を受信した場合、報知音は、他の端末からの情報を受信したことを知らせる音であってもよい。また、このような報知音は、着信音と、他の端末からの情報を受信したことを知らせる音とが、異なる音であってもよく、同じ音であっても良い。
制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像の少なくとも一方に基づいて、右眼観察形態又は右眼観察形態を判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、撮像画像に映っているユーザーの眼が、左右どちらの眼の画像であるか(右眼観察形態又は右眼観察形態)を判別する。
The control unit 302 determines whether or not the silent mode is set by operating the touch switch 34. The control unit 302 outputs information indicating whether or not the silent mode is set (hereinafter referred to as silent mode setting information) to the acoustic control unit 305. In the present invention, the silent mode means that when a call is made from another terminal, when the HMD 1 is worn on the head, or when the HMD 1 is near the head, the call is notified from the ear speaker 23, for example. In this mode, the user is notified of an incoming call by outputting a sound (also referred to as a notification sound). Alternatively, in the present invention, the silent mode means that when a call is made from another terminal, when the HMD1 is not worn on the head, or when there is no HMD1 near the head, for example, the vibrator vibrates, This mode informs the user of an incoming call. In the present invention, the incoming call is based on information included in the received signal received by the transmission / reception unit. In the present invention, for example, an incoming call is a call for communication such as a call or chat from a communication partner terminal, a call (voice information, text information) from a communication partner terminal, reception of an e-mail from a communication partner terminal, This is a notification from the server 200 that image data has been received from the terminal of the communication partner, and that new writing, writing, etc. has been written on the Internet or a bulletin board on the server registered in advance.
Note that the notification sound may be, for example, a ringtone that is a sound that notifies a call from another terminal. Further, for example, when information such as an e-mail is received from another terminal, the notification sound may be a sound notifying that information from another terminal has been received. In addition, such a notification sound may be a different sound or may be the same sound as a ringing tone and a sound notifying that information from another terminal has been received.
The control unit 302 determines the right-eye observation form or the right-eye observation form based on at least one of the detection value detected by the acceleration sensor 132 and the image captured by the image sensor 72. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, it is determined whether the user's eye shown in the captured image is an image of the left or right eye (right eye observation form or right eye observation form).

制御部302は、撮像画像に映っているユーザーの眼が左右どちらの眼の画像であるか判別した結果に基づいて、眼球照明ライト166の点灯及び消灯を制御する。また、制御部302は、判別した結果に基づいて、オーディオコネクター26に接続されているステレオイヤホン100に出力する音声を制御する。また、制御部302は、判別した結果に基づいて、表示部60から投影する画像を制御する。   The control unit 302 controls lighting and extinguishing of the eyeball illumination light 166 based on the result of determining whether the user's eye shown in the captured image is an image of the left or right eye. Further, the control unit 302 controls the sound output to the stereo earphone 100 connected to the audio connector 26 based on the determined result. Further, the control unit 302 controls an image projected from the display unit 60 based on the determined result.

記憶部303には、制御部302が生成した、視線に基づいて操作するためのパラメータが記憶されている。記憶部303には、緯度、経度、及び位置情報が関連付けられて記憶されている。位置情報は、例えば、住所、建物名、及び公園名等である。なお、記憶部303には、緯度、経度、住所、建物名、公園名等が関連付けられている地図情報が記憶されていてもよい。   The storage unit 303 stores parameters for operation based on the line of sight generated by the control unit 302. The storage unit 303 stores latitude, longitude, and position information in association with each other. The position information is, for example, an address, a building name, and a park name. The storage unit 303 may store map information associated with latitude, longitude, address, building name, park name, and the like.

眼球照明部304は、制御部302の制御に基づいて、眼球照明ライト166a〜166dを、点灯または消灯させるように駆動する。   Based on the control of the control unit 302, the eyeball illumination unit 304 drives the eyeball illumination lights 166a to 166d to be turned on or off.

音響制御部305は、制御部302が出力するサイレントモード設定情報と、乗物検出部309が出力したサイレントモード設定情報と、装着処理部311が出力するディスプレイ本体20がユーザーの頭部に装着されているか、もしくはユーザーの頭部近傍にあるか否かを示す情報(以下、装着情報という)に基づいて、耳元スピーカー23、前方スピーカー、及びバイブレータ167からの報知を制御する。
音響制御部305は、居眠検出部310が出力した居眠警告情報に基づいて、耳元スピーカー23から警告音(アラームともいう)を発する。
音響制御部305には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、送受信部308が出力する受信信号が入力される。音響制御部305は、送受信部308が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音響制御部305は、制御部302が出力する装着状態を示す情報に基づいて、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、又は、他の端末のユーザーの音声データに基づく音声を、ステレオイヤホン100の左右どちらのスピーカーに出力するのかを選択し、左右のスピーカーの各音量等を調整する。
The acoustic control unit 305 has the silent mode setting information output from the control unit 302, the silent mode setting information output from the vehicle detection unit 309, and the display main body 20 output from the mounting processing unit 311 mounted on the user's head. Or from the ear speaker 23, the front speaker, and the vibrator 167 based on information indicating whether or not the user is in the vicinity of the user's head (hereinafter referred to as wearing information).
The sound control unit 305 emits a warning sound (also referred to as an alarm) from the ear speaker 23 based on the dozing warning information output from the dozing detection unit 310.
The sound control unit 305 receives sound data output from the encoder 129 (user HMD1 sound data) and a reception signal output from the transmission / reception unit 308. The acoustic control unit 305 extracts the voice data of the user of the other terminal (hereinafter also referred to as voice data of the other terminal) from the reception signal output from the transmission / reception unit 308. The sound control unit 305 is based on the information indicating the wearing state output by the control unit 302, and is based on the sound data output from the encoder 129 (the sound data of the user of the HMD 1) or the sound data of the user of another terminal Is output to the left or right speaker of the stereo earphone 100, and the volume of each of the left and right speakers is adjusted.

画像切替部306は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを取得する。画像切替部306は、取得した画像データの表示モードを、制御部302が出力した装着状態を示す情報に基づいて切り替え、切り替えた表示モードで、画像データを画像表示部307に出力する。ここで、表示モードとは、例えば、第1表示モード又は第2表示モード(図45で後述)である。   The image switching unit 306 acquires the image data read from the flash memory 122 or the image data output from the encoder 129 based on the control signal output from the input detection unit 301. The image switching unit 306 switches the display mode of the acquired image data based on the information indicating the mounting state output by the control unit 302, and outputs the image data to the image display unit 307 in the switched display mode. Here, the display mode is, for example, a first display mode or a second display mode (described later in FIG. 45).

画像切替部306は、送受信部308が出力した受信信号から、画像切替信号を抽出する。画像切替部306は、画像切替信号が抽出できた場合、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを、画像表示部307に出力する。また、画像切替部306は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像表示部307に出力する。
画像切替部306は、観察形態に応じて表示部60に表示するための画像を回転させる角度((以下、表示角度という)例えば、0度、90度、180度、270度)を切り替える。これにより、画像切替部306は、ユーザーの姿勢がいかようにあっても、表示部60とユーザーの眼との関係に応じて、表示部60に表示する画像の表示方向を適切に切り替えて表示することができるなお、観察形態は、撮像画像に含まれるユーザーの片眼を含む領域の画像に基づいて認識される。具体的には、右眼観察形態のときの画像の表示角度を0度とした場合及び左眼観察形態のときの画像の表示角度を180度とした場合、制御部302は、右眼観察形態のときの画像の表示角度を0度に切り替え、左眼観察形態のときの画像の表示角度を180度に切り替える。
The image switching unit 306 extracts an image switching signal from the reception signal output from the transmission / reception unit 308. When the image switching signal can be extracted, the image switching unit 306 outputs the image data read from the flash memory 122 or the image data output by the encoder 129 to the image display unit 307 based on the extracted image switching signal. The image switching unit 306 converts the resolution of the image data output from the encoder 129 or the image data read from the flash memory 122 based on the control signal output from the input detection unit 301, and converts the converted image data into an image. The data is output to the display unit 307.
The image switching unit 306 switches an angle for rotating an image to be displayed on the display unit 60 (hereinafter referred to as a display angle), for example, 0 degree, 90 degrees, 180 degrees, and 270 degrees, depending on the observation form. Thereby, the image switching unit 306 appropriately switches the display direction of the image displayed on the display unit 60 according to the relationship between the display unit 60 and the user's eyes regardless of the user's posture. Note that the observation mode can be recognized based on an image of a region including one eye of the user included in the captured image. Specifically, when the display angle of the image in the right-eye observation mode is set to 0 degrees and when the display angle of the image in the left-eye observation mode is set to 180 degrees, the control unit 302 displays the right-eye observation mode. The display angle of the image at the time of is switched to 0 degrees, and the display angle of the image in the left-eye observation mode is switched to 180 degrees.

画像表示部307には、画像切替部306が出力した画像データが入力される。画像表示部307は、入力されたこれらの画像データに基づき、表示パネル63に表示する画像データを生成する。画像表示部307は、生成した画像データを、送受信部308、ビデオコネクター27、及びLCDドライバ125に出力する。   The image data output from the image switching unit 306 is input to the image display unit 307. The image display unit 307 generates image data to be displayed on the display panel 63 based on these input image data. The image display unit 307 outputs the generated image data to the transmission / reception unit 308, the video connector 27, and the LCD driver 125.

送受信部308は、入力検出部301が出力した制御信号に基づき、画像表示部307が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部308は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部306に出力する。   The transmission / reception unit 308 transmits the image data output from the image display unit 307 via the communication interface (131, 138) based on the control signal output from the input detection unit 301. The transmission / reception unit 308 outputs a reception signal received via the communication interfaces (131, 138) to the image switching unit 306.

乗物検出部309には、GPSセンサー135が測位した測位情報、及び加速度センサー132が検出した検出値が入力される。測位情報には、測位した位置の緯度情報、経度情報、高度情報、測位した時刻を示す時刻情報が含まれている。乗物検出部309は、測位情報及び加速度センサー132が検出した検出値に基づいて、HMD1を使用しているユーザーの移動手段を検出し、検出した移動手段を示す移動手段情報を、居眠検出部310に出力する。乗物検出部309は、移動手段情報に基づいて、サイレントモードを有効又は無効に設定し、設定したサイレントモードが有効又は無効であることを示すサイレントモード設定情報を音響制御部305に出力する。
乗物検出部309は、送受信部308を介してインターネット等の通信回線に接続し、測位情報に基づいてHMD1が使用されている位置情報を取得する。または、乗物検出部309は、測位情報に基づいて、記憶部303に記憶されている位置情報を読み出して取得する。
The vehicle detection unit 309 receives the positioning information measured by the GPS sensor 135 and the detection value detected by the acceleration sensor 132. The positioning information includes latitude information, longitude information, altitude information, and time information indicating the time at which the positioning is performed. The vehicle detection unit 309 detects the moving means of the user using the HMD 1 based on the positioning information and the detection value detected by the acceleration sensor 132, and the moving means information indicating the detected moving means is used as the dozing detection unit. It outputs to 310. The vehicle detection unit 309 sets the silent mode to be valid or invalid based on the moving means information, and outputs silent mode setting information indicating that the set silent mode is valid or invalid to the acoustic control unit 305.
The vehicle detection unit 309 is connected to a communication line such as the Internet via the transmission / reception unit 308, and acquires position information where the HMD 1 is used based on the positioning information. Alternatively, the vehicle detection unit 309 reads out and acquires the position information stored in the storage unit 303 based on the positioning information.

居眠検出部310は、乗物検出部309が出力した移動手段情報に基づいて、現在、ユーザーが利用している移動手段が居眠りを警告する必要な移動手段であるか否か判別する。居眠検出部310は、居眠りを警告する必要な移動手段である場合、撮像画像に基づいて、ユーザーが居眠りをしている状態か否か、又は居眠りの兆候となる眼をつぶっている状態(目瞑り状態ともいう)であるか否かを判別する。居眠検出部310は、ユーザーが居眠りをしている状態である場合、又は目瞑り状態である場合、警告を示す居眠警告情報を音響制御部305に出力する。なお、移動手段は、後述するように、公共機関の車両(電車、バス)又は船舶による移動、徒歩による移動、自転車による移動、自動車による移動等である。   Based on the moving means information output by the vehicle detecting section 309, the dozing detection section 310 determines whether or not the moving means currently used by the user is a moving means that warns about dozing. In the case where the dozing detection unit 310 is a moving means that warns of dozing, whether or not the user is dozing or is obscuring the eye that is a sign of dozing based on the captured image ( It is determined whether or not it is also an eye-meditation state. The dozing detection unit 310 outputs dozing warning information indicating a warning to the acoustic control unit 305 when the user is dozing or when the user is in an eye-meditation state. As will be described later, the moving means includes movement by a public institution vehicle (train, bus) or ship, movement by foot, movement by bicycle, movement by automobile, and the like.

装着処理部311は、心拍数センサー137及び/又はヘッドバンドセンサー151が検出した検出値に基づいて、HMD1がユーザーの頭部に装着されているか、もしくはユーザーの頭部近傍にあるか否かを判別し、判別した結果に基づいて装着情報を生成する。装着処理部311は、生成した装着情報を音響制御部305に出力する。具体的には、装着処理部311は、心拍数センサー137から受け取った検出値が予め定められている閾値以上の場合、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別する。一方、装着処理部311は、心拍数センサー137から受け取った検出値が予め定められている閾値より小さい場合、HMD1がユーザーの頭部に非装着である、もしくはHMD1がユーザーの頭部近傍から離れていると判別する。また、ヘッドバンドセンサー151によって装着ピン41が検出された場合、装着処理部311は、ヘッドバンドセンサー151が検出した結果に基づいてユーザーの頭部近傍又は頭部にディスプレイ本体20が装着されていると判別する。   The wearing processing unit 311 determines whether the HMD 1 is worn on the user's head or near the user's head based on the detection value detected by the heart rate sensor 137 and / or the headband sensor 151. Discrimination is performed, and mounting information is generated based on the discrimination result. The mounting processing unit 311 outputs the generated mounting information to the acoustic control unit 305. Specifically, when the detected value received from the heart rate sensor 137 is equal to or greater than a predetermined threshold value, the wearing processing unit 311 wears the HMD1 on the user's head, or the HMD1 is on the user's head. It is determined that it is in the vicinity. On the other hand, when the detected value received from the heart rate sensor 137 is smaller than a predetermined threshold value, the wearing processing unit 311 indicates that the HMD 1 is not worn on the user's head or the HMD 1 is away from the vicinity of the user's head. It is determined that Further, when the mounting pin 41 is detected by the headband sensor 151, the mounting processing unit 311 mounts the display main body 20 near or on the head of the user based on the result detected by the headband sensor 151. Is determined.

図23は、本実施形態に係るHMD1を含む通信システムのシステム構成図である。図23に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。   FIG. 23 is a system configuration diagram of a communication system including the HMD 1 according to the present embodiment. As illustrated in FIG. 23, the communication system includes an HMD 1, an HMD 500, a PC 210, a PC 220, and a server 200. The HMD 1, HMD 500, PC 210, PC 220, and server 200 are connected to the network 230. The network 230 is a network such as the Internet connected via a wireless LAN (Local Area Network), a 3G line, an LTE line, or the like.

図23において、HMD1は、図21で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図23に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
In FIG. 23, the HMD 1 has the configuration described with reference to FIG. The display panel 63 of the HMD 1 is hereinafter referred to as an LCD 63.
As shown in FIG. 23, the HMD 500 mainly includes a flash memory 522, a processing unit 523, communication interfaces (531, 538), a geomagnetic sensor 533, a touch switch 534, a display panel (display unit) 563 (hereinafter referred to as an LCD 563), A camera 564 is provided. Each function part of HMD500 is equivalent to each function part of HMD1.

次に、サーバー200の構成について説明する。図23に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。   Next, the configuration of the server 200 will be described. As shown in FIG. 23, the server 200 includes a processing unit 201, a storage unit 202, and a communication interface 203.

サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。   The processing unit 201 of the server 200 includes image data (moving image, still image, line drawing, etc.) received from each terminal (HMD1, HMD500, PC210, and PC220) via the communication interface 203, audio data, environment information of each terminal, In addition, a communication record such as a request from each terminal is recorded in the storage unit 202. The processing unit 201 reads image data recorded in the storage unit 202 in response to a request from each terminal, and transmits the read image data to each terminal.

記憶部202には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録されている。記憶部202には、各端末のユーザーに対応するパーソナルデータ、例えば、相手の名前や性別・国籍などのデータが、各端末の電話番号又はIPアドレス等の端末を識別できる情報と関連づけられて記憶されている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
The storage unit 202 stores communication records such as image data (moving images and still images) received from each terminal, audio data, environment information of each terminal, and requests from each terminal. In the storage unit 202, personal data corresponding to the user of each terminal, for example, data such as the name, gender and nationality of the other party is stored in association with information such as the telephone number or IP address of each terminal. Has been.
The communication interface 203 includes, for example, a WiFi communication circuit, a 3G communication circuit, an LTE communication circuit, a wired LAN circuit, and the like.

次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
Next, the configuration of the PC 210 and the PC 220 will be described. The PC 210 and the PC 220 are, for example, personal computers.
The PC 210 includes a processing unit 211, a storage unit 212, a communication interface 213, an input unit 214, a display unit 215, and a camera 216.
The PC 220 includes a processing unit 221, a storage unit 222, a communication interface 223, an input unit 224, a display unit 225, and a camera 226. Each functional unit of the PC 220 is equivalent to each functional unit of the PC 210.

PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信信号に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。   The processing unit 211 of the PC 210 is a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like. The processing unit 211 controls the communication interface 213, the input unit 214, the display unit 215, and the camera 216. The processing unit 211 switches the image data stored in the storage unit 212, the image data acquired through the communication interface 213, and the image data captured by the camera 216 through the communication interface 213 as will be described later. Switch based on signal. The processing unit 211 outputs the switched image data to the communication interface 213 and the network 230. The processing unit 211 outputs the image data to the display unit 215. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the operation of the input unit 214. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the received signal acquired via the communication interface 213.

記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通話を行うためのアプリケーション等が記憶されている。   The storage unit 212 is, for example, a memory or an HDD (hard disk). The storage unit 212 stores an OS (operation system) of the PC 210, an application for making a call with the HMD1, the HMD 500, and the PC 220, and the like.

通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。   The communication interface 213 is an interface that performs communication such as a wireless LAN, a wired LAN, a 3G line, an LTE line, or the like. The communication interface 213 outputs information received via the network 230 to the processing unit 211. The communication interface 213 transmits information output from the processing unit 211 to the HMD 1, the HMD 500, the PC 220, and the server 200 via the network 230.

入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。   The input unit 214 is, for example, a keyboard, a mouse, a tablet, and an operation pen. The input unit 214 outputs the input information to the processing unit 211. Note that when the display unit 215 has a touch panel function, the display unit 215 may also function as the input unit 214.

表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
The display unit 215 displays an image based on the image data output from the processing unit 211.
As an example, an image captured by the HMD 1 and a line drawing image corresponding to an operation of the input unit 214 of the PC 210 are combined and displayed on the display unit 215.

カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)またはCCD(Charge Coupled Device)である。   The camera 216 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) having an image sensor with 5 to 10 million pixels.

次に、HMD1の動作について説明する。図24は、本実施形態に係るHMD1の電源オン状態後に行う動作のフローチャートである。
(ステップS1)処理部123は、HMD1のシステムの起動の完了を待って、システムの起動が完了したらステップS2に進む。なお、起動とは、メインスイッチ28が操作されてHMD1がコールドスタートする場合、ならびにHMD1が所定時間使われなかった場合などにスリープ状態に至り、その後、タッチスイッチ34などを操作された場合、ウォームスタートした場合などである。
Next, the operation of the HMD 1 will be described. FIG. 24 is a flowchart of the operation performed after the power-on state of the HMD 1 according to the present embodiment.
(Step S1) The processing unit 123 waits for completion of activation of the system of the HMD 1, and proceeds to step S2 when the activation of the system is completed. The activation means that the main switch 28 is operated to cold start the HMD 1 and the HMD 1 is not used for a predetermined time, so that the sleep state is reached, and the touch switch 34 is operated thereafter. For example, when it starts.

(ステップS2)処理部123は、ユーザーが左右、どちらの眼でHMD1の表示部60を観察しているか検出する処理(以下、左右の眼の検出処理という)を行う。なお、この「左右の眼の検出処理」の詳細な処理は、後述する。処理部123は、検出した結果に基づいて、表示部60に表示する画像の向きを切り替える。 (Step S <b> 2) The processing unit 123 performs a process of detecting whether the user is observing the display unit 60 of the HMD 1 with the left or right eye (hereinafter referred to as a left / right eye detection process). Detailed processing of the “left and right eye detection processing” will be described later. The processing unit 123 switches the orientation of the image displayed on the display unit 60 based on the detected result.

(ステップS3)処理部123は、点灯させる眼球照明ライト166と、消灯させる眼球照明ライトを選択する処理(以下、眼球照明ライトの選択処理という)を行う。なお、「眼球照明ライトの選択処理」の詳細な処理は後述する。 (Step S3) The processing unit 123 performs a process of selecting an eyeball illumination light 166 to be turned on and an eyeball illumination light to be turned off (hereinafter referred to as an eyeball illumination light selection process). Details of the “eyeball illumination light selection process” will be described later.

(ステップS4)処理部123は、注視点検出のためのキャリブレーションを行う。なお、注視点検出のためのキャリブレーションの詳細な処理については、後述する。 (Step S4) The processing unit 123 performs calibration for detecting a gazing point. Details of the calibration process for detecting the point of interest will be described later.

(ステップS5)処理部123は、HMD1を使用しているユーザーの移動手段を検出する(以下、乗り物検出の処理という)。また、処理部123は、HMD1を使用しているユーザーが居眠りをしているか否かを検出し、検出した結果に基づいて、耳元スピーカーから警告音を発する(以下、居眠り検出の処理という)。なお、「乗り物検出の処理」、「居眠り検出の処理」の詳細な処理については、後述する。 (Step S5) The processing unit 123 detects the moving means of the user who is using the HMD 1 (hereinafter referred to as vehicle detection processing). In addition, the processing unit 123 detects whether or not the user using the HMD 1 is asleep, and generates a warning sound from the ear speaker based on the detection result (hereinafter referred to as a process of detecting a sleep). Details of the “vehicle detection process” and the “sleeping detection process” will be described later.

(ステップS6)処理部123は、HMD1が他の端末との通信時に、耳元スピーカー23、前方スピーカー70、及びバイブレータ167から着信音を報知し、耳元スピーカー23、前方スピーカー70から通話音を発する(以下、サイレントモード処理という)。なお、「サイレントモードの処理」の詳細な処理については、後述する。 (Step S6) When the HMD 1 communicates with another terminal, the processing unit 123 notifies a ring tone from the ear speaker 23, the front speaker 70, and the vibrator 167, and emits a call sound from the ear speaker 23 and the front speaker 70 ( Hereinafter referred to as silent mode processing). Detailed processing of “silent mode processing” will be described later.

次に、「左右の眼の検出処理」手順について説明する。
図25は、本実施形態に係る左右の眼の検出処理手順のフローチャートである。
Next, a procedure for “left and right eye detection processing” will be described.
FIG. 25 is a flowchart of the left and right eye detection processing procedure according to the present embodiment.

(ステップS101)処理部123の制御部302は、加速度センサー132が検出した検出値において、Z軸方向の検出値が、X軸方向、Y軸方向より強いか否かを判別する。Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合(ステップS101;Yes)、ステップS102に進む。Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合(ステップS101;No)、ステップS103に進む。 (Step S101) The control unit 302 of the processing unit 123 determines whether or not the detection value detected by the acceleration sensor 132 is stronger in the Z-axis direction than in the X-axis direction and the Y-axis direction. When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction (step S101; Yes), the process proceeds to step S102. When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction (step S101; No), the process proceeds to step S103.

(ステップS102)Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合、表示部60は、図5(A)または図5(B)に示したような第1表示モードの装着形態である。このため、制御部302は、加速度センサー132の検出値に基づいて、右眼観察形態であるか左眼観察形態であるのかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。 (Step S102) When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction, the display unit 60 displays the first value as shown in FIG. 5 (A) or FIG. 5 (B). This is a display mode wearing form. Therefore, the control unit 302 determines whether the observation mode is the right eye observation mode or the left eye observation mode based on the detection value of the acceleration sensor 132. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.

(ステップS103)Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合、ユーザーが寝ているか仰向けの状態であるため、制御部302は、撮像素子72を駆動する。
図26は、右眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。図27は、左眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。
制御部302は、観察形態を判別するために、図19で説明した撮像領域Pを使って、眼の周辺画像を撮像素子72により撮像する。例えば、撮像画像は、図5(A)に示した第1表示モードかつ右眼観察形態で使用されるときの撮像画像(以下、第1右眼画像という)を基準としている。このため、図26に示すように、第1右眼画像610Rは、正立画像である。図26に示すように、第1右眼画像610Rでは、右眼の画像601R3に対して、右眉毛の画像602R3が+Z方向にある。
一方、図27に示すように、第1表示モードかつ左眼観察形態で使用されるときの眼の周辺画像(以下、第1左眼画像という)610Lは、倒立画像である。図27に示すように、第1左眼画像610Lでは、左眼の画像601Lに対して、右眉毛の画像602Lが−Z方向にある。
(Step S103) When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction, the control unit 302 drives the image sensor 72 because the user is sleeping or lying on the back. To do.
FIG. 26 is a diagram illustrating an example of a captured image in the imaging range P in the case of the right eye observation form. FIG. 27 is a diagram illustrating an example of a captured image in the imaging range P in the case of the left eye observation form.
In order to discriminate the observation form, the control unit 302 captures a peripheral image of the eye with the image sensor 72 using the imaging region P described in FIG. For example, the captured image is based on the captured image (hereinafter referred to as the first right-eye image) when used in the first display mode and the right-eye observation mode illustrated in FIG. Therefore, as shown in FIG. 26, the first right eye image 610R is an erect image. As shown in FIG. 26, in the first right eye image 610R, the right eyebrow image 602R3 is in the + Z direction with respect to the right eye image 601R3.
On the other hand, as shown in FIG. 27, an eye peripheral image (hereinafter referred to as a first left eye image) 610L when used in the first display mode and the left eye observation form is an inverted image. As shown in FIG. 27, in the first left eye image 610L, the right eyebrow image 602L is in the −Z direction with respect to the left eye image 601L.

(ステップS104)図25に戻って、制御部302は、撮像画像から眉毛の画像が抽出可能であるか否かを判別する。眉毛の画像が抽出可能であると判別された場合(ステップS104;Yes)、ステップS105に進む。例えば、表示部60が眼に近い場合、または化粧等によって眉毛の判別が難しい場合など、眉毛の画像を抽出ができないと判別された場合(ステップS104;No)、ステップS106に進む。なお、制御部302は、例えばパターンマッチングの技術を用いて、眉毛の画像を抽出する。
例えば、ユーザーが右眼観察形態で使用している場合、選択領域Q(図19(A)を参照)に撮像された画像は、図11に示すような画像になる。一方、ユーザーが左眼観察形態で使用している場合、選択領域R(図19(B)を参照)に撮像された画像は、図28に示すような画像になる。図28は、左眼観察形態における撮像画像の一例を説明する図である。なお、図28では、選択領域Rの画像を180度回転させて示してある。このため、図28の−Z側がユーザーの上側、+Z側がユーザーの下側、−X側がユーザーの左側、+X側がユーザーの右側となる。また、図28において、符号601L1は、左眼の画像であり、符号602L1は、左眉毛の画像である。
なお、ステップS101〜S108の処理中、制御部302は、眼球照明ライト166を点灯させておいても、消灯させておいてもよい。ステップS101〜S108の処理中、制御部302は、バックライト62を点灯させておいてもよい。
(Step S104) Returning to FIG. 25, the control unit 302 determines whether or not an image of eyebrows can be extracted from the captured image. If it is determined that the image of the eyebrows can be extracted (step S104; Yes), the process proceeds to step S105. For example, when it is determined that the eyebrow image cannot be extracted, such as when the display unit 60 is close to the eyes or when it is difficult to determine the eyebrows by makeup or the like (step S104; No), the process proceeds to step S106. Note that the control unit 302 extracts an image of eyebrows using, for example, a pattern matching technique.
For example, when the user is using the right-eye observation mode, the image captured in the selection area Q (see FIG. 19A) is an image as shown in FIG. On the other hand, when the user is using the left-eye observation form, the image captured in the selection region R (see FIG. 19B) is an image as shown in FIG. FIG. 28 is a diagram illustrating an example of a captured image in the left-eye observation mode. In FIG. 28, the image of the selection region R is shown rotated by 180 degrees. Therefore, the −Z side in FIG. 28 is the user's upper side, the + Z side is the user's lower side, the −X side is the user's left side, and the + X side is the user's right side. In FIG. 28, reference numeral 601L1 is a left-eye image, and reference numeral 602L1 is a left eyebrow image.
Note that during the processing in steps S101 to S108, the control unit 302 may turn on or turn off the eyeball illumination light 166. During the processes in steps S101 to S108, the control unit 302 may turn on the backlight 62.

(ステップS105)眉毛の画像が撮像画像から抽出可能である場合、制御部302は、眉毛の画像と眼の画像との位置や、眉毛の形状から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、撮像画像が、ユーザーの右眼の画像であるか左眼の画像であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、図26に示したように、眼球の画像に対して眉毛の画像が、+Z方向にあると判別した場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。一方、図27に示したように、眼球の画像に対して眉毛の画像が、−Z方向にあると判別した場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
(Step S105) When the image of the eyebrows can be extracted from the captured image, the control unit 302 uses, for example, a pattern matching technique or an image feature amount from the position of the eyebrow image and the eye image or the shape of the eyebrows. Using the image comparison technique, it is determined whether the captured image is a right eye image or a left eye image of the user. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, as illustrated in FIG. 26, when it is determined that the image of the eyebrows is in the + Z direction with respect to the image of the eyeball, the control unit 302 has the right eye in which the user observes the display unit 60 with the right eye. It is determined that it is an observation form. On the other hand, as illustrated in FIG. 27, when it is determined that the image of the eyebrows is in the −Z direction with respect to the image of the eyeball, the control unit 302 displays the left where the user observes the display unit 60 with the left eye. It is determined that it is an eye observation form.

(ステップS106)眉毛の画像が撮像画像から抽出可能ではない場合、制御部302は、瞬きでの瞼の挙動から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、ユーザーの右眼であるか左眼であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、瞬きは上瞼が動くことから、瞼が図11において+Z方向から−Z方向へ移動し、すぐに−Z方向から+Z方向へ戻った場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。また、瞼の移動開始方向ならびに戻り方向がこの逆となった場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
以上のように、本実施形態によれば、ユーザーが横方向に寝ている様な場合にも、加速度センサー132が検出した重力の方向にたよらずに、眉毛や瞼の動きを検出することでユーザーが観察している眼の方向を判別できる。
(Step S106) When the eyebrow image cannot be extracted from the captured image, the control unit 302 uses the pattern matching technique or the image comparison technique based on the image feature amount, for example, based on the behavior of eyelids in blinking. It is discriminated whether it is the right eye or the left eye. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, since the upper eyelid moves during blinking, when the eyelid moves from the + Z direction to the −Z direction in FIG. 11 and immediately returns from the −Z direction to the + Z direction, the control unit 302 displays the right eye. It is determined that this is the right-eye observation mode in which the unit 60 is observed. Further, when the movement start direction and the return direction of the eyelid are reversed, the control unit 302 determines that the left-eye observation mode is that the user observes the display unit 60 with the left eye.
As described above, according to the present embodiment, even when the user is lying in the horizontal direction, it is possible to detect the movement of the eyebrows and the eyelashes without depending on the direction of gravity detected by the acceleration sensor 132. The direction of the eye that the user is observing can be determined.

(ステップS107)ステップS106までの判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、撮像素子72が撮像した撮像領域Pから選択領域Qを選択し、ステップS108へ進む。一方、ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像領域Pから選択領域Rを選択し、ステップS108へ進む。 (Step S107) When it is determined that the user is using the right-eye observation mode based on the determination results up to Step S106, the control unit 302 selects the selection region Q from the imaging region P captured by the imaging element 72. Select and proceed to step S108. On the other hand, when it is determined that the user is using the left-eye observation form, the control unit 302 selects the selection region R from the imaging region P, and proceeds to step S108.

(ステップS108)ステップS106までの判別結果に基づいて、右眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を右眼用に設定する。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を右耳用に、第2スピーカー104を左耳用になるようステレオ音声出力の左右を設定する。
一方、左眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を左眼用に設定する。なお、左眼用の表示方向とは、右眼用の表示顔面を180度回転させて上下反転させる方向である。また、ステレオイヤホン100が接続されている場合、音響制御部305は、第1スピーカー103を左耳用に、第2スピーカー104を右耳用になるようステレオ音声出力の左右を設定する。
(Step S <b> 108) If it is determined that the right-eye observation mode is set based on the determination results up to step S <b> 106, the image switching unit 306 sets the display direction of the display unit 60 for the right eye. Further, when the stereo earphone 100 is connected, the acoustic control unit 305 sets the left and right of the stereo sound output so that the first speaker 103 is for the right ear and the second speaker 104 is for the left ear.
On the other hand, when the left-eye observation mode is determined, the image switching unit 306 sets the display direction of the display unit 60 for the left eye. The display direction for the left eye is a direction in which the display face for the right eye is rotated 180 degrees and turned upside down. When the stereo earphone 100 is connected, the acoustic control unit 305 sets the left and right stereo sound output so that the first speaker 103 is for the left ear and the second speaker 104 is for the right ear.

なお、ステップS101〜S106において、右眼観察形態であるか否かを、加速度センサー132の検出値、撮像画像に基づいて判別する例を説明したが、右眼観察形態であるか否かの判定方法は、これに限られない。
例えば、HMD1は、ディスプレイ本体20に取り付けられている不図示のスイッチ等により検出するようにしてもよい。むろんユーザーが、手動で右眼観察形態または左眼観察形態に設定してもよい。
In addition, although the example which discriminate | determines whether it is a right-eye observation form based on the detected value of the acceleration sensor 132 and a captured image in step S101-S106 was demonstrated, determination of whether it is a right-eye observation form The method is not limited to this.
For example, the HMD 1 may be detected by a switch or the like (not shown) attached to the display main body 20. Of course, the user may manually set the right-eye observation form or the left-eye observation form.

次に、眼球照明ライトの選択処理について説明する。図29は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。   Next, the eyeball illumination light selection process will be described. FIG. 29 is a flowchart of the selection processing procedure of the eyeball illumination light of the HMD 1 according to the present embodiment.

(ステップS401)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS401;Yes)、ステップS402へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS401;No)、ステップS403へ進む。 (Step S401) When the control unit 302 determines that the user is using the right-eye observation mode based on the determination result of the “left and right eye detection process” (step S401; Yes), the process proceeds to step S402. If it is determined that the user is using the left-eye observation form (step S401; No), the process proceeds to step S403.

(ステップS402)ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S402) When it is determined that the user is using the right-eye observation mode, the control unit 302 selects the eyeball illumination lights 166a and 166b and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember me. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS403)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S403) When it is determined that the user is using the left-eye observation mode, the control unit 302 selects the eyeball illumination lights 166c and 166d and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember me. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

以上のように、本実施形態のHMD1は、表示部60とユーザーとの位置関係に応じて、眼球照明ライト166a〜166dを選択して点灯させるようにした。この結果、本実施形態のHMD1は、眼球を照明するライトを適宜選択可能としたことにより、使用者の眼を的確に照明できるとともに、消費電力を抑えることが可能となった。   As described above, the HMD 1 of the present embodiment selects and turns on the eyeball illumination lights 166a to 166d according to the positional relationship between the display unit 60 and the user. As a result, the HMD 1 of the present embodiment can appropriately illuminate the user's eyes by appropriately selecting a light for illuminating the eyeball, and can reduce power consumption.

次に、注視点検出のキャリブレーションの詳細について説明を行う。
本実施形態に係るHMD1では、キャリブレーション比較例のようにユーザーがキャリブレーション設定を行うのではなく、後述するように表示パネル63に表示される情報を操作しているときに、視線(注視点)に基づいて操作するためのパラメータを取得し、注視点検出のためのキャリブレーションを行う。
図30及び図31は、本実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。図32は、本実施形態に係る右眼観察形態における眼球照明ライト166の点灯、消灯を説明する図である。図33は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を水平正面から見た図である。
なお、以下では、図7(A)、図7(B)、及び図33に示すように、右眼観察形態かつ眼の下に表示部60が配置されている状態、または左眼観察形態かつ眼の下に表示部60が配置されている状態を検出して、注視点検出のためのキャリブレーションを行う例について説明する。
Next, the details of the calibration for gazing point detection will be described.
In the HMD 1 according to the present embodiment, the user does not set the calibration as in the calibration comparative example, but operates the information displayed on the display panel 63 as will be described later. ) To obtain the parameters for operation based on), and perform calibration for gazing point detection.
30 and 31 are flowcharts of a calibration procedure for detecting a gazing point according to the present embodiment. FIG. 32 is a diagram illustrating turning on and off of the eyeball illumination light 166 in the right-eye observation mode according to the present embodiment. FIG. 33 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram of the user's face seen from the horizontal front.
In the following, as shown in FIG. 7A, FIG. 7B, and FIG. 33, a state in which the display unit 60 is disposed under the right-eye observation form and under the eye, or a left-eye observation form and An example will be described in which a state in which the display unit 60 is placed under the eyes is detected and calibration for detecting a point of interest is performed.

図33において、一点鎖線で示した位置600a〜600bは、表示部60が配置される位置の例である。以下の処理で説明するように、HMD1は、位置600aに表示部60がある場合、眼の近傍にある眼球照明ライト166a及び166bを点灯させ、他を消灯させる。一方、HMD1は、位置600bに表示部60がある場合、眼の近傍にある眼球照明ライト166c及び166dを点灯させ、他を消灯させる。   In FIG. 33, positions 600a to 600b indicated by alternate long and short dash lines are examples of positions where the display unit 60 is disposed. As will be described in the following processing, when the display unit 60 is at the position 600a, the HMD 1 turns on the eyeball illumination lights 166a and 166b in the vicinity of the eye and turns off the others. On the other hand, when the display unit 60 is at the position 600b, the HMD 1 turns on the eyeball illumination lights 166c and 166d in the vicinity of the eyes and turns off the others.

(ステップS501)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用しているか否かを判別する。制御部302は、ユーザーが右眼観察形態で使用していると判別された場合(ステップS501;Yes)、ステップS502に進み、ユーザーが右眼観察形態で使用していないと判別された場合(ステップS501;No)、ステップS503に進む。 (Step S <b> 501) The control unit 302 determines whether or not the user is using the right-eye observation mode based on the determination result of “left and right eye detection processing”. When it is determined that the user is using the right-eye observation form (step S501; Yes), the control unit 302 proceeds to step S502, and when it is determined that the user is not using the right-eye observation form (step S501). Step S501; No), the process proceeds to Step S503.

(ステップS502)右眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して眼球照明ライト166aと166bを点灯する。
図32に示すように、ユーザー右眼の下に表示部60を配置して観察する場合、眼球照明ライト166cと166dは、極めて頬の近傍に配置されることになるために眼球を照明できない。このため、本実施形態では、図33の位置600aに示すように、眼球照明部304は、眼球照明ライト166c、及び166dは消費電力を下げるために消灯する。
(Step S <b> 502) When the right eye observation mode is determined, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304 based on the selection setting of the eyeball illumination light to be read.
As shown in FIG. 32, when the display unit 60 is placed under the right eye of the user for observation, the eyeball illumination lights 166c and 166d cannot be illuminated because they are arranged very close to the cheek. Therefore, in this embodiment, as shown at a position 600a in FIG. 33, the eyeball illumination unit 304 turns off the eyeball illumination lights 166c and 166d in order to reduce power consumption.

(ステップS503)左眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して、図33の位置600bに示すように、眼球照明ライト166cと166dを点灯する。眼球照明部304は、消費電力を下げるために、眼球照明ライト166a及び166bを消灯させる。
以上の処理により、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで効率的な省電力対策が可能となっている。
(Step S <b> 503) When it is determined that the left-eye observation mode is selected, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304 based on the read setting of the eyeball illumination light to be read, as indicated by a position 600b in FIG. The eyeball illumination unit 304 turns off the eyeball illumination lights 166a and 166b in order to reduce power consumption.
With the above processing, the HMD 1 of the present embodiment can appropriately select a light that illuminates the eyeball according to the positional relationship between the user's eye and the display unit 60. Furthermore, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the eyeball illumination light 166 that is not used.

(ステップS504)画像切替部306は、ステップS502またはS503終了後、図34に示すようなパスワード入力画面(表示画像)を、LCD63に表示する。これは一般に普及しているモバイル用途のPCや携帯電話で用いられている、ユーザーが設定したパスワードを入力するもので、他人が使用することを防ぐことを目的にしている。
図34は、本実施形態に係るパスワード入力画面400eの一例である。図34において、パスワード入力画面400eの長手方向をX軸方向、短手方向をZ軸方向とする。図34に示すように、LCD63上には、AからZまでのアルファベット・キー(操作画像)461、記号キー(操作画像)462、シフトキー(操作画像)463、10キー切り替えキー(操作画像)464、スペースキー(操作画像)465、決定(Done)キー(操作画像)466、入力された文字を表示する領域467、及びカーソル468が表示される。また、図34において、符号Dxは、X軸方向の座標、符号Dzは、Z軸方向の座標を表す。
(Step S504) After step S502 or S503 ends, the image switching unit 306 displays a password input screen (display image) as shown in FIG. This is a method for inputting a password set by a user, which is used in PCs and mobile phones that are widely used for mobile purposes, and is intended to prevent others from using the password.
FIG. 34 is an example of the password input screen 400e according to the present embodiment. In FIG. 34, the longitudinal direction of the password input screen 400e is defined as the X-axis direction, and the short direction is defined as the Z-axis direction. As shown in FIG. 34, on the LCD 63, alphabet keys A to Z (operation images) 461, symbol keys (operation images) 462, shift keys (operation images) 463, 10-key switching keys (operation images) 464 are displayed. , A space key (operation image) 465, a determination (Done) key (operation image) 466, an area 467 for displaying input characters, and a cursor 468 are displayed. In FIG. 34, the symbol Dx represents the coordinate in the X-axis direction, and the symbol Dz represents the coordinate in the Z-axis direction.

表示画像とは、LCD63に表示される画像であり、図34に示したパスワード入力画面、後述するメニュー画面等である。また、操作画像とは、表示画像上に表示され、ユーザーが操作部(操作スイッチ30、タッチスイッチ34)により選択可能な、各々のキー画像、各々のボタン画像、各々のアイコン画像、カーソル画像等である。上述のように、これらの表示画像は、表示されたことに応じて、ユーザーが操作部を操作して、操作画像の選択を行うことを促す画像を含んでいる。   The display image is an image displayed on the LCD 63, such as a password input screen shown in FIG. 34, a menu screen described later, or the like. The operation image is displayed on the display image and can be selected by the user via the operation unit (operation switch 30 and touch switch 34). Each key image, each button image, each icon image, cursor image, etc. It is. As described above, these display images include images that prompt the user to select an operation image by operating the operation unit in response to the display.

(ステップS505)図30に戻って、制御部302は、パラメータのサフィックス(文字列)となる「i」をゼロに初期化する。 (Step S505) Returning to FIG. 30, the control unit 302 initializes “i” as a parameter suffix (character string) to zero.

(ステップS506)制御部302は、サフィックス「i」に1を加算する。 (Step S506) The control unit 302 adds 1 to the suffix “i”.

(ステップS507)制御部302は、撮像素子72が撮像した撮像画像(含む映像)を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(第2座標)(Ex(i),Ez(i))を取得する。第2座標は、眼球の回動動作、すなわち視線の方向に1対1で対応する座標である。 (Step S507) The control unit 302 acquires a captured image (including video) captured by the image sensor 72. Next, the control unit 302 determines the coordinates (second coordinates) (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d irradiated on the eyeball based on the acquired captured image. get. The second coordinates are coordinates that correspond one-to-one with the rotation of the eyeball, that is, the direction of the line of sight.

制御部302が取得した撮像画像は、例えば図11である。図11に示すように、眼球照明ライト166aによる輝点604A、及び眼球照明ライト166bによる輝点604Bが画像に映っており、この輝点が眼球の運動に連動して移動する。すなわち、眼球が左側に動く場合、輝点604A及び604Bは、+X側へ移動する。また、眼球が左側に動く場合、同輝点は、−X側へ移動する。また、眼球が上方に動く場合、輝点は、+Z側へ移動し、眼球が下方向に動く場合、輝点が−Z側に移動する。この眼球の動きは、LCD63内の表示で何処を注視するかによって、LCD63内の位置と輝点の位置が一義的に決定される。   The captured image acquired by the control unit 302 is, for example, FIG. As shown in FIG. 11, a bright spot 604A by the eyeball illumination light 166a and a bright spot 604B by the eyeball illumination light 166b are shown in the image, and the bright spot moves in conjunction with the movement of the eyeball. That is, when the eyeball moves to the left side, the bright spots 604A and 604B move to the + X side. Further, when the eyeball moves to the left side, the same bright spot moves to the −X side. When the eyeball moves upward, the bright spot moves to the + Z side, and when the eyeball moves downward, the bright spot moves to the −Z side. As for the movement of the eyeball, the position in the LCD 63 and the position of the bright spot are uniquely determined depending on where the user looks at the display in the LCD 63.

図34のパスワード入力画面400eにおいて、カーソル468が表示される。カーソル468は、ユーザーが操作スイッチ30を上下左右に倒して操作することで、カーソル468の位置を上下左右に動かすことが可能となっている。そして、図34に示すように、例えばパスワードの一文字として「P」が選択された場合、カーソル468が「P」の文字の所に移動され、さらに操作スイッチ30が押圧されて、「P」の文字が入力される。
この操作スイッチ30が押圧される直前において、ユーザーは、「P」の文字を注視している確率が非常に高いので、このときの眼の輝点の座標を取り込む。なお、制御部302は、図11における2つの輝点604Aの座標(Xa,Za)、輝点604Bの座標(Xb,Zb)の平均を取った値を用いて、パスワード1文字目を注視したときの眼の輝点のX軸及びY軸の測定値Ex(1)、Ez(1)を、次式(2)及び次式(3)のように算出する。
A cursor 468 is displayed on the password input screen 400e of FIG. The cursor 468 can be moved up, down, left, and right by the user operating the operation switch 30 by tilting it up, down, left, or right. As shown in FIG. 34, for example, when “P” is selected as one character of the password, the cursor 468 is moved to the character “P”, and the operation switch 30 is further pressed to change the character “P”. A character is entered.
Immediately before the operation switch 30 is pressed, the user has a very high probability of gazing at the letter “P”, so the coordinates of the bright spot of the eye at this time are captured. Note that the control unit 302 gazes at the first character of the password by using an average value of the coordinates (Xa, Za) of the two bright spots 604A and the coordinates (Xb, Zb) of the bright spots 604B in FIG. The measured values Ex (1) and Ez (1) of the X-axis and Y-axis of the bright spot of the eye are calculated as in the following expressions (2) and (3).

Ex(1)= (Xa+Xb)/2 ・・・(2)   Ex (1) = (Xa + Xb) / 2 (2)

Ez(1)= (Za+Zb)/2 ・・・(3)   Ez (1) = (Za + Zb) / 2 (3)

制御部302は、算出した測定値の座標(Ex(i),Ez(i))を、記憶部303に記憶させる。   The control unit 302 causes the storage unit 303 to store the calculated coordinates (Ex (i), Ez (i)) of the measurement value.

(ステップS508)図30に戻って、制御部302は、文字が表示されているLCD63上の座標(第1座標)である(Dx(i),Dz(i))を取得する。例えば図34において「P」の文字が選択された場合、制御部302は、文字「P」の座標が取得し、パスワード1文字目の座標として(Dx(1)、Dz(1))を取得する。このように、第1座標は、LCD63に表示される表示画像内における操作画像の座標である。また、操作画像には、各々、予め定められている基準点が記憶部303に記憶されているようにしてもよい。予め定められている基準点は、例えば操作画像の角(左上、右上、左下、または右下)、操作画像の中心等である。制御部302は、選択された操作画像に予め定められている基準点の座標を取得する。または、制御部302は、文字「P」におけるカーソル468の矢印の先端の基準点を座標の代わりに取得し、取得した座標を第1座標としてもよい。 (Step S508) Returning to FIG. 30, the control unit 302 acquires (Dx (i), Dz (i)), which are coordinates (first coordinates) on the LCD 63 on which characters are displayed. For example, when the character “P” is selected in FIG. 34, the control unit 302 acquires the coordinates of the character “P” and acquires (Dx (1), Dz (1)) as the coordinates of the first character of the password. To do. Thus, the first coordinates are the coordinates of the operation image in the display image displayed on the LCD 63. In addition, a predetermined reference point may be stored in the storage unit 303 in each operation image. The predetermined reference points are, for example, the corners of the operation image (upper left, upper right, lower left, or lower right), the center of the operation image, and the like. The control unit 302 acquires the coordinates of a reference point that is predetermined for the selected operation image. Alternatively, the control unit 302 may acquire the reference point of the tip of the arrow of the cursor 468 in the character “P” instead of the coordinates, and the acquired coordinates may be the first coordinates.

(ステップS509)制御部302は、ユーザーにより設定されているパスワードの認証が完了したか否かを判別する。パスワードの認証が完了したと判別した場合(ステップS509;Yes)、ステップS510に進む。パスワードの認証が完了していないと判別した場合(S509;No)、ステップS506からS509を繰り返す。
なお、ステップS507からS509において、複数のパスワードの文字が選ばれることで眼の輝点の測定座標である(Ex(i),Ez(i))、そしてLCD63上の文字の位置座標である(Dx(i),Dz(i))の値が得られる。また、パスワードの入力が終わったとユーザーが判別した場合、ユーザーは、操作スイッチ30でDoneキー466を選択して押す。このとき、制御部302は、Doneキー466の座標も取得する。
(Step S509) The control unit 302 determines whether or not the authentication of the password set by the user has been completed. If it is determined that password authentication has been completed (step S509; Yes), the process proceeds to step S510. If it is determined that password authentication has not been completed (S509; No), steps S506 to S509 are repeated.
In steps S507 to S509, a plurality of password characters are selected, so that the measurement coordinates of the bright point of the eye (Ex (i), Ez (i)) and the position coordinates of the characters on the LCD 63 ( The value of Dx (i), Dz (i)) is obtained. When the user determines that the password has been input, the user selects and presses the Done key 466 with the operation switch 30. At this time, the control unit 302 also acquires the coordinates of the Done key 466.

(ステップS510)ステップS312までのパスワードの入力作業によって、眼の輝点の測定値と、これに対応する文字の位置情報が得られる。このため、この後は、取得した輝点の座標を測定すれば、ユーザーがLCD63上のどこを注視しているのかが分かるようになる。すなわち、これらの処理により、視線入力による操作が可能になる。そこで、制御部302は、この測定値(Ex,Ez)に基づいて、表示位置(Dx,Dz)を求める関数式を、次式(4)及び次式(5)のように生成する。 (Step S510) By the password input operation up to Step S312, the measured value of the bright point of the eye and the position information of the character corresponding to this are obtained. Therefore, after this, if the coordinates of the acquired bright spot are measured, it becomes possible to know where the user is gazing on the LCD 63. That is, by these processes, an operation by line-of-sight input becomes possible. Therefore, the control unit 302 generates function expressions for obtaining the display position (Dx, Dz) based on the measured values (Ex, Ez) as the following expressions (4) and (5).

Dx = F1(Ex、Ez) ・・・(4)   Dx = F1 (Ex, Ez) (4)

Dz = F2(Ex、Ez) ・・・(5)   Dz = F2 (Ex, Ez) (5)

式(4)及び(5)において、F1は、Dxと(Ex、Ez)の関数、F2は、Dzと(Ex、Ez)の関数である。次に、制御部302は、生成した式(4)及び(5)を、記憶部303に記憶させる。   In the equations (4) and (5), F1 is a function of Dx and (Ex, Ez), and F2 is a function of Dz and (Ex, Ez). Next, the control unit 302 stores the generated expressions (4) and (5) in the storage unit 303.

(ステップS511)パスワードの入力が完了したことを受け、画像切替部306は、図35に示すようなメニューのアイコンを表示する。
図35は、本実施形態に係るメニュー画面(表示画像)400fの一例を示す図である。図35に示した例では、メニュー画面400fに9つのアイコン(操作画像)471から479、及びカーソル(操作画像)480が表示されている。例えば、アイコン471は、動画撮像の指示を示すアイコンである。なお、アイコン471から479、各々をアプリケーションと称する。また、これらの中でアイコン471は、視線によって入力する機能を有するアプリケーションであることから、特に視線入力アプリケーションと称する。
なお、このアイコン471が表す動画撮影を行うアプリケーションでは、カメラ64で動画撮影ならびに記録を行うとともに、後述するように画面に表示されるマーカーの移動や、ボタンの操作を視線入力で行うことが可能となっている。
初期状態では、図35に示したように、アイコン471の位置に、カーソル480が表示される。
(Step S511) Upon completion of the password input, the image switching unit 306 displays a menu icon as shown in FIG.
FIG. 35 is a diagram showing an example of a menu screen (display image) 400f according to the present embodiment. In the example shown in FIG. 35, nine icons (operation images) 471 to 479 and a cursor (operation image) 480 are displayed on the menu screen 400f. For example, the icon 471 is an icon that indicates an instruction to capture a moving image. Icons 471 to 479 are referred to as applications. Of these, the icon 471 is an application having a function of inputting with a line of sight, and is particularly referred to as a line-of-sight input application.
In addition, in the application for taking a moving image represented by the icon 471, it is possible to perform moving image shooting and recording with the camera 64, and to move a marker displayed on the screen and to operate a button by a line-of-sight input as described later. It has become.
In the initial state, a cursor 480 is displayed at the position of the icon 471 as shown in FIG.

なお、図35のメニュー画面は、例えば、処理部123の制御を司るOS(オペレーションシステム)において、各種設定を行うメニュー画面(表示画像)であってもよい。各種設定を行うメニュー画面とは、例えば、表示パネル63の輝度調整、表示パネル63のコントラスト調整、日時設定、スタンバイ状態にするか否かの設定等の各種設定ボタン(またはアイコン、キー等)が表示されている画面である。
また、メニュー画面400fにアイコンが表示されるアプリケーションは、HMD1内部で実行されるアプリケーションに限られない。例えば、アイコンが表示されるアプリケーションは、通信を行っている通信相手が使用しているHMD、PCで実行されるアプリケーションであってもよい。また、アイコンが表示されるアプリケーションは、インターネット等のネットワーク上で実行される、例えばWeb(ウェブ)アプリケーション等であってもよい。
The menu screen in FIG. 35 may be a menu screen (display image) for performing various settings in an OS (operation system) that controls the processing unit 123, for example. The menu screen for performing various settings includes, for example, various setting buttons (or icons, keys, etc.) for adjusting the brightness of the display panel 63, adjusting the contrast of the display panel 63, setting the date and time, and setting whether or not to enter the standby state. This is the displayed screen.
Further, an application whose icon is displayed on the menu screen 400f is not limited to an application executed inside the HMD 1. For example, the application in which the icon is displayed may be an application executed on the HMD or PC used by the communicating party that is performing communication. In addition, the application in which the icon is displayed may be, for example, a Web application that is executed on a network such as the Internet.

(ステップS512)図30に戻って、制御部302は、メニュー画面において、操作スイッチ30により手動操作でアイコン471が選択されたか否かを判別する。操作スイッチ30により手動操作でアイコン471が選択されていないと判別した場合(ステップS512;No)、ステップS513に進む。操作スイッチ30により手動操作でアイコンが選択されたと判別した場合(ステップS512;Yes)、丸C(図31、ステップS519)に進む。 (Step S512) Returning to FIG. 30, the control unit 302 determines whether or not the icon 471 is manually selected by the operation switch 30 on the menu screen. When it is determined that the icon 471 has not been selected manually by the operation switch 30 (step S512; No), the process proceeds to step S513. When it is determined that the icon has been manually selected by the operation switch 30 (step S512; Yes), the process proceeds to the circle C (FIG. 31, step S519).

(ステップS513)制御部302は、アイコン471以外のアプリケーションが選択されたか否かを判別する。アイコン471以外のアプリケーションが選択されたと判別された場合(ステップS513;Yes)、ステップS514に進み、制御部302は、ユーザーの行うメニュー操作の中で、さらに視線入力の精度を高めるべくキャリブレーションを行う。アイコン471以外のアプリケーションが選択されていないと判別された場合(ステップS513;No)、ステップS512に戻る。 (Step S513) The control unit 302 determines whether an application other than the icon 471 has been selected. When it is determined that an application other than the icon 471 has been selected (step S513; Yes), the process proceeds to step S514, and the control unit 302 performs calibration to further improve the accuracy of the line-of-sight input in the menu operation performed by the user. Do. When it is determined that an application other than the icon 471 has not been selected (step S513; No), the process returns to step S512.

(ステップS514)アイコン471以外のアプリケーションが選択されたと判別された場合、制御部302は、サフィックス「i」に1を加算する。 (Step S514) When it is determined that an application other than the icon 471 has been selected, the control unit 302 adds 1 to the suffix “i”.

(ステップS515)制御部302は、撮像画像を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得する。 (Step S515) The control unit 302 acquires a captured image. Next, the control unit 302 acquires the coordinates (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d that are irradiated to the eyeball based on the acquired captured image.

(ステップS516)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S516) The control unit 302 acquires coordinates (Dx (i), Dz (i)) on the LCD 63 on which the selected icon is displayed.

(ステップS517)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S517) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS518)制御部302は、選択されたアプリケーション(またはメニュー)を実行する。アプリケーション実行後、ステップS511に戻る。
すなわち、制御部302は、操作スイッチ30などによってアイコン、チェックボックス等が選択される毎に、輝度の座標を取得し、かつ関係式(4)及び(5)を再計算することで、注視点検出のためのキャリブレーションを行う。なお、メニュー画面400fを含め、各種アプリケーションが実行される中で、アイコンやチェックボックスなどの選択がなされる度に、そのアイコンやチェックボックスを注視点として、注視点検出のためのキャリブレーションを逐次行ってもよい。
(Step S518) The control unit 302 executes the selected application (or menu). After executing the application, the process returns to step S511.
That is, the control unit 302 obtains the luminance coordinates and recalculates the relational expressions (4) and (5) every time an icon, a check box, or the like is selected by the operation switch 30 or the like, so that the gaze point is obtained. Perform calibration for detection. Note that each time an icon or check box is selected during execution of various applications including the menu screen 400f, calibration for detecting a point of interest is sequentially performed using the icon or check box as the point of interest. You may go.

(ステップS519)図31に移って、操作スイッチ30により手動操作でアイコン471が選択されたと判別した場合、制御部302は、サフィックス「i」に1を加算する。 (Step S519) Moving to FIG. 31, when it is determined that the icon 471 is manually selected by the operation switch 30, the control unit 302 adds 1 to the suffix “i”.

(ステップS520)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S520) The control unit 302 acquires (Dx (i), Dz (i)), which are coordinates on the LCD 63 on which the selected icon is displayed.

(ステップS521)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S <b> 521) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS522)制御部302は、視線入力のアプリを実行する前に、注視点検出のためのキャリブレーションが十分に行われたか否かの判別をする。具体的には、例えばパスワードの登録が一文字であれば、キャリブレーションが十分に行われたとは言えない可能性がある。例えば、少なくとも、パスワード入力画面400e、またはメニュー画面400fにおいて、異なる2つの位置の注視点検出が行われた場合、制御部302は、キャリブレーションが十分に行われたと判別する。なお、異なる2つの位置は、パスワード入力画面400e、またはメニュー画面400f内の対角位置に配置されている位置である。
キャリブレーションが十分に行われたと判別された場合(ステップS522;Yes)、ステップS527に進む。キャリブレーションが十分に行われていないと判別された場合(ステップS522;No)、ステップS523に進む。
(Step S <b> 522) The control unit 302 determines whether or not calibration for detecting a gazing point has been sufficiently performed before executing the gaze input application. Specifically, for example, if the password registration is one character, there is a possibility that the calibration is not sufficiently performed. For example, if at least two different gazing points are detected on the password input screen 400e or the menu screen 400f, the control unit 302 determines that the calibration has been sufficiently performed. Note that the two different positions are positions arranged at diagonal positions in the password input screen 400e or the menu screen 400f.
When it is determined that the calibration has been sufficiently performed (step S522; Yes), the process proceeds to step S527. When it is determined that the calibration is not sufficiently performed (step S522; No), the process proceeds to step S523.

(ステップS523〜S526)制御部302は、画像切替部306を介して、図36に示すような再度、ユーザーの入力を促す文章を提示する。制御部302は、図36に示す画面(表示画像)を追加で提示し、この画面をユーザーが操作するとき、LCD63上の座標である(Dx(i),Dz(i))、及び眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得して、注視点検出のためのキャリブレーションを行う。
図36は、本実施形態に係るユーザーに入力を促す画面の一例である。図36に示すように、画面400gには、文字列「視線入力モードを使いますか?」481、「はい」ボタン(操作画像)482、及び「いいえ」ボタン(操作画像)483が表示されている。
例えば、図36において、「はい」ボタン482が視線入力により選択された場合、図34において、Doneキー466、図35において動画撮像の指示のアイコン471がすでに選択されているため、画面の互いにはなれた3箇所のボタン(またはキー、アイコン)が押されたことになり、ある程度信頼のおけるキャリブレーションが完了したことになる。そして、制御部302は、ステップS519からS521と同様の処理を、ステップS523からS526の処理で行い、(Dx,Dz)を求める関数式が導き出す。
(Steps S <b> 523 to S <b> 526) The control unit 302 presents the text prompting the user input again as illustrated in FIG. 36 via the image switching unit 306. The control unit 302 additionally presents the screen (display image) shown in FIG. 36, and when the user operates this screen, the coordinates on the LCD 63 (Dx (i), Dz (i)), and eyeball illumination The coordinates (Ex (i), Ez (i)) of the bright spot by the lights 166a to 166d are acquired, and calibration for gazing point detection is performed.
FIG. 36 is an example of a screen that prompts the user to input according to the present embodiment. As shown in FIG. 36, a character string “Do you use the line-of-sight input mode?” 481, “Yes” button (operation image) 482, and “No” button (operation image) 483 are displayed on the screen 400g. Yes.
For example, in FIG. 36, when the “Yes” button 482 is selected by line-of-sight input, the Done key 466 in FIG. 34 and the moving image imaging instruction icon 471 in FIG. Three buttons (or keys, icons) have been pressed, and a certain degree of reliable calibration has been completed. Then, the control unit 302 performs the same processing as steps S519 to S521 by the processing of steps S523 to S526, and derives a function expression for obtaining (Dx, Dz).

なお、入力用の表示とは、図34における各キー(461〜466)、図35における各アイコン471〜479、図36における各ボタン(482、483)等である。ここで、キャリブレーションが不足している位置が画面内にある場合、Doneキー466は、表示位置を適宜変更し、キャリブレーションが必要とされる位置に表示されてもよい。   The display for input includes the keys (461 to 466) in FIG. 34, the icons 471 to 479 in FIG. 35, the buttons (482 and 483) in FIG. Here, when the position where the calibration is insufficient is in the screen, the Done key 466 may be displayed at a position where calibration is necessary by appropriately changing the display position.

(ステップS527)図31に戻って、制御部302は、画像切替部306を介して、カメラ64が撮像した画像を、図37に示すように、LCD63に表示する。
図37は、本実施形態に係る視線入力のアプリケーションの画面400hの説明を行う図である。図37に示した例では、画面400(表示画像)hには、撮像された画像491、マーカー(操作画像)492、「終了ボタン」(操作画像)493、「記録ボタン」(操作画像)494、及び「メニューボタン」(操作画像)495が表示されている。マーカー492は、ユーザーが画像491において、必要な位置を指し示すマーカーである。「終了ボタン」493は、アプリケーションを終了させ、図35に示したメニュー画面400fに戻るボタンである。また、「記録ボタン」494は、カメラ64が撮像した画像信号を、フラッシュメモリー122に記録開始するボタンである。「メニューボタン」495は、このアプリケーション固有の設定を行うための不図示のメニューを表示させるためのボタンである。
なお、HMD1が、他の端末と通信中の場合、撮像された画像491は、送受信部308を介して、他の端末に送信される。
本実施形態のHMD1は、画面400hに示すように、ユーザーが観察しつつカメラ64で撮影している画像において、商品496をカーソルで指し示す画像を他の端末に送信することで、商品496について具体的に相手に伝えることが可能となっている。
(Step S527) Returning to FIG. 31, the control unit 302 displays the image captured by the camera 64 on the LCD 63 via the image switching unit 306 as shown in FIG.
FIG. 37 is a diagram for explaining the screen 400h of the line-of-sight input application according to the present embodiment. In the example shown in FIG. 37, the screen 400 (display image) h includes a captured image 491, a marker (operation image) 492, an “end button” (operation image) 493, and a “record button” (operation image) 494. , And a “menu button” (operation image) 495 are displayed. The marker 492 is a marker that indicates a required position in the image 491 by the user. The “end button” 493 is a button for ending the application and returning to the menu screen 400f shown in FIG. The “record button” 494 is a button for starting to record the image signal captured by the camera 64 in the flash memory 122. The “menu button” 495 is a button for displaying a menu (not shown) for performing settings specific to the application.
When the HMD 1 is communicating with another terminal, the captured image 491 is transmitted to the other terminal via the transmission / reception unit 308.
As shown in the screen 400h, the HMD 1 of the present embodiment is specific to the product 496 by transmitting an image indicating the product 496 with a cursor to another terminal in the image that the user is observing and capturing with the camera 64. Can be communicated to the other party.

(ステップS528)図31に戻って、制御部302は、ユーザーがボタン493から495を操作スイッチ30で選択したか否かを判別する。ユーザーがボタン493から495を操作スイッチ30で選択したと判別した場合(ステップS528;Yes)、ステップS535に進む。ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合(ステップS528;No)、ステップS529に進む。 (Step S528) Returning to FIG. 31, the controller 302 determines whether or not the user has selected the buttons 493 to 495 with the operation switch 30. When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30 (step S528; Yes), the process proceeds to step S535. When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30 (step S528; No), the process proceeds to step S529.

(ステップS529)ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合、制御部302は、ユーザーの眼における輝点の座標(Ex,Ez)を取得する。次に、制御部302は、取得した座標と、式(4)及び(5)の関数を用いて、ユーザーがどこを注視しているのかを算出する。 (Step S529) When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30, the control unit 302 acquires the coordinates (Ex, Ez) of the bright spot in the user's eye. Next, the control unit 302 calculates where the user is gazing using the acquired coordinates and the functions of Expressions (4) and (5).

(ステップS530)制御部302は、算出した座標の位置に、マーカー492を表示する。
なお、HMD1は、マーカー492の画像が重畳された画像として、他の端末に対して送信する。そして、ユーザーが注視点を動かせばマーカー492も動くことから、ハンズフリーで他の端末のユーザーへ、注視点を伝えることが可能となっている。
(Step S530) The control unit 302 displays a marker 492 at the calculated coordinate position.
Note that the HMD 1 transmits the image on which the image of the marker 492 is superimposed to another terminal. Since the marker 492 moves when the user moves the gazing point, the gazing point can be transmitted to users of other terminals in a hands-free manner.

(ステップS531)制御部302は、マーカー492が、ボタン493、494、及び495の上にあるか否かを判別する。マーカー492が、ボタン493、494、及び495の上にあると判別された場合(ステップS531;Yes)、ステップS532に進む。マーカー492が、ボタン493、494、及び495の上にないと判別された場合(ステップS531;No)、ステップS528に戻る。 (Step S531) The control unit 302 determines whether or not the marker 492 is on the buttons 493, 494, and 495. When it is determined that the marker 492 is on the buttons 493, 494, and 495 (step S531; Yes), the process proceeds to step S532. When it is determined that the marker 492 is not on the buttons 493, 494, and 495 (step S531; No), the process returns to step S528.

(ステップS532)マーカー492が、ボタン493、494、及び495の上にあると判別された場合、制御部302は、撮像画像に基づいて、ユーザーの瞼が短時間に2回連続して瞑られたか否かを判別する。なお、制御部302は、パターンマッチングの技術や画像の特徴量による画像比較の技術を用いて判別を行う。ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合(ステップS532;Yes)、ステップS533に進む。ユーザーの瞼が短時間に2回連続して瞑られていないと判別された場合(ステップS532;No)、ステップS528に戻る。 (Step S532) When it is determined that the marker 492 is on the buttons 493, 494, and 495, the control unit 302 meditates the user's eyelid twice in a short time based on the captured image. It is determined whether or not. Note that the control unit 302 performs determination using a pattern matching technique or an image comparison technique based on image feature amounts. When it is determined that the user's eyelid has been meditated twice in a short time (step S532; Yes), the process proceeds to step S533. When it is determined that the user's eyelid has not been meditated twice in a short time (step S532; No), the process returns to step S528.

(ステップS533)ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合、制御部302は、瞬き2回によって「終了ボタン」493が選択されたか否かを判別する。瞬き2回によって「終了ボタン」493が選択されたと判別された場合(ステップS533;Yes)、丸D(図30、S511)に進む。瞬き2回によって「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたと判別された場合(ステップS533;No)、ステップS534に進む。 (Step S533) When it is determined that the user's eyelid has been meditated twice in a short time, the control unit 302 determines whether or not the “end button” 493 has been selected by blinking twice. When it is determined that the “end button” 493 has been selected by blinking twice (step S533; Yes), the process proceeds to a circle D (FIG. 30, S511). When it is determined that the “end button” 493 is not selected by two blinks, that is, it is determined that another button is selected (step S533; No), the process proceeds to step S534.

(ステップS534)瞬き2回によって「終了ボタン」493が選択されていないと判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS528に戻る。 (Step S534) If it is determined that the “end button” 493 is not selected by two blinks, the control unit 302 performs an operation corresponding to the selected button, and returns to step S528.

(ステップS535〜S538)ユーザーがボタン493から495を操作スイッチ30で選択したと判別された場合、制御部302は、ボタン493から495の座標と、ユーザーの眼の輝点を元に、ステップS535からS538の処理を行って、注視点検出のキャリブレーションを行う。 (Steps S535 to S538) When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30, the control unit 302 performs step S535 based on the coordinates of the buttons 493 to 495 and the bright spot of the user's eyes. To S538 to perform gazing point detection calibration.

(ステップS539)制御部302は、操作スイッチ30により「終了ボタン」493が選択されたか否かを判別する。操作スイッチ30により「終了ボタン」493が選択されたと判別された場合(ステップS539;Yes)、丸D(図30、S511)に進む。操作スイッチ30により「終了ボタン」493が選択されていないと判別された場合(ステップS539;No)、ステップS540に進む。 (Step S <b> 539) The control unit 302 determines whether or not the “end button” 493 is selected by the operation switch 30. When it is determined by the operation switch 30 that the “end button” 493 has been selected (step S539; Yes), the process proceeds to a circle D (FIG. 30, S511). If it is determined by the operation switch 30 that the “end button” 493 has not been selected (step S539; No), the process proceeds to step S540.

(ステップS540)操作スイッチ30により「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたとていない判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS331に戻る。 (Step S540) When the “end button” 493 is not selected by the operation switch 30, that is, when it is determined that no other button is selected, the control unit 302 performs an operation corresponding to the selected button, The process returns to step S331.

なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
In the HMD 1 of the embodiment, even when the eye gaze input application is started and when the application is being executed, the gaze point detection is performed every time an operation image is selected by an operation of the operation unit. Calibrate the calculation formula for. As a result, according to the HMD 1 of the embodiment, the gaze point detection is automatically performed every time an operation image is selected at the timing when the user operates the operation unit. Is possible. Further, in the calibration for detecting the gazing point, as described above, the HMD 1 of the present embodiment uses the image of the region including the one eye of the user and does not need to capture the image including both eyes. Therefore, the HMD 1 can be downsized.
In the HMD 1 of the present embodiment, the user's eyes can be irradiated with appropriate light by turning on and off the eyeball illumination light 166 set in the “eyeball illumination lamp selection process”. For this reason, it is possible to accurately perform calibration for detecting a gazing point.

なお、本実施形態において表示画像の例として、パスワード入力画像、メニュー画像を説明したがこれに限られない。表示画像は、ユーザーが操作部を操作して、操作画像の選択を促す画像であればよい。また、操作画像も、ユーザーが操作部を操作して、該操作画像の選択を促す画像であればよい。
また、図31のステップS522で、キャリブレーションが十分でないと判別された場合、表示画像に表示されている操作画像の表示位置を変更して表示するようにしてもよく、操作画像の大きさを変更して表示するようにしてもよい。あるいは、操作画像を含む新たな表示画像をLCD63に表示するようにしてもよい。
In this embodiment, the password input image and the menu image have been described as examples of the display image, but the present invention is not limited to this. The display image may be an image that prompts the user to select an operation image by operating the operation unit. The operation image may be an image that prompts the user to select an operation image by operating the operation unit.
If it is determined in step S522 in FIG. 31 that the calibration is not sufficient, the display position of the operation image displayed on the display image may be changed and displayed. It may be changed and displayed. Alternatively, a new display image including the operation image may be displayed on the LCD 63.

なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。   As described with reference to FIGS. 9 to 15, when the size of the image is reduced and the position is moved before the calibration for detecting the gazing point, for example, in the selected display region T. The password input screen 400e, the menu screen 400f, and the like may be reduced and displayed. In addition, after performing calibration for gazing point detection, when a gaze input is performed by reducing the size of the image and moving the position, the memory is stored based on the display position and the reduction ratio of the image. The coordinates may be converted by correcting the value of the relational expression stored in the unit 303.

なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
Note that the processing unit 123 may turn on the eyeball illumination light 166 when detecting the position of the user's eye based on the captured image. In addition, when the user's eyes are separated from the display unit 60 (see FIGS. 12 and 14), the processing unit 123 calculates the interval between the bright spots 604A and the bright spots 604B (see FIG. 12) in order to calculate the reduction ratio of the display area. 11) and the distance between the bright spot 604C and the bright spot 604D (see FIG. 12).
By reducing the display area S shown in FIG. 9 to the display area T by this process, the processing unit 123 can allow the user to look over the entire display. Further, when it is determined that the intermediate position between the bright spot 604E and the bright spot 604F (see FIG. 14) is shifted from the intermediate position between the bright spot 604A and the bright spot 604B, the processing unit 123 It can be seen that the user's eyes are shifted by the vector V1. In this way, the image switching unit 306 (see FIG. 22) of the processing unit 123 can shift the display area T in FIG. 9 to the display area U.

なお、本実施形態では、注視点検出のためのキャリブレーションに、図34に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。   In the present embodiment, the example in which the password input screen shown in FIG. 34 is used for calibration for detecting a point of interest has been described, but the present invention is not limited to this. Keys, buttons, icons, etc. that can be selected by the operation switch 30 may be displayed on the display panel 63. Also in this case, unlike the prior art, keys, buttons, icons, and the like relating to operations that the user is required to perform are displayed, not just for calibration. Since the user has a very high probability of gazing at these keys, buttons, icons, etc. during operation, the user can perform calibration for gazing point detection based on the captured image at the time of operation.

次に、「乗り物検出の処理」、「居眠り検出の処理」について説明する。
図38及び図39は、本実施形態に係るHMDを用いた乗り物検出処理の手順のフローチャートである。なお、以下では、ユーザーがHMD1を頭部に装着している、もしくはHMD1がユーザーの頭部近傍にある状態について説明する。
Next, “vehicle detection processing” and “drowsiness detection processing” will be described.
38 and 39 are flowcharts of the procedure of the vehicle detection process using the HMD according to this embodiment. In the following, a state where the user wears the HMD 1 on the head or the HMD 1 is in the vicinity of the user's head will be described.

(ステップS601)ユーザーは、先ず、操作スイッチ30またはタッチスイッチ34を操作して、目標地点の設定を行う。なお、目標地点とは、ユーザーが移動手段を利用して移動し、到達する目標とする場所であり、例えば住所、駅名、建物の名前等である。
(ステップS602)目標地点が設定されると、乗物検出部309は、GPSセンサー135からの測位情報を取得した取得回数を示すサフィックスiの値をゼロに初期化する。
(Step S601) First, the user operates the operation switch 30 or the touch switch 34 to set a target point. The target point is a target place where the user moves using the moving means and reaches, for example, an address, a station name, a building name, and the like.
(Step S602) When the target point is set, the vehicle detection unit 309 initializes the value of the suffix i indicating the number of times of obtaining the positioning information from the GPS sensor 135 to zero.

(ステップS603)制御部302は、ユーザーの眼球を確認するために、眼球照明ライト166を、眼球照明部304を制御して点灯する。例えば、制御部302は、ユーザーが右目で観察している場合、眼球照明ライト166a、166bを点灯し、ユーザーが左目で観察している場合、眼球照明ライト166c、166dを点灯する。以下の説明では、説明を簡単とするため、単に、眼球照明ライト166を点灯すると説明する。 (Step S603) The control unit 302 turns on the eyeball illumination light 166 by controlling the eyeball illumination unit 304 in order to confirm the user's eyeball. For example, the control unit 302 turns on the eyeball illumination lights 166a and 166b when the user is observing with the right eye, and turns on the eyeball illumination lights 166c and 166d when the user is observing with the left eye. In the following description, for the sake of simplicity, it will be described that the eyeball illumination light 166 is simply turned on.

(ステップS604)制御部302は、撮像画像に基づいて、ユーザーが表示パネル63を観察しているかを判別する。制御部302は、ユーザーが表示パネル63を観察していると判別した場合(ステップS604;Yes)、ステップS605に進み、ユーザーが表示パネル63を観察していないと判別した場合(ステップS605;No)、ステップS606に進む。 (Step S604) The control unit 302 determines whether the user is observing the display panel 63 based on the captured image. If the control unit 302 determines that the user is observing the display panel 63 (step S604; Yes), the control unit 302 proceeds to step S605 and determines that the user is not observing the display panel 63 (step S605; No). ), The process proceeds to step S606.

(ステップS605)ユーザーが表示パネル63を観察していると判別した場合、制御部302は、バックライト62を点灯させる。
(ステップS606)ユーザーが表示パネル63を観察していないと判別した場合、制御部302は、バックライト62を消灯させる。
(ステップS607)制御部302は、眼球照明ライト166を消灯する。
(Step S605) When it is determined that the user is observing the display panel 63, the control unit 302 turns on the backlight 62.
(Step S606) When it is determined that the user is not observing the display panel 63, the control unit 302 turns off the backlight 62.
(Step S607) The control unit 302 turns off the eyeball illumination light 166.

このように、本実施形態では、制御部302は、ユーザーの眼球を確認して、ユーザーが表示パネル63を観察しているか否かを判別し、バックライト62の点灯又は消灯を制御する。これにより、本実施形態では、無駄にバックライト62が点灯されることがなくなり、省電力化を図ることが可能となる。   Thus, in the present embodiment, the control unit 302 confirms the user's eyeball, determines whether or not the user is observing the display panel 63, and controls turning on or off the backlight 62. Accordingly, in the present embodiment, the backlight 62 is not turned on unnecessarily, and power saving can be achieved.

(ステップS608)乗物検出部309は、測位情報を取得した取得回数を示すフィックスiの値を1加算する。
(ステップS609)乗物検出部309は、GPSセンサー135より、測位情報(現在の緯度、経度、高度、時刻情報)を取得する。
(Step S608) The vehicle detection unit 309 adds 1 to the value of the fix i indicating the number of acquisitions of positioning information.
(Step S609) The vehicle detection unit 309 acquires positioning information (current latitude, longitude, altitude, time information) from the GPS sensor 135.

(ステップS610)乗物検出部309は、移動手段を検出する処理で用いるパラメータを予め自部に記憶している。パラメータLa(i)は、経度のパラメータであり、パラメータLo(i)は、緯度のパラメータである。パラメータAl(i)は、高度のパラメータであり、パラメータT(i)は、時刻のパラメータである。パラメータV(i)は、平均速度のパラメータであり、パラメータX(i)は、移動距離のパラメータである。パラメータP(i)は、位置情報のパラメータである。
乗物検出部309は、今回取得した測位情報に基づき、経度をパラメータLa(i)に入力し、緯度をパラメータLo(i)に入力する。また、乗物検出部309は、今回取得した測位情報に基づき、高度をパラメータAl(i)に入力し、時刻をパラメータT(i)に入力する。また、乗物検出部309は、各測位情報を入力した各パラメータを記憶部303に記憶させる。
なお、このような各測位情報の取得や記憶部への記憶は、予め定められている時間毎に行ってもよく、あるいは、予め定められている距離毎に行ってもよい。
(Step S610) The vehicle detection unit 309 stores in advance its parameters used in the process of detecting the moving means. The parameter La (i) is a longitude parameter, and the parameter Lo (i) is a latitude parameter. The parameter Al (i) is an advanced parameter, and the parameter T (i) is a time parameter. The parameter V (i) is an average speed parameter, and the parameter X (i) is a movement distance parameter. The parameter P (i) is a parameter for position information.
The vehicle detection unit 309 inputs the longitude into the parameter La (i) and the latitude into the parameter Lo (i) based on the positioning information acquired this time. Further, the vehicle detection unit 309 inputs the altitude into the parameter Al (i) and the time into the parameter T (i) based on the positioning information acquired this time. In addition, the vehicle detection unit 309 causes the storage unit 303 to store each parameter to which each positioning information is input.
Such acquisition of each positioning information and storage in the storage unit may be performed at predetermined time intervals or at predetermined distances.

(ステップS611)乗物検出部309は、記憶部303に記憶されている前回取得された経度La(i−1)、緯度Lo(i−1)と、今回取得された経度La(i)、緯度Lo(i)を用いて、前回の位置から今回の位置までに移動した移動距離X(i)を算出する。乗物検出部309は、算出した移動距離X(i)を記憶部303に記憶させる。 (Step S611) The vehicle detection unit 309 stores the previously acquired longitude La (i-1) and latitude Lo (i-1) stored in the storage unit 303, and the currently acquired longitude La (i) and latitude. Using Lo (i), the movement distance X (i) moved from the previous position to the current position is calculated. The vehicle detection unit 309 stores the calculated movement distance X (i) in the storage unit 303.

(ステップS612)移動距離X(i)を算出した後、乗物検出部309は、前回の時刻T(i−1)と今回の時刻T(i)との差分と、算出された移動距離X(i)より、前回の測定地点から現在の測定地点まで移動した平均速度V(i)を算出する。乗物検出部309は、算出した平均速度V(i)を記憶部303に記憶させる。 (Step S612) After calculating the movement distance X (i), the vehicle detection unit 309 calculates the difference between the previous time T (i-1) and the current time T (i) and the calculated movement distance X ( From i), the average speed V (i) traveled from the previous measurement point to the current measurement point is calculated. The vehicle detection unit 309 stores the calculated average speed V (i) in the storage unit 303.

(ステップS613)乗物検出部309は、ステップS612で算出した平均速度V(i)と、GPSセンサー135から取得した高度の取得値を用いて、ユーザーが飛行機で移動中であるか否かを判別する。例えば、乗物検出部309は、平均速度V(i)が所定値(例えば時速300[km])より速く、且つ、高度がその地点の標高より所定値以上(例えば50m以上)高い場合には、ユーザーが飛行機で移動中であると判別する。ユーザーが飛行機で移動中の場合には、HMD1のユーザーが、パイロットなど特殊な職業を除いて、居眠りしていても問題はない。このため、乗物検出部309は、ユーザーが飛行機で移動中であると判別した場合(ステップS613;Yes)、ステップS614に進み、ユーザーが飛行機で移動中ではないと判別した場合(ステップS613;No)、ステップS615に進む。 (Step S613) The vehicle detection unit 309 determines whether or not the user is moving on an airplane using the average speed V (i) calculated in Step S612 and the acquired altitude value acquired from the GPS sensor 135. To do. For example, when the average speed V (i) is faster than a predetermined value (for example, 300 [km] per hour) and the altitude is higher than a predetermined value (for example, 50 m or more) higher than the altitude of the point, Determine that the user is moving by plane. When the user is traveling by airplane, there is no problem even if the user of the HMD1 is asleep except for a special occupation such as a pilot. Therefore, when the vehicle detection unit 309 determines that the user is moving by airplane (step S613; Yes), the vehicle detection unit 309 proceeds to step S614 and determines that the user is not moving by airplane (step S613; No). ), The process proceeds to step S615.

(ステップS614)乗物検出部309は、ステップS601で設定した目標地点、ステップS609で取得した測位データ、及びステップS612で算出した平均速度V(i)に基づいて、現在地点と目標地点までの距離と到着予想時間を算出する。次に、乗物検出部309は、算出した現在地点と目標地点までの距離と到着予想時間を表示パネル63に表示する。 (Step S614) The vehicle detection unit 309 determines the distance between the current location and the target location based on the target location set in Step S601, the positioning data acquired in Step S609, and the average speed V (i) calculated in Step S612. And calculate the estimated arrival time. Next, the vehicle detection unit 309 displays the calculated distance between the current location and the target location and the estimated arrival time on the display panel 63.

(ステップS615)ユーザーが飛行機で移動中ではないと判別した場合、乗物検出部309は、送受信部308を介してインターネットに接続する。次に、乗物検出部309は、ステップS609で取得した現在の緯度La(i)、経度Lo(i)に基づいて、現在の移動La(i)及び経度Lo(i)に対応する現在の位置情報P(i)をインターネット上から取得する。記憶部303に地図データが記憶されている場合、乗物検出部309は、現在の緯度La(i)、経度Lo(i)に基づいて、現在の移動La(i)及び経度Lo(i)に対応する現在の位置情報P(i)を記憶部303から読み出して取得するようにしてもよい。この現在の位置情報P(i)には、例えば、その場所が道路上なのか、線路なのか、川や湖や海の上なのか、ビル内なのか等の情報が含まれる。 (Step S615) When it is determined that the user is not moving on an airplane, the vehicle detection unit 309 connects to the Internet via the transmission / reception unit 308. Next, the vehicle detection unit 309 determines the current position corresponding to the current movement La (i) and longitude Lo (i) based on the current latitude La (i) and longitude Lo (i) acquired in step S609. Information P (i) is obtained from the Internet. When the map data is stored in the storage unit 303, the vehicle detection unit 309 determines the current movement La (i) and longitude Lo (i) based on the current latitude La (i) and longitude Lo (i). The corresponding current position information P (i) may be read from the storage unit 303 and acquired. The current position information P (i) includes, for example, information on whether the place is on a road, a railway, a river, a lake, the sea, or a building.

(ステップS616)位置情報P(i)が取得できた場合、乗物検出部309は、加速度センサー132が検出した検出値に基づいて、現在の加速度A(i)(大きさと向き)を取得する。乗物検出部309は、この加速度A(i)の情報を、後に説明するように、乗り物の揺れの方向から乗り物の種類を検知するときに用いる。 (Step S616) When the position information P (i) can be acquired, the vehicle detection unit 309 acquires the current acceleration A (i) (size and orientation) based on the detection value detected by the acceleration sensor 132. The vehicle detection unit 309 uses the information on the acceleration A (i) when detecting the type of vehicle from the direction of vehicle shake, as will be described later.

(ステップS617)乗物検出部309は、ステップS612で算出した平均速度V(i)がほぼゼロであるか否かを判別する。この処理により、乗物検出部309は、ユーザーが静止しているか、または移動しているかを判別する。乗物検出部309は、平均速度V(i)がゼロではないと判別した場合(ステップS617;No)、ユーザーが移動していると判別し、ステップS618に進む。乗物検出部309は、平均速度V(i)がゼロであると判別した場合(ステップS617;Yes)、ユーザーが移動していない判別し、ステップS636(図39)に進む。 (Step S617) The vehicle detection unit 309 determines whether or not the average speed V (i) calculated in Step S612 is substantially zero. By this process, the vehicle detection unit 309 determines whether the user is stationary or moving. If the vehicle detection unit 309 determines that the average speed V (i) is not zero (step S617; No), the vehicle detection unit 309 determines that the user is moving and proceeds to step S618. When the vehicle detection unit 309 determines that the average speed V (i) is zero (step S617; Yes), the vehicle detection unit 309 determines that the user is not moving and proceeds to step S636 (FIG. 39).

(ステップS618)乗物検出部309は、ユーザーが電車で移動中であるか否かの判別を行う。乗物検出部309は、ユーザーが電車で移動中であると判別した場合(ステップS618;Yes)、ステップS630(図39)に進み、ユーザーが電車で移動中ではないと判別した場合(ステップS618;No)、ステップS619へ移行する。
乗物検出部309は、例えば、GPSセンサー135から測位情報を複数回、取得し、取得した各々の測位情報に基づいて、移動中の各々の位置情報を取得する。
乗物検出部309は、取得した複数の位置情報のうち、時間の経過とともに複数の時点で取得した複数の位置情報が、地図情報において線路に対応している場合、単に踏切を横切ったのではなく、ユーザーが電車で移動中であると判断する。なお、今回の位置情報P(i)のみが線路上である場合には、踏切を通過中である可能性があるため、乗物検出部309は、ユーザーが電車で移動中ではないと判別する。
(Step S618) The vehicle detection unit 309 determines whether or not the user is moving on the train. When the vehicle detection unit 309 determines that the user is moving on the train (step S618; Yes), the vehicle detection unit 309 proceeds to step S630 (FIG. 39) and determines that the user is not moving on the train (step S618; No), the process proceeds to step S619.
For example, the vehicle detection unit 309 acquires the positioning information from the GPS sensor 135 a plurality of times, and acquires each position information during movement based on each acquired positioning information.
The vehicle detection unit 309 does not simply cross the railroad crossing when a plurality of position information acquired at a plurality of time points with the passage of time corresponds to a track in the map information. , Determine that the user is moving by train. Note that when only the current position information P (i) is on the track, there is a possibility that the vehicle is passing through the railroad crossing, so the vehicle detection unit 309 determines that the user is not moving on the train.

(ステップS619)ユーザーが電車で移動中ではないと判別した場合、乗物検出部309は、ユーザーがバスで移動中であるか否かの判別を行う。乗物検出部309は、ユーザーがバスで移動中であると判別した場合(ステップS619;Yes)、制御部302は、ステップS630(図39)に進み、ユーザーがバスで移動中ではないと判別した場合(ステップS619;No)、ステップS620に進む。
乗物検出部309は、ユーザーがバスで移動中であるか否かの判別を、ステップS615で取得した今回の位置情報P(i)及び前回の位置情報P(i−1)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて、例えば以下のように判別する。例えば、ユーザーがバスで移動中である場合、今回の位置情報P(i)、及び前回までの位置情報P(i−1)は、地図情報において連続した道路に対応する情報とみなせる。また、ユーザーがバスで移動中の場合、ユーザーは運転せずに進行方向に対して正面を見ていないとすると、加減速による加速度が頭部に対して横方向に加わる。このことから、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)は、地図情報において連続した道路に対応する情報であるか否かを判別する。そして、乗物検出部309は、今回の位置情報P(i)及び前回までの位置情報P(i−1)が地図情報において連続した道路に対応する情報である場合、更に、加速度A(i)の方向を検知し、加速度A(i)が頭部に対して常に横方向に加わっている場合に、ユーザーがバスで移動中であると判別する。
(Step S619) When it is determined that the user is not moving on the train, the vehicle detection unit 309 determines whether the user is moving on the bus. When the vehicle detection unit 309 determines that the user is moving on the bus (step S619; Yes), the control unit 302 proceeds to step S630 (FIG. 39) and determines that the user is not moving on the bus. If so (step S619; No), the process proceeds to step S620.
The vehicle detection unit 309 determines whether or not the user is moving on the bus by determining the current position information P (i) and the previous position information P (i−1) acquired in step S615 and in step S616. Using the acceleration information A (i) acquired from the acceleration sensor 132, for example, the following determination is made. For example, when the user is moving on a bus, the current position information P (i) and the previous position information P (i-1) can be regarded as information corresponding to continuous roads in the map information. Further, when the user is moving on the bus, if the user does not drive and is not looking in front of the traveling direction, acceleration due to acceleration / deceleration is applied laterally to the head. From this, the vehicle detection unit 309 determines whether or not the current position information P (i) and the previous position information P (i-1) are information corresponding to continuous roads in the map information. . When the current position information P (i) and the previous position information P (i-1) are information corresponding to continuous roads in the map information, the vehicle detection unit 309 further includes acceleration A (i). When the acceleration A (i) is always applied in the lateral direction with respect to the head, it is determined that the user is moving on the bus.

(ステップS620)ユーザーがバスで移動中ではないと判別した場合、乗物検出部309は、ユーザーが船舶で水路上を移動中であるか否かを判別する。乗物検出部309は、ユーザーが船舶で水路上を移動中であると判別した場合(ステップS620;Yes)、ステップS630(図39)に進み、ユーザーが船舶で水路上を移動中ではないと判別した場合(ステップS620;No)、ステップS621に進む。
乗物検出部309は、ユーザーが船舶で水路を移動中であるか否かを、例えば、ステップS615で取得した今回の位置情報P(i)及びそれまでの位置情報P(i−1)から、その場所が、地図情報において川や湖、海等の水路に対応するか否かにより判別する。なお、ここでは一般的にユーザーが船舶を操縦しないことを前提としているが、ユーザーは、船舶の操縦をしているか否かを、操作スイッチ30を操作して手動で設定することが可能である。このように、船舶の操縦を行っていることが設定された場合、居眠検出部310は、以下の処理においてユーザーの移動中に居眠り検出を行う。
(Step S620) When it is determined that the user is not moving on the bus, the vehicle detection unit 309 determines whether the user is moving on the waterway by the ship. When the vehicle detection unit 309 determines that the user is moving on the water channel with the ship (step S620; Yes), the vehicle detection unit 309 proceeds to step S630 (FIG. 39) and determines that the user is not moving on the water channel with the ship. If so (step S620; No), the process proceeds to step S621.
The vehicle detection unit 309 determines whether or not the user is moving on the waterway with a ship, for example, from the current position information P (i) acquired in step S615 and the previous position information P (i-1). The location is determined based on whether or not the location corresponds to a water channel such as a river, lake, or sea in the map information. Here, it is generally assumed that the user does not maneuver the ship, but the user can manually set whether or not the ship is maneuvering by operating the operation switch 30. . As described above, when it is set that the ship is being operated, the dozing detection unit 310 detects dozing while the user is moving in the following processing.

ステップS618〜ステップS620において、ユーザーが電車で移動中ではなく、バスで移動中ではなく、及び船舶で水路上を移動中ではないと判別した場合、乗物検出部309は、ユーザーが公共交通機関を利用した移動を行っていないと判別する。すなわち、ユーザーは、徒歩や自転車により移動しているか、車両を運転して移動している可能性がある。このように車両や自転車を運転している場合、居眠りは危険である。このため、居眠り(目瞑り)検出を行い、警告を行う必要がある。このため、HMD1は、以下のステップS621により「居眠り検出処理」を行う。   In step S618 to step S620, if it is determined that the user is not moving by train, not moving by bus, and not moving on a waterway by ship, the vehicle detection unit 309 causes the user to switch to public transportation. It is determined that the used movement is not performed. That is, the user may be moving on foot or by bicycle, or may be moving by driving a vehicle. When driving a vehicle or bicycle in this way, falling asleep is dangerous. For this reason, it is necessary to detect a doze (meditation of eyes) and issue a warning. For this reason, the HMD 1 performs the “sleeping detection process” in the following step S621.

(ステップS621)居眠検出部310は、撮像画像に基づいて、所定時間、例えば1秒間、ユーザーの眼が目瞑り状態であるかどうかを判別する。居眠検出部310は、所定時間、ユーザーの眼が目瞑り状態であると判別した場合(ステップS621;Yes)、ステップS622に進み、ユーザーの眼が目瞑り状態ではないと判別した場合(ステップS621;No)、ステップS623に進む。
居眠検出部310は、例えば、パターンマッチングの手法を用いて、比較画像と撮像画像とを比較して、複数の撮像画像からユーザーの瞼を含む領域の画像を各々抽出する。居眠検出部310は、例えば抽出した各々のユーザーが瞼を少なくとも半ば閉じている画像が、ユーザーの片眼を含む領域の画像において所定の割合より多く、かつ抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続している場合、ユーザーの眼が目瞑り状態であると判定する。居眠検出部310は、例えば各々のユーザーが瞼を少なくとも半ば閉じている画像が瞼を開いている画像に対して所定の割合より少なく、または抽出した各々のユーザーの瞼を閉じている画像の撮像時刻が連続していない場合、ユーザーの眼が目瞑り状態でないと判定する。
(Step S621) Based on the captured image, the dozing detection unit 310 determines whether or not the user's eyes are in a closed state for a predetermined time, for example, 1 second. If the dozing detection unit 310 determines that the user's eyes are in an eye-meditation state for a predetermined time (step S621; Yes), the process proceeds to step S622, and if the user's eyes are not in an eye-meditation state (step S621) S621; No), the process proceeds to step S623.
The dozing detection unit 310 compares the comparison image and the captured image, for example, using a pattern matching technique, and extracts images of the region including the user's habit from each of the captured images. For example, the dozing detection unit 310 closes each extracted user's eyelid when the extracted images of the users at least half of the eyelids are larger than a predetermined ratio in the image of the region including one eye of the user. It is determined that the user's eyes are in an eye-medicating state when the image capturing times of the images are continuous. For example, the dozing detection unit 310 has an image in which each user closes his / her eyelid at least half of the image that has the eyelid open, or the extracted image of each user's eyelid being closed. If the imaging times are not continuous, it is determined that the user's eyes are not in an eye-medicating state.

(ステップS622)ユーザーの眼が目瞑り状態であると判別した場合、居眠検出部310は、居眠警告情報を生成して、生成した居眠警告情報を音響制御部305に出力する。音響制御部305は、居眠警告情報に基づいて、耳元スピーカー23から警告音を発して、ユーザーに目を覚ますように注意を促す。 (Step S <b> 622) When it is determined that the user's eyes are in an eye-meditation state, the dozing detection unit 310 generates dozing warning information and outputs the generated dozing warning information to the acoustic control unit 305. The sound control unit 305 emits a warning sound from the ear speaker 23 based on the dozing warning information to urge the user to wake up.

(ステップS623)乗物検出部309は、ユーザーが徒歩で移動中であるか否かを判別する。乗物検出部309は、ユーザーが徒歩で移動中であると判別した場合(ステップS623;Yes)、ステップS624に進み、ユーザーが徒歩で移動中ではないと判別した場合(ステップS623;No)、ステップS625へ移行する。
乗物検出部309は、ユーザーが徒歩で移動中であるか否かを、例えば、ステップS612で算出された平均速度V(i)と、ステップS616で加速度センサー132から取得された加速度情報A(i)とを用いて判別する。例えば、ユーザーが徒歩で移動している場合の平均速度V(i)は、所定速度、例えば時速20[km]以下である。また、ユーザーが徒歩で移動している場合は、左右の足の踏みだしに同期して、例えば1〜6ヘルツである一定の振動により加速度が生じる。したがって、乗物検出部309は、平均速度V(i)が例えば時速20[km]以下である場合、かつ加速度の振動の周期が例えば1〜6ヘルツである場合、ユーザーが徒歩で移動中であると判別する。
(Step S623) The vehicle detection unit 309 determines whether or not the user is moving on foot. When it is determined that the user is moving on foot (step S623; Yes), the vehicle detection unit 309 proceeds to step S624, and when it is determined that the user is not moving on foot (step S623; No), step The process proceeds to S625.
The vehicle detection unit 309 determines whether or not the user is walking on the basis of, for example, the average speed V (i) calculated in step S612 and the acceleration information A (i acquired from the acceleration sensor 132 in step S616. ). For example, the average speed V (i) when the user is walking is a predetermined speed, for example, 20 [km] or less per hour. In addition, when the user is moving on foot, acceleration is generated by a constant vibration of, for example, 1 to 6 hertz in synchronization with the left and right foot steps. Therefore, when the average speed V (i) is, for example, 20 [km] or less per hour and the acceleration vibration period is, for example, 1 to 6 hertz, the vehicle detection unit 309 is moving on foot. Is determined.

(ステップS624)ユーザーが徒歩で移動中であると判別した場合、乗物検出部309は、徒歩用の制御及び徒歩用のナビデーションを行う。乗物検出部309は、例えばユーザーが徒歩で移動中であることから、ユーザーが表示パネル63を覗かないようにバックライト62を消灯する。乗物検出部309は、徒歩用のナビゲーションを音響制御部305に出力する。音響制御部305は、この徒歩用のナビゲーションを耳元スピーカー23から出力する。徒歩用のナビゲーションとは、目標地点までの経路を案内するものであり、例えば、「次の交差点を右に曲がってください。」等の音声によるアナウンスである。
なお、ユーザーが歩行をやめて立ち止まった場合、平均速度V(i)はV(i)=0と算出されるので、乗物検出部309は、ステップS636に進む。
(Step S624) When it is determined that the user is moving on foot, the vehicle detection unit 309 performs control for walking and navigation for walking. For example, since the user is moving on foot, the vehicle detection unit 309 turns off the backlight 62 so that the user does not look into the display panel 63. The vehicle detection unit 309 outputs navigation for walking to the acoustic control unit 305. The acoustic control unit 305 outputs the walking navigation from the ear speaker 23. The walking navigation guides the route to the target point, and is, for example, a voice announcement such as “Please turn right at the next intersection”.
When the user stops walking and stops, the average speed V (i) is calculated as V (i) = 0, and the vehicle detection unit 309 proceeds to step S636.

(ステップS625)乗物検出部309は、ユーザーが自転車で移動中であるか否かを判別する。乗物検出部309は、ユーザーが自転車で移動中であると判別した場合(ステップS625;Yes)、ステップS626に進み、ユーザーが自転車で移動中ではないと判別した場合(ステップS625;No)、ステップS627へ進む。
乗物検出部309は、例えば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自転車で移動中である場合には、速度0から加速した場合にユーザーの上半身の揺れが生じる。このため、乗物検出部309は、加速度センサー132の検出値から、上半身の揺れによる加速度が検出できるかどうかにより、ユーザーが自転車で移動しているか否かを判別する。なお、ユーザーが自転車で移動中であるか否かを判別するには、特に頭部に加速度センサー132が配置されていることが重要である。すなわち、加速度センサー132がユーザーの腰に取り付けられた場合、腰の動きは腰の直下にあるサドルによって限定されるため、ユーザーが自転車に乗っている場合の上半身の揺れによる加速度の検出が困難になり、オートバイなどの動きとの差異が少ない。これに対して、ユーザーの頭部に加速度センサー132が配置されていれば、ユーザーが自転車に乗っている場合の上半身の揺れを的確に検出することが可能となる。本実施形態では、HMD1が頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあるため、加速度センサー132は頭部の近傍に配置されている。従って、本実施形態のHMD1によれば、ユーザーが自転車で移動中であるか否かを、加速度センサー132の検出値から判別することができる。
(Step S625) The vehicle detection unit 309 determines whether or not the user is moving on a bicycle. When the vehicle detection unit 309 determines that the user is moving on a bicycle (step S625; Yes), the vehicle detection unit 309 proceeds to step S626, and when it is determined that the user is not moving on a bicycle (step S625; No), step The process proceeds to S627.
For example, the vehicle detection unit 309 determines whether or not the user is moving on a bicycle from the detection value of the acceleration sensor 132. When the user is moving on a bicycle, the user's upper body shakes when accelerating from zero speed. For this reason, the vehicle detection unit 309 determines whether or not the user is moving on a bicycle from the detection value of the acceleration sensor 132 depending on whether or not acceleration due to shaking of the upper body can be detected. In order to determine whether or not the user is moving on a bicycle, it is important that the acceleration sensor 132 is particularly arranged on the head. That is, when the acceleration sensor 132 is attached to the user's waist, the movement of the waist is limited by the saddle immediately below the waist, making it difficult to detect acceleration due to shaking of the upper body when the user is riding a bicycle. There is little difference with the movement of motorcycles. On the other hand, if the acceleration sensor 132 is disposed on the user's head, it is possible to accurately detect shaking of the upper body when the user is riding a bicycle. In the present embodiment, since the HMD 1 is mounted on the head or the HMD 1 is in the vicinity of the user's head, the acceleration sensor 132 is disposed in the vicinity of the head. Therefore, according to the HMD 1 of the present embodiment, it can be determined from the detection value of the acceleration sensor 132 whether or not the user is moving on a bicycle.

(ステップS626)ユーザーが自転車で移動中であると判別した場合、乗物検出部309は、自転車用のナビゲーションを行う。自転車用のナビゲーションとは、目標地点までの経路を案内するものであるが、自動車専用道路や階段など、自転車では通過できない経路は避けるように、経路案内を行う。この場合、乗物検出部309は、表示パネル63への経路表示、及び耳元スピーカー23から音声による経路案内のアナウンスの少なくとも1つを行う。 (Step S626) When it is determined that the user is moving on a bicycle, the vehicle detection unit 309 performs bicycle navigation. Bicycle navigation is to guide the route to the target point, but route guidance is performed so as to avoid routes that cannot be passed by bicycle, such as automobile roads and stairs. In this case, the vehicle detection unit 309 performs at least one of route display on the display panel 63 and announcement of route guidance by voice from the ear speaker 23.

(ステップS627)乗物検出部309は、ユーザーが自動車で移動中であるか否かを判別する。乗物検出部309は、ユーザーが自動車で移動中であると判別した場合(ステップS627;Yes)、ステップS628に進み、ユーザーが自動車で移動中ではないと判別した場合(ステップS627;No)、ステップS629に進む。
乗物検出部309は、例えば、ユーザーが自動車で移動中であるか否かを、加速度センサー132の検出値から判別する。ユーザーが自動車で移動中である場合は、速度0から加速した場合のユーザーの上半身の揺れが少ない。このことから、乗物検出部309は、加速度センサー132の検出値から、速度0から加速した場合のユーザーの上半身の加速度が少ないことが検出された場合、ユーザーが自動車で移動中であると判別する。
乗物検出部309は、ユーザーが自動車で移動中であるか否かを、カメラ64が撮像した画像データも用いて判別するようにしてもよい。この場合、乗物検出部309は、例えばユーザーの手の動きが運転時の手の動きであるか否かを、周知の手法を用いて判別する。または、乗物検出部309は、例えばカメラ64が撮像した画像データにハンドルの画像が含まれている場合、ユーザーが自動車で移動していると判別するようにしてもよい。
(Step S627) The vehicle detection unit 309 determines whether or not the user is moving in a car. If the vehicle detection unit 309 determines that the user is moving in a car (step S627; Yes), the vehicle detection unit 309 proceeds to step S628 and determines that the user is not moving in a car (step S627; No). The process proceeds to S629.
For example, the vehicle detection unit 309 determines whether or not the user is moving in a car from the detection value of the acceleration sensor 132. When the user is moving in a car, the user's upper body shakes little when accelerating from zero speed. From this, the vehicle detection unit 309 determines that the user is moving in a car when it is detected from the detection value of the acceleration sensor 132 that the acceleration of the upper body of the user when accelerating from zero speed is small. .
The vehicle detection unit 309 may determine whether or not the user is moving in a car using image data captured by the camera 64. In this case, the vehicle detection unit 309 determines whether the movement of the user's hand is a movement of the hand during driving, for example, using a known method. Alternatively, the vehicle detection unit 309 may determine that the user is moving in a car when the image of the handle is included in the image data captured by the camera 64, for example.

(ステップS628)ユーザーが自動車で移動中であると判別した場合、乗物検出部309は、自動車用のナビゲーションを行う。自動車用のナビゲーションとは、目標地点までの経路を案内するものである。この場合、乗物検出部309は、表示パネル63への経路表示、及び耳元スピーカー23から音声による経路案内のアナウンスの少なくとも1つを行う。
なお、上述のステップS623〜S627で、各移動手段の特長が見いだされない場合、乗物検出部309は、それまで表示パネル63に表示されていたナビゲーション、または耳元スピーカー23から報知されているナビゲーションを継続して行うようにしてもよい。また、本発明において、ナビゲーションに関する情報とは、徒歩用のナビデーション、自転車用のナビゲーション、自動車用のナビゲーション、及び公共の交通機関に対応したナビゲーションのうち、いずれかのナビゲーションである。
(ステップS629)乗物検出部309は、ユーザーが目標地点に到達したか否かを、設定された目標地点の情報と、GPSセンサー135が測位した測位情報とに基づいて判別する。乗物検出部309は、ユーザーがまだ目標地点に到着していないと判別した場合(ステップS629;No)、ステップS603に戻り、ユーザーが目標地点に到達したと判別した場合(ステップS629;Yes)、処理を終了する。
(Step S628) When it is determined that the user is moving in a car, the vehicle detection unit 309 performs navigation for the car. Car navigation is to guide the route to a target location. In this case, the vehicle detection unit 309 performs at least one of route display on the display panel 63 and announcement of route guidance by voice from the ear speaker 23.
In addition, when the feature of each moving means is not found in the above-described steps S623 to S627, the vehicle detection unit 309 performs the navigation displayed on the display panel 63 until then, or the navigation notified from the ear speaker 23. You may make it carry out continuously. In the present invention, the navigation-related information is any one of navigation for walking, navigation for bicycles, navigation for automobiles, and navigation corresponding to public transportation.
(Step S629) The vehicle detection unit 309 determines whether or not the user has reached the target point based on the set target point information and the positioning information measured by the GPS sensor 135. When the vehicle detection unit 309 determines that the user has not yet arrived at the target point (step S629; No), the vehicle detection unit 309 returns to step S603 and determines that the user has reached the target point (step S629; Yes). The process ends.

次に、居眠検出部310は、以下のステップS639〜S640、及びステップS632〜S634のように「居眠り検出処理」及び警告処理を行う。   Next, the dozing detection unit 310 performs a “sleeping detection process” and a warning process as in steps S639 to S640 and steps S632 to S634 described below.

(ステップS630)図39に移って、ステップS618〜S620(図38)で、ユーザーが電車、バス、船舶の何れかの交共の交通機関で移動中であると判別した場合、乗物検出部309は、HMD1の呼び出し音をサイレントモードに設定する。サイレントモードとは、静粛性が求められるような場所において、着信等の呼び出し音等を大きな音で鳴らさないモードであり、その詳細は後述する。 (Step S630) Moving to FIG. 39, when it is determined in steps S618 to S620 (FIG. 38) that the user is moving in any of the transportation modes such as a train, a bus, or a ship, the vehicle detection unit 309 Sets the HMD1 ringer to silent mode. The silent mode is a mode in which a ringing tone such as an incoming call is not generated with a loud sound in a place where quietness is required, and details thereof will be described later.

(ステップS631)乗物検出部309は、公共の交通機関に対応したナビゲーションを行う。例えば、電車での移動中である場合、乗物検出部309は、電車でのナビゲーションとして、乗換駅のアナウンス、急行への接続情報、運行の遅れ情報などの音声によるアナウンスを耳元スピーカー23から出力する。乗物検出部309は、これらの情報を、表示パネル63に表示するようにしてもよい。 (Step S631) The vehicle detection unit 309 performs navigation corresponding to public transportation. For example, when moving by train, the vehicle detection unit 309 outputs from the ear speaker 23 voice announcements such as a transfer station announcement, express connection information, and operation delay information as navigation by train. . The vehicle detection unit 309 may display such information on the display panel 63.

(ステップS632)ユーザーが公共の交通機関で移動中である場合、ユーザーが寝ていたとしても特に問題はない。但し、降車駅を乗り過ごすと問題が発生する。このため、居眠検出部310は、撮像画像から、ユーザーが、例えば5秒以上目を瞑っているかを判別する。なお、居眠検出部310は、ユーザーが5秒以上目を瞑っているか否かの判別を、例えばステップS621と同様に行う。居眠検出部310は、ユーザーが5秒以上目を瞑っていると判別した場合(ステップS632;Yes)、ステップS633に進み、ユーザーが5秒以上目を瞑っていないと判別した場合(ステップS632;No)、ステップS635に進む。 (Step S632) When the user is moving by public transportation, there is no particular problem even if the user is sleeping. However, problems will arise if you get off the train station. For this reason, the dozing detection unit 310 determines from the captured image whether the user is meditating for 5 seconds or more, for example. Note that the dozing detection unit 310 determines whether or not the user is meditating for the fifth or more seconds, for example, in the same manner as in step S621. If the dozing detection unit 310 determines that the user is meditating for 5 seconds or more (step S632; Yes), the dozing detection unit 310 proceeds to step S633 and determines that the user is not meditating for more than 5 seconds (step S632). No), the process proceeds to step S635.

(ステップS633)乗物検出部309は、現在の位置が乗換駅又は降車駅かの判別をステップS615(図38)で取得した位置情報P(i)で行う。乗物検出部309は、現在の位置が乗換駅又は降車駅でないと判別した場合(ステップS633;No)、ステップS635に進み、現在の位置が乗換駅又は降車駅であると判別した場合(ステップS633;Yes)、ステップS634に進む。なお、乗物検出部309は、現在の位置が、乗換駅又は降車駅から所定の距離、手前の位置であった場合に、現在の位置が乗換駅又は降車駅であると判別するようにしてもよい。これにより、本実施形態のHMD1は、乗換駅又は降車駅に到着する前にユーザーに報知することができるので、ユーザーの乗り過ごしを防ぐことができる。 (Step S633) The vehicle detection unit 309 determines whether the current position is the transfer station or the getting-off station based on the position information P (i) acquired in Step S615 (FIG. 38). When the vehicle detection unit 309 determines that the current position is not a transfer station or a disembarkation station (step S633; No), the vehicle detection unit 309 proceeds to step S635 and determines that the current position is a transfer station or a disembarkation station (step S633). ; Yes), the process proceeds to step S634. The vehicle detection unit 309 may determine that the current position is the transfer station or the getting-off station when the current position is a predetermined distance from the transfer station or the getting-off station. Good. Thereby, since HMD1 of this embodiment can alert | report a user before arriving at a transfer station or an alighting station, it can prevent a user's passing over.

(ステップS634)現在の位置が乗換駅又は降車駅であると判別した場合、かつユーザーが目を5秒以上瞑っていると判別した場合、音響制御部305は、居眠検出部310の判別した結果である居眠警告情報に基づいてアラームを耳元スピーカー23より発して、ユーザーに覚醒するように促す。 (Step S634) If it is determined that the current position is a transfer station or a getting-off station, and if it is determined that the user is meditating for more than 5 seconds, the acoustic control unit 305 determines that the dozing detection unit 310 has determined An alarm is issued from the ear speaker 23 based on the doze warning information as a result to prompt the user to wake up.

なお、本実施形態では、撮像画像に基づいてユーザーが目瞑り状態(居眠り状態)であることを検出する例を説明したが、これに限られない。居眠検出部310は、加速度センサー132が検出した検出値に基づいて、ユーザーが居眠りをしている状態か否かを判別するようにしてもよい。例えば、居眠検出部310は、ユーザーの頭部又は体が所定の周期で揺れているか、またはユーザーの頭部又は体が所定の角度以上、傾いているかに基づいて、ユーザーが居眠りをしている状態か否かを判別するようにしてもよい。例えば、制御部302は、ユーザーの移動手段が電車、またはバスであると判別された場合に、加速度センサー132が検出した検出値に基づいて、ユーザーの頭部が揺れていることを検出する。そして、制御部302は、ユーザーの頭部が揺れていることが検出された場合、ユーザーが隣の人に寄りかからないように、例えば耳元スピーカーから報知するようにしてもよい。また、制御部302は、このようなユーザーが隣の人に寄りかかっていないか否かの検出を、HMD1をユーザーが頭部に装着していること、もしくはHMD1がユーザーの頭部近傍にあることを検出した場合に行う。これにより、本発明に係るHMD1によれば、ユーザーがHMD1を鞄等に入れたままの状態で、例えば鞄を傾けたときに不要な報知をしないため、周囲に迷惑をかけない効果がある。   In the present embodiment, an example in which it is detected that the user is in a closed state (sleeping state) based on the captured image has been described, but the present invention is not limited to this. The dozing detection unit 310 may determine whether or not the user is dozing based on the detection value detected by the acceleration sensor 132. For example, the dozing detection unit 310 may cause the user to fall asleep based on whether the user's head or body is shaking at a predetermined period or whether the user's head or body is tilted by a predetermined angle or more. You may make it discriminate | determine whether it is in the state. For example, when it is determined that the user's moving means is a train or a bus, the control unit 302 detects that the user's head is shaking based on the detection value detected by the acceleration sensor 132. And when it is detected that the user's head is shaking, the control part 302 may alert | report, for example from an ear speaker so that a user may not lean on an adjacent person. In addition, the control unit 302 detects whether or not such a user is leaning on an adjacent person, whether the user is wearing the HMD 1 on the head, or the HMD 1 is in the vicinity of the user's head. This is done when it is detected. Thereby, according to HMD1 which concerns on this invention, since a user does not carry out unnecessary alert | reporting, for example when tilting a heel in the state which put HMD1 in the heel etc., there exists an effect which does not cause trouble around.

(ステップS635)乗物検出部309は、ステップS601で設定した目標地点、ステップS609で取得した測位情報、及びステップS612で算出した平均速度V(i)に基づいて、現在地点から目標地点までの距離と到着予想時間とを算出する。次に、乗物検出部309は、算出した現在地点と目標地点までの距離と到着予想時間を表示パネル63に表示する。乗物検出部309は、表示パネル63に表示した後、ステップS629(図38)に進む。 (Step S635) The vehicle detection unit 309 determines the distance from the current location to the target location based on the target location set in Step S601, the positioning information acquired in Step S609, and the average speed V (i) calculated in Step S612. And the estimated arrival time. Next, the vehicle detection unit 309 displays the calculated distance between the current location and the target location and the estimated arrival time on the display panel 63. The vehicle detection unit 309 displays the information on the display panel 63, and then proceeds to step S629 (FIG. 38).

(ステップS636)ステップS617(図38)で平均速度V(i)がほぼゼロと判別した場合、乗物検出部309は、ステップS616(図38)で取得した現在の場所の高度Al(i)が、ステップS615で取得した位置情報に含まれている標高と一致しているか否かを判別する。
乗物検出部309は、現在地点の高度Al(i)と標高とが一致していると判別した場合(ステップS636;Yes)、ユーザーは地上にいると判別し、ステップS641に進む。乗物検出部309は、現在地点の高度Al(i)と標高とが一致していないと判別した場合(ステップS636;No)、ステップS637に進む。
(Step S636) When the average speed V (i) is determined to be substantially zero in Step S617 (FIG. 38), the vehicle detection unit 309 determines that the altitude Al (i) of the current location acquired in Step S616 (FIG. 38) is Then, it is determined whether or not the altitude included in the position information acquired in step S615 matches.
When the vehicle detection unit 309 determines that the altitude Al (i) at the current location matches the altitude (step S636; Yes), the vehicle detection unit 309 determines that the user is on the ground and proceeds to step S641. If the vehicle detection unit 309 determines that the altitude Al (i) at the current location does not match the altitude (step S636; No), the vehicle detection unit 309 proceeds to step S637.

(ステップS637)現在地点の高度Al(i)と標高とが一致していないと判別した場合、乗物検出部309は、ユーザーは地上にいないと判別する。この場合、乗物検出部309は、現在地点の建物などの建築物の情報を、例えばインターネット上のデータベースから取得する。記憶部303に地図データが記憶されている場合、乗物検出部309は、現在地点の建物などの建築物の情報を、記憶部303に記憶されている地図データから取得するようにしてもよい。 (Step S637) When it is determined that the altitude Al (i) at the current location does not match the altitude, the vehicle detection unit 309 determines that the user is not on the ground. In this case, the vehicle detection unit 309 acquires information on a building such as a building at the current location from a database on the Internet, for example. When the map data is stored in the storage unit 303, the vehicle detection unit 309 may acquire information on a building such as a building at the current location from the map data stored in the storage unit 303.

(ステップS638)乗物検出部309は、ステップS637で取得した情報に基づいて、現在地点にユーザーがいる高さに対応する建物があるか否かを判別する。乗物検出部309は、現在地点にユーザーがいる高さに対応する建物があると判別した場合(ステップS638;Yes)、ユーザーはその建物の中にいて静止している状態であり、特に危険がないと判別し、ステップS641に進む。乗物検出部309は、現在地点にユーザーがいる高さに対応する建物がないと判別された場合(ステップS638;No)、ステップS639に進む。 (Step S638) The vehicle detection unit 309 determines whether there is a building corresponding to the height at which the user is present at the current location based on the information acquired in Step S637. When the vehicle detection unit 309 determines that there is a building corresponding to the height at which the user is present at the current point (step S638; Yes), the user is in a stationary state in the building and is particularly dangerous. If not, the process proceeds to step S641. If it is determined that there is no building corresponding to the height at which the user is present at the current location (step S638; No), the vehicle detection unit 309 proceeds to step S639.

(ステップS639)現在地点にユーザーがいる高さに対応する建物がないとい判別される場合、居眠検出部310は、撮像画像に基づいて、ユーザーが、例えば3秒以上目を瞑っているか否かを判別する。なお、居眠検出部310は、3秒以上目を瞑っているか否かの判別を、例えばステップS621と同様に行う。ユーザーが3秒以上目を瞑っていると判別した場合(ステップS639;Yes)、ステップS640に進み、ユーザーが3秒以上目を瞑っていないと判別した場合(ステップS639;No)、ステップS641に進む。
すなわち、現在地点にユーザーがいる高さに対応する建物がない場合、ユーザーは、地図上に高い建物がないにもかかわらず、高所にいる状態が想定される。この状態は、例えば建設中の建造物の高所にユーザーが留まっていると想定できる。ユーザーが例えば建設中の建造物の高所に留まっているような状態では、目を瞑ることは危険であるので、本実施形態のHMD1では、ステップS633において目瞑りを検出している。
(Step S639) When it is determined that there is no building corresponding to the height at which the user is present at the current location, the dozing detection unit 310 determines whether the user is meditating for 3 seconds or more based on the captured image, for example. Is determined. Note that the dozing detection unit 310 determines whether or not the eye is meditated for 3 seconds or more, for example, in the same manner as in step S621. If it is determined that the user is meditating for more than 3 seconds (step S639; Yes), the process proceeds to step S640. If it is determined that the user is not meditating for more than 3 seconds (step S639; No), the process proceeds to step S641. move on.
That is, when there is no building corresponding to the height at which the user is present at the current location, the user is assumed to be in a high place even though there is no tall building on the map. In this state, for example, it can be assumed that the user stays at a height of a building under construction. For example, in the state where the user stays at the height of the building under construction, it is dangerous to meditate the eyes. Therefore, in the HMD 1 of the present embodiment, eye mutilation is detected in step S633.

(ステップS640)ユーザーが3秒以上目を瞑っていると判別した場合、居眠検出部310は、音響制御部305は、居眠検出部310の判別した結果である居眠警告情報に基づいてアラームを耳元スピーカー23から鳴らして、ユーザーの覚醒を促す。
(ステップS641)乗物検出部309は、表示パネル63に表示されている表示内容を維持し、ステップS629に進む。
以上のように、本実施形態に係るHMD1は、ユーザーの目の状態を検出し、所定の時間以上ユーザーの目を瞑っている目瞑り状態の場合、場所に応じて警告を発することでユーザーの注意を喚起する安全なシステムを提供できる。
なお、ステップS601〜S641において、ナビゲーションの音声、目瞑りを検出した場合の警告音、アラームを耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、これらの警告音をステレオイヤホン100に出力するようにしてもよい。また、音響制御部305は、警告音の換わりに、バイブレータ167を振動させて、目瞑りに対する警告、乗換駅又は降車駅に到着したことをユーザーに警告を行うようにしてもよい。また音響制御部305は、耳元スピーカー23又はステレオイヤホン100からの警告音、及びバイブレータ167に振動による警告の少なくとも1つによって、警告を行うようにしてもよい。
(Step S640) When it is determined that the user is meditating for more than 3 seconds, the dozing detection unit 310 uses the sound control unit 305 based on the dozing warning information that is the determination result of the dozing detection unit 310. An alarm is sounded from the ear speaker 23 to prompt the user to wake up.
(Step S641) The vehicle detection unit 309 maintains the display content displayed on the display panel 63, and proceeds to step S629.
As described above, the HMD 1 according to the present embodiment detects the state of the user's eyes, and in the case of the eyes meditating state where the user's eyes are meditated for a predetermined time or longer, the HMD 1 issues a warning according to the location. Provide a safe system to call attention.
Note that, in steps S601 to S641, the example of outputting the navigation sound, the warning sound when the eye-meditation is detected, and the alarm from the ear speaker 23 has been described, but the present invention is not limited thereto. When the stereo earphone 100 is connected to the audio connector 26, the acoustic control unit 305 may output these warning sounds to the stereo earphone 100. Moreover, the acoustic control unit 305 may vibrate the vibrator 167 instead of the warning sound, and warn the user that the eyes have been closed or arrived at the transfer station or the getting-off station. The acoustic control unit 305 may issue a warning by at least one of a warning sound from the ear speaker 23 or the stereo earphone 100 and a warning due to vibration to the vibrator 167.

なお、ステップS630において、ユーザーが公共機関で移動していると判別された場合、サイレントモードに設定する例を説明したが、これに限られない。例えば、乗物検出部309は、ステップS615で取得した位置情報に基づいて、HMD1の呼び出し音をサイレントモードに設定する。具体的には、乗物検出部309は、位置情報が、映画館、コンサートホール、レストラン等の場合、位置情報に基づいて、HMD1の呼び出し音をサイレントモードに設定するようにしてもよい。また、ユーザーは、このようにサイレントモードに設定する位置情報を、ユーザーが操作スイッチ30等の操作により、予め選択するようにしてもよい。   In step S630, when it is determined that the user is moving at a public institution, an example of setting the silent mode has been described. However, the present invention is not limited to this. For example, the vehicle detection unit 309 sets the ringing tone of the HMD 1 to the silent mode based on the position information acquired in step S615. Specifically, when the position information is a movie theater, a concert hall, a restaurant, or the like, the vehicle detection unit 309 may set the ringing tone of the HMD 1 to the silent mode based on the position information. In addition, the user may select in advance the position information to be set to the silent mode in advance by the user operating the operation switch 30 or the like.

次に、「サイレントモードの処理」について説明する。
図40及び図41は、本実施形態に係るサイレントモード処理の手順のフローチャートである。
本実施形態に係るHMD1は、他の端末から着信があった場合、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、耳元スピーカー23、前方スピーカー70、及びバイブレータ167から、着信を報知するように出力を切り替える。また、本実施形態に係るHMD1は、以下のように、サイレントモードの設定状態及びHMD1の装着状態に応じて、着信音(報知音)の音量を切り替える。
Next, “silent mode processing” will be described.
40 and 41 are flowcharts of the procedure of silent mode processing according to the present embodiment.
When the HMD 1 according to the present embodiment receives an incoming call from another terminal, the ear speaker 23, the front speaker 70, and the vibrator 167, depending on the silent mode setting state and the HMD 1 wearing state, as follows, The output is switched to notify the incoming call. Moreover, HMD1 which concerns on this embodiment switches the volume of a ringtone (notification sound) according to the setting state of silent mode, and the mounting state of HMD1, as follows.

(ステップS701)制御部302は、図42の示すような言語の選択メニュー(第1情報)を表示パネル63に表示する。言語の選択メニューとは、表示パネル63に表示するときに使用する言語及びアナウンスで使用する言語(第2言語)の選択のメニューである。ユーザーは、操作スイッチ30を操作して選択メニューから自国語(選択項目)の選択を行う。なお、例えば自国語が日本語であっても、ユーザーは英語等、他の言語を選択してもよい。
図42は、本実施形態に係る言語の選択メニュー画面(第1情報)400iの一例である。図42に示すように、選択メニュー画面400iには、日本語ボタン450、English(英語)ボタン451、Francais(フランス語)ボタン452、Deutsch(ドイツ語)ボタン453、Nederlands(オランダ語)ボタン454、Italiano(イタリア語)ボタン455、Espanol(スペイン語)ボタン456、Portugues(ポルトガル語)ボタン457、Dansk(デンマーク語)ボタン458、Suomi(フィンランド語)ボタン459が含まれている。この言語の選択ボタンが、各々、選択項目である。
(Step S701) The control unit 302 displays a language selection menu (first information) as shown in FIG. The language selection menu is a menu for selecting a language used for display on the display panel 63 and a language used for the announcement (second language). The user operates the operation switch 30 to select the native language (selection item) from the selection menu. For example, even if the native language is Japanese, the user may select another language such as English.
FIG. 42 is an example of a language selection menu screen (first information) 400i according to the present embodiment. 42, the selection menu screen 400i includes a Japanese button 450, an English (English) button 451, a Francais (French) button 452, a Deutsch (German) button 453, a Nederlands (Dutch) button 454, an Italiano. (Italian) button 455, Espanol (Spanish) button 456, Portugues (Portuguese) button 457, Dansk (Danish) button 458, and Suomi (Finnish) button 459 are included. Each language selection button is a selection item.

(ステップS702)制御部302は、送受信部308からの受信信号に基づき、他の端末から着信があったか否かを判別する。制御部302は、他の端末から着信がなかったと判別した場合(ステップS702;No)、ステップS702を繰り返して他の端末からの着信を待機する。制御部302は、他の端末から着信があったと判別した場合(ステップS702;Yes)、ステップS703に進む。 (Step S <b> 702) The control unit 302 determines whether there is an incoming call from another terminal based on the reception signal from the transmission / reception unit 308. When it is determined that there is no incoming call from another terminal (step S702; No), the control unit 302 repeats step S702 and waits for an incoming call from the other terminal. When determining that there is an incoming call from another terminal (step S702; Yes), the control unit 302 proceeds to step S703.

(ステップS703)他の端末から着信があったと判別した場合、制御部302は、HMD1がサイレントモードに設定されているか否かを判別する。サイレントモードの設定は、例えば、ユーザーが操作スイッチ30を操作して表示パネル63に表示されるメニュー(不図示)から選択して設定するか、又は乗物検出部309が「居眠り検出の処理」のステップS630で設定する。
制御部302は、サイレントモードが設定されていると判別した場合(ステップS703;Yes)、ステップS712に進み、サイレントモードが設定されていないと判別した場合(ステップS703;No)、ステップS704に進む。
(Step S703) When determining that there is an incoming call from another terminal, the control unit 302 determines whether or not the HMD 1 is set to the silent mode. The silent mode is set by, for example, the user operating the operation switch 30 to select and set from a menu (not shown) displayed on the display panel 63, or the vehicle detection unit 309 performs “Dozing detection processing”. Set in step S630.
When it is determined that the silent mode is set (step S703; Yes), the control unit 302 proceeds to step S712, and when it is determined that the silent mode is not set (step S703; No), the control unit 302 proceeds to step S704. .

(ステップS704)装着処理部311は、心拍数センサー137及び/又はヘッドバンドセンサー151が検出した検出値に基づいて、ユーザーの頭部にHMD1が装着されているか、もしくは手などでHMD1が頭部近傍に保持されているか否かの判別を行う。なお、頭部近傍とは、例えば、ユーザーが表示パネル63に表示されている情報が見える位置、または耳元スピーカー23から発せられる音をユーザーが聞こえる位置である。
次に、装着処理部311は、判別した結果に基づいて装着情報を生成し、生成した装着情報を音響制御部305に出力する。装着処理部311は、ユーザーの頭部にHMD1が装着されていると判別した場合(ステップS704;Yes)、ステップS705に進み、ユーザーの頭部にHMD1が装着されていないと判別した場合(ステップS704;No)、ステップS706に進む。
なお、装着処理部311は、HMD1に設けられている不図示のユーザーの頭部近傍又は頭部への装着を検出する機械的なスイッチの検出値に基づいて、ユーザーの頭部にHMD1が装着されているか否かを判別してもよい。
(Step S704) The wearing processing unit 311 determines whether the HMD1 is worn on the user's head based on the detection value detected by the heart rate sensor 137 and / or the headband sensor 151, or the HMD1 is placed on the head by a hand or the like. It is determined whether or not it is held in the vicinity. Note that the vicinity of the head is, for example, a position where the user can see information displayed on the display panel 63 or a position where the user can hear a sound emitted from the ear speaker 23.
Next, the mounting processing unit 311 generates mounting information based on the determined result, and outputs the generated mounting information to the acoustic control unit 305. When it is determined that the HMD1 is mounted on the user's head (step S704; Yes), the mounting processing unit 311 proceeds to step S705, and when it is determined that the HMD1 is not mounted on the user's head (step S704; No), the process proceeds to step S706.
The mounting processing unit 311 mounts the HMD 1 on the user's head based on a detection value of a mechanical switch that detects the mounting on the head of the user (not shown) provided on the HMD 1. It may be determined whether or not it is done.

ここでフローチャートに示すところの音響制御部305の制御についてまとめると以下の(I)〜(VI)のようになる。
音響制御部305は、制御部302が出力するサイレントモード設定情報と、乗物検出部309が出力したサイレントモード設定情報と、装着処理部311が出力する装着情報とに基づいて、耳元スピーカー23、前方スピーカー、及びバイブレータ167からの報知を以下の(I)〜(VI)のように制御する。
(I)サイレントモードに設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(II)サイレントモードに設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、前方スピーカー70より着信音を高音圧で鳴らすように制御する。
(III)サイレントモードに設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、耳元スピーカー23より通信相手の音声を低音圧で発するように制御する。
(IV)サイレントモードに設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、前方スピーカー70より通信相手の音声を高音圧で発するように制御する。
(V)サイレントモードに設定されていると判別した場合、かつHMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らすように制御する。
(VI)サイレントモードに設定されていると判別した場合、かつHMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、バイブレータ167を振動させて着信を知らせるように制御する。
Here, the control of the acoustic control unit 305 shown in the flowchart is summarized as follows (I) to (VI).
Based on the silent mode setting information output by the control unit 302, the silent mode setting information output by the vehicle detection unit 309, and the mounting information output by the mounting processing unit 311, the acoustic control unit 305 Notification from the speaker and vibrator 167 is controlled as in the following (I) to (VI).
(I) When it is determined that the silent mode is not set, and when it is determined that the HMD 1 is attached to the user's head or the HMD 1 is in the vicinity of the user's head, the acoustic control unit 305 Control is performed so that the ringtone is emitted from the speaker 23 at a low sound pressure.
(II) When it is determined that the silent mode is not set, and when it is determined that the HMD 1 is not worn on the user's head or the HMD 1 is not near the user's head, the acoustic control unit 305 Control is performed so that a ringtone is emitted from the speaker 70 at a high sound pressure.
(III) When it is determined that the silent mode is not set, and when it is determined that the HMD 1 is attached to the user's head or the HMD 1 is in the vicinity of the user's head, the acoustic control unit 305 Control is performed so that the voice of the communication partner is emitted from the speaker 23 at a low sound pressure.
(IV) When it is determined that the silent mode is not set, and when it is determined that the HMD 1 is not worn on the user's head or the HMD 1 is not near the user's head, the acoustic control unit 305 Control is performed so that the communication partner's voice is emitted from the speaker 70 at a high sound pressure.
(V) When it is determined that the silent mode is set, and when it is determined that the HMD 1 is mounted on the user's head or the HMD 1 is in the vicinity of the user's head, the acoustic control unit 305 Control is performed so that the ringtone is emitted from the speaker 23 at a low sound pressure.
(VI) When it is determined that the silent mode is set, and when it is determined that the HMD 1 is not mounted on the user's head or the HMD 1 is not near the user's head, the sound control unit 305 167 is controlled to vibrate to notify the incoming call.

(ステップS705)図40に戻って、サイレントモードに設定されていないと判別した場合、かつユーザーが頭部にHMD1を装着している、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに報知する。
このように、耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに知らせる理由を説明する。HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、耳元スピーカー23から着信を報知すれば、ユーザーは着信があったことに気がつく。この場合、制御部302は、耳元スピーカー23から着信を報知するため、大音量で出力する必要がない。
(Step S705) Returning to FIG. 40, when it is determined that the silent mode is not set, and when it is determined that the user wears the HMD1 on the head or the HMD1 is near the user's head, The sound control unit 305 sounds a ringtone from the ear speaker 23 at a low sound pressure to notify the user that there is an incoming call.
The reason for notifying the user that an incoming call has been received by ringing a ringtone from the ear speaker 23 at a low sound pressure will be described. When it is determined that the HMD 1 is mounted on the user's head or the HMD 1 is in the vicinity of the user's head, if the incoming call is notified from the ear speaker 23, the user notices that the incoming call has been received. In this case, since the control unit 302 notifies the incoming call from the ear speaker 23, it is not necessary to output at a high volume.

(ステップS706)サイレントモードに設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する。
このように、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する理由を説明する。HMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、HMD1は、ユーザーの鞄の中に入れられているか、他の場所に置かれているかなどが想定される。このように、サイレントモードが設定されていないと判別した場合、かつHMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、HMD1は、ユーザーに聞こえるように大音量で着信を報知する必要があるので、前方スピーカー70から着信音を高音圧で鳴らして、着信があったことをユーザーに報知する。
(Step S706) When it is determined that the silent mode is not set, and when it is determined that the HMD 1 is not worn on the user's head or the HMD 1 is not near the user's head, the acoustic control unit 305 A ring tone is emitted from the front speaker 70 at a high sound pressure to notify the user that an incoming call has been received.
The reason for notifying the user that there has been an incoming call by ringing a ringtone from the front speaker 70 at a high sound pressure will be described. If it is determined that the HMD 1 is not attached to the user's head or the HMD 1 is not near the user's head, is the HMD 1 placed in the user's bag or placed elsewhere? Is assumed. As described above, when it is determined that the silent mode is not set, and when it is determined that the HMD 1 is not mounted on the user's head or the HMD 1 is not near the user's head, the HMD 1 can be heard by the user. Thus, since it is necessary to notify the incoming call at a high volume, a ringing tone is emitted from the front speaker 70 with a high sound pressure to notify the user that the incoming call has been received.

(ステップS707)前方スピーカー70又は耳元スピーカー23からの着信音により、ユーザーに着信を知らせた後、制御部302は、受信信号から相手端末の情報を抽出し、抽出した相手端末の情報を表示パネル63に表示する。
(ステップS708)装着処理部311は、再度、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあるか否かの判別を行う。このように再度、判別を行う理由は、着信音が鳴ったことにより頭部近傍になかったHMD1を、ユーザーが頭部に装着もしくは頭部付近に手で移動した可能性があるためである。装着処理部311は、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合(ステップS708;Yes)、ステップS710に進み、HMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合(ステップS708;Yes)、ステップS709に進む。
(Step S707) After notifying the user of the incoming call by the ringtone from the front speaker 70 or the ear speaker 23, the control unit 302 extracts the information of the partner terminal from the received signal, and displays the extracted partner terminal information on the display panel. 63.
(Step S708) The wearing processing unit 311 again determines whether the HMD1 is worn on the user's head or whether the HMD1 is near the user's head. The reason why the determination is performed again in this manner is that the user may have mounted the HMD 1 that was not near the head due to the ringing tone, or moved the hand near the head. When it is determined that the HMD1 is mounted on the user's head or the HMD1 is near the user's head (step S708; Yes), the mounting processing unit 311 proceeds to step S710, where the HMD1 is the user's head. If it is determined that the HMD 1 is not near the user's head (step S708; Yes), the process proceeds to step S709.

(ステップS709)HMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、受信信号から相手端末の音声を抽出し、抽出した相手端末の音声を耳元スピーカー23から低音圧(第1音量)で報知する。この処理により、ユーザーは、HMD1を頭部に装着していなくても、もしくはHMD1がユーザーの頭部近傍になくても、相手端末からの音声を聞きとることが可能となる。
(ステップS710)HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、受信信号から相手端末の音声を抽出し、抽出した相手端末の音声を前方スピーカー70から高音圧(第2音量)で報知する。なお、第2音量は、第1音量より小さい。
(Step S709) If it is determined that the HMD 1 is not worn on the user's head or the HMD 1 is not near the user's head, the acoustic control unit 305 extracts and extracts the voice of the counterpart terminal from the received signal. The sound of the partner terminal is notified from the ear speaker 23 at a low sound pressure (first volume). By this processing, the user can hear the voice from the partner terminal even when the HMD 1 is not worn on the head or the HMD 1 is not near the user's head.
(Step S710) When it is determined that the HMD1 is mounted on the user's head or the HMD1 is in the vicinity of the user's head, the acoustic control unit 305 extracts and extracts the voice of the counterpart terminal from the received signal. The voice of the partner terminal is notified from the front speaker 70 at a high sound pressure (second volume). The second volume is smaller than the first volume.

(ステップS711)制御部302は、ユーザーが操作スイッチ30の操作及び受信信号に基づいて、通話が終了したか否かを判別する。制御部302は、通話が終了していないと判別した場合(ステップS711;No)、ステップS708へ戻り、通話が終了したと判別した場合(ステップS711;Yes)、ステップS731に進む。 (Step S <b> 711) The control unit 302 determines whether or not the call has ended based on the operation of the operation switch 30 and the received signal by the user. When it is determined that the call has not ended (step S711; No), the control unit 302 returns to step S708, and when it is determined that the call has ended (step S711; Yes), the control unit 302 proceeds to step S731.

(ステップS712)図41に移って、サイレントモードが設定されていると判別した場合、装着処理部311は、再度、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあるか否かを判別する。装着処理部311は、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合(ステップS712;Yes)、ステップS713に進み、HMD1がユーザーの頭部に装着されていない、もしくはHMD1がユーザーの頭部近傍にないと判別した場合(ステップS712;No)、ステップS715に進む。 (Step S712) Moving to FIG. 41, if it is determined that the silent mode is set, the attachment processing unit 311 again attaches the HMD1 to the user's head, or the HMD1 is near the user's head. It is discriminated whether or not there is. When it is determined that the HMD1 is mounted on the user's head or the HMD1 is in the vicinity of the user's head (step S712; Yes), the mounting processing unit 311 proceeds to step S713, where the HMD1 is the user's head. If it is determined that the HMD 1 is not near the user's head (step S712; No), the process proceeds to step S715.

(ステップS713)サイレントモード設定時であっても、HMD1がユーザーの頭部に装着されていれば、もしくはHMD1がユーザーの頭部近傍にあれば、着信音を耳元スピーカー23から報知しても、周囲に着信音は漏れない。このため、サイレントモードに設定されている場合、かつHMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、音響制御部305は、着信音を耳元スピーカー23より着信音を低音圧で鳴らして、着信があったことをユーザーに報知する。 (Step S713) Even when the silent mode is set, if the HMD 1 is worn on the user's head, or if the HMD 1 is in the vicinity of the user's head, even if the ring tone is notified from the ear speaker 23, No ringtones leak around. For this reason, when it is determined that the silent mode is set and the HMD 1 is mounted on the user's head or the HMD 1 is near the user's head, the acoustic control unit 305 receives the ring tone at the ear. A ring tone is emitted from the speaker 23 at a low sound pressure to notify the user that there is an incoming call.

(ステップS714)制御部302は、通話開始を検出する。通話開始が検出されていないと判別した場合(ステップS714;No)、制御部302及び音響制御部305は、通話開始が検出されるまで、ステップS713とS714を繰り返して、耳元スピーカー23より着信音を出力し続ける。通話開始が検出されたと判別した場合(ステップS714;Yes)、制御部302は、ステップS717に進む。制御部302は、例えば、ユーザーによる操作スイッチ30の操作に基づいて、通話が開始されたか否かを判別する。 (Step S714) The controller 302 detects the start of a call. When it is determined that the call start is not detected (step S714; No), the control unit 302 and the acoustic control unit 305 repeat steps S713 and S714 until the call start is detected, and the ring tone is received from the ear speaker 23. Will continue to be output. If it is determined that the start of a call has been detected (step S714; Yes), the control unit 302 proceeds to step S717. For example, the control unit 302 determines whether or not a call is started based on the operation of the operation switch 30 by the user.

(ステップS715)サイレントモード設定時、HMD1は着信音を周囲に漏らさずに、ユーザーに着信を知らせる必要がある。HMD1がユーザーの頭部に装着されていない場合、もしくはHMD1がユーザーの頭部近傍にない場合、ユーザーは、例えば、HMD1を衣服のポケットや鞄に入れていることが想定される。このため、着信時にサイレントモードに設定されていると判別した場合、かつ、HMD1がユーザーの頭部に装着されていない場合、もしくはHMD1がユーザーの頭部近傍にないと判別した場合、音響制御部305は、バイブレータ167を振動させ、着信があったことをユーザーに報知する。 (Step S715) When the silent mode is set, the HMD 1 needs to notify the user of the incoming call without leaking the ringtone to the surroundings. When the HMD 1 is not mounted on the user's head, or when the HMD 1 is not near the user's head, the user is assumed to have placed the HMD 1 in a clothes pocket or a bag, for example. For this reason, when it is determined that the silent mode is set at the time of an incoming call, and when the HMD 1 is not worn on the user's head or when it is determined that the HMD 1 is not near the user's head, the acoustic control unit 305 vibrates the vibrator 167 to notify the user that there is an incoming call.

(ステップS716)制御部302及び音響制御部305は、通話開始が検出されるまで(ステップS716;No)、ステップS715とS716を繰り返して、バイブレータ167を振動させ続ける。通話開始が検出されたと判別した場合(ステップS716;Yes)、制御部302は、ステップS717に進む。
サイレントモードに設定されている場合、ユーザーは、通話に音声で答えられないような場所にいる場合、またはHMD1が鞄の中に入れられている場合が想定される。従って、制御部302は、例えば、ユーザーが通話マイク37をユーザーの口元の位置に配置したことにより、通話開始したことを検出するようにしてもよい。制御部302は、ユーザーが通話マイク37をユーザーの口元の位置に配置されたか否かの検出を、例えば、撮像素子72による撮像画像に基づいて行うようにしてもよい。また、制御部302は、例えば、ユーザーの操作スイッチ30を操作に基づいて、通話が開始されたか否かを判別するようにしてもよい。
(Step S716) The control unit 302 and the sound control unit 305 continue to vibrate the vibrator 167 by repeating steps S715 and S716 until the start of a call is detected (step S716; No). If it is determined that the start of a call has been detected (step S716; Yes), the control unit 302 proceeds to step S717.
When the silent mode is set, it is assumed that the user is in a place where the call cannot be answered by voice, or the HMD 1 is placed in a bag. Therefore, for example, the control unit 302 may detect that the user has started a call by placing the call microphone 37 at the position of the user's mouth. The control unit 302 may detect whether or not the user has placed the call microphone 37 at the position of the user's mouth, for example, based on an image captured by the image sensor 72. For example, the control unit 302 may determine whether or not a call is started based on an operation of the operation switch 30 of the user.

(ステップS717)通話開始が検出されると、制御部302は、受信信号から、相手端末のIPデータや電話番号を抽出する。 (Step S717) When the start of a call is detected, the control unit 302 extracts the IP data and telephone number of the partner terminal from the received signal.

(ステップS718)制御部302は、抽出した相手端末のIPデータや電話番号に基づいて、通信相手のパーソナルデータがサーバー200(図23参照)に登録されているか否かをサーバー200に問い合わせる。
次に、サーバー200は、HMD1からの問い合わせに応じて、通信相手のパーソナルデータが記憶部202(図23参照)に登録されているか否かを判別する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていると判別した場合、登録されている通信相手のパーソナルデータを記憶部202から読み出して、読み出した通信相手のパーソナルデータをHMD1に送信する。サーバー200は、通信相手のパーソナルデータが記憶部202に登録されていないと判別した場合、通信相手のパーソナルデータが登録されていないことを示す情報をHMD1に送信する。
次に、HMD1の制御部302は、相手のパーソナルデータをサーバー200から受信した場合、通信相手のパーソナルデータがあると判別し(ステップS718;Yes)、ステップS719に進む。制御部302は、通信相手のパーソナルデータが登録されていないことを示す情報をサーバー200から受信した場合、通信相手のパーソナルデータがないと判別し(ステップS718;No)、ステップS720に進む。
(Step S718) The control unit 302 inquires of the server 200 whether personal data of the communication partner is registered in the server 200 (see FIG. 23) based on the extracted IP data and telephone number of the partner terminal.
Next, in response to the inquiry from the HMD 1, the server 200 determines whether or not personal data of the communication partner is registered in the storage unit 202 (see FIG. 23). When the server 200 determines that the personal data of the communication partner is registered in the storage unit 202, the server 200 reads the personal data of the registered communication partner from the storage unit 202, and stores the read personal data of the communication partner in the HMD1. Send. When the server 200 determines that the personal data of the communication partner is not registered in the storage unit 202, the server 200 transmits information indicating that the personal data of the communication partner is not registered to the HMD 1.
Next, when the personal data of the other party is received from the server 200, the control unit 302 of the HMD 1 determines that there is personal data of the other party of communication (step S718; Yes), and proceeds to step S719. When the information indicating that personal data of the communication partner is not registered is received from the server 200, the control unit 302 determines that there is no personal data of the communication partner (step S718; No), and proceeds to step S720.

(ステップS719)通信相手のパーソナルデータがあると判別した場合、制御部302は、例えば、パーソナルデータに含まれる国籍を示す情報に基づき、通信相手が使用する言語(第1言語)を特定する。なお、多くの場合は自国の関係者からの通話が多いことから、パーソナルデータに国籍を示す情報がない場合、制御部302は、自分と同じ言語を話す人間であると推定し、ステップS701で設定されたメニュー表示などに使用するのと同じ言語を設定してもよい。 (Step S719) When it is determined that there is personal data of the communication partner, the control unit 302 specifies the language (first language) used by the communication partner based on, for example, information indicating the nationality included in the personal data. In many cases, since there are many calls from the people concerned in the home country, if there is no information indicating nationality in the personal data, the control unit 302 estimates that the person speaks the same language as himself, and in step S701 The same language used for the set menu display may be set.

(ステップS720)通信相手のパーソナルデータがないと判別した場合、制御部302は、相手端末のIPデータ又は電話番号より、通信相手が発信している国名又は地域を特定する。次に、制御部302は、通信相手が発信している国名又は地域に基づいて通信相手の話す言語を推定する。 (Step S720) When it is determined that there is no personal data of the communication partner, the control unit 302 specifies the country name or region from which the communication partner is transmitting, based on the IP data or telephone number of the partner terminal. Next, the control unit 302 estimates the language spoken by the communication partner based on the country name or region from which the communication partner is transmitting.

(ステップS721)通信相手の国名又は地域が判別できた場合、制御部302は、ステップS719又はS720で特定した言語に対応するサイレントモード時のアナウンスを報知する指示を、送受信部308を介して、通信相手の端末に送信する。次に、通信相手の端末は、受信したサイレントモード時のアナウンスを報知する指示に応じて、サイレントモード時のアナウンスを、端末が有する音響出力手段から報知する。
サイレントモード時のアナウンスは、例えば、「現在サイレントモードに設定中のため、こちらからの発話ができません。ハイかイイエなどの限られた内容しか返答できません。」旨の各言語によるアナウンスである。なお、サイレントモード時のアナウンスは、例えば、合成音声であり、記憶部303に予め記憶させておくようにしてもよい。この場合、制御部302は、記憶部303から読み出したサイレントモード時のアナウンスに対応する音声データを、送受信部308を介して、通信相手の端末に送信するようにしてもよい。
(Step S721) When the country or area of the communication partner can be determined, the control unit 302 sends an instruction to notify the announcement in the silent mode corresponding to the language specified in Step S719 or S720 via the transmission / reception unit 308. Send to the terminal of the communication partner. Next, the communication partner terminal notifies the silent mode announcement from the sound output means of the terminal in response to the received instruction to notify the silent mode announcement.
Announcement in silent mode is, for example, an announcement in each language saying "Since it is currently set to silent mode, we cannot speak from here. We can only respond to limited content such as high or no." Note that the announcement in the silent mode is, for example, synthesized speech, and may be stored in the storage unit 303 in advance. In this case, the control unit 302 may transmit the audio data corresponding to the announcement in the silent mode read from the storage unit 303 to the communication partner terminal via the transmission / reception unit 308.

(ステップS722)制御部302は、この通知を通信相手方への送信と平行して、通信相手が使用している端末(以下、相手端末ともいう)の情報を表示パネル63に表示する。相手端末の情報とは、例えば、相手端末の電話番号、通信相手のパーソナルデータである。 (Step S722) The control unit 302 displays information on a terminal used by the communication partner (hereinafter also referred to as a partner terminal) on the display panel 63 in parallel with the transmission to the communication partner. The information on the partner terminal is, for example, the telephone number of the partner terminal and personal data of the communication partner.

(ステップS723)制御部302は、ユーザーの注視点を検出するために、眼球照明ライト166を点灯する。
(ステップS724)制御部302は、図43及び図44に示す応答選択メニューの画像を表示パネル63に表示する。応答選択メニューの画像とは、HMD1が、ユーザーの注視に応じて合成音声で発話する発話内容の項目を選択するための選択項目を含むメニュー画像である。
(Step S723) The control unit 302 turns on the eyeball illumination light 166 in order to detect the user's gaze point.
(Step S724) The control unit 302 displays an image of the response selection menu shown in FIGS. 43 and 44 on the display panel 63. The response selection menu image is a menu image that includes a selection item for the HMD 1 to select an item of utterance content to be uttered with synthesized speech in accordance with the user's gaze.

図43は、本実施形態に係る応答選択メニューの画像700を示す図である。なお、図43は、ステップS701で日本語が選択された場合の選択メニューの例である。
図43に示すように、応答選択メニューの画像700には、5種類の選択項目の画像701〜705が含まれている。選択項目の画像701は、『A ハイ』の文字を含む画像であり、選択項目の画像702は、『B イイエ』の文字を含む画像である。選択項目の画像703は、『C 今お答えできません』の文字を含む画像であり、選択項目の画像704は、『D 了解しました』の文字を含む画像であり、選択項目の画像705は、『E 終了します』の文字を含む画像である。画像706は、ユーザーの注視に基づくカーソル画像である。また、記憶部303には、これらの選択項目の画像701〜705が表示される表示パネル63上の座標(または座標の領域)が予め記憶されている。
なお後述するようにユーザー頭部の左右方向及び、前後方向の回動動作で項目を選択ならびに決定しやすいように、本実施形態に係るHMD1においては、上記の5項目の選択項目の画像を、画像700に示すように斜め方向に一列に並べて配置している。
また、制御部302は、このような応答選択メニューの画像を、表示パネル63上に表示されている画像に重畳して表示するようにしてもよい。または、制御部302は、着信があったことを検出した場合に、着信がある以前に表示していた画像と切り替えて応答選択メニューの画像を表示するようにしてもよい。あるいは、表示パネル63に表示する画像に、例えば応答選択メニューの画像を表示する「応答選択メニューボタン」(操作画像、不図示)を表示しておく。そして、着信があった場合、ユーザーは、この「応答選択メニューボタン」を、ユーザーの注視に基づいて選択する。そして、制御部302は、このユーザーの注視に基づいて選択された結果に基づいて、応答選択メニューの画像を表示パネル63に表示するようにしてもよい。
FIG. 43 is a diagram showing an image 700 of the response selection menu according to the present embodiment. FIG. 43 is an example of a selection menu when Japanese is selected in step S701.
As shown in FIG. 43, the response selection menu image 700 includes images 701 to 705 of five types of selection items. The selection item image 701 is an image including the characters “A high”, and the selection item image 702 is an image including the characters “B No”. The selection item image 703 is an image including the characters “C Cannot answer now”, the selection item image 704 is an image including the characters “D OK”, and the selection item image 705 is “ It is an image that includes the characters “E. An image 706 is a cursor image based on the user's gaze. The storage unit 303 stores in advance the coordinates (or coordinate area) on the display panel 63 on which the images 701 to 705 of these selection items are displayed.
As will be described later, in the HMD 1 according to the present embodiment, the images of the selection items of the above five items are selected so that the items can be easily selected and determined by the horizontal movement of the user's head and the forward and backward rotation operations. As shown in an image 700, they are arranged in a line in an oblique direction.
Further, the control unit 302 may display the response selection menu image so as to be superimposed on the image displayed on the display panel 63. Alternatively, when detecting that there is an incoming call, the control unit 302 may display an image of the response selection menu by switching to an image displayed before the incoming call is received. Alternatively, for example, a “response selection menu button” (operation image, not shown) for displaying an image of a response selection menu is displayed on the image displayed on the display panel 63. When there is an incoming call, the user selects the “response selection menu button” based on the user's gaze. Then, the control unit 302 may display an image of the response selection menu on the display panel 63 based on the result selected based on the user's gaze.

(ステップS725)図42に戻って、制御部302は、撮像画像に基づいて、ユーザーの目の注視点を検出し、ユーザーの注視による選択項目の選択があるか否かを判別する。制御部302は、例えば、ユーザーの注視が、図43の選択項目の画像703上で2秒以上静止し、ユーザーの注視による選択があると判別する。また、制御部302は、選択項目の画像701〜705に対応する座標と、ユーザーの注視に対応する表示パネル63上の座標とを比較することで、ユーザーの注視による選択項目の選択があるか否かを判別する。
制御部302は、ユーザーの注視による選択項目の選択があると判別した場合(ステップS725;Yes)、ステップS729に進み、ユーザーの注視による選択項目の選択がないと判別した場合(ステップS725;Yes)、ステップS726に進む。
(Step S725) Returning to FIG. 42, the control unit 302 detects the gaze point of the user's eyes based on the captured image, and determines whether or not the selection item is selected by the gaze of the user. For example, the control unit 302 determines that the user's gaze is stationary for two seconds or more on the selection item image 703 in FIG. 43 and the user's gaze is selected. In addition, the control unit 302 compares the coordinates corresponding to the selection item images 701 to 705 with the coordinates on the display panel 63 corresponding to the user's gaze, so that the selection item is selected by the user's gaze. Determine whether or not.
When it is determined that the selection item is selected by the user's gaze (step S725; Yes), the control unit 302 proceeds to step S729, and when it is determined that the selection item is not selected by the user's gaze (step S725; Yes). ), The process proceeds to step S726.

(ステップS726)ユーザーの注視による選択項目の選択がないと判別した場合、制御部302は、角速度センサー134の検出値に基づいて、ユーザーの頭部の回動による選択項目の選択があるか否かを判別する。制御部302は、ユーザーの頭部の回動による選択項目の選択があると判別した場合(ステップS726;Yes)、ステップS729に進み、ユーザーの頭部の回動による選択項目の選択がないと判別した場合(ステップS726;No)、ステップS727に進む。 (Step S726) When it is determined that there is no selection item selected by the user's gaze, the control unit 302 determines whether there is a selection item selected by the rotation of the user's head based on the detection value of the angular velocity sensor 134. Is determined. If the control unit 302 determines that there is a selection item selected by turning the user's head (step S726; Yes), the control unit 302 proceeds to step S729, and there is no selection item selected by turning the user's head. When it determines (step S726; No), it progresses to step S727.

具体的な例として、頭部の回動による選択項目の選択では、ユーザーが例えば右方向に所定値以上の角速度で頭部を回動させた場合、制御部302は、この右方向の回動による加速度を角速度センサー134の検出値に基づいて、ユーザーの頭部回動による移動方向と移動量を算出する。次に、制御部302は、算出した移動方向と移動量に基づいて、カーソル画像706を右下の次の項目に移動させて表示パネル63上に表示する。また、ユーザーが左方向に所定値以上の角速度で頭部を回動させた場合、この左方向の回動による加速度が角速度センサー134で検出される。制御部302は、この検出値に基づいて算出した移動方向と移動量に基づいて、カーソル画像706を右下の次の項目に移動させて表示パネル63上に表示する。
このように、制御部302は、頭部の回動による選択において、角速度センサー134の検出値に基づいてユーザーの頭部の動きを検出することで、カーソル画像706を移動させ、各項目を選択する。そして、制御部302は、例えば、ユーザーがあたかも頷くときのように前後方向に顔を動かした場合、選択項目が決定されたと判別する。
As a specific example, in selection of a selection item by turning the head, if the user turns the head, for example, in the right direction at an angular velocity equal to or higher than a predetermined value, the control unit 302 turns the right direction. Based on the detected value of the angular velocity sensor 134, the moving direction and the moving amount due to the user's head rotation are calculated. Next, the control unit 302 moves the cursor image 706 to the next item on the lower right and displays it on the display panel 63 based on the calculated moving direction and moving amount. When the user rotates the head in the left direction at an angular velocity equal to or higher than a predetermined value, the acceleration due to the left rotation is detected by the angular velocity sensor 134. The control unit 302 moves the cursor image 706 to the next item on the lower right and displays it on the display panel 63 based on the moving direction and moving amount calculated based on the detected value.
In this way, the control unit 302 moves the cursor image 706 and selects each item by detecting the movement of the user's head based on the detection value of the angular velocity sensor 134 in the selection by turning the head. To do. Then, for example, when the user moves his / her face in the front-rear direction as if the user whispered, the control unit 302 determines that the selection item has been determined.

(ステップS727)図42に戻って、頭部の回動による選択がないと判別した場合、制御部302は、操作部材により選択項目が選択されたか否かを判別する。なお、操作部材とは、操作スイッチ30又はタッチスイッチ34である。制御部302は、操作部材により選択項目が選択されたと判別した場合(ステップS727;Yes)、ステップS729に進み、操作部材により選択項目が選択されていないと判別した場合(ステップS727;No)、ステップS728に進む。
具体的に例えば、制御部302は、操作スイッチ30の左右操作又は上下操作に基づいて、カーソル画像706を移動させて表示パネル63に表示する。また、制御部302は、操作スイッチ30が押し込まれたことを検出した場合、選択項目が決定されたと判別する。
(Step S727) Returning to FIG. 42, when it is determined that there is no selection due to the rotation of the head, the control unit 302 determines whether or not the selection item is selected by the operation member. The operation member is the operation switch 30 or the touch switch 34. When it is determined that the selection item is selected by the operation member (step S727; Yes), the control unit 302 proceeds to step S729, and when it is determined that the selection item is not selected by the operation member (step S727; No). The process proceeds to step S728.
Specifically, for example, the control unit 302 moves and displays the cursor image 706 on the display panel 63 based on the left / right operation or the up / down operation of the operation switch 30. In addition, when the control unit 302 detects that the operation switch 30 has been pressed, the control unit 302 determines that the selection item has been determined.

(ステップS728)操作部材により選択項目が選択されていないと判別した場合、制御部302は、指差しによる項目選択が行われるか否かをカメラ64が撮像した画像に基づいて判別する。制御部302は、指差しによる項目選択が行われると判別した場合(ステップS728;Yes)、ステップS729に進み、指差しによる項目選択が行われていないと判別した場合(ステップS728;No)、ステップS730に進む。
具体的に例えば、ユーザーは、表示パネル63に表示されている応答選択メニューの画像700を見ながら、応答選択メニューの画像700に含まれる選択項目を、ユーザーの指差しにより選択する。なお、表示パネル63上には、カメラ64が撮像した画像に、応答選択メニューの画像700が合成されて表示されている。
図44は、本実施形態に係る指差しによる項目選択が行われているときに表示パネル63に表示される画像の一例を説明する図である。ユーザーは、図44のように、表示パネル63に表示されている画像内にユーザーの指が映し出されるように、カメラ64が撮像している空間でユーザーの指を動かして、選択項目の画像701〜705のいずれかを指さすことで選択する。
図44に示した例は、ユーザーは、選択項目の画像703を選択した例である。そして、制御部302は、選択項目の画像703の領域において、ユーザーの指の画像707が2秒以上静止した場合に、この項目が選択されたと判別する。
なお、図44において、カーソル画像706を表示した例を示したが、制御部302は、指差しによる項目選択が行われていると判別した場合、カーソル画像706を応答選択メニューの画像700に表示しないようにしてもよい。また、表示パネル63に表示される画像は、複数のレイヤーが合成された画像である。例えば、表示パネル63に表示される画像は、カメラ64が撮像した画像が一番奥に配置される。そして、表示パネル63に表示される画像において、応答選択メニューの画像700は、カメラ64が撮像した画像より手前に表示されるように合成されて表示される。このため、ユーザーの手の画像により、選択項目の画像701〜705が隠れないため、ユーザーは、表示パネル63に表示されている画像を見ながら、指差しにより選択項目を選択できる。なお、制御部302は、ユーザーの指の画像を、カメラ64が撮像した画像から、例えばパターンマッチングの手法を用いて抽出し、抽出した指の画像に基づいて、指が指し示している表示パネル63上の座標を抽出する。制御部302は、このように抽出した表示パネル63上の座標と、予め各選択項目の画像領域の座標とを比較して、どの選択項目が選択されたのか判別する。
なお、ユーザーは、選択項目の選択を行わずに発話を行いたい場合、むろん通常の電話の会話と同じように音声による会話は可能である。
(Step S728) When it is determined that the selection item is not selected by the operation member, the control unit 302 determines whether or not the item selection by pointing is performed based on the image captured by the camera 64. When it is determined that item selection by pointing is performed (step S728; Yes), the control unit 302 proceeds to step S729, and when it is determined that item selection by pointing is not performed (step S728; No). Proceed to step S730.
Specifically, for example, the user selects a selection item included in the response selection menu image 700 by pointing to the user while viewing the response selection menu image 700 displayed on the display panel 63. On the display panel 63, an image 700 of the response selection menu is combined with the image captured by the camera 64 and displayed.
FIG. 44 is a diagram for explaining an example of an image displayed on the display panel 63 when an item is selected by pointing according to the present embodiment. As shown in FIG. 44, the user moves the user's finger in the space captured by the camera 64 so that the user's finger is displayed in the image displayed on the display panel 63, and the image 701 of the selection item is displayed. Select by pointing to any of -705.
The example illustrated in FIG. 44 is an example in which the user has selected the image 703 of the selection item. Then, the control unit 302 determines that this item is selected when the image 707 of the user's finger is stationary for 2 seconds or longer in the area of the image 703 of the selection item.
44 shows an example in which the cursor image 706 is displayed. However, if the control unit 302 determines that item selection is performed by pointing, the cursor image 706 is displayed on the response selection menu image 700. You may make it not. The image displayed on the display panel 63 is an image in which a plurality of layers are combined. For example, as for the image displayed on the display panel 63, the image captured by the camera 64 is arranged at the innermost position. In the image displayed on the display panel 63, the response selection menu image 700 is synthesized and displayed so as to be displayed in front of the image captured by the camera 64. For this reason, since the images 701 to 705 of the selection items are not hidden by the image of the user's hand, the user can select the selection items by pointing while looking at the image displayed on the display panel 63. The control unit 302 extracts the image of the user's finger from the image captured by the camera 64 using, for example, a pattern matching technique, and the display panel 63 pointed to by the finger based on the extracted finger image. Extract the upper coordinates. The control unit 302 compares the coordinates on the display panel 63 extracted in this way with the coordinates of the image area of each selection item in advance, and determines which selection item is selected.
If the user wants to speak without selecting a selection item, he / she can have a voice conversation like a normal telephone conversation.

(ステップS729)図42に戻って、制御部302は、選定された選択項目に示されている言葉(ハイ、イイエ、今お答えできません、了解しました、終了します)を、ステップS719又はS720で特定した通信相手に応じた言語に翻訳する。次に、制御部302は、翻訳した選択項目を示す情報に基づいて生成した音声データを相手側の端末に、送受信部308を介して送信する。なお、制御部302は、予め選択項目の言葉を各言語で記憶部303等に記憶させておいてもよい。また、制御部302は、翻訳した選択項目を示す情報を文字情報として相手側の端末に送信するようにしてもよい。あるいは、制御部302は、翻訳した選択項目を示す情報を音声データ、及び文字情報の両方を相手側の端末に送信するようにしてもよい。 (Step S729) Returning to FIG. 42, the control unit 302 changes the words (Hi, No, I cannot answer now, I understand, I will end) shown in the selected selection item in Step S719 or S720. Translate the language according to the specified communication partner. Next, the control unit 302 transmits the voice data generated based on the information indicating the translated selection item to the partner terminal via the transmission / reception unit 308. Note that the control unit 302 may store the words of the selection items in advance in the storage unit 303 or the like in each language. In addition, the control unit 302 may transmit information indicating the translated selection item as character information to the partner terminal. Alternatively, the control unit 302 may transmit information indicating the translated selection item, both voice data and character information, to the partner terminal.

(ステップS730)制御部302は、通話が完了したか否かを判別する。制御部302は、通話が続いていると判別した場合(ステップS730;No)、ステップS724に戻し、通話が終了していると判別した場合(ステップS730;Yes)、ステップS731に進む。 (Step S730) The control unit 302 determines whether or not the call is completed. When it is determined that the call is continued (step S730; No), the control unit 302 returns to step S724, and when it is determined that the call is ended (step S730; Yes), the control unit 302 proceeds to step S731.

(ステップS731)制御部302は、通話完了動作を行う。制御部302は、通話のログを記憶部303に記憶させてもよく、送受信部308を介して通話のログをサーバー200に送信するようにしてもよい。サーバー200は、受信した通話のログを記憶部202に記憶させるようにしてもよい。なお、通話のログとは、例えば、通話開始時刻、通話終了時刻、通話時間、通信相手の電話番号又はIPアドレス、通信相手のパーソナルデータのうち、少なくとも1つを含む情報である。 (Step S731) The control unit 302 performs a call completion operation. The control unit 302 may store the call log in the storage unit 303, or may transmit the call log to the server 200 via the transmission / reception unit 308. The server 200 may store the received call log in the storage unit 202. The call log is information including at least one of, for example, a call start time, a call end time, a call time, a communication partner's telephone number or IP address, and a communication partner's personal data.

なお、上述した例では、サイレントモードに設定されている場合、かつHMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあると判別した場合(ステップS713、図42)、耳元スピーカー23から着信音を低音圧で鳴らす例を説明したが、これに限られない。サイレントモードに設定されている場合、かつユーザーの頭部にHMD1が装着されていると判別した場合であっても、処理部123は、バイブレータを振動させて、ユーザーに着信を報知するようにしてもよい。あるいは、処理部123は、耳元スピーカー23から着信音を低音圧で鳴しつつ、バイブレータを振動させて、ユーザーに着信を報知するようにしてもよい。このような場合、処理部123は、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合におけるバイブレータの振動の大きさを、ユーザーの頭部にHMD1が装着されていないと判別した場合におけるバイブレータの振動の大きさより小さくなるように制御するようにしてもよい。
また、処理部123は、HMD1がユーザーの頭部に装着されている、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、例えばバックライト62を予め定められている周期で点滅させて、着信を報知するようにしてもよい。
In the above-described example, when the silent mode is set and the HMD 1 is worn on the user's head, or when it is determined that the HMD 1 is near the user's head (step S713, FIG. 42). ), An example of ringing a ring tone from the ear speaker 23 at a low sound pressure has been described, but the present invention is not limited to this. Even when the silent mode is set and it is determined that the HMD 1 is worn on the user's head, the processing unit 123 vibrates the vibrator so as to notify the user of the incoming call. Also good. Alternatively, the processing unit 123 may notify the user of the incoming call by vibrating the vibrator while ringing the incoming call sound from the ear speaker 23 at a low sound pressure. In such a case, the processing unit 123 sets the vibration level of the vibrator when the HMD 1 is attached to the user's head or the HMD 1 is near the user's head to the user's head. You may make it control so that it may become smaller than the magnitude | size of the vibration of a vibrator when it discriminate | determines that HMD1 is not mounted | worn.
Further, when the processing unit 123 determines that the HMD 1 is mounted on the user's head or the HMD 1 is in the vicinity of the user's head, for example, the backlight 62 blinks at a predetermined cycle, You may make it alert | report an incoming call.

以上のように、本実施形態の情報入出力装置(HMD1)は、自装置がユーザーの頭部近傍又は頭部へ装着されているか否かを検出する装着検出部(装着処理部311)と、着信を報知する報知部(耳元スピーカー23、前方スピーカー70、バックライト62、表示パネル63、バイブレータ167)と、着信音を報知部から音により出力しないサイレントモードが設定されているか否かを示す情報に基づいてサイレントモードが設定されていると判別した場合、且つ装着検出部により自装置がユーザーの頭部近傍又は頭部へ装着されていることが検出された場合、通信相手の端末からの着信を音により報知するように報知部を制御する制御部302と、を備える。
この構成により、本実施形態のHMD1は、サイレントモードに設定されている場合であっても、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあると判別した場合、通信相手の端末からの着信を音により報知部から報知することができる。従って、本実施形態のHMD1によれば、ユーザーはHMD1の装着時、通信相手の端末からの着信を知ることができるので、利便性が向上する。また、本実施形態のHMD1によれば、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあると判別した場合のみ、サイレントモードに設定されていても音により着信を報知する。従って、本実施形態のHMD1は、HMD1がユーザーの頭部に装着されていない場合、もしくはHMD1がユーザーの頭部近傍にないと判別した場合には、通信相手の端末からの着信を音により報知しないので、周囲に迷惑をかけることがない。
As described above, the information input / output device (HMD1) of the present embodiment includes the mounting detection unit (mounting processing unit 311) that detects whether the device is mounted in the vicinity of the user's head or the head. Information indicating whether a notification mode (ear speaker 23, front speaker 70, backlight 62, display panel 63, vibrator 167) for notifying an incoming call and a silent mode in which a ring tone is not output from the notification unit by sound is set. If it is determined that the silent mode is set based on the device, and the wear detection unit detects that the device is worn near the head of the user or on the head, the incoming call from the terminal of the communication partner And a control unit 302 that controls the notification unit so as to notify the user with sound.
With this configuration, even when the HMD 1 of the present embodiment is set to the silent mode, it is determined that the HMD 1 is mounted on the user's head or that the HMD 1 is near the user's head. In this case, an incoming call from the communication partner terminal can be notified by sound from the notification unit. Therefore, according to the HMD 1 of the present embodiment, the user can know the incoming call from the terminal of the communication partner when the HMD 1 is attached, so that convenience is improved. Further, according to the HMD 1 of the present embodiment, only when the HMD 1 is worn on the user's head or when it is determined that the HMD 1 is near the user's head, even if the silent mode is set, the sound Notify incoming calls. Accordingly, the HMD 1 of this embodiment notifies the incoming call from the communication partner terminal by sound when the HMD 1 is not worn on the user's head or when it is determined that the HMD 1 is not near the user's head. Because it does not disturb the surroundings.

なお、第1センサーとは、HMD1のユーザーが、居眠りしている状態であるのか否かを検出するセンサーである。撮像素子72が第1センサーの場合、撮像素子72は、ユーザーの眼の状態を撮像する。この場合、第1センサーが検出した検出値は、撮像画像である。また、加速度センサー132が第1センサーの場合、加速度センサー132は、ユーザーの頭又は体の揺れ、またはユーザーの頭又は体の傾きを検出する。この場合、第1センサーが検出した検出値は、揺れの周波数、又は傾きの角度である。
なお、報知部とは、音響信号により報知する耳元スピーカー23又は前方スピーカー70、振動により報知するバイブレータ167、光により報知するバックライト62及び表示パネル63、画像により報知する表示パネル63である。また、所定の情報とは、ユーザーが居眠り状態であるときの音響信号による警告音(アラーム)、ユーザーが居眠り状態であるときの振動、ユーザーが居眠り状態であるときの光の点滅、ユーザーが移動しているときの現在位置から目標地点までの音声または画像によるナビゲーションである。なお、現在位置とは、HMD1が利用されている位置であり、地名、ビル名、駅名、住所、緯度、経度、高度などのうち、少なくとも1つである。
The first sensor is a sensor that detects whether or not the user of the HMD 1 is dozing. When the image sensor 72 is the first sensor, the image sensor 72 images the state of the user's eyes. In this case, the detection value detected by the first sensor is a captured image. When the acceleration sensor 132 is the first sensor, the acceleration sensor 132 detects the shaking of the user's head or body, or the tilt of the user's head or body. In this case, the detected value detected by the first sensor is the frequency of shaking or the angle of inclination.
Note that the notification unit includes the ear speaker 23 or the front speaker 70 notified by an acoustic signal, the vibrator 167 notified by vibration, the backlight 62 and display panel 63 notified by light, and the display panel 63 notified by an image. Predetermined information includes a warning sound (alarm) by an acoustic signal when the user is asleep, vibration when the user is asleep, blinking light when the user is asleep, and the user moves This is navigation by voice or image from the current position to the target point when the user is performing. The current position is a position where the HMD 1 is used, and is at least one of a place name, building name, station name, address, latitude, longitude, altitude, and the like.

本実施形態に係るHMD1によれば、ユーザーの眼の状態、ユーザーの頭又は体の揺れを検出する。本実施形態に係るHMD1は、所定時間以上ユーザーの目が瞑られている目瞑り状態である場合、ユーザーがいる位置(場所)に応じて警告を発することでユーザーの注意を喚起するので、安全なシステムを提供できる。この結果、HMD1の利便性が向上する。また、本実施形態に係るHMD1は、所定時間以上ユーザーの頭又は体が揺れている場合、ユーザーが居眠り状態であると判別して、ユーザーに警告を発することでユーザーの注意を喚起するので、安全なシステムを提供できる。
なお、所定時間は、ユーザーが使用している移動手段、ユーザーがHMD1を使用している位置に応じて換えるようにしてもよい。例えば、公共機関の車両で移動していず他の移動手段で移動している場合、所定時間は1秒であってもよい。公共機関の車両で移動している場合、所定時間は5秒であってもよい。ユーザーが移動していず、ユーザーのいる位置の高度が高い場合、所定時間は3秒であってもよい。なお、移動手段の種類と所定時間とが関連づけられた情報は、居眠検出部310内に記憶されている。また、移動手段の種類とは、電車、バス、船舶、徒歩、自転車、自動車等である。
According to the HMD 1 according to the present embodiment, the state of the user's eyes and the shaking of the user's head or body are detected. Since the HMD 1 according to the present embodiment alerts the user by issuing a warning according to the position (location) of the user when the user's eyes are meditated for a predetermined time or more, it is safe. System can be provided. As a result, the convenience of the HMD 1 is improved. Further, the HMD 1 according to the present embodiment, when the user's head or body shakes for a predetermined time or more, determines that the user is dozing, and alerts the user by issuing a warning. A safe system can be provided.
Note that the predetermined time may be changed according to the moving means used by the user and the position where the user is using the HMD 1. For example, when not moving by a public institution vehicle but moving by another moving means, the predetermined time may be 1 second. When traveling by a public institution vehicle, the predetermined time may be 5 seconds. When the user is not moving and the altitude at the position where the user is is high, the predetermined time may be 3 seconds. Information relating the type of moving means and the predetermined time is stored in the dozing detection unit 310. The types of moving means are trains, buses, ships, walks, bicycles, automobiles, and the like.

さらに、本実施形態のHMD1は、「左右の眼の検出処理」の後、「居眠り検出の処理」を行う。これにより、本実施形態のHMD1は、撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて、ユーザーが目を瞑っている状態であるか否かを判別することにより、居眠り検出を行い、検出した結果に基づいてユーザーに警告を行う。
この結果、本実施形態のHMD1は、ユーザーの顔全体又はユーザーの両眼を含む領域を撮像するために、撮像素子72をユーザーの顔から遠くに配置しなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
Further, the HMD 1 according to the present embodiment performs a “snooping detection process” after the “left and right eye detection process”. Thereby, the HMD 1 of the present embodiment uses the image of the region including the user's one eye included in the captured image to determine whether the user is in a state of meditating, thereby detecting doze detection. And warn the user based on the detected result.
As a result, the HMD 1 of the present embodiment does not need to dispose the image sensor 72 far from the user's face in order to image the entire user's face or the region including both eyes of the user. For this reason, HMD1 of this embodiment can suppress the enlargement of an own apparatus.

本実施形態のHMD1は、ユーザーの移動中に、ユーザーが目を瞑っている状態であるか否かを検出した場合、ユーザーが移動している手段に応じて、報知する。報知の一例として、ユーザーが電車、バス、船舶などの公共の交通機関を利用して移動している場合、本実施形態のHMD1は、警告のアラームを報知する。また、ユーザーが電車又はバスで移動している場合、本実施形態のHMD1は、乗換駅又は降車駅であることを報知する。
この結果、本実施形態のHMD1は、ユーザーが目を瞑っている状態であるか否かを検出して、ユーザーの移動手段に応じた報知を行うため、利便性が向上する。さらに、本実施形態のHMD1は、「乗り物検出の処理」において、ユーザーが公共の交通機関を利用して移動している場合、HMD1が自動的にサイレントモードに設定するため、利便性が向上する。
When the HMD 1 of the present embodiment detects whether or not the user is meditating while the user is moving, the HMD 1 notifies the user according to the means the user is moving. As an example of notification, when the user is moving using public transportation such as a train, a bus, and a ship, the HMD 1 of the present embodiment notifies a warning alarm. Moreover, when the user is moving by train or bus, the HMD 1 of the present embodiment notifies that it is a transfer station or a getting-off station.
As a result, the HMD 1 of the present embodiment detects whether or not the user is meditating, and performs notification according to the moving means of the user, thus improving convenience. Furthermore, the HMD 1 of the present embodiment improves the convenience because the HMD 1 automatically sets the silent mode when the user is moving using public transportation in the “vehicle detection process”. .

なお、ステップS601〜S641(図38、図39)において、目瞑り状態であることを検出した場合、警告音又はアラームを、耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、これらの警告音をステレオイヤホン100に出力するようにしてもよい。また、音響制御部305は、警告音の換わりに、バイブレータ167を振動させて、目瞑りに対する警告、乗換駅又は降車駅に到着したことをユーザーに警告を行うようにしてもよい。また音響制御部305は、耳元スピーカー23又はステレオイヤホン100からの警告音、及びバイブレータ167に振動による警告の少なくとも1つによって、警告を行うようにしてもよい。
また、ステップS601〜S641(図38、図39)において、ナビゲーションの音声を耳元スピーカー23から出力する例を説明したが、これに限られない。オーディオコネクター26にステレオイヤホン100が接続されている場合、音響制御部305は、ナビゲーションの音声をステレオイヤホン100に出力するようにしてもよい。
Note that, in steps S601 to S641 (FIGS. 38 and 39), an example in which a warning sound or an alarm is output from the ear speaker 23 when it is detected that the eyes are in a closed state is described, but the present invention is not limited to this. When the stereo earphone 100 is connected to the audio connector 26, the acoustic control unit 305 may output these warning sounds to the stereo earphone 100. Moreover, the acoustic control unit 305 may vibrate the vibrator 167 instead of the warning sound, and warn the user that the eyes have been closed or arrived at the transfer station or the getting-off station. The acoustic control unit 305 may issue a warning by at least one of a warning sound from the ear speaker 23 or the stereo earphone 100 and a warning due to vibration to the vibrator 167.
In addition, in steps S601 to S641 (FIGS. 38 and 39), the navigation sound is output from the ear speaker 23. However, the present invention is not limited to this. When the stereo earphone 100 is connected to the audio connector 26, the acoustic control unit 305 may output navigation sound to the stereo earphone 100.

また、本実施形態に係るHMD1では、複数の報知部を備えている。複数の報知部は、上述のように、耳元スピーカー23、前方スピーカー70、バイブレータ167、バックライト62、表示パネル63である。
本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にある場合、耳元スピーカー23から低音圧で着信音や通話音を発するため、周囲に着信音等で迷惑をかけることなく、ユーザーは着信音及び通話音を聞くことができる。
また、本実施形態に係るHMD1では、HMD1がユーザーの頭部に装着されていない場合、もしくはHMD1がユーザーの頭部近傍にない場合、前方スピーカー70から高音圧で着信音や通話音を発するために、ユーザーから離れた位置にHMD1がある場合であっても、ユーザーに着信音や通話音を確実に伝えることができる。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にある場合、耳元スピーカー23から着信音を発することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
また、本実施形態に係るHMD1では、サイレントモードに設定されている場合かつHMD1がユーザーの頭部に装着されていない場合、もしくはHMD1がユーザーの頭部近傍にない場合、バイブレータ167を振動させて着信を報知することにより、周囲に着信音等で迷惑をかけることなく、ユーザーが着信を確実に把握することが可能である。
Moreover, in HMD1 which concerns on this embodiment, the some alerting | reporting part is provided. As described above, the plurality of notification units are the ear speaker 23, the front speaker 70, the vibrator 167, the backlight 62, and the display panel 63.
In the HMD 1 according to the present embodiment, when the HMD 1 is mounted on the user's head or when the HMD 1 is in the vicinity of the user's head, the ring tone or call sound is emitted from the ear speaker 23 with low sound pressure. The user can listen to the ringtone and the call sound without disturbing the user with the ringtone.
Further, in the HMD 1 according to the present embodiment, when the HMD 1 is not worn on the user's head, or when the HMD 1 is not in the vicinity of the user's head, a ring tone or a call sound is emitted from the front speaker 70 with high sound pressure. In addition, even when the HMD 1 is located away from the user, the user can be surely notified of the ringtone and the call sound.
Further, in the HMD 1 according to the present embodiment, when the silent mode is set and the HMD 1 is mounted on the user's head, or when the HMD 1 is in the vicinity of the user's head, the ring tone is heard from the ear speaker 23. By issuing the, it is possible for the user to reliably grasp the incoming call without disturbing the surroundings with a ringtone or the like.
Further, in the HMD 1 according to the present embodiment, when the silent mode is set and the HMD 1 is not worn on the user's head, or when the HMD 1 is not near the user's head, the vibrator 167 is vibrated. By notifying the incoming call, the user can surely grasp the incoming call without disturbing the surroundings with a ringtone or the like.

また、本実施形態のHMD1は、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあるか否かを第2センサーが検出した検出値に基づいて判別する。
本実施形態のHMD1は、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあるか否かを判別した結果、ユーザーの移動手段を判別した結果、ユーザーが居眠り状態であるか否かを判別した結果、ユーザーが目標位置に到着したか否かを判別した結果に基づいて、報知部から所定の情報を報知する。
この結果、本実施形態のHMD1は、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にある場合、ユーザーの移動手段に応じて報知を行うので、ユーザーに対する利便性が向上する。
例えば、本実施形態のHMD1は、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にある場合、ユーザーが居眠りしていては危険な状況においてユーザーに対して警告を音声又は振動により報知する。本実施形態のHMD1は、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にある場合、かつユーザーが移動している場合、現在位置から目標地点までのナビゲーションを音声又は画像により報知する。本実施形態のHMD1は、ユーザーの頭部にHMD1が装着されている場合、かつユーザーが移動している場合、かつユーザーが目標位置に到着した場合、ユーザーに対して目標地点に到達したことを音声又は画像により報知する。
なお、第2センサーは、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあるか否かを検出するセンサーである。心拍数センサー137が第2センサーの場合、第2センサーの検出値は、血流の変化による反射光量の変化を検出した検出値であり、心拍数であってもよい。また、制御部302は、第1センサーである撮像素子72が撮像した撮像画像に基づいて、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあるか否かを判別するようにしてもよい。例えば、制御部302は、撮像画像に含まれるユーザーの片眼を含む領域の画像の面積が、撮像画像の面積に対して予め定められている割合より大きい場合、HMD1がユーザーの頭部に装着されている場合、もしくはHMD1がユーザーの頭部近傍にあると判別するようにしてもよい。また、第2センサーは、機械スイッチであってもよく、この機械スイッチ(不図示)はヘッドバンド40に設けられているようにしてもよい。あるいは、第2センサーは、操作スイッチ30、又はタッチスイッチ34であってもよい。この場合、第2センサーの検出値は、ユーザーが操作スイッチ30、又はタッチスイッチ34を操作した操作入力である。ユーザーが操作スイッチ30、又はタッチスイッチ34を操作して、装着状態、又は非装着状態のうち、いずれかを選択するようにしてもよい。第2センサーは、HMD1がヘッドバンド40や頭部に装着するヘルメット等の頭部装着手段に連結されたことを検出するヘッドバンドセンサー151の例を説明した。第2センサーは、HMD1がヘッドバンド40や頭部に装着するヘルメット等の頭部装着手段に連結されたことを検出する機械スイッチであっても良い。
Further, the HMD 1 of the present embodiment determines whether the HMD 1 is mounted on the user's head or whether the HMD 1 is near the user's head based on the detection value detected by the second sensor.
The HMD 1 of the present embodiment is a result of determining whether the HMD 1 is mounted on the user's head, or whether the HMD 1 is in the vicinity of the user's head, and as a result of determining the user's moving means. As a result of determining whether or not it is in a state, predetermined information is notified from the notification unit based on the result of determining whether or not the user has arrived at the target position.
As a result, the HMD 1 of the present embodiment notifies the user according to the moving means of the user when the HMD 1 is mounted on the user's head or when the HMD 1 is in the vicinity of the user's head. Improves.
For example, the HMD 1 of the present embodiment warns the user in a dangerous situation when the user is asleep when the HMD 1 is mounted on the user's head or when the HMD 1 is near the user's head. Is notified by voice or vibration. The HMD 1 of the present embodiment performs navigation from the current position to the target point when the HMD 1 is worn on the user's head, or when the HMD 1 is near the user's head and the user is moving. Inform by voice or image. The HMD 1 of the present embodiment indicates that the user has reached the target point when the HMD 1 is worn on the user's head, the user is moving, and the user has arrived at the target position. Inform by voice or image.
The second sensor is a sensor that detects whether the HMD 1 is mounted on the user's head or whether the HMD 1 is in the vicinity of the user's head. When the heart rate sensor 137 is the second sensor, the detection value of the second sensor is a detection value obtained by detecting a change in the amount of reflected light due to a change in blood flow, and may be a heart rate. In addition, the control unit 302 determines whether the HMD 1 is attached to the user's head based on the captured image captured by the image sensor 72 that is the first sensor, or whether the HMD 1 is in the vicinity of the user's head. You may make it discriminate | determine. For example, the control unit 302 attaches the HMD 1 to the user's head when the area of the image including the one eye of the user included in the captured image is larger than a predetermined ratio with respect to the area of the captured image. Or the HMD 1 may be determined to be near the user's head. The second sensor may be a mechanical switch, and this mechanical switch (not shown) may be provided on the headband 40. Alternatively, the second sensor may be the operation switch 30 or the touch switch 34. In this case, the detection value of the second sensor is an operation input when the user operates the operation switch 30 or the touch switch 34. The user may operate the operation switch 30 or the touch switch 34 to select either the wearing state or the non-wearing state. The second sensor has been described as an example of the headband sensor 151 that detects that the HMD 1 is connected to the headband 40 or a head mounting means such as a helmet mounted on the head. The second sensor may be a mechanical switch that detects that the HMD 1 is connected to the headband 40 or a head mounting means such as a helmet mounted on the head.

また、本実施形態のHMD1では、まず「左右の眼の検出処理」を行う。これにより、本実施形態のHMD1は、撮像画像に含まれるユーザーの片眼を含む領域の画像を用いて、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識する。
この結果、ユーザーの頭部に装着されたHMDの姿勢に係わらず、ユーザーが表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識できるHMD1を実現できる。また、本実施形態のHMD1は、表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを判別するため、ユーザーの顔全体または両眼を含む領域の撮像を行わなくてよい。このため、本実施形態のHMD1は、自装置の大型化を抑えることができる。
さらに、本実施形態のHMD1は、このように表示部60に表示された画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に応じて、表示部60に表示する画像の表示角度を変更する。そして、本実施形態のHMD1は、この表示角度に応じて、表示部60に画像を表示する。この結果、本実施形態のHMD1によれば、ユーザーは、ユーザーの頭部に装着されたHMD1の姿勢に係わらず、適切な表示角度で表示部60に表示されている画像を観察できる。
In the HMD 1 of the present embodiment, first, “left and right eye detection processing” is performed. Thereby, the HMD 1 of the present embodiment uses the image of the region including the user's one eye included in the captured image, and the eyes observing the image displayed on the display unit 60 are the right eye and the left eye. Recognize which one of them.
As a result, regardless of the posture of the HMD mounted on the user's head, the user can recognize whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye. HMD1 can be realized. Further, the HMD 1 of the present embodiment includes the entire face or both eyes of the user in order to determine whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye. It is not necessary to image the area. For this reason, HMD1 of this embodiment can suppress the enlargement of an own apparatus.
Furthermore, the HMD 1 of the present embodiment displays the display unit 60 according to the result of recognizing which of the right eye and the left eye is observing the image displayed on the display unit 60 in this way. Change the display angle of the image to be displayed. And HMD1 of this embodiment displays an image on the display part 60 according to this display angle. As a result, according to the HMD 1 of the present embodiment, the user can observe the image displayed on the display unit 60 at an appropriate display angle regardless of the posture of the HMD 1 mounted on the user's head.

また、本実施形態のHMD1は、「左右の眼の検出処理」の後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。本実施形態のHMD1は、加速度センサー132の検出値、GPSセンサー135の測位情報等に基づいて、ユーザーが移動している手段の検出を行う。そして、本実施形態のHMD1は、検出したユーザーの移動手段に応じて、ナビゲーションを行う。
この結果、本実施形態のHMD1は、HMD1を使用しているユーザーの移動手段に応じたナビゲーションを行うことができるので、利便性が向上する。
Further, the HMD 1 of the present embodiment performs “vehicle detection processing” and “slumber detection processing” after “left and right eye detection processing”. The HMD 1 of the present embodiment detects the means that the user is moving based on the detection value of the acceleration sensor 132, the positioning information of the GPS sensor 135, and the like. And HMD1 of this embodiment performs navigation according to the detected user's moving means.
As a result, the HMD 1 of the present embodiment can perform navigation according to the moving means of the user who is using the HMD 1, so that convenience is improved.

さらに、本実施形態のHMD1は、「左右の眼の検出処理」の後、「注視点のキャリブレーション処理」を行う。この「注視点のキャリブレーション処理」において、ユーザーは、表示パネル63に表示された表示画像に含まれる操作画像の操作を操作部(操作スイッチ30、タッチスイッチ34)により行う。実施形態のHMD1は、操作部により操作が行われているとき、表示部60に表示されている表示画像に含まれる操作画像を注視している撮像画像を取得する。
また、本実施形態のHMD1は、「左右の眼の検出処理」の判別結果に基づいて、選択された撮像範囲QまたはR(図19参照)の画像を選択する。すなわち、本実施形態のHMD1は、画像を観察している眼が右眼と左眼とのうちいずれであるかを認識した結果に基づいて、撮像画像から「注視点のキャリブレーション処理」に用いるユーザーの眼の領域を含む画像を選択する。そして、本実施形態のHMD1は、この選択された撮像範囲の画像を用いて「注視点のキャリブレーション処理」を行う。そして、本実施形態のHMD1は、ユーザーの視線に基づいて操作するためのパラメータである、操作された操作画像に基づく第1座標と撮像画像に基づく第2座標とを取得する。そして、実施形態のHMD1は、取得した第1座標と第2座標との組み合わせに基づいて、注視点検出のためのキャリブレーションを自動的に行う。
このため、本実施形態のHMD1では、ユーザーがキャリブレーション設定をメニュー等から選択して行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、本実施形態のHMD1では、従来のように、図30に示したような注視点検出のためのキャリブレーション用の画像をユーザーに注視させて行う、注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作画像の操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
Furthermore, the HMD 1 of the present embodiment performs “gaze point calibration processing” after “left and right eye detection processing”. In this “gaze point calibration process”, the user operates the operation image included in the display image displayed on the display panel 63 using the operation unit (the operation switch 30 and the touch switch 34). The HMD 1 according to the embodiment acquires a captured image in which an operation image included in a display image displayed on the display unit 60 is being watched when the operation unit is operated.
Further, the HMD 1 of the present embodiment selects an image in the selected imaging range Q or R (see FIG. 19) based on the determination result of “left and right eye detection processing”. That is, the HMD 1 according to the present embodiment uses the captured image for “gazing point calibration processing” based on the result of recognizing whether the eye observing the image is the right eye or the left eye. Select an image containing the user's eye area. Then, the HMD 1 of the present embodiment performs “gazing point calibration processing” using the image in the selected imaging range. And HMD1 of this embodiment acquires the 1st coordinate based on the operated operation image and the 2nd coordinate based on a captured image which are parameters for operating based on a user's look. Then, the HMD 1 of the embodiment automatically performs calibration for gazing point detection based on the acquired combination of the first coordinate and the second coordinate.
For this reason, in the HMD 1 of the present embodiment, the calibration for gaze point detection is performed by simply operating the operation image included in the display image without the user having to select the calibration setting from the menu or the like. It can be performed. Further, in the HMD 1 of the present embodiment, as in the conventional case, calibration for gazing point detection is performed by causing the user to gaze at a calibration image for gazing point detection as shown in FIG. Even if it is not necessary, calibration for detecting a gazing point can be performed by simply operating the operation image included in the display image. As a result, according to the present embodiment, convenience can be improved.

さらに、本実施形態のHMD1では、「注視点のキャリブレーション処理」の後、「サイレントモードの処理」を行う。本実施形態のHMD1は、「サイレントモードの処理」において、ユーザーが発話できない状態の場合、応答選択メニューからユーザーの注視に基づいて、選択された項目に応じた内容を示す情報を通信相手に送信する。
このため、本実施形態のHMD1では、ユーザーが発話できない状態の場合であっても、通信相手とコミュニケーションを行うことができるので、利便性を向上することができる。
Further, in the HMD 1 of the present embodiment, “silent mode processing” is performed after “gaze point calibration processing”. In the “silent mode process”, the HMD 1 according to the present embodiment transmits information indicating the content corresponding to the selected item to the communication partner based on the user's gaze from the response selection menu when the user cannot speak. To do.
For this reason, in HMD1 of this embodiment, even if it is a case where a user cannot speak, since it can communicate with a communicating party, the convenience can be improved.

さらに、本実施形態のHMD1において、「注視点のキャリブレーション処理」において、表示画像に含まれている操作画像は、パスワード入力画像のようにユーザーが操作する必然性のある画像である。ユーザーが操作する必然性のある画像であるため、ユーザーは、この操作画像に対して操作部で操作する。そして、実施形態のHMD1は、このように操作画像がユーザーの操作により選択されたときに第1座標と第2座標とを、自動的に取得している。そして、実施形態のHMD1では、このような「注視点のキャリブレーション処理」の後、ユーザーは、ユーザーの注視に基づいて通信相手からの着信に応じた選択項目を選択する。
このため、実施形態のHMD1では、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作を行うことで、注視点検出のためのキャリブレーションを行うことができる。また、実施形態のHMD1では、従来のように注視点検出のためのキャリブレーションを行わなくても、単に表示画像に含まれる操作する必然性のある操作画像に対してユーザーが操作部で操作することで、注視点検出のためのキャリブレーションを行うことができる。そして、このように注視点検出のためのキャリブレーションを行った後に、通信相手からの着信に応じた選択項目をユーザーの注視に基づいて選択する。このため、ユーザーが発話できない状況であっても、ユーザーは、ユーザーの注視により通信相手とのコミュニケーションを行うことができる。この結果、本実施形態によれば、利便性を向上することができる。
Further, in the HMD 1 of the present embodiment, in the “gaze point calibration process”, the operation image included in the display image is an image that the user may inevitably operate like a password input image. Since the image is inevitably operated by the user, the user operates the operation image with the operation unit. And HMD1 of embodiment acquires the 1st coordinate and the 2nd coordinate automatically, when the operation image is selected by a user's operation in this way. In the HMD 1 of the embodiment, after such “gazing point calibration processing”, the user selects a selection item corresponding to an incoming call from the communication partner based on the user's gaze.
For this reason, in the HMD 1 of the embodiment, calibration for detecting a gazing point can be performed by a user performing an operation on an operation image that is necessarily included in a display image. Further, in the HMD 1 of the embodiment, the user simply operates the operation image included in the display image on the operation unit without performing the calibration for detecting the point of interest as in the conventional case. Thus, calibration for detecting a point of sight can be performed. Then, after performing calibration for detecting a gazing point in this way, a selection item corresponding to an incoming call from a communication partner is selected based on the user's gazing. For this reason, even in a situation where the user cannot speak, the user can communicate with the communication partner by watching the user. As a result, according to the present embodiment, convenience can be improved.

なお、実施形態のHMD1では、視線入力のアプリケーションを開始する前であっても、ならびに同アプリケーションを実行中であっても、操作部の操作によって操作画像が選択されたとき毎に、注視点検出のための計算式のキャリブレーションを行う。この結果、実施形態のHMD1によれば、ユーザーが操作部を操作したタイミングで注視点検出のためのキャリブレーションを、操作画像が選択されたとき毎に自動的に行うため、高い精度で視線入力が可能になっている。また、この注視点検出のためのキャリブレーションにおいて、上述したように、本実施形態のHMD1では、ユーザーの片眼を含む領域の画像を用いて行い、両眼を含む画像を撮影する必要がないため、HMD1を小型化できる。
また、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。
In the HMD 1 of the embodiment, even when the eye gaze input application is started and when the application is being executed, the gaze point detection is performed every time an operation image is selected by an operation of the operation unit. Calibrate the calculation formula for. As a result, according to the HMD 1 of the embodiment, the gaze point detection is automatically performed every time an operation image is selected at the timing when the user operates the operation unit. Is possible. Further, in the calibration for detecting the gazing point, as described above, the HMD 1 of the present embodiment uses the image of the region including the one eye of the user and does not need to capture the image including both eyes. Therefore, the HMD 1 can be downsized.
In the HMD 1 of the present embodiment, the user's eyes can be irradiated with appropriate light by turning on and off the eyeball illumination light 166 set in the “eyeball illumination lamp selection process”. For this reason, it is possible to accurately perform calibration for detecting a gazing point.

なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。   As described with reference to FIGS. 9 to 15, when the size of the image is reduced and the position is moved before the calibration for detecting the gazing point, for example, in the selected display region T. The password input screen 400e, the menu screen 400f, and the like may be reduced and displayed. In addition, after performing calibration for gazing point detection, when a gaze input is performed by reducing the size of the image and moving the position, the memory is stored based on the display position and the reduction ratio of the image. The coordinates may be converted by correcting the value of the relational expression stored in the unit 303.

なお、本実施形態では、注視点検出のためのキャリブレーションに、図34に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。   In the present embodiment, the example in which the password input screen shown in FIG. 34 is used for calibration for detecting a point of interest has been described, but the present invention is not limited to this. Keys, buttons, icons, etc. that can be selected by the operation switch 30 may be displayed on the display panel 63. Also in this case, unlike the prior art, keys, buttons, icons, and the like relating to operations that the user is required to perform are displayed, not just for calibration. Since the user has a very high probability of gazing at these keys, buttons, icons, etc. during operation, the user can perform calibration for gazing point detection based on the captured image at the time of operation.

なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
Note that the processing unit 123 may turn on the eyeball illumination light 166 when detecting the position of the user's eye based on the captured image. In addition, when the user's eyes are separated from the display unit 60 (see FIGS. 12 and 14), the processing unit 123 calculates the interval between the bright spots 604A and the bright spots 604B (see FIG. 12) in order to calculate the reduction ratio of the display area. 11) and the distance between the bright spot 604C and the bright spot 604D (see FIG. 12).
By reducing the display area S shown in FIG. 9 to the display area T by this process, the processing unit 123 can allow the user to look over the entire display. Further, when it is determined that the intermediate position between the bright spot 604E and the bright spot 604F (see FIG. 14) is shifted from the intermediate position between the bright spot 604A and the bright spot 604B, the processing unit 123 It can be seen that the user's eyes are shifted by the vector V1. In this way, the image switching unit 306 (see FIG. 22) of the processing unit 123 can shift the display area T in FIG. 9 to the display area U.

[第2実施形態]
第2実施形態では、表示部60の位置600a及び位置600b(第1実施形態の図33を参照)を含む、表示部60の多くの位置について、眼球照明ライト166の点灯及び消灯を切り替える例を説明する。
[Second Embodiment]
In the second embodiment, an example in which the on / off of the eyeball illumination light 166 is switched for many positions of the display unit 60 including the positions 600a and 600b of the display unit 60 (see FIG. 33 of the first embodiment). explain.

図45は、本実施形態に係るヘッドマウントディスプレイ(第2表示モード、待避モード)の装着形態を示す図である。図45では、装置本体部21は、ユーザーの左右の眼を仮想的に結んだ線を含むXY平面に対して、角度αだけ下側に傾いた姿勢となっている。   FIG. 45 is a diagram showing a mounting form of the head mounted display (second display mode, save mode) according to the present embodiment. In FIG. 45, the apparatus main body 21 is inclined downward by an angle α with respect to the XY plane including a line that virtually connects the left and right eyes of the user.

図45(A)は、右眼観察形態の第1表示モードから、表示部60を時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、第2表示モードと称する。第2表示モードでは、表示部60の先端部が上側に位置するよう、表示部60は、収容部61a及び球状部61bを回転軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ回転される。これにより、表示部60及びファインダー開口部67は、ユーザー側から見ると、Z軸方向に縦長に配置される。また、表示パネル63は、アスペクト比が縦長の画像を表示する。   FIG. 45A is a diagram illustrating a mounting form in which the display unit 60 is rotated 90 degrees clockwise from the first display mode of the right-eye observation form. This mounting form is referred to as a second display mode. In the second display mode, the display unit 60 rotates clockwise about the Y ′ axis (see FIG. 3), with the storage unit 61 a and the spherical unit 61 b as rotation axes, so that the tip of the display unit 60 is located on the upper side. Rotated by 90 degrees. Thereby, the display part 60 and the finder opening part 67 are vertically arranged in the Z-axis direction when viewed from the user side. Further, the display panel 63 displays an image having an aspect ratio that is vertically long.

つまり、第2表示モードでは、表示部60の表示パネル63に表示される画像は、ユーザーの右眼に対して、斜め右前方向の位置に表示されることになる。また、第2表示モードでは、右眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   That is, in the second display mode, the image displayed on the display panel 63 of the display unit 60 is displayed at a position in the diagonally forward right direction with respect to the user's right eye. In the second display mode, the eyeball illumination lights 166c and 166d in the vicinity of the right eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

図45(B)は、右眼観察形態の第1表示モードから、表示部60を反時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、待避モードと称する。待避モードでは、表示部60の先端部が下側に位置するよう、収容部61a及び球状部61bを回転軸として、表示部60をY’軸回り(図3を参照)で90度だけ反時計回り方向に回転される。これにより、表示部60及びファインダー開口部67は、ユーザーの右眼の視野から待避することになる。また、待避モードでは、眼球照明ライト166a〜166dは、全て消灯してもよい。   FIG. 45 (B) is a diagram illustrating a mounting configuration in which the display unit 60 is rotated 90 degrees counterclockwise from the first display mode of the right-eye observation mode. This wearing form is referred to as a save mode. In the evacuation mode, the display unit 60 is rotated counterclockwise by 90 degrees around the Y ′ axis (see FIG. 3), with the accommodating portion 61 a and the spherical portion 61 b as rotation axes so that the tip of the display portion 60 is positioned on the lower side. It is rotated in the turning direction. Thereby, the display unit 60 and the viewfinder opening 67 are retracted from the visual field of the user's right eye. In the retreat mode, the eyeball illumination lights 166a to 166d may all be turned off.

第1表示モード、第2表示モード、及び待避モードにおいて、表示部60の回転軸は共通である。このため、第2表示モード又は待避モードから、表示部60を90度回転させれば、第1表示モードに戻すことができる。すなわち、ユーザーは、HMD1を外したり、装置本体部21の角度を変えたりせずに、表示部60をユーザーの右眼の視野から待避させたり、観察位置に戻したりすることができる。   The rotation axis of the display unit 60 is common in the first display mode, the second display mode, and the save mode. For this reason, if the display part 60 is rotated 90 degree | times from 2nd display mode or save mode, it can return to 1st display mode. That is, the user can retract the display unit 60 from the visual field of the right eye of the user or return it to the observation position without removing the HMD 1 or changing the angle of the apparatus main body unit 21.

なお、図45(A)及び図45(B)に示した例では、右眼観察形態の第1表示モードから、表示部60を縦に配置させる例を説明したが、図5(B)に示した左眼観察形態の第1表示モードからも同様に、表示部60を縦に配置させることができる。すなわち、左眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、XZ平面で反時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の第2表示モードに、HMD1を切り替え可能である。同様に、右眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の待避モードに、HMD1を切り替え可能である。   In the example shown in FIG. 45A and FIG. 45B, the example in which the display unit 60 is arranged vertically from the first display mode of the right-eye observation mode has been described, but FIG. Similarly, from the first display mode of the left-eye observation mode shown, the display unit 60 can be arranged vertically. That is, from the first display mode of the left-eye observation mode, the display unit 60 is rotated by 90 degrees in the counterclockwise direction on the XZ plane with the accommodating portion 61a and the spherical portion 61b as the central axes, so that the user can The HMD 1 can be switched to the second display mode of the eye observation form. Similarly, from the first display mode of the right-eye observation mode, the display unit 60 is rotated by 90 degrees in the clockwise direction around the Y ′ axis (see FIG. 3), with the accommodating portion 61a and the spherical portion 61b as the central axes. By doing so, the user can switch the HMD 1 to the save mode of the left-eye observation mode.

制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像に基づいて(図22を参照)、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。また、制御部302は、撮像素子72による撮像画像にユーザーの眼球が撮像されていない場合、待避モードであると判別する。   Based on the detection value detected by the acceleration sensor 132 and the image captured by the image sensor 72 (see FIG. 22), the control unit 302 performs the right-eye observation mode or the right-eye observation mode, the first display mode, and the second display. The mode or the save mode is determined. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, the right-eye observation form or the right-eye observation form and the first display mode, the second display mode, or the save mode are determined. In addition, when the user's eyeball is not captured in the image captured by the image sensor 72, the control unit 302 determines that the mode is the save mode.

図46は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を正面から水平に見た場合の図である。図46において、一点鎖線の四角形で示された位置600a〜600hは、表示部60が配置される位置の例である。   FIG. 46 is a diagram illustrating the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram when the user's face is viewed horizontally from the front. In FIG. 46, positions 600a to 600h indicated by alternate long and short dashed lines are examples of positions where the display unit 60 is arranged.

<第1表示モード>
位置600aは、ユーザーの右眼の下側に、横向きに配置されている表示部60の位置である。また、位置600bは、ユーザーの左眼の下側に、横向きに配置されている表示部60の位置である。また、位置600cは、ユーザーの右眼の上側に、横向きに配置されている表示部60の位置である。また、位置600dは、ユーザーの左眼の上側に、横向きに配置されている表示部60の位置である。
<First display mode>
The position 600a is a position of the display unit 60 that is disposed sideways below the right eye of the user. In addition, the position 600b is a position of the display unit 60 that is disposed sideways below the left eye of the user. The position 600c is a position of the display unit 60 that is disposed sideways above the right eye of the user. The position 600d is a position of the display unit 60 that is disposed sideways above the left eye of the user.

<第2表示モード>
位置600eは、ユーザーの右眼の右側に、縦向きに配置されている表示部60の位置である。また、位置600fは、ユーザーの左眼の左側に、縦向きに配置されている表示部60の位置である。
<Second display mode>
The position 600e is the position of the display unit 60 that is arranged vertically on the right side of the user's right eye. The position 600f is the position of the display unit 60 that is arranged vertically on the left side of the user's left eye.

HMD1の制御部302(図22を参照)は、位置600a、600d又は600fのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166a及び166bを点灯させ、眼球照明ライト166c及び166dを消灯させる。一方、位置600b、600c又は600eのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166c及び166dを点灯させ、眼球照明ライト166a及び166bを消灯させる。   When the display unit 60 is located at any of the positions 600a, 600d, and 600f, the control unit 302 (see FIG. 22) of the HMD1 lights the eyeball illumination lights 166a and 166b located closer to the user's eyes at this position. The eyeball illumination lights 166c and 166d are turned off. On the other hand, when the display unit 60 is in any of the positions 600b, 600c, or 600e, the eyeball illumination lights 166c and 166d located closer to the user's eyes are turned on at this position, and the eyeball illumination lights 166a and 166b are turned off. .

このように、制御部302は、ファインダー開口部67の隅の近傍(予め定められた距離以内)に配置されている眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照射する眼球照明ライトが点灯するように、ユーザーと表示部60との位置関係に応じて点灯状態を制御する。   As described above, the control unit 302 irradiates the user's eyes from the front among the eyeball illumination lights 166a to 166d arranged in the vicinity of the corner of the finder opening 67 (within a predetermined distance). The lighting state is controlled according to the positional relationship between the user and the display unit 60 so that the light is turned on.

<待避モード>
位置600gは、ユーザーの右眼の右下側に、縦向きに配置されている表示部60の位置である。また、位置600hは、ユーザーの左眼の左下側に、縦向きに配置されている表示部60の位置である。
位置600g及び600hの位置に表示部60がある場合、制御部302は、眼球照明ライト166a〜166dを、全て消灯させる。
<Evacuation mode>
The position 600g is the position of the display unit 60 that is arranged vertically on the lower right side of the user's right eye. The position 600h is the position of the display unit 60 that is arranged vertically on the lower left side of the user's left eye.
When the display unit 60 is located at the positions 600g and 600h, the control unit 302 turns off all of the eyeball illumination lights 166a to 166d.

次に、注視点検出のためのキャリブレーション時、点灯させる眼球照明ライトを選択する選択処理について説明する。
図47は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
Next, a selection process for selecting an eyeball illumination light to be lit at the time of calibration for gazing point detection will be described.
FIG. 47 is a flowchart of the selection processing procedure for the eyeball illumination light of the HMD 1 according to the present embodiment.

(ステップS801)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S801) The control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS802)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを消灯させ、眼球照明ライト166c及び166dを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S802) The control unit 302 turns off the eyeball illumination lights 166a and 166b and turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS803)制御部302は、ステップS801で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166a及び166bに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。次に、制御部302は、ステップS802で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166c及び166dに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。
次に、制御部302は、眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いか否かを判別する。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合(ステップS803;Yes)、ステップS804に進む。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合(ステップS803;No)、ステップS805に進む。
(Step S803) The control unit 302 reads the captured image stored in step S801, and extracts images of bright spots corresponding to the eyeball illumination lights 166a and 166b from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image. Next, the control unit 302 reads the captured image stored in step S802, and extracts bright spot images corresponding to the eyeball illumination lights 166c and 166d from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image.
Next, the control unit 302 determines whether the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S803; Yes), the process proceeds to step S804. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S803; No), the process proceeds to step S805.

(ステップS804)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S804) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 166a and 166b are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS805)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S805) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 performs the eyeball illumination. The lights 166c and 166d are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

第2実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、「左右の眼の検出処理」後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。この結果、第2実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、適切に撮像された撮像画像に基づいて、居眠り検出を行うようにしたので、運転中等にユーザーが目を瞑っている状態の場合、ユーザーに報知することができる。従って、第2実施形態のHMD1は、利便性を向上できる。
また、第2実施形態においても、注視点検出のためのキャリブレーション時、図30のステップS502又はS503の代わりに、上述したようにユーザーと表示部60との位置関係に応じて眼球照明ライト166の点灯と消灯を制御する。
また、上述したように、眼球照明ライト166の輝度に基づいて、眼球照明ライト166を制御するようにしたので、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで、効率的な省電力対策が可能となっている。
As in the case of the HMD 1 of the first embodiment, the HMD 1 of the second embodiment performs “vehicle detection processing” and “slumber detection processing” after “left and right eye detection processing”. As a result, the HMD 1 of the second embodiment detects doze based on the appropriately captured image, as in the case of the HMD 1 of the first embodiment. Users can be alerted when they are meditating. Therefore, the HMD 1 of the second embodiment can improve convenience.
Also in the second embodiment, at the time of calibration for detecting a gazing point, instead of step S502 or S503 in FIG. 30, the eyeball illumination light 166 is set according to the positional relationship between the user and the display unit 60 as described above. Controls turning on and off.
Further, as described above, since the eyeball illumination light 166 is controlled based on the luminance of the eyeball illumination light 166, the HMD 1 according to the present embodiment is in accordance with the positional relationship between the user's eyes and the display unit 60. The light that illuminates the eyeball can be appropriately selected. Further, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the unused eyeball illumination light 166.

なお、本実施形態では、眼球照明ライト166の輝度と、ユーザーと表示部60との位置関係とに応じて、眼球照明ライト166の点灯及び消灯を制御する例を説明したが、眼球照明ライト166の点灯及び消灯を制御する例は、これに限られない。例えば、制御部302は、取得した撮像画像と記憶部303に記憶されている判別用画像とを、パターンマッチングにより比較し、比較した結果に基づいて、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御するようにしてもよい。   In the present embodiment, the example in which turning on and off of the eyeball illumination light 166 is controlled according to the luminance of the eyeball illumination light 166 and the positional relationship between the user and the display unit 60 has been described. An example of controlling the turning on and off of light is not limited to this. For example, the control unit 302 compares the acquired captured image with the discrimination image stored in the storage unit 303 by pattern matching, and according to the positional relationship between the user and the display unit 60 based on the comparison result. Thus, the turning on and off of the eyeball illumination light 166 may be controlled.

以上のように、本実施形態のHMD1は、ユーザーの眼に対してユーザーの下側もしくは上側や外側に表示部60が配置された場合であっても、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御する。この結果、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて、ユーザーの眼に適切な眼球照明ライト166の光による輝点に基づいてユーザーの視点を精度良く検出できるので、注視点検出のためのキャリブレーションを精度良く行うことができる。従って、第1実施形態と同様に、「サイレントモードの処理」において、ユーザーは表示パネル63に表示されている選択項目を注視により選択することで、発話できない環境(状況)であっても通信相手とのコミュニケーションを行うことができる。
また、本実施形態のHMD1は、第1実施形態と同様に、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166を消灯できるので、消費電力を削減することができる。
As described above, the HMD 1 of the present embodiment is in a positional relationship between the user and the display unit 60 even when the display unit 60 is disposed below, above or outside the user with respect to the user's eyes. In response, the turning on and off of the eyeball illumination light 166 is controlled. As a result, according to the positional relationship between the user and the display unit 60, the HMD 1 of the present embodiment can accurately detect the user's viewpoint based on the bright spot by the light of the eyeball illumination light 166 appropriate for the user's eyes. Thus, calibration for detecting a gazing point can be performed with high accuracy. Therefore, as in the first embodiment, in the “silent mode processing”, the user selects a selection item displayed on the display panel 63 by gazing, so that the communication partner can communicate even in an environment (situation) where speech cannot be spoken. Can communicate with.
In addition, the HMD 1 of the present embodiment can reduce the power consumption because the eyeball illumination light 166 can be turned off according to the positional relationship between the user and the display unit 60 as in the first embodiment.

なお、表示部60がユーザーの顔の正面にあり、眼球照明ライト166a〜166dの全てがユーザーの水平視線からほぼ等距離な位置にあると判別される場合、HMD1は、原理的にはどの眼球照明ライト166を点灯してもよい。しかしながら、通常は眼の上方向には、天井の照明や空や太陽などがあり、これらの光源による輝点が眼球上に存在する可能性がある。そして、これらの輝点と眼球照明ライト166の輝点とが識別がしづらくなることから、表示部60がユーザーの顔のほぼ正面にあると判別される場合、HMD1は、眼の鉛直下方向に配置された眼球照明ライト166を点灯するように制御を行うようにしてもよい。   Note that if the display unit 60 is in front of the user's face and all of the eyeball illumination lights 166a to 166d are determined to be at an approximately equidistant position from the user's horizontal line of sight, the HMD 1 is in principle which eyeball. The illumination light 166 may be turned on. However, normally, there are ceiling lighting, sky, sun, and the like above the eyes, and bright spots from these light sources may exist on the eyeball. Since these bright spots and the bright spot of the eyeball illumination light 166 are difficult to discriminate, when it is determined that the display unit 60 is substantially in front of the user's face, the HMD 1 Control may be performed to turn on the eyeball illumination light 166 arranged at.

なお、表示部60を含むファインダー開口部67の長辺の近傍に眼球照明ライト166a〜166dを備える例を説明したが(図2を参照)、眼球照明ライト166a〜166dを備える例は、これに限られない。すなわち、眼球照明ライト166は、ファインダー開口部67の短辺の近傍に配置されてもよい。   In addition, although the example provided with the eyeball illumination lights 166a to 166d near the long side of the finder opening 67 including the display unit 60 (see FIG. 2), the example provided with the eyeball illumination lights 166a to 166d Not limited. That is, the eyeball illumination light 166 may be disposed in the vicinity of the short side of the finder opening 67.

[第3実施形態]
次に、表示部がシースルー光学系の場合について説明する。
第1及び第2実施形態との差異は、表示部60の構成のみである。
図48は、本実施形態に係る本実施形態に係る光学系を説明するための表示部60aの断面図である。図8と同じ機能の部材には同じ番号を設けてあるので説明は省略する。
[Third Embodiment]
Next, the case where the display unit is a see-through optical system will be described.
The difference from the first and second embodiments is only the configuration of the display unit 60.
FIG. 48 is a cross-sectional view of the display unit 60a for explaining the optical system according to the present embodiment. The members having the same functions as those in FIG.

図48に示すように、本実施形態の表示部60aは、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75、偏光板90、凹レンズ91、1/4波長板92、液晶93、偏光板94、開口部95を含んで構成されている。図48において、符号H、I、J、K、O、Tは、各々、光線を表し、符号Sは、ユーザーの眼から出た光束を表す。   As shown in FIG. 48, the display unit 60a of the present embodiment includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, and an image sensor. 72, a quarter-wave plate 75, a polarizing plate 90, a concave lens 91, a quarter-wave plate 92, a liquid crystal 93, a polarizing plate 94, and an opening 95. In FIG. 48, symbols H, I, J, K, O, and T each represent a light beam, and symbol S represents a light beam emitted from the user's eye.

図48に示すように、ユーザーの前面の景色は、光線Oとなって開口部95に入射する。次に、光線Oは、開口部95を抜けて、偏光板94を透過する。次に、光線Oは、S偏光のみが透過する。
次に、光線Oは、液晶93に入射する。なお、光線Oは、液晶93の働きにより偏光方向が変わる。すなわち、液晶93に通電した場合(オン状態)、光線Oは、液晶93に入射したS偏光がP偏光となって、1/4波長板92に入射する。次に、光線Oは、1/4波長板92の働きにより左回りの偏光となる。
As shown in FIG. 48, the scenery in front of the user becomes a light ray O and enters the opening 95. Next, the light beam O passes through the opening 95 and passes through the polarizing plate 94. Next, the light beam O transmits only S-polarized light.
Next, the light beam O enters the liquid crystal 93. Note that the polarization direction of the light beam O is changed by the action of the liquid crystal 93. That is, when the liquid crystal 93 is energized (ON state), the light O is incident on the quarter-wave plate 92 with the S-polarized light incident on the liquid crystal 93 becoming P-polarized light. Next, the light beam O becomes counterclockwise polarized light by the action of the quarter-wave plate 92.

本実施形態において反射ミラー66は、半透過タイプとなっており、例えば、50%の光線を透過し、50%の光を反射する。反射ミラー66が、50%の光線を透過するとして以下を説明する。この結果、光線Oの50%が、1/4波長板75に入射する。
なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。
In the present embodiment, the reflection mirror 66 is a semi-transmissive type, and transmits, for example, 50% of light and reflects 50% of light. The following description will be made on the assumption that the reflection mirror 66 transmits 50% of light. As a result, 50% of the light beam O enters the quarter-wave plate 75.
The concave lens 91 is a member that is paired with a convex lens constituting the reflection mirror 66 to become a parallel plate with zero power.

次に、光線Oは、1/4波長板75の作用で、P偏光となり、第1プリズム65aに入射する。次に、光線Oは、接合面65cをそのまま透過して、第2プリズム65bを透過して偏光板90に入射する。偏光板90は、P偏光を透過するように構成されている。
以上の構成により、ユーザーによって外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともに観察可能となっている。
Next, the light beam O becomes P-polarized light by the action of the quarter-wave plate 75 and enters the first prism 65a. Next, the light beam O passes through the bonding surface 65 c as it is, passes through the second prism 65 b, and enters the polarizing plate 90. The polarizing plate 90 is configured to transmit P-polarized light.
With the above configuration, an image of the outside world (an image viewed through the opening 95) can be observed together with an image projected from the display panel 63 by the user.

次に、外界の画像を消し、表示パネル63から投影される画像のみを観察する場合について説明する。
図48において、液晶93を無通電の状態(オフ状態)にすると、光線Oは、液晶93により光線Oの偏光方向が変化されない。このため、光線Oは、偏光板94でS偏光となる。次に、光線Oは、そのままが1/4波長板92に入射する。次に、光線Oは、1/4波長板の働きにより右回りの偏光となる。
Next, a case where the image of the outside world is erased and only the image projected from the display panel 63 is observed will be described.
In FIG. 48, when the liquid crystal 93 is turned off (off state), the polarization direction of the light beam O is not changed by the liquid crystal 93. For this reason, the light beam O becomes S-polarized light at the polarizing plate 94. Next, the light beam O is incident on the quarter-wave plate 92 as it is. Next, the light beam O becomes clockwise polarized light by the action of the quarter wave plate.

次に、反射ミラー66を透過した光線Oの50%が、1/4波長板75に入射する。次に、光線Oは、1/4波長板75の作用で、S偏光となる。次に、S偏光になった光線Oは、第1プリズム65aに入射する。接合面65cに設けられた偏光反射膜は、S偏光を反射する。この結果、ユーザーの眼に外界の光線が、入射しない。   Next, 50% of the light beam O transmitted through the reflection mirror 66 enters the quarter-wave plate 75. Next, the light beam O becomes S-polarized light by the action of the quarter-wave plate 75. Next, the light beam O that has become S-polarized light enters the first prism 65a. The polarization reflection film provided on the bonding surface 65c reflects S-polarized light. As a result, external light rays do not enter the user's eyes.

このように、液晶93のオン状態とオフ状態の切り替えによって、外界の画像をファインダー内に透過して使用者によって観察可能か否かを制御することが可能である。なお、液晶93のオン状態とオフ状態の切り替えは、例えば処理部123が行う。   In this way, by switching the liquid crystal 93 between the on state and the off state, it is possible to control whether or not the image of the outside world can be transmitted through the finder and observed by the user. Note that the processing unit 123 performs switching between the ON state and the OFF state of the liquid crystal 93, for example.

図48において、偏光板90の働きは、反射ミラー66によってユーザーが自分の眼を拡大して観察しないように配置している。ユーザーが自分の眼を拡大して観察しない理由について、説明する。
ユーザーの眼から出た光束Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となり、反射ミラー66で光線Tとして反射される。次に、光線Tは、反射によって右回りの円偏光となり、1/4波長板75を透過する際にS偏光となる。
次に、光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。従って、ユーザーの眼には、自分自身の眼からでた光束が入射することはなく、表示画面中に自分の眼が見えることは無い。
In FIG. 48, the action of the polarizing plate 90 is arranged so that the user does not enlarge and observe his / her eyes by the reflecting mirror 66. Explain why users do not observe their eyes enlarged.
The light beam S emitted from the user's eyes is transmitted through only the P-polarized light by the polarizing plate 90, passes through the second prism 65b, the joint surface 65c, and the first prism 65a, and enters the quarter-wave plate 75. Here, the light beam S becomes counterclockwise circularly polarized light by the action of the quarter-wave plate 75, and is reflected as the light beam T by the reflection mirror 66. Next, the light beam T becomes clockwise circularly polarized light by reflection, and becomes S-polarized light when passing through the quarter-wave plate 75.
Next, the light beam T passes through the first prism 65a and enters the joint surface 65c. Here, the joint surface 65c reflects and does not transmit S-polarized light. Therefore, the user's eyes do not receive the luminous flux from his / her own eyes, and his / her eyes cannot be seen on the display screen.

また、眼の周辺画像を撮影するための結像レンズ71ならびに撮像素子72は、ファインダー開口部67に隣接して設けられている。このため、結像レンズ71ならびに撮像素子72系の光線は、第2プリズム65bを透過せずに、直接ユーザーの眼の近傍を撮影可能となっている。   Further, the imaging lens 71 and the image sensor 72 for taking a peripheral image of the eye are provided adjacent to the finder opening 67. For this reason, the light rays of the imaging lens 71 and the imaging element 72 system can directly photograph the vicinity of the user's eyes without passing through the second prism 65b.

図49は、本実施形態に係る観察範囲と撮像範囲を説明する図である。図49において、符号67aは、表示パネル63から投影された画像の観察範囲を表している。符号67bは、撮像素子72の撮像範囲を表している。
また、図49は、図10等と同様に、反射ミラー66を凸レンズに置き換えて、等価的に表した図である。
FIG. 49 is a diagram for explaining an observation range and an imaging range according to the present embodiment. In FIG. 49, the reference numeral 67a represents the observation range of the image projected from the display panel 63. Reference numeral 67 b represents an imaging range of the imaging element 72.
FIG. 49 is an equivalent view in which the reflecting mirror 66 is replaced with a convex lens, as in FIG.

図49において、結像レンズ71の焦点距離は、反射ミラー66の焦点距離より短く作られている。このため、図48を紙面とは垂直に断面を切り取った場合、図49で示すように、ユーザーの眼を含むその周囲の様子が撮影可能となっている。
なお、図49において、結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心とはオフセットしている。しかしながら、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能となっており、図49に示すようにユーザーの眼は観察距離L81の位置にある。このため、ユーザーが表示パネル63を観察している場合、本実施形態によれば、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能となっている。
In FIG. 49, the focal length of the imaging lens 71 is made shorter than the focal length of the reflection mirror 66. Therefore, when FIG. 48 is cut in a cross section perpendicular to the paper surface, as shown in FIG. 49, it is possible to photograph the surrounding area including the user's eyes.
In FIG. 49, the imaging lens 71 and the image sensor 72 are offset from the optical center of the reflection mirror 66. However, the user can sufficiently separate his / her eyes from the viewfinder opening 67 by lowering the display unit 60a not toward the front of the eyes but toward the mouth, and as shown in FIG. It is at the position of the observation distance L81. For this reason, when the user is observing the display panel 63, according to this embodiment, the image sensor 72 can photograph the user's eyes and the surroundings without any problem.

上述した構成を備えることで、ユーザーの眼を含む撮像を行い、第1実施形態と同様に、撮像素子72が撮像した画像に基づいて、HMD1の装着状態、視線キャリブレーションを行うことができるシースルー光学系の表示部を備えるヘッドマウントディスプレイを提供することができる。
なお、第2実施形態においても、第1実施形態で説明したように、眼球照明ライトを、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
By providing the above-described configuration, it is possible to perform imaging including the user's eyes, and to see through the HMD 1 wearing state and line-of-sight calibration based on the image captured by the image sensor 72 as in the first embodiment. A head-mounted display including an optical system display unit can be provided.
In the second embodiment, as described in the first embodiment, the eyeball illumination light may be arranged in the vicinity of two opposing sides of the four sides of the finder opening 67.

第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、「左右の眼の検出処理」後、「乗り物検出の処理」及び「居眠り検出の処理」を行う。この結果、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、適切に撮像された撮像画像に基づいて、居眠り検出を行うようにしたので、運転中等にユーザーが目を瞑っている状態の場合、ユーザーに報知することができる。従って、第3実施形態のHMD1は、利便性を向上できるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供することができる。
また、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、HMD1がユーザーの頭部近傍にあるか否か、及びサイレントモードの設定に基づいて「サイレントモードの処理」を行う。この結果、第3実施形態のHMD1は、第1実施形態のHMD1の場合と同様に、着信音及び通話音がユーザーに適切に報知できる。従って、第3実施形態のHMD1は、利便性を向上できるシースルー光学系の表示部60aを備えるヘッドマウントディスプレイを提供することが可能になる。
As in the case of the HMD 1 of the first embodiment, the HMD 1 of the third embodiment performs “vehicle detection processing” and “slumber detection processing” after “left and right eye detection processing”. As a result, the HMD 1 of the third embodiment is configured to detect doze based on the captured image that has been appropriately captured, as in the case of the HMD 1 of the first embodiment. Users can be alerted when they are meditating. Therefore, the HMD 1 of the third embodiment can provide a head mounted display including the display unit 60a of a see-through optical system that can improve convenience.
Similarly to the case of the HMD 1 of the first embodiment, the HMD 1 of the third embodiment performs “silent mode processing” based on whether the HMD 1 is near the user's head and the setting of the silent mode. Do. As a result, HMD1 of 3rd Embodiment can alert | report a ringtone and a telephone call sound appropriately to a user similarly to the case of HMD1 of 1st Embodiment. Therefore, the HMD 1 of the third embodiment can provide a head mounted display including the display unit 60a of a see-through optical system that can improve convenience.

なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として、右眼観察形態と左眼観察形態を切り替えて使用できるヘッドマウントディスプレイの例を説明したが、これに限られない。例えば、右眼観察形態専用、または左眼観察形態専用のヘッドマウントディスプレイであってもよい。この場合、本実施形態で説明した処理の内、右眼観察形態、または左眼観察形態に関する処理のみを行うようにしてもよい。   In the first to third embodiments, an example of a head-mounted display that can be used by switching between a right-eye observation mode and a left-eye observation mode has been described as an example of a head-mounted display, but is not limited thereto. For example, it may be a head-mounted display dedicated to the right-eye observation form or dedicated to the left-eye observation form. In this case, among the processes described in the present embodiment, only the process relating to the right eye observation form or the left eye observation form may be performed.

なお、第1〜第3実施形態において、表示部60(または表示部60a)の画像を観察している眼を認識する際に、制御部302は、バックライト62を点灯させるようにしてもよい。これにより、さらに撮像画像に含まれるユーザーの眼の領域を含む画像が鮮明になり、「左右の眼の検出処理」における演算処理が簡単になる。または、制御部302は、バックライト62を消灯させた撮像画像と、バックライト62を点灯させた撮像画像の両方を用いて「左右の眼の検出処理」を行うようにしてもよい。この場合、制御部302は、撮像画像において、ユーザーの眼を含む領域がより鮮明な方を用いて、「左右の眼の検出処理」を行うようにしてもよい。   In the first to third embodiments, the controller 302 may turn on the backlight 62 when recognizing an eye observing the image of the display unit 60 (or the display unit 60a). . As a result, the image including the region of the user's eye included in the captured image becomes clearer, and the arithmetic processing in the “left and right eye detection processing” is simplified. Alternatively, the control unit 302 may perform the “left and right eye detection process” using both the captured image in which the backlight 62 is turned off and the captured image in which the backlight 62 is turned on. In this case, the control unit 302 may perform the “left and right eye detection process” using a captured image in which the region including the user's eyes is clearer.

なお、第1〜第3実施形態では、撮像画像の例として、図11、図12、図14、図26、図27、及び図28に示したように、ユーザーの片眼を含む領域が撮像された例を説明したがこれに限られない。撮像画像には、ユーザーの両眼を含む領域が撮像されていてもよく、またはユーザーの両眼のうち、片眼を含む領域のみならず、ユーザーの他の片眼を含む領域が撮像されていてもよい。
この場合、制御部302は、撮像画像において占める面積が多い方の眼の画像領域を抽出して、抽出した画像領域をユーザーの片眼を含む領域とする。そして、制御部302は、この抽出したユーザーの片眼を含む領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。あるいは、制御部302は、撮像画像において眼球の画像が撮像画像の中心により近い方の眼の画像領域を抽出して、抽出した画像領域に基づいて「左右の眼の検出処理」を行うようにしてもよい。
また、制御部302は、眉毛の画像を抽出し、抽出した眉毛の画像の近傍にある眼の画像を抽出して、「左右の眼の検出処理」を行う。このように眉毛の画像の近傍にある眼の画像を抽出することで、本発明に係るHMD1では、ユーザーの片眼を含む領域の画像に、ユーザーの両眼のうち他の片眼の画像又はその眼に対応する眉毛の画像が含まれていても、ユーザーの片眼の画像およびその眼に対応する眉毛の画像を適切に抽出できる。この結果、本発明に係るHMD1では、ユーザーの片眼を含む領域に基づいて、表示部60に表示された画像を観察している眼が右眼と左眼とのいずれかであるかを適切に認識できる。
In the first to third embodiments, as an example of the captured image, an area including one eye of the user is captured as illustrated in FIGS. 11, 12, 14, 26, 27, and 28. However, the present invention is not limited to this. In the captured image, an area including both eyes of the user may be imaged, or an area including one eye of the user as well as an area including the other eye of the user is captured. May be.
In this case, the control unit 302 extracts the image area of the eye that occupies the larger area in the captured image, and sets the extracted image area as the area including one eye of the user. Then, the control unit 302 may perform “left and right eye detection processing” based on the extracted region including one eye of the user. Alternatively, the control unit 302 extracts the image region of the eye whose eyeball image is closer to the center of the captured image in the captured image, and performs “left and right eye detection processing” based on the extracted image region. May be.
Further, the control unit 302 extracts an eyebrow image, extracts an eye image in the vicinity of the extracted eyebrow image, and performs a “left and right eye detection process”. Thus, by extracting the image of the eye in the vicinity of the image of the eyebrows, in the HMD 1 according to the present invention, the image of the region including the one eye of the user, Even if the image of the eyebrows corresponding to the eye is included, the image of one eye of the user and the image of the eyebrows corresponding to the eye can be appropriately extracted. As a result, the HMD 1 according to the present invention appropriately determines whether the eye observing the image displayed on the display unit 60 is the right eye or the left eye based on the region including one eye of the user. Can be recognized.

また、第1〜第3実施形態において、図2では、表示部60及びファインダー開口部67が長方形である例を示したが、表示部60及びファインダー開口部67は、正方形、楕円形、円形等であってもよい。表示部60及びファインダー開口部67が、このような形状であっても、複数の眼球照明ライトを、図2に示したように、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。   In the first to third embodiments, FIG. 2 illustrates an example in which the display unit 60 and the finder opening 67 are rectangular. However, the display unit 60 and the finder opening 67 are square, oval, circular, or the like. It may be. Even if the display unit 60 and the viewfinder opening 67 have such a shape, a plurality of eyeball illumination lights are arranged in the vicinity of two opposing sides of the four sides of the viewfinder opening 67 as shown in FIG. You may make it arrange | position to each.

なお、第1〜第3実施形態では、眼球照明ライト166a〜166d、または166e〜166hを、例えば図2に示したように、ファインダー開口部67の上下または左右に、各々2個ずつ設ける例を説明したが、これに限られない。例えば、ファインダー開口部67の上下または左右に、各々1個ずつ設けるようにしてもよい、ファインダー開口部67の上下または左右に、各々3個以上ずつ設けるようにしてもよい。
さらに、眼球照明ライト166a〜166dを設ける位置は、図2に示したようなファインダー開口部67の上下でなくてもよい。ユーザーの眼球に照射できる位置であればよく、例えば、眼球照明ライト166a〜166dは、ファインダー開口部67の内側の上下に設けるようにしてもよい。すなわち、ユーザーが、HMD1をユーザーの眼の近傍に表示部60が配置したとき、眼球照明ライト166a〜166dのいずれかがユーザーの眼の近傍に配置されればよい。このため、眼球照明ライト166a〜166dは、ファインダー開口部67が配置された表示部60の一面の範囲、または、ファインダー開口部67の内側の範囲に配置されるようにしてもよい。また、表示部60が配置されるユーザーの眼の近傍とは、例えば、図46に示した位置600a〜600fのように、ユーザーの眼の下、上、外側等であり、撮像素子72によりユーザーの眼の周辺画像を撮像できる範囲であればよい。
In the first to third embodiments, an example in which two eyeball illumination lights 166a to 166d or 166e to 166h are provided on each of the upper and lower sides or the left and right sides of the finder opening 67 as shown in FIG. Although explained, it is not limited to this. For example, one each may be provided above and below or right and left of the finder opening 67, or three or more may be provided above and below or right and left of the finder opening 67.
Further, the positions where the eyeball illumination lights 166a to 166d are provided may not be above and below the finder opening 67 as shown in FIG. Any position that irradiates the user's eyeball may be used. For example, the eyeball illumination lights 166 a to 166 d may be provided above and below the viewfinder opening 67. In other words, when the user places the HMD 1 in the vicinity of the user's eyes, the eyeball illumination lights 166a to 166d may be arranged in the vicinity of the user's eyes. For this reason, the eyeball illumination lights 166a to 166d may be arranged in a range of one surface of the display unit 60 where the finder opening 67 is arranged, or a range inside the finder opening 67. Further, the vicinity of the user's eye where the display unit 60 is arranged is, for example, below, above, outside, or the like of the user's eye as in positions 600a to 600f shown in FIG. As long as it is within a range where a peripheral image of the eye can be captured.

なお、第1〜第3実施形態では、右眼観察形態であるか左眼観察形態であるかを、加速度センサー132の検出値、または撮像素子72が撮像した画像を用いる例を説明したが、これに限られない。例えば、眼球照明ライト166a〜166dに受光部を備えるタイプを使用し、各眼球照明ライト166a〜166dによる反射光を検出するようにしてもよい。例えば、右眼観察形態の場合、図33に示したように、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの眼のより正面に配置される。このため、眼球照明ライト166c及び166dによる反射光の輝度は、眼球照明ライト166a及び166bによる反射光の輝度よりも低い。
このように、処理部123は、各眼球照明ライト166a〜166dによる反射光を検出し、検出した結果に基づいて観察形態を判別するようにしてもよい。
In the first to third embodiments, the example in which the detection value of the acceleration sensor 132 or the image captured by the image sensor 72 is used to determine whether the observation mode is the right eye observation mode or the left eye observation mode is described. It is not limited to this. For example, a type including a light receiving unit may be used for the eyeball illumination lights 166a to 166d, and the reflected light from each of the eyeball illumination lights 166a to 166d may be detected. For example, in the case of the right-eye observation mode, as shown in FIG. 33, the eyeball illumination lights 166a and 166b are arranged in front of the user's eye rather than the eyeball illumination lights 166c and 166d. For this reason, the brightness of the reflected light from the eyeball illumination lights 166c and 166d is lower than the brightness of the reflected light from the eyeball illumination lights 166a and 166b.
As described above, the processing unit 123 may detect the reflected light from each of the eyeball illumination lights 166a to 166d and determine the observation form based on the detected result.

また、撮像素子72は、所定の時間間隔で、撮像画像を撮像してもよい。この場合、処理部123は、メインスイッチ28をオフ状態にせずに、ユーザーがヘッドマウントディスプレイを頭部から外しているのか否かを、撮像素子72が撮像した画像に基づいて判別するようにしてもよい。メインスイッチ28をオフ状態にせずに、所定の時間以上、ユーザーがヘッドマウントディスプレイを頭部から外していると判別した場合、処理部123は、カメラ64及び撮像素子72による撮像を、停止させてもよい。また、処理部123は、眼球照明ライト166a〜166dを消灯させてもよい。さらに、処理部123は、省電力状態になるように、各通信回路等を制御するようにしてもよい。なお、これらの制御を行うか否かは、例えば、タッチスイッチ34を操作することにより、ユーザーが設定してもよい。
さらに、処理部123は、装置本体部21がヘッドバンド40に装着されていないことを検出スイッチ(不図示)が検出した場合、装置本体部21が頭部から外されていると判別し、眼球照明ライト166a〜166dを全て消灯させてもよい。
これにより、処理部123は、ヘッドマウントディスプレイの消費電力を低減させることができる。
The image sensor 72 may capture a captured image at a predetermined time interval. In this case, the processing unit 123 determines whether the user has removed the head-mounted display from the head without turning the main switch 28 based on the image captured by the image sensor 72. Also good. If it is determined that the user has removed the head-mounted display from the head for a predetermined time or longer without turning off the main switch 28, the processing unit 123 stops imaging by the camera 64 and the imaging element 72. Also good. The processing unit 123 may turn off the eyeball illumination lights 166a to 166d. Further, the processing unit 123 may control each communication circuit or the like so as to enter a power saving state. Whether or not to perform these controls may be set by the user by operating the touch switch 34, for example.
Further, when a detection switch (not shown) detects that the apparatus main body 21 is not attached to the headband 40, the processing unit 123 determines that the apparatus main body 21 is removed from the head, and the eyeball All of the illumination lights 166a to 166d may be turned off.
Thereby, the process part 123 can reduce the power consumption of a head mounted display.

なお、第1〜第3実施形態では、ヘッドマウントディスプレイの例として単眼タイプについて説明したが、ヘッドマウントディスプレイは、両眼タイプでもよい。この場合、処理部123は、撮像素子72が撮像した画像に基づいて、例えば、図46に示したように眼の上の位置600c及び600dに表示部が配置されている状態か、眼の下の位置600a及び600bに表示部が配置されている状態かを判別するようにしてもよい。処理部123は、判別した結果に基づいて、左右の眼に対応した表示部に各々設けられている眼球照明ライト166の点灯または消灯を制御するようにしてもよい。   In the first to third embodiments, the monocular type has been described as an example of the head mounted display. However, the head mounted display may be a binocular type. In this case, based on the image captured by the image sensor 72, the processing unit 123 may be in a state where the display unit is disposed at the positions 600c and 600d on the eye as illustrated in FIG. It may be determined whether or not the display unit is located at the positions 600a and 600b. The processing unit 123 may control lighting or extinguishing of the eyeball illumination lights 166 provided in the display units corresponding to the left and right eyes, based on the determined result.

また、眼球照明ライト166及び撮像素子72は、ヘッドマウントディスプレイが両眼タイプの場合、左右それぞれの表示部のうち、片方の表示部60だけに設けられてもよいし、両方の表示部60に設けられてもよい。片方の表示部60だけに、眼球照明ライト166を設けてもよい理由は、人が物を見る場合、一般的に、両眼の眼球が同じ方向を向くからである。   Further, when the head mounted display is a binocular type, the eyeball illumination light 166 and the image sensor 72 may be provided only on one display unit 60 of the left and right display units, or on both display units 60. It may be provided. The reason why the eyeball illumination light 166 may be provided only on one display unit 60 is that, when a person looks at an object, the eyeballs of both eyes generally face the same direction.

なお、第1〜第3実施形態では、HMD1は、図21に示した機能を備える例を説明したが、全ての機能を備えていなくてもよい。用途に応じて、例えば、温湿度センサー136等を備えなくてもよい。逆に、HMD1は、必要に応じて、図22に示した以外の他の機能部を備えるようにしてもよい。   In the first to third embodiments, the example in which the HMD 1 includes the functions illustrated in FIG. 21 has been described. However, all the functions may not be included. Depending on the application, for example, the temperature and humidity sensor 136 may not be provided. Conversely, the HMD 1 may include other functional units other than those shown in FIG. 22 as necessary.

なお、第1〜第3実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、用途に応じて単体で使用してもよい。   In the first to third embodiments, the example in which the display main body 20 is mounted on the headband 40 has been described, but the present invention is not limited to this. The user may use the display body 20 alone without depending on the headband 40 depending on the application.

なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。   The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.

なお、上述のHMD1は、内部にコンピュータシステム(例えば、処理部123)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。   The HMD 1 described above has a computer system (for example, the processing unit 123) inside. The operation process of each functional unit is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer system reading and executing the program. Here, the computer system includes a CPU, various memories, an OS, and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it also includes those that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in that case. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1…ヘッドマウントディスプレイ、20…ディスプレイ本体、26…オーディオコネクター、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子(撮像部)、100…イヤホン、103…第1スピーカー、104…第2スピーカー、121…デコーダー、123…処理部、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、151…ヘッドバンドセンサー、166a〜166h…眼球照明ライト、バイブレータ167、301…入力検出部、302…制御部、303…記憶部、304…眼球照明部、305…音響制御部、306…画像切替部、307…画像表示部、308…送受信部、309…乗物検出部、310…居眠検出部、311…装着処理部 DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 26 ... Audio connector, 34 ... Touch switch, 60 ... Display part, 63 ... Display panel (display part), 64 ... Camera, 72 ... Imaging element (imaging part), 100 ... Earphone, 103 ... first speaker, 104 ... second speaker, 121 ... decoder, 123 ... processing unit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 137 ... heart rate sensor, 138 ... 3G / LTE Communication circuit 151... Headband sensor, 166 a to 166 h... Eyeball illumination light, vibrator 167, 301... Input detection unit, 302 ... control unit, 303 ... storage unit, 304 ... eyeball illumination unit, 305 ... sound control unit, 306. Image switching unit, 307 ... Image display unit, 308 ... Transmission / reception unit, 309 ... Vehicle Out section, 310 ... Inemu detection unit, 311 ... attached processing unit

Claims (10)

自装置がユーザーの頭部近傍又は頭部へ装着されているか否かを検出する装着検出部と、
着信を報知する報知部と、
着信音を前記報知部から音により出力しないサイレントモードが設定されているか否かを示す情報に基づいて前記サイレントモードが設定されていると判別した場合、且つ前記装着検出部により自装置が前記ユーザーの頭部近傍又は頭部へ装着されていることが検出された場合、通信相手の端末からの着信を音により報知するように前記報知部を制御する制御部と、
を備えることを特徴とする情報入出力装置。
A wearing detection unit that detects whether or not the device is worn near or on the head of the user;
A notification unit for notifying incoming calls;
When it is determined that the silent mode is set based on information indicating whether or not the silent mode that does not output a ring tone by sound from the notification unit is set, and the user is detected by the wearing detection unit A control unit that controls the notification unit so as to notify the incoming call from the terminal of the communication partner by sound when it is detected that the head is attached to or near the head of
An information input / output device comprising:
前記制御部は、
前記サイレントモードが設定されている場合、且つ前記装着検出部により自装置が前記ユーザーの頭部近傍又は頭部へ非装着されていることが検出された場合、他の端末からの着信を振動により報知するように前記報知部を制御する
ことを特徴とする請求項1に記載の情報入出力装置。
The controller is
When the silent mode is set, and when the wear detection unit detects that the device is not worn near the user's head or on the head, incoming calls from other terminals are caused by vibration. The information input / output device according to claim 1, wherein the notification unit is controlled to notify.
複数の選択項目を含む第1情報を表示する表示部と、
前記複数の選択項目の中からいずれかの選択項目を選択する選択部と、
前記通信相手の端末へ第2情報を送信する送信部と、
を備え、
前記制御部は、
前記選択部により前記複数の選択項目の中からいずれかの選択項目が選択された場合、前記選択された選択項目に対応する音声を報知することを示す情報を前記第2情報として送信するように前記送信部を制御する
ことを特徴とする請求項1または請求項2に記載の情報入出力装置。
A display unit for displaying first information including a plurality of selection items;
A selection unit for selecting any one of the plurality of selection items;
A transmitter that transmits second information to the terminal of the communication partner;
With
The controller is
When any one of the plurality of selection items is selected by the selection unit, information indicating that a voice corresponding to the selected selection item is to be notified is transmitted as the second information. The information input / output device according to claim 1, wherein the transmission unit is controlled.
前記選択部は、
前記ユーザーの頭部の挙動を検出し、前記検出した結果に基づいて、前記表示部に表示された前記複数の選択項目の中からいずれかの選択項目を選択する
ことを特徴とする請求項3に記載の情報入出力装置。
The selection unit includes:
The behavior of the user's head is detected, and any one of the plurality of selection items displayed on the display unit is selected based on the detection result. The information input / output device described in 1.
前記選択部は、
注視点判定部により検出された前記ユーザーの注視に基づいて、前記表示部に表示された前記複数の選択項目の中からいずれかの選択項目を選択する
ことを特徴とする請求項3または請求項4に記載の情報入出力装置。
The selection unit includes:
The selection item is selected from the plurality of selection items displayed on the display unit based on the user's gaze detected by the gaze point determination unit. 4. The information input / output device according to 4.
前記選択部は、
撮像部により撮像された画像に含まれる前記ユーザーの指に対応する画像領域に基づいて、前記表示部に表示された前記複数の選択項目の中からいずれかの選択項目を選択する
ことを特徴とする請求項3から請求項5のいずれか1項に記載の情報入出力装置。
The selection unit includes:
Selecting any one of the plurality of selection items displayed on the display unit based on an image area corresponding to the user's finger included in the image captured by the imaging unit. The information input / output device according to any one of claims 3 to 5.
前記ユーザーの操作を検出する操作部
を備え、
前記選択部は、
前記操作部が検出した結果に基づいて、前記表示部に表示された前記複数の選択項目の中からいずれかの選択項目を選択する
ことを特徴とする請求項3から請求項6のいずれか1項に記載の情報入出力装置。
An operation unit for detecting the user's operation;
The selection unit includes:
The selection item is selected from the plurality of selection items displayed on the display unit based on a result detected by the operation unit. The information input / output device described in the item.
前記制御部は、
前記通信相手の端末から受信した情報に基づいて、第1言語を選択し、
前記選択部により前記複数の選択項目の中からいずれかの選択項目が選択された場合、選択された前記選択項目に対応する情報を、選択した前記第1言語に対応する音声で出力することを示す情報を送信するように前記送信部を制御する
ことを特徴とする請求項3から請求項7のいずれか1項に記載の情報入出力装置。
The controller is
Based on the information received from the terminal of the communication partner, the first language is selected,
When any selection item is selected from the plurality of selection items by the selection unit, information corresponding to the selected selection item is output in a voice corresponding to the selected first language. The information input / output apparatus according to any one of claims 3 to 7, wherein the transmitting unit is controlled so as to transmit information to be indicated.
前記選択項目は、
前記表示部に表示する前記第1情報を表示する際に用いる第2言語を選択する選択項目を含み、
前記制御部は、
前記選択部により前記複数の選択項目の中から選択されたいずれかの前記第2言語に基づいて、前記表示部に表示する前記第1情報を表示する際に用いる言語を変更する
ことを特徴とする請求項3から請求項8のいずれか1項に記載の情報入出力装置。
The selection item is:
A selection item for selecting a second language used when displaying the first information displayed on the display unit;
The controller is
The language used when displaying the first information displayed on the display unit is changed based on any one of the second languages selected from the plurality of selection items by the selection unit. The information input / output device according to any one of claims 3 to 8.
情報入出力装置における情報入出力方法であって、
装着検出部が、自装置がユーザーの頭部近傍または頭部へ装着されているか否かを検出する装着検出手順と、
制御部が、着信音を報知部から音により出力しないサイレントモードが設定されているか否かを示す情報に基づいて前記サイレントモードが設定されていると判別した場合、且つ前記装着検出手順により自装置が前記頭部近傍または頭部へ装着されていることが検出された場合、通信相手の端末からの着信を音により報知するように前記報知部を制御する手順と、
を含むことを特徴とする情報入出力方法。
An information input / output method in an information input / output device,
A wearing detection procedure for detecting whether or not the wear detecting unit is worn near or on the head of the user;
When the control unit determines that the silent mode is set based on information indicating whether or not the silent mode that does not output the ring tone from the notification unit by sound is set, and the device detects the device by the mounting detection procedure. Is detected in the vicinity of the head or worn on the head, a procedure for controlling the notification unit to notify the incoming call from the terminal of the communication partner by sound,
An information input / output method comprising:
JP2013015799A 2013-01-30 2013-01-30 Information input/output device and information input/output method Pending JP2014147033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013015799A JP2014147033A (en) 2013-01-30 2013-01-30 Information input/output device and information input/output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013015799A JP2014147033A (en) 2013-01-30 2013-01-30 Information input/output device and information input/output method

Publications (1)

Publication Number Publication Date
JP2014147033A true JP2014147033A (en) 2014-08-14

Family

ID=51426942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013015799A Pending JP2014147033A (en) 2013-01-30 2013-01-30 Information input/output device and information input/output method

Country Status (1)

Country Link
JP (1) JP2014147033A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016206960A (en) * 2015-04-23 2016-12-08 日本電信電話株式会社 Voice video input/output device
JP2017183828A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2020506480A (en) * 2017-02-03 2020-02-27 クアルコム,インコーポレイテッド System and method for thermal management of a wearable computing device based on proximity to a user

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016206960A (en) * 2015-04-23 2016-12-08 日本電信電話株式会社 Voice video input/output device
JP2017183828A (en) * 2016-03-28 2017-10-05 京セラ株式会社 Head-mounted display
JP2020506480A (en) * 2017-02-03 2020-02-27 クアルコム,インコーポレイテッド System and method for thermal management of a wearable computing device based on proximity to a user

Similar Documents

Publication Publication Date Title
JP2014123883A (en) Head-mounted type information input output apparatus, and head-mounted type information input output method
JP6318462B2 (en) Display device
US10452152B2 (en) Wearable glasses and method of providing content using the same
RU2670784C2 (en) Orientation and visualization of virtual object
WO2015125373A1 (en) Electronic apparatus and power control method
US8498816B2 (en) Systems including mobile devices and head-mountable displays that selectively display content, such mobile devices, and computer-readable storage media for controlling such mobile devices
US20100208029A1 (en) Mobile immersive display system
JP6123180B2 (en) Display device
JP2014021707A (en) Information input/output device and information input/output method
JP6011072B2 (en) Control device and program
JP2013190941A (en) Information input output device, and head-mounted display device
KR20140033009A (en) An optical device for the visually impaired
JPWO2018179644A1 (en) Information processing apparatus, information processing method, and recording medium
JP2014212473A (en) Communication device and head-mounted display device
JP6136090B2 (en) Electronic device and display device
KR102269833B1 (en) Smart glasses
JP2014147033A (en) Information input/output device and information input/output method
JP2014044654A (en) Information input and output device
JP2014021272A (en) Information input/output device and information input/output method
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP6015223B2 (en) Electronic device and display device
JP2014122841A (en) Transportation means detecting device and transportation means detecting method
JP6719418B2 (en) Electronics
JP2013239767A (en) Head-mounted type information input/output device
JP2013175909A (en) Head-mounted device