JP5979110B2 - Head mounted display and control program - Google Patents

Head mounted display and control program Download PDF

Info

Publication number
JP5979110B2
JP5979110B2 JP2013204063A JP2013204063A JP5979110B2 JP 5979110 B2 JP5979110 B2 JP 5979110B2 JP 2013204063 A JP2013204063 A JP 2013204063A JP 2013204063 A JP2013204063 A JP 2013204063A JP 5979110 B2 JP5979110 B2 JP 5979110B2
Authority
JP
Japan
Prior art keywords
image
cpu
unit
value
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013204063A
Other languages
Japanese (ja)
Other versions
JP2015069481A (en
Inventor
智己 片野
智己 片野
邦宏 伊藤
邦宏 伊藤
美佑紀 楠田
美佑紀 楠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013204063A priority Critical patent/JP5979110B2/en
Publication of JP2015069481A publication Critical patent/JP2015069481A/en
Application granted granted Critical
Publication of JP5979110B2 publication Critical patent/JP5979110B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムに関する。   The present invention relates to a head mounted display and a control program for controlling the head mounted display.

ヘッドマウントディスプレイ(Head Mounted Display、HMD)はユーザの頭部に装着されて使用される。従ってHMDには、ユーザの視野の確保及び装着時の負担の軽減の為に小型であることが要求される。HMDを小型化した場合、スイッチ等の機械的なユーザインターフェイス(User Interface UI)を設ける場所は制約される。特許文献1は、カメラによって撮影されたユーザの手の動きを検出することで、対応する操作情報を特定する技術を開示する。HMDにこの技術を応用することで、HMDは、カメラによって撮影された対象物の動きに対応する操作内容を特定し、特定した操作内容に応じた動作を実行できる。この場合、HMDは、小型化した場合でも十分なUIを確保できる。   A head mounted display (HMD) is used by being mounted on a user's head. Therefore, the HMD is required to be small in order to secure the user's field of view and reduce the burden at the time of wearing. When the HMD is downsized, a place where a mechanical user interface (User Interface UI) such as a switch is provided is limited. Patent Literature 1 discloses a technique for identifying corresponding operation information by detecting the movement of a user's hand taken by a camera. By applying this technology to the HMD, the HMD can specify the operation content corresponding to the movement of the object photographed by the camera, and can execute an operation according to the specified operation content. In this case, the HMD can secure a sufficient UI even when the HMD is downsized.

特開2007−172577号公報JP 2007-172577 A

HMDにカメラが設けられる場合、ユーザの頭部に表示部と共に配置する方法が考えられる。この場合、カメラの撮影領域は、HMDを装着したユーザの頭部が動くことによって変化する。従って、カメラによる撮影中に、撮影領域から対象物が外れる場合がある。この場合、HMDは対象物の動きを正確に検出できないので、対応する操作内容を特定して動作することができないという問題点がある。   When a camera is provided in the HMD, a method of arranging it together with a display unit on the user's head can be considered. In this case, the shooting area of the camera changes as the head of the user wearing the HMD moves. Accordingly, there is a case where the object is out of the shooting area during shooting by the camera. In this case, since the HMD cannot accurately detect the movement of the object, there is a problem that the corresponding operation content cannot be specified and operated.

本発明の目的は、対象物の動きを正確に検出し、対応する操作内容を特定して動作することが可能なヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムを提供することである。   An object of the present invention is to provide a head-mounted display capable of accurately detecting the movement of an object, specifying the corresponding operation content, and operating, and a control program for controlling the head-mounted display. It is.

本発明の第1態様に係るヘッドマウントディスプレイは、コンテンツ画像を少なくとも表示可能であり、第1方向に画像光を射出可能な表示部と、前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域を撮影して画像データを出力可能な撮影部と、前記撮影部から出力された画像データを取得する取得手段と、前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段とを備え、前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする。 The head mounted display according to the first aspect of the present invention is capable of displaying at least a content image and capable of emitting image light in a first direction, and an area in a second direction opposite to the first direction. Based on the image data acquired by the acquisition unit, an acquisition unit that acquires image data output from the imaging unit, First judgment means for judging whether or not there is a predetermined object in a predetermined area; and the first judgment means determines that the object is in the predetermined area , and the image data is obtained by the acquisition means. If the acquired time difference between the time that the predetermined region is captured by the imaging unit is smaller than a predetermined value, said display unit and said content image and the object image When the first display means for displaying and the first determination means determine that the object is in the predetermined area, the position of the object in the predetermined area is determined based on the image data. When the second determination means for determining whether the change tendency satisfies a predetermined condition and the second determination means determine that the change tendency of the position of the object satisfies the predetermined condition And execution means for executing processing corresponding to the predetermined condition, wherein the object image corresponds to the image data determined by the first determination means to be within the predetermined area. It is an image.

第1態様によれば、ヘッドマウントディスプレイは、撮影部の撮影範囲内に対象物がある場合、コンテンツ画像と対象物画像との両方を表示部に表示する。従ってユーザは、対象物が撮影部によって撮影されているかを認識できる。ヘッドマウントディスプレイは、対象物の位置の経時的な変化が所定の条件を満たす場合、対応する処理を実行する。ユーザは、対象物の位置の経時的な変化の傾向が所定の条件を満たすように対象物を移動させることによって、ヘッドマウントディスプレイに処理を実行させることができる。ここでユーザは、撮影部の撮影範囲内で対象物を移動させることが容易に可能となるので、ヘッドマウントディスプレイに対象物を正確に検出させ、処理を適切に実行させることができる。   According to the first aspect, the head mounted display displays both the content image and the target object image on the display unit when the target object is within the shooting range of the shooting unit. Therefore, the user can recognize whether the object is being photographed by the photographing unit. The head mounted display executes a corresponding process when a change with time of the position of the object satisfies a predetermined condition. The user can cause the head mounted display to execute the process by moving the object such that the tendency of the position of the object to change over time satisfies a predetermined condition. Here, since the user can easily move the object within the imaging range of the imaging unit, the head-mounted display can accurately detect the object and appropriately execute the process.

第1態様において、前記コンテンツ画像と前記対象物画像とに基づいて、前記コンテンツ画像に前記対象物画像が重畳された重畳画像を生成する生成手段をさらに備え、前記第1表示手段は、前記重畳画像を前記表示部に表示してもよい。この場合、ヘッドマウントディスプレイは、表示部の小さい領域に重畳画像とを表示させることができる。   In the first aspect, the image processing apparatus further includes a generating unit that generates a superimposed image in which the target image is superimposed on the content image based on the content image and the target image, and the first display unit includes the superimposing unit. An image may be displayed on the display unit. In this case, the head mounted display can display the superimposed image in a small area of the display unit.

第1態様において、前記生成手段は、前記コンテンツ画像の各画素のα値である第1α値と、前記対象物画像の各画素のα値であって前記第1α値よりも小さい第2α値とを用いて、前記重畳画像を生成してもよい。この場合、コンテンツ画像と対象物画像とは透明な状態で重ねられる。なお、対象物画像の各画素のα値(第2α値)を、コンテンツ画像の各画素のα値(第1α値)よりも小さくすることによって、コンテンツ画像の色を濃く且つ鮮明にすることができる。このため、対象物画像がコンテンツ画像に重ねて表示されても、対象物画像はコンテンツ画像の視認性を妨げない。このためユーザは、コンテンツ画像をより適切に認識できる。   In the first aspect, the generation unit includes a first α value that is an α value of each pixel of the content image, and a second α value that is an α value of each pixel of the object image and is smaller than the first α value. The superimposed image may be generated using. In this case, the content image and the object image are superimposed in a transparent state. Note that the color of the content image can be made darker and clearer by making the α value (second α value) of each pixel of the object image smaller than the α value (first α value) of each pixel of the content image. it can. For this reason, even if the object image is displayed so as to overlap the content image, the object image does not hinder the visibility of the content image. For this reason, the user can recognize a content image more appropriately.

第1態様において、前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしているか判断する第3判断手段を備え、前記生成手段は、前記第3判断手段によって前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしていると判断された場合、前記対象物画像の各画素のα値を、前記第2α値よりも大きい第3α値とし、前記第1α値と前記第3α値とを用いて、前記重畳画像を生成してもよい。この場合、対象物画像の透過率が小さくなり、対象物画像はより色が濃く且つ鮮明に表示される。従ってユーザは、対象物の位置の変化の傾向が、所定の条件の一部を満たすことを、対象物画像の透過率の変化により容易に認識できる。又、ヘッドマウントディスプレイは、ユーザによる対象物画像の視認性を向上させることができる。   1st aspect WHEREIN: The 3rd judgment means which judges whether the tendency of the change of the position of the said object satisfy | fills a part of said predetermined conditions is provided, The said production | generation means is the said judgment object by the said 3rd judgment means. When it is determined that the position change tendency satisfies a part of the predetermined condition, the α value of each pixel of the object image is set to a third α value larger than the second α value, and the first α The superimposed image may be generated using the value and the third α value. In this case, the transmittance of the object image is reduced, and the object image is displayed with a deeper color and clearer. Therefore, the user can easily recognize from the change in the transmittance of the object image that the tendency of the change in the position of the object satisfies a part of the predetermined condition. Further, the head mounted display can improve the visibility of the object image by the user.

第1態様において、前記第3α値は、前記第1α値よりも小さくてもよい。この場合、対象物画像のα値が第2α値から第3α値に変化しても、対象物画像はコンテンツ画像の視認性を妨げない。このためユーザは、コンテンツ画像をより適切に認識できる。   In the first aspect, the third α value may be smaller than the first α value. In this case, even if the α value of the object image changes from the second α value to the third α value, the object image does not hinder the visibility of the content image. For this reason, the user can recognize a content image more appropriately.

第1態様において、前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記対象物の位置を示す軌跡画像を前記コンテンツ画像に重ねて前記表示部に表示する第2表示手段を備えてもよい。この場合、ユーザは、ヘッドマウントディスプレイによって対象物の位置の変化の傾向が所定の条件を満たすと判断されたことを、軌跡画像によって容易に認識できる。   In the first aspect, when the second determination unit determines that the tendency of the change in the position of the object satisfies the predetermined condition, a trajectory image indicating the position of the object is superimposed on the content image. Second display means for displaying on the display unit may be provided. In this case, the user can easily recognize from the trajectory image that the tendency of the change in the position of the object is determined by the head mounted display to satisfy the predetermined condition.

第1態様において、前記第2表示手段は、前記実行手段によって前記対応する処理が実行される前に、前記軌跡画像を前記表示部に表示してもよい。この場合、ユーザは、軌跡画像が表示部に表示されている場合に、対応する処理がまだ実行されていないことを認識できる。   In the first aspect, the second display unit may display the trajectory image on the display unit before the corresponding process is executed by the execution unit. In this case, when the trajectory image is displayed on the display unit, the user can recognize that the corresponding process has not been executed yet.

第1態様において、前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記第1表示手段によって表示された前記対象物画像を消去する消去手段を備えてもよい。この場合、コンテンツ画像のみが表示部に表示された状態になるので、ユーザは、コンテンツ画像をより適切に認識できる。   In the first aspect, the object image displayed by the first display unit is deleted when the second determining unit determines that the tendency of the change in the position of the object satisfies the predetermined condition. An erasing unit may be provided. In this case, since only the content image is displayed on the display unit, the user can more appropriately recognize the content image.

第1態様において、前記消去手段は、前記実行手段によって前記対応する処理が実行された後、前記対象物画像を消去してもよい。この場合、ユーザは、ヘッドマウントディスプレイに対して処理を実行させることに成功したことを、対象部画像が消去されることによって認識できる。   In the first aspect, the erasing unit may erase the object image after the execution of the corresponding process by the execution unit. In this case, the user can recognize that the process has been successfully performed on the head mounted display by deleting the target part image.

第1態様において、前記取得手段は、前記撮影部によって前記所定領域内が撮影された時の時刻を示す時刻情報を前記撮影部から更に取得し、前記第1表示手段は、前記取得手段によって前記時刻情報が取得された時刻と、取得された前記時刻情報によって示される時刻との差が所定値よりも小さい場合にのみ、前記コンテンツ画像と前記対象物画像とを前記表示部に表示し、前記差が所定値よりも小さくない場合、前記対象物画像を前記表示部に表示しなくてもよい。ヘッドマウントディスプレイは、対象物画像によって示される対象物の動きと、実際の対象物の動きとの間に時間差が発生する場合、表示部に対象物画像を表示しない。これによってヘッドマウントディスプレイは、表示部に表示される対象物画像によって示される対象物の動きが、実際の対象物の動きに比べて遅延することによって、ユーザに違和感を与えることを防止できる。   In the first aspect, the acquisition unit further acquires time information indicating a time when the inside of the predetermined area was captured by the imaging unit from the imaging unit, and the first display unit is configured to acquire the time information by the acquisition unit. Only when the difference between the time when the time information is acquired and the time indicated by the acquired time information is smaller than a predetermined value, the content image and the object image are displayed on the display unit, When the difference is not smaller than a predetermined value, the object image may not be displayed on the display unit. The head-mounted display does not display the object image on the display unit when a time difference occurs between the movement of the object indicated by the object image and the actual movement of the object. Accordingly, the head mounted display can prevent the user from feeling uncomfortable by delaying the movement of the object indicated by the object image displayed on the display unit as compared with the actual movement of the object.

第1態様において、前記第2判断手段は、記憶部に記憶されたテンプレートデータによって示される特定の形状と、前記対象物の位置の変化の傾向とが一致するかを判断することによって、前記対象物の位置の変化の傾向が所定の条件を満たしているか判断してもよい。この場合、ヘッドマウントディスプレイは、複数の補正位置の変化の傾向が所定の条件を満たしているかを適切に判断できる。   In the first aspect, the second determination means determines whether the specific shape indicated by the template data stored in the storage unit matches the tendency of the change in the position of the object, thereby determining the object. It may be determined whether the tendency of the change in the position of the object satisfies a predetermined condition. In this case, the head mounted display can appropriately determine whether the tendency of the change in the plurality of correction positions satisfies a predetermined condition.

第1態様において、前記実行手段は、前記対象物の位置の変化の傾向と一致すると判断された特定の形状を示すテンプレートデータに関連付けられた特定の処理を実行してもよい。この場合、ヘッドマウントディスプレイは、対象物の動きに対応する処理を容易に判断し、処理を実行できる。   In the first aspect, the execution means may execute a specific process associated with template data indicating a specific shape that is determined to coincide with a change tendency of the position of the object. In this case, the head mounted display can easily determine the process corresponding to the movement of the object and execute the process.

本発明の第2態様に係る制御プログラムは、コンテンツ画像を少なくとも表示可能な表示部を備えたヘッドマウントディスプレイのコンピュータを、前記表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域が、撮影部によって撮影された場合に前記撮影部から出力される画像データを取得する取得手段と、前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段として機能させるための制御プログラムであって、前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする。第2態様によれば、第1態様と同様の効果を奏することができる。

A control program according to a second aspect of the present invention provides a head-mounted display computer including a display unit capable of displaying at least a content image in a direction opposite to the first direction in which the display unit can emit image light. An acquisition unit that acquires image data output from the imaging unit when a predetermined region including at least a region in two directions is captured by the imaging unit, and the image data acquired by the acquisition unit, First judgment means for judging whether or not there is a predetermined object in a predetermined area; and the first judgment means determines that the object is in the predetermined area , and the image data is obtained by the acquisition means. If the acquired time difference between the time that the predetermined region is captured by the imaging unit is smaller than a predetermined value, the content image and the target When the first display means for displaying an image on the display unit and the first determination means determine that the object is within the predetermined area, the first display means displays the image within the predetermined area based on the image data. The second determination means for determining whether the change tendency of the position of the object satisfies a predetermined condition and the second determination means, the change tendency of the position of the object satisfies the predetermined condition. A control program for functioning as execution means for executing processing corresponding to the predetermined condition when the object image is determined by the first determination means. It is an image corresponding to the image data determined to be in the area. According to the 2nd aspect, there can exist an effect similar to a 1st aspect.

HMD1の斜視図である。It is a perspective view of HMD1. HMD1の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of HMD1. 光景21(21A〜21E)を示す図である。It is a figure which shows the scene 21 (21A-21E). 第1メイン処理のフローチャートである。It is a flowchart of a 1st main process. 第2メイン処理のフローチャートである。It is a flowchart of the 2nd main process. DB531を示す図である。It is a figure which shows DB531. 指先の位置の変化の傾向の判断方法を説明するための図である。It is a figure for demonstrating the judgment method of the tendency of the change of the position of a fingertip. 指先の位置の変化の傾向の判断方法を説明するための図である。It is a figure for demonstrating the judgment method of the tendency of the change of the position of a fingertip.

以下、本発明を具体化した実施形態について、図面を参照して説明する。図1を参照し、ヘッドマウントディスプレイ(以下、HMDという。)1の概要を説明する。HMD1は、投影装置(以下、ヘッドディスプレイ又はHDという。)10及び制御装置(以下、コントロールボックス又はCBという。)50を備える。以下の説明において、図1の上方、下方、右斜め下方、左斜め上方、右斜め上方及び左斜め下方が夫々、HMD1の上方、下方、前方、後方、右方及び左方である。実施形態において、種々の構成における位置関係及び方向関係の理解を助けるため、関連する図面において、HMD1の上方、下方、前方、後方、右方及び左方は、3次元デカルト座標系の軸を参照して説明される。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Embodiments of the invention will be described below with reference to the drawings. An outline of a head mounted display (hereinafter referred to as HMD) 1 will be described with reference to FIG. The HMD 1 includes a projection device (hereinafter referred to as a head display or HD) 10 and a control device (hereinafter referred to as a control box or CB) 50. In the following description, the upper, lower, right diagonally downward, left diagonally upward, right diagonally upward and left diagonally downward of FIG. 1 are the upper, lower, forward, backward, right and left sides of the HMD 1, respectively. In the embodiment, in order to help understanding the positional relationship and the directional relationship in various configurations, in the related drawings, the upper, lower, front, rear, right, and left sides of the HMD 1 refer to the axes of the three-dimensional Cartesian coordinate system. Explained.

HD10の概要を説明する。HD10は、専用の装着具である眼鏡5に取り付けられる。ユーザは、HD10が取り付けられた眼鏡5をかけることによって、HD10を頭部に装着して使用する。HD10は、画像光を後方に向けて照射できる。画像光は、HD10を装着したユーザの左眼に入射する。HD10は、ハーネス7を介してCB50と着脱可能に接続する。HD10は、筐体2、ハーフミラー3、画像表示部14(図2参照)、接眼光学系(図示略)、カメラ20等を主な構成要素とする。   An outline of the HD 10 will be described. The HD 10 is attached to the spectacles 5 which is a dedicated wearing tool. The user wears the HD 10 on the head by using the glasses 5 to which the HD 10 is attached. The HD 10 can irradiate image light backward. The image light is incident on the left eye of the user wearing the HD 10. The HD 10 is detachably connected to the CB 50 via the harness 7. The HD 10 includes a housing 2, a half mirror 3, an image display unit 14 (see FIG. 2), an eyepiece optical system (not shown), a camera 20, and the like as main components.

筐体2は、眼鏡5の右端部に設けられる。筐体2の左端側に、ハーフミラー3が設けられる。ハーフミラー3は、ユーザがHD10を頭部に装着した状態で、ユーザの左眼の前方に配置される。画像表示部14及び接眼光学系は、筐体2の内部に設けられる。画像表示部14及び接眼光学系の詳細は後述する。カメラ20は、筐体2の前面に設けられる。カメラ20は、HD10の前面方向の外界の風景のうち、所定の大きさの領域(以下、所定領域という。)を撮像可能である。   The housing 2 is provided at the right end of the glasses 5. A half mirror 3 is provided on the left end side of the housing 2. The half mirror 3 is disposed in front of the user's left eye with the user wearing the HD 10 on the head. The image display unit 14 and the eyepiece optical system are provided inside the housing 2. Details of the image display unit 14 and the eyepiece optical system will be described later. The camera 20 is provided on the front surface of the housing 2. The camera 20 can capture an area of a predetermined size (hereinafter referred to as a predetermined area) in an external scene in the front direction of the HD 10.

画像表示部14は、液晶素子及び光源を備える。画像表示部14は、コンテンツ画像を表示することが可能である。コンテンツ画像は、静止画像又は動画像である。又、画像表示部14は、コンテンツ画像に撮影画像を重ねて表示することが可能である。撮影画像は、カメラ20によって撮影された画像である。画像表示部14は、CB50からハーネス7を介して送信される映像信号に基づいて、画像を表示する。接眼光学系は、画像表示部14に表示された画像を示す画像光を集光し、ハーフミラー3に射出する。接眼光学系から射出された画像光は、ハーフミラー3によって反射される。ハーフミラー3によって反射された画像光は、筐体2の後方(カメラ20の撮影方向と反対方向)に射出される。HMD1がユーザに装着されている状態で、画像光は、ユーザの左眼の眼球に入射する。又、ハーフミラー3は、外界の実像からの光を、ユーザの左眼に向けて透過する。HMD1は、ユーザの視野範囲内の実像(例えば、外界の風景等)に、画像表示部14に表示された画像を重ねた状態の光景を、ユーザに視認させることができる。   The image display unit 14 includes a liquid crystal element and a light source. The image display unit 14 can display a content image. The content image is a still image or a moving image. Further, the image display unit 14 can display the captured image superimposed on the content image. The captured image is an image captured by the camera 20. The image display unit 14 displays an image based on the video signal transmitted from the CB 50 via the harness 7. The eyepiece optical system condenses image light indicating the image displayed on the image display unit 14 and emits it to the half mirror 3. The image light emitted from the eyepiece optical system is reflected by the half mirror 3. The image light reflected by the half mirror 3 is emitted to the rear of the housing 2 (the direction opposite to the shooting direction of the camera 20). With the HMD 1 being worn by the user, the image light is incident on the left eyeball of the user. The half mirror 3 transmits light from the real image of the outside world toward the left eye of the user. The HMD 1 can allow a user to visually recognize a scene in which an image displayed on the image display unit 14 is superimposed on a real image (for example, an external scene or the like) within the visual field range of the user.

眼鏡5は、HD10をユーザの頭部に保持する。眼鏡5は、フレーム6及び支持部4を備える。フレーム6の形状は、通常の眼鏡と略同一であるので、詳細な説明は省略する。フレーム6のうち、左眼用レンズを支えるリム部の上面右端に、支持部4が設けられる。支持部4は、HD10の筐体2を保持する。支持部4は、筐体2の保持位置を上下方向及び左右方向に移動できる。ユーザは、筐体2を上下方向及び左右方向に移動させることによって、左眼の眼球の位置とハーフミラー3の位置とが前後方向に並ぶように位置を調整できる。   The glasses 5 hold the HD 10 on the user's head. The glasses 5 include a frame 6 and a support portion 4. Since the shape of the frame 6 is substantially the same as that of normal glasses, detailed description is omitted. A support 4 is provided at the right end of the upper surface of the rim that supports the left-eye lens in the frame 6. The support unit 4 holds the housing 2 of the HD 10. The support part 4 can move the holding position of the housing 2 in the vertical direction and the horizontal direction. The user can adjust the position so that the position of the eyeball of the left eye and the position of the half mirror 3 are aligned in the front-rear direction by moving the housing 2 in the vertical direction and the horizontal direction.

なお、HD10は、ユーザが日常的に使用する眼鏡、ヘルメット、ヘッドホンなど、他の装着具に取り付けられてもよい。画像表示部14は、他の空間変調素子であってもよい。例えば画像表示部14は、画像信号に応じた強度のレーザ光を2次元走査して画像表示を行う網膜走査型表示部、及び有機EL(Organic Electro-luminescence)ディスプレイであってもよい。また、図1では支持部4及びHD10がフレーム6の右側に設けられるが、支持部4及びHD10は、フレーム6の右側に設けられてもよい。この場合、HMD1がユーザに装着されている状態で、画像光は、ユーザの右眼の眼球に入射する。   The HD 10 may be attached to other wearing tools such as glasses, helmets, and headphones that are used on a daily basis by the user. The image display unit 14 may be another spatial modulation element. For example, the image display unit 14 may be a retinal scanning display unit that performs two-dimensional scanning with laser light having an intensity corresponding to an image signal, and an organic EL (Organic Electro-luminescence) display. In FIG. 1, the support portion 4 and the HD 10 are provided on the right side of the frame 6, but the support portion 4 and the HD 10 may be provided on the right side of the frame 6. In this case, the image light is incident on the right eyeball of the user while the HMD 1 is attached to the user.

又、本実施形態において、HD10は、画像表示部14に表示された画像を外界の実像に重ねた状態の光景をユーザに視認させる機能を有する、所謂光学シースルー型のヘッドディスプレイである。しかしながら本発明は、別の機能を有するヘッドディスプレイであってもよい。例えばHD10は、外界の実像からの光をユーザの眼に入射させず、画像表示部14に表示された画像と、カメラによって撮像された外界の画像とをユーザに視認させる機能を有する、所謂ビデオシースルー型のヘッドディスプレイであってもよい。   In the present embodiment, the HD 10 is a so-called optical see-through head display having a function of allowing a user to visually recognize a scene in which an image displayed on the image display unit 14 is superimposed on a real image of the outside world. However, the present invention may be a head display having another function. For example, the HD 10 is a so-called video that has a function of allowing a user to visually recognize an image displayed on the image display unit 14 and an image of the outside world captured by the camera without causing light from the real image of the outside world to enter the user's eyes. A see-through type head display may be used.

又、本実施形態において、カメラ20は筐体2の前面に設けられているが、カメラ20は筐体2から着脱可能であってもよい。例えばカメラ20は、HD10の正面方向を撮影可能な状態で、眼鏡5のフレーム6に直接取り付けられてもよい。   In this embodiment, the camera 20 is provided on the front surface of the housing 2, but the camera 20 may be detachable from the housing 2. For example, the camera 20 may be directly attached to the frame 6 of the glasses 5 in a state where the front direction of the HD 10 can be photographed.

CB50の概要を説明する。CB50は、例えばユーザの腰ベルトや腕等に取り付けられる。CB50はHD10を制御する。CB50は、ハーネス7を介してHD10と着脱可能に接続する。CB50は、筐体60、操作スイッチ61、電源スイッチ62等を主な構成要素とする。筐体60の形状は、縁部の丸い略直方体である。操作スイッチ61は、HD10における各種設定や、使用時における各種操作等を行う為のスイッチである。電源スイッチ62は、HMD1の電源をオン又はオフにする為のスイッチである。電源スイッチ62には、電源ランプ63が内蔵される。   An outline of the CB 50 will be described. CB50 is attached to a user's waist belt, an arm, etc., for example. The CB 50 controls the HD 10. The CB 50 is detachably connected to the HD 10 via the harness 7. The CB 50 includes a casing 60, an operation switch 61, a power switch 62, and the like as main components. The shape of the housing 60 is a substantially rectangular parallelepiped with rounded edges. The operation switch 61 is a switch for performing various settings in the HD 10 and various operations during use. The power switch 62 is a switch for turning on or off the power of the HMD 1. The power switch 62 incorporates a power lamp 63.

図2を参照し、HMD1の電気的構成を説明する。はじめに、HD10の電気的構成を説明する。HD10は、HD10全体の制御を行うCPU11を備える。CPU11は、RAM12、プログラムROM13、画像表示部14、インターフェイス15、及び接続コントローラ19に電気的に接続される。CPU11は、インターフェイス15を介してカメラ20に電気的に接続される。RAM12は、各種データを一時的に記憶する。プログラムROM13は、CPU11が実行するプログラムを記憶する。プログラムROM13はOSを記憶する。プログラムはOS上で実行される。プログラム及びOSは、HMD1の出荷時にプログラムROM13に記憶される。画像表示部14は、コンテンツ画像及び撮影画像の少なくとも一方を表示できる。インターフェイス15はカメラ20に接続し、信号の入出力を制御する。接続コントローラ19は、ハーネス7を介してCB50の接続コントローラ58に接続し、有線通信を行う。   The electrical configuration of the HMD 1 will be described with reference to FIG. First, the electrical configuration of the HD 10 will be described. The HD 10 includes a CPU 11 that controls the entire HD 10. The CPU 11 is electrically connected to the RAM 12, the program ROM 13, the image display unit 14, the interface 15, and the connection controller 19. The CPU 11 is electrically connected to the camera 20 via the interface 15. The RAM 12 temporarily stores various data. The program ROM 13 stores a program executed by the CPU 11. The program ROM 13 stores the OS. The program is executed on the OS. The program and the OS are stored in the program ROM 13 when the HMD 1 is shipped. The image display unit 14 can display at least one of a content image and a captured image. The interface 15 is connected to the camera 20 and controls input / output of signals. The connection controller 19 is connected to the connection controller 58 of the CB 50 via the harness 7 and performs wired communication.

なお、HD10は、フラッシュROMを更に備えてもよい。フラッシュROMには、CPU11が実行するプログラムが記憶されてもよい。CPU11は、フラッシュROMに記憶されたプログラムを実行してもよい。プログラムROM13及びフラッシュROMには、CB50のCPU51が実行するプログラムが記憶されてもよい。CPU11は、CB50のCPU51が実行する処理と同じ処理を、CPU51の代わりに実行してもよい。   The HD 10 may further include a flash ROM. The flash ROM may store a program executed by the CPU 11. The CPU 11 may execute a program stored in the flash ROM. The program executed by the CPU 51 of the CB 50 may be stored in the program ROM 13 and the flash ROM. The CPU 11 may execute the same process as the process executed by the CPU 51 of the CB 50 instead of the CPU 51.

CB50の電気的構成を説明する。CB50は、CB50全体の制御を行うCPU51を備える。CPU51は、RAM52、プログラムROM53、フラッシュROM54、インターフェイス55、ビデオRAM56、画像処理部57、接続コントローラ58、及び無線通信部59に電気的に接続される。RAM52は、各種データを一時的に記憶する。プログラムROM53は、CPU51が実行するプログラムを記憶する。プログラムROM53はOSを記憶する。プログラムはOS上で実行される。プログラムROM53は、データベース(以下、DBという。)531(図6参照、後述)を記憶する。プログラム、OS、及びDB531は、HMD1の出荷時にプログラムROM53に記憶される。   The electrical configuration of the CB 50 will be described. The CB 50 includes a CPU 51 that controls the entire CB 50. The CPU 51 is electrically connected to the RAM 52, program ROM 53, flash ROM 54, interface 55, video RAM 56, image processing unit 57, connection controller 58, and wireless communication unit 59. The RAM 52 temporarily stores various data. The program ROM 53 stores a program executed by the CPU 51. The program ROM 53 stores the OS. The program is executed on the OS. The program ROM 53 stores a database (hereinafter referred to as DB) 531 (see FIG. 6, which will be described later). The program, OS, and DB 531 are stored in the program ROM 53 when the HMD 1 is shipped.

インターフェイス55は、操作スイッチ61及び電源スイッチ62に接続し、信号の入出力を制御する。画像処理部57は、HD10の画像表示部14に表示する画像を形成し、ビデオRAM56に記憶する。ビデオRAM56は、画像処理部57によって形成された画像を一時的に記憶する。接続コントローラ58は、ハーネス7を介してHD10の接続コントローラ19に接続し、有線通信を行う。無線通信部59は、インターネット、LAN等に接続されたアクセスポイント(図示略)を介して、インターネット、LAN等に接続された周辺機器と通信を行う。周辺機器の例として、パーソナルコンピュータ、スマートフォン、タブレット型携帯端末、サーバ等が挙げられる。   The interface 55 is connected to the operation switch 61 and the power switch 62 and controls signal input / output. The image processing unit 57 forms an image to be displayed on the image display unit 14 of the HD 10 and stores it in the video RAM 56. The video RAM 56 temporarily stores the image formed by the image processing unit 57. The connection controller 58 is connected to the connection controller 19 of the HD 10 via the harness 7 and performs wired communication. The wireless communication unit 59 communicates with peripheral devices connected to the Internet, LAN, and the like via an access point (not shown) connected to the Internet, LAN, and the like. Examples of peripheral devices include personal computers, smartphones, tablet portable terminals, servers, and the like.

なお、CB50のフラッシュROM54に、CPU51が実行するプログラムが記憶されてもよい。CPU51は、フラッシュROM54に記憶されたプログラムを実行してもよい。プログラムROM53及びフラッシュROM54には、HD10のCPU11が実行するプログラムが記憶されてもよい。CPU51は、HD10のCPU11が実行する処理と同じ処理を、CPU11の代わりに実行してもよい。   Note that a program executed by the CPU 51 may be stored in the flash ROM 54 of the CB 50. The CPU 51 may execute a program stored in the flash ROM 54. The program executed by the CPU 11 of the HD 10 may be stored in the program ROM 53 and the flash ROM 54. The CPU 51 may execute the same process as the process executed by the CPU 11 of the HD 10 instead of the CPU 11.

なお、HMD1は、プログラム及びOSを、無線通信部59を介してプログラムダウンロード用のサーバからダウンロードし、インストールしてもよい。例えば、プログラム及びOSは、コンピュータで読み取り可能な一時的な記憶媒体(例えば、伝送信号)として、サーバからHMD1に送信されてもよい。プログラムは、HMD1が備えるコンピュータで読み取り可能な記憶装置、例えば、フラッシュROMに保存されてもよい。CPU11は、フラッシュROMに記憶されたプログラムに基づいてプログラムを実行してもよい。CPU51は、フラッシュROM54に記憶されたプログラムに基づいてプログラムを実行してもよい。但し、記憶装置は、例えばROM、フラッシュROM、HDD、RAMなどの、一時的な記憶媒体を除く記憶媒体であってもよい。また、記憶装置は、非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、データを記憶する時間の長さに関わらず、データを留めておくことが可能なものであってもよい。   The HMD 1 may download and install the program and the OS from the program download server via the wireless communication unit 59. For example, the program and the OS may be transmitted from the server to the HMD 1 as a computer-readable temporary storage medium (for example, a transmission signal). The program may be stored in a computer-readable storage device provided in the HMD 1, for example, a flash ROM. The CPU 11 may execute a program based on a program stored in the flash ROM. The CPU 51 may execute a program based on the program stored in the flash ROM 54. However, the storage device may be a storage medium other than a temporary storage medium such as a ROM, a flash ROM, an HDD, or a RAM. Further, the storage device may be a non-temporary storage medium. The non-transitory storage medium may be capable of retaining data regardless of the length of time for storing the data.

HMD1の構成は上記実施形態に限定されず、例えば、HD10とCB50とが一体となった構成であってもよい。HD10のCPU11とCB50のCPU51とは、ハーネス7の代わりに無線によって通信を行ってもよい。   The configuration of the HMD 1 is not limited to the above embodiment, and may be a configuration in which the HD 10 and the CB 50 are integrated, for example. The CPU 11 of the HD 10 and the CPU 51 of the CB 50 may communicate wirelessly instead of the harness 7.

HMD1は、HD10のカメラ20によって撮影される所定領域内でユーザの指先が移動した時の指先の位置の変化の傾向が所定の条件を満たす場合、対応する処理を実行する。対応する処理の一例として、画像表示部14に表示されたコンテンツ画像をスクロールさせる処理が挙げられる。なお、本実施形態では、カメラ20によって撮影される所定領域内でユーザが指先を移動させることによって、右、左、上、及び下の何れかの方向にコンテンツ画像をスクロールさせる処理をHMD1に実行させることが可能であるとする。なお本発明において、指先の移動によってHMD1に実行させることが可能な処理は、上記の処理に限定されない。以下では、はじめに、HD10のCPU11によって実行される処理の概要について、図3を参照して説明する。次に、CB50のCPU51によって実行される処理の概要について、図3を参照して説明する。次に、CPU51の処理の詳細について、図4、図5のフローチャートを参照して説明する。   The HMD 1 executes a corresponding process when the tendency of the change of the fingertip position when the user's fingertip moves within a predetermined area captured by the camera 20 of the HD 10 satisfies a predetermined condition. As an example of the corresponding process, there is a process of scrolling the content image displayed on the image display unit 14. In the present embodiment, the HMD 1 executes a process of scrolling the content image in one of the right, left, up, and down directions by moving the fingertip within a predetermined area captured by the camera 20. It is possible to make it possible. In the present invention, the processing that can be executed by the HMD 1 by moving the fingertip is not limited to the above processing. Below, the outline | summary of the process performed by CPU11 of HD10 is demonstrated with reference to FIG. Next, an outline of processing executed by the CPU 51 of the CB 50 will be described with reference to FIG. Next, details of the processing of the CPU 51 will be described with reference to the flowcharts of FIGS.

HD1のCPU11によって実行される処理の概要について説明する。CB50の電源スイッチ62を介してHMD1の電源をオンする操作がされた場合、CPU11は次の処理を開始する。CPU11は、カメラ20による撮影を開始する。カメラ20は、撮影を開始した場合、所定領域内を撮影しながら画像データを継続的に出力する。以下、カメラ20から出力される画像データを、撮影画像データという。撮影画像データの画像形式は、Motion JPEG形式、Audio Video Interleave形式、QuickTime形式等である。CPU11は、カメラ20から出力される撮影画像データを、インターフェイス15を介して受信する。CPU11は、撮影画像データをCB50に送信する。   An outline of processing executed by the CPU 11 of the HD 1 will be described. When the operation of turning on the power of the HMD 1 is performed via the power switch 62 of the CB 50, the CPU 11 starts the next process. The CPU 11 starts shooting with the camera 20. When shooting starts, the camera 20 continuously outputs image data while shooting in a predetermined area. Hereinafter, the image data output from the camera 20 is referred to as photographed image data. The image format of the captured image data is a Motion JPEG format, an Audio Video Interleave format, a QuickTime format, or the like. The CPU 11 receives captured image data output from the camera 20 via the interface 15. The CPU 11 transmits the captured image data to the CB 50.

CPU11は、カメラ20から撮影画像データを受信した時刻を、OSから取得する。なお、カメラ20は、撮影しながら撮影画像データを出力するので、CPU11がカメラ20から撮影画像データを受信した時刻は、カメラ20が撮影画像データに対応する撮影画像を撮影した時刻と略同一とみなすことができる。CPU11は、取得した時刻を示す時刻情報を、撮影画像データと共にCB50に対して送信する。以下、撮影画像データと共にCBに対して送信される時刻情報によって示される時刻を、撮影時刻という。なお、時刻情報は、撮影画像データのヘッダに含まれてもよい。   The CPU 11 acquires the time when the captured image data is received from the camera 20 from the OS. Since the camera 20 outputs the captured image data while capturing, the time when the CPU 11 receives the captured image data from the camera 20 is substantially the same as the time when the camera 20 captures the captured image corresponding to the captured image data. Can be considered. CPU11 transmits the time information which shows the acquired time with respect to CB50 with picked-up image data. Hereinafter, the time indicated by the time information transmitted to the CB together with the photographic image data is referred to as the photographic time. The time information may be included in the header of the captured image data.

又、CPU11は、CB50から送信される映像信号(後述)を受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14に画像を表示させる。HD1を装着したユーザは、画像表示部14に表示された画像からの光がハーフミラー3を反射して左眼に入射することによって、画像を視認する。なお、HD1を装着したユーザの左眼には、視野範囲内の実像からの光がハーフミラー3を透過して入射するので、ユーザは、画像表示部14に表示された画像が外界の実像に重ねられた光景を視認する。   Further, the CPU 11 receives a video signal (described later) transmitted from the CB 50. The CPU 11 displays the image on the image display unit 14 by controlling the image display unit 14 based on the received video signal. The user wearing the HD1 visually recognizes the image by the light from the image displayed on the image display unit 14 reflecting the half mirror 3 and entering the left eye. Note that since the light from the real image within the field of view enters the left eye of the user wearing the HD1 through the half mirror 3, the user displays the image displayed on the image display unit 14 as a real image in the outside world. See the superimposed scenes.

図3は、HD10を装着したユーザによって視認される光景21(21A〜21E)を示す。光景21には、実像211及び画像212(212A〜212E)が含まれる。実像211は、ユーザの視野範囲内の実像からの光が、ハーフミラー3を透過してユーザの左眼に到達することによって、ユーザが視認する像である。画像212は、HD10の画像表示部14に表示されることによってユーザが視認する像である。画像212は、実像211の領域の右下部分に重ねられる。これによってユーザは、視野範囲内の実像211と画像212との両方を視認できる。   FIG. 3 shows a scene 21 (21A to 21E) visually recognized by a user wearing the HD 10. The scene 21 includes a real image 211 and images 212 (212A to 212E). The real image 211 is an image visually recognized by the user when light from the real image within the visual field range of the user passes through the half mirror 3 and reaches the left eye of the user. The image 212 is an image visually recognized by the user by being displayed on the image display unit 14 of the HD 10. The image 212 is superimposed on the lower right portion of the area of the real image 211. Thus, the user can visually recognize both the real image 211 and the image 212 within the visual field range.

CB50のCPU51によって実行される処理の概要について説明する。CPU51は、無線通信部59を介して、周辺機器からコンテンツ画像データを受信する。コンテンツ画像データは、コンテンツ画像を形成することが可能なデータである。コンテンツ画像データの画像形式は、コンテンツ画像が静止画の場合、BMP形式、GIF形式、JPEG形式等であり、コンテンツ画像が動画の場合、Moving Picture Experts Group形式、Audio Video Interleave形式、QuickTime形式等である。CPU51は、受信したコンテンツ画像データに対応するコンテンツ画像の映像信号を生成する。CPU51は、HD10にコンテンツ画像の映像信号を送信する。これによって、HD10の画像表示部14にコンテンツ画像が表示される。   An outline of processing executed by the CPU 51 of the CB 50 will be described. The CPU 51 receives content image data from the peripheral device via the wireless communication unit 59. The content image data is data that can form a content image. When the content image is a still image, the image format of the content image data is BMP format, GIF format, JPEG format, etc., and when the content image is a movie, it is Moving Picture Experts Group format, Audio Video Interleave format, QuickTime format, etc. is there. The CPU 51 generates a video signal of a content image corresponding to the received content image data. The CPU 51 transmits the video signal of the content image to the HD 10. As a result, the content image is displayed on the image display unit 14 of the HD 10.

図3の光景21Aは、CPU51がHD10にコンテンツ画像の映像信号を送信した場合に、HD10を装着するユーザによって視認される光景を示す。光景21Aでは、コンテンツ画像212Aが実像211に重ねられている。   A scene 21A in FIG. 3 shows a scene visually recognized by a user wearing the HD 10 when the CPU 51 transmits a video signal of a content image to the HD 10. In the scene 21A, the content image 212A is superimposed on the real image 211.

ユーザが、コンテンツ画像212Aを右側にスクロールさせる為に、HD10のカメラ20によって撮影される所定領域内で指先を移動させた場合を例に挙げる。CPU51は、HD1から撮影画像データを受信する。CPU51は、受信した撮影画像データに対応する撮影画像に指先が含まれているか判断する。指先が含まれているかの判断方法の詳細は後述する。CPU51は、撮影画像に指先が含まれていると判断した場合、コンテンツ画像に撮影画像が重ねられた画像の映像信号を生成する。以下、コンテンツ画像に撮影画像が重ねられた画像を、重畳画像という。CPU51は、HD10に重畳画像の映像信号を送信する。これによって、HD10の画像表示部14に重畳画像が表示される。   As an example, the user moves his / her fingertip within a predetermined area photographed by the HD 10 camera 20 in order to scroll the content image 212A to the right. The CPU 51 receives captured image data from the HD 1. The CPU 51 determines whether or not a fingertip is included in the captured image corresponding to the received captured image data. Details of the method for determining whether a fingertip is included will be described later. When the CPU 51 determines that the captured image includes a fingertip, the CPU 51 generates a video signal of an image in which the captured image is superimposed on the content image. Hereinafter, an image in which a captured image is superimposed on a content image is referred to as a superimposed image. The CPU 51 transmits the video signal of the superimposed image to the HD 10. As a result, a superimposed image is displayed on the image display unit 14 of the HD 10.

図3の光景21Bは、CPU51がHD10に重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Bでは、重畳画像212Bが実像211に重ねられている。実像211にユーザの手22が含まれている。重畳画像212Bでは、コンテンツ画像23に撮影画像24が重ねられている。HD1のカメラ20は、ユーザの視野方向の所定領域を撮影するので、撮影画像24は実像211の一部を示す。撮影画像24には、ユーザの手25の指先25Aが含まれている。なお、コンテンツ画像23及び撮影画像24は透明であり、双方は互いに透けて見える。コンテンツ画像23の透過率は、撮影画像24の透過率よりも小さい。このためコンテンツ画像23は、撮影画像24よりも色が濃く鮮明である。   A scene 21B in FIG. 3 shows a scene visually recognized by a user wearing the HD 10 when the CPU 51 transmits a video signal of a superimposed image to the HD 10. In the scene 21B, the superimposed image 212B is superimposed on the real image 211. The real image 211 includes the user's hand 22. In the superimposed image 212B, the captured image 24 is superimposed on the content image 23. Since the HD1 camera 20 captures a predetermined area in the user's visual field direction, the captured image 24 shows a part of the real image 211. The captured image 24 includes a fingertip 25A of the user's hand 25. Note that the content image 23 and the captured image 24 are transparent, and both are seen through each other. The transmittance of the content image 23 is smaller than the transmittance of the captured image 24. Therefore, the content image 23 is darker and clearer than the captured image 24.

CPU51は、撮影画像に含まれている指先の位置を特定する。CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすか判断する。複数の所定の条件の夫々は、画像表示部14に表示させたコンテンツ画像を、右、左、上、及び下の何れかの方向にスクロールさせる処理の夫々に対応する。判断方法の詳細は後述する。   The CPU 51 specifies the position of the fingertip included in the captured image. The CPU 51 determines whether the tendency of the fingertip position over time satisfies any of a plurality of predetermined conditions. Each of the plurality of predetermined conditions corresponds to each of the processes for scrolling the content image displayed on the image display unit 14 in any of the right, left, upper, and lower directions. Details of the determination method will be described later.

CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすと判断した場合、撮影画像24の透過率をより小さくした重畳画像の映像信号を生成する。CPU51は、HD10に重畳画像の映像信号を送信する。HD10の画像表示部14に表示された重畳画像に含まれる撮影画像24の透過率は小さくなる。このため、撮影画像24は色が濃くなり鮮明になる。   If the CPU 51 determines that the tendency of the fingertip position over time to satisfy any one of a plurality of predetermined conditions, the CPU 51 generates a video signal of a superimposed image in which the transmittance of the captured image 24 is further reduced. To do. The CPU 51 transmits the video signal of the superimposed image to the HD 10. The transmittance of the captured image 24 included in the superimposed image displayed on the image display unit 14 of the HD 10 is reduced. For this reason, the photographed image 24 becomes darker and clearer.

次にCPU51は、撮影画像に含まれている指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすか判断する。判断方法の詳細は後述する。CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすと判断した場合、指先の位置を示す軌跡画像を含む重畳画像の映像信号を生成する。軌跡画像は、異なるタイミングでの指先の位置の夫々の間を結ぶ線分と、移動の方向を示すアローヘッドとを有する。CPU51は、HD10に映像信号を送信する。これによって、軌跡画像を含む重畳画像がHD10の画像表示部14に表示される。   Next, the CPU 51 determines whether the tendency of the fingertip position included in the captured image to change with time satisfies any of a plurality of predetermined conditions. Details of the determination method will be described later. When the CPU 51 determines that the change tendency of the fingertip position with time satisfies any of a plurality of predetermined conditions, the CPU 51 generates a video signal of a superimposed image including a trajectory image indicating the fingertip position. The trajectory image has a line segment that connects each of the fingertip positions at different timings, and an arrow head that indicates the direction of movement. The CPU 51 transmits a video signal to the HD 10. As a result, the superimposed image including the trajectory image is displayed on the image display unit 14 of the HD 10.

図3の光景21Cは、CPU51がHD10に軌跡画像を含む重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Cでは、重畳画像212Cが実像211に重ねられている。重畳画像212Cでは、コンテンツ画像23に撮影画像24が重ねられている。光景21Bの場合と比べて撮影画像24の透過率が小さくなっているので、撮影画像24は光景21Bの場合よりも色が濃くなり鮮明になっている。又、重畳画像212Cには、指先25Aの位置の変化の傾向を示す軌跡画像26が含まれている。   A scene 21C in FIG. 3 shows a scene visually recognized by the user wearing the HD 10 when the CPU 51 transmits a video signal of a superimposed image including a trajectory image to the HD 10. In the scene 21C, the superimposed image 212C is superimposed on the real image 211. In the superimposed image 212C, the captured image 24 is superimposed on the content image 23. Since the transmittance of the captured image 24 is smaller than that of the scene 21B, the captured image 24 is darker and clearer than the scene 21B. In addition, the superimposed image 212C includes a trajectory image 26 that indicates the tendency of the position of the fingertip 25A to change.

CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすと判断した場合、該当する所定の条件の何れかに対応する処理を特定する。図3の光景21Cの軌跡画像26で示される指先の位置の経時的な変化の傾向に対応する処理が、コンテンツ画像を右方向にスクロールさせる処理である場合を例に挙げる。この場合、CPU51は、右方向にスクロールされたコンテンツ画像に撮影画像が重ねられ且つ軌跡画像26を含む重畳画像の映像信号を生成する。CPU51は、HD10に映像信号を送信する。   When the CPU 51 determines that the tendency of the fingertip position to change with time satisfies any of a plurality of predetermined conditions, the CPU 51 specifies a process corresponding to any of the predetermined conditions. An example is given in which the processing corresponding to the tendency of the fingertip position over time indicated by the trajectory image 26 of the scene 21C in FIG. 3 is processing to scroll the content image in the right direction. In this case, the CPU 51 generates a video signal of a superimposed image in which the captured image is superimposed on the content image scrolled in the right direction and the locus image 26 is included. The CPU 51 transmits a video signal to the HD 10.

図3の光景21Dは、CPU51がHD10に軌跡画像を含む重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Dでは、重畳画像212Dが実像211に重ねられている。重畳画像212Dでは、右方向にスクロールされたコンテンツ画像23に撮影画像24が重ねられている。又、重畳画像212Dには、指先25Aの位置の経時的な変化の傾向を示す軌跡画像26が含まれている。   A sight 21D in FIG. 3 shows a sight visually recognized by a user wearing the HD 10 when the CPU 51 transmits a video signal of a superimposed image including a trajectory image to the HD 10. In the scene 21D, the superimposed image 212D is superimposed on the real image 211. In the superimposed image 212D, the captured image 24 is superimposed on the content image 23 scrolled in the right direction. Further, the superimposed image 212D includes a trajectory image 26 that shows a tendency of the position of the fingertip 25A to change over time.

CPU51は、コンテンツ画像を右方向へ所定量スクロールさせた後、撮影画像24及び軌跡画像26を消去する為に、スクロール後のコンテンツ画像のみの映像信号を生成する。CPU51は、HD10に映像信号を送信する。図3の光景21Eは、CPU51がスクロール後のコンテンツ画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Eでは、コンテンツ画像212Eが実像211に重ねられており、撮影画像24及び軌跡画像26は消去されている。これによってユーザは、右方向へスクロールされたコンテンツ画像212Eを良好に視認できる。   After scrolling the content image to the right by a predetermined amount, the CPU 51 generates a video signal of only the content image after scrolling in order to delete the captured image 24 and the trajectory image 26. The CPU 51 transmits a video signal to the HD 10. A scene 21E in FIG. 3 shows a scene visually recognized by the user wearing the HD 10 when the CPU 51 transmits the video signal of the content image after scrolling. In the scene 21E, the content image 212E is superimposed on the real image 211, and the captured image 24 and the locus image 26 are deleted. As a result, the user can visually recognize the content image 212E scrolled rightward.

図4、図5を参照し、CB50のCPU51によって実行される処理の詳細について説明する。第1メイン処理(図4参照)及び第2メイン処理(図5参照)は、電源スイッチ62を介してHMD1の電源をオンする操作がされた場合に、プログラムROM53に記憶されたプログラムをCPU51が実行することによって開始される。第1メイン処理と第2メイン処理とは並列して実行される。   Details of processing executed by the CPU 51 of the CB 50 will be described with reference to FIGS. 4 and 5. In the first main process (see FIG. 4) and the second main process (see FIG. 5), the CPU 51 stores the program stored in the program ROM 53 when an operation of turning on the power of the HMD 1 is performed via the power switch 62. Started by executing. The first main process and the second main process are executed in parallel.

図4を参照し、第1メイン処理を説明する。CPU51は、無線通信部59を介して周辺機器からコンテンツ画像データを受信したか判断する(S1)。CPU51は、コンテンツ画像データを受信したと判断した場合(S1:YES)、受信したコンテンツ画像データをフラッシュROM54に記憶する(S3)。CPU51は処理をS1に戻す。CPU51は、コンテンツ画像データを受信していないと判断した場合(S1:NO)、コンテンツ画像を表示させる為の操作を、操作スイッチ61を介して検出したか判断する(S5)。CPU51は、コンテンツ画像を表示させる為の操作を検出したと判断した場合(S5:YES)、画像処理部57を駆動し、フラッシュROM54に記憶されたコンテンツ画像データに基づいてコンテンツ画像を形成させ、ビデオRAM56に記憶させる。CPU51は、ビデオRAM56に記憶されたコンテンツ画像に基づいて映像信号を生成する。映像信号の形式は、Transition Minimized Differential Signaling(TMDS)、Low voltage differential signaling(LVDS)等である。CPU51は、接続コントローラ58を介してHD10に映像信号を送信する(S7)。CPU51は処理をS1に戻す。CPU51は、コンテンツ画像を表示させる為の操作を検出していないと判断した場合(S5:NO)、処理をS1に戻す。なお、映像信号は、CPU51によって生成される場合に限らない。例えば映像信号は、ビデオRAM56に記憶されたコンテンツ画像に基づいて接続コントローラ19が生成してもよい。   The first main process will be described with reference to FIG. The CPU 51 determines whether content image data has been received from the peripheral device via the wireless communication unit 59 (S1). When the CPU 51 determines that the content image data has been received (S1: YES), the CPU 51 stores the received content image data in the flash ROM 54 (S3). The CPU 51 returns the process to S1. When determining that the content image data has not been received (S1: NO), the CPU 51 determines whether an operation for displaying the content image has been detected via the operation switch 61 (S5). When the CPU 51 determines that an operation for displaying a content image has been detected (S5: YES), the CPU 51 drives the image processing unit 57 to form a content image based on the content image data stored in the flash ROM 54, It is stored in the video RAM 56. The CPU 51 generates a video signal based on the content image stored in the video RAM 56. The format of the video signal is Transition Minimized Differential Signaling (TMDS), Low voltage differential signaling (LVDS), or the like. The CPU 51 transmits a video signal to the HD 10 via the connection controller 58 (S7). The CPU 51 returns the process to S1. If the CPU 51 determines that an operation for displaying a content image has not been detected (S5: NO), the process returns to S1. Note that the video signal is not limited to being generated by the CPU 51. For example, the connection controller 19 may generate the video signal based on the content image stored in the video RAM 56.

なお上記のように、HD10のCPU11は、CB50から送信されたコンテンツ画像の映像信号を、接続コントローラ19を介して受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14にコンテンツ画像を表示させる。従って、CPU51は、S7でHD10に対して映像信号を送信することによって、画像表示部14に画像を表示させていることになる。以下では、CPU51が画像処理部57を駆動して画像データ(コンテンツ画像データ又は撮影画像データ)から画像(コンテンツ画像又は撮影画像)を形成させ、形成された画像をビデオRAM56に記憶させ、ビデオRAM56に記憶された画像に基づいて映像信号を生成することを、単に、CPU51が画像データに基づいて映像信号を生成するという。又、CPU51がHD10に対して映像信号を送信することによって、HD10のCPU11が画像表示部14を制御し、映像信号に対する画像を表示させることを、CPU51が画像表示部14に画像を表示させるという。   As described above, the CPU 11 of the HD 10 receives the video signal of the content image transmitted from the CB 50 via the connection controller 19. The CPU 11 displays the content image on the image display unit 14 by controlling the image display unit 14 based on the received video signal. Therefore, the CPU 51 displays an image on the image display unit 14 by transmitting a video signal to the HD 10 in S7. In the following, the CPU 51 drives the image processing unit 57 to form an image (content image or photographed image) from image data (content image data or photographed image data), and the formed image is stored in the video RAM 56. The generation of the video signal based on the image stored in the CPU is simply referred to as the CPU 51 generating the video signal based on the image data. The CPU 51 transmits a video signal to the HD 10 so that the CPU 11 of the HD 10 controls the image display unit 14 to display an image corresponding to the video signal. The CPU 51 causes the image display unit 14 to display an image. .

S7の処理が実行された結果、HD1を装着したユーザは、例えば図3の光景21Aで示されるように、実像211に重畳されたコンテンツ画像212Aを視認する。   As a result of the processing of S7, the user wearing the HD1 visually recognizes the content image 212A superimposed on the real image 211 as shown in the sight 21A of FIG.

図5を参照し、第2メイン処理を説明する。CPU51は、HD10から送信された撮影画像データ及び時刻情報を、接続コントローラ58を介して受信する(S11)。CPU51は、受信した撮影画像データ及び時刻情報を互いに関連付けてRAM52に記憶する。CPU51は、撮影画像データ及び時刻情報を受信した時刻(以下、受信時刻という。)を示す時刻情報を、OSから取得し、RAM52に記憶する。   The second main process will be described with reference to FIG. The CPU 51 receives the captured image data and time information transmitted from the HD 10 via the connection controller 58 (S11). The CPU 51 stores the received captured image data and time information in the RAM 52 in association with each other. The CPU 51 acquires time information indicating the time when the captured image data and the time information are received (hereinafter referred to as reception time) from the OS and stores the time information in the RAM 52.

CPU51は、RAM52に記憶した撮影画像データに基づき、撮像画像に指先が含まれるかを判断する(S13)。先ず、CPU51は、次のようにして、撮影画像から指先を特定する。CPU51は、撮影画像データに対応する撮影画像から、肌色の領域を検出する。肌色領域の検出は、例えば、肌色に対応する所定の画素値(例えば、R=241,G=187,B=147)を有する画素が連続している領域と検出することで可能である。なお、所定の画素値は他の値であってもよく、所定の幅を有してもよい。CPU51は、検出した肌色の領域全体を囲う多角形を特定する。CPU51は、特定した多角形の形状と、プログラムROM53に予め記憶された指先特定用の画像テンプレートとに基づいて、周知のパターンマッチング処理を行う。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の形状の頂点を指先と特定する。なお、撮影画像に指先が含まれているかの判断方法は、上記方法に限定されない。   The CPU 51 determines whether the fingertip is included in the captured image based on the captured image data stored in the RAM 52 (S13). First, the CPU 51 specifies the fingertip from the captured image as follows. The CPU 51 detects a skin color region from the captured image corresponding to the captured image data. The skin color area can be detected by, for example, detecting an area where pixels having predetermined pixel values (for example, R = 241, G = 187, B = 147) corresponding to the skin color are continuous. Note that the predetermined pixel value may be another value or may have a predetermined width. The CPU 51 identifies a polygon that surrounds the entire detected skin color area. The CPU 51 performs a well-known pattern matching process based on the specified polygonal shape and the fingertip specifying image template stored in advance in the program ROM 53. When the cross-correlation coefficient calculated by the pattern matching process is a value within a predetermined range, the CPU 51 determines that the pattern matching between the specified polygonal shape and the image template is successful. In this case, the CPU 51 specifies the vertex of the polygonal shape as the fingertip. Note that the method for determining whether the captured image includes the fingertip is not limited to the above method.

CPU51は、上記の方法で指先を特定できたか判断する。CPU51は、指先を特定できないと判断した場合、撮影画像に指先が含まれていないと判断する(S13:NO)。CPU51は処理をS11に戻す。CPU51は、指先を特定できたと判断した場合、撮影画像に指先が含まれていると判断する(S13:YES)。   The CPU 51 determines whether the fingertip can be specified by the above method. When it is determined that the fingertip cannot be specified, the CPU 51 determines that the fingertip is not included in the photographed image (S13: NO). The CPU 51 returns the process to S11. When it is determined that the fingertip has been specified, the CPU 51 determines that the fingertip is included in the captured image (S13: YES).

CPU51は、撮影画像データ及び時刻情報を受信した受信時刻を、RAM52に記憶された時刻情報に基づいて特定する。CPU51は、HD10から受信した時刻情報によって示される撮影時刻を特定する。CPU51は、撮影時刻と受信時刻とに基づいて、カメラ20が撮影画像を撮影してから、CPU51が撮影画像データを受信するまでに要した遅延時間を算出する。なお、CPU11、51間では、OSどうしの時刻の同期をとる為の通信が一定周期で実行されている。このためCPU51は、撮影時刻から受信時刻までの時間を遅延時間として算出できる。CPU51は、算出された遅延時間が所定値(例えば1秒)よりも小さいか判断する(S15)。CPU51は、算出された遅延時間が所定値よりも小さくないと判断された場合(S15:NO)、処理をS11に戻す。CPU51は、算出された遅延時間が所定の値よりも小さいと判断した場合(S15:YES)、処理をS17に進める。   The CPU 51 specifies the reception time when the captured image data and the time information are received based on the time information stored in the RAM 52. The CPU 51 specifies the shooting time indicated by the time information received from the HD 10. The CPU 51 calculates a delay time required from when the camera 20 captures a captured image until the CPU 51 receives captured image data based on the capture time and the reception time. Note that communication for synchronizing the times of the OSs is executed between the CPUs 11 and 51 at a constant cycle. Therefore, the CPU 51 can calculate the time from the shooting time to the reception time as the delay time. The CPU 51 determines whether the calculated delay time is smaller than a predetermined value (for example, 1 second) (S15). When it is determined that the calculated delay time is not smaller than the predetermined value (S15: NO), the CPU 51 returns the process to S11. If the CPU 51 determines that the calculated delay time is smaller than the predetermined value (S15: YES), the process proceeds to S17.

このようにCPU51は、遅延時間が所定値よりも小さくない場合、処理をS17に進めないことによって、映像信号をHD10に送信せず、撮影画像を画像表示部14に表示させない。その理由は、遅延時間が大きい場合、撮影画像データに対応する撮影画像に指先が含まれていた場合の指先の動きと、実像に指先が含まれていた場合の指先の動きとの間に時間差が発生する為である。これによってCPU51は、画像表示部14に表示された撮影画像に含まれる指先の動きが、実像に含まれる指先の動きに対して遅延することによって、ユーザに違和感を与えることを防止できる   As described above, when the delay time is not smaller than the predetermined value, the CPU 51 does not advance the process to S <b> 17 so that the video signal is not transmitted to the HD 10 and the captured image is not displayed on the image display unit 14. The reason is that when the delay time is large, there is a time difference between the fingertip movement when the captured image corresponding to the captured image data includes the fingertip and the fingertip movement when the real image includes the fingertip. This is because of this. As a result, the CPU 51 can prevent the user from feeling uncomfortable by delaying the movement of the fingertip included in the captured image displayed on the image display unit 14 with respect to the movement of the fingertip included in the real image.

CPU51は、S7(図4参照)で画像表示部14に表示させたコンテンツ画像に、S11で受信された撮影画像データに対応する撮影画像を重ねる為に、次の処理を行う。CPU51は、S7で画像表示部14に表示された状態のコンテンツ画像のコンテンツ画像データと、S11で受信された撮影画像データとに基づいて、コンテンツ画像に撮影画像が重ねられた重畳画像の映像信号を生成する(S16)。ここでCPU51は、重畳画像に含めるコンテンツ画像及び撮影画像を、透明の状態で重ね合わせる。一例としては次の通りである。CPU51は、コンテンツ画像と撮影画像とを重ね合わせる為に、コンテンツ画像と撮影画像とのαブレンドを行う。CPU51は、αブレンドを行う場合における撮影画像の各画素のα値を、コンテンツ画像の各画素のα値よりも小さい値とする。以下、コンテンツ画像の各画素のα値を第1α値といい、撮影画像の各画素のα値を第2α値という。第2α値は、第1α値よりも小さくなる。この場合、撮影画像の透過率は、コンテンツ画像の透過率よりも大きくなり、コンテンツ画像よりも色が薄く不鮮明になる。   The CPU 51 performs the following process to superimpose the captured image corresponding to the captured image data received in S11 on the content image displayed on the image display unit 14 in S7 (see FIG. 4). The CPU 51, based on the content image data of the content image displayed on the image display unit 14 in S7 and the captured image data received in S11, the video signal of the superimposed image in which the captured image is superimposed on the content image. Is generated (S16). Here, the CPU 51 superimposes the content image and the captured image included in the superimposed image in a transparent state. An example is as follows. The CPU 51 performs α blending of the content image and the captured image in order to superimpose the content image and the captured image. The CPU 51 sets the α value of each pixel of the captured image when α blending is performed to a value smaller than the α value of each pixel of the content image. Hereinafter, the α value of each pixel of the content image is referred to as a first α value, and the α value of each pixel of the captured image is referred to as a second α value. The second α value is smaller than the first α value. In this case, the transmittance of the photographed image is larger than the transmittance of the content image, and the color is lighter and blurred than the content image.

CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる(S17)。HD1を装着したユーザは、例えば図3の光景21Bで示されるように、実像211に重ねられた重畳画像212Bを視認する。重畳画像212Bは、コンテンツ画像23と撮影画像24とを含む。CPU51は、ユーザに対してコンテンツ画像23と撮影画像24との両方を視認させることができる。   The CPU 51 transmits the generated video signal to the HD 10 and causes the image display unit 14 to display a superimposed image (S17). The user wearing the HD1 visually recognizes the superimposed image 212B superimposed on the real image 211, for example, as shown by the scene 21B in FIG. The superimposed image 212B includes a content image 23 and a captured image 24. The CPU 51 can make the user visually recognize both the content image 23 and the captured image 24.

又、光景21Bでは、重畳画像212Bにユーザの手25及び指先25Aが含まれている。光景21Bを視認するユーザは、自身の指先の位置を確認しながら手を移動させることができるので、所定の条件を満たすように指先を移動させ易くなる。特に、実像211に重ねられた重畳画像212Bに手22が隠れてしまい、ユーザが実像211に基づいて手を視認できない場合でも、重畳画像212Bに含まれる手25を視認できる。従ってユーザは、実像211内の手の位置に依らず、常に、所定の条件を満たすように指先を移動させることができる。なお、CPU51は、コンテンツ画像23に撮影画像24を重ねることによって、重畳画像212Bを形成させる。このためCPU51は、重畳画像212Bによって隠れてしまう実像211の領域の大きさを小さくすることができるので、ユーザによる実像211の視認性を良好に維持できる。   In the scene 21B, the superimposed image 212B includes the user's hand 25 and fingertip 25A. Since the user who visually recognizes the scene 21B can move his / her hand while confirming the position of his / her fingertip, the fingertip can be easily moved to satisfy a predetermined condition. In particular, even when the hand 22 is hidden in the superimposed image 212B superimposed on the real image 211 and the user cannot visually recognize the hand based on the real image 211, the hand 25 included in the superimposed image 212B can be visually recognized. Therefore, the user can always move the fingertip so as to satisfy a predetermined condition regardless of the position of the hand in the real image 211. The CPU 51 causes the superimposed image 212B to be formed by superimposing the captured image 24 on the content image 23. For this reason, since the CPU 51 can reduce the size of the area of the real image 211 that is hidden by the superimposed image 212B, the visibility of the real image 211 by the user can be maintained well.

又、光景21Bでは、重畳画像212Bに含まれる撮影画像24の透過率は、コンテンツ画像23の透過率よりも大きくなり、コンテンツ画像23よりも色が薄く不鮮明となる。従ってユーザは、撮影画像24よりもコンテンツ画像23を鮮明に認識できる。このように、CPU51は、コンテンツ画像23に撮影画像24が重ねられた場合に、コンテンツ画像23の視認性が妨げられることを防止できる。従ってCPU51は、コンテンツ画像23に撮影画像24が重ねられた場合でも、ユーザにコンテンツ画像23を継続して良好に視認させることができる。   In the scene 21B, the transmittance of the captured image 24 included in the superimposed image 212B is larger than the transmittance of the content image 23, and the color is lighter and blurred than the content image 23. Therefore, the user can recognize the content image 23 more clearly than the captured image 24. Thus, the CPU 51 can prevent the visibility of the content image 23 from being hindered when the captured image 24 is superimposed on the content image 23. Therefore, even when the captured image 24 is superimposed on the content image 23, the CPU 51 can allow the user to continue to view the content image 23 satisfactorily.

CPU51は、S13で特定した指先の位置を示す座標情報を特定し、RAM52に記憶する。S11、S13、S15の処理が繰り返されることによって、RAM52に複数の座標情報が記憶される。CPU51は、RAM52に記憶された複数の座標情報に基づき、図6のDB531を参照することによって、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすか判断する(S19)。   The CPU 51 specifies coordinate information indicating the position of the fingertip specified in S <b> 13 and stores it in the RAM 52. By repeating the processes of S11, S13, and S15, a plurality of coordinate information is stored in the RAM 52. The CPU 51 refers to the DB 531 in FIG. 6 based on the plurality of coordinate information stored in the RAM 52, so that the tendency of the fingertip position to change with time satisfies any one of a plurality of predetermined conditions. (S19).

図6を参照し、DB531を説明する。DB531には、判定データ及び処理内容データが関連付けて複数記憶される。判定データは、指先の位置の変化の傾向を特定可能な所定の条件を示すデータである。判定データの詳細は後述する。処理内容データは、HMD1の具体的な処理の内容を示す。DB531では、右、左、上、及び下の夫々の方向にコンテンツ画像をスクロールさせる処理を示す処理内容データが記憶されている。   The DB 531 will be described with reference to FIG. A plurality of determination data and processing content data are stored in the DB 531 in association with each other. The determination data is data indicating a predetermined condition that can identify the tendency of the change of the fingertip position. Details of the determination data will be described later. The processing content data indicates the specific processing content of the HMD 1. The DB 531 stores processing content data indicating processing for scrolling the content image in the right, left, upper, and lower directions.

図7を参照し、判断方法の詳細について具体的を挙げて説明する。S11、S13、S15(図5参照)の処理が繰り返されることによって、RAM52に、複数の位置P1、P2、P3、P4、P5の夫々を示す座標情報(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)(X5,Y5)が順番に記憶されたとする。なお、撮影画像の横方向がX軸方向に対応し、縦方向がY軸方向に対応する。また、右方向及び上方向が正方向であり、左方向及び下方向が負方向である。図7は、右、及び左の夫々の方向にコンテンツ画像をスクロールさせる処理に対応する指先の移動経路と、複数の座標情報31、32とを示している。   With reference to FIG. 7, the details of the determination method will be specifically described. By repeating the processes of S11, S13, and S15 (see FIG. 5), coordinate information (X1, Y1) (X2, Y2) (X2) indicating each of the plurality of positions P1, P2, P3, P4, and P5 is stored in the RAM 52. Assume that X3, Y3) (X4, Y4) (X5, Y5) are stored in order. Note that the horizontal direction of the captured image corresponds to the X-axis direction, and the vertical direction corresponds to the Y-axis direction. Further, the right direction and the upward direction are positive directions, and the left direction and the downward direction are negative directions. FIG. 7 shows a moving path of the fingertip corresponding to the process of scrolling the content image in the right and left directions, and a plurality of coordinate information 31 and 32.

複数の座標情報31に基づいて判断される場合について説明する。指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、位置P1〜P4の座標情報のX成分及びY成分の夫々が、次の式(1)の条件を満たすと判断する。
X1≒X2≒X3≒X4,Y1>Y2>Y3>Y4・・・(1)
この場合、CPU51は、指先の位置が上から下に向けて略垂直に移動していると判断する。
A case where determination is made based on a plurality of coordinate information 31 will be described. When the fingertip moves from the position P1 to the position P4 and the coordinate information of the positions P1 to P4 is stored in the RAM 52, the CPU 51 determines that each of the X component and the Y component of the coordinate information of the positions P1 to P4 is expressed by the following formula ( It is determined that the condition of 1) is satisfied.
X1≈X2≈X3≈X4, Y1>Y2>Y3> Y4 (1)
In this case, the CPU 51 determines that the position of the fingertip is moving substantially vertically from top to bottom.

次に、指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の座標情報のX成分及びY成分の夫々が、次の式(2)の条件を満たすと判断する。
X4<X5,Y4<Y5・・・(2)
この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、左下から右上に向かう移動に変化したと判断する。CPU51は、上記の式(1)(2)の条件を満たす場合、指先の位置の経時的な変化の傾向が、右スクロールの処理内容に対応する所定の条件の一部を満たすと判断する。
Next, when the fingertip moves to the position P5 and the coordinate information of the position P5 is stored in the RAM 52, the CPU 51 determines that each of the X component and the Y component of the coordinate information of the positions P4 and P5 is expressed by the following equation (2). It is determined that the condition of
X4 <X5, Y4 <Y5 (2)
In this case, the CPU 51 determines that the moving direction of the fingertip position has changed from a movement from the top to the bottom to a movement from the bottom left to the top right. When the conditions of the above formulas (1) and (2) are satisfied, the CPU 51 determines that the tendency of the fingertip position to change with time satisfies a part of the predetermined condition corresponding to the processing content of the right scroll.

次に、複数の座標情報32に基づいて判断される場合について説明する。指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、上記と同様、式(1)の条件を満たすと判断する。指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の座標情報のX成分及びY成分の夫々が、次の式(3)の条件を満たすと判断する。
X4>X5,Y4<Y5・・・(3)
この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、右下から左上に向かう移動に変化したと判断する。CPU51は、上記の式(1)(3)の条件を満たす場合、指先の位置の経時的な変化の傾向が、左スクロールの処理内容に対応する所定の条件の一部を満たすと判断する。
Next, a case where determination is made based on a plurality of coordinate information 32 will be described. When the fingertip moves from the position P1 to the position P4 and the coordinate information of the positions P1 to P4 is stored in the RAM 52, the CPU 51 determines that the condition of the expression (1) is satisfied as described above. When the fingertip moves to the position P5 and the coordinate information of the position P5 is stored in the RAM 52, the CPU 51 determines that each of the X component and the Y component of the coordinate information of the positions P4 and P5 satisfies the condition of the following expression (3). Judging to meet.
X4> X5, Y4 <Y5 (3)
In this case, the CPU 51 determines that the moving direction of the fingertip position has changed from a movement from top to bottom to a movement from bottom right to top left. When the conditions of the above formulas (1) and (3) are satisfied, the CPU 51 determines that the tendency of the fingertip position to change with time satisfies a part of the predetermined condition corresponding to the processing content of the left scroll.

なお、詳細は省略するが、指先の位置の経時的な変化の傾向が、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の一部を満たすかの判断も、上記と同様の方法で行われる。又、上記の具体例では、最初にRAM52に記憶された座標情報を、特定の位置P1(座標情報(X1,Y1))とし、位置P2,P3・・・の夫々の座標情報に基づいて判断される場合を例に挙げて説明した。しかしながら、判断方法は上記具体例に限定されない。例えばCPU51は、位置P2〜P9(図8参照)の何れかから開始される指先の複数の位置を示す座標情報に基づいて、指先の位置の経時的な変化の傾向が、右、左、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の一部を満たすかを判断してもよい。   Although details are omitted, it is determined whether the tendency of the fingertip position to change over time satisfies a part of a predetermined condition corresponding to the processing content for scrolling the content image in the upward or downward direction. Is also performed in the same manner as described above. In the above specific example, the coordinate information initially stored in the RAM 52 is the specific position P1 (coordinate information (X1, Y1)), and the determination is made based on the respective coordinate information of the positions P2, P3. The case where this is done has been described as an example. However, the determination method is not limited to the above specific example. For example, the CPU 51 determines that the tendency of the fingertip position over time is based on coordinate information indicating a plurality of fingertip positions starting from any of the positions P2 to P9 (see FIG. 8). Alternatively, it may be determined whether a part of a predetermined condition corresponding to the processing content for scrolling the content image in each of the lower directions is satisfied.

図5に示すように、CPU51は、DB531に記憶された複数の判定データを参照し、上記の方法によって、指先の位置の経時的な変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する複数の所定の条件一部の何れかを満たすか判断する(S19)。CPU51は、複数の所定の条件の一部の何れも満たさないと判断した場合(S19:NO)、処理をS31に進める。   As shown in FIG. 5, the CPU 51 refers to the plurality of determination data stored in the DB 531, and the tendency of the change of the fingertip position with time is changed to the right, left, upper, and lower, respectively, by the above method. It is determined whether any one of a plurality of predetermined conditions corresponding to scrolling in the direction is satisfied (S19). If the CPU 51 determines that none of some of the plurality of predetermined conditions is satisfied (S19: NO), the process proceeds to S31.

CPU51は、複数の所定の条件の一部の何れかを満たすと判断した場合(S19:YES)、S17で画像表示部14に表示させた重畳画像のうち、撮影画像の透過率を小さくする為に、次の処理を行う。CPU51は、S7(図4参照)で画像表示部14に表示された状態のコンテンツ画像のコンテンツ画像データと、S11で受信された撮影画像データとに基づいて、コンテンツ画像に撮影画像が重ねられた重畳画像の映像信号を生成する(S20)。ここでCPU51は、重畳画像に含めるコンテンツ画像及び撮影画像を、透明の状態で重ね合わせる。より具体的には次の通りである。CPU51は、コンテンツ画像と撮影画像とのαブレンドを行う場合における撮影画像の各画素のα値を、S17で画像表示部14に表示された重畳画像に含まれる撮影画像のα値である第2α値よりも大きく、且つ、コンテンツ画像のα値である第1α値よりも小さい第3α値とする。この場合、撮影画像の透過率は、S17で画像表示部14に表示された重畳画像に含まれる撮影画像の透過率よりも小さくなり、撮影画像は色が濃くなり鮮明になる。   When the CPU 51 determines that any one of a plurality of predetermined conditions is satisfied (S19: YES), the CPU 51 reduces the transmittance of the captured image among the superimposed images displayed on the image display unit 14 in S17. Next, the following processing is performed. The CPU 51 superimposes the captured image on the content image based on the content image data of the content image displayed on the image display unit 14 in S7 (see FIG. 4) and the captured image data received in S11. A video signal of the superimposed image is generated (S20). Here, the CPU 51 superimposes the content image and the captured image included in the superimposed image in a transparent state. More specifically, it is as follows. The CPU 51 sets the α value of each pixel of the captured image when performing α blending of the content image and the captured image as the α value of the captured image included in the superimposed image displayed on the image display unit 14 in S17. The third α value is larger than the value and smaller than the first α value that is the α value of the content image. In this case, the transmittance of the captured image is smaller than the transmittance of the captured image included in the superimposed image displayed on the image display unit 14 in S17, and the captured image becomes darker and clearer.

CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる(S21)。これによって、画像表示部14に表示された重畳画像のうち撮影画像の透過率は小さくなり、透過率の変化前と比較して色が濃くなり鮮明となるので、ユーザは、透過率の変化前と比較して、撮影画像24を良好に視認できるようになる。このように、CPU51は、撮影画像の透過率を変化させることによって、指先の位置の変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する所定の条件の一部の何れかを満たすと判断したことを、ユーザに通知できる。又、撮影画像24の色が濃くなり鮮明となるので、ユーザは、指先を継続して移動させる場合の移動方法を把握し易くなる。   CPU51 transmits the produced | generated video signal to HD10, and displays a superimposed image on the image display part 14 (S21). As a result, the transmittance of the captured image in the superimposed image displayed on the image display unit 14 becomes small, and the color becomes darker and clearer than before the change in transmittance. As compared with the case, the captured image 24 can be visually recognized. As described above, the CPU 51 changes the transmittance of the captured image, so that the tendency of the fingertip position to change is one of predetermined conditions corresponding to scrolling in the right, left, up, and down directions. It is possible to notify the user that it is determined that any one of the sections is satisfied. Further, since the color of the captured image 24 becomes darker and clearer, the user can easily grasp the moving method when the fingertip is continuously moved.

又、撮影画像のα値(第3値)は、コンテンツ画像のα値(第1α値)よりも小さいので、コンテンツ画像23よりも撮影画像24の方が色が薄く不鮮明な状態は、撮影画像の透過率が小さくなった後も維持される。従ってユーザは、撮影画像の透過率が小さくなった後も、コンテンツ画像23を鮮明に認識できる。このように、CPU51は、撮影画像24がコンテンツ画像23の視認性を妨げることを、撮影画像24の透過率を変化させた後も防止できる。従ってCPU51は、ユーザに対して、コンテンツ画像23を継続して良好に視認させることができる。   Further, since the α value (third value) of the photographed image is smaller than the α value (first α value) of the content image, the photographed image 24 is lighter and unclear than the content image 23. This is maintained even after the transmittance of the liquid crystal becomes smaller. Therefore, the user can clearly recognize the content image 23 even after the transmittance of the photographed image is reduced. Thus, the CPU 51 can prevent the captured image 24 from hindering the visibility of the content image 23 even after the transmittance of the captured image 24 is changed. Therefore, the CPU 51 can allow the user to continue to view the content image 23 satisfactorily.

CPU51は、RAM52に記憶された複数の座標情報に基づき、図6のDB531に記憶された複数の判定データを参照することによって、指先の位置の経時的な変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する複数の所定の条件の何れかを満たすかを判断する(S23)。   The CPU 51 refers to the plurality of determination data stored in the DB 531 in FIG. 6 based on the plurality of coordinate information stored in the RAM 52, so that the tendency of the fingertip position over time is changed to the right, left, and upper. It is determined whether any of a plurality of predetermined conditions corresponding to scrolling in the respective downward direction is satisfied (S23).

図8を参照し、判断方法の詳細について具体例を挙げて説明する。S11、S13、S15(図5参照)の処理が繰り返されることによって、RAM52に、複数の位置P1〜P11の夫々を示す座標情報(X1,Y1)〜(X11,Y11)が順番に記憶されたとする。図8は、右方向にコンテンツ画像をスクロールさせる処理に対応する所定の移動経路と複数の座標情報33とを示している。   Details of the determination method will be described with reference to FIG. By repeating the processes of S11, S13, and S15 (see FIG. 5), coordinate information (X1, Y1) to (X11, Y11) indicating each of the plurality of positions P1 to P11 is sequentially stored in the RAM 52. To do. FIG. 8 shows a predetermined movement path and a plurality of coordinate information 33 corresponding to the process of scrolling the content image in the right direction.

指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、上記式(1)の条件を満たすと判断する。この場合、CPU51は、指先の位置が上から下に向けて略垂直に移動していると判断する。次に、指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の夫々に対応する座標情報が上記式(2)の条件を満たすと判断する。この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、左下から右上に向かう移動に変化したと判断する。   When the fingertip moves from the position P1 to the position P4 and the coordinate information of the positions P1 to P4 is stored in the RAM 52, the CPU 51 determines that the condition of the above formula (1) is satisfied. In this case, the CPU 51 determines that the position of the fingertip is moving substantially vertically from top to bottom. Next, when the fingertip moves to the position P5 and the coordinate information of the position P5 is stored in the RAM 52, the CPU 51 determines that the coordinate information corresponding to each of the positions P4 and P5 satisfies the condition of the above formula (2). To do. In this case, the CPU 51 determines that the moving direction of the fingertip position has changed from a movement from the top to the bottom to a movement from the bottom left to the top right.

次に、指先が位置P5からP7に移動し、位置P6、P7の座標情報がRAM52に記憶された場合、CPU51は、RAM52に記憶された位置P4〜P7の座標情報のX成分及びY成分の夫々が、次の式(4)の条件を満たすと判断する。
X4<X5<X6<X7,Y4<Y5<Y6<Y7・・・(4)
この場合、CPU51は、指先の位置が左下から右上に向けて斜め方向に移動していると判断する。
Next, when the fingertip moves from the position P5 to P7 and the coordinate information of the positions P6 and P7 is stored in the RAM 52, the CPU 51 stores the X component and the Y component of the coordinate information of the positions P4 to P7 stored in the RAM 52. It is determined that each satisfies the condition of the following formula (4).
X4 <X5 <X6 <X7, Y4 <Y5 <Y6 <Y7 (4)
In this case, the CPU 51 determines that the position of the fingertip is moving in an oblique direction from the lower left to the upper right.

次に、指先が位置P8に移動し、位置P8の座標情報がRAM52に記憶された場合、CPU51は、位置P7、P8の座標情報のX成分及びY成分の夫々が、次の式(5)の条件を満たすと判断する。
X7>X8,Y7<Y8・・・(5)
この場合、CPU51は、指先の位置の移動方向が、左下から右上に向かう移動から、右下から左上に向かう移動に変化したと判断する。
Next, when the fingertip moves to the position P8 and the coordinate information of the position P8 is stored in the RAM 52, the CPU 51 determines that each of the X component and the Y component of the coordinate information of the positions P7 and P8 is expressed by the following equation (5). It is determined that the condition of
X7> X8, Y7 <Y8 (5)
In this case, the CPU 51 determines that the moving direction of the fingertip position has changed from a movement from the lower left to the upper right to a movement from the lower right to the upper left.

次に、指先が位置P8からP10に移動し、位置P9、P10の座標情報がRAM52に記憶された場合、CPU51は、位置P7〜P10の座標情報のX成分及びY成分の夫々が、次の式(6)の条件を満たすと判断する。
X7>X8>X9>X10,Y7<Y8<Y9<Y10・・・(6)
この場合、CPU51は、指先の位置が右下から左上に向けて斜め方向に移動していると判断する。
Next, when the fingertip moves from the position P8 to P10 and the coordinate information of the positions P9 and P10 is stored in the RAM 52, the CPU 51 determines that the X component and the Y component of the coordinate information of the positions P7 to P10 are the following. It is determined that the condition of Expression (6) is satisfied.
X7>X8>X9> X10, Y7 <Y8 <Y9 <Y10 (6)
In this case, the CPU 51 determines that the position of the fingertip is moving in an oblique direction from the lower right to the upper left.

次に、指先が位置P10からP11に移動し、位置P11の座標情報がRAM52に記憶された場合、CPU51は、位置P10、P11の座標情報のX成分及びY成分の夫々が、次の式(7)の条件を満たすと判断する。
X10≒X11,Y10>Y11・・・(7)
この場合、CPU51は、指先の位置の移動方向が、右下から左上に向かう移動から、上から下に向かう移動に変化したと判断する。CPU51は、上記の式(1)(2)(4)〜(7)の条件を満たす場合、指先の位置の経時的な変化の傾向が、右スクロールの処理内容に対応する所定の条件を満たすと判断する。
Next, when the fingertip moves from the position P10 to P11 and the coordinate information of the position P11 is stored in the RAM 52, the CPU 51 determines that each of the X component and the Y component of the coordinate information of the positions P10 and P11 is expressed by the following formula ( It is determined that the condition of 7) is satisfied.
X10≈X11, Y10> Y11 (7)
In this case, the CPU 51 determines that the moving direction of the fingertip position has changed from a movement from the lower right to the upper left to a movement from the upper to the lower. When satisfying the conditions of the above formulas (1), (2), (4) to (7), the CPU 51 satisfies the predetermined condition corresponding to the right scroll processing content of the tendency of the fingertip position to change over time. Judge.

なお、図6のDB531に記憶された判定データのうち、右方向へのスクロールを示す処理内容データに関連付けられた判定データは、上記の式(1)(2)(4)〜(7)を示すデータである。このように、判定データは、指先の位置の変化の傾向が所定の条件を満たすかを判断する場合に適用される関係式を示す。   Of the determination data stored in the DB 531 in FIG. 6, the determination data associated with the processing content data indicating the rightward scroll is expressed by the above formulas (1), (2), (4) to (7). It is the data shown. As described above, the determination data indicates a relational expression applied when determining whether the tendency of the change in the fingertip position satisfies a predetermined condition.

なお、詳細は省略するが、指先の位置の経時的な変化の傾向が、左、上、及び、下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件を満たすかの判断も、上記と同様の方法で行われる。又、上記の具体例では、最初にRAM52に記憶された座標情報を、特定の位置P1(座標情報(X1,Y1))とし、位置P2,P3・・・の夫々の座標情報に基づいて判断される場合を例に挙げて説明した。しかしながら、判断方法は上記具体例に限定されない。例えばCPU51は、位置P2〜P9の何れかから開始される指先の複数の位置を示す座標情報に基づいて、指先の位置の経時的な変化の傾向が、右、左、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件を満たすかを判断してもよい。なお、夫々の判断が行われる場合に適用される関係式が、DB531に判定データとして、夫々の処理内容に関連付けて記憶される。   Although details are omitted, it is determined whether the tendency of the fingertip position to change over time satisfies a predetermined condition corresponding to the processing content for scrolling the content image in the left, up, and down directions. Is also performed in the same manner as described above. In the above specific example, the coordinate information initially stored in the RAM 52 is the specific position P1 (coordinate information (X1, Y1)), and the determination is made based on the respective coordinate information of the positions P2, P3. The case where this is done has been described as an example. However, the determination method is not limited to the above specific example. For example, the CPU 51 determines that the tendency of the fingertip position over time based on coordinate information indicating a plurality of fingertip positions starting from any one of the positions P2 to P9 is right, left, top, or bottom, respectively. It may be determined whether a predetermined condition corresponding to the processing content for scrolling the content image in the direction is satisfied. A relational expression applied when each determination is performed is stored in the DB 531 as determination data in association with each processing content.

なおCPU51は、別の方法で、指先の位置の経時的な変化の傾向が所定の条件を満たすか判断してもよい。例えばCPU51は、RAM52に記憶された複数の座標情報の夫々によって示される位置を順に線で結び、指先の移動の軌跡を示す線分として特定してもよい。CPU51は、特定した線分と、プログラムROM53に予め記憶された軌跡特定用の複数の画像テンプレートとに基づいて、周知のパターンマッチング処理を行ってもよい。なお、軌跡特定用の複数の画像テンプレートは、特定の形状を示す画像のテンプレートである。特定の形状は、例えば、図8で移動経路として示されている三角形である。なお、特定の形状は三角形に限定されない。例えば特定の形状は、上下方向に延びる直線、左右方向に延びる直線、円形等であってもよい。複数の画像テンプレートの夫々には、処理内容データが対応付けられてもよい。CPU51は、パターンマッチング処理によって複数の画像テンプレートの夫々に対応する複数の相互相関係数を算出し、最も1に近い相互相関係数が所定の範囲内の値であるか判断してもよい。CPU51は、最も1に近い相互相関係数が所定の範囲内の値である場合、パターンマッチングに成功したと判断してもよい。この場合CPU51は、指先の位置の変化の傾向が、最も1に近い相互相関係数に対応する画像テンプレートによって示される特定の形状と一致すると判断してもよい。これによってCPU51は、指先の位置の変化の傾向が所定の条件を満たしているかを更に適切に判断できる。   The CPU 51 may determine whether the tendency of the fingertip position over time satisfies a predetermined condition by another method. For example, the CPU 51 may connect the positions indicated by each of the plurality of coordinate information stored in the RAM 52 with a line in order, and specify it as a line segment indicating the locus of movement of the fingertip. The CPU 51 may perform a well-known pattern matching process based on the specified line segment and a plurality of image templates for specifying a locus stored in advance in the program ROM 53. Note that the plurality of image templates for specifying the locus are templates of images showing a specific shape. The specific shape is, for example, a triangle shown as a movement path in FIG. The specific shape is not limited to a triangle. For example, the specific shape may be a straight line extending in the up-down direction, a straight line extending in the left-right direction, a circle, or the like. Process content data may be associated with each of the plurality of image templates. The CPU 51 may calculate a plurality of cross-correlation coefficients corresponding to each of the plurality of image templates by pattern matching processing, and determine whether the cross-correlation coefficient closest to 1 is a value within a predetermined range. The CPU 51 may determine that the pattern matching is successful when the cross-correlation coefficient closest to 1 is a value within a predetermined range. In this case, the CPU 51 may determine that the change tendency of the fingertip position matches the specific shape indicated by the image template corresponding to the cross-correlation coefficient closest to 1. As a result, the CPU 51 can more appropriately determine whether the tendency of the fingertip position change satisfies a predetermined condition.

図5に示すように、CPU51は、DB531に記憶された複数の判定データを参照し、上記の判断方法によって、指先の位置の経時的な変化の傾向が、右方向、左方向、上方向、及び下方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の何れかを満たすか判断する(S23)。CPU51は、複数の所定の条件の何れとも一致しないと判断した場合(S23:NO)、処理をS17に戻す。CPU51は、複数の所定の条件の何れかを満たすと判断した場合(S23:YES)、S21で画像表示部14に表示させた重畳画像に軌跡画像26を含める為に、次の処理を行う。CPU51は、RAM52に記憶された複数の座標情報によって示される複数の位置を、RAM52に座標情報が記憶された順番に線で結ぶことによって、指先の位置の移動経路を示す線分を特定する。CPU51は、特定された線分のうち、RAM52に最後に記憶された座標情報側の端部に、アローヘッドを付し、軌跡画像26を作成する。CPU51は、S21で画像表示部14に表示された状態の重畳画像に軌跡画像を含め、映像信号を生成する。   As shown in FIG. 5, the CPU 51 refers to the plurality of determination data stored in the DB 531, and the tendency of the change in the fingertip position over time is determined in the right direction, the left direction, the upward direction by the above determination method. Then, it is determined whether any one of the predetermined conditions corresponding to the processing content for scrolling the content image in the downward direction is satisfied (S23). If the CPU 51 determines that none of the predetermined conditions is met (S23: NO), it returns the process to S17. When the CPU 51 determines that any one of a plurality of predetermined conditions is satisfied (S23: YES), the CPU 51 performs the following process to include the trajectory image 26 in the superimposed image displayed on the image display unit 14 in S21. The CPU 51 specifies a line segment indicating the movement path of the fingertip position by connecting a plurality of positions indicated by the plurality of coordinate information stored in the RAM 52 with lines in the order in which the coordinate information is stored in the RAM 52. The CPU 51 attaches an arrow head to the end on the coordinate information side stored last in the RAM 52 among the specified line segments, and creates a trajectory image 26. The CPU 51 generates a video signal by including the trajectory image in the superimposed image displayed on the image display unit 14 in S21.

CPU51は、HD10に映像信号を送信し、軌跡画像を含む重畳画像を画像表示部14に表示させる(S25)。HD1を装着したユーザは、例えば図3の光景21Cで示されるように、軌跡画像26を含む重畳画像212Cを視認する。これによってユーザは、指先の位置の経時的な変化の傾向を確認できる。また、CPU51は、指先の位置の経時的な変化の傾向が、右、左、上、及び下の何れかの方向へのコンテンツ画像のスクロールに対応する所定の条件の何れかを満たすと判断した場合に、軌跡画像を含む重畳画像を画像表示部14に表示させる。このためユーザは、HMD1実行させる処理内容に対応する指先の位置の経時的な変化の傾向がHMD1によって認識されたことを把握できる。またCPU51は、コンテンツ画像のスクロールが実際に行われる(S27参照、後述)前に、軌跡画像を含む重畳画像を画像表示部14に表示させる。これによってユーザは、指の移動に対応する処理がまだ実行されていないことを認識できる。   The CPU 51 transmits a video signal to the HD 10 and causes the image display unit 14 to display a superimposed image including a trajectory image (S25). The user wearing the HD1 visually recognizes the superimposed image 212C including the trajectory image 26, for example, as shown by the scene 21C in FIG. As a result, the user can check the tendency of the fingertip position over time. In addition, the CPU 51 determines that the tendency of the fingertip position to change over time satisfies one of the predetermined conditions corresponding to the scrolling of the content image in any of the right, left, up, and down directions. In this case, the superimposed image including the trajectory image is displayed on the image display unit 14. For this reason, the user can grasp that the tendency of the fingertip position corresponding to the processing content to be executed by the HMD 1 over time has been recognized by the HMD 1. Further, the CPU 51 causes the image display unit 14 to display a superimposed image including a trajectory image before the content image is actually scrolled (see S27, which will be described later). Thereby, the user can recognize that the process corresponding to the movement of the finger has not been executed yet.

CPU51は、DB531に記憶された複数の判定データのうち、S23で所定の条件を満たすと判断された場合に参照された判定データに対応する処理内容、即ち、コンテンツ画像をスクロールさせる場合の方向を特定する。CPU51は、特定した処理内容に基づいて、コンテンツ画像をスクロールさせる処理を実行する(S27)。   The CPU 51 determines the processing content corresponding to the determination data referred to when the predetermined condition is determined in S23 among the plurality of determination data stored in the DB 531, that is, the direction in which the content image is scrolled. Identify. The CPU 51 executes a process of scrolling the content image based on the specified processing content (S27).

具体例を挙げて説明する。CPU51が、S23で、指先の位置の経時的な変化の傾向が、DB531の判定データ「Right.file」に対応する所定条件を満たすと判断した場合を例に挙げる。この場合、CPU51は、判定データ「Right.file」に関連付けられた処理内容が、コンテンツ画像を右方向にスクロールさせる処理を示すことを特定する。CPU51は、S25で画像表示部14に表示させた軌跡画像を含む重畳画像に含まれるコンテンツ画像を、右方向にスクロールさせる為に、次の処理を行う。CPU51は、S21で画像表示部14に表示された状態の重畳画像のうちコンテンツ画像を、右方向にスクロールさせる。CPU51は、右方向にスクロールさせたコンテンツ画像に撮影画像が重ねられ、且つ、軌跡画像を含む重畳画像の映像信号を生成する。CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる。HD1を装着したユーザは、例えば図3の光景21Dで示されるように、右方向にスクロールされたコンテンツ画像23を含む重畳画像212Dを視認する。以上のように、CPU51は、DB531を参照することによって、指先の位置の変化の傾向に対応する処理を容易に特定できる。   A specific example will be described. For example, the CPU 51 determines in S23 that the tendency of the fingertip position over time satisfies the predetermined condition corresponding to the determination data “Right.file” in the DB 531. In this case, the CPU 51 specifies that the processing content associated with the determination data “Right.file” indicates processing for scrolling the content image in the right direction. The CPU 51 performs the following process to scroll the content image included in the superimposed image including the trajectory image displayed on the image display unit 14 in S25 in the right direction. The CPU 51 scrolls the content image in the right direction among the superimposed images displayed on the image display unit 14 in S21. The CPU 51 generates a video signal of a superimposed image in which the captured image is superimposed on the content image scrolled in the right direction and includes a trajectory image. The CPU 51 transmits the generated video signal to the HD 10 and causes the image display unit 14 to display a superimposed image. The user wearing the HD1 visually recognizes the superimposed image 212D including the content image 23 scrolled in the right direction, for example, as shown by a scene 21D in FIG. As described above, the CPU 51 can easily specify the process corresponding to the change tendency of the fingertip position by referring to the DB 531.

なお、プログラムROM53に記憶された複数の画像テンプレートが用いられることによって、指先の位置の変化の傾向が所定の条件を満たすかが判断された場合、CPU51は、最も1に近い相互相関係数に対応する画像テンプレートに対応付けられた処理内容データを、上記と同様の方法で特定し、対応する処理を実行してもよい。   Note that when a plurality of image templates stored in the program ROM 53 are used to determine whether the tendency of the fingertip position change satisfies a predetermined condition, the CPU 51 determines the cross-correlation coefficient closest to 1. The processing content data associated with the corresponding image template may be specified by the same method as described above, and the corresponding processing may be executed.

CPU51は、S27で実行する処理が完了した後、HD10にコンテンツ画像及び撮影画像の映像信号のみを送信することによって、画像表示部14に表示された状態の重畳画像から軌跡画像を消去させる(S29)。次にCPU51は、S29で重畳画像から軌跡画像を消去させた後、HD10にコンテンツ画像の映像信号のみを送信することによって、画像表示部14に表示された状態の重畳画像から撮影画像を更に消去する(S31)。画像表示部14には、コンテンツ画像のみが表示された状態になる。CPU51は処理をS11に戻す。これによってユーザは、指先の位置の経時的な変化に対応する処理をHMD1が実行したことを確認できる。またCPU51は、S27で処理が実行された後で、画像表示部14に表示された状態の重畳画像から撮影画像及び軌跡画像を消去させる。これによってCPU51は、ユーザにとって不要となった撮影画像及び軌跡画像をユーザに視認させないことになるので、コンテンツ画像をユーザに良好に視認させることができる。   After the process executed in S27 is completed, the CPU 51 transmits only the content image and the video signal of the captured image to the HD 10, thereby deleting the trajectory image from the superimposed image displayed on the image display unit 14 (S29). ). Next, the CPU 51 deletes the trajectory image from the superimposed image in S29, and then transmits only the video signal of the content image to the HD 10, thereby further erasing the captured image from the superimposed image displayed on the image display unit 14. (S31). Only the content image is displayed on the image display unit 14. The CPU 51 returns the process to S11. As a result, the user can confirm that the HMD 1 has executed a process corresponding to the temporal change in the position of the fingertip. In addition, after the processing is executed in S27, the CPU 51 deletes the captured image and the trajectory image from the superimposed image displayed on the image display unit 14. As a result, the CPU 51 does not allow the user to visually recognize the captured image and the trajectory image that are no longer necessary for the user, and thus allows the user to visually recognize the content image.

CPU51が、S27で、コンテンツ画像を右方向にスクロールさせる処理を実行した場合を例に挙げる。この場合、HD10を装着したユーザは、図3の光景21Eで示されるように、右方向にスクロールされたコンテンツ画像212Eのみが実像211に重ねられた光景を視認する。従ってユーザは、指先の移動に応じたスクロール処理が実行された後のコンテンツ画像を良好に視認できる。   As an example, the CPU 51 executes a process of scrolling the content image in the right direction in S27. In this case, the user wearing the HD 10 visually recognizes the scene in which only the content image 212E scrolled in the right direction is superimposed on the real image 211, as indicated by the scene 21E in FIG. Therefore, the user can visually recognize the content image after the scroll process according to the movement of the fingertip is executed.

以上説明したように、CPU51は、カメラ20によって撮影される所定領域内に指先があると判断した場合(S13:YES)、コンテンツ画像と撮影画像とを含む重畳画像を画像表示部14に表示させる(S17)。従ってユーザは、指先がカメラ20によって撮影されているかを、重畳画像によって認識できる。CPU51は、指先の位置の変化の傾向が所定の条件を満たす場合(S23:YES)、所定の条件に対応する処理を実行する(S27)。ユーザは、指先の位置の経時的な変化が所定の条件を満たすように、所定領域内で指先を移動させることによって、所望する処理をHMD1に実行させることができる。例えばユーザが、実像211に含まれる指先の位置のみを確認し、カメラ20によって撮影される所定領域外で指先を移動させた場合、CPU51は指先の位置の経時的な変化を正確に特定できないので、対応する処理を実行できない。これに対してCPU51は、重畳画像を表示させることによって、カメラ20によって撮影される所定領域内に指先が含まれていることをユーザに確認させることができる。ユーザは、カメラ20によって撮影される所定領域内で指先を移動させることが容易に可能となるので、HMD1に指先を適切に認識させることができる。このためユーザは、所望する処理をHMD1に適切に実行させることができる。   As described above, when the CPU 51 determines that there is a fingertip within a predetermined area photographed by the camera 20 (S13: YES), the CPU 51 causes the image display unit 14 to display a superimposed image including the content image and the photographed image. (S17). Therefore, the user can recognize whether the fingertip is captured by the camera 20 from the superimposed image. CPU51 performs the process corresponding to a predetermined condition, when the tendency of the change of the position of a fingertip satisfies predetermined conditions (S23: YES) (S27). The user can cause the HMD 1 to execute a desired process by moving the fingertip within a predetermined region so that a change with time of the fingertip position satisfies a predetermined condition. For example, when the user confirms only the position of the fingertip included in the real image 211 and moves the fingertip outside the predetermined area photographed by the camera 20, the CPU 51 cannot accurately identify the temporal change in the position of the fingertip. The corresponding process cannot be executed. On the other hand, the CPU 51 can cause the user to confirm that the fingertip is included in the predetermined area captured by the camera 20 by displaying the superimposed image. Since the user can easily move the fingertip within a predetermined area photographed by the camera 20, the HMD1 can appropriately recognize the fingertip. For this reason, the user can cause the HMD 1 to appropriately execute a desired process.

なお、本発明は上記実施形態に限定されず、種々の変更が可能である。上記実施形態において、CPU51は、S15で指先を特定したが、特定される対象物は指先に限定されない。例えばCPU51は、所定色(例えば赤色)のペン先を対象物として特定してもよい。この場合、CPU51は、所定色に対応する所定の画素値を有する画素が連続している領域を検出することで、対象物が含まれる領域を検出することができる。そして、検出した領域全体を囲う多角形の形状と、プログラムROM53に予め記憶された、対象物に対応する形状の画像テンプレートとに基づいて、周知のパターンマッチング処理が行われる。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の領域をペン先と特定する。   In addition, this invention is not limited to the said embodiment, A various change is possible. In the said embodiment, although CPU51 specified the fingertip by S15, the target object specified is not limited to a fingertip. For example, the CPU 51 may specify a pen tip of a predetermined color (for example, red) as an object. In this case, the CPU 51 can detect a region including the target object by detecting a region where pixels having a predetermined pixel value corresponding to a predetermined color are continuous. Then, a well-known pattern matching process is performed on the basis of the polygonal shape surrounding the entire detected area and the image template having a shape corresponding to the object stored in advance in the program ROM 53. When the cross-correlation coefficient calculated by the pattern matching process is a value within a predetermined range, the CPU 51 determines that the pattern matching between the specified polygonal shape and the image template is successful. In this case, the CPU 51 identifies the polygonal area as the pen tip.

カメラ20は、CB50に対して撮影画像データを直接送信してもよい。上記実施形態において、CPU51は、コンテンツ画像に撮影画像を重ねた重畳画像を画像表示部14に表示させていた。CPU51は、コンテンツ画像と撮影画像とを重ねず、画像表示部14の異なる領域に双方を表示させてもよい。この場合、CPU51は、撮影画像をユーザに視認させつつ、コンテンツ画像の視認性を更に良好に維持できる。   The camera 20 may directly transmit the captured image data to the CB 50. In the above embodiment, the CPU 51 causes the image display unit 14 to display a superimposed image in which a captured image is superimposed on a content image. The CPU 51 may display both in a different area of the image display unit 14 without overlapping the content image and the captured image. In this case, the CPU 51 can maintain better visibility of the content image while allowing the user to visually recognize the captured image.

上記実施形態において、CPU51は、S17で画像表示部14に重畳画像を表示させる場合、αブレンドを行う場合における撮影画像の各画素のα値(第2α値)を、コンテンツ画像の各画素のα値(第1α値)よりも小さい値とした。これに対し、CPU51は、第1α値と第2α値とを略同一としてもよい。これによってCPU51は、コンテンツ画像と撮影画像とを同様の透過率とした状態で画像表示部14に表示させることができる。この場合、ユーザは、コンテンツ画像と撮影画像との両方を良好に認識できる。   In the above embodiment, when the superimposed image is displayed on the image display unit 14 in S17, the CPU 51 determines the α value (second α value) of each pixel of the captured image when α blending is performed, as the α value of each pixel of the content image. The value was smaller than the value (first α value). On the other hand, the CPU 51 may make the first α value and the second α value substantially the same. Accordingly, the CPU 51 can display the content image and the captured image on the image display unit 14 with the same transmittance. In this case, the user can recognize both the content image and the captured image well.

上記実施形態において、CPU51は、S21で撮影画像に対応するα値を、第2α値から、第2α値よりも大きい第3α値に変更し、画像表示部14に表示させた。これに対し、CPU51は、S19で、指先の位置の変化の傾向が所定の条件の一部を満たすと判断された場合にも、撮影画像に対応するα値を変化させず、S17で画像表示部14に表示させた重畳画像を、S21でそのまま表示させてもよい。又、CPU51は、S21で撮影画像に対応するα値を、第2α値から、第2α値よりも小さい第4α値に変更し、画像表示部14に表示させてもよい。これによってCPU51は、コンテンツ画像よりも色が濃く且つ鮮明な撮影画像をユーザに視認させることができる。   In the above-described embodiment, the CPU 51 changes the α value corresponding to the captured image from the second α value to the third α value larger than the second α value in S21 and causes the image display unit 14 to display the α value. On the other hand, the CPU 51 does not change the α value corresponding to the photographed image and displays the image in S17 even when it is determined in S19 that the change tendency of the fingertip position satisfies a part of the predetermined condition. The superimposed image displayed on the unit 14 may be displayed as it is in S21. Further, the CPU 51 may change the α value corresponding to the photographed image from the second α value to a fourth α value smaller than the second α value in S21 and display the changed value on the image display unit 14. Thus, the CPU 51 can make the user visually recognize a clear captured image that is darker in color than the content image.

上記実施形態において、CPU51は、指先の位置の経時的な変化の傾向が所定の条件を満たすと判断された場合(S23:YES)、軌跡画像を含む重畳画像を画像表示部14に表示させた(S25)。これに対してCPU51は、S19で、指先の位置の経時的な変化の傾向が所定の条件の一部を満たすと判断した場合(S19:YES)に、軌跡画像を画像表示部14に表示させてもよい。又、CPU51は、S11で、撮影画像に指先が含まれていると判断した場合(S11:YES)に、軌跡画像を画像表示部14に表示させてもよい。これらの場合、ユーザは、軌跡画像を視認することによって、指先の位置の変化の傾向が所定の条件を満たすように指先を移動させることが容易に可能となる。   In the above embodiment, when it is determined that the tendency of the fingertip position over time to satisfy a predetermined condition (S23: YES), the CPU 51 causes the image display unit 14 to display a superimposed image including a trajectory image. (S25). On the other hand, if the CPU 51 determines in S19 that the tendency of the fingertip position over time satisfies a part of the predetermined condition (S19: YES), the CPU 51 displays the trajectory image on the image display unit 14. May be. The CPU 51 may display the trajectory image on the image display unit 14 when it is determined in S11 that the fingertip is included in the captured image (S11: YES). In these cases, the user can easily move the fingertip so that the tendency of the change in the position of the fingertip satisfies a predetermined condition by visually recognizing the trajectory image.

上記実施形態において、CPU51は、S27で、所定の条件に対応する処理を実行した後、軌跡画像を画像表示部14から消去した。これに対し、CPU51は、処理を実行する前に軌跡画像を画像表示部14から消去してもよい。   In the above embodiment, the CPU 51 deletes the trajectory image from the image display unit 14 after executing the process corresponding to the predetermined condition in S27. On the other hand, the CPU 51 may delete the trajectory image from the image display unit 14 before executing the process.

上記実施形態において、カメラ20とインターフェイス15とは、無線によって通信が行われてもよい。HD10とCB50とは、無線によって通信が行われてもよい。なおこれらの場合、カメラ20による撮影が行われてから、CPU51が撮影画像データを受信するまでの間の時間が、上記実施形態の場合よりも長くなる可能性がある。しかしながら、上記実施形態において、CPU51は、遅延時間が所定値よりも小さくない場合(S15:NO)、撮影画像を含む重畳画像を画像表示部14に表示させない。このため、画像表示部14に表示される撮影画像によって示される指先の動きが、実像に含まれる指先の動きに比べて大きく遅延することがない。従って、遅延による違和感をユーザに与えることを防止できる。   In the above embodiment, the camera 20 and the interface 15 may communicate wirelessly. The HD 10 and the CB 50 may communicate wirelessly. In these cases, there is a possibility that the time from when the photographing by the camera 20 is performed until the CPU 51 receives the photographed image data is longer than in the case of the above embodiment. However, in the above embodiment, when the delay time is not smaller than the predetermined value (S15: NO), the CPU 51 does not display the superimposed image including the captured image on the image display unit 14. For this reason, the movement of the fingertip indicated by the captured image displayed on the image display unit 14 is not significantly delayed compared to the movement of the fingertip included in the real image. Therefore, it is possible to prevent the user from feeling uncomfortable due to the delay.

なお、画像表示部14が本発明の「表示部」の一例である。カメラ20が本発明の「撮影部」の一例である。指先が本発明の「対象物」の一例である。撮影画像が本発明の「対象物画像」の一例である。S13の処理を行うCPU51が本発明の「第1判断手段」の一例である。S17,S21の処理を行うCPU51が本発明の「第1表示手段」の一例である。S23の処理を行うCPU51が本発明の「第2判断手段」の一例である。S19の処理を行うCPU51が本発明の「第3判断手段」の一例である。S27の処理を行うCPU51が本発明の「実行手段」の一例である。S16,S20の処理を行うCPU51が本発明の「生成手段」の一例である。S25の処理を行うCPU51が本発明の「第2表示手段」の一例である。S31の処理を行うCPU51が本発明の「消去手段」の一例である。画像テンプレートを記憶するプログラムROM53が本発明の「記憶部」の一例である。   The image display unit 14 is an example of the “display unit” in the present invention. The camera 20 is an example of the “photographing unit” in the present invention. The fingertip is an example of the “object” in the present invention. The captured image is an example of the “object image” in the present invention. The CPU 51 that performs the process of S13 is an example of the “first determination unit” in the present invention. The CPU 51 that performs the processes of S17 and S21 is an example of the “first display means” in the present invention. The CPU 51 that performs the process of S23 is an example of the “second determination unit” in the present invention. The CPU 51 that performs the process of S19 is an example of the “third determination unit” in the present invention. The CPU 51 that performs the process of S27 is an example of the “execution unit” in the present invention. The CPU 51 that performs the processes of S16 and S20 is an example of the “generating means” in the present invention. The CPU 51 that performs the process of S25 is an example of the “second display unit” in the present invention. The CPU 51 that performs the process of S31 is an example of the “erasing unit” in the present invention. The program ROM 53 that stores the image template is an example of the “storage unit” in the present invention.

1 HMD
3 ハーフミラー
10 HD
14 画像表示部
20 カメラ
21 光景
23 コンテンツ画像
24 撮影画像
26 軌跡画像
50 CB
53 プログラムROM
54 フラッシュROM
1 HMD
3 Half mirror 10 HD
14 Image display unit 20 Camera 21 Scene 23 Content image 24 Captured image 26 Trail image 50 CB
53 Program ROM
54 Flash ROM

Claims (13)

コンテンツ画像を少なくとも表示可能であり、第1方向に画像光を射出可能な表示部と、
前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域を撮影して画像データを出力可能な撮影部と、
前記撮影部から出力された画像データを取得する取得手段と、
前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、
前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段と
を備え、
前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とするヘッドマウントディスプレイ。
A display unit capable of displaying at least a content image and emitting image light in a first direction;
An imaging unit capable of imaging a predetermined area including at least an area in a second direction opposite to the first direction and outputting image data;
Obtaining means for obtaining image data output from the photographing unit;
First determination means for determining whether there is a predetermined object in the predetermined region based on the image data acquired by the acquisition means;
The time when the first determination means determines that the object is in the predetermined area , and the time when the image data is acquired by the acquisition means, and the time when the inside of the predetermined area is imaged by the imaging unit A first display means for displaying the content image and the object image on the display unit when the difference between the first image and the target image is smaller than a predetermined value ;
When the first determination unit determines that the object is in the predetermined area, a tendency of a change in the position of the object in the predetermined area based on the image data is determined according to a predetermined condition. A second judging means for judging whether or not
An execution means for executing a process corresponding to the predetermined condition when the second determination means determines that the tendency of the change in the position of the object satisfies the predetermined condition;
The head-mounted display, wherein the object image is an image corresponding to the image data for which the object is determined to be within the predetermined area by the first determination unit.
前記コンテンツ画像と前記対象物画像とに基づいて、前記コンテンツ画像に前記対象物画像が重畳された重畳画像を生成する生成手段をさらに備え、
前記第1表示手段は、前記重畳画像を前記表示部に表示することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
Based on the content image and the object image, further comprising a generating means for generating a superimposed image in which the object image is superimposed on the content image,
The head-mounted display according to claim 1, wherein the first display unit displays the superimposed image on the display unit.
前記生成手段は、前記コンテンツ画像の各画素のα値である第1α値と、前記対象物画像の各画素のα値であって前記第1α値よりも小さい第2α値とを用いて、前記重畳画像を生成することを特徴とする請求項2に記載のヘッドマウントディスプレイ。   The generating means uses a first α value that is an α value of each pixel of the content image and a second α value that is an α value of each pixel of the object image and is smaller than the first α value, and The head mounted display according to claim 2, wherein a superimposed image is generated. 前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしているか判断する第3判断手段を備え、
前記生成手段は、前記第3判断手段によって前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしていると判断された場合、前記対象物画像の各画素のα値を、前記第2α値よりも大きい第3α値とし、前記第1α値と前記第3α値とを用いて、前記重畳画像を生成することを特徴とする請求項3に記載のヘッドマウントディスプレイ。
A third determining means for determining whether a tendency of a change in the position of the object satisfies a part of the predetermined condition;
The generation unit determines the α value of each pixel of the object image when the third determination unit determines that the tendency of the change in the position of the object satisfies a part of the predetermined condition, 4. The head mounted display according to claim 3, wherein the superimposed image is generated by using a third α value larger than the second α value and using the first α value and the third α value. 5.
前記第3α値は、前記第1α値よりも小さいことを特徴とする請求項4に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 4, wherein the third α value is smaller than the first α value. 前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記対象物の位置を示す軌跡画像を前記コンテンツ画像に重ねて前記表示部に表示する第2表示手段を備えたことを特徴とする請求項1から5の何れかに記載のヘッドマウントディスプレイ。   When the second determination means determines that the tendency of the change in the position of the object satisfies the predetermined condition, a trajectory image indicating the position of the object is superimposed on the content image on the display unit. 6. The head mounted display according to claim 1, further comprising second display means for displaying. 前記第2表示手段は、前記実行手段によって前記対応する処理が実行される前に、前記軌跡画像を前記表示部に表示することを特徴とする請求項6に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 6, wherein the second display unit displays the trajectory image on the display unit before the corresponding process is executed by the execution unit. 前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記第1表示手段によって表示された前記対象物画像を消去する消去手段を備えたことを特徴とする請求項1から7の何れかに記載のヘッドマウントディスプレイ。   And an erasing unit that erases the object image displayed by the first display unit when the second determination unit determines that the tendency of the change in the position of the object satisfies the predetermined condition. The head mounted display according to any one of claims 1 to 7, wherein the head mounted display is provided. 前記消去手段は、前記実行手段によって前記対応する処理が実行された後、前記対象物画像を消去することを特徴とする請求項8に記載のヘッドマウントディスプレイ。   9. The head mounted display according to claim 8, wherein the erasing unit erases the object image after the corresponding processing is executed by the execution unit. 前記取得手段は、前記撮影部によって前記所定領域内が撮影された時の時刻を示す時刻情報を前記撮影部から更に取得し、
前記第1表示手段は、前記取得手段によって前記時刻情報が取得された時刻と、取得された前記時刻情報によって示される時刻との差が所定値よりも小さい場合にのみ、前記コンテンツ画像と前記対象物画像とを前記表示部に表示し、前記差が所定値よりも小さくない場合、前記対象物画像を前記表示部に表示しないことを特徴とする請求項1から9の何れかに記載のヘッドマウントディスプレイ。
The acquisition means further acquires time information indicating a time when the inside of the predetermined area is imaged by the imaging unit from the imaging unit,
The first display unit is configured to display the content image and the target only when a difference between a time when the time information is acquired by the acquisition unit and a time indicated by the acquired time information is smaller than a predetermined value. 10. The head according to claim 1, wherein an object image is displayed on the display unit, and the object image is not displayed on the display unit when the difference is not smaller than a predetermined value. Mount display.
前記第2判断手段は、記憶部に記憶されたテンプレートデータによって示される特定の形状と、前記対象物の位置の変化の傾向とが一致するかを判断することによって、前記対象物の位置の変化の傾向が所定の条件を満たしているか判断することを特徴とする請求項1から10の何れかに記載のヘッドマウントディスプレイ。   The second determination means determines whether the specific shape indicated by the template data stored in the storage unit matches the change tendency of the position of the target object, thereby changing the position of the target object. The head-mounted display according to claim 1, wherein it is determined whether or not the tendency satisfies a predetermined condition. 前記実行手段は、前記対象物の位置の変化の傾向と一致すると判断された特定の形状を示すテンプレートデータに関連付けられた特定の処理を実行することを特徴とする請求項11に記載のヘッドマウントディスプレイ。   The head mount according to claim 11, wherein the execution unit executes a specific process associated with template data indicating a specific shape that is determined to match a tendency of a change in the position of the object. display. コンテンツ画像を少なくとも表示可能な表示部を備えたヘッドマウントディスプレイのコンピュータを、
前記表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域が、撮影部によって撮影された場合に前記撮影部から出力される画像データを取得する取得手段と、
前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、
前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段と
して機能させるための制御プログラムであって、
前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする制御プログラム。
A head-mounted display computer having a display unit capable of displaying at least a content image,
Image data output from the photographing unit is acquired when a predetermined region including at least a region in a second direction opposite to the first direction in which the display unit can emit image light is photographed by the photographing unit. Acquisition means;
First determination means for determining whether there is a predetermined object in the predetermined region based on the image data acquired by the acquisition means;
The time when the first determination means determines that the object is in the predetermined area , and the time when the image data is acquired by the acquisition means, and the time when the inside of the predetermined area is imaged by the imaging unit A first display means for displaying the content image and the object image on the display unit when the difference between the first image and the target image is smaller than a predetermined value ;
When the first determination unit determines that the object is in the predetermined area, a tendency of a change in the position of the object in the predetermined area based on the image data is determined according to a predetermined condition. A second judging means for judging whether or not
Control for functioning as execution means for executing processing corresponding to the predetermined condition when the second determination means determines that the tendency of the change in the position of the object satisfies the predetermined condition A program,
The control program according to claim 1, wherein the object image is an image corresponding to the image data determined by the first determination means that the object is within the predetermined area.
JP2013204063A 2013-09-30 2013-09-30 Head mounted display and control program Expired - Fee Related JP5979110B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013204063A JP5979110B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204063A JP5979110B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Publications (2)

Publication Number Publication Date
JP2015069481A JP2015069481A (en) 2015-04-13
JP5979110B2 true JP5979110B2 (en) 2016-08-24

Family

ID=52836058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204063A Expired - Fee Related JP5979110B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Country Status (1)

Country Link
JP (1) JP5979110B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023181549A1 (en) * 2022-03-24 2023-09-28 キヤノン株式会社 Control device, control method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
GB2359216B (en) * 2000-02-11 2003-10-29 Purple Voice Ltd A method of synchronising the replay of audio data in a network of computers
JP2005267267A (en) * 2004-03-18 2005-09-29 Digital Electronics Corp Display device for control, screen data generation device, and program, and recording medium therefor
JP4684745B2 (en) * 2005-05-27 2011-05-18 三菱電機株式会社 User interface device and user interface method
JP2008235989A (en) * 2007-03-16 2008-10-02 Nippon Telegr & Teleph Corp <Ntt> Image processor and image processing method
US20100315329A1 (en) * 2009-06-12 2010-12-16 Southwest Research Institute Wearable workspace
JP2012164157A (en) * 2011-02-07 2012-08-30 Toyota Motor Corp Image synthesizer

Also Published As

Publication number Publication date
JP2015069481A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
US10629107B2 (en) Information processing apparatus and image generation method
KR101813834B1 (en) Image processing device, image processing method, image processing program and photographing assist equipment
JP6518578B2 (en) Display control apparatus and display control method
KR102494698B1 (en) Method and apparatus for changing focus of camera
JP5949501B2 (en) Work assistance system and program
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
WO2015093315A1 (en) Image processing device and method, and program
JP2000172431A (en) Information input device and game device
JP2010206673A (en) Head-mounted display device, image control method, and image control program
CN111213375B (en) Information processing apparatus, information processing method, and program
JP2022183213A (en) Head-mounted display
JP2005312605A (en) Gaze position display device
JP2015149552A (en) Wearable electronic apparatus
JP5979110B2 (en) Head mounted display and control program
JP7367689B2 (en) Information processing device, information processing method, and recording medium
JP2014150343A (en) Work assisting system and working device
JP2020181320A (en) Information processing device and device information derivation method
JP5907034B2 (en) Work assistance system and program
JP2016090853A (en) Display device, control method of display device and program
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
JP5907136B2 (en) Head mounted display and control program
JP2018042004A (en) Display device, head-mounted type display device, and method for controlling display device
JP2016005007A (en) Head mounted display and image processing device
WO2021044732A1 (en) Information processing device, information processing method, and storage medium
JP2014197803A (en) Photographing assist system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160711

R150 Certificate of patent or registration of utility model

Ref document number: 5979110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees