JP5907136B2 - Head mounted display and control program - Google Patents

Head mounted display and control program Download PDF

Info

Publication number
JP5907136B2
JP5907136B2 JP2013204061A JP2013204061A JP5907136B2 JP 5907136 B2 JP5907136 B2 JP 5907136B2 JP 2013204061 A JP2013204061 A JP 2013204061A JP 2013204061 A JP2013204061 A JP 2013204061A JP 5907136 B2 JP5907136 B2 JP 5907136B2
Authority
JP
Japan
Prior art keywords
information
cpu
image
unit
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013204061A
Other languages
Japanese (ja)
Other versions
JP2015069480A (en
Inventor
美佑紀 楠田
美佑紀 楠田
智己 片野
智己 片野
邦宏 伊藤
邦宏 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2013204061A priority Critical patent/JP5907136B2/en
Publication of JP2015069480A publication Critical patent/JP2015069480A/en
Application granted granted Critical
Publication of JP5907136B2 publication Critical patent/JP5907136B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムに関する。   The present invention relates to a head mounted display and a control program for controlling the head mounted display.

ヘッドマウントディスプレイ(Head Mounted Display、HMD)はユーザの頭部に装着されて使用される。従ってHMDには、ユーザの視野の確保及び装着時の負担の軽減の為に小型であることが要求される。HMDを小型化した場合、スイッチ等の機械的なユーザインターフェイス(User Interface UI)を設ける場所は制約される。特許文献1は、カメラによって撮影されたユーザの手の動きを検出することで、対応する操作情報を特定する技術を開示する。HMDにこの技術を応用することで、HMDは、カメラによって撮影された対象物の動きに対応する操作内容を特定し、特定した操作内容に応じた動作を実行できる。この場合、HMDは、小型化した場合でも十分なUIを確保できる。   A head mounted display (HMD) is used by being mounted on a user's head. Therefore, the HMD is required to be small in order to secure the user's field of view and reduce the burden at the time of wearing. When the HMD is downsized, a place where a mechanical user interface (User Interface UI) such as a switch is provided is limited. Patent Literature 1 discloses a technique for identifying corresponding operation information by detecting the movement of a user's hand taken by a camera. By applying this technology to the HMD, the HMD can specify the operation content corresponding to the movement of the object photographed by the camera, and can execute an operation according to the specified operation content. In this case, the HMD can secure a sufficient UI even when the HMD is downsized.

特開2007−172577号公報JP 2007-172577 A

HMDにカメラが設けられる場合、ユーザの頭部に表示部と共に配置する方法が考えられる。この場合、カメラの撮影領域は、HMDを装着したユーザの頭部が動くことによって変化する。この場合、撮影領域に対する対象物の相対位置は、ユーザの頭部が動いたことに伴って変化する。通常、HMDは、撮影領域に対する対象物の相対位置に基づいて、対象物の動きを検出する。従ってHMDは、ユーザの頭部が動いた場合、対象物の動きを正確に検出できない場合がある。この場合、HMDは、ユーザの所望する動作を実行できないという問題点がある。   When a camera is provided in the HMD, a method of arranging it together with a display unit on the user's head can be considered. In this case, the shooting area of the camera changes as the head of the user wearing the HMD moves. In this case, the relative position of the object with respect to the imaging region changes as the user's head moves. Usually, the HMD detects the movement of the object based on the relative position of the object with respect to the imaging region. Therefore, the HMD may not be able to accurately detect the movement of the object when the user's head moves. In this case, the HMD has a problem that it cannot execute the operation desired by the user.

本発明の目的は、対象物の動きを正確に検出し、対応する動作を実行することが可能なヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムを提供することである。   An object of the present invention is to provide a head mounted display capable of accurately detecting the movement of an object and executing a corresponding operation, and a control program for controlling the head mounted display.

本発明の第1態様に係るヘッドマウントディスプレイは、第1方向に画像光を射出可能な表示部と、前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域内を撮影して画像データを出力可能な撮影部と、前記撮影部から出力された画像データに基づいて、前記所定領域内に所定の対象物があるかを繰り返し判断する第1判断手段と、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された場合に、検出部の出力に基づいて、前記撮影部の撮影方向に対応する位置である第1位置を示す第1情報を取得する第1取得手段と、前記所定領域に対する前記対象物の相対位置である第2位置を示す第2情報を、前記画像データに基づいて取得する第2取得手段と、前記第1取得手段によって取得された前記第1情報と、前記第2取得手段によって取得された前記第2情報とに基づく第3情報を、前記第1判断手段によって前記対象物が前記所定領域内にあると判断される度に決定する決定手段と、前記決定手段によって決定された前記第3情報を、決定された順序を示す順序情報と関連付けて第1記憶部に記憶する記憶手段と、前記第1記憶部に記憶された複数の第3情報のうち1の第3情報と、前記1の第3情報に関連付けられた順序情報によって示される順序よりも後の順序を示す順序情報に関連付けられた他の第3情報とに基づいて、前記1の第3情報に対応する第1情報が前記第1取得手段によって取得されてから、前記他の第3情報に対応する第1情報が前記第1取得手段によって取得されるまでの間に、前記第1位置と前記第2位置との位置関係が変化したかを判断する第2判断手段と、前記第2判断手段によって、前記位置関係が変化したと判断された場合、少なくとも前記他の第3情報に基づいて決定される位置を示す軌跡情報を前記表示部に繰り返し表示する第1表示手段と、前記第1記憶部に記憶された前記複数の第3情報に基づいて、夫々の第3情報に対応する前記第2位置を、対応する第1位置によって補正した複数の補正位置の変化の傾向が所定の条件を満たしているか判断する第3判断手段と、前記第3判断手段によって、前記所定の条件を満たしていると判断された場合、対応する処理を実行する実行手段とを備え、前記第3情報は、前記位置関係に対応する情報であることを特徴とする。   The head-mounted display according to the first aspect of the present invention images a predetermined area including at least a display unit capable of emitting image light in a first direction and a second direction area opposite to the first direction. An imaging unit capable of outputting image data, first determination means for repeatedly determining whether there is a predetermined object in the predetermined area based on the image data output from the imaging unit, and the first determination When it is determined by the means that the object is within the predetermined area, first information indicating a first position that is a position corresponding to the photographing direction of the photographing unit is acquired based on the output of the detecting unit. Acquired by the first acquisition means, the second acquisition means for acquiring the second information indicating the second position, which is the relative position of the object with respect to the predetermined area, based on the image data, and the first acquisition means. Said first Determination means for determining third information based on the information and the second information acquired by the second acquisition means each time the first determination means determines that the object is within the predetermined area. Storage means for storing the third information determined by the determination means in association with order information indicating the determined order in a first storage unit, and a plurality of third information stored in the first storage unit Based on the third information of one of the information and the other third information associated with the order information indicating the order after the order indicated by the order information associated with the first third information, From the time when the first information corresponding to the third information is acquired by the first acquisition means until the time when the first information corresponding to the other third information is acquired by the first acquisition means, Between the first position and the second position. A second determination unit that determines whether the positional relationship has changed, and a position determined based on at least the other third information when the second determination unit determines that the positional relationship has changed. Corresponding to the second position corresponding to each third information based on the first display means for repeatedly displaying the trajectory information on the display unit and the plurality of third information stored in the first storage unit It is determined that the predetermined condition is satisfied by the third determination means for determining whether the tendency of the change in the plurality of correction positions corrected by the first position to satisfy the predetermined condition and the third determination means In this case, an execution unit that executes a corresponding process is provided, and the third information is information corresponding to the positional relationship.

第1態様によれば、ヘッドマウントディスプレイは、第1情報と第2情報とに基づいて第3情報を決定し、第1記憶部に記憶する。第3情報は、第1位置(撮影部の撮影方向に対応する位置)と第2位置(所定領域に対する対象物の相対位置)との位置関係を示す情報である。第1位置は、撮影部の撮影方向が変化することに応じて変化する。このため、第1位置と第2位置との位置関係の経時的な変化は、撮影部の撮影方向が変化した場合でも、実際の対象物の動きを示す。ヘッドマウントディスプレイは、第2位置を第1位置によって補正した補正位置の経時的な変化の傾向が所定の条件を満たす場合、対応する処理を実行する。従ってヘッドマウントディスプレイは、撮影部の撮影方向が変化した場合でも、対象物の動きを正確に検出し、対応する処理を実行できる。   According to the first aspect, the head mounted display determines the third information based on the first information and the second information, and stores the third information in the first storage unit. The third information is information indicating the positional relationship between the first position (position corresponding to the photographing direction of the photographing unit) and the second position (relative position of the object with respect to the predetermined area). The first position changes according to a change in the shooting direction of the shooting unit. For this reason, the temporal change in the positional relationship between the first position and the second position indicates the actual movement of the object even when the shooting direction of the shooting unit changes. The head mounted display performs a corresponding process when the tendency of the correction position with the second position corrected by the first position over time satisfies a predetermined condition. Therefore, the head mounted display can accurately detect the movement of the object and execute the corresponding process even when the shooting direction of the shooting unit changes.

第1態様において、前記第3情報は、前記第1位置に対する前記第2位置の相対位置を示す情報であってもよい。この場合、ヘッドマウントディスプレイは、第3情報に基づいて、第1位置と第2位置との位置関係を容易に特定できる。   In the first aspect, the third information may be information indicating a relative position of the second position with respect to the first position. In this case, the head mounted display can easily specify the positional relationship between the first position and the second position based on the third information.

第1態様において、n番目(nは2以上の自然数)の軌跡情報を、前記決定手段によってn番目に決定された第3情報に対応する第2位置に表示する第2表示手段を備え、前記第1表示手段は、前記表示部に表示された1からn−1番目の夫々の軌跡情報を消去する第1消去手段と、1からn−1番目の夫々に決定された第3情報に対応する第2位置を、n番目に決定された第3情報に対応する第1位置に基づいて補正し、補正した第2位置に前記軌跡情報を表示する修正手段とを備えてもよい。この場合、ヘッドマウントディスプレイは、ユーザに対し、撮影部の撮影方向の変化分が反映された軌跡情報を認識させることができる。このためユーザは、所定の条件を満たすように対象物を移動させることが容易に可能となる。   In the first aspect, the apparatus includes second display means for displaying n-th (n is a natural number of 2 or more) trajectory information at a second position corresponding to the third information determined by the determination means. The first display means corresponds to the first erasing means for erasing the 1st to (n-1) th trajectory information displayed on the display unit, and the 1st to (n-1) th determined third information. Correction means for correcting the second position to be corrected based on the first position corresponding to the n-th determined third information, and displaying the trajectory information at the corrected second position. In this case, the head mounted display can make the user recognize the trajectory information reflecting the change in the shooting direction of the shooting unit. For this reason, the user can easily move the object so as to satisfy the predetermined condition.

第1態様において、前記第1表示手段は、前記決定手段によってn番目(nは2以上の自然数)に決定された前記第3情報に対応する第2位置を、1番目に決定された第3情報に対応する第1位置に基づいて補正し、補正した第2位置に前記軌跡情報を表示してもよい。この場合、ヘッドマウントディスプレイは、ユーザに対し、撮影部の撮影方向の変化分が反映された軌跡情報を認識させることができる。このためユーザは、所定の条件を満たすように対象物を移動させることが容易に可能となる。   In the first aspect, the first display means has a third position in which the second position corresponding to the third information determined nth (n is a natural number of 2 or more) determined by the determination means is determined first. Correction may be made based on the first position corresponding to the information, and the locus information may be displayed at the corrected second position. In this case, the head mounted display can make the user recognize the trajectory information reflecting the change in the shooting direction of the shooting unit. For this reason, the user can easily move the object so as to satisfy the predetermined condition.

第1態様において、前記第1判断手段によって前記所定領域内に前記対象物がないと判断される状態が所定の第1時間以上継続した場合であって、前記表示部に前記軌跡情報が表示されている場合に、前記軌跡情報を消去する第2消去手段を備えてもよい。この場合、ヘッドマウントディスプレイは、ユーザにとって不要な軌跡情報を表示部から消去できる。   In the first aspect, the locus information is displayed on the display unit when the state in which the first determination unit determines that the object is not present in the predetermined region continues for a predetermined first time or longer. A second erasing unit for erasing the trajectory information. In this case, the head mounted display can erase the trajectory information unnecessary for the user from the display unit.

第1態様において、前記第2判断手段によって前記位置関係が移動しないと判断される状態が所定の第2時間以上継続した場合であって、前記表示部に前記軌跡情報が表示されている場合に、前記軌跡情報を消去する第3消去手段を備えてもよい。この場合、ヘッドマウントディスプレイは、ユーザにとって不要な軌跡情報を表示部から消去できる。   In the first aspect, when the state in which the positional relationship is determined not to move by the second determination unit continues for a predetermined second time or more, and the trajectory information is displayed on the display unit A third erasing unit for erasing the trajectory information may be provided. In this case, the head mounted display can erase the trajectory information unnecessary for the user from the display unit.

第1態様において、前記第3判断手段によって、前記複数の補正位置の変化の傾向が所定の条件を満たしていると判断された場合に、前記軌跡情報を消去する第4消去手段を備えてもよい。この場合、ヘッドマウントディスプレイは、ユーザにとって不要な軌跡情報を表示部から消去できる。   In the first aspect, there is provided fourth erasing means for erasing the trajectory information when the third judgment means judges that the tendency of change of the plurality of correction positions satisfies a predetermined condition. Good. In this case, the head mounted display can erase the trajectory information unnecessary for the user from the display unit.

第1態様において、前記第3判断手段は、第2記憶部に記憶されたテンプレートデータによって示される特定の形状と、前記複数の補正位置の変化の傾向とが一致するかを判断することによって、前記複数の補正位置の変化の傾向が所定の条件を満たしているか判断してもよい。この場合、ヘッドマウントディスプレイは、複数の補正位置の変化の傾向が所定の条件を満たしているかを適切に判断できる。   In the first aspect, the third determining means determines whether the specific shape indicated by the template data stored in the second storage unit matches the tendency of change in the plurality of correction positions, It may be determined whether the tendency of change of the plurality of correction positions satisfies a predetermined condition. In this case, the head mounted display can appropriately determine whether the tendency of the change in the plurality of correction positions satisfies a predetermined condition.

第1態様において、前記実行手段は、前記複数の補正位置の変化の傾向と一致すると判断された特定の形状を示すテンプレートデータに関連付けられた特定の処理を実行してもよい。この場合、ヘッドマウントディスプレイは、対象物の動きに対応する処理を容易に判断し、処理を実行できる。   In the first aspect, the execution means may execute a specific process associated with template data indicating a specific shape that is determined to match the tendency of change in the plurality of correction positions. In this case, the head mounted display can easily determine the process corresponding to the movement of the object and execute the process.

第1態様において、前記第1取得手段は、前記画像データに基づき、前記所定領域内に含まれる比較物の位置を示す情報を、前記第1情報として取得してもよい。この場合、ヘッドマウントディスプレイは、撮影部の撮影方向に対応する位置を第1情報として適切に取得できる。   In the first aspect, the first acquisition unit may acquire, as the first information, information indicating a position of a comparison object included in the predetermined area based on the image data. In this case, the head mounted display can appropriately acquire the position corresponding to the shooting direction of the shooting unit as the first information.

第1態様において、前記第1取得手段は、前記画像データに基づき、複数の第1情報を取得してもよい。この場合、ヘッドマウントディスプレイは、撮影部の撮影方向を、複数の第1情報に基づいて正確に特定できる。   In the first aspect, the first acquisition unit may acquire a plurality of first information based on the image data. In this case, the head mounted display can accurately specify the shooting direction of the shooting unit based on the plurality of pieces of first information.

第1態様において、前記複数の第1情報は、前記画像データによって示される撮影画像の四隅の夫々の近傍位置を示してもよい。この場合、ヘッドマウントディスプレイは、撮影部の撮影方向を、撮影画像の四隅の夫々の位置を示す複数の第1情報に基づいて更に正確に特定できる。   In the first aspect, the plurality of pieces of first information may indicate positions near the four corners of the captured image indicated by the image data. In this case, the head mounted display can more accurately specify the shooting direction of the shooting unit based on a plurality of pieces of first information indicating the positions of the four corners of the shot image.

本発明の第2態様に係る制御プログラムは、表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域内が、撮影部によって撮影された場合に、前記撮影部から出力される画像データに基づいて、前記所定領域内に所定の対象物があるかを繰り返し判断する第1判断ステップと、前記第1判断ステップによって前記対象物が前記所定領域内にあると判断された場合に、検出部の出力に基づいて、前記撮影部の撮影方向に対応する位置である第1位置を示す第1情報を取得する第1取得ステップと、前記所定領域に対する前記対象物の相対位置である第2位置を示す第2情報を、前記画像データに基づいて取得する第2取得ステップと、前記第1取得ステップによって取得された前記第1情報と、前記第2取得ステップによって取得された前記第2情報とに基づく第3情報を、前記第1判断ステップによって前記対象物が前記所定領域内にあると判断される度に決定する決定ステップと、前記決定ステップによって決定された前記第3情報を、決定された順序を示す順序情報と関連付けて第1記憶部に記憶する記憶ステップと、前記第1記憶部に記憶された複数の第3情報のうち1の第3情報と、前記1の第3情報に関連付けられた順序情報によって示される順序よりも後の順序を示す順序情報に関連付けられた他の第3情報とに基づいて、前記1の第3情報に対応する第1情報が前記第1取得ステップによって取得されてから、前記他の第3情報に対応する第1情報が前記第1取得ステップによって取得されるまでの間に、前記第1位置と前記第2位置との位置関係が変化したかを判断する第2判断ステップと、前記第2判断ステップによって、前記位置関係が変化したと判断された場合、少なくとも前記他の第3情報に基づいて決定される位置を示す軌跡情報を表示部に繰り返し表示する第1表示ステップと、前記第1記憶部に記憶された前記複数の第3情報に基づいて、夫々の第3情報に対応する前記第2位置を、対応する第1位置によって補正した複数の補正位置の変化の傾向が所定の条件を満たしているか判断する第3判断ステップと、前記第3判断ステップによって、所定の条件を満たしていると判断された場合、対応する処理を実行する実行ステップとを、ヘッドマウントディスプレイのコンピュータに実行させる。第2態様によれば、第1態様と同様の効果を奏することができる。   The control program according to the second aspect of the present invention is such that the imaging unit captures a predetermined area including at least a region in the second direction that is opposite to the first direction in which the display unit can emit image light. A first determination step of repeatedly determining whether or not there is a predetermined object in the predetermined area based on image data output from the imaging unit; and the object is within the predetermined area by the first determination step. A first acquisition step of acquiring first information indicating a first position, which is a position corresponding to the shooting direction of the shooting unit, based on the output of the detection unit; A second acquisition step of acquiring second information indicating a second position, which is a relative position of the object, based on the image data; the first information acquired by the first acquisition step; A determination step of determining third information based on the second information acquired by the acquisition step every time the first determination step determines that the object is in the predetermined area; and A step of storing the determined third information in the first storage unit in association with the sequence information indicating the determined order; and a first one of the plurality of third information stored in the first storage unit 3 information and the other third information associated with the order information indicating the order after the order indicated by the order information associated with the first third information. Before the first information corresponding to the other third information is acquired by the first acquisition step after the corresponding first information is acquired by the first acquisition step, the first position and the previous position A second determination step for determining whether or not the positional relationship with the second position has changed; and when the second determination step determines that the positional relationship has changed, the determination is based on at least the other third information. The second display corresponding to each of the third information based on the first display step of repeatedly displaying the trajectory information indicating the position to be displayed on the display unit and the plurality of third information stored in the first storage unit. If the predetermined condition is satisfied by the third determination step of determining whether the tendency of the change of the plurality of correction positions corrected by the corresponding first position satisfies the predetermined condition and the third determination step If it is determined, the execution step of executing the corresponding process is executed by the computer of the head mounted display. According to the 2nd aspect, there can exist an effect similar to a 1st aspect.

HMD1の斜視図である。It is a perspective view of HMD1. HMD1の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of HMD1. 光景25(25A〜25J)を示す図である。It is a figure which shows the scene 25 (25A-25J). メイン処理のフローチャートである。It is a flowchart of a main process. 修正処理のフローチャートである。It is a flowchart of a correction process. 撮影画像31を示す図である。It is a figure which shows the picked-up image 31. FIG. テーブル541を示す図である。It is a figure which shows the table 541. FIG. テーブル521を示す図である。It is a figure which shows the table 521. 軌跡画像26(26F〜26J、261〜270)を示す図である。It is a figure which shows the locus | trajectory image 26 (26F-26J, 261-270). 変形例における修正処理のフローチャートである。It is a flowchart of the correction process in a modification. 変形例におけるテーブル521を示す図である。It is a figure which shows the table 521 in a modification. 変形例における軌跡画像26(26F〜26J、281〜284)を示す図である。It is a figure which shows the locus | trajectory image 26 (26F-26J, 281-284) in a modification.

以下、本発明を具体化した実施形態について、図面を参照して説明する。図1を参照し、ヘッドマウントディスプレイ(以下、HMDという。)1の概要を説明する。HMD1は、投影装置(以下、ヘッドディスプレイ又はHDという。)10及び制御装置(以下、コントロールボックス又はCBという。)50を備える。以下の説明において、図1の上方、下方、右斜め下方、左斜め上方、右斜め上方及び左斜め下方が夫々、HMD1の上方、下方、前方、後方、右方及び左方である。実施形態において、種々の構成における位置関係及び方向関係の理解を助けるため、関連する図面において、HMD1の上方、下方、前方、後方、右方及び左方は、3次元デカルト座標系の軸を参照して説明される。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Embodiments of the invention will be described below with reference to the drawings. An outline of a head mounted display (hereinafter referred to as HMD) 1 will be described with reference to FIG. The HMD 1 includes a projection device (hereinafter referred to as a head display or HD) 10 and a control device (hereinafter referred to as a control box or CB) 50. In the following description, the upper, lower, right diagonally downward, left diagonally upward, right diagonally upward and left diagonally downward of FIG. 1 are the upper, lower, forward, backward, right and left sides of the HMD 1, respectively. In the embodiment, in order to help understanding the positional relationship and the directional relationship in various configurations, in the related drawings, the upper, lower, front, rear, right, and left sides of the HMD 1 refer to the axes of the three-dimensional Cartesian coordinate system. Explained.

HD10の概要を説明する。HD10は、専用の装着具である眼鏡5に取り付けられる。ユーザは、HD10が取り付けられた眼鏡5をかけることによって、HD10を頭部に装着して使用する。HD10は、画像光を後方に向けて照射できる。画像光は、HD10を装着したユーザの左眼に入射する。HD10は、ハーネス7を介してCB50と着脱可能に接続する。HD10は、筐体2、ハーフミラー3、画像表示部14(図2参照)、接眼光学系(図示略)、カメラ20等を主な構成要素とする。   An outline of the HD 10 will be described. The HD 10 is attached to the spectacles 5 which is a dedicated wearing tool. The user wears the HD 10 on the head by using the glasses 5 to which the HD 10 is attached. The HD 10 can irradiate image light backward. The image light is incident on the left eye of the user wearing the HD 10. The HD 10 is detachably connected to the CB 50 via the harness 7. The HD 10 includes a housing 2, a half mirror 3, an image display unit 14 (see FIG. 2), an eyepiece optical system (not shown), a camera 20, and the like as main components.

筐体2は、眼鏡5の右端部に設けられる。筐体2の左端側に、ハーフミラー3が設けられる。ハーフミラー3は、ユーザがHD10を頭部に装着した状態で、ユーザの左眼の前方に配置される。画像表示部14及び接眼光学系は、筐体2の内部に設けられる。画像表示部14及び接眼光学系の詳細は後述する。カメラ20は、筐体2の前面に設けられる。カメラ20は、筐体2の前方の外界の風景のうち、所定の大きさの領域(以下、所定領域という。)を撮像可能である。   The housing 2 is provided at the right end of the glasses 5. A half mirror 3 is provided on the left end side of the housing 2. The half mirror 3 is disposed in front of the user's left eye with the user wearing the HD 10 on the head. The image display unit 14 and the eyepiece optical system are provided inside the housing 2. Details of the image display unit 14 and the eyepiece optical system will be described later. The camera 20 is provided on the front surface of the housing 2. The camera 20 can capture an area of a predetermined size (hereinafter referred to as a predetermined area) in the external scenery in front of the housing 2.

画像表示部14は、液晶素子及び光源を備える。画像表示部14は、コンテンツ画像を表示することが可能である。コンテンツ画像は、静止画像又は動画像である。又、画像表示部14は、コンテンツ画像に撮影画像を重ねて表示することが可能である。撮影画像は、カメラ20によって撮影された画像である。画像表示部14は、CB50からハーネス7を介して送信される映像信号に基づいて、画像を表示する。接眼光学系は、画像表示部14に表示された画像を示す画像光を集光し、ハーフミラー3に射出する。接眼光学系から射出された画像光は、ハーフミラー3によって反射される。ハーフミラー3によって反射された画像光は、筐体2の後方(カメラ20の撮影方向と反対方向)に射出される。HMD1がユーザに装着されている状態で、画像光は、ユーザの左眼の眼球に入射する。又、ハーフミラー3は、外界の実像からの光を、ユーザの左眼に向けて透過する。HMD1は、ユーザの視野範囲内の実像(例えば、外界の風景等)に、画像表示部14に表示された画像を重ねた状態の光景を、ユーザに視認させることができる。   The image display unit 14 includes a liquid crystal element and a light source. The image display unit 14 can display a content image. The content image is a still image or a moving image. Further, the image display unit 14 can display the captured image superimposed on the content image. The captured image is an image captured by the camera 20. The image display unit 14 displays an image based on the video signal transmitted from the CB 50 via the harness 7. The eyepiece optical system condenses image light indicating the image displayed on the image display unit 14 and emits it to the half mirror 3. The image light emitted from the eyepiece optical system is reflected by the half mirror 3. The image light reflected by the half mirror 3 is emitted to the rear of the housing 2 (the direction opposite to the shooting direction of the camera 20). With the HMD 1 being worn by the user, the image light is incident on the left eyeball of the user. The half mirror 3 transmits light from the real image of the outside world toward the left eye of the user. The HMD 1 can allow a user to visually recognize a scene in which an image displayed on the image display unit 14 is superimposed on a real image (for example, an external scene or the like) within the visual field range of the user.

眼鏡5は、HD10をユーザの頭部に保持する。眼鏡5は、フレーム6及び支持部4を備える。フレーム6の形状は、通常の眼鏡と略同一であるので、詳細な説明は省略する。フレーム6のうち、左眼用レンズを支えるリム部の上面右端に、支持部4が設けられる。支持部4は、HD10の筐体2を保持する。支持部4は、筐体2の保持位置を上下方向及び左右方向に移動できる。ユーザは、筐体2を上下方向及び左右方向に移動させることによって、左眼の眼球の位置とハーフミラー3の位置とが前後方向に並ぶように位置を調整できる。   The glasses 5 hold the HD 10 on the user's head. The glasses 5 include a frame 6 and a support portion 4. Since the shape of the frame 6 is substantially the same as that of normal glasses, detailed description is omitted. A support 4 is provided at the right end of the upper surface of the rim that supports the left-eye lens in the frame 6. The support unit 4 holds the housing 2 of the HD 10. The support part 4 can move the holding position of the housing 2 in the vertical direction and the horizontal direction. The user can adjust the position so that the position of the eyeball of the left eye and the position of the half mirror 3 are aligned in the front-rear direction by moving the housing 2 in the vertical direction and the horizontal direction.

なお、HD10は、ユーザが日常的に使用する眼鏡、ヘルメット、ヘッドホンなど、他の装着具に取り付けられてもよい。画像表示部14は、他の空間変調素子であってもよい。例えば画像表示部14は、画像信号に応じた強度のレーザ光を2次元走査して画像表示を行う網膜走査型表示部、及び有機EL(Organic Electro-luminescence)ディスプレイであってもよい。また、図1では支持部4及びHD10がフレーム6の右側に設けられるが、支持部4及びHD10は、フレーム6の右側に設けられてもよい。この場合、HMD1がユーザに装着されている状態で、画像光は、ユーザの右眼の眼球に入射する。   The HD 10 may be attached to other wearing tools such as glasses, helmets, and headphones that are used on a daily basis by the user. The image display unit 14 may be another spatial modulation element. For example, the image display unit 14 may be a retinal scanning display unit that performs two-dimensional scanning with laser light having an intensity corresponding to an image signal, and an organic EL (Organic Electro-luminescence) display. In FIG. 1, the support unit 4 and the HD 10 are provided on the right side of the frame 6, but the support unit 4 and the HD 10 may be provided on the right side of the frame 6. In this case, the image light is incident on the right eyeball of the user while the HMD 1 is attached to the user.

又、本実施形態において、HD10は、画像表示部14に表示された画像を外界の実像に重ねた状態の光景をユーザに視認させる機能を有する、所謂光学シースルー型のヘッドディスプレイである。しかしながら本発明は、別の機能を有するヘッドディスプレイであってもよい。例えばHD10は、外界の実像からの光をユーザの眼に入射させず、画像表示部14に表示された画像と、カメラによって撮像された外界の画像とをユーザに視認させる機能を有する、所謂ビデオシースルー型のヘッドディスプレイであってもよい。   In the present embodiment, the HD 10 is a so-called optical see-through head display having a function of allowing a user to visually recognize a scene in which an image displayed on the image display unit 14 is superimposed on a real image of the outside world. However, the present invention may be a head display having another function. For example, the HD 10 is a so-called video that has a function of allowing a user to visually recognize an image displayed on the image display unit 14 and an image of the outside world captured by the camera without causing light from the real image of the outside world to enter the user's eyes. A see-through type head display may be used.

又、本実施形態において、カメラ20は筐体2の前面に設けられているが、カメラ20は筐体2から着脱可能であってもよい。例えばカメラ20は、HD10の前面方向を撮影可能な状態で、眼鏡5のフレーム6に直接取り付けられてもよい。   In this embodiment, the camera 20 is provided on the front surface of the housing 2, but the camera 20 may be detachable from the housing 2. For example, the camera 20 may be directly attached to the frame 6 of the glasses 5 in a state where the front direction of the HD 10 can be photographed.

CB50の概要を説明する。CB50は、例えばユーザの腰ベルトや腕等に取り付けられる。CB50はHD10を制御する。CB50は、ハーネス7を介してHD10と着脱可能に接続する。CB50は、筐体60、操作スイッチ61、電源スイッチ62等を主な構成要素とする。筐体60の形状は、縁部の丸い略直方体である。操作スイッチ61は、HD10における各種設定や、使用時における各種操作等を行う為のスイッチである。電源スイッチ62は、HMD1の電源をオン又はオフにする為のスイッチである。電源スイッチ62には、電源ランプ63が内蔵される。   An outline of the CB 50 will be described. CB50 is attached to a user's waist belt, an arm, etc., for example. The CB 50 controls the HD 10. The CB 50 is detachably connected to the HD 10 via the harness 7. The CB 50 includes a casing 60, an operation switch 61, a power switch 62, and the like as main components. The shape of the housing 60 is a substantially rectangular parallelepiped with rounded edges. The operation switch 61 is a switch for performing various settings in the HD 10 and various operations during use. The power switch 62 is a switch for turning on or off the power of the HMD 1. The power switch 62 incorporates a power lamp 63.

図2を参照し、HMD1の電気的構成を説明する。はじめに、HD10の電気的構成を説明する。HD10は、HD10全体の制御を行うCPU11を備える。CPU11は、RAM12、プログラムROM13、画像表示部14、インターフェイス15、及び接続コントローラ19に電気的に接続される。CPU11は、インターフェイス15を介してカメラ20に電気的に接続される。RAM12は、各種データを一時的に記憶する。プログラムROM13は、CPU11が実行するプログラムを記憶する。プログラムROM13はOSを記憶する。プログラムはOS上で実行される。プログラム及びOSは、HMD1の出荷時にプログラムROM13に記憶される。画像表示部14は、コンテンツ画像及び撮影画像の少なくとも一方を表示できる。インターフェイス15はカメラ20に接続し、信号の入出力を制御する。接続コントローラ19は、ハーネス7を介してCB50の接続コントローラ58に接続し、有線通信を行う。   The electrical configuration of the HMD 1 will be described with reference to FIG. First, the electrical configuration of the HD 10 will be described. The HD 10 includes a CPU 11 that controls the entire HD 10. The CPU 11 is electrically connected to the RAM 12, the program ROM 13, the image display unit 14, the interface 15, and the connection controller 19. The CPU 11 is electrically connected to the camera 20 via the interface 15. The RAM 12 temporarily stores various data. The program ROM 13 stores a program executed by the CPU 11. The program ROM 13 stores the OS. The program is executed on the OS. The program and the OS are stored in the program ROM 13 when the HMD 1 is shipped. The image display unit 14 can display at least one of a content image and a captured image. The interface 15 is connected to the camera 20 and controls input / output of signals. The connection controller 19 is connected to the connection controller 58 of the CB 50 via the harness 7 and performs wired communication.

なお、HD10は、フラッシュROMを更に備えてもよい。フラッシュROMには、CPU11が実行するプログラムが記憶されてもよい。CPU11は、フラッシュROMに記憶されたプログラムを実行してもよい。プログラムROM13及びフラッシュROMには、CB50のCPU51が実行するプログラムが記憶されてもよい。CPU11は、CB50のCPU51が実行する処理と同じ処理を、CPU51の代わりに実行してもよい。   The HD 10 may further include a flash ROM. The flash ROM may store a program executed by the CPU 11. The CPU 11 may execute a program stored in the flash ROM. The program executed by the CPU 51 of the CB 50 may be stored in the program ROM 13 and the flash ROM. The CPU 11 may execute the same process as the process executed by the CPU 51 of the CB 50 instead of the CPU 51.

CB50の電気的構成を説明する。CB50は、CB50全体の制御を行うCPU51を備える。CPU51は、RAM52、プログラムROM53、フラッシュROM54、インターフェイス55、ビデオRAM56、画像処理部57、接続コントローラ58、及び無線通信部59に電気的に接続される。RAM52は、各種データを一時的に記憶する。RAM52は、テーブル521(図8参照)を記憶する。プログラムROM53は、CPU51が実行するプログラムを記憶する。プログラムROM53はOSを記憶する。プログラムはOS上で実行される。プログラム及びOSは、HMD1の出荷時にプログラムROM53に記憶される。フラッシュROM54は、テーブル541(図7参照)を記憶する。   The electrical configuration of the CB 50 will be described. The CB 50 includes a CPU 51 that controls the entire CB 50. The CPU 51 is electrically connected to the RAM 52, program ROM 53, flash ROM 54, interface 55, video RAM 56, image processing unit 57, connection controller 58, and wireless communication unit 59. The RAM 52 temporarily stores various data. The RAM 52 stores a table 521 (see FIG. 8). The program ROM 53 stores a program executed by the CPU 51. The program ROM 53 stores the OS. The program is executed on the OS. The program and OS are stored in the program ROM 53 when the HMD 1 is shipped. The flash ROM 54 stores a table 541 (see FIG. 7).

インターフェイス55は、操作スイッチ61及び電源スイッチ62に接続し、信号の入出力を制御する。画像処理部57は、HD10の画像表示部14に表示する画像を形成し、ビデオRAM56に記憶する。ビデオRAM56は、画像処理部57によって形成された画像を一時的に記憶する。接続コントローラ58は、ハーネス7を介してHD10の接続コントローラ19に接続し、有線通信を行う。無線通信部59は、インターネット、LAN等に接続されたアクセスポイント(図示略)を介して、インターネット、LAN等に接続された周辺機器と通信を行う。周辺機器の例として、パーソナルコンピュータ、スマートフォン、タブレット型携帯端末、サーバ等が挙げられる。   The interface 55 is connected to the operation switch 61 and the power switch 62 and controls signal input / output. The image processing unit 57 forms an image to be displayed on the image display unit 14 of the HD 10 and stores it in the video RAM 56. The video RAM 56 temporarily stores the image formed by the image processing unit 57. The connection controller 58 is connected to the connection controller 19 of the HD 10 via the harness 7 and performs wired communication. The wireless communication unit 59 communicates with peripheral devices connected to the Internet, LAN, and the like via an access point (not shown) connected to the Internet, LAN, and the like. Examples of peripheral devices include personal computers, smartphones, tablet portable terminals, servers, and the like.

なお、CB50のフラッシュROM54に、CPU51が実行するプログラムが記憶されてもよい。CPU51は、フラッシュROM54に記憶されたプログラムを実行してもよい。プログラムROM53及びフラッシュROM54には、HD10のCPU11が実行するプログラムが記憶されてもよい。CPU51は、HD10のCPU11が実行する処理と同じ処理を、CPU11の代わりに実行してもよい。   Note that a program executed by the CPU 51 may be stored in the flash ROM 54 of the CB 50. The CPU 51 may execute a program stored in the flash ROM 54. The program executed by the CPU 11 of the HD 10 may be stored in the program ROM 53 and the flash ROM 54. The CPU 51 may execute the same process as the process executed by the CPU 11 of the HD 10 instead of the CPU 11.

なお、HMD1は、プログラム及びOSを、無線通信部59を介してプログラムダウンロード用のサーバからダウンロードし、インストールしてもよい。例えば、プログラム及びOSは、コンピュータで読み取り可能な一時的な記憶媒体(例えば、伝送信号)として、サーバからHMD1に送信されてもよい。プログラムは、HMD1が備えるコンピュータで読み取り可能な記憶装置、例えば、フラッシュROMに保存されてもよい。CPU11は、フラッシュROMに記憶されたプログラムに基づいてプログラムを実行してもよい。CPU51は、フラッシュROM54に記憶されたプログラムに基づいてプログラムを実行してもよい。但し、記憶装置は、例えばROM、フラッシュROM、HDD、RAMなどの、一時的な記憶媒体を除く記憶媒体であってもよい。また、記憶装置は、非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、データを記憶する時間の長さに関わらず、データを留めておくことが可能なものであってもよい。   The HMD 1 may download and install the program and the OS from the program download server via the wireless communication unit 59. For example, the program and the OS may be transmitted from the server to the HMD 1 as a computer-readable temporary storage medium (for example, a transmission signal). The program may be stored in a computer-readable storage device provided in the HMD 1, for example, a flash ROM. The CPU 11 may execute a program based on a program stored in the flash ROM. The CPU 51 may execute a program based on the program stored in the flash ROM 54. However, the storage device may be a storage medium other than a temporary storage medium such as a ROM, a flash ROM, an HDD, or a RAM. Further, the storage device may be a non-temporary storage medium. The non-transitory storage medium may be capable of retaining data regardless of the length of time for storing the data.

HMD1の構成は上記実施形態に限定されず、例えば、HD10とCB50とが一体となった構成であってもよい。HD10のCPU11とCB50のCPU51とは、ハーネス7の代わりに無線によって通信を行ってもよい。   The configuration of the HMD 1 is not limited to the above embodiment, and may be a configuration in which the HD 10 and the CB 50 are integrated, for example. The CPU 11 of the HD 10 and the CPU 51 of the CB 50 may communicate wirelessly instead of the harness 7.

HMD1は、カメラ20によって撮影される所定領域内でユーザの指先が移動した時の指先の位置の経時的な変化の傾向が、所定の条件を満たすと判断した場合、対応する処理を実行する。対応する処理の具体例として、各種設定処理、画像表示部14に表示されたコンテンツ画像の切り替え、コンテンツ画像のスクロール、電源制御等が挙げられる。ユーザは、所望する処理をHMD1に実行させる為に、所定の条件を満たすように指先を移動させる必要がある。HMD1は、ユーザが指先の位置の経時的な変化を認識し易いように、指先の位置を示す軌跡画像を、指先の位置を特定したタイミングで繰り返し画像表示部14に表示する。なお、本実施形態では、画像表示部14に表示される画像は軌跡画像のみであり、カメラ20によって撮影された撮影画像は画像表示部14に表示されないことを前提とする。   When the HMD 1 determines that the tendency of the fingertip position over time when the user's fingertip moves within a predetermined area captured by the camera 20 satisfies a predetermined condition, the HMD 1 executes a corresponding process. Specific examples of the corresponding processing include various setting processing, switching of content images displayed on the image display unit 14, scrolling of content images, power control, and the like. The user needs to move the fingertip so as to satisfy a predetermined condition in order to cause the HMD 1 to execute a desired process. The HMD 1 repeatedly displays a trajectory image indicating the position of the fingertip on the image display unit 14 at the timing when the position of the fingertip is specified so that the user can easily recognize a change with time of the position of the fingertip. In the present embodiment, it is assumed that the image displayed on the image display unit 14 is only a trajectory image, and the captured image captured by the camera 20 is not displayed on the image display unit 14.

図3を参照して具体的に説明する。なお以下では、説明を容易とする為、HD10のCPU11によって実行される処理と、CB51のCPU51によって実行される処理とを区別せず、HMD1によって実行される処理として説明する。実際には、以下の処理はCPU11、51の夫々に割り当てられ、夫々によって実行される。詳細は、図4、図5のフローチャートを参照し、後述にて説明する。   This will be specifically described with reference to FIG. In the following, for ease of explanation, the processing executed by the CPU 11 of the HD 10 and the processing executed by the CPU 51 of the CB 51 are not distinguished from each other and will be described as processing executed by the HMD 1. Actually, the following processing is assigned to each of the CPUs 11 and 51 and executed by each of them. Details will be described later with reference to the flowcharts of FIGS.

図3は、HD10を装着したユーザによって視認される光景25を示す。光景25には実像22(22A、22F〜22J)が含まれる。実像22にはユーザの手23が含まれる。実像22は、ユーザの視野範囲内の実像からの光が、ハーフミラー3を透過してユーザの左眼に到達することによって、ユーザが視認する像である。又、画像表示部14に画像が表示された場合、実像22に画像が重ねられる。これによってユーザは、視野範囲内の実像22と画像との両方を視認できる。又、矩形状の点線で囲まれた領域は、カメラ20によって撮影される所定領域21(21A〜21J)を示す。   FIG. 3 shows a scene 25 visually recognized by a user wearing the HD 10. The scene 25 includes a real image 22 (22A, 22F to 22J). The real image 22 includes a user's hand 23. The real image 22 is an image visually recognized by the user when light from the real image within the visual field range of the user passes through the half mirror 3 and reaches the left eye of the user. When an image is displayed on the image display unit 14, the image is superimposed on the real image 22. Thereby, the user can visually recognize both the real image 22 and the image within the visual field range. An area surrounded by a rectangular dotted line indicates a predetermined area 21 (21A to 21J) photographed by the camera 20.

HMD1が、指先の位置が時間の経過とともに上から下に垂直に移動すると判断した時に、対応する処理(例えば、HMD1の設定処理等)を実行する場合を例に挙げる。HMD1は、カメラ20によって撮影された撮影画像を取得し、撮影画像に指先が含まれているか判断する。指先が含まれているかの判断方法の詳細は後述する。HMD1は、撮影画像に指先が含まれていると判断した場合、撮影画像に基づいて指先の位置を特定する。特定される指先の位置は、具体的には、カメラ20によって撮影される所定領域内の特定の位置を座標系の基準とした場合の座標情報である。   An example will be given in which the HMD 1 executes a corresponding process (for example, a setting process of the HMD 1) when it is determined that the position of the fingertip moves vertically from top to bottom as time passes. The HMD 1 acquires a captured image captured by the camera 20 and determines whether the fingertip is included in the captured image. Details of the method for determining whether a fingertip is included will be described later. When the HMD 1 determines that the fingertip is included in the captured image, the HMD 1 specifies the position of the fingertip based on the captured image. Specifically, the specified fingertip position is coordinate information when a specific position in a predetermined area photographed by the camera 20 is used as a reference of the coordinate system.

HMD1は、特定した指先の位置に基づいて、画像表示部14に軌跡画像26(26A〜26J)を表示させる。軌跡画像26は円形である。HMD1は、実像22に含まれる指先の位置に軌跡画像26が重なるように、画像表示部14に表示させる軌跡画像26の位置を調整する。指先が移動を開始する前の状態では、光景25Aで示されるように、ユーザは、実像22A内の手23の指先の位置に重ねられた軌跡画像26Aを視認できる。   The HMD 1 displays the trajectory image 26 (26A to 26J) on the image display unit 14 based on the specified fingertip position. The trajectory image 26 is circular. The HMD 1 adjusts the position of the trajectory image 26 displayed on the image display unit 14 so that the trajectory image 26 overlaps the position of the fingertip included in the real image 22. In a state before the fingertip starts to move, the user can visually recognize the trajectory image 26A superimposed on the position of the fingertip of the hand 23 in the real image 22A, as shown by the scene 25A.

HMD1は、カメラ20によって撮影された撮影画像を繰り返し取得し、撮影画像に含まれている指先の位置を繰り返し特定する。HMD1は、画像表示部14に軌跡画像26を繰り返し表示する。ユーザが指先を上から下に向けて垂直方向に移動させた場合、HMD1は、異なる指先の位置を複数特定する。HMD1は、特定した複数の位置に基づいて、画像表示部14に軌跡画像26B〜26Eを順番に表示させる。なおこの場合、HMD1は、画像表示部14に一旦表示させた軌跡画像26を消去しない。このためユーザは、光景25A〜25Eの夫々で示されるように、指先を上から下に向けて垂直方向に移動させたことに伴って徐々に増加する軌跡画像26A〜26Eを視認する。従ってユーザは、軌跡画像26A〜26Eを視認することによって、指先が上から下に向けて垂直に移動していることを容易に把握できる。   The HMD 1 repeatedly acquires a captured image captured by the camera 20 and repeatedly specifies the position of the fingertip included in the captured image. The HMD 1 repeatedly displays the trajectory image 26 on the image display unit 14. When the user moves the fingertip from the top to the bottom in the vertical direction, the HMD 1 specifies a plurality of different fingertip positions. The HMD 1 causes the image display unit 14 to display the trajectory images 26B to 26E in order based on the plurality of specified positions. In this case, the HMD 1 does not erase the trajectory image 26 once displayed on the image display unit 14. For this reason, the user visually recognizes the trajectory images 26A to 26E that gradually increase as the fingertip is moved in the vertical direction from the top to the bottom as shown in each of the scenes 25A to 25E. Therefore, the user can easily grasp that the fingertip is moving vertically from top to bottom by visually recognizing the trajectory images 26A to 26E.

なお、HMD1は、画像表示部14に軌跡画像26B、26C、26D、26Eの夫々を表示させるタイミングで、軌跡画像26A−26B間、軌跡画像26B−26C間、軌跡画像26C−26D間、及び軌跡画像26D−26E間に延びる点線を、画像表示部14に表示してもよい。これによってユーザは、指先の経時的な動きを更に容易に把握できる。   In addition, HMD1 is the timing which displays each of locus image 26B, 26C, 26D, 26E on the image display part 14, between locus image 26A-26B, between locus image 26B-26C, between locus image 26C-26D, and locus | trajectory. A dotted line extending between the images 26 </ b> D- 26 </ b> E may be displayed on the image display unit 14. As a result, the user can more easily grasp the movement of the fingertip over time.

又、HMD1は、繰り返し特定した複数の指先の位置に基づいて、指先の位置が時間の経過とともに上から下に垂直に移動していると判断する。この場合、HMD1は、対応する処理を特定し、処理を実行する。このためユーザは、カメラ20によって撮影される所定領域内で指先を上から下に垂直に移動させることによって、HMD1に処理を実行させることができる。   Further, the HMD 1 determines that the position of the fingertip is moving vertically from top to bottom with the passage of time based on the positions of the plurality of fingertips identified repeatedly. In this case, the HMD 1 identifies the corresponding process and executes the process. Therefore, the user can cause the HMD 1 to execute processing by moving the fingertip vertically from the top to the bottom within a predetermined area photographed by the camera 20.

なお、カメラ20は、HD10の筐体2の前面に設けられており、HD10の前面方向の外界を撮影する。従ってユーザは、カメラ20によって指先が撮影されるように、目の前で指先を移動させる。ここで、HD10を装着したユーザが頭部の向きを変えた場合、カメラ20によって撮影される所定領域21も変化する。HD10を装着したユーザが頭部の向きを横方向に変化させた場合を例に挙げる。カメラ20によって撮影される所定領域は、所定領域21F〜21Jのように徐々に変化する。この時に、光景25A〜25Eの場合と同様にユーザが指先を上から下に向けて垂直方向に移動させた場合を例に挙げる。この場合、光景25F〜25Jで示されるように、実像22F〜22Jと指先との位置関係は、カメラ20の撮影方向が変化しても変化せず、光景25A〜25Eの場合と一致する。一方、所定領域21F〜21Jと実像22F〜22Jとの位置関係は、カメラ20の撮影方向が横方向に変化することに応じて横方向に変化する。従って、所定領域21F〜21Jに対する指先の相対位置は、カメラ20の撮影方向が横方向に変化したことに伴い、上下方向だけでなく横方向にも変化する。   The camera 20 is provided on the front surface of the housing 2 of the HD 10 and photographs the outside world in the front direction of the HD 10. Accordingly, the user moves the fingertip in front of the eyes so that the fingertip is photographed by the camera 20. Here, when the user wearing the HD 10 changes the orientation of the head, the predetermined area 21 photographed by the camera 20 also changes. A case where the user wearing the HD 10 changes the direction of the head in the horizontal direction will be described as an example. The predetermined area photographed by the camera 20 gradually changes like the predetermined areas 21F to 21J. At this time, as in the case of the scenes 25A to 25E, a case where the user moves the fingertip vertically from the top to the bottom will be described as an example. In this case, as indicated by the scenes 25F to 25J, the positional relationship between the real images 22F to 22J and the fingertip does not change even when the shooting direction of the camera 20 changes, and matches the case of the scenes 25A to 25E. On the other hand, the positional relationship between the predetermined areas 21F to 21J and the real images 22F to 22J changes in the horizontal direction in response to the shooting direction of the camera 20 changing in the horizontal direction. Accordingly, the relative position of the fingertip with respect to the predetermined areas 21F to 21J changes not only in the vertical direction but also in the horizontal direction as the shooting direction of the camera 20 changes in the horizontal direction.

HMD1は、カメラ20によって撮影される所定領域内の特定の位置を座標系の基準とした場合の座標情報を、指先の位置として特定する。HD10を装着したユーザが頭部の向きを横方向に変化させた場合には、カメラ20の撮影方向も変化するので、座標情報に対応する座標系の基準の位置は横方向に変化する。このためHMD1は、ユーザが指先を上から下に向けて垂直に移動させている場合でも、指先の位置が時間の経過とともに上から下に垂直に移動していると判断できない。このためHMD1は、対応する処理を特定できなくなる。   The HMD 1 specifies the coordinate information when a specific position in a predetermined area photographed by the camera 20 is used as a reference of the coordinate system as the position of the fingertip. When the user wearing the HD 10 changes the head direction in the horizontal direction, the shooting direction of the camera 20 also changes, so the reference position of the coordinate system corresponding to the coordinate information changes in the horizontal direction. For this reason, even when the user moves the fingertip vertically from the top to the bottom, the HMD 1 cannot determine that the position of the fingertip is moving vertically from top to bottom as time passes. For this reason, the HMD 1 cannot identify the corresponding process.

更に、光景25F〜25Jで示されるように、実像22F〜22Jに重ねられる軌跡画像26F〜22Jは、カメラ20の撮影方向が横方向に変化した場合、ユーザが指先を上から下に向けて垂直に移動させているにも関わらず、斜め方向に直線状に並んだ状態になる。従ってユーザは、指先が上から下に向けて垂直に移動させていることを把握し難くなる。   Further, as shown by the scenes 25F to 25J, the trajectory images 26F to 22J superimposed on the real images 22F to 22J are vertical when the user changes their fingertips from top to bottom when the shooting direction of the camera 20 changes in the horizontal direction. In spite of being moved to, it is in a state of being arranged in a straight line in an oblique direction. Therefore, it becomes difficult for the user to grasp that the fingertip is moving vertically from top to bottom.

このためHMD1は、以下の処理を行うことによって、カメラ20の撮影方向が変化した場合でも、指先の適切な位置を特定し、対応する処理を実行できるようにする。又、HMD1は、以下の処理を行うことによって、ユーザが指先の移動を適切に把握できるように、実像22に重ねる軌跡画像26の位置を調整する。以下では、はじめに、HD10のCPU11によって実行される処理の概要について説明する。次に、CPU51によって実行される処理について、図4、図5のフローチャートを参照して詳細に説明する。   For this reason, the HMD 1 performs the following processing to identify an appropriate position of the fingertip and execute the corresponding processing even when the shooting direction of the camera 20 changes. Further, the HMD 1 adjusts the position of the trajectory image 26 superimposed on the real image 22 so that the user can appropriately grasp the movement of the fingertip by performing the following processing. Below, the outline | summary of the process performed by CPU11 of HD10 is demonstrated first. Next, processing executed by the CPU 51 will be described in detail with reference to the flowcharts of FIGS.

HD1のCPU11によって実行される処理の概要について説明する。CB50の電源スイッチ62を介してHMD1の電源をオンする操作がされた場合、CPU11は次の処理を開始する。CPU11は、カメラ20による撮影を開始する。カメラ20は、撮影を開始した場合、所定領域内を撮影しながら画像データを継続的に出力する。以下、カメラ20から出力される画像データを、撮影画像データという。撮影画像データの画像形式は、Motion JPEG形式、Audio Video Interleave形式、QuickTime形式等である。CPU11は、カメラ20から出力される撮影画像データを、インターフェイス15を介して受信する。CPU11は、撮影画像データをCB50に送信する。   An outline of processing executed by the CPU 11 of the HD 1 will be described. When the operation of turning on the power of the HMD 1 is performed via the power switch 62 of the CB 50, the CPU 11 starts the next process. The CPU 11 starts shooting with the camera 20. When shooting starts, the camera 20 continuously outputs image data while shooting in a predetermined area. Hereinafter, the image data output from the camera 20 is referred to as photographed image data. The image format of the captured image data is a Motion JPEG format, an Audio Video Interleave format, a QuickTime format, or the like. The CPU 11 receives captured image data output from the camera 20 via the interface 15. The CPU 11 transmits the captured image data to the CB 50.

又、CPU11は、軌跡画像26(図3参照)の映像信号をCB50から受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14に軌跡画像26を表示させる。HD1を装着したユーザは、画像表示部14に表示された画像からの光がハーフミラー3を反射して左眼に入射することによって、軌跡画像26を視認する。なお、HD1を装着したユーザの左眼には、視野範囲内の実像22からの光がハーフミラー3を透過して入射するので、ユーザは、画像表示部14に表示された軌跡画像26が外界の実像22に重ねられた光景を視認する。   Further, the CPU 11 receives a video signal of the trajectory image 26 (see FIG. 3) from the CB 50. The CPU 11 displays the locus image 26 on the image display unit 14 by controlling the image display unit 14 based on the received video signal. A user wearing the HD1 visually recognizes the trajectory image 26 when light from the image displayed on the image display unit 14 reflects the half mirror 3 and enters the left eye. Since the light from the real image 22 within the visual field range is incident on the left eye of the user wearing the HD1 through the half mirror 3, the user can view the trajectory image 26 displayed on the image display unit 14 from the outside world. The scene superimposed on the real image 22 is visually recognized.

なお、上述において、カメラ20は、CB50に対して撮影画像データを直接送信してもよい。又、画像表示部14は、CB50から映像信号を直接受信してもよい。   In the above description, the camera 20 may directly transmit the captured image data to the CB 50. Further, the image display unit 14 may directly receive a video signal from the CB 50.

図4、図5を参照し、CB50のCPU51によって実行される処理の詳細について説明する。メイン処理は、電源スイッチ62を介してHMD1の電源をオンする操作がされた場合に、プログラムROM53に記憶されたプログラムをCPU51が実行することによって開始される。CPU51は、RAM52に記憶した変数nに0を代入して初期化する(S10)。nは、後述するテーブル541(図7参照)に情報を記憶する場合に、記憶された順序を示すインデックスとして対応付けられる。CPU51は、HD10から送信された撮影画像データを、接続コントローラ58を介して受信する(S11)。CPU51は、受信した撮影画像データをRAM52に記憶する。   Details of processing executed by the CPU 51 of the CB 50 will be described with reference to FIGS. 4 and 5. The main process is started when the CPU 51 executes a program stored in the program ROM 53 when an operation for turning on the power of the HMD 1 is performed via the power switch 62. The CPU 51 initializes the variable n stored in the RAM 52 by substituting 0 (S10). n is associated as an index indicating the stored order when information is stored in a table 541 (see FIG. 7) described later. The CPU 51 receives the captured image data transmitted from the HD 10 via the connection controller 58 (S11). The CPU 51 stores the received captured image data in the RAM 52.

CPU51は、RAM52に記憶した撮影画像データに基づいて解析を行い(S13)、撮影画像から指先を特定する。具体的には次の通りである。CPU51は、撮影画像データに対応する撮影画像から、肌色の領域を検出する。肌色領域の検出は、例えば、肌色に対応する所定の画素値(例えば、R=241,G=187,B=147)を有する画素が連続している領域と検出することで可能である。なお、所定の画素値は他の値であってもよく、所定の幅を有してもよい。CPU51は、検出した肌色の領域全体を囲う多角形を特定する。CPU51は、特定した多角形の形状と、プログラムROM53に予め記憶された指先特定用の画像テンプレートとに基づいて、周知のパターンマッチング処理を行う。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の形状の頂点を指先と特定する。なお、撮影画像に指先が含まれているかの判断方法は、上記方法に限定されない。   The CPU 51 performs analysis based on the captured image data stored in the RAM 52 (S13), and specifies the fingertip from the captured image. Specifically, it is as follows. The CPU 51 detects a skin color region from the captured image corresponding to the captured image data. The skin color area can be detected by, for example, detecting an area where pixels having predetermined pixel values (for example, R = 241, G = 187, B = 147) corresponding to the skin color are continuous. Note that the predetermined pixel value may be another value or may have a predetermined width. The CPU 51 identifies a polygon that surrounds the entire detected skin color area. The CPU 51 performs a well-known pattern matching process based on the specified polygonal shape and the fingertip specifying image template stored in advance in the program ROM 53. When the cross-correlation coefficient calculated by the pattern matching process is a value within a predetermined range, the CPU 51 determines that the pattern matching between the specified polygonal shape and the image template is successful. In this case, the CPU 51 specifies the vertex of the polygonal shape as the fingertip. Note that the method for determining whether the captured image includes the fingertip is not limited to the above method.

CPU51は、上記の方法で指先を特定できたか判断する(S15)。CPU51は、指先を特定できた場合、撮影画像に指先が含まれていると判断する(S15:YES)。CPU51は、nに1を加算する(S16)。CPU51は、撮影画像に指先が含まれていると判断してからの経過時間を計測する為のタイマ変数の更新を開始する(S17)。タイマ変数は、OSによって一定周期(例えば1ms)周期で1ずつ加算される。CPU51は、タイマ変数の値に基づいて、撮影画像に指先が含まれていると判断してからの経過時間を特定できる。   The CPU 51 determines whether the fingertip can be specified by the above method (S15). If the fingertip can be identified, the CPU 51 determines that the fingertip is included in the captured image (S15: YES). The CPU 51 adds 1 to n (S16). The CPU 51 starts updating a timer variable for measuring the elapsed time after determining that the fingertip is included in the captured image (S17). The timer variable is incremented by 1 at a constant cycle (for example, 1 ms) by the OS. Based on the value of the timer variable, the CPU 51 can specify the elapsed time since it is determined that the fingertip is included in the captured image.

CPU51は、特定された指先の位置を示す座標情報を特定する(S18)。座標情報の基準点は、カメラ20によって撮影される所定領域21(図3参照)内の左下の隅とされる。所定領域21の左右方向がX軸方向とされ、上下方向がY軸方向とされる。右方向及び上方向が正方向とされ、左方向及び下方向が負方向とされる。CPU51は、特定した座標情報をRAM52に記憶する。   The CPU 51 specifies coordinate information indicating the position of the specified fingertip (S18). The reference point of the coordinate information is the lower left corner in the predetermined area 21 (see FIG. 3) photographed by the camera 20. The left-right direction of the predetermined region 21 is the X-axis direction, and the vertical direction is the Y-axis direction. The right direction and the upward direction are positive directions, and the left direction and the downward direction are negative directions. The CPU 51 stores the specified coordinate information in the RAM 52.

CPU51は、S18で特定した座標情報に基づき、画像表示部14に軌跡画像26(図3参照)を表示させる為に、次の処理を行う。CPU51は、座標情報によって示される所定領域21内の位置に対応する実像22(図3参照)上の位置(指先の位置)を特定する。CPU51は、画像処理部57を駆動し、特定した実像22上の位置に表示する軌跡画像26を形成させ、ビデオRAM56に記憶させる。CPU51は、ビデオRAM56に記憶された軌跡画像26に基づいて映像信号を生成する。映像信号の形式は、Transition Minimized Differential Signaling(TMDS)、Low voltage differential signaling(LVDS)等である。CPU51は、接続コントローラ58を介してHD10に映像信号を送信する(S19)。なお、映像信号は、CPU51によって生成される場合に限らない。例えば映像信号は、ビデオRAM56に記憶されたコンテンツ画像に基づいて接続コントローラ19が生成してもよい。   The CPU 51 performs the following process to display the trajectory image 26 (see FIG. 3) on the image display unit 14 based on the coordinate information specified in S18. The CPU 51 specifies a position (fingertip position) on the real image 22 (see FIG. 3) corresponding to the position in the predetermined area 21 indicated by the coordinate information. The CPU 51 drives the image processing unit 57 to form a trajectory image 26 to be displayed at a position on the identified real image 22 and store it in the video RAM 56. The CPU 51 generates a video signal based on the trajectory image 26 stored in the video RAM 56. The format of the video signal is Transition Minimized Differential Signaling (TMDS), Low voltage differential signaling (LVDS), or the like. The CPU 51 transmits a video signal to the HD 10 via the connection controller 58 (S19). Note that the video signal is not limited to being generated by the CPU 51. For example, the connection controller 19 may generate the video signal based on the content image stored in the video RAM 56.

なお上記のように、HD10のCPU11は、CB50から送信された軌跡画像26の映像信号を、接続コントローラ19を介して受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14に軌跡画像26を表示させる。従って、CPU51は、HD10に対して映像信号を送信することによって、画像表示部14に軌跡画像を表示させていることになる。以下では、CPU51が画像処理部57を駆動して軌跡画像26を形成させ、形成された軌跡画像26をビデオRAM56に記憶させ、ビデオRAM56に記憶された軌跡画像26に基づいて映像信号を生成し、HD10に対して映像信号を送信することによって、画像表示部14に軌跡画像26を表示させることを、CPU51が画像表示部14に軌跡画像26を表示させるという。   As described above, the CPU 11 of the HD 10 receives the video signal of the trajectory image 26 transmitted from the CB 50 via the connection controller 19. The CPU 11 displays the locus image 26 on the image display unit 14 by controlling the image display unit 14 based on the received video signal. Therefore, the CPU 51 displays a trajectory image on the image display unit 14 by transmitting a video signal to the HD 10. In the following, the CPU 51 drives the image processing unit 57 to form the trajectory image 26, stores the formed trajectory image 26 in the video RAM 56, and generates a video signal based on the trajectory image 26 stored in the video RAM 56. When the video signal is transmitted to the HD 10 to display the trajectory image 26 on the image display unit 14, the CPU 51 displays the trajectory image 26 on the image display unit 14.

又、後述するように、CPU51は、S35で指先の位置の経時的な変化の傾向が所定の条件を満たすと判断する迄の間、又は、S41、S43、S45で、指先を特定してからの経過時間が所定値よりも大きいと判断する迄の間、S19を繰り返し実行し、軌跡画像26を画像表示部14に表示させる。又、後述するように、CPU51は、S27の修正処理によって、修正した軌跡画像26を画像表示部14に表示させる。ここでCPU51は、S19でn回目に軌跡画像26を画像表示部14に表示させる場合、S19及びS27で画像表示部14に表示させた1〜n−1回目に対応する軌跡画像26も、同時に表示させる。このため、S19でn回目に軌跡画像26が画像表示部14に表示された場合、画像表示部14にはn個の軌跡画像26が表示された状態になる。   Further, as will be described later, until the CPU 51 determines that the tendency of the fingertip position over time satisfies a predetermined condition in S35, or after specifying the fingertip in S41, S43, and S45. S19 is repeatedly executed until it is determined that the elapsed time is greater than the predetermined value, and the trajectory image 26 is displayed on the image display unit 14. Further, as will be described later, the CPU 51 causes the image display unit 14 to display the corrected trajectory image 26 by the correction processing in S27. When the CPU 51 displays the trajectory image 26 on the image display unit 14 for the nth time in S19, the trajectory image 26 corresponding to the 1st to (n-1) th time displayed on the image display unit 14 in S19 and S27 is also simultaneously displayed. Display. Therefore, when the trajectory image 26 is displayed on the image display unit 14 for the nth time in S <b> 19, n trajectory images 26 are displayed on the image display unit 14.

CPU51は、S11で取得された撮影画像データに基づき、撮影画像のうち所定領域21の四隅の近傍に配置された特徴的な点を、カメラ20の撮影方向に対応する点として特定する(S21)。以下、特定される特徴的な点を、参照点という。図6の撮影画像31を参照して具体的に説明する。撮影画像31は、HD10から受信した撮影画像データに対応する撮影画像を示す。撮影画像31を囲む枠線は、カメラ20によって撮影される所定領域21を示す。所定領域21の形状は長方形である。CPU51は、所定領域21の四隅の頂点32A(左上)、32B(右上)、32C(左下)、32D(右下)の夫々を中心とする円弧33A、33B、33C、33Dを定義する。以下、円弧33A〜33Dを総称して、円弧33という。円弧33の半径は、所定領域21の短辺の半分の長さよりも短い。CPU51は、撮影画像31のうち円弧33Aを含む扇形の内部の部分34A(左上)、円弧33Bを含む扇形の内部の部分34B(右上)、円弧33Cを含む扇形の内部の部分34C(左下)、及び、円弧33Dを含む扇形の内部の部分34D(右下)の夫々の部分を抽出する。部分34A〜34Dは、夫々、撮影画像31のうち所定領域21の四隅の近傍の部分に対応する。CPU51は、抽出した部分34A〜34Dの夫々について、Sobe1オペレータを用いた手法やキャニー法などの一次微分の勾配を利用したアルゴリズムや、勾配の局所的極大を検出するために二次微分のゼロ交差点を利用したアルゴリズムなど、周知のエッジ検出法によって境界点を検出する。CPU51は、検出された複数の境界点のうち濃度差が最も大きい点を、夫々の部分の中の特徴的な点として特定する。これによってCPU51は、部分34A〜34Dの夫々から参照点35A〜35Dを特定する。以下、参照点35A〜35Dを総称して参照点35という。   Based on the photographed image data acquired in S11, the CPU 51 identifies characteristic points arranged in the vicinity of the four corners of the predetermined area 21 in the photographed image as points corresponding to the photographing direction of the camera 20 (S21). . Hereinafter, the specified characteristic point is referred to as a reference point. This will be specifically described with reference to the captured image 31 of FIG. The captured image 31 indicates a captured image corresponding to the captured image data received from the HD 10. A frame line surrounding the photographed image 31 indicates a predetermined area 21 photographed by the camera 20. The shape of the predetermined area 21 is a rectangle. The CPU 51 defines arcs 33A, 33B, 33C, and 33D that are centered on vertices 32A (upper left), 32B (upper right), 32C (lower left), and 32D (lower right) of the four corners of the predetermined area 21, respectively. Hereinafter, the arcs 33A to 33D are collectively referred to as an arc 33. The radius of the arc 33 is shorter than the half length of the short side of the predetermined region 21. The CPU 51 includes a fan-shaped inner portion 34A (upper left) including the arc 33A in the photographed image 31, a fan-shaped inner portion 34B (upper right) including the arc 33B, a fan-shaped inner portion 34C (lower left) including the arc 33C, And each part of 34D (lower right) of the fan-shaped inside containing arc 33D is extracted. The portions 34 </ b> A to 34 </ b> D respectively correspond to portions in the vicinity of the four corners of the predetermined region 21 in the captured image 31. For each of the extracted portions 34A to 34D, the CPU 51 uses an algorithm that uses a gradient of the first derivative such as a technique using the Sobe1 operator or a Canny method, or a zero crossing point of a second derivative to detect a local maximum of the gradient. The boundary point is detected by a well-known edge detection method such as an algorithm using. The CPU 51 identifies a point having the largest density difference among the detected plurality of boundary points as a characteristic point in each part. Thereby, the CPU 51 specifies the reference points 35A to 35D from the portions 34A to 34D, respectively. Hereinafter, the reference points 35A to 35D are collectively referred to as a reference point 35.

なおCPU51は、S21(図4参照)が繰り返し実行された場合でも、撮影画像31のうち共通する特徴的な点を、夫々の部分から参照点35として特定できる。その理由は、参照点35を特定する場合のエッジ検出法の各種パラメータ(勾配の値や濃度差)、及び、エッジ検出によって検出された複数の境界点から参照点を選択する場合のアルゴリズムが、S21が繰り返し実行される場合の夫々で共通とされるためである。具体的には次の通りである。撮影画像31に含まれる一軒家の屋根(参照点35A)、長屋の屋根(参照点35B)、一軒家の玄関(参照点35C)、及び、長屋の側壁の特定の位置(参照点35D)の夫々が、参照点35として特定された場合を例に挙げる。CPU51は、参照点35A〜35Dの夫々の位置を示す座標情報と、エッジ検出法によって参照点35A〜35Dの夫々を特定した時のパラメータとを関連付けてRAM52に記憶する。CPU51は、S21を繰り返し実行する場合、RAM52に記憶されたパラメータを参照する。具体的には、CPU51は、エッジ検出法によって複数の境界点を検出した時の複数のパラメータのうち、RAM52に記憶されたパラメータに最も近いパラメータに対応する境界点を、参照点35として特定する。これによってCPU51は、ユーザの頭部の向きが変更されることによってカメラ20の撮影方向が変化し、撮影画像31に含まれる風景が変化した場合でも、撮影画像31に含まれる一軒家の屋根、長屋の屋根、一軒家の玄関、及び、長屋の側壁の特定の位置の夫々を、参照点35A〜35Dとして繰り返し特定できる。   Note that the CPU 51 can identify a common characteristic point in the captured image 31 as the reference point 35 from each portion even when S21 (see FIG. 4) is repeatedly executed. The reason is that various parameters (gradient value and density difference) of the edge detection method when specifying the reference point 35 and an algorithm for selecting a reference point from a plurality of boundary points detected by edge detection are: This is because it is common to the cases where S21 is repeatedly executed. Specifically, it is as follows. Each of the house roof (reference point 35A), the roof of the tenement house (reference point 35B), the entrance of the house (reference point 35C), and the specific position of the side wall of the tenement house (reference point 35D) included in the captured image 31 A case where the reference point 35 is specified will be described as an example. The CPU 51 stores the coordinate information indicating the positions of the reference points 35 </ b> A to 35 </ b> D in the RAM 52 in association with the parameters when the reference points 35 </ b> A to 35 </ b> D are specified by the edge detection method. When the CPU 51 repeatedly executes S21, the CPU 51 refers to the parameters stored in the RAM 52. Specifically, the CPU 51 identifies the boundary point corresponding to the parameter closest to the parameter stored in the RAM 52 among the plurality of parameters when the plurality of boundary points are detected by the edge detection method as the reference point 35. . As a result, the CPU 51 changes the shooting direction of the camera 20 by changing the orientation of the user's head, and even if the landscape included in the captured image 31 changes, the roof or the long house of the house included in the captured image 31 is changed. Each of the specific positions of the roof, the entrance of the house, and the side wall of the tenement can be identified repeatedly as reference points 35A-35D.

なお、参照点35を4つ特定する理由は、HD10を装着したユーザによる頭部の向きが変化することによって、カメラ20によって撮影される所定領域21の内側から参照点35が外れる場合がある為である。又、カメラ20によって撮影された所定領域21内の参照点35が、ユーザの手によって隠れる場合がある為である。CPU51は、所定領域21の四隅の近傍の部分34A〜34Dから合計4つの参照点35を特定することによって、ユーザの頭部の向きが変化した場合や、ユーザの手の位置が変化した場合でも、常に何れかの参照点35を特定できる。   The reason for specifying the four reference points 35 is that the reference point 35 may deviate from the inside of the predetermined area 21 photographed by the camera 20 due to the change of the head direction by the user wearing the HD 10. It is. Moreover, it is because the reference point 35 in the predetermined area | region 21 image | photographed with the camera 20 may be hidden by a user's hand. The CPU 51 specifies a total of four reference points 35 from the portions 34 </ b> A to 34 </ b> D near the four corners of the predetermined area 21, so that even when the orientation of the user's head changes or when the position of the user's hand changes. Any reference point 35 can always be specified.

図4に示すように、CPU51は、S18で特定した指先の位置を示す座標情報のX成分から、S21で特定した4つの参照点35の位置を示す座標情報の夫々のX成分を減算し、4つのX成分の算出結果を特定する。CPU51は、S18で特定した指先の位置を示す座標情報のY成分から、S21で特定した4つの参照点35の位置を示す座標情報の夫々のY成分を減算し、4つのY成分の算出結果を特定する。CPU51は、特定された4つのX成分の算出結果及び4つのY成分の算出結果の夫々を対応付け、4つの差分情報を特定する(S23)。4つの差分情報の夫々は、4つの参照点35の夫々の位置を基準とした場合の指先の位置の相対位置を示す。   As shown in FIG. 4, the CPU 51 subtracts each X component of the coordinate information indicating the positions of the four reference points 35 specified in S21 from the X component of the coordinate information indicating the position of the fingertip specified in S18. The calculation results of the four X components are specified. CPU51 subtracts each Y component of the coordinate information which shows the position of the four reference points 35 specified by S21 from the Y component of the coordinate information which shows the position of the fingertip specified by S18, and the calculation result of four Y components Is identified. The CPU 51 associates each of the specified four X component calculation results and the four Y component calculation results, and specifies four difference information (S23). Each of the four pieces of difference information indicates a relative position of the fingertip position when the positions of the four reference points 35 are used as a reference.

なお、CPU51は、S21で4つの参照点35のうち何れかを特定できなかった場合、例えば、HD10を装着したユーザが頭部の向きを変化させたことによって何れかの参照点35が所定領域21の内側から外れた場合、何れかの参照点35に基づいて差分情報を算出しない。しかしながら上記のように、参照点35は、所定領域21の四隅の近傍の夫々から特定されるので、CPU51は、ユーザの頭部の向きが変化した場合でも、常に何れかの参照点35から差分情報を算出できる。   Note that if the CPU 51 cannot identify any of the four reference points 35 in S21, for example, if the user wearing the HD 10 changes the orientation of the head, any one of the reference points 35 is set to the predetermined area. When it deviates from the inner side of 21, the difference information is not calculated based on any reference point 35. However, as described above, the reference point 35 is specified from each of the vicinity of the four corners of the predetermined area 21, so that the CPU 51 always differs from any reference point 35 even when the orientation of the user's head changes. Information can be calculated.

CPU51は、S21で特定した参照点35の位置を示す4つの座標情報、S18で特定した指先の位置を示す座標情報、及び、S23で特定された4つの差分情報を関連付けて、図7に示すテーブル541に記憶する(S25)。CPU51は、nの値をインデックスとして更に関連付けてテーブル541に記憶する。以下、参照点の位置を示す座標情報を第1情報という。指先の位置を示す座標情報を第2情報という。差分情報を第3情報という。   The CPU 51 associates the four coordinate information indicating the position of the reference point 35 specified in S21, the coordinate information indicating the position of the fingertip specified in S18, and the four pieces of difference information specified in S23, as shown in FIG. Store in the table 541 (S25). The CPU 51 further associates the value of n as an index and stores it in the table 541. Hereinafter, coordinate information indicating the position of the reference point is referred to as first information. The coordinate information indicating the position of the fingertip is referred to as second information. The difference information is referred to as third information.

図7を参照し、テーブル541を説明する。テーブル541には、インデックス、4つの第1情報、第2情報、及び、4つの第3情報が関連付けられて記憶される。インデックスは、4つの第1情報、第2情報、及び、4つの第3情報がテーブル541に記憶された順序、言い換えれば、S18で指先の位置が特定され、S21で参照点35の位置が特定され、S23で第3情報が算出された順序を示す。   The table 541 will be described with reference to FIG. The table 541 stores an index, four pieces of first information, second information, and four pieces of third information in association with each other. The index is the order in which the four first information, the second information, and the four third information are stored in the table 541. In other words, the position of the fingertip is specified in S18, and the position of the reference point 35 is specified in S21. The order in which the third information is calculated in S23 is shown.

なお、図7は、図3の光景25F〜25Jで示された場合のように、カメラ20の撮影方向が横方向に変化し、且つ、指先の位置を上から下に向けて垂直方向に移動した場合に作成されるテーブル541を具体的に示している。図3の光景25F〜25Jでは、カメラ20の撮影方向が横方向に変化することに伴い、指先の位置は、所定領域21内を右上から左下に向けて斜め方向に変化している。この位置の変化の傾向は、第2情報のX成分及びY成分の夫々がインデックスの増加に伴って1ずつ減少していることによって示されている。一方、4つの第3情報の夫々は、インデックスが増加するに従ってY成分のみ減少し、X成分は変化しない。その理由は、4つの第3情報の夫々は、参照点35の位置を基準とした場合の指先の位置の相対位置を示している為である。参照点35の位置は、カメラ20の撮影方向に応じて変化するので、参照点35の位置を基準とした場合の指先の位置の相対位置は、ユーザの頭部の動きの影響を受けない。このように、4つの第3情報の夫々は、指先の実際の動きに対応する位置の変化の傾向を示す。   Note that, in FIG. 7, the shooting direction of the camera 20 changes in the horizontal direction and the position of the fingertip moves in the vertical direction from top to bottom as shown by the scenes 25 </ b> F to 25 </ b> J in FIG. 3. The table 541 created in this case is specifically shown. In the scenes 25F to 25J of FIG. 3, the position of the fingertip changes in an oblique direction from the upper right to the lower left in the predetermined area 21 as the shooting direction of the camera 20 changes in the horizontal direction. This tendency of the position change is indicated by the fact that each of the X component and the Y component of the second information decreases by 1 as the index increases. On the other hand, for each of the four pieces of third information, only the Y component decreases as the index increases, and the X component does not change. The reason is that each of the four pieces of third information indicates the relative position of the fingertip position when the position of the reference point 35 is used as a reference. Since the position of the reference point 35 changes according to the shooting direction of the camera 20, the relative position of the fingertip position with respect to the position of the reference point 35 is not affected by the movement of the user's head. As described above, each of the four pieces of third information indicates a tendency of the position change corresponding to the actual movement of the fingertip.

図4に示すように、CPU51は、テーブル541を参照し、n−1のインデックスに対応する第1情報をS21で取得してから、nのインデックスに対応する第1情報をS21で取得する迄の間に、参照点35の位置に対する指先の相対位置が変化したか判断する(S26)。具体的には次の通りである。CPU51は、テーブル541のうちn−1のインデックスに対応付けられた4つの第3情報と、nのインデックスに対応付けられた4つの第3情報とを取得する。以下、n−1のインデックスに対応付けられた4つの第3情報を、4つの第3情報(n−1)という。nのインデックスに対応付けられた4つの第3情報を、4つの第3情報(n)という。CPU51は、取得した4つの第3情報(n−1)、及び、4つの第3情報(n)について、同一の参照点35に対応する第3情報どうしを比較する。4つの第3情報の何れかが相違する場合、参照点35を基準とした場合の指先の相対位置は変化していることになる。CPU51は、参照点35を基準とした場合の指先の相対位置が変化していると判断した場合(S26:YES)、画像表示部14に表示された軌跡画像26を修正する処理(修正処理、図5参照)を実行する(S27)。   As illustrated in FIG. 4, the CPU 51 refers to the table 541 and obtains the first information corresponding to the index of n−1 in S21 until the first information corresponding to the index of n is obtained in S21. In the meantime, it is determined whether the relative position of the fingertip with respect to the position of the reference point 35 has changed (S26). Specifically, it is as follows. The CPU 51 acquires four pieces of third information associated with the n-1 index in the table 541 and four pieces of third information associated with the n index. Hereinafter, the four pieces of third information associated with the n−1 index are referred to as four pieces of third information (n−1). The four pieces of third information associated with the n indexes are referred to as four pieces of third information (n). CPU51 compares the 3rd information corresponding to the same reference point 35 about four acquired 3rd information (n-1) and four 3rd information (n). When any of the four pieces of third information is different, the relative position of the fingertip with respect to the reference point 35 is changed. If the CPU 51 determines that the relative position of the fingertip has changed when the reference point 35 is used as a reference (S26: YES), the CPU 51 corrects the trajectory image 26 displayed on the image display unit 14 (correction processing, (See FIG. 5) (S27).

図5を参照し、修正処理を説明する。CPU51は、nが1よりも大きいか判断する(S50)。CPU51は、nが1よりも大きくないと判断した場合(S50:NO)、修正処理を終了させ、処理をメイン処理(図4参照)に戻す。CPU51は、nが1よりも大きいと判断した場合(S50:YES)、RAM52に記憶された変数iに1を記憶する(S53)。CPU51は、テーブル541のうちiのインデックスに対応する4つの第1情報及び第2情報を取得する(S55)。CPU51は、テーブル541のうちnのインデックスに対応する4つの第1情報を取得する(S57)。   The correction process will be described with reference to FIG. The CPU 51 determines whether n is greater than 1 (S50). If the CPU 51 determines that n is not greater than 1 (S50: NO), it ends the correction process and returns the process to the main process (see FIG. 4). When the CPU 51 determines that n is larger than 1 (S50: YES), the CPU 51 stores 1 in the variable i stored in the RAM 52 (S53). The CPU 51 acquires four pieces of first information and second information corresponding to the index i in the table 541 (S55). The CPU 51 acquires four pieces of first information corresponding to the n indexes in the table 541 (S57).

CPU51は、S55で取得した4つの第1情報(インデックス:i)と、S57で取得した4つの第1情報(インデックス:n)とに基づき、同一の参照点35に対応する第3情報どうしのX成分及びY成分の夫々の減算を行うことによって、4つの参照点35の夫々に対応するX成分及びY成分の差分を算出する。以下、X成分の差分をX差分といい、Y成分の差分をY差分という。CPU51は、同一の参照点35毎に算出したX差分及びY差分のうち、何れかの参照点35に対応するX差分及びY差分を選択する。例えばCPU51は、撮影画像31(図6参照)のうち左上の部分34A(図6参照)、右上の部分34B(図6参照)、右下の部分34C(図6参照)、及び右下の部分34D(図6参照)の順を優先度として定めてもよい。CPU51は、優先度の高い部分から特定された参照点35に対応するX差分及びY差分を優先的に選択してもよい。CPU51は、選択したX差分及びY差分を加算する。なお、X差分及びY差分を加算した値は、テーブル541のうちiのインデックスに対応する第1情報をS11で取得してから、nのインデックスに対応する第1情報をS11で取得する迄の間の、参照点35の位置の移動量に対応する。つまり、CPU51は、X差分及びY差分を加算することによって、参照点35の位置の移動量に対応する値を算出する(S59)。なお以下では、X差分及びY差分を加算することによって算出された値を、変化量と呼称する。なお、CPU51は、X差分及びY差分の夫々を2乗し、2乗された夫々の値を加算し、加算された値の平方根を算出することによって、変化量を算出してもよい。   Based on the four pieces of first information (index: i) acquired in S55 and the four pieces of first information (index: n) acquired in S57, the CPU 51 determines whether the third information corresponding to the same reference point 35 is the same. By subtracting each of the X component and the Y component, a difference between the X component and the Y component corresponding to each of the four reference points 35 is calculated. Hereinafter, the difference between the X components is referred to as an X difference, and the difference between the Y components is referred to as a Y difference. The CPU 51 selects an X difference and a Y difference corresponding to one of the reference points 35 among the X difference and the Y difference calculated for the same reference point 35. For example, the CPU 51 in the captured image 31 (see FIG. 6) has an upper left portion 34A (see FIG. 6), an upper right portion 34B (see FIG. 6), a lower right portion 34C (see FIG. 6), and a lower right portion. The order of 34D (see FIG. 6) may be set as the priority. The CPU 51 may preferentially select the X difference and the Y difference corresponding to the reference point 35 specified from the high priority part. The CPU 51 adds the selected X difference and Y difference. Note that the value obtained by adding the X difference and the Y difference is from the time when the first information corresponding to the i index in the table 541 is acquired in S11 to the time when the first information corresponding to the n index is acquired in S11. This corresponds to the amount of movement of the position of the reference point 35 in between. That is, the CPU 51 calculates a value corresponding to the amount of movement of the position of the reference point 35 by adding the X difference and the Y difference (S59). Hereinafter, a value calculated by adding the X difference and the Y difference is referred to as a change amount. The CPU 51 may calculate the amount of change by squaring each of the X difference and the Y difference, adding each squared value, and calculating the square root of the added value.

CPU51は、S59で算出した参照点35の位置の変化量が所定値(例えば1)よりも小さいか判断する(S61)。CPU51は、参照点35の位置の変化量が所定値よりも小さいと判断した場合(S61:YES)、処理をS67に進める。CPU51は、参照点35の位置の変化量が所定値よりも小さくない場合(S61:NO)、次の処理を行うことによって、テーブル541のうちiのインデックスに対応する第2情報を補正する(S63)。CPU51は、テーブル541のうちiのインデックスに対応する第2情報のX成分から、S59で算出されたX差分を減算する。CPU51は、テーブル541のうちiのインデックスに対応する第2情報のY成分から、S59で算出されたY差分を減算する。以下、X成分及びY成分の算出結果を、補正情報といい、補正情報によって示される位置を補正位置という。CPU51は、i、nと補正情報とを関連付けて、図8に示すテーブル521に記憶する(S65)。   The CPU 51 determines whether the change amount of the position of the reference point 35 calculated in S59 is smaller than a predetermined value (for example, 1) (S61). If the CPU 51 determines that the amount of change in the position of the reference point 35 is smaller than the predetermined value (S61: YES), the CPU 51 advances the process to S67. When the amount of change in the position of the reference point 35 is not smaller than the predetermined value (S61: NO), the CPU 51 corrects the second information corresponding to the index i in the table 541 by performing the following process (S61: NO). S63). The CPU 51 subtracts the X difference calculated in S59 from the X component of the second information corresponding to the index i in the table 541. The CPU 51 subtracts the Y difference calculated in S59 from the Y component of the second information corresponding to the index i in the table 541. Hereinafter, the calculation results of the X component and the Y component are referred to as correction information, and the position indicated by the correction information is referred to as a correction position. The CPU 51 associates i and n with the correction information and stores them in the table 521 shown in FIG. 8 (S65).

図8を参照し、テーブル521を説明する。テーブル521は、i,nと補正情報とを関連付けて記憶する。なお図8では、理解を容易とする為に、補正前の第2情報と矢印とが、夫々の補正情報の前に追加して示されている。又、後述するように、i=nの場合には補正情報は算出されない(S69、図5参照)が、理解を容易とする為、S19(図4参照)でn番目に表示された軌跡画像26の位置を示す座標情報が、i=nに対応付けて示されている。テーブル521の詳細は後述する。   The table 521 will be described with reference to FIG. The table 521 stores i, n and correction information in association with each other. In FIG. 8, in order to facilitate understanding, the second information before correction and an arrow are additionally shown before each correction information. As will be described later, correction information is not calculated when i = n (S69, see FIG. 5), but for the sake of easy understanding, the trajectory image displayed nth in S19 (see FIG. 4). Coordinate information indicating the position of 26 is shown in association with i = n. Details of the table 521 will be described later.

図5に示すように、CPU51は、S65で補正情報をテーブル521に記憶した後、iに1を加算する(S67)。CPU51は、S67で1を加算したiとnとを比較する(S69)。CPU51は、iとnとが一致しないと判断した場合(S69:NO)、iがnよりも小さいと判断する。この場合、CPU51は処理をS55に戻す。CPU51は、S67で1が加算されたiに基づいてS55〜S67の処理を繰り返す。これによってCPU51は、テーブル541に記憶された第2情報をインデックスの順番に補正し、i、nと補正情報とを関連付けてテーブル521に記憶する。   As shown in FIG. 5, after storing the correction information in the table 521 in S65, the CPU 51 adds 1 to i (S67). The CPU 51 compares i and n obtained by adding 1 in S67 (S69). When the CPU 51 determines that i and n do not match (S69: NO), it determines that i is smaller than n. In this case, the CPU 51 returns the process to S55. CPU51 repeats the process of S55-S67 based on i which added 1 by S67. As a result, the CPU 51 corrects the second information stored in the table 541 in the order of the indexes, and stores i, n and the correction information in the table 521 in association with each other.

iとnとが一致した場合、テーブル541のうち1からn−1のインデックスの夫々に対応する第2情報は、全て補正されたことになる。CPU51は、iとnとが一致したと判断した場合(S69:YES)、画像表示部14に表示された状態の軌跡画像26のうち、1〜n−1番目に対応する軌跡画像26を消去する(S71)。1〜n−1番目に対応する軌跡画像26とは、S19で1〜n番目に表示された軌跡画像26の夫々の位置がS63で補正され、後述するS73で補正位置に表示された軌跡画像26を示す。   When i and n match each other, the second information corresponding to each of the indexes 1 to n−1 in the table 541 has been corrected. When the CPU 51 determines that i and n match (S69: YES), the trajectory image 26 corresponding to the 1st to (n-1) th of the trajectory images 26 displayed on the image display unit 14 is deleted. (S71). The trajectory image 26 corresponding to the 1st to (n-1) th is a trajectory image in which each position of the trajectory image 26 displayed in 1st to nth in S19 is corrected in S63 and displayed in a corrected position in S73 described later. 26 is shown.

具体的には次の通りである。CPU51は、テーブル541のうちnのインデックスに対応する第2情報によって示される所定領域21内の位置を特定する。次にCPU51は、特定した位置に対応する実像22上の位置に重ねる軌跡画像26を、画像表示部14に表示させる。これによって、S19でn番目に表示された軌跡画像26のみ表示され、1〜n−1番目に対応する軌跡画像26が表示されない状態になる。次に、CPU51は、テーブル521に記憶した補正情報によって示される所定領域21内の補正位置を特定する。CPU51は、特定した補正位置に対応する実像22上の位置に重ねる軌跡画像26を、画像表示部14に表示させる(S73)。これによって、S71で消去された1〜n−1番目に対応する軌跡画像26の夫々の代わりに、位置が修正されたn−1個の軌跡画像26が、n番目に表示された軌跡画像26に追加して表示される。CPU51は修正処理を終了させ、処理をメイン処理(図4参照)に戻す。   Specifically, it is as follows. The CPU 51 specifies a position in the predetermined area 21 indicated by the second information corresponding to the index n in the table 541. Next, the CPU 51 causes the image display unit 14 to display a trajectory image 26 to be superimposed on a position on the real image 22 corresponding to the specified position. As a result, only the trajectory image 26 displayed in the step S19 is displayed, and the trajectory images 26 corresponding to the 1st to (n-1) th are not displayed. Next, the CPU 51 specifies a correction position in the predetermined area 21 indicated by the correction information stored in the table 521. The CPU 51 causes the image display unit 14 to display the trajectory image 26 superimposed on the position on the real image 22 corresponding to the specified correction position (S73). As a result, instead of each of the trajectory images 26 corresponding to the 1st to (n-1) th deleted in S71, n-1 trajectory images 26 whose positions are corrected are displayed as the nth trajectory image 26. It is added and displayed. The CPU 51 ends the correction process and returns the process to the main process (see FIG. 4).

以下、n番目に表示された軌跡画像26を、n番目の軌跡画像26という。又、1〜n−1番目の軌跡画像26が、修正処理によって位置が補正位置に補正され、画像表示部14に表示された場合の軌跡画像26を、1〜n−1番目の軌跡画像という。   Hereinafter, the nth trajectory image 26 is referred to as the nth trajectory image 26. Further, the trajectory image 26 when the position of the 1st to (n-1) th trajectory image 26 is corrected to the correction position by the correction process and displayed on the image display unit 14 is referred to as the 1st to (n-1) th trajectory image. .

図4に示すように、修正処理(S27)の終了後、CPU51は、テーブル541に記憶された複数の第3情報に基づいて、指先の位置の経時的な変化が所定の条件を満たすか判断する(S29、S35)。   As shown in FIG. 4, after the correction process (S27) is completed, the CPU 51 determines whether or not a change with time of the fingertip position satisfies a predetermined condition based on the plurality of pieces of third information stored in the table 541. (S29, S35).

判断の具体的な方法は次の通りである。CPU51は、テーブル541のうち、複数のインデックスの夫々に関連付けて記憶された4つの第3情報のうち、何れかの参照点35に対応する第3情報を選択する。例えばCPU51は、撮影画像31(図6参照)のうち左上の部分34A(図6参照)、右上の部分34B(図6参照)、右下の部分34C(図6参照)、及び右下の部分34D(図6参照)の順を優先度として定めてもよい。CPU51は、優先度の高い部分から特定された参照点35に対応する第3情報を選択してもよい。次にCPU41は、インデックス毎に選択された複数の第3情報の夫々によって示される位置を、インデックスの順に線で結び、指先の移動の軌跡を示す線分として特定する。これによってCPU51は、指先の位置の経時的な変化、即ち、指先の動きを特定する(S29)。   The specific method of judgment is as follows. The CPU 51 selects third information corresponding to any reference point 35 from among the four pieces of third information stored in association with each of the plurality of indexes in the table 541. For example, the CPU 51 in the captured image 31 (see FIG. 6) has an upper left portion 34A (see FIG. 6), an upper right portion 34B (see FIG. 6), a lower right portion 34C (see FIG. 6), and a lower right portion. The order of 34D (see FIG. 6) may be set as the priority. CPU51 may select the 3rd information corresponding to reference point 35 specified from the part with high priority. Next, the CPU 41 connects the positions indicated by each of the plurality of pieces of third information selected for each index by a line in the order of the index, and specifies the line segment indicating the locus of movement of the fingertip. As a result, the CPU 51 identifies the change of the fingertip position with time, that is, the movement of the fingertip (S29).

CPU51は、特定した線分と、プログラムROM53に予め記憶された軌跡特定用の複数の画像テンプレートとに基づいて、周知のパターンマッチング処理を行う。軌跡特定用の複数の画像テンプレートは、特定の形状を示す画像のテンプレートである。特定の形状とは、例えば、上下方向に延びる直線、左右方向に延びる直線、三角形、円形等である。CPU51は、パターンマッチング処理によって複数の画像テンプレートの夫々に対応する複数の相互相関係数を算出し、最も1に近い相互相関係数が所定の範囲内の値であるか判断する。CPU51は、最も1に近い相互相関係数が所定の範囲内の値である場合、パターンマッチングに成功したと判断する。この場合CPU51は、指先の位置の変化の傾向が、最も1に近い相互相関係数に対応する画像テンプレートによって示される特定の形状と一致すると判断する(S35:YES)。なお、複数の第3情報は、参照点35に対する相対位置を示しているので、実際の指先の位置を示す。このためCPU51は、カメラ20による撮影方向が変化した場合でも、指先の位置の変化の傾向が所定の条件を満たしているかを、上記の処理によって適切に判断できる。CPU51は処理をS37に進める。   The CPU 51 performs a well-known pattern matching process based on the specified line segment and a plurality of image templates for specifying a locus stored in advance in the program ROM 53. The plurality of image templates for specifying the trajectory are templates of images showing specific shapes. The specific shape is, for example, a straight line extending in the vertical direction, a straight line extending in the left-right direction, a triangle, or a circle. The CPU 51 calculates a plurality of cross-correlation coefficients corresponding to each of the plurality of image templates by pattern matching processing, and determines whether the cross-correlation coefficient closest to 1 is a value within a predetermined range. If the cross-correlation coefficient closest to 1 is a value within a predetermined range, the CPU 51 determines that the pattern matching has succeeded. In this case, the CPU 51 determines that the change tendency of the fingertip position matches the specific shape indicated by the image template corresponding to the cross-correlation coefficient closest to 1 (S35: YES). In addition, since several 3rd information has shown the relative position with respect to the reference point 35, it shows the position of an actual fingertip. For this reason, the CPU 51 can appropriately determine whether the tendency of the change of the fingertip position satisfies a predetermined condition even when the shooting direction of the camera 20 changes. CPU51 advances a process to S37.

なお、指先の位置の経時的な変化が所定の条件を満たすかの判断方法は、上記の方法に限定されない。例えばCPU51は、インデックス毎に選択された複数の第3情報の変化の傾向が、複数の所定の条件式のうち何れかを満たす場合、指先の動きが、何れかの所定の条件式に対応する条件を満たすと判断してもよい。   Note that a method for determining whether a change in the position of the fingertip over time satisfies a predetermined condition is not limited to the above method. For example, when the tendency of change of the plurality of third information selected for each index satisfies any of a plurality of predetermined conditional expressions, the CPU 51 corresponds to any of the predetermined conditional expressions. It may be determined that the condition is satisfied.

CPU51は、画像表示部14に表示させた軌跡画像26を全て消去する(S37)。理由は、指先の位置の経時的な変化が所定の条件を満たすと既に判断されているので、ユーザはこれ以上指先を移動させる必要がなく、軌跡画像26はユーザにとって不要となる為である。従ってCPU51は、上記処理によって、ユーザにとって不要な軌跡画像26を消去できる。又、CPU51は、軌跡画像26を消去することによって、指先の位置の変化の傾向が所定の条件を満たすと判断したことをユーザに通知できる。   The CPU 51 deletes all the trajectory images 26 displayed on the image display unit 14 (S37). The reason is that since it is already determined that the change in the fingertip position with time satisfies the predetermined condition, the user does not need to move the fingertip any more and the trajectory image 26 is unnecessary for the user. Therefore, the CPU 51 can erase the locus image 26 unnecessary for the user by the above processing. Further, the CPU 51 can notify the user that the tendency of the change of the fingertip position is determined to satisfy a predetermined condition by deleting the trajectory image 26.

CPU51は、プログラムROM53に記憶された処理内容DBを参照する。処理内容DBには、複数の画像テンプレートの種別を示す情報と、HMD1の処理内容を示す情報とが関連付けて記憶されている。CPU51は、S35で指先の動きを判断する時に算出された1に最も近い相互相関係数に対応する画像テンプレートに対応する処理内容を、処理内容DBを参照することによって特定する。CPU51は、特定した処理内容に基づいて処理を実行する(S39)。処理内容DBを参照することによって、CPU51は、指先の位置の変化の傾向に対応する処理を容易に特定できる。CPU51は、S17で開始したタイマ変数の更新を停止する(S40)。CPU51は処理をS11に戻す。   The CPU 51 refers to the processing content DB stored in the program ROM 53. In the processing content DB, information indicating the types of a plurality of image templates and information indicating the processing content of the HMD 1 are stored in association with each other. The CPU 51 specifies the processing content corresponding to the image template corresponding to the cross-correlation coefficient closest to 1 calculated when determining the fingertip movement in S35 by referring to the processing content DB. The CPU 51 executes processing based on the specified processing content (S39). By referring to the processing content DB, the CPU 51 can easily specify the processing corresponding to the change tendency of the fingertip position. The CPU 51 stops updating the timer variable started in S17 (S40). The CPU 51 returns the process to S11.

CPU51は、上記の処理が繰り返される中で、S11で受信された撮影画像データに対応する撮影画像から指先を特定できないと判断した場合(S15:NO)、S17で更新を開始したタイマ変数の値に基づいて、撮影画像に指先が含まれていない状態の経過時間を特定する。CPU51は、特定した経過時間が所定値(以下、第1時間という。)よりも大きく、且つ、画像表示部14に軌跡画像26を表示させているか判断する(S41)。CPU51は、特定した経過時間が第1時間よりも大きくないか、又は、画像表示部14に軌跡画像26を表示させていないと判断した場合(S41:NO)、処理をS11に戻す。CPU51は、特定した経過時間が第1時間よりも大きく、且つ、画像表示部14に軌跡画像26を表示させていると判断した場合(S41:YES)、画像表示部14に表示させた軌跡画像26を全て消去する(S42)。CPU51は処理をS40に進める。   When the CPU 51 determines that the fingertip cannot be specified from the captured image corresponding to the captured image data received in S11 while the above processing is repeated (S15: NO), the value of the timer variable that has started updating in S17 Based on the above, the elapsed time when the fingertip is not included in the captured image is specified. The CPU 51 determines whether the specified elapsed time is longer than a predetermined value (hereinafter referred to as the first time) and whether the trajectory image 26 is displayed on the image display unit 14 (S41). If the CPU 51 determines that the specified elapsed time is not longer than the first time or that the trajectory image 26 is not displayed on the image display unit 14 (S41: NO), the process returns to S11. When the CPU 51 determines that the specified elapsed time is longer than the first time and the trajectory image 26 is displayed on the image display unit 14 (S41: YES), the trajectory image displayed on the image display unit 14 is displayed. All 26 are erased (S42). CPU51 advances a process to S40.

カメラ20によって撮影される所定領域21内に指先が含まれていると最初に判断された後(S15)、第1時間以上継続して指先が所定領域21内に含まれない状態となった場合(S41:YES)、ユーザは、HMD1に特定の処理を実行させるための指先の移動動作を行っていない場合がある。又、このような場合、S35で、指先の位置の経時的な変化が所定の条件を満たすか否かを判断できなくなる。このような場合、軌跡画像26はユーザにとって不要となる。従ってCPU51は、上記処理によって、ユーザにとって不要な軌跡画像26を消去できる。   When it is first determined that the fingertip is included in the predetermined area 21 photographed by the camera 20 (S15), and the fingertip is not included in the predetermined area 21 continuously for the first time or more. (S41: YES), the user may not have performed a fingertip movement operation for causing the HMD 1 to execute a specific process. In such a case, in S35, it is impossible to determine whether or not the temporal change in the fingertip position satisfies a predetermined condition. In such a case, the trajectory image 26 becomes unnecessary for the user. Therefore, the CPU 51 can erase the locus image 26 unnecessary for the user by the above processing.

CPU51は、上記の処理が繰り返される中で、S26の処理で、4つの第3情報(n−1)と4つの第3情報(n)とについて同一の参照点35に対応する第3情報どうしを比較し、何れも相違しないと判断した場合、参照点35を基準とした場合の指先の相対位置が変化していないと判断する(S26:NO)。CPU51は、S17で更新を開始したタイマ変数の値に基づいて、参照点35を基準とした場合の指先の相対位置が変化しない状態の経過時間を特定する。CPU51は、特定した経過時間が所定値(以下、第2時間という。)よりも大きく、且つ、画像表示部14に軌跡画像26を表示させているか判断する(S43)。CPU51は、特定した経過時間が第2時間よりも大きくないか、又は、画像表示部14に軌跡画像を表示させていないと判断した場合(S43:NO)、処理をS11に戻す。CPU51は、特定した経過時間が第2時間よりも大きく、且つ、画像表示部14に軌跡画像を表示させていると判断した場合(S43:YES)、画像表示部14に表示させた軌跡画像26を全て消去する(S44)。CPU51は処理をS40に進める。   While the above processing is repeated, the CPU 51 uses the third information corresponding to the same reference point 35 for the four third information (n−1) and the four third information (n) in the processing of S26. Are compared, and it is determined that the relative position of the fingertip has not changed when the reference point 35 is used as a reference (S26: NO). The CPU 51 specifies the elapsed time in which the relative position of the fingertip does not change based on the reference point 35 based on the value of the timer variable that has been updated in S17. The CPU 51 determines whether the specified elapsed time is longer than a predetermined value (hereinafter referred to as the second time) and the trajectory image 26 is displayed on the image display unit 14 (S43). If the CPU 51 determines that the specified elapsed time is not longer than the second time or that the trajectory image is not displayed on the image display unit 14 (S43: NO), the process returns to S11. When the CPU 51 determines that the specified elapsed time is longer than the second time and the trajectory image is displayed on the image display unit 14 (S43: YES), the trajectory image 26 displayed on the image display unit 14 is displayed. Are all deleted (S44). CPU51 advances a process to S40.

カメラ20によって撮影される所定領域21内に指先が含まれていると最初に判断された後(S15)、参照点35を基準とした場合の指先の相対位置が変化しない状態が第2時間以上継続した場合(S43:YES)、ユーザは、HMD1に特定の処理を実行させるための指先の移動動作を行っていない場合可能性が高い。このような場合、軌跡画像26はユーザにとって不要となる。従ってCPU51は、上記処理によって、ユーザにとって不要な軌跡画像26を消去できる。   After it is first determined that the fingertip is included in the predetermined area 21 photographed by the camera 20 (S15), a state in which the relative position of the fingertip with respect to the reference point 35 does not change is a second time or more. When continuing (S43: YES), possibility that a user is not performing the movement operation | movement of the fingertip for making HMD1 perform a specific process is high. In such a case, the trajectory image 26 becomes unnecessary for the user. Therefore, the CPU 51 can erase the locus image 26 unnecessary for the user by the above processing.

CPU51は、上記の処理が繰り返される中で、S35の処理で、最も1に近い相互相関係数が所定の範囲外の値である場合、指先の動きが、複数の画像テンプレートによって示される条件を満たしていないと判断する(S35:NO)。CPU51は、S17で更新を開始したタイマ変数の値に基づいて、指先の動作が所定の条件を満たしていない状態の経過時間を特定する。CPU51は、特定した経過時間が所定値(以下、第3時間という。)よりも大きいか判断する(S45)。CPU51は、特定した経過時間が第3時間よりも大きくないと判断した場合(S45:NO)、処理をS11に戻す。CPU51は、特定した経過時間が第3時間よりも大きいと判断した場合(S45:YES)、画像表示部14に表示させた軌跡画像26を全て消去する(S46)。CPU51は処理をS40に進める。   In the process of S35, when the cross-correlation coefficient closest to 1 is a value outside the predetermined range in the process of S35, the CPU 51 satisfies the condition that the fingertip movement is indicated by a plurality of image templates. It is determined that the condition is not satisfied (S35: NO). CPU51 specifies the elapsed time of the state where the operation | movement of a fingertip does not satisfy | fill predetermined conditions based on the value of the timer variable which started the update by S17. The CPU 51 determines whether the specified elapsed time is longer than a predetermined value (hereinafter referred to as the third time) (S45). If the CPU 51 determines that the specified elapsed time is not greater than the third time (S45: NO), the process returns to S11. When the CPU 51 determines that the specified elapsed time is longer than the third time (S45: YES), the CPU 51 deletes all the trajectory images 26 displayed on the image display unit 14 (S46). CPU51 advances a process to S40.

カメラ20によって撮影される所定領域21内に指先が含まれていると最初に判断され(S15)、軌跡画像26が表示された(S19)後、指先の動作が所定の条件を満たさない状態が第3時間以上継続した場合(S45:YES)、ユーザは、HMD1に特定の処理を実行させるための指先の移動動作を行っていない可能性が高い。このような場合、軌跡画像26はユーザにとって不要となる。従ってCPU51は、上記処理によって、ユーザにとって不要な軌跡画像26を消去できる。   First, it is determined that the fingertip is included in the predetermined area 21 photographed by the camera 20 (S15), and after the trajectory image 26 is displayed (S19), the state where the operation of the fingertip does not satisfy the predetermined condition. When it continues for 3rd time or more (S45: YES), it is highly likely that the user has not performed the fingertip movement operation for causing the HMD 1 to execute a specific process. In such a case, the trajectory image 26 becomes unnecessary for the user. Therefore, the CPU 51 can erase the locus image 26 unnecessary for the user by the above processing.

図4、図5、図7〜図9を参照し、軌跡画像26が画像表示部14に表示される場合について、具体的に説明する。CPU51は、nが「1」の状態でメイン処理(図4参照)のS17以降を実行する場合、テーブル541(図7参照)のうち「1」のインデックスに対応する第2情報(13,8)に基づき、画像表示部14の対応する位置に軌跡画像26F(光景25F、図9参照)を1番目の軌跡画像として表示させる(S19、図4参照)。CPU51は、修正処理(S27、図4参照)を実行した場合、nが1より大きくないので(S50:NO、図5参照)、第2情報の補正(S63、図5参照)を行わず、テーブル521(図8参照)に補正情報を記憶しない(但し、テーブル521では、上記で説明したように、理解を容易とする為に、軌跡画像26Fに対応する位置を示す第2情報(13,8)が、i=n=1に対応付けて示されている。)。   The case where the trajectory image 26 is displayed on the image display unit 14 will be specifically described with reference to FIGS. 4, 5, and 7 to 9. When the CPU 51 executes S17 and subsequent steps of the main process (see FIG. 4) in a state where n is “1”, the second information (13, 8) corresponding to the index “1” in the table 541 (see FIG. 7). ), The trajectory image 26F (scenery 25F, see FIG. 9) is displayed as the first trajectory image at the corresponding position of the image display unit 14 (S19, see FIG. 4). When the CPU 51 executes the correction process (S27, see FIG. 4), since n is not larger than 1 (S50: NO, see FIG. 5), the second information is not corrected (S63, see FIG. 5). The correction information is not stored in the table 521 (see FIG. 8) (however, in the table 521, as described above, in order to facilitate understanding, the second information (13, 13) indicating the position corresponding to the locus image 26F is used. 8) is shown in association with i = n = 1.)

次に、CPU51は、nが「2」の状態でメイン処理のS17以降を実行する場合、テーブル541のうち「2」のインデックスに対応する第2情報(12,7)に基づき、画像表示部14の対応する位置に軌跡画像26G(光景25G、図9参照)を2番目の軌跡画像として表示させる(S19、図4参照)。又、CPU51は、1番目の軌跡画像26Fも画像表示部14に表示させる(S19)。テーブル521では、軌跡画像26Gに対応する位置を示す第2情報(12,7)が、i=n=2に対応付けて示されている。CPU51は、修正処理(S27、図4参照)を実行した場合、nが「1」より大きいので(S50:YES、図5参照)、次のようにして第2情報の補正を行う。   Next, in the case where n is “2” and the main process is executed after S17 of the main process, the CPU 51 displays the image display unit based on the second information (12, 7) corresponding to the index “2” in the table 541. The trajectory image 26G (scenery 25G, see FIG. 9) is displayed as the second trajectory image at the corresponding position 14 (S19, see FIG. 4). The CPU 51 also displays the first trajectory image 26F on the image display unit 14 (S19). In the table 521, the second information (12, 7) indicating the position corresponding to the trajectory image 26G is shown in association with i = n = 2. When executing the correction process (S27, see FIG. 4), the CPU 51 corrects the second information as follows because n is larger than “1” (S50: YES, see FIG. 5).

CPU51は、「1」(=i)のインデックスに対応する第1情報(5,9)(15,9)(5,1)(15,1)及び第2情報(13,8)を、テーブル541(図7参照)から取得する(S55、図5参照)。CPU51は、「2」(=n)のインデックスに対応する第1情報(4,9)(14,9)(4,1)(14,1)を、テーブル541(図7参照)から取得する(S57、図5参照)。CPU51は、S55及びS57の夫々で取得した第1情報に基づいて、X差分及びY差分を算出する。算出されるX差分は何れも「1」であり、Y差分は何れも「0」である。CPU51は、X差分とY差分とを加算し、参照点35の位置の変化量「1」を算出する(S59、図5参照)。算出される参照点35の位置の変化量「1」は所定値「1」よりも小さくないので(S61:NO、図5参照)、CPU51は、テーブル541のうち「1」(=i)のインデックスに対応する第2情報のX成分「13」から、S59で算出されたX差分「1」を減算し、補正後のX成分「12」を得る。CPU51は、テーブル541のうち「1」(=i)のインデックスに対応する第2情報のY成分「8」から、S59で算出されたY差分「0」を減算し、補正後のY成分「8」を得る。CPU51は、補正情報(12,8)を特定し、i=1、n=2に対応付けてテーブル521(図8参照)に記憶する(S65、図5参照)。これによって、第2情報は(13,8)から(12,8)に修正されたことになる。   The CPU 51 stores the first information (5, 9) (15, 9) (5, 1) (15, 1) and the second information (13, 8) corresponding to the index of “1” (= i) in the table. 541 (see FIG. 7) (S55, see FIG. 5). The CPU 51 acquires the first information (4, 9) (14, 9) (4, 1) (14, 1) corresponding to the index “2” (= n) from the table 541 (see FIG. 7). (See S57, FIG. 5). The CPU 51 calculates the X difference and the Y difference based on the first information acquired in S55 and S57. The calculated X differences are all “1”, and the Y differences are all “0”. The CPU 51 adds the X difference and the Y difference, and calculates a change amount “1” of the position of the reference point 35 (S59, see FIG. 5). Since the calculated change amount “1” of the position of the reference point 35 is not smaller than the predetermined value “1” (S61: NO, see FIG. 5), the CPU 51 sets “1” (= i) in the table 541. The X difference “1” calculated in S59 is subtracted from the X component “13” of the second information corresponding to the index to obtain a corrected X component “12”. The CPU 51 subtracts the Y difference “0” calculated in S59 from the Y component “8” of the second information corresponding to the index of “1” (= i) in the table 541 to obtain the corrected Y component “8”. 8 ”is obtained. The CPU 51 identifies the correction information (12, 8) and stores it in the table 521 (see FIG. 8) in association with i = 1 and n = 2 (S65, see FIG. 5). As a result, the second information is corrected from (13, 8) to (12, 8).

CPU51は、i(=1)に「1」を加算した結果「2」がn(=2)と同一であるため(S69:YES、図5参照)、テーブル541のうち「1」(=n−1)のインデックスに対応する第2情報に基づいて画像表示部14に表示させた1番目の軌跡画像26Fを消去する(S71、図5参照)(光景25G、図9参照)。CPU51は、画像表示部14のうちテーブル521に記憶された補正情報(12,8)によって示される補正位置に、軌跡画像261(光景25G、図9参照)を、新たな1番目の軌跡画像として表示させる(S73、図5参照)。図9に示すように、軌跡画像261(補正情報:(12,8))は、消去した軌跡画像26F(座標情報:(13,8))に対して左方に配置する。また軌跡画像261は、S19(図4参照)で表示させた軌跡画像26G(座標情報:(12,7))に対して垂直上側に配置する。   The CPU 51 adds “1” to i (= 1) and the result “2” is the same as n (= 2) (S69: YES, see FIG. 5), so “1” (= n) in the table 541 The first trajectory image 26F displayed on the image display unit 14 is erased based on the second information corresponding to the index of -1) (S71, see FIG. 5) (see the scene 25G, FIG. 9). The CPU 51 uses the trajectory image 261 (the scene 25G, see FIG. 9) as a new first trajectory image at the correction position indicated by the correction information (12, 8) stored in the table 521 in the image display unit 14. It is displayed (see S73, FIG. 5). As shown in FIG. 9, the locus image 261 (correction information: (12, 8)) is arranged on the left side with respect to the deleted locus image 26F (coordinate information: (13, 8)). In addition, the trajectory image 261 is arranged vertically above the trajectory image 26G (coordinate information: (12, 7)) displayed in S19 (see FIG. 4).

CPU51は、nが「3」の状態でメイン処理のS17以降を実行する場合、テーブル541のうち「3」のインデックスに対応する第2情報(11,6)に基づき、画像表示部14の対応する位置に軌跡画像26H(光景25H、図9参照)を3番目の軌跡画像として表示させる(S19、図4参照)。又、CPU51は、1番目の軌跡画像261、及び、2番目の軌跡画像26Gも画像表示部14に表示させる(S19)。CPU51は、修正処理(S27、図4参照)を実行した場合、nが「1」より大きいので(S50:YES、図5参照)、次のようにして第2情報の補正を行う。   When the CPU 51 executes S17 and subsequent steps of the main process in a state where n is “3”, the correspondence of the image display unit 14 is based on the second information (11, 6) corresponding to the index “3” in the table 541. The trajectory image 26H (scenery 25H, see FIG. 9) is displayed as the third trajectory image at the position (S19, see FIG. 4). The CPU 51 also displays the first trajectory image 261 and the second trajectory image 26G on the image display unit 14 (S19). When executing the correction process (S27, see FIG. 4), the CPU 51 corrects the second information as follows because n is larger than “1” (S50: YES, see FIG. 5).

CPU51は、「1」(=i)のインデックスに対応する第1情報及び第2情報を、テーブル541(図7参照)から取得する(S55、図5参照)。CPU51は、「3」(=n)のインデックスに対応する第1情報(3,9)(13,9)(3,1)(13,1)を、テーブル541(図7参照)から取得する(S57、図5参照)。CPU51は、S55及びS57の夫々で取得した第1情報に基づいて、X差分及びY差分を算出する。算出されるX差分は何れも「2」であり、Y差分は何れも「0」である。CPU51は、X差分とY差分とを加算し、参照点35の位置の変化量「2」を算出する(S59、図5参照)。算出される参照点35の位置の変化量「2」は所定値「1」よりも小さくないので(S61:NO、図5参照)、CPU51は、テーブル541のうち「1」(=i)のインデックスに対応する第2情報のX成分「13」から、S59で算出されたX差分「2」を減算し、補正後のX成分「11」を得る。CPU51は、テーブル541のうち「1」(=i)のインデックスに対応する第2情報のY成分「8」から、S59で算出されたY差分「0」を減算し、補正後のY成分「8」を得る。CPU51は、補正情報(11,8)を特定し、i=1、n=3に対応付けてテーブル521(図8参照)に記憶する(S65、図5参照)。これによって、第2情報は(13,8)から(11,8)に修正されたことになる。CPU51は、i(=1)に「1」を加算した結果「2」がn(=3)より小さいので(S69:NO、図5参照)、1が加算されたi(=2)に基づいて処理を繰り返す。   The CPU 51 acquires the first information and the second information corresponding to the index “1” (= i) from the table 541 (see FIG. 7) (S55, see FIG. 5). The CPU 51 acquires the first information (3, 9) (13, 9) (3, 1) (13, 1) corresponding to the index “3” (= n) from the table 541 (see FIG. 7). (See S57, FIG. 5). The CPU 51 calculates the X difference and the Y difference based on the first information acquired in S55 and S57. The calculated X differences are all “2”, and the Y differences are all “0”. The CPU 51 adds the X difference and the Y difference to calculate the change amount “2” of the position of the reference point 35 (see S59, FIG. 5). Since the calculated change amount “2” of the reference point 35 is not smaller than the predetermined value “1” (S61: NO, see FIG. 5), the CPU 51 sets “1” (= i) in the table 541. The X difference “2” calculated in S59 is subtracted from the X component “13” of the second information corresponding to the index to obtain a corrected X component “11”. The CPU 51 subtracts the Y difference “0” calculated in S59 from the Y component “8” of the second information corresponding to the index of “1” (= i) in the table 541 to obtain the corrected Y component “8”. 8 ”is obtained. The CPU 51 identifies the correction information (11, 8) and stores it in the table 521 (see FIG. 8) in association with i = 1 and n = 3 (S65, see FIG. 5). As a result, the second information is corrected from (13, 8) to (11, 8). The CPU 51 adds “1” to i (= 1), so that “2” is smaller than n (= 3) (S69: NO, see FIG. 5). Based on i (= 2) with 1 added. Repeat the process.

CPU51は、「2」(=i)のインデックスに対応する第1情報(4,9)(14,9)(4,1)(14,1)及び第2情報(12,7)を、テーブル541(図7参照)から取得する(S55、図5参照)。CPU51は、「3」(=n)のインデックスに対応する第1情報を、テーブル541(図7参照)から取得する(S57)。CPU51は、S55及びS57の夫々で取得した第1情報に基づいて、X差分及びY差分を算出する。算出されるX差分は何れも「1」であり、Y差分は何れも「0」である。CPU51は、X差分とY差分とを加算し、参照点35の位置の変化量「1」を算出する(S59、図5参照)。算出される参照点35の位置の変化量「1」は所定値「1」よりも小さくないので(S61:NO、図5参照)、CPU51は、テーブル541のうち「2」(=i)のインデックスに対応する第2情報のX成分「12」から、S59で算出されたX差分「1」を減算し、補正後のX成分「11」を得る。CPU51は、テーブル541のうち「2」(=i)のインデックスに対応する第2情報のY成分「7」から、S59で算出されたY差分「0」を減算し、補正後のY成分「7」を得る。CPU51は、補正情報(11,7)を特定し、i=2、n=3に対応付けてRAM52に記憶する(S65、図5参照)。これによって、第2情報は(12,7)から(11,7)に修正されたことになる。   The CPU 51 stores the first information (4, 9) (14, 9) (4, 1) (14, 1) and the second information (12, 7) corresponding to the index of “2” (= i) in the table. 541 (see FIG. 7) (S55, see FIG. 5). CPU51 acquires the 1st information corresponding to the index of "3" (= n) from table 541 (refer to Drawing 7) (S57). The CPU 51 calculates the X difference and the Y difference based on the first information acquired in S55 and S57. The calculated X differences are all “1”, and the Y differences are all “0”. The CPU 51 adds the X difference and the Y difference, and calculates a change amount “1” of the position of the reference point 35 (S59, see FIG. 5). Since the calculated change amount “1” of the position of the reference point 35 is not smaller than the predetermined value “1” (S61: NO, see FIG. 5), the CPU 51 sets “2” (= i) in the table 541. The X difference “1” calculated in S59 is subtracted from the X component “12” of the second information corresponding to the index to obtain a corrected X component “11”. The CPU 51 subtracts the Y difference “0” calculated in S59 from the Y component “7” of the second information corresponding to the index “2” (= i) in the table 541, and corrects the corrected Y component “7”. 7 ”is obtained. The CPU 51 identifies the correction information (11, 7) and stores it in the RAM 52 in association with i = 2 and n = 3 (S65, see FIG. 5). As a result, the second information is corrected from (12, 7) to (11, 7).

CPU51は、i(=2)に「1」を加算した結果「3」がn(=3)と同一であるため(S69:YES、図5参照)、テーブル541のうち「1」「2」(=n−1)のインデックスに対応する第2情報に基づいて表示させた1番目の軌跡画像261、及び、2番目の軌跡画像26Gを消去する(S71、図5参照)(光景25H、図9参照)。CPU51は、画像表示部14のうちテーブル521に記憶された補正情報(11,8)によって示される補正位置に、軌跡画像262(光景25H、図9参照)を、新たな1番目の軌跡画像として表示させる。又、補正情報(11,7)によって示される補正位置に、軌跡画像263(光景25H、図9参照)を、新たな2番目の軌跡画像として表示させる(S73、図5参照)。図9に示すように、軌跡画像262(補正情報:(11,8))は、消去された軌跡画像261(補正情報:(12,8))に対して左方に配置する。又、軌跡画像263(補正情報:(11,7))は、消去された軌跡画像26G(座標情報:(12,7))に対して左方に配置する。又、軌跡画像262、263は、S19(図4参照)で表示させた軌跡画像26H(座標情報:(11,6))に対して垂直上側に配置する。   The CPU 51 adds “1” to i (= 2) and the result “3” is the same as n (= 3) (S69: YES, see FIG. 5), so “1” “2” in the table 541 The first trajectory image 261 and the second trajectory image 26G displayed based on the second information corresponding to the index (= n−1) are deleted (S71, see FIG. 5) (Scene 25H, FIG. 9). The CPU 51 uses the trajectory image 262 (the scene 25H, see FIG. 9) as a new first trajectory image at the correction position indicated by the correction information (11, 8) stored in the table 521 in the image display unit 14. Display. In addition, the locus image 263 (scenery 25H, see FIG. 9) is displayed as a new second locus image at the correction position indicated by the correction information (11, 7) (S73, see FIG. 5). As shown in FIG. 9, the trajectory image 262 (correction information: (11, 8)) is arranged on the left side with respect to the deleted trajectory image 261 (correction information: (12, 8)). Further, the locus image 263 (correction information: (11, 7)) is arranged on the left side with respect to the deleted locus image 26G (coordinate information: (12, 7)). Further, the trajectory images 262 and 263 are arranged vertically above the trajectory image 26H (coordinate information: (11, 6)) displayed in S19 (see FIG. 4).

以上の処理は、メイン処理のS35で指先の位置の経時的な変化が所定の条件を満たすと判断されるまで繰り返される。これによって、図9の光景25I、25Jで示されるように、n−1番目の軌跡画像26は、修正処理(S27参照)が繰り返される毎に補正される。従って、光景25Iの軌跡画像264〜266、26I、及び、光景25Jの軌跡画像267〜270、26Jで示されるように、軌跡画像26は、上から下に向けて垂直に並んだ状態になる。なお、この配置は、実際の指先の位置の経時的な変化の傾向を示す。   The above processing is repeated until it is determined in S35 of the main processing that a change with time of the fingertip position satisfies a predetermined condition. As a result, as shown by scenes 25I and 25J in FIG. 9, the (n-1) th trajectory image 26 is corrected each time the correction process (see S27) is repeated. Therefore, as shown by the trajectory images 264 to 266 and 26I of the scene 25I and the trajectory images 267 to 270 and 26J of the scene 25J, the trajectory images 26 are arranged vertically from top to bottom. This arrangement shows the tendency of the actual fingertip position to change over time.

以上説明したように、CPU51は、第1情報(参照点35の位置を示す情報)と、第2情報(指先の位置を示す情報)とに基づいて第3情報を決定し、テーブル541に記憶する。第3情報は、参照点35に対する指先の相対位置を特定可能な情報である。参照点35の位置は、カメラ20の撮影方向が変化することに応じて変化する。このため、参照点35に対する指先の相対位置の経時的な変化は、カメラ20の撮影方向が変化した場合でも、実際の指先の動きを示す。CPU51は、指先の相対位置の経時的な変化の傾向が所定の条件を満たす場合、対応する処理を実行する。これによってCPU51は、カメラ20による撮影方向が変化した場合でも、実際の指先の動きを正確に特定し、対応する処理を実行できる。   As described above, the CPU 51 determines the third information based on the first information (information indicating the position of the reference point 35) and the second information (information indicating the position of the fingertip), and stores the third information in the table 541. To do. The third information is information that can specify the relative position of the fingertip with respect to the reference point 35. The position of the reference point 35 changes as the shooting direction of the camera 20 changes. For this reason, the change with time of the relative position of the fingertip with respect to the reference point 35 shows the actual movement of the fingertip even when the shooting direction of the camera 20 changes. The CPU 51 executes a corresponding process when the tendency of the relative change of the fingertip with time satisfies a predetermined condition. Thus, even when the shooting direction of the camera 20 changes, the CPU 51 can accurately identify the actual fingertip movement and execute the corresponding processing.

又、CPU51は、HD10を装着したユーザの頭部の向きが変化し、カメラ20の撮影方向が変化した場合でも、所定領域21の変化分を排除した軌跡画像26を、実際の指先の移動の様子を示す軌跡画像26として表示できる。従ってユーザは、所定の条件に合致するように指先を適切に移動させることができる。又、ユーザは、指先が所定の条件に合致するように移動しているかを容易に確認できる。又、画像表示部14に表示された直後の軌跡画像26、即ち、n番目に画像表示部14に表示された軌跡画像26は、実像22に含まれる手23の指先の位置と一致する。このためユーザは、軌跡画像26が指先の位置を示していることを違和感なく認識できる。   Further, the CPU 51 changes the actual fingertip movement of the trajectory image 26 excluding the change in the predetermined area 21 even when the orientation of the head of the user wearing the HD 10 changes and the shooting direction of the camera 20 changes. It can be displayed as a trajectory image 26 showing the state. Therefore, the user can appropriately move the fingertip so as to meet a predetermined condition. Further, the user can easily confirm whether the fingertip is moving so as to meet a predetermined condition. The trajectory image 26 immediately after being displayed on the image display unit 14, that is, the trajectory image 26 displayed on the nth image display unit 14 coincides with the position of the fingertip of the hand 23 included in the real image 22. Therefore, the user can recognize without a sense of incongruity that the trajectory image 26 indicates the position of the fingertip.

本発明は上記実施形態に限定されず、種々の変更が可能である。図7、図10、図11を参照し、変形例における修正処理を説明する。図10の修正処理は、図4のメイン処理のS27で、図5の修正処理の代わりに実行される。メイン処理は上記実施形態と同一である為、処理を省略する。   The present invention is not limited to the above embodiment, and various modifications can be made. With reference to FIGS. 7, 10, and 11, correction processing in the modification will be described. The correction process of FIG. 10 is executed instead of the correction process of FIG. 5 in S27 of the main process of FIG. Since the main process is the same as the above embodiment, the process is omitted.

図10を参照し、変形例における修正処理を説明する。CPU51は、RAM52に記憶されたnが1よりも大きいか判断する(S70)。CPU51は、nが1よりも大きくないと判断した場合(S70:NO)、修正処理を終了させ、処理をメイン処理(図4参照)に戻す。CPU51は、nが1よりも大きいと判断した場合(S70:YES)、iの値としてnを設定する(S71)。CPU51は、テーブル541(図7参照)のうち「1」のインデックスに対応する4つの第1情報を取得する(S75)。CPU51は、テーブル541のうちi(=n)のインデックスに対応する4つの第1情報及び第2情報を取得する(S77)。   With reference to FIG. 10, the correction process in a modification is demonstrated. The CPU 51 determines whether n stored in the RAM 52 is greater than 1 (S70). If the CPU 51 determines that n is not greater than 1 (S70: NO), it ends the correction process and returns the process to the main process (see FIG. 4). If the CPU 51 determines that n is greater than 1 (S70: YES), it sets n as the value of i (S71). The CPU 51 acquires four pieces of first information corresponding to the index “1” in the table 541 (see FIG. 7) (S75). CPU51 acquires four 1st information and 2nd information corresponding to the index of i (= n) among tables 541 (S77).

CPU51は、S75で取得した4つの第1情報(インデックス:1)と、S77で取得した4つの第1情報(インデックス:i)とに基づき、同一の参照点35に対応する第3情報どうしのX成分及びY成分の夫々の減算を行うことによって、4つの参照点35の夫々に対応するX成分及びY成分の差分(X差分及びY差分))を算出する。CPU51は、同一の参照点35毎に算出したX差分及びY差分のうち、何れかの参照点35に対応するX差分及びY差分を選択する。CPU51は、選択したX差分及びY差分を加算し、参照点35の位置の変化量を算出する(S79)。   The CPU 51 determines whether the third information corresponding to the same reference point 35 is based on the four pieces of first information (index: 1) acquired in S75 and the four pieces of first information (index: i) acquired in S77. By subtracting the X component and the Y component, the difference between the X component and the Y component (X difference and Y difference) corresponding to each of the four reference points 35 is calculated. The CPU 51 selects an X difference and a Y difference corresponding to one of the reference points 35 among the X difference and the Y difference calculated for the same reference point 35. The CPU 51 adds the selected X difference and Y difference, and calculates the amount of change in the position of the reference point 35 (S79).

CPU51は、S79で算出した参照点35の位置の変化量が所定値(例えば「1」)よりも小さいか判断する(S81)。CPU51は、参照点35の位置の変化量が所定値よりも小さいと判断した場合(S81:YES)、修正処理を終了させ、処理をメイン処理(図4参照)に戻す。CPU51は、参照点35の位置の変化量が所定値よりも小さくないと判断した場合(S81:NO)、次の処理を行うことによって、テーブル541のうちi(=n)のインデックスに対応する第2情報を補正する(S83)。具体的には次の通りである。CPU51は、テーブル541のうちiのインデックスに対応する第2情報のX成分に、S79で算出されたX差分を加算する。CPU51は、テーブル541のうちiのインデックスに対応する第2情報のY成分に、S79で算出されたY差分を加算する。CPU51は、算出されたX成分及びY成分を含む補正情報を、i(=n)、nと補正情報とを関連付けて、テーブル521(図11参照)に記憶する(S85)。   The CPU 51 determines whether the amount of change in the position of the reference point 35 calculated in S79 is smaller than a predetermined value (for example, “1”) (S81). When the CPU 51 determines that the amount of change in the position of the reference point 35 is smaller than the predetermined value (S81: YES), the CPU 51 ends the correction process and returns the process to the main process (see FIG. 4). When the CPU 51 determines that the amount of change in the position of the reference point 35 is not smaller than the predetermined value (S81: NO), the CPU 51 corresponds to the index i (= n) in the table 541 by performing the following process. The second information is corrected (S83). Specifically, it is as follows. The CPU 51 adds the X difference calculated in S79 to the X component of the second information corresponding to the index i in the table 541. The CPU 51 adds the Y difference calculated in S79 to the Y component of the second information corresponding to the index i in the table 541. The CPU 51 stores the correction information including the calculated X component and Y component in the table 521 (see FIG. 11) in association with i (= n), n and the correction information (S85).

図11に示すように、テーブル521では、上記のように補正情報が記憶されることによって、i=nに補正情報が関連付けて記憶される。なお図11では、理解を容易とする為に、補正前の第2情報と矢印とが、夫々の補正情報の前に追加して示されている。又、i=n以外に対応する情報は記憶されないが、理解を容易とする為、補正情報に基づいて継続して画像表示部14に表示される軌跡画像26の位置を示す座標情報が示されている。   As shown in FIG. 11, in the table 521, the correction information is stored as described above, so that the correction information is stored in association with i = n. In FIG. 11, in order to facilitate understanding, second information before correction and an arrow are additionally shown before each correction information. In addition, information corresponding to other than i = n is not stored, but for easy understanding, coordinate information indicating the position of the trajectory image 26 continuously displayed on the image display unit 14 is shown based on the correction information. ing.

図10に示すように、CPU51は、画像表示部14に表示された状態の軌跡画像26のうち、S19(図4参照)で表示されたn番目の軌跡画像26を消去する(S87)。これによって、1〜n−1番目に対応する軌跡画像26が画像表示部14に表示された状態になる。1〜n−1番目に対応する軌跡画像26とは、S19で1〜n−1番目に表示された軌跡画像26の夫々の位置が、i=1〜n−1の時に実行された補正処理のS83で補正され、更に、i=1〜n−1の時に実行された補正処理のS89(後述)で、補正位置に表示された軌跡画像26を示す。   As shown in FIG. 10, the CPU 51 deletes the nth trajectory image 26 displayed in S19 (see FIG. 4) from the trajectory image 26 displayed on the image display unit 14 (S87). As a result, the trajectory images 26 corresponding to the 1st to (n-1) th are displayed on the image display unit 14. The trajectory image 26 corresponding to the 1st to (n-1) th is a correction process executed when the positions of the trajectory images 26 displayed in the 1st to (n-1) th in S19 are i = 1 to n-1. The trajectory image 26 displayed at the correction position is shown in S89 (described later) of the correction process corrected in S83 of FIG.

次にCPU51は、テーブル521に記憶した補正情報によって示される所定領域21内の補正位置を特定する。CPU51は、特定した位置に対応する実像22上の位置に重ねる軌跡画像26を、画像表示部14に表示させる(S89)。これによって、S87で消去されたn番目に対応する軌跡画像26の代わりに、位置が修正されたn番目に対応する軌跡画像26が、1〜n−1番目に対応する軌跡画像26に追加して表示される。CPU51は修正処理を終了させ、処理をメイン処理(図4参照)に戻す。   Next, the CPU 51 specifies a correction position in the predetermined area 21 indicated by the correction information stored in the table 521. The CPU 51 causes the image display unit 14 to display the trajectory image 26 superimposed on the position on the real image 22 corresponding to the specified position (S89). Thereby, instead of the trajectory image 26 corresponding to the nth deleted in S87, the trajectory image 26 corresponding to the nth corrected position is added to the trajectory image 26 corresponding to the 1st to (n-1) th. Displayed. The CPU 51 ends the correction process and returns the process to the main process (see FIG. 4).

図4、図10〜図12を参照し、軌跡画像26が画像表示部14に表示される場合について、具体的に説明する。CPU51は、nが「1」の状態でメイン処理(図4参照)のS17以降を実行する場合、テーブル541(図7参照)のうち「1」のインデックスに対応する第2情報(13,8)に基づき、画像表示部14の対応する位置に軌跡画像26F(光景25F、図12参照)を表示させる(S19、図4参照)。CPU51は、修正処理(S27、図4参照)を実行した場合、nが1より大きくないので(S70:NO、図10参照)、第2情報の補正(S83、図10参照)を行わず、テーブル521(図11参照)に補正情報を記憶しない(但し、テーブル521では、上記で説明したように、理解を容易とする為に、軌跡画像26Fに対応する位置を示す第2情報(13,8)が、i=n=1に対応付けて示されている。)。   The case where the trajectory image 26 is displayed on the image display unit 14 will be specifically described with reference to FIGS. 4 and 10 to 12. When the CPU 51 executes S17 and subsequent steps of the main process (see FIG. 4) in a state where n is “1”, the second information (13, 8) corresponding to the index “1” in the table 541 (see FIG. 7). ), A trajectory image 26F (scenery 25F, see FIG. 12) is displayed at a corresponding position on the image display unit 14 (S19, see FIG. 4). When the CPU 51 executes the correction process (S27, see FIG. 4), since n is not larger than 1 (S70: NO, see FIG. 10), the second information is not corrected (S83, see FIG. 10). The correction information is not stored in the table 521 (see FIG. 11) (however, in the table 521, as described above, for the sake of easy understanding, the second information (13, 13) indicating the position corresponding to the trajectory image 26F is used. 8) is shown in association with i = n = 1.)

次に、CPU51は、nが「2」の状態でメイン処理のS17以降を実行する場合、テーブル541のうち「2」のインデックスに対応する第2情報(12,7)に基づき、画像表示部14の対応する位置に軌跡画像26G(光景25G、図12参照)を表示させる(S19、図4参照)。CPU51は、修正処理(S27、図4参照)を実行した場合、nが「1」より大きいので(S70:YES、図10参照)、次のようにして第2情報の補正を行う。   Next, in the case where n is “2” and the main process is executed after S17 of the main process, the CPU 51 displays the image display unit based on the second information (12, 7) corresponding to the index “2” in the table 541. The trajectory image 26G (scenery 25G, see FIG. 12) is displayed at the corresponding position 14 (S19, see FIG. 4). When the correction process (S27, see FIG. 4) is executed, the CPU 51 corrects the second information as follows because n is larger than “1” (S70: YES, see FIG. 10).

CPU51は、「1」のインデックスに対応する第1情報(5,9)(15,9)(5,1)(15,1)を、テーブル541(図7参照)から取得する(S75、図10参照)。CPU51は、「2」(=i=n)のインデックスに対応する第1情報(4,9)(14,9)(4,1)(14,1)及び第2情報(12,7)を、テーブル541(図7参照)から取得する(S77、図10参照)。CPU51は、S75及びS77の夫々で取得した第1情報に基づいて、X差分及びY差分を算出する。算出されるX差分は何れも「1」であり、Y差分は何れも「0」である。CPU51は、X差分とY差分とを加算し、参照点35の位置の変化量「1」を算出する(S79、図10参照)。算出される参照点35の位置の変化量「1」は所定値「1」よりも小さくないので(S81:NO、図10参照)、CPU51は、テーブル541のうち「2」(=i=n)のインデックスに対応する第2情報のX成分「12」に、S79で算出されたX差分「1」を加算し、補正後のX成分「13」を得る。CPU51は、テーブル541のうち「2」のインデックスに対応する第2情報のY成分「7」に、S59で算出されたY差分「0」を加算し、補正後のY成分「7」を得る。CPU51は、補正情報(13,7)を特定し、i=2、n=2に対応付けてテーブル521(図11参照)に記憶する(S85、図10参照)。これによって、第2情報は(12,7)から(13,7)に修正されたことになる。   The CPU 51 acquires the first information (5, 9) (15, 9) (5, 1) (15, 1) corresponding to the index “1” from the table 541 (see FIG. 7) (S75, FIG. 10). The CPU 51 stores the first information (4, 9) (14, 9) (4, 1) (14, 1) and the second information (12, 7) corresponding to the index of “2” (= i = n). , From the table 541 (see FIG. 7) (S77, see FIG. 10). The CPU 51 calculates the X difference and the Y difference based on the first information acquired in S75 and S77. The calculated X differences are all “1”, and the Y differences are all “0”. The CPU 51 adds the X difference and the Y difference to calculate the amount of change “1” of the position of the reference point 35 (S79, see FIG. 10). Since the calculated change amount “1” of the reference point 35 is not smaller than the predetermined value “1” (S81: NO, see FIG. 10), the CPU 51 sets “2” (= i = n) in the table 541. The X difference “1” calculated in S79 is added to the X component “12” of the second information corresponding to the index of) to obtain the corrected X component “13”. The CPU 51 adds the Y difference “0” calculated in S59 to the Y component “7” of the second information corresponding to the index “2” in the table 541 to obtain the corrected Y component “7”. . The CPU 51 identifies the correction information (13, 7) and stores it in the table 521 (see FIG. 11) in association with i = 2 and n = 2 (S85, see FIG. 10). As a result, the second information is corrected from (12, 7) to (13, 7).

CPU51は、テーブル541のうち「2」(=i=n)のインデックスに対応する第2情報に基づいて画像表示部14に表示させた軌跡画像26Gを消去する(S87)(光景25G、図12参照)。CPU51は、画像表示部14のうちテーブル521に記憶された補正情報(13,7)によって示される補正位置に、軌跡画像281(光景25G、図12参照)を表示させる(S89、図10参照)。図12の光景25Gに示すように、軌跡画像281(補正情報:(13,7))は、消去した軌跡画像26F(座標情報:(12,7))に対して右方に配置する。また軌跡画像281は、軌跡画像26F(座標情報:(13,8))に対して垂直下側に配置する。   The CPU 51 deletes the trajectory image 26G displayed on the image display unit 14 based on the second information corresponding to the index “2” (= i = n) in the table 541 (S87) (Scene 25G, FIG. 12). reference). The CPU 51 displays the trajectory image 281 (the scene 25G, see FIG. 12) at the correction position indicated by the correction information (13, 7) stored in the table 521 in the image display unit 14 (see S89, FIG. 10). . As shown in the scene 25G in FIG. 12, the trajectory image 281 (correction information: (13, 7)) is arranged on the right side with respect to the deleted trajectory image 26F (coordinate information: (12, 7)). In addition, the trajectory image 281 is arranged vertically below the trajectory image 26F (coordinate information: (13, 8)).

CPU51は、nが「3」の状態でメイン処理のS17以降を実行する場合、テーブル541のうち「3」のインデックスに対応する第2情報(11,6)に基づき、画像表示部14の対応する位置に軌跡画像26H(光景25H、図9参照)を表示させる(S19、図4参照)。CPU51は、修正処理(S27、図4参照)を実行した場合、nが「1」より大きいので(S70:YES、図10参照)、次のようにして第2情報の補正を行う。   When the CPU 51 executes S17 and subsequent steps of the main process in a state where n is “3”, the correspondence of the image display unit 14 is based on the second information (11, 6) corresponding to the index “3” in the table 541. A trajectory image 26H (scene 25H, see FIG. 9) is displayed at the position to be played (S19, see FIG. 4). When the correction process (S27, see FIG. 4) is executed, the CPU 51 corrects the second information as follows because n is larger than “1” (S70: YES, see FIG. 10).

CPU51は、「1」のインデックスに対応する第1情報を、テーブル541(図7参照)から取得する(S75、図10参照)。CPU51は、「3」(=i=n)のインデックスに対応する第1情報(3,9)(13,9)(3,1)(13,1)及び第2情報(11,6)を、テーブル541(図7参照)から取得する(S77、図10参照)。CPU51は、S75及びS77の夫々で取得した第1情報に基づいて、X差分及びY差分を算出する。算出されるX差分は何れも「2」であり、Y差分は何れも「0」である。CPU51は、X差分とY差分とを加算し、参照点35の位置の変化量「2」を算出する(S79、図10参照)。算出される参照点35の位置の変化量「2」は所定値「1」よりも小さくないので(S81:NO、図10参照)、CPU51は、テーブル541のうち「3」(=i=n)のインデックスに対応する第2情報のX成分「11」に、S79で算出されたX差分「2」を加算し、補正後のX成分「13」を得る。CPU51は、テーブル541のうち「3」のインデックスに対応する第2情報のY成分「6」に、S59で算出されたY差分「0」を加算し、補正後のY成分「6」を得る。CPU51は、補正情報(13,6)を特定し、i=3、n=3に対応付けてテーブル521(図11参照)に記憶する(S85、図10参照)。これによって、第2情報は(11,6)から(13,6)に修正されたことになる。   The CPU 51 acquires first information corresponding to the index “1” from the table 541 (see FIG. 7) (S75, see FIG. 10). The CPU 51 stores the first information (3, 9) (13, 9) (3, 1) (13, 1) and the second information (11, 6) corresponding to the index of “3” (= i = n). , From the table 541 (see FIG. 7) (S77, see FIG. 10). The CPU 51 calculates the X difference and the Y difference based on the first information acquired in S75 and S77. The calculated X differences are all “2”, and the Y differences are all “0”. The CPU 51 adds the X difference and the Y difference to calculate the amount of change “2” of the position of the reference point 35 (S79, see FIG. 10). Since the calculated change amount “2” of the position of the reference point 35 is not smaller than the predetermined value “1” (S81: NO, see FIG. 10), the CPU 51 sets “3” (= i = n) in the table 541. The X difference “2” calculated in S79 is added to the X component “11” of the second information corresponding to the index of) to obtain the corrected X component “13”. The CPU 51 adds the Y difference “0” calculated in S59 to the Y component “6” of the second information corresponding to the index “3” in the table 541 to obtain the corrected Y component “6”. . The CPU 51 identifies the correction information (13, 6) and stores it in the table 521 (see FIG. 11) in association with i = 3 and n = 3 (S85, see FIG. 10). As a result, the second information is corrected from (11, 6) to (13, 6).

CPU51は、テーブル541のうち「3」(=i=n)のインデックスに対応する第2情報に基づいて画像表示部14に表示させた軌跡画像26Hを消去する(S87)(光景25H、図12参照)。CPU51は、画像表示部14のうちテーブル521に記憶された補正情報(12,6)によって示される補正位置に、軌跡画像282(光景25H、図12参照)を表示させる(S89、図10参照)。図12の光景25Hに示すように、軌跡画像282(補正情報:(13,6))は、消去した軌跡画像26H(座標情報:(11,6))に対して右方に配置する。また軌跡画像282は、軌跡画像26F(座標情報:(13,8))、281(座標情報:(13,7))に対して垂直下側に配置する。   The CPU 51 deletes the trajectory image 26H displayed on the image display unit 14 based on the second information corresponding to the index “3” (= i = n) in the table 541 (S87) (Scene 25H, FIG. 12). reference). The CPU 51 displays the trajectory image 282 (scene 25H, see FIG. 12) at the correction position indicated by the correction information (12, 6) stored in the table 521 in the image display unit 14 (see S89, FIG. 10). . As shown in the scene 25H of FIG. 12, the trajectory image 282 (correction information: (13, 6)) is arranged on the right side with respect to the deleted trajectory image 26H (coordinate information: (11, 6)). In addition, the trajectory image 282 is arranged vertically below the trajectory images 26F (coordinate information: (13, 8)) and 281 (coordinate information: (13, 7)).

以上の処理は、メイン処理のS35で指先の位置の経時的な変化が所定の条件を満たすと判断されるまで繰り返される。これによって、図12の光景25I、25Jで示されるように、n番目に画像表示部14に表示された軌跡画像26は、修正処理(S27参照)によって補正される。従って、光景25Iの軌跡画像26F、281〜283、及び、光景25Jの軌跡画像26F、281〜284で示されるように、軌跡画像26は、上から下に向けて垂直に並んだ状態になる。なお、この配置は、実際の指先の位置の経時的な変化の傾向を示す。   The above processing is repeated until it is determined in S35 of the main processing that a change with time of the fingertip position satisfies a predetermined condition. As a result, as shown by the scenes 25I and 25J in FIG. 12, the trajectory image 26 displayed on the nth image display unit 14 is corrected by the correction process (see S27). Accordingly, as shown by the trajectory images 26F and 281 to 283 of the scene 25I and the trajectory images 26F and 281 to 284 of the scene 25J, the trajectory images 26 are arranged vertically from top to bottom. This arrangement shows the tendency of the actual fingertip position to change over time.

このようにCPU51は、HD10を装着したユーザの頭部の向きが変化し、カメラ20の撮影方向が変化した場合でも、所定領域21の変化分を排除した軌跡画像26を、実際の指先の移動の様子を示す軌跡画像26として表示できる。従ってユーザは、所定の条件に合致するように指先を適切に移動させることができる。又、ユーザは、指先が所定の条件に合致するように移動しているかを容易に確認できる。又、上記実施形態の場合と異なり、画像表示部14に一旦表示された軌跡画像26は移動しない。このためユーザは、軌跡画像26を違和感なく視認できる。   In this way, the CPU 51 moves the actual fingertip of the trajectory image 26 excluding the change in the predetermined area 21 even when the orientation of the head of the user wearing the HD 10 changes and the shooting direction of the camera 20 changes. Can be displayed as a trajectory image 26 showing the state of Therefore, the user can appropriately move the fingertip so as to meet a predetermined condition. Further, the user can easily confirm whether the fingertip is moving so as to meet a predetermined condition. Unlike the case of the above embodiment, the trajectory image 26 once displayed on the image display unit 14 does not move. For this reason, the user can visually recognize the trajectory image 26 without a sense of incongruity.

上記実施形態において、CPU51は、S15で指先を特定したが、特定される対象物は指先に限定されない。例えばCPU51は、所定色(例えば赤色)のペン先を対象物として特定してもよい。この場合、CPU51は、所定色に対応する所定の画素値を有する画素が連続している領域を検出することで、対象物が含まれる領域を検出することができる。そして、検出した領域全体を囲う多角形の形状と、プログラムROM53に予め記憶された、対象物に対応する形状の画像テンプレートとに基づいて、周知のパターンマッチング処理が行われる。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の領域をペン先と特定する。カメラ20は、CB50に対して撮影画像データを直接送信してもよい。   In the said embodiment, although CPU51 specified the fingertip by S15, the target object specified is not limited to a fingertip. For example, the CPU 51 may specify a pen tip of a predetermined color (for example, red) as an object. In this case, the CPU 51 can detect a region including the target object by detecting a region where pixels having a predetermined pixel value corresponding to a predetermined color are continuous. Then, a well-known pattern matching process is performed on the basis of the polygonal shape surrounding the entire detected area and the image template having a shape corresponding to the object stored in advance in the program ROM 53. When the cross-correlation coefficient calculated by the pattern matching process is a value within a predetermined range, the CPU 51 determines that the pattern matching between the specified polygonal shape and the image template is successful. In this case, the CPU 51 identifies the polygonal area as the pen tip. The camera 20 may directly transmit the captured image data to the CB 50.

CPU51は、S21で、カメラ20の撮影方向を示す情報として参照点35を特定した。CPU451は、別の方法で、カメラ20の撮影方向を示す情報を特定してもよい。例えば、HD10には加速度センサ又は方位センサが更に設けられてもよい。加速度センサは、ユーザの頭部の向く方向の変化を、加速度の情報として検出してもよい。方位センサは、ユーザの頭部の向く方向の変化を、方位の情報として検出してもよい。CPU51は、加速度センサ又は方位センサによって検出される情報に基づき、HMD1の起動時におけるユーザの頭部の向く方向に対する相対的な方向を、カメラ20の撮影方向を示す情報として特定してもよい。CPU51は、カメラ20の撮影方向を示す情報から、カメラ20によって撮影される撮影領域の変化分を特定し、特定した変化分に基づいて参照点35を特定してもよい。又、例えばCPU51は、S21で特定した参照点35の位置を示す情報(第1情報)を、加速度センサから取得した加速度の情報に基づいて修正し、S23で第3情報を特定してもよい。これによってCPU51は、カメラ20の撮影方向が変化した場合でも、共通する参照点35を継続して特定し、第3情報を特定できる。   CPU51 specified the reference point 35 as information which shows the imaging direction of the camera 20 by S21. The CPU 451 may specify information indicating the shooting direction of the camera 20 by another method. For example, the HD 10 may be further provided with an acceleration sensor or an orientation sensor. The acceleration sensor may detect a change in the direction of the user's head as acceleration information. The direction sensor may detect a change in the direction of the user's head as direction information. The CPU 51 may specify a relative direction with respect to the direction of the user's head when the HMD 1 is activated as information indicating the shooting direction of the camera 20 based on information detected by the acceleration sensor or the orientation sensor. The CPU 51 may specify the change amount of the shooting region shot by the camera 20 from the information indicating the shooting direction of the camera 20, and may specify the reference point 35 based on the specified change amount. For example, the CPU 51 may correct the information (first information) indicating the position of the reference point 35 specified in S21 based on the acceleration information acquired from the acceleration sensor, and specify the third information in S23. . As a result, even when the shooting direction of the camera 20 changes, the CPU 51 can continuously specify the common reference point 35 and specify the third information.

CPU51が特定する参照点35の数、及び、参照点35を抽出する撮影画像31の場所は変更できる。例えばCPU41は、1〜3、又は4よりも大きい数分、参照点35を特定してもよい。例えばCPU51は、参照点35を特定する位置を、所定領域21の略中央としてもよい。   The number of reference points 35 specified by the CPU 51 and the location of the captured image 31 from which the reference points 35 are extracted can be changed. For example, the CPU 41 may specify the reference point 35 by a number larger than 1 to 3 or 4. For example, the CPU 51 may set the position where the reference point 35 is specified as the approximate center of the predetermined area 21.

CPU51は、S25で、インデックス、4つの第1情報、第2情報、及び4つの第3情報を関連付けてテーブル541に記憶した。これに対し、インデックスの代わりに、S25が実行されたときの時刻情報が、4つの第1情報、第2情報、及び4つの第3情報に関連付けてテーブル541に記憶されてもよい。或いは、CPU51は、4つの第1情報、第2情報、及び4つの第3情報を関連付けてテーブル541に記憶し、インデックスは記憶されなくてもよい。例えばCPU51は、4つの第1情報、第2情報、及び4つの第3情報をテーブル541に記憶した順番を、テーブル541が記憶されるフラッシュROM54のアドレス情報に基づいて特定してもよい。   In S25, the CPU 51 stores the index, the four pieces of first information, the second information, and the four pieces of third information in the table 541 in association with each other. On the other hand, instead of the index, the time information when S25 is executed may be stored in the table 541 in association with the four pieces of first information, the second information, and the four pieces of third information. Alternatively, the CPU 51 associates the four pieces of first information, the second information, and the four pieces of third information and stores them in the table 541, and the index may not be stored. For example, the CPU 51 may specify the order in which the four pieces of first information, the second information, and the four pieces of third information are stored in the table 541 based on the address information of the flash ROM 54 in which the table 541 is stored.

上記実施形態において、CPU51は、修正処理(S27)を実行することによって軌跡画像26の位置を修正した。CPU51は修正処理を行わなくてもよい。CPU51は、S19で表示した軌跡画像26の位置をそのまま維持しつつ、指の位置の経時的な変化が所定の条件を満たすかを第3情報に基づいて判断してもよい。CPU51は、S41、S43、S45の夫々で、経過時間が所定値よりも大きく且つ軌跡画像26が画像表示部14に表示されている場合に、S42、S44、S46の夫々で軌跡画像26を消去した。これに対してCPU51は、S41、S43、S45の夫々で、画像表示部14に表示された軌跡画像26の数が所定値よりも大きいか否かを判断してもよい。CPU51は、軌跡画像26の数が所定値よりも小さい場合に、軌跡画像26を消去してもよい。   In the above embodiment, the CPU 51 corrects the position of the trajectory image 26 by executing the correction process (S27). The CPU 51 may not perform the correction process. The CPU 51 may determine based on the third information whether the temporal change in the finger position satisfies a predetermined condition while maintaining the position of the trajectory image 26 displayed in S19 as it is. The CPU 51 deletes the trajectory image 26 in each of S42, S44, and S46 when the elapsed time is larger than the predetermined value and the trajectory image 26 is displayed on the image display unit 14 in each of S41, S43, and S45. did. On the other hand, the CPU 51 may determine whether or not the number of trajectory images 26 displayed on the image display unit 14 is larger than a predetermined value in each of S41, S43, and S45. The CPU 51 may delete the trajectory image 26 when the number of trajectory images 26 is smaller than a predetermined value.

画像表示部14、接眼光学系、及びハーフミラー3が本発明の「表示部」の一例である。カメラ20が本発明の「撮影部」の一例である。指先が本発明の「対象物」の一例である。S15の処理を行うCPU51が本発明の「第1判断手段」の一例である。カメラ20が本発明の「検出部」の一例である。撮影画像データが本発明の「検出部の出力」の一例である。参照点35の位置が本発明の「第1位置」の一例である。S21の処理を行うCPU51が本発明の「第1取得手段」の一例である。S18の処理を行うCPU51が本発明の「第2取得手段」の一例である。所定領域21に対する指先の位置が本発明の「第2位置」の一例である。S23の処理を行うCPU51が本発明の「決定手段」の一例である。S25の処理を行うCPU51が本発明の「記憶手段」の一例である。テーブル541を記憶するフラッシュROM54が本発明の「第1記憶部」の一例である。画像テンプレートを記憶するプログラムROM53が本発明の「第2記憶部」の一例である。S26の処理を行うCPU51が本発明の「第2判断手段」の一例である。S27の処理を行うCPU51が本発明の「第1表示手段」の一例である。S19の処理を行うCPU51が本発明の「第2表示手段」の一例である。S35の処理を行うCPU51が本発明の「第3判断手段」の一例である。S39の処理を行うCPU51が本発明の「実行手段」の一例である。S71の処理を行うCPU51が本発明の「第1消去手段」の一例である。S73の処理を行うCPU51が本発明の「修正手段」の一例である。S42の処理を行うCPU51が本発明の「第2消去手段」の一例である。S44の処理を行うCPU51が本発明の「第3消去手段」の一例である。S46の処理を行うCPU51が本発明の「第4消去手段」の一例である。   The image display unit 14, the eyepiece optical system, and the half mirror 3 are examples of the “display unit” of the present invention. The camera 20 is an example of the “photographing unit” in the present invention. The fingertip is an example of the “object” in the present invention. The CPU 51 that performs the process of S15 is an example of the “first determination unit” in the present invention. The camera 20 is an example of the “detection unit” in the present invention. The captured image data is an example of the “output of the detection unit” in the present invention. The position of the reference point 35 is an example of the “first position” in the present invention. The CPU 51 that performs the process of S21 is an example of the “first acquisition unit” in the present invention. The CPU 51 that performs the process of S18 is an example of the “second acquisition unit” in the present invention. The position of the fingertip with respect to the predetermined area 21 is an example of the “second position” in the present invention. The CPU 51 that performs the process of S23 is an example of the “determination unit” in the present invention. The CPU 51 that performs the process of S25 is an example of the “storage unit” in the present invention. The flash ROM 54 that stores the table 541 is an example of the “first storage unit” in the present invention. The program ROM 53 that stores the image template is an example of the “second storage unit” in the present invention. The CPU 51 that performs the process of S26 is an example of the “second determination unit” in the present invention. The CPU 51 that performs the process of S27 is an example of the “first display means” in the present invention. The CPU 51 that performs the process of S19 is an example of the “second display unit” in the present invention. The CPU 51 that performs the process of S35 is an example of the “third determination unit” in the present invention. The CPU 51 that performs the process of S39 is an example of the “execution unit” in the present invention. The CPU 51 that performs the process of S71 is an example of the “first erasing unit” in the present invention. The CPU 51 that performs the process of S73 is an example of the “correction unit” in the present invention. The CPU 51 that performs the process of S42 is an example of the “second erasing unit” in the present invention. The CPU 51 that performs the process of S44 is an example of the “third erasing unit” in the present invention. The CPU 51 that performs the process of S46 is an example of the “fourth erasing unit” in the present invention.

S15の処理が本発明の「第1判断ステップ」の一例である。S21の処理が本発明の「第1取得ステップ」の一例である。S18の処理が本発明の「第2取得ステップ」の一例である。S23の処理が本発明の「決定ステップ」の一例である。S25の処理が本発明の「記憶ステップ」の一例である。S26の処理が本発明の「第2判断ステップ」の一例である。S27の処理が本発明の「第1表示ステップ」の一例である。S35の処理が本発明の「第3判断ステップ」の一例である。S39の処理が本発明の「実行ステップ」の一例である。   The process of S15 is an example of the “first determination step” in the present invention. The process of S21 is an example of the “first acquisition step” in the present invention. The process of S18 is an example of the “second acquisition step” in the present invention. The process of S23 is an example of the “decision step” in the present invention. The process of S25 is an example of the “storage step” in the present invention. The process of S26 is an example of the “second determination step” in the present invention. The process of S27 is an example of the “first display step” in the present invention. The process of S35 is an example of the “third determination step” in the present invention. The process of S39 is an example of the “execution step” in the present invention.

3 ハーフミラー
14 画像表示部
20 カメラ
21 所定領域
23 手
26 軌跡画像
35 参照点
51 CPU51
52 RAM
54 フラッシュROM
521、541 テーブル
3 Half mirror 14 Image display unit 20 Camera 21 Predetermined area 23 Hand 26 Trajectory image 35 Reference point 51 CPU 51
52 RAM
54 Flash ROM
521, 541 Table

Claims (13)

第1方向に画像光を射出可能な表示部と、
前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域内を撮影して画像データを出力可能な撮影部と、
前記撮影部から出力された画像データに基づいて、前記所定領域内に所定の対象物があるかを繰り返し判断する第1判断手段と、
前記第1判断手段によって前記対象物が前記所定領域内にあると判断された場合に、検出部の出力に基づいて、前記撮影部の撮影方向に対応する位置である第1位置を示す第1情報を取得する第1取得手段と、
前記所定領域に対する前記対象物の相対位置である第2位置を示す第2情報を、前記画像データに基づいて取得する第2取得手段と、
前記第1取得手段によって取得された前記第1情報と、前記第2取得手段によって取得された前記第2情報とに基づく第3情報を、前記第1判断手段によって前記対象物が前記所定領域内にあると判断される度に決定する決定手段と、
前記決定手段によって決定された前記第3情報を、決定された順序を示す順序情報と関連付けて第1記憶部に記憶する記憶手段と、
前記第1記憶部に記憶された複数の第3情報のうち1の第3情報と、前記1の第3情報に関連付けられた順序情報によって示される順序よりも後の順序を示す順序情報に関連付けられた他の第3情報とに基づいて、前記1の第3情報に対応する第1情報が前記第1取得手段によって取得されてから、前記他の第3情報に対応する第1情報が前記第1取得手段によって取得されるまでの間に、前記第1位置と前記第2位置との位置関係が変化したかを判断する第2判断手段と、
前記第2判断手段によって、前記位置関係が変化したと判断された場合、少なくとも前記他の第3情報に基づいて決定される位置を示す軌跡情報を前記表示部に繰り返し表示する第1表示手段と、
前記第1記憶部に記憶された前記複数の第3情報に基づいて、夫々の第3情報に対応する前記第2位置を、対応する第1位置によって補正した複数の補正位置の変化の傾向が所定の条件を満たしているか判断する第3判断手段と、
前記第3判断手段によって、前記所定の条件を満たしていると判断された場合、対応する処理を実行する実行手段と
を備え
前記第3情報は、前記位置関係に対応する情報であることを特徴とするヘッドマウントディスプレイ。
A display unit capable of emitting image light in a first direction;
A photographing unit capable of photographing a predetermined area including at least a second direction area opposite to the first direction and outputting image data;
First determination means for repeatedly determining whether there is a predetermined object in the predetermined area based on the image data output from the imaging unit;
A first position indicating a first position that is a position corresponding to the shooting direction of the shooting unit based on the output of the detection unit when the first determination unit determines that the object is within the predetermined area. First acquisition means for acquiring information;
Second acquisition means for acquiring second information indicating a second position, which is a relative position of the object with respect to the predetermined area, based on the image data;
The third information based on the first information acquired by the first acquisition unit and the second information acquired by the second acquisition unit is converted into the predetermined area by the first determination unit. A determination means for determining each time it is determined that
Storage means for storing the third information determined by the determination means in the first storage unit in association with the order information indicating the determined order;
Associating with one third information among a plurality of third information stored in the first storage unit and order information indicating an order after the order indicated by the order information associated with the first third information The first information corresponding to the first third information is acquired by the first acquisition means, and the first information corresponding to the other third information is Second determination means for determining whether the positional relationship between the first position and the second position has changed before being acquired by the first acquisition means;
First display means for repeatedly displaying, on the display unit, trajectory information indicating a position determined based on at least the other third information when the second determination means determines that the positional relationship has changed; ,
Based on the plurality of third information stored in the first storage unit, there is a tendency of a change in a plurality of correction positions obtained by correcting the second position corresponding to each third information by the corresponding first position. Third judging means for judging whether or not a predetermined condition is satisfied;
An execution unit that executes a corresponding process when the third determination unit determines that the predetermined condition is satisfied, wherein the third information is information corresponding to the positional relationship. Head mounted display.
前記第3情報は、前記第1位置に対する前記第2位置の相対位置を示す情報であることを特徴とする請求項1に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 1, wherein the third information is information indicating a relative position of the second position with respect to the first position. n番目(nは2以上の自然数)の軌跡情報を、前記決定手段によってn番目に決定された第3情報に対応する第2位置に表示する第2表示手段を備え、
前記第1表示手段は、
前記表示部に表示された1からn−1番目の夫々の軌跡情報を消去する第1消去手段と、
1からn−1番目の夫々に決定された第3情報に対応する第2位置を、n番目に決定された第3情報に対応する第1位置に基づいて補正し、補正した第2位置に前記軌跡情報を表示する修正手段と
を備えたことを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
a second display means for displaying n-th (n is a natural number of 2 or more) trajectory information at a second position corresponding to the third information determined by the determination means;
The first display means includes
First erasing means for erasing the 1st to (n-1) th trajectory information displayed on the display unit;
The second position corresponding to the third information determined for each of the 1st to (n-1) th is corrected based on the first position corresponding to the third information determined for the nth, and the corrected second position is set. The head mounted display according to claim 1, further comprising correction means for displaying the trajectory information.
前記第1表示手段は、
前記決定手段によってn番目(nは2以上の自然数)に決定された前記第3情報に対応する第2位置を、1番目に決定された第3情報に対応する第1位置に基づいて補正し、補正した第2位置に前記軌跡情報を表示することを特徴とする請求項1又は2に記載のヘッドマウントディスプレイ。
The first display means includes
The second position corresponding to the third information determined n-th (n is a natural number of 2 or more) by the determining means is corrected based on the first position corresponding to the first information determined first. 3. The head mounted display according to claim 1, wherein the trajectory information is displayed at the corrected second position.
前記第1判断手段によって前記所定領域内に前記対象物がないと判断される状態が所定の第1時間以上継続した場合であって、前記表示部に前記軌跡情報が表示されている場合に、前記軌跡情報を消去する第2消去手段を備えたことを特徴とする請求項1から4の何れかに記載のヘッドマウントディスプレイ。   When the state where the first determination means determines that the object is not present in the predetermined area continues for a predetermined first time or longer, and the trajectory information is displayed on the display unit, The head mounted display according to any one of claims 1 to 4, further comprising second erasing means for erasing the trajectory information. 前記第2判断手段によって前記位置関係が変化しないと判断される状態が所定の第2時間以上継続した場合であって、前記表示部に前記軌跡情報が表示されている場合に、前記軌跡情報を消去する第3消去手段を備えたことを特徴とする請求項1から5の何れかに記載のヘッドマウントディスプレイ。   When the state in which the positional relationship is determined not to change by the second determination unit continues for a predetermined second time or more and the locus information is displayed on the display unit, the locus information is 6. The head mounted display according to claim 1, further comprising third erasing means for erasing. 前記第3判断手段によって、前記複数の補正位置の変化の傾向が所定の条件を満たしていると判断された場合に、前記軌跡情報を消去する第4消去手段を備えたことを特徴とする請求項1から6の何れかに記載のヘッドマウントディスプレイ。   4. A fourth erasure unit that erases the trajectory information when the third determination unit determines that the tendency of change in the plurality of correction positions satisfies a predetermined condition. Item 7. The head mounted display according to any one of Items 1 to 6. 前記第3判断手段は、第2記憶部に記憶されたテンプレートデータによって示される特定の形状と、前記複数の補正位置の変化の傾向とが一致するかを判断することによって、前記複数の補正位置の変化の傾向が所定の条件を満たしているか判断することを特徴とする請求項1から7の何れかに記載のヘッドマウントディスプレイ。   The third determination means determines whether the specific shape indicated by the template data stored in the second storage unit matches the change tendency of the plurality of correction positions, thereby determining the plurality of correction positions. The head-mounted display according to claim 1, wherein it is determined whether or not the tendency of the change in the condition satisfies a predetermined condition. 前記実行手段は、前記複数の補正位置の変化の傾向と一致すると判断された特定の形状を示すテンプレートデータに関連付けられた特定の処理を実行することを特徴とする請求項8に記載のヘッドマウントディスプレイ。   9. The head mount according to claim 8, wherein the execution unit executes a specific process associated with template data indicating a specific shape that is determined to match a tendency of change in the plurality of correction positions. display. 前記第1取得手段は、前記画像データに基づき、前記所定領域内に含まれる比較物の位置を示す情報を、前記第1情報として取得することを特徴とする請求項1に記載のヘッドマウントディスプレイ。   2. The head mounted display according to claim 1, wherein the first acquisition unit acquires, as the first information, information indicating a position of a comparison object included in the predetermined area based on the image data. . 前記第1取得手段は、前記画像データに基づき、複数の第1情報を取得することを特徴とする請求項10に記載のヘッドマウントディスプレイ。   The head-mounted display according to claim 10, wherein the first acquisition unit acquires a plurality of pieces of first information based on the image data. 前記複数の第1情報は、前記画像データによって示される撮影画像の四隅の夫々の近傍位置を示すことを特徴とする請求項11に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 11, wherein the plurality of first information indicate positions in the vicinity of each of the four corners of the captured image indicated by the image data. 表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域内が、撮影部によって撮影された場合に、前記撮影部から出力される画像データに基づいて、前記所定領域内に所定の対象物があるかを繰り返し判断する第1判断ステップと、
前記第1判断ステップによって前記対象物が前記所定領域内にあると判断された場合に、検出部の出力に基づいて、前記撮影部の撮影方向に対応する位置である第1位置を示す第1情報を取得する第1取得ステップと、
前記所定領域に対する前記対象物の相対位置である第2位置を示す第2情報を、前記画像データに基づいて取得する第2取得ステップと、
前記第1取得ステップによって取得された前記第1情報と、前記第2取得ステップによって取得された前記第2情報とに基づく第3情報を、前記第1判断ステップによって前記対象物が前記所定領域内にあると判断される度に決定する決定ステップと、
前記決定ステップによって決定された前記第3情報を、決定された順序を示す順序情報と関連付けて第1記憶部に記憶する記憶ステップと、
前記第1記憶部に記憶された複数の第3情報のうち1の第3情報と、前記1の第3情報に関連付けられた順序情報によって示される順序よりも後の順序を示す順序情報に関連付けられた他の第3情報とに基づいて、前記1の第3情報に対応する第1情報が前記第1取得ステップによって取得されてから、前記他の第3情報に対応する第1情報が前記第1取得ステップによって取得されるまでの間に、前記第1位置と前記第2位置との位置関係が変化したかを判断する第2判断ステップと、
前記第2判断ステップによって、前記位置関係が変化したと判断された場合、少なくとも前記他の第3情報に基づいて決定される位置を示す軌跡情報を表示部に繰り返し表示する第1表示ステップと、
前記第1記憶部に記憶された前記複数の第3情報に基づいて、夫々の第3情報に対応する前記第2位置を、対応する第1位置によって補正した複数の補正位置の変化の傾向が所定の条件を満たしているか判断する第3判断ステップと、
前記第3判断ステップによって、所定の条件を満たしていると判断された場合、対応する処理を実行する実行ステップと
を、ヘッドマウントディスプレイのコンピュータに実行させる為の制御プログラム。
Based on image data output from the imaging unit when the imaging unit captures a predetermined area including at least a region in the second direction that is opposite to the first direction in which the display unit can emit image light. A first determination step of repeatedly determining whether or not there is a predetermined object in the predetermined area;
When the first determination step determines that the object is in the predetermined area, the first position indicating a first position that is a position corresponding to the shooting direction of the shooting unit is based on the output of the detection unit. A first acquisition step of acquiring information;
A second acquisition step of acquiring second information indicating a second position, which is a relative position of the object with respect to the predetermined region, based on the image data;
The third information based on the first information acquired by the first acquisition step and the second information acquired by the second acquisition step is converted into the predetermined area by the first determination step. A determination step that is determined each time it is determined that
A storage step of storing the third information determined by the determination step in the first storage unit in association with the order information indicating the determined order;
Associating with one third information among a plurality of third information stored in the first storage unit and order information indicating an order after the order indicated by the order information associated with the first third information The first information corresponding to the first third information is acquired by the first acquisition step, and the first information corresponding to the other third information is A second determination step for determining whether the positional relationship between the first position and the second position has changed before being acquired by the first acquisition step;
A first display step of repeatedly displaying trajectory information indicating a position determined based on at least the other third information on the display unit when it is determined by the second determination step that the positional relationship has changed;
Based on the plurality of third information stored in the first storage unit, there is a tendency of a change in a plurality of correction positions obtained by correcting the second position corresponding to each third information by the corresponding first position. A third determination step for determining whether a predetermined condition is satisfied;
A control program for causing a computer of a head mounted display to execute an execution step of executing a corresponding process when it is determined by the third determination step that a predetermined condition is satisfied.
JP2013204061A 2013-09-30 2013-09-30 Head mounted display and control program Expired - Fee Related JP5907136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013204061A JP5907136B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013204061A JP5907136B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Publications (2)

Publication Number Publication Date
JP2015069480A JP2015069480A (en) 2015-04-13
JP5907136B2 true JP5907136B2 (en) 2016-04-20

Family

ID=52836057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013204061A Expired - Fee Related JP5907136B2 (en) 2013-09-30 2013-09-30 Head mounted display and control program

Country Status (1)

Country Link
JP (1) JP5907136B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016190057A1 (en) * 2015-05-22 2016-12-01 コニカミノルタ株式会社 Wearable electronic device and gesture detection method for wearable electronic device
CN113678435A (en) 2019-02-07 2021-11-19 奇跃公司 Lightweight low-power consumption cross reality device with high temporal resolution

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JP2001134371A (en) * 1999-11-05 2001-05-18 Shimadzu Corp Visual line detector
JP2004334718A (en) * 2003-05-09 2004-11-25 Denso Corp Input operation support program
JP4857196B2 (en) * 2007-05-31 2012-01-18 キヤノン株式会社 Head-mounted display device and control method thereof
JP5146845B2 (en) * 2009-12-24 2013-02-20 ブラザー工業株式会社 Head mounted display
JP5597064B2 (en) * 2010-08-26 2014-10-01 キヤノン株式会社 Information processing apparatus and method
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction

Also Published As

Publication number Publication date
JP2015069480A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
JP6532393B2 (en) Display control apparatus and display control method
JP6852355B2 (en) Program, head-mounted display device
KR20180004018A (en) Video display system, video display method, video display program
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
KR20160027097A (en) Web-like hierarchical menu display configuration for a near-eye display
JP6576536B2 (en) Information processing device
JP2017102732A (en) Display control device and display control method
CN111213375B (en) Information processing apparatus, information processing method, and program
CN111417989A (en) Program, information processing method, information processing system, head-mounted display device, and information processing device
JP2014106888A (en) Work assistance system, and program
JP7499819B2 (en) Head-mounted display
WO2017122270A1 (en) Image display device
US20150172553A1 (en) Display device, display method, and computer-readable recording medium
JP5907136B2 (en) Head mounted display and control program
JPWO2019021601A1 (en) Information processing apparatus, information processing method, and program
WO2015104919A1 (en) Gesture recognition device, operation input device, and gesture recognition method
US20220351444A1 (en) Animation production method
KR20210133674A (en) Augmented reality device and method for controlling the same
JP2018028765A (en) Method for providing virtual space, program, and recording medium
JP6554139B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP5979110B2 (en) Head mounted display and control program
JP5907034B2 (en) Work assistance system and program
JP2022025463A (en) Animation creation system
US20230083874A1 (en) Animation production method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5907136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees