JP5979110B2 - Head mounted display and control program - Google Patents
Head mounted display and control program Download PDFInfo
- Publication number
- JP5979110B2 JP5979110B2 JP2013204063A JP2013204063A JP5979110B2 JP 5979110 B2 JP5979110 B2 JP 5979110B2 JP 2013204063 A JP2013204063 A JP 2013204063A JP 2013204063 A JP2013204063 A JP 2013204063A JP 5979110 B2 JP5979110 B2 JP 5979110B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- cpu
- unit
- value
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、ヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムに関する。 The present invention relates to a head mounted display and a control program for controlling the head mounted display.
ヘッドマウントディスプレイ(Head Mounted Display、HMD)はユーザの頭部に装着されて使用される。従ってHMDには、ユーザの視野の確保及び装着時の負担の軽減の為に小型であることが要求される。HMDを小型化した場合、スイッチ等の機械的なユーザインターフェイス(User Interface UI)を設ける場所は制約される。特許文献1は、カメラによって撮影されたユーザの手の動きを検出することで、対応する操作情報を特定する技術を開示する。HMDにこの技術を応用することで、HMDは、カメラによって撮影された対象物の動きに対応する操作内容を特定し、特定した操作内容に応じた動作を実行できる。この場合、HMDは、小型化した場合でも十分なUIを確保できる。
A head mounted display (HMD) is used by being mounted on a user's head. Therefore, the HMD is required to be small in order to secure the user's field of view and reduce the burden at the time of wearing. When the HMD is downsized, a place where a mechanical user interface (User Interface UI) such as a switch is provided is limited.
HMDにカメラが設けられる場合、ユーザの頭部に表示部と共に配置する方法が考えられる。この場合、カメラの撮影領域は、HMDを装着したユーザの頭部が動くことによって変化する。従って、カメラによる撮影中に、撮影領域から対象物が外れる場合がある。この場合、HMDは対象物の動きを正確に検出できないので、対応する操作内容を特定して動作することができないという問題点がある。 When a camera is provided in the HMD, a method of arranging it together with a display unit on the user's head can be considered. In this case, the shooting area of the camera changes as the head of the user wearing the HMD moves. Accordingly, there is a case where the object is out of the shooting area during shooting by the camera. In this case, since the HMD cannot accurately detect the movement of the object, there is a problem that the corresponding operation content cannot be specified and operated.
本発明の目的は、対象物の動きを正確に検出し、対応する操作内容を特定して動作することが可能なヘッドマウントディスプレイ、及び、ヘッドマウントディスプレイを制御する為の制御プログラムを提供することである。 An object of the present invention is to provide a head-mounted display capable of accurately detecting the movement of an object, specifying the corresponding operation content, and operating, and a control program for controlling the head-mounted display. It is.
本発明の第1態様に係るヘッドマウントディスプレイは、コンテンツ画像を少なくとも表示可能であり、第1方向に画像光を射出可能な表示部と、前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域を撮影して画像データを出力可能な撮影部と、前記撮影部から出力された画像データを取得する取得手段と、前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段とを備え、前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする。 The head mounted display according to the first aspect of the present invention is capable of displaying at least a content image and capable of emitting image light in a first direction, and an area in a second direction opposite to the first direction. Based on the image data acquired by the acquisition unit, an acquisition unit that acquires image data output from the imaging unit, First judgment means for judging whether or not there is a predetermined object in a predetermined area; and the first judgment means determines that the object is in the predetermined area , and the image data is obtained by the acquisition means. If the acquired time difference between the time that the predetermined region is captured by the imaging unit is smaller than a predetermined value, said display unit and said content image and the object image When the first display means for displaying and the first determination means determine that the object is in the predetermined area, the position of the object in the predetermined area is determined based on the image data. When the second determination means for determining whether the change tendency satisfies a predetermined condition and the second determination means determine that the change tendency of the position of the object satisfies the predetermined condition And execution means for executing processing corresponding to the predetermined condition, wherein the object image corresponds to the image data determined by the first determination means to be within the predetermined area. It is an image.
第1態様によれば、ヘッドマウントディスプレイは、撮影部の撮影範囲内に対象物がある場合、コンテンツ画像と対象物画像との両方を表示部に表示する。従ってユーザは、対象物が撮影部によって撮影されているかを認識できる。ヘッドマウントディスプレイは、対象物の位置の経時的な変化が所定の条件を満たす場合、対応する処理を実行する。ユーザは、対象物の位置の経時的な変化の傾向が所定の条件を満たすように対象物を移動させることによって、ヘッドマウントディスプレイに処理を実行させることができる。ここでユーザは、撮影部の撮影範囲内で対象物を移動させることが容易に可能となるので、ヘッドマウントディスプレイに対象物を正確に検出させ、処理を適切に実行させることができる。 According to the first aspect, the head mounted display displays both the content image and the target object image on the display unit when the target object is within the shooting range of the shooting unit. Therefore, the user can recognize whether the object is being photographed by the photographing unit. The head mounted display executes a corresponding process when a change with time of the position of the object satisfies a predetermined condition. The user can cause the head mounted display to execute the process by moving the object such that the tendency of the position of the object to change over time satisfies a predetermined condition. Here, since the user can easily move the object within the imaging range of the imaging unit, the head-mounted display can accurately detect the object and appropriately execute the process.
第1態様において、前記コンテンツ画像と前記対象物画像とに基づいて、前記コンテンツ画像に前記対象物画像が重畳された重畳画像を生成する生成手段をさらに備え、前記第1表示手段は、前記重畳画像を前記表示部に表示してもよい。この場合、ヘッドマウントディスプレイは、表示部の小さい領域に重畳画像とを表示させることができる。 In the first aspect, the image processing apparatus further includes a generating unit that generates a superimposed image in which the target image is superimposed on the content image based on the content image and the target image, and the first display unit includes the superimposing unit. An image may be displayed on the display unit. In this case, the head mounted display can display the superimposed image in a small area of the display unit.
第1態様において、前記生成手段は、前記コンテンツ画像の各画素のα値である第1α値と、前記対象物画像の各画素のα値であって前記第1α値よりも小さい第2α値とを用いて、前記重畳画像を生成してもよい。この場合、コンテンツ画像と対象物画像とは透明な状態で重ねられる。なお、対象物画像の各画素のα値(第2α値)を、コンテンツ画像の各画素のα値(第1α値)よりも小さくすることによって、コンテンツ画像の色を濃く且つ鮮明にすることができる。このため、対象物画像がコンテンツ画像に重ねて表示されても、対象物画像はコンテンツ画像の視認性を妨げない。このためユーザは、コンテンツ画像をより適切に認識できる。 In the first aspect, the generation unit includes a first α value that is an α value of each pixel of the content image, and a second α value that is an α value of each pixel of the object image and is smaller than the first α value. The superimposed image may be generated using. In this case, the content image and the object image are superimposed in a transparent state. Note that the color of the content image can be made darker and clearer by making the α value (second α value) of each pixel of the object image smaller than the α value (first α value) of each pixel of the content image. it can. For this reason, even if the object image is displayed so as to overlap the content image, the object image does not hinder the visibility of the content image. For this reason, the user can recognize a content image more appropriately.
第1態様において、前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしているか判断する第3判断手段を備え、前記生成手段は、前記第3判断手段によって前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしていると判断された場合、前記対象物画像の各画素のα値を、前記第2α値よりも大きい第3α値とし、前記第1α値と前記第3α値とを用いて、前記重畳画像を生成してもよい。この場合、対象物画像の透過率が小さくなり、対象物画像はより色が濃く且つ鮮明に表示される。従ってユーザは、対象物の位置の変化の傾向が、所定の条件の一部を満たすことを、対象物画像の透過率の変化により容易に認識できる。又、ヘッドマウントディスプレイは、ユーザによる対象物画像の視認性を向上させることができる。 1st aspect WHEREIN: The 3rd judgment means which judges whether the tendency of the change of the position of the said object satisfy | fills a part of said predetermined conditions is provided, The said production | generation means is the said judgment object by the said 3rd judgment means. When it is determined that the position change tendency satisfies a part of the predetermined condition, the α value of each pixel of the object image is set to a third α value larger than the second α value, and the first α The superimposed image may be generated using the value and the third α value. In this case, the transmittance of the object image is reduced, and the object image is displayed with a deeper color and clearer. Therefore, the user can easily recognize from the change in the transmittance of the object image that the tendency of the change in the position of the object satisfies a part of the predetermined condition. Further, the head mounted display can improve the visibility of the object image by the user.
第1態様において、前記第3α値は、前記第1α値よりも小さくてもよい。この場合、対象物画像のα値が第2α値から第3α値に変化しても、対象物画像はコンテンツ画像の視認性を妨げない。このためユーザは、コンテンツ画像をより適切に認識できる。 In the first aspect, the third α value may be smaller than the first α value. In this case, even if the α value of the object image changes from the second α value to the third α value, the object image does not hinder the visibility of the content image. For this reason, the user can recognize a content image more appropriately.
第1態様において、前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記対象物の位置を示す軌跡画像を前記コンテンツ画像に重ねて前記表示部に表示する第2表示手段を備えてもよい。この場合、ユーザは、ヘッドマウントディスプレイによって対象物の位置の変化の傾向が所定の条件を満たすと判断されたことを、軌跡画像によって容易に認識できる。 In the first aspect, when the second determination unit determines that the tendency of the change in the position of the object satisfies the predetermined condition, a trajectory image indicating the position of the object is superimposed on the content image. Second display means for displaying on the display unit may be provided. In this case, the user can easily recognize from the trajectory image that the tendency of the change in the position of the object is determined by the head mounted display to satisfy the predetermined condition.
第1態様において、前記第2表示手段は、前記実行手段によって前記対応する処理が実行される前に、前記軌跡画像を前記表示部に表示してもよい。この場合、ユーザは、軌跡画像が表示部に表示されている場合に、対応する処理がまだ実行されていないことを認識できる。 In the first aspect, the second display unit may display the trajectory image on the display unit before the corresponding process is executed by the execution unit. In this case, when the trajectory image is displayed on the display unit, the user can recognize that the corresponding process has not been executed yet.
第1態様において、前記第2判断手段によって前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記第1表示手段によって表示された前記対象物画像を消去する消去手段を備えてもよい。この場合、コンテンツ画像のみが表示部に表示された状態になるので、ユーザは、コンテンツ画像をより適切に認識できる。 In the first aspect, the object image displayed by the first display unit is deleted when the second determining unit determines that the tendency of the change in the position of the object satisfies the predetermined condition. An erasing unit may be provided. In this case, since only the content image is displayed on the display unit, the user can more appropriately recognize the content image.
第1態様において、前記消去手段は、前記実行手段によって前記対応する処理が実行された後、前記対象物画像を消去してもよい。この場合、ユーザは、ヘッドマウントディスプレイに対して処理を実行させることに成功したことを、対象部画像が消去されることによって認識できる。 In the first aspect, the erasing unit may erase the object image after the execution of the corresponding process by the execution unit. In this case, the user can recognize that the process has been successfully performed on the head mounted display by deleting the target part image.
第1態様において、前記取得手段は、前記撮影部によって前記所定領域内が撮影された時の時刻を示す時刻情報を前記撮影部から更に取得し、前記第1表示手段は、前記取得手段によって前記時刻情報が取得された時刻と、取得された前記時刻情報によって示される時刻との差が所定値よりも小さい場合にのみ、前記コンテンツ画像と前記対象物画像とを前記表示部に表示し、前記差が所定値よりも小さくない場合、前記対象物画像を前記表示部に表示しなくてもよい。ヘッドマウントディスプレイは、対象物画像によって示される対象物の動きと、実際の対象物の動きとの間に時間差が発生する場合、表示部に対象物画像を表示しない。これによってヘッドマウントディスプレイは、表示部に表示される対象物画像によって示される対象物の動きが、実際の対象物の動きに比べて遅延することによって、ユーザに違和感を与えることを防止できる。 In the first aspect, the acquisition unit further acquires time information indicating a time when the inside of the predetermined area was captured by the imaging unit from the imaging unit, and the first display unit is configured to acquire the time information by the acquisition unit. Only when the difference between the time when the time information is acquired and the time indicated by the acquired time information is smaller than a predetermined value, the content image and the object image are displayed on the display unit, When the difference is not smaller than a predetermined value, the object image may not be displayed on the display unit. The head-mounted display does not display the object image on the display unit when a time difference occurs between the movement of the object indicated by the object image and the actual movement of the object. Accordingly, the head mounted display can prevent the user from feeling uncomfortable by delaying the movement of the object indicated by the object image displayed on the display unit as compared with the actual movement of the object.
第1態様において、前記第2判断手段は、記憶部に記憶されたテンプレートデータによって示される特定の形状と、前記対象物の位置の変化の傾向とが一致するかを判断することによって、前記対象物の位置の変化の傾向が所定の条件を満たしているか判断してもよい。この場合、ヘッドマウントディスプレイは、複数の補正位置の変化の傾向が所定の条件を満たしているかを適切に判断できる。 In the first aspect, the second determination means determines whether the specific shape indicated by the template data stored in the storage unit matches the tendency of the change in the position of the object, thereby determining the object. It may be determined whether the tendency of the change in the position of the object satisfies a predetermined condition. In this case, the head mounted display can appropriately determine whether the tendency of the change in the plurality of correction positions satisfies a predetermined condition.
第1態様において、前記実行手段は、前記対象物の位置の変化の傾向と一致すると判断された特定の形状を示すテンプレートデータに関連付けられた特定の処理を実行してもよい。この場合、ヘッドマウントディスプレイは、対象物の動きに対応する処理を容易に判断し、処理を実行できる。 In the first aspect, the execution means may execute a specific process associated with template data indicating a specific shape that is determined to coincide with a change tendency of the position of the object. In this case, the head mounted display can easily determine the process corresponding to the movement of the object and execute the process.
本発明の第2態様に係る制御プログラムは、コンテンツ画像を少なくとも表示可能な表示部を備えたヘッドマウントディスプレイのコンピュータを、前記表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域が、撮影部によって撮影された場合に前記撮影部から出力される画像データを取得する取得手段と、前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段として機能させるための制御プログラムであって、前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする。第2態様によれば、第1態様と同様の効果を奏することができる。
A control program according to a second aspect of the present invention provides a head-mounted display computer including a display unit capable of displaying at least a content image in a direction opposite to the first direction in which the display unit can emit image light. An acquisition unit that acquires image data output from the imaging unit when a predetermined region including at least a region in two directions is captured by the imaging unit, and the image data acquired by the acquisition unit, First judgment means for judging whether or not there is a predetermined object in a predetermined area; and the first judgment means determines that the object is in the predetermined area , and the image data is obtained by the acquisition means. If the acquired time difference between the time that the predetermined region is captured by the imaging unit is smaller than a predetermined value, the content image and the target When the first display means for displaying an image on the display unit and the first determination means determine that the object is within the predetermined area, the first display means displays the image within the predetermined area based on the image data. The second determination means for determining whether the change tendency of the position of the object satisfies a predetermined condition and the second determination means, the change tendency of the position of the object satisfies the predetermined condition. A control program for functioning as execution means for executing processing corresponding to the predetermined condition when the object image is determined by the first determination means. It is an image corresponding to the image data determined to be in the area. According to the 2nd aspect, there can exist an effect similar to a 1st aspect.
以下、本発明を具体化した実施形態について、図面を参照して説明する。図1を参照し、ヘッドマウントディスプレイ(以下、HMDという。)1の概要を説明する。HMD1は、投影装置(以下、ヘッドディスプレイ又はHDという。)10及び制御装置(以下、コントロールボックス又はCBという。)50を備える。以下の説明において、図1の上方、下方、右斜め下方、左斜め上方、右斜め上方及び左斜め下方が夫々、HMD1の上方、下方、前方、後方、右方及び左方である。実施形態において、種々の構成における位置関係及び方向関係の理解を助けるため、関連する図面において、HMD1の上方、下方、前方、後方、右方及び左方は、3次元デカルト座標系の軸を参照して説明される。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Embodiments of the invention will be described below with reference to the drawings. An outline of a head mounted display (hereinafter referred to as HMD) 1 will be described with reference to FIG. The
HD10の概要を説明する。HD10は、専用の装着具である眼鏡5に取り付けられる。ユーザは、HD10が取り付けられた眼鏡5をかけることによって、HD10を頭部に装着して使用する。HD10は、画像光を後方に向けて照射できる。画像光は、HD10を装着したユーザの左眼に入射する。HD10は、ハーネス7を介してCB50と着脱可能に接続する。HD10は、筐体2、ハーフミラー3、画像表示部14(図2参照)、接眼光学系(図示略)、カメラ20等を主な構成要素とする。
An outline of the
筐体2は、眼鏡5の右端部に設けられる。筐体2の左端側に、ハーフミラー3が設けられる。ハーフミラー3は、ユーザがHD10を頭部に装着した状態で、ユーザの左眼の前方に配置される。画像表示部14及び接眼光学系は、筐体2の内部に設けられる。画像表示部14及び接眼光学系の詳細は後述する。カメラ20は、筐体2の前面に設けられる。カメラ20は、HD10の前面方向の外界の風景のうち、所定の大きさの領域(以下、所定領域という。)を撮像可能である。
The
画像表示部14は、液晶素子及び光源を備える。画像表示部14は、コンテンツ画像を表示することが可能である。コンテンツ画像は、静止画像又は動画像である。又、画像表示部14は、コンテンツ画像に撮影画像を重ねて表示することが可能である。撮影画像は、カメラ20によって撮影された画像である。画像表示部14は、CB50からハーネス7を介して送信される映像信号に基づいて、画像を表示する。接眼光学系は、画像表示部14に表示された画像を示す画像光を集光し、ハーフミラー3に射出する。接眼光学系から射出された画像光は、ハーフミラー3によって反射される。ハーフミラー3によって反射された画像光は、筐体2の後方(カメラ20の撮影方向と反対方向)に射出される。HMD1がユーザに装着されている状態で、画像光は、ユーザの左眼の眼球に入射する。又、ハーフミラー3は、外界の実像からの光を、ユーザの左眼に向けて透過する。HMD1は、ユーザの視野範囲内の実像(例えば、外界の風景等)に、画像表示部14に表示された画像を重ねた状態の光景を、ユーザに視認させることができる。
The
眼鏡5は、HD10をユーザの頭部に保持する。眼鏡5は、フレーム6及び支持部4を備える。フレーム6の形状は、通常の眼鏡と略同一であるので、詳細な説明は省略する。フレーム6のうち、左眼用レンズを支えるリム部の上面右端に、支持部4が設けられる。支持部4は、HD10の筐体2を保持する。支持部4は、筐体2の保持位置を上下方向及び左右方向に移動できる。ユーザは、筐体2を上下方向及び左右方向に移動させることによって、左眼の眼球の位置とハーフミラー3の位置とが前後方向に並ぶように位置を調整できる。
The
なお、HD10は、ユーザが日常的に使用する眼鏡、ヘルメット、ヘッドホンなど、他の装着具に取り付けられてもよい。画像表示部14は、他の空間変調素子であってもよい。例えば画像表示部14は、画像信号に応じた強度のレーザ光を2次元走査して画像表示を行う網膜走査型表示部、及び有機EL(Organic Electro-luminescence)ディスプレイであってもよい。また、図1では支持部4及びHD10がフレーム6の右側に設けられるが、支持部4及びHD10は、フレーム6の右側に設けられてもよい。この場合、HMD1がユーザに装着されている状態で、画像光は、ユーザの右眼の眼球に入射する。
The
又、本実施形態において、HD10は、画像表示部14に表示された画像を外界の実像に重ねた状態の光景をユーザに視認させる機能を有する、所謂光学シースルー型のヘッドディスプレイである。しかしながら本発明は、別の機能を有するヘッドディスプレイであってもよい。例えばHD10は、外界の実像からの光をユーザの眼に入射させず、画像表示部14に表示された画像と、カメラによって撮像された外界の画像とをユーザに視認させる機能を有する、所謂ビデオシースルー型のヘッドディスプレイであってもよい。
In the present embodiment, the
又、本実施形態において、カメラ20は筐体2の前面に設けられているが、カメラ20は筐体2から着脱可能であってもよい。例えばカメラ20は、HD10の正面方向を撮影可能な状態で、眼鏡5のフレーム6に直接取り付けられてもよい。
In this embodiment, the
CB50の概要を説明する。CB50は、例えばユーザの腰ベルトや腕等に取り付けられる。CB50はHD10を制御する。CB50は、ハーネス7を介してHD10と着脱可能に接続する。CB50は、筐体60、操作スイッチ61、電源スイッチ62等を主な構成要素とする。筐体60の形状は、縁部の丸い略直方体である。操作スイッチ61は、HD10における各種設定や、使用時における各種操作等を行う為のスイッチである。電源スイッチ62は、HMD1の電源をオン又はオフにする為のスイッチである。電源スイッチ62には、電源ランプ63が内蔵される。
An outline of the
図2を参照し、HMD1の電気的構成を説明する。はじめに、HD10の電気的構成を説明する。HD10は、HD10全体の制御を行うCPU11を備える。CPU11は、RAM12、プログラムROM13、画像表示部14、インターフェイス15、及び接続コントローラ19に電気的に接続される。CPU11は、インターフェイス15を介してカメラ20に電気的に接続される。RAM12は、各種データを一時的に記憶する。プログラムROM13は、CPU11が実行するプログラムを記憶する。プログラムROM13はOSを記憶する。プログラムはOS上で実行される。プログラム及びOSは、HMD1の出荷時にプログラムROM13に記憶される。画像表示部14は、コンテンツ画像及び撮影画像の少なくとも一方を表示できる。インターフェイス15はカメラ20に接続し、信号の入出力を制御する。接続コントローラ19は、ハーネス7を介してCB50の接続コントローラ58に接続し、有線通信を行う。
The electrical configuration of the
なお、HD10は、フラッシュROMを更に備えてもよい。フラッシュROMには、CPU11が実行するプログラムが記憶されてもよい。CPU11は、フラッシュROMに記憶されたプログラムを実行してもよい。プログラムROM13及びフラッシュROMには、CB50のCPU51が実行するプログラムが記憶されてもよい。CPU11は、CB50のCPU51が実行する処理と同じ処理を、CPU51の代わりに実行してもよい。
The
CB50の電気的構成を説明する。CB50は、CB50全体の制御を行うCPU51を備える。CPU51は、RAM52、プログラムROM53、フラッシュROM54、インターフェイス55、ビデオRAM56、画像処理部57、接続コントローラ58、及び無線通信部59に電気的に接続される。RAM52は、各種データを一時的に記憶する。プログラムROM53は、CPU51が実行するプログラムを記憶する。プログラムROM53はOSを記憶する。プログラムはOS上で実行される。プログラムROM53は、データベース(以下、DBという。)531(図6参照、後述)を記憶する。プログラム、OS、及びDB531は、HMD1の出荷時にプログラムROM53に記憶される。
The electrical configuration of the
インターフェイス55は、操作スイッチ61及び電源スイッチ62に接続し、信号の入出力を制御する。画像処理部57は、HD10の画像表示部14に表示する画像を形成し、ビデオRAM56に記憶する。ビデオRAM56は、画像処理部57によって形成された画像を一時的に記憶する。接続コントローラ58は、ハーネス7を介してHD10の接続コントローラ19に接続し、有線通信を行う。無線通信部59は、インターネット、LAN等に接続されたアクセスポイント(図示略)を介して、インターネット、LAN等に接続された周辺機器と通信を行う。周辺機器の例として、パーソナルコンピュータ、スマートフォン、タブレット型携帯端末、サーバ等が挙げられる。
The
なお、CB50のフラッシュROM54に、CPU51が実行するプログラムが記憶されてもよい。CPU51は、フラッシュROM54に記憶されたプログラムを実行してもよい。プログラムROM53及びフラッシュROM54には、HD10のCPU11が実行するプログラムが記憶されてもよい。CPU51は、HD10のCPU11が実行する処理と同じ処理を、CPU11の代わりに実行してもよい。
Note that a program executed by the
なお、HMD1は、プログラム及びOSを、無線通信部59を介してプログラムダウンロード用のサーバからダウンロードし、インストールしてもよい。例えば、プログラム及びOSは、コンピュータで読み取り可能な一時的な記憶媒体(例えば、伝送信号)として、サーバからHMD1に送信されてもよい。プログラムは、HMD1が備えるコンピュータで読み取り可能な記憶装置、例えば、フラッシュROMに保存されてもよい。CPU11は、フラッシュROMに記憶されたプログラムに基づいてプログラムを実行してもよい。CPU51は、フラッシュROM54に記憶されたプログラムに基づいてプログラムを実行してもよい。但し、記憶装置は、例えばROM、フラッシュROM、HDD、RAMなどの、一時的な記憶媒体を除く記憶媒体であってもよい。また、記憶装置は、非一時的な記憶媒体であってもよい。非一時的な記憶媒体は、データを記憶する時間の長さに関わらず、データを留めておくことが可能なものであってもよい。
The
HMD1の構成は上記実施形態に限定されず、例えば、HD10とCB50とが一体となった構成であってもよい。HD10のCPU11とCB50のCPU51とは、ハーネス7の代わりに無線によって通信を行ってもよい。
The configuration of the
HMD1は、HD10のカメラ20によって撮影される所定領域内でユーザの指先が移動した時の指先の位置の変化の傾向が所定の条件を満たす場合、対応する処理を実行する。対応する処理の一例として、画像表示部14に表示されたコンテンツ画像をスクロールさせる処理が挙げられる。なお、本実施形態では、カメラ20によって撮影される所定領域内でユーザが指先を移動させることによって、右、左、上、及び下の何れかの方向にコンテンツ画像をスクロールさせる処理をHMD1に実行させることが可能であるとする。なお本発明において、指先の移動によってHMD1に実行させることが可能な処理は、上記の処理に限定されない。以下では、はじめに、HD10のCPU11によって実行される処理の概要について、図3を参照して説明する。次に、CB50のCPU51によって実行される処理の概要について、図3を参照して説明する。次に、CPU51の処理の詳細について、図4、図5のフローチャートを参照して説明する。
The
HD1のCPU11によって実行される処理の概要について説明する。CB50の電源スイッチ62を介してHMD1の電源をオンする操作がされた場合、CPU11は次の処理を開始する。CPU11は、カメラ20による撮影を開始する。カメラ20は、撮影を開始した場合、所定領域内を撮影しながら画像データを継続的に出力する。以下、カメラ20から出力される画像データを、撮影画像データという。撮影画像データの画像形式は、Motion JPEG形式、Audio Video Interleave形式、QuickTime形式等である。CPU11は、カメラ20から出力される撮影画像データを、インターフェイス15を介して受信する。CPU11は、撮影画像データをCB50に送信する。
An outline of processing executed by the
CPU11は、カメラ20から撮影画像データを受信した時刻を、OSから取得する。なお、カメラ20は、撮影しながら撮影画像データを出力するので、CPU11がカメラ20から撮影画像データを受信した時刻は、カメラ20が撮影画像データに対応する撮影画像を撮影した時刻と略同一とみなすことができる。CPU11は、取得した時刻を示す時刻情報を、撮影画像データと共にCB50に対して送信する。以下、撮影画像データと共にCBに対して送信される時刻情報によって示される時刻を、撮影時刻という。なお、時刻情報は、撮影画像データのヘッダに含まれてもよい。
The
又、CPU11は、CB50から送信される映像信号(後述)を受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14に画像を表示させる。HD1を装着したユーザは、画像表示部14に表示された画像からの光がハーフミラー3を反射して左眼に入射することによって、画像を視認する。なお、HD1を装着したユーザの左眼には、視野範囲内の実像からの光がハーフミラー3を透過して入射するので、ユーザは、画像表示部14に表示された画像が外界の実像に重ねられた光景を視認する。
Further, the
図3は、HD10を装着したユーザによって視認される光景21(21A〜21E)を示す。光景21には、実像211及び画像212(212A〜212E)が含まれる。実像211は、ユーザの視野範囲内の実像からの光が、ハーフミラー3を透過してユーザの左眼に到達することによって、ユーザが視認する像である。画像212は、HD10の画像表示部14に表示されることによってユーザが視認する像である。画像212は、実像211の領域の右下部分に重ねられる。これによってユーザは、視野範囲内の実像211と画像212との両方を視認できる。
FIG. 3 shows a scene 21 (21A to 21E) visually recognized by a user wearing the
CB50のCPU51によって実行される処理の概要について説明する。CPU51は、無線通信部59を介して、周辺機器からコンテンツ画像データを受信する。コンテンツ画像データは、コンテンツ画像を形成することが可能なデータである。コンテンツ画像データの画像形式は、コンテンツ画像が静止画の場合、BMP形式、GIF形式、JPEG形式等であり、コンテンツ画像が動画の場合、Moving Picture Experts Group形式、Audio Video Interleave形式、QuickTime形式等である。CPU51は、受信したコンテンツ画像データに対応するコンテンツ画像の映像信号を生成する。CPU51は、HD10にコンテンツ画像の映像信号を送信する。これによって、HD10の画像表示部14にコンテンツ画像が表示される。
An outline of processing executed by the
図3の光景21Aは、CPU51がHD10にコンテンツ画像の映像信号を送信した場合に、HD10を装着するユーザによって視認される光景を示す。光景21Aでは、コンテンツ画像212Aが実像211に重ねられている。
A
ユーザが、コンテンツ画像212Aを右側にスクロールさせる為に、HD10のカメラ20によって撮影される所定領域内で指先を移動させた場合を例に挙げる。CPU51は、HD1から撮影画像データを受信する。CPU51は、受信した撮影画像データに対応する撮影画像に指先が含まれているか判断する。指先が含まれているかの判断方法の詳細は後述する。CPU51は、撮影画像に指先が含まれていると判断した場合、コンテンツ画像に撮影画像が重ねられた画像の映像信号を生成する。以下、コンテンツ画像に撮影画像が重ねられた画像を、重畳画像という。CPU51は、HD10に重畳画像の映像信号を送信する。これによって、HD10の画像表示部14に重畳画像が表示される。
As an example, the user moves his / her fingertip within a predetermined area photographed by the
図3の光景21Bは、CPU51がHD10に重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Bでは、重畳画像212Bが実像211に重ねられている。実像211にユーザの手22が含まれている。重畳画像212Bでは、コンテンツ画像23に撮影画像24が重ねられている。HD1のカメラ20は、ユーザの視野方向の所定領域を撮影するので、撮影画像24は実像211の一部を示す。撮影画像24には、ユーザの手25の指先25Aが含まれている。なお、コンテンツ画像23及び撮影画像24は透明であり、双方は互いに透けて見える。コンテンツ画像23の透過率は、撮影画像24の透過率よりも小さい。このためコンテンツ画像23は、撮影画像24よりも色が濃く鮮明である。
A
CPU51は、撮影画像に含まれている指先の位置を特定する。CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすか判断する。複数の所定の条件の夫々は、画像表示部14に表示させたコンテンツ画像を、右、左、上、及び下の何れかの方向にスクロールさせる処理の夫々に対応する。判断方法の詳細は後述する。
The
CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすと判断した場合、撮影画像24の透過率をより小さくした重畳画像の映像信号を生成する。CPU51は、HD10に重畳画像の映像信号を送信する。HD10の画像表示部14に表示された重畳画像に含まれる撮影画像24の透過率は小さくなる。このため、撮影画像24は色が濃くなり鮮明になる。
If the
次にCPU51は、撮影画像に含まれている指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすか判断する。判断方法の詳細は後述する。CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすと判断した場合、指先の位置を示す軌跡画像を含む重畳画像の映像信号を生成する。軌跡画像は、異なるタイミングでの指先の位置の夫々の間を結ぶ線分と、移動の方向を示すアローヘッドとを有する。CPU51は、HD10に映像信号を送信する。これによって、軌跡画像を含む重畳画像がHD10の画像表示部14に表示される。
Next, the
図3の光景21Cは、CPU51がHD10に軌跡画像を含む重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Cでは、重畳画像212Cが実像211に重ねられている。重畳画像212Cでは、コンテンツ画像23に撮影画像24が重ねられている。光景21Bの場合と比べて撮影画像24の透過率が小さくなっているので、撮影画像24は光景21Bの場合よりも色が濃くなり鮮明になっている。又、重畳画像212Cには、指先25Aの位置の変化の傾向を示す軌跡画像26が含まれている。
A scene 21C in FIG. 3 shows a scene visually recognized by the user wearing the
CPU51は、指先の位置の経時的な変化の傾向が、複数の所定の条件の何れかを満たすと判断した場合、該当する所定の条件の何れかに対応する処理を特定する。図3の光景21Cの軌跡画像26で示される指先の位置の経時的な変化の傾向に対応する処理が、コンテンツ画像を右方向にスクロールさせる処理である場合を例に挙げる。この場合、CPU51は、右方向にスクロールされたコンテンツ画像に撮影画像が重ねられ且つ軌跡画像26を含む重畳画像の映像信号を生成する。CPU51は、HD10に映像信号を送信する。
When the
図3の光景21Dは、CPU51がHD10に軌跡画像を含む重畳画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Dでは、重畳画像212Dが実像211に重ねられている。重畳画像212Dでは、右方向にスクロールされたコンテンツ画像23に撮影画像24が重ねられている。又、重畳画像212Dには、指先25Aの位置の経時的な変化の傾向を示す軌跡画像26が含まれている。
A sight 21D in FIG. 3 shows a sight visually recognized by a user wearing the
CPU51は、コンテンツ画像を右方向へ所定量スクロールさせた後、撮影画像24及び軌跡画像26を消去する為に、スクロール後のコンテンツ画像のみの映像信号を生成する。CPU51は、HD10に映像信号を送信する。図3の光景21Eは、CPU51がスクロール後のコンテンツ画像の映像信号を送信した場合に、HD10を装着するユーザが視認する光景を示す。光景21Eでは、コンテンツ画像212Eが実像211に重ねられており、撮影画像24及び軌跡画像26は消去されている。これによってユーザは、右方向へスクロールされたコンテンツ画像212Eを良好に視認できる。
After scrolling the content image to the right by a predetermined amount, the
図4、図5を参照し、CB50のCPU51によって実行される処理の詳細について説明する。第1メイン処理(図4参照)及び第2メイン処理(図5参照)は、電源スイッチ62を介してHMD1の電源をオンする操作がされた場合に、プログラムROM53に記憶されたプログラムをCPU51が実行することによって開始される。第1メイン処理と第2メイン処理とは並列して実行される。
Details of processing executed by the
図4を参照し、第1メイン処理を説明する。CPU51は、無線通信部59を介して周辺機器からコンテンツ画像データを受信したか判断する(S1)。CPU51は、コンテンツ画像データを受信したと判断した場合(S1:YES)、受信したコンテンツ画像データをフラッシュROM54に記憶する(S3)。CPU51は処理をS1に戻す。CPU51は、コンテンツ画像データを受信していないと判断した場合(S1:NO)、コンテンツ画像を表示させる為の操作を、操作スイッチ61を介して検出したか判断する(S5)。CPU51は、コンテンツ画像を表示させる為の操作を検出したと判断した場合(S5:YES)、画像処理部57を駆動し、フラッシュROM54に記憶されたコンテンツ画像データに基づいてコンテンツ画像を形成させ、ビデオRAM56に記憶させる。CPU51は、ビデオRAM56に記憶されたコンテンツ画像に基づいて映像信号を生成する。映像信号の形式は、Transition Minimized Differential Signaling(TMDS)、Low voltage differential signaling(LVDS)等である。CPU51は、接続コントローラ58を介してHD10に映像信号を送信する(S7)。CPU51は処理をS1に戻す。CPU51は、コンテンツ画像を表示させる為の操作を検出していないと判断した場合(S5:NO)、処理をS1に戻す。なお、映像信号は、CPU51によって生成される場合に限らない。例えば映像信号は、ビデオRAM56に記憶されたコンテンツ画像に基づいて接続コントローラ19が生成してもよい。
The first main process will be described with reference to FIG. The
なお上記のように、HD10のCPU11は、CB50から送信されたコンテンツ画像の映像信号を、接続コントローラ19を介して受信する。CPU11は、受信した映像信号に基づいて画像表示部14を制御することによって、画像表示部14にコンテンツ画像を表示させる。従って、CPU51は、S7でHD10に対して映像信号を送信することによって、画像表示部14に画像を表示させていることになる。以下では、CPU51が画像処理部57を駆動して画像データ(コンテンツ画像データ又は撮影画像データ)から画像(コンテンツ画像又は撮影画像)を形成させ、形成された画像をビデオRAM56に記憶させ、ビデオRAM56に記憶された画像に基づいて映像信号を生成することを、単に、CPU51が画像データに基づいて映像信号を生成するという。又、CPU51がHD10に対して映像信号を送信することによって、HD10のCPU11が画像表示部14を制御し、映像信号に対する画像を表示させることを、CPU51が画像表示部14に画像を表示させるという。
As described above, the
S7の処理が実行された結果、HD1を装着したユーザは、例えば図3の光景21Aで示されるように、実像211に重畳されたコンテンツ画像212Aを視認する。
As a result of the processing of S7, the user wearing the HD1 visually recognizes the
図5を参照し、第2メイン処理を説明する。CPU51は、HD10から送信された撮影画像データ及び時刻情報を、接続コントローラ58を介して受信する(S11)。CPU51は、受信した撮影画像データ及び時刻情報を互いに関連付けてRAM52に記憶する。CPU51は、撮影画像データ及び時刻情報を受信した時刻(以下、受信時刻という。)を示す時刻情報を、OSから取得し、RAM52に記憶する。
The second main process will be described with reference to FIG. The
CPU51は、RAM52に記憶した撮影画像データに基づき、撮像画像に指先が含まれるかを判断する(S13)。先ず、CPU51は、次のようにして、撮影画像から指先を特定する。CPU51は、撮影画像データに対応する撮影画像から、肌色の領域を検出する。肌色領域の検出は、例えば、肌色に対応する所定の画素値(例えば、R=241,G=187,B=147)を有する画素が連続している領域と検出することで可能である。なお、所定の画素値は他の値であってもよく、所定の幅を有してもよい。CPU51は、検出した肌色の領域全体を囲う多角形を特定する。CPU51は、特定した多角形の形状と、プログラムROM53に予め記憶された指先特定用の画像テンプレートとに基づいて、周知のパターンマッチング処理を行う。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の形状の頂点を指先と特定する。なお、撮影画像に指先が含まれているかの判断方法は、上記方法に限定されない。
The
CPU51は、上記の方法で指先を特定できたか判断する。CPU51は、指先を特定できないと判断した場合、撮影画像に指先が含まれていないと判断する(S13:NO)。CPU51は処理をS11に戻す。CPU51は、指先を特定できたと判断した場合、撮影画像に指先が含まれていると判断する(S13:YES)。
The
CPU51は、撮影画像データ及び時刻情報を受信した受信時刻を、RAM52に記憶された時刻情報に基づいて特定する。CPU51は、HD10から受信した時刻情報によって示される撮影時刻を特定する。CPU51は、撮影時刻と受信時刻とに基づいて、カメラ20が撮影画像を撮影してから、CPU51が撮影画像データを受信するまでに要した遅延時間を算出する。なお、CPU11、51間では、OSどうしの時刻の同期をとる為の通信が一定周期で実行されている。このためCPU51は、撮影時刻から受信時刻までの時間を遅延時間として算出できる。CPU51は、算出された遅延時間が所定値(例えば1秒)よりも小さいか判断する(S15)。CPU51は、算出された遅延時間が所定値よりも小さくないと判断された場合(S15:NO)、処理をS11に戻す。CPU51は、算出された遅延時間が所定の値よりも小さいと判断した場合(S15:YES)、処理をS17に進める。
The
このようにCPU51は、遅延時間が所定値よりも小さくない場合、処理をS17に進めないことによって、映像信号をHD10に送信せず、撮影画像を画像表示部14に表示させない。その理由は、遅延時間が大きい場合、撮影画像データに対応する撮影画像に指先が含まれていた場合の指先の動きと、実像に指先が含まれていた場合の指先の動きとの間に時間差が発生する為である。これによってCPU51は、画像表示部14に表示された撮影画像に含まれる指先の動きが、実像に含まれる指先の動きに対して遅延することによって、ユーザに違和感を与えることを防止できる
As described above, when the delay time is not smaller than the predetermined value, the
CPU51は、S7(図4参照)で画像表示部14に表示させたコンテンツ画像に、S11で受信された撮影画像データに対応する撮影画像を重ねる為に、次の処理を行う。CPU51は、S7で画像表示部14に表示された状態のコンテンツ画像のコンテンツ画像データと、S11で受信された撮影画像データとに基づいて、コンテンツ画像に撮影画像が重ねられた重畳画像の映像信号を生成する(S16)。ここでCPU51は、重畳画像に含めるコンテンツ画像及び撮影画像を、透明の状態で重ね合わせる。一例としては次の通りである。CPU51は、コンテンツ画像と撮影画像とを重ね合わせる為に、コンテンツ画像と撮影画像とのαブレンドを行う。CPU51は、αブレンドを行う場合における撮影画像の各画素のα値を、コンテンツ画像の各画素のα値よりも小さい値とする。以下、コンテンツ画像の各画素のα値を第1α値といい、撮影画像の各画素のα値を第2α値という。第2α値は、第1α値よりも小さくなる。この場合、撮影画像の透過率は、コンテンツ画像の透過率よりも大きくなり、コンテンツ画像よりも色が薄く不鮮明になる。
The
CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる(S17)。HD1を装着したユーザは、例えば図3の光景21Bで示されるように、実像211に重ねられた重畳画像212Bを視認する。重畳画像212Bは、コンテンツ画像23と撮影画像24とを含む。CPU51は、ユーザに対してコンテンツ画像23と撮影画像24との両方を視認させることができる。
The
又、光景21Bでは、重畳画像212Bにユーザの手25及び指先25Aが含まれている。光景21Bを視認するユーザは、自身の指先の位置を確認しながら手を移動させることができるので、所定の条件を満たすように指先を移動させ易くなる。特に、実像211に重ねられた重畳画像212Bに手22が隠れてしまい、ユーザが実像211に基づいて手を視認できない場合でも、重畳画像212Bに含まれる手25を視認できる。従ってユーザは、実像211内の手の位置に依らず、常に、所定の条件を満たすように指先を移動させることができる。なお、CPU51は、コンテンツ画像23に撮影画像24を重ねることによって、重畳画像212Bを形成させる。このためCPU51は、重畳画像212Bによって隠れてしまう実像211の領域の大きさを小さくすることができるので、ユーザによる実像211の視認性を良好に維持できる。
In the
又、光景21Bでは、重畳画像212Bに含まれる撮影画像24の透過率は、コンテンツ画像23の透過率よりも大きくなり、コンテンツ画像23よりも色が薄く不鮮明となる。従ってユーザは、撮影画像24よりもコンテンツ画像23を鮮明に認識できる。このように、CPU51は、コンテンツ画像23に撮影画像24が重ねられた場合に、コンテンツ画像23の視認性が妨げられることを防止できる。従ってCPU51は、コンテンツ画像23に撮影画像24が重ねられた場合でも、ユーザにコンテンツ画像23を継続して良好に視認させることができる。
In the
CPU51は、S13で特定した指先の位置を示す座標情報を特定し、RAM52に記憶する。S11、S13、S15の処理が繰り返されることによって、RAM52に複数の座標情報が記憶される。CPU51は、RAM52に記憶された複数の座標情報に基づき、図6のDB531を参照することによって、指先の位置の経時的な変化の傾向が、複数の所定の条件の一部の何れかを満たすか判断する(S19)。
The
図6を参照し、DB531を説明する。DB531には、判定データ及び処理内容データが関連付けて複数記憶される。判定データは、指先の位置の変化の傾向を特定可能な所定の条件を示すデータである。判定データの詳細は後述する。処理内容データは、HMD1の具体的な処理の内容を示す。DB531では、右、左、上、及び下の夫々の方向にコンテンツ画像をスクロールさせる処理を示す処理内容データが記憶されている。
The
図7を参照し、判断方法の詳細について具体的を挙げて説明する。S11、S13、S15(図5参照)の処理が繰り返されることによって、RAM52に、複数の位置P1、P2、P3、P4、P5の夫々を示す座標情報(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)(X5,Y5)が順番に記憶されたとする。なお、撮影画像の横方向がX軸方向に対応し、縦方向がY軸方向に対応する。また、右方向及び上方向が正方向であり、左方向及び下方向が負方向である。図7は、右、及び左の夫々の方向にコンテンツ画像をスクロールさせる処理に対応する指先の移動経路と、複数の座標情報31、32とを示している。
With reference to FIG. 7, the details of the determination method will be specifically described. By repeating the processes of S11, S13, and S15 (see FIG. 5), coordinate information (X1, Y1) (X2, Y2) (X2) indicating each of the plurality of positions P1, P2, P3, P4, and P5 is stored in the
複数の座標情報31に基づいて判断される場合について説明する。指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、位置P1〜P4の座標情報のX成分及びY成分の夫々が、次の式(1)の条件を満たすと判断する。
X1≒X2≒X3≒X4,Y1>Y2>Y3>Y4・・・(1)
この場合、CPU51は、指先の位置が上から下に向けて略垂直に移動していると判断する。
A case where determination is made based on a plurality of coordinate
X1≈X2≈X3≈X4, Y1>Y2>Y3> Y4 (1)
In this case, the
次に、指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の座標情報のX成分及びY成分の夫々が、次の式(2)の条件を満たすと判断する。
X4<X5,Y4<Y5・・・(2)
この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、左下から右上に向かう移動に変化したと判断する。CPU51は、上記の式(1)(2)の条件を満たす場合、指先の位置の経時的な変化の傾向が、右スクロールの処理内容に対応する所定の条件の一部を満たすと判断する。
Next, when the fingertip moves to the position P5 and the coordinate information of the position P5 is stored in the
X4 <X5, Y4 <Y5 (2)
In this case, the
次に、複数の座標情報32に基づいて判断される場合について説明する。指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、上記と同様、式(1)の条件を満たすと判断する。指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の座標情報のX成分及びY成分の夫々が、次の式(3)の条件を満たすと判断する。
X4>X5,Y4<Y5・・・(3)
この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、右下から左上に向かう移動に変化したと判断する。CPU51は、上記の式(1)(3)の条件を満たす場合、指先の位置の経時的な変化の傾向が、左スクロールの処理内容に対応する所定の条件の一部を満たすと判断する。
Next, a case where determination is made based on a plurality of coordinate
X4> X5, Y4 <Y5 (3)
In this case, the
なお、詳細は省略するが、指先の位置の経時的な変化の傾向が、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の一部を満たすかの判断も、上記と同様の方法で行われる。又、上記の具体例では、最初にRAM52に記憶された座標情報を、特定の位置P1(座標情報(X1,Y1))とし、位置P2,P3・・・の夫々の座標情報に基づいて判断される場合を例に挙げて説明した。しかしながら、判断方法は上記具体例に限定されない。例えばCPU51は、位置P2〜P9(図8参照)の何れかから開始される指先の複数の位置を示す座標情報に基づいて、指先の位置の経時的な変化の傾向が、右、左、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の一部を満たすかを判断してもよい。
Although details are omitted, it is determined whether the tendency of the fingertip position to change over time satisfies a part of a predetermined condition corresponding to the processing content for scrolling the content image in the upward or downward direction. Is also performed in the same manner as described above. In the above specific example, the coordinate information initially stored in the
図5に示すように、CPU51は、DB531に記憶された複数の判定データを参照し、上記の方法によって、指先の位置の経時的な変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する複数の所定の条件一部の何れかを満たすか判断する(S19)。CPU51は、複数の所定の条件の一部の何れも満たさないと判断した場合(S19:NO)、処理をS31に進める。
As shown in FIG. 5, the
CPU51は、複数の所定の条件の一部の何れかを満たすと判断した場合(S19:YES)、S17で画像表示部14に表示させた重畳画像のうち、撮影画像の透過率を小さくする為に、次の処理を行う。CPU51は、S7(図4参照)で画像表示部14に表示された状態のコンテンツ画像のコンテンツ画像データと、S11で受信された撮影画像データとに基づいて、コンテンツ画像に撮影画像が重ねられた重畳画像の映像信号を生成する(S20)。ここでCPU51は、重畳画像に含めるコンテンツ画像及び撮影画像を、透明の状態で重ね合わせる。より具体的には次の通りである。CPU51は、コンテンツ画像と撮影画像とのαブレンドを行う場合における撮影画像の各画素のα値を、S17で画像表示部14に表示された重畳画像に含まれる撮影画像のα値である第2α値よりも大きく、且つ、コンテンツ画像のα値である第1α値よりも小さい第3α値とする。この場合、撮影画像の透過率は、S17で画像表示部14に表示された重畳画像に含まれる撮影画像の透過率よりも小さくなり、撮影画像は色が濃くなり鮮明になる。
When the
CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる(S21)。これによって、画像表示部14に表示された重畳画像のうち撮影画像の透過率は小さくなり、透過率の変化前と比較して色が濃くなり鮮明となるので、ユーザは、透過率の変化前と比較して、撮影画像24を良好に視認できるようになる。このように、CPU51は、撮影画像の透過率を変化させることによって、指先の位置の変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する所定の条件の一部の何れかを満たすと判断したことを、ユーザに通知できる。又、撮影画像24の色が濃くなり鮮明となるので、ユーザは、指先を継続して移動させる場合の移動方法を把握し易くなる。
CPU51 transmits the produced | generated video signal to HD10, and displays a superimposed image on the image display part 14 (S21). As a result, the transmittance of the captured image in the superimposed image displayed on the
又、撮影画像のα値(第3値)は、コンテンツ画像のα値(第1α値)よりも小さいので、コンテンツ画像23よりも撮影画像24の方が色が薄く不鮮明な状態は、撮影画像の透過率が小さくなった後も維持される。従ってユーザは、撮影画像の透過率が小さくなった後も、コンテンツ画像23を鮮明に認識できる。このように、CPU51は、撮影画像24がコンテンツ画像23の視認性を妨げることを、撮影画像24の透過率を変化させた後も防止できる。従ってCPU51は、ユーザに対して、コンテンツ画像23を継続して良好に視認させることができる。
Further, since the α value (third value) of the photographed image is smaller than the α value (first α value) of the content image, the photographed
CPU51は、RAM52に記憶された複数の座標情報に基づき、図6のDB531に記憶された複数の判定データを参照することによって、指先の位置の経時的な変化の傾向が、右、左、上、及び下の夫々の方向へのスクロールに対応する複数の所定の条件の何れかを満たすかを判断する(S23)。
The
図8を参照し、判断方法の詳細について具体例を挙げて説明する。S11、S13、S15(図5参照)の処理が繰り返されることによって、RAM52に、複数の位置P1〜P11の夫々を示す座標情報(X1,Y1)〜(X11,Y11)が順番に記憶されたとする。図8は、右方向にコンテンツ画像をスクロールさせる処理に対応する所定の移動経路と複数の座標情報33とを示している。
Details of the determination method will be described with reference to FIG. By repeating the processes of S11, S13, and S15 (see FIG. 5), coordinate information (X1, Y1) to (X11, Y11) indicating each of the plurality of positions P1 to P11 is sequentially stored in the
指先が位置P1から位置P4まで移動し、位置P1〜P4の座標情報がRAM52に記憶された場合、CPU51は、上記式(1)の条件を満たすと判断する。この場合、CPU51は、指先の位置が上から下に向けて略垂直に移動していると判断する。次に、指先が位置P5に移動し、位置P5の座標情報がRAM52に記憶された場合、CPU51は、位置P4、P5の夫々に対応する座標情報が上記式(2)の条件を満たすと判断する。この場合、CPU51は、指先の位置の移動方向が、上から下に向かう移動から、左下から右上に向かう移動に変化したと判断する。
When the fingertip moves from the position P1 to the position P4 and the coordinate information of the positions P1 to P4 is stored in the
次に、指先が位置P5からP7に移動し、位置P6、P7の座標情報がRAM52に記憶された場合、CPU51は、RAM52に記憶された位置P4〜P7の座標情報のX成分及びY成分の夫々が、次の式(4)の条件を満たすと判断する。
X4<X5<X6<X7,Y4<Y5<Y6<Y7・・・(4)
この場合、CPU51は、指先の位置が左下から右上に向けて斜め方向に移動していると判断する。
Next, when the fingertip moves from the position P5 to P7 and the coordinate information of the positions P6 and P7 is stored in the
X4 <X5 <X6 <X7, Y4 <Y5 <Y6 <Y7 (4)
In this case, the
次に、指先が位置P8に移動し、位置P8の座標情報がRAM52に記憶された場合、CPU51は、位置P7、P8の座標情報のX成分及びY成分の夫々が、次の式(5)の条件を満たすと判断する。
X7>X8,Y7<Y8・・・(5)
この場合、CPU51は、指先の位置の移動方向が、左下から右上に向かう移動から、右下から左上に向かう移動に変化したと判断する。
Next, when the fingertip moves to the position P8 and the coordinate information of the position P8 is stored in the
X7> X8, Y7 <Y8 (5)
In this case, the
次に、指先が位置P8からP10に移動し、位置P9、P10の座標情報がRAM52に記憶された場合、CPU51は、位置P7〜P10の座標情報のX成分及びY成分の夫々が、次の式(6)の条件を満たすと判断する。
X7>X8>X9>X10,Y7<Y8<Y9<Y10・・・(6)
この場合、CPU51は、指先の位置が右下から左上に向けて斜め方向に移動していると判断する。
Next, when the fingertip moves from the position P8 to P10 and the coordinate information of the positions P9 and P10 is stored in the
X7>X8>X9> X10, Y7 <Y8 <Y9 <Y10 (6)
In this case, the
次に、指先が位置P10からP11に移動し、位置P11の座標情報がRAM52に記憶された場合、CPU51は、位置P10、P11の座標情報のX成分及びY成分の夫々が、次の式(7)の条件を満たすと判断する。
X10≒X11,Y10>Y11・・・(7)
この場合、CPU51は、指先の位置の移動方向が、右下から左上に向かう移動から、上から下に向かう移動に変化したと判断する。CPU51は、上記の式(1)(2)(4)〜(7)の条件を満たす場合、指先の位置の経時的な変化の傾向が、右スクロールの処理内容に対応する所定の条件を満たすと判断する。
Next, when the fingertip moves from the position P10 to P11 and the coordinate information of the position P11 is stored in the
X10≈X11, Y10> Y11 (7)
In this case, the
なお、図6のDB531に記憶された判定データのうち、右方向へのスクロールを示す処理内容データに関連付けられた判定データは、上記の式(1)(2)(4)〜(7)を示すデータである。このように、判定データは、指先の位置の変化の傾向が所定の条件を満たすかを判断する場合に適用される関係式を示す。
Of the determination data stored in the
なお、詳細は省略するが、指先の位置の経時的な変化の傾向が、左、上、及び、下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件を満たすかの判断も、上記と同様の方法で行われる。又、上記の具体例では、最初にRAM52に記憶された座標情報を、特定の位置P1(座標情報(X1,Y1))とし、位置P2,P3・・・の夫々の座標情報に基づいて判断される場合を例に挙げて説明した。しかしながら、判断方法は上記具体例に限定されない。例えばCPU51は、位置P2〜P9の何れかから開始される指先の複数の位置を示す座標情報に基づいて、指先の位置の経時的な変化の傾向が、右、左、上、又は下の夫々の方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件を満たすかを判断してもよい。なお、夫々の判断が行われる場合に適用される関係式が、DB531に判定データとして、夫々の処理内容に関連付けて記憶される。
Although details are omitted, it is determined whether the tendency of the fingertip position to change over time satisfies a predetermined condition corresponding to the processing content for scrolling the content image in the left, up, and down directions. Is also performed in the same manner as described above. In the above specific example, the coordinate information initially stored in the
なおCPU51は、別の方法で、指先の位置の経時的な変化の傾向が所定の条件を満たすか判断してもよい。例えばCPU51は、RAM52に記憶された複数の座標情報の夫々によって示される位置を順に線で結び、指先の移動の軌跡を示す線分として特定してもよい。CPU51は、特定した線分と、プログラムROM53に予め記憶された軌跡特定用の複数の画像テンプレートとに基づいて、周知のパターンマッチング処理を行ってもよい。なお、軌跡特定用の複数の画像テンプレートは、特定の形状を示す画像のテンプレートである。特定の形状は、例えば、図8で移動経路として示されている三角形である。なお、特定の形状は三角形に限定されない。例えば特定の形状は、上下方向に延びる直線、左右方向に延びる直線、円形等であってもよい。複数の画像テンプレートの夫々には、処理内容データが対応付けられてもよい。CPU51は、パターンマッチング処理によって複数の画像テンプレートの夫々に対応する複数の相互相関係数を算出し、最も1に近い相互相関係数が所定の範囲内の値であるか判断してもよい。CPU51は、最も1に近い相互相関係数が所定の範囲内の値である場合、パターンマッチングに成功したと判断してもよい。この場合CPU51は、指先の位置の変化の傾向が、最も1に近い相互相関係数に対応する画像テンプレートによって示される特定の形状と一致すると判断してもよい。これによってCPU51は、指先の位置の変化の傾向が所定の条件を満たしているかを更に適切に判断できる。
The
図5に示すように、CPU51は、DB531に記憶された複数の判定データを参照し、上記の判断方法によって、指先の位置の経時的な変化の傾向が、右方向、左方向、上方向、及び下方向にコンテンツ画像をスクロールさせる処理内容に対応する所定の条件の何れかを満たすか判断する(S23)。CPU51は、複数の所定の条件の何れとも一致しないと判断した場合(S23:NO)、処理をS17に戻す。CPU51は、複数の所定の条件の何れかを満たすと判断した場合(S23:YES)、S21で画像表示部14に表示させた重畳画像に軌跡画像26を含める為に、次の処理を行う。CPU51は、RAM52に記憶された複数の座標情報によって示される複数の位置を、RAM52に座標情報が記憶された順番に線で結ぶことによって、指先の位置の移動経路を示す線分を特定する。CPU51は、特定された線分のうち、RAM52に最後に記憶された座標情報側の端部に、アローヘッドを付し、軌跡画像26を作成する。CPU51は、S21で画像表示部14に表示された状態の重畳画像に軌跡画像を含め、映像信号を生成する。
As shown in FIG. 5, the
CPU51は、HD10に映像信号を送信し、軌跡画像を含む重畳画像を画像表示部14に表示させる(S25)。HD1を装着したユーザは、例えば図3の光景21Cで示されるように、軌跡画像26を含む重畳画像212Cを視認する。これによってユーザは、指先の位置の経時的な変化の傾向を確認できる。また、CPU51は、指先の位置の経時的な変化の傾向が、右、左、上、及び下の何れかの方向へのコンテンツ画像のスクロールに対応する所定の条件の何れかを満たすと判断した場合に、軌跡画像を含む重畳画像を画像表示部14に表示させる。このためユーザは、HMD1実行させる処理内容に対応する指先の位置の経時的な変化の傾向がHMD1によって認識されたことを把握できる。またCPU51は、コンテンツ画像のスクロールが実際に行われる(S27参照、後述)前に、軌跡画像を含む重畳画像を画像表示部14に表示させる。これによってユーザは、指の移動に対応する処理がまだ実行されていないことを認識できる。
The
CPU51は、DB531に記憶された複数の判定データのうち、S23で所定の条件を満たすと判断された場合に参照された判定データに対応する処理内容、即ち、コンテンツ画像をスクロールさせる場合の方向を特定する。CPU51は、特定した処理内容に基づいて、コンテンツ画像をスクロールさせる処理を実行する(S27)。
The
具体例を挙げて説明する。CPU51が、S23で、指先の位置の経時的な変化の傾向が、DB531の判定データ「Right.file」に対応する所定条件を満たすと判断した場合を例に挙げる。この場合、CPU51は、判定データ「Right.file」に関連付けられた処理内容が、コンテンツ画像を右方向にスクロールさせる処理を示すことを特定する。CPU51は、S25で画像表示部14に表示させた軌跡画像を含む重畳画像に含まれるコンテンツ画像を、右方向にスクロールさせる為に、次の処理を行う。CPU51は、S21で画像表示部14に表示された状態の重畳画像のうちコンテンツ画像を、右方向にスクロールさせる。CPU51は、右方向にスクロールさせたコンテンツ画像に撮影画像が重ねられ、且つ、軌跡画像を含む重畳画像の映像信号を生成する。CPU51は、生成した映像信号をHD10に送信し、画像表示部14に重畳画像を表示させる。HD1を装着したユーザは、例えば図3の光景21Dで示されるように、右方向にスクロールされたコンテンツ画像23を含む重畳画像212Dを視認する。以上のように、CPU51は、DB531を参照することによって、指先の位置の変化の傾向に対応する処理を容易に特定できる。
A specific example will be described. For example, the
なお、プログラムROM53に記憶された複数の画像テンプレートが用いられることによって、指先の位置の変化の傾向が所定の条件を満たすかが判断された場合、CPU51は、最も1に近い相互相関係数に対応する画像テンプレートに対応付けられた処理内容データを、上記と同様の方法で特定し、対応する処理を実行してもよい。
Note that when a plurality of image templates stored in the
CPU51は、S27で実行する処理が完了した後、HD10にコンテンツ画像及び撮影画像の映像信号のみを送信することによって、画像表示部14に表示された状態の重畳画像から軌跡画像を消去させる(S29)。次にCPU51は、S29で重畳画像から軌跡画像を消去させた後、HD10にコンテンツ画像の映像信号のみを送信することによって、画像表示部14に表示された状態の重畳画像から撮影画像を更に消去する(S31)。画像表示部14には、コンテンツ画像のみが表示された状態になる。CPU51は処理をS11に戻す。これによってユーザは、指先の位置の経時的な変化に対応する処理をHMD1が実行したことを確認できる。またCPU51は、S27で処理が実行された後で、画像表示部14に表示された状態の重畳画像から撮影画像及び軌跡画像を消去させる。これによってCPU51は、ユーザにとって不要となった撮影画像及び軌跡画像をユーザに視認させないことになるので、コンテンツ画像をユーザに良好に視認させることができる。
After the process executed in S27 is completed, the
CPU51が、S27で、コンテンツ画像を右方向にスクロールさせる処理を実行した場合を例に挙げる。この場合、HD10を装着したユーザは、図3の光景21Eで示されるように、右方向にスクロールされたコンテンツ画像212Eのみが実像211に重ねられた光景を視認する。従ってユーザは、指先の移動に応じたスクロール処理が実行された後のコンテンツ画像を良好に視認できる。
As an example, the
以上説明したように、CPU51は、カメラ20によって撮影される所定領域内に指先があると判断した場合(S13:YES)、コンテンツ画像と撮影画像とを含む重畳画像を画像表示部14に表示させる(S17)。従ってユーザは、指先がカメラ20によって撮影されているかを、重畳画像によって認識できる。CPU51は、指先の位置の変化の傾向が所定の条件を満たす場合(S23:YES)、所定の条件に対応する処理を実行する(S27)。ユーザは、指先の位置の経時的な変化が所定の条件を満たすように、所定領域内で指先を移動させることによって、所望する処理をHMD1に実行させることができる。例えばユーザが、実像211に含まれる指先の位置のみを確認し、カメラ20によって撮影される所定領域外で指先を移動させた場合、CPU51は指先の位置の経時的な変化を正確に特定できないので、対応する処理を実行できない。これに対してCPU51は、重畳画像を表示させることによって、カメラ20によって撮影される所定領域内に指先が含まれていることをユーザに確認させることができる。ユーザは、カメラ20によって撮影される所定領域内で指先を移動させることが容易に可能となるので、HMD1に指先を適切に認識させることができる。このためユーザは、所望する処理をHMD1に適切に実行させることができる。
As described above, when the
なお、本発明は上記実施形態に限定されず、種々の変更が可能である。上記実施形態において、CPU51は、S15で指先を特定したが、特定される対象物は指先に限定されない。例えばCPU51は、所定色(例えば赤色)のペン先を対象物として特定してもよい。この場合、CPU51は、所定色に対応する所定の画素値を有する画素が連続している領域を検出することで、対象物が含まれる領域を検出することができる。そして、検出した領域全体を囲う多角形の形状と、プログラムROM53に予め記憶された、対象物に対応する形状の画像テンプレートとに基づいて、周知のパターンマッチング処理が行われる。CPU51は、パターンマッチング処理によって算出された相互相関係数が所定の範囲内の値である場合、特定した多角形の形状と画像テンプレートとのパターンマッチングに成功したと判断する。この場合、CPU51は、多角形の領域をペン先と特定する。
In addition, this invention is not limited to the said embodiment, A various change is possible. In the said embodiment, although CPU51 specified the fingertip by S15, the target object specified is not limited to a fingertip. For example, the
カメラ20は、CB50に対して撮影画像データを直接送信してもよい。上記実施形態において、CPU51は、コンテンツ画像に撮影画像を重ねた重畳画像を画像表示部14に表示させていた。CPU51は、コンテンツ画像と撮影画像とを重ねず、画像表示部14の異なる領域に双方を表示させてもよい。この場合、CPU51は、撮影画像をユーザに視認させつつ、コンテンツ画像の視認性を更に良好に維持できる。
The
上記実施形態において、CPU51は、S17で画像表示部14に重畳画像を表示させる場合、αブレンドを行う場合における撮影画像の各画素のα値(第2α値)を、コンテンツ画像の各画素のα値(第1α値)よりも小さい値とした。これに対し、CPU51は、第1α値と第2α値とを略同一としてもよい。これによってCPU51は、コンテンツ画像と撮影画像とを同様の透過率とした状態で画像表示部14に表示させることができる。この場合、ユーザは、コンテンツ画像と撮影画像との両方を良好に認識できる。
In the above embodiment, when the superimposed image is displayed on the
上記実施形態において、CPU51は、S21で撮影画像に対応するα値を、第2α値から、第2α値よりも大きい第3α値に変更し、画像表示部14に表示させた。これに対し、CPU51は、S19で、指先の位置の変化の傾向が所定の条件の一部を満たすと判断された場合にも、撮影画像に対応するα値を変化させず、S17で画像表示部14に表示させた重畳画像を、S21でそのまま表示させてもよい。又、CPU51は、S21で撮影画像に対応するα値を、第2α値から、第2α値よりも小さい第4α値に変更し、画像表示部14に表示させてもよい。これによってCPU51は、コンテンツ画像よりも色が濃く且つ鮮明な撮影画像をユーザに視認させることができる。
In the above-described embodiment, the
上記実施形態において、CPU51は、指先の位置の経時的な変化の傾向が所定の条件を満たすと判断された場合(S23:YES)、軌跡画像を含む重畳画像を画像表示部14に表示させた(S25)。これに対してCPU51は、S19で、指先の位置の経時的な変化の傾向が所定の条件の一部を満たすと判断した場合(S19:YES)に、軌跡画像を画像表示部14に表示させてもよい。又、CPU51は、S11で、撮影画像に指先が含まれていると判断した場合(S11:YES)に、軌跡画像を画像表示部14に表示させてもよい。これらの場合、ユーザは、軌跡画像を視認することによって、指先の位置の変化の傾向が所定の条件を満たすように指先を移動させることが容易に可能となる。
In the above embodiment, when it is determined that the tendency of the fingertip position over time to satisfy a predetermined condition (S23: YES), the
上記実施形態において、CPU51は、S27で、所定の条件に対応する処理を実行した後、軌跡画像を画像表示部14から消去した。これに対し、CPU51は、処理を実行する前に軌跡画像を画像表示部14から消去してもよい。
In the above embodiment, the
上記実施形態において、カメラ20とインターフェイス15とは、無線によって通信が行われてもよい。HD10とCB50とは、無線によって通信が行われてもよい。なおこれらの場合、カメラ20による撮影が行われてから、CPU51が撮影画像データを受信するまでの間の時間が、上記実施形態の場合よりも長くなる可能性がある。しかしながら、上記実施形態において、CPU51は、遅延時間が所定値よりも小さくない場合(S15:NO)、撮影画像を含む重畳画像を画像表示部14に表示させない。このため、画像表示部14に表示される撮影画像によって示される指先の動きが、実像に含まれる指先の動きに比べて大きく遅延することがない。従って、遅延による違和感をユーザに与えることを防止できる。
In the above embodiment, the
なお、画像表示部14が本発明の「表示部」の一例である。カメラ20が本発明の「撮影部」の一例である。指先が本発明の「対象物」の一例である。撮影画像が本発明の「対象物画像」の一例である。S13の処理を行うCPU51が本発明の「第1判断手段」の一例である。S17,S21の処理を行うCPU51が本発明の「第1表示手段」の一例である。S23の処理を行うCPU51が本発明の「第2判断手段」の一例である。S19の処理を行うCPU51が本発明の「第3判断手段」の一例である。S27の処理を行うCPU51が本発明の「実行手段」の一例である。S16,S20の処理を行うCPU51が本発明の「生成手段」の一例である。S25の処理を行うCPU51が本発明の「第2表示手段」の一例である。S31の処理を行うCPU51が本発明の「消去手段」の一例である。画像テンプレートを記憶するプログラムROM53が本発明の「記憶部」の一例である。
The
1 HMD
3 ハーフミラー
10 HD
14 画像表示部
20 カメラ
21 光景
23 コンテンツ画像
24 撮影画像
26 軌跡画像
50 CB
53 プログラムROM
54 フラッシュROM
1 HMD
3
14
53 Program ROM
54 Flash ROM
Claims (13)
前記第1方向と反対方向である第2方向の領域を少なくとも含む所定領域を撮影して画像データを出力可能な撮影部と、
前記撮影部から出力された画像データを取得する取得手段と、
前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、
前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段と
を備え、
前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とするヘッドマウントディスプレイ。 A display unit capable of displaying at least a content image and emitting image light in a first direction;
An imaging unit capable of imaging a predetermined area including at least an area in a second direction opposite to the first direction and outputting image data;
Obtaining means for obtaining image data output from the photographing unit;
First determination means for determining whether there is a predetermined object in the predetermined region based on the image data acquired by the acquisition means;
The time when the first determination means determines that the object is in the predetermined area , and the time when the image data is acquired by the acquisition means, and the time when the inside of the predetermined area is imaged by the imaging unit A first display means for displaying the content image and the object image on the display unit when the difference between the first image and the target image is smaller than a predetermined value ;
When the first determination unit determines that the object is in the predetermined area, a tendency of a change in the position of the object in the predetermined area based on the image data is determined according to a predetermined condition. A second judging means for judging whether or not
An execution means for executing a process corresponding to the predetermined condition when the second determination means determines that the tendency of the change in the position of the object satisfies the predetermined condition;
The head-mounted display, wherein the object image is an image corresponding to the image data for which the object is determined to be within the predetermined area by the first determination unit.
前記第1表示手段は、前記重畳画像を前記表示部に表示することを特徴とする請求項1に記載のヘッドマウントディスプレイ。 Based on the content image and the object image, further comprising a generating means for generating a superimposed image in which the object image is superimposed on the content image,
The head-mounted display according to claim 1, wherein the first display unit displays the superimposed image on the display unit.
前記生成手段は、前記第3判断手段によって前記対象物の位置の変化の傾向が前記所定の条件の一部を満たしていると判断された場合、前記対象物画像の各画素のα値を、前記第2α値よりも大きい第3α値とし、前記第1α値と前記第3α値とを用いて、前記重畳画像を生成することを特徴とする請求項3に記載のヘッドマウントディスプレイ。 A third determining means for determining whether a tendency of a change in the position of the object satisfies a part of the predetermined condition;
The generation unit determines the α value of each pixel of the object image when the third determination unit determines that the tendency of the change in the position of the object satisfies a part of the predetermined condition, 4. The head mounted display according to claim 3, wherein the superimposed image is generated by using a third α value larger than the second α value and using the first α value and the third α value. 5.
前記第1表示手段は、前記取得手段によって前記時刻情報が取得された時刻と、取得された前記時刻情報によって示される時刻との差が所定値よりも小さい場合にのみ、前記コンテンツ画像と前記対象物画像とを前記表示部に表示し、前記差が所定値よりも小さくない場合、前記対象物画像を前記表示部に表示しないことを特徴とする請求項1から9の何れかに記載のヘッドマウントディスプレイ。 The acquisition means further acquires time information indicating a time when the inside of the predetermined area is imaged by the imaging unit from the imaging unit,
The first display unit is configured to display the content image and the target only when a difference between a time when the time information is acquired by the acquisition unit and a time indicated by the acquired time information is smaller than a predetermined value. 10. The head according to claim 1, wherein an object image is displayed on the display unit, and the object image is not displayed on the display unit when the difference is not smaller than a predetermined value. Mount display.
前記表示部が画像光を射出可能な第1方向と反対方向である第2方向の領域を少なくとも含む所定領域が、撮影部によって撮影された場合に前記撮影部から出力される画像データを取得する取得手段と、
前記取得手段によって取得された前記画像データに基づいて、前記所定領域内に所定の対象物があるか判断する第1判断手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断され、且つ、前記取得手段によって前記画像データが取得された時刻と、前記撮影部によって前記所定領域内が撮影された時刻との差が所定値よりも小さい場合、前記コンテンツ画像と対象物画像とを前記表示部に表示する第1表示手段と、
前記第1判断手段によって、前記対象物が前記所定領域内にあると判断された場合、前記画像データに基づいて、前記所定領域内での前記対象物の位置の変化の傾向が、所定の条件を満たしているか判断する第2判断手段と、
前記第2判断手段によって、前記対象物の位置の変化の傾向が前記所定の条件を満たしていると判断された場合、前記所定の条件に対応する処理を実行する実行手段と
して機能させるための制御プログラムであって、
前記対象物画像は、前記第1判断手段によって前記対象物が前記所定領域内にあると判断された前記画像データに対応する画像であることを特徴とする制御プログラム。 A head-mounted display computer having a display unit capable of displaying at least a content image,
Image data output from the photographing unit is acquired when a predetermined region including at least a region in a second direction opposite to the first direction in which the display unit can emit image light is photographed by the photographing unit. Acquisition means;
First determination means for determining whether there is a predetermined object in the predetermined region based on the image data acquired by the acquisition means;
The time when the first determination means determines that the object is in the predetermined area , and the time when the image data is acquired by the acquisition means, and the time when the inside of the predetermined area is imaged by the imaging unit A first display means for displaying the content image and the object image on the display unit when the difference between the first image and the target image is smaller than a predetermined value ;
When the first determination unit determines that the object is in the predetermined area, a tendency of a change in the position of the object in the predetermined area based on the image data is determined according to a predetermined condition. A second judging means for judging whether or not
Control for functioning as execution means for executing processing corresponding to the predetermined condition when the second determination means determines that the tendency of the change in the position of the object satisfies the predetermined condition A program,
The control program according to claim 1, wherein the object image is an image corresponding to the image data determined by the first determination means that the object is within the predetermined area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013204063A JP5979110B2 (en) | 2013-09-30 | 2013-09-30 | Head mounted display and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013204063A JP5979110B2 (en) | 2013-09-30 | 2013-09-30 | Head mounted display and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015069481A JP2015069481A (en) | 2015-04-13 |
JP5979110B2 true JP5979110B2 (en) | 2016-08-24 |
Family
ID=52836058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013204063A Expired - Fee Related JP5979110B2 (en) | 2013-09-30 | 2013-09-30 | Head mounted display and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5979110B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023181549A1 (en) * | 2022-03-24 | 2023-09-28 | キヤノン株式会社 | Control device, control method, and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086708A (en) * | 1994-04-22 | 1996-01-12 | Canon Inc | Display device |
GB2359216B (en) * | 2000-02-11 | 2003-10-29 | Purple Voice Ltd | A method of synchronising the replay of audio data in a network of computers |
JP2005267267A (en) * | 2004-03-18 | 2005-09-29 | Digital Electronics Corp | Display device for control, screen data generation device, and program, and recording medium therefor |
JP4684745B2 (en) * | 2005-05-27 | 2011-05-18 | 三菱電機株式会社 | User interface device and user interface method |
JP2008235989A (en) * | 2007-03-16 | 2008-10-02 | Nippon Telegr & Teleph Corp <Ntt> | Image processor and image processing method |
US20100315329A1 (en) * | 2009-06-12 | 2010-12-16 | Southwest Research Institute | Wearable workspace |
JP2012164157A (en) * | 2011-02-07 | 2012-08-30 | Toyota Motor Corp | Image synthesizer |
-
2013
- 2013-09-30 JP JP2013204063A patent/JP5979110B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015069481A (en) | 2015-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10629107B2 (en) | Information processing apparatus and image generation method | |
KR101813834B1 (en) | Image processing device, image processing method, image processing program and photographing assist equipment | |
JP6518578B2 (en) | Display control apparatus and display control method | |
KR102494698B1 (en) | Method and apparatus for changing focus of camera | |
JP5949501B2 (en) | Work assistance system and program | |
JP6899875B2 (en) | Information processing device, video display system, information processing device control method, and program | |
WO2015093315A1 (en) | Image processing device and method, and program | |
JP2000172431A (en) | Information input device and game device | |
JP2010206673A (en) | Head-mounted display device, image control method, and image control program | |
CN111213375B (en) | Information processing apparatus, information processing method, and program | |
JP2022183213A (en) | Head-mounted display | |
JP2005312605A (en) | Gaze position display device | |
JP2015149552A (en) | Wearable electronic apparatus | |
JP5979110B2 (en) | Head mounted display and control program | |
JP7367689B2 (en) | Information processing device, information processing method, and recording medium | |
JP2014150343A (en) | Work assisting system and working device | |
JP2020181320A (en) | Information processing device and device information derivation method | |
JP5907034B2 (en) | Work assistance system and program | |
JP2016090853A (en) | Display device, control method of display device and program | |
US20230260235A1 (en) | Information processing apparatus, information processing method, and information processing system | |
JP5907136B2 (en) | Head mounted display and control program | |
JP2018042004A (en) | Display device, head-mounted type display device, and method for controlling display device | |
JP2016005007A (en) | Head mounted display and image processing device | |
WO2021044732A1 (en) | Information processing device, information processing method, and storage medium | |
JP2014197803A (en) | Photographing assist system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160711 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5979110 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |