JP2012008290A - Spectacle type display device and server - Google Patents

Spectacle type display device and server Download PDF

Info

Publication number
JP2012008290A
JP2012008290A JP2010143232A JP2010143232A JP2012008290A JP 2012008290 A JP2012008290 A JP 2012008290A JP 2010143232 A JP2010143232 A JP 2010143232A JP 2010143232 A JP2010143232 A JP 2010143232A JP 2012008290 A JP2012008290 A JP 2012008290A
Authority
JP
Japan
Prior art keywords
display device
gaze target
type display
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010143232A
Other languages
Japanese (ja)
Other versions
JP5651386B2 (en
Inventor
Keiichi Nakajima
啓一 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Mobile Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Mobile Corp filed Critical SoftBank Mobile Corp
Priority to JP2010143232A priority Critical patent/JP5651386B2/en
Publication of JP2012008290A publication Critical patent/JP2012008290A/en
Application granted granted Critical
Publication of JP5651386B2 publication Critical patent/JP5651386B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a spectacle type display device capable of highly precisely specifying a gazing object at which a user gazes in a visual field, even if the posture of the user's head is changed, and capable of surely displaying related information related to the gazing object in real-time; and to provide a server.SOLUTION: A spectacle type display device 1 captures the image of a visual field, specifies the gazing object at which a user gazes in the visual field, and acquires and displays information related to the gazing object. The whole structure of a frame consists of a front rim 2, and left/right temples 3R and 3L. The rim 2 includes a visual field synchronous camera 9 detecting the sight line direction of the user in the visual field, and the rim 2 or the temples 3R and 3L include a posture change detection unit for detecting a posture change, a control unit, and an image display unit displaying the related information of the gazing object within the visual field. The control unit specifies the gazing object in the visual field based on the image information of the visual field and the detection result of the sight line direction of the visual field synchronous camera 9, and the detection result of the posture change detection unit, and acquires the related information.

Description

本発明は、通常の眼鏡と同様に装着して使用可能な眼鏡型表示装置、及び、その眼鏡型表示装置に表示する情報を提供するサーバに関するものである。   The present invention relates to a glasses-type display device that can be worn and used in the same manner as normal glasses, and a server that provides information to be displayed on the glasses-type display device.

従来、この種の眼鏡型表示装置として、利用者の視界内を撮影した画像から人物の顔を検出し、画像から検出された複数の顔の中から、視線センサで検出される視線に基づいて、検索すべき顔を特定する眼鏡装置が知られている(特許文献1参照)。この眼鏡装置は、顔画像またはその特徴量と、その人物について取得した人物情報とからなるレコードを人物ごとに記憶するレコード記憶手段を有し、前記特定した顔に対応するレコードを検索し、該当レコードがあった場合に、該当レコードの人物情報から表示すべき人物情報を取り出して、利用者が見ている前方視界に重ねて表示する。   Conventionally, as this type of eyeglass-type display device, a person's face is detected from an image taken in the user's field of view, and based on the line of sight detected by the line-of-sight sensor from a plurality of faces detected from the image. An eyeglass device that identifies a face to be searched is known (see Patent Document 1). The eyeglass device includes a record storage unit that stores, for each person, a record including a face image or a feature amount thereof and person information acquired for the person, searches for a record corresponding to the identified face, and When there is a record, the person information to be displayed is extracted from the person information of the corresponding record, and is displayed so as to be superimposed on the front view that the user is looking at.

しかしながら、上記従来の眼鏡装置では、その眼鏡装置を装着している利用者の頭部が傾いたり上下動したりして姿勢が変化すると、利用者の視界が変動するとともに、その視界内における利用者の視線も変動しやすくなる。そのため、検索すべき顔を正確に特定することができないおそれがある。更に、利用者の頭部の姿勢が変化すると、利用者が実際に見ている注視対象の顔と、視界内に重ねて表示している人物情報とが対応しなくなり、注視対象の顔に関連した人物情報を確実に且つリアルタイムに表示できないおそれがある。   However, in the above conventional eyeglass device, when the posture of the user wearing the eyeglass device is tilted or moved up and down and the posture changes, the user's field of view changes and the use within the field of view is also performed. The person's line of sight also tends to fluctuate. Therefore, there is a possibility that the face to be searched cannot be specified accurately. Furthermore, when the posture of the user's head changes, the face of the gaze target that the user actually sees does not correspond to the person information that is displayed in the field of view and is related to the face of the gaze target. There is a possibility that the personal information cannot be displayed reliably and in real time.

本発明は以上の問題点に鑑みなされたものであり、その目的は、眼鏡型表示装置を装着した利用者の頭部の姿勢が変化しても視界内で利用者が注視している注視対象を精度良く特定することができ、その注視対象に関連した関連情報をより確実に且つリアルタイムに表示することができる眼鏡型表示装置、及び、その眼鏡型表示装置に表示する情報を提供するサーバを提供することである。   The present invention has been made in view of the above-described problems, and the object thereof is a gaze target in which the user is gazing in the field of view even if the posture of the head of the user wearing the glasses-type display device changes. A spectacle-type display device that can accurately identify related information related to the gaze target, and a server that provides information displayed on the spectacle-type display device. Is to provide.

上記目的を達成するために、請求項1の発明は、視界内に情報を重ねて表示可能な眼鏡型表示装置であって、視界を撮像する視界撮像手段と、前記視界における利用者の視線方向を検出する視線方向検出手段と、当該眼鏡型表示装置の姿勢変化を検出する姿勢変化検出手段と、前記視界撮像手段で撮像された視界の画像情報と、前記視線方向検出手段で検出された視線方向の検出結果と、前記姿勢変化検出手段で検出された姿勢変化の検出結果とに基づいて、前記視界内において前記利用者が注視している注視対象を特定する注視対象特定手段と、前記注視対象特定手段で特定された注視対象に関連した関連情報を取得する関連情報取得手段と、前記関連情報取得手段で取得された前記関連情報を前記視界内に表示する表示手段と、を備えたことを特徴とするものである。
この眼鏡型表示装置によれば、前記視線方向検出手段で前記利用者の視線方向を検出するとともに、姿勢変化検出手段で検出された姿勢変化の検出結果に基づいて、上記利用者の視線方向の検出結果を速やかに補正することができる。これにより、視界画像内で利用者が注視している注視対象を特定するときの精度を高めることができる。さらに、その注視対象に関連した関連情報をより確実に且つリアルタイムに表示することができる。
In order to achieve the above object, a first aspect of the present invention is a glasses-type display device capable of displaying information superimposed on a field of view, a field imaging means for imaging the field of view, and a user's line-of-sight direction in the field of view. Eye-gaze direction detecting means for detecting a change in attitude of the eyeglass-type display device, image information of the field of view taken by the field-of-view imaging means, and the eye gaze detected by the eye-gaze direction detecting means Gaze target identifying means for identifying a gaze target that the user is gazing in the field of view based on a direction detection result and a posture change detection result detected by the posture change detection means; and the gaze Related information acquisition means for acquiring related information related to the gaze target specified by the target specifying means, and display means for displaying the related information acquired by the related information acquisition means in the field of view And it is characterized in and.
According to this glasses-type display device, the gaze direction detection unit detects the user's gaze direction, and based on the posture change detection result detected by the posture change detection unit, the user's gaze direction is detected. The detection result can be corrected quickly. Thereby, the precision at the time of pinpointing the gaze object which the user is gazing in a view field image can be raised. Furthermore, related information related to the gaze target can be displayed more reliably and in real time.

前記眼鏡型表示装置において、前記視線方向検出手段は、前記利用者の眼を撮像する利用者撮像手段を有し、前記利用者撮像手段で撮像された前記利用者の眼の画像に基づいて前記利用者の視線方向を検出するものであってもよい。   In the eyeglass-type display device, the line-of-sight direction detection unit includes a user imaging unit that images the user's eyes, and the user's eye image captured by the user imaging unit is based on the image of the user's eyes. You may detect a user's gaze direction.

また、前記眼鏡型表示装置において、前記視界撮像手段を前記視線方向検出手段として兼用してもよい。この場合は、前記視界撮像手段で撮像された画像内の所定位置(例えば、撮像画像の中心位置)の方向を前記視界における利用者の視線方向と推定される。   In the glasses-type display device, the visual field imaging unit may also be used as the visual line direction detection unit. In this case, the direction of a predetermined position (for example, the center position of the captured image) in the image captured by the visual field imaging unit is estimated as the visual line direction of the user in the visual field.

また、前記眼鏡型表示装置において、前記視界撮像手段の撮像方向を変化させる撮像方向可変手段と、前記視線方向検出手段の検出結果及び前記姿勢変化検出手段の検出結果の少なくとも一方に基づいて、前記利用者の視線方向に前記視界撮像手段の撮像方向が向くように前記撮像方向可変手段を制御する撮像制御手段と、を更に備えてもよい。この場合、前記視界撮像手段は、前記視線方向検出手段として兼用されず、前記視線方向検出手段とは独立に別途設けられる。
この眼鏡型表示装置によれば、利用者が注視している視線方向を中心にして視界の画像を撮像することができ、その撮像した画像の中央に注視対象が位置することになる。また、注視対象を特定しやすくなるように撮像した画像を拡大する場合でも、その拡大した画像から注視対象がはみ出にくくなる。従って、注視対象をより精度よく特定することができる。
Further, in the glasses-type display device, based on at least one of an imaging direction variable unit that changes an imaging direction of the visual field imaging unit, a detection result of the visual line direction detection unit, and a detection result of the posture change detection unit, The image pickup control unit may further include an image pickup control unit that controls the image pickup direction changing unit so that an image pickup direction of the visual field image pickup unit faces a user's line of sight. In this case, the visual field imaging unit is not used as the visual line direction detection unit and is provided separately from the visual line direction detection unit.
According to this glasses-type display device, it is possible to capture a field-of-view image centering on the line-of-sight direction in which the user is gazing, and the gaze target is located in the center of the captured image. Further, even when the captured image is enlarged so that the gaze target can be easily specified, it is difficult for the gaze target to protrude from the enlarged image. Therefore, the gaze target can be specified with higher accuracy.

また、前記眼鏡型表示装置において、前記視界の方位を検出する方位検出手段と、当該眼鏡型表示装置の現在位置情報を取得する現在位置情報取得手段とを、更に備え、前記注視対象特定手段は、前記注視対象の特定に、前記方位の検出結果及び前記現在位置情報の少なくとも一方を更に用いてもよい。
この眼鏡型表示装置によれば、前記視界の画像情報、前記視線方向の検出結果及び前記眼鏡型表示装置の姿勢変化の検出結果に加えて、眼鏡型表示装置の現在位置情報及び利用者が注視対象を見ている方向の方位の少なくとも一方を、注視対象の特定に用いることにより、注視対象をより正確に特定することができる。
The eyeglass-type display device further includes an orientation detection unit that detects an orientation of the field of view, and a current position information acquisition unit that acquires current position information of the eyeglass-type display device, and the gaze target specifying unit includes In addition, at least one of the detection result of the azimuth and the current position information may be further used for specifying the gaze target.
According to this glasses-type display device, in addition to the image information of the field of view, the detection result of the line-of-sight direction, and the detection result of the posture change of the glasses-type display device, the current position information of the glasses-type display device and the user gaze By using at least one of the azimuths in the direction in which the object is viewed to specify the gaze target, the gaze target can be specified more accurately.

また、前記眼鏡型表示装置において、前記視界撮像手段で撮像された前記視界の画像情報、前記視線方向検出手段の検出結果、及び前記姿勢変化検出手段の検出結果の少なくとも一つに基づいて、前記視界における前記注視対象の位置と前記関連情報の表示位置とが所定の位置関係になるように前記関連情報の表示位置を制御する表示制御手段を、更に備えてもよい。
この眼鏡型表示装置によれば、視界における注視対象を見ているときに、その注視対象と所定の位置関係になるように関連情報が表示されるので、注視対象とその関連情報とを一緒に見るときの視認性が向上する。
Further, in the glasses-type display device, based on at least one of the image information of the field of view captured by the field of view imaging unit, the detection result of the line-of-sight direction detection unit, and the detection result of the posture change detection unit, You may further provide the display control means which controls the display position of the said related information so that the position of the said gaze target in a visual field and the display position of the said related information may become predetermined | prescribed positional relationship.
According to this glasses-type display device, when viewing a gaze target in the field of view, related information is displayed so as to be in a predetermined positional relationship with the gaze target. Therefore, the gaze target and the related information are displayed together. Visibility when viewing is improved.

また、前記眼鏡型表示装置において、前記視界における前記注視対象の位置と前記関連情報の表示位置とのずれが所定範囲よりも大きくなった場合は、前記関連情報の表示を停止するように制御する表示制御手段を、更に備えてもよい。
この眼鏡型表示装置によれば、視界内の注視対象の位置から大きくずれた位置に、その注視対象に関連した関連情報が表示されるのを防止できる。
Further, in the glasses-type display device, when the deviation between the position of the gaze target in the field of view and the display position of the related information is larger than a predetermined range, the display of the related information is stopped. Display control means may further be provided.
According to this glasses-type display device, it is possible to prevent related information related to the gaze target from being displayed at a position greatly deviated from the position of the gaze target in the field of view.

また、前記眼鏡型表示装置において、前記視界における前記注視対象と前記利用者の眼との間の注視対象距離を検出する注視対象距離検出手段を、更に備え、前記表示制御手段は、前記注視対象距離検出手段の検出結果に基づいて前記関連情報の表示位置を制御してもよい。
この眼鏡型表示装置によれば、視界内の注視対象と利用者の眼との間の注視対象距離を検出し、その検出結果に基づいて、視界に重ねて表示する関連情報の像の形成位置を変化させることにより、その関連情報の像の形成位置を前記注視対象距離だけ離れた位置に合わせることができる。これにより、利用者は、視界内の注視対象と視界に重ねて表示する情報とを一緒に見る場合に違和感が生じることなく眼の疲労の増加も抑えることができる。
The eyeglass-type display device further includes gaze target distance detection means for detecting a gaze target distance between the gaze target and the user's eyes in the field of view, and the display control means includes the gaze target The display position of the related information may be controlled based on the detection result of the distance detection means.
According to this spectacles type display device, the gaze target distance between the gaze target in the field of view and the user's eyes is detected, and based on the detection result, the image forming position of the related information to be displayed superimposed on the field of view By changing, the image formation position of the related information can be adjusted to a position separated by the gaze target distance. Thereby, the user can suppress an increase in eye fatigue without causing a sense of incongruity when viewing the gaze target in the field of view and the information displayed in the field of view together.

ここで、前記注視対象距離検出手段は、前記視界における前記利用者の相対的な視線方向を検出し、その視線方向にある対象を前記注視対象として前記注視対象距離を検出してもよい。この場合は、利用者の前方に見えている視界の中で利用者が実際に焦点を合わせて見ている任意の注視対象に対する視線方向をより正確に検出することができる。従って、視界の中で利用者が実際に見ている任意の注視対象に対する注視対象距離の検出精度が高まる。前記視界における利用者の相対的な視線方向は、例えば、視界の中心を見たきの中心視線方向を基準にし、前記視界の中の任意の注視対象を見たときの視線方向の角度で検出することができる。また、前記視界における利用者の相対的な視線方向は、視界の中心を検出用座標軸の原点とし、利用者の前方に見えている視界の中で利用者が実際に焦点を合わせて見ている任意の注視対象の座標を求めることにより、検出することができる。
また、前記注視対象距離検出手段は、前記利用者の少なくとも一方の眼に所定の基準パターンからなる参照光を照射し前記参照光が照射された前記眼からの反射画像を検知する手段を有し、前記眼から反射した反射画像における前記基準パターンのひずみの程度に基づいて、前記注視対象距離を検出してもよい。この場合は、利用者の眼のレンズの厚さに応じて変化するレンズ表面の曲率と、利用者が注視対象を注視しているときの眼の焦点距離に対応する前記注視対象距離との関係に基づき、眼から反射した反射画像における基準パターンのひずみの程度から、レンズ表面の曲率を求め、眼の焦点距離に対応する注視対象距離を算出することができる。これにより、利用者の眼と注視対象との間の距離を直接測定することなく、前記注視対象距離を間接的に検出することができる。
また、前記注視対象距離検出手段は、前記利用者の両眼の瞳孔の動きを検知する手段を有し、前記両眼の瞳孔の動きから得られる輻輳の度合いに基づいて前記注視対象距離を検出してもよい。この場合は、利用者の両眼の輻輳の程度と、利用者が注視対象を注視しているときの眼の焦点距離に対応する前記注視対象距離との関係に基づき、前記利用者の両眼の瞳孔の動きから得られる輻輳の度合いから、眼の焦点距離に対応する注視対象距離を算出することができる。これにより、利用者の眼と注視対象との間の距離を直接測定することなく、前記注視対象距離を間接的に検出することができる。前記輻輳の度合いは、例えば、利用者の両眼の瞳孔中心同士の距離から求めたり、眼の全体形状における瞳孔(又は黒目部分)の相対的な位置から求めたりすることができる。
また、前記注視対象距離検出手段で検出した前記注視対象距離に応じて前記情報の像形成位置を調整して表示する第1の表示モードと、前記注視対象距離にかかわらず前記情報の像形成位置を固定して表示する第2の表示モードとを切り替えて実行可能に構成してもよい。この場合は、利用者が見ている視界中の注視対象とその注視対象に関連した関連情報とを一緒に確認したいときは、前記第1の表示モードを選択して実行させることにより、眼の焦点をほとんど変化させることなく注視対象及びその関連情報の両方を確認することができる。一方、利用者に見える視界とは関係なく、眼鏡型表示装置で表示された情報を確認したいときは、前記第2の表示モードを選択して実行させることにより、視界の画像にじゃまされることなく、その視界の画像を背景として当該情報を確認することができる。このように利用者が確認したい情報の内容に応じて適切な表示モードを選択することができる。
Here, the gaze target distance detection unit may detect a relative gaze direction of the user in the field of view, and detect the gaze target distance with a target in the gaze direction as the gaze target. In this case, it is possible to more accurately detect the line-of-sight direction with respect to any gaze target that the user is actually looking at in focus in the field of view that is visible in front of the user. Therefore, the detection accuracy of the gaze target distance with respect to any gaze target actually viewed by the user in the field of view is increased. The relative line-of-sight direction of the user in the field of view is detected by, for example, the angle of the line-of-sight direction when an arbitrary gaze target in the field of view is viewed with reference to the center line-of-sight direction when viewing the center of the field of view. Can do. Further, the relative line-of-sight direction of the user in the field of view is viewed by the user in focus in the field of view that is visible in front of the user, with the center of the field of view being the origin of the coordinate axis for detection. It can detect by calculating | requiring the coordinate of arbitrary gaze objects.
In addition, the gaze target distance detection unit includes a unit that irradiates at least one eye of the user with reference light having a predetermined reference pattern and detects a reflected image from the eye irradiated with the reference light. The gaze target distance may be detected based on the degree of distortion of the reference pattern in the reflected image reflected from the eye. In this case, the relationship between the curvature of the lens surface that changes according to the thickness of the lens of the user's eye and the gaze target distance corresponding to the focal length of the eye when the user is gazing at the gaze target The curvature of the lens surface can be obtained from the degree of distortion of the reference pattern in the reflected image reflected from the eye, and the gaze target distance corresponding to the focal length of the eye can be calculated. Thus, the gaze target distance can be indirectly detected without directly measuring the distance between the user's eye and the gaze target.
In addition, the gaze target distance detection unit includes a unit that detects movement of the pupils of both eyes of the user, and detects the gaze target distance based on a degree of convergence obtained from the movement of the pupils of both eyes. May be. In this case, based on the relationship between the degree of convergence of both eyes of the user and the gaze target distance corresponding to the focal length of the eye when the user is gazing at the gaze target, The gaze target distance corresponding to the focal length of the eye can be calculated from the degree of convergence obtained from the pupil movement. Thus, the gaze target distance can be indirectly detected without directly measuring the distance between the user's eye and the gaze target. The degree of convergence can be obtained, for example, from the distance between the pupil centers of both eyes of the user, or from the relative position of the pupil (or black eye portion) in the overall shape of the eye.
A first display mode for adjusting and displaying the image forming position of the information according to the gaze target distance detected by the gaze target distance detecting unit; and the image forming position of the information regardless of the gaze target distance. May be configured to be switchable to the second display mode for displaying the image in a fixed manner. In this case, when it is desired to confirm the gaze target in the field of view being viewed by the user and related information related to the gaze target together, the first display mode is selected and executed, Both the gaze target and the related information can be confirmed with almost no change in focus. On the other hand, regardless of the field of view visible to the user, when it is desired to check the information displayed on the glasses-type display device, the second display mode is selected and executed, thereby being disturbed by the field of view image. The information can be confirmed using the image of the field of view as a background. Thus, an appropriate display mode can be selected according to the content of information that the user wants to confirm.

また、前記眼鏡型表示装置において、近距離無線通信により、前記注視対象に備えられた記憶媒体に保存されている情報を受信して取得する手段を更に備えてもよい。この注視対象に備えられた記憶媒体から取得する情報は、前記表示手段で表示される前記関連情報でもよいし、前記注視対象の特定や関連情報の検索に使用可能な情報であってもよい。
この眼鏡型表示装置によれば、当該眼鏡型表示装置内のメモリに対して関連情報の検索を行ったり通信ネットワーク上のサーバに対して関連情報の検索を行ったりすることなく、近距離無線通信で受信した前記関連情報を表示することができる。また、近距離無線通信で受信した前記注視対象を特定に使用可能な情報に基づいて、注視対象を特定することもできる。
The glasses-type display device may further include means for receiving and acquiring information stored in a storage medium provided for the gaze target by short-range wireless communication. The information acquired from the storage medium provided for the gaze target may be the related information displayed on the display unit, or may be information that can be used for specifying the gaze target or searching for related information.
According to this glasses-type display device, short-range wireless communication can be performed without searching related information in the memory in the glasses-type display device or searching related information for a server on the communication network. The related information received in (1) can be displayed. Further, the gaze target can be specified based on the information that can be used to specify the gaze target received by the short-range wireless communication.

また、前記眼鏡型表示装置において、通信ネットワークを介してサーバと通信するための通信手段を更に備え、前記関連情報取得手段は、前記注視対象の画像情報、前記注視対象の特徴抽出情報、及び前記注視対象に備えられた記憶媒体から取得された情報の少なくとも一つの情報を前記サーバに送信し、前記サーバで検索された前記注視対象に関連した関連情報を前記サーバから受信して取得するものであってもよい。
この眼鏡型表示装置によれば、前記注視対象の画像情報、前記注視対象の特徴抽出情報、及び前記注視対象に備えられた記憶媒体から取得された情報の少なくとも一つの情報を、通信ネットワークを介して、比較的処理能力高くデータベース機能等の各種機能を具備することが容易なサーバに送信し、そのサーバで検索された関連情報を受信して取得する。このようにサーバと通信することにより、注視対象の特定と関連情報との整合性の精度を高められた関連情報をサーバから効率よく取得することができる。しかも、注視対象についてより詳しく且つバリエーションも広範囲にわたった内容を有する関連情報を取得することも可能になる。
ここで、通信ネットワークを介してサーバと通信するための通信手段を備える代わりに、有線又は無線の近距離通信により別体の通信端末装置と通信するための近距離通信手段を備えてもよい。この場合は、移動体通信ネットワークなどの通信ネットワークに接続するための通信機能を眼鏡型表示装置自体が備えていなくても、有線又は無線の近距離通信により通信可能な別体の通信端末装置を介して、通信ネットワークに接続し、通信ネットワーク上のサーバと通信することが可能になる。
The eyeglass-type display device further includes communication means for communicating with a server via a communication network, wherein the related information acquisition means includes the image information of the gaze target, the feature extraction information of the gaze target, and the Transmitting at least one piece of information acquired from a storage medium provided for a gaze target to the server, and receiving and obtaining related information related to the gaze target searched by the server from the server. There may be.
According to this glasses-type display device, at least one of the image information of the gaze target, the feature extraction information of the gaze target, and the information acquired from the storage medium provided in the gaze target is transmitted via a communication network. Thus, the information is transmitted to a server having a relatively high processing capability and easily equipped with various functions such as a database function, and the related information retrieved by the server is received and acquired. By communicating with the server in this way, it is possible to efficiently acquire from the server related information that is improved in the accuracy of consistency between the identification of the gaze target and the related information. In addition, it is also possible to acquire related information that has more detailed information about the gaze target and a wide range of variations.
Here, instead of providing a communication means for communicating with the server via the communication network, a short-range communication means for communicating with a separate communication terminal device by wired or wireless short-range communication may be provided. In this case, a separate communication terminal device capable of communicating by wired or wireless short-range communication even if the glasses-type display device itself does not have a communication function for connecting to a communication network such as a mobile communication network. It is possible to connect to a communication network and communicate with a server on the communication network.

また、本発明に係るサーバは、前記眼鏡型表示装置と通信ネットワークを介して通信可能なサーバであって、前記注視対象の画像情報、前記注視対象の特徴抽出情報、及び前記注視対象に備えられた記憶媒体から取得された情報の少なくとも一つの情報を、前記眼鏡型表示装置から受信する情報受信手段と、前記眼鏡型表示装置から受信した情報に基づいて、前記注視対象を特定し、その特定した注視対象に関連した関連情報を検索する検索手段と、前記検索手段で検索された前記注視対象に関連した関連情報を前記眼鏡型表示装置に送信する情報送信手段と、を備える。   The server according to the present invention is a server that can communicate with the glasses-type display device via a communication network, and is provided in the image information of the gaze target, the feature extraction information of the gaze target, and the gaze target. Information receiving means for receiving at least one piece of information acquired from the storage medium from the glasses-type display device, and identifying the gaze target based on the information received from the glasses-type display device; Search means for searching for related information related to the gaze target, and information transmission means for transmitting related information related to the gaze target searched by the search means to the glasses-type display device.

なお、前記眼鏡型表示装置において、前記利用者のスケジュール情報、前記利用者宛のメール情報、及び前記利用者宛の配信情報の少なくとも一つの最新情報を取得する最新情報取得手段を更に備え、前記表示手段は、前記最新情報取得手段で取得した前記最新情報を視界の中に重ね合わせて表示してもよい。
この眼鏡型表示装置によれば、利用者は、眼鏡型表示装置を装着するという簡単な操作で、自分のスケジュール情報等の最新情報を確認することができる。しかも、その利用者が最新情報を確認していることを周囲の人に気付かれることもない。
The glasses-type display device further includes a latest information acquisition unit that acquires at least one latest information of the user's schedule information, mail information addressed to the user, and distribution information addressed to the user, The display means may display the latest information acquired by the latest information acquisition means so as to overlap the field of view.
According to this glasses-type display device, the user can confirm the latest information such as his / her schedule information by a simple operation of wearing the glasses-type display device. In addition, the surrounding people are not aware that the user is checking the latest information.

本発明に係る通信端末システムは、前記眼鏡型表示装置と、有線又は無線の近距離通信により前記眼鏡型表示装置と通信可能な通信端末装置と、を備える。
この通信端末システムによれば、移動体通信ネットワークなどの通信ネットワークに接続するための通信機能を眼鏡型表示装置自体が備えていなくても、有線又は無線の近距離通信により通信可能な通信端末装置を介して通信ネットワークに接続し、通信ネットワーク上のサーバと通信することが可能になる。
A communication terminal system according to the present invention includes the glasses-type display device and a communication terminal device capable of communicating with the glasses-type display device by wired or wireless short-range communication.
According to this communication terminal system, even if the glasses-type display device itself does not have a communication function for connecting to a communication network such as a mobile communication network, the communication terminal device can communicate by wired or wireless short-range communication. It is possible to communicate with a server on the communication network by connecting to the communication network via the network.

本発明によれば、前記視線方向検出手段で前記利用者の視線方向を検出するとともに、姿勢変化検出手段で検出された眼鏡型表示装置の姿勢変化の検出結果に基づいて、上記利用者の視線方向を速やかに補正することができる。これにより、視界撮像手段で撮像された視界画像内で利用者が注視している注視対象を特定するときの精度を高めることができるとともに、その注視対象に関連した関連情報をより確実に且つリアルタイムに表示することができる。   According to the present invention, the gaze direction of the user is detected by the gaze direction detection unit, and the gaze direction of the user is detected based on the detection result of the posture change of the glasses-type display device detected by the posture change detection unit. The direction can be corrected quickly. Thereby, it is possible to improve the accuracy when specifying the gaze target that the user is gazing in the visual field image captured by the visual field imaging means, and more reliably and in real time related information related to the gaze target. Can be displayed.

本発明の実施形態に係る眼鏡型表示装置の一構成例を示す斜視図。1 is a perspective view illustrating a configuration example of a glasses-type display device according to an embodiment of the present invention. (a)は同眼鏡型表示装置の上面図。(b)は他の構成例に係る眼鏡型表示装置の上面図。(A) is a top view of the eyeglass-type display device. FIG. 6B is a top view of a glasses-type display device according to another configuration example. 眼鏡型表示装置の一構成例を示す機能ブロック図。The functional block diagram which shows the example of 1 structure of spectacles type display apparatus. (a)及び(b)はそれぞれ、利用者の視線方向と視界同調カメラの撮像画像とを説明するための説明図(A) And (b) is explanatory drawing for demonstrating a user's eyes | visual_axis direction and the picked-up image of a visual field synchronization camera, respectively. (a)は注視対象距離検出部の一構成例を示す概略構成図。(b)は注視対象距離検出部における縞模様の変化の説明図。(A) is a schematic block diagram which shows the example of 1 structure of a gaze target distance detection part. (B) is explanatory drawing of the change of the striped pattern in a gaze target distance detection part. 利用者の左眼眼球の水晶体の厚さの時間変化の一例を示すグラフ。The graph which shows an example of the time change of the lens thickness of a user's left eye eyeball. 画像生成部、画像投影表示部及び焦点距離調整部の一例を示す概略構成図。The schematic block diagram which shows an example of an image generation part, an image projection display part, and a focal distance adjustment part. (a)は画像を眼からの距離の遠い注視対象に合わせて表示する場合の説明図。(b)は画像を眼からの距離の近い注視対象に合わせて表示する場合の説明図。(A) is explanatory drawing in the case of displaying an image according to the gaze object far from the eye. (B) is explanatory drawing in the case of displaying an image according to the gaze object with a short distance from eyes. 眼鏡型表示装置により注視対象の情報を表示する情報提供システムの全体構成の一例を示す概略構成図。The schematic block diagram which shows an example of the whole structure of the information provision system which displays the information of the attention object with a spectacles type display apparatus. 利用者が注視した注視対象の情報を表示する処理を説明するためのシーケンス図。The sequence diagram for demonstrating the process which displays the information of the attention object which the user watched. 眼鏡型表示装置に家電機器の操作メニューを表示している状態の説明図。Explanatory drawing of the state which is displaying the operation menu of household appliances on a spectacles type display apparatus. 家電機器の操作メニューを表示する処理を説明するためのシーケンス図。The sequence diagram for demonstrating the process which displays the operation menu of household appliances. 眼鏡型表示装置に時刻と温度を表示している状態の説明図。Explanatory drawing of the state which is displaying the time and temperature on the spectacles type display apparatus. 時刻と温度を表示する処理を説明するためのシーケンス図。The sequence diagram for demonstrating the process which displays time and temperature. 視線検知部を設けた眼鏡型表示装置の一構成例を示す斜視図。The perspective view which shows one structural example of the spectacles type display apparatus provided with the gaze detection part. (a)は視線検知部の一構成例を示す概略構成図。(b)は眼球の各位置に対応するイメージセンサの水平走査出力信号の模式図。(A) is a schematic block diagram which shows the example of 1 structure of a gaze detection part. (B) is a schematic diagram of the horizontal scanning output signal of the image sensor corresponding to each position of the eyeball. 利用者が右側のメガネレンズを通して見る前方視界面内を複数に分割した領域を示す説明図。Explanatory drawing which shows the area | region which divided | segmented into the front view interface which a user sees through the right spectacles lens into plurality. 前方視界に表示された視線カーソル及びアイコンの説明図。Explanatory drawing of the gaze cursor and icon displayed on the front view. 他の構成例に係る眼鏡型表示装置の機能ブロック図。The functional block diagram of the spectacles type display apparatus which concerns on the other structural example. 両眼の輻輳を利用して注視対象距離を測定する方式の説明図。Explanatory drawing of the system which measures the gaze target distance using the convergence of both eyes.

以下、図面に基づいて本発明の実施形態を説明する。
図1は、本発明の一実施形態に係る眼鏡型表示装置1の一構成例を示す斜視図である。図2(a)及び(b)はそれぞれ同眼鏡型表示装置1を上方から見た上面図である。眼鏡型表示装置1は、利用者の両眼の前方を覆うように頭に装着することにより、利用者が注視した注視対象に関する関連情報等の各種情報を利用者が視認できるように前方視界に重ね合わせて表示することができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view showing a configuration example of a glasses-type display device 1 according to an embodiment of the present invention. 2A and 2B are top views of the eyeglass-type display device 1 as viewed from above. The glasses-type display device 1 is mounted on the head so as to cover the front of both eyes of the user, so that the user can visually recognize various information such as related information on the gaze target that the user has watched. It can be displayed superimposed.

眼鏡型表示装置1のフレームは、リム2を備えている。このリム2の左右両サイドに、ツルとも呼ばれる一対のテンプル3R,3Lが、それぞれ蝶番4R,4L(4Lは不図示)により約90度開閉可能に保持されている。また、一対のメガネレンズ5R,5L、一対の鼻パッド6R,6L、一対のテンプル3R,3Lの蝶番4R,4Lが設けられた側と反対側の端部にそれぞれ先セル7R,7Lを備えている。なお、先セル7R,7Lの利用者に接触する部分に、温度センサ、脈拍センサ、血圧センサ等の健康情報検出手段を設け、利用者の体温、脈拍、血圧などの健康情報を検出できるようにしてもよい。検出された利用者の体温、脈拍、血圧などの健康情報は、利用者が視認できるように前方視界に重ね合わせて表示してもよい。   The frame of the glasses-type display device 1 includes a rim 2. A pair of temples 3R, 3L, also called vines, are held on both the left and right sides of the rim 2 by hinges 4R, 4L (4L is not shown) so that they can be opened and closed by about 90 degrees. The pair of eyeglass lenses 5R and 5L, the pair of nose pads 6R and 6L, and the pair of temples 3R and 3L are provided with the tip cells 7R and 7L at the ends opposite to the side where the hinges 4R and 4L are provided. Yes. It should be noted that health information detecting means such as a temperature sensor, a pulse sensor, a blood pressure sensor, etc. are provided in the portion of the previous cell 7R, 7L that comes into contact with the user so that health information such as the user's body temperature, pulse, blood pressure, etc. can be detected. May be. The detected health information such as the body temperature, pulse, and blood pressure of the user may be displayed superimposed on the front view so that the user can visually recognize the health information.

また、眼鏡型表示装置1は、右側のテンプル3Rの内側に電源をON/OFFするための電源スイッチ8と、リム2の中央上部のフロント側に設けられた利用者の視線の方向における前方視界の画像を撮像する視界撮像手段としての視界同調カメラ9と、リム2の左側のレンズ5Lの下部側に設けられた注視対象距離検出手段としての注視対象距離検出部10とを備えている。更に、眼鏡型表示装置1は、リム2の右側端部にメガネレンズ5Rを通して見える前方視界に重ね合わせて利用者が視認できるように情報を表示する表示手段としての画像表示部12とを備えている。   The glasses-type display device 1 also includes a power switch 8 for turning on / off the power inside the temple 3R on the right side, and a front view in the direction of the user's line of sight provided on the front side of the center upper portion of the rim 2. A visual field tuning camera 9 as a visual field imaging unit that captures the above image, and a gaze target distance detection unit 10 as a gaze target distance detection unit provided on the lower side of the lens 5L on the left side of the rim 2. Further, the glasses-type display device 1 includes an image display unit 12 as a display unit that displays information so that the user can visually recognize the rim 2 on the right end of the rim 2 so as to be superimposed on the front field of view seen through the glasses lens 5R. Yes.

上記前方視界に重ね合わせて利用者が視認できるように情報を表示する画像表示方式としては、網膜に直接走査するものやコンバイナ光学系を用いたもの等、各種の画像表示方式を用いることができる。   As an image display method for displaying information so that the user can visually recognize the image superimposed on the front field of view, various image display methods such as a method of directly scanning the retina and a method using a combiner optical system can be used. .

図2(a)は、網膜走査型の画像表示方式を採用した場合の構成例を示している。この網膜走査型の眼鏡型表示装置1では、走査用の光学系124が右レンズ5Rの前方に配設されている。
また、図2(b)は、コンバイナ光学系125を用いた画像表示方式を採用した構成例を示している。コンバイナ光学系125は、例えば内部に偏光ビームスプリッタと1/4波長板と主反射面とを有する平板状の透明基板で構成され、右レンズ5Rの中に埋め込むように設けられる。コンバイナ光学系125は、右側のテンプル3Rの内側にある光源の画像表示面から出射した表示光束を使用者の眼の方向に導くように構成されている。
FIG. 2A shows a configuration example in the case of adopting a retinal scanning image display method. In the retinal scanning glasses-type display device 1, the scanning optical system 124 is disposed in front of the right lens 5R.
FIG. 2B shows a configuration example in which an image display method using the combiner optical system 125 is adopted. The combiner optical system 125 is formed of, for example, a flat transparent substrate having a polarization beam splitter, a quarter-wave plate, and a main reflection surface therein, and is provided so as to be embedded in the right lens 5R. The combiner optical system 125 is configured to guide the display light beam emitted from the image display surface of the light source inside the right temple 3R in the direction of the user's eyes.

図3は、眼鏡型表示装置1の一構成例を示す機能ブロック図である。
眼鏡型表示装置1のリム2又はテンプル3R,3Lの内部には、画像表示部12を構成する構成要素の少なくとも一部と、画像表示部12で用いる画像信号を生成する画像生成部11と、画像表示部12での画像表示を制御する表示制御手段としての表示制御部13と、CPUやROM等で構成された制御手段としての制御部14と、記憶手段としてのメモリ15と、電源手段としてのバッテリ16と、装着検知部17とが格納されている。また、眼鏡型表示装置1は、通信部25と、姿勢変化検出部28とを更に備えている。
FIG. 3 is a functional block diagram illustrating a configuration example of the glasses-type display device 1.
Inside the rim 2 or the temples 3R, 3L of the glasses-type display device 1, at least a part of the components constituting the image display unit 12, an image generation unit 11 that generates an image signal used in the image display unit 12, A display control unit 13 as a display control unit for controlling image display on the image display unit 12, a control unit 14 as a control unit constituted by a CPU, a ROM, etc., a memory 15 as a storage unit, and a power supply unit The battery 16 and the mounting detection unit 17 are stored. The glasses-type display device 1 further includes a communication unit 25 and a posture change detection unit 28.

制御部14で実行されるプログラムや制御部14等で用いられる各種データは、メモリ15に保存されている。制御部14に所定のプログラムやデータが読み出されて実行されることにより、後述の各種制御やデータ処理が実行される。   A program executed by the control unit 14 and various data used by the control unit 14 are stored in the memory 15. By reading and executing a predetermined program and data in the control unit 14, various controls and data processing described later are executed.

制御部14は、視界同調カメラ9の視界の画像情報及び視線方向の検出結果と、姿勢変化検出部28で検出された眼鏡型表示装置1の姿勢変化の検出結果とに基づいて、制御部14内でデータ処理したり通信ネットワーク上のサーバの支援を受けたりすることにより、視界内において利用者が注視している注視対象を特定する注視対象特定手段としても機能する。更に、制御部14は、メモリ15内のデータを参照したり通信ネットワーク上のサーバの支援を受けたりすることにより、上記特定された注視対象に関連した関連情報を取得する関連情報取得手段としても機能する。   The control unit 14 controls the control unit 14 based on the visual field image information and the visual line direction detection result of the visual field tuning camera 9 and the detection result of the posture change of the glasses-type display device 1 detected by the posture change detection unit 28. It also functions as a gaze target specifying means for specifying a gaze target that the user is gazes in the field of view by processing data in the network or receiving support from a server on the communication network. Furthermore, the control unit 14 can also be used as related information acquisition means for acquiring related information related to the specified gaze target by referring to data in the memory 15 or receiving support from a server on the communication network. Function.

表示制御部13は、視界同調カメラ9で撮像された視界の画像情報及び視線方向の検出結果、並びに姿勢変化検出部28の検出結果の少なくとも一つに基づいて、視界における注視対象の位置と関連情報の表示位置とが所定の位置関係になるように関連情報の表示位置を制御する。
また、表示制御部13は、前方視界における注視対象の位置と関連情報の表示位置とのずれが所定範囲よりも大きくなった場合は、関連情報の表示を停止するように制御してもよい。
また、表示制御部13は、表示する画像の形成位置(焦点位置)を、利用者が注視対象を見ているときの視線が合焦している位置に合わせるように変化させるための像形成位置可変手段(焦点距離調整部)としても機能する。
The display control unit 13 relates to the position of the gaze target in the visual field based on at least one of the visual field image information captured by the visual field tuning camera 9 and the detection result of the visual line direction and the detection result of the posture change detection unit 28. The display position of the related information is controlled so that the display position of the information has a predetermined positional relationship.
Further, the display control unit 13 may perform control so as to stop the display of the related information when the shift between the position of the gaze target in the forward view and the display position of the related information becomes larger than a predetermined range.
Further, the display control unit 13 changes the image formation position (focus position) of the image to be displayed so that the line of sight when the user is looking at the gaze target is in focus. It also functions as a variable means (focal length adjustment unit).

通信部25は、公衆無線LANのアクセスポイントを介して、又は、携帯電話機等の携帯通信端末を介して、通信ネットワーク上の各種サーバと通信するための通信手段として機能する。また、通信部25は、制御部14と連携することにより、前記注視対象特定手段及び関連情報取得手段としても機能する。例えば、制御部14によって通信部25を制御することにより、通信ネットワーク上のサーバにアクセスし、上記注視対象の画像情報及びその画像情報から抽出した注視対象の特徴抽出情報の少なくとも一方の情報を、サーバに送信する。このサーバに送信される注視対象の画像等の情報には、眼鏡型表示装置1の姿勢変化の検出結果を含めてもよい。更に、制御部14は通信部25を制御することにより、前記注視対象の画像情報及び注視対象の特徴抽出情報の少なくとも一方の情報に基づいて検索された注視対象と関連した関連情報をサーバから受信して取得する。   The communication unit 25 functions as a communication unit for communicating with various servers on a communication network via a public wireless LAN access point or a mobile communication terminal such as a mobile phone. The communication unit 25 also functions as the gaze target specifying unit and the related information acquiring unit by cooperating with the control unit 14. For example, by controlling the communication unit 25 by the control unit 14, the server on the communication network is accessed, and at least one of the gaze target image information and the gaze target feature extraction information extracted from the image information is Send to server. Information such as a gaze target image transmitted to the server may include a detection result of the posture change of the glasses-type display device 1. Further, the control unit 14 controls the communication unit 25 to receive, from the server, related information related to the gaze target searched based on at least one of the gaze target image information and the gaze target feature extraction information. And get.

なお、眼鏡型表示装置1は、注視対象に備えられたRFID(Radio Frequency IDentification)タグ(以下「RFタグ」という。)等の記憶媒体から、注視対象の特定や関連情報の検索に使用可能な情報(例えば、名称、識別情報、種別情報等の情報)を、その注視対象から近距離通信により受信して取得した場合には、取得した情報を上記サーバに送信してもよい。この注視対象の特定や関連情報の検索に使用可能な情報は、上記注視対象の画像情報、注視対象の特徴抽出情報及び姿勢変化の検出結果の情報のいずれかとともに上記サーバに送信してもよいし、又は、それらの情報に代えて上記サーバに送信してもよい。上記RFタグから取得した情報を用いることにより、注視対象の特定や関連情報の検索の精度が向上する。なお、注視対象に備えられている記憶媒体は、眼鏡型表示装置1と無線通信する機能と情報を記憶する機能とを有していればよく、RFタグに限定されるものではない。また、注視対象がRFタグ以外の記憶媒体を備えている場合、眼鏡型表示装置1が注視対象に備えられた記憶媒体から情報を受信するときの通信には、例えばBluetooth(登録商標)による通信や赤外線通信等の近距離無線通信を用いることができる。   The eyeglass-type display device 1 can be used for specifying a gaze target and searching related information from a storage medium such as an RFID (Radio Frequency IDentification) tag (hereinafter referred to as “RF tag”) provided for the gaze target. When information (for example, information such as name, identification information, and type information) is received and acquired from the gaze target by short-range communication, the acquired information may be transmitted to the server. The information that can be used for specifying the gaze target and searching for related information may be transmitted to the server together with any of the gaze target image information, gaze target feature extraction information, and posture change detection result information. Alternatively, the information may be transmitted to the server instead of the information. By using the information acquired from the RF tag, the accuracy of the gaze target specification and related information search is improved. The storage medium provided for the gaze target is not limited to the RF tag as long as it has a function of wirelessly communicating with the eyeglass-type display device 1 and a function of storing information. When the gaze target includes a storage medium other than the RF tag, the communication when the glasses-type display device 1 receives information from the storage medium provided for the gaze target is, for example, communication using Bluetooth (registered trademark). Or near field communication such as infrared communication can be used.

姿勢変化検出部28は、例えば1軸、2軸又は3軸の加速度センサで構成され、眼鏡型表示装置1に作用する加速度を検知することにより、利用者の頭部の姿勢変化に伴う眼鏡型表示装置の姿勢変化を検出する姿勢変化検出手段として機能する。姿勢変化検出部28を構成する加速度センサは、重力方向を検知可能なもの(絶対加速度を検知可能なもの)を用いてもよい。姿勢変化検出部28は、例えば、所定のタイミングに検出した眼鏡型表示装置の姿勢を基準姿勢とし、その利用者の頭部の基準姿勢からの姿勢変化(例えば、基準姿勢からのロール角、ピッチ角及びヨー角それぞれの角度変化分の値、又は、眼鏡型表示装置の姿勢変化に起因して発生した加速度の値)を、検出結果として出力する。上記基準姿勢の検出タイミングは、例えば、眼鏡型表示装置1の利用を開始したタイミングや所定操作を行ったタイミングでもよいし、利用者が注視している注視対象を特定したタイミングであってもよい。
なお、姿勢変化検出部28は、加速度センサとともに又は加速度センサに代えて地磁気センサを備え、眼鏡型表示装置1に定義された座標を基準にして地磁気センサで検出される方位情報に基づいて眼鏡型表示装置1の姿勢変化を検出するように構成してもよい。
The posture change detection unit 28 is composed of, for example, a uniaxial, biaxial, or triaxial acceleration sensor, and detects the acceleration acting on the spectacles-type display device 1 to thereby detect the spectacles accompanying the posture change of the user's head. It functions as a posture change detection means for detecting a posture change of the display device. As the acceleration sensor constituting the posture change detection unit 28, a sensor capable of detecting the direction of gravity (a sensor capable of detecting absolute acceleration) may be used. The posture change detection unit 28 uses, for example, the posture of the glasses-type display device detected at a predetermined timing as the reference posture, and changes the posture of the user's head from the reference posture (for example, the roll angle and pitch from the reference posture). The angle change value of each of the angle and the yaw angle, or the acceleration value generated due to the change in posture of the glasses-type display device) is output as a detection result. The detection timing of the reference posture may be, for example, a timing when the use of the glasses-type display device 1 is started, a timing when a predetermined operation is performed, or a timing when a gaze target that the user is gazing at is specified. .
Note that the posture change detection unit 28 includes a geomagnetic sensor together with or instead of the acceleration sensor, and is based on the direction information detected by the geomagnetic sensor with reference to the coordinates defined in the glasses-type display device 1. You may comprise so that the attitude | position change of the display apparatus 1 may be detected.

また、姿勢変化検出部28によって検出された眼鏡型表示装置1の姿勢変化の検出結果は、視界内において利用者が注視している注視対象を特定するときに、例えば次の(1)〜(3)を含む様々な制御に用いることができる。   The detection result of the posture change of the glasses-type display device 1 detected by the posture change detection unit 28 is, for example, the following (1) to (1) when specifying the gaze target that the user is gazing in the field of view. It can be used for various controls including 3).

(1)利用者の頭部及び視線のぶれ防止制御:
利用者が注視しようとしている注視対象が同じであるにもかかわらず、何らかの理由により、眼鏡型表示装置1を装着している利用者の頭部に振動やふらつき等のぶれが発生する場合がある。利用者の頭部にぶれが発生すると、その頭部に装着した眼鏡型表示装置1の視界同調カメラ9で撮像される視界の画像における視線方向もぶれてしまうため、その撮像画像や視線方向に基づいて特定する利用者の注視対象の特定精度が低下するおそれがある。そこで、姿勢変化検出部28によって検出された眼鏡型表示装置1の姿勢変化の検出結果に基づいて、視界同調カメラ9で撮像される視界の画像における視線方向を補正する制御を行うことにより、注視対象の特定精度を向上させることができる。
(1) Control of blurring of user's head and line of sight:
Although the gaze target that the user intends to gaze is the same, for some reason, the head of the user wearing the glasses-type display device 1 may be shaken such as vibration or wobbling. . When the user's head is shaken, the line-of-sight direction in the field-of-view image captured by the field-of-view tuning camera 9 of the glasses-type display device 1 attached to the head is also blurred. There is a possibility that the accuracy of specifying the gaze target of the user specified based on the information may be lowered. Therefore, by performing control to correct the line-of-sight direction in the field-of-view image captured by the field-of-view tuning camera 9 based on the detection result of the position change of the eyeglass-type display device 1 detected by the position change detection unit 28, The target identification accuracy can be improved.

(2)注視対象の特定処理の軽減制御:
視界同調カメラ9で撮像した視界の画像の撮像及び視線方向の検出結果に基づく注視対象の特定処理を頻繁に実行すると、眼鏡型表示装置1における処理の負荷が大きくなってしまうおそれがある。そこで、眼鏡型表示装置1の姿勢が大きく変化したときに、その眼鏡型表示装置1を装着した利用者が注視している注視対象が変わった可能性が高い点に着目し、眼鏡型表示装置1の姿勢変化の検出結果(姿勢変化量)が、予め設定した閾値の範囲よりも大きくなったときに、視界同調カメラ9による視界の画像の撮像処理及び視線方向の検出処理を行うとともに、それらの視界の画像及び視線方向の検出結果に基づく注視対象の特定処理を行うように制御する。これにより、眼鏡型表示装置1における処理の負荷の増大を回避しつつ、利用者の注視対象を特定できるようになる。
(2) Mitigation control for specific processing of gaze target:
If the process of specifying the gaze target based on the image of the field of view captured by the field-of-view tuning camera 9 and the detection result of the line-of-sight direction is frequently executed, the processing load on the glasses-type display device 1 may increase. Therefore, focusing on the point that there is a high possibility that the gaze target that the user wearing the spectacles-type display device 1 is gazing at has changed when the posture of the spectacles-type display device 1 is greatly changed. When the detection result of the posture change (posture change amount) of 1 is larger than a preset threshold range, the visual field tuning camera 9 performs the visual field image capturing process and the visual line direction detection process. Control is performed so as to perform a gaze target identification process based on the visual field image and the detection result of the visual line direction. As a result, it is possible to identify the user's gaze target while avoiding an increase in the processing load in the glasses-type display device 1.

(3)注視対象の特定処理の補完制御:
視界同調カメラ9による視界の画像の撮像処理や視線方向の検出処理が、眼鏡型表示装置の姿勢変化(利用者の頭部の姿勢変化)に追従できない場合がある。この場合は、視界の撮像画像や視線方向に基づいて利用者の注視対象をリアルタイムに特定することができなかったり、特定する利用者の注視対象の特定精度が低下したりするおそれがある。そこで、視界同調カメラ9による視界の画像の撮像処理や視線方向の検出処理に必要な処理時間に基づいて、その撮像処理及び視線方向の検出処理を行うインターバルを予め設定しておく。そして、視界の撮像画像や視線方向に基づいて利用者の注視対象を特定した後、その後に到来する次の撮像・視線検出タイミングまでは、眼鏡型表示装置1の姿勢変化の検出結果に基づいて、直近の撮像済みの視界の画像及び検出済みの視線方向を補完することにより、注視対象を特定するように制御する。この制御により、注視対象の特定精度が低下することなく、利用者の注視対象をリアルタイムに特定することができる。
(3) Complementary control of specific processing for gaze target:
There are cases where the imaging process of the image of the view and the detection process of the direction of the line of sight by the view tuning camera 9 cannot follow the posture change of the glasses-type display device (change in the posture of the user's head). In this case, there is a possibility that the user's gaze target cannot be specified in real time based on the captured image or the line-of-sight direction of the field of view, or the accuracy of specifying the gaze target of the user to be specified may be reduced. Therefore, based on the processing time required for the imaging process of the visual field image by the visual field tuning camera 9 and the detection process of the visual line direction, intervals for performing the imaging process and the visual line direction detection process are set in advance. Then, after specifying the user's gaze target based on the captured image and the line-of-sight direction of the field of view, until the next imaging / line-of-sight detection timing that arrives thereafter, based on the detection result of the posture change of the glasses-type display device 1 Control is performed so as to identify the gaze target by complementing the image of the most recently captured field of view and the detected line-of-sight direction. With this control, the user's gaze target can be identified in real time without lowering the gaze target identification accuracy.

電源スイッチ8は、眼鏡型表示装置1の電源をON/OFFするための例えば3Pトグルスイッチであり、電源OFF、AUTO及び電源ONの3つのポジションを取り得る。ここで、AUTOポジションは、一対のテンプル3R,3Lを開いた状態で一対の先セル7R,7Lに弱電圧を印加しておき、利用者が眼鏡型表示装置1を頭に装着したときに、一対の先セル7R,7L間に流れる微弱電流を、タッチセンサ等で構成された装着検知部17が検知することにより、画像表示機能等の動作を開始するように制御される。一方、利用者が眼鏡型表示装置1を外したときには、画像表示機能等の動作を停止するように制御される。また、電源ONポジションでは、電源がONされて画像表示機能等が動作するが、利用者が眼鏡型表示装置1を外した状態で所定時間経過すると自動的に電源がOFFする省電力制御がなされる。なお、電源スイッチ8を設けずに、常に前記AUTOポジションでの電源動作と同様に眼鏡型表示装置1の電源が自動でON/OFFされるように構成してもよい。   The power switch 8 is, for example, a 3P toggle switch for turning on / off the power of the glasses-type display device 1 and can take three positions of power OFF, AUTO, and power ON. Here, the AUTO position is such that a weak voltage is applied to the pair of front cells 7R, 7L with the pair of temples 3R, 3L open, and the user wears the glasses-type display device 1 on the head. When a weak current flowing between the pair of previous cells 7R and 7L is detected by the mounting detection unit 17 configured by a touch sensor or the like, the operation such as the image display function is started. On the other hand, when the user removes the glasses-type display device 1, the image display function or the like is controlled to stop. In the power ON position, the power display is turned on and the image display function and the like operate. However, power saving control is performed so that the power is automatically turned off when a predetermined time elapses with the user removing the glasses-type display device 1. The Note that the power supply of the glasses-type display device 1 may be automatically turned on / off in the same manner as the power supply operation at the AUTO position without providing the power switch 8.

視界同調カメラ9は、例えばCCDカメラやCMOSカメラ等の固体撮像素子で構成され、眼鏡型表示装置1のリム2の中央上部に配設され、利用者が見ている前方視界を撮像する。この視界同調カメラ9により、前方視界の画像の画像データを取得し、注視対象の特定や各種分析に使用することができる。   The visual field tuning camera 9 is composed of a solid-state image sensor such as a CCD camera or a CMOS camera, for example, and is disposed at the upper center of the rim 2 of the glasses-type display device 1 to capture the forward visual field viewed by the user. The visual field synchronization camera 9 can acquire image data of a forward visual field image and use it for specifying a gaze target and performing various analyses.

なお、図1の構成例において、視界同調カメラ9は、視界撮像手段として用いられるとともに、視界における利用者の視線方向を検出する簡易型の視線方向検出手段としても用いられている。本構成例の視界同調カメラ9は、撮像画像の中心が利用者の視界の略中央に位置するように設けられ、その視界同調カメラ9で撮像した撮像画像の中心(利用者の視界の略中央)に向かう方向が利用者の視線方向であると推定することにより、利用者の視線方向を検出する。ここで、利用者が頭部の姿勢を変えて視線方向を変化させると、その視線方向の変化に応じて、利用者の頭部に装着されている眼鏡型表示装置1の視界同調カメラ9の撮像方向が変化し、その視界同調カメラ9で撮像した撮像画像の中心(利用者の視界の略中央)に向かう方向が、利用者の視線方向であると推定することができる。   In the configuration example of FIG. 1, the visual field synchronization camera 9 is used as a visual field imaging unit and also as a simple visual direction detection unit that detects a user's visual direction in the visual field. The field-of-view tuning camera 9 of this configuration example is provided so that the center of the captured image is positioned substantially at the center of the user's field of view, and the center of the captured image captured by the field-of-view camera 9 (approximately the center of the user's field of view). ) To detect the user's line-of-sight direction. Here, when the user changes the gaze direction by changing the posture of the head, the view synchronization camera 9 of the glasses-type display device 1 attached to the user's head is changed according to the change in the gaze direction. It can be estimated that the imaging direction changes and the direction toward the center of the captured image captured by the visual field tuning camera 9 (substantially the center of the user's visual field) is the user's visual line direction.

図4は、利用者の視線方向と視界同調カメラ9の撮像画像とを説明するための図である。図4(a)は利用者の頭部が水平に斜め右方向を向いて3本の樹木のうち右側の樹木Tr1を見ている状態の図であり、図4(b)は視界同調カメラ9で撮像された画像に樹木Tr1の情報を重ね合わせて表示した図である。   FIG. 4 is a diagram for explaining a user's line-of-sight direction and a captured image of the visual field tuning camera 9. FIG. 4A is a diagram showing a state in which the user's head is horizontally inclined diagonally to the right and looking at the right tree Tr1 among the three trees, and FIG. 4B is a view tuning camera 9. It is the figure which superimposed and displayed the information of tree Tr1 on the image imaged in FIG.

図4(a)に示すように、眼鏡型表示装置1を装着した利用者が頭部を水平に斜め右方向に向けて右側の樹木Tr1を注視すると、同図(b)に示すように、その動きに同調して視界同調カメラ9は前方視界を撮像する。利用者の視線方向は視界同調カメラ9で撮像した視界の画像のセンターの視線マーク901の方向と略一致するので、眼鏡型表示装置1は利用者が右側の樹木Tr1を注視しているものと判断する。そして、注視対象距離検出部10において利用者の眼から右側の樹木Tr1までの注視対象距離L1を算出して検出し、その右側の樹木Tr1を画像分析して名称や種別等の注視対象物に関連した関連情報をメモリ15又は通信ネットワーク上のサーバから取得し、その取得した関連情報902の画像(虚像)を、図4(b)の視界の画面に示すように右側の樹木Tr1の右上方に重ね合わせて表示する。また、この関連情報902の画像(虚像)は、上記検出された注視対象距離L1に基づいて、右側の樹木Tr1と同じ焦点位置に表示される。これにより、利用者の眼の焦点が右側の樹木Tr1に合っている状態において、注視対象物の関連情報902の表示画像がぼけず、違和感なく読むことができる。一方、利用者が頭部を水平に斜め左方向に向けて左側の樹木Tr3を注視した場合、注視対象距離L3が短くなり利用者の眼は近くに焦点が合うことになるが、このとき、注視対象物である左側の樹木Tr3の関連情報の表示画像がぼけないように、当該情報の画像の形成位置が調整され、利用者は違和感なく読むことができる。   As shown in FIG. 4 (a), when a user wearing the glasses-type display device 1 gazes at the right tree Tr1 with his head horizontally and diagonally rightward, as shown in FIG. 4 (b), In synchronization with the movement, the view synchronization camera 9 images the front view. Since the user's line-of-sight direction substantially coincides with the direction of the line-of-sight mark 901 at the center of the field-of-view image captured by the field-of-view synchronization camera 9, the eyeglass-type display device 1 is that the user is gazing at the tree Tr1 on the right side. to decide. Then, the gaze target distance detection unit 10 calculates and detects a gaze target distance L1 from the user's eye to the right tree Tr1, and analyzes the right tree Tr1 to obtain a gaze target such as a name and type. Related related information is acquired from the memory 15 or a server on the communication network, and an image (virtual image) of the acquired related information 902 is displayed on the upper right side of the tree Tr1 on the right side as shown in the view screen of FIG. Are displayed on top of each other. The image (virtual image) of the related information 902 is displayed at the same focal position as the right tree Tr1 based on the detected gaze target distance L1. Thereby, in a state where the user's eye is focused on the tree Tr1 on the right side, the display image of the related information 902 of the gaze target is not blurred and can be read without a sense of incongruity. On the other hand, when the user gazes at the tree Tr3 on the left side with the head horizontally oriented diagonally to the left, the gaze target distance L3 is shortened and the user's eyes are in close focus. The formation position of the image of the relevant information is adjusted so that the display image of the related information of the tree Tr3 on the left side which is the gaze target is not blurred, and the user can read without discomfort.

なお、上記視線マーク901は、利用者の網膜に照射して表示させているが、一対のメガネレンズ5L,5Rのうち少なくとも一方のレンズのセンターにあらかじめ印刷等により表示しておいてもよい。   The line-of-sight mark 901 is displayed on the retina of the user by irradiation, but may be displayed in advance at the center of at least one of the pair of eyeglass lenses 5L and 5R by printing or the like.

図5は、注視対象距離検出部10の一構成例を示す説明図であり、(a)は概略構成説明図、(b)は縞模様の変化の説明図である。本構成例の注視対象距離検出部10は、縞模様の赤外光を利用者の左眼眼球の水晶体を含む領域に照射し、水晶体から反射した赤外光の縞模様の変化に基づいて水晶体の厚さを測定し、この測定結果から利用者の眼から注視対象までの注視対象距離を算出して検出するものである。
図5(a)において、注視対象距離検出部10は、例えば、赤外光を放射する発光ダイオード等の光源101と、偏光フィルタ102と、投光レンズ103と、受光レンズ104と、CCD又はCMOS等の固体撮像素子等からなる撮像手段としてのイメージセンサ105と、焦点距離演算手段106とを備えている。
FIGS. 5A and 5B are explanatory diagrams illustrating a configuration example of the gaze target distance detection unit 10, where FIG. 5A is a schematic configuration explanatory diagram and FIG. 5B is an explanatory diagram of a stripe pattern change. The gaze target distance detection unit 10 of the present configuration example irradiates the region including the crystalline lens of the user's left eyeball with the striped infrared light, and based on the change in the striped pattern of the infrared light reflected from the crystalline lens Is measured, and the gaze target distance from the user's eye to the gaze target is calculated and detected from this measurement result.
In FIG. 5A, the gaze target distance detection unit 10 includes, for example, a light source 101 such as a light emitting diode that emits infrared light, a polarizing filter 102, a light projecting lens 103, a light receiving lens 104, and a CCD or CMOS. An image sensor 105 as an imaging unit including a solid-state imaging device or the like, and a focal length calculation unit 106.

偏光フィルタ102は、光源101から照射された赤外光を格子状の縞模様に偏光フィルタリングする偏光フィルタである。この格子状の縞模様は、格子を形成する複数本の縦線及び横線の線間隔が同一であり、この線間隔が水晶体の直径よりも十分に狭い間隔(例えば、直径の数分の1〜数十分の1の間隔)である。   The polarization filter 102 is a polarization filter that polarization filters infrared light emitted from the light source 101 into a lattice-like stripe pattern. In this grid-like striped pattern, a plurality of vertical lines and horizontal lines forming the grid have the same line spacing, and the line spacing is sufficiently narrower than the diameter of the crystalline lens (for example, 1 to a fraction of the diameter). Several tenths of an interval).

光源101から照射された赤外光は、偏光フィルタ102により格子状の縞模様に偏光フィルタリングされた後、投光レンズ103を通過後、格子縞の赤外光Cとなって左眼100Lの眼球の水晶体を含む領域を照射する(図5(b)参照)。水晶体にて反射した赤外光Cは受光レンズ104を介してイメージセンサ105上に縞模様の画像Iを結像する。イメージセンサ105では、一定時間毎(例えば、1/30秒毎)に、画像Iを画像信号として焦点距離演算手段106に送信する。   Infrared light emitted from the light source 101 is polarized and filtered into a lattice-like striped pattern by the polarizing filter 102, and after passing through the projection lens 103, becomes infrared light C in the form of lattice stripes. An area including the crystalline lens is irradiated (see FIG. 5B). The infrared light C reflected by the crystalline lens forms a striped image I on the image sensor 105 via the light receiving lens 104. The image sensor 105 transmits the image I as an image signal to the focal length calculation means 106 at regular time intervals (for example, every 1/30 seconds).

焦点距離演算手段106は、図5(b)に示すように、イメージセンサ105からの画像信号が入力される毎に、入力された画像Iに対してレンズ歪みを補正するとともに画像の傾きを台形補正し、補正を施した画像I’を取得する。レンズ歪みは、受光レンズ104等の特性に応じて発生する。また、画像の傾きは、利用者の水晶体の位置と受光レンズ104との位置関係に応じて発生する。補正後の画像I’は、レンズ歪みがなくかつ水晶体を真正面から撮像した画像に相当する。なお、更に前処理として、入力画像から格子模様を検知し易くするために、画像に対してノイズ除去やフィルタリングなどを行ってよい。
また、焦点距離演算手段106は、補正後の画像I’中の格子模様Sをトレースし、格子模様Sを抽出する。この格子模様Sは、水晶体に映っている部分では水晶体の曲面に沿って歪んでおり、照射時の直線で構成される格子模様から曲線で構成される格子模様となっている。
As shown in FIG. 5B, the focal length calculation means 106 corrects lens distortion for the input image I and traps the tilt of the image every time an image signal from the image sensor 105 is input. Correction is performed to obtain a corrected image I ′. Lens distortion occurs according to the characteristics of the light receiving lens 104 and the like. Further, the inclination of the image is generated according to the positional relationship between the lens position of the user and the light receiving lens 104. The corrected image I ′ corresponds to an image in which there is no lens distortion and the lens is imaged from the front. Further, as preprocessing, noise removal or filtering may be performed on the image in order to make it easier to detect the lattice pattern from the input image.
Further, the focal length calculation means 106 traces the lattice pattern S in the corrected image I ′ and extracts the lattice pattern S. This lattice pattern S is distorted along the curved surface of the crystalline lens in the portion reflected in the crystalline lens, and is a lattice pattern composed of curves from the lattice pattern composed of straight lines at the time of irradiation.

焦点距離演算手段106は、抽出した格子模様Sからその各曲線の曲率や各曲線間の間隔(縦線間隔、横線間隔)を算出する。さらに、焦点距離演算手段106は、格子模様Sの曲率や線間隔に基づいて水晶体の曲率を算出し、水晶体の曲率に基づいて水晶体の厚さを算出する。   The focal length calculation means 106 calculates the curvature of each curve and the interval between the curves (vertical line interval, horizontal line interval) from the extracted lattice pattern S. Further, the focal length calculation means 106 calculates the curvature of the crystalline lens based on the curvature of the lattice pattern S and the line spacing, and calculates the thickness of the crystalline lens based on the curvature of the crystalline lens.

水晶体は、外から入ってくる光を屈折させて網膜上に焦点を合わせるための凸状のレンズであり、チン氏帯を介して毛様筋が繋がっている。近くのものを見る場合、毛様筋が収縮し、チン氏帯が弛むことにより、水晶体の厚さが厚くなる(曲率が大きくなる)。また、遠くのものを見る場合、毛様筋が弛緩し、チン氏帯が引っ張られることにより、水晶体の厚さが薄くなる(曲率が小さくなる)。このように、人は、見る物体までの距離に応じて、水晶体の厚さを無意識に伸縮させて焦点距離を調節している。水晶体の厚さは、一般に、通常時には3.6mm程度であり、最大時には4.0mm程度である。また、水晶体を正面から見たときの直径は、一般に、9〜10mm程度である。   The crystalline lens is a convex lens that refracts incoming light and focuses it on the retina, and the ciliary muscles are connected via the Chin band. When looking at nearby objects, the ciliary muscles contract and the chin band relaxes, resulting in a thicker lens (curvature increases). Also, when looking at a distant object, the ciliary muscle relaxes and the chin band is pulled, thereby reducing the thickness of the crystalline lens (decreasing the curvature). In this way, the person adjusts the focal length by unconsciously expanding and contracting the thickness of the crystalline lens according to the distance to the object to be viewed. The thickness of the crystalline lens is generally about 3.6 mm at the normal time and about 4.0 mm at the maximum. The diameter of the crystalline lens when viewed from the front is generally about 9 to 10 mm.

図6は、利用者の左眼眼球の水晶体の厚さの時間変化の一例を示している。利用者の眼が注視対象に合焦しているか否かは、例えば次のように判断してもよい。図中の符号Tで示す時間帯では、その前後の時間帯に比べて、水晶体の厚さが厚くなっている時間が継続しており、焦点距離が短く、すなわち近くの注視対象に合焦していると判断することができる。一方、水晶体の厚さが薄くなっている時間が所定時間継続した場合には、遠くの注視対象に合焦していると判断することができる。 FIG. 6 shows an example of the temporal change in the thickness of the lens of the left eye eyeball of the user. Whether or not the user's eyes are focused on the gaze target may be determined as follows, for example. In the time period indicated at T 0 in the figure, focus than the time period before and after, has duration thickness of the lens becomes thicker, a short focal length, that is, close to the fixation target It can be determined that On the other hand, when the time when the thickness of the crystalline lens is reduced continues for a predetermined time, it can be determined that the subject is focused on a distant gaze target.

画像生成部11、画像表示部12及び表示制御部(焦点距離調整部)13は、制御部14からの画像信号に基づいて、メガネレンズ5Rを通して見える前方視界に重ね合わせて利用者が視認できるように各種情報の画像(虚像)を、利用者の視線が合焦している焦点位置に合わせて表示する。   The image generation unit 11, the image display unit 12, and the display control unit (focal length adjustment unit) 13 are superposed on the front field of view that can be seen through the glasses lens 5 </ b> R based on the image signal from the control unit 14 so that the user can visually recognize the image. In addition, various information images (virtual images) are displayed in accordance with the focal position where the user's line of sight is in focus.

図7は、図2(a)で示した網膜走査型の画像表示方式を採用した場合の画像生成部11、画像表示部12、及び表示制御部13の一部を構成する焦点距離調整部130の一構成例を示す概略構成説明図である。
図7において、制御部14から供給される画像信号を処理するための光源ユニット部110が設けられている。光源ユニット部110には、制御部14からの画像信号が入力され、それに基づいて画像を生成するための画像信号を発生する画像信号供給部111が設けられ、この画像信号供給部111から画像信号112、垂直同期信号113及び水平同期信号114が出力される。また、光源ユニット部110には、画像信号供給部111から伝達される画像信号112をもとに強度変調されたレーザ光を出射する光源としてのレーザ発振部115と、前方視界に重ね合わせて表示する画像(虚像)の形成位置を、利用者が注視対象を見ているときの焦点位置に合わせるように、網膜に走査する像の焦点を調整する焦点距離調整部130とが設けられている。
FIG. 7 shows the focal length adjustment unit 130 that constitutes part of the image generation unit 11, the image display unit 12, and the display control unit 13 when the retinal scanning image display method shown in FIG. It is schematic structure explanatory drawing which shows one structural example.
In FIG. 7, a light source unit 110 for processing an image signal supplied from the control unit 14 is provided. The light source unit 110 is provided with an image signal supply unit 111 that receives an image signal from the control unit 14 and generates an image signal for generating an image based on the image signal. The image signal supply unit 111 receives the image signal from the image signal supply unit 111. 112, a vertical synchronization signal 113 and a horizontal synchronization signal 114 are output. The light source unit 110 also displays a laser oscillation unit 115 serving as a light source that emits laser light whose intensity is modulated based on the image signal 112 transmitted from the image signal supply unit 111, and is superimposed on the front field of view. A focal length adjustment unit 130 that adjusts the focus of the image scanned on the retina is provided so that the formation position of the image (virtual image) to be matched with the focus position when the user is looking at the gaze target.

また、光源ユニット部110側から導かれたレーザ光をガルバノミラー121aを利用して垂直方向に走査する走査光学系としての垂直走査系121と、垂直走査系121によって走査されたレーザ光を後述する水平走査系122に導く第1リレー光学系(レンズ群)123と、垂直走査系121に走査され、第1リレー光学系123を介して入射されたレーザ光を、ガルバノミラー122aを利用して水平方向に走査する走査光学系としての水平走査系122と、水平走査系122によって走査されたレーザ光を利用者の右眼100Rの瞳孔に入射させる第2リレー光学系(レンズ群)124とが設けられている。   Further, a vertical scanning system 121 as a scanning optical system that scans laser light guided from the light source unit 110 side in the vertical direction using the galvano mirror 121a, and laser light scanned by the vertical scanning system 121 will be described later. A first relay optical system (lens group) 123 guided to the horizontal scanning system 122 and a laser beam scanned by the vertical scanning system 121 and incident through the first relay optical system 123 are horizontally converted using a galvano mirror 122a. A horizontal scanning system 122 as a scanning optical system that scans in the direction, and a second relay optical system (lens group) 124 that causes the laser light scanned by the horizontal scanning system 122 to enter the pupil of the right eye 100R of the user. It has been.

垂直走査系121は、表示すべき画像の1走査線ごとに、レーザビームを垂直方向に垂直走査する垂直走査を行う光学系である。また、垂直走査系121は、レーザビームを垂直方向に走査する光学部材としてのガルバノミラー121aと、そのガルバノミラー121aの駆動制御を行う垂直走査制御部121bとを備えている。   The vertical scanning system 121 is an optical system that performs vertical scanning for vertically scanning a laser beam in the vertical direction for each scanning line of an image to be displayed. The vertical scanning system 121 includes a galvano mirror 121a as an optical member that scans a laser beam in the vertical direction, and a vertical scanning control unit 121b that controls driving of the galvano mirror 121a.

これに対し、水平走査系122は、表示すべき画像の1フレームごとに、レーザビームを最初の走査線から最後の走査線に向かって水平に走査する水平走査を行う光学系である。また、水平走査系122は、水平走査する光学部材としてのガルバノミラー122aと、そのガルバノミラー122aの駆動制御を行う水平走査制御部122bとを備えている。   On the other hand, the horizontal scanning system 122 is an optical system that performs horizontal scanning in which a laser beam is scanned horizontally from the first scanning line toward the last scanning line for each frame of an image to be displayed. The horizontal scanning system 122 includes a galvano mirror 122a as an optical member that performs horizontal scanning, and a horizontal scanning control unit 122b that controls driving of the galvano mirror 122a.

また、垂直走査系121、水平走査系122は、図7に示すように、各々画像信号供給部111に接続され、画像信号供給部111より出力される垂直同期信号113、水平同期信号114にそれぞれ同期してレーザ光を走査するように構成されている。   Further, as shown in FIG. 7, the vertical scanning system 121 and the horizontal scanning system 122 are connected to the image signal supply unit 111 and output to the vertical synchronization signal 113 and the horizontal synchronization signal 114 respectively output from the image signal supply unit 111. The laser beam is scanned in synchronization.

上記構成の走査光学系によって利用者の網膜上に画像を表示する処理は、例えば次のように行われる。ここで、利用者の網膜上に表示する画像は、図4(b)に示すように、例えば「名称:もみ マツ科モミ属 常緑針葉樹」といった注視対象の樹木についての関連情報である。図7に示すように、本実施形態の眼鏡型表示装置1では、光源ユニット部110に設けられた画像信号供給部111が制御部14からの画像信号の供給を受けると、画像信号供給部111は、例えば白色レーザ光を出力させるための画像信号112と、垂直同期信号113と、水平同期信号114とを出力する。画像信号112に基づいて、レーザ発振器115はそれぞれ強度変調されたレーザ光を発生し、垂直走査系121に出力する。垂直走査系121のガルバノミラー121aに入射したレーザ光は、垂直同期信号113に同期して垂直方向に走査されて第1リレー光学系123を介し、水平走査系122のガルバノミラー122aに入射する。ガルバノミラー122aは、ガルバノミラー121aが垂直同期信号に同期すると同様に水平同期信号114に同期して、入射光を水平方向に反射するように往復振動をしており、このガルバノミラー122aによってレーザ光は水平方向に走査される。垂直走査系121及び水平走査系122によって垂直方向及び水平方向に2次元に走査されたレーザ光は、第2リレー光学系124により利用者の右眼眼球へ入射され、網膜上に投影される。利用者はこのように2次元走査されて網膜上に投影されたレーザ光による画像を認識することができる。   The process of displaying an image on the user's retina by the scanning optical system having the above configuration is performed, for example, as follows. Here, as shown in FIG. 4B, the image displayed on the retina of the user is related information about the tree to be watched, such as “name: fir pine family fir genus evergreen conifer”. As shown in FIG. 7, in the eyeglass-type display device 1 of the present embodiment, when the image signal supply unit 111 provided in the light source unit 110 receives the supply of the image signal from the control unit 14, the image signal supply unit 111. Outputs, for example, an image signal 112 for outputting white laser light, a vertical synchronization signal 113, and a horizontal synchronization signal 114. Based on the image signal 112, the laser oscillator 115 generates intensity-modulated laser light and outputs it to the vertical scanning system 121. The laser light incident on the galvano mirror 121 a of the vertical scanning system 121 is scanned in the vertical direction in synchronization with the vertical synchronization signal 113 and is incident on the galvano mirror 122 a of the horizontal scanning system 122 via the first relay optical system 123. The galvanometer mirror 122a is reciprocally oscillated so as to reflect incident light in the horizontal direction in synchronization with the horizontal synchronization signal 114 in the same manner as the galvanometer mirror 121a is synchronized with the vertical synchronization signal. Are scanned horizontally. Laser light that is two-dimensionally scanned in the vertical and horizontal directions by the vertical scanning system 121 and the horizontal scanning system 122 is incident on the right eyeball of the user by the second relay optical system 124 and projected onto the retina. Thus, the user can recognize the image by the laser light that is two-dimensionally scanned and projected onto the retina.

図8は、焦点距離調整部130の概略構成説明図である。図8(a)は眼からの距離の遠い注視対象に合わせて画像を表示する場合の構成図、図8(b)は眼からの距離の近い注視対象に合わせて画像を表示する場合の構成図である。レーザ発振部115内部には、レーザ光源116が光源鏡筒117の左側端部に設けられており、また、投光レンズ群118を有するレンズ鏡筒119が、光源鏡筒117の内側に左右方向に直線運動可能に配設されている。また、焦点距離調整部130は、制御部14によって回転駆動制御されるマイクロモータ131、マイクロモータ131に回転駆動されるウォームギヤ132、ウォームギヤ132と螺合し図中左右に直線運動するラックギヤ133から構成されている。上記レンズ鏡筒119には上記ラックギヤ133が固設されており、マイクロモータ131によりウォームギヤ132が回転駆動すると、ラックギヤ133とレンズ鏡筒119とが一体となって左右方向に直線運動を行う。   FIG. 8 is an explanatory diagram of a schematic configuration of the focal length adjustment unit 130. FIG. 8A is a configuration diagram when an image is displayed according to a gaze target that is far from the eye, and FIG. 8B is a configuration when an image is displayed according to a gaze target that is close to the eye. FIG. Inside the laser oscillating unit 115, a laser light source 116 is provided at the left end of the light source barrel 117, and a lens barrel 119 having a light projecting lens group 118 is arranged in the left-right direction inside the light source barrel 117. Are arranged so as to be linearly movable. The focal length adjusting unit 130 includes a micromotor 131 that is rotationally driven by the control unit 14, a worm gear 132 that is rotationally driven by the micromotor 131, and a rack gear 133 that is screwed with the worm gear 132 and linearly moves left and right in the drawing. Has been. The rack gear 133 is fixed to the lens barrel 119, and when the worm gear 132 is rotationally driven by the micromotor 131, the rack gear 133 and the lens barrel 119 are integrated to perform a linear motion in the left-right direction.

図8(a)に示すように、レンズ鏡筒119が最も右側位置にあるとき、すなわち、レーザ光源116と投光レンズ群118とが最も離れた位置にある場合には、レーザ光源116から出射したレーザ光は投光レンズ群118によって平行光となって垂直走査系121のガルバノミラー121aに入射する。最終的に第2リレー光学系124から利用者の右眼に平行光が入射することで、無限遠に画像が投影されていると感じる。
一方、図8(b)に示すように、レンズ鏡筒119が最も左側位置にあるとき、すなわち、レーザ光源116と投光レンズ群118とが最も近い位置にある場合には、レーザ光源116から出射したレーザ光は投光レンズ群118によって拡散光となって垂直走査系121のガルバノミラー121aに入射する。最終的に第2リレー光学系124から利用者の右眼に拡散光が入射することで、近く(例えば、30センチメートル前方)に画像が表示されていると感じる。
As shown in FIG. 8A, when the lens barrel 119 is at the rightmost position, that is, when the laser light source 116 and the light projecting lens group 118 are at the farthest positions, the laser light source 116 emits light. The laser beam is converted into parallel light by the projection lens group 118 and is incident on the galvanometer mirror 121a of the vertical scanning system 121. Finally, when parallel light enters the right eye of the user from the second relay optical system 124, it feels that an image is projected at infinity.
On the other hand, as shown in FIG. 8B, when the lens barrel 119 is at the leftmost position, that is, when the laser light source 116 and the light projecting lens group 118 are at the closest position, the laser light source 116 The emitted laser light is diffused by the light projection lens group 118 and is incident on the galvanometer mirror 121a of the vertical scanning system 121. Finally, the diffused light is incident on the user's right eye from the second relay optical system 124, so that the user feels that an image is displayed nearby (for example, 30 centimeters forward).

なお、図2(b)に示すコンバイナ光学系125を用いた画像表示方式を採用した場合については、図示していないが、例えば、画像表示部12は、小型液晶表示面からなる光源と、その小型液晶表示面の画像を所定の焦点距離で結像させながらコンバイナ光学系125に向けて導くための結像光学系とを用いて構成される。また、焦点距離調整部130は、結像光学系による結像画像の焦点距離を変化させるように結像光学系のレンズを移動させるマイクロモータ及びウォームギア等で構成される。   In addition, although not shown about the case where the image display system using the combiner optical system 125 shown in FIG.2 (b) is employ | adopted, the image display part 12 has the light source which consists of a small-sized liquid crystal display surface, its An image forming optical system for guiding the image of the small liquid crystal display surface toward the combiner optical system 125 while forming an image at a predetermined focal length is used. The focal length adjusting unit 130 includes a micro motor and a worm gear that move a lens of the imaging optical system so as to change the focal length of the imaging image by the imaging optical system.

次に、本実施形態の眼鏡型表示装置1で利用者が注視した注視対象を特定し、その注視対象に関連した関連情報を通信ネットワーク上のサーバから取得して表示する情報提供システムの構成について説明する。   Next, a configuration of an information providing system that identifies a gaze target that the user gazes in the eyeglass-type display device 1 of the present embodiment, and acquires and displays related information related to the gaze target from a server on the communication network. explain.

図9は、眼鏡型表示装置1により注視対象の関連情報を表示する情報提供システム全体の構成例を示す説明図である。また、図10は、利用者が注視した注視対象の関連情報を表示する処理を説明するためのシーケンス図である。ここで、眼鏡型表示装置1は、図3の通信部(通信手段)25として、無線又は有線の近距離通信により移動体通信端末である携帯電話機等の携帯通信端末18との間で通信するための近距離通信手段を有している。この近距離通信手段は、例えば、シリアル通信ケーブルを用いた有線通信により、あるいは、赤外線やブルートゥース等の無線通信により、携帯通信端末18と通信するように構成される。   FIG. 9 is an explanatory diagram illustrating a configuration example of the entire information providing system that displays related information on the gaze target by the glasses-type display device 1. FIG. 10 is a sequence diagram for explaining processing for displaying related information of a gaze target that the user gazes at. Here, the glasses-type display device 1 communicates with the mobile communication terminal 18 such as a mobile phone which is a mobile communication terminal by wireless or wired short-range communication as the communication unit (communication means) 25 of FIG. Short-range communication means. This short-distance communication means is configured to communicate with the mobile communication terminal 18 by, for example, wired communication using a serial communication cable, or by wireless communication such as infrared or Bluetooth.

図9の構成例では、眼鏡型表示装置1は携帯通信端末18と近距離無線通信により通信することができ、携帯通信端末18は、移動体通信網19及びインターネット通信網20を介して、画像分析サーバ21及び情報提供サーバ22と通信することができる。なお、眼鏡型表示装置1にネットワーク通信機能を備えて、携帯通信端末18を介さないで、直接、移動体通信網19やインターネット通信網20に接続できるようにしてもよい。   In the configuration example of FIG. 9, the glasses-type display device 1 can communicate with the mobile communication terminal 18 by short-range wireless communication, and the mobile communication terminal 18 transmits an image via the mobile communication network 19 and the Internet communication network 20. It is possible to communicate with the analysis server 21 and the information providing server 22. The eyeglass-type display device 1 may be provided with a network communication function so that it can be directly connected to the mobile communication network 19 or the Internet communication network 20 without using the mobile communication terminal 18.

図10において、利用者が注視対象として例えば視界中央の樹木を注視すると(ステップ1)、利用者の頭部に装着された眼鏡型表示装置1の注視対象距離検出部10が、利用者の眼球の焦点が樹木にロックオンしたことを検出し(ステップ2)、視界同調カメラ9に撮影指令を出力する(ステップ3)。撮影指令を受信した視界同調カメラ9は注視対象を撮影し(ステップ4)、撮影した注視対象の画像データを携帯通信端末18、移動体通信網19及びインターネット通信網20を介して画像分析サーバ21に送信する(ステップ5)。画像データを受信した画像分析サーバ21は、画像分析を行い、注視対象の特徴を抽出して注視対象を特定する(ステップ6)。画像分析サーバ21は、画像分析によって特定した注視対象の情報を情報提供サーバ22に送信する(ステップ7)。情報提供サーバ22は、画像分析サーバ21から受信した注視対象情報に基づいてデータベースを検索し、注視対象に関連した関連情報を検索して収集する(ステップ8)。情報提供サーバ22は注視対象について収集した関連情報を、インターネット通信網20、移動体通信網19及び携帯通信端末18を介して眼鏡型表示装置1に送信し、眼鏡型表示装置1の制御部14は、情報提供サーバ22から受信した注視対象の関連情報を画像生成部11に送る(ステップ9)。
なお、図10の例では、画像分析サーバ21が画像分析によって特定した注視対象の情報を情報提供サーバ22に送信しているが、眼鏡型表示装置1が、画像分析サーバ21から注視対象の情報をいったん受信して保存し、その注視対象の情報を情報提供サーバ22に送信することにより関連情報を取得するようにしてもよい。
また、上記利用者の視線が樹木(注視対象)にロックオンしたか否かは、利用者の眼球の焦点が樹木に留まっている時間を基準にして判断することができる。例えば、利用者の眼球の焦点が樹木に留まっている状態が所定時間だけ継続したときに、その樹木にロックオンしたと判断することができる。上記所定時間は、注視対象の種類等に応じて設定され、より具体的には数秒(例えば、2〜5秒程度)に設定してもよい。
In FIG. 10, when a user gazes at a tree at the center of the field of view as a gaze target (step 1), the gaze target distance detection unit 10 of the eyeglass-type display device 1 attached to the user's head moves the user's eyeball. Is detected to be locked on the tree (step 2), and a shooting command is output to the view tuning camera 9 (step 3). The field-of-view synchronization camera 9 that has received the imaging command captures the gaze target (step 4), and the captured image data of the gaze target is transmitted to the image analysis server 21 via the mobile communication terminal 18, the mobile communication network 19, and the Internet communication network 20. (Step 5). The image analysis server 21 that has received the image data performs image analysis, extracts features of the gaze target, and identifies the gaze target (step 6). The image analysis server 21 transmits the gaze target information specified by the image analysis to the information providing server 22 (step 7). The information providing server 22 searches the database based on the gaze target information received from the image analysis server 21, and searches for and collects related information related to the gaze target (step 8). The information providing server 22 transmits related information collected about the gaze target to the glasses-type display device 1 via the Internet communication network 20, the mobile communication network 19 and the portable communication terminal 18, and the control unit 14 of the glasses-type display device 1. Sends the relevant information of the gaze target received from the information providing server 22 to the image generation unit 11 (step 9).
In the example of FIG. 10, the gaze target information specified by the image analysis server 21 through image analysis is transmitted to the information providing server 22, but the glasses-type display device 1 receives the gaze target information from the image analysis server 21. May be received and stored, and the relevant information may be acquired by transmitting the gaze target information to the information providing server 22.
Further, whether or not the user's line of sight is locked on a tree (a gaze target) can be determined based on the time during which the focus of the user's eyeball remains on the tree. For example, when a state where the focus of the user's eyeball remains on a tree continues for a predetermined time, it can be determined that the tree is locked on. The predetermined time is set according to the type of the gaze target, and more specifically may be set to several seconds (for example, about 2 to 5 seconds).

上記注視対象の関連情報の取得と並行して、眼鏡型表示装置1の注視対象距離検出部10では、眼から注視対象までの注視対象距離の算出(検出)が行われ(ステップ10)、その算出された注視対象距離のデータが焦点距離調整部130に送られる(ステップ11)。注視対象距離のデータを受信した焦点距離調整部130は、その注視対象距離に応じて焦点距離の調整を行い(ステップ12)、その調整が完了したら調整完了情報を画像生成部11に送る(ステップ13)。画像生成部11は、焦点距離調整部130から受けた調整完了情報と、情報提供サーバ22から受信した注視対象の関連情報とに基づいて、前方視界に重ね合わせて表示する関連情報の画像信号を生成する画像生成を行い(ステップ14)、生成した表示画像の画像信号を画像表示部12に出力する(ステップ15)。画像表示部12は、注視対象(樹木)に関する関連情報の画像(虚像)を、利用者の眼から前記注視対象距離だけ離れた位置に形成するように表示する(ステップ16)。これにより、利用者は、図4(b)に示すような前方視界の中に重ね合わせて表示された注視対象(樹木)に関する関連情報902を視認することができる(ステップ17)。このように表示する画像(虚像)の形成位置を、注視対象である樹木の位置に一致させることにより、利用者は樹木を注視しつつ、焦点ぼけのない関連情報の画像を見ることができる。   In parallel with the acquisition of the relevant information of the gaze target, the gaze target distance detection unit 10 of the glasses-type display device 1 calculates (detects) the gaze target distance from the eye to the gaze target (step 10). The calculated gaze target distance data is sent to the focal length adjustment unit 130 (step 11). The focal length adjustment unit 130 that has received the gaze target distance data adjusts the focal length according to the gaze target distance (step 12), and sends the adjustment completion information to the image generation unit 11 when the adjustment is completed (step 12). 13). Based on the adjustment completion information received from the focal length adjustment unit 130 and the related information of the gaze target received from the information providing server 22, the image generation unit 11 displays an image signal of related information to be displayed superimposed on the front view. An image to be generated is generated (step 14), and an image signal of the generated display image is output to the image display unit 12 (step 15). The image display unit 12 displays an image (virtual image) of related information related to the gaze target (tree) so as to be formed at a position away from the user's eyes by the gaze target distance (step 16). Thereby, the user can visually recognize the related information 902 regarding the gaze target (tree) displayed superimposed on the front view as shown in FIG. 4B (step 17). By matching the formation position of the image (virtual image) to be displayed in this way with the position of the tree that is the gaze target, the user can view the image of the related information without defocusing while gazing at the tree.

なお、本実施形態に係る眼鏡型表示装置1において、注視対象の関連情報として、注視対象の機器(例えば、テレビ等の家電機器)の操作メニューを表示し、その操作メニューに基づいて、手操作を行うことなく機器の操作を行うようにしてもよい。   In the eyeglass-type display device 1 according to the present embodiment, an operation menu of a gaze target device (for example, a home appliance such as a television) is displayed as the gaze target related information, and a manual operation is performed based on the operation menu. You may make it operate an apparatus, without performing.

図11は、眼鏡型表示装置1で注視対象の家電機器(テレビ)の操作メニューの画像を視界に表示している状態を示している説明図である。また、図12は、眼鏡型表示装置1で注視対象の家電機器(テレビ)の操作メニューを表示する処理を説明するためのシーケンス図である。なお、図12の例では、眼鏡型表示装置1で操作メニューの画像を表示するための操作フロー情報を、注視対象のテレビ903に備えられている記憶媒体としてのRFタグ903Tから、近距離無線通信により受信している。なお、注視対象のテレビ903に備えられている記憶媒体は、眼鏡型表示装置1と無線通信する機能と情報を記憶する機能とを有していればよく、RFタグに限定されるものではない。また、注視対象のテレビ903がRFタグ以外の記憶媒体を備えている場合、眼鏡型表示装置1がテレビ903に備えられた記憶媒体から情報を受信するときの通信には、例えばBluetooth(登録商標)や赤外線等の近距離無線通信を用いることができる。   FIG. 11 is an explanatory diagram showing a state in which an image of an operation menu of a household electrical appliance (TV) to be watched is displayed in the field of view on the glasses-type display device 1. FIG. 12 is a sequence diagram for explaining a process of displaying an operation menu of the household electrical appliance (TV) to be watched on the glasses-type display device 1. In the example of FIG. 12, the operation flow information for displaying the image of the operation menu on the glasses-type display device 1 is transmitted from the RF tag 903T as a storage medium provided in the television 903 to be watched. Received by communication. Note that the storage medium provided in the watched television 903 is not limited to the RF tag as long as it has a function of wirelessly communicating with the glasses-type display device 1 and a function of storing information. . In addition, when the target TV 903 includes a storage medium other than the RF tag, for example, Bluetooth (registered trademark) is used for communication when the glasses-type display device 1 receives information from the storage medium included in the TV 903. ) And infrared communication such as infrared rays can be used.

図12において、眼鏡型表示装置1を装着した利用者が、視界の中で注視対象の機器として例えばテレビ903を注視すると(ステップ1)、眼鏡型表示装置1の注視対象距離検出部10が、利用者の眼球の焦点がテレビ903にロックオンしたことを検出する(ステップ2)。すると、眼鏡型表示装置1では、利用者の眼から注視対象のテレビまでの注視対象距離の算出(検出)が行われ(ステップ3)、その算出した注視対象距離の情報が焦点距離調整部130に送られる(ステップ4)。注視対象距離の情報を受信した焦点距離調整部130は、焦点距離の調整を行い(ステップ5)、調整が完了したら調整完了情報を画像生成部11に送る(ステップ6)。画像生成部11は、焦点距離調整部130から受信した調整完了情報と、テレビ903のRFタグ903Tから受信した操作フロー情報とに基づいて、前方視界に重ね合わせて表示する操作メニュー情報を含む画像信号を生成する画像生成を行う(ステップ8)。画像表示部12は、操作メニューの情報を含む画像を出力する(ステップ9)。これにより、画像表示部12によって前方視界の中に操作メニューの情報を含む画像(虚像)904が、テレビ903と同じ焦点位置に表示され、利用者は、図11に示すような焦点ぼけのない操作メニューの画像904を視認することができる(ステップ10,11)。
なお、上記利用者の視線がテレビ(注視対象)にロックオンしたか否かは、前述の樹木の場合と同様に、利用者の眼球の焦点がテレビに留まっている時間を基準にして判断することができる。
In FIG. 12, when a user wearing the glasses-type display device 1 gazes at, for example, a television 903 as a device to be watched in the field of view (step 1), the gaze target distance detection unit 10 of the glasses-type display device 1 It is detected that the focus of the user's eyeball is locked on the television 903 (step 2). Then, the glasses-type display device 1 calculates (detects) the gaze target distance from the user's eye to the gaze target television (step 3), and the calculated gaze target distance information is the focal length adjustment unit 130. (Step 4). The focal length adjustment unit 130 that has received the gaze target distance information adjusts the focal length (step 5), and sends the adjustment completion information to the image generation unit 11 when the adjustment is completed (step 6). The image generation unit 11 includes an operation menu information to be displayed superimposed on the front view based on the adjustment completion information received from the focal length adjustment unit 130 and the operation flow information received from the RF tag 903T of the television 903. Image generation for generating a signal is performed (step 8). The image display unit 12 outputs an image including information on the operation menu (step 9). As a result, the image display unit 12 displays an image (virtual image) 904 including information on the operation menu in the forward field of view at the same focal position as the television 903, and the user has no defocus as shown in FIG. The operation menu image 904 can be visually recognized (steps 10 and 11).
Note that whether or not the user's line of sight has locked onto the television (gazing target) is determined on the basis of the time during which the user's eyeball stays on the television, as in the case of the tree described above. be able to.

利用者は、眼鏡型表示装置1で表示された操作メニューの画像904のいずれかの操作を注視して選択し、所定の眼の動作(例えば、ウィンク、上下運動、又は、左右運動)を行う。眼鏡型表示装置1は、利用者の上記所定の眼の動作に基づいて、選択された操作のコマンド信号を近距離無線通信によりテレビ903に送信する。テレビ903は、眼鏡型表示装置1から受信したコマンド信号に基づいて、利用者が選択した操作に対応した動作(電源のオン/オフ、チャンネル切り替え、音量調整)を実行する。これにより、利用者は、テレビ903をハンズフリーで操作することができる。   The user gazes and selects one of the operations on the operation menu image 904 displayed on the glasses-type display device 1, and performs a predetermined eye movement (for example, wink, vertical movement, or horizontal movement). . The glasses-type display device 1 transmits a command signal for the selected operation to the television 903 by short-range wireless communication based on the predetermined eye movement of the user. The television 903 performs operations (power on / off, channel switching, volume adjustment) corresponding to the operation selected by the user based on the command signal received from the glasses-type display device 1. Thereby, the user can operate the television 903 hands-free.

また、図11において、眼鏡型表示装置1を装着した利用者が、視界の中にある他の機器(例えば、テレビ録画装置905、オーディオ装置906、スピーカ装置907R,907L、照明装置908,909)を注視すると、図12と同様な処理により、その注視対象の機器の操作メニューの画像が表示される。そして、上記テレビ903の場合と同様に、利用者は、操作メニューの画像のいずれかの操作を注視して選択し、所定の眼の動作で眼を動かすことにより、テレビ録画装置905、オーディオ装置906、スピーカ装置907R,907L及び照明装置908,909をハンズフリーで操作することもできる。   In FIG. 11, the user wearing the glasses-type display device 1 may have other devices in view (for example, a television recording device 905, an audio device 906, speaker devices 907R and 907L, and lighting devices 908 and 909). Is displayed, an operation menu image of the device to be watched is displayed by the same processing as in FIG. Then, as in the case of the television 903, the user gazes and selects one of the operations on the operation menu image, and moves the eyes with a predetermined eye movement, so that the television recording device 905 and the audio device are moved. 906, the speaker devices 907R and 907L, and the illumination devices 908 and 909 can be operated hands-free.

なお、本実施形態に係る眼鏡型表示装置1において、注視対象の関連情報とともに、又は注視対象の関連情報に代えて、時刻の情報、温度、湿度及び気圧等の環境情報、利用者の体温や脈拍等の健康情報を表示してもよい。   In the eyeglass-type display device 1 according to the present embodiment, the time information, environmental information such as temperature, humidity, and atmospheric pressure, the body temperature of the user, You may display health information, such as a pulse.

図13は、時刻と温度を表示している状態を示している説明図である。また、図14は、時刻と温度を表示する処理を説明するためのシーケンス図である。
図14において、眼鏡型表示装置1を装着した利用者が、注視対象として例えば店舗を注視すると(ステップ1)、眼鏡型表示装置1の注視対象距離検出部10が、利用者の眼球の焦点が店舗にロックオンしたことを注視対象距離検出部10が検出する(ステップ2)。すると、眼鏡型表示装置1では、利用者の眼から注視対象の店舗までの注視対象距離の算出(検出)が行われ(ステップ3)、その算出した注視対象距離の情報が焦点距離調整部130に送られる(ステップ4)。注視対象距離の情報を受信した焦点距離調整部130は、焦点距離の調整を行い(ステップ5)、調整が完了したら調整完了情報を画像生成部11に送る(ステップ6)。画像生成部11は、焦点距離調整部130から受信した調整完了情報と、温度センサ23から受信した温度情報とに基づいて、前方視界に重ね合わせて表示する温度及び時刻の情報の画像信号を生成する画像生成を行う(ステップ8)。画像表示部12は、時刻の情報と温度の情報とを含む画像を出力する(ステップ9)。これにより、画像表示部12によって前方視界の中に時刻の情報と温度の情報とを含む画像(虚像)が、店舗910と同じ位置に表示され、利用者は、図13に示すような焦点ぼけのない時刻及び温度の画像911を視認することができる(ステップ10,11)。なお、時刻の情報は、例えば画像生成部11内部のクロックから取得することができる。また、温度センサ23は、眼鏡型表示装置1に組み込んでもよいし、眼鏡型表示装置1とは別体に設けてもよい。
FIG. 13 is an explanatory diagram showing a state in which time and temperature are displayed. FIG. 14 is a sequence diagram for explaining processing for displaying time and temperature.
In FIG. 14, when a user wearing the glasses-type display device 1 gazes at, for example, a store as a gaze target (step 1), the gaze target distance detection unit 10 of the glasses-type display device 1 determines that the user's eyeball is focused. The gaze target distance detection unit 10 detects that the store is locked on (step 2). Then, in the glasses-type display device 1, the gaze target distance from the user's eye to the gaze target store is calculated (detected) (step 3), and the calculated gaze target distance information is the focal length adjustment unit 130. (Step 4). The focal length adjustment unit 130 that has received the gaze target distance information adjusts the focal length (step 5), and sends the adjustment completion information to the image generation unit 11 when the adjustment is completed (step 6). Based on the adjustment completion information received from the focal length adjustment unit 130 and the temperature information received from the temperature sensor 23, the image generation unit 11 generates an image signal of temperature and time information to be displayed superimposed on the front field of view. Image generation is performed (step 8). The image display unit 12 outputs an image including time information and temperature information (step 9). As a result, an image (virtual image) including time information and temperature information in the forward view is displayed by the image display unit 12 at the same position as the store 910, and the user is out of focus as shown in FIG. An image 911 of time and temperature without a mark can be visually recognized (steps 10 and 11). The time information can be acquired from, for example, a clock inside the image generation unit 11. Further, the temperature sensor 23 may be incorporated in the glasses-type display device 1 or may be provided separately from the glasses-type display device 1.

また、本実施形態に係る眼鏡型表示装置1において、視線方向検出手段として視界同調カメラ9を兼用しているが、利用者が見ている前方視界の中で利用者が注視している視線方向をより正確に検出する視線方向検出手段を別途設けてもよい。   Further, in the glasses-type display device 1 according to the present embodiment, the visual field tuning camera 9 is also used as the visual line direction detection unit, but the visual line direction in which the user is gazing in the forward visual field viewed by the user. A line-of-sight direction detecting means for more accurately detecting can be separately provided.

図15は、視線方向検出手段としての視線検知部24を別途設けた眼鏡型表示装置1の一構成例を示す斜視図である。また、図16(a)は、視線検知部24の一構成例を示す概略構成説明図であり、図16(b)は眼球の各位置に対応するイメージセンサの水平走査出力信号の模式図である。また、図17は、利用者が右側のメガネレンズ5Rを通して見る前方視界面内を複数に分割した領域を示す図である。この視線検知部24は、眼鏡型表示装置1を掛けた利用者が右側のメガネレンズ5Rを通して前方視界を見ている右眼眼球の視線の方向を検知するものである。   FIG. 15 is a perspective view illustrating a configuration example of the eyeglass-type display device 1 in which a line-of-sight detection unit 24 as a line-of-sight direction detection unit is separately provided. FIG. 16A is a schematic configuration explanatory diagram showing one configuration example of the line-of-sight detection unit 24, and FIG. 16B is a schematic diagram of horizontal scanning output signals of the image sensor corresponding to each position of the eyeball. is there. FIG. 17 is a diagram showing an area obtained by dividing the front view interface viewed by the user through the right eyeglass lens 5R into a plurality of parts. The line-of-sight detection unit 24 detects the direction of the line of sight of the right eyeball in which the user who wears the glasses-type display device 1 is looking forward through the right eyeglass lens 5R.

図16(a)において、視線検知部24は、赤外光を放射する発光ダイオード等の光源241と、投光レンズ242と、受光レンズ243と、CCD又はCMOS等の固体撮像素子等からなる撮像手段としてのイメージセンサ244と、視線演算手段245とを備えている。   In FIG. 16A, the line-of-sight detection unit 24 is an image pickup composed of a light source 241 such as a light emitting diode that emits infrared light, a light projecting lens 242, a light receiving lens 243, and a solid-state image sensor such as a CCD or a CMOS. An image sensor 244 as a means and a line-of-sight calculation means 245 are provided.

視線検知部24において、光源241より射出した赤外光は投光レンズ242を通過した後、略平行光となって右眼100Rの角膜を照射する。そして、角膜を通過した赤外光は虹彩を照射する。角膜の表面で拡散反射した赤外光は、受光レンズ243を介してイメージセンサ244上に導光され、角膜像を結像する。同様に、虹彩の表面で拡散反射した赤外光は、受光レンズ243を介してイメージセンサ244上に導光され、虹彩像を結像する。イメージセンサ244からの出力は、図16(b)に示すように、角膜像が結像された角膜反射像スポット位置が他に比べて著しく電位が高くなる。視線演算手段245は、この角膜反射像スポット位置に基づいて、右眼100Rが真っ直ぐ前を向いているときの眼球の中心線からの回転角を算出する。そして、算出した回転角に基づいて、右眼100Rの視軸を求め、前方視界における利用者の相対的な視線方向を検出する。そして、このとき得られた前方視界における相対的な視線方向により、図17に示すメガネレンズ5Rを通して見える前方視界面上における利用者が注視している注視点、すなわち前方視界面を構成する領域A1〜A12のうち利用者が見ている注視対象が含まれる領域を特定することができる。   In the line-of-sight detection unit 24, the infrared light emitted from the light source 241 passes through the light projection lens 242, and then becomes substantially parallel light and irradiates the cornea of the right eye 100R. And the infrared light which passed the cornea irradiates an iris. Infrared light diffusely reflected on the surface of the cornea is guided onto the image sensor 244 via the light receiving lens 243 to form a cornea image. Similarly, infrared light diffusely reflected by the surface of the iris is guided onto the image sensor 244 via the light receiving lens 243 and forms an iris image. As shown in FIG. 16B, the output from the image sensor 244 has a remarkably higher potential at the corneal reflection image spot position where the corneal image is formed as compared with the others. The line-of-sight calculation means 245 calculates the rotation angle from the center line of the eyeball when the right eye 100R faces straight forward based on the corneal reflection image spot position. Then, based on the calculated rotation angle, the visual axis of the right eye 100R is obtained, and the relative gaze direction of the user in the front view is detected. Then, based on the relative line-of-sight direction in the forward visual field obtained at this time, the gazing point on which the user is gazing on the forward visual interface viewed through the spectacle lens 5R shown in FIG. 17, that is, the area A1 constituting the forward visual interface. The area | region where the gaze target which the user is looking at among A12 can be specified.

上記視線検知部24を設けることにより、前方視界内の利用者の視線方向をより正確に検知でき、利用者が注視している注視対象をより正確に特定することができる。これにより、注視対象について利用者が注視している注視対象とは別の注視対象を特定してしまうという誤動作を防ぐことができる。   By providing the line-of-sight detection unit 24, the line-of-sight direction of the user in the front field of view can be detected more accurately, and the gaze target being watched by the user can be more accurately identified. Accordingly, it is possible to prevent a malfunction in which a gaze target different from the gaze target that the user is gazing at for the gaze target is specified.

なお、図15〜図17に示したように利用者が見ている前方視界の中で利用者が注視している視線方向をより正確に検出する視線検知部24を設けた場合、その視線検知部24で検知された利用者の視線方向に視界同調カメラ9の撮像方向が向くように構成してもよい。より具体的には、視界同調カメラ9の撮像方向を変化させる撮像方向可変手段としてカメラ駆動機構と、視線検知部24の検出結果に基づいて、利用者の視線方向に視界同調カメラ9の撮像方向が向くようにカメラ駆動機構を制御する撮像制御手段とを設ける。上記カメラ駆動機構は、例えば、撮像方向を変化できるように視界同調カメラ9を回転可能に保持するカメラ保持部と、オン/オフ制御及び正/逆回転制御が可能なマイクロモータと、マイクロモータの回転を視界同調カメラ9のカメラ保持部の回転に変換する駆動伝達部とを用いて構成することができる。このように視線検知部24で検知された利用者の視線方向に視界同調カメラ9の撮像方向が向くように構成することにより、利用者が注視している視線方向を中心にして視界の画像を撮像することができ、その撮像した画像の中央に注視対象が位置することになる。また、注視対象を特定しやすくなるように撮像した画像を拡大する場合でも、その拡大した画像から注視対象がはみ出にくくなる。従って、注視対象をより精度よく特定することができる。   In addition, when the gaze detection part 24 which detects more accurately the gaze direction which the user is gazing in the front view which the user is seeing as shown in FIGS. 15-17, the gaze detection is provided. You may comprise so that the imaging direction of the visual field synchronization camera 9 may face the user's gaze direction detected by the part 24. FIG. More specifically, based on the detection result of the camera driving mechanism and the line-of-sight detection unit 24 as the imaging direction variable means for changing the imaging direction of the field-of-view synchronization camera 9, the imaging direction of the field-of-view camera 9 in the user's line-of-sight direction. Imaging control means for controlling the camera driving mechanism so as to face the camera. The camera drive mechanism includes, for example, a camera holding unit that rotatably holds the field-of-view tuning camera 9 so that the imaging direction can be changed, a micromotor that can perform on / off control and forward / reverse rotation control, It can be configured using a drive transmission unit that converts the rotation into the rotation of the camera holding unit of the visual field synchronization camera 9. In this way, by configuring the imaging direction of the visual field tuning camera 9 to face the user's line-of-sight detected by the line-of-sight detection unit 24, an image of the field of view is centered on the line of sight that the user is gazing at. An image can be taken, and the gaze target is located in the center of the taken image. Further, even when the captured image is enlarged so that the gaze target can be easily specified, it is difficult for the gaze target to protrude from the enlarged image. Therefore, the gaze target can be specified with higher accuracy.

また、本実施形態の眼鏡型表示装置1において、上記視線検知部24を設けることにより、利用者が見ている前方視界の中に重ね合わせて表示した入力や選択をするためのアイコン等の画像の選択等を行うことも可能になる。   Further, in the eyeglass-type display device 1 of the present embodiment, by providing the line-of-sight detection unit 24, an image such as an icon or the like for input or selection displayed superimposed on the front field of view viewed by the user. It is also possible to make selections.

図18は、メガネレンズ5Rを通して見える店舗を含む前方視界の中に、視線方向を表示する視線カーソル920と、入力や選択を指示するための4つのアイコンとを表示した説明図である。視線カーソル920は、利用者の視線の動きに伴って移動し、利用者の注視点の位置に表示される。図示の例では、上記アイコンとして、利用者宛のメール情報を確認するためのメールアイコン921と、利用者のスケジュール情報を確認するためのスケジュールアイコン922、サーバから配信された配信情報としての最新のニュースを確認するためのニュースアイコン923、及び、表示モードを選択するためのモード選択アイコン924が表示されている。ここで、例えば、利用者が右眼の視線を動かして視線カーソル920をメールアイコン921に合わせ、選択動作としてのまばたき(ウィンク)をするとメールアイコン921が選択され、通信ネットーワーク上のメールサーバから受信された利用者宛の新着メールが、図示のように前方視界の右上部側に表示される。同様に、スケジュールアイコン922、ニュースアイコン923、モード選択アイコン924のいずれかに視線カーソル920を合わせ、まばたき(ウィンク)をすると、その視線カーソル920を合わせたアイコンが選択され、前方視界の右上部側に、選択したアイコンに対応した利用者のスケジュール又は最新ニュースの画像が表示されたり、表示モードを選択するためのサブメニュー画面が表示されたりする。   FIG. 18 is an explanatory diagram in which a line-of-sight cursor 920 that displays the line-of-sight direction and four icons for instructing input and selection are displayed in the front view including the store that can be seen through the eyeglass lens 5R. The line-of-sight cursor 920 moves with the movement of the user's line of sight, and is displayed at the position of the user's point of gaze. In the illustrated example, as the above icons, a mail icon 921 for confirming mail information addressed to the user, a schedule icon 922 for confirming the user's schedule information, and the latest information as distribution information distributed from the server. A news icon 923 for confirming news and a mode selection icon 924 for selecting a display mode are displayed. Here, for example, when the user moves the line of sight of the right eye and moves the line-of-sight cursor 920 to the mail icon 921 and blinks as a selection operation, the mail icon 921 is selected and is sent from the mail server on the communication network. The received new mail addressed to the user is displayed on the upper right side of the front view as shown in the figure. Similarly, when the line-of-sight cursor 920 is placed on any of the schedule icon 922, the news icon 923, and the mode selection icon 924 and blinking (wink), the icon combined with the line-of-sight cursor 920 is selected, and the upper right side of the forward view In addition, the user's schedule or the latest news image corresponding to the selected icon is displayed, or a submenu screen for selecting a display mode is displayed.

なお、上記アイコンの選択等を行うときの利用者の眼の動きは、まばたき(ウィンク)でもいいし、複数回(例えば2回)のまばたき(ウィンク)でもいい。また、前方視界の所定の方向に動かす眼の動きであってもよい。   It should be noted that the user's eye movement when selecting the icon or the like may be blinking (wink) or may be blinking (winking) a plurality of times (for example, twice). Further, it may be a movement of the eye that moves in a predetermined direction of the front view.

また、上記モード選択アイコン924で選択可能な表示モードは、例えば、前述の注視対象距離に応じて前方視界中の情報の像形成位置を調整して表示する第1の表示モードや、前述の注視対象距離にかかわらず前方視界中の情報の像形成位置を固定して表示する第2の表示モードである。   The display modes that can be selected by the mode selection icon 924 include, for example, the first display mode in which the image formation position of information in the front field of view is adjusted according to the above-described gaze target distance, and the above-described gaze. This is a second display mode in which the image forming position of information in the front view is fixed and displayed regardless of the target distance.

また、上記モード選択アイコン924で選択可能な表示モードは、前方視界中に重ね合わせて表示する関連情報の種類や注視対象の種類に応じて設定された複数の表示モードであってもよい。例えば、眼鏡型表示装置1を動物園や遊園地で使用する場合に注視対象の動物や施設に関連した関連情報の取得及び表示に特化されたアミューズメントナビモードや、眼鏡型表示装置1を観光地で使用する場合に注視対象の観光施設に関連した関連情報の取得及び表示に特化されたツアーガイドモードであってもよい。また、眼鏡型表示装置1を店舗やショーウィンドウ前で使用する場合に注視対象の商品に関連した関連情報の取得及び表示に特化されたショッピングナビモードや、眼鏡型表示装置1を装着して市街地を歩いたり道路を走行している場合に目的地までのルート案内や地図等の情報の取得及び表示に特化されたルートナビモードであってもよい。   The display mode that can be selected by the mode selection icon 924 may be a plurality of display modes that are set according to the type of related information that is superimposed and displayed in the front field of view or the type of gaze target. For example, when the glasses-type display device 1 is used in a zoo or amusement park, an amusement navigation mode specialized in acquiring and displaying related information related to the target animal or facility to be watched, or the glasses-type display device 1 The tour guide mode specialized in the acquisition and display of related information related to the tourist facility to be watched may be used. In addition, when the glasses-type display device 1 is used in front of a store or a show window, the shopping navigation mode specialized for obtaining and displaying related information related to the product to be watched and the glasses-type display device 1 are mounted. A route navigation mode specialized in obtaining and displaying information such as route guidance to a destination and a map when walking in an urban area or traveling on a road may be used.

また、本実施形態に係る眼鏡型表示装置1において、その眼鏡型表示装置1の現在位置の情報を取得するためのGPS機能や、利用者が見ている視界の方位を検出する方位検出機能を設けてもよい。このGPS機能で取得された現在位置の情報や方位検出機能で検出された視界の方位の情報は、例えばサーバ内に設けられた地図情報や施設情報等からなる空間データベース内の情報と照合されることにより、注視対象の推測が可能となり、より注視対象を正確に特定することができるため、眼鏡型表示装置に送信される関連情報の内容の精度が高まる。また、現在位置の情報や方位検出機能で検出された視界の方位の情報は、前述の視界の画像情報、視線方向の検出結果及び眼鏡型表示装置1の姿勢変化の検出結果とともに、注視対象の特定に用いることにより、注視対象をより一層正確に特定することができるようになる。   In the glasses-type display device 1 according to the present embodiment, a GPS function for acquiring information on the current position of the glasses-type display device 1 and an orientation detection function for detecting the orientation of the field of view as viewed by the user. It may be provided. Information on the current position acquired by the GPS function and information on the azimuth of the field of view detected by the azimuth detection function are collated with information in a spatial database including map information, facility information, etc. provided in the server, for example. As a result, the gaze target can be estimated, and the gaze target can be more accurately specified. Therefore, the accuracy of the content of the related information transmitted to the glasses-type display device is increased. In addition, the current position information and the visual field direction information detected by the direction detection function include the above-described visual field image information, the detection result of the visual line direction, and the detection result of the posture change of the eyeglass-type display device 1. By using it for identification, it becomes possible to identify the gaze target more accurately.

図19は、前述の視線検知部24とともに、GPS受信部26と方位検出部27とを更に備えた眼鏡型表示装置1の機能ブロック図である。GPS受信部26は、GPS衛星からのGPS信号を受信して眼鏡型表示装置1が位置する現在位置の情報(緯度、経度、高度)を取得する現在位置取得手段として機能する。また、方位検出部27は、例えば1軸、2軸又は3軸の地磁気センサで構成され、眼鏡型表示装置1を装着した利用者が見ている前方視界がどの方位(北、北東、・・・)であるかを検出する方位検出手段として機能する。   FIG. 19 is a functional block diagram of the eyeglass-type display device 1 further including a GPS receiving unit 26 and an azimuth detecting unit 27 in addition to the line-of-sight detection unit 24 described above. The GPS receiver 26 functions as a current position acquisition unit that receives a GPS signal from a GPS satellite and acquires information (latitude, longitude, altitude) of the current position where the glasses-type display device 1 is located. In addition, the direction detection unit 27 is configured by, for example, a uniaxial, biaxial, or triaxial geomagnetic sensor, and which direction (north, northeast,... It functions as an azimuth detecting means for detecting whether or not

図19の構成の眼鏡型表示装置1において、GPS受信部26で取得された現在位置情報、方位検出部27で取得された方位情報、及び姿勢変化検出部28で取得された姿勢変化や重力方向の情報は、注視対象の画像の画像データとともに、前述の情報提供サーバに送信してもよい。この場合は、画像だけでは特定することが難しい店舗や観光施設についても、注視対象をより正確に特定することができる。また、上記現在位置情報、方位情報、及び、動きや重力方向の情報は、前述のルートナビモードの眼鏡型表示装置1を装着して市街地を歩いたり道路を走行している場合に、ナビゲーション支援サーバに送信してもよい。この場合は、目的地までのルート案内や地図等についてより正確な情報を取得することができる。そして、ナビゲーション支援サーバから受信したルート案内や地図等の情報に基づいて、メガネレンズ5Rを通して見える前方視界にルート案内のナビゲーション用の矢印を重ねて表示して、目的地までの道案内をすることが可能になる。   In the glasses-type display device 1 having the configuration of FIG. 19, the current position information acquired by the GPS receiving unit 26, the azimuth information acquired by the azimuth detecting unit 27, and the posture change and gravity direction acquired by the posture change detecting unit 28. This information may be transmitted together with the image data of the gaze target image to the information providing server. In this case, it is possible to more accurately identify the gaze target even for stores and tourist facilities that are difficult to identify with images alone. The current position information, azimuth information, and information on the direction of movement and gravity are used for navigation support when the eyeglass-type display device 1 in the route navigation mode is attached and the user walks on a city street or travels on a road. It may be sent to the server. In this case, more accurate information about route guidance to a destination, a map, and the like can be acquired. Then, based on information such as route guidance and a map received from the navigation support server, a route guidance navigation arrow is overlapped and displayed in the front field of view through the spectacle lens 5R to guide the route to the destination. Is possible.

また、上記実施形態において、注視対象距離検出手段としての注視対象距離検出部10は、水晶体の厚みを検出する方式を用いて注視対象距離を検出したが、両眼の輻輳の度合いから注視対象距離を検出することもできる。   In the above embodiment, the gaze target distance detection unit 10 serving as the gaze target distance detection unit detects the gaze target distance using a method of detecting the thickness of the crystalline lens. However, the gaze target distance is determined based on the degree of convergence of both eyes. Can also be detected.

図20は、両眼の輻輳で注視対象までの距離を検出する方式の説明図である。この方式は、遠くを見るときは両眼の視軸が平行であるが、近くを見るときは両眼が互いに内側に寄り(輻輳)、瞳の中心間距離が狭くなることを利用したものである。図20において、あらかじめ、無限遠を見ているときの両眼100R,Lの瞳中心間距離W1と、例えば50センチメートル前方の近くを見ているときの瞳中心間距離W2とを測定してメモリ15に記憶しておく。注視対象までの距離と瞳中心間距離とは略比例関係にあるので、比例定数を算出しておくことにより、瞳中心間距離の変位に基づいて注視対象までの距離を算出することができる。   FIG. 20 is an explanatory diagram of a method for detecting a distance to a gaze target based on convergence of both eyes. This method utilizes the fact that the visual axes of both eyes are parallel when looking far, but the eyes are closer to each other (convergence) and the distance between the centers of the pupils is narrower when looking closer. is there. In FIG. 20, the distance W1 between the pupil centers of both eyes 100R and 100L when looking at infinity and the distance W2 between the pupil centers when looking near the front of 50 centimeters, for example, are measured in advance. Stored in the memory 15. Since the distance to the gaze target and the distance between the pupil centers are substantially proportional, the distance to the gaze target can be calculated based on the displacement of the distance between the pupil centers by calculating the proportionality constant.

また、上記実施形態において、上記注視対象距離を検出する注視対象距離検出手段としては、注視対象に赤外線、超音波又はレーザ光などを照射し、その反射波が戻るまでの時間や照射角度により距離を検出するアクティブ方式の測距法を用いてもよいし、レンズで捉えた画像を利用して測距を行うパッシブ方式の測距法を用いてもよい。   In the above embodiment, the gaze target distance detecting means for detecting the gaze target distance irradiates the gaze target with infrared rays, ultrasonic waves, laser light, or the like, and the distance depending on the time or irradiation angle until the reflected wave returns. An active distance measuring method for detecting the image may be used, or a passive distance measuring method for performing distance measurement using an image captured by a lens may be used.

以上、本実施形態によれば、視界同調カメラ9で撮像された視界における利用者の視線方向を検出するとともに、姿勢変化検出部28で検出された眼鏡型表示装置1の姿勢変化の検出結果に基づいて、利用者の視線方向を速やかに補正することができる。これにより、視界撮像手段で撮像された視界画像内で利用者が注視している注視対象を特定するときの精度を高めることができるとともに、その注視対象に関連した関連情報をより確実に且つリアルタイムに表示することができる。
また、本実施形態によれば、特許文献1に記載されている眼鏡装置とは異なり、人物の顔に限定されることなく、利用者の視界内にある任意の対象について、その対象を注視するという簡単な動作により、注意対象を特定して関連情報を周囲に気付かれることなく確認することができる。また、本実施形態によれば、特許文献1の眼鏡装置では必須になっている視線検出前の前処理(撮像手段で撮影した画像から人物の顔を検出する処理)を行う必要もない。
また、本実施形態によれば、前方視界の中の注視対象とその前方視界に重ねて表示する情報とを一緒に見る場合に違和感が生じることなく眼の疲労の増加も抑えることができる。
As described above, according to the present embodiment, the user's line-of-sight direction in the field of view captured by the field-of-view tuning camera 9 is detected, and the detection result of the posture change of the glasses-type display device 1 detected by the posture change detection unit 28 is obtained. Based on this, the user's line-of-sight direction can be quickly corrected. Thereby, it is possible to improve the accuracy when specifying the gaze target that the user is gazing in the visual field image captured by the visual field imaging means, and more reliably and in real time related information related to the gaze target. Can be displayed.
In addition, according to the present embodiment, unlike the eyeglass device described in Patent Document 1, the object is not limited to the face of a person, and an arbitrary object in the user's field of view is watched. With this simple operation, it is possible to identify a target object and confirm related information without being noticed by the surroundings. Further, according to the present embodiment, it is not necessary to perform pre-processing before eye-gaze detection (processing for detecting a person's face from an image taken by an imaging unit), which is essential in the eyeglass device of Patent Document 1.
Further, according to the present embodiment, it is possible to suppress an increase in eye fatigue without causing a sense of incongruity when viewing a gaze target in the front field of view and information to be displayed superimposed on the front field of view together.

なお、上記実施形態では、網膜走査型の画像表示方式やコンバイナ光学系を用いた画像表示方式の構成について説明したが、この方式に限られるものではなく、他の画像表示方式を採用してもよい。   In the above embodiment, the configuration of the retinal scanning image display method and the image display method using the combiner optical system has been described. However, the present invention is not limited to this method, and other image display methods may be adopted. Good.

1 眼鏡型表示装置
2 リム
8 電源スイッチ
9 視界同調カメラ
10 注視対象距離検出部
11 画像生成部
12 画像表示部
13 表示制御部
14 制御部
15 メモリ
16 バッテリ
18 携帯通信端末
19 移動体通信網
20 インターネット通信網
21 画像分析サーバ
22 情報提供サーバ
24 視線検知部
25 通信部
28 姿勢変化検出部
130 焦点距離調整部
DESCRIPTION OF SYMBOLS 1 Glasses type display apparatus 2 Rim 8 Power switch 9 Field of view tuned camera 10 Gaze target distance detection part 11 Image generation part 12 Image display part 13 Display control part 14 Control part 15 Memory 16 Battery 18 Portable communication terminal 19 Mobile communication network 20 Internet Communication network 21 Image analysis server 22 Information providing server 24 Gaze detection unit 25 Communication unit 28 Attitude change detection unit 130 Focal length adjustment unit

特開2010−061265号公報JP 2010-061265 A

Claims (10)

視界内に情報を重ねて表示可能な眼鏡型表示装置であって、
視界を撮像する視界撮像手段と、
前記視界における利用者の視線方向を検出する視線方向検出手段と、
前記眼鏡型表示装置の姿勢変化を検出する姿勢変化検出手段と、
前記視界撮像手段で撮像された視界の画像情報と、前記視線方向検出手段で検出された視線方向の検出結果と、前記姿勢変化検出手段で検出された姿勢変化の検出結果とに基づいて、前記視界内において前記利用者が注視している注視対象を特定する注視対象特定手段と、
前記注視対象特定手段で特定された注視対象に関連した関連情報を取得する関連情報取得手段と、
前記関連情報取得手段で取得された前記関連情報を前記視界内に表示する表示手段と、
を備えたことを特徴とする眼鏡型表示装置。
A glasses-type display device capable of displaying information in a field of view,
A visual field imaging means for imaging the visual field;
Gaze direction detection means for detecting the gaze direction of the user in the field of view;
Attitude change detection means for detecting an attitude change of the glasses-type display device;
Based on the visual field image information captured by the visual field imaging unit, the detection result of the visual line direction detected by the visual line direction detection unit, and the detection result of the posture change detected by the posture change detection unit, Gaze target identifying means for identifying a gaze target that the user is gazing in the field of view;
Related information acquisition means for acquiring related information related to the gaze target identified by the gaze target identification means;
Display means for displaying the related information acquired by the related information acquiring means in the field of view;
An eyeglass-type display device comprising:
請求項1の眼鏡型表示装置において、
前記視線方向検出手段は、前記利用者の眼を撮像する利用者撮像手段を有し、前記利用者撮像手段で撮像された前記利用者の眼の画像に基づいて前記利用者の視線方向を検出することを特徴とする眼鏡型表示装置。
The eyeglass-type display device according to claim 1,
The line-of-sight direction detection means includes user image pickup means for picking up an image of the user's eyes, and detects the user's line-of-sight direction based on an image of the user's eyes picked up by the user image pickup means. An eyeglass-type display device.
請求項1又は2の眼鏡型表示装置において、
前記視界撮像手段の撮像方向を変化させる撮像方向可変手段と、
前記視線方向検出手段の検出結果及び前記姿勢変化検出手段の検出結果の少なくとも一方に基づいて、前記利用者の視線方向に前記視界撮像手段の撮像方向が向くように前記撮像方向可変手段を制御する撮像制御手段と、
を更に備えたことを特徴とする眼鏡型表示装置。
The glasses-type display device according to claim 1 or 2,
An imaging direction variable means for changing an imaging direction of the visual field imaging means;
Based on at least one of the detection result of the line-of-sight direction detection unit and the detection result of the posture change detection unit, the imaging direction variable unit is controlled so that the imaging direction of the visual field imaging unit is directed to the line-of-sight direction of the user. Imaging control means;
An eyeglass-type display device further comprising:
請求項1乃至3のいずれかの眼鏡型表示装置において、
前記視界の方位を検出する方位検出手段と、当該眼鏡型表示装置の現在位置情報を取得する現在位置情報取得手段とを、更に備え、
前記注視対象特定手段は、前記注視対象の特定に、前記方位の検出結果及び前記現在位置情報の少なくとも一方を更に用いることを特徴とする眼鏡型表示装置。
The glasses-type display device according to any one of claims 1 to 3,
Azimuth detection means for detecting the azimuth of the field of view, and current position information acquisition means for acquiring current position information of the glasses-type display device,
The eyeglass-type display device, wherein the gaze target specifying unit further uses at least one of the detection result of the orientation and the current position information for specifying the gaze target.
請求項1乃至4のいずれかの眼鏡型表示装置において、
前記視界撮像手段で撮像された前記視界の画像情報、前記視線方向検出手段の検出結果、及び前記姿勢変化検出手段の検出結果の少なくとも一つに基づいて、前記視界における前記注視対象の位置と前記関連情報の表示位置とが所定の位置関係になるように前記関連情報の表示位置を制御する表示制御手段を、更に備えたことを特徴とする眼鏡型表示装置。
The glasses-type display device according to any one of claims 1 to 4,
Based on at least one of the image information of the field of view captured by the field-of-view imaging unit, the detection result of the line-of-sight direction detection unit, and the detection result of the posture change detection unit, the position of the gaze target in the field of view and the An eyeglass-type display device, further comprising display control means for controlling the display position of the related information so that the display position of the related information has a predetermined positional relationship.
請求項1乃至4のいずれかの眼鏡型表示装置において、
前記視界における前記注視対象の位置と前記関連情報の表示位置とのずれが所定範囲よりも大きくなった場合は、前記関連情報の表示を停止するように制御する表示制御手段を、更に備えたことを特徴とする眼鏡型表示装置。
The glasses-type display device according to any one of claims 1 to 4,
And further comprising display control means for controlling the display of the related information to stop when the shift between the position of the gaze target in the field of view and the display position of the related information is larger than a predetermined range. An eyeglass-type display device.
請求項1乃至4のいずれかの眼鏡型表示装置において、
前記視界における前記注視対象と前記利用者の眼との間の注視対象距離を検出する注視対象距離検出手段を、更に備え、
前記注視対象距離検出手段の検出結果に基づいて前記関連情報の表示位置を制御する表示制御手段を、更に備えたことを特徴とする眼鏡型表示装置。
The glasses-type display device according to any one of claims 1 to 4,
Gaze target distance detection means for detecting a gaze target distance between the gaze target and the user's eyes in the field of view;
An eyeglass-type display device further comprising display control means for controlling a display position of the related information based on a detection result of the gaze target distance detection means.
請求項1乃至7のいずれかの眼鏡型表示装置において、
近距離無線通信により、前記注視対象に備えられた記憶媒体に保存されている情報を受信して取得する手段を更に備えたことを特徴とする眼鏡型表示装置。
The eyeglass-type display device according to any one of claims 1 to 7,
An eyeglass-type display device further comprising means for receiving and acquiring information stored in a storage medium provided for the gaze target by short-range wireless communication.
請求項1乃至8のいずれかの眼鏡型表示装置において、
通信ネットワークを介してサーバと通信するための通信手段を、更に備え、
前記関連情報取得手段は、前記注視対象の画像情報、前記注視対象の特徴抽出情報、及び前記注視対象に備えられた記憶媒体から取得された情報の少なくとも一つの情報を前記サーバに送信し、前記サーバで検索された前記注視対象に関連した関連情報を前記サーバから受信して取得することを特徴とする眼鏡型表示装置。
The eyeglass-type display device according to any one of claims 1 to 8,
A communication means for communicating with the server via the communication network;
The related information acquisition means transmits at least one information of the image information of the gaze target, the feature extraction information of the gaze target, and the information acquired from the storage medium provided in the gaze target to the server, A glasses-type display device that receives and acquires related information related to the gaze target searched by a server from the server.
請求項9の眼鏡型表示装置と通信ネットワークを介して通信可能なサーバであって、
前記注視対象の画像情報、前記注視対象の特徴抽出情報、及び前記注視対象に備えられた記憶媒体から取得された情報の少なくとも一つの情報を、前記眼鏡型表示装置から受信する情報受信手段と、
前記眼鏡型表示装置から受信した情報に基づいて、前記注視対象を特定し、その特定した注視対象に関連した関連情報を検索する検索手段と、
前記検索手段で検索された前記注視対象に関連した関連情報を前記眼鏡型表示装置に送信する情報送信手段と、
を備えたことを特徴とするサーバ。
A server capable of communicating with the glasses-type display device according to claim 9 via a communication network,
Information receiving means for receiving at least one of the image information of the gaze target, the feature extraction information of the gaze target, and the information acquired from the storage medium provided in the gaze target from the glasses-type display device;
Search means for identifying the gaze target based on information received from the glasses-type display device, and searching for related information related to the identified gaze target;
Information transmission means for transmitting related information related to the gaze target searched by the search means to the glasses-type display device;
A server characterized by comprising:
JP2010143232A 2010-06-23 2010-06-23 Eyeglass type display device Active JP5651386B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010143232A JP5651386B2 (en) 2010-06-23 2010-06-23 Eyeglass type display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010143232A JP5651386B2 (en) 2010-06-23 2010-06-23 Eyeglass type display device

Publications (2)

Publication Number Publication Date
JP2012008290A true JP2012008290A (en) 2012-01-12
JP5651386B2 JP5651386B2 (en) 2015-01-14

Family

ID=45538927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010143232A Active JP5651386B2 (en) 2010-06-23 2010-06-23 Eyeglass type display device

Country Status (1)

Country Link
JP (1) JP5651386B2 (en)

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014060482A (en) * 2012-09-14 2014-04-03 Ntt Docomo Inc Information processing apparatus and information processing method
EP2728846A1 (en) 2012-11-06 2014-05-07 Konica Minolta, Inc. Guidance information display device
JP2014093034A (en) * 2012-11-06 2014-05-19 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
CN103926694A (en) * 2013-01-15 2014-07-16 精工爱普生株式会社 Head-mounted display device, control method for head-mounted display device, and image display system
WO2014128752A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Display control device, display control program, and display control method
JP2014191386A (en) * 2013-03-26 2014-10-06 Seiko Epson Corp Head-mounted display device and method of controlling the same
KR101467529B1 (en) * 2012-09-19 2014-12-05 유남구 Wearable system for providing information
KR20150001425A (en) * 2013-06-27 2015-01-06 엘지전자 주식회사 Head mount display apparatus and method for operating the same
JP2015011494A (en) * 2013-06-28 2015-01-19 オリンパス株式会社 Information presentation system and method for controlling information presentation system
JP2015019273A (en) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 Head-mounted display device and control method therefor
WO2015037417A1 (en) * 2013-09-10 2015-03-19 株式会社テレパシーホールディングス Head-mounted display capable of adjusting image viewing distance
WO2015049950A1 (en) * 2013-10-04 2015-04-09 コニカミノルタ株式会社 Display device and video display method
JP2015077876A (en) * 2013-10-16 2015-04-23 株式会社デンソー Head-up display device
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2015156201A (en) * 2014-01-17 2015-08-27 カシオ計算機株式会社 Electronic apparatus and system, method, and program
KR101549031B1 (en) 2014-04-11 2015-09-02 서울시립대학교 산학협력단 Apparatuses, methods and recording medium for providing pointing function
JP2015177404A (en) * 2014-03-17 2015-10-05 セイコーエプソン株式会社 Head-mounted display device and control method therefor
WO2015163529A1 (en) * 2014-04-23 2015-10-29 Lg Electronics Inc. Head mounted display device displaying thumbnail image and method of controlling therefor
WO2015163539A1 (en) * 2014-04-24 2015-10-29 Lg Electronics Inc. Head mounted display and method for controlling the same
WO2015178535A1 (en) * 2014-05-19 2015-11-26 Lg Electronics Inc. Wearable device displaying thumbnail image and method of controlling the same
JP2016009083A (en) * 2014-06-24 2016-01-18 旭化成イーマテリアルズ株式会社 Optical device having spectacle lens, spectacles using the same, and spectacle type display device
JP2016009056A (en) * 2014-06-24 2016-01-18 セイコーエプソン株式会社 Head-mounted type display device, control method of the same and computer program
JP2016041562A (en) * 2014-08-19 2016-03-31 株式会社デンソー Vehicle information presentation method, vehicle information presentation system, and in-vehicle device
JP2016509705A (en) * 2012-12-19 2016-03-31 クアルコム,インコーポレイテッド Enable augmented reality using eye tracking
JP2016085634A (en) * 2014-10-27 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, and program
WO2016080042A1 (en) * 2014-11-19 2016-05-26 シャープ株式会社 Eyeball movement detection device
JP2016096513A (en) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム Information processing system, information processing method, and program
WO2016114130A1 (en) * 2015-01-13 2016-07-21 Ricoh Company, Ltd. Head-mounted display apparatus, and display method
US9423620B2 (en) 2014-04-24 2016-08-23 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2016163136A (en) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 Display device and control method for display device
JP2016536687A (en) * 2013-11-08 2016-11-24 クアルコム,インコーポレイテッド Face tracking for additional modalities in spatial dialogue
JP2016206617A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Display system
JP2016218981A (en) * 2015-05-26 2016-12-22 ソニー株式会社 Display device, information processing system, and control method
JP2017502570A (en) * 2013-12-03 2017-01-19 ノキア テクノロジーズ オーユー Displaying information on the head mounted display
JP2017076970A (en) * 2014-01-17 2017-04-20 カシオ計算機株式会社 system
JP2017151672A (en) * 2016-02-24 2017-08-31 株式会社ミツトヨ Pointing device operated with eye, and measurement system utilizing the same
JP2017199954A (en) * 2016-04-25 2017-11-02 セイコーエプソン株式会社 Head-mounted display device, display system, control method of head-mounted display device, and computer program
US10025103B2 (en) 2012-10-24 2018-07-17 Olympus Corporation Eyeglass-type wearable device and front part of eyglass-type wearable device
WO2018216221A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
WO2018216220A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
JP2019511148A (en) * 2016-02-04 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. Techniques for pointing audio in augmented reality systems
US10288888B2 (en) 2012-05-21 2019-05-14 Olympus Corporation Eyeglass-type wearable device, and front part and temple part of eyeglass-type wearable device
US10339896B2 (en) 2015-01-13 2019-07-02 Ricoh Company, Ltd. Head-mounted display apparatus, and display method
KR20190102536A (en) * 2018-02-26 2019-09-04 엘지전자 주식회사 Wearable glass device
CN110832438A (en) * 2017-06-28 2020-02-21 株式会社OPTiM Wearable terminal display system, wearable terminal display method, and program
KR102097390B1 (en) * 2019-10-10 2020-04-06 주식회사 메디씽큐 Smart glasses display device based on eye tracking
JP2020123396A (en) * 2016-02-24 2020-08-13 株式会社ミツトヨ Eye pointing system operated by eyes
JP2021525036A (en) * 2018-06-06 2021-09-16 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. Smart glasses, eye trajectory tracking methods, devices and storage media
JP2021141589A (en) * 2019-12-09 2021-09-16 株式会社東芝 Wearable terminal, system, and display method
JP2021532681A (en) * 2018-07-30 2021-11-25 アップル インコーポレイテッドApple Inc. Electronic device system with auxiliary lens
US11194543B2 (en) 2017-02-28 2021-12-07 Magic Leap, Inc. Virtual and real object recording in mixed reality device
WO2021256520A1 (en) * 2020-06-17 2021-12-23 株式会社Nttドコモ Head-mounted display
US20220068034A1 (en) * 2013-03-04 2022-03-03 Alex C. Chen Method and Apparatus for Recognizing Behavior and Providing Information
KR20220082641A (en) * 2020-12-10 2022-06-17 주식회사 레티널 Optical apparatus for augmented reality having functions for adjusting depth of virtual image
US11428944B2 (en) 2015-09-01 2022-08-30 Kabushiki Kaisha Toshiba Wearable device and method for visual image adjustment
JP2022132656A (en) * 2019-12-09 2022-09-08 株式会社東芝 Wearable terminal, system, and display method
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
US11606876B2 (en) 2016-05-19 2023-03-14 Cimcon Lighting, Inc. Configurable data center platform

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884280A (en) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd Head mount type video camera
JPH09274144A (en) * 1996-04-02 1997-10-21 Canon Inc Image display device
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2000101898A (en) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd Electronic camera
JP2001281520A (en) * 2000-03-30 2001-10-10 Minolta Co Ltd Optical device
JP2001285676A (en) * 2000-03-30 2001-10-12 Minolta Co Ltd Display device
JP2004219664A (en) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd Information display system and information display method
JP2006059136A (en) * 2004-08-20 2006-03-02 Seiko Epson Corp Viewer apparatus and its program
JP2008096868A (en) * 2006-10-16 2008-04-24 Sony Corp Imaging display device, and imaging display method
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2009288529A (en) * 2008-05-29 2009-12-10 Keio Gijuku Visual field area extracting device, image display device, visual field area extracting method, image display method, visual field area extracting program and image display program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010238096A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, augmented reality system and terminal screen display method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0884280A (en) * 1994-09-12 1996-03-26 Sanyo Electric Co Ltd Head mount type video camera
JPH09274144A (en) * 1996-04-02 1997-10-21 Canon Inc Image display device
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2000101898A (en) * 1998-09-21 2000-04-07 Fuji Photo Film Co Ltd Electronic camera
JP2001281520A (en) * 2000-03-30 2001-10-10 Minolta Co Ltd Optical device
JP2001285676A (en) * 2000-03-30 2001-10-12 Minolta Co Ltd Display device
JP2004219664A (en) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd Information display system and information display method
JP2006059136A (en) * 2004-08-20 2006-03-02 Seiko Epson Corp Viewer apparatus and its program
JP2008096868A (en) * 2006-10-16 2008-04-24 Sony Corp Imaging display device, and imaging display method
JP2008096867A (en) * 2006-10-16 2008-04-24 Sony Corp Display device, and display method
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2009288529A (en) * 2008-05-29 2009-12-10 Keio Gijuku Visual field area extracting device, image display device, visual field area extracting method, image display method, visual field area extracting program and image display program
JP2010061265A (en) * 2008-09-02 2010-03-18 Fujifilm Corp Person retrieval and registration system
JP2010238096A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, augmented reality system and terminal screen display method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
天目隆平、神原誠之、横矢直和: "「拡張現実感技術を用いたウェアラブル型注釈提示システム」", 電子情報通信学会2002年総合大会講演論文集 基礎・境界, JPN6014002510, 7 March 2002 (2002-03-07), pages 366, ISSN: 0002730297 *
宮下広夢、林雅樹、岡田謙一: "「両眼式HMDのための動作と視線を用いた映像視野移動方法」", 日本バーチャルリアリティ学会論文誌, vol. 第14巻第2号, JPN6014002507, June 2009 (2009-06-01), pages 177 - 184, ISSN: 0002730296 *
山崎洋一: "「拡張現実(AR) 風景の中に便利な情報が出現 "世界をメガネ越しに見る"時代に」", 日経NETWORK, vol. 第105号, JPN6014002516, 28 December 2008 (2008-12-28), pages 24 - 25, ISSN: 0002730298 *
武部健一: "「拡張現実(AR) "現実"とデジタル情報を融合 携帯電話に新サービスもたらす」", 日経コミュニケーション, vol. 第521号, JPN6014002520, 1 November 2008 (2008-11-01), pages 46 - 51, ISSN: 0002934243 *

Cited By (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10288888B2 (en) 2012-05-21 2019-05-14 Olympus Corporation Eyeglass-type wearable device, and front part and temple part of eyeglass-type wearable device
JP2014060482A (en) * 2012-09-14 2014-04-03 Ntt Docomo Inc Information processing apparatus and information processing method
KR101467529B1 (en) * 2012-09-19 2014-12-05 유남구 Wearable system for providing information
US10025103B2 (en) 2012-10-24 2018-07-17 Olympus Corporation Eyeglass-type wearable device and front part of eyglass-type wearable device
EP2728846A1 (en) 2012-11-06 2014-05-07 Konica Minolta, Inc. Guidance information display device
JP2014093034A (en) * 2012-11-06 2014-05-19 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
CN103813044A (en) * 2012-11-06 2014-05-21 柯尼卡美能达株式会社 Guidance information display device
US9760168B2 (en) 2012-11-06 2017-09-12 Konica Minolta, Inc. Guidance information display device
US10474233B2 (en) 2012-12-19 2019-11-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP2016509705A (en) * 2012-12-19 2016-03-31 クアルコム,インコーポレイテッド Enable augmented reality using eye tracking
US11079841B2 (en) 2012-12-19 2021-08-03 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
JP2014137396A (en) * 2013-01-15 2014-07-28 Seiko Epson Corp Head-mounted type display device, head-mounted type display device control method and image display system
CN103926694A (en) * 2013-01-15 2014-07-16 精工爱普生株式会社 Head-mounted display device, control method for head-mounted display device, and image display system
JPWO2014128752A1 (en) * 2013-02-19 2017-02-02 株式会社ブリリアントサービス Display control device, display control program, and display control method
WO2014128752A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Display control device, display control program, and display control method
US9933853B2 (en) 2013-02-19 2018-04-03 Mirama Service Inc Display control device, display control program, and display control method
US20220068034A1 (en) * 2013-03-04 2022-03-03 Alex C. Chen Method and Apparatus for Recognizing Behavior and Providing Information
JP2014191386A (en) * 2013-03-26 2014-10-06 Seiko Epson Corp Head-mounted display device and method of controlling the same
KR102155001B1 (en) * 2013-06-27 2020-09-11 엘지전자 주식회사 Head mount display apparatus and method for operating the same
KR20150001425A (en) * 2013-06-27 2015-01-06 엘지전자 주식회사 Head mount display apparatus and method for operating the same
US9779549B2 (en) 2013-06-28 2017-10-03 Olympus Corporation Information presentation system and method for controlling information presentation system
JP2015011494A (en) * 2013-06-28 2015-01-19 オリンパス株式会社 Information presentation system and method for controlling information presentation system
JP2015019273A (en) * 2013-07-11 2015-01-29 セイコーエプソン株式会社 Head-mounted display device and control method therefor
WO2015037417A1 (en) * 2013-09-10 2015-03-19 株式会社テレパシーホールディングス Head-mounted display capable of adjusting image viewing distance
WO2015049950A1 (en) * 2013-10-04 2015-04-09 コニカミノルタ株式会社 Display device and video display method
JP2015077876A (en) * 2013-10-16 2015-04-23 株式会社デンソー Head-up display device
JP2016536687A (en) * 2013-11-08 2016-11-24 クアルコム,インコーポレイテッド Face tracking for additional modalities in spatial dialogue
JP2017502570A (en) * 2013-12-03 2017-01-19 ノキア テクノロジーズ オーユー Displaying information on the head mounted display
WO2015107625A1 (en) * 2014-01-15 2015-07-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
CN105874528A (en) * 2014-01-15 2016-08-17 日立麦克赛尔株式会社 Information display terminal, information display system, and information display method
US10386637B2 (en) 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
US10656424B2 (en) 2014-01-15 2020-05-19 Maxell, Ltd. Information display terminal, information display system, and information display method
CN105874528B (en) * 2014-01-15 2018-07-20 麦克赛尔株式会社 Message Display Terminal, information display system and method for information display
JPWO2015107625A1 (en) * 2014-01-15 2017-03-23 日立マクセル株式会社 Information display terminal, information display system, and information display method
JP2017076970A (en) * 2014-01-17 2017-04-20 カシオ計算機株式会社 system
JP2015156201A (en) * 2014-01-17 2015-08-27 カシオ計算機株式会社 Electronic apparatus and system, method, and program
US9678568B2 (en) 2014-01-17 2017-06-13 Casio Computer Co., Ltd. Apparatus, system, method for designating displayed items and for controlling operation by detecting movement
JP2015141686A (en) * 2014-01-30 2015-08-03 株式会社リコー Pointing device, information processing device, information processing system, and method for controlling pointing device
JP2015177404A (en) * 2014-03-17 2015-10-05 セイコーエプソン株式会社 Head-mounted display device and control method therefor
KR101549031B1 (en) 2014-04-11 2015-09-02 서울시립대학교 산학협력단 Apparatuses, methods and recording medium for providing pointing function
WO2015163529A1 (en) * 2014-04-23 2015-10-29 Lg Electronics Inc. Head mounted display device displaying thumbnail image and method of controlling therefor
WO2015163539A1 (en) * 2014-04-24 2015-10-29 Lg Electronics Inc. Head mounted display and method for controlling the same
US9423620B2 (en) 2014-04-24 2016-08-23 Lg Electronics Inc. Head mounted display and method for controlling the same
US9632314B2 (en) 2014-05-19 2017-04-25 Lg Electronics Inc. Head mounted display device displaying thumbnail image and method of controlling the same
WO2015178535A1 (en) * 2014-05-19 2015-11-26 Lg Electronics Inc. Wearable device displaying thumbnail image and method of controlling the same
KR20150132923A (en) * 2014-05-19 2015-11-27 엘지전자 주식회사 The Apparatus and Method for Head Mounted Display Device displaying Thumbnail image
KR102257621B1 (en) 2014-05-19 2021-05-28 엘지전자 주식회사 The Apparatus and Method for Head Mounted Display Device displaying Thumbnail image
EP3146380A4 (en) * 2014-05-19 2018-02-21 LG Electronics Inc. Wearable device displaying thumbnail image and method of controlling the same
JP2016009083A (en) * 2014-06-24 2016-01-18 旭化成イーマテリアルズ株式会社 Optical device having spectacle lens, spectacles using the same, and spectacle type display device
JP2016009056A (en) * 2014-06-24 2016-01-18 セイコーエプソン株式会社 Head-mounted type display device, control method of the same and computer program
JP2016041562A (en) * 2014-08-19 2016-03-31 株式会社デンソー Vehicle information presentation method, vehicle information presentation system, and in-vehicle device
JP2016085634A (en) * 2014-10-27 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, and program
JP2016096513A (en) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム Information processing system, information processing method, and program
CN107072524A (en) * 2014-11-19 2017-08-18 夏普株式会社 Eye movement detection means
JPWO2016080042A1 (en) * 2014-11-19 2017-06-01 シャープ株式会社 Eye movement detection device
WO2016080042A1 (en) * 2014-11-19 2016-05-26 シャープ株式会社 Eyeball movement detection device
WO2016114130A1 (en) * 2015-01-13 2016-07-21 Ricoh Company, Ltd. Head-mounted display apparatus, and display method
US10339896B2 (en) 2015-01-13 2019-07-02 Ricoh Company, Ltd. Head-mounted display apparatus, and display method
JP2016163136A (en) * 2015-02-27 2016-09-05 セイコーエプソン株式会社 Display device and control method for display device
JP2016206617A (en) * 2015-04-28 2016-12-08 京セラドキュメントソリューションズ株式会社 Display system
US10025382B2 (en) 2015-04-28 2018-07-17 Kyocera Document Solutions Inc. Display system and head mounted display
JP2016218981A (en) * 2015-05-26 2016-12-22 ソニー株式会社 Display device, information processing system, and control method
US11428944B2 (en) 2015-09-01 2022-08-30 Kabushiki Kaisha Toshiba Wearable device and method for visual image adjustment
US11789279B2 (en) 2015-09-01 2023-10-17 Kabushiki Kaisha Toshiba System and method for virtual image adjustment
US11812222B2 (en) 2016-02-04 2023-11-07 Magic Leap, Inc. Technique for directing audio in augmented reality system
JP2020092448A (en) * 2016-02-04 2020-06-11 マジック リープ, インコーポレイテッドMagic Leap,Inc. Technique for directing audio in augmented reality system
JP2019511148A (en) * 2016-02-04 2019-04-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. Techniques for pointing audio in augmented reality systems
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
JP2020123396A (en) * 2016-02-24 2020-08-13 株式会社ミツトヨ Eye pointing system operated by eyes
JP2017151672A (en) * 2016-02-24 2017-08-31 株式会社ミツトヨ Pointing device operated with eye, and measurement system utilizing the same
JP2017199954A (en) * 2016-04-25 2017-11-02 セイコーエプソン株式会社 Head-mounted display device, display system, control method of head-mounted display device, and computer program
US11606876B2 (en) 2016-05-19 2023-03-14 Cimcon Lighting, Inc. Configurable data center platform
US11669298B2 (en) 2017-02-28 2023-06-06 Magic Leap, Inc. Virtual and real object recording in mixed reality device
US11194543B2 (en) 2017-02-28 2021-12-07 Magic Leap, Inc. Virtual and real object recording in mixed reality device
WO2018216220A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
WO2018216221A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Wearable terminal display system, wearable terminal display method and program
CN110999279A (en) * 2017-05-26 2020-04-10 株式会社OPTiM Wearable terminal display system, wearable terminal display method, and program
CN110832438A (en) * 2017-06-28 2020-02-21 株式会社OPTiM Wearable terminal display system, wearable terminal display method, and program
KR20190102536A (en) * 2018-02-26 2019-09-04 엘지전자 주식회사 Wearable glass device
KR102546994B1 (en) 2018-02-26 2023-06-22 엘지전자 주식회사 Wearable glass device
US11334155B2 (en) 2018-06-06 2022-05-17 Beijing 7Invensun Technology Co., Ltd. Smart glasses, method and device for tracking eyeball trajectory, and storage medium
JP7096369B2 (en) 2018-06-06 2022-07-05 北京七▲しん▼易▲維▼信息技▲術▼有限公司 Smart glasses, eye trajectory tracking methods, devices and storage media
JP2021525036A (en) * 2018-06-06 2021-09-16 北京七▲シン▼易▲維▼信息技▲術▼有限公司Beijing 7Invensun Technology Co.,Ltd. Smart glasses, eye trajectory tracking methods, devices and storage media
JP2021532681A (en) * 2018-07-30 2021-11-25 アップル インコーポレイテッドApple Inc. Electronic device system with auxiliary lens
KR102097390B1 (en) * 2019-10-10 2020-04-06 주식회사 메디씽큐 Smart glasses display device based on eye tracking
CN114615947A (en) * 2019-10-10 2022-06-10 迈迪新球株式会社 Intelligent glasses display device and method based on sight line detection
WO2021071336A1 (en) * 2019-10-10 2021-04-15 주식회사 메디씽큐 Gaze detection-based smart glasses display device
JP2022132656A (en) * 2019-12-09 2022-09-08 株式会社東芝 Wearable terminal, system, and display method
JP7119164B2 (en) 2019-12-09 2022-08-16 株式会社東芝 WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
JP7263603B2 (en) 2019-12-09 2023-04-24 株式会社東芝 WEARABLE TERMINAL, SYSTEM AND DISPLAY METHOD
JP2021141589A (en) * 2019-12-09 2021-09-16 株式会社東芝 Wearable terminal, system, and display method
WO2021256520A1 (en) * 2020-06-17 2021-12-23 株式会社Nttドコモ Head-mounted display
KR102490037B1 (en) * 2020-12-10 2023-01-18 주식회사 레티널 Optical apparatus for augmented reality having functions for adjusting depth of virtual image
KR20220082641A (en) * 2020-12-10 2022-06-17 주식회사 레티널 Optical apparatus for augmented reality having functions for adjusting depth of virtual image

Also Published As

Publication number Publication date
JP5651386B2 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5651386B2 (en) Eyeglass type display device
US10247813B2 (en) Positioning method and positioning system
US10423837B2 (en) Method and apparatus for a wearable computer
US9961335B2 (en) Pickup of objects in three-dimensional display
JP6159264B2 (en) Eyeglass device and method with adjustable field of view
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
US9727790B1 (en) Method and apparatus for a wearable computer with natural user interface
US20140152558A1 (en) Direct hologram manipulation using imu
JP6175945B2 (en) Gaze detection apparatus and gaze detection method
JP6144681B2 (en) Head mounted display with iris scan profiling function
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
CN109983755A (en) The image capture system focused automatically, device and method are tracked based on eyes
KR102056221B1 (en) Method and apparatus For Connecting Devices Using Eye-tracking
KR20160022921A (en) Tracking head movement when wearing mobile device
CN103558909A (en) Interactive projection display method and interactive projection display system
WO2015035823A1 (en) Image collection with increased accuracy
CN103782131A (en) Measuring device that can be operated without contact and control method for such a measuring device
KR20170135762A (en) Gaze detection system
CN114503011A (en) Compact retinal scanning device that tracks the movement of the pupil of the eye and uses thereof
JP2012008745A (en) User interface device and electronic apparatus
CN105431765A (en) Focal length adjustment
KR20220088678A (en) Apparatus and method for mapping a visual scene to a projection plane
US11450113B1 (en) Method and apparatus for a wearable computer
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP2017092628A (en) Display device and display device control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5651386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250