JP2017229088A - Head-mounted display unit and control method therefor - Google Patents

Head-mounted display unit and control method therefor Download PDF

Info

Publication number
JP2017229088A
JP2017229088A JP2017162919A JP2017162919A JP2017229088A JP 2017229088 A JP2017229088 A JP 2017229088A JP 2017162919 A JP2017162919 A JP 2017162919A JP 2017162919 A JP2017162919 A JP 2017162919A JP 2017229088 A JP2017229088 A JP 2017229088A
Authority
JP
Japan
Prior art keywords
information
image
head
mounted display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017162919A
Other languages
Japanese (ja)
Other versions
JP6409927B2 (en
Inventor
高野 正秀
Masahide Takano
正秀 高野
津田 敦也
Atsuya Tsuda
敦也 津田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017162919A priority Critical patent/JP6409927B2/en
Publication of JP2017229088A publication Critical patent/JP2017229088A/en
Application granted granted Critical
Publication of JP6409927B2 publication Critical patent/JP6409927B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted display unit which enables a user to simultaneously visually identify a real image of an object in a visual field direction and information not appearing at an external appearance of the object without moving a visual line.SOLUTION: A head-mounted display unit, enabling a user to simultaneously visually identify video and an outside scene, includes: a superimposition information generating part for generating superimposition information which is the information for superimposing and displaying invisible information, that is, the information not appearing at an external appearance of an object relative to the object included in an outside scene; and an image display part which causes the user to visibly identify the superimposition information as the video.SELECTED DRAWING: Figure 5

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、HMD))が知られている。HMDは、例えば、液晶ディスプレイと光源とを利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板等を利用して使用者の眼に導くことにより、使用者に虚像を認識させる。   A head-mounted display device (Head Mounted Display (HMD)), which is a display device mounted on the head, is known. The HMD is used, for example, by generating image light representing an image using a liquid crystal display and a light source, and guiding the generated image light to a user's eye using a projection optical system, a light guide plate, or the like. Make a person recognize a virtual image.

特許文献1には、このような頭部装着型表示装置を用いた手術用撮像システムおよび手術用ロボットが記載されている。特許文献1記載の技術では、頭部装着型表示装置の使用者(術者)は、患者の体腔内に挿入された内視鏡による画像を虚像として視認しつつ、手術用マニピュレーターを操作して手術を行う。特許文献2には、医療用顔面装着型映像表示装置(頭部装着型表示装置)が記載されている。特許文献2記載の技術では、頭部装着型表示装置の使用者は、内視鏡画像を視認する場合は視線を水平方向に向けて、本体の正面に配置されたLCDを見る。また、外景を視認する場合は視線を鉛直方向に向けて、本体の下方に配置された観察窓を見る。   Patent Document 1 describes a surgical imaging system and a surgical robot using such a head-mounted display device. In the technique described in Patent Literature 1, a user (operator) of a head-mounted display device operates a manipulator for surgery while visually recognizing an image obtained by an endoscope inserted into a body cavity of a patient as a virtual image. Perform surgery. Patent Document 2 describes a medical face-mounted video display device (head-mounted display device). In the technique described in Patent Document 2, a user of a head-mounted display device looks at an LCD disposed in front of the main body with the line of sight directed horizontally when viewing an endoscopic image. When viewing the outside scene, the user looks at the observation window arranged below the main body with the line of sight in the vertical direction.

特開2012−223363号公報JP 2012-223363 A 特許第3599854号公報Japanese Patent No. 3599854

特許文献1、2に記載された技術では、頭部装着型表示装置の使用者は、手術中において内視鏡画像を視認することができる。しかし、特許文献1に記載された技術では、頭部装着型表示装置の使用者は、手術部位(患者の体)を直接目視することはできないという問題があった。また、特許文献2に記載された技術では、頭部装着型表示装置の使用者は、手術部位を直接目視するために、視線を鉛直方向に向けて移動させる必要があるという問題があった。   With the techniques described in Patent Literatures 1 and 2, a user of the head-mounted display device can visually recognize an endoscopic image during surgery. However, the technique described in Patent Document 1 has a problem that the user of the head-mounted display device cannot directly see the surgical site (patient's body). Further, the technique described in Patent Document 2 has a problem that the user of the head-mounted display device needs to move his / her line of sight in the vertical direction in order to directly observe the surgical site.

なお、このような問題は、内視鏡画像に限らず、例えば、CT(Computed Tomography、コンピューター断層撮影)画像、MRI(Magnetic Resonance Imaging、核磁気共鳴画像法)画像、レントゲン画像等、物体の外観に現れない情報を頭部装着型表示装置の使用者に提供する場合全般に共通する問題であった。さらに、このような問題は、医療用の頭部装着型表示装置に限らず、他の用途に用いられる頭部装着型表示装置(例えば、建設現場で使用されて、使用者に建造物の外観に現れない情報を提供する頭部装着型表示装置)にも共通する問題であった。   Such problems are not limited to endoscopic images, but include, for example, the appearance of objects such as CT (Computed Tomography) images, MRI (Magnetic Resonance Imaging) images, and X-ray images. When providing information that does not appear in the head-mounted display device to the user, it is a common problem. Furthermore, such problems are not limited to medical head-mounted display devices, but are also used for other purposes. The problem is also common to head-mounted display devices that provide information that does not appear in

このため、使用者が視線を移動させることなく、視界方向の物体の実像と、物体の外観に現れない情報とを同時に視認可能な頭部装着型表示装置が望まれていた。   For this reason, there has been a demand for a head-mounted display device that allows a user to simultaneously view a real image of an object in the visual field direction and information that does not appear in the appearance of the object without moving the line of sight.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、使用者が映像と外景を同時に視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記外景に含まれる物体に対して前記物体の外観に現れない情報である不可視情報を重畳表示させるための情報である重畳情報を生成する重畳情報生成部と;前記重畳情報を前記映像として前記使用者に視認させる画像表示部と、を備える。この形態の頭部装着型表示装置によれば、画像表示部は、外景に含まれる物体に対して、前記物体の不可視情報を重畳表示させるための情報である重畳情報を映像として使用者に視認させる。本形態の頭部装着型表示装置は、映像と外景を同時に視認可能な頭部装着型表示装置である。このため、頭部装着型表示装置の使用者は、視線を移動させることなく、視界方向の物体、換言すれば、外景に含まれる物体の実像と、物体の外観に現れない情報(重畳情報)とを同時に視認することができる。 (1) According to one aspect of the present invention, there is provided a head-mounted display device that allows a user to view an image and an outside scene at the same time. The head-mounted display device; a superimposing information generating unit that generates superimposing information that is information for superimposing and displaying invisible information that is information that does not appear in the appearance of the object on the object included in the outside scene; An image display unit that allows the user to visually recognize the superimposition information as the video. According to the head-mounted display device of this aspect, the image display unit visually recognizes the superimposed information, which is information for displaying the invisible information of the object superimposed on the object included in the outside scene, as a video. Let The head-mounted display device according to this embodiment is a head-mounted display device that can visually recognize an image and an outside scene at the same time. For this reason, the user of the head-mounted display device does not move the line of sight, and in other words, the object in the view direction, in other words, the real image of the object included in the outside scene, and the information that does not appear in the appearance of the object (superimposition information) Can be viewed at the same time.

(2)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、所定の時間ごとに、前記外景に含まれる物体に応じて前記重畳情報を再生成し;前記画像表示部は、再生成された前記重畳情報を前記映像として前記使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、所定の時間ごとに外景に含まれる物体に応じて重畳情報を再生成するため、使用者の頭部の経時的な動きに追従した重畳情報を映像として使用者に視認させることができる。 (2) In the head-mounted display device according to the above aspect; the superimposition information generation unit regenerates the superimposition information according to an object included in the outside scene at predetermined time intervals; The regenerated superposition information may be made visible to the user as the video. According to this form of the head-mounted display device, since the superimposition information generation unit regenerates the superimposition information according to the object included in the outside scene at every predetermined time, the temporal movement of the user's head The user can visually recognize the superimposition information following the above as an image.

(3)上記形態の頭部装着型表示装置では、さらに;前記不可視情報を記憶する記憶部と;前記頭部装着型表示装置を装着した状態における前記使用者の視界方向の画像を取得する画像取得部と、を備え;前記重畳情報生成部は;前記画像取得部によって取得された前記視界方向の画像を画像認識することで前記外景に含まれる前記物体の特徴を抽出し、抽出した前記特徴に基づいて前記記憶部に記憶されている前記物体の前記不可視情報を補正することで、前記重畳情報を生成してもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、記憶部に記憶されている物体の不可視情報を用いて重畳情報を生成することができる。また、画像取得部が取得する画像は、使用者の視界方向の物体(換言すれば、外景に含まれる物体)の実像を写した画像であり、重畳情報生成部は、画像取得部によって取得された画像から外景に含まれる物体の特徴を抽出し、抽出した特徴に基づいて重畳情報を生成する。このため、重畳情報生成部は、使用者の視界方向の物体(外景に含まれる物体)の特徴に合わせた重畳情報を生成することができる。 (3) In the head-mounted display device according to the above aspect, the image further includes: a storage unit that stores the invisible information; and an image that obtains an image in the visual field direction of the user when the head-mounted display device is mounted. An acquisition unit; and the superimposition information generation unit extracts the features of the object included in the outside scene by recognizing the image in the visual field direction acquired by the image acquisition unit, and the extracted features The superimposition information may be generated by correcting the invisible information of the object stored in the storage unit based on the above. According to the head-mounted display device of this aspect, the superimposition information generation unit can generate superimposition information using the invisible information of the object stored in the storage unit. The image acquired by the image acquisition unit is an image obtained by copying a real image of an object in the user's field of view (in other words, an object included in the outside scene). The superimposition information generation unit is acquired by the image acquisition unit. The feature of the object included in the outside scene is extracted from the obtained image, and the superimposition information is generated based on the extracted feature. For this reason, the superimposition information generation unit can generate superimposition information that matches the characteristics of an object in the direction of the user's field of view (an object included in the outside scene).

(4)上記形態の頭部装着型表示装置において;前記不可視情報は、前記物体の構造を表した画像であってもよい。この形態の頭部装着型表示装置によれば、不可視情報は、物体の構造を表した画像である。このため、頭部装着型表示装置の使用者は、視線を移動させることなく、視界方向の物体の実像と、物体の構造を表した画像とを同時に視認することができる。 (4) In the head-mounted display device according to the above aspect; the invisible information may be an image representing a structure of the object. According to this form of the head-mounted display device, the invisible information is an image representing the structure of the object. For this reason, the user of the head-mounted display device can simultaneously view the real image of the object in the visual field direction and the image representing the structure of the object without moving the line of sight.

(5)上記形態の頭部装着型表示装置において;前記特徴は、前記物体のエッジであってもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、画像認識により物体のエッジを検出することで、外景に含まれる物体の輪郭を抽出することができる。この結果、重畳情報生成部は、抽出した物体の輪郭に基づいて物体の不可視情報を補正して、重畳情報を生成することができる。 (5) In the head-mounted display device of the above aspect, the feature may be an edge of the object. According to the head-mounted display device of this aspect, the superimposition information generation unit can extract the contour of the object included in the outside scene by detecting the edge of the object by image recognition. As a result, the superimposition information generation unit can generate superimposition information by correcting the invisible information of the object based on the extracted contour of the object.

(6)上記形態の頭部装着型表示装置において;前記特徴は、前記物体に付されたマーカーであってもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、画像認識により物体に付されたマーカーを検出することで、外景に含まれる物体の位置を抽出することができる。この結果、重畳情報生成部は、抽出した物体の位置に基づいて物体の不可視情報を補正して、重畳情報を生成することができる。 (6) In the head-mounted display device of the above aspect, the feature may be a marker attached to the object. According to the head-mounted display device of this aspect, the superimposition information generation unit can extract the position of the object included in the outside scene by detecting the marker attached to the object by image recognition. As a result, the superimposition information generation unit can generate superimposition information by correcting the invisible information of the object based on the extracted position of the object.

(7)上記形態の頭部装着型表示装置において;前記補正は、前記不可視情報に対する、拡大と、縮小と、回転と、反転と、トリミングと、歪みの付与と、ノイズの除去とのうちの少なくともいずれかであってもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、記憶部に記憶されている物体の不可視情報に対して、拡大と、縮小と、回転と、反転と、トリミングと、歪みの付与と、ノイズの除去と、のうちの少なくともいずれかの補正を行うことによって、重畳情報を生成することができる。 (7) In the head-mounted display device of the above aspect; the correction is performed by enlarging, reducing, rotating, inverting, trimming, applying distortion, and removing noise with respect to the invisible information. It may be at least one of them. According to the head-mounted display device of this aspect, the superimposition information generation unit performs enlargement, reduction, rotation, inversion, trimming, distortion on the invisible information of the object stored in the storage unit. The superimposition information can be generated by performing at least one of the correction and the noise removal.

(8)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、さらに、前記画像取得部によって取得された前記視界方向の画像から、前記外景に含まれる前記物体の少なくとも一部を抽出して拡大した拡大情報を生成し;前記画像表示部は、前記重畳情報と、前記拡大情報とを、前記映像として前記使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置の使用者は、視界方向の物体(換言すれば、外景に含まれる物体)の実像と、物体の外観に現れない情報(重畳情報)とに加えてさらに、視界方向の物体の少なくとも一部の拡大情報を同時に視認することができる。 (8) In the head-mounted display device according to the aspect described above; the superimposition information generation unit further extracts at least a part of the object included in the outside scene from the image in the visual field direction acquired by the image acquisition unit. The extracted enlarged information is generated, and the image display unit may cause the user to visually recognize the superimposition information and the enlarged information as the video. According to this form of the head-mounted display device, the user of the head-mounted display device can view the real image of the object in the viewing direction (in other words, the object included in the outside scene) and information that does not appear in the appearance of the object. In addition to (superimposition information), at least a part of the enlarged information of the object in the visual field direction can be viewed at the same time.

(9)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、前記使用者からの要求に応じて、前記映像を非表示としてもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置の使用者は、自らの意思によって映像を非表示とすることができる。このため、頭部装着型表示装置における使用者の利便性を向上させることができる。 (9) In the head-mounted display device according to the above aspect; the superimposition information generation unit may hide the video in response to a request from the user. According to this form of the head-mounted display device, the user of the head-mounted display device can hide the image by his / her own intention. For this reason, the convenience of the user in the head-mounted display device can be improved.

(10)上記形態の頭部装着型表示装置では、さらに;現在の手順について、前記使用者が実施すべき内容に関する情報である手順情報を生成する手順管理部を備え;前記画像表示部は、前記重畳情報と、前記手順情報とを、前記映像として前記使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、画像表示部は、現在の手順について使用者が実施すべき内容を表した手順情報を映像として使用者に視認させる。このため、使用者が行う作業を支援することが可能となる。 (10) In the head-mounted display device of the above aspect, further comprising: a procedure management unit that generates procedure information that is information relating to the contents to be performed by the user for the current procedure; The superimposition information and the procedure information may be visually recognized by the user as the video. According to this form of the head-mounted display device, the image display unit causes the user to visually recognize the procedure information representing the contents to be performed by the user for the current procedure as a video. For this reason, it is possible to support the work performed by the user.

(11)上記形態の頭部装着型表示装置において;前記手順情報には、第三者が前記手順を模範的に実施している場面の画像と、個別具体的な前記手順に際して使用者が実施すべき内容を表す画像と、の少なくともいずれか一方が含まれてもよい。この形態の頭部装着型表示装置によれば、使用者が実施すべき内容を、画像を用いて視覚的に示すことが可能であるため、使用者が行う作業をより分かりやすく支援することができる。また、個別具体的な手順に際して使用者が実施すべき内容を表す画像を用いることとすれば、使用者が行う作業をより個別具体的に支援することが可能となり、作業の精密化と、作業効率の向上を図ることができる。 (11) In the head-mounted display device of the above aspect; the procedure information includes an image of a scene in which a third party is performing the procedure in an exemplary manner, and a user performing an individual specific procedure. And / or an image representing the content to be included. According to the head-mounted display device of this embodiment, it is possible to visually indicate the contents to be performed by the user using an image, so that the work performed by the user can be supported more easily. it can. In addition, if an image representing the contents to be performed by the user is used in an individual specific procedure, it becomes possible to support the user's work more specifically and specifically, and the work can be refined, Efficiency can be improved.

(12)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、さらに、前記使用者の作業を補助するための付加的な情報である補助情報を生成し;前記画像表示部は、前記重畳情報と、前記補助情報とを、前記映像として前記使用者に視認させてもよい。この形態の頭部装着型表示装置によれば、使用者の作業を補助するための情報を映像として使用者に視認させる。このため、頭部装着型表示装置を用いた作業の効率を向上させることができる。 (12) In the head-mounted display device according to the above aspect; the superimposition information generation unit further generates auxiliary information that is additional information for assisting the user's work; The superimposing information and the auxiliary information may be visually recognized by the user as the video. According to the head-mounted display device of this aspect, the user visually recognizes information for assisting the user's work as an image. For this reason, the efficiency of work using the head-mounted display device can be improved.

(13)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、さらに、前記画像取得部によって取得された前記視界方向の画像に応じて、生成された前記重畳情報の視認性を向上させるための色変換処理を行ってもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、重畳情報に対して、使用者の視界方向の画像に応じた色変換処理を行う。このため、頭部装着型表示装置の使用者に対する映像の視認性をより向上させることができる。 (13) In the head-mounted display device of the above aspect, the superimposition information generation unit further determines the visibility of the generated superimposition information according to the image in the visual field direction acquired by the image acquisition unit. You may perform the color conversion process for improving. According to this form of the head-mounted display device, the superimposition information generation unit performs color conversion processing on the superimposition information according to the image in the user's visual field direction. For this reason, the visibility of the image | video with respect to the user of a head mounted display apparatus can be improved more.

(14)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、前記使用者からの要求に応じて、前記映像として表示されている前記重畳情報を、前記使用者の視界を妨げない位置へと退避させてもよい。この形態の頭部装着型表示装置によれば、頭部装着型表示装置の使用者は、自らの意思によって映像として表示されている重畳情報を退避させることができる。このため、頭部装着型表示装置における使用者の利便性を向上させることができる。 (14) In the head-mounted display device according to the above aspect; the superimposing information generation unit obstructs the user's view of the superimposing information displayed as the video in response to a request from the user. It may be retracted to a position where it does not exist. According to this form of the head-mounted display device, the user of the head-mounted display device can evacuate the superimposition information displayed as an image by his / her own intention. For this reason, the convenience of the user in the head-mounted display device can be improved.

(15)上記形態の頭部装着型表示装置において;前記重畳情報生成部は、前記画像取得部により取得された前記画像のうち、前記映像の表示領域と前記画像取得部の取得領域とが重複する重複領域に対して前記重畳情報を生成してもよい。この形態の頭部装着型表示装置によれば、重畳情報生成部は、映像の表示領域と画像取得部の取得領域とが重複する重複領域に対して重畳情報を生成する。このため、透過型の頭部装着型表示装置において生じる課題であった「使用者が自身の視界において直接目にする像と、画像表示部により視認させられる映像との間のずれ」の発生を低減させることができる。この結果、重畳情報を映像として視認させた場合に、使用者に与える違和感を低減させることができる。 (15) In the head-mounted display device according to the above aspect; the superimposing information generation unit overlaps the display area of the video and the acquisition area of the image acquisition unit among the images acquired by the image acquisition unit. The superimposition information may be generated for the overlapping area. According to the head-mounted display device of this aspect, the superimposition information generation unit generates superimposition information for an overlapping region where the video display region and the acquisition region of the image acquisition unit overlap. For this reason, the occurrence of the “deviation between the image that the user sees directly in his / her field of view and the image that is visually recognized by the image display unit”, which is a problem that occurs in the transmissive head-mounted display device, is generated. Can be reduced. As a result, when the superimposed information is visually recognized as an image, it is possible to reduce a sense of discomfort given to the user.

(16)上記形態の頭部装着型表示装置において;前記手順管理部は、前記画像取得部により取得された前記画像のうち、前記映像の表示領域と前記画像取得部の取得領域とが重複する重複領域に対して前記手順情報を生成してもよい。この形態の頭部装着型表示装置によれば、手順管理部は、映像の表示領域と画像取得部の取得領域とが重複する重複領域に対して手順情報を生成する。このため、透過型の頭部装着型表示装置において生じる課題であった「使用者が自身の視界において直接目にする像と、画像表示部により視認させられる映像との間のずれ」の発生を低減させることができる。この結果、手順情報を映像として視認させた場合に、使用者に与える違和感を低減させることができる。 (16) In the head-mounted display device according to the above aspect; in the image acquired by the image acquisition unit, the procedure management unit overlaps a display area of the video and an acquisition area of the image acquisition unit The procedure information may be generated for the overlapping area. According to the head-mounted display device of this aspect, the procedure management unit generates procedure information for an overlapping region where the video display region and the acquisition region of the image acquisition unit overlap. For this reason, the occurrence of the “deviation between the image that the user sees directly in his / her field of view and the image that is visually recognized by the image display unit”, which is a problem that occurs in the transmissive head-mounted display device, is generated. Can be reduced. As a result, when the procedure information is visually recognized as an image, it is possible to reduce a sense of discomfort given to the user.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、記憶部と、重畳情報生成部と、画像表示部と、の3つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、記憶部を有していてもよく、有していなくてもよい。また、この装置は、重畳情報生成部を有していてもよく、有していなくてもよい。また、この装置は、画像表示部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including a part or all of the three elements of the storage unit, the superimposition information generation unit, and the image display unit. That is, this apparatus may or may not have a storage unit. Moreover, this apparatus may or may not have a superimposition information generation unit. Moreover, this apparatus may or may not have an image display unit. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、医療用作業支援装置および医療用作業支援装置の制御方法、医療用作業支援システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a method for controlling the head-mounted display device, a medical work support device, and a control of the medical work support device. The present invention can be realized in the form of a method, a medical work support system, a computer program for realizing the functions of these methods, apparatuses or systems, a recording medium on which the computer program is recorded, and the like.

本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus in one Embodiment of this invention. ヘッドマウントディスプレイの構成を機能的に示すブロック図である。It is a block diagram which shows the composition of a head mount display functionally. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. 使用者に認識される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image recognized by the user. 第1実施形態における重畳情報表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the superimposition information display process in 1st Embodiment. 不可視情報の一例を示す説明図である。It is explanatory drawing which shows an example of invisible information. 外観情報の一例を示す説明図である。It is explanatory drawing which shows an example of external appearance information. 重畳情報生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a superimposition information generation process. 外景画像から方法iによって抽出された対象物体の特徴(エッジ)を示す説明図である。It is explanatory drawing which shows the characteristic (edge) of the target object extracted by the method i from the outside scene image. 不可視情報から方法iによって抽出された対象物体の特徴(エッジ)を示す説明図である。It is explanatory drawing which shows the characteristic (edge) of the target object extracted by the method i from invisible information. 補正後の不可視情報の一例を示す説明図である。It is explanatory drawing which shows an example of the invisible information after correction | amendment. 使用者に認識される虚像の他の例を示す説明図である。It is explanatory drawing which shows the other example of the virtual image recognized by the user. 第2実施形態におけるヘッドマウントディスプレイの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of the head mounted display in 2nd Embodiment. 手順テーブルの一例を示す説明図である。It is explanatory drawing which shows an example of a procedure table. 第2実施形態における重畳情報表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the superimposition information display process in 2nd Embodiment. 手順情報の例を示す説明図である。It is explanatory drawing which shows the example of procedure information. 手順情報が追加された重畳情報の例を示す説明図である。It is explanatory drawing which shows the example of the superimposition information to which procedure information was added. 手順e1〜e9によって使用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user by procedure e1-e9. 変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display in a modification.

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本実施形態では、映像を虚像として使用者に視認させるタイプのヘッドマウントディスプレイ100を例示する。
A. First embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head mounted display 100 according to the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In the present embodiment, a head mounted display 100 of a type that allows a user to visually recognize an image as a virtual image is illustrated.

ヘッドマウントディスプレイ100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   The head-mounted display 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when attached to the user's head, and a control unit (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 is disposed inside the right holding unit 21, in other words, on the side facing the user's head when the user wears the image display unit 20. Further, the left display driving unit 24 is disposed inside the left holding unit 23. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes a liquid crystal display (hereinafter referred to as “LCD”) 241, 242, projection optical systems 251, 252, and the like (see FIG. 2). Details of the configuration of the display driving unit will be described later. The optical image display unit as an optical member includes light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving unit to the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、ヘッドマウントディスプレイ100を装着した状態における使用者の視界方向の外景(外部の景色)を撮像し、外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61は単眼カメラであるが、ステレオカメラとしてもよい。カメラ61は、特許請求の範囲における「画像取得部」に相当し、カメラ61が取得する外景画像は、特許請求の範囲における「使用者の視界方向の画像」に相当する。   The camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20. The camera 61 captures an outside scene image in the front side direction of the image display unit 20, in other words, an outside scene (external scenery) in the user's viewing direction with the head mounted display 100 attached. The camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object. The camera 61 in the present embodiment is a monocular camera, but may be a stereo camera. The camera 61 corresponds to an “image acquisition unit” in the claims, and an outside scene image acquired by the camera 61 corresponds to an “image in the user's field of view” in the claims.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 in which the main body cord 48 branches into two, and a connecting member 46 provided at the branch point. . The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. Each end of the main body cord 48 opposite to the connecting member 46 and the control unit 10 are provided with connectors (not shown) that are fitted to each other. The connector of the main body cord 48 and the control unit 10 The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing of the connector. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、ヘッドマウントディスプレイ100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、ヘッドマウントディスプレイ100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、ヘッドマウントディスプレイ100の電源の状態を切り替える。   The control unit 10 is a device for controlling the head mounted display 100. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the head mounted display 100 (for example, ON / OFF of the power supply) by the light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power state of the head mounted display 100 by detecting a slide operation of the switch.

図2は、ヘッドマウントディスプレイ100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   FIG. 2 is a block diagram functionally showing the configuration of the head mounted display 100. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52, which are not shown. They are connected to each other by a bus.

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。なお、入力情報取得部110は、種々の方法を用いて、使用者からの操作入力を取得することができる。例えば、図2に示すタッチパッド14や十字キー16による操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。また、例えば、画像表示部20に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。また、例えば、カメラ61を用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業(例えば手術)においても、入力情報取得部110は、使用者からの操作入力を取得することができる。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The input information acquisition unit 110 can acquire an operation input from the user using various methods. For example, in addition to the operation input by the touch pad 14 and the cross key 16 shown in FIG. 2, the operation input by the foot switch (switch operated by the user's foot) may be acquired. Further, for example, a visual line detection unit such as an infrared sensor may be provided in the image display unit 20, and the user's visual line may be detected to obtain an operation input by a command associated with the movement of the visual line. Further, for example, a user's gesture may be detected using the camera 61, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical device to be used by the user's hand, or the like can be used as a mark for motion detection. If it is possible to acquire an operation input by a foot switch or a line of sight, the input information acquisition unit 110 acquires an operation input from the user even in an operation that is difficult for the user to release (for example, surgery). Can do.

記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120は、不可視情報記憶部122と、外観情報記憶部124とを含んでいる。不可視情報記憶部122は、重畳情報表示処理の対象となる物体の不可視情報を予め記憶しておくための記憶領域である。「不可視情報」とは、物体の外観に現れない情報を意味する。本実施形態の不可視情報は、物体の構造を表した画像である。不可視情報は、物体が生体である場合、例えば、CT(Computed Tomography、コンピューター断層撮影)画像、MRI(Magnetic Resonance Imaging、核磁気共鳴画像法)画像、レントゲン(X線)画像、透視画像、超音波診断画像、内視鏡画像、サーモグラフィー画像等である。また、不可視情報は、物体が人工物である場合、例えば、設計図面、回路図、レントゲン(X線)画像、透視画像、赤外線画像、サーモグラフィー画像等である。   The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 includes an invisible information storage unit 122 and an appearance information storage unit 124. The invisible information storage unit 122 is a storage area for storing invisible information of an object to be subjected to the superimposition information display process in advance. “Invisible information” means information that does not appear in the appearance of an object. The invisible information in the present embodiment is an image representing the structure of an object. Invisible information includes, for example, CT (Computed Tomography) images, MRI (Magnetic Resonance Imaging) images, X-ray (X-ray) images, fluoroscopic images, ultrasound, when the object is a living body. Diagnostic images, endoscopic images, thermographic images, and the like. The invisible information is, for example, a design drawing, a circuit diagram, an X-ray (X-ray) image, a fluoroscopic image, an infrared image, or a thermographic image when the object is an artificial object.

外観情報記憶部124は、重畳情報表示処理の対象となる物体の外観情報を予め記憶しておくための記憶領域である。本実施形態における「外観情報」とは、物体を外側から見た様子(外観)を表した画像であり、可視光カメラで撮像された写真等である。   The appearance information storage unit 124 is a storage area for storing in advance appearance information of an object that is a target of the superimposition information display process. “Appearance information” in the present embodiment is an image representing a state (appearance) of an object viewed from the outside, such as a photograph taken with a visible light camera.

電源130は、ヘッドマウントディスプレイ100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って他の機器との間で無線通信を行う。   The power supply 130 supplies power to each part of the head mounted display 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with other devices in accordance with a predetermined wireless communication standard such as a wireless LAN or Bluetooth.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、音声処理部170、表示制御部190、重畳情報生成部142として機能する。重畳情報生成部142は、重畳情報表示処理を実行するアプリケーションプログラムである。重畳情報表示処理とは、使用者の視界方向の物体の実像に対して、物体の外観に現れない情報を重畳させて表示する処理である。   The CPU 140 functions as an operating system (OS) 150, an image processing unit 160, an audio processing unit 170, a display control unit 190, and a superimposition information generation unit 142 by reading and executing a computer program stored in the storage unit 120. To do. The superimposition information generation unit 142 is an application program that executes a superimposition information display process. The superimposing information display process is a process of superimposing and displaying information that does not appear in the appearance of the object on the real image of the object in the direction of the user's field of view.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データーDataとを生成・送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデーターの画像データーDataとして、1フレームごとに記憶部120内のDRAMに格納する。一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成・送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理や、輝度・彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. Then, the image processing unit 160 supplies the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format. In the case of the analog format, the image processing unit 160 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is an analog signal generally composed of 30 frame images per second. The image processing unit 160 separates a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal, and generates a clock signal PCLK by a PLL circuit or the like according to the period. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like. The image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 for each frame as image data Data of RGB data. On the other hand, in the digital format, the image processing unit 160 generates and transmits a clock signal PCLK and image data Data. Specifically, when the content is in digital format, the clock signal PCLK is output in synchronization with the image signal, so that the generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and the A / D conversion of the analog image signal are performed. It becomes unnecessary. The image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be executed.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データー」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データー」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。また、表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. Each of the right display drive unit 22 and the left display drive unit 24 is controlled by individually controlling ON / OFF driving of the left LCD 242 by the unit 212 and ON / OFF driving of the left backlight 222 by the left backlight control unit 202. Controls the generation and emission of image light. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light. Further, the display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals for the right backlight control unit 201 and the left backlight control unit 202, respectively.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the acquired audio signal to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. To supply. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61とを備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The optical image display unit can use any method as long as a virtual image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used. good.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。詳細な説明は省略する。   The left display drive unit 24 has the same configuration as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252. Detailed description is omitted.

図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表す有効な画像光PLへと変調する。左側についても同様である。なお、図3のように、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 3 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221 into an image. Is modulated into an effective image light PL representing The same applies to the left side. As shown in FIG. 3, in this embodiment, the backlight method is adopted. However, the image light may be emitted using a front light method or a reflection method.

図4は、使用者に認識される虚像の一例を示す説明図である。図4には、使用者の視野VRを例示している。上述のようにして、ヘッドマウントディスプレイ100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認する。図4に示す例では、虚像VIは、患者の手のレントゲン画像である。また、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。図4に示す例では、外景SCは、医師が持つメスの刃先が、患者の右手小指の第2間接に当てられている様子である。このように、ヘッドマウントディスプレイ100では、使用者は、視野VRのうち、虚像VIと重複しない部分はもとより、虚像VIと重複する部分についても虚像VIの背後に外景SCを視認することができる。   FIG. 4 is an explanatory diagram illustrating an example of a virtual image recognized by the user. FIG. 4 illustrates the visual field VR of the user. As described above, the image light guided to both eyes of the user of the head mounted display 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI. In the example shown in FIG. 4, the virtual image VI is an X-ray image of the patient's hand. Further, the user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. In the example shown in FIG. 4, the outside scene SC is a state in which the scalpel blade of the doctor is applied to the second indirectly of the patient's right hand little finger. As described above, in the head mounted display 100, the user can visually recognize the outside scene SC behind the virtual image VI not only in the portion of the visual field VR that overlaps the virtual image VI but also in the portion overlapping the virtual image VI.

A−2.重畳情報表示処理:
図5は、第1実施形態における重畳情報表示処理の手順を示すフローチャートである。図5のステップS102、S104は重畳情報表示処理の前処理の手順を表している。図5のステップS106以降は重畳情報表示処理の手順を表している。重畳情報表示処理は、使用者の視界方向の物体の実像に対して、物体の外観に現れない情報を重畳させて表示する処理である。
A-2. Superimposition information display processing:
FIG. 5 is a flowchart showing a procedure of superimposition information display processing in the first embodiment. Steps S102 and S104 in FIG. 5 represent a pre-processing procedure of the superimposition information display process. Steps S106 and after in FIG. 5 represent the procedure of the superimposition information display process. The superimposing information display process is a process of superimposing and displaying information that does not appear in the appearance of the object on the real image of the object in the user's field of view.

重畳情報表示処理では、エッジ検出により重畳情報表示処理の対象とする物体(以降、「対象物体」とも呼ぶ。)の特徴を抽出する方法と、マーカー検出により対象物体の特徴を抽出する方法とがある(詳細は後述)。このうち、マーカー検出により対象物体の特徴を抽出する方法を採用する場合、ステップS102、S104、S108では、対象物体に予めマーカーを付しておく。なお、対象物体に付すマーカーは種々の種類のマーカーを使用可能である。例えば、テープ、シール、マジック、レーザーマーカー、マジックテープ(登録商標)等を使用することができる。また、対象物体に付すマーカーの数は任意に定めることができる。   In the superimposition information display process, there are a method of extracting features of an object (hereinafter also referred to as “target object”) that is a target of the superimposition information display process by edge detection, and a method of extracting features of the target object by marker detection. Yes (details are described later). Among these, when the method of extracting the feature of the target object by marker detection is adopted, in steps S102, S104, and S108, a marker is attached to the target object in advance. It should be noted that various types of markers can be used as the markers attached to the target object. For example, a tape, a seal, a magic, a laser marker, a magic tape (registered trademark), or the like can be used. In addition, the number of markers attached to the target object can be arbitrarily determined.

図5のステップS102において、使用者は、重畳情報表示処理の対象とする物体の不可視情報を不可視情報記憶部122に記憶させる。具体的には、使用者は、重畳情報表示処理の対象とする物体を撮像機器(CTや、MRIや、レントゲンや、内視鏡や、サーモグラフィー等)を用いて撮像し、対象物体の構造を表した画像(不可視情報)を取得する。そして、使用者は、取得した画像を不可視情報記憶部122に記憶させる。なお、ステップS102で撮像された不可視情報は、ステップS106以降の重畳情報表示処理において、右光学像表示部26および左光学像表示部28を透過して見える外景SCの中の実像に重ねて表示される。このため、重畳情報表示処理のステップS102では、ステップS106以降の重畳情報表示処理において想定される対象物体の向きに合わせた画像を取得し、不可視情報記憶部122に記憶させておくことが好ましい。なお、ステップS102では、対象物体の撮像に代えて、外部から受信した不可視情報を不可視情報記憶部122に記憶させてもよい。   In step S <b> 102 of FIG. 5, the user causes the invisible information storage unit 122 to store invisible information of an object to be subjected to the superimposition information display process. Specifically, the user images an object to be subjected to the superimposition information display process using an imaging device (CT, MRI, X-ray, endoscope, thermography, etc.), and the structure of the target object is determined. The represented image (invisible information) is acquired. Then, the user stores the acquired image in the invisible information storage unit 122. Note that the invisible information captured in step S102 is displayed by being superimposed on the real image in the outside scene SC that can be seen through the right optical image display unit 26 and the left optical image display unit 28 in the superimposition information display processing after step S106. Is done. For this reason, in step S102 of the superimposition information display process, it is preferable to acquire an image that matches the orientation of the target object assumed in the superimposition information display process after step S106 and store it in the invisible information storage unit 122. In step S102, invisible information received from the outside may be stored in the invisible information storage unit 122 instead of imaging the target object.

図6は、不可視情報の一例を示す説明図である。図6で例示する不可視情報SIは、人の右手のレントゲン画像である。この場合、対象物体は「人の右手」である。図6の不可視情報SIから、関節リウマチによって、被撮像者の右手の小指の第2関節が変形していることがわかる。   FIG. 6 is an explanatory diagram illustrating an example of invisible information. The invisible information SI illustrated in FIG. 6 is an X-ray image of a person's right hand. In this case, the target object is the “human right hand”. From the invisible information SI in FIG. 6, it can be seen that the second joint of the little finger of the right hand of the person to be imaged is deformed by rheumatoid arthritis.

図5のステップS104において、使用者は、重畳情報表示処理の対象とする物体の外観情報を外観情報記憶部124に記憶させる。具体的には、使用者は、対象物体をカメラ61やデジタルカメラ等を用いて撮像し、対象物体の外観を表した画像を取得する。そして、使用者は、取得した画像を外観情報記憶部124に記憶させる。   In step S104 in FIG. 5, the user causes the appearance information storage unit 124 to store appearance information of an object to be subjected to the superimposition information display process. Specifically, the user captures an image of the target object using the camera 61 or a digital camera, and acquires an image representing the appearance of the target object. Then, the user stores the acquired image in the appearance information storage unit 124.

図7は、外観情報の一例を示す説明図である。図7で例示する外観情報FIは、人の右手の写真画像である。対象物体は、図6と同様である。   FIG. 7 is an explanatory diagram illustrating an example of appearance information. The appearance information FI illustrated in FIG. 7 is a photographic image of a person's right hand. The target object is the same as in FIG.

図5のステップS106において、重畳情報生成部142は、重畳情報表示処理の開始指示があったか否かを判定する。具体的には、重畳情報生成部142は、入力情報取得部110から重畳情報表示処理の開始指示を受信した場合に、開始指示あり(ステップS106:YES)と判定し、受信しない場合に、開始指示なし(ステップS106:NO)と判定する。開始指示なし(ステップS106:NO)の場合、重畳情報生成部142は、ステップS106に処理を遷移させ、開始指示の受信を待つ。一方、開始指示あり(ステップS106:YES)の場合、重畳情報生成部142は、次に説明する重畳情報生成処理によって、重畳情報を生成する(ステップS108)。   In step S <b> 106 of FIG. 5, the superimposition information generation unit 142 determines whether there is an instruction to start the superimposition information display process. Specifically, the superimposition information generation unit 142 determines that there is a start instruction when receiving an instruction to start the superimposition information display process from the input information acquisition unit 110 (step S106: YES). It is determined that there is no instruction (step S106: NO). When there is no start instruction (step S106: NO), the superimposition information generation unit 142 shifts the process to step S106 and waits for reception of the start instruction. On the other hand, when there is a start instruction (step S106: YES), the superimposition information generation unit 142 generates superimposition information by a superimposition information generation process described below (step S108).

A−2−1.重畳情報生成処理:
図8は、重畳情報生成処理の手順を示すフローチャートである。重畳情報生成部142は、外景画像を取得する(ステップS202)。具体的には、重畳情報生成部142は、カメラ61を起動し、カメラ61に対して撮像を指示し、カメラ61によって撮像された外景画像を取得する。
A-2-1. Superimposition information generation processing:
FIG. 8 is a flowchart showing the procedure of the superimposition information generation process. The superimposition information generation unit 142 acquires an outside scene image (step S202). Specifically, the superimposition information generation unit 142 activates the camera 61, instructs the camera 61 to capture an image, and acquires an outside scene image captured by the camera 61.

外景画像取得後、重畳情報生成部142は、外景画像を画像認識することで対象物体の特徴を抽出する(ステップS204)。具体的には、重畳情報生成部142は、下記のi、iiのような画像認識の方法を用いて、外景画像に含まれる対象物体の特徴を抽出する。なお、方法iとiiとは、組み合わせてもよい。   After acquiring the outside scene image, the superimposition information generating unit 142 extracts the feature of the target object by recognizing the outside scene image (step S204). Specifically, the superimposition information generation unit 142 extracts features of the target object included in the outside scene image using an image recognition method such as i and ii below. Note that methods i and ii may be combined.

方法i)重畳情報生成部142は、対象物体のエッジを検出する。この場合、検出されたエッジが「対象物体の特徴」となる。
方法ii)重畳情報生成部142は、対象物体に付されたマーカーを検出する。この場合、検出されたマーカーが「対象物体の特徴」となる。
Method i) The superimposition information generation unit 142 detects the edge of the target object. In this case, the detected edge becomes the “feature of the target object”.
Method ii) The superimposition information generation unit 142 detects a marker attached to the target object. In this case, the detected marker becomes the “characteristic of the target object”.

図9は、外景画像から方法iによって抽出された対象物体の特徴(エッジ)を示している。   FIG. 9 shows features (edges) of the target object extracted from the outside scene image by the method i.

図8のステップS206において、重畳情報生成部142は、不可視情報SIを画像認識することで対象物体の特徴を抽出する。具体的には、重畳情報生成部142は、対象物体に対応する不可視情報SIを不可視情報記憶部122から読み出す。重畳情報生成部142は、上記i、iiで述べた画像認識の方法を用いて、読み出した不可視情報SIに含まれる対象物体の特徴を抽出する。なお、ステップS208における補正の精度向上のためには、ステップS204とステップS206とで使用する画像認識の方法は、統一することが好ましい。   In step S206 in FIG. 8, the superimposition information generation unit 142 extracts features of the target object by recognizing the invisible information SI as an image. Specifically, the superimposition information generation unit 142 reads the invisible information SI corresponding to the target object from the invisible information storage unit 122. The superimposition information generation unit 142 extracts the feature of the target object included in the read invisible information SI using the image recognition method described in i and ii above. In order to improve the correction accuracy in step S208, it is preferable to unify the image recognition methods used in step S204 and step S206.

図10は、不可視情報SIから方法iによって抽出された対象物体の特徴(エッジ)を示している。   FIG. 10 shows features (edges) of the target object extracted from the invisible information SI by the method i.

図8のステップS208において、重畳情報生成部142は、ステップS204で抽出された外景画像の特徴と、ステップS206で抽出された不可視情報SIの特徴とが合うように、不可視情報SIを補正する。具体的には、ステップS204およびS206において方法iを用いた場合、重畳情報生成部142は、外景画像の特徴(すなわちステップS204で検出されたエッジ)と、不可視情報SIの特徴(すなわちステップS206で検出されたエッジ)との、輪郭や特徴的な部位が合うように、不可視情報SIに対して、拡大、縮小、回転、反転、トリミング、歪みの付与、ノイズの除去の少なくともいずれかの加工を行う。ここで、特徴的な部位とは、対象物体が生体である場合は、関節や、四肢の先端や、血管や、骨等であり、対象物体が人工物である場合は、突起箇所や、角部である。一方、ステップS204およびS206において方法iiを用いた場合、重畳情報生成部142は、外景画像の特徴(すなわちステップS204で検出されたマーカー)と、不可視情報SIの特徴(すなわちステップS206で検出されたマーカー)との位置が合うように、不可視情報SIに対して、拡大、縮小、回転、反転、トリミング、歪みの付与、ノイズの除去の少なくともいずれかの加工を行う。   In step S208 in FIG. 8, the superimposition information generation unit 142 corrects the invisible information SI so that the feature of the outside scene image extracted in step S204 matches the feature of the invisible information SI extracted in step S206. Specifically, when the method i is used in steps S204 and S206, the superimposition information generation unit 142 determines the feature of the outside scene image (that is, the edge detected in step S204) and the feature of the invisible information SI (that is, in step S206). The invisible information SI is subjected to at least one of enlargement, reduction, rotation, inversion, trimming, distortion addition, and noise removal so that the contour and the characteristic part match the detected edge) Do. Here, the characteristic part is a joint, the tip of the limb, a blood vessel, a bone, or the like when the target object is a living body, and a protrusion or corner when the target object is an artificial object. Part. On the other hand, when the method ii is used in steps S204 and S206, the superimposition information generation unit 142 detects the feature of the outside scene image (that is, the marker detected in step S204) and the feature of the invisible information SI (that is, detected in step S206). The invisible information SI is subjected to at least one of enlargement, reduction, rotation, inversion, trimming, distortion application, and noise removal so that the position with the marker) matches.

図9および図10の例では、重畳情報生成部142は、ステップS204で検出されたエッジ(図9)と、ステップS206で検出されたエッジ(図10)との、手の輪郭や、特徴的な部位(関節、指先、血管、骨)が合うように、不可視情報SIに対する補正を行う。   In the examples of FIGS. 9 and 10, the superimposition information generation unit 142 includes the hand contour and the characteristic of the edge detected in step S204 (FIG. 9) and the edge detected in step S206 (FIG. 10). The invisible information SI is corrected so that various parts (joints, fingertips, blood vessels, bones) are matched.

図11は、補正後の不可視情報SIの一例を示す説明図である。補正後の重畳情報CP1では、外景画像に含まれる対象物体(すなわち患者の右手)の範囲に合わせて不可視情報SI(図6)がトリミングされている。同様に、補正後の重畳情報CP1では、外景画像に含まれる対象物体の大きさに合わせて不可視情報SI(図6)が縮小され、外景画像に含まれる対象物体の位置に合わせて不可視情報SI(図6)が回転および移動されている。なお、ステップS208において補正された不可視情報SIは、特許請求の範囲における「重畳情報」に相当する。   FIG. 11 is an explanatory diagram illustrating an example of the invisible information SI after correction. In the corrected superimposition information CP1, the invisible information SI (FIG. 6) is trimmed in accordance with the range of the target object (that is, the patient's right hand) included in the outside scene image. Similarly, in the corrected superimposition information CP1, the invisible information SI (FIG. 6) is reduced in accordance with the size of the target object included in the outside scene image, and the invisible information SI is adjusted in accordance with the position of the target object included in the outside scene image. (FIG. 6) is rotated and moved. The invisible information SI corrected in step S208 corresponds to “superimposition information” in the claims.

このように、重畳情報生成処理において、重畳情報生成部142は、不可視情報記憶部122に記憶されている物体の不可視情報SIを用いて重畳情報を生成することができる。ステップS202においてカメラ61(画像取得部)が取得する外景画像は、使用者の視界方向の対象物体(換言すれば、外景に含まれる物体)の実像を写した画像である。重畳情報生成部142は、カメラ61によって取得された外景画像から外景に含まれる対象物体のエッジやマーカー(対象物体の特徴)を抽出し、抽出した特徴に基づいて重畳情報を生成する。このため、重畳情報生成部142は、使用者の視界方向の対象物体(外景に含まれる物体)の特徴に合わせた重畳情報を生成することができる。   Thus, in the superimposition information generation process, the superimposition information generation unit 142 can generate superimposition information using the invisible information SI of the object stored in the invisible information storage unit 122. The outside scene image acquired by the camera 61 (image acquisition unit) in step S202 is an image obtained by copying a real image of a target object in a user's viewing direction (in other words, an object included in the outside scene). The superimposition information generation unit 142 extracts edges and markers (features of the target object) of the target object included in the outer scene from the outer scene image acquired by the camera 61, and generates superimposition information based on the extracted features. Therefore, the superimposition information generation unit 142 can generate superimposition information that matches the characteristics of the target object (object included in the outside scene) in the user's visual field direction.

また、上記方法iによれば、重畳情報生成部142は、画像認識により対象物体のエッジを検出することで、外景に含まれる対象物体の輪郭を抽出することができる。この結果、重畳情報生成部142は、抽出した対象物体の輪郭に基づいて当該対象物体の不可視情報SIを補正して、重畳情報CP1を生成することができる。   Also, according to the method i, the superimposition information generation unit 142 can extract the contour of the target object included in the outside scene by detecting the edge of the target object by image recognition. As a result, the superimposition information generation unit 142 can correct the invisible information SI of the target object based on the extracted contour of the target object, and generate the superimposition information CP1.

また、上記方法iiによれば、重畳情報生成部142は、画像認識により対象物体に付されたマーカーを検出することで、外景に含まれる対象物体の位置を抽出することができる。この結果、重畳情報生成部142は、抽出した対象物体の位置に基づいて当該対象物体の不可視情報SIを補正して、重畳情報CP1を生成することができる。   Further, according to the method ii, the superimposition information generation unit 142 can extract the position of the target object included in the outside scene by detecting the marker attached to the target object by image recognition. As a result, the superimposition information generation unit 142 can correct the invisible information SI of the target object based on the extracted position of the target object, and generate the superimposition information CP1.

重畳用画像生成処理の終了後、図5のステップS110において重畳情報生成部142は、重畳情報CP1を表示させる。具体的には、重畳情報生成部142は、画像処理部160に対して、重畳用画像生成処理によって生成された重畳情報CP1を送信する。重畳情報CP1を受信した画像処理部160は、重畳情報CP1に対して、図2で説明した表示処理を実行する。この結果、図4に示すように、ヘッドマウントディスプレイ100の使用者の視野VRには、重畳情報CP1が虚像VIとして表示される。本実施形態におけるヘッドマウントディスプレイ100は、使用者が虚像を視認すると同時に外景も視認可能な光学透過型のヘッドマウントディスプレイである。このため、ヘッドマウントディスプレイ100の使用者は、右光学像表示部26および左光学像表示部28を透過して見える外景SCの中の実像(医師が持つメスの刃先が患者の右手小指の第2間接に当てられている様子)と、虚像VIとして見える重畳情報CP1とが、重畳された状態で視認可能となる。   After the superimposition image generation processing ends, the superimposition information generation unit 142 displays the superimposition information CP1 in step S110 of FIG. Specifically, the superimposition information generation unit 142 transmits the superimposition information CP1 generated by the superimposition image generation process to the image processing unit 160. The image processing unit 160 that has received the superimposition information CP1 performs the display process described with reference to FIG. 2 on the superimposition information CP1. As a result, as shown in FIG. 4, the superimposition information CP <b> 1 is displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100. The head mounted display 100 in the present embodiment is an optically transmissive head mounted display that allows a user to visually recognize a virtual image and at the same time visually recognize an outside scene. For this reason, the user of the head mounted display 100 can see a real image in the outside scene SC that can be seen through the right optical image display unit 26 and the left optical image display unit 28 (the knife edge of the scalpel held by the doctor is the first finger of the patient's right hand little finger). 2) and the superimposition information CP1 that appears as a virtual image VI are visible in a superimposed state.

図5のステップS112において、重畳情報生成部142は、表示の切替指示があったか否か、および切替指示の内容を判定する。表示の切替指示がない場合、重畳情報生成部142は、所定の時間待機後に処理をステップS108へ遷移させる(図示省略)。これにより、所定の時間ごとに、外景画像の撮影と、重畳情報CP1の生成および表示が繰り返されることとなるため、使用者の頭部の経時的な動きに追従した重畳情報CP1を虚像VIとして表示させることができる。なお、所定の時間とは任意に定めることができる。   In step S112 in FIG. 5, the superimposition information generation unit 142 determines whether there is a display switching instruction and the content of the switching instruction. When there is no display switching instruction, the superimposition information generation unit 142 shifts the processing to step S108 after waiting for a predetermined time (not shown). As a result, shooting of the outside scene image and generation and display of the superimposition information CP1 are repeated every predetermined time, so that the superimposition information CP1 following the temporal movement of the user's head is used as the virtual image VI. Can be displayed. The predetermined time can be arbitrarily determined.

重畳情報生成部142は、入力情報取得部110から現在表示中の重畳情報CP1の表示を切り替える旨を指示する「画像切替」指示を受信した場合(ステップS112:画像切替)、処理をステップS114へ遷移させる。重畳情報生成部142は、他の重畳情報を生成する(ステップS114)。具体的には、重畳情報生成部142は、図8で説明した重畳情報生成処理を再び実行し、他の重畳情報を生成する。この際、重畳情報生成部142は、図8の説明のうち「不可視情報記憶部122に記憶されている不可視情報SI」に代えて、「外観情報記憶部124に記憶されている外観情報FI」を処理対象とする。このため、他の重畳情報とは、対象物体の外観を表す情報となる。他の重畳情報生成後、重畳情報生成部142は、他の重畳情報を表示させる(ステップS116)。具体的には、重畳情報生成部142は、画像処理部160に対して他の重畳情報を送信する。他の重畳情報を受信した画像処理部160は、他の重畳情報に対して、図2で説明した表示処理を実行する。この結果、ヘッドマウントディスプレイ100の使用者の視野VRには、重畳情報CP1に代えて、他の重畳情報が虚像VIとして表示される。その後、重畳情報生成部142は、処理をステップS112へと遷移させる。   When the superimposition information generation unit 142 receives an “image switching” instruction that instructs to switch the display of the superimposition information CP1 that is currently displayed from the input information acquisition unit 110 (step S112: image switching), the process proceeds to step S114. Transition. The superimposition information generation unit 142 generates other superimposition information (step S114). Specifically, the superimposition information generation unit 142 executes the superimposition information generation process described in FIG. 8 again to generate other superimposition information. At this time, the superimposition information generation unit 142 replaces “invisible information SI stored in the invisible information storage unit 122” in the description of FIG. 8 with “appearance information FI stored in the appearance information storage unit 124”. To be processed. For this reason, the other superimposition information is information representing the appearance of the target object. After generating other superimposition information, the superimposition information generation unit 142 displays other superimposition information (step S116). Specifically, the superimposition information generation unit 142 transmits other superimposition information to the image processing unit 160. The image processing unit 160 that has received the other superimposition information performs the display process described with reference to FIG. 2 on the other superimposition information. As a result, in the visual field VR of the user of the head mounted display 100, other superimposed information is displayed as a virtual image VI instead of the superimposed information CP1. Thereafter, the superimposition information generating unit 142 shifts the process to step S112.

このように、ステップS114、S116によれば、ヘッドマウントディスプレイ100の使用者は、使用者自らの意思によって、対象物体の構造を表す不可視情報SIをもとに生成された重畳情報の表示と、対象物体の外観を表す外観情報FIをもとに生成された他の重畳情報の表示とを切り替えることができる。このため、ヘッドマウントディスプレイ100における使用者の利便性を向上させることができる。   As described above, according to steps S114 and S116, the user of the head mounted display 100 can display the superimposition information generated based on the invisible information SI representing the structure of the target object according to the user's own intention. It is possible to switch between display of other superimposition information generated based on the appearance information FI representing the appearance of the target object. For this reason, the convenience of the user in the head mounted display 100 can be improved.

図5において、重畳情報生成部142は、入力情報取得部110から現在表示中の虚像を非表示とする旨を指示する「非表示」指示を受信した場合(ステップS112:非表示)、処理をステップS118へ遷移させる。重畳情報生成部142は、現在表示中の虚像VI(重畳情報CP1または他の重畳情報)を非表示とする(ステップS118)。具体的には、重畳情報生成部142は、画像処理部160に対する重畳情報CP1または他の重畳情報の送信を停止する。これにより、表示されるべき画像データーがなくなるため、虚像VIを非表示とすることができる。なお、重畳情報CP1または他の重畳情報の送信の停止に代えて、重畳情報生成部142は、表示制御部190に対して、画像を非表示とする旨の要求を送信してもよい。この場合、表示制御部190は、LCD制御部によるLCDの駆動をOFFとする制御信号、または、バックライト制御部によるバックライトの駆動をOFFとする制御信号を送信することにより、虚像VIを非表示とすることができる。   In FIG. 5, when the superimposition information generation unit 142 receives a “non-display” instruction that instructs the non-display of the currently displayed virtual image from the input information acquisition unit 110 (step S112: non-display), the superimposing information generation unit 142 performs the process. The process proceeds to step S118. The superimposition information generation unit 142 hides the currently displayed virtual image VI (superimposition information CP1 or other superimposition information) (step S118). Specifically, the superimposition information generation unit 142 stops transmission of the superimposition information CP1 or other superimposition information to the image processing unit 160. Thereby, since there is no image data to be displayed, the virtual image VI can be hidden. Instead of stopping transmission of the superimposition information CP1 or other superimposition information, the superimposition information generation unit 142 may transmit a request to hide the image to the display control unit 190. In this case, the display control unit 190 transmits the control signal for turning off the LCD drive by the LCD control unit or the control signal for turning off the backlight drive by the backlight control unit, thereby removing the virtual image VI. It can be a display.

このように、ステップS118によれば、ヘッドマウントディスプレイ100の使用者は、使用者自らの意思によって、現在表示中の虚像VIを非表示とすることができる。例えば、光学像表示部を透過して見る実像に注視したい場合、使用者は、意図的に虚像VIを消すことができる。このため、ヘッドマウントディスプレイ100における使用者の利便性を向上させることができる。   Thus, according to step S118, the user of the head mounted display 100 can hide the currently displayed virtual image VI by the user's own intention. For example, when the user wants to pay attention to a real image that is transmitted through the optical image display unit, the user can intentionally erase the virtual image VI. For this reason, the convenience of the user in the head mounted display 100 can be improved.

図5において、重畳情報生成部142は、入力情報取得部110から視界方向の実像を拡大表示させる旨を指示する「拡大」指示を受信した場合(ステップS112:拡大)、処理をステップS120へ遷移させる。重畳情報生成部142は、外景画像を取得する(ステップS120)。具体的には、重畳情報生成部142は、カメラ61を起動し、カメラ61に対して撮像を指示し、カメラ61によって撮像された外景画像を取得する。外景画像取得後、重畳情報生成部142は、ステップS120で取得された外景画像を画像認識し、拡大指示と共に指定された点を中心とした所定範囲の領域をトリミング後、トリミングした画像を拡大処理する(ステップS122)。その後、重畳情報生成部142は、拡大処理後の画像を端部に配置し、他の部分には黒色のダミーデーターを配置した拡大情報を生成する。拡大情報生成後、重畳情報生成部142は、重畳情報CP1と、拡大情報とを表示させる。具体的には、重畳情報生成部142は、画像処理部160に対して重畳情報CP1と、拡大情報とを送信する。重畳情報CP1と、拡大情報とを受信した画像処理部160は、重畳情報CP1と拡大情報とを各レイヤーとした合成画像を生成し、生成した合成画像に対して、図2で説明した表示処理を実行する。   In FIG. 5, when the superimposition information generation unit 142 receives an “enlargement” instruction instructing to enlarge and display a real image in the viewing direction from the input information acquisition unit 110 (step S112: enlargement), the process proceeds to step S120. Let The superimposition information generation unit 142 acquires an outside scene image (step S120). Specifically, the superimposition information generation unit 142 activates the camera 61, instructs the camera 61 to capture an image, and acquires an outside scene image captured by the camera 61. After acquiring the outside scene image, the superimposition information generation unit 142 recognizes the outside scene image acquired in step S120, trims a region in a predetermined range centered on a specified point together with the enlargement instruction, and enlarges the trimmed image. (Step S122). Thereafter, the superimposition information generation unit 142 generates the enlarged information in which the enlarged image is arranged at the end and black dummy data is arranged in the other part. After the enlargement information is generated, the superimposition information generation unit 142 displays the superimposition information CP1 and the enlargement information. Specifically, the superimposition information generation unit 142 transmits the superimposition information CP1 and the enlargement information to the image processing unit 160. The image processing unit 160 that has received the superimposition information CP1 and the enlargement information generates a composite image using the superposition information CP1 and the enlargement information as layers, and performs the display processing described in FIG. 2 on the generated composite image. Execute.

図12は、使用者に認識される虚像の他の例を示す説明図である。図12(A)は、図5のステップS122によって使用者に認識される虚像を表している。このように、ステップS120およびS122が実行された結果、ヘッドマウントディスプレイ100の使用者の視野VRには、重畳情報CP1と拡大情報CP2とが、虚像VIとして表示される。このように、ステップS120、S122によれば、ヘッドマウントディスプレイ100の使用者は、使用者自らの意思によって、視界方向の対象物体(換言すれば、外景に含まれる物体)の実像と、当該対象物体の外観に現れない情報(重畳情報CP1)とに加えてさらに、指定した点を中心とした実像の拡大情報CP2、すなわち、視界方向の物体の少なくとも一部の拡大情報CP2を同時に視認することができる。この結果、ヘッドマウントディスプレイ100における使用者の利便性を向上させることができる。   FIG. 12 is an explanatory diagram illustrating another example of a virtual image recognized by the user. FIG. 12A shows a virtual image recognized by the user in step S122 of FIG. As described above, as a result of the execution of steps S120 and S122, the superimposition information CP1 and the enlarged information CP2 are displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100. As described above, according to steps S120 and S122, the user of the head mounted display 100 can determine the real image of the target object in the visual field direction (in other words, the object included in the outside scene) and the target according to the user's own intention. In addition to the information that does not appear in the appearance of the object (superimposition information CP1), further, the enlarged information CP2 of the real image centered on the specified point, that is, the enlarged information CP2 of at least a part of the object in the visual field direction is simultaneously viewed. Can do. As a result, user convenience in the head mounted display 100 can be improved.

以上のように、第1実施形態の重畳情報表示処理では、画像表示部20は、外景SCに含まれる対象物体(上記の例では人の右手)に対して、当該対象物体の不可視情報SI(上記の例では人の右手のレントゲン画像)を重畳表示させるための情報である重畳情報CP1を虚像VI(映像)として使用者に視認させる。本形態のヘッドマウントディスプレイ100(頭部装着型表示装置)は、虚像VI(映像)と外景SCを同時に視認可能なヘッドマウントディスプレイである。このため、ヘッドマウントディスプレイ100の使用者は、視線を移動させることなく、視界方向の対象物体(換言すれば、外景に含まれる対象物体)の実像と、当該対象物体の外観に現れない情報(重畳情報CP1)とを同時に視認することができる。   As described above, in the superimposition information display process according to the first embodiment, the image display unit 20 displays the invisible information SI ((right hand of a person in the above example) invisible information SI of the target object). In the above example, the superimposition information CP1, which is information for superimposing and displaying the right hand X-ray image of the human right hand, is visually recognized by the user as a virtual image VI (video). The head-mounted display 100 (head-mounted display device) according to this embodiment is a head-mounted display that can visually recognize a virtual image VI (video) and an outside scene SC at the same time. For this reason, the user of the head mounted display 100 does not move the line of sight, and the real image of the target object in the view direction (in other words, the target object included in the outside scene) and information that does not appear in the appearance of the target object ( The superimposition information CP1) can be viewed at the same time.

さらに、上記実施形態では、不可視情報記憶部122に記憶されている不可視情報SIは、対象物体の構造を表した画像である。このため、ヘッドマウントディスプレイ100(頭部装着型表示装置)の使用者は、視線を移動させることなく、視界方向の対象物体の実像と、対象物体の構造を表した画像とを同時に視認することができる。このため、上記実施形態のヘッドマウントディスプレイ100は、低侵襲外科手術において特に有用である。なお、低侵襲外科手術とは、手術に伴う患者の痛みや手術痕を最小限にするためにメスによる切開箇所を最小限に留める手術方法である。   Further, in the above embodiment, the invisible information SI stored in the invisible information storage unit 122 is an image representing the structure of the target object. For this reason, the user of the head-mounted display 100 (head-mounted display device) can simultaneously view the real image of the target object in the visual field direction and the image representing the structure of the target object without moving the line of sight. Can do. For this reason, the head mounted display 100 of the said embodiment is especially useful in minimally invasive surgery. Note that the minimally invasive surgical operation is a surgical method in which the incision site by a scalpel is kept to a minimum in order to minimize the pain and surgical scar of the patient accompanying the operation.

A−3.重畳情報表示処理における付加的処理:
なお、重畳情報表示処理(図5)では、さらに、以下のような付加的処理を実行してもよい。付加的処理は、単独で付加してもよいし、組み合わせて付加してもよい。
A-3. Additional processing in superimposition information display processing:
In the superimposition information display process (FIG. 5), the following additional process may be executed. Additional processing may be added alone or in combination.

A−3−1.付加的処理1:
付加的処理1では、重畳情報生成部142は、重畳情報CP1に加えてさらに、補助情報CP3を虚像VIとして表示させる。補助情報CP3とは、ヘッドマウントディスプレイ100の使用者の作業を補助するための付加的な情報である限り、任意の情報を採用可能である。補助情報CP3は、医療用のヘッドマウントディスプレイ100においては、例えば、以下のような情報とすることができる。
A-3-1. Additional processing 1:
In the additional process 1, the superimposition information generation unit 142 displays the auxiliary information CP3 as a virtual image VI in addition to the superimposition information CP1. The auxiliary information CP3 can be any information as long as it is additional information for assisting the user of the head mounted display 100. In the medical head mounted display 100, the auxiliary information CP3 can be, for example, the following information.

・患者に取り付けられた医療用機器(心電図、心拍数計、血圧計、パルスオキシメーター、血糖値計等)の計測値を表示する情報。
・患者に取り付けられた医療用機器の計測値に応じた注意喚起や、警告を表示する情報。
Information that displays the measurement values of medical devices (electrocardiogram, heart rate meter, blood pressure meter, pulse oximeter, blood glucose meter, etc.) attached to the patient.
-Information that displays alerts and warnings according to the measured values of medical devices attached to the patient.

図12(B)は、補助情報CP3として、患者の心拍数(HR)と、血圧(SYS/DIA)と、動脈血酸素飽和度(SpO2)とが表示された補助情報CP3が、虚像VIとして表示されている例を示している。図12(B)の例では、補助情報CP3は文字によって表現されている。しかし、補助情報CP3は、文字のほか、写真、絵柄、図形、およびこれらの組み合わせを採用することができる。なお、補助情報CP3は、重畳情報CP1と重ならないように、例えば端部に配置されることが好ましい。重畳情報CP1と、補助情報CP3とを同時に表示させる方法は、ステップS122と同様である。   In FIG. 12B, auxiliary information CP3 displaying the patient's heart rate (HR), blood pressure (SYS / DIA), and arterial oxygen saturation (SpO2) is displayed as virtual information VI as auxiliary information CP3. An example is shown. In the example of FIG. 12B, the auxiliary information CP3 is expressed by characters. However, the auxiliary information CP3 can adopt a photograph, a picture, a figure, and a combination thereof in addition to characters. Note that the auxiliary information CP3 is preferably arranged, for example, at an end so as not to overlap with the superimposition information CP1. The method for displaying the superimposition information CP1 and the auxiliary information CP3 simultaneously is the same as in step S122.

なお、図12(B)では、医療用のヘッドマウントディスプレイ100における補助情報CP3の例を挙げた。しかし、他の用途に用いられるヘッドマウントディスプレイ100においても、補助情報CP3を虚像VIとして表示させることができる。例えば、建設現場で使用されるヘッドマウントディスプレイ100における補助情報CP3は、建造物の情報(築年数、建造されている地盤の情報、施工方法の情報、建造に使用されている材料の情報等)を表示する情報とすることができる。その他、ヘッドマウントディスプレイ100の使用用途に応じた種々の補助情報を採用することができる。   In FIG. 12B, an example of the auxiliary information CP3 in the medical head mounted display 100 is given. However, the auxiliary information CP3 can be displayed as the virtual image VI also in the head mounted display 100 used for other purposes. For example, auxiliary information CP3 in the head-mounted display 100 used at the construction site is information on the building (building age, information on the ground that has been built, information on the construction method, information on the materials used in the construction, etc.) Can be displayed information. In addition, various auxiliary information according to the usage application of the head mounted display 100 can be adopted.

このように、付加的処理1によれば、ヘッドマウントディスプレイ100の使用者は、作業を補助するための情報である補助情報CP3を虚像VI(映像)として視認することができる。このため、ヘッドマウントディスプレイ100を用いた作業の効率を向上させることができる。   As described above, according to the additional processing 1, the user of the head mounted display 100 can visually recognize the auxiliary information CP3, which is information for assisting the work, as the virtual image VI (video). For this reason, the efficiency of work using the head mounted display 100 can be improved.

A−3−2.付加的処理2:
付加的処理2では、ステップS108で生成した重畳情報CP1と、ステップS114で生成した他の重畳情報と、ステップS122で生成した拡大情報CP2と、のうちの少なくともいずれか1つに対して色変換処理を行う。色変換処理は、ステップS202で撮影された外景画像の明度、コントラスト、彩度、色相に応じて、重畳情報生成部142により生成された各情報(重畳情報CP1、他の重畳情報、拡大情報CP2)の視認性を向上させるような色変換処理であることが好ましい。例えば、重畳情報生成部142により生成された各情報の色相を、ステップS202で撮影された外景画像の色相の補色へと変換する色変換処理を行うことができる。なお、色変換処理は、画像処理部160に対して各情報を送信する前に重畳情報生成部142が実行してもよく、各情報を受信した画像処理部160が実行してもよい。
A-3-2. Additional processing 2:
In the additional process 2, color conversion is performed on at least one of the superimposition information CP1 generated in step S108, the other superimposition information generated in step S114, and the enlarged information CP2 generated in step S122. Process. In the color conversion process, each piece of information (superimposition information CP1, other superimposition information, enlarged information CP2) generated by the superimposition information generation unit 142 according to the brightness, contrast, saturation, and hue of the outside scene image captured in step S202. It is preferable that the color conversion process improve the visibility. For example, it is possible to perform a color conversion process for converting the hue of each information generated by the superimposition information generation unit 142 into a complementary color of the hue of the outside scene image captured in step S202. The color conversion process may be executed by the superimposition information generation unit 142 before transmitting each information to the image processing unit 160, or may be executed by the image processing unit 160 that has received each information.

このように、付加的処理2によれば、ヘッドマウントディスプレイ100の使用者に対する虚像VI(映像)の視認性をより向上させることができる。   Thus, according to the additional process 2, the visibility of the virtual image VI (video) for the user of the head mounted display 100 can be further improved.

A−3−3.付加的処理3:
付加的処理3では、重畳情報生成部142は、虚像VIとして表示されている情報(重畳情報CP1、他の重畳情報、拡大情報CP2、補助情報CP3)を使用者の視界を妨げない位置へと退避させる。現在表示中の虚像VIが重畳情報CP1である場合を例にして説明する。重畳情報生成部142は、重畳情報CP1を縮小処理する。その後、重畳情報生成部142は、縮小処理後の画像を端部に配置し、他の部分には黒色のダミーデーターを配置した縮小情報を生成する。縮小情報生成後、重畳情報生成部142は、縮小情報を表示させる。具体的には、重畳情報生成部142は、画像処理部160に対して縮小情報を送信する。縮小情報を受信した画像処理部160は、縮小情報に対して、図2で説明した表示処理を実行する。この結果、ヘッドマウントディスプレイ100の使用者の視野VRには、重畳情報CP1に代えて、重畳情報CP1が縮小されて端部に配置された縮小情報が虚像VIとして表示される。なお、付加的処理3は、重畳情報表示処理(図5)のステップS118に代えて実行されてもよい。
A-3-3. Additional processing 3:
In the additional process 3, the superimposition information generation unit 142 moves the information displayed as the virtual image VI (superimposition information CP1, other superimposition information, enlarged information CP2, and auxiliary information CP3) to a position that does not hinder the user's view. Evacuate. A case where the virtual image VI currently being displayed is the superimposition information CP1 will be described as an example. The superimposition information generation unit 142 reduces the superimposition information CP1. Thereafter, the superimposition information generation unit 142 generates the reduced information in which the reduced image is arranged at the end and black dummy data is arranged in the other part. After the reduction information is generated, the superimposition information generation unit 142 displays the reduction information. Specifically, the superimposition information generation unit 142 transmits the reduction information to the image processing unit 160. The image processing unit 160 that has received the reduction information executes the display process described with reference to FIG. 2 for the reduction information. As a result, in the visual field VR of the user of the head mounted display 100, instead of the superimposition information CP1, the superposition information CP1 is reduced and the reduced information arranged at the end is displayed as a virtual image VI. Note that the additional process 3 may be executed in place of step S118 of the superimposition information display process (FIG. 5).

このように、付加的処理3によれば、ヘッドマウントディスプレイ100の使用者は、使用者自らの意思によって、虚像VI(映像)として表示されている情報(重畳情報CP1、他の重畳情報、拡大情報CP2、補助情報CP3)を、視界を妨げない位置へと退避させることができる。例えば、光学像表示部を透過して見る実像に注視したい場合、使用者は、意図的に虚像VI(映像)として表示されている情報を退避させることができる。このため、ヘッドマウントディスプレイ100における使用者の利便性を向上させることができる。   As described above, according to the additional process 3, the user of the head mounted display 100 can display information (superimposition information CP1, other superimposition information, enlargement information) displayed as a virtual image VI (video) according to the user's own intention. The information CP2 and the auxiliary information CP3) can be retreated to a position that does not disturb the field of view. For example, when the user wants to pay attention to a real image viewed through the optical image display unit, the user can intentionally evacuate information displayed as a virtual image VI (video). For this reason, the convenience of the user in the head mounted display 100 can be improved.

さらに、付加的処理3によれば、縮小処理後の各種情報(重畳情報CP1、他の重畳情報、拡大情報CP2、補助情報CP3)が端部に配置されているため、ヘッドマウントディスプレイ100の使用者に対して各種情報の存在を喚起することができる。換言すれば、縮小処理後の各種情報をアイコンのようにして用いることも可能となる。例えば、縮小処理後の重畳情報CP1を使用者が選択したことをトリガーとして、重畳情報CP1を元の位置および大きさに戻すことができる。このようにすれば、ヘッドマウントディスプレイ100における使用者の利便性をさらに向上させることができる。   Furthermore, according to the additional process 3, since various information after the reduction process (superimposition information CP1, other superimposition information, enlargement information CP2, and auxiliary information CP3) is arranged at the end, use of the head mounted display 100 The presence of various information can be alerted to the person. In other words, various types of information after the reduction process can be used like icons. For example, the superimposition information CP1 can be returned to the original position and size, triggered by the user's selection of the superposition information CP1 after the reduction process. In this way, user convenience in the head mounted display 100 can be further improved.

A−3−4.付加的処理4:
付加的処理4では、重畳情報生成部142は、使用者の頭の小さなブレに付随する虚像VIの揺れを抑制する、いわゆるスタビライザー機能を実現する。重畳情報表示処理(図5)のステップS112において、重畳情報生成部142は、表示の切替指示がない場合、所定の時間待機後に処理をステップS108へ遷移させる。これにより、所定の時間ごとに、外景画像の撮影と、重畳情報CP1の生成および表示が繰り返されることとなるため、使用者の頭部の経時的な動きに追従した重畳情報CP1を虚像VIとして表示させることができる。しかし、使用者の頭の微小な動きやゆらぎに追従して重畳情報CP1が度々変わることは、かえって使用者の眼精疲労を誘発するおそれや、使用者の集中力を妨げるおそれがある。そこで、重畳情報生成部142は、重畳情報生成処理(図8)のステップS202とS204との間に、手順a1、a2で示す処理を行ってもよい。
A-3-4. Additional processing 4:
In the additional process 4, the superimposition information generation unit 142 realizes a so-called stabilizer function that suppresses the shaking of the virtual image VI accompanying the small blur of the user's head. In step S112 of the superimposing information display process (FIG. 5), when there is no display switching instruction, the superimposing information generation unit 142 shifts the process to step S108 after waiting for a predetermined time. As a result, shooting of the outside scene image and generation and display of the superimposition information CP1 are repeated every predetermined time, so that the superimposition information CP1 following the temporal movement of the user's head is used as the virtual image VI. Can be displayed. However, when the superimposition information CP1 frequently changes following a minute movement or fluctuation of the user's head, there is a possibility that the user's eye strain may be induced or the user's concentration may be hindered. Therefore, the superimposition information generation unit 142 may perform processes indicated by procedures a1 and a2 between steps S202 and S204 of the superimposition information generation process (FIG. 8).

手順a1)ステップS202で撮影された外景画像と、前回実行された重畳情報生成処理のステップS202で撮影された外景画像との間の、RGBヒストグラムの変化量を求める。
手順a2)手順a1で求めた変化量が所定の閾値を超える場合、ステップS204以降の処理を継続する。手順a1で求めた変化量が所定の閾値以下である場合、前回実行された重畳情報生成処理で生成された重畳情報CP1を、現在実行中の重畳情報生成処理の処理結果とする。
Procedure a1) The amount of change in the RGB histogram between the outside scene image shot in step S202 and the outside scene image shot in step S202 of the previously executed superimposition information generation process is obtained.
Procedure a2) When the amount of change obtained in procedure a1 exceeds a predetermined threshold value, the processing after step S204 is continued. When the amount of change obtained in step a1 is equal to or less than a predetermined threshold, the superimposition information CP1 generated in the previous superimposition information generation process is set as the processing result of the superimposition information generation process currently being executed.

このように、付加的処理4によれば、重畳情報生成部142は、前回実行された重畳情報生成処理における外景画像(使用者の視界方向の外景)と、現在実行中の重畳情報生成処理における外景画像と間の変化量が小さい場合、すなわち、使用者の頭の動きが微小である場合は、新たな重畳情報CP1は生成せず、前回実行された重畳情報生成処理で生成された重畳情報CP1を、現在実行中の重畳情報生成処理の処理結果とする。この結果、ヘッドマウントディスプレイ100の使用者の頭の微小な動きやゆらぎに追従して重畳情報CP1が度々変わることを抑制することができるため、使用者の眼精疲労や集中力低下を抑制することができる。なお、スタビライザー機能のON/OFFを使用者によって切替可能な構成にしてもよい。   As described above, according to the additional process 4, the superimposition information generation unit 142 performs an outside scene image (outer scene in the user's view direction) in the previously executed superimposition information generation process and a superimposition information generation process currently being executed. When the amount of change between the image and the outside scene image is small, that is, when the movement of the user's head is very small, new superimposition information CP1 is not generated, but the superimposition information generated by the previously executed superimposition information generation process. Let CP1 be the processing result of the currently executed superimposition information generation process. As a result, it is possible to suppress frequent changes in the superimposition information CP1 following the minute movements and fluctuations of the user's head of the head mounted display 100, thereby suppressing the user's eye strain and reduced concentration. be able to. The stabilizer function may be switched on / off by the user.

A−3−5.付加的処理5:
付加的処理5では、重畳情報生成部142は、画像表示部20の光学像表示部26、28と、使用者の視界方向にある物体との間の距離に応じて、拡大情報CP2および補助情報CP3が虚像VIとして表示される大きさを変更する。具体的には、重畳情報生成部142は、重畳情報表示処理(図5)において、手順b1〜b3に示す処理を行うことができる。なお、付加的処理5を実施する場合、ヘッドマウントディスプレイ100には、さらに測距センサーを備える構成とする。測距センサーは、反射光によって使用者の視界方向にある物体と画像表示部20との間の距離を取得するためのセンサーであり、例えば、図1のカメラ61の近傍に配置することができる。
A-3-5. Additional processing 5:
In the additional processing 5, the superimposition information generation unit 142 includes the enlarged information CP2 and the auxiliary information according to the distance between the optical image display units 26 and 28 of the image display unit 20 and the object in the user's visual field direction. The size at which CP3 is displayed as a virtual image VI is changed. Specifically, the superimposition information generation unit 142 can perform the processes shown in steps b1 to b3 in the superimposition information display process (FIG. 5). When the additional process 5 is performed, the head mounted display 100 is further provided with a distance measuring sensor. The distance measuring sensor is a sensor for acquiring a distance between an object in the user's visual field direction and the image display unit 20 by reflected light, and can be disposed, for example, in the vicinity of the camera 61 in FIG. .

手順b1)重畳情報生成部142は、定期的に測距センサーによる測定値を取得する。
手順b2)重畳情報生成部142は、重畳情報表示処理(図5)のステップS122における拡大処理の際に、取得した測距センサーの測定値に応じて拡大率を変更する。
手順b3)重畳情報生成部142は、測距センサーの測定値に応じて、付加的処理1の補助情報CP3の大きさを変更する。
Procedure b1) The superimposition information generation unit 142 periodically acquires a measurement value by the distance measuring sensor.
Procedure b2) The superimposition information generation unit 142 changes the enlargement ratio according to the acquired measurement value of the distance measuring sensor during the enlargement process in step S122 of the superimposition information display process (FIG. 5).
Procedure b3) The superimposition information generation unit 142 changes the size of the auxiliary information CP3 of the additional process 1 according to the measurement value of the distance measuring sensor.

このように、付加的処理5によれば、重畳情報生成部142は、使用者の視界方向にある物体と画像表示部20との間の距離に応じて、拡大情報CP2および補助情報CP3が虚像VI(映像)として表示される大きさを変更する。このため、ヘッドマウントディスプレイ100における使用者の利便性を向上させることができる。   As described above, according to the additional process 5, the superimposition information generation unit 142 determines that the enlarged information CP2 and the auxiliary information CP3 are virtual images according to the distance between the object in the visual field direction of the user and the image display unit 20. The size displayed as VI (video) is changed. For this reason, the convenience of the user in the head mounted display 100 can be improved.

A−3−6.付加的処理6:
付加的処理6では、無線通信部132は、上述した処理の最中に取得された外景画像を外部の装置へ送信する。外景画像とは、具体的には、重畳情報生成処理(図8)のステップS202で取得された外景画像と、重畳情報表示処理(図5)のステップS120で取得された外景画像とである。外部の装置とは、例えば、他のヘッドマウントディスプレイ100、サーバー、モニター等である。無線通信部132は、これらの外景画像を、無線接続を介して外部の装置へ送信する。外景画像を受信した外部の装置は、受信した外景画像を種々の態様で活用することができる。例えば、他のヘッドマウントディスプレイ100やモニターに表示させてもよい。また、サーバーへ記憶させて手術(作業)のログとして保存してもよい。
A-3-6. Additional processing 6:
In the additional process 6, the wireless communication unit 132 transmits the outside scene image acquired during the above-described process to an external device. Specifically, the outside scene image is the outside scene image acquired in step S202 of the superimposition information generation process (FIG. 8) and the outside scene image acquired in step S120 of the superimposition information display process (FIG. 5). Examples of the external device include another head mounted display 100, a server, and a monitor. The wireless communication unit 132 transmits these outside scene images to an external device via a wireless connection. An external device that has received an outside scene image can utilize the received outside scene image in various ways. For example, it may be displayed on another head mounted display 100 or a monitor. Further, it may be stored in a server and saved as a log of surgery (work).

他のヘッドマウントディスプレイ100やモニターに表示させる態様では、外部の装置は、表示された画像を見た医師(作業者)による助言を取得してもよい。この場合、外部の装置は、取得した助言を、ヘッドマウントディスプレイ100へ送信する。助言を受信したヘッドマウントディスプレイ100の無線通信部132は、受信した助言を転送する。具体的には、無線通信部132は、受信した助言が音声情報である場合は音声処理部170へ転送し、文字情報や画像情報である場合は重畳情報生成部142へ転送する。音声情報を受信した音声処理部170は、音声情報に含まれる音声信号を増幅して、右イヤホン32と左イヤホン34とに内蔵されたスピーカーへ供給する。これにより、ヘッドマウントディスプレイ100の使用者は、音声による助言を聴くことができる。一方、文字情報や画像情報を受信した重畳情報生成部142は、重畳情報CP1に加えてさらに、受信した文字情報や画像情報を虚像VIとして表示させる。文字情報や画像情報の表示方法は、付加的処理1で説明した補助情報CP3と同様である。これにより、ヘッドマウントディスプレイ100の使用者は、文字や画像による助言を虚像VIとして視認することができる。   In an aspect in which the image is displayed on another head-mounted display 100 or a monitor, an external device may obtain advice from a doctor (operator) who has viewed the displayed image. In this case, the external device transmits the acquired advice to the head mounted display 100. The wireless communication unit 132 of the head mounted display 100 that has received the advice transfers the received advice. Specifically, the wireless communication unit 132 transfers the advice received to the voice processing unit 170 when the received advice is voice information, and transfers it to the superimposition information generation unit 142 when the received advice is text information or image information. The audio processing unit 170 that has received the audio information amplifies the audio signal included in the audio information, and supplies the amplified audio signal to speakers built in the right earphone 32 and the left earphone 34. Thereby, the user of the head mounted display 100 can listen to the advice by voice. On the other hand, the superimposition information generation unit 142 that has received the character information and the image information further displays the received character information and image information as a virtual image VI in addition to the superimposition information CP1. The display method of the character information and the image information is the same as that of the auxiliary information CP3 described in the additional process 1. Thereby, the user of the head mounted display 100 can visually recognize the advice by a character and an image as the virtual image VI.

このように、付加的処理6によれば、処理の最中に取得された外景画像を外部の装置においても閲覧することができ、保存することができる。また、付加的処理6によれば、ヘッドマウントディスプレイ100の使用者は、処理の最中に取得された外景画像を見た人物からの助言を得ることができる。このため、ヘッドマウントディスプレイ100を用いた作業の効率化と、精度の向上を図ることができる。   As described above, according to the additional process 6, the outside scene image acquired during the process can be browsed and stored in the external apparatus. Further, according to the additional process 6, the user of the head mounted display 100 can obtain advice from a person who has seen an outside scene image acquired during the process. For this reason, the work efficiency using the head mounted display 100 can be improved and the accuracy can be improved.

A−3−7.付加的処理7:
付加的処理7では、重畳情報生成部142は、虚像VIの表示領域と、カメラ61の撮像領域とのキャリブレーションを行う。重畳情報生成部142は、重畳情報表示処理(図5)に先立って、次の手順c1〜c7に示す処理を行う。
A-3-7. Additional processing 7:
In additional processing 7, the superimposition information generation unit 142 calibrates the display area of the virtual image VI and the imaging area of the camera 61. Prior to the superimposition information display process (FIG. 5), the superimposition information generation unit 142 performs the processes shown in the following procedures c1 to c7.

手順c1)記憶部120に、キャリブレーションのためのガイド画像の画像データー(以降「ガイド画像データー」とも呼ぶ。)を予め記憶させておく。ガイド画像は、ヘッドマウントディスプレイ100の使用者に対して、虚像の表示領域の端部を示すための画像である。例えば、ガイド画像は、右LCD241および左LCD242と同じアスペクト比を有する矩形形状で、白色一色の背景を有する画像であり、その四隅と、対角線の交点に位置する部分とに、円状の案内マークを有する画像とすることができる。
手順c2)重畳情報生成部142は、記憶部120に格納されているガイド画像データーを読み出して、ガイド画像データーを画像処理部160へ送信する。ガイド画像データーを受信した画像処理部160では、図2で説明した処理が実行される。この結果、ヘッドマウントディスプレイ100の使用者の視野VRにはガイド画像が虚像VIとして表示される。
Procedure c1) The image data of the guide image for calibration (hereinafter also referred to as “guide image data”) is stored in the storage unit 120 in advance. The guide image is an image for showing the end of the virtual image display area to the user of the head mounted display 100. For example, the guide image is a rectangular image having the same aspect ratio as that of the right LCD 241 and the left LCD 242 and an image having a white background, and circular guide marks are formed at the four corners and at the intersections of the diagonal lines. An image having
Step c2) The superimposition information generation unit 142 reads the guide image data stored in the storage unit 120 and transmits the guide image data to the image processing unit 160. The image processing unit 160 that has received the guide image data executes the process described with reference to FIG. As a result, the guide image is displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100.

手順c3)重畳情報生成部142は、虚像VIとして表示されたガイド画像の案内マークを順に指差すように、使用者に対して案内する。使用者に対する案内の方法として、ダイアログボックス等を用いたメッセージを用いてもよいし、音声による案内を行っても良い。音声による案内は、表示中のガイド画像を遮ることなく案内することができる点で好ましい。
手順c4)重畳情報生成部142は、カメラ61に外景画像を撮像させる。
手順c5)重畳情報生成部142は、カメラ61により撮像された外景画像を画像認識して、人間の指先の位置を特定する。重畳情報生成部142は、各案内マークについて、指先位置の座標を取得し、記憶部120へ保存する。例えば、指先位置の座標は、外景画像の最も左上部分の画素を(0,0)とした場合のX方向、Y方向の移動量として定義することができる。
Step c3) The superimposition information generation unit 142 guides the user so that the guide marks of the guide image displayed as the virtual image VI are pointed in order. As a guidance method for the user, a message using a dialog box or the like may be used, or guidance by voice may be performed. Voice guidance is preferable in that guidance can be provided without blocking the currently displayed guide image.
Procedure c4) The superimposition information generation unit 142 causes the camera 61 to capture an outside scene image.
Procedure c5) The superimposition information generation unit 142 recognizes the outside scene image captured by the camera 61 and specifies the position of the human fingertip. The superimposition information generation unit 142 acquires the coordinates of the fingertip position for each guide mark and stores them in the storage unit 120. For example, the coordinates of the fingertip position can be defined as the amount of movement in the X and Y directions when the pixel in the upper left part of the outside scene image is (0, 0).

手順c6)重畳情報生成部142は、全ての案内マークについて、外景画像の取得、指先位置の座標取得、座標の保存の一連の処理を繰り返す。その後、重畳情報生成部142は、ガイド画像の表示を終了させる。このようにして、重畳情報生成部142は、カメラ61の撮像領域と、虚像VIの表示領域とが重複する領域を予め取得する。なお、カメラ61の撮像領域(取得領域)と虚像VIの表示領域とが重複する領域のことを「重複領域」とも呼ぶ。
手順c7)重畳情報生成部142は、重畳情報生成処理(図8)のステップS204において、カメラ61により撮像された外景画像のうち、重複領域内の画像に含まれる物体の特徴を抽出する。そして、ステップS208において、重複領域に対応した重畳情報CP1を生成する。
Step c6) The superimposition information generation unit 142 repeats a series of processes of acquiring an outside scene image, acquiring the coordinates of the fingertip position, and storing the coordinates for all the guidance marks. Thereafter, the superimposition information generation unit 142 ends the display of the guide image. In this way, the superimposition information generation unit 142 acquires an area in which the imaging area of the camera 61 and the display area of the virtual image VI overlap in advance. A region where the imaging region (acquisition region) of the camera 61 and the display region of the virtual image VI overlap is also referred to as an “overlapping region”.
Procedure c7) The superimposition information generation unit 142 extracts the feature of the object included in the image in the overlapping area from the outside scene image captured by the camera 61 in step S204 of the superimposition information generation process (FIG. 8). In step S208, superimposition information CP1 corresponding to the overlapping area is generated.

このように、付加的処理7によれば、重畳情報生成部142は、虚像VI(映像)の表示領域とカメラ61(画像取得部)の取得領域とが重複する重複領域に対して重畳情報CP1を生成することができる。このため、透過型のヘッドマウントディスプレイ100(頭部装着型表示装置)において生じる課題であった「使用者が自身の視界において直接目にする像と、画像表示部20により視認させられる虚像VI(映像)との間のずれ」の発生を低減させることができる。この結果、重畳情報CP1を虚像として視認させた場合に、使用者に与える違和感を低減させることができる。   As described above, according to the additional process 7, the superimposition information generation unit 142 performs superimposition information CP1 for an overlapping region where the display region of the virtual image VI (video) and the acquisition region of the camera 61 (image acquisition unit) overlap. Can be generated. For this reason, “an image that the user directly sees in his / her field of view and a virtual image VI (which is visually recognized by the image display unit 20), which is a problem that occurs in the transmissive head-mounted display 100 (head-mounted display device). Occurrence of “deviation from the image”) can be reduced. As a result, when the superimposed information CP1 is visually recognized as a virtual image, it is possible to reduce a sense of discomfort given to the user.

B.第2実施形態:
本発明の第2実施形態では、頭部装着型表示装置において、さらに、使用者が行う作業を支援することが可能な構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, a configuration that can further support the work performed by the user in the head-mounted display device will be described. Below, only the part which has a different structure and operation | movement from 1st Embodiment is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

B−1.頭部装着型表示装置の構成:
図13は、第2実施形態におけるヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aは、記憶部120に代えて記憶部120aを備え、CPU140に代えてCPU140aを備えている。
B-1. Head-mounted display device configuration:
FIG. 13 is a block diagram functionally showing the configuration of the head mounted display 100a in the second embodiment. The difference from the first embodiment shown in FIG. 2 is that a control unit 10 a is provided instead of the control unit 10. The control unit 10a includes a storage unit 120a instead of the storage unit 120, and includes a CPU 140a instead of the CPU 140.

記憶部120aは、図2で示した各記憶部に加えてさらに、手順テーブル126を含んでいる。CPU140aは、図2で示した重畳情報生成部142に代えて重畳情報生成部142aを備え、また、図2で示した各処理部に加えてさらに、手順管理部144を備えている。重畳情報生成部142aと手順管理部144とは、協働することによって、第2実施形態における重畳情報表示処理を実行する。   The storage unit 120a further includes a procedure table 126 in addition to the storage units shown in FIG. The CPU 140a includes a superimposition information generation unit 142a instead of the superimposition information generation unit 142 illustrated in FIG. 2, and further includes a procedure management unit 144 in addition to the processing units illustrated in FIG. The superimposition information generation unit 142a and the procedure management unit 144 cooperate to execute the superimposition information display process in the second embodiment.

図14は、手順テーブル126の一例を示す説明図である。手順テーブル126は、第2実施形態における重畳情報表示処理で使用されるテーブルである。手順テーブル126は、記憶部120a内に予め格納されている。手順テーブル126は、作業番号と、手順番号と、手順名と、指示内容と、画像と、のフィールドを含んでいる。   FIG. 14 is an explanatory diagram showing an example of the procedure table 126. The procedure table 126 is a table used in the superimposition information display process in the second embodiment. The procedure table 126 is stored in advance in the storage unit 120a. The procedure table 126 includes fields for work number, procedure number, procedure name, instruction content, and image.

作業番号には、作業を一意に識別するための識別子が格納されている。例えば、作業番号には、医療用のヘッドマウントディスプレイ100の場合、手術の術式を表す識別子が格納される。識別子は、文字列からなり、例えば英数字の組み合わせとすることができる。   The work number stores an identifier for uniquely identifying the work. For example, in the case of the medical head mounted display 100, the work number stores an identifier representing the surgical technique. The identifier consists of a character string, and can be, for example, a combination of alphanumeric characters.

手順番号以降の各フィールドには、作業番号により特定される作業に含まれる複数の手順に関する種々の情報が格納されている。手順番号には、手順を一意に識別するための識別子が格納されている。識別子は、文字列からなり、例えば英数字の組わせとすることができる。図14の例では、作業内の複数の手順は、手順番号の昇順に進行させることを想定している。手順名には、当該手順の名称が格納されている。指示内容には、当該手順において、使用者が実施すべき内容を表す文字列が格納されている。なお、図14の例では、指示内容を使用者に対する案内文形式の文字列で表現している。画像には、使用者が実施すべき内容を表す画像が格納されている。画像は、例えば、第三者が当該手順を模範的に実施している場面の写真等である。なお、画像は、写真のほか、図面(説明図、組立図、配置図、回路図等)であってもよく、それらの組み合わせであってもよい。   In each field after the procedure number, various information regarding a plurality of procedures included in the work specified by the work number is stored. The procedure number stores an identifier for uniquely identifying the procedure. The identifier is composed of a character string and can be, for example, a combination of alphanumeric characters. In the example of FIG. 14, it is assumed that a plurality of procedures in the work proceeds in ascending order of procedure numbers. The procedure name stores the name of the procedure. In the instruction contents, a character string representing contents to be implemented by the user in the procedure is stored. In the example of FIG. 14, the instruction content is expressed by a character string in a guidance sentence format for the user. In the image, an image representing contents to be implemented by the user is stored. The image is, for example, a photograph of a scene where a third party is performing the procedure in an exemplary manner. In addition to the photograph, the image may be a drawing (an explanatory diagram, an assembly diagram, a layout diagram, a circuit diagram, etc.), or a combination thereof.

図14の例では、手順テーブル126は、医療用のヘッドマウントディスプレイ100において、医師が行う作業(すなわち手術)の手順を格納したテーブルであることがわかる。また、作業番号1で識別される作業は、人工指関節置換手術であることがわかる。さらに、手順番号1で識別される手順において使用者が実施すべき内容は「手術にあたって必要な物品を準備すること」であることと、「必要な物品は何か」であることがわかる。さらに、手順番号1で識別される手順には、使用者が実施すべき内容を表す画像は対応付けられていない。   In the example of FIG. 14, it is understood that the procedure table 126 is a table that stores a procedure of work (ie, surgery) performed by a doctor in the medical head mounted display 100. It can also be seen that the work identified by work number 1 is an artificial finger joint replacement operation. Further, it is understood that the contents to be performed by the user in the procedure identified by the procedure number 1 are “preparing an article necessary for surgery” and “what is an article necessary”. Further, the procedure identified by the procedure number 1 is not associated with an image representing the content to be performed by the user.

B−2.重畳情報表示処理:
図15は、第2実施形態における重畳情報表示処理の手順を示すフローチャートである。図5に示した第1実施形態との違いは、ステップS302、S304、S306が追加されている点である。
B-2. Superimposition information display processing:
FIG. 15 is a flowchart illustrating a procedure of superimposition information display processing in the second embodiment. The difference from the first embodiment shown in FIG. 5 is that steps S302, S304, and S306 are added.

重畳情報表示処理の開始指示後、ステップS302において手順管理部144は、現在の手順を推定する。具体的には、手順管理部144は、カメラ61を起動し、カメラ61に対して撮像を指示し、カメラ61によって撮像された外景画像を取得する。手順管理部144は、取得した外景画像を画像認識することによって、手順テーブル126に格納されている複数の手順から、現在の手順を推定する。このようにすれば、手順管理部144は、カメラ61(画像取得部)により取得された使用者の視界方向の画像(外景画像)に基づいて、自動的に現在の手順を推定することができる。   After instructing the start of the superimposition information display process, in step S302, the procedure management unit 144 estimates the current procedure. Specifically, the procedure management unit 144 activates the camera 61, instructs the camera 61 to capture an image, and acquires an outside scene image captured by the camera 61. The procedure management unit 144 recognizes the acquired outside scene image and estimates the current procedure from a plurality of procedures stored in the procedure table 126. In this way, the procedure management unit 144 can automatically estimate the current procedure based on the user's view direction image (outside scene image) acquired by the camera 61 (image acquisition unit). .

現在の手順を推定後、ステップS108において重畳情報生成部142aは、重畳用画像生成処理を実行する。詳細は図8で説明した第1実施形態と同様である。   After the current procedure is estimated, in step S108, the superimposition information generation unit 142a executes a superimposition image generation process. Details are the same as in the first embodiment described in FIG.

重畳用画像生成処理の実行後、ステップS304において手順管理部144は、手順情報を生成する。具体的には、手順管理部144は、次の手順d1〜d4に示す処理を行う。   After execution of the superimposition image generation process, in step S304, the procedure management unit 144 generates procedure information. Specifically, the procedure management unit 144 performs the processes shown in the following procedures d1 to d4.

手順d1)手順管理部144は、手順テーブル126を検索し、ステップS302で推定された現在の手順に関連付けられているエントリーを抽出する。
手順d2)手順管理部144は、抽出されたエントリーのうち、画像フィールドに画像(使用者が実施すべき内容を表す画像)が格納されているか否かを判定する。手順管理部144は、画像が格納されている場合は手順d3を実行し、画像が格納されていない場合は手順d4を実行する。
手順d3)手順管理部144は、画像フィールドに格納されている画像を上端部に配置し、指示内容フィールドに格納されている文字列を下端部に配置し、他の部分には黒色のダミーデーターを配置した手順情報を生成する。なお、文字列は、外景画像の色相を考慮したうえで、視認性の高い色とすることが好ましい。
手順d4)手順管理部144は、指示内容フィールドに格納されている文字列を下端部に配置し、他の部分には黒色のダミーデーターを配置した手順情報を生成する。
Procedure d1) The procedure management unit 144 searches the procedure table 126 and extracts an entry associated with the current procedure estimated in step S302.
Step d2) The procedure management unit 144 determines whether or not an image (an image representing contents to be implemented by the user) is stored in the image field among the extracted entries. The procedure management unit 144 executes the procedure d3 when the image is stored, and executes the procedure d4 when the image is not stored.
Step d3) The procedure management unit 144 arranges the image stored in the image field at the upper end, arranges the character string stored in the instruction content field at the lower end, and black dummy data in the other portions. Procedural information in which is placed is generated. The character string is preferably a highly visible color in consideration of the hue of the outside scene image.
Procedure d4) The procedure management unit 144 generates procedure information in which the character string stored in the instruction content field is arranged at the lower end and black dummy data is arranged in the other part.

なお、手順d3、d4における画像と文字列の配置は、任意に変更することができる。ただし、使用者の視界を過度に遮らない態様で使用者に実施すべき内容を案内するためには、画像と文字列の配置は、手順情報CP4の端部(換言すれば四辺の近傍)であることが好ましい。   Note that the arrangement of images and character strings in steps d3 and d4 can be arbitrarily changed. However, in order to guide the contents to be implemented to the user in a manner that does not excessively obstruct the user's field of view, the image and character string are arranged at the end of the procedure information CP4 (in other words, in the vicinity of the four sides). Preferably there is.

図16は、手順情報の例を示す説明図である。手順情報CP4では、下側の端部に、使用者が実施すべき内容を表す「人工指関節を挿入します」という文字列MG4が配置されている。また、右側上端部に、人工指関節の挿入の模範例を示す画像IM4が配置されている。   FIG. 16 is an explanatory diagram illustrating an example of procedure information. In the procedure information CP4, a character string MG4 “insert an artificial finger joint” representing the contents to be implemented by the user is arranged at the lower end. In addition, an image IM4 showing an example of insertion of an artificial finger joint is arranged at the upper right end.

手順情報CP4の生成後、ステップS306において重畳情報生成部142aおよび手順管理部144は、重畳情報CP1と手順情報とを表示させる。具体的には、重畳情報生成部142aは、画像処理部160に対して重畳情報CP1を送信し、手順管理部144は、画像処理部160に対して手順情報CP4を送信する。重畳情報CP1と、手順情報CP4とを受信した画像処理部160は、重畳情報CP1と手順情報CP4とを各レイヤーとした合成画像を生成し、生成した合成画像に対して、図2で説明した表示処理を実行する。この結果、ヘッドマウントディスプレイ100aの使用者の視野VRには、重畳情報CP1と手順情報CP4とが、虚像VIとして表示される。   After the procedure information CP4 is generated, the superimposition information generation unit 142a and the procedure management unit 144 display the superimposition information CP1 and the procedure information in step S306. Specifically, the superimposition information generation unit 142a transmits the superimposition information CP1 to the image processing unit 160, and the procedure management unit 144 transmits the procedure information CP4 to the image processing unit 160. The image processing unit 160 that has received the superimposition information CP1 and the procedure information CP4 generates a composite image using the superimposition information CP1 and the procedure information CP4 as layers, and the generated composite image has been described with reference to FIG. Execute display processing. As a result, the superimposition information CP1 and the procedure information CP4 are displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100a.

以上のように、第2実施形態の重畳情報表示処理では、画像表示部20は、現在の手順についてヘッドマウントディスプレイ100aの使用者が実施すべき内容を表した手順情報CP4を虚像VI(映像)として使用者に視認させる。このため、第1実施形態の効果に加えてさらに、ヘッドマウンドディスプレイ100aの使用者が実施すべき内容を、画像を用いて視覚的に示すことが可能となる。このため、使用者が行う作業をより分かりやすく支援することができる。   As described above, in the superimposition information display process of the second embodiment, the image display unit 20 displays the procedure information CP4 representing the contents to be performed by the user of the head mounted display 100a for the current procedure, as the virtual image VI (video). Let the user visually recognize. For this reason, in addition to the effects of the first embodiment, the contents to be implemented by the user of the head mounted display 100a can be visually shown using an image. For this reason, the work performed by the user can be supported more easily.

なお、上記第2実施形態では、手順テーブル126の画像フィールドに対して、第三者が当該手順を模範的に実施している場面の写真等が格納されている場合を例にして説明した。しかし、手順テーブル126の画像フィールドには、実際の個別具体的な手順に際して使用者が実施すべき内容を表す画像が格納されていてもよい。具体的には、手順テーブル126の画像フィールドには、例えば、実際に手術を受ける患者の皮膚の切開箇所を表す画像や、実際に手術を受ける患者の体内に対する医療機器(例えば、医療用ねじ、ペースメーカー、カテーテル、人工関節等)の挿入箇所を表す画像が格納されていてもよい。この場合、手順管理部144は、重畳情報表示処理(図15)のステップS108、S304、S306に代えて、次の手順e1〜e9に示す処理を行う。   In the second embodiment, the case where a photograph of a scene where a third party is performing the procedure in an exemplary manner is stored in the image field of the procedure table 126 has been described as an example. However, the image field of the procedure table 126 may store an image representing the contents to be performed by the user in the actual individual specific procedure. Specifically, the image field of the procedure table 126 includes, for example, an image representing an incised portion of the skin of a patient who actually undergoes surgery, or a medical device (for example, a medical screw, An image representing an insertion location of a pacemaker, a catheter, an artificial joint, etc.) may be stored. In this case, the procedure management unit 144 performs the processes shown in the following procedures e1 to e9 instead of steps S108, S304, and S306 in the superimposition information display process (FIG. 15).

手順e1)手順管理部144は、手順テーブル126を検索し、ステップS302で推定された現在の手順に関連付けられているエントリーを抽出する。
手順e2)手順管理部144は、抽出されたエントリーのうち、画像フィールドに画像が格納されているか否かを判定する。手順管理部144は、画像が格納されている場合は手順e3〜e7、e9を実行し、画像が格納されていない場合は手順e8、e9を実行する。
Procedure e1) The procedure management unit 144 searches the procedure table 126 and extracts an entry associated with the current procedure estimated in step S302.
Procedure e2) The procedure management unit 144 determines whether an image is stored in the image field among the extracted entries. The procedure management unit 144 executes steps e3 to e7 and e9 when the image is stored, and executes steps e8 and e9 when the image is not stored.

手順e3)重畳情報生成部142aは、外景画像を取得する。詳細は重畳情報生成処理(図8)のステップS202と同様である。
手順e4)重畳情報生成部142aは、外景画像を画像認識することで対象物体の特徴を抽出する。詳細は重畳情報生成処理のステップS204と同様である。
手順e5)重畳情報生成部142aは、画像フィールドに格納されている画像を画像認識することで対象物体の特徴を抽出する。詳細は重畳情報生成処理のステップS206と同様である。ただし、ステップS206の「不可視情報」を、「画像フィールドに格納されている画像」と読み替える。
手順e6)重畳情報生成部142aは、手順e4で抽出された外景画像の特徴と、手順e5で抽出された画像フィールドに格納されている画像の特徴とが合うように、画像フィールドに格納されている画像を補正し、重畳画像CP5を生成する。詳細は重畳情報生成処理のステップS208と同様である。ただし、ステップS208の「不可視情報」を、「画像フィールドに格納されている画像」と読み替える。
手順e7)手順管理部144は、手順e6で生成された重畳画像CP5に対して、手順情報を表すレイヤーを追加する。具体的には、手順管理部144は、手順e1で抽出されたエントリーの指示内容フィールドに格納されている文字列を重畳画像CP5の下端部に配置する。
Step e3) The superimposition information generation unit 142a acquires an outside scene image. Details are the same as in step S202 of the superimposition information generation process (FIG. 8).
Procedure e4) The superimposition information generation unit 142a extracts the feature of the target object by recognizing the outside scene image. Details are the same as in step S204 of the superimposition information generation process.
Step e5) The superimposition information generation unit 142a extracts the feature of the target object by recognizing the image stored in the image field. Details are the same as in step S206 of the superimposition information generation process. However, “invisible information” in step S206 is replaced with “image stored in the image field”.
Step e6) The superimposition information generation unit 142a stores the feature of the outside scene image extracted in step e4 and the feature of the image stored in the image field extracted in step e5 so as to match each other. The superimposed image CP5 is generated by correcting the existing image. Details are the same as in step S208 of the superimposition information generation process. However, “invisible information” in step S208 is replaced with “image stored in the image field”.
Procedure e7) The procedure management unit 144 adds a layer representing procedure information to the superimposed image CP5 generated in the procedure e6. Specifically, the procedure management unit 144 arranges the character string stored in the instruction content field of the entry extracted in the procedure e1 at the lower end of the superimposed image CP5.

図17は、手順情報が追加された重畳情報の例を示す説明図である。この重畳情報CP5では、使用者の視界方向の対象物体(外景に含まれる物体)の特徴に合わせた角度、位置、大きさで、実際に手術を受ける患者の皮膚の切開箇所を表す画像IM5が配置されている。また、重畳情報CP5では、下側の端部に、使用者が実施すべき内容を表す「円刃メスを用いて手術部位の皮膚を切開し、指関節を露出させます」という文字列MG5が配置されている。   FIG. 17 is an explanatory diagram illustrating an example of superimposition information to which procedure information is added. In the superimposition information CP5, an image IM5 that represents an incision site of the skin of the patient who actually undergoes surgery at an angle, position, and size that matches the characteristics of the target object (object included in the outside scene) in the user's visual field direction. Is arranged. In addition, in the superimposition information CP5, a character string MG5 that represents the contents to be performed by the user at the lower end portion is “the skin of the surgical site is incised using a circular knife knife to expose the finger joint”. Has been placed.

手順e8)手順管理部144は、手順e1で抽出されたエントリーの指示内容フィールドに格納されている文字列をがたん部に配置し、他の部分には黒色のダミーデーターを配置した手順情報CP4を生成する。
手順e9)手順管理部144は、手順e7で生成された重畳情報CP5または手順e8で生成された手順情報CP4を表示させる。具体的には、手順管理部144は、画像処理部160に対して生成された重畳情報CP5または手順情報CP4を送信する。重畳情報CP5または手順情報CP4を受信した画像処理部160は、図2で説明した表示処理を実行する。この結果、ヘッドマウンドディスプレイ100aの使用者の視野VRには、重畳情報CP5または手順情報CP4が、虚像VIとして表示される。
Procedure e8) The procedure management unit 144 arranges the character string stored in the instruction content field of the entry extracted in the procedure e1 in the background part and procedure information CP4 in which black dummy data is arranged in the other part. Is generated.
Procedure e9) The procedure management unit 144 displays the superimposition information CP5 generated in the procedure e7 or the procedure information CP4 generated in the procedure e8. Specifically, the procedure management unit 144 transmits the generated superimposition information CP5 or procedure information CP4 to the image processing unit 160. The image processing unit 160 that has received the superimposition information CP5 or the procedure information CP4 executes the display process described with reference to FIG. As a result, the superimposition information CP5 or the procedure information CP4 is displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100a.

図18は、手順e1〜e9によって使用者に視認される虚像の一例を示す説明図である。図18に示すように、ヘッドマウンドディスプレイ100aの使用者の視野VRには、重畳情報CP5が虚像VIとして表示される。このように、本実施形態におけるヘッドマウンドディスプレイ100aの使用者は、右光学像表示部26および左光学像表示部28を透過して見える外景SCの中の実像(医師が持つメスの刃先が患者の右手小指の第2間接に当てられている様子)と、虚像VIとして見える重畳浮上CP5(すなわち、実際に手術を受ける患者の皮膚の切開箇所を表す画像、および、使用者が実施すべき内容を表す文字列)とが、重畳された状態で視認可能となる。このようにすれば、ヘッドマウントディスプレイ100aの使用者が行う作業を、より個別具体的に支援することが可能となり、作業の精密化と、作業効率の向上を図ることができる。   FIG. 18 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user through procedures e1 to e9. As shown in FIG. 18, superimposition information CP5 is displayed as a virtual image VI in the visual field VR of the user of the head mounted display 100a. As described above, the user of the head mounted display 100a in the present embodiment can use the real image in the outside scene SC that is seen through the right optical image display unit 26 and the left optical image display unit 28 (the knife edge of the female doctor has a patient's cutting edge). Of the right hand little finger of the second hand) and the superimposed floating CP5 that appears as a virtual image VI (that is, an image showing the incision site of the skin of the patient who actually undergoes surgery, and the contents to be performed by the user) Can be visually recognized in a superimposed state. In this way, the work performed by the user of the head mounted display 100a can be supported more specifically and specifically, and the work can be refined and the work efficiency can be improved.

B−3.重畳情報表示処理における付加的処理:
なお、第2実施形態の重畳情報表示処理(図15)では、さらに、「A−3.重畳情報表示処理における付加的処理」で説明した付加的処理1〜7を実行してもよい。付加的処理は、単独で付加してもよいし、組み合わせて付加してもよい。なお、付加的処理7は、手順管理部144が主体となり、手順管理部144が生成する手順情報に対して実行されてもよい。
B-3. Additional processing in superimposition information display processing:
In addition, in the superimposition information display process (FIG. 15) of the second embodiment, additional processes 1 to 7 described in “A-3. Additional process in superimposition information display process” may be further executed. Additional processing may be added alone or in combination. Note that the additional process 7 may be performed on the procedure information generated by the procedure management unit 144, with the procedure management unit 144 serving as the main body.

C.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
C. Variations:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used, and (v) a mode in which the connection unit (code) is eliminated by adopting a configuration in which the control unit and the image display unit can perform wireless communication and wireless power feeding.

上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit of the above-described embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit. For example, the control unit shown in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).

例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。   For example, the configurations of the control unit and the image display unit illustrated in FIG. 2 can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit, and the operation may be performed using only the cross key. Further, the control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part.

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display.

図19は、変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。図19(A)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20cが、右光学像表示部26に代えて右光学像表示部26cを備える点と、左光学像表示部28に代えて左光学像表示部28cを備える点である。右光学像表示部26cは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28cは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め上に配置されている。図19(B)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20dが、右光学像表示部26に代えて右光学像表示部26dを備える点と、左光学像表示部28に代えて左光学像表示部28dを備える点である。右光学像表示部26dは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28dは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとして実現することもできる。   FIG. 19 is an explanatory diagram showing an external configuration of a head mounted display in a modified example. In the case of the example of FIG. 19A, the difference from the head mounted display 100 shown in FIG. 1 is that the image display unit 20c includes a right optical image display unit 26c instead of the right optical image display unit 26. Instead of the left optical image display unit 28, a left optical image display unit 28c is provided. The right optical image display unit 26c is formed smaller than the optical member of the first embodiment, and is disposed obliquely above the right eye of the user when the head mounted display is mounted. Similarly, the left optical image display unit 28c is formed smaller than the optical member of the first embodiment, and is disposed obliquely above the left eye of the user when the head mounted display is mounted. In the example of FIG. 19B, the difference from the head-mounted display 100 shown in FIG. 1 is that the image display unit 20d includes a right optical image display unit 26d instead of the right optical image display unit 26. Instead of the left optical image display unit 28, a left optical image display unit 28d is provided. The right optical image display unit 26d is formed smaller than the optical member of the first embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28d is formed smaller than the optical member of the first embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can also be realized as an unmounted head mounted display.

例えば、画像処理部、表示制御部、重畳情報生成部、手順管理部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, functional units such as an image processing unit, a display control unit, a superimposition information generation unit, a procedure management unit, and a sound processing unit are executed by a CPU developing and executing a computer program stored in a ROM or a hard disk on a RAM. Described as being realized. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。   For example, in the above-described embodiment, it is assumed that the image display unit is a head mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc. ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.

また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

例えば、上記実施形態では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, in the above-described embodiment, the secondary battery is used as the power source. However, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。   For example, in the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit can use a digital micromirror device or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.

例えば、ヘッドマウントディスプレイは、カメラに代えて、測距センサーや変位センサーを備えることとしてもよい。この場合、重畳情報生成部は、測距センサーまたは変位センサーを用いて対象物体の特徴を抽出し、上記実施形態と同様の処理を行うことができる。   For example, the head mounted display may include a distance measuring sensor and a displacement sensor instead of the camera. In this case, the superimposition information generation unit can extract the characteristics of the target object using a distance measuring sensor or a displacement sensor, and perform the same processing as in the above embodiment.

例えば、ヘッドマウントディスプレイは、不可視情報において多く使用される色相と同じ色相の光の透過を抑制する光学フィルターを備えていてもよい。また、不可視情報において多く使用される色相の補色となる色相の光学フィルターを備えていてもよい。このようにすれば、不可視情報の視認性が高くすることができる。   For example, the head mounted display may include an optical filter that suppresses transmission of light having the same hue as that often used in invisible information. Moreover, you may provide the optical filter of the hue used as the complementary color of the hue often used in invisible information. In this way, the visibility of invisible information can be increased.

・変形例2:
上記第1実施形態では、重畳情報表示処理(図5)の一例を示した。しかし、図5に示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
Modification 2
In the said 1st Embodiment, an example of the superimposition information display process (FIG. 5) was shown. However, the processing procedure shown in FIG. 5 is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、ステップS102において、使用者は、重畳情報表示処理の対象とする物体の不可視情報を不可視情報記憶部に記憶させることとした。上記実施形態での不可視情報は、撮像機器(CTや、MRIや、レントゲンや、内視鏡や、サーモグラフィー等)を用いて撮像され、2次元的に表現された画像を想定した。しかし、ステップS102では、3次元的に表現された不可視情報を記憶させてもよい。3次元的に表現された不可視情報とは、撮像機器を用いて撮像された複数の画像から作成された3次元モデルである。3次元的に表現された不可視情報を用いる場合、重畳情報生成処理(図8)のステップS202とS204との間において、重畳情報生成部は、ステップS202で取得された外景画像に基づいて3次元モデルのレンダリングを行う。そして、レンダリング後の画像を「不可視情報」として、以降の処理を継続する。このようにすれば、様々な方向から、対象物体の外観に現れない情報を視認することができる。また、ステップS102で記憶される不可視情報は静止画に限らず、動画であってもよい。   For example, in step S <b> 102, the user stores invisible information of an object to be subjected to the superimposition information display process in the invisible information storage unit. The invisible information in the above embodiment is assumed to be an image captured using an imaging device (CT, MRI, X-ray, endoscope, thermography, etc.) and expressed two-dimensionally. However, in step S102, invisible information expressed three-dimensionally may be stored. The invisible information expressed three-dimensionally is a three-dimensional model created from a plurality of images captured using an imaging device. When using invisible information expressed three-dimensionally, between steps S202 and S204 of the superimposition information generation process (FIG. 8), the superimposition information generation unit performs a three-dimensional operation based on the outside scene image acquired in step S202. Render the model. Then, the rendered image is regarded as “invisible information” and the subsequent processing is continued. In this way, information that does not appear in the appearance of the target object can be viewed from various directions. The invisible information stored in step S102 is not limited to a still image but may be a moving image.

例えば、ステップS114、S116では、他の重畳情報は外観情報をもとに生成されるとした。しかし、他の重畳情報の元となる情報は種々の情報を使用することができる。例えば、重畳情報CP1を生成する際に用いられた不可視情報とは異なる撮像機器を用いて撮像された他の不可視情報を使用してもよい。   For example, in steps S114 and S116, other superimposition information is generated based on appearance information. However, various information can be used as information that is the basis of other superimposition information. For example, other invisible information captured using an imaging device different from the invisible information used when generating the superimposition information CP1 may be used.

例えば、ステップS112以降の処理は、省略してもよい。   For example, the processing after step S112 may be omitted.

・変形例3:
上記第2実施形態では、重畳情報表示処理(図15)の一例を示した。しかし、図13に示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
・ Modification 3:
In the said 2nd Embodiment, an example of the superimposition information display process (FIG. 15) was shown. However, the processing procedure shown in FIG. 13 is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、手順管理部は、手順情報に対して、以下の例のように、使用者に注意を喚起させるための情報を付加してもよい。
・手順内において使用者が特に注意すべき事項をポップアップ表示させる。
・手順情報内の画像や文字列を点滅表示させる。
・手順情報内に、当該手順の重要度、難易度、事故の多さ等を示すメッセージやアイコンを表示させる。
For example, the procedure management unit may add information for alerting the user to the procedure information as in the following example.
・ Pop-up items that users should pay particular attention to in the procedure.
・ Blinks the images and character strings in the procedure information.
-In the procedure information, a message or icon indicating the importance, difficulty, number of accidents, etc. of the procedure is displayed.

・変形例4:
上記実施形態では、手順テーブルの一例を示した。しかし、手順テーブルの詳細はあくまで一例であり、種々の変更が可能である。例えば、フィールドの追加、削除、変更を行うことができる。また、手順テーブルは、複数のテーブルに分割して正規化してもよい。
-Modification 4:
In the said embodiment, an example of the procedure table was shown. However, the details of the procedure table are merely examples, and various changes can be made. For example, fields can be added, deleted, and changed. The procedure table may be divided into a plurality of tables and normalized.

・変形例5:
上記第2実施形態では、ヘッドマウントディスプレイに手順テーブルと手順管理部とを備え、他の装置を必要とせずに、使用者が行う作業を支援することが可能な構成について説明した。しかし、ヘッドマウントディスプレイと、外部に設けられたサーバーとを備える作業支援システムにおいても、同様の処理を実現することができる。
-Modification 5:
In the second embodiment, the configuration in which the head-mounted display includes the procedure table and the procedure management unit and can support the work performed by the user without requiring another device has been described. However, a similar process can be realized in a work support system including a head mounted display and an external server.

例えば、ヘッドマウントディスプレイは手順管理部を備え、サーバーは手順テーブルを備える構成とする。この場合、ヘッドマウントディスプレイの手順管理部は、サーバー内に記憶されている手順テーブルにアクセスし、手順テーブル内のデーターを参照する。このようにすれば、1台のサーバーに記憶されている手順テーブルの情報を、複数台のヘッドマウントディスプレイで共有することが可能になる。この結果、各ヘッドマウントディスプレイに手順テーブルを備える構成と比較して、手順テーブルの更新に要する労力が低減される。   For example, the head-mounted display includes a procedure management unit, and the server includes a procedure table. In this case, the procedure management unit of the head mounted display accesses the procedure table stored in the server and refers to the data in the procedure table. In this way, it is possible to share the information in the procedure table stored in one server among a plurality of head mounted displays. As a result, the labor required for updating the procedure table is reduced as compared with a configuration in which each head-mounted display includes a procedure table.

・変形例6:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
Modification 6:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(画像取得部)
110…入力情報取得部
100…ヘッドマウントディスプレイ(頭部装着型表示装置)
120…記憶部
122…不可視情報記憶部
124…外観情報記憶部
126…手順テーブル
130…電源
140…CPU
142…重畳情報生成部
144…手順管理部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
RE…右眼
VI…虚像
EL…端部
IL…照明光
PL…画像光
AP…先端部
ER…端部
VR…視野
CP1…重畳情報
CP2…拡大情報
CP3…補助情報
CP4…手順情報
CP5…重畳情報
10. Control unit (controller)
DESCRIPTION OF SYMBOLS 12 ... Lighting part 14 ... Touch pad 16 ... Cross key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive part 23 ... Left holding part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body code 51 ... Transmission unit 52 ... Transmission unit 53 ... Reception 54: Receiving unit 61: Camera (image acquisition unit)
DESCRIPTION OF SYMBOLS 110 ... Input information acquisition part 100 ... Head mounted display (head mounted display apparatus)
DESCRIPTION OF SYMBOLS 120 ... Memory | storage part 122 ... Invisible information memory | storage part 124 ... Appearance information memory | storage part 126 ... Procedure table 130 ... Power supply 140 ... CPU
DESCRIPTION OF SYMBOLS 142 ... Superimposition information production | generation part 144 ... Procedure management part 160 ... Image processing part 170 ... Audio | voice processing part 180 ... Interface 190 ... Display control part 201 ... Right backlight control part 202 ... Left backlight control part 211 ... Right LCD control part 212 ... Left LCD controller 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate PCLK ... Clock signal VSync ... Vertical sync signal HSync ... Horizontal sync signal Data ... Image data Data1 ... Right eye image data Data2 ... Left Eye image data OA ... External device PC ... Personal computer SC ... Outside view RE ... Right eye VI ... Virtual image EL ... End part IL ... Illumination light PL ... Image light AP ... Tip part ER ... End part VR ... Field of view CP1 ... Superimposition information CP2 ... Extended information CP3 ... Auxiliary information CP4 ... Procedure information CP5 ... Superimposition information

Claims (17)

使用者が映像と外景を同時に視認可能な頭部装着型表示装置であって、
前記外景に含まれる物体に対して前記物体の外観に現れない情報である不可視情報を重畳表示させるための情報である重畳情報を生成する重畳情報生成部と、
前記重畳情報を前記映像として前記使用者に視認させる画像表示部と、
を備える、頭部装着型表示装置。
A head-mounted display device that allows a user to view an image and an outside scene at the same time,
A superimposition information generation unit that generates superimposition information that is information for displaying invisible information that is information that does not appear in the appearance of the object superimposed on the object included in the outside scene;
An image display unit for allowing the user to visually recognize the superposition information as the video;
A head-mounted display device comprising:
請求項1記載の頭部装着型表示装置であって、
前記重畳情報生成部は、所定の時間ごとに、前記外景に含まれる物体に応じて前記重畳情報を再生成し、
前記画像表示部は、再生成された前記重畳情報を前記映像として前記使用者に視認させる、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The superimposition information generation unit regenerates the superimposition information according to an object included in the outside scene every predetermined time,
The image display unit is a head-mounted display device that allows the user to visually recognize the regenerated superimposition information as the video.
請求項1または請求項2記載の頭部装着型表示装置であって、さらに、
前記不可視情報を記憶する記憶部と、
前記頭部装着型表示装置を装着した状態における前記使用者の視界方向の画像を取得する画像取得部と、
を備え、
前記重畳情報生成部は、
前記画像取得部によって取得された前記視界方向の画像を画像認識することで前記外景に含まれる前記物体の特徴を抽出し、抽出した前記特徴に基づいて前記記憶部に記憶されている前記物体の前記不可視情報を補正することで、前記重畳情報を生成する、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2, further comprising:
A storage unit for storing the invisible information;
An image acquisition unit that acquires an image of the user's visual field direction in a state in which the head-mounted display device is mounted;
With
The superimposition information generation unit
The feature of the object included in the outside scene is extracted by recognizing the image in the field of view acquired by the image acquisition unit, and the object stored in the storage unit based on the extracted feature is extracted. A head-mounted display device that generates the superimposition information by correcting the invisible information.
請求項3に記載の頭部装着型表示装置であって、
前記不可視情報は、前記物体の構造を表した画像である、頭部装着型表示装置。
The head-mounted display device according to claim 3,
The head-mounted display device, wherein the invisible information is an image representing a structure of the object.
請求項3または請求項4に記載の頭部装着型表示装置であって、
前記特徴は、前記物体のエッジである、頭部装着型表示装置。
The head-mounted display device according to claim 3 or 4, wherein
The head-mounted display device, wherein the feature is an edge of the object.
請求項3または請求項4に記載の頭部装着型表示装置であって、
前記特徴は、前記物体に付されたマーカーである、頭部装着型表示装置。
The head-mounted display device according to claim 3 or 4, wherein
The feature is a head-mounted display device, which is a marker attached to the object.
請求項3から請求項6のいずれか一項に記載の頭部装着型表示装置であって、
前記補正は、前記不可視情報に対する、拡大と、縮小と、回転と、反転と、トリミングと、歪みの付与と、ノイズの除去とのうちの少なくともいずれかである、頭部装着型表示装置。
The head-mounted display device according to any one of claims 3 to 6,
The head mounted display device, wherein the correction is at least one of enlargement, reduction, rotation, inversion, trimming, distortion, and noise removal with respect to the invisible information.
請求項3から請求項7のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、さらに、前記画像取得部によって取得された前記視界方向の画像から、前記外景に含まれる前記物体の少なくとも一部を抽出して拡大した拡大情報を生成し、
前記画像表示部は、前記重畳情報と、前記拡大情報とを、前記映像として前記使用者に視認させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 3 to 7,
The superimposition information generation unit further generates enlarged information obtained by extracting and enlarging at least a part of the object included in the outside scene from the image in the visual field direction acquired by the image acquisition unit,
The head-mounted display device, wherein the image display unit causes the user to visually recognize the superimposition information and the enlarged information as the video.
請求項1から請求項8のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、前記使用者からの要求に応じて、前記映像を非表示とする、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 8,
The superimposing information generation unit is a head-mounted display device that hides the video in response to a request from the user.
請求項1から請求項9のいずれか一項に記載の頭部装着型表示装置であって、さらに、
現在の手順について、前記使用者が実施すべき内容に関する情報である手順情報を生成する手順管理部を備え、
前記画像表示部は、前記重畳情報と、前記手順情報とを、前記映像として前記使用者に視認させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 9, further comprising:
A procedure management unit that generates procedure information that is information related to the contents to be implemented by the user for the current procedure,
The image display unit is a head-mounted display device that causes the user to visually recognize the superimposition information and the procedure information as the video.
請求項10記載の頭部装着型表示装置であって、
前記手順情報には、第三者が前記手順を模範的に実施している場面の画像と、個別具体的な前記手順に際して使用者が実施すべき内容を表す画像と、の少なくともいずれか一方が含まれる、頭部装着型表示装置。
The head-mounted display device according to claim 10,
The procedure information includes at least one of an image of a scene where a third party is performing the procedure in an exemplary manner and an image representing the content to be performed by the user in the individual specific procedure. Head-mounted display device included.
請求項1から請求項11のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、さらに、前記使用者の作業を補助するための付加的な情報である補助情報を生成し、
前記画像表示部は、前記重畳情報と、前記補助情報とを、前記映像として前記使用者に視認させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 11,
The superimposition information generation unit further generates auxiliary information which is additional information for assisting the user's work,
The head mounted display device, wherein the image display unit causes the user to visually recognize the superimposition information and the auxiliary information as the video.
請求項3から請求項12のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、さらに、前記画像取得部によって取得された前記視界方向の画像に応じて、生成された前記重畳情報の視認性を向上させるための色変換処理を行う、頭部装着型表示装置。
The head-mounted display device according to any one of claims 3 to 12,
The superimposition information generation unit further performs a color conversion process for improving the visibility of the generated superimposition information according to the image in the visual field direction acquired by the image acquisition unit. Display device.
請求項1から請求項13のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、前記使用者からの要求に応じて、前記映像として表示されている前記重畳情報を、前記使用者の視界を妨げない位置へと退避させる、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 13,
The superimposing information generation unit is a head-mounted display device that retreats the superimposing information displayed as the video to a position that does not obstruct the user's view in response to a request from the user.
請求項3から請求項14のいずれか一項に記載の頭部装着型表示装置であって、
前記重畳情報生成部は、前記画像取得部により取得された前記画像のうち、前記映像の表示領域と前記画像取得部の取得領域とが重複する重複領域に対して前記重畳情報を生成する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 3 to 14,
The superimposition information generation unit generates the superimposition information for an overlapping region in which the display region of the video and the acquisition region of the image acquisition unit overlap among the images acquired by the image acquisition unit. Part-mounted display device.
請求項10から請求項15のいずれか一項に記載の頭部装着型表示装置であって、
前記手順管理部は、前記画像取得部により取得された前記画像のうち、前記映像の表示領域と前記画像取得部の取得領域とが重複する重複領域に対して前記手順情報を生成する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 10 to 15,
The procedure management unit generates the procedure information for an overlapping region in which the display region of the video and the acquisition region of the image acquisition unit overlap among the images acquired by the image acquisition unit. Wearable display device.
使用者が映像と外景を同時に視認可能な頭部装着型表示装置の制御方法であって、
(a)前記外景に含まれる物体に対して前記物体の外観に現れない情報である不可視情報を重畳表示させるための情報である重畳情報を生成する工程と、
(b)前記重畳情報を前記映像として前記使用者に視認させる工程と、
を備える、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device in which a user can view an image and an outside scene at the same time,
(A) generating superimposition information that is information for superimposing and displaying invisible information that is information that does not appear in the appearance of the object with respect to the object included in the outside scene;
(B) causing the user to visually recognize the superimposed information as the video;
A method for controlling a head-mounted display device.
JP2017162919A 2017-08-28 2017-08-28 Head-mounted display device and method for controlling head-mounted display device Active JP6409927B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017162919A JP6409927B2 (en) 2017-08-28 2017-08-28 Head-mounted display device and method for controlling head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017162919A JP6409927B2 (en) 2017-08-28 2017-08-28 Head-mounted display device and method for controlling head-mounted display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013026222A Division JP6299067B2 (en) 2013-02-14 2013-02-14 Head-mounted display device and method for controlling head-mounted display device

Publications (2)

Publication Number Publication Date
JP2017229088A true JP2017229088A (en) 2017-12-28
JP6409927B2 JP6409927B2 (en) 2018-10-24

Family

ID=60892070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017162919A Active JP6409927B2 (en) 2017-08-28 2017-08-28 Head-mounted display device and method for controlling head-mounted display device

Country Status (1)

Country Link
JP (1) JP6409927B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0956669A (en) * 1995-08-23 1997-03-04 Olympus Optical Co Ltd Microscopic device for operation
JPH09237801A (en) * 1996-02-29 1997-09-09 Noritake Co Ltd Package containing electronic part
JPH10221637A (en) * 1997-02-10 1998-08-21 Olympus Optical Co Ltd Head-mounted image display device
JP2012104156A (en) * 2010-06-17 2012-05-31 Ns Solutions Corp Information processor, information processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0956669A (en) * 1995-08-23 1997-03-04 Olympus Optical Co Ltd Microscopic device for operation
JPH09237801A (en) * 1996-02-29 1997-09-09 Noritake Co Ltd Package containing electronic part
JPH10221637A (en) * 1997-02-10 1998-08-21 Olympus Optical Co Ltd Head-mounted image display device
JP2012104156A (en) * 2010-06-17 2012-05-31 Ns Solutions Corp Information processor, information processing method and program

Also Published As

Publication number Publication date
JP6409927B2 (en) 2018-10-24

Similar Documents

Publication Publication Date Title
JP6299067B2 (en) Head-mounted display device and method for controlling head-mounted display device
US10169925B2 (en) Head mounted display and control method for head mounted display
JP6252004B2 (en) Information processing apparatus, information processing method, and information processing system
US11341726B2 (en) Information processing apparatus, information processing method, and information processing system
JP6264855B2 (en) Head-mounted display device and method for controlling head-mounted display device
US10664044B2 (en) Display device, control method for display device, and computer program
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
JP6554948B2 (en) Display device, display device control method, and program
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2017134575A (en) Display device, control method of display device, and program
JP6409927B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2015176526A (en) Head-mounted type display device and control method of the same

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180910

R150 Certificate of patent or registration of utility model

Ref document number: 6409927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150