JP2016034091A - Display device, control method of the same and program - Google Patents

Display device, control method of the same and program Download PDF

Info

Publication number
JP2016034091A
JP2016034091A JP2014156366A JP2014156366A JP2016034091A JP 2016034091 A JP2016034091 A JP 2016034091A JP 2014156366 A JP2014156366 A JP 2014156366A JP 2014156366 A JP2014156366 A JP 2014156366A JP 2016034091 A JP2016034091 A JP 2016034091A
Authority
JP
Japan
Prior art keywords
unit
image
display
distance
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014156366A
Other languages
Japanese (ja)
Inventor
直人 有賀
Naoto Ariga
直人 有賀
勇一 毛利
Yuichi Mori
勇一 毛利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014156366A priority Critical patent/JP2016034091A/en
Publication of JP2016034091A publication Critical patent/JP2016034091A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance convenience by displaying a captured image by an appropriate method by a display device capable of displaying the image together with an outside scene.SOLUTION: A head-mounted type display device 100 comprises: an image display section 20 displaying an image so as to allow the image to be transmitted through an outside scene and to be visually identified together with the outside scene; a camera 61; an imaging processing section 163 causing imaging to be executed by the camera 61; a distance acquisition section 161 acquiring a distance to a subject captured by the camera 61; and a preview control section 165 displaying a captured image as a reference image and adjusting a display form of the reference image such that as the distance to the subject acquired by the distance acquisition section 161 is shorter, visual identification of the reference image is more facilitated.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、表示装置の制御方法、および、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、使用者の頭部に装着される表示装置に撮像装置を接続し、撮像装置が撮像する画像を表示装置により表示するものが知られている(例えば、特許文献1参照)。特許文献1の表示装置は、使用者の目前に装着されるメガネ形状を有し、開閉自在なシャッターを備える。撮像装置が撮像した画像を表示する撮像モードではシャッターが閉じられて外景が見えなくなる。この撮像モードでは、撮像装置が撮像した画像を表示するとともに、操作用の表示を行い、外が見えない状態でも撮像画像を見ながら操作できるようになっている。   2. Description of the Related Art Conventionally, there has been known an apparatus in which an imaging device is connected to a display device mounted on a user's head and an image captured by the imaging device is displayed on the display device (see, for example, Patent Document 1). The display device of Patent Document 1 has a glasses shape that is worn in front of a user, and includes a shutter that can be opened and closed. In the imaging mode in which an image captured by the imaging device is displayed, the shutter is closed and the outside scene cannot be seen. In this imaging mode, an image captured by the imaging apparatus is displayed and an operation display is performed so that the user can operate while viewing the captured image even when the outside cannot be seen.

特開2014−42279号公報JP 2014-42279 A

上記従来の表示装置では、撮像モードでシャッターを閉じるため、外景と撮像画像を同時に見る機会はない。仮に、外景が見える状態で撮像画像を表示すると、撮像画像の表示が外景の視野を妨げないようにし、かつ、撮像画像を見やすく表示する必要があるが、この相反する要求を満たす手法は無かった。
本発明は、上述した事情に鑑みてなされたものであり、外景とともに画像を表示できる表示装置によって、撮像された撮像画像を、外景とともに見えるように適切な手法で表示することを目的とする。
In the conventional display device, since the shutter is closed in the imaging mode, there is no opportunity to view the outside scene and the captured image at the same time. If a captured image is displayed in a state where the outside scene is visible, it is necessary that the captured image display does not interfere with the field of view of the outside scene and that the captured image is displayed in an easy-to-view manner, but there is no method that satisfies this conflicting request. .
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to display a captured image by a display apparatus that can display an image together with the outside scene in an appropriate manner so that the captured image can be seen along with the outside scene.

上記目的を達成するために、本発明の表示装置は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、撮像部と、前記撮像部に撮像を実行させる撮像処理部と、前記撮像部が撮像した被写体との距離を取得する距離取得部と、前記撮像部の撮像画像を参照画像として前記表示部に表示させ、前記表示部における前記参照画像の表示形態を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像が視認しやすくなるように調整する参照画像制御部と、を備えることを特徴とする。
本発明によれば、表示装置が、被写体との距離が近く、撮像部の画角と使用者に見える外景の見え方の差が発生しやすい場合に参照画像を見やすくする。このため、表示装置を使用する使用者は、撮像画像を見ながら撮像の方向の調整等を容易に行うことができる。従って、撮像画像を適切な表示形態で表示し、外景と撮像画像の視認性を両立し、利便性を高めることができる。
In order to achieve the above object, a display device according to the present invention includes a display unit that displays an image so as to be visible through the outside scene and the outside scene, an imaging unit, and an imaging processing unit that causes the imaging unit to perform imaging. A distance acquisition unit that acquires a distance from the subject imaged by the imaging unit, a captured image of the imaging unit is displayed as a reference image on the display unit, and a display form of the reference image on the display unit is A reference image control unit that adjusts the reference image so that the reference image becomes easier to visually recognize as the distance to the subject acquired by the distance acquisition unit is shorter.
According to the present invention, the display device makes it easy to see the reference image when the distance from the subject is short and the difference between the angle of view of the imaging unit and the appearance of the outside scene visible to the user is likely to occur. For this reason, the user who uses the display device can easily adjust the imaging direction while viewing the captured image. Therefore, the captured image can be displayed in an appropriate display form, and the visibility of the outside scene and the captured image can be compatible and the convenience can be enhanced.

ここで、撮像部は、使用者の視野方向を撮影するものであってもよく、より詳細には、撮像部の撮像方向は、使用者の視野の少なくとも一部を撮像範囲に含む方向であってもよい。この場合、使用者の視野の少なくとも一部を含む撮像画像が参照画像として表示部に表示される。従って、使用者が表示部を透過して見る外景の一部を撮像した撮像画像が、参照画像として、外景に重ねて表示される。このため、使用者は、外景を撮像する場合に、撮像画像を見ながら撮像の方向の調整等を容易に行うことができる。
或いは、撮像部の撮像方向は、撮像範囲に使用者の視野を含まない方向であってもよい。この場合、使用者が表示部を通して見る外景とは別の方向を撮像し、撮像画像を表示部に表示する。このため、使用者が外景として見ることができない範囲を撮像し、撮像画像を表示することで、表示部を透過する視野を補うことができる。さらに、撮像した被写体との距離に応じて参照画像の表示形態を変更することで、使用者が表示部を透過して見ることができない方向の被写体を、被写体との距離に対応した表示形態で、使用者に見せることができる。
Here, the imaging unit may capture a user's visual field direction, and more specifically, the imaging direction of the imaging unit is a direction including at least a part of the user's visual field in the imaging range. May be. In this case, a captured image including at least a part of the user's visual field is displayed on the display unit as a reference image. Therefore, a captured image obtained by capturing a part of the outside scene that the user sees through the display unit is displayed as a reference image on the outside scene. Therefore, the user can easily adjust the imaging direction while viewing the captured image when capturing the outside scene.
Alternatively, the imaging direction of the imaging unit may be a direction that does not include the user's field of view in the imaging range. In this case, a direction different from the outside scene that the user sees through the display unit is imaged, and the captured image is displayed on the display unit. For this reason, the visual field which permeate | transmits a display part can be supplemented by imaging the range which a user cannot see as an outside scene, and displaying a captured image. Furthermore, by changing the display form of the reference image according to the distance to the captured subject, the subject in a direction that the user cannot see through the display unit is displayed in a display form corresponding to the distance to the subject. Can be shown to the user.

また、本発明は、上記表示装置において、前記参照画像制御部は、前記表示部における前記参照画像の表示形態を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像の大きさが大きくなるように調整すること、を特徴とする。
本発明によれば、被写体との距離が近く、撮像部の画角と使用者に見える外景の見え方の差が発生しやすい場合に参照画像を大きく表示するので、使用者が撮像画像を見ながら、より簡単に、撮像の方向の調整等を行うことができる。
In the display device according to the aspect of the invention, the reference image control unit may increase the size of the reference image as the distance from the subject acquired by the distance acquisition unit is reduced. It adjusts so that it may become large, It is characterized by the above-mentioned.
According to the present invention, the reference image is displayed in a large size when the distance to the subject is short, and the difference between the angle of view of the imaging unit and the appearance of the outside scene visible to the user is likely to occur, so the user views the captured image. However, it is possible to adjust the imaging direction and the like more easily.

また、本発明は、上記表示装置において、前記参照画像制御部は、前記距離取得部が取得した前記被写体との距離が第1の距離である場合の前記参照画像の大きさよりも、前記被写体との距離が前記第1の距離より近い第2の距離である場合の前記参照画像を大きくすること、を特徴とする。
本発明によれば、被写体との距離が近い場合は表示部に表示される参照画像が大きくなり、被写体との距離が遠い場合は参照画像が小さくなるので、撮像画像に係る調整がより一層、容易になり、利便性を高めることができる。
Further, in the display device according to the present invention, the reference image control unit may determine whether the reference image is larger than the size of the reference image when the distance from the subject acquired by the distance acquisition unit is a first distance. The reference image when the distance is a second distance closer than the first distance is enlarged.
According to the present invention, when the distance to the subject is short, the reference image displayed on the display unit is large, and when the distance to the subject is long, the reference image is small. It becomes easy and the convenience can be enhanced.

また、本発明は、上記表示装置において、前記撮像部の撮像画像から、予め設定された条件に該当する前記被写体を検出する撮像処理部を備え、前記参照画像制御部は、前記撮像処理部により前記被写体が検出された場合に、前記参照画像の表示形態をさらに変更すること、を特徴とする。
本発明によれば、予め設定された条件に該当する被写体を検出した場合に参照画像の表示形態をさらに変更できる。ここで、予め設定された被写体とは、例えばバーコード等の1次元コード、QRコード(登録商標)等の2次元コード、或いはその他の機械認識可能なマーカー等が挙げられる。これにより、例えば表示装置にマーカー等を認識させる場合に、認識動作に係る調整が容易になる。また、検出される被写体はマーカー等に限らない。例えば、撮像画像から検出する被写体の特徴点や特徴量に関するデータが条件として設定された場合、撮像画像から条件に該当する特徴点や特徴量を検出することにより、立体物、風景、平面画像等を被写体として検出し、認識できる。
The display device may further include an imaging processing unit configured to detect the subject that satisfies a preset condition from a captured image of the imaging unit, and the reference image control unit may include the imaging processing unit. When the subject is detected, the display form of the reference image is further changed.
According to the present invention, it is possible to further change the display form of the reference image when a subject corresponding to a preset condition is detected. Here, the preset subject includes, for example, a one-dimensional code such as a barcode, a two-dimensional code such as a QR code (registered trademark), or other machine-recognizable markers. Thereby, when making a display apparatus recognize a marker etc., for example, adjustment concerning recognition operation becomes easy. The detected subject is not limited to a marker or the like. For example, when data related to feature points and feature quantities of a subject detected from a captured image is set as a condition, by detecting feature points and feature quantities corresponding to the conditions from the captured image, a three-dimensional object, a landscape, a planar image, etc. Can be detected and recognized as a subject.

また、本発明は、上記表示装置において、前記参照画像制御部は、前記撮像部の撮像画像において前記撮像処理部により検出された前記被写体の画像の歪みを検出し、検出した歪みの状態に応じた表示形態で前記参照画像を表示させること、を特徴とする。
本発明によれば、撮像画像に写った被写体の画像が歪んでいることを、表示形態に反映させて、歪みの発生を使用者に通知できる。また、例えば歪みを補償するように参照画像の表示形態を変更して、被写体の画像の視認性を高めることができる。
Further, according to the present invention, in the display device, the reference image control unit detects distortion of the image of the subject detected by the imaging processing unit in the captured image of the imaging unit, and according to the detected distortion state. The reference image is displayed in a different display form.
According to the present invention, it is possible to notify the user of the occurrence of distortion by reflecting in the display form that the image of the subject in the captured image is distorted. In addition, for example, the display form of the reference image can be changed so as to compensate for the distortion, thereby improving the visibility of the image of the subject.

また、本発明は、上記表示装置において、前記距離取得部は、前記撮像部が撮像した撮像画像における前記被写体のサイズに基づき、前記被写体との距離を求めること、を特徴とする。
本発明によれば、被写体までの距離を容易に求めることができる。
Further, the present invention is characterized in that, in the display device, the distance acquisition unit obtains a distance from the subject based on a size of the subject in a captured image captured by the imaging unit.
According to the present invention, the distance to the subject can be easily obtained.

また、本発明は、上記表示装置において、前記距離取得部は、前記撮像部が撮像した少なくとも2つ以上の画像に基づき、前記被写体との距離を求めること、を特徴とする。
本発明によれば、撮像画像に基づいて、被写体までの距離を簡易に、かつ、より正確に求めることができる。
Further, the present invention is characterized in that, in the display device, the distance acquisition unit obtains a distance to the subject based on at least two images captured by the imaging unit.
According to the present invention, the distance to the subject can be determined easily and more accurately based on the captured image.

また、本発明は、上記表示装置において、前記撮像部は少なくとも2つ以上の画像を同時に撮影可能であること、を特徴とする。
本発明によれば、2つ以上の画像に基づき被写体との距離を求める構成において、画像を容易に得ることができる。
Further, the present invention is characterized in that, in the display device, the imaging unit can capture at least two images at the same time.
According to the present invention, an image can be easily obtained in a configuration in which a distance from a subject is obtained based on two or more images.

また、本発明は、上記表示装置において、光学的に、若しくは、音波または超音波を用いて前記被写体までの距離を求める測距部を備え、前記距離取得部は、前記測距部が測定した前記被写体との距離を取得すること、を特徴とすること、を特徴とする。
本発明によれば、被写体までの距離を速やかに求めることができる。
The display device may further include a distance measurement unit that obtains a distance to the subject optically or using sound waves or ultrasonic waves, and the distance acquisition unit is measured by the distance measurement unit. Acquiring a distance from the subject.
According to the present invention, the distance to the subject can be quickly obtained.

また、本発明は、上記表示装置において、前記撮像部は、前記使用者の視線に対応する方向を撮像方向とするように配置されたこと、を特徴とする。
本発明によれば、使用者の視線方向と対応する方向を撮像し、撮像した画像を参照画像として表示できる。
Further, the present invention is characterized in that, in the display device, the imaging unit is arranged so that a direction corresponding to the line of sight of the user is an imaging direction.
According to the present invention, it is possible to capture a direction corresponding to the user's line-of-sight direction and display the captured image as a reference image.

また、上記目的を達成するために、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置の制御方法であって、撮像を行って、撮像した被写体との距離を取得し、撮像画像を参照画像として前記表示部により表示させ、前記表示部における前記参照画像の表示形態を、前記被写体との距離が近いほど前記参照画像が視認しやすくなるように調整すること、を特徴とする。
本発明によれば、表示装置が、被写体との距離が近く、撮像部の画角と使用者に見える外景の見え方の差が発生しやすい場合に参照画像を見やすく表示する。このため、表示装置を使用する使用者は、撮像画像を見ながら撮像の方向の調整等を容易に行うことができる。従って、撮像画像を適切な表示形態で表示し、外景と撮像画像の視認性を両立し、利便性を高めることができる。
In order to achieve the above object, the present invention provides a control method for a display device that includes a display unit that displays an image so that it can be seen through the outside scene and visible together with the outside scene. The distance to the subject is acquired, and the captured image is displayed as a reference image on the display unit. The display form of the reference image on the display unit is such that the reference image becomes easier to visually recognize as the distance to the subject decreases. It is characterized by adjusting to.
According to the present invention, the display device displays the reference image in an easy-to-see manner when the distance from the subject is short and the difference between the angle of view of the imaging unit and the appearance of the outside scene visible to the user is likely to occur. For this reason, the user who uses the display device can easily adjust the imaging direction while viewing the captured image. Therefore, the captured image can be displayed in an appropriate display form, and the visibility of the outside scene and the captured image can be compatible and the convenience can be enhanced.

また、上記目的を達成するために、本発明は、外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、撮像部により撮像を実行させる撮像処理部と、前記撮像部が撮像した被写体との距離を取得する距離取得部と、前記撮像部の撮像画像を参照画像として前記表示部に表示させ、前記表示部における前記参照画像の表示形態を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像が見やすくなるように調整するプレビュー制御部と、して機能させる。
本発明によれば、表示装置が、被写体との距離が近く、撮像部の画角と使用者に見える外景の見え方の差が発生しやすい場合に参照画像を見やすく表示する。このため、表示装置を使用する使用者は、撮像画像を見ながら撮像の方向の調整等を容易に行うことができる。従って、撮像画像を適切な表示形態で表示し、外景と撮像画像の視認性を両立し、利便性を高めることができる。
In order to achieve the above object, the present invention is a program executable by a computer that controls a display device that includes a display unit that displays an image so that the image can be viewed through the outside scene and the outside scene. An image processing unit that causes the imaging unit to perform imaging, a distance acquisition unit that acquires a distance between the subject captured by the imaging unit, and a captured image of the imaging unit displayed on the display unit as a reference image; The display form of the reference image on the display unit is caused to function as a preview control unit that adjusts the reference image so that the reference image becomes easier to see as the distance to the subject acquired by the distance acquisition unit is closer.
According to the present invention, the display device displays the reference image in an easy-to-see manner when the distance from the subject is short and the difference between the angle of view of the imaging unit and the appearance of the outside scene visible to the user is likely to occur. For this reason, the user who uses the display device can easily adjust the imaging direction while viewing the captured image. Therefore, the captured image can be displayed in an appropriate display form, and the visibility of the outside scene and the captured image can be compatible and the convenience can be enhanced.

頭部装着型表示装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of a head mounted type display apparatus. 頭部装着型表示装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a head mounted display apparatus. カメラと使用者の目との相対位置を示す模式図である。It is a schematic diagram which shows the relative position of a camera and a user's eyes. 頭部装着型表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a head mounting type display apparatus. 頭部装着型表示装置のプレビュー表示の例を示す説明図である。It is explanatory drawing which shows the example of the preview display of a head mounting | wearing type display apparatus. 頭部装着型表示装置のプレビュー表示の別の例を示す説明図である。It is explanatory drawing which shows another example of the preview display of a head mounted display apparatus. 変形例における頭部装着型表示装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the head mounted display apparatus in a modification.

以下、図面を参照して本発明の実施形態について説明する。
図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is an explanatory diagram showing an external configuration of the head-mounted display device 100. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display device 100 of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene. In this specification, a virtual image visually recognized by the user with the head-mounted display device 100 is also referred to as a “display image” for convenience. Moreover, emitting image light generated based on image data is also referred to as “displaying an image”.

頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置(コントローラー)10と、を備えている。   The head-mounted display device 100 includes an image display unit 20 (display unit) that allows the user to visually recognize a virtual image when mounted on the user's head, and a control device (controller) 10 that controls the image display unit 20. And.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63と、を備える。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. (Imaging unit) and a microphone 63. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)を備える。また、右光学像表示部26、28の前面側に調光板(図示略)を備えてもよい。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置すればよい。この調光板としては、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰または反射するもの等、種々のものを用いることができる。調光板の光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26および左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、頭部装着型表示装置100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板を用いる場合について説明する。この調光板は右導光板261、左導光板262を保護し、右導光板261、左導光板262の損傷や汚れの付着等を抑制するために役立つ。
調光板は右光学像表示部26および左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよいし、省略してもよい。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 (see FIG. 2). Details of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 as optical members include light guide plates 261 and 262 (see FIG. 2). Moreover, you may equip the front side of the right optical image display parts 26 and 28 with a light control board (not shown). The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate is a thin plate-like optical element, and may be disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. Various types of light control plates are used, such as those that have almost no light transmission, those that are nearly transparent, those that attenuate the amount of light and transmit light, and those that attenuate or reflect light of a specific wavelength. be able to. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate, the amount of external light incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to facilitate visual recognition of the virtual image. You can adjust the height. In the present embodiment, a case will be described in which at least a light control plate having such a light transmittance that a user wearing the head-mounted display device 100 can visually recognize an outside scene is used. This light control plate protects the right light guide plate 261 and the left light guide plate 262, and is useful for suppressing damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The light control plate may be detachable with respect to the right optical image display unit 26 and the left optical image display unit 28, or a plurality of types of light control plates may be exchanged and may be omitted.

カメラ61の撮像方向(画角)は任意であり、使用者の視線に対応する方向であってもよいし、使用者の視線とは無関係に撮像方向を決めてもよい。
本実施形態では、まず、カメラ61の撮像方向を、頭部装着型表示装置100の表側方向を撮像する方向とする例を説明する。
図1に示すように、カメラ61は、右光学像表示部26の他端である端部ERに配置される。図1の構成では、カメラ61の撮影レンズは使用者の視線の方向にあり、カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。図1に示す本実施形態のカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
The imaging direction (angle of view) of the camera 61 is arbitrary, and may be a direction corresponding to the user's line of sight, or the imaging direction may be determined regardless of the user's line of sight.
In the present embodiment, first, an example in which the imaging direction of the camera 61 is set to the imaging direction of the front side direction of the head-mounted display device 100 will be described.
As shown in FIG. 1, the camera 61 is disposed at an end ER that is the other end of the right optical image display unit 26. In the configuration of FIG. 1, the photographing lens of the camera 61 is in the direction of the user's line of sight, and the camera 61 captures an outside scene that is an external scenery in a direction opposite to the user's eye side, and displays the outside scene image. get. The camera 61 of this embodiment shown in FIG. 1 is a monocular camera, but may be a stereo camera.

本実施形態では、カメラ61の画角は、頭部装着型表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する方向である。また、カメラ61の画角の広さは適宜設定可能であるが、カメラ61の撮像範囲が、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む範囲であることが好ましい。さらに、調光板を通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されていると、より好ましい。   In the present embodiment, the angle of view of the camera 61 is a direction in which at least a part of the outside scene in the viewing direction of the user when the head-mounted display device 100 is worn is imaged. In addition, although the angle of view of the camera 61 can be set as appropriate, the imaging range of the camera 61 is a range including the outside world that the user can visually recognize through the right optical image display unit 26 and the left optical image display unit 28. It is preferable. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate can be imaged.

画像表示部20は、さらに、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control device 10. The connection unit 40 includes a main body cord 48 connected to the control device 10, a right cord 42, a left cord 44, and a connecting member 46. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。   The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A microphone 63 is provided in the vicinity of the earphone plug 30. The earphone plug 30 to the microphone 63 are combined into one cord, and the cord branches from the microphone 63 and is connected to each of the right earphone 32 and the left earphone 34.

なお、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。   It is also possible to combine the right code 42 and the left code 44 into one code. Specifically, the lead wire inside the right cord 42 is drawn into the left holding portion 23 side through the inside of the main body of the image display unit 20, and is covered with a resin together with the lead wire inside the left cord 44 to be combined into one cord. Also good.

画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10と、のそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 and the control device 10 transmit various signals via the connection unit 40. A connector (not shown) that fits each other is provided at each of the end of the main body cord 48 opposite to the connecting member 46 and the control device 10. By fitting / releasing the connector of the main body cord 48 and the connector of the control device 10, the control device 10 and the image display unit 20 are connected or disconnected. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御装置10は、頭部装着型表示装置100を制御するための装置である。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が指によりタッチ操作するトラックパッド14を備える。   The control device 10 is a device for controlling the head-mounted display device 100. The control device 10 includes switches including an enter key 11, a lighting unit 12, a display switching key 13, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. In addition, the control device 10 includes a track pad 14 that is touched by a user with a finger.

決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。   The determination key 11 detects a pressing operation and outputs a signal for determining the content operated by the control device 10. The lighting unit 12 notifies the operation state of the head-mounted display device 100 by its light emission state. Examples of the operating state of the head-mounted display device 100 include power ON / OFF. For example, an LED (Light Emitting Diode) is used as the lighting unit 12. The display switching key 13 detects a pressing operation and outputs a signal for switching the display mode of the content video between 3D and 2D, for example.

トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。   The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head-mounted display device 100 by detecting a slide operation of the switch.

図2は、頭部装着型表示装置100の機能ブロック図である。図2には、頭部装着型表示装置100に接続する画像供給装置OAを、合わせて図示する。頭部装着型表示装置100は、画像供給装置OAとともに、表示システムを構成できる。
図2に示すように、制御装置10は、制御部140と、操作部135と、入力情報取得部110と、記憶部120と、電源130と、インターフェイス180と、送信部(Tx)51および送信部(Tx)52と、を有している。
操作部135は、使用者による操作を検出する。操作部135は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18の各部を備える。
FIG. 2 is a functional block diagram of the head-mounted display device 100. FIG. 2 also illustrates the image supply device OA connected to the head-mounted display device 100. The head-mounted display device 100 can constitute a display system together with the image supply device OA.
As shown in FIG. 2, the control device 10 includes a control unit 140, an operation unit 135, an input information acquisition unit 110, a storage unit 120, a power supply 130, an interface 180, a transmission unit (Tx) 51 and a transmission. Part (Tx) 52.
The operation unit 135 detects an operation by the user. The operation unit 135 includes the determination key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18 shown in FIG.

入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。
電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。
The input information acquisition unit 110 acquires a signal corresponding to an operation input by the user. As a signal corresponding to the operation input, for example, there is an operation input to the track pad 14, the direction key 16, and the power switch 18.
The power supply 130 supplies power to each part of the head-mounted display device 100. As the power supply 130, for example, a secondary battery can be used.

記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。
制御部140は、CPU、ROM、RAM等を備え、ROMまたは記憶部120に記憶されたプログラムを実行することにより、頭部装着型表示装置100の各部を制御する。制御部140は、上記プログラムを実行することにより、頭部装着型表示装置100の基本制御システムであるオペレーティングシステム(ОS)150として機能する。また、制御部140は、上記プログラムを実行して、画像処理部160、距離取得部161、撮像処理部163、プレビュー制御部165、音声処理部170、及び表示制御部190として機能する。これらの機能はオペレーティングシステム150の一部であってもよいし、オペレーティングシステム150上で動作するアプリケーションプログラムの機能であってもよい。
The storage unit 120 stores various computer programs. The storage unit 120 is configured by a ROM, a RAM, or the like.
The control unit 140 includes a CPU, a ROM, a RAM, and the like, and controls each unit of the head-mounted display device 100 by executing a program stored in the ROM or the storage unit 120. The control unit 140 functions as an operating system (OS) 150 that is a basic control system of the head-mounted display device 100 by executing the program. Further, the control unit 140 executes the above-described program and functions as an image processing unit 160, a distance acquisition unit 161, an imaging processing unit 163, a preview control unit 165, an audio processing unit 170, and a display control unit 190. These functions may be part of the operating system 150, or may be functions of application programs that operate on the operating system 150.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに記憶部120内のDRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit or the like (not shown) according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 frame by frame as image data (Data in the figure) of the target image. This image data is, for example, RGB data.
Note that the image processing unit 160 may execute image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data as necessary. .

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データData、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control device 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 controls driving of the right LCD 241 by the right LCD control unit 211, driving ON / OFF of the right backlight 221 by the right backlight control unit 201, and left LCD control unit according to control signals. The left LCD 242 driving ON / OFF by 212, the left backlight 222 driving ON / OFF by the left backlight control unit 202, and the like are individually controlled. Thus, the display control unit 190 controls the generation and emission of image light by the right display driving unit 22 and the left display driving unit 24, respectively. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

距離取得部161は、カメラ61の撮像画像に写っている被写体までの距離を取得する。距離取得部161が距離を取得する方法として、様々な方法を採用できる。本実施形態では、距離取得部161は、カメラ61の撮像画像における被写体の画像のサイズをもとに、カメラ61の撮像素子またはカメラ61のレンズから被写体までの距離を推定し、この距離を取得する。なお、カメラ61が画像表示部20に固定的に取り付けられている場合、距離取得部161は、画像表示部20の前面から被写体までの距離を取得してもよい。   The distance acquisition unit 161 acquires the distance to the subject shown in the captured image of the camera 61. Various methods can be adopted as a method by which the distance acquisition unit 161 acquires the distance. In the present embodiment, the distance acquisition unit 161 estimates the distance from the imaging element of the camera 61 or the lens of the camera 61 to the subject based on the size of the subject image in the captured image of the camera 61, and acquires this distance. To do. When the camera 61 is fixedly attached to the image display unit 20, the distance acquisition unit 161 may acquire the distance from the front surface of the image display unit 20 to the subject.

撮像処理部163は、カメラ61の撮像画像を制御して撮像(撮影)を実行させ、撮像画像の画像データを取得する。撮像処理部163は、撮像画像データを距離取得部161に出力して、被写体までの距離の取得を実行させる。
また、撮像処理部163は、カメラ61の撮像画像から、予め設定された条件に該当する画像を検出する機能を有する。予め設定された条件とは、例えば、複数の画素の画素値のパターン等である。この機能により検出される画像は、例えばQRコード等の2次元コード、1次元バーコード等の、いわゆるマーカーが挙げられる。言い換えれば、この画像は、コンピューターにより光学的に読み取り、認識可能であり、コンピューターが情報を取得可能な画像である。画像に関する条件は、例えば記憶部120に記憶される。撮像処理部163は、カメラ61の撮像画像から、記憶部120に記憶している条件に該当する画像を検出した場合に、この画像に対して予め設定された処理を実行する。本実施形態では、記憶部120が上記のマーカーを検出するための条件を記憶し、撮像処理部163がカメラ61の撮像画像からマーカーを検出し、マーカーで表される情報を取得する処理を行う。
The imaging processing unit 163 controls the captured image of the camera 61 to perform imaging (capturing), and acquires image data of the captured image. The imaging processing unit 163 outputs the captured image data to the distance acquisition unit 161 to execute acquisition of the distance to the subject.
The imaging processing unit 163 has a function of detecting an image corresponding to a preset condition from the captured image of the camera 61. The preset condition is, for example, a pattern of pixel values of a plurality of pixels. Examples of the image detected by this function include so-called markers such as a two-dimensional code such as a QR code and a one-dimensional barcode. In other words, this image is an image that can be optically read and recognized by a computer and from which the computer can acquire information. The condition regarding the image is stored in the storage unit 120, for example. When the imaging processing unit 163 detects an image corresponding to the condition stored in the storage unit 120 from the captured image of the camera 61, the imaging processing unit 163 performs a preset process on the image. In the present embodiment, the storage unit 120 stores the conditions for detecting the marker, and the imaging processing unit 163 performs processing for detecting the marker from the captured image of the camera 61 and acquiring information represented by the marker. .

撮像処理部163が検出する被写体はマーカー等に限らない。例えば、検出する被写体の特徴点や特徴量に関するデータが条件として設定され、記憶部120に記憶されている場合に、撮像処理部163は、撮像画像データから該当する特徴点や特徴量を検出することにより、立体物、風景、平面画像等を被写体として検出し、認識できる。この場合、特定の背景、特定の立体物等の被写体を撮像画像から検出した場合に、マーカーを検出した場合と同様に、後述する処理を行う。   The subject detected by the imaging processing unit 163 is not limited to a marker or the like. For example, when data relating to feature points and feature amounts of a subject to be detected is set as a condition and stored in the storage unit 120, the imaging processing unit 163 detects the corresponding feature points and feature amounts from the captured image data. Thus, it is possible to detect and recognize a three-dimensional object, a landscape, a planar image, etc. as a subject. In this case, when a subject such as a specific background or a specific three-dimensional object is detected from the captured image, processing described later is performed in the same manner as when a marker is detected.

頭部装着型表示装置100は、少なくとも、カメラ61を使用するカメラモードと、カメラ61を使用しない通常動作モードと、を含む複数の動作モードを実行可能である。本実施形態では、通常モードとカメラモードとを切り換えて実行する例について説明する。   The head-mounted display device 100 can execute a plurality of operation modes including at least a camera mode that uses the camera 61 and a normal operation mode that does not use the camera 61. In this embodiment, an example in which the normal mode and the camera mode are switched and executed will be described.

カメラモードでは、撮像処理部163がカメラ61を動作させて、撮像を行い、撮像画像データを取得する。カメラモードでは、撮像処理部163の制御に従って、カメラ61が予め設定された周期で連続的に撮像を実行し、1フレームを撮像する毎に、撮像処理部163が撮像画像データを取得する。このように撮像処理部163がカメラ61に撮像をさせる動作は、カメラ61により動画像を撮像する場合と同様であってもよい。   In the camera mode, the imaging processing unit 163 operates the camera 61 to perform imaging and acquire captured image data. In the camera mode, under the control of the imaging processing unit 163, the camera 61 continuously performs imaging at a preset cycle, and the imaging processing unit 163 acquires captured image data every time one frame is captured. The operation of causing the camera 61 to capture an image in this way may be the same as when moving images are captured by the camera 61.

カメラモードで、撮像処理部163はカメラ61による撮像を実行させ、カメラ61の撮像画像データを取得する。この動作は、操作部135に対するシャッター操作または録画操作が行われなくても、カメラモードで撮像処理部163が常時実行する。また、撮像処理部163は、カメラモードで所定の条件が成立する場合にカメラ61の撮像画像データを取得してもよい。所定の条件とは、シャッター操作及び録画操作とは別の、カメラ61の撮像開始を指示する操作が行われること等が挙げられる。
カメラモードで、撮像処理部163は、カメラ61が撮像した撮像画像データを、プレビューデータ121として記憶部120に一時的に記憶する。プレビュー制御部165は、プレビューデータ121を読み出して表示制御部190により表示させる。この表示をプレビュー表示と呼ぶ。プレビュー表示は、カメラ61の撮像画像データを、シャッター操作または録画操作が行われない間も表示することにより、カメラ61が撮像する画角(撮像範囲)、撮像方向、撮像画像の状態などを使用者に知らせる機能を果たす。
上述したように、プレビュー制御部165は、シャッター操作及び録画操作のいずれとも関係なくプレビュー表示を実行できる。つまり、以下の説明におけるプレビュー、及びプレビュー表示は、シャッター操作や録画操作に応じて実行する動作の前に行う表示に限定されない。単に、シャッター操作や録画操作がされなくても、カメラ61が撮像した画像データを、画像表示部20に表示する機能を指す。使用者がプレビュー表示の内容を見てから、シャッター操作や録画操作を行うことも勿論可能である。
In the camera mode, the imaging processing unit 163 executes imaging with the camera 61 and acquires captured image data of the camera 61. This operation is always executed by the imaging processing unit 163 in the camera mode even when the shutter operation or the recording operation is not performed on the operation unit 135. Further, the imaging processing unit 163 may acquire captured image data of the camera 61 when a predetermined condition is satisfied in the camera mode. The predetermined condition includes, for example, an operation of instructing the start of imaging of the camera 61, which is different from the shutter operation and the recording operation.
In the camera mode, the imaging processing unit 163 temporarily stores captured image data captured by the camera 61 in the storage unit 120 as preview data 121. The preview control unit 165 reads the preview data 121 and causes the display control unit 190 to display it. This display is called a preview display. The preview display displays the captured image data of the camera 61 while the shutter operation or the recording operation is not performed, thereby using the angle of view (imaging range) captured by the camera 61, the imaging direction, the state of the captured image, and the like. The function to inform the person.
As described above, the preview control unit 165 can execute the preview display regardless of either the shutter operation or the recording operation. That is, the preview and preview display in the following description are not limited to the display performed before the operation executed in accordance with the shutter operation or the recording operation. It simply refers to the function of displaying the image data captured by the camera 61 on the image display unit 20 without any shutter operation or recording operation. Of course, it is possible for the user to perform a shutter operation or a recording operation after viewing the contents of the preview display.

操作部135においてシャッター操作または録画操作が行われた場合、撮像処理部163は、プレビューデータ121を撮像画像データとして記憶部120に記憶させる。プレビューデータ121は一時的に記憶されるデータであり、例えば、所定時間毎に消去または上書きされてもよい。記憶部120に記憶される撮像画像データは、操作部135で削除の指示が検出された場合に、消去される。
なお、プレビュー制御部165がプレビューデータ121を読み出してプレビュー表示する構成に限定されず、例えば、撮像処理部163が、カメラ61の撮像画像データをプレビュー制御部165に出力して、この撮像画像データをプレビュー制御部165がプレビュー表示してもよい。この場合、撮像画像データは、制御部140を構成するRAM(図示略)に一時的に記憶されるが、記憶部120には記憶されない。
以下の説明では、プレビュー制御部165がプレビュー表示するデータを、全て撮像画像データと呼ぶ。この撮像画像データは、プレビュー制御部165が記憶部120から読み出すプレビューデータ121、及び、撮像処理部163がプレビュー制御部165に出力するデータのいずれであってもよい。
When a shutter operation or a recording operation is performed on the operation unit 135, the imaging processing unit 163 stores the preview data 121 in the storage unit 120 as captured image data. The preview data 121 is temporarily stored data, and may be erased or overwritten every predetermined time, for example. The captured image data stored in the storage unit 120 is deleted when a deletion instruction is detected by the operation unit 135.
Note that the configuration is not limited to the configuration in which the preview control unit 165 reads the preview data 121 and displays the preview data. For example, the imaging processing unit 163 outputs the captured image data of the camera 61 to the preview control unit 165, and the captured image data. The preview control unit 165 may display a preview. In this case, the captured image data is temporarily stored in a RAM (not shown) constituting the control unit 140 but is not stored in the storage unit 120.
In the following description, all data that the preview control unit 165 displays as a preview is called captured image data. The captured image data may be either preview data 121 read by the preview control unit 165 from the storage unit 120 or data output by the imaging processing unit 163 to the preview control unit 165.

カメラモードでは、プレビュー表示を見やすくするため、頭部装着型表示装置100は、後述する画像供給装置OAから入力されるコンテンツ等の画像の表示を行わない。このため、使用者は、画像表示部20を通して見える外景とともに、上述したプレビュー表示を見る。   In the camera mode, in order to make the preview display easy to see, the head-mounted display device 100 does not display an image such as content input from the image supply device OA described later. For this reason, the user sees the above-described preview display together with the outside scene seen through the image display unit 20.

プレビュー制御部165は、カメラモードの実行中に、カメラ61の撮像画像データを撮像処理部163から取得して、この撮像画像データに基づき、プレビュー画像を表示制御部190により表示させる。表示制御部190が表示する画像の表示サイズ及び表示位置はプレビュー制御部165により設定される。
カメラモードの実行中、画像表示部20は、プレビュー制御部165の制御によってプレビュー表示を行う。カメラモードでは、制御装置10の操作により録画、或いは撮像実行が指示されると、撮像処理部163が、カメラ61の撮像画像データを記憶部120に記憶する。また、録画、或いは撮像実行が指示された場合に、カメラ61がプレビュー表示より高い解像度及び/又は高いフレームレートで撮像を行ってもよい。この場合、プレビュー表示に用いる撮像画像データのデータ量を抑えることで、撮像処理部163及びプレビュー制御部165がプレビュー表示を制御する処理の負荷を軽減でき、高画質の画像を録画または撮像して記録できる。
また、カメラモードでは、カメラ61が上述したマーカー等を撮像した場合はマーカー等の情報に基づく処理が実行される。
The preview control unit 165 acquires captured image data of the camera 61 from the imaging processing unit 163 during execution of the camera mode, and causes the display control unit 190 to display a preview image based on the captured image data. The preview control unit 165 sets the display size and display position of the image displayed by the display control unit 190.
During execution of the camera mode, the image display unit 20 performs a preview display under the control of the preview control unit 165. In the camera mode, when recording or imaging execution is instructed by the operation of the control device 10, the imaging processing unit 163 stores the captured image data of the camera 61 in the storage unit 120. Further, when recording or imaging execution is instructed, the camera 61 may perform imaging at a higher resolution and / or higher frame rate than the preview display. In this case, by suppressing the data amount of the captured image data used for the preview display, the imaging processing unit 163 and the preview control unit 165 can reduce the processing load for controlling the preview display, and record or capture a high-quality image. Can record.
In the camera mode, when the camera 61 captures the above-described marker or the like, processing based on information such as the marker is executed.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示略)および左イヤホン34内のスピーカー(図示略)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63により集音されて入力される音声を取得してディジタル音声データに変換し、音声に係る処理を行う。例えば、音声処理部170は、取得した音声から特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識を行ってもよい。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker in the left earphone 34 (not shown) connected to the connecting member 46. (Not shown). For example, when the Dolby (registered trademark) system is adopted, processing on the audio signal is performed, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, for example. In addition, the voice processing unit 170 acquires the voice collected and input by the microphone 63, converts it into digital voice data, and performs processing related to the voice. For example, the speech processing unit 170 performs speaker recognition that identifies a person who speaks for each voice by recognizing voices of a plurality of persons separately by extracting and modeling features from the acquired speech. May be.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、制御部140は3軸センサー113の検出値を取得して、制御装置10の動き及び動きの方向を検出可能である。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))やBluetooth(登録商標)規格に準じた無線データ通信を実行する。
A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can detect the detection value of the triaxial sensor 113 and detect the movement and the direction of movement of the control device 10.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. Further, the GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 10.
The communication unit 117 performs wireless data communication conforming to a wireless LAN (WiFi (registered trademark)) or Bluetooth (registered trademark) standard.

インターフェイス180は、制御装置10に対して、コンテンツの供給元となる種々の画像供給装置OAを接続するためのインターフェイスである。画像供給装置OAが供給するコンテンツは、静止画像または動画像を含み、音声を含んでもよい。画像供給装置OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。
ここで、画像供給装置OAを無線通信回線により制御装置10に接続することも可能である。この場合、画像供給装置OAは、通信部117と無線通信を実行して、コンテンツのデータをMiracast(登録商標)等の無線通信技術により送信する。
The interface 180 is an interface for connecting various image supply apparatuses OA that are content supply sources to the control apparatus 10. The content supplied by the image supply device OA includes a still image or a moving image, and may include sound. Examples of the image supply device OA include a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.
Here, it is also possible to connect the image supply device OA to the control device 10 by a wireless communication line. In this case, the image supply device OA performs wireless communication with the communication unit 117 and transmits content data using a wireless communication technique such as Miracast (registered trademark).

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、振動センサー65と、9軸センサー66と、を備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a vibration sensor 65 and a nine-axis sensor 66.

振動センサー65は、加速度センサーを利用して構成され、図1に示すように画像表示部20の内部に配置される。図1の例では右保持部21において、右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。   The vibration sensor 65 is configured using an acceleration sensor, and is arranged inside the image display unit 20 as shown in FIG. In the example of FIG. 1, the right holding unit 21 is built in the vicinity of the end ER of the right optical image display unit 26. When the user performs an operation of hitting the end ER (knock operation), the vibration sensor 65 detects vibration caused by this operation and outputs the detection result to the control unit 140. Based on the detection result of the vibration sensor 65, the control unit 140 detects a knocking operation by the user.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。例えば、制御部140は、9軸センサー66で検出された使用者の頭部の動きから画像表示部20の向きを判定し、使用者の視線方向を推定できる。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. For example, the control unit 140 can determine the orientation of the image display unit 20 from the movement of the user's head detected by the 9-axis sensor 66, and can estimate the user's line-of-sight direction.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are provided. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as “image light generation unit”.

受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1と、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control device 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input through the reception unit 53. . The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. The left backlight control unit 202 and the left backlight 222 function as a light source. The left LCD control unit 212 and the left LCD 242 function as display elements. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are also collectively referred to as “image light generation unit”. The left projection optical system 252 is configured by a collimating lens that converts the image light emitted from the left LCD 242 into a light beam in a parallel state. The left light guide plate 262 as the left optical image display unit 28 guides the image light output from the left projection optical system 252 to the left eye LE of the user while reflecting the image light along a predetermined optical path. The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “light guide unit”.

頭部装着型表示装置100は、カメラモードにおいてカメラ61が撮像を行い、撮像画像データを利用して動作する。カメラ61は、図1に示したように、使用者の頭部に装着される画像表示部20に設けられる。このため、カメラ61の撮像方向は使用者の視線方向と同じ方向であり、使用者が見ている方向が撮像されるため便利である。しかしながら、カメラ61の撮像方向と使用者の視線方向とは、厳密にいえば離れている。この位置の差が撮像画像に影響することがある。この点について説明する。   In the head-mounted display device 100, the camera 61 captures an image in the camera mode, and operates using the captured image data. As shown in FIG. 1, the camera 61 is provided in the image display unit 20 attached to the user's head. For this reason, the imaging direction of the camera 61 is the same as the user's line-of-sight direction, which is convenient because the direction in which the user is looking is captured. However, strictly speaking, the imaging direction of the camera 61 and the user's line-of-sight direction are separated from each other. This difference in position may affect the captured image. This point will be described.

図3は、頭部装着型表示装置100が備えるカメラ61の撮像方向と使用者の視線との相対位置を、平面視で示す模式図である。図3には使用者が画像表示部20を装着した装着状態を示す。図中に示す符号CRはカメラ61の画角を示し、符号VRは使用者の視野を示す。また、矢印AXはカメラ61の撮像方向を示す軸であり、具体的にはカメラ61の撮像レンズの光軸方向を示す。また、矢印RSは右眼REが正面を向いた場合の視線方向を示し、矢印LSは左眼LEが正面を向いた場合の視線方向を示す。   FIG. 3 is a schematic diagram showing the relative position between the imaging direction of the camera 61 provided in the head-mounted display device 100 and the user's line of sight in plan view. FIG. 3 shows a wearing state in which the user wears the image display unit 20. Reference sign CR in the figure indicates the angle of view of the camera 61, and reference sign VR indicates the field of view of the user. An arrow AX is an axis indicating the imaging direction of the camera 61, and specifically indicates the optical axis direction of the imaging lens of the camera 61. The arrow RS indicates the line-of-sight direction when the right eye RE faces the front, and the arrow LS indicates the line-of-sight direction when the left eye LE faces the front.

上述したように、右光学像表示部26、左光学像表示部28は外光を透過するので、使用者は、画像表示部20を通して外景を見ることができる。一方、カメラ61は、画像表示部20に前向きに配置され、カメラ61の撮像方向AXは、視線方向RS、LSとほぼ平行である。このため、カメラ61は、使用者が見ている方向とほぼ同じ方向を撮影するので、カメラ61の画角CRに収まる範囲(撮像範囲)と、使用者の視野VRとは、ほぼ重なる。   As described above, since the right optical image display unit 26 and the left optical image display unit 28 transmit external light, the user can see the outside scene through the image display unit 20. On the other hand, the camera 61 is disposed forward in the image display unit 20, and the imaging direction AX of the camera 61 is substantially parallel to the line-of-sight directions RS and LS. For this reason, since the camera 61 captures substantially the same direction as the direction the user is viewing, the range (imaging range) that falls within the angle of view CR of the camera 61 and the visual field VR of the user substantially overlap.

例えば、使用者が、離れた場所にある被写体301を見ているとき、カメラ61の画角CRに被写体301が入っているので、カメラ61の撮像画像に被写体301が写る。このように、使用者が遠方にある被写体301を撮像する場合、使用者の視野VRとカメラ61の撮像画像との相違は小さい。これは、視野VRにおける被写体301の位置と、画角CRにおける被写体301の位置とが、概ね同じ位置になるためである。   For example, when the user is looking at the subject 301 at a distant place, the subject 301 is included in the captured image of the camera 61 because the subject 301 is included in the angle of view CR of the camera 61. As described above, when the user images the subject 301 located far away, the difference between the visual field VR of the user and the captured image of the camera 61 is small. This is because the position of the subject 301 in the visual field VR and the position of the subject 301 in the angle of view CR are substantially the same position.

これに対し、画像表示部20に近い位置にある被写体を撮像する場合、カメラ61の画角CRと使用者の視野VRとの差が大きくなるため、撮像画像と、使用者に見える外景との差が、無視できない程度になる。
例えば、図3に示す被写体302は、画像表示部20に近い位置にあり、画像表示部20から被写体302までの距離L2は距離L1より短い。また、距離L2が撮像方向AXと視線方向RSとの間の距離Dの数倍から数十倍であり、百倍未満である。この例では、被写体302は視野VRに入っているが、画角CRでは端に位置し、画角CRから出てしまう可能性がある。このように、視野VRにおける被写体302の位置と、画角CRにおける被写体302の位置とが、異なるため、カメラ61の撮像画像は、使用者が見る視野VRとは明らかに異なる。
従って、被写体302を撮影する場合は、使用者が、撮像方向AXが被写体302を向くように、或いは、画角CRに被写体302が含まれるように、画像表示部20を動かして調整することが望ましい。
On the other hand, when imaging a subject close to the image display unit 20, the difference between the angle of view CR of the camera 61 and the visual field VR of the user becomes large, so that the captured image and the outside scene visible to the user are The difference is not negligible.
For example, the subject 302 shown in FIG. 3 is located near the image display unit 20, and the distance L2 from the image display unit 20 to the subject 302 is shorter than the distance L1. The distance L2 is several to several tens of times the distance D between the imaging direction AX and the line-of-sight direction RS, and is less than a hundred times. In this example, the subject 302 is in the field of view VR, but at the angle of view CR, it is positioned at the end and may exit from the angle of view CR. Thus, since the position of the subject 302 in the visual field VR and the position of the subject 302 in the angle of view CR are different, the captured image of the camera 61 is clearly different from the visual field VR seen by the user.
Therefore, when shooting the subject 302, the user can move and adjust the image display unit 20 so that the imaging direction AX faces the subject 302 or the subject 302 is included in the angle of view CR. desirable.

被写体301を撮像する場合と、被写体302を撮像する場合との違いは、カメラ61の撮像方向AXと使用者の視線RS、LSとの間の距離Dと、被写体301、302までの距離L1、L2との比が異なることが要因である。また、カメラ61の画角が広角であるか狭角であるかによっても影響されるし、右光学像表示部26及び左光学像表示部28を通した使用者の視野VRの広さにも影響される。しかしながら、特に大きな影響を与える要素は、画像表示部20から被写体301、302までの距離である。
なお、距離L1、L2は被写体301、302から画像表示部20の前面までの距離を示しているが、カメラ61の受光部までの距離としてもよい。
The difference between the case of imaging the subject 301 and the case of imaging the subject 302 is that the distance D between the imaging direction AX of the camera 61 and the user's line of sight RS and LS, and the distance L1 to the subjects 301 and 302, The reason is that the ratio with L2 is different. Further, it is influenced by whether the angle of view of the camera 61 is a wide angle or a narrow angle, and the width of the visual field VR of the user through the right optical image display unit 26 and the left optical image display unit 28 is also affected. Affected. However, an element having a particularly great influence is the distance from the image display unit 20 to the subjects 301 and 302.
The distances L1 and L2 indicate distances from the subjects 301 and 302 to the front surface of the image display unit 20, but may be distances to the light receiving unit of the camera 61.

頭部装着型表示装置100は、上述した撮像処理部163等の機能により、カメラ61がマーカー等を撮像した場合に、マーカーが示す情報を認識して処理することができる。具体的には、マーカーを使用して、使用者が作業を行う場合に、作業支援のための情報を頭部装着型表示装置100に提供するシステムでは、作業机等の作業場所またはその近傍にマーカーが付されている。使用者は、マーカー等をカメラ61に撮像させる必要があるので、画像表示部20をマーカーの方向に向けるよう意識するが、使用者の視野VRとカメラ61の画角CRとの相違によりマーカーが撮像されないことを考慮することは困難である。   The head-mounted display device 100 can recognize and process information indicated by the marker when the camera 61 images a marker or the like by the function of the imaging processing unit 163 or the like described above. Specifically, in a system that provides information for work support to the head-mounted display device 100 when a user performs a work using a marker, the system is provided at or near a work place such as a work desk. A marker is attached. Since the user needs to cause the camera 61 to image the marker or the like, the user is conscious that the image display unit 20 is directed in the direction of the marker. However, the marker is different due to the difference between the visual field VR of the user and the angle of view CR of the camera 61 It is difficult to consider that no image is taken.

この問題を解消するためには、例えば、カメラ61の画角CRと使用者の視野VRとの差が小さくなるように、使用者の目RE、LEとカメラ61の入射光が一致する構成にすることが考えられる。しかしながら、使用者の目RE、LEの前にカメラ61の撮像素子(受光素子)を配置すれば、外景の視認性が低下する。また、例えば、ハーフミラーなどの光学部材などを用いて使用者の目RE、LEに入射する光をカメラ61の撮像素子に導いて撮像する構成とすれば、装置が大型化してしまう。このように、実現可能性の高い解決方法はなかった。   In order to solve this problem, for example, the user's eyes RE, LE and the incident light of the camera 61 coincide with each other so that the difference between the angle of view CR of the camera 61 and the visual field VR of the user becomes small. It is possible to do. However, if the imaging element (light receiving element) of the camera 61 is arranged in front of the user's eyes RE and LE, the visibility of the outside scene is lowered. Further, for example, if an optical member such as a half mirror is used to guide the light incident on the user's eyes RE and LE to the image sensor of the camera 61 to capture an image, the apparatus becomes large. Thus, there was no highly feasible solution.

そこで、本実施形態の頭部装着型表示装置100は、カメラモードで表示するプレビュー表示により、使用者がカメラ61の画角CRを容易に確認できる機能を備えた。このプレビュー表示では、プレビュー制御部165が、画像表示部20におけるプレビュー表示の表示形態を調整する機能を有する。
参照画像としてのプレビュー表示の表示形態とは、表示サイズ、画像表示部20の表示可能領域における表示位置、表示色調、表示輝度、プレビュー表示の形状等が挙げられる。以下では表示形態の一例として、プレビュー表示の表示サイズを例に挙げて説明する。
Therefore, the head-mounted display device 100 of the present embodiment has a function that allows the user to easily confirm the angle of view CR of the camera 61 by a preview display displayed in the camera mode. In this preview display, the preview control unit 165 has a function of adjusting the display form of the preview display in the image display unit 20.
The display form of the preview display as the reference image includes the display size, the display position in the displayable area of the image display unit 20, the display color tone, the display brightness, the shape of the preview display, and the like. Hereinafter, as an example of the display mode, the display size of the preview display will be described as an example.

プレビュー制御部165は、画像表示部20が表示するプレビュー表示の表示サイズを、被写体までの距離に応じて変更する。具体的には、画像表示部20から被写体までの距離が近い場合には、画角CRと視野VRとの差が現れやすいため、プレビュー表示の表示サイズを大きくする。また、プレビュー表示の表示サイズが大きいと、外景の視認の妨げになることも考えられるが、本実施形態の頭部装着型表示装置100は被写体までの距離が大きい場合はプレビュー表示のサイズを小さくする。このため、使用者がカメラ61の画角CRを容易に確認でき、かつ、画角CRの確認の必要性が小さい場合はプレビュー表示のサイズを小さくして、視野を遮らない。さらに、頭部装着型表示装置100は、被写体までの距離が大きい場合、プレビュー表示を停止してもよい。
以下、頭部装着型表示装置100におけるプレビュー表示について詳細に説明する。
The preview control unit 165 changes the display size of the preview display displayed by the image display unit 20 according to the distance to the subject. Specifically, when the distance from the image display unit 20 to the subject is short, the difference between the angle of view CR and the visual field VR is likely to appear, so the display size of the preview display is increased. Further, if the display size of the preview display is large, it may be possible to hinder the visual recognition of the outside scene. However, the head-mounted display device 100 according to the present embodiment reduces the size of the preview display when the distance to the subject is large. To do. For this reason, when the user can easily check the angle of view CR of the camera 61 and the necessity of checking the angle of view CR is small, the size of the preview display is reduced and the field of view is not obstructed. Further, the head-mounted display device 100 may stop the preview display when the distance to the subject is large.
Hereinafter, the preview display in the head-mounted display device 100 will be described in detail.

図4は、頭部装着型表示装置100の動作を示すフローチャートである。
また、図5は、頭部装着型表示装置100のプレビュー表示の例を示し、図6はプレビュー表示の別の例を示す説明図である。
制御部140がカメラモードを開始すると(ステップS11)、撮像処理部163がカメラ61に撮像を開始させ、撮像画像データを取得する(ステップS12)。
FIG. 4 is a flowchart showing the operation of the head-mounted display device 100.
FIG. 5 shows an example of preview display of the head-mounted display device 100, and FIG. 6 is an explanatory diagram showing another example of preview display.
When the control unit 140 starts the camera mode (step S11), the imaging processing unit 163 causes the camera 61 to start imaging and acquires captured image data (step S12).

ここで、距離取得部161が、カメラ61の撮像画像に写っている、被写体の画像を検出し、検出した被写体までの距離を取得する(ステップS13)。本実施形態で、距離取得部161は、カメラ61の撮像画像における被写体の画像のサイズに基づいて、カメラ61のレンズから被写体までの距離を推定する。
プレビュー制御部165は、距離取得部161が取得した距離に基づき、プレビュー表示のサイズを決定し(ステップS14)、決定したサイズでカメラ61の撮像画像データに基づく画像を表示制御部190により表示させる(ステップS15)。ここで、プレビュー制御部165は、距離取得部161が取得した距離が予め設定された距離よりも遠い場合に、プレビュー表示を停止してもよい。さらに、距離取得部161が取得した距離が不明な場合、プレビュー制御部165は、距離不明な場合に対応付けて設定された表示サイズに決定してもよい。
Here, the distance acquisition unit 161 detects the image of the subject in the captured image of the camera 61, and acquires the distance to the detected subject (step S13). In the present embodiment, the distance acquisition unit 161 estimates the distance from the lens of the camera 61 to the subject based on the size of the subject image in the captured image of the camera 61.
The preview control unit 165 determines the size of the preview display based on the distance acquired by the distance acquisition unit 161 (step S14), and causes the display control unit 190 to display an image based on the captured image data of the camera 61 with the determined size. (Step S15). Here, the preview control unit 165 may stop the preview display when the distance acquired by the distance acquisition unit 161 is farther than a preset distance. Furthermore, when the distance acquired by the distance acquisition unit 161 is unknown, the preview control unit 165 may determine the display size set in association with the distance unknown.

図5(A)は遠方の被写体を撮像した場合のプレビュー表示の例を示し、図5(B)は画像表示部20に近い位置にある被写体を撮像した場合のプレビュー表示の例を示す。図中のVRは使用者に見える視野全体を示す。また、理解の便宜のため、画像表示部20が画像を表示できる表示可能領域は、視野VRの全体に一致するものと仮定する。
図5(A)及び(B)に示すプレビュー画像PVは、右LCD241及び左LCD242の両方に表示され、右導光板261及び左導光板262によって、使用者の両目にプレビュー画像PVの画像光が入射する。本実施形態では、右LCD241と左LCD242に同じプレビュー画像PVの画像を表示する構成とするが、例えば視差を有する画像を右LCD241と左LCD242に表示して、立体画像のプレビュー画像PVを表示してもよい。
FIG. 5A shows an example of a preview display when a distant subject is imaged, and FIG. 5B shows an example of a preview display when an object close to the image display unit 20 is imaged. VR in the figure indicates the entire visual field visible to the user. Further, for convenience of understanding, it is assumed that the displayable area in which the image display unit 20 can display an image matches the entire visual field VR.
The preview image PV shown in FIGS. 5A and 5B is displayed on both the right LCD 241 and the left LCD 242, and the right light guide plate 261 and the left light guide plate 262 cause the image light of the preview image PV to be seen by both eyes of the user. Incident. In the present embodiment, the same preview image PV is displayed on the right LCD 241 and the left LCD 242, but for example, an image having a parallax is displayed on the right LCD 241 and the left LCD 242, and the preview image PV of the stereoscopic image is displayed. May be.

図5(A)の例では、使用者に見える視野VRの左上隅に、プレビュー画像PVが表示されている。プレビュー画像PVのサイズは、視野VRの縦方向及び横方向のいずれにおいても1/3以下である。図5(A)の例では、カメラ61の撮像画像に写っている被写体310の距離が遠いので、この距離に対応して、プレビュー画像PVの表示サイズが小さい。   In the example of FIG. 5A, a preview image PV is displayed in the upper left corner of the visual field VR visible to the user. The size of the preview image PV is 1/3 or less in both the vertical and horizontal directions of the visual field VR. In the example of FIG. 5A, since the distance of the subject 310 shown in the image captured by the camera 61 is long, the display size of the preview image PV is small corresponding to this distance.

これに対し、図5(B)の例では、プレビュー画像PVのサイズは視野VRの縦方向及び横方向の1/2程度となっている。図5(B)の例では、カメラ61の撮像画像に写っている被写体311までの距離が近いため、この距離に対応して、プレビュー画像PVの表示サイズが大きくなっている。   On the other hand, in the example of FIG. 5B, the size of the preview image PV is about ½ of the vertical direction and the horizontal direction of the visual field VR. In the example of FIG. 5B, since the distance to the subject 311 shown in the captured image of the camera 61 is short, the display size of the preview image PV is large corresponding to this distance.

プレビュー制御部165がプレビュー画像PVの表示サイズを決定する方法は様々である。例えば、表示制御部190がプレビュー画像PVを表示するサイズが予め決められている構成が挙げられる。この場合、プレビュー画像PVの表示サイズと表示位置は、右LCD241及び左LCD242における画素座標により定められる。また、複数の表示サイズが予め決定され、各表示サイズには、距離取得部161が取得する被写体までの距離が対応付けられる。被写体までの距離を複数段階に分けて、各段階に1つの表示サイズが対応付けられもよい。
また、例えば、プレビュー制御部165が、距離取得部161により取得された被写体までの距離を、記憶部120に記憶された演算式により演算することで、表示サイズを算出する構成としてもよい。
いずれの方法においても、プレビュー制御部165は、被写体までの距離が近いほどプレビュー画像PVの表示サイズが大きくなるように、表示サイズを決定する。
There are various methods by which the preview control unit 165 determines the display size of the preview image PV. For example, a configuration in which the size at which the display control unit 190 displays the preview image PV is determined in advance can be given. In this case, the display size and display position of the preview image PV are determined by the pixel coordinates on the right LCD 241 and the left LCD 242. A plurality of display sizes are determined in advance, and each display size is associated with a distance to the subject acquired by the distance acquisition unit 161. The distance to the subject may be divided into a plurality of stages, and one display size may be associated with each stage.
Further, for example, the preview control unit 165 may calculate the display size by calculating the distance to the subject acquired by the distance acquisition unit 161 using an arithmetic expression stored in the storage unit 120.
In any method, the preview control unit 165 determines the display size so that the display size of the preview image PV increases as the distance to the subject decreases.

図4に戻り、プレビュー表示が開始された後、撮像処理部163は、距離取得部161の撮像画像データからマーカーの画像の特徴に該当するデータの検出を行い、検出できたか否かを判別する(ステップS16)。ステップS16で、撮像処理部163は、ステップS15でプレビュー画像として表示した撮像画像データからマーカーの検出を行ってもよいし、別の撮像画像データから検出を行ってもよい。   Returning to FIG. 4, after the preview display is started, the imaging processing unit 163 detects data corresponding to the feature of the marker image from the captured image data of the distance acquisition unit 161, and determines whether or not it has been detected. (Step S16). In step S16, the imaging processing unit 163 may detect the marker from the captured image data displayed as the preview image in step S15, or may detect from another captured image data.

撮像画像データからマーカーの画像のデータが検出された場合、撮像処理部163は、検出したマーカーの画像のデータを読み取り可能か否かを判別する(ステップS17)。撮像処理部163は、マーカーの画像のデータを認識して、マーカーが示す情報を取得できる場合は、読み取り可能と判別し(ステップS17;YES)、情報を取得する(ステップS18)。制御部140は、撮像処理部163がマーカーから取得した情報に基づいて、データ処理を実行し(ステップS19)、本処理を終了する。
なお、プレビュー制御部165は、マーカーの画像のデータを検出した場合に、プレビュー画像の表示形態を変更してもよい。例えば、マーカー検出を示す記号や文字等をプレビュー表示と重ねて表示してもよい。
When marker image data is detected from the captured image data, the imaging processing unit 163 determines whether or not the detected marker image data can be read (step S17). When the image processing unit 163 recognizes the data of the marker image and can acquire the information indicated by the marker, the imaging processing unit 163 determines that the information can be read (step S17; YES), and acquires the information (step S18). The control unit 140 executes data processing based on the information acquired from the marker by the imaging processing unit 163 (step S19), and ends this processing.
Note that the preview control unit 165 may change the display form of the preview image when the data of the marker image is detected. For example, symbols, characters, etc. indicating marker detection may be displayed overlapping the preview display.

また、撮像処理部163が、検出したマーカーの読み取りができない場合(ステップS17;NO)、プレビュー制御部165がマーカーの画像の歪みを検出する(ステップS20)。例えば、撮像処理部163はステップS16で検出したマーカーに対し、例えばエラー訂正処理を含む読み取り処理を実行し、有効なデータが得られない場合に読み取りできないと判別する。マーカーであると検出できたのに情報を読み取れない場合、カメラ61がマーカーを撮像した状況が適切でないことが考えられる。具体的には、撮像画像におけるマーカーの画像の歪み、撮像画像の明るさやコントラストの問題、障害物によりマーカーの一部が隠された状態等が、読み取れない原因となる。このような場合、頭部装着型表示装置100は、マーカーの歪みに合わせてプレビュー画像を歪めて表示し、使用者に、カメラ61の撮像方向の適正化を促す。   If the imaging processing unit 163 cannot read the detected marker (step S17; NO), the preview control unit 165 detects distortion of the marker image (step S20). For example, the imaging processing unit 163 performs a reading process including, for example, an error correction process on the marker detected in step S16, and determines that reading is not possible when valid data is not obtained. If information cannot be read even though it is detected as a marker, the situation in which the camera 61 images the marker may be inappropriate. Specifically, distortion of the image of the marker in the captured image, brightness and contrast problems of the captured image, a state where a part of the marker is hidden by an obstacle, and the like cause unreadable. In such a case, the head-mounted display device 100 distorts and displays the preview image in accordance with the distortion of the marker, and prompts the user to optimize the imaging direction of the camera 61.

プレビュー制御部165は、マーカーの歪みを検出した後、検出した歪みに合わせてプレビュー表示する画像の形状を変化させ(ステップS21)、プレビュー表示を更新する。その後、制御部140はカメラモードを終了する指示の有無を判別し(ステップS22)、カメラモードを終了しない場合はステップS12に戻る。   After detecting the marker distortion, the preview control unit 165 changes the shape of the image to be preview-displayed in accordance with the detected distortion (step S21), and updates the preview display. Thereafter, the control unit 140 determines whether or not there is an instruction to end the camera mode (step S22). If the camera mode is not ended, the process returns to step S12.

図6(A)はマーカーが視界に入った例を示しており、使用者の視野VRに作業台に工具と共にマーカー315が視認される例を示す。この例ではマーカーとしてQRコードを用いている。マーカー315は、例えば紙に印刷されて、作業台に工具とともに置かれている。この作業台は使用者の手が届く程度に、画像表示部20から近い位置にある。
図6(B)はカメラ61の撮像画像320を示す。被写体である作業台までの距離が近いため、図6(A)に示した使用者の視野VRとカメラ61の撮像画像320は異なっている。カメラ61から見て斜め左方向に作業台が位置しているため、撮像画像320において、マーカーの画像321は斜め方向に歪みを生じている。マーカーの画像321は、QRに特有のシンボルを隅に有するため、マーカーとして検出できる。しかしながら、マーカー画像321が、歪みのために、QRコードのデコードアルゴリズムによりデコードできない。
FIG. 6A shows an example in which the marker enters the field of view, and shows an example in which the marker 315 is visually recognized together with the tool on the work table in the visual field VR of the user. In this example, a QR code is used as a marker. The marker 315 is printed on paper, for example, and placed on the work table together with the tool. This work table is located at a position close to the image display unit 20 to the extent that the user can reach it.
FIG. 6B shows a captured image 320 of the camera 61. Since the distance to the work table, which is the subject, is short, the user's visual field VR shown in FIG. 6A and the captured image 320 of the camera 61 are different. Since the work table is located obliquely to the left when viewed from the camera 61, the marker image 321 is distorted in the oblique direction in the captured image 320. The marker image 321 can be detected as a marker because the corner has a symbol specific to QR. However, the marker image 321 cannot be decoded by the QR code decoding algorithm due to distortion.

この場合、ステップS20〜S21で説明したように、プレビュー制御部165はプレビュー表示する画像そのものを歪めて表示させる。
図6(C)にはプレビュー画像PVを変形させた例を示す。この図6(C)のプレビュー画像PVは、図6(B)に示したように撮像画像320におけるマーカーの画像321の形状を模して、斜め方向に歪んだ形状となっている。プレビュー画像PVそのものが変形することで、使用者に対し、カメラ61の撮像画像320が歪んでいることを速やかに知らせることができる。
ここで、プレビュー制御部165は、マーカーの画像321の歪みを補償するように、プレビュー画像PVの形状を変形させてもよい。この場合、マーカーの画像321の歪みが軽減されて、本来のマーカーの形状である矩形等で表示される。この場合、使用者がマーカーを視認しやすくなるので、例えば、撮像された画像にマーカーが写っていることを使用者に気づかせることができる。
In this case, as described in steps S20 to S21, the preview control unit 165 causes the preview image itself to be distorted and displayed.
FIG. 6C shows an example in which the preview image PV is deformed. The preview image PV in FIG. 6C has a shape distorted in an oblique direction, imitating the shape of the marker image 321 in the captured image 320 as shown in FIG. 6B. By deforming the preview image PV itself, it is possible to promptly notify the user that the captured image 320 of the camera 61 is distorted.
Here, the preview control unit 165 may change the shape of the preview image PV so as to compensate for the distortion of the marker image 321. In this case, the distortion of the marker image 321 is reduced, and the marker image 321 is displayed in a rectangle or the like that is the original marker shape. In this case, since it becomes easy for the user to visually recognize the marker, for example, the user can be made aware that the marker is reflected in the captured image.

また、ステップS16で撮像処理部163がマーカーの画像を検出し、プレビュー制御部165が記号や文字等をプレビュー表示と重ねて表示した場合に、プレビュー画像PVを変形させると、記号や文字等が変形することが考えられる。この場合、プレビュー制御部165は、プレビュー画像PVを変形させる前に、記号や文字だけを、ステップS20で検出したマーカーの歪みに合わせて変形させてもよい。この場合、マーカーの歪みと記号や文字の歪みが揃うので、その後にプレビュー画像PVを変形させたときに、マーカーと記号や文字との両方が、見やすい状態になる。
さらに、プレビュー制御部165は、ステップS20でマーカーの歪みを検出した後で、この歪みを補正するために必要な動きを示す記号や文字等を、プレビュー画像PVに重ねて表示してもよい。例えば、カメラ61の撮像方向やマーカーとカメラ61との距離を変えることで、歪みの小さい状態でマーカーを撮像できる場合、カメラ61を動かす方向を、矢印などの記号や文字で案内するとよい。この記号や文字に従って使用者が頭部装着型表示装置100を動かすことで、マーカーを認識できるようになる。この場合、ステップS21でプレビュー画像PVを変形させなくてもよく、例えばステップS12に戻って、撮像画像データを再び取得するとよい。
In addition, when the imaging processing unit 163 detects the marker image in step S16 and the preview control unit 165 displays the symbols, characters, and the like superimposed on the preview display, if the preview image PV is deformed, the symbols, characters, etc. are displayed. It is possible to deform. In this case, the preview control unit 165 may deform only the symbols and characters according to the distortion of the marker detected in step S20 before deforming the preview image PV. In this case, since the distortion of the marker and the distortion of the symbol and the character are aligned, when the preview image PV is subsequently deformed, both the marker, the symbol and the character are easy to see.
Furthermore, after detecting the distortion of the marker in step S20, the preview control unit 165 may display a symbol, a character, or the like indicating a movement necessary for correcting the distortion so as to overlap the preview image PV. For example, when the imaging direction of the camera 61 and the distance between the marker and the camera 61 can change the image of the marker with a small distortion, the direction in which the camera 61 is moved may be guided by a symbol or character such as an arrow. The user can recognize the marker by moving the head-mounted display device 100 in accordance with the symbols and characters. In this case, the preview image PV does not have to be deformed in step S21. For example, it is preferable to return to step S12 and acquire the captured image data again.

さらに、ステップS19でマーカーに基づくデータ処理を実行した後、制御部140は、ステップS22に移行してカメラモードを終了するか否かを判定してもよく、カメラモードを終了しない場合にステップS12に戻ってもよい。また、ステップS19の後にステップS12に直接、戻ってもよい。この場合、マーカーを認識してマーカーに基づく処理を行った後で、カメラモードを継続できる。このため、頭部装着型表示装置100が、続けて他のマーカーを読み取ることも可能になる。   Furthermore, after executing the data processing based on the marker in step S19, the control unit 140 may determine whether to move to step S22 and end the camera mode. If the camera mode is not ended, step S12 is performed. You may return to Moreover, you may return to step S12 directly after step S19. In this case, the camera mode can be continued after the marker is recognized and the processing based on the marker is performed. For this reason, the head-mounted display device 100 can continuously read other markers.

また、上述したように、撮像処理部163は、マーカー以外に、撮像画像データから特定の背景、特定の立体物等の被写体を検出してもよい。この場合、ステップS16で、撮像処理部163が被写体を検出し、マーカーを検出した場合と同様に、ステップS17以後の処理を行ってもよい。   As described above, the imaging processing unit 163 may detect a subject such as a specific background or a specific three-dimensional object from the captured image data, in addition to the marker. In this case, the processing after step S17 may be performed in the same manner as when the imaging processing unit 163 detects the subject and detects the marker in step S16.

以上説明したように、本発明を適用した実施形態に係る頭部装着型表示装置100は、外景を透過し、外景とともに視認できるように画像を表示する画像表示部20と、使用者の視野の少なくとも一部を含む方向をカメラ61により撮像させる撮像処理部163と、カメラ61に撮像させた被写体との距離を取得する距離取得部161と、カメラ61の撮像画像を、参照画像としてのプレビューを画像表示部20に表示させ、画像表示部20における参照画像の表示形態を、距離取得部161が取得した被写体との距離が近いほど参照画像が見やすくなるように調整するプレビュー制御部165と、を備える。このため、使用者が撮像画像の画角を認識して、撮像装置の撮像の方向を適切な方向に調整できる。
また、プレビュー制御部165は、参照画像をプレビューとして表示し、カメラ61の画角と外景の見え方に差が生じにくい場合のプレビュー画像PVは、相対的に小さいため、外景の視認性を損ないにくい。このように、カメラ61の撮像画像を適切な手法でプレビュー表示することで、外景と撮像画像の視認性を両立し、利便性を高めることができる。
As described above, the head-mounted display device 100 according to the embodiment to which the present invention is applied includes the image display unit 20 that displays an image so as to transmit the outside scene and be visible together with the outside scene, and the visual field of the user. An imaging processing unit 163 that captures a direction including at least a part by the camera 61, a distance acquisition unit 161 that acquires a distance from the subject imaged by the camera 61, and a preview of the captured image of the camera 61 as a reference image A preview control unit 165 that displays the image on the image display unit 20 and adjusts the display form of the reference image on the image display unit 20 so that the reference image becomes easier to see as the distance to the subject acquired by the distance acquisition unit 161 is closer. Prepare. For this reason, the user can recognize the angle of view of the captured image and adjust the imaging direction of the imaging apparatus to an appropriate direction.
In addition, the preview control unit 165 displays the reference image as a preview, and the preview image PV when the difference between the angle of view of the camera 61 and the appearance of the outside scene is hardly generated is relatively small, and thus the visibility of the outside scene is impaired. Hateful. Thus, by displaying a preview of the captured image of the camera 61 using an appropriate method, the visibility of the outside scene and the captured image can be compatible, and convenience can be enhanced.

また、プレビュー制御部165は、距離取得部161が取得した被写体との距離が第1の距離L1である場合のプレビューの大きさよりも、被写体との距離が第1の距離より近い第2の距離L2である場合のプレビューを大きくする。このため、被写体との距離が近く、カメラ61の画角と使用者に見える外景の見え方の差が発生しやすいほど、画像表示部20に表示されるプレビューが大きくなるので、撮像画像のプレビューを外景とともに適切に表示して利便性を高めることができる。   The preview control unit 165 also has a second distance that is closer to the subject than the first distance than the size of the preview when the distance to the subject acquired by the distance acquisition unit 161 is the first distance L1. The preview for L2 is enlarged. For this reason, the preview displayed on the image display unit 20 becomes larger as the distance from the subject is closer and the difference between the angle of view of the camera 61 and the appearance of the outside scene visible to the user is more likely to occur. Can be appropriately displayed together with the outside scene to enhance convenience.

また、撮像処理部163は、カメラ61の撮像画像から、予め設定された条件に該当する被写体を検出する。プレビュー制御部165は、撮像処理部163により被写体が検出された場合に、プレビューの表示形態を変更する。これにより、カメラ61の撮像画像からマーカー等を検出した場合にプレビューの表示形態を変更し、例えば被写体を見やすくしたり、予め設定された条件に該当する被写体であることを通知したりできる。これにより、頭部装着型表示装置100が撮像画像からマーカーを認識して動作する場合の利便性の向上を図ることができる。
さらに、プレビュー制御部165は、カメラ61の撮像画像において撮像処理部163により検出された被写体の画像の歪みを検出し、検出した歪みの状態に応じた表示形態でプレビューを表示させる。このため、撮像画像に写った被写体の画像が歪んでいることを、表示形態に反映させるので、歪みの発生を使用者に通知できる。また、例えば歪みを補償するように画像の表示形態を調整すれば、被写体の画像の視認性を高めることができる。
Further, the imaging processing unit 163 detects a subject that satisfies a preset condition from the captured image of the camera 61. The preview control unit 165 changes the display format of the preview when the subject is detected by the imaging processing unit 163. Thereby, when a marker or the like is detected from the captured image of the camera 61, the display form of the preview can be changed, for example, to make it easy to see the subject or to notify that the subject meets a preset condition. Accordingly, it is possible to improve convenience when the head-mounted display device 100 operates by recognizing the marker from the captured image.
Further, the preview control unit 165 detects distortion of the image of the subject detected by the imaging processing unit 163 in the captured image of the camera 61, and displays the preview in a display form corresponding to the detected distortion state. For this reason, since the fact that the image of the subject in the captured image is distorted is reflected in the display form, it is possible to notify the user of the occurrence of distortion. Further, if the image display form is adjusted so as to compensate for distortion, for example, the visibility of the image of the subject can be improved.

また、距離取得部161は、カメラ61が撮像した撮像画像における被写体のサイズに基づき、被写体との距離を求めるので、被写体までの距離を容易に求めることができる。例えば、被写体の画像が撮像画像の大部分を占める場合、この被写体はカメラ61の近くにあるとみなすことができる。
このように、距離取得部161は、撮像画像から被写体の画像を抽出し、この被写体の画像が占める面積の割合や、被写体の画像と撮像画像全体のサイズの比に基づき、距離を推定する。
この構成では、実質的に、プレビュー表示のサイズを、撮像画像から被写体の画像を抽出し、この被写体の画像が占める面積の割合や、被写体の画像と撮像画像全体のサイズの比に基づいて決定しているといえる。
Further, since the distance acquisition unit 161 obtains the distance to the subject based on the size of the subject in the captured image captured by the camera 61, the distance to the subject can be easily obtained. For example, when the subject image occupies most of the captured image, the subject can be considered to be near the camera 61.
As described above, the distance acquisition unit 161 extracts the subject image from the captured image, and estimates the distance based on the ratio of the area occupied by the subject image and the ratio between the subject image and the entire captured image size.
In this configuration, the size of the preview display is substantially determined based on the ratio of the area occupied by the subject image and the size ratio of the subject image and the entire captured image by extracting the subject image from the captured image. It can be said that.

図5(A)及び(B)の例では、プレビュー制御部165は、距離取得部161が求めた距離に応じてプレビュー画像PVの表示サイズを変更する。プレビュー制御部165の機能はこれに限定されず、距離取得部161が求めた距離に応じて、プレビュー画像PVの表示位置を変えてもよい。例えば、被写体までの距離が小さい(近い)ほどプレビュー画像PVの表示位置が視野VRの中央に近く、被写体までの距離が大きい(遠い)ほどプレビュー画像PVの表示位置が視野VRの外縁に近くなるようにしてもよい。この場合、被写体までの距離が基準より小さい場合に、プレビュー画像PVを視野VRの中央に配置し、被写体までの距離が基準より大きい場合に、プレビュー画像PVを視野VRの端部に配置するとよい。   In the example of FIGS. 5A and 5B, the preview control unit 165 changes the display size of the preview image PV in accordance with the distance obtained by the distance acquisition unit 161. The function of the preview control unit 165 is not limited to this, and the display position of the preview image PV may be changed according to the distance obtained by the distance acquisition unit 161. For example, the display position of the preview image PV is closer to the center of the visual field VR as the distance to the subject is smaller (closer), and the display position of the preview image PV is closer to the outer edge of the visual field VR as the distance to the subject is larger (far). You may do it. In this case, when the distance to the subject is smaller than the reference, the preview image PV is arranged at the center of the visual field VR, and when the distance to the subject is larger than the reference, the preview image PV is arranged at the end of the visual field VR. .

また、プレビュー制御部165は、距離取得部161が求めた距離に応じて、プレビュー画像PVの表示色調を変えてもよい。表示色調はプレビュー画像PVの画像の色の濃淡に相当し、表示色調が濃いと視野VRにおいてプレビュー画像PVが明瞭に見え、表示色調が薄いと、プレビュー画像PVが薄く、このプレビュー画像PVを透過して外景が視認できる。
プレビュー制御部165は、例えば、被写体までの距離が小さい(近い)ほどプレビュー画像PVの表示色調を濃くし、被写体までの距離が大きい(遠い)ほどプレビュー画像PVの表示色調を薄くしてもよい。この場合、被写体までの距離が基準より小さい場合に表示色調を最高濃度とし、被写体までの距離が基準より大きい場合にプレビュー画像PVの色調を最低濃度にすればよい。
Further, the preview control unit 165 may change the display color tone of the preview image PV according to the distance obtained by the distance acquisition unit 161. The display color tone corresponds to the shade of the color of the image of the preview image PV. If the display color tone is dark, the preview image PV can be clearly seen in the visual field VR, and if the display color tone is light, the preview image PV is thin and transmits the preview image PV. Then you can see the outside scene.
For example, the preview control unit 165 may darken the display color tone of the preview image PV as the distance to the subject is smaller (closer), and may decrease the display color tone of the preview image PV as the distance to the subject is greater (far). . In this case, the display color tone may be set to the highest density when the distance to the subject is smaller than the reference, and the color tone of the preview image PV may be set to the lowest density when the distance to the subject is greater than the reference.

また、プレビュー制御部165は、距離取得部161が求めた距離に応じて、プレビュー画像PVの表示輝度を変えてもよい。プレビュー制御部165は、例えば、被写体までの距離が小さい(近い)ほどプレビュー画像PVの輝度を高く(明るく)し、被写体までの距離が大きい(遠い)ほどプレビュー画像PVの輝度を低く(暗く)してもよい。この場合、被写体までの距離が基準より小さい場合に表示色調を最高輝度とし、被写体までの距離が基準より大きい場合にプレビュー画像PVの色調を最低輝度にすればよい。
また、プレビュー制御部165は、距離取得部161が求めた距離に応じて、参照画像の形状を距離に応じて変えてもよい。プレビュー制御部165は、例えば、距離取得部161が求めた被写体までの距離に段階的に対応して、プレビュー画像PVの形状を円形、矩形、三角形或いは他の多角形などに変形させてもよい。また、被写体までの距離が基準より小さい場合にプレビュー画像PVの形状を円形とし、被写体までの距離が基準より大きい場合にプレビュー画像PVの色調を矩形とし、被写体前の距離が基準の間である場合は、矩形と円形とを合成した形状とすることも考えられる。
上記のいずれの例においても、プレビュー制御部165は、被写体までの距離が近いほど、プレビュー画像PVの視認性が高まり、見やすくなるように表示形態を変更する。より好ましくは、被写体までの距離が近い場合には、画像表示部20を透過して見える外景に比べて、プレビュー画像PVの視認性が高くなるように、表示形態を変更する。
さらに、プレビュー制御部165は、距離取得部161が求めた距離に対応するプレビュー画像PVの表示形態として、上述した表示サイズ、表示位置、表示色調、輝度、形状等を変化させるだけでなく、これらの変化を組み合わせてもよい。例えば、表示サイズと表示位置との両方を変化させてもよく、さらに表示輝度を変化させてもよい。
The preview control unit 165 may change the display brightness of the preview image PV according to the distance obtained by the distance acquisition unit 161. For example, the preview control unit 165 increases (brightens) the brightness of the preview image PV as the distance to the subject is smaller (closer), and decreases (darkens) the brightness of the preview image PV as the distance to the subject is greater (farther). May be. In this case, the display color tone may be set to the highest luminance when the distance to the subject is smaller than the reference, and the color tone of the preview image PV may be set to the lowest luminance when the distance to the subject is larger than the reference.
The preview control unit 165 may change the shape of the reference image according to the distance according to the distance obtained by the distance acquisition unit 161. For example, the preview control unit 165 may transform the shape of the preview image PV into a circular shape, a rectangular shape, a triangular shape, or another polygonal shape corresponding to the distance to the subject obtained by the distance acquisition unit 161 in a stepwise manner. . Further, when the distance to the subject is smaller than the reference, the shape of the preview image PV is circular, and when the distance to the subject is larger than the reference, the color of the preview image PV is rectangular, and the distance before the subject is between the reference. In such a case, it may be considered that the shape is a combination of a rectangle and a circle.
In any of the above examples, the preview control unit 165 changes the display form so that the visibility of the preview image PV increases as the distance to the subject is shorter, and is easier to see. More preferably, when the distance to the subject is short, the display form is changed so that the visibility of the preview image PV is higher than the outside scene seen through the image display unit 20.
Furthermore, the preview control unit 165 not only changes the above-described display size, display position, display color tone, luminance, shape, and the like as the display form of the preview image PV corresponding to the distance obtained by the distance acquisition unit 161, These changes may be combined. For example, both the display size and the display position may be changed, and the display luminance may be further changed.

また、ステップS16(図4)で撮像処理部163がマーカーを検出した場合に、プレビュー制御部165が、プレビュー画像PVの表示形態を変更する構成としてもよい。すなわち、プレビュー画像PVを表示している状態で撮像処理部163がマーカーを検出した場合、プレビュー制御部165が、プレビュー画像PVの表示形態を変更してもよい。この場合、プレビュー画像PVの表示形態が変化することで、使用者に対し、頭部装着型表示装置100がマーカーを検出したことを通知できる。
例えば、プレビュー制御部165は、プレビュー画像PVの表示サイズ、表示位置、表示色調、輝度、形状等を変化させてもよい。この場合、プレビュー制御部165は、マーカーが検出される前に比べて、プレビュー画像PVの視認性が高まり、使用者にプレビュー画像PVが見やすくなるように、表示形態を変更する。プレビュー画像PVが見やすくなる表示形態の変更とは、上記のように、表示サイズを大きくする、表示位置を中央に近い位置に変更する、表示色調を濃くする、輝度を高くする、形状を円形に近づける、等の変更である。また、複数の表示形態の変化を組み合わせてもよい。
In addition, when the imaging processing unit 163 detects a marker in step S16 (FIG. 4), the preview control unit 165 may change the display form of the preview image PV. That is, when the imaging processing unit 163 detects a marker while the preview image PV is displayed, the preview control unit 165 may change the display form of the preview image PV. In this case, by changing the display form of the preview image PV, it is possible to notify the user that the head-mounted display device 100 has detected the marker.
For example, the preview control unit 165 may change the display size, display position, display color tone, brightness, shape, and the like of the preview image PV. In this case, the preview control unit 165 changes the display form so that the visibility of the preview image PV is higher than before the marker is detected, and the preview image PV is easily seen by the user. As described above, the display mode is changed so that the preview image PV is easy to see. The display size is increased, the display position is changed to a position close to the center, the display color is darkened, the brightness is increased, and the shape is circular. It is a change such as getting closer. Moreover, you may combine the change of a some display form.

また、図3に示したように、カメラ61は、カメラ61の撮像方向AXが、使用者の視線に対応する方向となっており、具体的には視線方向RS、LSと平行になるように配置されている。この構成では、使用者の視線方向と撮像方向とが対応するため、被写体までの距離が遠い場合はプレビュー画像を視認する必要性が小さく、被写体までの距離が近いほどプレビュー画像を視認する必要性が高い。このように、撮像画像のプレビューを外景とともに表示する場合の表示サイズを、プレビューの必要性に応じて調整し、利便性を高めることができる。   As shown in FIG. 3, the camera 61 has an imaging direction AX of the camera 61 corresponding to the user's line of sight, and specifically, parallel to the line-of-sight directions RS and LS. Has been placed. In this configuration, since the user's line-of-sight direction corresponds to the imaging direction, the need to view the preview image is small when the distance to the subject is long, and the need to view the preview image as the distance to the subject is short Is expensive. As described above, the display size when the preview of the captured image is displayed together with the outside scene can be adjusted according to the necessity of the preview, and the convenience can be enhanced.

上記実施形態では、頭部装着型表示装置100において、距離取得部161がカメラ61の撮像画像をもとに距離を取得する態様としたが、距離を取得する方法はこれに限られず、種々変形可能である。   In the above embodiment, in the head-mounted display device 100, the distance acquisition unit 161 acquires the distance based on the captured image of the camera 61. However, the method of acquiring the distance is not limited to this, and various modifications are possible. Is possible.

図7は、変形例における頭部装着型表示装置の要部構成を示すブロック図である。図7(A)には、第1変形例としてステレオカメラ64を備えた構成を示し、図7(B)には第2変形例として距離計67を備えた構成を示す。なお、図7(A)及び(B)は頭部装着型表示装置100の要部構成を示し、図2に示した頭部装着型表示装置100と同一の構成部については図示を省略する。   FIG. 7 is a block diagram illustrating a main configuration of a head-mounted display device according to a modification. 7A shows a configuration including a stereo camera 64 as a first modification, and FIG. 7B illustrates a configuration including a distance meter 67 as a second modification. 7A and 7B show the main configuration of the head-mounted display device 100, and the components that are the same as those of the head-mounted display device 100 shown in FIG. 2 are not shown.

第1変形例では、画像表示部20が有するカメラ61の代わりにステレオカメラ64を備えた画像表示部20Aを用いる。画像表示部20Aは、カメラ61以外は画像表示部20と同一の構成である。また、制御装置10は、図2に示した構成と同一である。
ステレオカメラ64は、複数の撮像レンズ(図示略)、及び、各撮像レンズに対応する複数の撮像素子(図示略)を備え、これら複数の撮像素子により同時に撮像して、視差を有する複数の撮像画像を出力する。ステレオカメラ64の撮像レンズは、使用者の右眼REと左眼LEとが並ぶ方向に、分散して配置される。例えば、1つの撮像レンズを端部ER(図1)に配置し、もう1つの撮像レンズを端部ELに配置する構成が挙げられる。
In the first modification, an image display unit 20A including a stereo camera 64 is used instead of the camera 61 included in the image display unit 20. The image display unit 20 </ b> A has the same configuration as the image display unit 20 except for the camera 61. Moreover, the control apparatus 10 is the same as the structure shown in FIG.
The stereo camera 64 includes a plurality of imaging lenses (not shown) and a plurality of imaging elements (not shown) corresponding to the respective imaging lenses, and images are taken simultaneously by the plurality of imaging elements to have a plurality of images having parallax. Output an image. The imaging lenses of the stereo camera 64 are distributed and arranged in the direction in which the user's right eye RE and left eye LE are aligned. For example, there is a configuration in which one imaging lens is arranged at the end ER (FIG. 1) and another imaging lens is arranged at the end EL.

撮像処理部163は、ステレオカメラ64を制御して撮像を実行させ、複数の撮像画像データを取得する。距離取得部161は、撮像処理部163が取得した複数の撮像画像データの視差を検出することにより、被写体までの距離を算出する。
この構成によれば、ステレオカメラの視差に基づき、容易に、かつ、より正確に被写体までの距離を算出できる。
The imaging processing unit 163 controls the stereo camera 64 to execute imaging, and acquires a plurality of captured image data. The distance acquisition unit 161 calculates the distance to the subject by detecting the parallax of the plurality of captured image data acquired by the imaging processing unit 163.
According to this configuration, the distance to the subject can be calculated easily and more accurately based on the parallax of the stereo camera.

この構成では、プレビュー制御部165は、撮像処理部163が取得した複数の撮像画像データのいずれか1つをプレビュー画像として表示させる。この場合、例えば、複数の撮像画像データの中から、使用者に、画像表示部20を透過して見える視野に近い外景を撮像した1つの撮像画像データを選択して、表示してもよい。また、例えば、撮像画像における被写体の画像の歪みが少ない1つの撮像画像データを選択して、表示してもよい。
また、プレビュー制御部165は、撮像処理部163が取得した複数の撮像画像データから新たにプレビュー表示用の画像データを生成してもよい。或いは、撮像処理部163が取得した複数の撮像画像データを、右LCD241及び左LCD242の各々に表示させて、立体画像のプレビューを表示してもよい。
In this configuration, the preview control unit 165 displays any one of a plurality of captured image data acquired by the imaging processing unit 163 as a preview image. In this case, for example, one captured image data obtained by capturing an outside scene close to the visual field that can be seen through the image display unit 20 from the plurality of captured image data may be selected and displayed. Further, for example, one captured image data with less distortion of the subject image in the captured image may be selected and displayed.
The preview control unit 165 may newly generate image data for preview display from a plurality of captured image data acquired by the imaging processing unit 163. Alternatively, a plurality of captured image data acquired by the imaging processing unit 163 may be displayed on each of the right LCD 241 and the left LCD 242 to display a stereoscopic image preview.

また、本発明は、ステレオカメラ64を用いる構成に限定されない。3以上の撮像素子を有し、3以上の撮像画像データを出力するカメラを、ステレオカメラ64に代えて設けてもよい。さらに、2個また3個以上のカメラ61を頭部装着型表示装置100に設けて、これら複数のカメラ61が同時に撮像を実行し、それぞれのカメラ61が出力する撮像画像データを利用して、被写体との距離を検出してもよい。
また、カメラ61またはステレオカメラ64が複数回の撮像を行った場合に、撮像された複数の撮像画像データを利用してもよい。この場合、距離取得部161は、撮像時刻が異なる複数の撮像画像データに基づき、被写体との距離を検出する。この場合、撮像画像データに基づき被写体との距離を検出する処理を複数回行うことになるので、1つの撮像画像データを用いる場合に比べて、検出精度を高めることができる。
さらに、カメラ61またはステレオカメラ64が、異なる位置で複数回の撮像を行った場合、撮像画像データにおいては撮像位置の違いに起因する視差が生じる。この視差を利用して、被写体との距離を算出してもよい。この場合、撮影時におけるカメラ61またはステレオカメラ64の位置、或いは位置の変化が明らかであればよい。例えば、3軸センサー113、GPS115、或いは9軸センサー66の出力値に基づき、撮影時におけるカメラ61またはステレオカメラ64の位置を求めてもよく、合わせて撮像方向を求めても良い。
Further, the present invention is not limited to the configuration using the stereo camera 64. A camera that has three or more imaging elements and outputs three or more captured image data may be provided instead of the stereo camera 64. Further, two or three or more cameras 61 are provided in the head-mounted display device 100, and the plurality of cameras 61 perform imaging simultaneously, and use the captured image data output by each camera 61, You may detect the distance with a to-be-photographed object.
In addition, when the camera 61 or the stereo camera 64 captures images a plurality of times, a plurality of captured image data captured may be used. In this case, the distance acquisition unit 161 detects the distance to the subject based on a plurality of captured image data having different imaging times. In this case, since the process of detecting the distance to the subject based on the captured image data is performed a plurality of times, the detection accuracy can be improved as compared with the case where one captured image data is used.
Furthermore, when the camera 61 or the stereo camera 64 performs imaging a plurality of times at different positions, parallax due to the difference in imaging position occurs in the captured image data. The distance to the subject may be calculated using this parallax. In this case, it is only necessary that the position of the camera 61 or the stereo camera 64 at the time of shooting or the change in position is clear. For example, the position of the camera 61 or the stereo camera 64 at the time of shooting may be obtained based on the output values of the 3-axis sensor 113, the GPS 115, or the 9-axis sensor 66, and the imaging direction may be obtained together.

また、上記実施形態のカメラ61及び変形例のステレオカメラ64の撮像方向は、いずれも、使用者の視野の少なくとも一部を含む範囲を撮像するように設定されていた。本発明はこれに限定されず、例えば、使用者の視野を含まない範囲を撮像するように設定してもよい。つまり、本発明の撮像部であるカメラ61、またはステレオカメラ64の撮像方向が、撮像範囲に使用者の視野を含まない方向であってもよい。
この場合、使用者が画像表示部20を通して見る外景とは別の方向をカメラ61またはステレオカメラ64で撮像し、プレビュー制御部165が、撮像画像をプレビュー画像PVとして表示する。この構成では、使用者が画像表示部20越しに見ることができない範囲の撮像画像が表示されるので、使用者の視野を補うことができる。
さらに、このような構成で、上述したように、撮像した被写体との距離に応じてプレビュー画像PVの表示形態を変更してもよい。この場合、使用者が画像表示部20を透過して見ることができない方向の被写体を、被写体との距離に対応した表示形態で、使用者に見せることができる。具体的には、使用者の目の前に画像表示部20が位置する場合に、使用者の後方をカメラ61またはステレオカメラ64で撮像することができる。そして、使用者の後方の被写体が、所定距離よりも使用者の近くにある場合に、プレビュー画像PVの表示形態を変更することで、使用者に注意を促すといった使用方法を実現できる。また、被写体との距離が所定以上の場合にはプレビュー画像PVの表示形態を、プレビュー画像PVの視認性が低くなるように変化させて、使用者が注目しにくい状態にしてもよい。
In addition, the imaging directions of the camera 61 of the embodiment and the stereo camera 64 of the modification are both set so as to capture a range including at least a part of the user's visual field. The present invention is not limited to this, and may be set to image a range that does not include the user's field of view, for example. That is, the imaging direction of the camera 61 or the stereo camera 64 that is the imaging unit of the present invention may be a direction that does not include the user's field of view in the imaging range.
In this case, the camera 61 or the stereo camera 64 captures a direction different from the outside scene viewed by the user through the image display unit 20, and the preview control unit 165 displays the captured image as the preview image PV. In this configuration, a captured image in a range that the user cannot see through the image display unit 20 is displayed, so that the user's visual field can be supplemented.
Further, with such a configuration, as described above, the display form of the preview image PV may be changed according to the distance from the captured subject. In this case, a subject in a direction that the user cannot see through the image display unit 20 can be shown to the user in a display form corresponding to the distance to the subject. Specifically, when the image display unit 20 is positioned in front of the user's eyes, the rear of the user can be imaged with the camera 61 or the stereo camera 64. Then, when the subject behind the user is closer to the user than the predetermined distance, the usage method of alerting the user by changing the display form of the preview image PV can be realized. In addition, when the distance to the subject is equal to or greater than a predetermined distance, the display form of the preview image PV may be changed so that the visibility of the preview image PV is lowered to make it difficult for the user to pay attention.

第2変形例では、図2の画像表示部20の構成に加えて、距離計67(測距部)を備えた画像表示部20Bを用いる。また、制御装置10は、図2に示した構成と同一である。
距離計67は、レーザー光または超音波を利用して対象物までの距離を検出する装置である。例えば、レーザー光の光源と、この光源が発したレーザー光の反射光を受光する受光部とを備え、レーザー光の受光状態に基づき対象物までの距離を検出する。
また、距離計67は、超音波式の距離計としてもよく、この場合、距離計67は超音波を発する音源と、対象物に反射した超音波を検出する検出部とを備え、反射した超音波に基づき対象物までの距離を検出する。
さらに、距離計67は、レーザー光を利用する距離計と超音波を用いる距離計とを合わせた構成とすることもできる。
In the second modification, in addition to the configuration of the image display unit 20 in FIG. 2, an image display unit 20 </ b> B including a distance meter 67 (ranging unit) is used. Moreover, the control apparatus 10 is the same as the structure shown in FIG.
The distance meter 67 is a device that detects a distance to an object using laser light or ultrasonic waves. For example, a light source of laser light and a light receiving unit that receives reflected light of the laser light emitted from the light source are provided, and the distance to the object is detected based on the light receiving state of the laser light.
In addition, the distance meter 67 may be an ultrasonic distance meter. In this case, the distance meter 67 includes a sound source that emits an ultrasonic wave and a detection unit that detects the ultrasonic wave reflected on the object, and reflects the reflected ultrasonic wave. The distance to the object is detected based on the sound wave.
Furthermore, the distance meter 67 may be configured by combining a distance meter using laser light and a distance meter using ultrasonic waves.

この構成では、距離取得部161は、撮像処理部163がカメラ61から撮像画像データを取得するタイミングで、距離計67により距離計測を実行させて、計測結果を示すデータを距離計67から取得し、プレビュー制御部165に出力する。
この構成によれば、被写体までの距離を速やかに、より正確に求めることができる。
In this configuration, the distance acquisition unit 161 causes the distance meter 67 to perform distance measurement at the timing when the imaging processing unit 163 acquires captured image data from the camera 61, and acquires data indicating the measurement result from the distance meter 67. And output to the preview control unit 165.
According to this configuration, the distance to the subject can be obtained quickly and more accurately.

頭部装着型表示装置100が被写体との距離を求める方法は、上記実施形態および各変形例の構成に限定されず、例えば、頭部装着型表示装置100が備えるGPS115で検出される現在位置の情報を用いてもよい。具体的には、被写体の現在位置を検出可能である場合に、被写体の位置とGPS115で検出した位置とに基づき、被写体と頭部装着型表示装置100との距離を求めてもよい。この場合、被写体が通信部を備え、被写体の通信部と通信部117とが相互に接続され、GPS115が検出した位置を被写体に送信し、被写体において、被写体と頭部装着型表示装置100との距離を求め、求めた距離を送信してもよい。或いは、被写体の位置を頭部装着型表示装置100に送信し、被写体の位置とGPS115で検出した位置とに基づき、距離取得部161が距離を求めてもよい。この動作は、撮像画像データから被写体を検出する際に実行してもよい。   The method by which the head-mounted display device 100 determines the distance to the subject is not limited to the configuration of the above-described embodiment and each modification. For example, the current position detected by the GPS 115 included in the head-mounted display device 100 Information may be used. Specifically, when the current position of the subject can be detected, the distance between the subject and the head-mounted display device 100 may be obtained based on the position of the subject and the position detected by the GPS 115. In this case, the subject includes a communication unit, the subject communication unit and the communication unit 117 are connected to each other, the position detected by the GPS 115 is transmitted to the subject, and the subject and the head-mounted display device 100 are connected to each other. The distance may be obtained and the obtained distance may be transmitted. Alternatively, the position of the subject may be transmitted to the head-mounted display device 100, and the distance acquisition unit 161 may obtain the distance based on the position of the subject and the position detected by the GPS 115. This operation may be executed when the subject is detected from the captured image data.

なお、この発明は上記実施形態及び各変形例の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。例えば、制御装置10に設けられた方向キー16やトラックパッド14の一方を省略したり、方向キー16やトラックパッド14に加えてまたは方向キー16やトラックパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御装置10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。   In addition, this invention is not restricted to the structure of the said embodiment and each modification, It can implement in a various aspect in the range which does not deviate from the summary. For example, one of the direction key 16 and the track pad 14 provided in the control device 10 is omitted, or in addition to the direction key 16 or the track pad 14 or in place of the direction key 16 or the track pad 14, an operation stick or the like. An operation interface may be provided. Moreover, the control apparatus 10 is a structure which can connect input devices, such as a keyboard and a mouse | mouth, and is good also as what receives an input from a keyboard or a mouse | mouth.

また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、上記実施形態では、頭部装着型表示装置100は、両眼タイプの光学透過型であるとしているが、本発明は、例えばビデオ透過型や単眼タイプといった他の形式の頭部装着型表示装置にも同様に適用可能である。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。また、例えば、使用者が両手に持って使用する双眼鏡型のハンドヘルドディスプレイ(Hand Held Display)を、本願の画像表示部20として採用してもよい。さらにまた、使用者の両眼の眼球(例えば、角膜上)に装着して使用する、いわゆるコンタクトレンズ型ディスプレイや、眼球内に埋め込まれるインプラント型ディスプレイなど、使用者の眼球において網膜に結像させるディスプレイを、画像表示部20としてもよい。   As the image display unit, instead of the image display unit 20 worn like glasses, another type of image display unit such as an image display unit worn like a hat may be adopted. In the above embodiment, the head-mounted display device 100 is a binocular optical transmission type. However, the present invention can be applied to other types of head-mounted display such as a video transmission type and a monocular type. The same applies to the apparatus. Further, for example, it may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Moreover, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet, or may be a head-up display (HUD) used for a windshield of an automobile. Further, for example, a binocular-type hand held display (Hand Held Display) that the user uses with both hands may be employed as the image display unit 20 of the present application. Furthermore, the user's eyeball forms an image on the retina such as a so-called contact lens type display that is worn on the user's eyes (for example, on the cornea) and an implant type display that is embedded in the eyeball. The display may be the image display unit 20.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10と画像表示部20とが、より長いケーブルまたは無線通信回線により接続され、制御装置10として、ノート型コンピューター、タブレット型コンピューターまたはデスクトップ型コンピューター、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。
Furthermore, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected by way of the connection unit 40, but the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
In addition, the control device 10 and the image display unit 20 are connected by a longer cable or a wireless communication line. As the control device 10, a notebook computer, a tablet computer or a desktop computer, a game machine, a portable phone, a smartphone, A portable electronic device including a portable media player, other dedicated devices, or the like may be used.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよいし、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。   Further, for example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used, or an LCOS (Liquid crystal) may be provided. On silicon and LCoS are registered trademarks), and digital micromirror devices can also be used. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. A configuration that allows the user to visually recognize an image may be employed. When a laser retina projection type head-mounted display is employed, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.

画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   As an optical system that guides image light to the user's eyes, an optical member that transmits external light that is incident from the outside toward the apparatus and that enters the user's eyes together with the image light can be employed. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的にまたは可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に、画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。   The display device of the present invention is not limited to a head-mounted display device, and can be applied to various display devices such as a flat panel display and a projector. The display device of the present invention may be any device that allows an image to be visually recognized by external light and image light. For example, a configuration in which an image by image light is visually recognized by an optical member that transmits external light is exemplified. Specifically, the above-described head-mounted display includes an optical member that transmits external light, and a light-transmitting plane or curved surface (glass) that is fixedly or movably installed at a position away from the user. It is also applicable to a display device that projects image light onto a transparent plastic or the like. As an example, a configuration of a display device that projects image light onto a window glass of a vehicle and allows a user who is on board or a user outside the vehicle to visually recognize the scenery inside and outside the vehicle together with an image by the image light. It is done. In addition, for example, image light is projected onto a transparent, semi-transparent, or colored transparent display surface that is fixedly installed such as a window glass of a building, and is displayed together with an image by the image light to a user around the display surface. A configuration of a display device that visually recognizes a scene through the surface can be given.

また、図2に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図2に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117またはインターフェイス180を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成の内、操作部135のみが単独の使用者インターフェース(UI)として形成されてもよいし、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。   In addition, at least a part of each functional block shown in FIG. 2 may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in FIG. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 10, or the program stored in an external device is acquired via the communication unit 117 or the interface 180. It is good also as a structure to execute. Of the configurations formed in the control device 10, only the operation unit 135 may be formed as a single user interface (UI), or the power source 130 in the above embodiment is formed independently and is replaceable. It may be a configuration. Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 illustrated in FIG. 2 may be formed in both the control device 10 and the image display unit 20, or the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. It is good also as a structure by which the function to perform is divided | segmented separately.

10…制御装置、20、20A、20B…画像表示部(表示部)、21…右保持部、22…右表示駆動部、23…左保持部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ(撮像部)、63…マイク、64…ステレオカメラ(撮像部)、65…振動センサー、66…9軸センサー、67…距離計(測距部)、100…頭部装着型表示装置(表示装置)、117…通信部、120…記憶部、140…制御部、150…オペレーティングシステム、160…画像処理部、161…距離取得部、163…撮像処理部、165…プレビュー制御部、170…音声処理部、180…インターフェイス、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、301、302…被写体、310…被写体、311…被写体、315…マーカー、320…撮像画像、321…マーカー画像、AX…撮像方向、CR…画角、D…距離、EL、ER…端部、HM…頭部装着型表示装置、L1…距離(第1の距離)、L2…距離(第2の距離)、OA…画像供給装置、PV…プレビュー画像、LE…左眼、RE…右眼、RS、LS…視線方向、VR…視野。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus 20, 20A, 20B ... Image display part (display part), 21 ... Right holding part, 22 ... Right display drive part, 23 ... Left holding part, 24 ... Left display drive part, 26 ... Right optical image Display unit, 28: Left optical image display unit, 61: Camera (imaging unit), 63 ... Microphone, 64 ... Stereo camera (imaging unit), 65 ... Vibration sensor, 66 ... 9-axis sensor, 67 ... Distance meter (ranging) Part), 100 ... head-mounted display device (display device), 117 ... communication part, 120 ... storage part, 140 ... control part, 150 ... operating system, 160 ... image processing part, 161 ... distance acquisition part, 163 ... Imaging processing unit, 165... Preview control unit, 170 ... audio processing unit, 180 ... interface, 190 ... display control unit, 201 ... right backlight control unit, 202 ... left backlight control unit, 211 ... right LCD control unit 212 ... Left LCD control unit, 221 ... Right backlight, 222 ... Left backlight, 241 ... Right LCD, 242 ... Left LCD, 251 ... Right projection optical system, 252 ... Left projection optical system, 261 ... Right light guide plate, 262 ... Left light guide plate, 301, 302 ... Subject, 310 ... Subject, 311 ... Subject, 315 ... Marker, 320 ... Captured image, 321 ... Marker image, AX ... Capture direction, CR ... Field angle, D ... Distance, EL, ER ... End, HM ... Head-mounted display device, L1 ... Distance (first distance), L2 ... Distance (second distance), OA ... Image supply device, PV ... Preview image, LE ... Left eye, RE ... Right eye, RS, LS ... Gaze direction, VR ... Field of view.

Claims (12)

外景を透過し、前記外景とともに視認できるように画像を表示する表示部と、
撮像部と、
前記撮像部に撮像を実行させる撮像処理部と、
前記撮像部が撮像した被写体との距離を取得する距離取得部と、
前記撮像部の撮像画像を参照画像として前記表示部に表示させ、前記表示部における前記参照画像の表示形態を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像が視認しやすくなるように調整する参照画像制御部と、
を備えることを特徴とする表示装置。
A display unit that displays an image so that it can be seen through the outside scene together with the outside scene;
An imaging unit;
An imaging processing unit that causes the imaging unit to perform imaging;
A distance acquisition unit that acquires a distance from the subject imaged by the imaging unit;
The captured image of the imaging unit is displayed as a reference image on the display unit, and the display form of the reference image on the display unit is more visually recognized as the distance from the subject acquired by the distance acquisition unit is closer. A reference image control unit that adjusts to facilitate,
A display device comprising:
前記参照画像制御部は、前記表示部における前記参照画像の表示形態を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像の大きさが大きくなるように調整すること、
を特徴とする請求項1記載の表示装置。
The reference image control unit adjusts the display form of the reference image on the display unit so that the size of the reference image increases as the distance from the subject acquired by the distance acquisition unit decreases.
The display device according to claim 1.
前記参照画像制御部は、前記距離取得部が取得した前記被写体との距離が第1の距離である場合の前記参照画像の大きさよりも、前記被写体との距離が前記第1の距離より近い第2の距離である場合の前記参照画像を大きくすること、
を特徴とする請求項1または請求項2記載の表示装置。
The reference image control unit is configured such that the distance to the subject is closer to the first distance than the size of the reference image when the distance to the subject acquired by the distance acquisition unit is a first distance. Enlarging the reference image when the distance is 2;
The display device according to claim 1, wherein:
前記撮像部の撮像画像から、予め設定された条件に該当する前記被写体を検出する撮像処理部を備え、
前記参照画像制御部は、前記撮像処理部により前記被写体が検出された場合に、前記参照画像の表示形態をさらに変更すること、
を特徴とする請求項1または3記載の表示装置。
An imaging processing unit that detects the subject that satisfies a preset condition from a captured image of the imaging unit;
The reference image control unit further changes a display form of the reference image when the subject is detected by the imaging processing unit;
The display device according to claim 1 or 3.
前記参照画像制御部は、前記撮像部の撮像画像において前記撮像処理部により検出された前記被写体の画像の歪みを検出し、検出した歪みの状態に応じた表示形態で前記参照画像を表示させること、を特徴とする請求項4記載の表示装置。   The reference image control unit detects distortion of the image of the subject detected by the imaging processing unit in the captured image of the imaging unit, and displays the reference image in a display form according to the detected distortion state. The display device according to claim 4. 前記距離取得部は、前記撮像部が撮像した撮像画像における前記被写体のサイズに基づき、前記被写体との距離を求めること、を特徴とする請求項1から5のいずれかに記載の表示装置。   The display device according to claim 1, wherein the distance acquisition unit obtains a distance from the subject based on a size of the subject in a captured image captured by the imaging unit. 前記距離取得部は、前記撮像部が撮像した少なくとも2つ以上の画像に基づき、前記被写体との距離を求めること、を特徴とする請求項1から5のいずれかに記載の表示装置。   The display device according to claim 1, wherein the distance acquisition unit obtains a distance to the subject based on at least two images captured by the imaging unit. 前記撮像部は少なくとも2つ以上の画像を同時に撮影可能であること、を特徴とする請求項7に記載の表示装置。   The display device according to claim 7, wherein the imaging unit is capable of simultaneously capturing at least two images. 光学的に、若しくは、音波または超音波を用いて前記被写体までの距離を求める測距部を備え、
前記距離取得部は、前記測距部が測定した前記被写体との距離を取得すること、を特徴とすること、を特徴とする請求項1から5のいずれかに記載の表示装置。
A distance measuring unit that obtains the distance to the subject optically or using sound waves or ultrasonic waves,
The display device according to claim 1, wherein the distance acquisition unit acquires a distance from the subject measured by the distance measurement unit.
前記撮像部は、前記使用者の視線に対応する方向を撮像方向とするように配置されたこと、を特徴とする請求項1から8のいずれかに記載の表示装置。   The display device according to claim 1, wherein the imaging unit is arranged so that a direction corresponding to the line of sight of the user is an imaging direction. 外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置の制御方法であって、
撮像を行って撮像した被写体との距離を取得し、
撮像画像を参照画像として前記表示部により表示させ、
前記表示部における前記参照画像の表示形態を、取得した前記被写体との距離が近いほど前記参照画像が視認しやすくなるように調整すること、
を特徴とする表示装置の制御方法。
A control method for a display device that includes a display unit that transmits an outside scene and displays an image so as to be visible together with the outside scene.
To capture the distance from the subject being imaged,
The captured image is displayed as a reference image by the display unit,
Adjusting the display form of the reference image on the display unit so that the reference image is easier to visually recognize as the distance to the acquired subject is shorter;
A control method of a display device characterized by the above.
外景を透過し、前記外景とともに視認できるように画像を表示する表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
撮像部により撮像を実行させる撮像処理部と、
前記撮像部が撮像した被写体との距離を取得する距離取得部と、
前記撮像部の撮像画像を参照画像として前記表示部に表示させ、前記表示部における前記参照画像の表示態様を、前記距離取得部が取得した前記被写体との距離が近いほど前記参照画像が視認しやすくなるように調整する参照画像制御部と、
して機能させるためのプログラム。
A program that can be executed by a computer that controls a display device that includes a display unit that transmits an outside scene and displays an image so as to be visible together with the outside scene.
The computer,
An imaging processing unit that causes the imaging unit to perform imaging;
A distance acquisition unit that acquires a distance from the subject imaged by the imaging unit;
The captured image of the imaging unit is displayed as a reference image on the display unit, and the display mode of the reference image on the display unit is more visible as the distance from the subject acquired by the distance acquisition unit is closer. A reference image control unit that adjusts to facilitate,
Program to make it function.
JP2014156366A 2014-07-31 2014-07-31 Display device, control method of the same and program Withdrawn JP2016034091A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014156366A JP2016034091A (en) 2014-07-31 2014-07-31 Display device, control method of the same and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014156366A JP2016034091A (en) 2014-07-31 2014-07-31 Display device, control method of the same and program

Publications (1)

Publication Number Publication Date
JP2016034091A true JP2016034091A (en) 2016-03-10

Family

ID=55452813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014156366A Withdrawn JP2016034091A (en) 2014-07-31 2014-07-31 Display device, control method of the same and program

Country Status (1)

Country Link
JP (1) JP2016034091A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045792A (en) * 2016-10-25 2018-05-04 도요타 지도샤(주) Imaging and display device for vehicle and recording medium
US10897572B2 (en) 2016-10-25 2021-01-19 Toyota Jidosha Kabushiki Kaisha Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012945A (en) * 1999-06-30 2001-01-19 Honda Motor Co Ltd Distance detecting device
US20020118292A1 (en) * 2001-02-28 2002-08-29 Baron John M. System and method for removal of digital image vertical distortion
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2005186648A (en) * 2003-12-24 2005-07-14 Nissan Motor Co Ltd Surrounding visualizing device for vehicle and displaying control device
JP2013242835A (en) * 2012-05-21 2013-12-05 Ntt Docomo Inc Image communication system, image generation device and program
US20130328928A1 (en) * 2012-06-12 2013-12-12 Sony Computer Entertainment Inc. Obstacle avoidance apparatus and obstacle avoidance method
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012945A (en) * 1999-06-30 2001-01-19 Honda Motor Co Ltd Distance detecting device
US20020118292A1 (en) * 2001-02-28 2002-08-29 Baron John M. System and method for removal of digital image vertical distortion
JP2002335438A (en) * 2001-02-28 2002-11-22 Hewlett Packard Co <Hp> Digital camera for removal of digital image perspective distortion
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2005186648A (en) * 2003-12-24 2005-07-14 Nissan Motor Co Ltd Surrounding visualizing device for vehicle and displaying control device
JP2013242835A (en) * 2012-05-21 2013-12-05 Ntt Docomo Inc Image communication system, image generation device and program
US20130328928A1 (en) * 2012-06-12 2013-12-12 Sony Computer Entertainment Inc. Obstacle avoidance apparatus and obstacle avoidance method
JP2013257716A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Obstacle avoiding device and obstacle avoidance method
CN103480154A (en) * 2012-06-12 2014-01-01 索尼电脑娱乐公司 Obstacle avoidance apparatus and obstacle avoidance method
WO2014077046A1 (en) * 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180045792A (en) * 2016-10-25 2018-05-04 도요타 지도샤(주) Imaging and display device for vehicle and recording medium
KR101941607B1 (en) * 2016-10-25 2019-01-24 도요타 지도샤(주) Imaging and display device for vehicle and recording medium
US10897572B2 (en) 2016-10-25 2021-01-19 Toyota Jidosha Kabushiki Kaisha Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image

Similar Documents

Publication Publication Date Title
US9898868B2 (en) Display device, method of controlling the same, and program
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
JP6089705B2 (en) Display device and control method of display device
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
CN105739095B (en) Display device and control method of display device
JP6492531B2 (en) Display device and control method of display device
US20160313973A1 (en) Display device, control method for display device, and computer program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6432197B2 (en) Display device, display device control method, and program
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6600945B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP6554948B2 (en) Display device, display device control method, and program
JP6707809B2 (en) Display device, display device control method, and program
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016033757A (en) Display device, method for controlling display device, and program
US20160035137A1 (en) Display device, method of controlling display device, and program
JP2016122177A (en) Display device and control method of display device
JP6428024B2 (en) Display device, display device control method, and program
JP6620417B2 (en) Display device, control method therefor, and computer program
JP2016033763A (en) Display device, method for controlling display device, and program
JP2016034091A (en) Display device, control method of the same and program
JP6638195B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP6582374B2 (en) Display device, control method therefor, and computer program
JP6304415B2 (en) Head-mounted display device and method for controlling head-mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20180412