JP2013083994A - Display unit and display method - Google Patents

Display unit and display method Download PDF

Info

Publication number
JP2013083994A
JP2013083994A JP2012262182A JP2012262182A JP2013083994A JP 2013083994 A JP2013083994 A JP 2013083994A JP 2012262182 A JP2012262182 A JP 2012262182A JP 2012262182 A JP2012262182 A JP 2012262182A JP 2013083994 A JP2013083994 A JP 2013083994A
Authority
JP
Japan
Prior art keywords
display
image
unit
imaging
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012262182A
Other languages
Japanese (ja)
Inventor
Yoichiro Sako
曜一郎 佐古
Masaaki Tsuruta
雅明 鶴田
Daiji Ito
大二 伊藤
Masamichi Asukai
正道 飛鳥井
Kan Ebisawa
観 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012262182A priority Critical patent/JP2013083994A/en
Publication of JP2013083994A publication Critical patent/JP2013083994A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display control capable of expanding the visual ability of a user.SOLUTION: A user wears a wearable unit of spectacles type or a head-mounting type such that display means located in front of the eyes can be visible. A part of the screen area of the display means is see-through, when the display based on a display image signal is executed. As a result, the display based on the display image signal allows the user to see the image of a scene different from the normal visual scene, in an intact state that the normal visual scene is viewed in the see-through region.

Description

本発明は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどによりユーザに装着された状態で、ユーザの眼の前方で画像表示を行う表示装置と、表示方法に関する。   The present invention relates to a display device and a display method for displaying an image in front of a user's eyes in a state of being worn by a user using, for example, a spectacle-type or head-mounted type mounting unit.

特開平8−126031号公報JP-A-8-126031 特開平9−27970号公報JP-A-9-27970 特開平9−185009号公報Japanese Patent Laid-Open No. 9-185009

例えば上記各特許文献のように、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザの目の直前に表示部を配置して表示を行う装置が、各種提案されている。   For example, as in each of the above patent documents, various devices have been proposed in which a display unit is arranged in front of the user's eyes and displayed by a spectacle-type or head-mounted mounting unit.

しかしながら従来の装置では、特にユーザの視覚の補助や、視覚能力の拡大という観点で撮像や表示に関する制御を行うものは知られていない。
そこで本発明では、ユーザの視覚の補助や拡張を実現することを目的とする。
However, there is no known device that performs control related to imaging and display particularly from the viewpoint of assisting the user's vision and expanding visual ability.
Therefore, an object of the present invention is to realize user assistance and expansion.

本発明の表示装置は、使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段と、外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信する通信手段と、上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得る画像信号生成手段と、上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行させる制御を行う制御手段とを備える表示装置。   The display device of the present invention is arranged so as to be positioned in front of the user's eyes and performs image display, and a display means capable of setting a screen area for image display to a transparent or translucent through state. A communication means for communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device; and according to the position information An image signal generating means for obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state, and the display means And a control unit that performs control to execute display by the display image signal generated by the image signal generation unit after setting a part of the screen region to the through state.

上記画像信号生成手段は、撮像部と、上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する。
この場合において、 上記撮像部は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向を被写体方向として撮像するようにされた撮像部である。
或いは、上記撮像部は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向とは異なる方向を被写体方向として撮像するようにされた撮像部である。
また上記撮像部は、被写体方向が可変とされた撮像部である。
また上記撮像部が複数設けられている。
また上記撮像部は、撮像素子としてCCDセンサもしくはCMOSセンサを用いて構成されている。
また上記画像信号生成手段は、外部機器から画像信号を受信する受信部を有して構成される。
また上記画像信号生成手段は、供給された画像信号に対する信号処理を行う信号処理部を有して構成される。
The image signal generation unit includes an imaging unit and a signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit.
In this case, the image pickup unit is an image pickup unit configured to pick up an image in a direction that the user visually recognizes through the display unit when the screen area is in a through state.
Alternatively, the imaging unit is an imaging unit configured to capture a direction different from a direction visually recognized by the user through the display unit when the screen area is in a through state as a subject direction.
The imaging unit is an imaging unit whose subject direction is variable.
A plurality of the imaging units are provided.
The imaging unit is configured using a CCD sensor or a CMOS sensor as an imaging element.
Further, the image signal generation means includes a receiving unit that receives an image signal from an external device.
The image signal generating means includes a signal processing unit that performs signal processing on the supplied image signal.

また上記表示手段において、上記画面領域内で親画面領域と子画面領域が設定されて、親画面領域と子画面領域の一方が上記スルー状態、他方が上記表示画像信号による画像表示状態とされる。
また上記表示手段において、上記画面領域が分割され、分割された各領域の一方が上記スルー状態、他方が上記表示画像信号による画像表示状態とされる。
In the display means, a parent screen region and a child screen region are set in the screen region, and one of the parent screen region and the child screen region is in the through state, and the other is in an image display state by the display image signal. .
In the display means, the screen area is divided, and one of the divided areas is set to the through state, and the other is set to the image display state based on the display image signal.

また上記表示画像信号は、近景撮像又は遠景撮像により得られた画像信号である。
また上記表示画像信号は、望遠撮像又は広角撮像により得られた画像信号である。
また上記表示画像信号は、拡大処理又は縮小処理により得られた画像信号である。
また上記表示画像信号は、撮像感度を上昇又は低下させた撮像により得られた画像信号である。
また上記表示画像信号は、赤外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記表示画像信号は、紫外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記表示画像信号は、上記画面領域がスルー状態とされている際に使用者が上記表示手段を介して視認する方向とは異なる方向を被写体方向とした撮像により得られた画像信号である。
The display image signal is an image signal obtained by near-field imaging or far-field imaging.
The display image signal is an image signal obtained by telephoto imaging or wide-angle imaging.
The display image signal is an image signal obtained by enlargement processing or reduction processing.
Further, the display image signal is an image signal obtained by imaging with increased or decreased imaging sensitivity.
The display image signal is an image signal obtained by imaging with increased infrared imaging sensitivity.
The display image signal is an image signal obtained by imaging with an increased ultraviolet imaging sensitivity.
The display image signal is an image signal obtained by imaging with a direction different from a direction visually recognized by the user through the display unit when the screen area is in the through state.

また上記画像信号生成手段は、上記撮像部における撮像レンズ系の動作制御により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、上記信号処理部における信号処理により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、外部の撮像装置で撮像された画像信号を上記受信部で受信することで、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
また上記画像信号生成手段は、上記信号処理部における信号処理により、上記表示手段をスルー状態としたときに使用者が視認する光景とは異なる光景としての表示画像信号を得る。
The image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by controlling the operation of the imaging lens system in the imaging unit.
Further, the image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by the signal processing in the signal processing unit.
In addition, the image signal generation unit receives an image signal captured by an external imaging device at the reception unit, so that a scene different from a scene visually recognized by the user when the display unit is in a through state is obtained. A display image signal is obtained.
Further, the image signal generation means obtains a display image signal as a scene different from the scene visually recognized by the user when the display means is in a through state by the signal processing in the signal processing unit.

本発明の表示方法は、使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段を備えた表示装置の表示方法として、外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信するステップと、上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得るステップと、上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行するステップとを備える。   The display method of the present invention includes a display unit that is arranged so as to be positioned in front of the user's eyes and that can display an image and that can make a screen area for image display transparent or translucent through state. As a display method of the display device provided, a step of communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information corresponding to the position information from the external device And obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state based on information according to the position information; And a step of displaying a display image signal generated by the image signal generation means after setting a part of the screen area to the through state for the display means.

以上の本発明では、使用者(ユーザ)は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどにより本発明の表示装置を装着することで、目の前方に位置する表示手段を視認する状態となる。この表示手段はスルー状態とすることができる。
そして表示手段の画面領域の一部をスルー状態としたうえで画像信号生成手段で生成された表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、表示画像信号の表示により、通常に視認する視覚光景とは異なる光景の画像を見ることができる。例えばスルー状態の領域により前方を見ながら、表示画像信号の表示により、望遠画像、拡大画像、特殊撮像画像、後方の光景の画像などを見ることができる。
つまり、通常の視覚光景と同時に、通常の視覚では見ることのできない光景を見る状態となり、ユーザの視覚能力が拡張された状態となる。
In the above-described present invention, the user (user) can visually recognize the display means located in front of the eyes by wearing the display device of the present invention with, for example, a spectacle-type or head-mounted type mounting unit. Become. This display means can be in a through state.
Then, by causing a part of the screen area of the display means to be in the through state and executing display by the display image signal generated by the image signal generating means, the user can see a normal visual scene in the through state area. The display image signal is displayed as it is, so that an image of a scene different from the visual scene that is normally visually recognized can be seen. For example, a telephoto image, an enlarged image, a special captured image, an image of a rear scene, and the like can be viewed by displaying the display image signal while looking forward in the through state region.
That is, at the same time as the normal visual scene, the user can see a scene that cannot be viewed with normal vision, and the user's visual ability is expanded.

本発明によれば、表示手段の画面領域の一部をスルー状態としたうえで画像信号生成手段で生成された表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、通常に視認する視覚光景とは異なる光景の画像を見ることができ、擬似的にユーザの視覚能力を拡張させる状況を作り出すことができるという効果がある。
また表示手段は、少なくとも画面領域の一部はスルー状態であるため、装着状態のままでも通常の生活に支障がないようにできる。このためユーザの通常の生活の中で、本発明の表示装置の利点を有効に得ることができる。
According to the present invention, a part of the screen area of the display unit is set to the through state, and the display by the display image signal generated by the image signal generation unit is executed. While the sight is visible, an image of a sight different from the visual sight that is normally visually recognized can be seen, and there is an effect that it is possible to create a situation that artificially expands the user's visual ability.
Moreover, since at least a part of the screen area is in the through state, the display means can prevent a normal life from being hindered even when the display unit is in the mounted state. For this reason, the advantages of the display device of the present invention can be obtained effectively in the normal life of the user.

本発明の実施の形態の表示装置の外観例の説明図である。It is explanatory drawing of the example of an external appearance of the display apparatus of embodiment of this invention. 実施の形態の表示装置の他の外観例の説明図である。It is explanatory drawing of the other external appearance example of the display apparatus of embodiment. 実施の形態の表示装置の外部機器との関係の説明図である。It is explanatory drawing of the relationship with the external apparatus of the display apparatus of embodiment. 実施の形態の表示装置のブロック図である。It is a block diagram of a display device of an embodiment. 実施の形態の表示装置の他のブロック図である。It is another block diagram of the display apparatus of an embodiment. 実施の形態の表示装置の更に他のブロック図である。It is another block diagram of the display apparatus of an embodiment. 実施の形態の表示部の領域形態の説明図である。It is explanatory drawing of the area | region form of the display part of embodiment. 実施の形態の表示部の領域形態の説明図である。It is explanatory drawing of the area | region form of the display part of embodiment. 実施の形態の制御処理のフローチャートである。It is a flowchart of the control processing of an embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment.

以下、本発明の表示装置、表示方法の実施の形態を、次の順序で説明する。
[1.表示装置の外観例及び外部機器との関連]
[2.表示装置の構成例]
[3.画面上の領域形態]
[4.表示動作例]
[5.動作トリガの例]
[6.実施の形態の効果、変形例及び拡張例]
Hereinafter, embodiments of the display device and the display method of the present invention will be described in the following order.
[1. Example of external appearance of display device and relationship with external device]
[2. Example of configuration of display device]
[3. Area form on screen]
[4. Display operation example]
[5. Example of operation trigger]
[6. Effect, modification and extension of embodiment]

[1.表示装置の外観例及び外部機器との関連]

実施の形態として、図1(a)(b)に眼鏡型ディスプレイとした表示装置1の外観例を示す。表示装置1は、例えば図1(b)のように両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図1(a)のように両耳殻にかけられることでユーザに装着される。
そしてこの表示装置1は、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2、2が配置される構成とされている。この表示部2には、例えば液晶パネルが用いられ、透過率を制御することで、図のようなスルー状態、即ち透明又は半透明の状態とできる。表示部2がスルー状態とされることで、眼鏡のようにユーザが常時装着していても、通常の生活には支障がない。
[1. Example of external appearance of display device and relationship with external device]

As an embodiment, FIGS. 1A and 1B show an appearance example of a display device 1 having a glasses-type display. The display device 1 has a mounting unit having a frame structure that wraps around the head from both heads to the back of the head as shown in FIG. 1B, for example, and can be placed on the binaural shell as shown in FIG. It is attached to.
The display device 1 has a configuration in which a pair of display units 2 and 2 for the left eye and the right eye are arranged immediately in front of the user's eyes, that is, in a place where a lens in normal glasses is located, in the mounted state. It is said that. For example, a liquid crystal panel is used for the display unit 2, and by controlling the transmittance, a through state as shown in the figure, that is, a transparent or translucent state can be obtained. Since the display unit 2 is in the through state, there is no hindrance to normal life even if the user always wears it like glasses.

またユーザが装着した状態において、ユーザの前方方向に向けて撮像レンズ3aが配置されている。つまりこの場合、撮像レンズ3aは、表示部2をスルー状態としたときにユーザが表示部2を介して視認する方向を被写体方向として撮像するようにされている。
また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLED(Light Emitting Diode)により形成される。
In addition, the imaging lens 3a is arranged in the forward direction of the user when the user is wearing it. That is, in this case, the imaging lens 3a is configured to capture an image in a direction that the user visually recognizes through the display unit 2 when the display unit 2 is in the through state.
Moreover, the light emission part 4a which performs illumination with respect to the imaging direction by the imaging lens 3a is provided. The light emitting unit 4a is formed by, for example, an LED (Light Emitting Diode).

なお図1は一例であり、表示装置1をユーザが装着するための構造は多様に考えられる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また発光部4aを設けない構成も考えられる。
Note that FIG. 1 is an example, and various structures for the user to wear the display device 1 can be considered. In general, the display unit 2 may be formed of a spectacle-type or head-mounted type mounting unit, and at least as the present embodiment, the display unit 2 may be provided close to the front of the user's eyes. In addition, a pair of display units 2 may be provided corresponding to both eyes, or one display unit 2 may be provided corresponding to one eye.
A configuration in which the light emitting unit 4a is not provided is also conceivable.

また図1では撮像レンズ3aがユーザの前方を被写体方向とするように取り付けられているが、撮像レンズ3aが、表示部2をスルー状態としたときにユーザが表示部2を介して視認する方向とは異なる方向を被写体方向として撮像するように取り付けられていても良い。
図2(a)(b)に例を示す。図2(a)(b)の例では、前方には撮像レンズ3aは設けられず、後頭部側に位置することになるユニットに撮像レンズ3a及び発光部4aが設けられている。つまりこの場合、撮像レンズ3aは、ユーザが通常では視認できない後方を撮像するものとされる。
また、図示しないが、撮像レンズ3aは、ユーザの上方、左側方、右側方、足下などを被写体方向とするように取り付けられていてもよい。
In FIG. 1, the imaging lens 3 a is attached so that the front of the user is the subject direction, but the direction in which the user visually recognizes the display unit 2 through the display unit 2 when the imaging unit 3 is in the through state. It may be attached so as to pick up an image in a direction different from the direction of the subject.
An example is shown in FIGS. In the example of FIGS. 2A and 2B, the imaging lens 3a is not provided in the front, but the imaging lens 3a and the light emitting unit 4a are provided in a unit that is located on the occipital side. That is, in this case, the imaging lens 3a captures an image of the rear that the user cannot normally visually recognize.
Although not shown, the imaging lens 3a may be attached so that the upper direction, the left side, the right side, or the foot of the user is the subject direction.

また、図1,図2の例では撮像レンズ3aは固定的に取り付けられていることで撮像時の被写体方向は固定(ユーザの前方、又はユーザの後方)であるが、被写体方向を変化させることのできる可動機構を介して撮像レンズ3aを取り付けることで、手動又は自動で撮像時の被写体方向を変化させることができるようにしてもよい。
また、図1,図2では撮像レンズ3aとして1つの撮像機能部を設けるものであるが、複数の撮像レンズ3aを取り付け、複数の撮像機能部を備えるようにしてもよい。
1 and 2, the imaging lens 3a is fixedly attached so that the subject direction during imaging is fixed (in front of the user or behind the user), but the subject direction is changed. By attaching the imaging lens 3a via a movable mechanism that can perform the above-described operation, the subject direction at the time of imaging may be changed manually or automatically.
1 and 2, one imaging function unit is provided as the imaging lens 3a. However, a plurality of imaging lenses 3a may be attached and a plurality of imaging function units may be provided.

撮像レンズ3aを含む後述する撮像機能系で撮像された画像信号は、所定の処理を経て表示画像信号とされて表示部2に表示される。
この場合、表示部2の画面上では一部の領域がスルー状態とされ、他の領域に表示画像信号に基づく画像表示が行われる。
ところで内部構成例については後述するが、この表示装置1は、外部機器と通信を行う通信機能(図5で述べる通信部26)を備えることも考えられる。
従って、表示部2において表示する表示画像信号のソースは、撮像レンズ3aを含む撮像機能部だけでなく、通信機能部が想定される。つまり外部機器としての他の撮像装置等から送信された画像信号を、通信機能部で受信し、表示部2に表示させることもできる。
An image signal captured by an imaging function system including an imaging lens 3a, which will be described later, is displayed on the display unit 2 as a display image signal after a predetermined process.
In this case, a part of the area is set to the through state on the screen of the display unit 2, and image display based on the display image signal is performed in the other area.
By the way, although an internal configuration example will be described later, the display device 1 may be provided with a communication function (communication unit 26 described in FIG. 5) for communicating with an external device.
Therefore, the source of the display image signal displayed on the display unit 2 is assumed to be not only an imaging function unit including the imaging lens 3a but also a communication function unit. That is, an image signal transmitted from another imaging device or the like as an external device can be received by the communication function unit and displayed on the display unit 2.

図3は、表示装置1の使用形態を、外部機器との関連において例示したものである。
図3(a)は表示装置1を単体で使用する場合であり、この場合、表示装置1が撮像機能を有していることで、撮像された画像信号をソースとして生成した表示画像信号を表示部2に表示させることができる。
FIG. 3 illustrates a usage pattern of the display device 1 in relation to an external device.
FIG. 3A shows a case where the display device 1 is used alone. In this case, the display device 1 has an imaging function, so that a display image signal generated using the captured image signal as a source is displayed. Part 2 can be displayed.

図3(b)は、表示装置1が通信機能を備え、外部の撮像装置70と通信を行う例である。この場合、表示装置1は、撮像装置70で撮像された画像を受信して表示部2に表示させる。外部の撮像装置70とは、通信機能を備えたビデオカメラ、デジタルスチルカメラなどが想定できるし、また図1のように撮像機能を備えた表示装置1を、或る表示装置1に対して外部の撮像装置1と考えることもできる。
また外部の撮像装置70は、表示装置1を用いるユーザ本人が所有する撮像装置であったり、表示装置1のユーザの知人が所有する撮像装置であったり、或いは画像提供を行う公共或いはサービス企業等の撮像装置であって表示装置1と通信可能とされているものなど多様に考えられる。
FIG. 3B is an example in which the display device 1 has a communication function and communicates with an external imaging device 70. In this case, the display device 1 receives an image captured by the imaging device 70 and causes the display unit 2 to display the image. As the external imaging device 70, a video camera, a digital still camera, or the like having a communication function can be assumed, and a display device 1 having an imaging function as shown in FIG. It can also be considered as the imaging apparatus 1 of FIG.
The external imaging device 70 is an imaging device owned by the user who uses the display device 1, an imaging device owned by an acquaintance of the user of the display device 1, or a public or service company that provides images. Various imaging devices that can communicate with the display device 1 are conceivable.

図3(c)は、表示装置1が通信機能、特にインターネット等のネットワーク73を介した通信アクセス機能を備えることで、ネットワーク73で接続される外部の撮像装置70と通信を行う例である。この場合表示装置1は、ネットワーク73を介して撮像画像信号を受信し、その受信した撮像画像信号に基づいた表示画像信号による画像表示を表示部2で実行させる。
FIG. 3C is an example in which the display device 1 has a communication function, in particular, a communication access function via the network 73 such as the Internet, thereby communicating with an external imaging device 70 connected via the network 73. In this case, the display device 1 receives the captured image signal via the network 73 and causes the display unit 2 to perform image display using the display image signal based on the received captured image signal.

[2.表示装置の構成例]

図4に表示装置1の内部構成例を示す。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、表示装置1の全体を制御する制御部とされる。
このシステムコントローラ10は内部の動作プログラム及び動作トリガ情報発生部16からの動作トリガに基づいて、表示装置1内の各部の制御を行い、表示部2において所要の画像表示を実行させる。
[2. Example of configuration of display device]

FIG. 4 shows an internal configuration example of the display device 1.
The system controller 10 includes, for example, a microcomputer including a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a nonvolatile memory unit, and an interface unit, and controls the entire display device 1. The control unit
The system controller 10 controls each part in the display device 1 based on an internal operation program and an operation trigger from the operation trigger information generating unit 16, and causes the display unit 2 to execute a required image display.

表示装置1内では、撮像部3、撮像制御部11、撮像信号処理部15が設けられる。
撮像部3は、図1又は図2に示した撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイなどが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
図1の例の場合は、この撮像部3によってユーザの前方の光景が撮像され、また図2の例の場合は、この撮像部3によってユーザの後方の光景が撮像される。
In the display device 1, an imaging unit 3, an imaging control unit 11, and an imaging signal processing unit 15 are provided.
The imaging unit 3 is configured to perform a focusing operation and a zooming operation on a lens system including the imaging lens 3a illustrated in FIG. 1 or FIG. 2, a diaphragm, a zoom lens, a focus lens, and the like. In addition, a solid-state imaging device array or the like that generates imaging signals by detecting imaging light obtained by the driving system and further by a lens system and performing photoelectric conversion is provided. The solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
In the case of the example of FIG. 1, a scene in front of the user is imaged by the imaging unit 3, and in the example of FIG. 2, a scene in the rear of the user is imaged.

撮像信号処理部15は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。   The imaging signal processing unit 15 includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device of the imaging unit 3, and a video A / D converter. An imaging signal is obtained. The imaging signal processing unit 15 also performs white balance processing, luminance processing, color signal processing, blur correction processing, and the like on the imaging signal.

撮像制御部11は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作を制御する。例えば撮像制御部11は、撮像部3,撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズーム、焦点変更などの動作を実行させるための制御(モータ制御)を行うものとされる。
また、上述したように撮像レンズ3aによる被写体方向を可変できる可動機構が設けられている場合は、撮像制御部11はシステムコントローラ10の指示に基づいて、可動機構の動作を制御して撮像部3における撮像レンズ3aの方向を変化させる。
また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部11のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
The imaging control unit 11 controls the operations of the imaging unit 3 and the imaging signal processing unit 15 based on instructions from the system controller 10. For example, the imaging control unit 11 controls on / off of operations of the imaging unit 3 and the imaging signal processing unit 15. The imaging control unit 11 performs control (motor control) for causing the imaging unit 3 to perform operations such as auto focus, automatic exposure adjustment, aperture adjustment, zoom, and focus change.
Further, as described above, when the movable mechanism that can change the direction of the subject by the imaging lens 3 a is provided, the imaging control unit 11 controls the operation of the movable mechanism based on an instruction from the system controller 10 to capture the imaging unit 3. The direction of the imaging lens 3a is changed.
In addition, the imaging control unit 11 includes a timing generator. For the sample hold / AGC circuit and the video A / D converter of the solid-state imaging device and the imaging signal processing unit 11, a signal processing operation is performed by a timing signal generated by the timing generator. To control. In addition, the imaging frame rate can be variably controlled by this timing control.
Further, the imaging control unit 11 controls imaging sensitivity and signal processing in the solid-state imaging device and the imaging signal processing unit 15. For example, gain control of a signal read from a solid-state image sensor can be performed as imaging sensitivity control, black level setting control, various coefficient control of imaging signal processing in a digital data stage, correction amount control in blur correction processing, and the like can be performed. . As for imaging sensitivity, overall sensitivity adjustment that does not specifically consider the wavelength band, and sensitivity adjustment that adjusts the imaging sensitivity in a specific wavelength band such as the infrared region and the ultraviolet region (for example, imaging that cuts a specific wavelength band) Etc. are also possible. Sensitivity adjustment according to the wavelength can be performed by inserting a wavelength filter in the imaging lens system or wavelength filter calculation processing on the imaging signal. In these cases, the imaging control unit 11 can perform sensitivity control by insertion control of a wavelength filter, designation of a filter calculation coefficient, or the like.

また表示装置1においてユーザに対して表示を行う構成としては、表示部2、表示画像処理部12、表示駆動部13,表示制御部14が設けられる。
撮像部3で撮像され、撮像信号処理部15で処理された撮像信号は表示画像処理部12に供給される。表示画像処理部12は、例えばいわゆるビデオプロセッサとされ、供給された撮像信号に対して各種表示のための処理を実行できる部位とされる。
例えば撮像信号の輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また表示画像処理部12は、撮像信号の一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、モザイク、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理、撮像画像の分割表示のための画像の分離や合成、キャラクタ画像やイメージ画像の生成及び生成した画像を撮像画像に合成する処理なども行うことができる。つまり撮像信号としてのデジタル映像信号に対しての各種処理を行うことができる。
The display device 1 includes a display unit 2, a display image processing unit 12, a display driving unit 13, and a display control unit 14 that perform display for the user.
The imaging signal imaged by the imaging unit 3 and processed by the imaging signal processing unit 15 is supplied to the display image processing unit 12. The display image processing unit 12 is a so-called video processor, for example, and is a part capable of executing various display processes on the supplied imaging signal.
For example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like of the imaging signal can be performed. The display image processing unit 12 generates an enlarged image obtained by enlarging a part of the imaging signal, or generates a reduced image, soft focus, mosaic, luminance inversion, partial highlight display (highlight display) in the image, Image effect processing such as changes in the color atmosphere of images, separation and synthesis of images for split display of captured images, generation of character images and image images, and processing of combining generated images with captured images, etc. . That is, various processes can be performed on the digital video signal as the imaging signal.

表示駆動部13は、表示画像処理部12から供給される画像信号を、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。また表示駆動部13は、表示部2の各画素の透過率を制御して、画面全体及び一部をスルー状態とすることもできる。
表示制御部14は、システムコントローラ10の指示に基づいて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。即ち表示画像処理部12に対しては、上記の各種処理を実行させる。また表示駆動部13に対してはスルー状態、画像表示状態の切り換えが行われるように制御する。
The display driving unit 13 includes a pixel driving circuit for displaying the image signal supplied from the display image processing unit 12 on the display unit 2 that is a liquid crystal display, for example. That is, a drive signal based on the video signal is applied to each pixel arranged in a matrix in the display unit 2 at a predetermined horizontal / vertical drive timing, and display is executed. In addition, the display driving unit 13 can control the transmittance of each pixel of the display unit 2 so that the entire screen and a part of the screen are in a through state.
The display control unit 14 controls the processing operation of the display image processing unit 12 and the operation of the display driving unit 13 based on an instruction from the system controller 10. That is, the display image processing unit 12 is caused to execute the various processes described above. In addition, the display drive unit 13 is controlled to be switched between the through state and the image display state.

また照明部4と照明制御部18が設けられる。照明部4は、図1、図2に示した発光部4aとその発光部4(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の指示に基づいて、照明部4に発光動作を実行させる。
照明部4における発光部4aが図1又は図2に示したように取り付けられていることで、照明部4は撮像レンズ3aによる被写体方向に対する照明動作を行うことになる。
An illumination unit 4 and an illumination control unit 18 are provided. The illuminating unit 4 includes a light emitting unit 4a illustrated in FIGS. 1 and 2 and a light emitting circuit that emits light from the light emitting unit 4 (for example, an LED). The illumination control unit 18 causes the illumination unit 4 to perform a light emission operation based on an instruction from the system controller 10.
Since the light emitting unit 4a in the illuminating unit 4 is attached as shown in FIG. 1 or 2, the illuminating unit 4 performs an illuminating operation on the subject direction by the imaging lens 3a.

動作トリガ情報発生部16は、表示部2での画像表示の開始/終了、表示態様の切換などのための動作トリガ情報を発生する。
この動作トリガ情報発生部16は、例えばユーザが操作する操作キーや操作ダイヤルとしての操作子と、その操作子の操作を検知する操作検知機構により構成することができる。即ちユーザの手動操作を各種動作の動作トリガ情報とする場合である。動作トリガ情報発生部16は、ユーザの操作情報を動作トリガ情報としてシステムコントローラ10に供給することで、システムコントローラ10はユーザの操作に応じた表示動作制御を行う。
また、動作トリガ情報発生部16は、ユーザ情報(ユーザの視覚状況、身体の挙動、生体状況等の検知情報)を検知したり、外界情報(表示装置の周囲の状況や、場所、日時、被写体の状況などの検知情報)を検知することができる構成としてもよい。例えばシステムコントローラ10がこれらのユーザ情報や外界情報に基づいて、動作トリガ発生の判断を行うようにしてもよい。なお、ユーザ情報や外界情報についての例は後に述べる。
The operation trigger information generation unit 16 generates operation trigger information for starting / ending image display on the display unit 2 and switching display modes.
The operation trigger information generation unit 16 can be configured by, for example, an operation key operated by a user or an operation element as an operation dial, and an operation detection mechanism that detects an operation of the operation element. That is, the user's manual operation is used as operation trigger information for various operations. The operation trigger information generation unit 16 supplies user operation information to the system controller 10 as operation trigger information, so that the system controller 10 performs display operation control according to the user operation.
In addition, the operation trigger information generation unit 16 detects user information (detection information such as a user's visual status, body behavior, and biological status), or external information (a situation around the display device, location, date and time, subject) It is good also as a structure which can detect (detection information, such as a situation). For example, the system controller 10 may determine whether an operation trigger has occurred based on these user information and external world information. Examples of user information and external information will be described later.

図5は、表示装置1としての他の構成例を示すものである。なお、図4と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図5の構成は、図4の構成における撮像機能部位(撮像部3、撮像制御部11、撮像信号処理部15)と、照明部4,照明制御部18を備えず、代わりに通信部26を有する構成とされている。
FIG. 5 shows another configuration example as the display device 1. In addition, the same code | symbol is attached | subjected to the block of the same function as FIG. 4, and duplication description is avoided.
The configuration of FIG. 5 does not include the imaging function part (imaging unit 3, imaging control unit 11, imaging signal processing unit 15), illumination unit 4, and illumination control unit 18 in the configuration of FIG. It is set as the structure which has.

通信部26は外部機器との間でのデータの送受信を行う。外部機器としては、図2で述べた撮像装置70としての各種の機器が考えられる。
通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
The communication unit 26 transmits / receives data to / from an external device. As the external device, various devices as the imaging device 70 described in FIG. 2 can be considered.
The communication unit 26 may be configured to perform network communication via short-range wireless communication with a network access point using a method such as wireless LAN or Bluetooth, or directly with an external device having a corresponding communication function. Wireless communication may be performed.

この図5の例の場合、外部の撮像装置70との間で図3(b)又は図3(c)で述べたように通信を行い、撮像装置70から撮像画像信号を受信する。通信部26は受信した撮像画像信号を表示画像処理部12に供給する。そして表示画像処理部12で処理された画像信号が表示駆動部13に供給され、表示部2で表示される。   In the case of the example in FIG. 5, communication is performed with the external imaging device 70 as described in FIG. 3B or FIG. The communication unit 26 supplies the received captured image signal to the display image processing unit 12. The image signal processed by the display image processing unit 12 is supplied to the display driving unit 13 and displayed on the display unit 2.

図6は、表示装置1としてのさらに他の構成例を示すものである。なお、図4と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図6の構成は、図4の構成における撮像機能部位(撮像部3、撮像制御部11、撮像信号処理部15)を2系統備えたものである。
即ち撮像部3X、撮像制御部11X、撮像信号処理部15Xによる第1の撮像機能部位と、撮像部3Y、撮像制御部11Y、撮像信号処理部15Yによる第2の撮像機能部位が設けられる。
撮像部3X、3Yは、それぞれが同一の被写体方向で撮像を行うものとされても良いし、それぞれが異なる被写体方向で撮像を行うものとされてもよい。
例えば撮像部3X、3Yは、いずれも前方を撮像するように配置されても良いし、撮像部3Xは前方撮像、撮像部3Yは後方撮像を行うように配置されてもよい。また撮像部3Xは右後方、撮像部3Yは左後方の撮像を行うように配置されてもよいし、撮像部3Xは足下、撮像部3Yは上空の撮像を行うように配置されてもよい。
各撮像機能部位で得られた撮像画像信号は、表示画像処理部12で処理されて表示駆動部13に供給され、表示部2で表示される。
FIG. 6 shows still another configuration example of the display device 1. In addition, the same code | symbol is attached | subjected to the block of the same function as FIG. 4, and duplication description is avoided.
The configuration of FIG. 6 includes two systems of imaging function parts (imaging unit 3, imaging control unit 11, and imaging signal processing unit 15) in the configuration of FIG.
That is, a first imaging functional part by the imaging part 3X, the imaging control part 11X, and the imaging signal processing part 15X, and a second imaging functional part by the imaging part 3Y, the imaging control part 11Y, and the imaging signal processing part 15Y are provided.
The imaging units 3X and 3Y may each perform imaging in the same subject direction, or may perform imaging in different subject directions.
For example, the imaging units 3X and 3Y may be arranged so as to image the front, the imaging unit 3X may be arranged to perform the forward imaging, and the imaging unit 3Y may be configured to perform the rear imaging. In addition, the imaging unit 3X may be arranged to perform right rear imaging, and the imaging unit 3Y may be arranged to perform left rear imaging, the imaging unit 3X may be arranged to perform foot imaging, and the imaging unit 3Y may be configured to perform imaging of the sky.
The captured image signal obtained at each imaging function part is processed by the display image processing unit 12, supplied to the display driving unit 13, and displayed on the display unit 2.

以上、図4,図5,図6に表示装置1の構成例を示したが、表示装置1としてはさらに多様な構成例が想定される。
例えば3系統以上の撮像機能部位が設けられることも考えられる。
また1又は複数の撮像機能部位とともに、外部の撮像装置70からの撮像信号を受信する通信部26が設けられる構成も考えられる。
また、撮像機能部位において、撮像部3(撮像レンズ3a)は被写体方向が固定とされる例と被写体方向を変更できるように可動とされる例が考えられるが、複数の撮像機能部位を設ける場合、全てを固定とする構成例、全てを可動とする構成例、一部を固定で一部を可動とする構成例がそれぞれ想定される。
As described above, the configuration example of the display device 1 is shown in FIGS. 4, 5, and 6, but various other configuration examples are assumed as the display device 1.
For example, it is conceivable that three or more imaging function parts are provided.
In addition, a configuration in which the communication unit 26 that receives an imaging signal from the external imaging device 70 is provided together with one or a plurality of imaging function parts.
In addition, in the imaging function part, an example in which the imaging unit 3 (imaging lens 3a) is fixed in the subject direction and an example in which the subject direction can be changed can be considered. A configuration example in which all are fixed, a configuration example in which all are movable, and a configuration example in which some are fixed and some are movable are assumed.

ところで、図4,図5,図6や、その変形例としての構成において、実施の形態となる表示装置1では、表示画像処理部12で処理されて表示駆動部13に供給される画像信号が、最終的に表示部2での表示に供される表示画像信号となる。本例の場合、特に表示画像信号は、表示部3をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像を表示させる信号としている。
表示画像信号としての画像、つまり表示部3をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像がどのように得られるかは多様に考えられる。
例えば撮像部3(3X、3Y)で撮像された画像や通信部26で受信された画像のそのものが、ユーザが表示部2を介して視認する光景とは異なる光景としての画像となる場合もあるし、像信号処理部15,表示画像処理部12で所定の処理が施されることで、ユーザが表示部2を介して視認する光景と同等の画像が異なる光景としての画像となる場合もある。
ユーザが表示部2を介して視認する光景とは異なる光景としての画像の具体例については後述する。
By the way, in FIG.4, FIG.5, FIG.6 or the structure as a modification example, in the display apparatus 1 which becomes embodiment, the image signal processed by the display image process part 12 and supplied to the display drive part 13 is received. Finally, the display image signal is provided for display on the display unit 2. In the case of this example, the display image signal is particularly a signal for displaying an image as a scene different from the scene visually recognized by the user via the display unit 2 when the display unit 3 is in the through state.
There are various ways of obtaining an image as a display image signal, that is, an image as a scene different from a scene visually recognized by the user through the display unit 2 when the display unit 3 is in a through state.
For example, the image captured by the imaging unit 3 (3X, 3Y) or the image received by the communication unit 26 itself may be an image as a sight different from the sight visually recognized by the user via the display unit 2. However, when the image signal processing unit 15 and the display image processing unit 12 perform predetermined processing, an image equivalent to a scene visually recognized by the user via the display unit 2 may be an image as a different scene. .
A specific example of an image as a scene different from the scene visually recognized by the user via the display unit 2 will be described later.

また本例では、このような画像の表示を行う場合において、表示部2の画面領域の一部をスルー状態としたうえで、表示画像処理部12から出力される画像信号による表示を行うことを基本とする。即ち、スルー状態の表示部2の一部の領域で画像表示を行うものである。
In this example, when such an image is displayed, a part of the screen area of the display unit 2 is set to the through state, and the display by the image signal output from the display image processing unit 12 is performed. Basic. That is, an image is displayed in a partial area of the display unit 2 in the through state.

[3.画面上の領域形態]

表示部2の画面上で、画面領域の一部をスルー状態としたうえで、表示画像処理部12から出力される画像信号による表示を行う場合の例を図7,図8に示す。
表示部2において、スルー状態の領域を残したまま画像表示を行う形態としては、画面領域内で親画面領域と子画面領域を設定し、親画面領域と子画面領域の一方をスルー状態、他方を表示画像信号による画像表示状態とする。
或いは、画面領域を分割し、分割した各領域の一方をスルー状態、他方を表示画像信号による画像表示状態とするようにしてもよい。
[3. Area form on screen]

FIGS. 7 and 8 show examples in which a part of the screen area is set to the through state on the screen of the display unit 2 and display is performed using the image signal output from the display image processing unit 12.
In the display unit 2, as a form of displaying an image while leaving a through-state area, a parent screen area and a child screen area are set in the screen area, and one of the parent screen area and the child screen area is in a through state, and the other is displayed. Is an image display state by a display image signal.
Alternatively, the screen area may be divided so that one of the divided areas is in a through state and the other is in an image display state by a display image signal.

図7、図8において領域AR1はスルー状態の領域、領域AR2は表示画像信号による画像表示を行っている領域であるとする。
図7(a)は、表示部2の画面領域で、領域AR1内で右下に子画面としての領域AR2を設定し、画像表示を行っている例である。
図7(b)は、表示部2の画面領域で、領域AR1内で左下に子画面としての領域AR2を設定し、画像表示を行っている例である。
図示しないが、このように子画面を設定する場合、領域AR1内の右上、左上、中央、中央右寄り、中央左寄りなど、各種の位置に子画面としての領域AR2を設定することもできる。
図7(c)は、領域AR2としてのサイズを小さくした例である。
図7(d)は、領域AR2としてのサイズを大きくした例である。
図7(e)、表示部2の画面領域で、領域AR1と領域AR2を等分割して左右に分けた例である。
図7(f)、表示部2の画面領域で、領域AR1と領域AR2を等分割して上下に分けた例である。
7 and 8, it is assumed that the area AR1 is an area in a through state, and the area AR2 is an area where image display is performed using a display image signal.
FIG. 7A shows an example in which an image display is performed by setting an area AR2 as a sub-screen at the lower right in the area AR1 in the screen area of the display unit 2.
FIG. 7B shows an example in which an area AR2 as a sub-screen is set in the lower left of the area AR1 in the screen area of the display unit 2 and image display is performed.
Although not shown, when the child screen is set in this way, the region AR2 as the child screen can be set at various positions such as upper right, upper left, center, center right, and center left in the region AR1.
FIG. 7C shows an example in which the size of the area AR2 is reduced.
FIG. 7D shows an example in which the size of the area AR2 is increased.
FIG. 7E shows an example in which the area AR1 and the area AR2 are equally divided into left and right in the screen area of the display unit 2.
FIG. 7F shows an example in which the area AR1 and the area AR2 are equally divided into upper and lower parts in the screen area of the display unit 2.

例えば図4、図5の構成において、画像表示を行う場合、この図7(a)〜(f)のような形態で、領域AR1をスルー状態としながら領域AR2に画像表示を行うことが考えられる。
またシステムコントローラ10は、動作トリガ情報発生部16からの情報(例えばユーザの操作情報、ユーザ情報、外界情報等)に基づいて、図7(a)〜(f)どのような領域形態で画像表示を行うかを選択したり、或いはこれらを切り換えるようにしてもよい。例えばユーザの操作等に応じて図7(a)(b)のように子画面とされる領域AR2の位置を変更したり、図7(c)(d)のように領域AR2のサイズを変更したり、図7(e)(f)のように等分割することで、ユーザの好みに合わせることができる。
また、いわゆる表示領域交代として、図7(a)〜(f)における領域AR1を画像表示、領域AR2をスルー状態とするような切り換えを行うことも考えられる。
また、図8(d)に、画面領域全体を領域AR2として表示画像信号による画像表示を行っている例を示しているが、例えば図7(a)〜(f)のような表示状態から、図8(d)のようにスルー状態の領域をなくして全画面で画像表示を行っている状態に切り換えることができるようにしてもよい。
For example, in the configuration of FIGS. 4 and 5, when displaying an image, it is conceivable to display the image in the area AR2 while keeping the area AR1 in the through state in the form as shown in FIGS. .
Further, the system controller 10 displays an image in any region form shown in FIGS. 7A to 7F based on information from the operation trigger information generating unit 16 (for example, user operation information, user information, external world information, etc.). It is also possible to select whether to perform or switch between them. For example, the position of the area AR2 that is the child screen is changed as shown in FIGS. 7A and 7B according to the user's operation, or the size of the area AR2 is changed as shown in FIGS. 7C and 7D. Or by equally dividing as shown in FIGS. 7 (e) and 7 (f), it can be adapted to the user's preference.
As a so-called display area change, it is also conceivable to perform switching so that the area AR1 in FIGS. 7A to 7F is displayed as an image and the area AR2 is in a through state.
FIG. 8D shows an example in which the entire screen area is displayed as an area AR2, and image display is performed using display image signals. For example, from the display states as shown in FIGS. As shown in FIG. 8D, it may be possible to switch to a state in which image display is performed on the entire screen by eliminating the through state area.

次に図8(a)は、表示部2の画面領域で、領域AR1内で右下と左下に2つの子画面としての領域AR2a、AR2bを設定し、画像表示を行っている例である。
図8(b)は、表示部2の画面領域で、領域AR1の左右に領域AR2a、AR2bを設定し、画像表示を行っている例である。
図8(c)は、表示部2の画面領域で、領域AR1の上下に領域AR2a、AR2bを設定し、画像表示を行っている例である。
例えば図6のように2系統の撮像機能部位を有する場合、これらのような2つの領域AR2a、AR2bで各撮像機能部位での撮像画像に基づく画像表示を行うようにすることが考えられる。
また、領域AR1、AR2a、AR2bを3等分に分割設定しても良い。
また、システムコントローラ10の制御によって領域形態の切換や領域の交代が行われることも図7の場合と同様に想定される。
また、図8(a)(b)(c)の状態から図8(d)のように画面全体で画像表示を行う状態に切り換えることができるようにしてもよい。
Next, FIG. 8A is an example in which two sub-areas AR2a and AR2b are set in the lower right and lower left in the area AR1 in the screen area of the display unit 2, and image display is performed.
FIG. 8B shows an example in which the areas AR2a and AR2b are set on the left and right sides of the area AR1 in the screen area of the display unit 2 and image display is performed.
FIG. 8C shows an example in which areas AR2a and AR2b are set above and below the area AR1 in the screen area of the display unit 2 and image display is performed.
For example, in the case of having two types of imaging function parts as shown in FIG. 6, it is conceivable to perform image display based on the captured images in each imaging function part in these two regions AR2a and AR2b.
Further, the areas AR1, AR2a, AR2b may be divided into three equal parts.
In addition, it is assumed that the switching of the area form and the switching of the areas are performed under the control of the system controller 10 as in the case of FIG.
Also, the state shown in FIGS. 8A, 8B, and 8C may be switched to the state where the image is displayed on the entire screen as shown in FIG. 8D.

なお、複数の撮像機能部位や通信部26などで複数の表示画像ソースを有する場合であっても、そのうちの1つを選択して図7(a)〜(f)のような領域形態で表示させることも考えられる。
また、表示装置1が3つ以上の表示画像ソースを有する構成とされる場合、領域AR2としての領域を3つ以上設定し、それぞれの表示画像ソースからの画像が同時に表示されるようにしてもよい。
また、図1のように表示部2が右眼用と左眼用で2つある場合に、その一方の画面全体をスルー状態とし、他方の画面全体で図8(d)のように画像表示を行うことも考えられる。
Even when there are a plurality of display image sources in a plurality of imaging function parts, the communication unit 26, etc., one of them is selected and displayed in the area form as shown in FIGS. It is possible to make it.
Further, when the display device 1 is configured to have three or more display image sources, three or more regions as the region AR2 are set so that images from the respective display image sources are displayed simultaneously. Good.
In addition, when there are two display units 2 for the right eye and for the left eye as shown in FIG. 1, the entire one screen is set to the through state, and the entire screen is displayed as shown in FIG. 8D. Can also be considered.

[4.表示動作例]

上記図4,図5,図6のような構成の本実施の形態の表示装置1では、表示画像処理部12で処理されて表示駆動部13に供給される画像信号が、最終的に表示部2での表示に供される表示画像信号とされ、特にこの表示画像信号は、上記図7,図8で説明したようにスルー状態の領域を残したまま、画面上の一部領域に表示される。また、表示画像信号は、ユーザが表示部2を介して視認する光景(つまりスルー状態で視認する光景)とは異なる光景としての画像を表示させる信号である。
表示画像信号としての画像は、撮像部3(又は3X、3Y)で撮像された画像であったり、通信部26で受信された画像であるが、これらをソースとする表示画像信号を、スルー状態で視認する光景とは異なる光景の画像とし、ユーザが、スルー状態の領域で外界の光景を見ながら、一部領域で表示画像を見ることで視覚を拡張できるようにするものである。
[4. Display operation example]

In the display device 1 of the present embodiment configured as shown in FIGS. 4, 5, and 6, the image signal processed by the display image processing unit 12 and supplied to the display driving unit 13 is finally displayed on the display unit. The display image signal is used for display at 2, and this display image signal is displayed in a partial area on the screen while leaving the through state area as described in FIGS. 7 and 8. The The display image signal is a signal for displaying an image as a sight different from a sight visually recognized by the user through the display unit 2 (that is, a sight visually recognized in the through state).
The image as the display image signal is an image captured by the imaging unit 3 (or 3X, 3Y) or an image received by the communication unit 26. In this case, the user can expand the vision by viewing the display image in a partial area while viewing the external scene in the through state area.

このためのシステムコントローラ10の制御に基づく各種動作例を説明していく。
図9は、システムコントローラ10の制御処理を示している。
ステップF101は、システムコントローラ10が表示制御部14に対して表示部2をスルー状態とする制御処理を示している。例えば表示装置1が電源オンとされた初期段階では、システムコントローラ10はステップF101で表示部2の画面全面をスルー状態に制御する。
表示部2の画面全面をスルー状態にしている期間は、システムコントローラ10はステップF102で表示開始のトリガが発生したか否かを確認している。例えば動作トリガ情報発生部16としてユーザが操作できる操作子を設け、ユーザが所定の操作子の操作を行うことで表示状態を開始させるトリガの発生と判断すればよい。或いは後に例を述べるが、動作トリガ情報発生部16でユーザの状況や外界の状況を検出し、所定の条件に応じて表示を開始させるトリガの発生とシステムコントローラ10が判断することもできる。
Various operation examples based on the control of the system controller 10 for this purpose will be described.
FIG. 9 shows a control process of the system controller 10.
Step F101 indicates a control process in which the system controller 10 causes the display control unit 14 to bring the display unit 2 into a through state. For example, at the initial stage when the display device 1 is turned on, the system controller 10 controls the entire screen of the display unit 2 to the through state in step F101.
During a period in which the entire screen of the display unit 2 is in the through state, the system controller 10 confirms whether or not a display start trigger has occurred in step F102. For example, an operation element that can be operated by the user is provided as the operation trigger information generation unit 16, and it may be determined that a trigger for starting the display state is performed when the user operates a predetermined operation element. Alternatively, as will be described later, the operation controller information generation unit 16 can detect the user's situation and the outside world situation, and the system controller 10 can determine the occurrence of a trigger for starting display according to a predetermined condition.

表示開始トリガがあったと判別した場合は、システムコントローラ10は処理をステップF103に進め、表示画像信号の表示開始制御を行う。即ち撮像部3(又は3X、3Y)で撮像された画像信号や、通信部26で受信された画像信号に基づく表示画像信号が表示部3で表示されるように制御する。またこのとき、例えば図7,図8で述べたように、画面上の一部の領域に画像表示を実行させる。   If it is determined that there has been a display start trigger, the system controller 10 advances the process to step F103 to perform display start control of the display image signal. That is, control is performed so that an image signal captured by the imaging unit 3 (or 3X, 3Y) or a display image signal based on the image signal received by the communication unit 26 is displayed on the display unit 3. At this time, for example, as shown in FIGS. 7 and 8, image display is executed in a partial area on the screen.

画像表示を開始させた後、つまり表示部2の画面上で一部がスルー状態の領域とされ一部が画像表示の領域とされている期間は、システムコントローラ10は、ステップF104で表示切換トリガが発生したか否かを監視し、またステップF105で表示終了トリガが発生したか否かを監視する。   After the image display is started, that is, during a period in which a part is a through state area and a part is an image display area on the screen of the display unit 2, the system controller 10 displays a display switching trigger in step F104. Whether or not a display end trigger has occurred is monitored in step F105.

ステップF104での表示切換トリガの発生とは、ユーザ操作、或いはユーザ状況や外界状況によるシステムコントローラ10の判断により、表示画像の切換を行うとシステムコントローラ10が判断することを意味している。
表示画像の切換とは、例えば表示画像内容の切換、領域形態の切換がある。
そして表示画像内容の切換とは、例えば撮像部3でのズーム処理や焦点位置の変更による画像変更、撮像感度の変更による画像変更、撮像信号処理部15での信号処理による画像変更、撮像部3が可動カメラの場合の撮像方向(被写体方向)の変更による画像変更、表示画像処理部12での信号処理による画像変更、複数の表示画像信号のソースを有する場合のソース切換による画像変更など、非常に多様な例が考えられる。
また領域形態の切換とは、親子画面の位置変更や親子画面交代、分割画面の位置変更や領域交代、全画面表示への切換などであり、例えば図7(a)の状態から図7(b)の状態に切り換えたり、図7(a)の状態から図7(e)の状態に切り換えたり、或いは図7(a)の状態から図8(d)の状態に切り換えるなどの制御である。
The occurrence of a display switching trigger in step F104 means that the system controller 10 determines that the display image is to be switched based on a user operation or a determination by the system controller 10 based on a user situation or an external environment.
The display image switching includes, for example, display image content switching and area mode switching.
The display image content switching includes, for example, zoom processing in the imaging unit 3 and image change by changing the focus position, image change by changing imaging sensitivity, image change by signal processing in the imaging signal processing unit 15, and imaging unit 3 Image change by changing the imaging direction (subject direction) when the camera is a movable camera, image change by signal processing in the display image processing unit 12, image change by source switching when there are multiple display image signal sources, etc. There are various examples.
The switching of the area form includes a change in the position of the parent / child screen, a change in the parent / child screen, a change in the position of the divided screen, a change in the area, a change to the full screen display, and the like, for example, from the state of FIG. ), The state shown in FIG. 7A to the state shown in FIG. 7E, or the state shown in FIG. 7A to the state shown in FIG. 8D.

またステップF105での表示終了トリガについては、例えばユーザが所定の操作子により表示を終了させる操作を行った場合に、システムコントローラ10は表示状態を終了させるトリガの発生と判断すればよいが、ユーザの状況や外界の状況を検出し、所定の条件に応じて表示終了トリガの発生とシステムコントローラ10が判断することもできる。   As for the display end trigger in step F105, for example, when the user performs an operation to end the display with a predetermined operator, the system controller 10 may determine that a trigger to end the display state is generated. The system controller 10 can also detect the occurrence of a display end trigger according to a predetermined condition.

表示切換トリガ発生と判断した場合は、システムコントローラ10は処理をステップF104からF106に進め、画像表示動作に関しての切換制御を行う。これにより表示部2において一部の領域に表示されている画像の内容、もしくは領域形態の切換が行われる。
システムコントローラ10はステップF106で表示切換に関しての制御を行った後も、ステップF104,F105のトリガ発生の監視を行う。
If it is determined that a display switching trigger has occurred, the system controller 10 advances the process from step F104 to F106, and performs switching control for the image display operation. As a result, the content of the image displayed in a part of the area or the area form on the display unit 2 is switched.
The system controller 10 monitors the generation of triggers in steps F104 and F105 even after performing control related to display switching in step F106.

表示終了トリガ発生と判断した場合は、システムコントローラ10は処理をステップF105からF101に戻し、表示制御部14に対して、画像表示を終了させると共に表示部2の全面をスルーとする指示を行う。   If it is determined that the display end trigger has occurred, the system controller 10 returns the process from step F105 to F101, and instructs the display control unit 14 to end the image display and to make the entire display unit 2 through.

ユーザが表示装置1を装着して電源オンとしている期間は、システムコントローラ10は、例えばこの図9のような制御処理を行うことになる。
そしてこの処理においては、ステップF103で画像表示を行い、またステップF106で表示切換を行うが、これらの処理において実現される画像表示例を図10〜図15で述べていく。
なお、図10〜図14では基本的には図4の構成例であって、撮像部3がユーザの前方、つまりスルー状態の領域を介してユーザが視認する光景と同一の方向の光景を撮像するように構成されている場合を想定して説明していく。
During a period in which the user wears the display device 1 and is turned on, the system controller 10 performs control processing as shown in FIG. 9, for example.
In this process, image display is performed in step F103 and display switching is performed in step F106. Examples of image display realized in these processes will be described with reference to FIGS.
10 to 14 are basically the configuration example of FIG. 4, and the imaging unit 3 captures a scene in the same direction as the scene visually recognized by the user in front of the user, that is, through the through state area. The description will be made assuming a configuration configured to do so.

図10(a)は表示部2の全面がスルー状態となっている場合を示しているとする。つまり、表示部2は単なる透明の板状体となっており、ユーザが視界光景を透明の表示部2を介して見ている状態である。
図10(b)は、画像表示状態として、例えば撮像部3で撮像した画像を表示部2に表示させた状態である。ここでは領域AR1はスルー状態とし、領域AR2に画像表示を行うようにしている。この場合、撮像部3がユーザの前方を撮像しているものとし、その撮像部3に対してズーム制御が行われて望遠撮像が行われることで、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像(望遠画像)が領域AR2に表示されている。これによりユーザーは、通常の光景をみながら、通常の視覚では見ることのできない望遠画像を楽しむことができる。
なお、ここでは撮像部3の動作により望遠画像が得られる例を挙げたが、逆に広角ズームを実行させることで、近距離の光景が広角に映し出された画像が表示部2に表示されることになる。なお、望遠−広角の制御は、撮像部3におけるズームレンズの駆動制御の他、撮像信号処理部15での信号処理でも可能である。
また図示しないが、いわゆるズーム動作ではなく、システムコントローラ10が撮像部3に焦点位置を可変させるように指示することで、近景、遠景の画像を撮像させ、その画像を表示部2の領域AR2に表示させてもよい。
FIG. 10A shows a case where the entire surface of the display unit 2 is in a through state. That is, the display unit 2 is a simple transparent plate-like body, and the user is viewing the view scene through the transparent display unit 2.
FIG. 10B shows a state in which, for example, an image captured by the imaging unit 3 is displayed on the display unit 2 as the image display state. Here, the area AR1 is in a through state, and an image is displayed in the area AR2. In this case, it is assumed that the imaging unit 3 is imaging the front of the user, and zoom control is performed on the imaging unit 3 to perform telephoto imaging, so that the user's field of view through the area AR1 in the through state is obtained. An image with a different scene (telephoto image) is displayed in the area AR2. As a result, the user can enjoy a telephoto image that cannot be viewed with normal vision while viewing a normal scene.
Here, an example in which a telephoto image is obtained by the operation of the imaging unit 3 has been described, but conversely, by executing a wide-angle zoom, an image in which a short-distance scene is displayed at a wide angle is displayed on the display unit 2. It will be. The telephoto / wide-angle control can be performed not only by the zoom lens drive control in the imaging unit 3 but also by signal processing in the imaging signal processing unit 15.
Although not shown, the system controller 10 instructs the imaging unit 3 to change the focal position, not the so-called zoom operation, so that images of foreground and distant views are captured, and the images are displayed in the area AR2 of the display unit 2. It may be displayed.

図11(a)は、表示部2の全面がスルー状態とされている場合を示している。
図11(b)は画像表示状態であり、システムコントローラ10が表示制御部14(表示画像処理部12、表示駆動部13)に対して撮像部3から得られた画像についての拡大処理を指示することにより、図11(b)のように領域AR1はスルー状態とし、領域AR2に拡大画像の表示を行う例である。このように拡大画像として、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることで、ユーザーは、通常の光景をみながら、通常の視覚では見ることのできない画像を見ることができる。
逆に、システムコントローラ10が表示制御部14(表示画像処理部12、表示駆動部13)に対して撮像部3から得られた画像についての縮小処理を実行させ、領域AR2に縮小画像の表示を行うことも考えられる。
FIG. 11A shows a case where the entire surface of the display unit 2 is in a through state.
FIG. 11B shows an image display state, and the system controller 10 instructs the display control unit 14 (the display image processing unit 12 and the display drive unit 13) to enlarge the image obtained from the imaging unit 3. Thus, as shown in FIG. 11B, the area AR1 is in a through state, and an enlarged image is displayed in the area AR2. In this way, as an enlarged image, an image having a scene different from the user's field of view through the area AR1 in the through state is displayed in the area AR2, so that the user can see in normal vision while viewing the normal scene. You can see images that cannot.
Conversely, the system controller 10 causes the display control unit 14 (the display image processing unit 12 and the display driving unit 13) to perform a reduction process on the image obtained from the imaging unit 3, and displays the reduced image in the area AR2. It is possible to do it.

図12(a)は表示部2の全面がスルー状態とされている場合を示しているが、特に周囲が薄暗い場合を示している。
図12(b)は画像表示状態であり、このように周囲が薄暗い場合に、システムコントローラ10は撮像制御部11(撮像部3,撮像信号処理部15)に対して撮像感度を上げることを指示したり、撮像信号処理部15や表示画像処理部12に対して輝度レベル、コントラスト、シャープネス調整を指示することなどにより、よりはっきりした明るい表示画像信号を得るようにし、それを表示させる。つまり領域AR1はスルー状態とし、領域AR2に輝度を明るさを向上させた画像の表示を行う例である。このように明るさ調整画像として、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることで、ユーザーは、通常の視覚では見ることのできない画像を見ることができる。
なお、照明部4に照明動作を実行させることも、このような撮像を行う場合に好適となる。
また逆に、周囲が明るすぎる場合などに、システムコントローラ10は撮像制御部11(撮像部3,撮像信号処理部15)に対して撮像感度を下げることを指示したり、撮像信号処理部15や表示画像処理部12に対して輝度レベル、コントラスト、シャープネス調整を指示することなどにより、まぶしくない表示画像信号を得るようにし、それを表示させるようにすることも考えられる。
FIG. 12A shows a case where the entire surface of the display unit 2 is in a through state, and particularly shows a case where the periphery is dim.
FIG. 12B shows an image display state. When the surroundings are dim as described above, the system controller 10 instructs the imaging control unit 11 (imaging unit 3, imaging signal processing unit 15) to increase imaging sensitivity. Or by instructing the imaging signal processing unit 15 or the display image processing unit 12 to adjust the brightness level, contrast, and sharpness, a clearer bright display image signal is obtained and displayed. That is, in this example, the area AR1 is in the through state, and the area AR2 displays an image with improved brightness and brightness. In this way, as a brightness adjustment image, a scene image different from the user's field of view through the area AR1 in the through state is displayed in the area AR2, so that the user sees an image that cannot be viewed with normal vision. be able to.
In addition, it is also suitable when performing such an imaging to make the illumination part 4 perform illumination operation.
Conversely, when the surroundings are too bright, the system controller 10 instructs the imaging control unit 11 (imaging unit 3, imaging signal processing unit 15) to lower the imaging sensitivity, It may be possible to obtain a display image signal that is not dazzling by instructing the display image processing unit 12 to adjust the brightness level, contrast, and sharpness, and to display it.

図13(a)は、表示部2の全面がスルー状態とされている場合を示しているが、例えばユーザが、子供が寝ている暗い寝室に居る場合などであり、殆ど真っ暗で見えない状況であるとしている。
図13(b)は画像表示状態であり、システムコントローラ10が、撮像制御部11(撮像部3,撮像信号処理部15)に対して赤外線撮像感度の上昇を指示することで、領域AR2に赤外線感度上昇撮像の画像が表示される。即ち暗い部屋で子供の寝顔などを確認できるような画像表示が行われる。これによりユーザーは、通常の視覚では見ることのできない暗視画像を見ることができる。
FIG. 13A shows a case where the entire surface of the display unit 2 is in a through state. For example, when the user is in a dark bedroom where a child is sleeping, the situation is almost completely dark and cannot be seen. It is said that.
FIG. 13B shows an image display state, and the system controller 10 instructs the imaging control unit 11 (imaging unit 3 and imaging signal processing unit 15) to increase the infrared imaging sensitivity, so that the area AR2 has an infrared ray. An image of increased sensitivity imaging is displayed. That is, image display is performed so that a child's sleeping face can be confirmed in a dark room. This allows the user to see a night vision image that cannot be seen with normal vision.

図14(a)は、表示部2の全面がスルー状態とされている場合である。
図14(b)は画像表示状態を示すが、システムコントローラ10が、撮像制御部11(撮像部3,撮像信号処理部15)に対して紫外線撮像感度の上昇を指示することで、領域AR2に紫外線感度上昇撮像の画像が表示される。これによりユーザーは、通常の視覚では見ることのできない紫外光成分を表した画像を見ることができる。
FIG. 14A shows a case where the entire surface of the display unit 2 is in a through state.
FIG. 14B shows the image display state, but the system controller 10 instructs the imaging control unit 11 (imaging unit 3 and imaging signal processing unit 15) to increase the ultraviolet imaging sensitivity, so that the area AR2 is displayed. An image of ultraviolet sensitivity increased imaging is displayed. As a result, the user can see an image representing an ultraviolet light component that cannot be seen with normal vision.

以上の図10〜図14は、図4の構成において撮像部3がユーザの前方を撮像するように配置されている場合の例を述べたが、図15は図4の撮像部3(又は図6の撮像部3X,3Y)がユーザが視認する前方方向とは異なる方向を撮像するように配置されている場合の例を示す。
図15(a)は、表示部2の全面がスルー状態とされている場合である。
撮像部3が例えばユーザの後方を撮像するように配置されている場合、画像表示状態は図15(b)のようになり、領域AR1はスルー状態とされ、領域AR2にユーザの後方を撮像した画像の表示が行われる。
また撮像部3が例えばユーザの上方を撮像するように配置されている場合、画像表示状態は図15(c)のようになり、領域AR1はスルー状態とされ、領域AR2にユーザの上方を撮像した画像の表示が行われる。
これらの場合も、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2に表示されることになり、ユーザーは、通常の前方の光景をみながら、通常の視覚では見ることのできない方向の画像(後方画像や上方画像など)を見ることができる。
10 to 14 described above have described an example where the imaging unit 3 is arranged so as to capture the front of the user in the configuration of FIG. 4, FIG. 15 illustrates the imaging unit 3 (or FIG. 15) of FIG. 4. 6 image pickup units 3X and 3Y) are arranged so as to pick up images in a direction different from the forward direction visually recognized by the user.
FIG. 15A shows a case where the entire surface of the display unit 2 is in a through state.
For example, when the imaging unit 3 is arranged so as to capture the rear of the user, the image display state is as shown in FIG. 15B, the area AR1 is in the through state, and the rear of the user is captured in the area AR2. An image is displayed.
Further, when the imaging unit 3 is arranged so as to capture an image above the user, for example, the image display state is as shown in FIG. 15C, the area AR1 is set to the through state, and the area AR2 is imaged above the user. The displayed image is displayed.
In these cases as well, an image of a scene different from the user's field of view through the area AR1 in the through state is displayed in the area AR2, and the user sees with normal vision while viewing the normal front scene. It is possible to view an image in a direction that cannot be performed (backward image, upper image, etc.).

図15(d)は、図6のように複数の撮像機能部位を備えた構成において、撮像部3X、3Yがそれぞれユーザの右後方と左後方を撮像するように配置される場合の画像表示例である。即ち領域AR1はスルー状態とされ、領域AR2a、AR2bにそれぞれユーザの右後方と左後方を撮像した画像の表示が行われる。
この場合、スルー状態の領域AR1を介したユーザの視界とは異なる光景の画像が領域AR2a、AR2bに表示されることになり、ユーザーは、スルー状態の領域AR1での通常の前方の光景に加えて右後方、左後方を視認でき、ほぼ周囲全周を確認できる状態となる。
FIG. 15D shows an image display example in the case where the imaging units 3X and 3Y are arranged so as to capture the right rear and the left rear of the user, respectively, in the configuration including a plurality of imaging function parts as shown in FIG. It is. That is, the area AR1 is set to the through state, and images obtained by capturing the right rear and left rear of the user are displayed in the areas AR2a and AR2b, respectively.
In this case, an image of a scene different from the user's field of view through the area AR1 in the through state is displayed in the areas AR2a and AR2b, and the user adds to the normal front scene in the area AR1 in the through state. The right rear and the left rear can be visually confirmed, and the entire circumference can be confirmed.

ここまで各種の表示例を示したが、これらは一例にすぎない。本例においては、撮像部3(3X、3Y),撮像信号処理部15、表示画像処理部12,表示駆動部13、通信部26の各処理や動作を制御することで、多様な表示形態が実現される。
以下、画面上でスルー状態の領域とあわせて表示される画像信号、即ち表示部2をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像表示を行うための表示画像信号の例を挙げていく。
Various display examples have been shown so far, but these are only examples. In this example, various display forms can be obtained by controlling the processes and operations of the imaging unit 3 (3X, 3Y), the imaging signal processing unit 15, the display image processing unit 12, the display driving unit 13, and the communication unit 26. Realized.
Hereinafter, an image signal displayed together with a through state area on the screen, that is, an image display as a scene different from a scene visually recognized by the user through the display unit 2 when the display unit 2 is in the through state. Examples of display image signals for this purpose will be given.

まず図4のような構成で撮像部3がユーザの前方を撮像するように配置されている場合(つまりスルー状態で視認できる光景を撮像する場合)において、撮像部3で得られた撮像信号に基づく表示画像信号例は次のとおりである。
・撮像部3のズーム動作で得られる望遠ズーム画像としての表示画像信号
・撮像部3のズーム動作で得られる広角ズーム画像としての表示画像信号
・撮像部3の焦点制御動作で得られる遠景画像としての表示画像信号
・撮像部3の焦点制御動作で得られる近景画像としての表示画像信号
・撮像部3での撮像フレームレートを変更させて得た高速撮像画像や低速撮像画像などとしての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理での拡大処理を行った表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で得られる縮小処理を行った表示画像信号
・撮像部3での撮像感度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像部3での撮像感度を低下させて明るさを抑えた画像としての表示画像信号
・撮像部3での赤外線撮像感度を上昇させて得た暗視画像としての表示画像信号
・撮像部3での紫外線撮像感度を上昇させて得た画像としての表示画像信号
・撮像部3で特定波長帯域をカットして撮像した画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で輝度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理で輝度を低下させて明るさを抑えた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の色信号処理で色合いや雰囲気を変化させた画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理でコントラスト、シャープネス等を調整した画像としての表示画像信号
・撮像信号処理部15または表示画像処理部12の信号処理として、モザイク/輝度反転/ソフトフォーカス/画像内の一部の強調表示/ハイライト表示などの画像エフェクト処理を行って得た画像としての表示画像信号
・以上の各動作又は信号処理の組み合わせにより得た表示画像信号
First, when the imaging unit 3 is arranged to capture the front of the user with the configuration as shown in FIG. 4 (that is, when imaging a scene that can be viewed in the through state), the imaging signal obtained by the imaging unit 3 An example of a display image signal based thereon is as follows.
A display image signal as a telephoto zoom image obtained by a zoom operation of the image pickup unit 3 A display image signal as a wide-angle zoom image obtained by a zoom operation of the image pickup unit 3 A distant view image obtained by a focus control operation of the image pickup unit 3 Display image signal / display image signal as a foreground image obtained by the focus control operation of the imaging unit 3 / display image signal as a high-speed captured image or a low-speed captured image obtained by changing the imaging frame rate at the imaging unit 3 Display image signal subjected to enlargement processing in the signal processing of the imaging signal processing unit 15 or the display image processing unit 12 Display image subjected to reduction processing obtained by the signal processing of the imaging signal processing unit 15 or the display image processing unit 12 Display image signal as an image whose brightness is increased by increasing the imaging sensitivity in the signal / imaging unit 3, and an image whose brightness is suppressed by decreasing the imaging sensitivity in the imaging unit 3 Display image signal / display image signal / imaging as an image obtained by increasing display sensitivity / infrared imaging sensitivity at the imaging unit 3 as a night vision image obtained by increasing the infrared imaging sensitivity at the imaging unit 3 Display image as a display image signal / image pickup signal processing unit 15 or image processing unit 12 or signal processing performed by the display image processing unit 12 to increase the brightness and increase the brightness. By the color signal processing of the display image signal / imaging signal processing unit 15 or the display image processing unit 12 as an image in which the brightness is reduced by the signal processing of the signal / imaging signal processing unit 15 or the display image processing unit 12 and the brightness is suppressed. Table as an image in which contrast, sharpness, etc. have been adjusted by the signal processing of the display image signal / imaging signal processing unit 15 or the display image processing unit 12 as an image with a changed hue or atmosphere Image obtained by performing image effect processing such as mosaic / inversion of brightness / soft focus / partial highlighting / highlight display in image as signal processing of image signal / image pickup signal processing unit 15 or display image processing unit 12 Display image signal as a display image signal obtained by a combination of the above operations or signal processing

撮像部3で、スルー状態において視認できるユーザ正面の光景を撮像する場合は、例えばこれらのような動作や処理で表示画像信号を得ることで、その表示画像信号は、表示部2をスルー状態としたときにユーザが表示部2を介して視認する光景とは異なる光景としての画像表示を行うための信号となる。
もちろん、上記列挙したものに限定されるものではなく、撮像部3の動作、撮像信号処理部15の信号処理、表示画像処理部12の信号処理により得られる、「スルー状態とは異なる光景」としての表示画像信号は多様に考えられる。
またズーム処理や拡大/縮小処理の倍率、撮像感度変更時の変更するレベル、輝度信号処理や色信号処理での処理係数など、任意に可変することも考えられる。
When the imaging unit 3 captures a scene in front of the user that can be viewed in the through state, for example, by obtaining a display image signal by such operations and processes, the display image signal is displayed in the through state. When this is done, it becomes a signal for displaying an image as a scene different from the scene visually recognized by the user via the display unit 2.
Of course, the present invention is not limited to the above-described ones. As a “view different from the through state” obtained by the operation of the imaging unit 3, the signal processing of the imaging signal processing unit 15, and the signal processing of the display image processing unit 12. There are various display image signals.
Further, it is conceivable that the zoom processing or the magnification / reduction processing magnification, the level to be changed when the imaging sensitivity is changed, the processing coefficient in the luminance signal processing or the color signal processing, and the like can be arbitrarily changed.

一方、図4のような構成で撮像部3がユーザの前方とは異なる方向を撮像するように配置されている場合において、撮像部3で得られた撮像信号に基づく表示画像信号例は次のように考えればよい。
即ち、この場合、撮像部3での通常撮像で得られた撮像画像は、それ自体が既にユーザがスルー状態の表示部2を介して通常に視認する光景とは異なる光景(例えば後方、上方、足下、右方、左方などの光景)の撮像画像であるため、撮像画像信号を、そのまま表示画像信号として表示部2に表示させればよい。
さらに、その場合に上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理、表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
On the other hand, when the imaging unit 3 is arranged to capture a direction different from the front of the user with the configuration as shown in FIG. 4, an example of a display image signal based on the imaging signal obtained by the imaging unit 3 is as follows. I think so.
That is, in this case, the captured image obtained by the normal imaging in the imaging unit 3 is a scene that is different from the scene that the user already normally sees through the display unit 2 in the through state (for example, rear, upper, Therefore, the captured image signal may be displayed on the display unit 2 as a display image signal as it is.
In this case, as listed above, an image signal obtained by adding the imaging operation of the imaging unit 3, the signal processing of the imaging signal processing unit 15, and the signal processing of the display image processing unit 12 may be used as the display image signal.

また、図6のように複数の撮像機能部位を備える場合においても同様に考えることができる。複数の撮像機能部位のうち、前方を撮像する撮像部3が存在する場合は、その撮像画像信号については、上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理、表示画像処理部12での信号処理により異なる光景とした画像信号を表示画像信号とすればよい。
また前方以外の方向を撮像する撮像部3が存在する場合は、その撮像画像信号そのものを表示画像信号としてもよいし、上記列挙したように、撮像部3の撮像動作、撮像信号処理部15の信号処理、表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
The same can be applied to the case where a plurality of imaging function parts are provided as shown in FIG. When there is an imaging unit 3 that images the front among a plurality of imaging functional parts, as for the captured image signal, as described above, the imaging operation of the imaging unit 3 and the signal processing of the imaging signal processing unit 15, What is necessary is just to use the image signal made into the different scene by the signal processing in the display image process part 12 as a display image signal.
When there is an imaging unit 3 that captures a direction other than the front, the captured image signal itself may be used as a display image signal. As described above, the imaging operation of the imaging unit 3 and the imaging signal processing unit 15 An image signal obtained by performing signal processing and signal processing of the display image processing unit 12 may be used as a display image signal.

また撮像方向可変の可動式の撮像部を有する構成の場合も、同様であり、ユーザの前方以外の撮像画像や、撮像部3の撮像動作、撮像信号処理部15の信号処理、表示画像処理部12での信号処理を加えた画像信号を表示画像信号としてもよい。
また可動式の場合、特定の対象を追尾するような可動制御を行うことも考えられる。例えば撮像画像信号についての画像解析を行い、特定対象を検出した場合、撮像画像内での特定対象の動きに合わせて撮像方向を変化させる。このような制御により、ユーザは、特定の対象を追尾する画像を、例えば領域AR2において見ることができる。
The same applies to a configuration having a movable imaging unit whose imaging direction can be changed. The same applies to captured images other than the front of the user, imaging operation of the imaging unit 3, signal processing of the imaging signal processing unit 15, and display image processing unit. 12 may be used as the display image signal.
In the case of a movable type, it is also conceivable to perform a movable control that tracks a specific target. For example, when image analysis is performed on a captured image signal and a specific target is detected, the imaging direction is changed in accordance with the movement of the specific target in the captured image. With such control, the user can view an image tracking a specific target, for example, in the area AR2.

通信部26で受信した外部の撮像装置70の撮像画像を表示させる場合も同様に考えることができる。
即ち、外部の撮像装置70の撮像画像は、それ自体がユーザがスルー状態の表示部2を介して通常に視認する光景とは異なる光景の撮像画像であるため、通信部26で受信した画像信号を、そのまま表示画像信号として表示部2に表示させることで、ユーザに多様な画像を提供できることになる。
もちろんその場合に、上記列挙したうちで表示画像処理部12の信号処理を加えた画像信号を表示画像信号としてもよい。
例えばユーザからの視界が図10(a)のようにスタジアムで客席からサッカーを観戦している状態にあるときに、スタジアムの別の場所で撮像を行う撮像装置70による映像を、通信部26で受信し、図10(b)のように表示部2の領域AR2に表示させることが考えられるが、例えば監督席近辺に設置された撮像装置70や、審判が装着する小型の撮像装置70などからの映像を受信して、表示部2で表示することで、より興味深く試合観戦を行うことができる。
或いは、リゾート地に設置した撮像装置70や、旅行中の知人が所持する撮像装置70によって撮像した映像を、通信部26で受信し、表示部2の領域AR2に表示させたり、航空機や衛星に設置された撮像装置70で撮像した地上の映像(バードビュー映像)を、通信部26で受信し、表示部2の領域AR2に表示させるなど、多様な例が想定され、このような表示により、ユーザは、通常は見ることのできない風景を楽しむことができる。
The same applies to the case where the captured image of the external imaging device 70 received by the communication unit 26 is displayed.
That is, since the captured image of the external imaging device 70 is a captured image of a scene that is different from the scene that the user normally visually recognizes through the display unit 2 in the through state, the image signal received by the communication unit 26 Is displayed on the display unit 2 as a display image signal as it is, so that various images can be provided to the user.
Of course, in that case, the image signal obtained by adding the signal processing of the display image processing unit 12 among the above-mentioned list may be used as the display image signal.
For example, when the field of view from the user is watching soccer from the audience seats in the stadium as shown in FIG. 10A, the communication unit 26 displays an image by the imaging device 70 that performs imaging at another place in the stadium. It is conceivable to receive and display it in the area AR2 of the display unit 2 as shown in FIG. 10B. For example, from the imaging device 70 installed near the director's seat or the small imaging device 70 worn by the referee The video can be received and displayed on the display unit 2, so that the game can be watched more interestingly.
Alternatively, an image captured by the image capturing device 70 installed in a resort area or an image capturing device 70 possessed by a traveling acquaintance is received by the communication unit 26 and displayed in the area AR2 of the display unit 2, or on an aircraft or satellite. Various examples are assumed such as the ground image (bird view image) captured by the installed imaging device 70 is received by the communication unit 26 and displayed in the area AR2 of the display unit 2, and such display allows The user can enjoy a landscape that cannot be seen normally.

[5.動作トリガの例]

上記図9の処理に示したように、システムコントローラ10はステップF102で表示開始トリガ発生と判断することや、ステップF104で表示切換トリガ発生と判断することに応じて表示を実行させる。さらにステップF105で表示終了トリガ発生と判断することで表示動作を終了させる。
そしてこれらの表示動作に関するトリガとしては、ユーザの操作によるものとすればよいが、ユーザの状況や外界の状況を検知し、所定の条件によりシステムコントローラ10がトリガ発生と判断しても良いと述べた。
ここでは、ユーザ状況や外界状況によりトリガ発生の判断を行う例について述べる。
[5. Example of operation trigger]

As shown in the processing of FIG. 9, the system controller 10 executes display in response to determining that a display start trigger is generated in step F102 or determining that a display switching trigger is generated in step F104. Further, the display operation is ended by determining that the display end trigger is generated in step F105.
The trigger relating to these display operations may be triggered by the user's operation, but the user's situation or the outside world situation may be detected, and the system controller 10 may determine that the trigger has occurred according to a predetermined condition. It was.
Here, an example will be described in which the occurrence of a trigger is determined according to the user situation or the outside world situation.

まずユーザ状況によりトリガ発生と判断する場合、表示装置1は動作トリガ情報発生部16として視覚センサ、加速度センサ、ジャイロ、生体センサなどを設けるようにする。
視覚センサは、ユーザの視覚に関する情報を検出するものとするが、この視覚センサは、一例としては、例えば表示部2の近辺に配置されてユーザの眼部を撮像するようにされた撮像部により形成できる。そして該撮像部が撮像したユーザの眼部の画像をシステムコントローラ10が取り込み、画像解析を行うことで、視線方向、焦点距離、瞳孔の開き具合、眼底パターン、まぶたの開閉などを検出でき、これた基づいてユーザの状況や意志を判定できる。
或いは視覚センサは、表示部2の近辺に配置されてユーザの眼部に光を照射する発光部と、眼部からの反射光を受光する受光部により形成できる。例えば受光信号からユーザの水晶体の厚みを検知することでユーザの眼の焦点距離を検出することも可能である。
First, when it is determined that a trigger is generated according to a user situation, the display device 1 is provided with a visual sensor, an acceleration sensor, a gyroscope, a biological sensor, and the like as the operation trigger information generation unit 16.
The visual sensor detects information related to the user's vision. For example, the visual sensor is provided by, for example, an imaging unit that is arranged in the vicinity of the display unit 2 and images the user's eyes. Can be formed. The system controller 10 captures an image of the user's eye captured by the image capturing unit and performs image analysis, thereby detecting the line-of-sight direction, focal length, pupil opening, fundus pattern, eyelid opening / closing, etc. The user's situation and will can be determined based on the results.
Alternatively, the visual sensor can be formed by a light emitting unit that is arranged in the vicinity of the display unit 2 and irradiates light to the user's eyes, and a light receiving unit that receives reflected light from the eyes. For example, it is possible to detect the focal length of the user's eyes by detecting the thickness of the user's crystalline lens from the received light signal.

ユーザの視線方向を検出することで、システムコントローラ10は例えば表示部2に表示された画像においてユーザが注目している部分を判定できる。
またシステムコントローラ10は、ユーザの視線方向を、操作入力として認識することも可能である。例えばユーザが視線を左右に動かすことを、表示装置1に要求する所定の操作入力とするなどである。
ユーザの焦点距離を検出することで、ユーザが注目している光景が遠方か近傍かを判別でき、それに応じてズーム制御、拡大/縮小制御、焦点変更制御などを行うことも可能である。例えばユーザが遠くを見たときに望遠表示を行うなどである。
ユーザの瞳孔の開き具合を検出すれば、スルー状態であれば周囲の明るさの状態、またモニタ表示状態であれば表示している画像に対してユーザが感じているまぶしさ等を判定でき、それに応じて輝度調整、撮像感度調整などを行うことができる。
ユーザの眼底パターンの検出は、例えばユーザの個人認証に用いることができる。眼底パターンは各人に固有のパターンであるため、眼底パターンによって装着したユーザを判定し、そのユーザに適した制御を行うこと、或いは特定のユーザにのみ表示動作を実行できるようにすることなどの制御が可能である。
ユーザのまぶたの開閉動作を検出することで、ユーザが感じているまぶしさや眼の疲れを判定できる。また、まぶたの開閉を、ユーザの意識的な操作入力として認識することも可能である。例えばユーザが3回まばたきをすることを、所定の操作入力と判定するなどである。
By detecting the direction of the user's line of sight, the system controller 10 can determine, for example, the part of the image displayed on the display unit 2 that the user is paying attention to.
The system controller 10 can also recognize the user's line-of-sight direction as an operation input. For example, moving the line of sight left and right by the user is a predetermined operation input requested to the display device 1.
By detecting the focal length of the user, it is possible to determine whether the scene that the user is paying attention to is far or near, and it is possible to perform zoom control, enlargement / reduction control, focus change control, and the like accordingly. For example, a telephoto display is performed when the user looks far away.
By detecting the degree of pupil opening of the user, it is possible to determine the brightness of the surroundings if it is a through state, the glare that the user feels for the displayed image if it is a monitor display state, Accordingly, brightness adjustment, imaging sensitivity adjustment, and the like can be performed.
The detection of the fundus pattern of the user can be used for personal authentication of the user, for example. Since the fundus pattern is unique to each person, it is possible to determine a user wearing the fundus pattern and perform control suitable for the user, or to perform a display operation only for a specific user. Control is possible.
By detecting the opening / closing operation of the user's eyelids, it is possible to determine the user's feeling of glare or eye fatigue. It is also possible to recognize opening / closing of the eyelid as a user's conscious operation input. For example, it is determined that the user blinks three times as a predetermined operation input.

加速度センサ、及びジャイロは、ユーザの動きに応じた信号を出力する。例えば加速度センサは直線方向の動きを検出し、ジャイロにより回転系の動きや振動を検出する場合に適している。
加速度センサやジャイロの配置位置にもよるが、加速度センサやジャイロによって、ユーザの身体全体もしくは身体の各部の動きを検知できる。
例えば図1のような眼鏡型の表示装置1の内部に取り付けられた場合、つまり加速度センサ及びジャイロがユーザの頭部の動きを検出するものとされた場合は、加速度センサの検出情報は、ユーザの頭部或いは全身の動きとしての加速度情報となり、またジャイロの検出情報はユーザの頭部或いは全身の動きとしての角速度や振動の情報となる。
これによって、ユーザが首から頭部を動かす挙動を検知できる。例えば上方を向いている状態や下方を向いている状態を判定できる。下方を向いているときとは、ユーザが読書など近傍を見ていると判断することも可能である。逆に上方を向いているときは、遠方を見ていると判断することもできる。
またシステムコントローラ10はユーザの首から頭部を動かす挙動を検出したら、それをユーザの意識的な操作と認識することもできる。例えば左に2回首を振ったら、それが所定の操作入力とするなどである。
また加速度センサ及びジャイロによっては、ユーザが静止状態(非歩行状態)であるか、歩行状態であるか、走行状態であるかなどの判断も可能である。また立っている状態から座った場合、或いは立ち上がった場合などの検出も可能である。
また、加速度センサやジャイロが、頭部に装着する装着ユニットとは別体に設けられ、腕や足に取り付けられるようにすれば、腕のみの挙動、足のみの挙動も検知できる。
The acceleration sensor and the gyro output a signal corresponding to the user's movement. For example, an acceleration sensor is suitable for detecting movement in a linear direction and detecting movement and vibration of a rotating system with a gyro.
Although depending on the arrangement position of the acceleration sensor and the gyro, the acceleration sensor and the gyro can detect the movement of the entire body of the user or each part of the body.
For example, when it is mounted inside the eyeglass-type display device 1 as shown in FIG. 1, that is, when the acceleration sensor and the gyroscope are to detect the movement of the user's head, the detection information of the acceleration sensor is Acceleration information as movement of the head or whole body of the user, and detection information of the gyro becomes information of angular velocity and vibration as movement of the user's head or whole body.
Thereby, it is possible to detect the behavior of the user moving the head from the neck. For example, it is possible to determine a state facing upward or a state facing downward. When facing down, it can be determined that the user is looking in the vicinity, such as reading. Conversely, when looking upward, it can be determined that the user is looking far away.
Further, when the system controller 10 detects the behavior of moving the head from the user's neck, it can also recognize it as a user's conscious operation. For example, if the head is swung to the left twice, that is a predetermined operation input.
Depending on the acceleration sensor and the gyro, it is possible to determine whether the user is in a stationary state (non-walking state), a walking state, or a running state. It is also possible to detect when sitting or standing from a standing state.
Further, if the acceleration sensor and the gyro are provided separately from the mounting unit mounted on the head and are attached to the arms and feet, the behavior of only the arms and the behavior of only the feet can be detected.

生体センサは、ユーザの生体情報として例えば心拍情報(心拍数)、脈拍情報(脈拍数)、発汗情報、脳波情報(例えばα波、β波、θ波、δ波の情報)、又は皮膚電気反応、体温、血圧、呼吸活動(例えば呼吸の速さ、深さ、換気量など)等を検出するが、これらの情報からシステムコントローラ10は、ユーザが緊張状態や興奮状態にあること、或いは感情的に穏やかな状態にあること、或いは快適な状態か不快な状態にあることなどを判定できる。
また表示装置1をユーザが装着したことの検知も、生体情報により可能である。例えばシステムコントローラ10は、ユーザが表示装置1を装着していない時には生体情報検知のみをおこなうスタンバイ状態に制御し、生体情報によりユーザが表示装置1を装着したことを検知したら、電源オン状態とすることや、逆にユーザが表示装置1の装着を外したらスタンバイ状態に戻すなどの制御も可能である。
さらに生体センサによる検出情報は、ユーザの個人認証(装着者個人の識別)にも利用できる。
なお生体センサは、例えば眼鏡型の表示装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部において、上記情報を検知できるようにしてもよいし、表示装置1の装着フレーム部分とは別体として、身体の所定箇所に装着されるようにしてもよい。
The biometric sensor is, for example, heartbeat information (heart rate), pulse information (pulse rate), sweating information, brain wave information (for example, information on α wave, β wave, θ wave, and δ wave) or electrodermal reaction as user's biological information. , Body temperature, blood pressure, respiratory activity (for example, breathing speed, depth, ventilation volume, etc.), etc. are detected. From these information, the system controller 10 determines that the user is in a tense state, an excited state, or emotional. It is possible to determine whether the user is in a calm state or in a comfortable or uncomfortable state.
Further, it is possible to detect that the user wears the display device 1 based on the biological information. For example, the system controller 10 controls the standby state in which only the biometric information is detected when the user is not wearing the display device 1, and sets the power-on state when it is detected that the user wears the display device 1 based on the biometric information. Conversely, control such as returning to the standby state when the user removes the display device 1 is also possible.
Furthermore, the detection information by the biosensor can also be used for user personal authentication (identification of the individual wearer).
For example, the biometric sensor may be arranged inside the wearing frame of the glasses-type display device 1 so that the above information can be detected, for example, in the user's temporal region or occipital region. You may make it mount | wear with the predetermined location of a body as a different body from a part.

次に外界の状況を検知する場合においては、表示装置1は、外界情報を取得するための構成として、動作トリガ情報発生部16に周囲環境センサ、撮像対象センサ、GPS受信部、日時計数部、画像解析部を設けたり、通信部26を利用する。   Next, in the case of detecting the situation of the outside world, the display device 1 includes, as a configuration for acquiring outside world information, an operation environment information sensor, an imaging target sensor, a GPS receiving unit, a date and time counting unit as an operation trigger information generating unit 16. An image analysis unit is provided or the communication unit 26 is used.

周囲環境センサとしては、照度センサ、温度センサ、湿度センサ、気圧センサ等が想定される。
照度センサによっては、表示装置1の周囲の明るさの情報を検出できる。
また温度センサ、湿度センサ、気圧センサによっては、温度、湿度、気圧或いは天候を判別する情報を得ることができる。
これらの周囲環境センサにより、表示装置1は周囲の明るさや戸外の場合の気象状況などを判定できるため、システムコントローラ10は、これらを外界情報として用いて、周囲の明るさや気象状況に適した表示画像信号の生成動作を実行制御できる。例えば周囲の明るさに応じて画像の輝度レベルを上下させたり、天候状況に応じて画像の雰囲気を変えるなどである。
As the ambient environment sensor, an illuminance sensor, a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
Depending on the illuminance sensor, it is possible to detect the brightness information around the display device 1.
Depending on the temperature sensor, the humidity sensor, and the atmospheric pressure sensor, information for determining the temperature, humidity, atmospheric pressure, or weather can be obtained.
These ambient environment sensors allow the display device 1 to determine ambient brightness, weather conditions in the outdoors, and the like. Therefore, the system controller 10 uses these as external information and displays suitable for ambient brightness and weather conditions. The image signal generation operation can be controlled. For example, the brightness level of the image is raised or lowered according to the ambient brightness, or the atmosphere of the image is changed according to the weather conditions.

撮像対象センサは撮像対象についての情報を検知する。例えば測距センサや焦電センサなどが考えられるが、撮像対象との距離や、撮像対象自体を判定する情報を得ることができる。
撮像対象までの距離を検出することで、システムコントローラ10は、距離に応じた撮像動作、表示動作を実行制御できる。また撮像対象が人などの生体であることを検知することで、撮像対象に応じた表示画像信号の生成動作を実行制御できる。
The imaging target sensor detects information about the imaging target. For example, a distance measuring sensor, a pyroelectric sensor, or the like can be considered, and information for determining the distance to the imaging target or the imaging target itself can be obtained.
By detecting the distance to the imaging target, the system controller 10 can execute and control the imaging operation and the display operation according to the distance. Further, by detecting that the imaging target is a living body such as a person, it is possible to execute and control a display image signal generation operation corresponding to the imaging target.

GPS受信部は、現在位置としての緯度・経度の情報を取得する。緯度・経度を検出した場合、地図データベース等を参照することで、現在位置における地点(地点近辺)の情報を得ることができる。例えばシステムコントローラ10が参照できる記録媒体として、例えばHDD(Hard Disk Drive)やフラッシュメモリなどであって比較的大容量の記録媒体を搭載し、これらの記録媒体に地図データベースを記憶させることで、現在位置に関連する情報を取得できる。
また通信部26を有する構成の場合、表示装置1に地図データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや地図データベース内蔵機器にアクセスし、緯度・経度を送信して現在位置に応じた情報を要求し、情報を受信するようにしてもよい。
現在位置に関連する情報としては、現在位置近辺の地名、建造物名、施設名、店名、駅名などの名称情報がある。
また現在位置に関連する情報としては、公園、テーマパーク、コンサートホール、劇場、映画館、スポーツ施設など、建造物の種別を示す情報もある。
また現在位置に関連する情報としては、海岸、海上、河川、山間部、山頂部、森林、湖、平野部など、自然物の種別や名称の情報もある。
また、より詳細な位置についての情報として、例えばテーマパーク内でのエリアや、野球場、サッカー場などでの観戦席のエリア、コンサートホールでの座席のエリアの情報なども現在位置についての情報として取得することができる。
これら、現在位置に関する情報を取得することで、システムコントローラ10は、現在位置や現在地点の近辺の地理的条件や施設などに応じた表示画像信号の生成動作を実行制御したり、特定の場所において表示開始制御或いは表示終了制御を行うなどが可能となる。
The GPS receiver acquires latitude / longitude information as the current position. When the latitude / longitude is detected, it is possible to obtain information on a point (near the point) at the current position by referring to a map database or the like. For example, as a recording medium that can be referred to by the system controller 10, for example, a relatively large capacity recording medium such as an HDD (Hard Disk Drive) or a flash memory is mounted, and a map database is stored in these recording media. Information related to the position can be acquired.
In the case of the configuration having the communication unit 26, even if the display device 1 does not have a built-in map database, for example, a network server or a map database built-in device is accessed via the communication unit 26, and the latitude and longitude are transmitted. Information according to the position may be requested and information may be received.
Information related to the current position includes name information such as a place name, a building name, a facility name, a shop name, and a station name near the current position.
Information related to the current position includes information indicating the type of building such as a park, a theme park, a concert hall, a theater, a movie theater, and a sports facility.
Information relating to the current position includes information on the types and names of natural objects such as coasts, seas, rivers, mountains, mountain peaks, forests, lakes, and plains.
In addition, as information about the current position, for example, information on the location in the theme park, the area of the spectator seat in the baseball stadium, the soccer field, the information on the seat area in the concert hall, etc. Can be acquired.
By acquiring the information on the current position, the system controller 10 controls the execution of the display image signal generation operation according to the current position, the geographical conditions in the vicinity of the current point, the facility, etc., or at a specific location. It is possible to perform display start control or display end control.

日時計数部は例えば年月日時分秒を計数する。この日時計数部によってシステムコントローラ10は、現在時刻、昼夜の別、月、季節などを認識できる。このため、例えば昼夜の別(時刻)に応じた表示画像信号の生成動作や、現在の季節に適した表示画像信号の生成動作などを実行制御できる。   The date / time counting unit counts year / month / day / hour / minute / second, for example. By this date and time counting unit, the system controller 10 can recognize the current time, day / night distinction, month, season, and the like. For this reason, for example, it is possible to execute and control a display image signal generation operation according to day and night (time), a display image signal generation operation suitable for the current season, and the like.

撮像画像を解析する画像解析部を設ければ、撮像画像から撮像対象についての以下のような各種の情報を検出できる。
まず撮像対象の種別として、撮像画像に含まれている人物、動物、自然物、建造物、機器などを判別できる。例えば動物としては、被写体として鳥が撮像されている状況や猫が撮像されている状況等を判別できる。また自然物としては、海、山、樹木、河川、湖、空、太陽、月などを判別できる。建造物としては、家屋、ビル、競技場などを判別できる。機器としては、パーソナルコンピュータ、AV(Audio-Visual)機器、携帯電話機、PDA、ICカード、二次元バーコードなどが撮像対象となっている状況を判別できる。
これら撮像対象の種別は、予め各種別の形状の特徴を設定しておき、撮像画像内に、形状が該当する被写体が含まれているか否かにより判別可能である。
また画像解析部による画像解析によれば、画像の前後フレームの差分検出などの手法で、被写体の動きの検出、例えば素早い動きが画像内も可能である。例えばスポーツ観戦で選手を撮像している際や、走行している自動車等を撮像している場合などに、動きの素早い被写体を撮像しているという状況を検知することができる。
また画像解析部による画像解析によれば、周囲の状況を判定することも可能である。例えば昼夜や天候による明るさの状況を判定できるし、雨の強さなども認識可能である。
If an image analysis unit for analyzing a captured image is provided, the following various types of information about the imaging target can be detected from the captured image.
First, a person, animal, natural object, building, device, or the like included in the captured image can be identified as the type of the imaging target. For example, as an animal, it is possible to determine a situation where a bird is imaged as a subject, a situation where a cat is imaged, and the like. As natural objects, the sea, mountains, trees, rivers, lakes, sky, sun, moon, etc. can be distinguished. As buildings, houses, buildings, and stadiums can be identified. As a device, it is possible to determine a situation in which a personal computer, an AV (Audio-Visual) device, a mobile phone, a PDA, an IC card, a two-dimensional barcode, or the like is an imaging target.
These types of imaging targets can be determined by setting characteristics of various shapes in advance and determining whether or not a subject corresponding to the shape is included in the captured image.
Further, according to the image analysis by the image analysis unit, it is possible to detect the movement of the subject, for example, a quick movement within the image by a method such as detection of a difference between frames before and after the image. For example, it is possible to detect a situation in which a fast-moving subject is being imaged, for example, when a player is imaged during a sporting event or when a moving automobile is being imaged.
Moreover, according to the image analysis by the image analysis unit, it is possible to determine the surrounding situation. For example, it is possible to determine the brightness situation due to day and night or weather, and it is also possible to recognize the intensity of rain.

また、画像解析部による画像解析によれば、人物が被写体となっている場合に、その人物の顔から人物個人を特定する判別も可能である。既に知られているように、人物の顔は、顔の構成要素の相対位置情報として個人特徴データ化することができる。例えば目の中心と鼻との距離ENと目の間隔の距離Edの比(Ed/EN)や、目の中心と口との距離EMと目の間隔の距離Edの比(Ed/EM)は、個人毎に特有となるとともに、髪型や眼鏡等の装着物などによる、外観上の変化の影響を受けない情報である。さらに加齢によっても変化しないことが知られている。
従って、画像解析部は、撮像画像内に或る人物の顔が含まれているときに、その画像を解析すれば上記のような個人特徴データを検出することができる。
撮像画像から個人特徴データを検出した場合、例えばシステムコントローラ10が参照できる記録媒体として、例えばHDD(Hard Disk Drive)やフラッシュメモリなどを搭載し、これらの記録媒体に人物データベースを記憶させておけば、被写体となっている個人の情報を取得できる。或いは、表示装置1に人物データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや人物データベース内蔵機器にアクセスし、個人特徴データを送信して情報を要求し、特定の人物の情報を受信するようにしてもよい。
例えばユーザ自身が、過去に出会った人物の氏名や所属などの人物情報を個人特徴データとともに人物データベースに登録しておけば、或る人物に出会ったとき(撮像されたとき)に、システムコントローラ10は、その人物の情報を検索できる。
また、有名人の情報を個人特徴データとともに登録した人物データベースが用意されていれば、ユーザが有名人に出会ったときに、その人物の情報を検索できる。
Further, according to the image analysis by the image analysis unit, when a person is a subject, it is also possible to identify the person from the person's face. As already known, a person's face can be converted into personal feature data as relative position information of the constituent elements of the face. For example, the ratio between the distance EN between the center of the eye and the nose and the distance Ed between the eyes (Ed / EN) and the ratio between the distance EM between the center of the eye and the mouth and the distance Ed between the eyes (Ed / EM) This information is unique to each individual and is not affected by changes in appearance due to an attachment such as a hairstyle or glasses. Furthermore, it is known that it does not change with aging.
Therefore, the image analysis unit can detect the personal feature data as described above by analyzing the image when a certain person's face is included in the captured image.
When personal feature data is detected from a captured image, for example, an HDD (Hard Disk Drive), a flash memory, or the like is installed as a recording medium that can be referred to by the system controller 10, and a person database is stored in these recording media. , Information about the individual who is the subject can be acquired. Alternatively, even if the display device 1 does not have a built-in person database, for example, a network server or a person database built-in device is accessed via the communication unit 26, and personal characteristic data is transmitted to request information. Information may be received.
For example, if the user himself / herself registers personal information such as the name and affiliation of a person who has met in the past in the person database together with the personal characteristic data, the system controller 10 can be used when a certain person is met (when captured). Can search for the person's information.
Further, if a person database in which celebrity information is registered together with personal characteristic data is prepared, information on the person can be retrieved when the user meets the celebrity.

このような画像解析部による検出情報に基づいて、システムコントローラ10は撮像対象に応じた表示画像信号の生成処理を実行制御できる。例えば特定の対象や特定の人物が撮像されている場合は、その特定の対象をハイライト表示させるような表示画像信号を生成することなどが考えられる。   Based on the detection information by such an image analysis unit, the system controller 10 can execute and control display image signal generation processing corresponding to the imaging target. For example, when a specific target or a specific person is imaged, a display image signal that highlights the specific target may be generated.

通信部26によれば、外界情報として、多様な情報を取得できる。
例えば上述したように表示装置1から送信した緯度・経度、或いは個人特徴データなどに応じて外部機器で検索された情報を取得できる。
また外部機器から天候情報、気温情報、湿度情報など気象に関する情報を取得することができる。
また外部機器から施設の利用情報、施設内での撮像禁止/許可情報、案内情報などを取得することができる。
また外部機器自体の識別情報を取得することができる。例えば所定の通信プロトコルにおいてネットワークデバイスとして識別される機器の種別や機器ID等である。
また外部機器に格納されている画像データ、外部機器で再生或いは表示している画像データ、外部機器で受信している画像データなどを取得することができる。
このような通信部26で取得できる情報に基づいて、システムコントローラ10は表示画像信号の生成処理を実行制御できる。
According to the communication part 26, various information can be acquired as external information.
For example, as described above, information searched by an external device can be acquired according to latitude / longitude transmitted from the display device 1 or personal characteristic data.
In addition, weather information such as weather information, temperature information, and humidity information can be acquired from an external device.
In addition, facility usage information, in-facility imaging prohibition / permission information, guidance information, and the like can be acquired from an external device.
Further, identification information of the external device itself can be acquired. For example, the device type or device ID identified as a network device in a predetermined communication protocol.
Further, image data stored in the external device, image data reproduced or displayed on the external device, image data received on the external device, and the like can be acquired.
Based on such information that can be acquired by the communication unit 26, the system controller 10 can execute and control display image signal generation processing.

以上の例のような構成要素を動作トリガ情報発生部16として設け、ユーザの状況や外界の状況を検知し、それら状況に応じた表示開始/終了や、表示切換(表示内容の変更や領域形態の切換)を行うようにすることで、ユーザが操作しなくとも、適切或いはおもしろみのある表示動作が実現される。
また、ユーザの状況や外界の状況を検出するための構成例は他にも考えられる。
The constituent elements as in the above example are provided as the operation trigger information generation unit 16 to detect the user's situation and the external environment, and display start / end according to those situations, display switching (change of display contents and area form) Switching), an appropriate or interesting display operation can be realized without the user's operation.
In addition, other configuration examples for detecting the user's situation and the outside world situation are conceivable.

[6.実施の形態の効果、変形例及び拡張例]

以上、実施の形態を説明してきたが、実施の形態によれば、表示部2の画面領域の一部をスルー状態としたうえで表示画像信号による表示を実行させることで、ユーザはスルー状態の領域により通常の視覚光景が見える状態のまま、通常に視認する視覚光景とは異なる光景の画像を見ることができる。例えばスルー状態の領域により前方を見ながら、表示画像信号の表示により、望遠画像、拡大画像、特殊撮像画像、後方の光景の画像などを見ることができる。このため通常の視覚光景と同時に、通常の視覚では見ることのできない光景を見る状態となり、擬似的にユーザの視覚能力を拡張させる状況を作り出すことができる。
また表示部2は、少なくとも画面領域の一部はスルー状態であるため、装着状態のままでも通常の生活に支障がないようにできる。このためユーザの通常の生活の中で、表示装置1の利点を有効に得ることができる。
[6. Effect, modification and extension of embodiment]

As described above, the embodiment has been described. According to the embodiment, a part of the screen area of the display unit 2 is set to the through state, and the display by the display image signal is executed, so that the user is in the through state. While the normal visual scene can be seen depending on the area, it is possible to see an image of a scene different from the visual scene normally viewed. For example, a telephoto image, an enlarged image, a special captured image, an image of a rear scene, and the like can be viewed by displaying the display image signal while looking forward in the through state region. Therefore, at the same time as the normal visual scene, a scene that cannot be viewed with normal vision is seen, and a situation in which the visual ability of the user is expanded in a pseudo manner can be created.
In addition, since at least a part of the screen area is in the through state, the display unit 2 can prevent a normal life from being disturbed even when the display unit 2 is in the mounted state. For this reason, the advantage of the display apparatus 1 can be acquired effectively in a user's normal life.

表示装置1の外観や構成は図1,図2、図4,図5,図6の例に限定されるものではなく、各種の変形例が考えられる。
例えば撮像部3で撮像した画像信号を記録媒体に記録するストレージ部を設けてもよい。
また撮像した画像信号を、通信部26から他の機器に送信する動作を行うようにしてもよい。
The appearance and configuration of the display device 1 are not limited to the examples of FIGS. 1, 2, 4, 5, and 6, and various modifications can be considered.
For example, a storage unit that records an image signal captured by the imaging unit 3 on a recording medium may be provided.
Moreover, you may make it perform the operation | movement which transmits the imaged image signal from the communication part 26 to another apparatus.

ストレージ部を設ける場合、ストレージ部で記録媒体から再生したの再生画像を表示画像信号として表示部2に表示させてもよい。
記録媒体から再生されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成して記録媒体に記録した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、記録媒体に記録されたゲームプログラムに基づくゲーム画像など、記録媒体に記録されて表示対象となるあらゆるデータが想定される。
When the storage unit is provided, a reproduced image reproduced from the recording medium in the storage unit may be displayed on the display unit 2 as a display image signal.
The data reproduced from the recording medium includes, for example, moving picture contents such as movies and video clips, still picture contents captured by a digital still camera or the like and recorded on the recording medium, data such as electronic books, and a user using a personal computer or the like. Computer-generated data such as image data, text data, spreadsheet data, etc. created and recorded on a recording medium, game data based on a game program recorded on a recording medium, etc. Is assumed.

また通信部26は、外部の撮像装置70からの画像信号を受信するだけでなく、外部のコンテンツソース機器から提供される画像(動画/静止画)を受信して表示部2に表示させるようにすることも考えられる。
コンテンツソース機器とは、例えばビデオ機器、テレビジョンチューナ、ホームサーバ機器等のAV(Audio-Visual)機器や、パーソナルコンピュータ、PDA(Personal Digital Assistant)、携帯電話機などの情報処理装置などが想定できる。このようなコンテンツソース機器も、表示装置1を用いるユーザ本人やその知人が所有する機器であったり、各種コンテンツ提供を行う公共或いはサービス企業等のサーバ機器であるなど多様に考えられる。
コンテンツソース機器から表示装置1に送信されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲーム画像など、表示対象となるあらゆるデータが想定される。
The communication unit 26 not only receives an image signal from the external imaging device 70 but also receives an image (moving image / still image) provided from an external content source device and displays the image on the display unit 2. It is also possible to do.
Examples of the content source device include an AV (Audio-Visual) device such as a video device, a television tuner, and a home server device, and an information processing device such as a personal computer, a PDA (Personal Digital Assistant), and a mobile phone. Such content source devices can be variously considered, such as devices owned by the user who uses the display device 1 or his / her acquaintance, or server devices of public or service companies that provide various contents.
Data transmitted from the content source device to the display device 1 includes, for example, moving image content such as movies and video clips, still image content captured by a digital still camera or the like and recorded on a recording medium, data such as an electronic book, user However, any data to be displayed such as image data created by a personal computer, text data, computer use data such as spreadsheet data, and game images are assumed.

また撮像時に周囲音声を集音するマイクロホンや、音声を出力するイヤホン型等のスピーカ部が設けられても良い。
また、画像内における文字を認識する文字認識部と、音声合成処理を行う音声合成部を設け、撮像画像に文字が含まれている場合に、音声合成部で、その読み上げ音声の音声信号を生成し、スピーカ部から出力させるようにすることも考えられる。
In addition, a microphone unit that collects ambient sounds during imaging or an earphone type speaker unit that outputs sounds may be provided.
In addition, a character recognition unit that recognizes characters in the image and a speech synthesis unit that performs speech synthesis processing are provided, and when the captured image contains characters, the speech synthesis unit generates a speech signal for the read-out speech However, it is also conceivable to output from the speaker unit.

また表示画像信号は静止画としても良い。例えば撮像部3で所定のトリガのタイミングを静止画撮像を行い、その撮像された静止画像を表示部2に表示させる。   The display image signal may be a still image. For example, the image capturing unit 3 captures a still image at a predetermined trigger timing, and displays the captured still image on the display unit 2.

また、表示装置1として眼鏡型或いは頭部装着型の装着ユニットを有する例を述べたが、本発明の表示装置は、ユーザの眼前で表示を行うことができるように構成されればよく、例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着されるような形態であってもよい。   Moreover, although the example which has a spectacles type or a head mounted type mounting unit was described as the display apparatus 1, the display apparatus of this invention should just be comprised so that a display can be performed in front of a user's eyes, for example, Any type of mounting unit such as a headphone type, a neckband type, and an ear-hanging type may be worn by the user. Furthermore, for example, it may be configured to be worn by the user by attaching to a normal eyeglass, visor, headphones, or the like with an attachment such as a clip.

1 表示装置、2 表示部、3 撮像部、4 照明部、10 システムコントローラ、11 撮像制御部、12 表示画像処理部、13 表示駆動部、14 表示制御部、15 撮像信号処理部、16 動作トリガ情報発生部、26 通信部   DESCRIPTION OF SYMBOLS 1 Display apparatus, 2 Display part, 3 Imaging part, 4 Illumination part, 10 System controller, 11 Imaging control part, 12 Display image processing part, 13 Display drive part, 14 Display control part, 15 Imaging signal processing part, 16 Operation trigger Information generator, 26 Communication unit

Claims (5)

使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段と、
外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信する通信手段と、
上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得る画像信号生成手段と、
上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行させる制御を行う制御手段と、
を備える表示装置。
Display means arranged to be positioned in front of the user's eyes and displaying an image, and the screen area for displaying the image can be in a transparent or translucent through state;
Communication means for communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device;
An image signal generating means for obtaining a display image signal as a sight different from a sight visually recognized by the user through the display means when the display means is in a through state based on information according to the position information;
Control means for controlling the display means to execute display by the display image signal generated by the image signal generation means after setting a part of the screen area to the through state;
A display device comprising:
上記画像信号生成手段は、
撮像部と、
上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する、
請求項1に記載の表示装置。
The image signal generating means includes
An imaging unit;
A signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit,
The display device according to claim 1.
上記画像信号生成手段は、上記信号処理部で処理された画像を用いて表示画像信号を得る、
請求項2に記載の表示装置。
The image signal generation means obtains a display image signal using the image processed by the signal processing unit.
The display device according to claim 2.
画像解析部を有し、
上記画像解析部は、上記撮像画像信号に含まれる人物の個人特徴データを検出し、
上記通信手段は、上記個人特徴データを外部の装置に送信して、上記外部の装置から上記個人特徴データに応じた情報を受信し、
上記画像信号生成手段は、上記個人特徴データに応じた情報に基づいて表示画像信号を生成する、
請求項2に記載の表示装置。
Has an image analysis unit,
The image analysis unit detects personal feature data of a person included in the captured image signal,
The communication means transmits the personal characteristic data to an external device, receives information corresponding to the personal characteristic data from the external device,
The image signal generating means generates a display image signal based on information corresponding to the personal feature data;
The display device according to claim 2.
使用者の目の前方に位置するように配置されて画像表示を行うとともに、画像表示を行う画面領域を透明もしくは半透明であるスルー状態とすることのできる表示手段を備えた表示装置の表示方法として、
外部の装置と通信をし、使用者の現在位置の位置情報を上記外部の装置に送信し、上記位置情報に応じた情報を上記外部の装置から受信するステップと、
上記位置情報に応じた情報に基づいて、上記表示手段をスルー状態としたときに使用者が上記表示手段を介して視認する光景とは異なる光景としての表示画像信号を得るステップと、
上記表示手段に対して、上記画面領域の一部を上記スルー状態としたうえで上記画像信号生成手段で生成された表示画像信号による表示を実行するステップと、
を備える表示方法。
Display method for a display device provided with display means arranged so as to be positioned in front of a user's eyes and capable of displaying a screen region in which the image display is made transparent or semi-transparent As
Communicating with an external device, transmitting position information of a user's current position to the external device, and receiving information according to the position information from the external device;
Obtaining a display image signal as a scene different from a scene visually recognized by the user through the display means when the display means is in a through state based on information according to the position information;
A step of executing display by the display image signal generated by the image signal generation unit after setting a part of the screen area to the through state with respect to the display unit;
A display method comprising:
JP2012262182A 2012-11-30 2012-11-30 Display unit and display method Pending JP2013083994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012262182A JP2013083994A (en) 2012-11-30 2012-11-30 Display unit and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262182A JP2013083994A (en) 2012-11-30 2012-11-30 Display unit and display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006281042A Division JP5228307B2 (en) 2006-10-16 2006-10-16 Display device and display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014193794A Division JP5971298B2 (en) 2014-09-24 2014-09-24 Display device and display method

Publications (1)

Publication Number Publication Date
JP2013083994A true JP2013083994A (en) 2013-05-09

Family

ID=48529159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262182A Pending JP2013083994A (en) 2012-11-30 2012-11-30 Display unit and display method

Country Status (1)

Country Link
JP (1) JP2013083994A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160006369A (en) * 2014-07-09 2016-01-19 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
KR20160022476A (en) * 2014-08-19 2016-03-02 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
JP2017049868A (en) * 2015-09-03 2017-03-09 株式会社東芝 Wearable terminal, method, and system
CN107147883A (en) * 2017-06-09 2017-09-08 中国科学院心理研究所 A kind of remote shooting system based on the dynamic control of head
US10051256B2 (en) 2016-08-26 2018-08-14 Olympus Corporation Image observation apparatus

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0226870U (en) * 1988-08-04 1990-02-21
JP2000284214A (en) * 1999-03-30 2000-10-13 Suzuki Motor Corp Device for controlling display means to be mounted on helmet
JP2001356836A (en) * 2000-06-16 2001-12-26 Toshiba Corp Computer system and method for controlling its screen protection and storage medium
JP2003216982A (en) * 2002-01-17 2003-07-31 Sony Corp Device and method for providing information, storage medium, and computer program
JP2005157317A (en) * 2003-10-28 2005-06-16 Semiconductor Energy Lab Co Ltd Display device and communication system
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2005173748A (en) * 2003-12-09 2005-06-30 Zenrin Co Ltd Specifying of imaging position of scene image using electronic map data
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006171302A (en) * 2004-12-15 2006-06-29 Konica Minolta Photo Imaging Inc Video display device and information providing system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0226870U (en) * 1988-08-04 1990-02-21
JP2000284214A (en) * 1999-03-30 2000-10-13 Suzuki Motor Corp Device for controlling display means to be mounted on helmet
JP2001356836A (en) * 2000-06-16 2001-12-26 Toshiba Corp Computer system and method for controlling its screen protection and storage medium
JP2003216982A (en) * 2002-01-17 2003-07-31 Sony Corp Device and method for providing information, storage medium, and computer program
JP2005157317A (en) * 2003-10-28 2005-06-16 Semiconductor Energy Lab Co Ltd Display device and communication system
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus
JP2005173748A (en) * 2003-12-09 2005-06-30 Zenrin Co Ltd Specifying of imaging position of scene image using electronic map data
JP2006165822A (en) * 2004-12-03 2006-06-22 Nikon Corp Electronic camera and program
JP2006171302A (en) * 2004-12-15 2006-06-29 Konica Minolta Photo Imaging Inc Video display device and information providing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160006369A (en) * 2014-07-09 2016-01-19 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
KR102236095B1 (en) 2014-07-09 2021-04-06 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
KR20160022476A (en) * 2014-08-19 2016-03-02 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
KR102269671B1 (en) 2014-08-19 2021-06-25 에스케이플래닛 주식회사 Seller glass, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
JP2017049868A (en) * 2015-09-03 2017-03-09 株式会社東芝 Wearable terminal, method, and system
US10051256B2 (en) 2016-08-26 2018-08-14 Olympus Corporation Image observation apparatus
CN107147883A (en) * 2017-06-09 2017-09-08 中国科学院心理研究所 A kind of remote shooting system based on the dynamic control of head

Similar Documents

Publication Publication Date Title
JP5228307B2 (en) Display device and display method
US9772686B2 (en) Imaging display apparatus and method
JP5119636B2 (en) Display device and display method
JP5162928B2 (en) Image processing apparatus, image processing method, and image processing system
JP6137113B2 (en) Display device, display method, and program
JP5664677B2 (en) Imaging display device and imaging display method
JP2008083289A (en) Imaging display apparatus, and imaging display method
JP2013174898A (en) Imaging display device, and imaging display method
JP2013083994A (en) Display unit and display method
JP5971298B2 (en) Display device and display method
JP2013034237A (en) Image processor, image processing method and image processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140924

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141002

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20141219