JP2013110764A - Imaging display device, and imaging display method - Google Patents

Imaging display device, and imaging display method Download PDF

Info

Publication number
JP2013110764A
JP2013110764A JP2013029778A JP2013029778A JP2013110764A JP 2013110764 A JP2013110764 A JP 2013110764A JP 2013029778 A JP2013029778 A JP 2013029778A JP 2013029778 A JP2013029778 A JP 2013029778A JP 2013110764 A JP2013110764 A JP 2013110764A
Authority
JP
Japan
Prior art keywords
imaging
display
image
image signal
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013029778A
Other languages
Japanese (ja)
Other versions
JP5664677B2 (en
Inventor
Yoichiro Sako
曜一郎 佐古
Masaaki Tsuruta
雅明 鶴田
Daiji Ito
大二 伊藤
Masamichi Asukai
正道 飛鳥井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013029778A priority Critical patent/JP5664677B2/en
Publication of JP2013110764A publication Critical patent/JP2013110764A/en
Application granted granted Critical
Publication of JP5664677B2 publication Critical patent/JP5664677B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To expand visual capability of a user and to provide various images.SOLUTION: When a user wears an eyeglass-type or head-mounted mounting unit or the like equipped with an imaging display device, an imaging unit comes into a state of imaging the scene of the visual field direction of the user. The imaging display device supplies an image imaged by the imaging unit, that is a display image signal for the scene of the visual field direction of the user obtained by first image signal generation means (C1), to display means to display. At the time, the imaging display device simultaneously displays a different image by the display image signal generated by a second image signal generation means (C2). For example, the imaging display device simultaneously displays a plurality of the images in a form of a divided screen or a master/slave screen.

Description

本発明は、使用者の視界方向を被写体方向とする撮像部によって撮像された画像を表示することのできる撮像表示装置と撮像表示方法に関する。   The present invention relates to an image pickup display device and an image pickup display method capable of displaying an image picked up by an image pickup unit having a user's visual field direction as a subject direction.

特開平8−126031号公報JP-A-8-126031 特開平9−27970号公報JP-A-9-27970 特開平9−185009号公報Japanese Patent Laid-Open No. 9-185009 特開2005−172851号公報JP 2005-172851 A

例えば上記各特許文献1、2、3のように、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザの目の直前に表示部を配置して表示を行う装置が、各種提案されている。
また上記特許文献4のように、眼鏡型もしくは頭部装着型の装着ユニットに小型のカメラを取り付け、ユーザの視界方向の光景を撮像できるようにした装置が提案されている。
For example, as in Patent Documents 1, 2, and 3, various devices have been proposed in which a display unit is placed in front of the user's eyes and displayed by a spectacle-type or head-mounted type mounting unit.
Further, as in Patent Document 4, a device has been proposed in which a small camera is attached to a spectacle-type or head-mounted type mounting unit so that a scene in the direction of the user's field of view can be captured.

しかしながら従来の装置では、ユーザの視界方向の光景を含め、多様な画像をユーザに提供できる装置は開発されていない。
そこで本発明では、ユーザの視界方向の光景を含め、多様な画像をユーザに対して表示し、ユーザの視覚能力を拡張したり、ユーザに有用性や楽しさを提供できるようにすることを目的とする。
However, no conventional device has been developed that can provide a variety of images to the user, including a view in the user's field of view.
In view of the above, an object of the present invention is to display various images including a view in the direction of the user's field of view to the user so as to extend the user's visual ability and provide the user with usefulness and fun. And

本発明の撮像表示装置は、画像表示を行う表示手段と、外部機器から画像信号を受信する通信手段と、画像信号が記録されているストレージ手段と、使用者の視界方向を被写体方向とする撮像部によって撮像された撮像画像信号を元として表示画像信号を生成する第1の画像信号生成手段と、上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を上記通信手段から受信した画像信号または上記ストレージ手段に記録されている画像信号から生成する第2の画像信号生成手段と、上記表示手段において、上記第1、第2の画像信号生成手段で生成された複数の表示画像信号による画像表示を同時に実行させる制御を行う制御手段とを備える。 An imaging display device according to the present invention includes a display unit that displays an image, a communication unit that receives an image signal from an external device, a storage unit that stores the image signal, and an imaging that uses the user's field of view as the subject direction. a first image signal generating means for generating a display image signal as the basis of the captured image signal captured by the section, the communication a display image signal of the image different from the image of the display image signal generated by the first image signal generation means A second image signal generating means for generating from an image signal received from the means or an image signal recorded in the storage means; and a plurality of the image signals generated by the first and second image signal generating means in the display means. Control means for performing control to simultaneously execute image display using the display image signal.

また上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を行う構造とされる。
或いは上記表示手段は、上記第1の画像信号生成手段を備えた筐体とは別筐体で形成されている。
また上記第1の画像信号生成手段は、上記撮像部と、上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する。
また上記撮像部は、撮像素子としてCCDセンサもしくはCMOSセンサを用いて構成されている。
Further, the display means is arranged so as to be positioned in front of the user's eyes to display an image.
Alternatively, the display means is formed by a separate housing from the housing provided with the first image signal generating means.
The first image signal generation means includes the imaging unit and a signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit.
The imaging unit is configured using a CCD sensor or a CMOS sensor as an imaging element.

上記第2の画像信号生成手段は、撮像部によって撮像された撮像画像信号を元として上記表示手段に供給する表示画像信号を生成する。
またこの場合、上記第2の画像信号生成手段は、上記撮像部と、上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部とを有する。
また上記撮像部は、使用者の視界方向を被写体方向とする撮像部である。
或いは上記撮像部は、使用者の視界方向とは異なる方向を被写体方向とする撮像部である。
また上記撮像部は、被写体方向が可変とされた撮像部である。
また上記撮像部は、撮像素子としてCCDセンサもしくはCMOSセンサを用いて構成されている。
また上記第2の画像信号生成手段は、上記撮像部における撮像レンズ系の動作制御により、上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を生成する。
また上記第2の画像信号生成手段は、上記信号処理部における信号処理により、上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を生成する。
The second image signal generation unit generates a display image signal to be supplied to the display unit based on the captured image signal captured by the imaging unit.
In this case, the second image signal generation unit includes the imaging unit and a signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit.
In addition, the imaging unit is an imaging unit having a user's field of view direction as a subject direction.
Alternatively, the imaging unit is an imaging unit having a direction different from the user's view direction as the subject direction.
The imaging unit is an imaging unit whose subject direction is variable.
The imaging unit is configured using a CCD sensor or a CMOS sensor as an imaging element.
The second image signal generation unit generates a display image signal that is an image different from the display image signal by the first image signal generation unit by controlling the operation of the imaging lens system in the imaging unit.
The second image signal generation unit generates a display image signal that is an image different from the display image signal by the first image signal generation unit, by signal processing in the signal processing unit.

また上記第2の画像信号生成手段は、外部機器から画像信号を受信する受信部を有し、上記受信部で受信した画像信号を元として、上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を生成する。
また上記第2の画像信号生成手段は、記録媒体から画像信号を再生する再生部を有し、上記再生部で再生した画像信号を元として、上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を生成する。
In addition, the second image signal generation unit includes a reception unit that receives an image signal from an external device. Based on the image signal received by the reception unit, the display image signal generated by the first image signal generation unit and Generates a display image signal to be a different image.
The second image signal generation means has a reproduction section for reproducing an image signal from a recording medium, and based on the image signal reproduced by the reproduction section, the display image signal by the first image signal generation means and Generates a display image signal to be a different image.

また上記表示手段において、画面領域内で親画面領域と子画面領域が設定されて、親画面領域と子画面領域の一方で、上記第1の画像信号生成手段からの表示画像信号による画像表示が行われ、他方で上記第2の画像信号生成手段からの表示画像信号による画像表示が行われる。
また上記表示手段において、画面領域が分割され、分割された各領域の一方で、上記第1の画像信号生成手段からの表示画像信号による画像表示が行われ、他方で上記第2の画像信号生成手段からの表示画像信号による画像表示が行われる。
In the display means, a parent screen area and a child screen area are set in the screen area, and one of the parent screen area and the child screen area displays an image by the display image signal from the first image signal generation means. On the other hand, image display is performed using the display image signal from the second image signal generating means.
In the display means, the screen area is divided, one of the divided areas is displayed by the display image signal from the first image signal generation means, and the other is the second image signal generation. An image is displayed by a display image signal from the means.

上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、近景撮像又は遠景撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、望遠撮像又は広角撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、拡大処理又は縮小処理により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、撮像感度を上昇又は低下させた撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、赤外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、紫外線撮像感度を上昇させた撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、使用者の視界方向を被写体方向とした撮像により得られた画像信号である。
また上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、使用者の視界方向とは異なる方向を被写体方向とした撮像により得られた画像信号である。
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by foreground imaging or far-field imaging.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by telephoto imaging or wide-angle imaging.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by an enlargement process or a reduction process.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with increased or decreased imaging sensitivity.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with increased infrared imaging sensitivity.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with increased ultraviolet imaging sensitivity.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with the user's visual field direction as the subject direction.
One of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with a direction different from the user's view direction as the subject direction.

本発明の撮像表示方法は、画像表示を行う表示手段と、ストレージ手段と、通信手段と、撮像部とを有する撮像表示装置の撮像表示方法であり、外部機器から画像信号を上記通信手段により受信するステップと、使用者の視界方向を被写体方向とする上記撮像部によって撮像された撮像画像信号を元として表示画像信号を生成する第1の画像信号生成ステップと、上記第1の画像信号生成ステップによる表示画像信号とは異なる画像となる表示画像信号を上記通信手段から受信した画像信号または上記ストレージ手段に記録されている画像信号から生成する第2の画像信号生成ステップと、上記第1、第2の画像信号生成ステップで生成された複数の表示画像信号による画像表示を同時に実行させる表示ステップとを備える。 The imaging display method of the present invention is an imaging display method of an imaging display device having display means for displaying an image, storage means, communication means, and an imaging unit, and receives an image signal from an external device by the communication means. steps and, a first image signal generating step of generating a display image signal to the viewing direction of the user as the basis of the captured image signal captured by the imaging unit to the object direction, the first image signal generation step of A second image signal generating step for generating a display image signal that is an image different from the display image signal by the image signal received from the communication means or the image signal recorded in the storage means ; A display step of simultaneously executing image display using a plurality of display image signals generated in the second image signal generation step.

以上の本発明では、使用者(ユーザ)は、例えば眼鏡型もしくは頭部装着型の装着ユニットなどにより本発明の撮像表示装置を装着することで、撮像部がユーザの視界方向の光景を撮像する状態となる。そして撮像部で撮像された画像、即ち第1の画像信号生成手段で得られたユーザの視界方向の光景となる表示画像信号を表示手段に供給して表示させるが、そのときに、同時に第2の画像信号生成手段で生成された表示画像信号も表示させる。例えば画面分割や親子画面などの形態で同時に複数の画像を表示させればよい。
第2の画像信号生成手段で生成される表示画像信号は、第1の画像信号生成手段による表示画像信号とは異なる画像である。異なる画像とは、別方向の撮像画像、同方向の撮像画像であるがズーミング、焦点位置、感度、信号処理の違いなどによって異なるものとなる画像、他の機器から受信した画像、記録媒体から再生した画像など、多様に考えられる。
そして、第1の画像信号生成手段で得られる表示画像信号により通常の視界光景を表示すると同時に、第2の画像信号生成手段で生成された表示画像信号により通常の視覚では見ることのできない画像を表示することで、ユーザの視覚能力を拡張させたり、おもしろみのある表示を提供する。
なお、第1、第2の画像信号生成手段は、表示する表示画像信号のソースとなるが、第1、第2という表記は、画像信号生成手段が2つであると限定する意味ではなく、画像信号生成手段を3つ以上を備えることを本発明は妨げるものではない。
In the present invention described above, the user (user) wears the imaging display device of the present invention using, for example, a spectacle-type or head-mounted mounting unit, so that the imaging unit captures a scene in the user's field of view. It becomes a state. Then, an image picked up by the image pickup unit, that is, a display image signal obtained by the first image signal generating means and serving as a sight in the user's field of view is supplied to the display means for display. The display image signal generated by the image signal generation means is also displayed. For example, a plurality of images may be displayed simultaneously in the form of screen division, parent / child screen, or the like.
The display image signal generated by the second image signal generation unit is an image different from the display image signal by the first image signal generation unit. Different images are images taken in different directions, images taken in the same direction, but differ due to differences in zooming, focus position, sensitivity, signal processing, etc., images received from other devices, and playback from recording media Various images can be considered.
Then, the normal view scene is displayed by the display image signal obtained by the first image signal generation means, and at the same time, an image that cannot be seen by normal vision by the display image signal generated by the second image signal generation means. By displaying, the visual ability of the user is expanded or an interesting display is provided.
The first and second image signal generating means are sources of the display image signal to be displayed. However, the notation of first and second does not mean that there are two image signal generating means. The present invention does not prevent the provision of three or more image signal generating means.

本発明によれば、表示手段において第1の画像信号生成手段で得られる表示画像信号により視界光景の画像を表示すると同時に、第2の画像信号生成手段で生成された表示画像信号により通常の視覚では見ることのできない画像を表示することで、ユーザの視覚能力を拡張したり、有用或いはおもしろみのある表示を提供できる。   According to the present invention, in the display means, the image of the view scene is displayed by the display image signal obtained by the first image signal generation means, and at the same time, the normal image is displayed by the display image signal generated by the second image signal generation means. By displaying an image that cannot be seen, the user's visual ability can be expanded and a useful or interesting display can be provided.

本発明の実施の形態の撮像表示装置の外観例の説明図である。It is explanatory drawing of the example of an external appearance of the imaging display apparatus of embodiment of this invention. 実施の形態の撮像表示装置の他の外観例の説明図である。It is explanatory drawing of the other external appearance example of the imaging display apparatus of embodiment. 実施の形態の撮像表示装置のさらに他の外観例の説明図である。It is explanatory drawing of the further another external appearance example of the imaging display apparatus of embodiment. 実施の形態の撮像表示装置のブロック図である。It is a block diagram of the imaging display device of an embodiment. 実施の形態の撮像表示装置の他のブロック図である。It is another block diagram of the imaging display device of an embodiment. 実施の形態の撮像表示装置の外部機器との関係の説明図である。It is explanatory drawing of the relationship with the external apparatus of the imaging display apparatus of embodiment. 実施の形態の撮像表示装置の更に他のブロック図である。It is another block diagram of the imaging display apparatus of an embodiment. 実施の形態の撮像表示装置の更に他のブロック図である。It is another block diagram of the imaging display apparatus of an embodiment. 実施の形態の表示部の領域形態の説明図である。It is explanatory drawing of the area | region form of the display part of embodiment. 実施の形態の表示部の領域形態の説明図である。It is explanatory drawing of the area | region form of the display part of embodiment. 実施の形態の制御処理のフローチャートである。It is a flowchart of the control processing of an embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment. 実施の形態の画像表示状態の説明図である。It is explanatory drawing of the image display state of embodiment.

以下、本発明の撮像表示装置、撮像表示方法の実施の形態を、次の順序で説明する。
[1.撮像表示装置の外観例及び外部機器との関連]
[2.撮像表示装置の構成例]
[3.画面上の領域形態]
[4.表示動作例]
[5.動作トリガの例]
[6.実施の形態の効果、変形例及び拡張例]
Hereinafter, embodiments of the imaging display device and imaging display method of the present invention will be described in the following order.
[1. Appearance example of imaging display device and relationship with external equipment]
[2. Configuration example of imaging display device]
[3. Area form on screen]
[4. Display operation example]
[5. Example of operation trigger]
[6. Effect, modification and extension of embodiment]

[1.撮像表示装置の外観例及び外部機器との関連]

実施の形態として、図1(a)(b)に眼鏡型ディスプレイカメラとした撮像表示装置1の外観例を示す。撮像表示装置1は、例えば図1(b)のように両側頭部から後頭部にかけて半周回するようなフレームの構造の装着ユニットを持ち、図1(a)のように両耳殻にかけられることでユーザに装着される。
そしてこの撮像表示装置1は、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の表示部2、2が配置される構成とされている。この表示部2には、例えば液晶パネルが用いられる。なお、表示部2で画像表示を行わない期間は、液晶パネルにおける透過率を制御し、透明又は半透明のスルー状態とできるようにしてもよい。
[1. Appearance example of imaging display device and relationship with external equipment]

As an embodiment, an external appearance example of an imaging display device 1 as a glasses-type display camera is shown in FIGS. The imaging display device 1 has a mounting unit having a frame structure that makes a half turn from both heads to the back of the head as shown in FIG. Attached to the user.
In the mounted state, the imaging display device 1 is provided with a pair of display units 2 and 2 for the left eye and the right eye immediately before the user's eyes, that is, at a position where a lens in normal glasses is located. It is configured. For example, a liquid crystal panel is used for the display unit 2. It should be noted that, during a period in which no image is displayed on the display unit 2, the transmittance of the liquid crystal panel may be controlled so that a transparent or translucent through state can be achieved.

またユーザが装着した状態において、ユーザの前方方向に向けて2つの撮像レンズ3a、3aが配置されている。この場合、2つの撮像レンズ3a、3aは、共に撮像表示装置1を装着したユーザの視界方向(前方)が被写体方向となるように取り付けられている。
また撮像レンズ3a、3aによる撮像方向に対して照明を行う発光部4a、4aが設けられる。発光部4a、4aは例えばLED(Light Emitting Diode)により形成される。
図4で後述するが、撮像レンズ3a、3aはそれぞれが撮像機能部位(C1、C2)に含まれる撮像レンズである。そして撮像レンズ3a、3aから撮像された撮像画像信号は、それぞれが所定の処理を経て表示画像信号とされて表示部2に表示される。
In the state where the user is wearing, the two imaging lenses 3a and 3a are arranged in the forward direction of the user. In this case, the two imaging lenses 3a and 3a are both attached so that the field of view direction (front) of the user wearing the imaging display device 1 is the subject direction.
In addition, light emitting units 4a and 4a that illuminate the imaging direction of the imaging lenses 3a and 3a are provided. The light emitting units 4a and 4a are formed by, for example, LEDs (Light Emitting Diodes).
As will be described later with reference to FIG. 4, the imaging lenses 3a and 3a are imaging lenses included in the imaging functional parts (C1 and C2), respectively. The picked-up image signals picked up from the pick-up lenses 3a and 3a are each displayed on the display unit 2 as a display image signal through a predetermined process.

なお図1は一例であり、撮像表示装置1をユーザが装着するための構造は多様に考えられる。一般に眼鏡型、或いは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部2が設けられていればよい。また表示部2は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
また発光部4aを設けない構成も考えられる。
FIG. 1 is an example, and various structures for the user to wear the imaging display device 1 can be considered. In general, the display unit 2 may be formed of a spectacle-type or head-mounted type mounting unit, and at least as the present embodiment, the display unit 2 may be provided close to the front of the user's eyes. In addition, a pair of display units 2 may be provided corresponding to both eyes, or one display unit 2 may be provided corresponding to one eye.
A configuration in which the light emitting unit 4a is not provided is also conceivable.

また図1では撮像レンズ3a、3aがユーザの前方を被写体方向とするように取り付けられているが、2つの撮像レンズ3aが互いに異なる方向を被写体方向として撮像するように取り付けられていても良い。
図2(a)(b)に例を示す。図2(a)(b)の例では、前方を撮像する1つの撮像レンズ3a及び発光部4aが設けられると共に、後頭部側に位置することになるユニットにもう1つの撮像レンズ3a及び発光部4aが設けられている。つまりこの場合、2つの撮像レンズ3a、3aは、それぞれがユーザの視界方向と、ユーザの視界方向とは異なる方向(この場合、ユーザの後方)を撮像するものとされる。
In FIG. 1, the imaging lenses 3a and 3a are attached so that the front of the user is the subject direction. However, the two imaging lenses 3a may be attached so as to pick up images in different directions.
An example is shown in FIGS. In the example of FIGS. 2A and 2B, one imaging lens 3a and a light emitting unit 4a for imaging the front are provided, and another imaging lens 3a and the light emitting unit 4a are provided in a unit that is positioned on the back of the head. Is provided. That is, in this case, each of the two imaging lenses 3a and 3a captures a direction of the user's visual field and a direction different from the user's visual field direction (in this case, the rear of the user).

なお本実施の形態では、少なくとも1つの撮像レンズ3aがユーザの視界方向を撮像するものとされるが、他の撮像レンズ3aがユーザの視界方向とは異なる方向を撮像するように配置される場合、その被写体方向は、ユーザの後方に限られず、ユーザの上方、左側方、右側方、足下などを被写体方向とするように取り付けられていてもよい。
さらに、3つ以上の撮像レンズ3aを設け、それぞれが同一方向に向けられたり、異なる方向に向けられたりしてもよい。
In this embodiment, it is assumed that at least one imaging lens 3a captures the direction of the user's visual field, but the other imaging lens 3a is disposed so as to capture a direction different from the visual field of the user. The subject direction is not limited to the rear side of the user, and may be attached so that the upper direction, the left side, the right side, or the foot of the user is the subject direction.
Further, three or more imaging lenses 3a may be provided and each may be directed in the same direction or in different directions.

また、図1、図2の例では撮像レンズ3a、3aは固定的に取り付けられていることで撮像時の被写体方向は固定(ユーザの前方、又はユーザの後方)であるが、被写体方向を変化させることのできる可動機構を介して撮像レンズ3aを取り付けることで、手動又は自動で撮像時の被写体方向を変化させることができるようにしてもよい。
複数の撮像レンズ3aについては、全てが固定型、全てが可動型、一部が可動型等、多様な例が考えられる。
In the example of FIGS. 1 and 2, the imaging lenses 3a and 3a are fixedly attached so that the subject direction at the time of imaging is fixed (in front of the user or behind the user), but the subject direction is changed. By attaching the imaging lens 3a via a movable mechanism that can be moved, the subject direction during imaging may be changed manually or automatically.
Regarding the plurality of imaging lenses 3a, various examples such as all fixed types, all movable types, and some movable types can be considered.

ところで図1、図2の撮像表示装置1は、撮像のための構成部分と撮像した画像をモニタできる表示部2が一体に形成された例であるが、図3の撮像表示装置1のように表示部2が別体とされている例も考えられる。
図3の撮像表示装置1は、撮像装置部40と表示装置部30が別体で形成されている。
撮像装置部40は所定の装着フレームによりユーザの頭部に装着される。そして装着状態においてユーザの視界方向を被写体方向として撮像するように、前方に向けて撮像レンズ3aが配置されている。
また撮像レンズ3aによる撮像方向に対して照明を行う発光部4aが設けられる。発光部4aは例えばLEDにより形成される。
この場合、後述するが撮像装置部40の内部には撮像した画像データ等を、別体構成される表示装置部30に送信する通信部が設けられている。
1 and 2 is an example in which a component for imaging and a display unit 2 that can monitor a captured image are integrally formed. However, like the imaging display device 1 in FIG. An example in which the display unit 2 is a separate body is also conceivable.
In the imaging display device 1 of FIG. 3, the imaging device unit 40 and the display device unit 30 are formed separately.
The imaging device unit 40 is mounted on the user's head by a predetermined mounting frame. Then, the imaging lens 3a is arranged facing forward so that the user's visual field direction is taken as the subject direction in the mounted state.
Moreover, the light emission part 4a which performs illumination with respect to the imaging direction by the imaging lens 3a is provided. The light emitting part 4a is formed by, for example, an LED.
In this case, as will be described later, a communication unit that transmits captured image data and the like to the separately configured display device unit 30 is provided inside the imaging device unit 40.

表示装置部30は例えばユーザが携帯可能な小型軽量の機器とされる。
表示装置部30は内部に撮像装置部40との間のデータ通信を行う通信部が設けられており、撮像装置部40から供給される画像データについて表示画面31に表示させる動作を行う。
ユーザは、このように撮像装置部40と表示装置部30が別体とされた撮像表示装置1を用いることもできる。
The display device unit 30 is, for example, a small and lightweight device that can be carried by the user.
The display device unit 30 is provided with a communication unit that performs data communication with the imaging device unit 40 therein, and performs an operation of displaying image data supplied from the imaging device unit 40 on the display screen 31.
The user can also use the imaging display device 1 in which the imaging device unit 40 and the display device unit 30 are separated as described above.

[2.撮像表示装置の構成例]

図4〜図8により撮像表示装置1の内部構成例を説明していく。
まず図4は、上記図1、図2に対応した構成例であり、即ち2つの撮像機能部位を備えた構成例である。
システムコントローラ10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ部、インターフェース部を備えたマイクロコンピュータにより構成され、撮像表示装置1の全体を制御する制御部とされる。
このシステムコントローラ10は内部の動作プログラム及び動作トリガ情報発生部16からの動作トリガに基づいて、撮像表示装置1内の各部の制御を行い、表示部2において所要の画像表示を実行させる。
[2. Configuration example of imaging display device]

An example of the internal configuration of the imaging display device 1 will be described with reference to FIGS.
First, FIG. 4 is a configuration example corresponding to FIGS. 1 and 2 described above, that is, a configuration example including two imaging function parts.
The system controller 10 includes, for example, a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a nonvolatile memory unit, and an interface unit. It is a control unit for controlling.
The system controller 10 controls each part in the imaging display device 1 based on the internal operation program and the operation trigger from the operation trigger information generation unit 16, and causes the display unit 2 to execute a required image display.

撮像表示装置1内では、第1の撮像機能部位C1として、撮像部3、撮像制御部11、撮像信号処理部15が設けられる。
撮像機能部位C1における撮像部3は、図1又は図2に示した撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成する固体撮像素子アレイなどが設けられる。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイとされる。
図1、図2の例の場合は、この撮像機能部位C1の撮像部3によってユーザの前方の光景が撮像される。
In the imaging display device 1, an imaging unit 3, an imaging control unit 11, and an imaging signal processing unit 15 are provided as the first imaging functional part C1.
The imaging unit 3 in the imaging function part C1 includes a lens system including the imaging lens 3a illustrated in FIG. 1 or FIG. A driving system for performing the operation, a solid-state imaging device array that detects imaging light obtained by the lens system, and generates an imaging signal by performing photoelectric conversion are provided. The solid-state imaging device array is, for example, a CCD (Charge Coupled Device) sensor array or a CMOS (Complementary Metal Oxide Semiconductor) sensor array.
In the case of the example of FIGS. 1 and 2, a scene in front of the user is imaged by the imaging unit 3 of the imaging functional part C1.

撮像信号処理部15は、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。
また撮像信号処理部15は、いわゆるビデオプロセッサとしての機能も持つものとし、撮像信号に対して各種表示のための処理を実行できる部位とされる。
例えば撮像信号の輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また撮像信号処理部15は、撮像信号の一部を拡大した拡大画像の生成、或いは縮小画像の生成、モザイク画像/輝度反転画像/ソフトフォーカス/画像内の一部の強調表示/画像全体の色の雰囲気の可変などの画像エフェクト処理、キャラクタ画像やイメージ画像の生成及び生成した画像を撮像画像に合成する処理などを行うことができる。
つまり撮像信号処理部15は、撮像信号としてのデジタル映像信号に対しての各種処理を行うことができる。
The imaging signal processing unit 15 includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device of the imaging unit 3, and a video A / D converter. An imaging signal is obtained. The imaging signal processing unit 15 also performs white balance processing, luminance processing, color signal processing, blur correction processing, and the like on the imaging signal.
The imaging signal processing unit 15 also has a function as a so-called video processor, and is a part that can execute processing for various displays on the imaging signal.
For example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like of the imaging signal can be performed. Further, the imaging signal processing unit 15 generates an enlarged image obtained by enlarging a part of the imaging signal, or generates a reduced image, mosaic image / inverted luminance image / soft focus / partial display in image / color of the entire image. It is possible to perform image effect processing such as changing the atmosphere of a character, generation of a character image or image image, processing of combining the generated image with a captured image, and the like.
That is, the imaging signal processing unit 15 can perform various processes on the digital video signal as the imaging signal.

撮像制御部11は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作、つまり撮像機能部位C1による撮像動作を制御する。例えば撮像制御部11は、撮像部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズーム、焦点変更などの動作を実行させるための制御(モータ制御)を行うものとされる。
また、上述したように撮像レンズ3aによる被写体方向を可変できる可動機構が設けられている場合は、撮像制御部11はシステムコントローラ10の指示に基づいて、可動機構の動作を制御して撮像部3における撮像レンズ3aの方向を変化させる。
また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部11のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
さらに撮像制御部11は、システムコントローラ10の指示に基づいて、撮像信号処理部15の画像処理動作を制御する。即ち撮像信号処理部15に対して、上記の各種処理を実行させる。
The imaging control unit 11 controls the operations of the imaging unit 3 and the imaging signal processing unit 15, that is, the imaging operation by the imaging function part C1, based on an instruction from the system controller 10. For example, the imaging control unit 11 controls on / off of operations of the imaging unit 3 and the imaging signal processing unit 15. The imaging control unit 11 performs control (motor control) for causing the imaging unit 3 to perform operations such as auto focus, automatic exposure adjustment, aperture adjustment, zoom, and focus change.
Further, as described above, when the movable mechanism that can change the direction of the subject by the imaging lens 3 a is provided, the imaging control unit 11 controls the operation of the movable mechanism based on an instruction from the system controller 10 to capture the imaging unit 3. The direction of the imaging lens 3a is changed.
In addition, the imaging control unit 11 includes a timing generator. For the sample hold / AGC circuit and the video A / D converter of the solid-state imaging device and the imaging signal processing unit 11, a signal processing operation is performed by a timing signal generated by the timing generator. To control. In addition, the imaging frame rate can be variably controlled by this timing control.
Further, the imaging control unit 11 controls imaging sensitivity and signal processing in the solid-state imaging device and the imaging signal processing unit 15. For example, gain control of a signal read from a solid-state image sensor can be performed as imaging sensitivity control, black level setting control, various coefficient control of imaging signal processing in a digital data stage, correction amount control in blur correction processing, and the like can be performed. . As for imaging sensitivity, overall sensitivity adjustment that does not specifically consider the wavelength band, and sensitivity adjustment that adjusts the imaging sensitivity in a specific wavelength band such as the infrared region and the ultraviolet region (for example, imaging that cuts a specific wavelength band) Etc. are also possible. Sensitivity adjustment according to the wavelength can be performed by inserting a wavelength filter in the imaging lens system or wavelength filter calculation processing on the imaging signal. In these cases, the imaging control unit 11 can perform sensitivity control by insertion control of a wavelength filter, designation of a filter calculation coefficient, or the like.
Further, the imaging control unit 11 controls the image processing operation of the imaging signal processing unit 15 based on an instruction from the system controller 10. That is, the imaging signal processing unit 15 is caused to execute the various processes described above.

また撮像表示装置1内では、第2の撮像機能部位C2としての、撮像部3、撮像制御部11、撮像信号処理部15も設けられる。
撮像機能部位C2における撮像部3、撮像制御部11、撮像信号処理部15は、上記撮像機能部位C1における撮像部3、撮像制御部11、撮像信号処理部15と基本的に同様である。
撮像機能部位C2における撮像部3は、図1又は図2に示した、もう1つの撮像レンズ3aや、絞り、ズームレンズ、フォーカスレンズなどを備えて構成されるレンズ系や、レンズ系に対してフォーカス動作やズーム動作を行わせるための駆動系、さらにレンズ系で得られる撮像光を検出し、光電変換を行うことで撮像信号を生成するCCDセンサアレイ又はCMOSセンサアレイによる固体撮像素子アレイなどが設けられる。
図1の例の場合は、この撮像機能部位C2の撮像部3も撮像機能部位C1と同じくユーザの前方の光景を撮像することになり、一方、図2の例の場合は、この撮像機能部位C2の撮像部3は撮像機能部位C1と異なる方向、例えばユーザの後方の光景を撮像することになる。
In the imaging display device 1, an imaging unit 3, an imaging control unit 11, and an imaging signal processing unit 15 are also provided as the second imaging functional part C2.
The imaging unit 3, the imaging control unit 11, and the imaging signal processing unit 15 in the imaging functional part C2 are basically the same as the imaging unit 3, the imaging control unit 11, and the imaging signal processing unit 15 in the imaging functional part C1.
The image pickup unit 3 in the image pickup functional part C2 corresponds to the lens system including the other image pickup lens 3a, the diaphragm, the zoom lens, the focus lens, and the like shown in FIG. A solid-state imaging device array such as a CCD sensor array or a CMOS sensor array that detects an imaging light obtained by a driving system for performing a focusing operation and a zooming operation and further generates an imaging signal by performing photoelectric conversion. Provided.
In the case of the example of FIG. 1, the imaging unit 3 of the imaging function part C2 also images the scene in front of the user as in the imaging function part C1, whereas in the case of the example of FIG. The imaging unit 3 of C2 captures a different direction from the imaging functional part C1, for example, a scene behind the user.

撮像機能部位C2における撮像信号処理部15も、撮像部3の固体撮像素子によって得られる信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像信号を得る。また撮像信号処理部15は、撮像信号に対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理なども行う。また撮像信号処理部15は、いわゆるビデオプロセッサとしての機能も持つものとし、撮像信号に対して各種表示のための処理を実行できる。例えば撮像信号の輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また撮像信号処理部15は、撮像信号の一部を拡大した拡大画像の生成、或いは縮小画像の生成、モザイク画像/輝度反転画像/ソフトフォーカス/画像内の一部の強調表示/画像全体の色の雰囲気の可変などの画像エフェクト処理、キャラクタ画像やイメージ画像の生成及び生成した画像を撮像画像に合成する処理などを行うことができる。   The imaging signal processing unit 15 in the imaging functional part C2 also includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on a signal obtained by the solid-state imaging device of the imaging unit 3, and a video A / D converter. Then, an imaging signal as digital data is obtained. The imaging signal processing unit 15 also performs white balance processing, luminance processing, color signal processing, blur correction processing, and the like on the imaging signal. The imaging signal processing unit 15 also has a function as a so-called video processor, and can execute processing for various displays on the imaging signal. For example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like of the imaging signal can be performed. Further, the imaging signal processing unit 15 generates an enlarged image obtained by enlarging a part of the imaging signal, or generates a reduced image, mosaic image / inverted luminance image / soft focus / partial display in image / color of the entire image. It is possible to perform image effect processing such as changing the atmosphere of a character, generation of a character image or image image, processing of combining the generated image with a captured image, and the like.

撮像制御部11は、システムコントローラ10からの指示に基づいて、撮像部3及び撮像信号処理部15の動作、つまり撮像機能部位C2による撮像動作を制御する。例えば撮像制御部11は、撮像部3、撮像信号処理部15の動作のオン/オフを制御する。また撮像制御部11は撮像部3に対して、オートフォーカス、自動露出調整、絞り調整、ズーム、焦点変更などの動作を実行させるための制御(モータ制御)を行うものとされる。
また、上述したように撮像レンズ3aによる被写体方向を可変できる可動機構が設けられている場合は、撮像制御部11はシステムコントローラ10の指示に基づいて、可動機構の動作を制御して撮像部3における撮像レンズ3aの方向を変化させる。
また撮像制御部11はタイミングジェネレータを備え、固体撮像素子及び撮像信号処理部11のサンプルホールド/AGC回路、ビデオA/Dコンバータに対しては、タイミングジェネレータにて生成されるタイミング信号により信号処理動作を制御する。また、このタイミング制御により撮像フレームレートの可変制御も可能とされる。
さらに撮像制御部11は、固体撮像素子及び撮像信号処理部15における撮像感度や信号処理の制御を行う。例えば撮像感度制御として固体撮像素子から読み出される信号のゲイン制御を行ったり、黒レベル設定制御や、デジタルデータ段階の撮像信号処理の各種係数制御、ぶれ補正処理における補正量制御などを行うことができる。撮像感度に関しては、特に波長帯域を考慮しない全体的な感度調整や、例えば赤外線領域、紫外線領域など、特定の波長帯域の撮像感度を調整する感度調整(例えば特定波長帯域をカットするような撮像)なども可能である。波長に応じた感度調整は、撮像レンズ系における波長フィルタの挿入や、撮像信号に対する波長フィルタ演算処理により可能である。これらの場合、撮像制御部11は、波長フィルタの挿入制御や、フィルタ演算係数の指定等により、感度制御を行うことができる。
さらに撮像制御部11は、システムコントローラ10の指示に基づいて、撮像信号処理部15の画像処理動作を制御する。即ち撮像信号処理部15に対して、上記の各種処理を実行させる。
The imaging control unit 11 controls the operations of the imaging unit 3 and the imaging signal processing unit 15, that is, the imaging operation by the imaging function part C2, based on an instruction from the system controller 10. For example, the imaging control unit 11 controls on / off of operations of the imaging unit 3 and the imaging signal processing unit 15. The imaging control unit 11 performs control (motor control) for causing the imaging unit 3 to perform operations such as auto focus, automatic exposure adjustment, aperture adjustment, zoom, and focus change.
Further, as described above, when the movable mechanism that can change the direction of the subject by the imaging lens 3 a is provided, the imaging control unit 11 controls the operation of the movable mechanism based on an instruction from the system controller 10 to capture the imaging unit 3. The direction of the imaging lens 3a is changed.
In addition, the imaging control unit 11 includes a timing generator. For the sample hold / AGC circuit and the video A / D converter of the solid-state imaging device and the imaging signal processing unit 11, a signal processing operation is performed by a timing signal generated by the timing generator. To control. In addition, the imaging frame rate can be variably controlled by this timing control.
Further, the imaging control unit 11 controls imaging sensitivity and signal processing in the solid-state imaging device and the imaging signal processing unit 15. For example, gain control of a signal read from a solid-state image sensor can be performed as imaging sensitivity control, black level setting control, various coefficient control of imaging signal processing in a digital data stage, correction amount control in blur correction processing, and the like can be performed. . As for imaging sensitivity, overall sensitivity adjustment that does not specifically consider the wavelength band, and sensitivity adjustment that adjusts the imaging sensitivity in a specific wavelength band such as the infrared region and the ultraviolet region (for example, imaging that cuts a specific wavelength band) Etc. are also possible. Sensitivity adjustment according to the wavelength can be performed by inserting a wavelength filter in the imaging lens system or wavelength filter calculation processing on the imaging signal. In these cases, the imaging control unit 11 can perform sensitivity control by insertion control of a wavelength filter, designation of a filter calculation coefficient, or the like.
Further, the imaging control unit 11 controls the image processing operation of the imaging signal processing unit 15 based on an instruction from the system controller 10. That is, the imaging signal processing unit 15 is caused to execute the various processes described above.

これら撮像機能部位C1、C2は、それぞれ撮像によって得られた撮像画像信号を、表示部2での表示に用いる表示画像信号として、表示画像処理部12に供給する。   These imaging function parts C1 and C2 supply the captured image signal obtained by the imaging to the display image processing unit 12 as a display image signal used for display on the display unit 2, respectively.

撮像表示装置1においてユーザに対して表示を行う構成としては、表示部2、表示画像処理部12、表示駆動部13、表示制御部14が設けられる。
撮像機能部位C1、C2で得られる表示画像信号は表示画像処理部12に供給される。表示画像処理部12は、この場合、撮像機能部位C1、C2という2つの画像ソース(画像信号生成手段)から供給される表示画像信号を同時に表示部2に表示するための画面分割及び画像合成処理を行う。
例えば親子画面、或いは分割画面として表示部2の画面領域を設定し、各領域に撮像機能部位C1、C2からの各表示画像信号による画像が表示されるようにする。
As a configuration for displaying to the user in the imaging display device 1, a display unit 2, a display image processing unit 12, a display driving unit 13, and a display control unit 14 are provided.
Display image signals obtained at the imaging function parts C 1 and C 2 are supplied to the display image processing unit 12. In this case, the display image processing unit 12 performs screen division and image synthesis processing for simultaneously displaying on the display unit 2 display image signals supplied from two image sources (image signal generation means) called imaging function parts C1 and C2. I do.
For example, the screen area of the display unit 2 is set as a parent-child screen or a divided screen, and an image based on each display image signal from the imaging function parts C1 and C2 is displayed in each area.

表示駆動部13は、表示画像処理部12から供給される画像信号を、例えば液晶ディスプレイとされる表示部2において表示させるための画素駆動回路で構成されている。即ち表示部2においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
なお表示駆動部13は、表示部2の各画素の透過率を制御して、画面全体又は一部をスルー状態とできるようにしてもよい。
表示制御部14は、システムコントローラ10の指示に基づいて、表示画像処理部12の処理動作や表示駆動部13の動作を制御する。
The display driving unit 13 includes a pixel driving circuit for displaying the image signal supplied from the display image processing unit 12 on the display unit 2 that is a liquid crystal display, for example. That is, a drive signal based on the video signal is applied to each pixel arranged in a matrix in the display unit 2 at a predetermined horizontal / vertical drive timing, and display is executed.
The display driving unit 13 may control the transmittance of each pixel of the display unit 2 so that the entire screen or a part of the screen can be in a through state.
The display control unit 14 controls the processing operation of the display image processing unit 12 and the operation of the display driving unit 13 based on an instruction from the system controller 10.

また撮像機能部位C1、C2のそれぞれに対応して、照明部4と照明制御部18が設けられる。照明部4は、図1、図2に示した発光部4aとその発光部4(例えばLED)を発光させる発光回路から成る。照明制御部18は、システムコントローラ10の指示に基づいて、照明部4に発光動作を実行させる。
照明部4における発光部4aが図1又は図2に示したように取り付けられていることで、照明部4は撮像レンズ3aによる被写体方向に対する照明動作を行うことになる。
Also, an illumination unit 4 and an illumination control unit 18 are provided corresponding to each of the imaging function parts C1 and C2. The illuminating unit 4 includes a light emitting unit 4a illustrated in FIGS. 1 and 2 and a light emitting circuit that emits light from the light emitting unit 4 (for example, an LED). The illumination control unit 18 causes the illumination unit 4 to perform a light emission operation based on an instruction from the system controller 10.
Since the light emitting unit 4a in the illuminating unit 4 is attached as shown in FIG. 1 or 2, the illuminating unit 4 performs an illuminating operation on the subject direction by the imaging lens 3a.

動作トリガ情報発生部16は、表示部2での画像表示の開始/終了、表示態様の切換などのための動作トリガ情報を発生する。
この動作トリガ情報発生部16は、例えばユーザが操作する操作キーや操作ダイヤルとしての操作子と、その操作子の操作を検知する操作検知機構により構成することができる。即ちユーザの手動操作を各種動作の動作トリガ情報とする場合である。動作トリガ情報発生部16は、ユーザの操作情報を動作トリガ情報としてシステムコントローラ10に供給することで、システムコントローラ10はユーザの操作に応じた表示動作制御を行う。
また、動作トリガ情報発生部16は、ユーザ情報(ユーザの視覚状況、身体の挙動、生体状況等の検知情報)を検知したり、外界情報(撮像表示装置の周囲の状況や、場所、日時、被写体の状況などの検知情報)を検知することができる構成としてもよい。例えばシステムコントローラ10がこれらのユーザ情報や外界情報に基づいて、動作トリガ発生の判断を行うようにしてもよい。なお、ユーザ情報や外界情報についての例は後に述べる。
The operation trigger information generation unit 16 generates operation trigger information for starting / ending image display on the display unit 2 and switching display modes.
The operation trigger information generation unit 16 can be configured by, for example, an operation key operated by a user or an operation element as an operation dial, and an operation detection mechanism that detects an operation of the operation element. That is, the user's manual operation is used as operation trigger information for various operations. The operation trigger information generation unit 16 supplies user operation information to the system controller 10 as operation trigger information, so that the system controller 10 performs display operation control according to the user operation.
In addition, the operation trigger information generation unit 16 detects user information (detection information such as a user's visual status, body behavior, and biological status), or external information (a situation around the imaging display device, location, date, It is also possible to adopt a configuration that can detect detection information such as the status of the subject. For example, the system controller 10 may determine whether an operation trigger has occurred based on these user information and external world information. Examples of user information and external information will be described later.

図5は、撮像表示装置1としての他の構成例を示すものである。なお、図4と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図5の構成は、図4の構成における第2の撮像機能部位C2と、撮像機能部位C2に対応した照明部4、照明制御部18を備えず、代わりに通信部26を有する構成とされている。
FIG. 5 shows another configuration example as the imaging display device 1. In addition, the same code | symbol is attached | subjected to the block of the same function as FIG. 4, and duplication description is avoided.
The configuration in FIG. 5 does not include the second imaging function part C2 in the configuration in FIG. 4 and the illumination unit 4 and the illumination control unit 18 corresponding to the imaging function part C2, but has a communication unit 26 instead. ing.

通信部26は外部機器との間でのデータの送受信を行う。外部機器としては、例えばコンピュータ装置、携帯電話機、PDA(Personal Digital Assistant)、ビデオストレージ機器やテレビジョン受像器等のAV機器、ネットワークサーバ装置などが想定される。
通信部26は、無線LAN、ブルートゥースなどの方式で、例えばネットワークアクセスポイントに対する近距離無線通信を介してネットワーク通信を行う構成としても良いし、対応する通信機能を備えた外部機器との間で直接無線通信を行うものでもよい。
The communication unit 26 transmits / receives data to / from an external device. As the external device, for example, a computer device, a mobile phone, a PDA (Personal Digital Assistant), an AV device such as a video storage device or a television receiver, a network server device, or the like is assumed.
The communication unit 26 may be configured to perform network communication via short-range wireless communication with a network access point using a method such as wireless LAN or Bluetooth, or directly with an external device having a corresponding communication function. Wireless communication may be performed.

この図5の例の場合、通信部26は外部機器との間で、次の図6のように通信を行い、外部機器から画像データを受信する。そして通信部26は受信した画像データを、表示部2での表示を行う表示画像信号として表示画像処理部12に供給する。そして表示画像処理部12で処理された画像信号が表示駆動部13に供給され、表示部2で表示される。
図6は、撮像表示装置1の使用形態を、外部機器との関連において例示している。
図6(a)は撮像表示装置1が通信部26により、外部の撮像装置70と通信を行う例である。この場合、撮像表示装置1は、撮像装置70で撮像された画像を受信して表示部2に表示させる。外部の撮像装置70とは、通信機能を備えたビデオカメラ、デジタルスチルカメラなどが想定できるし、また本実施の形態と同様の他の撮像表示装置1を、外部の撮像装置70と考えることもできる。
また外部の撮像装置70は、撮像表示装置1を用いるユーザ本人が所有する撮像装置であったり、撮像表示装置1のユーザの知人が所有する撮像装置であったり、或いは画像提供を行う公共或いはサービス企業等の撮像装置であって撮像表示装置1と通信可能とされているものなど多様に考えられる。
In the case of the example of FIG. 5, the communication unit 26 communicates with an external device as shown in FIG. 6, and receives image data from the external device. The communication unit 26 supplies the received image data to the display image processing unit 12 as a display image signal for display on the display unit 2. The image signal processed by the display image processing unit 12 is supplied to the display driving unit 13 and displayed on the display unit 2.
FIG. 6 illustrates a usage pattern of the imaging display device 1 in relation to an external device.
FIG. 6A is an example in which the imaging display device 1 communicates with an external imaging device 70 through the communication unit 26. In this case, the imaging display device 1 receives an image captured by the imaging device 70 and causes the display unit 2 to display the image. As the external imaging device 70, a video camera, a digital still camera, or the like having a communication function can be assumed, and another imaging display device 1 similar to the present embodiment may be considered as the external imaging device 70. it can.
The external imaging device 70 is an imaging device owned by the user who uses the imaging display device 1, an imaging device owned by an acquaintance of the user of the imaging display device 1, or a public or service that provides images. A variety of imaging apparatuses such as companies that can communicate with the imaging display apparatus 1 are conceivable.

図6(b)は、撮像表示装置1が通信機能を備え、外部のコンテンツソース機器71と通信を行う例である。この場合、撮像表示装置1は、コンテンツソース機器71から提供される画像(動画/静止画)を受信して表示部2に表示させる。
コンテンツソース機器71とは、例えばビデオ機器、テレビジョンチューナ、ホームサーバ機器等のAV(Audio-Visual)機器や、パーソナルコンピュータ、PDA(Personal Digital Assistant)、携帯電話機などの情報処理装置などが想定できる。このようなコンテンツソース機器71も、撮像表示装置1を用いるユーザ本人やその知人が所有する機器であったり、各種コンテンツ提供を行う公共或いはサービス企業等のサーバ機器であるなど多様に考えられる。
コンテンツソース機器71から撮像表示装置1に送信されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲーム画像など、表示対象となるあらゆるデータが想定される。
FIG. 6B is an example in which the imaging display device 1 has a communication function and communicates with an external content source device 71. In this case, the imaging display device 1 receives an image (moving image / still image) provided from the content source device 71 and displays it on the display unit 2.
Examples of the content source device 71 include an AV (Audio-Visual) device such as a video device, a television tuner, and a home server device, and an information processing device such as a personal computer, a PDA (Personal Digital Assistant), and a mobile phone. . Such a content source device 71 can be considered variously such as a device owned by the user who uses the imaging display device 1 or an acquaintance of the user, or a server device of a public or service company that provides various contents.
Data transmitted from the content source device 71 to the imaging display device 1 includes, for example, moving image content such as movies and video clips, still image content captured by a digital still camera and recorded on a recording medium, and data such as an electronic book Any data to be displayed is assumed, such as image data created by a user using a personal computer, text data, computer use data such as spreadsheet data, and game images.

図6(c)は、撮像表示装置1の通信部26が、特にインターネット等のネットワーク73を介した通信アクセス機能を備えることで、ネットワーク73で接続される外部の撮像装置70やコンテンツソース機器71と通信を行う例である。この場合、撮像表示装置1は、ネットワーク73を介して画像データを受信し、その受信した画像データに基づいた表示画像信号による画像表示を表示部2で実行させる。   FIG. 6C shows that the communication unit 26 of the imaging display device 1 has a communication access function via the network 73 such as the Internet in particular, so that the external imaging device 70 and the content source device 71 connected via the network 73. It is an example which communicates with. In this case, the imaging display device 1 receives image data via the network 73 and causes the display unit 2 to perform image display using a display image signal based on the received image data.

図7は、撮像表示装置1としてのさらに他の構成例を示すものである。なお、上記図4、図5と同一機能のブロックには同一符号を付し、重複説明を避ける。
この図7の構成は、図4の構成における第2の撮像機能部位C2と、撮像機能部位C2に対応した照明部4、照明制御部18を備えず、代わりにストレージ部25を有する構成とされている。
FIG. 7 shows still another configuration example of the imaging display device 1. Note that blocks having the same functions as those in FIG. 4 and FIG.
The configuration of FIG. 7 does not include the second imaging function part C2 in the configuration of FIG. 4 and the illumination unit 4 and the illumination control unit 18 corresponding to the imaging function part C2, but has a storage unit 25 instead. ing.

ストレージ部25は、所定の記録媒体に対してデータの記録再生を行う部位とされる。例えばHDD(Hard Disk Drive)として実現される。もちろん記録媒体としては、フラッシュメモリ等の固体メモリ、固体メモリを内蔵したメモリカード、光ディスク、光磁気ディスク、ホログラムメモリなど各種考えられ、ストレージ部25としては採用する記録媒体に応じて記録再生を実行できる構成とされればよい。   The storage unit 25 is a part that records and reproduces data on a predetermined recording medium. For example, it is realized as an HDD (Hard Disk Drive). Of course, various recording media such as a solid-state memory such as a flash memory, a memory card incorporating a solid-state memory, an optical disk, a magneto-optical disk, and a hologram memory are conceivable. The storage unit 25 performs recording / reproduction according to the recording medium employed. What is necessary is just to be set as the structure which can be performed.

撮像機能部位C1の撮像部3で撮像され、撮像信号処理部15で処理された撮像信号としての画像データや、通信部26で受信した画像データは、画像入出力コントロール部27を介してストレージ部25に供給することができる。また音声入力部6で得られた音声データや、通信部26で受信した音声データは、音声入出力コントロール部28を介してストレージ部25に供給することができる。
ストレージ部25はシステムコントローラ10の制御に従って、記録媒体から画像データを再生する。そして再生した画像データを、表示部2での表示を行う表示画像信号として表示画像処理部12に供給する。そして表示画像処理部12で処理された画像信号が表示駆動部13に供給され、表示部2で表示される。
ストレージ部25で再生されるデータとしては、例えば映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像されて記録媒体に記録された静止画コンテンツ、電子書籍等のデータ、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲーム画像など、表示対象となるあらゆるデータが想定される。
Image data as an imaging signal captured by the imaging unit 3 of the imaging function part C1 and processed by the imaging signal processing unit 15 and image data received by the communication unit 26 are stored in the storage unit via the image input / output control unit 27. 25. The voice data obtained by the voice input unit 6 and the voice data received by the communication unit 26 can be supplied to the storage unit 25 via the voice input / output control unit 28.
The storage unit 25 reproduces image data from the recording medium according to the control of the system controller 10. The reproduced image data is supplied to the display image processing unit 12 as a display image signal for display on the display unit 2. The image signal processed by the display image processing unit 12 is supplied to the display driving unit 13 and displayed on the display unit 2.
Examples of data reproduced by the storage unit 25 include moving image content such as movies and video clips, still image content captured by a digital still camera or the like and recorded on a recording medium, data such as an electronic book, and a user using a personal computer or the like. Any data to be displayed such as image data, text data, computer use data such as spreadsheet data, game images, and the like created in the above is assumed.

図8は、撮像表示装置1の更に他の構成例を示し、これは図3で述べたように撮像装置部40と表示装置部30が別体で形成された例に対応する構成例である。
この例では、撮像装置部40において図5と同様に撮像機能部位C1と、通信部26を有する構成としている。
この撮像機能部位C1及び通信部26で得られる表示画像信号は、表示通信制御部20に供給される。表示通信制御部20は、表示装置部30との通信の為のエンコード処理を行う。即ち撮像機能部位C1及び通信部26から供給される表示画像信号をエンコードする。
表示通信制御部20でエンコードされた画像データは、通信部21から表示装置部30に送信される。
FIG. 8 shows still another configuration example of the imaging display device 1, which is a configuration example corresponding to the example in which the imaging device unit 40 and the display device unit 30 are formed separately as described in FIG. .
In this example, the imaging device unit 40 has an imaging function part C1 and a communication unit 26 as in FIG.
Display image signals obtained by the imaging function part C1 and the communication unit 26 are supplied to the display communication control unit 20. The display communication control unit 20 performs an encoding process for communication with the display device unit 30. That is, the display image signal supplied from the imaging function part C1 and the communication unit 26 is encoded.
The image data encoded by the display communication control unit 20 is transmitted from the communication unit 21 to the display device unit 30.

表示装置部30は、通信部34、表示部31、表示画像処理部32、表示駆動部33、表示制御部35、及び操作部36が設けられる。
通信部34は、撮像装置部40の通信部21との間でデータ通信を行う。特には、撮像装置部40から送信されてくる画像データ、つまり撮像機能部位C1と通信部26で得られた表示画像信号としての画像データを受信し、デコード処理をおこなう。
通信部34でデコードされた表示画像信号は、表示画像処理部32に供給される。表示画像処理部32は、この場合、撮像機能部位C1、通信部26という2つの画像信号ソース(画像信号生成手段)から供給される表示画像信号を同時に表示部31に表示するための画面分割及び画像合成処理を行う。
例えば親子画面、或いは分割画面として表示部31の画面領域を設定し、各領域に撮像機能部位C1と通信部26からの各表示画像信号による画像が表示されるようにする。
The display device unit 30 includes a communication unit 34, a display unit 31, a display image processing unit 32, a display drive unit 33, a display control unit 35, and an operation unit 36.
The communication unit 34 performs data communication with the communication unit 21 of the imaging device unit 40. In particular, it receives image data transmitted from the imaging device unit 40, that is, image data as a display image signal obtained by the imaging function part C1 and the communication unit 26, and performs decoding processing.
The display image signal decoded by the communication unit 34 is supplied to the display image processing unit 32. In this case, the display image processing unit 32 performs screen division and display for simultaneously displaying the display image signals supplied from two image signal sources (image signal generating means), that is, the imaging function part C1 and the communication unit 26 on the display unit 31. Perform image composition processing.
For example, the screen area of the display unit 31 is set as a parent-child screen or a divided screen, and an image based on each display image signal from the imaging function part C1 and the communication unit 26 is displayed in each area.

表示駆動部33は、表示画像処理部32から供給される画像信号を、例えば液晶ディスプレイとされる表示部31において表示させるための画素駆動回路で構成されている。即ち表示部31においてマトリクス状に配置されている各画素について、それぞれ所定の水平/垂直駆動タイミングで映像信号に基づく駆動信号を印加し、表示を実行させる。
表示制御部35は、表示画像処理部32の処理動作や表示駆動部33の動作を制御する。例えば操作部36からのユーザの操作に応じて表示動作のオン/オフや、画面上の領域形態の切換などの制御も行う。
なお、システムコントローラ10からの指示情報が通信部21、34の通信で送信されてくる場合、表示制御部35は、そのシステムコントローラ10からの指示情報に応じて表示動作のオン/オフや、画面上の領域形態の切換などの制御を行うようにしてもよい。
The display driving unit 33 includes a pixel driving circuit for displaying the image signal supplied from the display image processing unit 32 on the display unit 31 that is a liquid crystal display, for example. That is, for each pixel arranged in a matrix in the display unit 31, a drive signal based on the video signal is applied at a predetermined horizontal / vertical drive timing, and display is executed.
The display control unit 35 controls the processing operation of the display image processing unit 32 and the operation of the display driving unit 33. For example, in accordance with a user operation from the operation unit 36, control such as on / off of the display operation and switching of the area form on the screen is also performed.
When the instruction information from the system controller 10 is transmitted by communication of the communication units 21 and 34, the display control unit 35 turns on / off the display operation according to the instruction information from the system controller 10 and the screen. Control such as switching of the upper area form may be performed.

以上、図4、図5、図7、図8として撮像表示装置1の構成例を示した。
図4は、表示部2で表示する表示画像信号を得る画像ソース(画像信号生成手段)として、2つの撮像機能部位C1、C2が設けられた例である。
図5は、表示部2で表示する表示画像信号を得る画像ソース(画像信号生成手段)として、撮像機能部位C1と通信部26が設けられた例である。
図7は、表示部2で表示する表示画像信号を得る画像ソース(画像信号生成手段)として、撮像機能部位C1とストレージ部25が設けられた例である。
図8は、図5と同様、表示画像信号を得る画像ソース(画像信号生成手段)として、撮像機能部位C1と通信部26が設けられるが、特に撮像装置部40と表示装置部30が別体構成とされる場合の例である。
これらの構成例を挙げたが、撮像表示装置1としてはさらに多様な構成例が想定される。
特に上記各例では2系統の画像ソースを有する例を挙げているが、3系統以上の画像ソースを有する場合もある。
例えば撮像機能部位C1と、通信部26と、ストレージ部25を有する構成例や、3つ以上の撮像機能部位C1、C2、C3・・・を有する構成例なども考えられる。
As described above, the configuration example of the imaging display device 1 is shown as FIGS. 4, 5, 7, and 8.
FIG. 4 is an example in which two imaging function parts C1 and C2 are provided as an image source (image signal generating means) for obtaining a display image signal to be displayed on the display unit 2.
FIG. 5 is an example in which an imaging function part C1 and a communication unit 26 are provided as an image source (image signal generating means) for obtaining a display image signal to be displayed on the display unit 2.
FIG. 7 is an example in which an imaging function part C1 and a storage unit 25 are provided as an image source (image signal generating means) for obtaining a display image signal to be displayed on the display unit 2.
8, as in FIG. 5, the imaging function part C <b> 1 and the communication unit 26 are provided as an image source (image signal generation unit) for obtaining a display image signal. This is an example of a configuration.
Although these configuration examples have been given, as the imaging display device 1, more various configuration examples are assumed.
In particular, in each of the above examples, an example having two image sources is given, but there may be three or more image sources.
For example, a configuration example including the imaging function part C1, the communication unit 26, and the storage unit 25, a configuration example including three or more imaging function parts C1, C2, C3, and the like are also conceivable.

そして本実施の形態においては、複数の画像ソースのうち、少なくとも1つはユーザの視界方向の光景を撮像するものとされる。即ち各構成例における撮像機能部位C1がこれに相当し、撮像機能部位C1で得られる表示画像信号は、ユーザの視界光景の撮像信号である。
他の画像ソースは、この撮像機能部位C1とは異なる画像を表示する表示画像信号を生成する。
ここで、撮像機能部位C1で得られる表示画像信号による画像、即ちユーザの視界光景の撮像画像とは異なる画像がどのように得られるかは多様に考えられる。
例えば撮像機能部位C2が撮像機能部位C1とは異なる方向の撮像を行っている場合、その撮像機能部位C2で撮像された画像そのものが、撮像機能部位C1により得られる画像とは異なるものとなる。通信部26で受信された画像やストレージ部25で再生された画像も、撮像機能部位C1により得られる画像とは異なるものとなる。
また図1の例のように撮像機能部位C2が撮像機能部位C1と同一方向(ユーザの視界方向)の撮像を行っている場合でも、その撮像動作態様や撮像信号処理により、撮像機能部位C1により得られる画像とは異なる画像を得ることができる。
そして本例では、これら複数の画像ソースからの表示画像信号を同時に表示部2に表示させ、ユーザに多様な画像を提供するものである。
In the present embodiment, at least one of the plurality of image sources captures a scene in the user's field of view. That is, the imaging function part C1 in each configuration example corresponds to this, and the display image signal obtained by the imaging function part C1 is an imaging signal of the user's view scene.
The other image source generates a display image signal for displaying an image different from the imaging function part C1.
Here, there are various ways of obtaining an image different from the image based on the display image signal obtained at the imaging function part C1, that is, the captured image of the user's view scene.
For example, when the imaging function part C2 is imaging in a direction different from the imaging function part C1, the image itself captured by the imaging function part C2 is different from the image obtained by the imaging function part C1. The image received by the communication unit 26 and the image reproduced by the storage unit 25 are also different from the image obtained by the imaging function part C1.
Further, even when the imaging function part C2 is imaging in the same direction (the user's field of view) as the imaging function part C1 as in the example of FIG. An image different from the obtained image can be obtained.
In this example, display image signals from the plurality of image sources are simultaneously displayed on the display unit 2 to provide various images to the user.

[3.画面上の領域形態]

表示部2の画面上で、複数の画像ソースからの表示画像信号による画像を同時に表示する場合の領域形態の例を図9、図10に示す。
表示部2(図8の場合は表示装置30の表示部31:以下同様)において、複数の画像ソースからの画像を同時に表示する形態としては、画面領域内で親画面領域と子画面領域を設定したり、画面領域を分割することが考えられる。
[3. Area form on screen]

FIGS. 9 and 10 show examples of the area form when simultaneously displaying images based on display image signals from a plurality of image sources on the screen of the display unit 2.
In the display unit 2 (in the case of FIG. 8, the display unit 31 of the display device 30: the same applies hereinafter), as a form for simultaneously displaying images from a plurality of image sources, a parent screen region and a child screen region are set in the screen region. Or dividing the screen area.

図9における領域AR1、AR2は、それぞれ異なる画像ソースからの画像を表示する領域を示している。
図9(a)は、表示部2の画面領域で、領域AR1内で右下に子画面としての領域AR2を設定し、各領域AR1、AR2で画像表示を行っている例である。
図9(b)は、表示部2の画面領域で、領域AR1内で左下に子画面としての領域AR2を設定し、各領域AR1、AR2で画像表示を行っている例である。
図示しないが、このように子画面を設定する場合、領域AR1内の右上、左上、中央、中央右寄り、中央左寄りなど、各種の位置に子画面としての領域AR2を設定することもできる。
図9(c)は、領域AR2としてのサイズを小さくした例である。
図9(d)は、領域AR2としてのサイズを大きくした例である。
図9(e)、表示部2の画面領域で、領域AR1と領域AR2を等分割して左右に分けた例である。
図9(f)、表示部2の画面領域で、領域AR1と領域AR2を等分割して上下に分けた例である。
Regions AR1 and AR2 in FIG. 9 indicate regions for displaying images from different image sources.
FIG. 9A shows an example in which an area AR2 as a child screen is set at the lower right in the area AR1 in the screen area of the display unit 2, and image display is performed in each of the areas AR1 and AR2.
FIG. 9B shows an example in which the area AR2 as a sub-screen is set in the lower left of the area AR1 in the screen area of the display unit 2, and the images are displayed in the areas AR1 and AR2.
Although not shown, when the child screen is set in this way, the region AR2 as the child screen can be set at various positions such as upper right, upper left, center, center right, and center left in the region AR1.
FIG. 9C shows an example in which the size of the area AR2 is reduced.
FIG. 9D shows an example in which the size of the area AR2 is increased.
FIG. 9E shows an example in which the area AR1 and the area AR2 are equally divided into left and right in the screen area of the display unit 2.
FIG. 9F shows an example in which the area AR1 and the area AR2 are equally divided into upper and lower parts in the screen area of the display unit 2.

例えば図4〜図8の構成において、画像表示を行う場合、この図9(a)〜(f)のような形態で、領域AR1で撮像機能部位C1を画像ソースとしてユーザの視界光景の画像を表示し、領域AR2に他の画像ソース(撮像機能部位C2、通信部26、ストレージ部25等)による画像表示を行うことが考えられる。
またシステムコントローラ10は、動作トリガ情報発生部16からの情報(例えばユーザの操作情報、ユーザ情報、外界情報等)に基づいて、図9(a)〜(f)どのような領域形態で画像表示を行うかを選択したり、或いはこれらを切り換えるようにしてもよい。例えばユーザの操作等に応じて図9(a)(b)のように子画面とされる領域AR2の位置を変更したり、図9(c)(d)のように領域AR2のサイズを変更したり、図9(e)(f)のように等分割することで、ユーザの好みに合わせることができる。
また、いわゆる表示領域交代として、図9(a)〜(f)における領域AR1と領域AR2を入れ換え、領域AR2で撮像機能部位C1を画像ソースとしてユーザの視界光景の画像を表示し、領域AR1に他の画像ソース(撮像機能部位C2、通信部26、ストレージ部25等)による画像表示を行うような切り換えを行うことも考えられる。
For example, in the configuration shown in FIGS. 4 to 8, when an image is displayed, an image of the user's view scene is displayed in the area AR <b> 1 using the imaging functional part C <b> 1 as an image source in the form as shown in FIGS. It is conceivable that the image is displayed on the area AR2 by another image source (imaging function part C2, communication unit 26, storage unit 25, etc.).
Further, the system controller 10 displays the image in any region form shown in FIGS. 9A to 9F based on information from the operation trigger information generating unit 16 (for example, user operation information, user information, external world information, etc.). It is also possible to select whether to perform or switch between them. For example, the position of the area AR2 that is the child screen is changed as shown in FIGS. 9A and 9B according to the user's operation, or the size of the area AR2 is changed as shown in FIGS. 9C and 9D. Or by equally dividing as shown in FIGS. 9 (e) and 9 (f), it can be adapted to the user's preference.
Further, as a so-called display area change, the area AR1 and the area AR2 in FIGS. 9A to 9F are interchanged, and an image of the user's view scene is displayed in the area AR1 using the imaging function part C1 as an image source in the area AR2. It is also conceivable to perform switching so as to display an image by another image source (imaging function part C2, communication unit 26, storage unit 25, etc.).

次に図10は、画像ソースが3つ存在する場合の表示部2の領域形態の例であり、図10において領域AR1、AR2、AR3は、それぞれ異なる画像ソースからの表示画像信号による画像表示を行っている領域であるとする。
図10(a)は、表示部2の画面領域で、領域AR1内で右下と左下に2つの子画面としての領域AR2、AR3を設定し、各領域AR1、AR2、AR3でそれぞれ画像表示を行っている例である。
図10(b)は、表示部2の画面領域で、領域AR1の左右に領域AR2、AR3を設定し、それぞれ画像表示を行っている例である。
図10(c)は、表示部2の画面領域で、領域AR1の上下に領域AR2、AR3を設定し、それぞれ画像表示を行っている例である。
また図示しないが、領域AR1、AR2、AR3を3等分に分割設定しても良い。
また、システムコントローラ10の制御によって領域形態の切換や領域の交代が行われることも図9の場合と同様に想定される。
Next, FIG. 10 is an example of the area configuration of the display unit 2 when there are three image sources. In FIG. 10, the areas AR1, AR2, and AR3 display images by display image signals from different image sources. Suppose that it is the area that is going.
FIG. 10A shows a screen area of the display unit 2, in which two areas AR2 and AR3 are set as the lower right and lower left areas in the area AR1, and image display is performed in each of the areas AR1, AR2, and AR3. This is an example.
FIG. 10B shows an example in which areas AR2 and AR3 are set on the left and right sides of the area AR1 in the screen area of the display unit 2, and images are displayed respectively.
FIG. 10C shows an example in which areas AR2 and AR3 are set above and below the area AR1 in the screen area of the display unit 2, and image display is performed respectively.
Although not shown, the areas AR1, AR2, AR3 may be divided into three equal parts.
Further, it is assumed that the switching of the area form and the switching of the areas are performed under the control of the system controller 10 as in the case of FIG.

なお、3つ以上の画像ソースを有する場合であっても、そのうちの2つの画像ソースを選択して図9(a)〜(f)のような領域形態で表示させることも考えられる。
もちろん4つ以上の画像ソースを有する場合も、その全部の画像をそれぞれ表示させても良いし、選択された2以上の画像ソースの画像を表示させてもよい。
また、図1、図2のように表示部2が右眼用と左眼用で2つある場合に、その一方の画面全体で一方の画像ソースによる画像表示を行い、他方の画面全体で他方の画像ソースによる画像表示を行うことも考えられる。
さらに、携帯型ゲーム機などで実用化されている2画面ディスプレイのような複数画面ディスプレイのそれぞれに画像表示を行うようにしてもよい。
Even in the case of having three or more image sources, it is also conceivable to select two of the image sources and display them in the area form as shown in FIGS.
Of course, when there are four or more image sources, all the images may be displayed, or images of two or more selected image sources may be displayed.
In addition, when there are two display units 2 for the right eye and for the left eye as shown in FIG. 1 and FIG. 2, image display by one image source is performed on one entire screen, and the other screen is displayed on the other. It is also conceivable to perform image display using an image source.
Furthermore, an image may be displayed on each of a multi-screen display such as a two-screen display that is put into practical use in a portable game machine or the like.

[4.表示動作例]

上記図4〜図8のような各種構成の本実施の形態の撮像表示装置1においては、複数の画像ソースからの表示画像信号を表示部2に表示させ、かつ複数の画像ソースの1つは撮像機能部位C1としてユーザの視界方向を撮像し、他の画像ソースは撮像機能部位C1からの画像とは異なる画像としての表示画像信号を生成することで、ユーザにとっての視覚の拡張やおもしろみのある表示を提供するものである。
[4. Display operation example]

In the imaging display device 1 according to the present embodiment having various configurations as shown in FIGS. 4 to 8, display image signals from a plurality of image sources are displayed on the display unit 2, and one of the plurality of image sources is The imaging function part C1 captures the direction of the user's field of view, and other image sources generate display image signals as images different from the image from the imaging function part C1. It provides a display.

このためのシステムコントローラ10の制御と、それによる各種表示動作例を説明していく。
図11は、システムコントローラ10の制御処理を示している。
システムコントローラ10は、ステップF101で複数画像の表示開始トリガが発生したか否かを確認している。例えば動作トリガ情報発生部16としてユーザが操作できる操作子を設け、ユーザが所定の操作子の操作を行うことで複数画像の表示を開始させるトリガの発生と判断すればよい。或いは後に例を述べるが、動作トリガ情報発生部16でユーザの状況や外界の状況を検出し、所定の条件に応じて複数画像表示を開始させるトリガの発生とシステムコントローラ10が判断することもできる。
なお、複数画像の表示開始トリガが発生するまでの期間は、表示部2をスルー状態としたり、或いは表示部2で撮像機能部位C1の撮像画像を単独で表示させるなどの制御が考えられる。
或いは、撮像表示装置1の電源オンを複数画像の表示開始トリガとし、撮像表示装置1は常に複数画像を表示させるようにしてもよい。
The control of the system controller 10 for this purpose and various display operation examples based thereon will be described.
FIG. 11 shows a control process of the system controller 10.
In step F101, the system controller 10 confirms whether a display start trigger for a plurality of images has occurred. For example, an operation element that can be operated by the user is provided as the operation trigger information generation unit 16, and it may be determined that a trigger for starting display of a plurality of images is performed when the user operates a predetermined operation element. Alternatively, as will be described later, the system controller 10 can detect the occurrence of a trigger for detecting the user's situation or the outside world by the operation trigger information generating unit 16 and starting the display of a plurality of images according to a predetermined condition. .
In addition, during a period until a display start trigger for a plurality of images is generated, it is conceivable to control the display unit 2 to be in a through state, or to display the captured image of the imaging functional part C1 alone on the display unit 2.
Alternatively, the power-on of the imaging display device 1 may be used as a multiple image display start trigger, and the imaging display device 1 may always display a plurality of images.

複数画像の表示開始トリガがあったと判別した場合は、システムコントローラ10は処理をステップF102に進め、複数の表示画像信号の表示開始制御を行う。即ち撮像機能部位C1からの表示画像信号と、他の画像ソースからの表示画像信号とについて、表示部2で画像表示をおこなうように制御する。   If it is determined that there has been a display start trigger for a plurality of images, the system controller 10 advances the process to step F102 to perform display start control for a plurality of display image signals. That is, control is performed so that the display unit 2 displays an image of the display image signal from the imaging function part C1 and the display image signal from another image source.

例えば図4の構成の場合は、ステップF102で撮像機能部位C1、C2の撮像動作を開始させ、撮像機能部位C1、C2による各表示画像信号を表示画像処理部12に供給させ、図9で述べたような領域形態で、表示部2に各画像を表示させる制御を行う。
なお、図2のように撮像機能部位C1、C2が異なる方向を被写体方向としている場合は、撮像機能部位C2で通常に撮像した撮像画像は、撮像機能部位C1の撮像画像とは異なる画像となるため、表示部2において複数の領域で異なる画像が表示される。
一方、図1のように撮像機能部位C1、C2が同一方向を被写体方向としている場合は、システムコントローラ10は撮像機能部位C2での撮像動作態様や信号処理を指示して、撮像機能部位C2で得られる画像を撮像機能部位C1の撮像画像とは異なる画像となるように制御することで、表示部2において複数の領域で異なる画像が表示されるようにする。
For example, in the case of the configuration of FIG. 4, the imaging operation of the imaging function parts C1 and C2 is started in step F102, and the display image signals from the imaging function parts C1 and C2 are supplied to the display image processing unit 12 and described in FIG. The display unit 2 is controlled to display each image in such a region form.
If the direction in which the imaging function parts C1 and C2 are different as shown in FIG. 2 is the subject direction, the captured image normally captured by the imaging function part C2 is different from the captured image of the imaging function part C1. Therefore, different images are displayed in a plurality of areas on the display unit 2.
On the other hand, when the imaging function parts C1 and C2 have the same direction as the subject direction as shown in FIG. 1, the system controller 10 instructs the imaging operation mode and signal processing in the imaging function part C2, and the imaging function part C2 By controlling the obtained image to be an image different from the captured image of the imaging functional part C1, different images are displayed in a plurality of areas on the display unit 2.

また図5の構成の場合は、ステップF102で撮像機能部位C1の撮像動作を開始させ、撮像機能部位C1による表示画像信号を表示画像処理部12に供給させるとともに、通信部26による受信画像データを表示画像信号として表示画像処理部12に供給させる。そして図9で述べたような領域形態で、表示部2に各画像を表示させる制御を行う。
なお、図5の構成の場合、通信部26に対して外部機器からの画像データの送信があったときに、ステップF101で表示開始トリガ発生と判断し、そのときにステップF102で撮像機能部位C1と通信部26を画像ソースとする画像表示を開始するようにしてもよい。通信部26により画像データが受信されていない期間は、例えば撮像機能部位C1からの表示画像信号を単独で表示部2に表示させるようにしていてもよい。
In the case of the configuration of FIG. 5, the imaging operation of the imaging functional part C1 is started in step F102, the display image signal from the imaging functional part C1 is supplied to the display image processing unit 12, and the received image data from the communication unit 26 is received. The display image signal is supplied to the display image processing unit 12 as a display image signal. Then, control is performed to display each image on the display unit 2 in the area form as described in FIG.
In the case of the configuration of FIG. 5, when image data is transmitted from an external device to the communication unit 26, it is determined in step F101 that a display start trigger has occurred, and at that time, in step F102, an imaging function part C1 is determined. Image display using the communication unit 26 as an image source may be started. During a period when the image data is not received by the communication unit 26, for example, the display image signal from the imaging function part C1 may be displayed on the display unit 2 alone.

また図7の構成の場合は、ステップF102で撮像機能部位C1の撮像動作を開始させ、撮像機能部位C1による表示画像信号を表示画像処理部12に供給させるとともに、ストレージ部25に再生動作を指示し、再生画像データを表示画像信号として表示画像処理部12に供給させる。そして図9で述べたような領域形態で、表示部2に各画像を表示させる制御を行う。なお、図7の構成の場合、ユーザの操作、ユーザ状況、外界状況などによりストレージ部25での再生開始のトリガが発生したときに、ステップF101で表示開始トリガ発生と判断し、そのときにステップF102で撮像機能部位C1とストレージ部25を画像ソースとする画像表示を開始するようにしてもよい。ストレージ部25で再生が行われていない期間は、例えば撮像機能部位C1からの表示画像信号を単独で表示部2に表示させるようにしてもよい。   In the case of the configuration of FIG. 7, in step F102, the imaging operation of the imaging function part C1 is started, the display image signal from the imaging function part C1 is supplied to the display image processing unit 12, and the playback operation is instructed to the storage unit 25 Then, the reproduced image data is supplied to the display image processing unit 12 as a display image signal. Then, control is performed to display each image on the display unit 2 in the area form as described in FIG. In the case of the configuration shown in FIG. 7, when a playback start trigger is generated in the storage unit 25 due to a user operation, a user situation, an outside world situation, or the like, it is determined in step F101 that a display start trigger has occurred. In F102, image display using the imaging function part C1 and the storage unit 25 as an image source may be started. For example, the display image signal from the imaging functional part C1 may be displayed on the display unit 2 alone during a period when the storage unit 25 is not reproducing.

例えば図9、図10のような領域形態で複数画像の表示を開始させた後は、システムコントローラ10は、ステップF103で表示切換トリガが発生したか否かを監視し、またステップF104で複数画像の表示終了トリガが発生したか否かを監視する。   For example, after starting display of a plurality of images in the area form as shown in FIGS. 9 and 10, the system controller 10 monitors whether or not a display switching trigger has occurred in step F103, and also in step F104. Monitor whether or not a display end trigger has occurred.

ステップF103での表示切換トリガの発生とは、ユーザ操作、或いはユーザ状況や外界状況によるシステムコントローラ10の判断により、表示画像の切換を行うとシステムコントローラ10が判断することを意味している。
表示画像の切換とは、複数画像の内の1つ或いは複数の表示画像内容の切換や、領域形態の切換がある。
そして表示画像内容の切換とは、例えば撮像機能部位C1又はC2における撮像部3でのズーム処理や焦点位置の変更による画像変更、撮像感度の変更による画像変更、撮像信号処理部15での信号処理による画像変更、撮像部3が可動カメラの場合の撮像方向(被写体方向)の変更による画像変更、3つ以上の表示画像信号のソースを有する場合の画像ソース切換による画像変更など、非常に多様な例が考えられる。
また領域形態の切換とは、親子画面の位置変更や親子画面交代、分割画面の位置変更や領域交代、全画面表示への切換などであり、例えば図9(a)の状態から図9(b)の状態に切り換えたり、図9(a)の状態から図9(e)の状態に切り換えるなどの制御である。
The generation of the display switching trigger in step F103 means that the system controller 10 determines that the display image is switched based on the user operation or the determination of the system controller 10 based on the user situation or the external environment.
The display image switching includes switching of one or a plurality of display image contents of a plurality of images and switching of the area form.
The display image content switching is, for example, zoom processing in the imaging unit 3 in the imaging function part C1 or C2, image change by changing the focal position, image change by changing imaging sensitivity, signal processing in the imaging signal processing unit 15. Image change by changing the image pickup direction (subject direction) when the image pickup unit 3 is a movable camera, image change by image source switching when there are three or more display image signal sources, etc. Examples are possible.
The switching of the area form includes a change in the position of the parent / child screen, a change in the parent / child screen, a change in the position of the divided screen, a change in the area, a change to the full screen display, and the like. ) Or switching from the state of FIG. 9A to the state of FIG. 9E.

またステップF104での複数画像の表示終了トリガについては、例えばユーザが所定の操作子により表示を終了させる操作を行った場合に、システムコントローラ10は複数画像の表示状態を終了させるトリガの発生と判断すればよいが、ユーザの状況や外界の状況を検出し、所定の条件に応じて複数画像の表示終了トリガの発生とシステムコントローラ10が判断することもできる。   As for the display end trigger for multiple images in step F104, for example, when the user performs an operation to end display using a predetermined operator, the system controller 10 determines that a trigger to end the display state of multiple images has occurred. However, the system controller 10 can also detect the occurrence of a display end trigger for a plurality of images according to a predetermined condition by detecting the user's situation and the situation of the outside world.

表示切換トリガ発生と判断した場合は、システムコントローラ10は処理をステップF103からF105に進め、画像表示動作に関しての切換制御を行う。これにより表示部2において或る領域(AR1、AR2の一方又は両方)に表示されている画像の内容、もしくは領域形態の切換が行われる。
システムコントローラ10はステップF105で表示切換に関しての制御を行った後も、ステップF103、F104のトリガ発生の監視を行う。
If it is determined that a display switching trigger has occurred, the system controller 10 advances the process from step F103 to F105, and performs switching control for the image display operation. As a result, the content of the image displayed in a certain area (one or both of AR1 and AR2) or the area form is switched on the display unit 2.
The system controller 10 monitors the generation of triggers in steps F103 and F104 even after performing control related to display switching in step F105.

複数画像の表示終了トリガ発生と判断した場合は、システムコントローラ10は処理をステップF104からF106に進め、複数ソースからの画像を表示部2に同時表示させる動作を終了させる。
この場合の表示終了制御としては、例えば撮像機能部位C1からの画像のみを表示させる状態に切り換えるようにしたり、或いは表示部2での画像表示を終了させたり、或いは表示部2での画像表示を終了させて表示部2をスルー状態にしたり、さらに電源オフとすることなどが想定される。
If it is determined that a multiple image display end trigger has occurred, the system controller 10 advances the process from step F104 to F106, and ends the operation of simultaneously displaying images from a plurality of sources on the display unit 2.
As the display end control in this case, for example, switching to a state in which only the image from the imaging function part C1 is displayed, or the image display on the display unit 2 is ended, or the image display on the display unit 2 is performed. It is assumed that the display unit 2 is brought to a through state and the power is turned off.

システムコントローラ10が、例えばこの図11のような制御処理を行うことで、表示部2において複数の画像ソースからの画像が同時表示される。
以下では、複数の画像ソースからの画像の同時表示の例を図12以降を参照しながら述べていく。
The system controller 10 performs control processing as shown in FIG. 11, for example, so that images from a plurality of image sources are simultaneously displayed on the display unit 2.
Hereinafter, an example of simultaneous display of images from a plurality of image sources will be described with reference to FIG.

まず図12、図13により、撮像表示装置1が図1、図4の構成例であって、撮像機能部位C1、C2が共にユーザの前方、つまりユーザの視界方向の光景を撮像するように構成されている場合を説明する。   First, referring to FIGS. 12 and 13, the imaging display device 1 is the configuration example of FIGS. 1 and 4, and the imaging functional parts C <b> 1 and C <b> 2 are both configured to capture a scene in front of the user, that is, in the user's field of view. The case where it is done will be described.

図12(a)は表示部2の全面で通常に表示を行っている場合を示している。例えば撮像機能部位C1で通常に撮像した画像のみを表示部2に表示させた状態である。
これに対して図12(b)は本例の動作により複数の画像ソースからの画像が同時表示されている例である。この場合、撮像機能部位C1による通常撮像画像が表示画像信号とされて領域AR1に表示されながら、撮像機能部位C2による撮像画像が表示画像信号とされて領域AR2において表示される。そして、システムコントローラ10は、撮像機能部位C2の撮像部3に対して望遠ズーム動作制御を行っており、撮像機能部位C2により望遠撮像が行われることで、領域AR2の画像は、領域AR1の画像とは異なる画像となっている。これによりユーザーは、通常の光景をみながら、通常の視覚では見ることのできない望遠画像を楽しむことができる。
なお、ここでは撮像機能部位C2により望遠画像が得られる例を挙げたが、撮像機能部位C2に広角ズームを実行させることで、近距離の光景が広角に映し出された画像を領域AR2に表示させることも可能である。望遠−広角の画像を取得するには、撮像機能部位C2の撮像部3におけるズームレンズの駆動制御の他、撮像機能部位C2の撮像信号処理部15での信号処理によっても可能である。
また図示しないが、いわゆるズーム動作ではなく、システムコントローラ10が撮像機能部位C2の撮像部3に焦点位置を可変させるように指示することで、近景、遠景の画像を撮像させ、その画像を表示部2の領域AR2に表示させてもよい。
FIG. 12A shows a case where display is normally performed on the entire surface of the display unit 2. For example, only the image normally captured by the imaging function part C1 is displayed on the display unit 2.
On the other hand, FIG. 12B is an example in which images from a plurality of image sources are simultaneously displayed by the operation of this example. In this case, while the normal captured image by the imaging function part C1 is displayed as the display image signal and displayed in the area AR1, the captured image by the imaging function part C2 is displayed as the display image signal and displayed in the area AR2. Then, the system controller 10 performs telephoto zoom operation control on the imaging unit 3 of the imaging function part C2, and the image of the area AR2 is the image of the area AR1 by performing telephoto imaging by the imaging function part C2. It is a different image. As a result, the user can enjoy a telephoto image that cannot be viewed with normal vision while viewing a normal scene.
Here, an example in which a telephoto image is obtained by the imaging function part C2 has been described. However, by causing the imaging function part C2 to perform wide-angle zoom, an image in which a short-distance scene is projected at a wide angle is displayed in the area AR2. It is also possible. In order to acquire a telephoto-wide-angle image, it is possible to perform drive control of the zoom lens in the imaging unit 3 of the imaging function part C2 and signal processing in the imaging signal processing unit 15 of the imaging function part C2.
Although not shown in the drawing, not the so-called zoom operation, but the system controller 10 instructs the imaging unit 3 of the imaging function part C2 to change the focal position, thereby capturing images of the near view and the distant view and displaying the images on the display unit. You may display on 2 area | region AR2.

また、撮像機能部位C1による画像、即ちユーザの視界方向の通常撮像画像を領域AR1に表示し、撮像機能部位C2による画像を領域AR2に表示させる例を示しているが、逆に撮像機能部位C1による画像、即ちユーザの視界方向の通常撮像画像を領域AR2に表示し、撮像機能部位C2による画像(望遠画像等)を領域AR1に表示させるようにしてもよい。
以下の各例でも、撮像機能部位C1による画像としてユーザの視界方向の通常撮像画像を領域AR1に表示し、撮像機能部位C1とは異なる画像となる他の画像ソースによる画像を領域AR2に表示させた例を挙げるが、各例すべて、撮像機能部位C1による画像としてユーザの視界方向の通常撮像画像を領域AR2に表示し、撮像機能部位C1とは異なる画像となる他の画像ソースによる画像を領域AR1に表示させる例も考えられる。
In addition, an example is shown in which an image by the imaging function part C1, that is, a normal captured image in the direction of the user's field of view, is displayed in the area AR1, and an image by the imaging function part C2 is displayed in the area AR2. May be displayed in the area AR2, and an image (such as a telephoto image) of the imaging function part C2 may be displayed in the area AR1.
In each of the following examples, a normal captured image in the user's field of view is displayed in the area AR1 as an image by the imaging function part C1, and an image by another image source that is an image different from the imaging function part C1 is displayed in the area AR2. In each example, a normal captured image in the user's field of view is displayed in the area AR2 as an image by the imaging function part C1, and images from other image sources that are different from the imaging function part C1 are displayed in the area. An example of displaying on AR1 is also conceivable.

図12(c)も、撮像機能部位C1による通常撮像画像が表示画像信号とされて領域AR1に表示されながら、撮像機能部位C2による撮像画像が拡大処理されて表示画像信号とされ、領域AR2において表示される例である。このような表示は、システムコントローラ10は、撮像機能部位C2の撮像信号処理部15に対して撮像部3から得られた画像についての拡大処理を指示することで実現される。
このような表示によっても、ユーザーは通常の光景をみながら、通常の視覚では見ることのできない拡大画像を楽しむことができる。
また、システムコントローラ10が撮像機能部位C2に対して撮像部3から得られた画像についての縮小処理を実行させ、領域AR2に縮小画像の表示を行うことも考えられる。
In FIG. 12C as well, the normal captured image by the imaging functional part C1 is displayed as a display image signal and displayed in the area AR1, while the captured image by the imaging functional part C2 is enlarged to be a display image signal in the area AR2. It is an example to be displayed. Such a display is realized by the system controller 10 instructing the imaging signal processing unit 15 of the imaging function part C2 to perform an enlargement process on the image obtained from the imaging unit 3.
Even with such a display, the user can enjoy an enlarged image that cannot be viewed with normal vision while viewing a normal scene.
It is also conceivable that the system controller 10 causes the imaging function part C2 to execute a reduction process on the image obtained from the imaging unit 3 and display a reduced image in the area AR2.

図13(a)は周囲が薄暗い場合を示している。撮像機能部位C1で通常に撮像された画像が領域AR1に表示される。一方、このように周囲が薄暗い場合に、システムコントローラ10は撮像機能部位C2の撮像制御部11(撮像部3、撮像信号処理部15)に対して撮像感度を上げることを指示したり、輝度レベル、コントラスト、シャープネス調整を指示することなどにより、よりはっきりした明るい表示画像信号を得るようにし、それを領域AR2に表示させる。このように明るさ調整画像として、領域AR1の通常撮像画像とは異なる光景の画像が領域AR2に表示されることで、ユーザーは、通常の視覚では見ることのできない画像を見ることができる。
また逆に、周囲が明るすぎる場合などに、システムコントローラ10は撮像機能部位C2の撮像制御部11(撮像部3、撮像信号処理部15)に対して撮像感度を下げることを指示したり、輝度レベル、コントラスト、シャープネス調整を指示することなどにより、まぶしくない表示画像信号を得るようにし、それを領域AR2に表示させるようにすることも考えられる。
FIG. 13A shows a case where the surrounding is dim. An image normally captured by the imaging function part C1 is displayed in the area AR1. On the other hand, when the surroundings are dim as described above, the system controller 10 instructs the imaging control unit 11 (the imaging unit 3 and the imaging signal processing unit 15) of the imaging function part C2 to increase the imaging sensitivity or the luminance level. By instructing the adjustment of contrast and sharpness, a clearer bright display image signal is obtained and displayed in the area AR2. Thus, as a brightness adjustment image, an image of a scene different from the normal captured image in the area AR1 is displayed in the area AR2, so that the user can see an image that cannot be seen with normal vision.
Conversely, when the surroundings are too bright, the system controller 10 instructs the imaging control unit 11 (the imaging unit 3 and the imaging signal processing unit 15) of the imaging function part C2 to lower the imaging sensitivity, or brightness. It may be possible to obtain a display image signal that is not dazzling by instructing adjustment of level, contrast, and sharpness, and to display it in the area AR2.

図13(b)は、例えばユーザが、子供が寝ている暗い寝室に居る場合などであり、領域AR1に表示される撮像機能部位C1の通常撮像画像では、殆ど真っ暗で見えない状況であるとしている。システムコントローラ10が、撮像機能部位C2の撮像制御部11(撮像部3、撮像信号処理部15)に対して赤外線撮像感度の上昇を指示することで、領域AR2に赤外線感度上昇撮像の画像が表示される。即ち暗い部屋で子供の寝顔などを確認できるような画像表示が行われる。これによりユーザーは、通常の視覚では見ることのできない暗視画像を見ることができる。   FIG. 13B shows, for example, a case where the user is in a dark bedroom where a child is sleeping, and the normal captured image of the imaging functional part C1 displayed in the area AR1 is almost dark and invisible. Yes. The system controller 10 instructs the imaging control unit 11 (the imaging unit 3 and the imaging signal processing unit 15) of the imaging function part C2 to increase the infrared imaging sensitivity, so that an image of the infrared sensitivity increased imaging is displayed in the area AR2. Is done. That is, image display is performed so that a child's sleeping face can be confirmed in a dark room. This allows the user to see a night vision image that cannot be seen with normal vision.

図13(c)は、領域AR1で撮像機能部位C1による通常撮像画像が表示され、このときシステムコントローラ10が撮像機能部位C2の撮像制御部11(撮像部3、撮像信号処理部15)に対して紫外線撮像感度の上昇を指示することで、領域AR2に紫外線感度上昇撮像の画像が表示されている例である。これによりユーザーは、通常の視覚では見ることのできない紫外光成分を表した画像を見ることができる。   In FIG. 13C, a normal captured image by the imaging functional part C1 is displayed in the area AR1, and at this time, the system controller 10 controls the imaging control unit 11 (imaging unit 3, imaging signal processing unit 15) of the imaging functional part C2. This is an example in which an image of increasing the sensitivity of ultraviolet rays is displayed in the area AR2 by instructing an increase in the sensitivity of ultraviolet imaging. As a result, the user can see an image representing an ultraviolet light component that cannot be seen with normal vision.

以上の図12、図13は、図4の構成において撮像機能部位C1、C2が共にユーザの前方を撮像するように配置されている場合の例を述べたが、図14は図4の構成において、撮像機能部位C1がユーザの前方を撮像し、撮像機能部位C2がユーザの視界方向である前方とは異なる方向を撮像するように配置されている場合の表示例である。   FIGS. 12 and 13 described above have described an example in which the imaging function parts C1 and C2 are both arranged to image the front of the user in the configuration of FIG. This is a display example in a case where the imaging function part C1 images the front of the user and the imaging function part C2 images the direction different from the front which is the user's view direction.

撮像機能部位C2が例えばユーザの後方を撮像するように配置されている場合、画像表示状態は図14(a)のようになり、領域AR1は撮像機能部位C1による前方の画像が表示され、領域AR2に撮像機能部位C2によるユーザの後方の撮像画像の表示が行われる。
また撮像機能部位C2が例えばユーザの上方を撮像するように配置されている場合、画像表示状態は図14(b)のようになり、領域AR1ではユーザの前方の撮像画像が表示され、領域AR2ではユーザの上方の撮像画像の表示が行われる。
これらの場合も、ユーザは通常の視界方向の画像を領域AR1で見ながら、ユーザの視界とは異なる光景の画像(後方画像や上方画像など)を領域AR2で見ることができる。
For example, when the imaging functional part C2 is arranged so as to capture the rear of the user, the image display state is as shown in FIG. 14A, and the area AR1 displays a front image by the imaging functional part C1. A captured image behind the user is displayed on the AR2 by the imaging function part C2.
In addition, when the imaging functional part C2 is arranged so as to capture an image above the user, for example, the image display state is as shown in FIG. 14B. In the area AR1, a captured image in front of the user is displayed, and the area AR2 Then, the captured image above the user is displayed.
Also in these cases, the user can view an image of a scene different from the user's view (such as a rear image or an upper image) in the area AR2 while viewing the image in the normal view direction in the area AR1.

図14(c)は、例えば撮像機能部位を3個(構成は図示しないが、説明上、撮像機能部位C1、C2、C3と言う)備えた構成の場合の表示例である。
撮像機能部位C1はユーザの前方を撮像し、撮像機能部位C2はユーザの右後方を撮像し、撮像機能部位C3はユーザの左後方を撮像するように配置されているとする。
この場合、領域AR1は撮像機能部位C1によるユーザ前方の撮像画像が表示され、領域AR2、AR3にそれぞれ撮像機能部位C2、C3によるユーザの右後方と左後方の撮像画像の表示が行われる。
この場合ユーザーは、領域AR1での通常の前方の光景に加えて右後方、左後方を視認でき、ほぼ周囲全周を確認できる状態となる。
FIG. 14C is a display example in the case of a configuration including, for example, three imaging function portions (the configuration is not shown but is referred to as imaging function portions C1, C2, and C3 for explanation).
It is assumed that the imaging functional part C1 images the front of the user, the imaging functional part C2 images the right rear of the user, and the imaging functional part C3 images the left rear of the user.
In this case, a captured image in front of the user by the imaging function part C1 is displayed in the area AR1, and the right and left rear captured images of the user by the imaging function parts C2 and C3 are displayed in the areas AR2 and AR3, respectively.
In this case, the user can visually recognize the right rear side and the left rear side in addition to the normal front scene in the area AR1, and can almost check the entire circumference.

図15、図16は、図5のように画像ソースとして通信部26を備えた構成の場合の表示例である。
まず図15は、図6(a)又は図6(c)のような通信で、外部の撮像装置70から送信され、通信部26で受信した画像を表示する例である。
図15(a)は、例えばユーザからの視界として撮像機能部位C1による撮像画像が領域AR1に表示されている。即ちユーザが、スタジアムで客席からサッカーを観戦している状態である。このときにシステムコントローラ10は、スタジアムの別の場所で撮像を行う撮像装置70で撮像され通信部26で受信した画像を、表示部2の領域AR2に表示させる。
例えば監督席近辺に設置された撮像装置70や、審判が装着する小型の撮像装置70などからの映像を受信して、表示部2の領域AR2で表示することで、より興味深く試合観戦を行うことができる。
図15(b)は、リゾート地に設置した撮像装置70や、旅行中の知人が所持する撮像装置70によって撮像した映像を、通信部26で受信した場合である。システムコントローラ10は領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、通信部26で受信した画像を表示させる。
このような画像表示により、ユーザは、例えば近所の公園等にいながら、多様な地域の映像を見ることができる。
図15(c)は、航空機や衛星に設置された撮像装置70で撮像した地上の映像(バードビュー映像)を、通信部26で受信し、表示部2に表示させている例である。即ちシステムコントローラ10は領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、通信部26で受信した画像を表示させる。
このような画像表示により、ユーザは、通常は見ることのできない風景を楽しむことができる。
15 and 16 are display examples in the case of the configuration including the communication unit 26 as an image source as shown in FIG.
First, FIG. 15 is an example in which an image transmitted from the external imaging device 70 and received by the communication unit 26 is displayed by communication as shown in FIG. 6A or 6C.
In FIG. 15A, for example, an image captured by the imaging functional part C1 is displayed in the area AR1 as a field of view from the user. That is, the user is watching soccer from the audience seat at the stadium. At this time, the system controller 10 causes the image AR 70 of the display unit 2 to display an image captured by the imaging device 70 that captures an image at another place in the stadium and received by the communication unit 26.
For example, by receiving video from the imaging device 70 installed near the director's seat or a small imaging device 70 worn by the referee and displaying it in the area AR2 of the display unit 2, the game can be watched more interestingly. Can do.
FIG. 15B shows a case where the communication unit 26 receives an image captured by the imaging device 70 installed in a resort area or the imaging device 70 possessed by a traveling acquaintance. The system controller 10 displays an image received by the communication unit 26 in the area AR2 while displaying an image captured in front of the user by the imaging function part C1 in the area AR1.
Such an image display allows the user to view videos of various regions while in a nearby park, for example.
FIG. 15C is an example in which a terrestrial video (bird view video) captured by the imaging device 70 installed in an aircraft or satellite is received by the communication unit 26 and displayed on the display unit 2. That is, the system controller 10 displays an image received by the communication unit 26 in the area AR2 while displaying an image captured in front of the user by the imaging function part C1 in the area AR1.
Such an image display allows the user to enjoy a landscape that is not normally visible.

図16は、図6(b)又は図6(c)のような通信で、外部のコンテンツソース機器71から送信され、通信部26で受信した画像を表示する例である。
図16(a)は、AV機器やパーソナルコンピュータ等のコンテンツソース機器71から、動画や静止画の画像コンテンツを受信した場合に、その画像コンテンツが表示部2で表示されている例である。システムコントローラ10は領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、通信部26で受信したコンテンツ画像を表示させる。
図16(b)は、例えばパーソナルコンピュータ等のコンテンツソース機器71においてアクセスしているウェブサイトのブラウザ画面、或いは起動中のアプリケーション画面などとしての画像データを、撮像表示装置1に送信させ、撮像表示装置1においては通信部26で受信した画像データを表示部2で表示させている例である。例えばシステムコントローラ10は通信部26を介して外部のコンテンツソース機器71にデータ送信を要求し、その要求に応じて送信されてくるデータを通信部26で受信させる。そして領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、通信部26で受信したブラウザ画面等の画像を表示させる。
図16(c)は、例えばパーソナルコンピュータ等のコンテンツソース機器71において見ることのできる写真画像の一覧表示画像などを撮像表示装置1に送信させ、撮像表示装置1において通信部26で受信し、表示部2に表示させている例である。例えばシステムコントローラ10は通信部26を介して外部のコンテンツソース機器71にデータ送信を要求し、その要求に応じて送信されてくるデータを通信部26で受信させる。そして領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、通信部26で受信した画像を表示させる。
例えば以上の図16(a)(b)(c)のように、コンテンツソース機器71からの画像として、ビデオプレーヤ等のAV機器や、パーソナルコンピュータ等の情報処理装置からのデータを受信して画像表示を行うことで、ユーザは装着した表示装置1において、これらの画像を確認したり、各種の作業を行うことができる。
FIG. 16 shows an example in which an image transmitted from the external content source device 71 and received by the communication unit 26 is displayed through the communication shown in FIG. 6B or 6C.
FIG. 16A shows an example in which when the image content of a moving image or a still image is received from the content source device 71 such as an AV device or a personal computer, the image content is displayed on the display unit 2. The system controller 10 displays the content image received by the communication unit 26 in the area AR2, while displaying the captured image in front of the user by the imaging function part C1 in the area AR1.
In FIG. 16B, image data as a browser screen of a website accessed by the content source device 71 such as a personal computer or an active application screen is transmitted to the imaging display device 1 to display the image. In the apparatus 1, image data received by the communication unit 26 is displayed on the display unit 2. For example, the system controller 10 requests the external content source device 71 to transmit data via the communication unit 26 and causes the communication unit 26 to receive data transmitted in response to the request. In the area AR1, an image such as a browser screen received by the communication unit 26 is displayed in the area AR2, while a captured image in front of the user by the imaging function part C1 is displayed.
In FIG. 16C, for example, a list display image of photographic images that can be viewed on the content source device 71 such as a personal computer is transmitted to the imaging display device 1 and received by the communication unit 26 in the imaging display device 1 and displayed. This is an example displayed on part 2. For example, the system controller 10 requests the external content source device 71 to transmit data via the communication unit 26 and causes the communication unit 26 to receive data transmitted in response to the request. In the area AR1, an image received by the communication unit 26 is displayed in the area AR2 while displaying an image captured in front of the user by the imaging function part C1.
For example, as shown in FIGS. 16A, 16B, and 16C, as an image from the content source device 71, data is received from an AV device such as a video player or an information processing device such as a personal computer. By performing the display, the user can check these images and perform various operations on the display device 1 that is mounted.

次に図17は、図7に示したようにストレージ部25を画像ソースとして備える構成において実行される表示例を示す。
図17(a)は、ストレージ部25における記録媒体に動画や静止画の画像コンテンツが記録されており、その画像コンテンツが再生されて表示部2で表示されている例である。システムコントローラ10はストレージ部25に再生を指示する。そして領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、ストレージ部25で再生させたコンテンツ画像を表示させる。
図17(b)は、ストレージ部25における記録媒体にゲームプログラムが記録されており、そのゲームプログラムに基づく画像が表示部2で表示されている例である。システムコントローラ10はストレージ部25にゲームプログラムの実行を指示する。そして領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、ストレージ部25で実行させたゲーム画像を表示させる。
図17(c)は、ストレージ部25における記録媒体に電子書籍コンテンツが記録されており、その電子書籍コンテンツが再生されて表示部2で表示されている例である。システムコントローラ10はストレージ部25に電子書籍データの再生を指示する。そして領域AR1には撮像機能部位C1によるユーザの前方の撮像画像を表示させながら、領域AR2では、ストレージ部25で再生させた電子書籍画像を表示させる。
これら図17(a)(b)(c)のようにユーザは撮像表示装置1を用いて、通常の視界方向の画像を見ながら、記録媒体に記録されたデータの再生画像を楽しむことができる。
Next, FIG. 17 shows a display example executed in a configuration including the storage unit 25 as an image source as shown in FIG.
FIG. 17A is an example in which moving image or still image image content is recorded on the recording medium in the storage unit 25, and the image content is reproduced and displayed on the display unit 2. The system controller 10 instructs the storage unit 25 to play back. In the area AR1, a content image reproduced by the storage unit 25 is displayed in the area AR2, while a captured image in front of the user by the imaging function part C1 is displayed.
FIG. 17B is an example in which a game program is recorded on a recording medium in the storage unit 25 and an image based on the game program is displayed on the display unit 2. The system controller 10 instructs the storage unit 25 to execute the game program. Then, in the area AR1, a game image executed in the storage unit 25 is displayed in the area AR2, while a captured image in front of the user by the imaging function part C1 is displayed.
FIG. 17C is an example in which electronic book content is recorded on a recording medium in the storage unit 25 and the electronic book content is reproduced and displayed on the display unit 2. The system controller 10 instructs the storage unit 25 to reproduce the electronic book data. Then, in the area AR1, an electronic book image reproduced by the storage unit 25 is displayed in the area AR2, while a captured image in front of the user by the imaging function part C1 is displayed.
As shown in FIGS. 17A, 17B, and 17C, the user can enjoy the reproduced image of the data recorded on the recording medium while viewing the image in the normal viewing direction using the imaging display device 1. .

なお、図17はストレージ部25をソースとする画像、図16は通信部26で受信された外部のコンテンツソース機器71からの画像の例を挙げたが、例えば図16で例に挙げた画像内容をストレージ部25からの再生画像と考えることもできるし、図17で例に挙げた画像内容を外部のコンテンツソース機器71から送信されて通信部26で受信した画像と考えることもできる。   FIG. 17 shows an example of an image with the storage unit 25 as a source, and FIG. 16 shows an example of an image from an external content source device 71 received by the communication unit 26. For example, the image contents shown in FIG. Can be considered as a reproduced image from the storage unit 25, or the image content exemplified in FIG. 17 can be considered as an image transmitted from the external content source device 71 and received by the communication unit 26.

ここまで各種の表示例を示したが、これらは一例にすぎない。本例においては、第1の画像ソースである撮像機能部位C1においてユーザの視界方向の光景を撮像し、それを表示画像信号とすると共に、他の画像ソースにおいて、撮像機能部位C1による画像とは異なる画像としての表示画像信号を生成する。そして、これら各画像ソースからの表示画像信号による画像を表示部2に同時に表示させるものである。このような動作による表示は非常に多様に考えられる。   Various display examples have been shown so far, but these are only examples. In this example, the imaging functional part C1, which is the first image source, captures a scene in the direction of the user's field of view and uses it as a display image signal. In other image sources, what is an image by the imaging functional part C1? A display image signal as a different image is generated. Then, images based on display image signals from these image sources are displayed on the display unit 2 at the same time. Display by such an operation can be considered in various ways.

以下、撮像機能部位C1でユーザの視界方向の通常撮像画像の画像信号を表示画像信号として、例えば表示部2の領域AR1に表示させる場合に、領域AR2に表示させる画像としての表示画像信号の例を挙げていく。   Hereinafter, an example of a display image signal as an image to be displayed in the area AR2 when the image signal of the normal captured image in the user's field of view in the imaging function part C1 is displayed as a display image signal, for example, in the area AR1 of the display unit 2. I will list.

まず図4のような構成で撮像機能部位C2が、撮像機能部位C1と同様にユーザの前方を撮像するように配置されている場合において、撮像機能部位C2の撮像部3で得られた撮像信号に基づく表示画像信号例は次のとおりである。
・撮像機能部位C2の撮像部3のズーム動作で得られる望遠ズーム画像としての表示画像信号
・撮像機能部位C2の撮像部3のズーム動作で得られる広角ズーム画像としての表示画像信号
・撮像機能部位C2の撮像部3の焦点制御動作で得られる遠景画像としての表示画像信号
・撮像機能部位C2の撮像部3の焦点制御動作で得られる近景画像としての表示画像信号
・撮像機能部位C2の撮像部3での撮像フレームレートを変更させて得た高速撮像画像や低速撮像画像などとしての表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理で拡大処理を行った表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理で縮小処理を行った表示画像信号
・撮像機能部位C2の撮像部3での撮像感度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像機能部位C2の撮像部3での撮像感度を低下させて明るさを抑えた画像としての表示画像信号
・撮像機能部位C2の撮像部3での赤外線撮像感度を上昇させて得た暗視画像としての表示画像信号
・撮像機能部位C2の撮像部3での紫外線撮像感度を上昇させて得た画像としての表示画像信号
・撮像機能部位C2の撮像部3で特定波長帯域をカットして撮像した画像としての表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理で輝度を上昇させて明るさをアップさせた画像としての表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理で輝度を低下させて明るさを抑えた画像としての表示画像信号
・撮像機能部位C2の撮像信号処理部15の色信号処理で色合いや雰囲気を変化させた画像としての表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理でコントラスト、シャープネス等を調整した画像としての表示画像信号
・撮像機能部位C2の撮像信号処理部15の信号処理として、モザイク/輝度反転/ソフトフォーカス/画像内の一部の強調表示/ハイライト表示などの画像エフェクト処理を行って得た画像としての表示画像信号
・以上の各動作又は信号処理の組み合わせにより撮像機能部位C2で得た表示画像信号
First, when the imaging functional part C2 is arranged so as to image the front of the user in the configuration as shown in FIG. 4 in the same manner as the imaging functional part C1, the imaging signal obtained by the imaging unit 3 of the imaging functional part C2 An example of the display image signal based on is as follows.
Display image signal as a telephoto zoom image obtained by the zoom operation of the imaging unit 3 of the imaging function part C2 Display image signal as a wide-angle zoom image obtained by the zoom operation of the imaging unit 3 of the imaging function part C2 Display image signal as a distant view image obtained by the focus control operation of the image pickup unit 3 of C2 and the image pickup unit of the display image signal and the image pickup function portion C2 as a near view image obtained by the focus control operation of the image pickup unit 3 of the image pickup function portion C2 Display image signal / imaging that has been enlarged by the signal processing of the imaging signal processing unit 15 of the display image signal / imaging function part C2 as a high-speed captured image or low-speed captured image obtained by changing the imaging frame rate in FIG. The display image signal that has been reduced by the signal processing of the imaging signal processing unit 15 of the functional part C2 and the imaging sensitivity of the imaging part 3 of the imaging functional part C2 are increased to increase the brightness. The display image signal as an image and the imaging sensitivity at the imaging unit 3 of the imaging function part C2 are reduced, and the imaging sensitivity at the imaging unit 3 of the display image signal and the imaging function part C2 as an image with reduced brightness. In the imaging unit 3 of the display image signal / imaging function part C2 as an image obtained by increasing the ultraviolet imaging sensitivity in the imaging part 3 of the display image signal / imaging function part C2 as a night vision image obtained by raising Display image signal / imaging function as an image whose brightness is increased by signal processing of the imaging signal processing unit 15 of the display image signal / imaging function part C2 as an image captured by cutting a specific wavelength band Display image signal as an image in which the brightness is reduced by the signal processing of the imaging signal processing unit 15 of the part C2 and the brightness is suppressed, and the hue and atmosphere are changed by the color signal processing of the imaging signal processing unit 15 of the imaging function part C2. Display image signal as an image that has been adjusted and signal processing of the imaging signal processing unit 15 of the imaging function part C2 Display image signal as an image in which contrast, sharpness, etc. have been adjusted by signal processing of the imaging signal processing part 15 As a display image signal as an image obtained by performing image effect processing such as mosaic / brightness inversion / soft focus / partial highlighting / highlight display in an image, etc. Display image signal obtained at functional part C2

撮像機能部位C2で、撮像機能部位C1と同様にユーザ正面の光景を撮像する場合は、例えばこれらのような動作や処理で表示画像信号を得ることで、撮像機能部位C1からの表示画像信号による画像と、それとは異なる画像とが同時表示できることになる。
もちろん、上記列挙したものに限定されるものではなく、撮像機能部位C2の撮像部3の動作、撮像信号処理部15の信号処理により得られる、「撮像機能部位C1による画像とは異なる画像」としての表示画像信号は多様に考えられる。
またズーム処理や拡大/縮小処理の倍率、撮像感度変更時の変更するレベル、輝度信号処理や色信号処理での処理係数など、任意に可変することも考えられる。
When the imaging functional part C2 images a scene in front of the user in the same manner as the imaging functional part C1, for example, by obtaining a display image signal by such operations and processes, it is possible to use the display image signal from the imaging functional part C1. An image and a different image can be displayed simultaneously.
Of course, the present invention is not limited to the above-described ones, and “an image different from the image by the imaging function part C1” obtained by the operation of the imaging unit 3 of the imaging function part C2 and the signal processing of the imaging signal processing part 15 is used. There are various display image signals.
Further, it is conceivable that the zoom processing or the magnification / reduction processing magnification, the level to be changed when the imaging sensitivity is changed, the processing coefficient in the luminance signal processing or the color signal processing, and the like can be arbitrarily changed.

一方、図4のような構成で撮像機能部位C2が、撮像機能部位C1の被写体方向(ユーザの前方)とは異なる方向を撮像するように配置されている場合においては、撮像機能部位C2による表示画像信号例は次のように考えればよい。
即ち、この場合、撮像機能部位C2での通常撮像で得られた撮像画像は、それ自体が既に撮像機能部位C1での通常撮像で得られる撮像画像とは異なる光景(例えば後方、上方、足下、右方、左方などの光景)であるため、撮像機能部位C2の撮像画像信号を、そのまま表示画像信号とし、撮像機能部位C1からの表示画像信号とともに表示部2に表示させればよい。
さらに、その場合に上記列挙したように、撮像機能部位C2の撮像部3の撮像動作や撮像信号処理部15の信号処理を加えた画像信号を表示画像信号としてもよい。
On the other hand, when the imaging functional part C2 is arranged so as to capture a direction different from the subject direction of the imaging functional part C1 (in front of the user) in the configuration as shown in FIG. 4, display by the imaging functional part C2 An example of the image signal may be considered as follows.
That is, in this case, the captured image obtained by the normal imaging at the imaging function part C2 is different from the captured image already obtained by the normal imaging at the imaging function part C1 (for example, rear, upper, foot, Therefore, the captured image signal of the imaging function part C2 may be used as it is as a display image signal and displayed on the display unit 2 together with the display image signal from the imaging function part C1.
Furthermore, in this case, as listed above, an image signal obtained by adding the imaging operation of the imaging unit 3 of the imaging functional part C2 and the signal processing of the imaging signal processing unit 15 may be used as the display image signal.

また、例えば3つ以上の撮像機能部位C1、C2、C3・・・を備える場合も同様に考えることができる。撮像機能部位C2、C3・・・のうち、撮像機能部位C1と同方向を撮像する撮像機能部位が存在する場合は、その撮像画像信号については、上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理により、撮像機能部位C1の画像とは異なる光景とした画像を表示画像信号とすればよい。
また撮像機能部位C2、C3・・・のうち、撮像機能部位C1とは異なる方向(ユーザの前方以外の方向)を撮像する撮像部3が存在する場合は、その撮像画像信号そのものを表示画像信号としてもよいし、上記列挙したように、撮像部3の撮像動作や撮像信号処理部15の信号処理を加えた画像信号を表示画像信号としてもよい。
Further, for example, the case where three or more imaging function parts C1, C2, C3,. When there is an imaging function part that images in the same direction as the imaging function part C1, among the imaging function parts C2, C3,..., As described above, the imaging operation of the imaging unit 3 is performed on the captured image signal. Alternatively, an image having a scene different from the image of the imaging functional part C1 by the signal processing of the imaging signal processing unit 15 may be used as the display image signal.
In addition, when there is an imaging unit 3 that captures a direction (a direction other than the front of the user) different from the imaging function part C1 among the imaging function parts C2, C3,..., The captured image signal itself is displayed as a display image signal. Alternatively, as listed above, an image signal obtained by adding the imaging operation of the imaging unit 3 or the signal processing of the imaging signal processing unit 15 may be used as the display image signal.

なお、撮像機能部位C2、C3・・・のうちで同方向を撮像する撮像機能部位が設けられた場合は、一方を通常撮像画像を表示画像信号とし、他方を上記列挙したように撮像部3の撮像動作や撮像信号処理部15の信号処理を加えた画像信号を表示画像信号とすることで、それら同方向の撮像画像から異なる画像の表示画像信号を得ることができる。もちろんその場合に、両方とも、上記列挙したように撮像部3の撮像動作や撮像信号処理部15の信号処理を加えた画像信号を表示画像信号としてもよい。
例えばユーザの後方を撮像する撮像機能部位C2、C3を有する場合に、一方で通常撮像画像を表示画像信号とし、他方で望遠撮像画像を表示画像信号とする例や、一方で拡大画像を表示画像信号とし、他方で紫外線撮像感度上昇撮像による撮像画像を表示画像信号とするなどである。
In the case where an imaging function part for imaging in the same direction is provided among the imaging function parts C2, C3..., One is a normal captured image as a display image signal, and the other is the imaging unit 3 as listed above. By using the image signal obtained by adding the imaging operation and the signal processing of the imaging signal processing unit 15 as the display image signal, it is possible to obtain display image signals of different images from the captured images in the same direction. In that case, of course, in both cases, as described above, an image signal obtained by adding the imaging operation of the imaging unit 3 or the signal processing of the imaging signal processing unit 15 may be used as the display image signal.
For example, in the case of having imaging function parts C2 and C3 for imaging the rear of the user, on the one hand, a normal captured image is used as a display image signal, and on the other hand, a telephoto captured image is used as a display image signal. On the other hand, a captured image obtained by imaging with increased sensitivity of ultraviolet imaging is used as a display image signal.

また撮像機能部位C2として、撮像方向可変の可動式の撮像部を有する構成の場合も同様であり、撮像機能部位C2において、ユーザの前方以外の撮像画像や、撮像部3の撮像動作や撮像信号処理部15の信号処理を加えた画像信号を表示画像信号としてもよい。
また可動式の場合、特定の対象を追尾するような可動制御を行うことも考えられる。例えば撮像画像信号についての画像解析を行い、特定対象を検出した場合、撮像画像内での特定対象の動きに合わせて撮像方向を変化させる。このような制御により、ユーザは、特定の対象を追尾する画像を、例えば領域AR2において見ることができる。
The same applies to the case where the imaging function part C2 has a movable imaging unit with a variable imaging direction. In the imaging function part C2, the captured image other than the front of the user, the imaging operation of the imaging unit 3, and the imaging signal are used. An image signal to which the signal processing of the processing unit 15 is added may be used as a display image signal.
In the case of a movable type, it is also conceivable to perform a movable control that tracks a specific target. For example, when image analysis is performed on a captured image signal and a specific target is detected, the imaging direction is changed in accordance with the movement of the specific target in the captured image. With such control, the user can view an image tracking a specific target, for example, in the area AR2.

通信部26で受信した外部機器からの画像を表示させる場合も同様に考えることができる。
即ち、外部の撮像装置70やコンテンツソース機器71からの画像は、それ自体が撮像機能部位C1で得られる表示画像信号とは異なる画像であるため、通信部26で受信した画像信号を、そのまま表示画像信号として表示部2に表示させることで、ユーザに多様な画像を提供できることになる。
さらにストレージ部25で再生した画像も同様であり、それ自体が撮像機能部位C1で得られる表示画像信号とは異なる画像であるため、ストレージ部25で再生した画像信号を、そのまま表示画像信号として表示部2に表示させることで、ユーザに多様な画像を提供できる。
なお、表示画像処理部12において、拡大、縮小、輝度処理、色処理、コントラスト調整、シャープネス調整、画像エフェクト等の画像信号処理を実行できるようにする場合、通信部26で受信した画像信号やストレージ部25で再生した画像信号に対して、それらの画像信号処理を加えて表示画像信号を生成してもよい。
また通信部26やストレージ部25を画像ソースとする場合は、高速再生、スロー再生、コマ送り再生などの変速再生による画像や、表示ページの切換、スクロール表示などパーソナルコンピュータ等における表示と同様の画像表示も可能である。
The same can be considered when displaying an image from an external device received by the communication unit 26.
That is, since the image from the external imaging device 70 or the content source device 71 is an image different from the display image signal obtained by the imaging function part C1, the image signal received by the communication unit 26 is displayed as it is. By displaying the image signal on the display unit 2, various images can be provided to the user.
Further, the image reproduced by the storage unit 25 is the same, and is an image different from the display image signal obtained by the imaging function part C1. Therefore, the image signal reproduced by the storage unit 25 is displayed as a display image signal as it is. By displaying on the unit 2, various images can be provided to the user.
When the display image processing unit 12 can execute image signal processing such as enlargement, reduction, luminance processing, color processing, contrast adjustment, sharpness adjustment, and image effect, the image signal received by the communication unit 26 and storage The display image signal may be generated by adding the image signal processing to the image signal reproduced by the unit 25.
When the communication unit 26 or the storage unit 25 is used as an image source, an image obtained by variable speed reproduction such as high-speed reproduction, slow reproduction, or frame advance reproduction, or an image similar to a display on a personal computer or the like such as display page switching or scroll display. Display is also possible.

また、以上では撮像機能部位C1については通常撮像画像を表示画像信号とするとして説明してきたが、撮像機能部位C1における撮像部3や撮像信号処理部15により、例えば望遠/広角ズーム、拡大/縮小、感度変更、近景撮像/遠景撮像、輝度処理、色処理、画像エフェクト等を行った画像信号を表示画像信号としてもよい。
いずれにしても、他の画像ソースでは、撮像機能部位C1からの画像とは異なる画像の表示画像信号を生成させればよい。
In the above description, the image pickup function part C1 has been described as a normal picked-up image as a display image signal. Alternatively, an image signal that has undergone sensitivity change, near-field imaging / far-field imaging, luminance processing, color processing, image effect, or the like may be used as the display image signal.
In any case, with other image sources, a display image signal of an image different from the image from the imaging function part C1 may be generated.

[5.動作トリガの例]

上記図11の処理に示したように、システムコントローラ10はステップF101で複数画像の表示開始トリガ発生と判断することで複数の画像ソースからの画像表示を実行させる。またステップF103で表示切換トリガ発生と判断することに応じて表示内容や領域形態の切換を行う。さらにステップF104で複数画像の表示終了トリガ発生と判断することで複数画像の表示動作を終了させる。
そしてこれらの表示動作に関するトリガとしては、ユーザの操作によるものとすればよいが、ユーザの状況や外界の状況を検知し、所定の条件によりシステムコントローラ10がトリガ発生と判断しても良いと述べた。
ここでは、ユーザ状況や外界状況によりトリガ発生の判断を行う例について述べる。
[5. Example of operation trigger]

As shown in the process of FIG. 11, the system controller 10 determines that a display start trigger for a plurality of images has been generated in step F101, and executes image display from a plurality of image sources. Further, in step F103, the display contents and the area form are switched in response to the determination that the display switching trigger is generated. Further, in step F104, it is determined that a multi-image display end trigger has occurred, and the multi-image display operation is terminated.
The trigger relating to these display operations may be triggered by the user's operation, but the user's situation or the outside world situation may be detected, and the system controller 10 may determine that the trigger has occurred according to a predetermined condition. It was.
Here, an example will be described in which the occurrence of a trigger is determined according to the user situation or the outside world situation.

まずユーザ状況によりトリガ発生と判断する場合、撮像表示装置1は動作トリガ情報発生部16として視覚センサ、加速度センサ、ジャイロ、生体センサなどを設けるようにする。
視覚センサは、ユーザの視覚に関する情報を検出するものとするが、この視覚センサは、一例としては、例えば表示部2の近辺に配置されてユーザの眼部を撮像するようにされた撮像部により形成できる。そして該撮像部が撮像したユーザの眼部の画像をシステムコントローラ10が取り込み、画像解析を行うことで、視線方向、焦点距離、瞳孔の開き具合、眼底パターン、まぶたの開閉などを検出でき、これた基づいてユーザの状況や意志を判定できる。
或いは視覚センサは、表示部2の近辺に配置されてユーザの眼部に光を照射する発光部と、眼部からの反射光を受光する受光部により形成できる。例えば受光信号からユーザの水晶体の厚みを検知することでユーザの眼の焦点距離を検出することも可能である。
First, when it is determined that a trigger is generated according to a user situation, the imaging display device 1 is provided with a visual sensor, an acceleration sensor, a gyroscope, a biological sensor, and the like as the operation trigger information generation unit 16.
The visual sensor detects information related to the user's vision. For example, the visual sensor is provided by, for example, an imaging unit that is arranged in the vicinity of the display unit 2 and images the user's eyes. Can be formed. The system controller 10 captures an image of the user's eye captured by the image capturing unit and performs image analysis, thereby detecting the line-of-sight direction, focal length, pupil opening, fundus pattern, eyelid opening / closing, etc. The user's situation and will can be determined based on the results.
Alternatively, the visual sensor can be formed by a light emitting unit that is arranged in the vicinity of the display unit 2 and irradiates light to the user's eyes, and a light receiving unit that receives reflected light from the eyes. For example, it is possible to detect the focal length of the user's eyes by detecting the thickness of the user's crystalline lens from the received light signal.

ユーザの視線方向を検出することで、システムコントローラ10は例えば表示部2に表示された画像においてユーザが注目している部分を判定できる。
またシステムコントローラ10は、ユーザの視線方向を、操作入力として認識することも可能である。例えばユーザが視線を左右に動かすことを、撮像表示装置1に要求する所定の操作入力とするなどである。
ユーザの焦点距離を検出することで、ユーザが注目している光景が遠方か近傍かを判別でき、それに応じてズーム制御、拡大/縮小制御、焦点変更制御などを行うことも可能である。例えばユーザが遠くを見たときに望遠表示を行うなどである。
ユーザの瞳孔の開き具合を検出すれば、スルー状態であれば周囲の明るさの状態、またモニタ表示状態であれば表示している画像に対してユーザが感じているまぶしさ等を判定でき、それに応じて輝度調整、撮像感度調整などを行うことができる。
ユーザの眼底パターンの検出は、例えばユーザの個人認証に用いることができる。眼底パターンは各人に固有のパターンであるため、眼底パターンによって装着したユーザを判定し、そのユーザに適した制御を行うこと、或いは特定のユーザにのみ表示動作を実行できるようにすることなどの制御が可能である。
ユーザのまぶたの開閉動作を検出することで、ユーザが感じているまぶしさや眼の疲れを判定できる。また、まぶたの開閉を、ユーザの意識的な操作入力として認識することも可能である。例えばユーザが3回まばたきをすることを、所定の操作入力と判定するなどである。
By detecting the direction of the user's line of sight, the system controller 10 can determine, for example, the part of the image displayed on the display unit 2 that the user is paying attention to.
The system controller 10 can also recognize the user's line-of-sight direction as an operation input. For example, moving the line of sight left and right by the user is a predetermined operation input requested to the imaging display device 1.
By detecting the focal length of the user, it is possible to determine whether the scene that the user is paying attention to is far or near, and it is possible to perform zoom control, enlargement / reduction control, focus change control, and the like accordingly. For example, a telephoto display is performed when the user looks far away.
By detecting the degree of pupil opening of the user, it is possible to determine the brightness of the surroundings if it is a through state, the glare that the user feels for the displayed image if it is a monitor display state, Accordingly, brightness adjustment, imaging sensitivity adjustment, and the like can be performed.
The detection of the fundus pattern of the user can be used for personal authentication of the user, for example. Since the fundus pattern is unique to each person, it is possible to determine a user wearing the fundus pattern and perform control suitable for the user, or to perform a display operation only for a specific user. Control is possible.
By detecting the opening / closing operation of the user's eyelids, it is possible to determine the user's feeling of glare or eye fatigue. It is also possible to recognize opening / closing of the eyelid as a user's conscious operation input. For example, it is determined that the user blinks three times as a predetermined operation input.

加速度センサ、及びジャイロは、ユーザの動きに応じた信号を出力する。例えば加速度センサは直線方向の動きを検出し、ジャイロにより回転系の動きや振動を検出する場合に適している。
加速度センサやジャイロの配置位置にもよるが、加速度センサやジャイロによって、ユーザの身体全体もしくは身体の各部の動きを検知できる。
例えば図1のような眼鏡型の撮像表示装置1の内部に取り付けられた場合、つまり加速度センサ及びジャイロがユーザの頭部の動きを検出するものとされた場合は、加速度センサの検出情報は、ユーザの頭部或いは全身の動きとしての加速度情報となり、またジャイロの検出情報はユーザの頭部或いは全身の動きとしての角速度や振動の情報となる。
これによって、ユーザが首から頭部を動かす挙動を検知できる。例えば上方を向いている状態や下方を向いている状態を判定できる。下方を向いているときとは、ユーザが読書など近傍を見ていると判断することも可能である。逆に上方を向いているときは、遠方を見ていると判断することもできる。
またシステムコントローラ10はユーザの首から頭部を動かす挙動を検出したら、それをユーザの意識的な操作と認識することもできる。例えば左に2回首を振ったら、それが所定の操作入力とするなどである。
また加速度センサ及びジャイロによっては、ユーザが静止状態(非歩行状態)であるか、歩行状態であるか、走行状態であるかなどの判断も可能である。また立っている状態から座った場合、或いは立ち上がった場合などの検出も可能である。
また、加速度センサやジャイロが、頭部に装着する装着ユニットとは別体に設けられ、腕や足に取り付けられるようにすれば、腕のみの挙動、足のみの挙動も検知できる。
The acceleration sensor and the gyro output a signal corresponding to the user's movement. For example, an acceleration sensor is suitable for detecting movement in a linear direction and detecting movement and vibration of a rotating system with a gyro.
Although depending on the arrangement position of the acceleration sensor and the gyro, the acceleration sensor and the gyro can detect the movement of the entire body of the user or each part of the body.
For example, when it is attached inside the eyeglass-type imaging display device 1 as shown in FIG. The acceleration information is the movement of the user's head or whole body, and the gyro detection information is the angular velocity and vibration information as the movement of the user's head or whole body.
Thereby, it is possible to detect the behavior of the user moving the head from the neck. For example, it is possible to determine a state facing upward or a state facing downward. When facing down, it can be determined that the user is looking in the vicinity, such as reading. Conversely, when looking upward, it can be determined that the user is looking far away.
Further, when the system controller 10 detects the behavior of moving the head from the user's neck, it can also recognize it as a user's conscious operation. For example, if the head is swung to the left twice, that is a predetermined operation input.
Depending on the acceleration sensor and the gyro, it is possible to determine whether the user is in a stationary state (non-walking state), a walking state, or a running state. It is also possible to detect when sitting or standing from a standing state.
Further, if the acceleration sensor and the gyro are provided separately from the mounting unit mounted on the head and are attached to the arms and feet, the behavior of only the arms and the behavior of only the feet can be detected.

生体センサは、ユーザの生体情報として例えば心拍情報(心拍数)、脈拍情報(脈拍数)、発汗情報、脳波情報(例えばα波、β波、θ波、δ波の情報)、又は皮膚電気反応、体温、血圧、呼吸活動(例えば呼吸の速さ、深さ、換気量など)等を検出するが、これらの情報からシステムコントローラ10は、ユーザが緊張状態や興奮状態にあること、或いは感情的に穏やかな状態にあること、或いは快適な状態か不快な状態にあることなどを判定できる。
また撮像表示装置1をユーザが装着したことの検知も、生体情報により可能である。例えばシステムコントローラ10は、ユーザが撮像表示装置1を装着していない時には生体情報検知のみをおこなうスタンバイ状態に制御し、生体情報によりユーザが撮像表示装置1を装着したことを検知したら、電源オン状態とすることや、逆にユーザが撮像表示装置1の装着を外したらスタンバイ状態に戻すなどの制御も可能である。
さらに生体センサによる検出情報は、ユーザの個人認証(装着者個人の識別)にも利用できる。
なお生体センサは、例えば眼鏡型の撮像表示装置1の装着フレーム内側に配置することで、例えばユーザの側頭部や後頭部において、上記情報を検知できるようにしてもよいし、撮像表示装置1の装着フレーム部分とは別体として、身体の所定箇所に装着されるようにしてもよい。
The biometric sensor is, for example, heartbeat information (heart rate), pulse information (pulse rate), sweating information, brain wave information (for example, information on α wave, β wave, θ wave, and δ wave) or electrodermal reaction as user's biological information. , Body temperature, blood pressure, respiratory activity (for example, breathing speed, depth, ventilation volume, etc.), etc. are detected. From these information, the system controller 10 determines that the user is in a tense state, an excited state, or emotional. It is possible to determine whether the user is in a calm state or in a comfortable or uncomfortable state.
In addition, it is possible to detect that the user wears the imaging display device 1 based on biological information. For example, the system controller 10 controls the standby state in which only the biometric information is detected when the user is not wearing the imaging display device 1. When the system controller 10 detects that the user wears the imaging display device 1 based on the biometric information, the system controller 10 is turned on. Conversely, when the user unmounts the imaging display device 1, control such as returning to the standby state is also possible.
Furthermore, the detection information by the biosensor can also be used for user personal authentication (identification of the individual wearer).
For example, the biometric sensor may be arranged inside the wearing frame of the eyeglass-type imaging display device 1 so that the information can be detected, for example, in the user's temporal region or occipital region. You may make it mount | wear with the predetermined location of a body separately from a mounting frame part.

次に外界の状況を検知する場合においては、撮像表示装置1は、外界情報を取得するための構成として、動作トリガ情報発生部16に周囲環境センサ、撮像対象センサ、GPS受信部、日時計数部、画像解析部を設けたり、通信部26を利用する。   Next, in the case of detecting the situation of the outside world, the imaging display device 1 includes, as a configuration for acquiring outside world information, an ambient environment sensor, an imaging target sensor, a GPS reception unit, a date and time count in the operation trigger information generation unit 16. A communication unit 26 is used.

周囲環境センサとしては、照度センサ、温度センサ、湿度センサ、気圧センサ等が想定される。
照度センサによっては、撮像表示装置1の周囲の明るさの情報を検出できる。
また温度センサ、湿度センサ、気圧センサによっては、温度、湿度、気圧或いは天候を判別する情報を得ることができる。
これらの周囲環境センサにより、撮像表示装置1は周囲の明るさや戸外の場合の気象状況などを判定できるため、システムコントローラ10は、これらを外界情報として用いて、周囲の明るさや気象状況に適した表示画像信号の生成動作を実行制御できる。例えば周囲の明るさに応じて画像の輝度レベルを上下させたり、天候状況に応じて画像の雰囲気を変えるなどである。
As the ambient environment sensor, an illuminance sensor, a temperature sensor, a humidity sensor, an atmospheric pressure sensor, or the like is assumed.
Depending on the illuminance sensor, it is possible to detect the brightness information around the imaging display device 1.
Depending on the temperature sensor, the humidity sensor, and the atmospheric pressure sensor, information for determining the temperature, humidity, atmospheric pressure, or weather can be obtained.
These ambient environment sensors allow the imaging display device 1 to determine ambient brightness, weather conditions in the outdoors, and the like, so that the system controller 10 uses these as external environment information and is suitable for ambient brightness and weather conditions. The display image signal generation operation can be controlled. For example, the brightness level of the image is raised or lowered according to the ambient brightness, or the atmosphere of the image is changed according to the weather conditions.

撮像対象センサは撮像対象についての情報を検知する。例えば測距センサや焦電センサなどが考えられるが、撮像対象との距離や、撮像対象自体を判定する情報を得ることができる。
撮像対象までの距離を検出することで、システムコントローラ10は、距離に応じた撮像動作、表示動作を実行制御できる。また撮像対象が人などの生体であることを検知することで、撮像対象に応じた表示画像信号の生成動作を実行制御できる。
The imaging target sensor detects information about the imaging target. For example, a distance measuring sensor, a pyroelectric sensor, or the like can be considered, and information for determining the distance to the imaging target or the imaging target itself can be obtained.
By detecting the distance to the imaging target, the system controller 10 can execute and control the imaging operation and the display operation according to the distance. Further, by detecting that the imaging target is a living body such as a person, it is possible to execute and control a display image signal generation operation corresponding to the imaging target.

GPS受信部21は、現在位置としての緯度・経度の情報を取得する。緯度・経度を検出した場合、地図データベース等を参照することで、現在位置における地点(地点近辺)の情報を得ることができる。例えばシステムコントローラ10が参照できる記録媒体として、例えばHDD(Hard Disk Drive)やフラッシュメモリなどであって比較的大容量の記録媒体を搭載し、これらの記録媒体に地図データベースを記憶させることで、現在位置に関連する情報を取得できる。
また通信部26を有する構成の場合、撮像表示装置1に地図データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや地図データベース内蔵機器にアクセスし、緯度・経度を送信して現在位置に応じた情報を要求し、情報を受信するようにしてもよい。
現在位置に関連する情報としては、現在位置近辺の地名、建造物名、施設名、店名、駅名などの名称情報がある。
また現在位置に関連する情報としては、公園、テーマパーク、コンサートホール、劇場、映画館、スポーツ施設など、建造物の種別を示す情報もある。
また現在位置に関連する情報としては、海岸、海上、河川、山間部、山頂部、森林、湖、平野部など、自然物の種別や名称の情報もある。
また、より詳細な位置についての情報として、例えばテーマパーク内でのエリアや、野球場、サッカー場などでの観戦席のエリア、コンサートホールでの座席のエリアの情報なども現在位置についての情報として取得することができる。
これら、現在位置に関する情報を取得することで、システムコントローラ10は、現在位置や現在地点の近辺の地理的条件や施設などに応じた表示画像信号の生成動作を実行制御したり、特定の場所において表示開始制御或いは表示終了制御を行うなどが可能となる。
The GPS receiving unit 21 acquires latitude / longitude information as the current position. When the latitude / longitude is detected, it is possible to obtain information on a point (near the point) at the current position by referring to a map database or the like. For example, as a recording medium that can be referred to by the system controller 10, for example, a relatively large capacity recording medium such as an HDD (Hard Disk Drive) or a flash memory is mounted, and a map database is stored in these recording media. Information related to the position can be acquired.
Further, in the case of the configuration having the communication unit 26, even if the image display device 1 does not have a built-in map database, for example, the network server or the map database built-in device is accessed via the communication unit 26, and the latitude and longitude are transmitted. Information corresponding to the current position may be requested and information may be received.
Information related to the current position includes name information such as a place name, a building name, a facility name, a shop name, and a station name near the current position.
Information related to the current position includes information indicating the type of building such as a park, a theme park, a concert hall, a theater, a movie theater, and a sports facility.
Information relating to the current position includes information on the types and names of natural objects such as coasts, seas, rivers, mountains, mountain peaks, forests, lakes, and plains.
In addition, as information about the current position, for example, information on the location in the theme park, the area of the spectator seat in the baseball stadium, the soccer field, the information on the seat area in the concert hall, etc. Can be acquired.
By acquiring the information on the current position, the system controller 10 controls the execution of the display image signal generation operation according to the current position, the geographical conditions in the vicinity of the current point, the facility, etc., or at a specific location. It is possible to perform display start control or display end control.

日時計数部は例えば年月日時分秒を計数する。この日時計数部によってシステムコントローラ10は、現在時刻、昼夜の別、月、季節などを認識できる。このため、例えば昼夜の別(時刻)に応じた表示画像信号の生成動作や、現在の季節に適した表示画像信号の生成動作などを実行制御できる。   The date / time counting unit counts year / month / day / hour / minute / second, for example. By this date and time counting unit, the system controller 10 can recognize the current time, day / night distinction, month, season, and the like. For this reason, for example, it is possible to execute and control a display image signal generation operation according to day and night (time), a display image signal generation operation suitable for the current season, and the like.

撮像画像を解析する画像解析部を設ければ、撮像画像から撮像対象についての以下のような各種の情報を検出できる。
まず撮像対象の種別として、撮像画像に含まれている人物、動物、自然物、建造物、機器などを判別できる。例えば動物としては、被写体として鳥が撮像されている状況や猫が撮像されている状況等を判別できる。また自然物としては、海、山、樹木、河川、湖、空、太陽、月などを判別できる。建造物としては、家屋、ビル、競技場などを判別できる。機器としては、パーソナルコンピュータ、AV(Audio-Visual)機器、携帯電話機、PDA、ICカード、二次元バーコードなどが撮像対象となっている状況を判別できる。
これら撮像対象の種別は、予め各種別の形状の特徴を設定しておき、撮像画像内に、形状が該当する被写体が含まれているか否かにより判別可能である。
また画像解析部による画像解析によれば、画像の前後フレームの差分検出などの手法で、被写体の動きの検出、例えば素早い動きが画像内も可能である。例えばスポーツ観戦で選手を撮像している際や、走行している自動車等を撮像している場合などに、動きの素早い被写体を撮像しているという状況を検知することができる。
また画像解析部による画像解析によれば、周囲の状況を判定することも可能である。例えば昼夜や天候による明るさの状況を判定できるし、雨の強さなども認識可能である。
If an image analysis unit for analyzing a captured image is provided, the following various types of information about the imaging target can be detected from the captured image.
First, a person, animal, natural object, building, device, or the like included in the captured image can be identified as the type of the imaging target. For example, as an animal, it is possible to determine a situation where a bird is imaged as a subject, a situation where a cat is imaged, and the like. As natural objects, the sea, mountains, trees, rivers, lakes, sky, sun, moon, etc. can be distinguished. As buildings, houses, buildings, and stadiums can be identified. As a device, it is possible to determine a situation in which a personal computer, an AV (Audio-Visual) device, a mobile phone, a PDA, an IC card, a two-dimensional barcode, or the like is an imaging target.
These types of imaging targets can be determined by setting characteristics of various shapes in advance and determining whether or not a subject corresponding to the shape is included in the captured image.
Further, according to the image analysis by the image analysis unit, it is possible to detect the movement of the subject, for example, a quick movement within the image by a method such as detection of a difference between frames before and after the image. For example, it is possible to detect a situation in which a fast-moving subject is being imaged, for example, when a player is imaged during a sporting event or when a moving automobile is being imaged.
Moreover, according to the image analysis by the image analysis unit, it is possible to determine the surrounding situation. For example, it is possible to determine the brightness situation due to day and night or weather, and it is also possible to recognize the intensity of rain.

また、画像解析部による画像解析によれば、人物が被写体となっている場合に、その人物の顔から人物個人を特定する判別も可能である。既に知られているように、人物の顔は、顔の構成要素の相対位置情報として個人特徴データ化することができる。例えば目の中心と鼻との距離ENと目の間隔の距離Edの比(Ed/EN)や、目の中心と口との距離EMと目の間隔の距離Edの比(Ed/EM)は、個人毎に特有となるとともに、髪型や眼鏡等の装着物などによる、外観上の変化の影響を受けない情報である。さらに加齢によっても変化しないことが知られている。
従って、画像解析部は、撮像画像内に或る人物の顔が含まれているときに、その画像を解析すれば上記のような個人特徴データを検出することができる。
撮像画像から個人特徴データを検出した場合、例えばシステムコントローラ10が参照できる記録媒体として、例えばHDDやフラッシュメモリなどを搭載し、これらの記録媒体に人物データベースを記憶させておけば、被写体となっている個人の情報を取得できる。或いは、撮像表示装置1に人物データベースを内蔵していなくても、通信部26を介して例えばネットワークサーバや人物データベース内蔵機器にアクセスし、個人特徴データを送信して情報を要求し、特定の人物の情報を受信するようにしてもよい。
例えばユーザ自身が、過去に出会った人物の氏名や所属などの人物情報を個人特徴データとともに人物データベースに登録しておけば、或る人物に出会ったとき(撮像されたとき)に、システムコントローラ10は、その人物の情報を検索できる。
また、有名人の情報を個人特徴データとともに登録した人物データベースが用意されていれば、ユーザが有名人に出会ったときに、その人物の情報を検索できる。
Further, according to the image analysis by the image analysis unit, when a person is a subject, it is also possible to identify the person from the person's face. As already known, a person's face can be converted into personal feature data as relative position information of the constituent elements of the face. For example, the ratio between the distance EN between the center of the eye and the nose and the distance Ed between the eyes (Ed / EN) and the ratio between the distance EM between the center of the eye and the mouth and the distance Ed between the eyes (Ed / EM) This information is unique to each individual and is not affected by changes in appearance due to an attachment such as a hairstyle or glasses. Furthermore, it is known that it does not change with aging.
Therefore, the image analysis unit can detect the personal feature data as described above by analyzing the image when a certain person's face is included in the captured image.
When personal feature data is detected from a captured image, for example, an HDD or a flash memory is mounted as a recording medium that can be referred to by the system controller 10, and a person database is stored in these recording media. You can get personal information. Alternatively, even if the image display device 1 does not have a person database, it accesses, for example, a network server or a person database built-in device via the communication unit 26, transmits personal characteristic data, requests information, and sends a specific person. The information may be received.
For example, if the user himself / herself registers personal information such as the name and affiliation of a person who has met in the past in the person database together with the personal characteristic data, the system controller 10 can be used when a certain person is met (when captured). Can search for the person's information.
Further, if a person database in which celebrity information is registered together with personal characteristic data is prepared, information on the person can be retrieved when the user meets the celebrity.

このような画像解析部による検出情報に基づいて、システムコントローラ10は撮像対象に応じた表示画像信号の生成処理を実行制御できる。例えば特定の対象や特定の人物が撮像されている場合は、その特定の対象をハイライト表示させるような表示画像信号を生成することなどが考えられる。   Based on the detection information by such an image analysis unit, the system controller 10 can execute and control display image signal generation processing corresponding to the imaging target. For example, when a specific target or a specific person is imaged, a display image signal that highlights the specific target may be generated.

通信部26によれば、外界情報として、多様な情報を取得できる。
例えば上述したように撮像表示装置1から送信した緯度・経度、或いは個人特徴データなどに応じて外部機器で検索された情報を取得できる。
また外部機器から天候情報、気温情報、湿度情報など気象に関する情報を取得することができる。
また外部機器から施設の利用情報、施設内での撮像禁止/許可情報、案内情報などを取得することができる。
また外部機器自体の識別情報を取得することができる。例えば所定の通信プロトコルにおいてネットワークデバイスとして識別される機器の種別や機器ID等である。
また外部機器に格納されている画像データ、外部機器で再生或いは表示している画像データ、外部機器で受信している画像データなどを取得することができる。
このような通信部26で取得できる情報に基づいて、システムコントローラ10は表示画像信号の生成処理を実行制御できる。
According to the communication part 26, various information can be acquired as external information.
For example, as described above, information retrieved by an external device can be acquired according to latitude / longitude transmitted from the imaging display device 1 or personal characteristic data.
In addition, weather information such as weather information, temperature information, and humidity information can be acquired from an external device.
In addition, facility usage information, in-facility imaging prohibition / permission information, guidance information, and the like can be acquired from an external device.
Further, identification information of the external device itself can be acquired. For example, the device type or device ID identified as a network device in a predetermined communication protocol.
Further, image data stored in the external device, image data reproduced or displayed on the external device, image data received on the external device, and the like can be acquired.
Based on such information that can be acquired by the communication unit 26, the system controller 10 can execute and control display image signal generation processing.

以上の例のような構成要素を動作トリガ情報発生部16として設け、ユーザの状況や外界の状況を検知し、それら状況に応じた表示開始/終了や、表示切換(表示内容の変更や領域形態の切換)を行うようにすることで、ユーザが操作しなくとも、適切或いはおもしろみのある表示動作が実現される。
また、ユーザの状況や外界の状況を検出するための構成例は他にも考えられる。
The constituent elements as in the above example are provided as the operation trigger information generation unit 16 to detect the user's situation and the external environment, and display start / end according to those situations, display switching (change of display contents and area form) Switching), an appropriate or interesting display operation can be realized without the user's operation.
In addition, other configuration examples for detecting the user's situation and the outside world situation are conceivable.

[6.実施の形態の効果、変形例及び拡張例]

以上、実施の形態を説明してきたが、実施の形態によれば、表示部2の画面領域の一部で撮像機能部位C1によるユーザの視界方向の撮像画像としての表示画像信号による表示を実行させながら、他の画像ソース(撮像機能部位C2、通信部26、ストレージ部25等)からの表示画像信号による表示を実行させることで、ユーザは通常の視界光景が見える状態のまま、視覚光景とは異なる画像を見ることができる。例えば撮像機能部位C1による前方の画像を見ながら、撮像機能部位C2による望遠画像、拡大画像、特殊撮像画像、後方の光景の画像などを見ることができる。このため通常の視覚光景と同時に、通常の視覚では見ることのできない光景等の画像を見る状態となり、擬似的にユーザの視覚能力を拡張させる状況を作り出すことができる。
[6. Effect, modification and extension of embodiment]

Although the embodiment has been described above, according to the embodiment, display by a display image signal as a captured image in the user's visual field direction by the imaging function part C1 is executed in a part of the screen area of the display unit 2. However, by executing display based on display image signals from other image sources (imaging function part C2, communication unit 26, storage unit 25, etc.), the user can see the normal view scene and what is the visual scene? Different images can be seen. For example, it is possible to view a telephoto image, an enlarged image, a special captured image, a rear scene image, and the like by the imaging function part C2 while viewing the front image by the imaging function part C1. Therefore, at the same time as the normal visual sight, an image such as a sight that cannot be seen with normal sight is viewed, and a situation in which the user's visual ability is expanded in a pseudo manner can be created.

撮像表示装置1の外観や構成は図1、図2、図3、図4、図5、図7、図8の例に限定されるものではなく、各種の変形例が考えられる。
撮像機能部位C1等で撮像した画像信号をストレージ部25において記録媒体に記録するような構成としても良い。
また撮像した画像信号を、通信部26から他の機器に送信する動作を行うようにしてもよい。
また撮像時に周囲音声を集音するマイクロホンや、音声を出力するイヤホン型等のスピーカ部が設けられても良い。
また、画像内における文字を認識する文字認識部と、音声合成処理を行う音声合成部を設け、撮像画像に文字が含まれている場合に、音声合成部で、その読み上げ音声の音声信号を生成し、スピーカ部から出力させるようにすることも考えられる。
The appearance and configuration of the imaging display device 1 are not limited to the examples in FIGS. 1, 2, 3, 4, 5, 7, and 8, and various modifications can be considered.
An image signal captured by the imaging function part C1 or the like may be recorded on a recording medium in the storage unit 25.
Moreover, you may make it perform the operation | movement which transmits the imaged image signal from the communication part 26 to another apparatus.
In addition, a microphone unit that collects ambient sounds during imaging or an earphone type speaker unit that outputs sounds may be provided.
In addition, a character recognition unit that recognizes characters in the image and a speech synthesis unit that performs speech synthesis processing are provided, and when the captured image contains characters, the speech synthesis unit generates a speech signal for the read-out speech However, it is also conceivable to output from the speaker unit.

また表示画像信号は静止画としても良い。例えば撮像機能部位C1、C2等で所定のトリガのタイミングを静止画撮像を行い、その撮像された静止画像を表示部2に表示させる。   The display image signal may be a still image. For example, a still image is captured at a predetermined trigger timing in the imaging function parts C1, C2, etc., and the captured still image is displayed on the display unit 2.

また、撮像表示装置1として眼鏡型或いは頭部装着型の装着ユニットを有する例を述べたが、本発明の撮像表示装置は、例えば撮像機能部位C1のように、ユーザの視界方向を撮像する撮像部によって撮像された撮像画像信号を元として表示画像信号を生成する第1の画像信号生成手段が有するように構成されればよい。つまり少なくともユーザの視界方向を撮像できる構成であればよい。従って、第1の画像信号生成手段(撮像機能部位C1)を有する部位が、例えばヘッドホン型、ネックバンドタイプ、耳掛け式など、どのような装着ユニットでユーザに装着されるものであってもよい。さらには、例えば通常の眼鏡やバイザー、或いはヘッドホン等に、クリップなどの取付具で取り付けることでユーザに装着されるような形態であってもよい。また必ずしもユーザの頭部に装着されなくてもよい。   Moreover, although the example which has a spectacles type or a head mounting type mounting unit was described as the imaging display apparatus 1, the imaging display apparatus of this invention images the user's visual field direction, for example like the imaging function site | part C1. What is necessary is just to comprise so that the 1st image signal production | generation means which produces | generates a display image signal based on the captured image signal imaged by the part may have. In other words, any configuration that can capture at least the user's field of view is acceptable. Therefore, the part having the first image signal generating means (imaging function part C1) may be worn by the user by any wearing unit such as a headphone type, a neckband type, and an ear hook type. . Furthermore, for example, it may be configured to be worn by the user by attaching to a normal eyeglass, visor, headphones, or the like with an attachment such as a clip. Moreover, it does not necessarily need to be mounted on the user's head.

1 撮像表示装置、2 表示部、3 撮像部、4 照明部、10 システムコントローラ、11 撮像制御部、12 表示画像処理部、13 表示駆動部、14 表示制御部、15 撮像信号処理部、16 動作トリガ情報発生部、25 ストレージ部、26 通信部、C1、C2 撮像機能部位   DESCRIPTION OF SYMBOLS 1 Imaging display apparatus, 2 Display part, 3 Imaging part, 4 Illumination part, 10 System controller, 11 Imaging control part, 12 Display image processing part, 13 Display drive part, 14 Display control part, 15 Imaging signal processing part, 16 operation | movement Trigger information generation unit, 25 storage unit, 26 communication unit, C1, C2 imaging function part

Claims (20)

画像表示を行う表示手段と、
外部機器から画像信号を受信する通信手段と、
画像信号が記録されているストレージ手段と、
使用者の視界方向を被写体方向とする撮像部によって撮像された撮像画像信号を元として表示画像信号を生成する第1の画像信号生成手段と、
上記第1の画像信号生成手段による表示画像信号とは異なる画像となる表示画像信号を上記通信手段から受信した画像信号または上記ストレージ手段に記録されている画像信号から生成する第2の画像信号生成手段と、
上記表示手段において、上記第1、第2の画像信号生成手段で生成された複数の表示画像信号による画像表示を同時に実行させる制御を行う制御手段と、
を備える撮像表示装置。
Display means for displaying images;
A communication means for receiving an image signal from an external device;
Storage means in which image signals are recorded;
First image signal generation means for generating a display image signal based on a captured image signal imaged by an imaging unit having a user's visual field direction as a subject direction;
Second image signal generation for generating a display image signal, which is an image different from the display image signal by the first image signal generation means, from the image signal received from the communication means or the image signal recorded in the storage means Means,
In the display means, a control means for performing control to simultaneously execute image display by a plurality of display image signals generated by the first and second image signal generation means;
An imaging display device comprising:
上記表示手段は、使用者の目の前方に位置するように配置されて画像表示を行う構造とされる請求項1に記載の撮像表示装置。   The imaging display device according to claim 1, wherein the display unit is arranged to be positioned in front of a user's eyes to display an image. 上記表示手段は、上記第1の画像信号生成手段を備えた筐体とは別筐体で形成されている請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein the display unit is formed in a separate housing from the housing provided with the first image signal generating unit. 上記第1の画像信号生成手段は、
上記撮像部と、
上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部と、
を有する請求項1に記載の撮像表示装置。
The first image signal generation means includes:
The imaging unit;
A signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit;
The imaging display device according to claim 1, comprising:
上記撮像部は、撮像素子としてCCDセンサもしくはCMOSセンサを用いて構成されている請求項1に記載の撮像表示装置。   The imaging display device according to claim 1, wherein the imaging unit is configured using a CCD sensor or a CMOS sensor as an imaging element. 上記第2の画像信号生成手段は、
撮像部によって撮像された撮像画像信号を元として上記表示手段に供給する表示画像信号を生成する請求項1に記載の撮像表示装置。
The second image signal generation means includes:
The imaging display apparatus according to claim 1, wherein a display image signal to be supplied to the display unit is generated based on a captured image signal captured by the imaging unit.
上記第2の画像信号生成手段は、
上記撮像部と、
上記撮像部で得られた撮像画像信号に対する信号処理を行う信号処理部と、
を有する請求項6に記載の撮像表示装置。
The second image signal generation means includes:
The imaging unit;
A signal processing unit that performs signal processing on the captured image signal obtained by the imaging unit;
The imaging display device according to claim 6 having.
上記撮像部は、使用者の視界方向を被写体方向とする撮像部である請求項6に記載の撮像表示装置。   The image pickup display device according to claim 6, wherein the image pickup unit is an image pickup unit having a user's visual field direction as a subject direction. 上記撮像部は、使用者の視界方向とは異なる方向を被写体方向とする撮像部である請求項6に記載の撮像表示装置。   The imaging display apparatus according to claim 6, wherein the imaging unit is an imaging unit having a direction different from a user's view direction as a subject direction. 上記表示手段において、画面領域内で親画面領域と子画面領域が設定されて、親画面領域と子画面領域の一方で、上記第1の画像信号生成手段からの表示画像信号による画像表示が行われ、他方で上記第2の画像信号生成手段からの表示画像信号による画像表示が行われる請求項1に記載の撮像表示装置。   In the display means, a parent screen area and a child screen area are set in the screen area, and one of the parent screen area and the child screen area displays an image by a display image signal from the first image signal generation means. On the other hand, the image display apparatus according to claim 1, wherein the image display is performed by the display image signal from the second image signal generation means. 上記表示手段において、画面領域が分割され、分割された各領域の一方で、上記第1の画像信号生成手段からの表示画像信号による画像表示が行われ、他方で上記第2の画像信号生成手段からの表示画像信号による画像表示が行われることを特徴とする請求項1に記載の撮像表示装置。   In the display means, the screen area is divided, and one of the divided areas is displayed by the display image signal from the first image signal generation means, and the other is the second image signal generation means. The image display apparatus according to claim 1, wherein an image display is performed based on a display image signal from. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、近景撮像又は遠景撮像により得られた画像信号である請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generation means is an image signal obtained by a foreground imaging or a foreground imaging. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、望遠撮像又は広角撮像により得られた画像信号である請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generation means is an image signal obtained by telephoto imaging or wide-angle imaging. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、拡大処理又は縮小処理により得られた画像信号である請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generation means is an image signal obtained by an enlargement process or a reduction process. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、撮像感度を上昇又は低下させた撮像により得られた画像信号である請求項1に記載の撮像表示装置。   2. The imaging display device according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generation means is an image signal obtained by imaging with increased or decreased imaging sensitivity. . 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、赤外線撮像感度を上昇させた撮像により得られた画像信号である請求項1に記載の撮像表示装置。   The imaging display apparatus according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with increased infrared imaging sensitivity. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、紫外線撮像感度を上昇させた撮像により得られた画像信号である請求項1に記載の撮像表示装置。   2. The imaging display apparatus according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with an increased ultraviolet imaging sensitivity. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、使用者の視界方向を被写体方向とした撮像により得られた画像信号である請求項1に記載の撮像表示装置。   2. The imaging according to claim 1, wherein one of the plurality of display image signals generated by the first and second image signal generation means is an image signal obtained by imaging with a user's visual field direction as a subject direction. Display device. 上記第1、第2の画像信号生成手段で生成する複数の表示画像信号の1つは、使用者の視界方向とは異なる方向を被写体方向とした撮像により得られた画像信号である請求項1に記載の撮像表示装置。   The one of the plurality of display image signals generated by the first and second image signal generating means is an image signal obtained by imaging with a direction different from the user's view direction as the subject direction. The imaging display device described in 1. 画像表示を行う表示手段と、ストレージ手段と、通信手段と、撮像部とを有する撮像表示装置の撮像表示方法であって、
外部機器から画像信号を上記通信手段により受信するステップと、
使用者の視界方向を被写体方向とする上記撮像部によって撮像された撮像画像信号を元として表示画像信号を生成する第1の画像信号生成ステップと、
上記第1の画像信号生成ステップによる表示画像信号とは異なる画像となる表示画像信号を上記通信手段から受信した画像信号または上記ストレージ手段に記録されている画像信号から生成する第2の画像信号生成ステップと、
上記第1、第2の画像信号生成ステップで生成された複数の表示画像信号による画像表示を同時に実行させる表示ステップと、
を備える撮像表示方法。
An imaging display method of an imaging display device having a display unit for displaying an image, a storage unit, a communication unit, and an imaging unit,
Receiving an image signal from an external device by the communication means;
A first image signal generating step of generating a display image signal as the basis of the captured image signal captured the viewing direction of the user by the imaging unit to the object direction,
Second image signal generation for generating a display image signal that is different from the display image signal in the first image signal generation step from the image signal received from the communication means or the image signal recorded in the storage means Steps,
A display step of simultaneously executing image display using a plurality of display image signals generated in the first and second image signal generation steps;
An imaging display method comprising:
JP2013029778A 2013-02-19 2013-02-19 Imaging display device and imaging display method Expired - Fee Related JP5664677B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013029778A JP5664677B2 (en) 2013-02-19 2013-02-19 Imaging display device and imaging display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013029778A JP5664677B2 (en) 2013-02-19 2013-02-19 Imaging display device and imaging display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006281043A Division JP2008096868A (en) 2006-10-16 2006-10-16 Imaging display device, and imaging display method

Publications (2)

Publication Number Publication Date
JP2013110764A true JP2013110764A (en) 2013-06-06
JP5664677B2 JP5664677B2 (en) 2015-02-04

Family

ID=48707047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013029778A Expired - Fee Related JP5664677B2 (en) 2013-02-19 2013-02-19 Imaging display device and imaging display method

Country Status (1)

Country Link
JP (1) JP5664677B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101430614B1 (en) * 2014-05-30 2014-08-18 주식회사 모리아타운 Display device using wearable eyeglasses and method for operating the same
WO2015030482A1 (en) * 2013-08-27 2015-03-05 주식회사 매크론 Input device for wearable display
JP2015119236A (en) * 2013-12-17 2015-06-25 セイコーエプソン株式会社 Head mounted type display device
JP2015222891A (en) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, computer program, image display system, and information processing device
KR20160122702A (en) 2014-02-17 2016-10-24 소니 주식회사 Information processing device, information processing method and program
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176131A (en) * 1992-12-03 1994-06-24 Namco Ltd Picture synthesis device and virtual reality device using the same
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JP2000299851A (en) * 1999-02-12 2000-10-24 Sanyo Electric Co Ltd Instruction information transmitter
JP2002268621A (en) * 2001-03-13 2002-09-20 Canon Inc Image composing device
JP2002271691A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, storage medium and program
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005038321A (en) * 2003-07-18 2005-02-10 Canon Inc Head mount display device
JP2005157762A (en) * 2003-11-26 2005-06-16 Canon Inc Information device, control method, and program
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176131A (en) * 1992-12-03 1994-06-24 Namco Ltd Picture synthesis device and virtual reality device using the same
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JP2000299851A (en) * 1999-02-12 2000-10-24 Sanyo Electric Co Ltd Instruction information transmitter
JP2002268621A (en) * 2001-03-13 2002-09-20 Canon Inc Image composing device
JP2002271691A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, storage medium and program
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005038321A (en) * 2003-07-18 2005-02-10 Canon Inc Head mount display device
JP2005157762A (en) * 2003-11-26 2005-06-16 Canon Inc Information device, control method, and program
JP2005172851A (en) * 2003-12-05 2005-06-30 Sony Corp Image display apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015030482A1 (en) * 2013-08-27 2015-03-05 주식회사 매크론 Input device for wearable display
US10451874B2 (en) 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
JP2015119236A (en) * 2013-12-17 2015-06-25 セイコーエプソン株式会社 Head mounted type display device
KR20160122702A (en) 2014-02-17 2016-10-24 소니 주식회사 Information processing device, information processing method and program
US9787895B2 (en) 2014-02-17 2017-10-10 Sony Corporation Information processing device, information processing method, and program for generating circumferential captured images
US10389937B2 (en) 2014-02-17 2019-08-20 Sony Corporation Information processing device, information processing method, and program
US10574889B2 (en) 2014-02-17 2020-02-25 Sony Corporation Information processing device, information processing method, and program
JP2015222891A (en) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, computer program, image display system, and information processing device
KR101430614B1 (en) * 2014-05-30 2014-08-18 주식회사 모리아타운 Display device using wearable eyeglasses and method for operating the same

Also Published As

Publication number Publication date
JP5664677B2 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
JP5228307B2 (en) Display device and display method
US9772686B2 (en) Imaging display apparatus and method
TWI384256B (en) Display device, display method
JP5162928B2 (en) Image processing apparatus, image processing method, and image processing system
JP6137113B2 (en) Display device, display method, and program
JP5664677B2 (en) Imaging display device and imaging display method
JP2008083289A (en) Imaging display apparatus, and imaging display method
JP2013174898A (en) Imaging display device, and imaging display method
JP2013083994A (en) Display unit and display method
JP5971298B2 (en) Display device and display method
JP2013034237A (en) Image processor, image processing method and image processing system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R151 Written notification of patent or utility model registration

Ref document number: 5664677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees