JP5199156B2 - Camera and wearable image display device - Google Patents

Camera and wearable image display device Download PDF

Info

Publication number
JP5199156B2
JP5199156B2 JP2009066714A JP2009066714A JP5199156B2 JP 5199156 B2 JP5199156 B2 JP 5199156B2 JP 2009066714 A JP2009066714 A JP 2009066714A JP 2009066714 A JP2009066714 A JP 2009066714A JP 5199156 B2 JP5199156 B2 JP 5199156B2
Authority
JP
Japan
Prior art keywords
image
camera
unit
moving direction
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009066714A
Other languages
Japanese (ja)
Other versions
JP2010220074A (en
Inventor
茂 加藤
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009066714A priority Critical patent/JP5199156B2/en
Priority to CN201410025553.2A priority patent/CN103763472B/en
Priority to CN201010117398.9A priority patent/CN101813873B/en
Priority to US12/707,069 priority patent/US8325263B2/en
Publication of JP2010220074A publication Critical patent/JP2010220074A/en
Application granted granted Critical
Publication of JP5199156B2 publication Critical patent/JP5199156B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、ユーザの目に装着可能な装着型画像表示装置と連動して動作するカメラ及びこのようなカメラと連携して動作する装着型画像表示装置に関する。   The present invention relates to a camera that operates in conjunction with a wearable image display device that can be worn by a user's eyes, and a wearable image display device that operates in conjunction with such a camera.

近年、機器の小型化及び高機能化の流れが加速しており、こうした高機能な機器を屋外等にも持ち運べるような状況になってきている。こうしたトレンドの中で、屋外でも大画面の感覚での画像の鑑賞を可能とした装着型の画像表示装置がFMD(フェイスマウントディスプレイ)やHMD(ヘッドマウントディスプレイ)等といった名称で提案されている。また、このような装着型の画像表示装置をカメラのファインダ装置として利用しようとする提案が例えば特許文献1においてなされている。   In recent years, the trend toward miniaturization and high functionality of devices has been accelerated, and it has become a situation where such high performance devices can be carried outdoors. Under these trends, wearable image display devices that allow viewing of images with a large-screen sensation outdoors have been proposed under names such as FMD (face-mounted display) and HMD (head-mounted display). Further, for example, Patent Document 1 proposes to use such a wearable image display device as a camera finder device.

このような装着型の画像表示装置を用いての撮影には以下のメリットがある。
(1)大画面の感覚で画像を確認できる。
(2)外光の影響を受けずに鮮やかな色彩の画像を確認できる。
(3)撮影時におけるカメラの向きや動きの自由度が増す。
Shooting using such a wearable image display device has the following advantages.
(1) The image can be confirmed with the feeling of a large screen.
(2) A vivid color image can be confirmed without being affected by external light.
(3) The degree of freedom of camera orientation and movement during shooting increases.

特開2001−209037号公報JP 2001-209037 A

ここで、FMD等の装着型の画像表示装置をファインダ装置として利用する場合、画像表示装置に表示される画像はカメラで得られた画像である。上述したように、装着型の画像表示装置では、撮影時におけるカメラの向きや動きの自由度が高く、装着型画像表示装置で表示されている画像が必ずしもユーザが見ている方向に対応した画像となるとは限らない。このため、ユーザが混乱してしまうおそれがある。   Here, when a wearable image display device such as an FMD is used as a finder device, an image displayed on the image display device is an image obtained by a camera. As described above, the wearable image display device has a high degree of freedom in the direction and movement of the camera during shooting, and the image displayed on the wearable image display device does not necessarily correspond to the direction in which the user is looking. Not necessarily. For this reason, the user may be confused.

本発明は、上記の事情に鑑みてなされたもので、装着型画像表示装置のファインダ装置としてのメリットを引き出しながら、装着型画像表示装置をファインダ装置として利用した時のフレーミングのし易さも考慮した画像の表示を装着型画像表示装置に行わせることが可能なカメラ及びこのようなカメラと連携して動作する装着型画像表示装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, taking into account the ease of framing when the wearable image display device is used as a viewfinder device while drawing out the merits of the wearable image display device as a viewfinder device. It is an object of the present invention to provide a camera capable of causing a wearable image display apparatus to display an image and a wearable image display apparatus that operates in cooperation with such a camera.

上記の目的を達成するために、本発明の第1の態様によるカメラは、ユーザの目部に装着自在に構成された装着型画像表示装置と連携して動作するカメラにおいて、被写体を連続的に撮像して、該連続的な撮像によって複数の画像を取得する撮像部と、上記複数の画像の各々の撮像時における上記カメラの移動方向を検知する移動方向検知部と、上記撮像部で撮像された複数の画像を撮影順に配置して合成し、さらに上記カメラの移動が有った場合に、移動方向をさらに合成し、さらに、上記撮影順が最も後の画像の大きさが他の画像に比して大きくなるように合成画像を生成する画像合成部と、上記画像合成部によって得られた合成画像を上記装着型画像表示装置に送信する通信部とを具備することを特徴とする。 In order to achieve the above object, a camera according to a first aspect of the present invention is a camera that operates in cooperation with a wearable image display device configured to be freely wearable on a user's eyes. An imaging unit that captures images and acquires a plurality of images by the continuous imaging, a moving direction detection unit that detects a moving direction of the camera at the time of capturing each of the plurality of images, and the imaging unit If there is a movement of the camera, the direction of movement is further combined, and the size of the image with the latest shooting order is the other image. An image composition unit that generates a composite image so as to be larger than the image composition unit, and a communication unit that transmits the composite image obtained by the image composition unit to the wearable image display device.

また、上記の目的を達成するために、本発明の第2の態様による装着型画像表示装置は、ユーザの目部に装着自在に構成され、カメラと連携して動作する装着型画像表示装置において、上記第1の態様に記載のカメラから複数の画像及び上記複数の画像の各々の撮像時における上記を受信する受信部と、上記カメラの移動方向を検知する移動方向検知部と、上記受信部において受信した複数の画像と上記カメラの移動方向とを合成した合成画像を生成する画像合成部と、
上記画像合成部によって得られた合成画像を表示する表示部とを具備することを特徴とする。
In order to achieve the above object, a wearable image display device according to the second aspect of the present invention is configured to be freely wearable on a user's eye and operates in cooperation with a camera. A receiving unit that receives a plurality of images from the camera according to the first aspect, and a moving direction detecting unit that detects a moving direction of the camera, and the receiving unit. An image compositing unit that generates a composite image by combining the plurality of images received in the above and the moving direction of the camera;
And a display unit for displaying the synthesized image obtained by the image synthesizing unit.

本発明によれば、装着型画像表示装置のファインダ装置としてのメリットを引き出しながら、装着型画像表示装置をファインダ装置として利用した時のフレーミングのし易さも考慮した画像の表示を装着型画像表示装置に行わせることが可能なカメラ及びこのようなカメラと連携して動作する装着型画像表示装置を提供することができる。   According to the present invention, the wearable image display device displays an image in consideration of easiness of framing when the wearable image display device is used as a viewfinder device while extracting the merit of the wearable image display device as a viewfinder device. It is possible to provide a camera that can be made to operate and a wearable image display device that operates in cooperation with such a camera.

本発明の一実施形態に係るカメラを有するカメラシステムの構成を示すブロック図である。It is a block diagram which shows the structure of the camera system which has a camera which concerns on one Embodiment of this invention. 移動方向の検出手法について示す図である。It is a figure shown about the detection method of a moving direction. FMDの光学系、補助撮像部の構成の一例を示す図である。It is a figure which shows an example of a structure of the optical system of FMD, and an auxiliary imaging part. FMDの外観図である。It is an external view of FMD. 本発明の一実施形態におけるカメラシステムを使用する際の様子を示す図である。It is a figure which shows the mode at the time of using the camera system in one Embodiment of this invention. 図6(a)はユーザの向いている方向とカメラの方向が一致している場合の例を示す図であり、図6(b)はユーザの向いている方向とカメラの方向が異なっている場合の例を示す図である。FIG. 6A is a diagram illustrating an example in which the direction in which the user is facing and the direction of the camera match, and FIG. 6B is a diagram in which the direction in which the user is facing and the direction of the camera are different. It is a figure which shows the example of a case. カメラのメインの動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of a camera. カメラの再生モードの処理を示すフローチャートである。It is a flowchart which shows the process of the reproduction | regeneration mode of a camera. FMDのメインの動作を示すフローチャートである。It is a flowchart which shows the main operation | movement of FMD. 合成表示の例を示す図である。It is a figure which shows the example of a composite display. 合成表示の第1の変形例を示す図である。It is a figure which shows the 1st modification of a composite display. 合成表示の第2の変形例を示す図である。It is a figure which shows the 2nd modification of a composite display.

以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態に係るカメラを有するカメラシステムの構成を示すブロック図である。図1に示すように、本実施形態におけるカメラシステムは、カメラ100と、フェイスマウントディスプレイ(以下、FMDと記す)200とを有している。カメラ100とFMD200とは互いに通信自在に接続されており、カメラ100で取得された画像をFMD200に送信することで、カメラ100で取得された画像をFMD200で鑑賞することが可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a camera system having a camera according to an embodiment of the present invention. As shown in FIG. 1, the camera system in the present embodiment includes a camera 100 and a face mount display (hereinafter referred to as FMD) 200. The camera 100 and the FMD 200 are communicably connected to each other. By transmitting an image acquired by the camera 100 to the FMD 200, the image acquired by the camera 100 can be viewed by the FMD 200.

カメラ100は、制御部101と、操作部102と、撮影レンズ103と、撮像部104と、表示部105と、時計部106と、記録部107と、通信部108と、移動方向検知部109とを有している。   The camera 100 includes a control unit 101, an operation unit 102, a photographing lens 103, an imaging unit 104, a display unit 105, a clock unit 106, a recording unit 107, a communication unit 108, and a movement direction detection unit 109. have.

制御部101は、カメラ用に構成されたLSI等から構成されており、ユーザによる操作部102の操作を受けて図1のカメラ100内部の各ブロックの制御を行う。また、制御部101は、撮像部104によって取得された画像に対してホワイトバランス補正等の画像処理や圧縮伸張処理等を施すことも行う。さらに、制御部101は画像合成部としての機能も有しており、FMD200における画像表示の際に必要に応じて撮像部104を介して得られた画像を合成して合成画像を生成する。   The control unit 101 is configured by an LSI or the like configured for a camera, and controls each block inside the camera 100 of FIG. 1 in response to an operation of the operation unit 102 by the user. The control unit 101 also performs image processing such as white balance correction and compression / decompression processing on the image acquired by the imaging unit 104. Furthermore, the control unit 101 also has a function as an image synthesis unit, and generates a synthesized image by synthesizing images obtained via the imaging unit 104 as necessary when displaying an image in the FMD 200.

操作部102は、ユーザがカメラ100の操作を行うための操作部である。操作部102には、例えば、カメラ100の電源のオン/オフを切り替えるための電源ボタン、撮影の準備又は実行を指示するためのレリーズボタン、ユーザが画像の再生を指示するための再生ボタン、ユーザがカメラ100に関する各種の選択操作を行うための選択ボタン等が含まれる。なお、レリーズボタンは半押しされるとAF等の撮影準備の指示がなされ、全押しされると撮影の実行が指示される。   The operation unit 102 is an operation unit for the user to operate the camera 100. The operation unit 102 includes, for example, a power button for switching on / off the power of the camera 100, a release button for instructing preparation or execution of shooting, a playback button for instructing a user to reproduce an image, and a user Includes a selection button for performing various selection operations related to the camera 100. When the release button is half-pressed, an instruction to prepare for shooting such as AF is given. When the release button is fully pressed, execution of the picture is instructed.

撮影レンズ103は、図示しない被写体からの光束を撮像部104に入射させるためのレンズである。撮像部104は、撮影レンズ103からの光束に基づく被写体の像を電気信号に変換することで画像を取得し、さらにこの画像をデジタルデータとして制御部101に出力する。   The photographing lens 103 is a lens for causing a light beam from a subject (not shown) to enter the imaging unit 104. The imaging unit 104 acquires an image by converting an image of a subject based on the light flux from the photographing lens 103 into an electrical signal, and further outputs the image to the control unit 101 as digital data.

表示部105は、例えばカメラ100の背面に設けられ、撮像部104を介して取得された画像や記録部107に記録された画像等の各種の画像を表示する。この表示部105は、例えば液晶ディスプレイ等から構成されている。この表示部105により、ユーザは被写体の構図やシャッターチャンスを確認することができる。   The display unit 105 is provided on the back surface of the camera 100, for example, and displays various images such as an image acquired via the imaging unit 104 and an image recorded in the recording unit 107. The display unit 105 is composed of, for example, a liquid crystal display. The display unit 105 allows the user to check the composition of the subject and the photo opportunity.

時計部106は、画像の撮影がなされた日時等を計時する。記録部107は、撮像部104を介して取得され、制御部101において圧縮された画像が記録される。この記録部107には、時計部106によって計時された撮影日時等の撮影条件が付加された画像ファイルとして画像が記録される。   The clock unit 106 measures the date and time when the image was taken. The recording unit 107 records an image acquired through the imaging unit 104 and compressed by the control unit 101. The recording unit 107 records an image as an image file to which shooting conditions such as a shooting date and time counted by the clock unit 106 are added.

通信部108は、FMD200との通信を行うための通信回路であり、制御部101の制御に従ってFMD200に画像を送信する。カメラ100とFMD200との通信方式については特に限定されるものではない。例えば、カメラ100とFMD200との間をUSBケーブル等を介して接続して通信を行う有線通信を用いても良いし、無線LAN等の無線通信を用いても良い。   The communication unit 108 is a communication circuit for performing communication with the FMD 200, and transmits an image to the FMD 200 under the control of the control unit 101. A communication method between the camera 100 and the FMD 200 is not particularly limited. For example, wired communication in which communication is performed by connecting the camera 100 and the FMD 200 via a USB cable or the like may be used, or wireless communication such as a wireless LAN may be used.

移動方向検知部109は、ユーザによるカメラ100の移動操作がなされたときに、その移動方向を検知する。この移動方向検知部109は、例えば撮像部104を介して得られる画像から演算される動きベクトルに基づいてカメラ100の移動方向を検知する。なお、動きベクトルは、撮像部104を介して得られる連続動作させて得られる画像間の被写体像のずれ(ずれ方向及びずれ量)を例えばブロックマッチング法によって演算することで求めることが可能である。図2に示すように、動きベクトルが画像全体で略同じであれば、被写体が動いているのではなく、画像全体が動いている、即ちカメラ100が動いていると判定できる。なお、カメラ100の移動方向は専用のセンサを用いて検知するようにしても良い。   The movement direction detection unit 109 detects the movement direction when the user performs an operation of moving the camera 100. The movement direction detection unit 109 detects the movement direction of the camera 100 based on a motion vector calculated from an image obtained via the imaging unit 104, for example. Note that the motion vector can be obtained by calculating, for example, a block matching method, a displacement (a displacement direction and a displacement amount) of the subject image between images obtained by continuous operation obtained via the imaging unit 104. . As shown in FIG. 2, if the motion vectors are substantially the same for the entire image, it can be determined that the entire image is moving, that is, the camera 100 is moving, not the subject is moving. The moving direction of the camera 100 may be detected using a dedicated sensor.

本実施形態におけるFMD200は、装着型画像表示装置としての機能を有し、ユーザの目部に装着自在になされている。このFMD200は、制御部201と、通信部202と、記録部203と、表示駆動部204と、シャッタ駆動部205と、光学系206と、補助撮像部207と、操作部208とを有している。   The FMD 200 in the present embodiment has a function as a wearable image display device, and is freely wearable on the user's eyes. The FMD 200 includes a control unit 201, a communication unit 202, a recording unit 203, a display drive unit 204, a shutter drive unit 205, an optical system 206, an auxiliary imaging unit 207, and an operation unit 208. Yes.

制御部201は、通信部202の動作制御、記録部203に記録された画像の伸張処理、表示駆動部204及びシャッタ駆動部205の動作制御等の、FMD200の各ブロックの制御を行う。   The control unit 201 controls each block of the FMD 200 such as operation control of the communication unit 202, expansion processing of an image recorded in the recording unit 203, and operation control of the display driving unit 204 and the shutter driving unit 205.

通信部202は、カメラ100との通信を行うための通信回路であり、制御部101の制御に従ってカメラ100から画像を受信する。記録部203は、通信部202で受信された画像が記録される。   The communication unit 202 is a communication circuit for performing communication with the camera 100, and receives an image from the camera 100 under the control of the control unit 101. The recording unit 203 records the image received by the communication unit 202.

表示駆動部204は、制御部201の制御に従って、光学系206に含まれる表示部を駆動させる。シャッタ駆動部205は、制御部201の制御に従って、光学系206に含まれるシャッタを駆動させる。光学系206は、通信部202で受信された画像又は記録部203に記録された画像を表示するための表示部を含む光学系である。この光学系206については後述する。   The display driving unit 204 drives the display unit included in the optical system 206 under the control of the control unit 201. A shutter drive unit 205 drives a shutter included in the optical system 206 under the control of the control unit 201. The optical system 206 is an optical system including a display unit for displaying an image received by the communication unit 202 or an image recorded in the recording unit 203. The optical system 206 will be described later.

補助撮像部207は、FMD200の外部の被写体の像を撮像し、撮像により得られた画像をデジタルデータとして表示駆動部204に出力する。   The auxiliary imaging unit 207 captures an image of a subject outside the FMD 200 and outputs an image obtained by the imaging to the display driving unit 204 as digital data.

操作部208は、FMD200の電源のオン/オフの切り替えや、FMD200の動作モードの切り替えを行うための各種の操作部である。   The operation unit 208 is a variety of operation units for switching on / off the power of the FMD 200 and switching the operation mode of the FMD 200.

図3は、光学系206、補助撮像部207の構成の一例を示す図である。
図3に示すように、光学系206は、表示部301と、光学部302と、遮光マスク303とを有している。
FIG. 3 is a diagram illustrating an example of the configuration of the optical system 206 and the auxiliary imaging unit 207.
As illustrated in FIG. 3, the optical system 206 includes a display unit 301, an optical unit 302, and a light shielding mask 303.

表示部301は、通信部202で受信された画像又は記録部203に記録された画像を表示するための表示部である。図3は、表示部301が液晶表示装置(LCD)である場合の例を示している。この場合の表示部301は、LCDパネル301aとバックライト301bとを有している。LCDパネル301aは、液晶を含む画素が2次元に配列されて構成され、表示駆動部204の制御に従って各画素の光の透過率を変化させるようになされている。バックライト301bは、例えば白色発光ダイオード(LED)を光源とし、表示駆動部204の制御に従ってLCDパネル301aの背面から光照射を行う。なお、図3の例では表示部301にLCDを用いているが、表示部301はLCDに限定されるものではない。例えば、表示部301に有機EL表示装置(OELD)を用いるようにしても良い。   The display unit 301 is a display unit for displaying an image received by the communication unit 202 or an image recorded in the recording unit 203. FIG. 3 shows an example in which the display unit 301 is a liquid crystal display (LCD). The display unit 301 in this case includes an LCD panel 301a and a backlight 301b. The LCD panel 301 a is configured by two-dimensionally arranging pixels including liquid crystal, and changes the light transmittance of each pixel according to the control of the display driving unit 204. The backlight 301b uses, for example, a white light emitting diode (LED) as a light source, and performs light irradiation from the back surface of the LCD panel 301a according to the control of the display driving unit 204. In addition, although LCD is used for the display part 301 in the example of FIG. 3, the display part 301 is not limited to LCD. For example, an organic EL display device (OELD) may be used for the display unit 301.

光学部302は、表示部301からの光をユーザの目400に反射させるように曲面が形成された自由曲面プリズム302aを有している。この自由曲面プリズム302aの自由曲面部には反射ミラー302bがコーティングされている。   The optical unit 302 includes a free-form surface prism 302a formed with a curved surface so as to reflect the light from the display unit 301 to the user's eyes 400. A reflection mirror 302b is coated on the free curved surface portion of the free curved prism 302a.

遮光マスク303は、FMD200の外部から自由曲面プリズム302aへの光の入射を妨げるように自由曲面プリズム302aの前面に配置されている。   The light shielding mask 303 is disposed on the front surface of the free curved surface prism 302a so as to prevent light from entering the free curved surface prism 302a from the outside of the FMD 200.

また、図3に示すように、補助撮像部207は、撮影レンズ207aと、撮像部207bと、撮像処理部207cとを有している。   As shown in FIG. 3, the auxiliary imaging unit 207 includes a photographing lens 207a, an imaging unit 207b, and an imaging processing unit 207c.

撮影レンズ207aは、撮影レンズ103と同様の機能を有し、FMD200の外部の被写体からの光束を撮像部207bに入射させるためのレンズである。撮像部207bは、撮像部104と同様の機能を有し、撮影レンズ207aからの光束に基づく被写体の像を電気信号に変換することで画像を取得し、さらにこの画像をデジタルデータとして撮像処理部207cに出力する。撮像処理部207cは、撮像部207bを介して得られた画像に対する画像処理を施して表示駆動部204に出力する。   The photographing lens 207a has a function similar to that of the photographing lens 103, and is a lens for causing a light beam from a subject outside the FMD 200 to enter the imaging unit 207b. The imaging unit 207b has a function similar to that of the imaging unit 104, acquires an image by converting an image of a subject based on the light flux from the photographing lens 207a into an electrical signal, and further uses the image as digital data. To 207c. The imaging processing unit 207 c performs image processing on the image obtained via the imaging unit 207 b and outputs the processed image to the display driving unit 204.

このような構成において、表示部301に画像が表示されている場合(バックライト301bが点灯状態の場合)、表示部301に表示されている画像に基づく光は、図3の矢印で示したような光路でユーザの目400に入射する。これにより、ユーザは表示部301に表示された画像を見ることができる。この際、表示部301に表示させる画像を補助撮像部207からの画像とした場合に、ユーザは、自身の視線が向いている方向に存在しているFMD200の外部の像を確認することが可能となる。一方、表示部301に表示させる画像をカメラ100から送信されてきた画像とした場合に、ユーザは、その時点でカメラ100が向いている方向に存在している像を確認することが可能となる。   In such a configuration, when an image is displayed on the display unit 301 (when the backlight 301b is in a lighting state), light based on the image displayed on the display unit 301 is as indicated by an arrow in FIG. The light enters the user's eye 400 through a simple optical path. As a result, the user can see the image displayed on the display unit 301. At this time, when an image to be displayed on the display unit 301 is an image from the auxiliary imaging unit 207, the user can check an image outside the FMD 200 that exists in a direction in which his / her line of sight is facing. It becomes. On the other hand, when an image to be displayed on the display unit 301 is an image transmitted from the camera 100, the user can check an image that exists in the direction in which the camera 100 faces at that time. .

図4は、FMD200の外観図である。本実施形態におけるFMD200の外観は、図4(a)に示すような、片目のみの略眼鏡状をしており、ユーザは、眼鏡と同様にFMD200に形成された弦部200aを耳にかけ、鼻当て部200bを鼻に当て付けることでFMD200を装着する。   FIG. 4 is an external view of the FMD 200. The appearance of the FMD 200 in the present embodiment has a substantially glasses-like shape with only one eye as shown in FIG. 4A, and the user puts the string part 200a formed on the FMD 200 on the ear in the same manner as the glasses, and nose The FMD 200 is mounted by applying the contact part 200b to the nose.

ここで、図4(a)は、FMD200の通信形態が無線通信の場合を示している。この場合、FMD200には、通信部202のアンテナ202aが設けられている。一方、FMD200の通信形態が有線通信の場合には、図4(b)に示すように、FMD200にケーブル202bが接続される。なお、図4(a)、図4(b)では、片目のみ装着可能なFMD200を示しているが、両目に装着可能に構成しても良い。この場合には、図3で示した光学系206は、一対設ける必要がある。   Here, Fig.4 (a) has shown the case where the communication form of FMD200 is a wireless communication. In this case, the FMD 200 is provided with the antenna 202a of the communication unit 202. On the other hand, when the communication form of the FMD 200 is wired communication, the cable 202b is connected to the FMD 200 as shown in FIG. 4 (a) and 4 (b) show the FMD 200 that can be attached to only one eye, it may be configured to be attachable to both eyes. In this case, it is necessary to provide a pair of the optical systems 206 shown in FIG.

図5は、本実施形態におけるカメラシステムを使用する際の様子を示す図である。本実施形態におけるカメラシステムにおいてFMD200をファインダとして利用する場合、図5に示すように、ユーザは目部にFMD200を装着する。これにより、ユーザは、カメラ100から送信された画像を大画面のような感覚で確認することができる。FMD200の表示部301の表示画面は小さくともユーザの目の近くで表示がなされるので、ユーザは、2m先に数十インチの画像が見えるような体感を得ることができる。   FIG. 5 is a diagram illustrating a situation when the camera system according to the present embodiment is used. When the FMD 200 is used as a finder in the camera system in the present embodiment, the user wears the FMD 200 on the eyes as shown in FIG. Thereby, the user can confirm the image transmitted from the camera 100 with a feeling like a large screen. Even if the display screen of the display unit 301 of the FMD 200 is small, the display is performed near the user's eyes, so that the user can feel that an image of several tens of inches can be seen 2 m away.

ここで、図6(a)のように、ユーザがカメラ100を構えている状態では、ユーザの見ようとしている方向とカメラ100の撮影範囲とが一致している。したがって、この場合には、FMD200の表示部301にはユーザの見ている方向に存在している被写体の画像が表示される。これに対し、図6(b)のように、ユーザがカメラ100のみを移動させた場合には、ユーザの見ている方向とは異なる方向から見た画像が表示される。このような画像を表示させると、ユーザが混乱するおそれがある。特に、FMD200を両目に装着するタイプとした場合にはユーザは外界の状況を表示部301の画像からでしか認識できないため、混乱する可能性がより高くなる。   Here, as shown in FIG. 6A, in the state where the user holds the camera 100, the direction that the user is trying to see matches the shooting range of the camera 100. Therefore, in this case, an image of a subject existing in the direction in which the user is viewing is displayed on the display unit 301 of the FMD 200. In contrast, as shown in FIG. 6B, when the user moves only the camera 100, an image viewed from a direction different from the direction the user is viewing is displayed. If such an image is displayed, the user may be confused. In particular, when the FMD 200 is a type that is worn on both eyes, the user can recognize the situation of the outside world only from the image on the display unit 301, so that the possibility of confusion increases.

このため、本実施形態では、FMD200をファインダとして用いている際に、カメラ100の移動があった場合には、カメラの移動の様子を示す画像をFMD200の表示部301に表示させるようにする。これにより、ユーザにカメラ100が向いている方向を認知させる。   For this reason, in the present embodiment, when the FMD 200 is used as a finder and the camera 100 is moved, an image showing the movement of the camera is displayed on the display unit 301 of the FMD 200. This allows the user to recognize the direction in which the camera 100 is facing.

次に、このような本実施形態のカメラシステムの詳細な動作について説明する。
まず、カメラ100の動作について説明する。図7は、カメラ100のメインの動作を示すフローチャートである。ここで、本実施形態におけるカメラ100は動作モードとして撮影モードと再生モードとを有している。撮影モードは、ユーザが記録用の画像を撮影するための動作モードであり、再生モードは記録された画像を再生するためのモードである。これらの動作モードの切り替えは、例えば操作部102の選択ボタンの操作によって行うことができる。
Next, the detailed operation of the camera system of this embodiment will be described.
First, the operation of the camera 100 will be described. FIG. 7 is a flowchart showing the main operation of the camera 100. Here, the camera 100 in the present embodiment has a shooting mode and a playback mode as operation modes. The shooting mode is an operation mode for the user to shoot an image for recording, and the playback mode is a mode for playing back the recorded image. Switching between these operation modes can be performed by operating a selection button of the operation unit 102, for example.

図7において、カメラ100の制御部101は、まず、カメラ100の電源がオンされたか否かを判定する(ステップS101)。ステップS101の判定において、電源がオフされている場合に、制御部101は図7の処理を終了させる。なお、電源オフ時においても通信部108は動作しており、通信部108を介してFMD200からの電源オン指示がなされた場合に制御部101はカメラ100の電源をオンさせる。   In FIG. 7, the control unit 101 of the camera 100 first determines whether or not the power of the camera 100 is turned on (step S101). If it is determined in step S101 that the power is off, the control unit 101 ends the process of FIG. Note that the communication unit 108 operates even when the power is turned off, and the control unit 101 turns on the power of the camera 100 when a power-on instruction is issued from the FMD 200 via the communication unit 108.

一方、ステップS101の判定において、電源がオンされた場合に、制御部101はカメラ100の動作モードが撮影モードであるか否かを判定する(ステップS102)。ステップS102の判定において、カメラ100の動作モードが撮影モードである場合に、制御部101は露出補正を行う(ステップS103)。この露出補正において、制御部101は、撮像部104を介して得られる画像や専用の測光センサの出力に基づいて、被写体の明るさを測定する。そして、測定した被写体の明るさに基づき、制御部101は、撮像部104を介して得られる画像の明るさを適正な明るさとするように画像の明るさを補正する。   On the other hand, when the power is turned on in the determination in step S101, the control unit 101 determines whether or not the operation mode of the camera 100 is the shooting mode (step S102). If it is determined in step S102 that the operation mode of the camera 100 is the shooting mode, the control unit 101 performs exposure correction (step S103). In this exposure correction, the control unit 101 measures the brightness of the subject based on the image obtained via the imaging unit 104 and the output of a dedicated photometric sensor. Then, based on the measured brightness of the subject, the control unit 101 corrects the brightness of the image so that the brightness of the image obtained via the imaging unit 104 is an appropriate brightness.

次に、制御部101は、通信部108の通信状態からFMD200との通信が可能であるか否かを判定する(ステップS104)。ステップS104の判定において、FMD200との通信が可能である場合に、制御部101は、撮影者によって操作部102のレリーズボタンが半押しされたか否かを判定する(ステップS105)。ステップS105の判定において、レリーズボタンが半押しされていた場合に、制御部101は撮像部104を動作させ、撮像部104を介して得られる画像を記録部107に記録させる(ステップS106)。その後、制御部101は、移動方向検知部109の出力から、カメラ100の移動があったか否かを判定する(ステップS107)。なお、動きベクトルから移動方向を検知する場合、少なくとも2枚の画像が必要であるため、初回はステップS107の判定においてカメラ100の移動が無いと判定される。   Next, the control unit 101 determines whether communication with the FMD 200 is possible from the communication state of the communication unit 108 (step S104). If it is determined in step S104 that communication with the FMD 200 is possible, the control unit 101 determines whether or not the release button of the operation unit 102 has been half-pressed by the photographer (step S105). If it is determined in step S105 that the release button is half-pressed, the control unit 101 operates the imaging unit 104 and causes the recording unit 107 to record an image obtained via the imaging unit 104 (step S106). Thereafter, the control unit 101 determines from the output of the movement direction detection unit 109 whether or not the camera 100 has moved (step S107). Note that when the movement direction is detected from the motion vector, at least two images are required, and therefore it is determined that the camera 100 has not moved in the determination of step S107 for the first time.

ステップS107の判定において、カメラ100の移動が検知された場合に、制御部101は、移動方向検知部109の出力からカメラ100の移動方向を検知する(ステップS108)。次に、制御部101は、ステップS105において記録部107に記録させた画像を合成して合成画像を生成し、この合成画像を、通信部108を介してFMD200に送信する(ステップS109)。なお、この画像の合成については後述する。   When the movement of the camera 100 is detected in the determination in step S107, the control unit 101 detects the movement direction of the camera 100 from the output of the movement direction detection unit 109 (step S108). Next, the control unit 101 combines the images recorded in the recording unit 107 in step S105 to generate a combined image, and transmits the combined image to the FMD 200 via the communication unit 108 (step S109). This image composition will be described later.

また、ステップS105の判定においてレリーズボタンが半押しされていた場合、若しくはステップS107の判定においてカメラ100の移動がない場合に、制御部101は、FMD200の表示部301に通常のスルー画表示を行わせるべく、撮像部104で取得された画像を、通信部108を介してFMD200に送信する(ステップS110)。   In addition, when the release button is half-pressed in the determination of step S105, or when the camera 100 is not moved in the determination of step S107, the control unit 101 performs normal through image display on the display unit 301 of the FMD 200. In order to do so, the image acquired by the imaging unit 104 is transmitted to the FMD 200 via the communication unit 108 (step S110).

また、ステップS104の判定においてFMD200との通信が可能でない場合に、制御部101は表示部105にスルー画表示を行う(ステップS111)。このカメラ100側のスルー画表示において、制御部101は、撮像部104を連続動作させ、この連続動作によって撮像部104を介して逐次得られる画像をリアルタイムに表示部105に表示させる。   If communication with the FMD 200 is not possible in the determination in step S104, the control unit 101 displays a through image on the display unit 105 (step S111). In the live view display on the camera 100 side, the control unit 101 causes the imaging unit 104 to continuously operate, and causes the display unit 105 to display images sequentially obtained via the imaging unit 104 by this continuous operation in real time.

スルー画表示又は合成画像の表示の後、制御部101は、撮影者によって操作部102のレリーズボタンが全押しされたか否かを判定する(ステップS112)。ステップS112の判定において、レリーズボタンが全押しされていない場合には、処理がステップS101に戻る。この場合に、制御部101は、カメラ100の電源がオンであるか否かを再び判定する。一方、ステップS112の判定において、レリーズボタンが押された場合に、制御部101は、露出制御(記録用画像の取込み)を行う(ステップS113)。画像の取り込み後、制御部101は取り込んだ画像に対して圧縮処理等の画像処理を施した後、処理後の画像に時計部106で計時される撮影日時等の撮影条件を付加して画像ファイルを生成する。そして、制御部101は、生成した画像ファイルを記録部107に記録させる(ステップS114)。その後、処理がステップS101に戻る。   After the through image display or the composite image display, the control unit 101 determines whether or not the release button of the operation unit 102 has been fully pressed by the photographer (step S112). If it is determined in step S112 that the release button has not been fully pressed, the process returns to step S101. In this case, the control unit 101 determines again whether the camera 100 is powered on. On the other hand, if it is determined in step S112 that the release button has been pressed, the control unit 101 performs exposure control (capture of a recording image) (step S113). After capturing the image, the control unit 101 performs image processing such as compression processing on the captured image, and then adds a shooting condition such as a shooting date and time counted by the clock unit 106 to the processed image. Is generated. Then, the control unit 101 causes the recording unit 107 to record the generated image file (step S114). Thereafter, the process returns to step S101.

また、ステップS102の判定において、カメラ100の動作モードが撮影モードでない場合に、制御部101は、カメラ100の動作モードが再生モードであるか否かを判定する(ステップS115)。ステップS115の判定において、カメラ100の動作モードが再生モードでない場合には、処理がステップS101に戻る。一方、ステップS115の判定において、カメラ100の動作モードが再生モードである場合に、制御部101は再生モードの処理を行う(ステップS116)。再生モードの処理後、処理がステップS101に戻る。   In step S102, when the operation mode of the camera 100 is not the shooting mode, the control unit 101 determines whether or not the operation mode of the camera 100 is the playback mode (step S115). If it is determined in step S115 that the operation mode of the camera 100 is not the playback mode, the process returns to step S101. On the other hand, if it is determined in step S115 that the operation mode of the camera 100 is the playback mode, the control unit 101 performs a playback mode process (step S116). After the playback mode process, the process returns to step S101.

図8は、再生モードの処理を示すフローチャートである。図8において、制御部101は、記録部107に記録された画像ファイルの中で最後に記録された画像ファイルを再生の候補画像に設定する(ステップS201)。次に、制御部101は、再生モードの処理を終了するか、即ちユーザにより再生モードの終了操作がなされたか否かを判定する(ステップS202)。再生モードの終了操作とは、例えばカメラ100の動作モードの切り替え操作等である。ステップS202の判定において、再生モードの終了操作がなされた場合に、制御部101は図8の処理を終了させる。   FIG. 8 is a flowchart showing processing in the reproduction mode. In FIG. 8, the control unit 101 sets the last recorded image file among the image files recorded in the recording unit 107 as a reproduction candidate image (step S201). Next, the control unit 101 determines whether or not to end the process of the playback mode, that is, whether or not the user has performed an end operation of the playback mode (step S202). The reproduction mode end operation is, for example, an operation for switching the operation mode of the camera 100. If it is determined in step S202 that the reproduction mode is terminated, the control unit 101 terminates the process in FIG.

一方、ステップS202の判定において、再生モードの終了操作がなされていない場合に、制御部101は、通信部108の通信状態からFMD200との通信が可能であるか否かを判定する(ステップS203)。   On the other hand, if it is determined in step S202 that the end operation of the playback mode has not been performed, the control unit 101 determines whether communication with the FMD 200 is possible from the communication state of the communication unit 108 (step S203). .

ステップS203の判定において、FMD200との通信が可能でない場合に、制御部101は、候補画像に対応した画像ファイルを記録部107から読み出し、画像ファイル内の画像に伸張処理を施した上で表示部105に表示させる(ステップS204)。一方、ステップS204の判定において、FMD200との通信が可能である場合には、FMD200における画像の再生を行うべく、制御部101は、候補画像に対応した画像ファイルを記録部107から読み出す。そして、制御部101は、読み出した画像ファイルを、通信部108を介してFMD200に送信する(ステップS205)。この際、表示部105は非表示として良い。これは、ユーザがFMD200を装着してカメラ100を構えており、カメラ100の表示部105には注視しないと考えられるためである。   If it is determined in step S203 that communication with the FMD 200 is not possible, the control unit 101 reads an image file corresponding to the candidate image from the recording unit 107, performs an expansion process on the image in the image file, and then displays the display unit. 105 is displayed (step S204). On the other hand, if it is determined in step S204 that communication with the FMD 200 is possible, the control unit 101 reads an image file corresponding to the candidate image from the recording unit 107 in order to reproduce an image on the FMD 200. Then, the control unit 101 transmits the read image file to the FMD 200 via the communication unit 108 (step S205). At this time, the display unit 105 may be hidden. This is because it is considered that the user wears the FMD 200 and holds the camera 100 and does not pay attention to the display unit 105 of the camera 100.

画像の再生の後、制御部101は、再生画像の切り替えを行うか、即ちユーザの操作部102の操作によって、再生画像の切り替え操作がなされたか否かを判定する(ステップS206)。ステップS206の判定において、再生画像の切り替えを行わない場合には処理がステップS201に戻る。この場合に、制御部101は、再生モードの処理を終了するか否かを再び判定する。一方、ステップS206の判定において、再生画像の切り替えを行う場合に、制御部101は、記録部107に記録された画像ファイルの中で次に撮影日時の新しい画像ファイルを次の候補画像に設定する(ステップS207)。その後、処理がステップS201に戻る。   After the reproduction of the image, the control unit 101 determines whether or not to switch the reproduction image, that is, whether or not the reproduction image switching operation has been performed by the operation of the operation unit 102 of the user (step S206). If it is determined in step S206 that the playback image is not switched, the process returns to step S201. In this case, the control unit 101 determines again whether or not to end the playback mode process. On the other hand, when the playback image is switched in the determination in step S206, the control unit 101 sets the next image file of the next shooting date among the image files recorded in the recording unit 107 as the next candidate image. (Step S207). Thereafter, the process returns to step S201.

図9は、FMD200のメインの動作を示すフローチャートである。ここで、本実施形態におけるFMD200は動作モードとして、ファインダモードと、再生モードと、外部表示モードとを有している。ファインダモードは、FMD200をカメラ100のファインダに利用するための動作モードである。また、再生モードは、FMD200の記録部203に記録されている画像を再生するための動作モードである。さらに、外部表示モードは、補助撮像部207からの画像を表示部301に表示させることでFMD200の外部の状況を確認できるようにするための動作モードである。なお、ファインダモードと再生モードとの間の切り替えは、FMD200の操作部208によって行うことができる。   FIG. 9 is a flowchart showing the main operation of the FMD 200. Here, the FMD 200 in the present embodiment has a finder mode, a playback mode, and an external display mode as operation modes. The viewfinder mode is an operation mode for using the FMD 200 for the viewfinder of the camera 100. The reproduction mode is an operation mode for reproducing an image recorded in the recording unit 203 of the FMD 200. Furthermore, the external display mode is an operation mode for enabling the external state of the FMD 200 to be confirmed by displaying an image from the auxiliary imaging unit 207 on the display unit 301. Note that switching between the finder mode and the playback mode can be performed by the operation unit 208 of the FMD 200.

図9において、制御部201は、まず、FMD200の電源がオンであるか否かを判定する(ステップS301)。ステップS301の判定において、電源がオフされている場合に、制御部201は図9の処理を終了させる。この場合には、FMD200による画像の表示は行われない。一方、ステップS301の判定において、電源がオンされた場合に、制御部201は、補助撮像部207を制御して、補助撮像部207において得られた画像を表示部301に表示させる(ステップS302)。これにより、ユーザはFMD200の外部の状況を観察することができる。   In FIG. 9, the control unit 201 first determines whether or not the power of the FMD 200 is on (step S301). If it is determined in step S301 that the power is off, the control unit 201 ends the process in FIG. In this case, the image display by the FMD 200 is not performed. On the other hand, when the power is turned on in the determination in step S301, the control unit 201 controls the auxiliary imaging unit 207 to display the image obtained in the auxiliary imaging unit 207 on the display unit 301 (step S302). . Thereby, the user can observe the external situation of FMD200.

次に、制御部201は、通信部202を介してカメラ100から画像が受信されたか否かを判定する(ステップS303)。ステップS303の判定において、カメラ100から画像が受信された場合に、制御部201は、補助撮像部207からの画像の表示を停止させる(ステップS304)。その後、制御部201は、表示駆動部204を制御して、通信部202を介して受信された画像を表示部301に表示させる(ステップS305)。   Next, the control unit 201 determines whether an image is received from the camera 100 via the communication unit 202 (step S303). If it is determined in step S303 that an image is received from the camera 100, the control unit 201 stops displaying the image from the auxiliary imaging unit 207 (step S304). Thereafter, the control unit 201 controls the display driving unit 204 to display an image received via the communication unit 202 on the display unit 301 (step S305).

次に、制御部201は、FMD200の動作モードがファインダモードであるか否かを判定する(ステップS306)。ステップS306の判定において、FMD200の動作モードがファインダモードである場合には、処理がステップS303に戻る。そして、制御部201は、カメラ100からの次の画像の受信を待つ。ファインダモードではカメラ100から逐次画像が送信されるので、この画像を表示部301に表示させていくことにより、FMD200においてもカメラ100と同様のスルー画表示を行うことが可能である。   Next, the control unit 201 determines whether or not the operation mode of the FMD 200 is a finder mode (step S306). If it is determined in step S306 that the operation mode of the FMD 200 is the finder mode, the process returns to step S303. Then, the control unit 201 waits for reception of the next image from the camera 100. Since images are sequentially transmitted from the camera 100 in the finder mode, by displaying these images on the display unit 301, it is possible to display a through image similar to the camera 100 in the FMD 200.

また、ステップS306の判定において、FMD200の動作モードがファインダモードでない、即ち再生モードである場合に、制御部201は通信部202を介して受信された画像ファイルを記録部203に記録させる(ステップS307)。その後、処理がステップS301に戻る。   If the operation mode of the FMD 200 is not the finder mode, that is, the playback mode is determined in step S306, the control unit 201 causes the recording unit 203 to record the image file received via the communication unit 202 (step S307). ). Thereafter, the process returns to step S301.

また、ステップS303の判定において、カメラ100から画像が受信されていない場合に、制御部201は、通信部202を介してカメラ100に対して電源オンの指示を送る(ステップS308)。この指示を受けた場合にも、カメラ100は電源がオンされる。次に、制御部201は、FMD200の動作モードが再生モードであるか否かを判定する(ステップS309)。ステップS309の判定において、FMD200の動作モードが再生モードでない場合には、処理がステップS301に戻る。一方、ステップS309の判定において、FMD200の動作モードが再生モードである場合に、制御部201は、補助撮像部207からの画像の表示を停止させる(ステップS310)。その後、制御部201は、記録部203に記録された画像ファイルの中で最後に記録された画像ファイル内の画像を伸張した上で、表示部301に表示させる(ステップS311)。画像の再生の後、制御部201は、再生画像の切り替えを行うか、即ちユーザの操作部208の操作によって、再生画像の切り替え操作がなされたか否かを判定する(ステップS312)。ステップS312の判定において、再生画像の切り替えを行わない場合には処理がステップS314に移行する。一方、ステップS312の判定において、再生画像の切り替えを行う場合に、制御部201は、記録部203に記録された画像ファイルの中で次に記録日時の新しい画像ファイルを次の候補画像に設定して表示部301に表示させる(ステップS313)。   If it is determined in step S303 that no image is received from the camera 100, the control unit 201 sends a power-on instruction to the camera 100 via the communication unit 202 (step S308). The camera 100 is also turned on when receiving this instruction. Next, the control unit 201 determines whether or not the operation mode of the FMD 200 is a playback mode (step S309). If it is determined in step S309 that the operation mode of the FMD 200 is not the playback mode, the process returns to step S301. On the other hand, if it is determined in step S309 that the operation mode of the FMD 200 is the playback mode, the control unit 201 stops displaying images from the auxiliary imaging unit 207 (step S310). Thereafter, the control unit 201 expands the image in the image file recorded last among the image files recorded in the recording unit 203 and displays the image on the display unit 301 (step S311). After the reproduction of the image, the control unit 201 determines whether or not to switch the reproduction image, that is, whether or not the reproduction image switching operation has been performed by the operation of the operation unit 208 of the user (step S312). If it is determined in step S312 that the playback image is not switched, the process proceeds to step S314. On the other hand, when the playback image is switched in the determination in step S312, the control unit 201 sets the next image file with the next recording date among the image files recorded in the recording unit 203 as the next candidate image. Is displayed on the display unit 301 (step S313).

ステップS312又はステップS313の後、制御部201は、再生モードの処理を終了するか、即ちユーザにより再生モードの終了操作がなされたか否かを判定する(ステップS314)。ステップS314の判定において、再生モードの終了操作がなされた場合には、処理がステップS301に戻る。一方、ステップS314の判定において、再生モードの終了操作がなされていない場合には、処理がステップS312に戻る。この場合、制御部201は、候補画像の再生を継続する。   After step S312 or step S313, the control unit 201 determines whether or not to end the processing of the playback mode, that is, whether or not the user has performed an end operation of the playback mode (step S314). If it is determined in step S314 that the reproduction mode has been ended, the process returns to step S301. On the other hand, if it is determined in step S314 that the playback mode end operation has not been performed, the process returns to step S312. In this case, the control unit 201 continues to reproduce the candidate image.

次に、ステップS109における画像の合成について説明する。図7において説明したように、カメラ100の移動がない場合にはカメラ100の撮像部104を介して得られた画像がFMD200に送信され、図10(a)のようにしてFMD200の表示部301にはカメラ100から送信されてきた画像が表示される。   Next, image composition in step S109 will be described. As described with reference to FIG. 7, when the camera 100 does not move, an image obtained via the imaging unit 104 of the camera 100 is transmitted to the FMD 200, and the display unit 301 of the FMD 200 as illustrated in FIG. Displays an image transmitted from the camera 100.

さらに、本実施形態においては、レリーズボタンが半押しされている際にカメラの移動があった場合には、レリーズボタンが押されている期間中にステップS106において記録された全ての画像を合成してFMD200の表示部301に表示させる。なお、合成する画像をレリーズボタンが半押しされている期間中に得られた画像としているのは、レリーズボタンが半押しされている間はユーザにフレーミングを行おうという意図があると考えられるためである。画像の合成は必ずしもレリーズボタンが半押しされている期間中に撮像された画像のみに対して行う必要はない。   Further, in the present embodiment, if the camera moves while the release button is half-pressed, all the images recorded in step S106 during the period when the release button is pressed are combined. Are displayed on the display unit 301 of the FMD 200. It should be noted that the image to be synthesized is an image obtained while the release button is half-pressed because it is considered that the user intends to perform framing while the release button is half-pressed. It is. It is not always necessary to synthesize an image only for an image captured during a period when the release button is half-pressed.

ここで、合成は、例えば撮影順に複数の画像を配置することで行う。さらに、合成した画像の近傍にカメラ100の移動方向を示す画像である指標を合成させる。図10(b)、図10(c)は合成表示の例を示している。   Here, the composition is performed by arranging a plurality of images in the order of photographing, for example. Further, an index that is an image indicating the moving direction of the camera 100 is synthesized in the vicinity of the synthesized image. FIG. 10B and FIG. 10C show examples of composite display.

図10(b)は、初期の時点である図10(a)の次の撮像時点においてカメラ100が右方向に移動していた場合の合成表示の例を示している。この場合、図10(b)に示すように、初期の時点において得られた画像501の隣(図10(b)では左隣)に次の画像502が配置されるように合成する。この合成の際には、最新の画像である画像502のサイズを画像501のサイズよりも大きくして合成することがより望ましい。このようにすれば、ユーザは、最新の画像(即ち、現時点でカメラ100が撮像した画像)を直ちに認知することができるようになる。さらに、合成表示の際には、画像501の撮像時から画像502の撮像時の間でのカメラ100の移動方向が分かるように画像502の近傍(図10(b)の例では画像502の上部)に指標502aを合成する。これにより、ユーザはカメラ100の移動方向も認知することが可能となる。   FIG. 10B shows an example of a composite display when the camera 100 is moving rightward at the next imaging time point in FIG. 10A, which is the initial time point. In this case, as shown in FIG. 10B, the images are combined so that the next image 502 is arranged next to the image 501 obtained at the initial time (on the left side in FIG. 10B). At the time of this composition, it is more desirable that the size of the image 502, which is the latest image, is made larger than the size of the image 501 for composition. In this way, the user can immediately recognize the latest image (that is, the image captured by the camera 100 at the present time). Further, in the composite display, in the vicinity of the image 502 (in the example of FIG. 10B, the upper portion of the image 502) so that the moving direction of the camera 100 from the time of capturing the image 501 to the time of capturing the image 502 can be seen. The index 502a is synthesized. Thereby, the user can also recognize the moving direction of the camera 100.

図10(c)は、図10(b)の次の撮像時点においてカメラ100がさらに右方向に移動していた場合の合成表示の例を示している。この場合、図10(c)に示すように、画像502の左隣に次の画像503が配置されるように合成する。この際、最新の画像503のサイズを画像501、502のサイズよりも大きくして合成する。さらに、画像502の撮像時から画像503の撮像時の間でのカメラ100の移動方向が分かるように画像503の近傍(図10(c)の例では画像503の上部)に指標503aを合成する。   FIG. 10C shows an example of a composite display when the camera 100 has moved further to the right at the next imaging time point in FIG. In this case, as shown in FIG. 10C, the images 502 are combined so that the next image 503 is arranged on the left side of the image 502. At this time, the size of the latest image 503 is made larger than the sizes of the images 501 and 502 to be combined. Further, the index 503a is synthesized in the vicinity of the image 503 (in the example of FIG. 10C, the upper portion of the image 503) so that the moving direction of the camera 100 from the time of capturing the image 502 to the time of capturing the image 503 can be understood.

4枚目以後の合成についても同様である。即ち、最新の画像はその1つ前に撮像された画像の左隣に他の画像よりも大きなサイズとなるように合成し、且つ該最新の画像の近傍に移動方向を示す指標を合成すれば良い。   The same applies to the composition after the fourth sheet. That is, if the latest image is synthesized so that it is larger in size than the other images on the left side of the previous image, and an index indicating the moving direction is synthesized in the vicinity of the latest image. good.

以上説明した図10(b)、図10(c)のような画像をFMD200の表示部301に表示させることにより、ユーザは、カメラ100の移動方向とこの移動に伴う画像の遷移とを認知することが可能である。これにより、フレーミングのし易さが向上する。   By displaying the images shown in FIGS. 10B and 10C described above on the display unit 301 of the FMD 200, the user recognizes the moving direction of the camera 100 and the transition of the image accompanying this movement. It is possible. This improves the ease of framing.

ここで、図10の例では、最新の画像を順次左方向に合成する例を示したが、画像が時系列に配置されるのであれば合成方向については特に限定されるものではない。また、指標の合成位置も各画像との対応が分かる位置であれば特に限定されるものではない。   Here, in the example of FIG. 10, an example in which the latest image is sequentially synthesized in the left direction is shown, but the composition direction is not particularly limited as long as the images are arranged in time series. Further, the index combining position is not particularly limited as long as the position corresponding to each image is known.

また、図10の例ではレリーズボタンが半押しされている期間中に得られた全ての画像を合成するようにしているが、例えばレリーズボタンが半押しされた後で最初に得られた画像と最新の画像のみを合成するようにしても良い。このような場合の合成画像の表示例を図11に示す。   Further, in the example of FIG. 10, all images obtained during the period when the release button is pressed halfway are combined, but for example, the first image obtained after the release button is pressed halfway Only the latest image may be synthesized. A display example of the composite image in such a case is shown in FIG.

図11(a)は、初期の時点である図10(a)の次の撮像時点においてカメラ100が左方向に移動していた場合の合成表示の例を示している。この場合、図11(a)に示すように、初期の時点において得られた画像601の隣(図11(a)では右隣)に次の画像602が配置されるように合成する。この合成の際においても、図10の場合の例と同様に、最新の画像である画像502のサイズを画像601のサイズよりも大きくして合成することがより望ましい。さらに、合成表示の際には、画像601の撮像時から画像602の撮像時の間でのカメラ100の移動方向が分かるように画像602の近傍(図11(a)の例では画像602の上部)に指標602aを合成する。   FIG. 11A shows an example of composite display when the camera 100 is moving leftward at the next imaging time point in FIG. 10A, which is the initial time point. In this case, as shown in FIG. 11A, the images are combined so that the next image 602 is arranged next to the image 601 obtained at the initial time (right next in FIG. 11A). Also at the time of this composition, it is more desirable that the size of the image 502 which is the latest image is made larger than the size of the image 601 as in the example of FIG. Further, in the composite display, the vicinity of the image 602 (in the example of FIG. 11A, in the upper part of the image 602) so that the moving direction of the camera 100 from the time of capturing the image 601 to the time of capturing the image 602 can be understood. The index 602a is synthesized.

図11(b)は、図11(a)の次の撮像時点においてカメラ100がさらに右方向に移動していた場合の合成表示の例を示している。この場合、図11(b)に示すように、画像601の右隣に画像602の次の画像603が配置されるように合成する。この際も最新の画像603のサイズを画像601のサイズよりも大きくして合成する。また、画像602の撮像時から画像603の撮像時の間でのカメラ100の移動方向が分かるように画像603の近傍に指標603aを合成する。なお、この移動方向は最初の画像である601との間での移動方向を表示させるようにしても良い。   FIG. 11B shows an example of a composite display when the camera 100 has moved further to the right at the next imaging time point in FIG. In this case, as shown in FIG. 11B, the images 601 are combined so that the next image 603 of the image 602 is arranged on the right side of the image 601. At this time, the size of the latest image 603 is made larger than the size of the image 601 to be combined. Further, an index 603a is synthesized in the vicinity of the image 603 so that the moving direction of the camera 100 from the time of capturing the image 602 to the time of capturing the image 603 can be understood. Note that this moving direction may be displayed with respect to the first image 601.

さらに、図11の例の場合、最新の画像の合成位置をカメラ100の移動方向に応じて決定するようにしても良い。例えば、最初の画像の撮像時からカメラ100が右方向に移動した場合には、図11(a)や図11(b)のように、画像601の右隣に最新の画像を合成するようにする。また、例えば、最初の画像の撮像時からカメラ100が上方向に移動した場合には、図12のように、最初の画像701の上に最新の画像702を合成するようにする。このような合成表示を行うようにすれば、ユーザは、表示部301に表示された画像のみからカメラ100の移動方向を認知することが可能である。なお、この場合は、指標702aを画像702の上部に合成せず、例えば画像702の左部に合成する。   Further, in the case of the example of FIG. 11, the latest image combining position may be determined according to the moving direction of the camera 100. For example, when the camera 100 moves rightward from the time of capturing the first image, the latest image is synthesized on the right side of the image 601 as shown in FIGS. 11A and 11B. To do. For example, when the camera 100 moves upward from the time of capturing the first image, the latest image 702 is synthesized on the first image 701 as shown in FIG. If such composite display is performed, the user can recognize the moving direction of the camera 100 from only the image displayed on the display unit 301. In this case, the index 702a is not combined with the upper part of the image 702, but is combined with the left part of the image 702, for example.

さらに、上述した実施形態においては、スルー画表示と合成画像表示とを別処理としていたが、スルー画表示を行いつつ、このスルー画表示にさらに合成画像を重畳表示させるようにしても良い。   Furthermore, in the above-described embodiment, the through image display and the combined image display are separate processes. However, the combined image may be further superimposed on the through image display while performing the through image display.

また、上述した実施形態においては、カメラ100側で画像の合成を行うようにしているが、カメラ100からはレリーズボタンが押されている間に記録された画像とカメラ100の移動方向のみをFMD200に送信し、画像の合成をFMD200によって行うようにしても良い。さらに、FMD200によってカメラ100の移動方向を検出できるようにしても良い。この場合のカメラ100の移動方向の検出手法としては、例えば補助撮像部207を介して得られる画像中のカメラ100の動きベクトルの変化を検出する手法が考えられる。   In the above-described embodiment, the image is synthesized on the camera 100 side. However, only the image recorded while the release button is pressed from the camera 100 and the moving direction of the camera 100 are displayed in the FMD 200. The image may be combined by the FMD 200. Further, the moving direction of the camera 100 may be detected by the FMD 200. As a method of detecting the moving direction of the camera 100 in this case, for example, a method of detecting a change in the motion vector of the camera 100 in an image obtained via the auxiliary imaging unit 207 can be considered.

以上実施形態に基づいて本発明を説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。   Although the present invention has been described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention.

さらに、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、上述したような課題を解決でき、上述したような効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some configuration requirements are deleted from all the configuration requirements shown in the embodiment, the above-described problem can be solved, and this configuration requirement is deleted when the above-described effects can be obtained. The configuration can also be extracted as an invention.

100…カメラ、101…制御部、102…操作部、103…撮影レンズ、104…撮像部、105…表示部、106…時計部、107…記録部、108…通信部、109…移動方向検知部、200…フェイスマウントディスプレイ(FMD)、201…制御部、202…通信部、203…記録部、204…表示駆動部、205…シャッタ駆動部、206…光学系、207…補助撮像部、208…操作部   DESCRIPTION OF SYMBOLS 100 ... Camera 101 ... Control part 102 ... Operation part 103 ... Shooting lens 104 ... Imaging part 105 ... Display part 106 ... Clock part 107 ... Recording part 108 ... Communication part 109 ... Moving direction detection part , 200 ... face mount display (FMD), 201 ... control unit, 202 ... communication unit, 203 ... recording unit, 204 ... display drive unit, 205 ... shutter drive unit, 206 ... optical system, 207 ... auxiliary imaging unit, 208 ... Operation part

Claims (6)

ユーザの目部に装着自在に構成された装着型画像表示装置と連携して動作するカメラにおいて、
被写体を連続的に撮像して、該連続的な撮像によって複数の画像を取得する撮像部と、
上記複数の画像の各々の撮像時における上記カメラの移動方向を検知する移動方向検知部と、
上記撮像部で撮像された複数の画像を撮影順に配置して合成し、さらに上記カメラの移動が有った場合に、移動方向をさらに合成し、さらに、上記撮影順が最も後の画像の大きさが他の画像に比して大きくなるように合成画像を生成する画像合成部と、
上記画像合成部によって得られた合成画像を上記装着型画像表示装置に送信する通信部と、
を具備することを特徴とするカメラ。
In a camera that operates in conjunction with a wearable image display device configured to be freely wearable on the user's eyes,
An imaging unit that continuously images a subject and obtains a plurality of images by the continuous imaging;
A moving direction detector that detects the moving direction of the camera at the time of capturing each of the plurality of images;
A plurality of images taken by the imaging unit are arranged and combined in the order of shooting, and when the camera moves, the moving direction is further combined, and the size of the image in which the shooting order is the latest An image compositing unit that generates a composite image so that the image is larger than other images ,
A communication unit that transmits the combined image obtained by the image combining unit to the wearable image display device;
A camera comprising:
撮影の準備を指示するためのレリーズボタンをさらに具備し、
上記移動方向検知部は、上記レリーズボタンによって撮影の準備が指示されている間の上記カメラの移動方向を検知し、
上記画像合成部は、上記レリーズボタンによって撮影の準備が指示されている間に上記撮像部で撮像された複数の画像と上記カメラの移動方向を示す画像とを合成した合成画像を生成することを特徴とする請求項1に記載のカメラ。
A release button for instructing preparation for shooting is further provided.
The moving direction detection unit detects the moving direction of the camera while the preparation for shooting is instructed by the release button,
The image synthesizing unit generates a synthesized image obtained by synthesizing a plurality of images captured by the imaging unit and an image indicating a moving direction of the camera while the preparation for shooting is instructed by the release button. The camera of claim 1, characterized in that:
上記画像合成部は、上記レリーズボタンによって撮影の準備が指示されている間に上記撮像部で撮像された複数の画像を撮像順に配置するとともに、各画像の近傍に上記カメラの移動方向を示す指標を合成することで上記合成画像を生成することを特徴とする請求項2に記載のカメラ。   The image composition unit arranges a plurality of images captured by the image capturing unit in the order of imaging while the release button is instructed to prepare for shooting, and an index indicating the moving direction of the camera in the vicinity of each image The camera according to claim 2, wherein the synthesized image is generated by synthesizing. 上記画像合成部は、上記カメラの移動方向と上記撮影順が最も後の画像の合成位置とが対応するように上記合成画像を生成することを特徴とする請求項3に記載のカメラ。The camera according to claim 3, wherein the image composition unit generates the composite image so that a moving direction of the camera corresponds to a composition position of an image having the latest photographing order. 上記移動方向検知部は、上記撮像部で連続して取得される画像間の被写体像のずれより動きベクトルを算出し、上記動きベクトルが画像全体で同じと判定した際に、上記算出された動きベクトルに基づいて上記カメラの移動方向を検知することを特徴とする請求項1乃至4の何れか1項に記載のカメラ。The movement direction detection unit calculates a motion vector from a shift of a subject image between images continuously acquired by the imaging unit, and determines that the calculated motion is the same when the motion vector is the same for the entire image. The camera according to claim 1, wherein the moving direction of the camera is detected based on a vector. ユーザの目部に装着自在に構成され、カメラと連携して動作する装着型画像表示装置において、In a wearable image display device configured to be freely wearable on the user's eyes and operating in conjunction with a camera,
上記請求項1に記載のカメラから複数の画像及び上記複数の画像の各々の撮像時における上記を受信する受信部と、A plurality of images received from the camera according to claim 1 and a reception unit that receives the above-described images at the time of capturing each of the plurality of images;
上記カメラの移動方向を検知する移動方向検知部と、A moving direction detector for detecting the moving direction of the camera;
上記受信部において受信した複数の画像と上記カメラの移動方向とを合成した合成画像を生成する画像合成部と、An image composition unit that generates a composite image by combining the plurality of images received by the reception unit and the moving direction of the camera;
上記画像合成部によって得られた合成画像を表示する表示部と、A display unit for displaying a composite image obtained by the image composition unit;
を具備することを特徴とする装着型画像表示装置。A wearable image display device comprising:
JP2009066714A 2009-02-19 2009-03-18 Camera and wearable image display device Expired - Fee Related JP5199156B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009066714A JP5199156B2 (en) 2009-03-18 2009-03-18 Camera and wearable image display device
CN201410025553.2A CN103763472B (en) 2009-02-19 2010-02-12 Photographing unit, mounted type image display apparatus, camera chain and method for imaging
CN201010117398.9A CN101813873B (en) 2009-02-19 2010-02-12 Camera and wearable image display apparatus
US12/707,069 US8325263B2 (en) 2009-02-19 2010-02-17 Camera and wearable image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066714A JP5199156B2 (en) 2009-03-18 2009-03-18 Camera and wearable image display device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013021249A Division JP5444483B2 (en) 2013-02-06 2013-02-06 Camera and wearable image display device

Publications (2)

Publication Number Publication Date
JP2010220074A JP2010220074A (en) 2010-09-30
JP5199156B2 true JP5199156B2 (en) 2013-05-15

Family

ID=42978395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066714A Expired - Fee Related JP5199156B2 (en) 2009-02-19 2009-03-18 Camera and wearable image display device

Country Status (1)

Country Link
JP (1) JP5199156B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150034448A (en) * 2013-09-26 2015-04-03 엘지전자 주식회사 A head mounted display ant the method of controlling thereof

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6082272B2 (en) 2013-02-25 2017-02-15 東京エレクトロン株式会社 Support information display method, substrate processing apparatus maintenance support method, support information display control apparatus, substrate processing system, and program
US10248191B2 (en) * 2016-12-12 2019-04-02 Microsoft Technology Licensing, Llc Virtual rigid framework for sensor subsystem
EP4071542A4 (en) * 2019-12-05 2023-01-25 Koito Manufacturing Co., Ltd. Image display device
JPWO2023276109A1 (en) * 2021-07-01 2023-01-05

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3325823B2 (en) * 1998-02-06 2002-09-17 日本電信電話株式会社 Video still image display method and apparatus, and video still image display program storage recording medium
JP2006060583A (en) * 2004-08-20 2006-03-02 Fuji Photo Film Co Ltd Digital camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150034448A (en) * 2013-09-26 2015-04-03 엘지전자 주식회사 A head mounted display ant the method of controlling thereof
KR102088020B1 (en) * 2013-09-26 2020-03-11 엘지전자 주식회사 A head mounted display ant the method of controlling thereof

Also Published As

Publication number Publication date
JP2010220074A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
US8325263B2 (en) Camera and wearable image display apparatus
JP2010193031A (en) Photographic apparatus and method for controlling the same
JP5199156B2 (en) Camera and wearable image display device
US20110199498A1 (en) Image pickup apparatus
JP2009077090A (en) Imaging apparatus, imaging system, and image reading system
JP5618587B2 (en) Imaging device, image display device, and image display system
JP2011101300A (en) Photographing device and remote operation support system
JP2008123257A (en) Remote operation support system and display control method
WO2011058707A1 (en) Imaging device and remote operations support system
JP2010193287A (en) Camera
JP2008113317A (en) Remote operation support system
KR20070113067A (en) Portable stereo vision camera
JP5444483B2 (en) Camera and wearable image display device
JP6798244B2 (en) Shooting device
JP2011109462A (en) Image transmission device, imaging device, and remote work support system
JP2006251225A (en) Photographing device and lens unit
JP2000184245A (en) Camera device
JP2011109453A (en) Imaging apparatus system, external apparatus, and adapter
JP2010135963A (en) Imaging apparatus, and control method of imaging apparatus
JP2007193254A (en) Video display apparatus
JP4315773B2 (en) Cameras and accessories
JP2011109276A (en) Camera finder, photographing apparatus, and remote operation support system
JP2010183274A (en) Camera system, camera, and face mount image display
JP5439834B2 (en) Imaging device
WO2024181175A1 (en) Image processing device and image processing method, virtual studio system, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5199156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees