JP2011223175A - Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus - Google Patents

Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus Download PDF

Info

Publication number
JP2011223175A
JP2011223175A JP2010088133A JP2010088133A JP2011223175A JP 2011223175 A JP2011223175 A JP 2011223175A JP 2010088133 A JP2010088133 A JP 2010088133A JP 2010088133 A JP2010088133 A JP 2010088133A JP 2011223175 A JP2011223175 A JP 2011223175A
Authority
JP
Japan
Prior art keywords
image
imaging
viewpoint image
generated
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010088133A
Other languages
Japanese (ja)
Inventor
Kazuto Washio
和人 鷲尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010088133A priority Critical patent/JP2011223175A/en
Publication of JP2011223175A publication Critical patent/JP2011223175A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a preferred stereoscopic image, even if a preferred viewpoint image for generating a stereoscopic image is not obtained, by receiving the viewpoint image from the outside.SOLUTION: A compound-eye camera 1 comprises: imaging units 21A and 21B that generate a viewpoint image for each frame; a communication circuit 32 that receives a viewpoint image different from the generated viewpoint image for each frame; a monitor 7 that displays the generated viewpoint image for each frame and the received viewpoint image for each frame; a release button 2 for performing an operation for instructing a imaging start; and a three-dimensional processing unit 30 that generates a stereoscopic image based on the viewpoint image generated at timing at which the imaging start is instructed and the viewpoint image received at the timing.

Description

本発明は、撮像装置、撮像装置の画像処理方法及びプログラム並びに撮像システムに関する。   The present invention relates to an imaging apparatus, an image processing method and program for the imaging apparatus, and an imaging system.

従来、複数の撮像部を備え、立体視画像を生成する複眼撮像装置が提案されている。複眼撮像装置は、複数の撮像部でそれぞれ生成された複数の視点画像に基づいて立体視画像を生成し、この立体視画像を立体視表示用モニタに表示する。   Conventionally, a compound-eye imaging device that includes a plurality of imaging units and generates a stereoscopic image has been proposed. The compound-eye imaging device generates a stereoscopic image based on a plurality of viewpoint images respectively generated by a plurality of imaging units, and displays the stereoscopic image on a stereoscopic display monitor.

複眼撮像装置で撮像された立体視画像の立体感はユーザの両眼の距離や立体視表示用モニタからユーザまでの距離に左右されるので、複眼撮像装置の立体視機能については個人差が大きいという問題がある。そのため、複眼撮像装置では、ユーザの操作に従って複数の視点画像の視差が調整可能になっており、これにより立体視画像の立体感が調整される。   Since the stereoscopic effect of the stereoscopic image captured by the compound-eye imaging device depends on the distance between the user's eyes and the distance from the stereoscopic display monitor to the user, there are large individual differences in the stereoscopic function of the compound-eye imaging device. There is a problem. Therefore, in the compound-eye imaging device, the parallax of the plurality of viewpoint images can be adjusted according to the user's operation, thereby adjusting the stereoscopic effect of the stereoscopic image.

しかし、遠方や近傍に存在する複数の被写体を一箇所で撮影しようとすると、複眼撮像装置から被写体までの距離によって視差量が大きく異なってしまい、最適な立体視画像が得られない問題がある。このため、他の撮像装置から視点画像を得て、最適な立体視画像を得ることが考えられる。   However, if a plurality of subjects existing at a distance or in the vicinity are to be photographed at one location, the amount of parallax varies greatly depending on the distance from the compound-eye imaging device to the subject, and there is a problem that an optimal stereoscopic image cannot be obtained. For this reason, it is conceivable to obtain an optimal stereoscopic image by obtaining a viewpoint image from another imaging device.

そこで、複数のカメラが撮影している状況において、ユーザが所望する範囲を所望する方向から撮影したカメラの映像を得る技術が提案されている(特許文献1参照)。特許文献1の技術は、同文献の図1に示すように、カメラの撮影可能な範囲を地図として表示するモニタ20と、地図上でユーザが望む撮影範囲を指定し、撮影範囲をいずれの方角から撮影するかをユーザが指定するマウスと、指定された方角からのカメラ映像を受信する映像受信端末18とを備えている。そして、モニタ20は、映像受信端末18で受信された1つ以上のカメラの映像を並べて出力する。   Therefore, a technique has been proposed in which a camera image is captured in a desired direction within a range desired by a user in a situation where a plurality of cameras are shooting (see Patent Document 1). As shown in FIG. 1 of the same document, the technology of Patent Document 1 specifies a monitor 20 that displays a camera-capable range as a map, a shooting range desired by the user on the map, and sets the shooting range in any direction. A mouse for the user to specify whether to shoot from the camera and a video receiving terminal 18 for receiving a camera video from the specified direction. Then, the monitor 20 arranges and outputs the video of one or more cameras received by the video receiving terminal 18.

また、複数のカメラで異なる位置から撮影された複数の映像チャンネルのうちの1つを、視聴者が見たい被写体にあわせて次々と選択して表示する技術も提案されている(特許文献2)。特許文献2の技術は、注目被写体のフレームアウトを検出した場合に、注目被写体を検索キーとして他の映像チャンネルを検索し、検出した映像チャンネルを表示部に表示させる。   In addition, a technique has been proposed in which one of a plurality of video channels photographed from different positions by a plurality of cameras is selected and displayed one after another according to the subject that the viewer wants to see (Patent Document 2). . In the technique disclosed in Patent Document 2, when a frame-out of a subject of interest is detected, another video channel is searched using the subject of interest as a search key, and the detected video channel is displayed on the display unit.

特開2009−272710号公報JP 2009-272710 A 特開2005−130462号公報JP 2005-130462 A

しかし、特許文献1の発明は、立体視画像を考慮して、ユーザが見たい範囲及び角度を設定するものでない。また、特許文献2の発明は、立体視画像を表示することを考慮して、ユーザの見たい被写体を選択するものではない。このため、立体視画像を生成するための好適な視点画像を外部から得ることができない問題がある。   However, the invention of Patent Document 1 does not set a range and an angle that the user wants to see in consideration of a stereoscopic image. Further, the invention of Patent Document 2 does not select a subject that the user wants to see in consideration of displaying a stereoscopic image. For this reason, there is a problem that a suitable viewpoint image for generating a stereoscopic image cannot be obtained from the outside.

本発明は、このような実情を鑑みて提案されたものであり、立体視画像を生成するための好適な視点画像が得られない場合でも、外部から視点画像を受信して好適な立体視画像を生成することができる撮像装置、撮像装置の画像処理方法及びプログラム並びに撮像システムを提供することを目的とする。   The present invention has been proposed in view of such circumstances, and even when a suitable viewpoint image for generating a stereoscopic image cannot be obtained, a suitable stereoscopic image is received by receiving the viewpoint image from the outside. It is an object to provide an imaging apparatus, an image processing method and program for the imaging apparatus, and an imaging system.

請求項1に記載の発明である撮像装置は、被写体を撮像することでフレーム毎に視点画像を生成する撮像手段と、前記視点画像と異なる視点画像をフレーム毎に受信する受信手段と、前記撮像手段により生成されたフレーム毎の視点画像、及び前記受信手段により受信されたフレーム毎の視点画像を表示する表示手段と、撮影開始を指示するための操作が行われる第1の指示手段と、前記第1の指示手段により撮影開始が指示されたタイミングに対応して前記撮像手段により生成された視点画像、及び前記タイミングに対応して前記受信手段により受信された視点画像に基づいて立体視画像を生成する立体視画像生成手段と、を備えている。   The imaging apparatus according to claim 1 includes an imaging unit that generates a viewpoint image for each frame by imaging a subject, a receiving unit that receives a viewpoint image different from the viewpoint image for each frame, and the imaging Display means for displaying the viewpoint image for each frame generated by the means and the viewpoint image for each frame received by the receiving means, a first instruction means for performing an operation for instructing start of photographing, A stereoscopic image is generated based on the viewpoint image generated by the imaging unit corresponding to the timing when the photographing start is instructed by the first instruction unit, and the viewpoint image received by the receiving unit corresponding to the timing. And a stereoscopic image generation means for generating.

請求項2に記載の発明である撮像装置は、請求項1に記載の撮像装置であって、前記表示手段は、さらに、前記立体視画像生成手段により生成された立体視画像を表示する。   An imaging apparatus according to a second aspect of the present invention is the imaging apparatus according to the first aspect, wherein the display means further displays a stereoscopic image generated by the stereoscopic image generation means.

請求項3に記載の発明である撮像装置は、請求項1または請求項2に記載の撮像装置であって、前記立体視画像生成手段により生成された立体視画像を記録媒体に記録する記録手段を更に備えている。   An imaging apparatus according to a third aspect of the present invention is the imaging apparatus according to the first or second aspect, wherein the recording means records the stereoscopic image generated by the stereoscopic image generation means on a recording medium. Is further provided.

請求項4に記載の発明である撮像装置は、請求項1から請求項3のいずれか1項に記載の撮像装置であって、前記受信手段は、他の撮像装置で生成された視点画像を受信する。   An imaging apparatus according to a fourth aspect of the present invention is the imaging apparatus according to any one of the first to third aspects, wherein the receiving means receives a viewpoint image generated by another imaging apparatus. Receive.

請求項5に記載の発明である撮像装置は、請求項4に記載の撮像装置であって、前記他の撮像装置に対して撮影の向き、撮影位置、及びズーム倍率の少なくとも1つを指示するための操作が行われる第2の指示手段を更に備え、前記受信手段は、前記他の撮像装置が前記第2の指示手段の指示に従って撮像した被写体の視点画像を受信する。   An imaging apparatus according to a fifth aspect of the invention is the imaging apparatus according to the fourth aspect, in which at least one of a shooting direction, a shooting position, and a zoom magnification is instructed to the other imaging apparatus. A second instruction means for performing an operation for receiving the image, and the reception means receives the viewpoint image of the subject imaged by the other imaging device according to the instruction of the second instruction means.

請求項6に記載の発明である撮像装置の画像処理方法は、被写体を撮像することでフレーム毎に視点画像を生成し、前記視点画像と異なる視点画像をフレーム毎に受信し、前記生成したフレーム毎の視点画像、及び前記受信したフレーム毎の視点画像を表示し、指示手段により撮影開始が指示されたタイミングに対応して前記生成した視点画像、及び前記タイミングに対応して前記受信した視点画像に基づいて立体視画像を生成する。   The image processing method of the imaging apparatus according to claim 6, wherein a viewpoint image is generated for each frame by imaging a subject, a viewpoint image different from the viewpoint image is received for each frame, and the generated frame Each viewpoint image and the received viewpoint image for each frame are displayed, and the generated viewpoint image corresponding to the timing at which shooting is instructed by the instruction means, and the received viewpoint image corresponding to the timing. A stereoscopic image is generated based on the above.

請求項7に記載の発明である撮像装置の画像処理方法は、請求項6に記載の撮像装置の画像処理方法であって、前記生成した立体視画像を表示する。   An image processing method for an image pickup apparatus according to a seventh aspect of the present invention is the image processing method for an image pickup apparatus according to the sixth aspect, wherein the generated stereoscopic image is displayed.

請求項8に記載の発明である撮像装置の画像処理方法は、請求項6または請求項7に記載の撮像装置の画像処理方法であって、前記生成した立体視画像を記録媒体に記録する。   An image processing method for an imaging apparatus according to an eighth aspect of the present invention is the image processing method for an imaging apparatus according to the sixth or seventh aspect, wherein the generated stereoscopic image is recorded on a recording medium.

請求項9に記載の発明である撮像装置の画像処理方法は、請求項6から請求項8のいずれか1項に記載の撮像装置の画像処理方法であって、他の撮像装置で生成された視点画像を受信する。   The image processing method of the imaging device according to the ninth aspect of the invention is the image processing method of the imaging device according to any one of the sixth to eighth aspects, and is generated by another imaging device. Receive viewpoint images.

請求項10に記載の発明である撮像装置の画像処理方法は、請求項9に記載の撮像装置の画像処理方法であって、前記他の撮像装置に対して撮影の向き、撮影位置、及びズーム倍率の少なくとも1つを指示するための操作が行われ、前記指示に従って撮像した被写体の視点画像を受信する。   An image processing method of an imaging apparatus according to a tenth aspect of the present invention is the image processing method of the imaging apparatus according to the ninth aspect, wherein a shooting direction, a shooting position, and a zoom with respect to the other imaging apparatus. An operation for instructing at least one of the magnifications is performed, and a viewpoint image of the subject imaged according to the instruction is received.

請求項11に記載の発明である撮像装置の画像処理プログラムは、コンピュータを、撮像手段により生成されたフレーム毎の視点画像、及び受信手段により受信されたフレーム毎の視点画像を表示手段に表示させる表示制御手段、及び撮影開始を指示するための操作が行われる第1の指示手段により撮影開始が指示されたタイミングに対応して前記撮像手段により生成された視点画像、及び前記タイミングに対応して前記受信手段により受信された視点画像に基づいて立体視画像を生成する立体視画像生成手段、として機能させる。   An image processing program of an imaging apparatus according to an eleventh aspect of the invention causes a computer to display a viewpoint image for each frame generated by the imaging unit and a viewpoint image for each frame received by the reception unit on the display unit. Corresponding to the viewpoint image generated by the imaging unit corresponding to the timing when the imaging start is instructed by the display control unit and the first instruction unit for performing the operation for instructing the imaging start, and corresponding to the timing It functions as a stereoscopic image generation unit that generates a stereoscopic image based on the viewpoint image received by the reception unit.

請求項12に記載の発明である撮像システムは、請求項4または請求項5に記載の撮像装置と、前記被写体を撮像して前記撮像装置に視点画像を送信する他の撮像装置と、を備えている。   An imaging system according to a twelfth aspect includes the imaging device according to the fourth or fifth aspect, and another imaging device that images the subject and transmits a viewpoint image to the imaging device. ing.

本発明によれば、撮像手段により生成されたフレーム毎の視点画像、及び受信手段により受信されたフレーム毎の視点画像を表示して、撮影開始が指示されたタイミングに対応して撮像手段により生成された視点画像、及び上記タイミングに対応して受信手段により受信された視点画像に基づいて立体視画像を生成することにより、立体視画像を生成するための好適な視点画像が得られない場合でも、外部から視点画像を受信して好適な立体視画像を生成することができる。   According to the present invention, the viewpoint image for each frame generated by the imaging unit and the viewpoint image for each frame received by the receiving unit are displayed, and generated by the imaging unit corresponding to the timing when the start of shooting is instructed. Even when a suitable viewpoint image for generating a stereoscopic image cannot be obtained by generating a stereoscopic image based on the generated viewpoint image and the viewpoint image received by the receiving unit corresponding to the timing described above. A viewpoint image can be received from the outside and a suitable stereoscopic image can be generated.

本発明の実施形態に係る複眼カメラの正面側斜視図である。1 is a front perspective view of a compound eye camera according to an embodiment of the present invention. 複眼カメラの背面側斜視図である。It is a back side perspective view of a compound eye camera. 複眼カメラの内部構成を示す概略ブロック図である。It is a schematic block diagram which shows the internal structure of a compound eye camera. 撮影部の構成を示す図である。It is a figure which shows the structure of an imaging | photography part. 立体視画像の画像ファイルのファイルフォーマットを示す図である。It is a figure which shows the file format of the image file of a stereoscopic vision image. モニタの構成を示す図である。It is a figure which shows the structure of a monitor. レンチキュラーシートの構成を示す図である。It is a figure which shows the structure of a lenticular sheet. 第1及び第2の画像に対する3次元処理を説明するための図である。It is a figure for demonstrating the three-dimensional process with respect to the 1st and 2nd image. 実施形態に係る撮像システムの構成を示す概略図である。It is the schematic which shows the structure of the imaging system which concerns on embodiment. 第1のカメラ画像転送ルーチンを示すフローチャートである。It is a flowchart which shows a 1st camera image transfer routine. インターレース画像がモニタに表示されている状態を示す図である。It is a figure which shows the state by which the interlace image is displayed on the monitor. 第2のカメラ画像転送ルーチンを示すフローチャートである。It is a flowchart which shows a 2nd camera image transfer routine. 撮影者がカメラの撮影位置、撮影の向きを指示する状態を示す図である。It is a figure which shows the state which a photographer instruct | indicates the imaging position of a camera, and the direction of imaging.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態に係る複眼カメラ1の正面側斜視図、図2は背面側斜視図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a front perspective view of a compound eye camera 1 according to an embodiment of the present invention, and FIG. 2 is a rear perspective view.

複眼カメラ1の上部には、レリーズボタン2、電源ボタン3及びズームレバー4が備えられている。複眼カメラ1の正面には、フラッシュ5及び2つの撮影部21A、21Bのレンズが配設されている。また、複眼カメラ1の背面には、各種表示を行う液晶モニタ(以下単に「モニタ」いう。)7及び各種の操作ボタン8A,8U,8D,8R,8Lが配設されている。操作ボタン8は、複眼カメラ1の操作に用いられるだけでなく、詳しくは後述するが、他のカメラの操作にも用いられる。   A release button 2, a power button 3, and a zoom lever 4 are provided on the compound eye camera 1. In front of the compound-eye camera 1, the flash 5 and the lenses of the two photographing units 21A and 21B are disposed. Further, on the back of the compound-eye camera 1, a liquid crystal monitor (hereinafter simply referred to as “monitor”) 7 for performing various displays and various operation buttons 8A, 8U, 8D, 8R, 8L are disposed. The operation button 8 is used not only for the operation of the compound eye camera 1 but also for the operation of other cameras, which will be described in detail later.

図3は、複眼カメラ1の内部構成を示す概略ブロック図である。複眼カメラ1は、2つの撮影部21A、21B、撮影制御部22、画像処理部23、圧縮/伸長処理部24、フレームメモリ25、メディア制御部26、内部メモリ27、表示制御部28、通信回路32及びCPU35を備える。なお、撮影部21A、21Bは、被写体を見込む輻輳角を持って、あらかじめ定められた基線長となるように配置されている。また、輻輳角及び基線長の情報は内部メモリ27に記憶されている。   FIG. 3 is a schematic block diagram showing the internal configuration of the compound eye camera 1. The compound eye camera 1 includes two photographing units 21A and 21B, a photographing control unit 22, an image processing unit 23, a compression / decompression processing unit 24, a frame memory 25, a media control unit 26, an internal memory 27, a display control unit 28, and a communication circuit. 32 and CPU 35. Note that the photographing units 21A and 21B are arranged so as to have a predetermined baseline length with a convergence angle at which the subject is viewed. Information on the convergence angle and the baseline length is stored in the internal memory 27.

図4は、撮影部21A、21Bの構成を示す図である。図4に示すように撮影部21A、21Bは、レンズ10A、10B、絞り11A、11B、シャッタ12A、12B、撮像素子13A、13B、アナログフロントエンド(AFE)14A、14B及びA/D変換部15A,15Bをそれぞれ備える。   FIG. 4 is a diagram illustrating the configuration of the imaging units 21A and 21B. As shown in FIG. 4, the imaging units 21A and 21B include lenses 10A and 10B, apertures 11A and 11B, shutters 12A and 12B, image sensors 13A and 13B, analog front ends (AFE) 14A and 14B, and an A / D conversion unit 15A. , 15B.

レンズ10A,10Bは、被写体に焦点を合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズ等の複数の機能別レンズを有している。レンズ10A,10Bの位置は、撮影制御部22のAF処理部22aにより得られる合焦データ及び図1及び図2に示したズームレバー4が操作された場合に得られるズームデータに基づいて、不図示のレンズ駆動部により調整される。   The lenses 10A and 10B have a plurality of functional lenses such as a focus lens for focusing on a subject and a zoom lens for realizing a zoom function. The positions of the lenses 10A and 10B are not determined based on the focusing data obtained by the AF processing unit 22a of the imaging control unit 22 and the zoom data obtained when the zoom lever 4 shown in FIGS. 1 and 2 is operated. It is adjusted by the lens driving unit shown in the figure.

絞り11A,11Bは、撮影制御部22のAE処理部22bにより得られる絞り値データに基づいて、不図示の絞り駆動部により絞り径の調整が行われる。   The apertures 11A and 11B are adjusted in aperture diameter by an unillustrated aperture driving unit based on aperture value data obtained by the AE processing unit 22b of the imaging control unit 22.

シャッタ12A,12Bはメカニカルシャッタであり、不図示のシャッタ駆動部により、AE処理部22bにより得られるシャッタスピードに応じて駆動される。   The shutters 12A and 12B are mechanical shutters, and are driven by a shutter driving unit (not shown) according to the shutter speed obtained by the AE processing unit 22b.

撮像素子13A,13Bは、多数の受光素子を2次元状に配列した光電面を有しており、被写体光がこの光電面に結像して光電変換されてアナログ撮影信号が取得される。また、撮像素子13A,13Bの前面にはR,G,B各色のフィルタが規則的に配列されたカラーフィルタが配設されている。   The imaging elements 13A and 13B have a photoelectric surface in which a large number of light receiving elements are two-dimensionally arranged, and subject light is imaged on the photoelectric surface and subjected to photoelectric conversion to obtain an analog photographing signal. In addition, color filters in which R, G, and B color filters are regularly arranged are disposed on the front surfaces of the image sensors 13A and 13B.

AFE14A,14Bは、撮像素子13A,13Bから出力されるアナログ撮影信号に対して、アナログ撮影信号のノイズを除去する処理、及びアナログ撮影信号のゲインを調節する処理(以下「アナログ処理」という。)を施す。   The AFEs 14A and 14B remove noise from the analog shooting signal and adjust the gain of the analog shooting signal (hereinafter referred to as “analog processing”) for the analog shooting signals output from the image sensors 13A and 13B. Apply.

A/D変換部15A,15Bは、AFE14A,14Bによりアナログ処理が施されたアナログ撮影信号をデジタル信号に変換する。なお、撮影部21Aにより取得されるデジタルの画像データにより表される画像を第1の画像G1、撮影部21Bにより取得される画像データにより表される画像を第2の画像G2とする。   The A / D converters 15A and 15B convert the analog photographing signals subjected to the analog processing by the AFEs 14A and 14B into digital signals. Note that an image represented by digital image data acquired by the photographing unit 21A is a first image G1, and an image represented by image data acquired by the photographing unit 21B is a second image G2.

撮影制御部22は、上述のようにAF処理部22a及びAE処理部22bを有している。AF処理部22aは、レリーズボタン2が半押し操作されると、測距センサから測距情報を取得し、レンズ10A,10Bの焦点位置を決定し、撮影部21A,2lBに出力する。AE処理部22bは、プレ画像に基づいて絞り値とシャッタ速度とを決定し、撮影部21A,21Bに出力する。   The imaging control unit 22 includes the AF processing unit 22a and the AE processing unit 22b as described above. When the release button 2 is pressed halfway, the AF processing unit 22a acquires distance measurement information from the distance measurement sensor, determines the focal positions of the lenses 10A and 10B, and outputs them to the photographing units 21A and 21B. The AE processing unit 22b determines an aperture value and a shutter speed based on the pre-image, and outputs them to the photographing units 21A and 21B.

なお、AF処理部22aによる焦点位置の検出方式としては、測距情報を用いたアクティブ方式に限らず、画像のコントラストを利用して合焦位置を検出するパッシブ方式を用いてもよい。   Note that the focus position detection method by the AF processing unit 22a is not limited to the active method using the distance measurement information, and a passive method that detects the in-focus position using the contrast of the image may be used.

撮影制御部22は、レリーズボタン2が操作されない状態では、撮影範囲を確認させるための、第1及び第2の画像G1,G2の本画像よりも画素数が少ないスルー画像を、所定時間間隔(例えば1/30秒間隔)にて順次生成させるように撮影部21A,21Bを制御する。そして、撮影制御部22は、レリーズボタン2が全押し操作されると、本撮影を開始すべく、第1及び第2の画像G1,G2の本画像を生成するように撮影部21A,21Bを制御する。   In a state where the release button 2 is not operated, the shooting control unit 22 displays a through image having a smaller number of pixels than the main images of the first and second images G1 and G2 for confirming the shooting range at a predetermined time interval ( For example, the photographing units 21A and 21B are controlled so as to be sequentially generated at an interval of 1/30 seconds. Then, when the release button 2 is fully pressed, the shooting control unit 22 causes the shooting units 21A and 21B to generate the main images of the first and second images G1 and G2 so as to start the main shooting. Control.

以上の説明は静止画撮影モードの場合であるが、本実施の形態による複眼カメラ1では、動画撮影モードも設定可能である。動画撮影モードの場合、レリーズボタン2が押圧されると動画撮影が開始され、フレーム毎に第1及び第2の画像G1,G2が生成され、再びレリーズボタン2が押圧されると動画撮影が停止する。   Although the above description is in the case of the still image shooting mode, in the compound eye camera 1 according to the present embodiment, the moving image shooting mode can also be set. In the moving image shooting mode, moving image shooting starts when the release button 2 is pressed, first and second images G1 and G2 are generated for each frame, and moving image shooting stops when the release button 2 is pressed again. To do.

画像処理部23は、撮影部21A,21Bが取得した第1及び第2の画像G1,G2のデジタルの画像データに対して、ホワイトバランス調整、階調補正、シャープネス補正、及び色補正等の画像処理を施す。   The image processing unit 23 performs image processing such as white balance adjustment, gradation correction, sharpness correction, and color correction on the digital image data of the first and second images G1 and G2 acquired by the imaging units 21A and 21B. Apply processing.

圧縮/伸長処理部24は、画像処理部23によって画像処理が施された第1及び第2の画像G1,G2の本画像を表す画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、立体視用の画像ファイルF0を生成する。この立体視用の画像ファイルF0は、第1及び第2の画像G1,G2の画像データを有しており、更に、Exifフォーマット等に基づく、基線長、輻輳角及び撮影日時等の付帯情報、及び視点位置を表す視点情報を含んでいる。   The compression / decompression processing unit 24 compresses the image data representing the main images of the first and second images G1 and G2 subjected to image processing by the image processing unit 23 in a compression format such as JPEG. To generate an image file F0 for stereoscopic viewing. The stereoscopic image file F0 includes image data of the first and second images G1 and G2, and additional information such as a base line length, a convergence angle, and a shooting date and time based on the Exif format, And viewpoint information representing the viewpoint position.

図5は、立体視用の画像ファイルのファイルフォーマットを示す図である。立体視用の画像ファイルF0は、第1の画像G1の付帯情報H1、第1の画像G1の視点情報S1、第1の画像G1の画像データ、第2の画像G2の付帯情報H2、第2の画像G2の視点情報S2,及び第2の画像G2の画像データが格納されてなる。また、図示はしないが、第1及び第2の画像G1,G2についての付帯情報、視点情報及び画像データの前後には、データの開始位置及び終了位置を表す情報が含まれる。   FIG. 5 is a diagram illustrating a file format of a stereoscopic image file. The stereoscopic image file F0 includes supplementary information H1 of the first image G1, viewpoint information S1 of the first image G1, image data of the first image G1, supplementary information H2 of the second image G2, and second information. The viewpoint information S2 of the second image G2 and the image data of the second image G2 are stored. Although not shown, information indicating the start position and end position of data is included before and after the supplementary information, viewpoint information, and image data for the first and second images G1 and G2.

付帯情報H1,H2には、第1及び第2の画像G1,G2の撮影日、基線長、及び輻輳角の情報が含まれる。付帯情報H1,H2には、第1及び第2の画像G1,G2のサムネイル画像も含まれる。なお、視点情報としては、例えば左側の撮影部から順に付与した視点位置の番号を用いることができる。   The incidental information H1 and H2 includes information on the shooting dates, baseline lengths, and convergence angles of the first and second images G1 and G2. The supplementary information H1 and H2 includes thumbnail images of the first and second images G1 and G2. As the viewpoint information, for example, the viewpoint position number assigned in order from the left photographing unit can be used.

フレームメモリ25は、撮影部21A,21Bが取得した第1及び第2の画像G1,G2を表す画像データに対して、前述の画像処理部23が行う処理を含む各種処理を行う際に使用する作業用メモリである。   The frame memory 25 is used when performing various processes including the processes performed by the image processing unit 23 described above on the image data representing the first and second images G1 and G2 acquired by the photographing units 21A and 21B. This is a working memory.

メディア制御部26は、記録メディア29にアクセスして画像ファイル等の書き込みと読み込みの制御を行う。   The media control unit 26 accesses the recording medium 29 to control writing and reading of image files and the like.

内部メモリ27は、複眼カメラ1において設定される各種定数、及びCPU35が実行するプログラム等を記憶する。   The internal memory 27 stores various constants set in the compound-eye camera 1, programs executed by the CPU 35, and the like.

表示制御部28は、立体視する場合に、フレームメモリ25又は記録メディア29に記録されている立体視画像GRをモニタ7に表示させる。   The display control unit 28 causes the monitor 7 to display the stereoscopic image GR recorded in the frame memory 25 or the recording medium 29 when stereoscopically viewing.

図6は、モニタ7の構成を示す分解斜視図である。図6に示すように、モニタ7は、LEDにより発光するバックライトユニット40及び各種表示を行うための液晶パネル41を積層し、液晶パネル41の表面にレンチキュラーシート42を取り付けることにより構成されている。   FIG. 6 is an exploded perspective view showing the configuration of the monitor 7. As shown in FIG. 6, the monitor 7 is configured by stacking a backlight unit 40 that emits light from LEDs and a liquid crystal panel 41 for performing various displays, and attaching a lenticular sheet 42 to the surface of the liquid crystal panel 41. .

図7は、レンチキュラーシート42の構成を示す図である。図7に示すようにレンチキュラーシート42は、複数のシリンドリカルレンズ43を基線に沿った方向に並列に並べることにより構成されている。   FIG. 7 is a diagram illustrating a configuration of the lenticular sheet 42. As shown in FIG. 7, the lenticular sheet 42 is configured by arranging a plurality of cylindrical lenses 43 in parallel in a direction along the base line.

また、複眼カメラ1は、3次元処理部30を備えている。3次元処理部30は、第1及び第2の画像G1,G2をモニタ7に立体視表示させるために、第1及び第2の画像G1,G2に対して3次元処理を行って立体視画像GRを生成する。   Further, the compound eye camera 1 includes a three-dimensional processing unit 30. The three-dimensional processing unit 30 performs a three-dimensional process on the first and second images G1 and G2 in order to stereoscopically display the first and second images G1 and G2 on the monitor 7, thereby providing a stereoscopic image. Generate a GR.

図8は、第1及び第2の画像G1,G2に対する3次元処理を説明するための図である。図8に示すように3次元処理部30は、第1及び第2の画像G1,G2の各々を基線に対して垂直方向に短冊状に切り取り、レンチキュラーシート42におけるシリンドリカルレンズ43のそれぞれに、位置が対応する短冊状に切り取った第1及び第2の画像G1,G2が交互に配置されるように3次元処理を行って、立体視画像GRを生成する。立体視画像GRを構成する第1及び第2の画像G1,G2の画像対は、各々1つのシリンドリカルレンズに対応して配置される。   FIG. 8 is a diagram for explaining a three-dimensional process for the first and second images G1 and G2. As shown in FIG. 8, the three-dimensional processing unit 30 cuts each of the first and second images G1 and G2 into a strip shape in a direction perpendicular to the base line, and positions each of the cylindrical lenses 43 on the lenticular sheet 42. A three-dimensional process is performed so that the first and second images G1 and G2 cut into strips corresponding to are alternately arranged to generate a stereoscopic image GR. The image pairs of the first and second images G1 and G2 constituting the stereoscopic image GR are respectively arranged corresponding to one cylindrical lens.

また、3次元処理部30は、第1及び第2の画像G1,G2の視差を調整することもできる。ここで、視差とは、第1及び第2の画像G1,G2の双方に含まれる被写体の、第1及び第2の画像G1,G2の横方向、すなわち基線に沿った方向における画素位置のずれ量をいう。視差を調整することにより、立体視画像GRに含まれる被写体の立体感を適切なものとすることができる。   The three-dimensional processing unit 30 can also adjust the parallax between the first and second images G1 and G2. Here, the parallax is a shift in pixel position in the horizontal direction of the subject included in both the first and second images G1 and G2, that is, the direction along the base line, of the first and second images G1 and G2. Say quantity. By adjusting the parallax, the stereoscopic effect of the subject included in the stereoscopic image GR can be made appropriate.

また、3次元処理部30は、リアルタイムで撮影部21A、21Bで得られた第1及び第2の画像G1,G2の視差を調整してもよいし、記録メディア29に予め記録されている第1及び第2の画像G1,G2の視差を調整してもよい。   In addition, the three-dimensional processing unit 30 may adjust the parallax between the first and second images G1 and G2 obtained by the photographing units 21A and 21B in real time, or may be recorded in advance on the recording medium 29. The parallax between the first and second images G1 and G2 may be adjusted.

ところで、第1及び第2の画像G1,G2の視差が小さすぎて立体視画像が適切でない場合、いずれか一方の画像(本実施形態では、例えば第2の画像G2)の代わりに、通信回路32で受信される画像を用いることができる。   By the way, when the parallax between the first and second images G1 and G2 is too small and the stereoscopic image is not appropriate, a communication circuit is used instead of one of the images (in this embodiment, for example, the second image G2). The image received at 32 can be used.

図9は、実施形態に係る撮像システムの概略図である。複眼カメラ1は、同図に示すように、カメラ50で撮影された画像、又はサーバ70に予め記憶された画像を受信して、受信した画像を第2の画像G2の代わりに用いることができる。   FIG. 9 is a schematic diagram of an imaging system according to the embodiment. As shown in the figure, the compound-eye camera 1 can receive an image taken by the camera 50 or an image stored in advance in the server 70 and use the received image instead of the second image G2. .

本実施形態では、カメラ50は、複眼カメラ1の基線の延長線上に設置されている。カメラ50を複眼カメラ1の基線の延長線上に設置することにより、複眼カメラ1及びカメラ50で撮影された画像の基線長を長くして輻輳角を大きくし、遠方の被写体を複眼カメラ1単体で撮影した場合の視差よりも視差を大きくして、遠方の被写体の立体視をより良くすることができる。   In the present embodiment, the camera 50 is installed on an extension of the base line of the compound eye camera 1. By installing the camera 50 on the extension line of the base line of the compound eye camera 1, the base line length of the images taken by the compound eye camera 1 and the camera 50 is lengthened to increase the convergence angle, and a distant subject can be captured by the compound eye camera 1 alone. By making the parallax larger than the parallax at the time of shooting, it is possible to improve the stereoscopic view of a distant subject.

また、カメラ50は、複眼カメラ1と同様に構成されている。なお、複眼カメラ1の代わりに、単眼カメラが用いられてもよい。また、カメラ50も、複眼カメラに限定されるものではなく、単眼カメラであってもよい。   The camera 50 is configured in the same manner as the compound eye camera 1. Note that a monocular camera may be used instead of the compound eye camera 1. The camera 50 is not limited to a compound eye camera, and may be a monocular camera.

また、サーバ70は、図示されていないが、画像、その他の情報を送受信するための通信回路と、受信された画像を記憶する記憶部と、画像の探索や、その他の全体制御を司る制御部と、を備えている。   Although not shown, the server 70 includes a communication circuit for transmitting and receiving images and other information, a storage unit that stores received images, and a control unit that controls image search and other overall control. And.

以上のように構成された複眼カメラ1では、第2の画像G2の代わりにカメラ50で生成された画像が用いられる場合、次のカメラ画像転送ルーチンが実行される。なお、カメラ50には、予め、画像転送を許可するための設定が行われている。また、以下に示す各ルーチンのプログラムは、内部メモリ27に記憶されている。   In the compound eye camera 1 configured as described above, when an image generated by the camera 50 is used instead of the second image G2, the following camera image transfer routine is executed. The camera 50 is set in advance to permit image transfer. In addition, programs for the following routines are stored in the internal memory 27.

(第1のカメラ画像転送ルーチン)
図10は、第1のカメラ画像転送ルーチンを示すフローチャートである。ステップ100では、CPU35は、画像転送の許可が設定されているカメラを探索する。
(First camera image transfer routine)
FIG. 10 is a flowchart showing a first camera image transfer routine. In step 100, the CPU 35 searches for a camera for which image transfer permission is set.

ステップ102では、CPU35は、画像転送の許可が設定されているカメラを検出したか否かを判定し、検出した場合はステップ104へ進み、検出していない場合はステップ100へ戻る。   In step 102, the CPU 35 determines whether or not a camera for which image transfer permission has been set has been detected. If detected, the process proceeds to step 104. If not detected, the process returns to step 100.

ステップ104では、CPU35は、検出したカメラのうち複眼カメラ1から最も距離が近いカメラ50を選択して、カメラ50に画像転送の開始を、通信回線32を介して指示する。なお、これに限らず、被写体までの距離が遠くなるほど、距離が遠いカメラを選択する形式としてもよい。そして、CPU35は、カメラ50から転送された画像を通信回路32で受信する。   In step 104, the CPU 35 selects the camera 50 closest to the compound eye camera 1 from the detected cameras, and instructs the camera 50 to start image transfer via the communication line 32. However, the present invention is not limited to this, and it is also possible to select a camera with a longer distance as the distance to the subject increases. Then, the CPU 35 receives the image transferred from the camera 50 by the communication circuit 32.

ステップ106では、CPU35は、第1の画像G1を例えば奇数フィールドでモニタ7に表示し、通信回路32で受信された画像を例えば偶数フィールドでモニタ7に表示させる(インターレース表示)。   In step 106, the CPU 35 displays the first image G1 on the monitor 7 in an odd field, for example, and displays the image received by the communication circuit 32 on the monitor 7 in an even field (interlaced display).

このとき、図11に示すように、複眼カメラ1の撮影者は、インターレースされた画像をモニタ7で確認しながら、ズーム倍率の変更、画角合わせ、露出調整などの撮影条件の変更操作を行い、第1の画像G1により示される被写体がカメラ50から送信された画像により示される被写体のサイズや露出状態にできるだけ一致し、かつ対応する被写体の位置のずれ量が立体視画像を構成する上で好適なずれ量となるように調整する。   At this time, as shown in FIG. 11, the photographer of the compound-eye camera 1 performs an operation of changing the shooting conditions such as changing the zoom magnification, adjusting the angle of view, and adjusting the exposure while checking the interlaced image on the monitor 7. When the subject indicated by the first image G1 matches the size and exposure state of the subject indicated by the image transmitted from the camera 50 as much as possible, and the amount of deviation of the corresponding subject position constitutes a stereoscopic image. Adjustment is made so that a suitable shift amount is obtained.

そこで、ステップ108では、CPU35は、撮影条件の変更操作が行われたかを判定し、肯定判定の場合はステップ110へ進んで変更操作に応じて撮影条件を変更した後にステップ112に移行する一方、否定判定の場合はステップ110を実行することなくステップ112へ進む。   Therefore, in step 108, the CPU 35 determines whether or not an operation for changing the shooting condition has been performed. If the determination is affirmative, the process proceeds to step 110, and after changing the shooting condition in accordance with the change operation, the process proceeds to step 112. If the determination is negative, the process proceeds to step 112 without executing step 110.

撮影者は、上記の撮影条件の変更操作による調整が終了した後、レリーズボタン2を押圧する。   The photographer presses the release button 2 after the adjustment by the photographing condition changing operation is completed.

そこで、ステップ112では、CPU35は、レリーズボタン2が押圧されたか否かを判定し、押圧された場合はステップ114へ進み、押圧されていない場合はステップ106へ戻る。   Therefore, in step 112, the CPU 35 determines whether or not the release button 2 has been pressed. If the release button 2 has been pressed, the process proceeds to step 114, and if not, the process returns to step 106.

ステップ114では、CPU35は、レリーズボタン2が押圧されたタイミングに対応する第1の画像G1と通信回路32で受信された画像とに基づいて立体視画像を生成するように3次元処理部30を制御し、生成された立体視画像をモニタ7に表示させる。また、メディア制御部26は、生成された立体視画像を記録メディア29へ記録する。そして、本ルーチンが終了する。   In step 114, the CPU 35 causes the three-dimensional processing unit 30 to generate a stereoscopic image based on the first image G1 corresponding to the timing when the release button 2 is pressed and the image received by the communication circuit 32. And the generated stereoscopic image is displayed on the monitor 7. In addition, the media control unit 26 records the generated stereoscopic image on the recording medium 29. Then, this routine ends.

(第2のカメラ画像転送ルーチン)
図12は、第2のカメラ画像転送ルーチンを示すフローチャートである。ここでは、第1のカメラ画像転送ルーチンと異なる点のみを説明し、重複する説明は省略する。
(Second camera image transfer routine)
FIG. 12 is a flowchart showing a second camera image transfer routine. Here, only differences from the first camera image transfer routine will be described, and redundant description will be omitted.

第1のカメラ画像転送ルーチンでは、上記の撮影条件の変更操作を複眼カメラ1の撮影者によって行っていた。これに対して、第2のカメラ画像転送ルーチンでは、複眼カメラ1の撮影者の指示に従って、上記変更操作と同様の操作がカメラ50の撮影者によって行われる。具体的には、図10のステップ106の代わりに、ステップ106a及び107が実行される。   In the first camera image transfer routine, the photographing condition changing operation is performed by the photographer of the compound eye camera 1. On the other hand, in the second camera image transfer routine, the photographer of the camera 50 performs the same operation as the change operation according to the instruction of the photographer of the compound eye camera 1. Specifically, steps 106a and 107 are executed instead of step 106 in FIG.

ステップ106aでは、CPU35は、第1の画像G1を例えば奇数フィールドでモニタ7に表示し、通信回路32で受信された画像を例えば偶数フィールドでモニタ7に表示させる(インターレース表示)。   In step 106a, the CPU 35 displays the first image G1 on the monitor 7 in an odd field, for example, and displays the image received by the communication circuit 32 on the monitor 7 in an even field (interlaced display).

このとき、図13に示すように、撮影者は、操作ボタン8A,8U,8D,8R,8Lを操作して、カメラ50の撮影位置(上下方向、左右方向)、撮影の向きを指示する。ここでは、更に、ズーム倍率の変更、画角合わせ、露出調整などの撮影条件を指示してもよい。   At this time, as shown in FIG. 13, the photographer operates the operation buttons 8A, 8U, 8D, 8R, and 8L to instruct the shooting position (vertical direction and horizontal direction) of the camera 50 and the shooting direction. Here, photographing conditions such as zoom magnification change, angle of view adjustment, and exposure adjustment may be further instructed.

ステップ107では、CPU35は、上記撮影位置、撮影の向きなどの指示情報を、通信回路32を介してカメラ50に送信する。   In step 107, the CPU 35 transmits instruction information such as the shooting position and the shooting direction to the camera 50 via the communication circuit 32.

そして、カメラ50の撮影者は、複眼カメラ1から送信された指示情報を不図示のモニタで確認して、その指示情報に従ってカメラ50を調整する。   The photographer of the camera 50 confirms the instruction information transmitted from the compound-eye camera 1 on a monitor (not shown) and adjusts the camera 50 according to the instruction information.

そして、カメラ1の撮影者は、2つの画像のサイズや露出状態ができるだけ一致し、かつ対応する被写体の位置のずれ量が立体視画像を構成する上で好適なずれ量となったことを確認したタイミングでレリーズボタン2を押圧する。   Then, the photographer of the camera 1 confirms that the sizes and exposure states of the two images match as much as possible, and that the amount of deviation of the corresponding subject position is suitable for constructing a stereoscopic image. The release button 2 is pressed at the same timing.

そこで、ステップ112では、CPU35は、レリーズボタン2が押圧されたか否かを判定し、押圧された場合はステップ114へ進み、押圧されていない場合はステップ106aへ戻る。これにより、レリーズボタン2が押圧されるまで、カメラ50の撮影位置、撮影の向きなどが調整される。そして、レリーズボタン2が押圧されると、ステップ114において、押圧されたタイミングに対応する第1の画像G1と通信回路32で受信された画像とに基づいて立体視画像が生成される。   Therefore, in step 112, the CPU 35 determines whether or not the release button 2 has been pressed. If it has been pressed, the process proceeds to step 114, and if not, the process returns to step 106a. Thus, the shooting position, the shooting direction, and the like of the camera 50 are adjusted until the release button 2 is pressed. When the release button 2 is pressed, a stereoscopic image is generated in step 114 based on the first image G1 corresponding to the pressed timing and the image received by the communication circuit 32.

以上のように、本発明の実施の形態に係る複眼カメラ1は、視点画像である第1及び第2の画像G1,G2のうちの一方の代わりに、カメラ50で撮影された画像を用いて、立体視画像を生成することができる。これにより、複眼カメラ1は、第1及び第2の画像G1,G2により好適な立体視画像を生成できない場合でも、第1及び第2の画像G1,G2のいずれか一方の代わりにカメラ50で撮影された画像を用いることで、被写体の立体感が好適な状態になる立体視画像を生成することができる。   As described above, the compound-eye camera 1 according to the embodiment of the present invention uses an image taken by the camera 50 instead of one of the first and second images G1 and G2 that are viewpoint images. A stereoscopic image can be generated. Thereby, even when the compound eye camera 1 cannot generate a suitable stereoscopic image using the first and second images G1 and G2, the camera 50 is replaced with either the first image G1 or the second image G2. By using the captured image, it is possible to generate a stereoscopic image in which the subject's stereoscopic effect is in a suitable state.

また、複眼カメラ1は、カメラ50に対して、第1の画像G1と受信した画像のサイズや露出状態ができるだけ一致し、かつ対応する被写体の位置のずれ量が立体視画像を構成する上で好適なずれ量となるように指示することで、立体視画像を生成することができる。   In addition, the compound-eye camera 1 has the same size and exposure state as the first image G1 and the received image as much as possible with respect to the camera 50, and the amount of deviation of the corresponding subject position constitutes a stereoscopic image. A stereoscopic image can be generated by instructing a suitable shift amount.

なお、上記では複眼カメラ1を用いる例について説明したが、複眼カメラ1に代えて、レンチキュラーシート等が設けられていない単眼カメラを用い、当該単眼カメラと別に設けられ、かつレンチキュラーシート等を備えた表示装置に、当該単眼カメラで撮影された画像及びカメラ50で撮影された画像を転送し、立体視画像を表示して立体視してもよい。   In addition, although the example which uses the compound eye camera 1 was demonstrated above, it replaced with the compound eye camera 1, the monocular camera in which the lenticular sheet etc. were not provided was provided separately from the said monocular camera, and the lenticular sheet etc. were provided. The image captured by the monocular camera and the image captured by the camera 50 may be transferred to the display device, and a stereoscopic image may be displayed for stereoscopic viewing.

また、上述した実施形態において、複眼カメラ1は、カメラ50から視点画像を取得したが、予め複数の視点画像が記憶されているサーバ装置から好適な視点画像を取得してもよい。例えば、カメラ50が静止物体を撮影して、視点画像と共に、そのときの撮影条件、例えば、被写体までの距離、ズーム倍率、画角、露出、撮影時刻などをサーバ装置に送信する。そして、複眼カメラ1は、同一被写体が同一領域に存在し、かつ視点がずれている視点画像をサーバ装置から読み出して、立体視画像を生成すればよい。   In the above-described embodiment, the compound-eye camera 1 acquires the viewpoint image from the camera 50. However, a suitable viewpoint image may be acquired from a server device in which a plurality of viewpoint images are stored in advance. For example, the camera 50 captures a still object and transmits to the server device, along with the viewpoint image, the imaging conditions at that time, such as the distance to the subject, zoom magnification, field angle, exposure, and imaging time. Then, the compound-eye camera 1 may read a viewpoint image in which the same subject exists in the same region and the viewpoint is shifted from the server device, and generate a stereoscopic image.

7 モニタ
21A、21B 撮影部
22 撮影制御部
30 3次元処理部
32 通信回路
35 CPU
7 Monitors 21A and 21B Imaging unit 22 Imaging control unit 30 Three-dimensional processing unit 32 Communication circuit 35

Claims (12)

被写体を撮像することでフレーム毎に視点画像を生成する撮像手段と、
前記視点画像と異なる視点画像をフレーム毎に受信する受信手段と、
前記撮像手段により生成されたフレーム毎の視点画像、及び前記受信手段により受信されたフレーム毎の視点画像を表示する表示手段と、
撮影開始を指示するための操作が行われる第1の指示手段と、
前記第1の指示手段により撮影開始が指示されたタイミングに対応して前記撮像手段により生成された視点画像、及び前記タイミングに対応して前記受信手段により受信された視点画像に基づいて立体視画像を生成する立体視画像生成手段と、
を備えた撮像装置。
Imaging means for generating a viewpoint image for each frame by imaging a subject;
Receiving means for receiving a viewpoint image different from the viewpoint image for each frame;
Display means for displaying the viewpoint image for each frame generated by the imaging means and the viewpoint image for each frame received by the receiving means;
First instruction means for performing an operation for instructing to start photographing;
A stereoscopic image based on the viewpoint image generated by the imaging unit corresponding to the timing when the start of imaging is instructed by the first instruction unit, and the viewpoint image received by the receiving unit corresponding to the timing Stereoscopic image generation means for generating
An imaging apparatus comprising:
前記表示手段は、さらに、前記立体視画像生成手段により生成された立体視画像を表示する
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the display unit further displays a stereoscopic image generated by the stereoscopic image generation unit.
前記立体視画像生成手段により生成された立体視画像を記録媒体に記録する記録手段を更に備えた
請求項1または請求項2に記載の撮像装置。
The imaging apparatus according to claim 1, further comprising a recording unit that records the stereoscopic image generated by the stereoscopic image generation unit on a recording medium.
前記受信手段は、他の撮像装置で生成された視点画像を受信する
請求項1から請求項3のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 3, wherein the receiving unit receives a viewpoint image generated by another imaging device.
前記他の撮像装置に対して撮影の向き、撮影位置、及びズーム倍率の少なくとも1つを指示するための操作が行われる第2の指示手段を更に備え、
前記受信手段は、前記他の撮像装置が前記第2の指示手段の指示に従って撮像した被写体の視点画像を受信する
請求項4に記載の撮像装置。
A second instruction means for performing an operation to instruct at least one of a photographing direction, a photographing position, and a zoom magnification with respect to the other imaging device;
The imaging device according to claim 4, wherein the reception unit receives a viewpoint image of a subject captured by the other imaging device according to an instruction of the second instruction unit.
被写体を撮像することでフレーム毎に視点画像を生成し、
前記視点画像と異なる視点画像をフレーム毎に受信し、
前記生成したフレーム毎の視点画像、及び前記受信したフレーム毎の視点画像を表示し、
指示手段により撮影開始が指示されたタイミングに対応して前記生成した視点画像、及び前記タイミングに対応して前記受信した視点画像に基づいて立体視画像を生成する
撮像装置の画像処理方法。
Generate a viewpoint image for each frame by imaging the subject,
Receiving a viewpoint image different from the viewpoint image for each frame;
Displaying the generated viewpoint image for each frame and the received viewpoint image for each frame;
An image processing method for an imaging apparatus, which generates a stereoscopic image based on the generated viewpoint image corresponding to a timing at which shooting start is instructed by an instruction unit, and the received viewpoint image corresponding to the timing.
前記生成した立体視画像を表示する
請求項6に記載の撮像装置の画像処理方法。
The image processing method of the imaging device according to claim 6, wherein the generated stereoscopic image is displayed.
前記生成した立体視画像を記録媒体に記録する
請求項6または請求項7に記載の撮像装置の画像処理方法。
The image processing method of the imaging device according to claim 6 or 7, wherein the generated stereoscopic image is recorded on a recording medium.
他の撮像装置で生成された視点画像を受信する
請求項6から請求項8のいずれか1項に記載の撮像装置の画像処理方法。
The image processing method of the imaging device according to any one of claims 6 to 8, wherein a viewpoint image generated by another imaging device is received.
前記他の撮像装置に対して撮影の向き、撮影位置、及びズーム倍率の少なくとも1つを指示するための操作が行われ、前記指示に従って撮像した被写体の視点画像を受信する
請求項9に記載の撮像装置の画像処理方法。
The operation for instructing at least one of a shooting direction, a shooting position, and a zoom magnification with respect to the other imaging device is performed, and a viewpoint image of a subject imaged according to the instruction is received. Image processing method of imaging apparatus.
コンピュータを、
撮像手段により生成されたフレーム毎の視点画像、及び受信手段により受信されたフレーム毎の視点画像を表示手段に表示させる表示制御手段、及び
撮影開始を指示するための操作が行われる第1の指示手段により撮影開始が指示されたタイミングに対応して前記撮像手段により生成された視点画像、及び前記タイミングに対応して前記受信手段により受信された視点画像に基づいて立体視画像を生成する立体視画像生成手段、
として機能させるための撮像装置の画像処理プログラム。
Computer
Display control means for displaying the viewpoint image for each frame generated by the imaging means and the viewpoint image for each frame received by the receiving means on the display means, and a first instruction for performing an operation for instructing the start of imaging A stereoscopic view that generates a stereoscopic image based on the viewpoint image generated by the imaging unit corresponding to the timing when the imaging start is instructed by the unit and the viewpoint image received by the receiving unit corresponding to the timing Image generation means,
An image processing program for an imaging apparatus for functioning as
請求項4または請求項5に記載の撮像装置と、
前記被写体を撮像して前記撮像装置に視点画像を送信する他の撮像装置と、
を備えた撮像システム。
An imaging device according to claim 4 or 5,
Another imaging device that images the subject and transmits a viewpoint image to the imaging device;
An imaging system comprising:
JP2010088133A 2010-04-06 2010-04-06 Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus Pending JP2011223175A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010088133A JP2011223175A (en) 2010-04-06 2010-04-06 Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010088133A JP2011223175A (en) 2010-04-06 2010-04-06 Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus

Publications (1)

Publication Number Publication Date
JP2011223175A true JP2011223175A (en) 2011-11-04

Family

ID=45039612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010088133A Pending JP2011223175A (en) 2010-04-06 2010-04-06 Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus

Country Status (1)

Country Link
JP (1) JP2011223175A (en)

Similar Documents

Publication Publication Date Title
US8294711B2 (en) Device, method, and program for three-dimensional imaging by reducing or eliminating parallax during a zoom operation
JP5595499B2 (en) Monocular stereoscopic imaging device
WO2012011341A1 (en) Imaging device, method for controlling same, and program
US8130259B2 (en) Three-dimensional display device and method as well as program
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
JP5295426B2 (en) Compound eye imaging apparatus, parallax adjustment method and program thereof
JP2011211552A (en) Imaging device and method, and program
JP4764854B2 (en) Imaging apparatus, image reproducing apparatus, imaging method, system, and program
JP5420076B2 (en) Reproduction apparatus, compound eye imaging apparatus, reproduction method, and program
JP2010068182A (en) Three-dimensional imaging device, method, and program
JP5449551B2 (en) Image output apparatus, method and program
JP5191864B2 (en) Three-dimensional display device, method and program
WO2012043003A1 (en) Three-dimensional image display device, and three-dimensional image display method
JP5580486B2 (en) Image output apparatus, method and program
JP4588439B2 (en) Stereoscopic image photographing apparatus and method
JP2010102137A (en) Three-dimensional photographing device, method and program
US20130120374A1 (en) Image processing device, image processing method, and image processing program
JP4925070B2 (en) Three-dimensional imaging apparatus, method, and program
JP2011223175A (en) Imaging apparatus, image processing method thereof, program thereof, and imaging system using the imaging apparatus
JP5165742B2 (en) Three-dimensional imaging apparatus, method, and program
JP2011209634A (en) Compound eye imaging apparatus and effective sound control method and program for compound eye imaging apparatus
JP5307189B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2011259405A (en) Imaging device and imaging method