JP2012209872A - 3d image generating method, 3d image generating program and 3d image generating apparatus - Google Patents

3d image generating method, 3d image generating program and 3d image generating apparatus Download PDF

Info

Publication number
JP2012209872A
JP2012209872A JP2011075670A JP2011075670A JP2012209872A JP 2012209872 A JP2012209872 A JP 2012209872A JP 2011075670 A JP2011075670 A JP 2011075670A JP 2011075670 A JP2011075670 A JP 2011075670A JP 2012209872 A JP2012209872 A JP 2012209872A
Authority
JP
Japan
Prior art keywords
image
viewpoint image
viewpoint
specific
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011075670A
Other languages
Japanese (ja)
Inventor
Hisaaki Motoki
寿明 本木
Koichi Yahagi
宏一 矢作
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011075670A priority Critical patent/JP2012209872A/en
Publication of JP2012209872A publication Critical patent/JP2012209872A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a stereoscopic image in which a state of a moving body can stereoscopically be viewed in one image.SOLUTION: In a left viewpoint imaging section and a right viewpoint imaging section of a compound-eye camera, the moving body is imaged at every prescribed time during a period from time t0 to time t4. A left viewpoint image and a right viewpoint image are obtained during the period from time t0 to time t4 by imaging. The left viewpoint images at time t0, time t2 and t4 when the moving body is not overlapped if it is overlapped with the left viewpoint image at other time are selected as specified left viewpoint images from the left viewpoint images. Specified right viewpoint images are similarly selected on the right viewpoint images. Thus, a stereoscopic vision image of the moving body, in which the state of the moving body can stereoscopically be viewed in one image, is generated by synthesizing the specified left viewpoint image and the specified right viewpoint image.

Description

本発明は、被写体を立体視可能にする3D画像を生成する3D画像生成方法、3D画像生成プログラム、及び3D画像生成装置に関する。   The present invention relates to a 3D image generation method, a 3D image generation program, and a 3D image generation apparatus that generate a 3D image that enables stereoscopic viewing of a subject.

1枚の写真内に、動く被写体(動体)の様子を表したストロボ写真が知られている。従来の撮像手段として広く用いられていたフィルムカメラでは、絞りを開放してフィルムを露光させた状態で、一定時間毎に複数回のストロボ発光を行うことによって、ストロボ写真を生成していた。このような従来のフイルムカメラに代わって、今日広く普及しているデジタルカメラでは、動体が動く間、連写撮影をすることによって得られる複数枚の画像をコンピュータで画像処理することによって、ストロボ写真のような画像を生成している(特許文献1参照)。   A strobe photograph showing a moving subject (moving object) in one photograph is known. In a film camera that has been widely used as a conventional imaging means, a stroboscopic photograph is generated by performing stroboscopic light emission a plurality of times at regular intervals in a state where the aperture is opened and the film is exposed. In place of such conventional film cameras, digital cameras that are widely used today use a computer to process a plurality of images obtained by continuous shooting while a moving object moves, thereby obtaining a flash photography. Such an image is generated (see Patent Document 1).

特開2010−166545号公報JP 2010-166545 A

今日では、1つの撮像ユニットで撮像を行う単眼のデジタルカメラの他に、左目用と右目用の2つの撮像ユニットで被写体を撮像することによって、被写体の立体視が可能な3D画像を取得する立体撮像装置に対する需要が伸びてきている。このような立体撮像装置には、3Dの静止画や3Dの動画を取得する機能を備えているものは存在するが、動く被写体の様子を1つの画像内で立体視することができる立体画像を取得する3Dストロボ機能を備えているものは現時点では存在しない(特許文献1にも記載及び示唆は無い)。   Today, in addition to a single-lens digital camera that captures an image with a single imaging unit, a 3D image that enables stereoscopic viewing of the subject is acquired by imaging the subject with two imaging units for the left eye and the right eye. Demand for imaging devices is increasing. Some of such stereoscopic imaging devices have a function of acquiring a 3D still image or a 3D moving image. However, a stereoscopic image that allows a moving subject to be stereoscopically viewed in one image is obtained. There is no device having the 3D strobe function to be acquired at present (they are not described or suggested in Patent Document 1).

なお、立体撮像装置においても、連写撮像により得られる複数枚の左視点画像及び右視点画像を合成することで、ストロボ写真のような立体画像を得ることはできる。しかしながら、このように単に左視点画像及び右視点画像を合成しただけの立体画像は、動体の動きが遅い部分があると、その部分の動体が重複してしまうことがある。このように動体が重複してしまうと、部分的に動体の前後関係が分かり難くなるため、観察者は動体を立体視し難くなるおそれがある。   Note that even in a stereoscopic imaging device, a stereoscopic image such as a flash photograph can be obtained by combining a plurality of left viewpoint images and right viewpoint images obtained by continuous shooting imaging. However, in such a stereoscopic image that is simply a combination of the left viewpoint image and the right viewpoint image, if there is a portion where the moving body moves slowly, the moving body in that portion may overlap. If the moving objects overlap in this way, the front-rear relationship of the moving objects becomes partially indistinguishable, and the observer may have difficulty in stereoscopically viewing the moving object.

本発明は、動体の様子を1つの画像内で立体視することができる立体画像を生成できる3D画像生成方法、3D画像生成プログラム、及び3D画像生成装置を提供することを目的とする。   An object of the present invention is to provide a 3D image generation method, a 3D image generation program, and a 3D image generation apparatus capable of generating a stereoscopic image in which a moving object can be stereoscopically viewed in one image.

上記目的を達成するために、本発明の3D画像生成方法は、互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得ステップと、前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択ステップと、選択された特定の第1の視点画像及び特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成ステップとを有することを特徴とする。   In order to achieve the above object, the 3D image generation method of the present invention provides a plurality of first images obtained by continuously performing simultaneous imaging for imaging a moving object that is a subject moving from two different viewpoints at the same timing. An image acquisition step of acquiring one viewpoint image and a second viewpoint image, and a first viewpoint image captured at another timing from the plurality of first viewpoint images and second viewpoint images. When combining a specific first viewpoint image in which moving objects do not overlap when combined, and a second viewpoint image captured simultaneously with the specific first viewpoint image and captured at other timing An image selection step of selecting a specific second viewpoint image in which the moving objects do not overlap each other, and combining the selected specific first viewpoint image and the specific second viewpoint image, thereby making the state of the moving object one In the image And having a three-dimensional image generating step of generating a stereoscopically viewable stereoscopic image.

前記画像選択ステップは、各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出するとともに、各撮像タイミングにおける第2の視点画像中の動体の動き方向を検出する第1の動き方向検出ステップと、前記複数枚の第1の視点画像及び第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす第1の視点画像を前記特定の第1の視点画像として選択し、この特定の第1の視点画像と同時撮像され、且つ、動き方向に関する動体の座標が所定の条件を満たす第2の視点画像を特定の第2の視点画像として選択する第1の選択ステップとを含むことが好ましい。   The image selection step detects a moving direction of the moving object in the first viewpoint image at each imaging timing, and detects a moving direction of the moving object in the second viewpoint image at each imaging timing. Selecting a first viewpoint image in which the coordinates of a moving object relating to a moving direction satisfy a predetermined condition from the plurality of first viewpoint images and the second viewpoint image as the specific first viewpoint image And a first selection step of selecting, as the specific second viewpoint image, a second viewpoint image that is simultaneously captured with the specific first viewpoint image and in which the coordinates of the moving object relating to the movement direction satisfy a predetermined condition. Are preferably included.

前記画像選択ステップは、各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出する第2の動体検出ステップと、前記複数枚の第1の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第1の視点画像を仮選択するとともに、前記複数枚の第2の視点画像の中から、仮選択された特定の第1の視点画像と同時撮像された第2の視点画像を選択する第2の選択ステップと、前記第2の選択ステップで選択された第2の視点画像中の動体の動き方向を検出する第3の動体検出ステップと、前記第2の選択ステップで選択された第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第2の視点画像を選択するとともに、仮選択された特定の第1の視点画像の中から、前記特定の第2の視点画像と同時撮像された特定の第1の視点画像を本選択する第3の選択ステップと、前記立体画像生成ステップは、前記第3の選択ステップで本選択された特定の第1の視点画像及び前記第3の選択ステップで選択された特定の第2の視点画像を合成することにより、立体画像を生成することが好ましい。   The image selection step includes: a second moving object detection step that detects a moving direction of a moving object in the first viewpoint image at each imaging timing; and a moving object related to the moving direction from the plurality of first viewpoint images. A first first viewpoint image whose coordinates satisfy a predetermined condition is temporarily selected, and a first first viewpoint image selected from the plurality of second viewpoint images is simultaneously captured with the first selected viewpoint image. A second selection step of selecting the second viewpoint image, a third moving object detection step of detecting a movement direction of the moving object in the second viewpoint image selected in the second selection step, and the second From the second viewpoint image selected in the selection step, the specific second viewpoint image in which the coordinates of the moving object relating to the moving direction satisfy a predetermined condition is selected, and the temporarily selected specific first viewpoint image From the above A third selection step of selecting a specific first viewpoint image captured simultaneously with the second viewpoint image, and the three-dimensional image generation step include the specific first selected at the third selection step. It is preferable to generate a stereoscopic image by combining the viewpoint image and the specific second viewpoint image selected in the third selection step.

前記所定の条件は、第1の撮像タイミングにおける動体の最小位置座標が、その第1の撮像タイミングの前の第2の撮像タイミングにおける動体の最大位置座標から設定された基準座標以上であることが好ましい。   The predetermined condition is that the minimum position coordinate of the moving object at the first imaging timing is greater than or equal to a reference coordinate set from the maximum position coordinate of the moving object at the second imaging timing before the first imaging timing. preferable.

前記立体画像生成ステップは、特定の撮像タイミングにおける動体が他の撮像タイミングの動体よりも強調されるように、立体画像を生成することが好ましい。   It is preferable that the stereoscopic image generation step generates a stereoscopic image so that a moving object at a specific imaging timing is emphasized more than a moving object at another imaging timing.

前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像に加えて、前記特定の第1の視点画像として選択されなかった第1の視点画像の一部と、前記特定の第2の視点画像として選択されなかった第2の視点画像の一部とを合成することにより、立体画像を生成することが好ましい。   In the stereoscopic image generation step, in addition to the selected specific first viewpoint image and the specific second viewpoint image, the first viewpoint image not selected as the specific first viewpoint image It is preferable to generate a stereoscopic image by combining a part and a part of the second viewpoint image that has not been selected as the specific second viewpoint image.

前記立体画像生成ステップは、複数の動体の様子を1つの画像内で立体視可能な立体画像を生成することが好ましい。   In the stereoscopic image generating step, it is preferable to generate a stereoscopic image in which a plurality of moving objects can be stereoscopically viewed in one image.

同時撮像された第1の視点画像及び第2の視点画像において同一の動体がどの程度離れているかを示す視差量が、予め設定された許容値を超えたか否かを判定する視差量判定ステップを有し、前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像のうち視差量が許容値未満である画像のみを合成することにより、立体画像を生成することが好ましい。   A parallax amount determination step of determining whether or not a parallax amount indicating how far the same moving object is separated in the first viewpoint image and the second viewpoint image simultaneously captured exceeds a preset allowable value; The stereoscopic image generating step combines the images of the selected specific first viewpoint image and the specific second viewpoint image that have a parallax amount less than an allowable value, thereby generating a stereoscopic image Is preferably generated.

本発明の3D画像生成プログラムは、上記記載の本発明の3D画像生成方法における各ステップをコンピュータに実行させることを特徴とする。   The 3D image generation program of the present invention causes a computer to execute each step in the 3D image generation method of the present invention described above.

本発明の3D画像生成装置は、互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得手段と、前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択手段と、選択された特定の第1の視点画像及び前記特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成手段とを備えることを特徴とする。   The 3D image generation apparatus according to the present invention includes a plurality of first viewpoint images and a second viewpoint image obtained by continuously performing simultaneous imaging of a moving object that is a subject moving from two different viewpoints at the same timing. The moving object overlaps when an image acquisition means for acquiring a viewpoint image and the first viewpoint image captured at another timing from the plurality of first viewpoint images and the second viewpoint image are combined. A specific first viewpoint image and a specific first viewpoint image that is simultaneously captured with the specific first viewpoint image and combined with the second viewpoint image captured at other timings are not overlapped. The state of the moving object can be stereoscopically viewed in one image by synthesizing the selected first viewpoint image and the specific second viewpoint image with the image selecting means for selecting two viewpoint images. Generate stereoscopic images Characterized in that it comprises a three-dimensional image generation means.

本発明によれば、動体の様子を1つの画像内で立体視することができる立体画像を生成することができる。この立体画像は、複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択した上で、これら選択された特定の第1の視点画像及び特定の第2の視点画像を用いて生成されているため、画質が顕著に劣化せず、また不自然な3D画像とならない。   According to the present invention, it is possible to generate a stereoscopic image in which a moving object can be stereoscopically viewed in one image. The stereoscopic image is a specific first image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from among a plurality of first viewpoint images and second viewpoint images. Select a specific second viewpoint image in which moving objects do not overlap when the viewpoint image and the second viewpoint image captured at the same time as this specific first viewpoint image are combined. In addition, since the image is generated using the selected specific first viewpoint image and specific second viewpoint image, the image quality is not significantly deteriorated and an unnatural 3D image is not obtained.

また、立体画像は特定の第1の視点画像及び特定の第2の視点画像のマルチフレーム合成により生成されるため、背景など動体が無い領域は高感度低ノイズの画質を得ることができる。また、上記特定の第1の視点画像及び特定の第2の視点画像の選択は、各撮像タイミングにおける第1の視点画像及び第2の視点画像中の動体の動き方向の座標を用いて行っているため、他の撮像タイミングの左視点画像及び右視点画像を合成したときの動体の重なり合い(多重化)を確実に回避することができる。   In addition, since the stereoscopic image is generated by multi-frame synthesis of the specific first viewpoint image and the specific second viewpoint image, a high-sensitivity and low-noise image quality can be obtained in an area where there is no moving object such as a background. The selection of the specific first viewpoint image and the specific second viewpoint image is performed using the coordinates of the moving direction of the moving object in the first viewpoint image and the second viewpoint image at each imaging timing. Therefore, it is possible to reliably avoid overlapping (multiplexing) of moving objects when the left viewpoint image and the right viewpoint image at other imaging timings are combined.

正面側から見た複眼カメラの図である。It is the figure of the compound eye camera seen from the front side. 背面側から見た複眼カメラの図である。It is a figure of the compound eye camera seen from the back side. 複眼カメラの電気的構成を示す図である。It is a figure which shows the electrical constitution of a compound eye camera. 第2立体画像生成回路の各部を示す図である。It is a figure which shows each part of a 2nd stereo image production | generation circuit. 各時刻における動体の対応点を説明するための図である。It is a figure for demonstrating the corresponding point of the moving body in each time. 第1実施形態で行う特定の左視点画像及び特定の右視点画像の選択を説明するための図である。It is a figure for demonstrating selection of the specific left viewpoint image and specific right viewpoint image which are performed in 1st Embodiment. 第1実施形態の動体立体視化画像を示す図である。It is a figure which shows the moving body stereoscopic image of 1st Embodiment. 左視点画像及び右視点画像の取得から動体立体視化画像の生成までの流れを示す図である。It is a figure which shows the flow from acquisition of a left viewpoint image and a right viewpoint image to the production | generation of a moving body stereoscopic image. 図8のフローに従って得られる特定の左視点画像及び特定の右視点画像から動体立体視化画像を生成する手順を示す図である。It is a figure which shows the procedure which produces | generates a moving body stereoscopic image from the specific left viewpoint image obtained according to the flow of FIG. 8, and a specific right viewpoint image. 左視点画像及び右視点画像の取得から特定の右視点画像の仮選択を行うまでのフローを示す図である。It is a figure which shows the flow from acquisition of a left viewpoint image and a right viewpoint image to provisional selection of a specific right viewpoint image. 図10のフローに引き続いて動体立体視化画像を生成するまでのフローを示す図である。It is a figure which shows the flow until it produces | generates a moving body stereoscopic image following the flow of FIG. 図10及び図11のフローに従って得られる特定の左視点画像及び本選択された特定の右視点画像から動体立体視化画像を生成する手順を示す図である。It is a figure which shows the procedure which produces | generates a moving body stereo image from the specific left viewpoint image obtained according to the flow of FIG.10 and FIG.11, and this specific right viewpoint image selected. 第2実施形態の動体立体視化画像を生成する手順を示す図である。It is a figure which shows the procedure which produces | generates the moving body stereoscopic image of 2nd Embodiment. 第2実施形態の動体立体視化画像を示す図である。It is a figure which shows the moving body stereoscopic vision image of 2nd Embodiment. 特定の左視点画像及び特定の右視点画像でない左視点画像及び右視点画像からその一部を切り取る処理を説明するための図である。It is a figure for demonstrating the process which cuts out the part from the left viewpoint image and right viewpoint image which are not a specific left viewpoint image and a specific right viewpoint image. 第3実施形態の動体立体視化画像を示す図である。It is a figure which shows the moving body stereoscopic image of 3rd Embodiment. 第4実施形態で行う特定の左視点画像及び特定の右視点画像の選択を説明するための図である。It is a figure for demonstrating selection of the specific left viewpoint image and specific right viewpoint image which are performed in 4th Embodiment. 第4実施形態の動体立体視化画像を示す図である。It is a figure which shows the moving body stereoscopic image of 4th Embodiment. 第5実施形態で行う特定の左視点画像及び特定の右視点画像の選択と視差量の判定を説明するための図である。It is a figure for demonstrating selection of the specific left viewpoint image and specific right viewpoint image, and determination of a parallax amount which are performed in 5th Embodiment. 第5実施形態の動体立体視化画像を示す図である。It is a figure which shows the moving body stereoscopic image of 5th Embodiment. 本発明の動体立体視化画像生成プログラムがインストールされたPCを示す図である。It is a figure which shows PC in which the moving body stereoscopic image generation program of this invention was installed.

図1に示すように、第1実施形態の複眼カメラ10は、カメラ本体11の前面に、左視点用12及び右視点用撮像部13とストロボ発光部14を、カメラ本体11の上面に、シャッタボタン15と電源スイッチ16を備えている。左視点用及び右視点用撮像部12,13は、互いの光軸が略平行となるように、所定間隔を隔てて設けられている。また、シャッタボタン15は半押し操作と全押し操作とが可能であり、半押し操作時にはオートフォーカスが行われ、全押し操作時には、その操作時点での撮像画像をメモリカード20(図2参照)に記録する。   As shown in FIG. 1, the compound-eye camera 10 according to the first embodiment includes a left viewpoint 12, a right viewpoint imaging unit 13, and a strobe light emitting unit 14 on the front surface of the camera body 11, and a shutter on the upper surface of the camera body 11. A button 15 and a power switch 16 are provided. The left-viewpoint and right-viewpoint imaging units 12 and 13 are provided at a predetermined interval so that their optical axes are substantially parallel to each other. Further, the shutter button 15 can be pressed halfway and fully, and autofocusing is performed during the half-pressing operation, and during the full-pressing operation, the captured image at the time of the operation is stored in the memory card 20 (see FIG. 2). To record.

図2に示すように、カメラ本体11の背面には、モニタ18及び操作部19が設けられている。また、カメラ本体11の底面には、SDカードなどのメモリカード20が着脱自在に装填されるカードスロットと、このカードスロットの開口部を覆う開閉自在の装填蓋とが設けられている(いずれも図示省略)。   As shown in FIG. 2, a monitor 18 and an operation unit 19 are provided on the back surface of the camera body 11. The bottom surface of the camera body 11 is provided with a card slot in which a memory card 20 such as an SD card is detachably loaded, and an openable / closable loading lid that covers the opening of the card slot (both are all). (Not shown).

モニタ18は、画像を表示するLCDとこのLCD上に貼り付けられたレンチキュラシート(いずれも図示省略)を備えており、LCDに表示された立体画像をレンチキュラシートを介して観察することで、画像を立体視することができる。操作部19は、各種モードの設定を行うモード切替スイッチ22と、モニタ18にメニュー画面や設定画面を表示させるメニューボタン23と、画面上のカーソルを移動させる十字キー24と、これらスイッチ等によって選択されるモード等を確定させる実行ボタン25とを備えている。   The monitor 18 includes an LCD for displaying an image and a lenticular sheet (both not shown) attached to the LCD. By observing a stereoscopic image displayed on the LCD through the lenticular sheet, the image is displayed. Can be stereoscopically viewed. The operation unit 19 is selected by a mode selector switch 22 for setting various modes, a menu button 23 for displaying a menu screen or a setting screen on the monitor 18, a cross key 24 for moving a cursor on the screen, and these switches. And an execution button 25 for determining a mode to be executed.

本実施形態では、モード切替スイッチ22は、モニタ18上で静止状態の被写体を立体視可能にする立体画像を取得する静止画モードと、一定時間内に動く被写体(動体)の様子を1つの画像内で立体視可能にした立体画像である動体立体視化画像を取得するストロボモードとの間で、モードの切り替えが可能である。なお、静止画モードやストロボモードの他、動画モードなどを設けてもよい。   In the present embodiment, the mode changeover switch 22 displays a still image mode for obtaining a stereoscopic image that enables a stereoscopic subject to be viewed on the monitor 18 and a state of a subject (moving object) that moves within a predetermined time as one image. The mode can be switched between a strobe mode for acquiring a moving body stereoscopic image, which is a stereoscopic image that can be stereoscopically viewed. In addition to the still image mode and the strobe mode, a moving image mode or the like may be provided.

図3に示すように、左視点用撮像部12は、被写体からの光が入射するレンズユニット37と、レンズユニット37によって結像される左視点画像を撮像して撮像信号を出力するCCD39と、CCD39から出力された撮像信号を所定の処理によって左視点画像信号(L画像信号)に変換し、変換したL画像信号を画像入力コントローラ45へと出力するAFE(Analog Front End)40と、CCD39及びAFE40に接続されており、CPU33からの指示に基づいて、画像入力コントローラ45への撮像信号の出力を制御する左視点用撮像制御部41を備えている。なお、被写体の撮像は、CCDに代えて、CMOS(Complementary Metal Oxide Semiconductor)で行ってもよい。   As shown in FIG. 3, the left viewpoint imaging unit 12 includes a lens unit 37 on which light from a subject is incident, a CCD 39 that captures a left viewpoint image formed by the lens unit 37 and outputs an imaging signal, The AFE (Analog Front End) 40 that converts the imaging signal output from the CCD 39 into a left viewpoint image signal (L image signal) by a predetermined process and outputs the converted L image signal to the image input controller 45, and the CCD 39 and An imaging control unit 41 for the left viewpoint is connected to the AFE 40 and controls the output of the imaging signal to the image input controller 45 based on an instruction from the CPU 33. Note that imaging of a subject may be performed by a CMOS (Complementary Metal Oxide Semiconductor) instead of the CCD.

右視点用撮像部13は、左視点用撮像部12と同様に、レンズユニット38、CCD48、AFE49、右視点用撮像制御部50を備えている。右視点用撮像部13では、右視点画像の撮像により得られる右視点画像信号(R画像信号)を画像入力コントローラ45へと出力する。   Similar to the left viewpoint imaging unit 12, the right viewpoint imaging unit 13 includes a lens unit 38, a CCD 48, an AFE 49, and a right viewpoint imaging control unit 50. The right viewpoint imaging unit 13 outputs a right viewpoint image signal (R image signal) obtained by imaging the right viewpoint image to the image input controller 45.

CPU33は、カメラ本体11の内部に設けられており、複眼カメラ10の各部を電気的に制御する。このCPU33には、左視点用撮像制御部41及び右視点用撮像制御部50の両方を制御する統括撮像制御部33aが設けられている。統括撮像制御部33aは、静止画モードとストロボモードとで異なる制御を行う。静止画モードの場合、左視点用撮像部12及び右視点用撮像部13の両方で被写体を同時に撮像し、シャッタボタン15が全押し操作されたときに、メモリカード20に記録する左視点画像及び右視点画像の元となるL画像信号及びR画像信号を画像入力コントローラ45に出力する。   The CPU 33 is provided inside the camera body 11 and electrically controls each part of the compound-eye camera 10. The CPU 33 is provided with a general imaging control unit 33 a that controls both the left-viewpoint imaging control unit 41 and the right-viewpoint imaging control unit 50. The overall imaging control unit 33a performs different control in the still image mode and the strobe mode. In the still image mode, the left viewpoint image to be recorded on the memory card 20 when the subject is simultaneously imaged by both the left viewpoint imaging unit 12 and the right viewpoint imaging unit 13 and the shutter button 15 is fully pressed. The L image signal and the R image signal that are the basis of the right viewpoint image are output to the image input controller 45.

一方、ストロボモードに設定されている場合には、時刻t0でシャッタボタン15を全押し操作してから、一定時間後の時刻tnで再度シャッタボタン15を全押し操作するまでの間、左視点用撮像部12及び右視点用撮像部13で被写体を同時に撮像するように制御する。撮像は、時刻t0から時刻tnの間、一定の時間間隔(t1―t0=t2−t1=・・・=tn―t(n−1))で連続的に行われる。即ち、連写撮影が行われる。これにより、左視差用撮像部12の撮像で得られる(n+1)枚分のL画像信号と、右視差用撮像部13の撮像で得られる(n+1)枚分のR画像信号が画像入力コントローラ45に出力される。   On the other hand, when the strobe mode is set, the left viewpoint is used from when the shutter button 15 is fully pressed at time t0 to when the shutter button 15 is fully pressed again at time tn after a predetermined time. The imaging unit 12 and the right-viewpoint imaging unit 13 are controlled so that the subject is imaged simultaneously. The imaging is continuously performed from time t0 to time tn at a constant time interval (t1-t0 = t2-t1 = ... = tn-t (n-1)). That is, continuous shooting is performed. Thus, (n + 1) L image signals obtained by imaging by the left parallax imaging unit 12 and (n + 1) R image signals obtained by imaging by the right parallax imaging unit 13 are image input controller 45. Is output.

画像入力コントローラ45は、所定容量のバッファを有しており、左視点用撮像部12及び右視点用撮像部13から出力されたL,R画像信号を一時的に蓄積するとともに、蓄積したL,R画像信号を信号処理回路56へと送信する。   The image input controller 45 has a buffer of a predetermined capacity, temporarily stores the L and R image signals output from the left viewpoint imaging unit 12 and the right viewpoint imaging unit 13, and stores the stored L, The R image signal is transmitted to the signal processing circuit 56.

信号処理回路56は、画像入力コントローラ45からのL,R画像信号に対して階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種処理を施すことによって、L,R画像データを生成する。生成されたL,R画像データは、RAM34に格納される。RAM34に格納されたL,R画像データは、第1立体画像生成回路60及び第2立体画像生成回路61に読み出される。   The signal processing circuit 56 performs various processing such as gradation conversion, white balance correction, γ correction processing, and YC conversion processing on the L and R image signals from the image input controller 45, thereby converting the L and R image data. Generate. The generated L and R image data is stored in the RAM 34. The L and R image data stored in the RAM 34 is read by the first stereoscopic image generation circuit 60 and the second stereoscopic image generation circuit 61.

第1立体画像生成回路60は、静止画モードに設定されている場合に、RAM34から読み出したL,R画像データを合成することによって3D静止画像データを生成する。生成された3D静止画像データは表示回路59へ送信され、表示回路59は受信した3D静止画像データに基づいて、モニタ18に3D静止画像を表示する。そして、シャッタボタン15が全押し操作されたときには、静止画像データは、表示回路59及び圧縮伸張処理回路57に送信される。   The first stereoscopic image generation circuit 60 generates 3D still image data by combining the L and R image data read from the RAM 34 when the still image mode is set. The generated 3D still image data is transmitted to the display circuit 59, and the display circuit 59 displays the 3D still image on the monitor 18 based on the received 3D still image data. When the shutter button 15 is fully pressed, the still image data is transmitted to the display circuit 59 and the compression / expansion processing circuit 57.

圧縮伸張処理回路57では、静止画像データに圧縮処理を行い、所定のファイル形式の圧縮合成画像データを生成する。生成された圧縮合成画像データは、メディアコントローラ58によってメモリカード20に記録される。また、表示回路59は、3D静止画像データに基づいて、モニタ18にシャッタボタン15全押し操作時点での3D静止画像を表示する。   The compression / decompression processing circuit 57 performs compression processing on the still image data to generate compressed composite image data in a predetermined file format. The generated compressed composite image data is recorded on the memory card 20 by the media controller 58. The display circuit 59 displays a 3D still image at the time when the shutter button 15 is fully pressed on the monitor 18 based on the 3D still image data.

図4に示すように、第2立体画像生成回路61はストロボモード時に動体立体視化画像を生成する回路であり、左視点画像及び右視点画像の情報が含まれるL,R画像データから、動く被写体(動体)を検出する動体検出部70と、動体検出部70での検出結果に基づいて、全ての左視点画像及び右視点画像の中から、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合わない特定の左視点画像及び右視点画像を選択する画像選択部71と、特定の左視点画像及び右視点画像から動体立体視化画像を生成する動体立体視化画像生成部72とを備えている。動体立体視化画像生成部72で生成された動体立体視化画像は、3D静止画像と同様に、モニタ18に表示されるとともに、動体立体視化画像データとして、メモリカード20に記録される。   As shown in FIG. 4, the second stereoscopic image generation circuit 61 is a circuit that generates a dynamic stereoscopic image in the strobe mode, and moves from L and R image data including information on the left viewpoint image and the right viewpoint image. A moving object detection unit 70 that detects a subject (moving object), and a left viewpoint image and a right viewpoint image at other times from among all left viewpoint images and right viewpoint images, based on the detection result of the moving object detection unit 70 An image selection unit 71 that selects a specific left viewpoint image and a right viewpoint image that do not overlap moving objects when combined, and a moving object stereoscopic image that generates a moving object stereoscopic image from the specific left viewpoint image and right viewpoint image And a generation unit 72. The moving body stereoscopic image generated by the moving body stereoscopic image generation unit 72 is displayed on the monitor 18 as well as the 3D still image, and is recorded in the memory card 20 as moving body stereoscopic image data.

動体検出部70は、(n+1)枚分の左視点画像のそれぞれについて特徴点を抽出するととともに、各左視点画像間で互いに略共通する特徴点を対応点として特定する。例えば、図5の場合であれば、時刻t0の左視点画像上の特徴点Aの対応点は、時刻t1の左視点画像上では特徴点A1であり、時刻t2の左視点画像上ではA2となる。また、動体検出部70は、(n+1)枚分の右視点画像についても、同様にして特徴点を抽出し、各右視点画像間で互いに略共通する特徴点を対応点として特定する。   The moving object detection unit 70 extracts feature points for each of the (n + 1) left viewpoint images, and specifies feature points that are substantially common to the left viewpoint images as corresponding points. For example, in the case of FIG. 5, the corresponding point of the feature point A on the left viewpoint image at time t0 is the feature point A1 on the left viewpoint image at time t1, and A2 on the left viewpoint image at time t2. Become. In addition, the moving object detection unit 70 similarly extracts feature points for the (n + 1) right viewpoint images, and specifies feature points that are substantially common to the right viewpoint images as corresponding points.

そして、時刻t0を基準として、時刻t1、時刻t2・・・の順に各左視点画像及び右視点画像それぞれの対応点を比較することによって、動体を検出する。そして、時刻tk(kはn以下の自然数)で動体が検出されたら、対応点の位置情報とその周辺画素の輝度情報をRAM34に記録するとともに、動体の領域(大きさ)と動き方向X(図5参照)を推定する。そして、この推定結果から、時刻t0における動体の最大位置座標XmaxL0及び最小位置座標XminL0(いずれも動き方向Xに関する座標)を求めるとともに、時刻tkにおける動体の時刻tkにおける最大位置座標XmaxLk及び最小位置座標XminLk(いずれも動き方向Xに関する座標)を求める。動体検出部70では、動体の検出毎に、動体の領域と動き方向を推定し、その検出時点での動き方向に対する最大位置座標と最小位置座標を求める。   Then, the moving object is detected by comparing corresponding points of each of the left viewpoint image and the right viewpoint image in the order of time t1, time t2,. When a moving object is detected at time tk (k is a natural number equal to or less than n), the position information of the corresponding point and the luminance information of the surrounding pixels are recorded in the RAM 34, and the region (size) of the moving object and the moving direction X ( (See FIG. 5). Then, from this estimation result, the maximum position coordinate XmaxL0 and the minimum position coordinate XminL0 of the moving object at time t0 (both are coordinates related to the movement direction X) are obtained, and the maximum position coordinate XmaxLk and the minimum position coordinate of the moving object at time tk are obtained. XminLk (both coordinates related to the movement direction X) is obtained. Each time a moving object is detected, the moving object detection unit 70 estimates a moving object region and a moving direction, and obtains a maximum position coordinate and a minimum position coordinate with respect to the moving direction at the time of detection.

画像選択部71は、時刻t0における動体の最大位置座標XmaxL0,XmaxR0を基準座標Ls,Rsとして設定した上で、動体検出時である時刻tkの左視点画像及び右視点画像において、動体の最小位置座標が基準座標Ls,Rs以上となるか否かを判定する。判定の結果、動体の最小位置座標XminLk, XminRkの両方が基準座標Ls,Rs以上でない場合は、時刻tkの左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。   The image selection unit 71 sets the maximum position coordinates XmaxL0, XmaxR0 of the moving object at time t0 as the reference coordinates Ls, Rs, and then sets the minimum position of the moving object in the left viewpoint image and the right viewpoint image at time tk when the moving object is detected. It is determined whether or not the coordinates are greater than or equal to the reference coordinates Ls and Rs. As a result of the determination, if both the minimum position coordinates XminLk and XminRk of the moving object are not equal to or higher than the reference coordinates Ls and Rs, the left viewpoint image and the right viewpoint image at time tk are not selected as the specific left viewpoint image and right viewpoint image.

一方、動体の最小位置座標XminLk, XminRkの両方が基準座標Ls,Rs以上と判定された場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択するとともに、基準座標Ls,Rsを時刻tkにおける最大位置座標XmaxLk,XmaxRkに変更する。以上の特定の左視点画像及び右視点画像画像の選択は、動体が検出される毎に行われる。   On the other hand, if both the minimum position coordinates XminLk and XminRk of the moving object are determined to be greater than or equal to the reference coordinates Ls and Rs, the left viewpoint image and the right viewpoint image at time tk are selected as specific left viewpoint images and right viewpoint image images. At the same time, the reference coordinates Ls and Rs are changed to the maximum position coordinates XmaxLk and XmaxRk at time tk. The selection of the specific left viewpoint image and right viewpoint image is performed every time a moving object is detected.

例えば、図6に示すように、時刻t0から時刻t4までの間、被写体を連写撮影することによって、時刻t0から時刻t4までの5枚分の左視点画像及び5枚分の右視点画像が得られた場合における特定の左視点画像及び右視点画像画像の選択手順を、以下に示す。まず、時刻t0の左視点画像から動き方向Xに対する最大位置座標XmaxL0を基準座標Lsとして設定し、同様にして、時刻t0の右視点画像から動き方向Xに対する最大位置座標XmaxR0を基準座標Rsとして設定する。なお、図6では、動き方向Xの座標は、右側から左側に向かうほど大きくなる。   For example, as illustrated in FIG. 6, by capturing a subject continuously from time t0 to time t4, five left viewpoint images and five right viewpoint images from time t0 to time t4 are obtained. The procedure for selecting a specific left viewpoint image and right viewpoint image when obtained is as follows. First, the maximum position coordinate XmaxL0 in the movement direction X from the left viewpoint image at time t0 is set as the reference coordinate Ls, and similarly, the maximum position coordinate XmaxR0 in the movement direction X from the right viewpoint image at time t0 is set as the reference coordinate Rs. To do. In FIG. 6, the coordinates of the movement direction X increase from the right side to the left side.

次に、時刻t1の左視点画像中の動体の最小位置座標XminL1が基準座標Ls(XmaxL0)以上か否かを判定するとともに、時刻t1の右視点画像中の最小位置座標XminR1が基準座標Rs(XminR0)以上か否かを判定する。時刻t1においては、Ls(XmaxL0)>XminL1、且つRs(XmaxR0)>XminR1であるので、時刻t1の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。   Next, it is determined whether or not the minimum position coordinate XminL1 of the moving object in the left viewpoint image at time t1 is greater than or equal to the reference coordinate Ls (XmaxL0), and the minimum position coordinate XminR1 in the right viewpoint image at time t1 is the reference coordinate Rs ( XminR0) or not. Since Ls (XmaxL0)> XminL1 and Rs (XmaxR0)> XminR1 at time t1, the left viewpoint image and right viewpoint image at time t1 are not selected as specific left viewpoint images and right viewpoint image images.

同様にして、次に、時刻t2の左視点画像において、動き方向Xに対する最小位置座標XminL2が基準座標Ls(XmaxL0)以上か否かを判定するとともに、時刻t2の右視点画像において、最小位置座標XminR2が基準座標Rs(XminR0)以上か否かを判定する。時刻t2においては、Ls(XmaxL0)≦XminL2、且つRs(XmaxR0)≦XminR2であるので、時刻t2の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択される。また、基準座標LsはXmaxL2に、基準座標RsはXmaxR2に更新される。   Similarly, next, in the left viewpoint image at time t2, it is determined whether or not the minimum position coordinate XminL2 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL0), and the minimum position coordinate in the right viewpoint image at time t2. Determine whether XminR2 is greater than or equal to the reference coordinate Rs (XminR0). At time t2, since Ls (XmaxL0) ≦ XminL2 and Rs (XmaxR0) ≦ XminR2, the left viewpoint image and right viewpoint image at time t2 are selected as specific left viewpoint images and right viewpoint image images. Further, the reference coordinate Ls is updated to XmaxL2, and the reference coordinate Rs is updated to XmaxR2.

次に、時刻t3の左視点画像において、動き方向Xに対する最小位置座標XminL3が基準座標Ls(XmaxL2)以上か否かを判定するとともに、時刻t3の右視点画像において、最小位置座標XminR3が基準座標Rs(XminR2)以上か否かを判定する。時刻t3においては、Rs(XmaxR2)≦XminR3であるものの、Ls(XmaxL2)>XminL3であるので、時刻t3の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。   Next, in the left viewpoint image at time t3, it is determined whether or not the minimum position coordinate XminL3 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL2), and in the right viewpoint image at time t3, the minimum position coordinate XminR3 is the reference coordinate. Determine whether Rs (XminR2) or higher. At time t3, although Rs (XmaxR2) ≦ XminR3, Ls (XmaxL2)> XminL3, so the left viewpoint image and right viewpoint image at time t3 are not selected as the specific left viewpoint image and right viewpoint image.

次に、時刻t4の左視点画像において、動き方向Xに対する最小位置座標XminL4が基準座標Ls(XmaxL2)以上か否かを判定するとともに、時刻t4の右視点画像において、最小位置座標XminR4が基準座標Rs(XminR2)以上か否かを判定する。時刻t4においては、Ls(XmaxL2)≦XminL4、且つRs(XmaxR2)≦XminR4であるので、時刻t4の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択される。   Next, in the left viewpoint image at time t4, it is determined whether or not the minimum position coordinate XminL4 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL2), and in the right viewpoint image at time t4, the minimum position coordinate XminR4 is the reference coordinate. Determine whether Rs (XminR2) or higher. At time t4, since Ls (XmaxL2) ≦ XminL4 and Rs (XmaxR2) ≦ XminR4, the left viewpoint image and right viewpoint image at time t4 are selected as specific left viewpoint images and right viewpoint image images.

以上から、時刻t0から時刻t4までの左視点画像及び右視点画像の中から、時刻t2、時刻t4の左視点画像及び右視点画像が合成対象画像として選択される。また、時刻t0の左視点画像及び右視点画像についても、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合うことが無いので、特定の左視点画像及び右視点画像画像として選択される。   As described above, the left viewpoint image and the right viewpoint image at time t2 and time t4 are selected as the synthesis target images from the left viewpoint image and the right viewpoint image from time t0 to time t4. In addition, since the moving object does not overlap with the left viewpoint image and the right viewpoint image at time t0 when they are combined with the left viewpoint image and the right viewpoint image at other times, the specific left viewpoint image and the right viewpoint image are obtained. Selected.

動体立体視化画像生成部72は、特定の左視点画像を合成することにより左視点合成画像を生成するとともに、特定の右視点画像とを合成することにより右視点合成画像を生成する。そして、左視点合成画像と右視点合成画像を更に合成することによって、1つの画像内で動体の様子を立体視することができる動体立体視化画像が生成される。   The moving body stereoscopic image generation unit 72 generates a left viewpoint synthesized image by synthesizing a specific left viewpoint image, and generates a right viewpoint synthesized image by synthesizing the specific right viewpoint image. Then, by further synthesizing the left viewpoint synthesized image and the right viewpoint synthesized image, a moving body stereoscopic image capable of stereoscopically viewing the state of the moving body in one image is generated.

例えば、図6のように、時刻t0、時刻t2、時刻t4の左視点画像及び右視点画像が特定の左視点画像及び右視点画像画像として選択された場合には、図7に示すように、時刻t0、時刻t2、時刻t4の左視点画像の合成画像である左視点合成画像75と、時刻t0、時刻t2、時刻t4の右視点画像の合成画像である右視点合成画像76とを更に合成することによって、時刻t0から時刻t4間における動体の様子を立体視可能にした動体立体視化画像77が得られる。   For example, when the left viewpoint image and the right viewpoint image at time t0, time t2, and time t4 are selected as specific left viewpoint images and right viewpoint image images as shown in FIG. 6, as shown in FIG. A left viewpoint composite image 75 that is a composite image of the left viewpoint images at time t0, time t2, and time t4 and a right viewpoint composite image 76 that is a composite image of the right viewpoint images at time t0, time t2, and time t4 are further combined. By doing so, a moving body stereoscopic image 77 in which the state of the moving body between time t0 and time t4 is stereoscopically viewable is obtained.

この動体立体視化画像77の生成には、特定の左視点画像及び右視点画像画像として選択された時刻t0、時刻t2、時刻t4の左視点画像及び右視点画像のみが使用され、特定の左視点画像及び右視点画像画像として選択されなかった時刻t1、時刻t3の左視点画像及び右視点画像は使用されない。仮に、この使用されなかった時刻t1の左視点画像及び右視点画像と時刻t0の左視点画像及び右視点画像と合成した場合には、それぞれの動体が重なり合ってしまう(動体の多重化)。また、同様にして、時刻t3の左視点画像を時刻t2の左視点画像に合成した場合にも、動体の多重化が発生する。   Only the left viewpoint image and right viewpoint image at time t0, time t2, and time t4 selected as the specific left viewpoint image and right viewpoint image image are used to generate the moving body stereoscopic image 77. The left viewpoint image and the right viewpoint image at time t1 and time t3 that are not selected as the viewpoint image and the right viewpoint image are not used. If the left viewpoint image and right viewpoint image at time t1 that are not used and the left viewpoint image and right viewpoint image at time t0 are combined, the respective moving objects overlap (multiplexing of moving objects). Similarly, when the left viewpoint image at time t3 is combined with the left viewpoint image at time t2, multiplexing of moving objects occurs.

したがって、動体立体視化画像は、このような動体の多重化が起こり得る左視点画像及び右視点画像を使用せずに生成されているため、画質破綻を起こすことなく、動体の様子を3D画像として確実に把握することができる。   Therefore, since the moving body stereoscopic image is generated without using the left viewpoint image and the right viewpoint image in which such a moving body can be multiplexed, the state of the moving body can be represented as a 3D image without causing image quality failure. Can be reliably grasped as.

また、時刻t3のときのように、左視点画像又は右視点画像いずれか一方ののみ動体の多重化が起こり得る場合であっても、その時刻における左視点画像及び右視点画像は動体立体視化画像の生成に使用しないことで、画質劣化を引き起こすおそれがない。例えば、動体の多重化と両眼における視差とを混同してしまうことを防止することができる。   Further, even when the moving object can be multiplexed in only one of the left viewpoint image and the right viewpoint image as at time t3, the left viewpoint image and the right viewpoint image at that time are converted into moving object stereoscopic vision. By not using it for image generation, there is no risk of image quality degradation. For example, it is possible to prevent confusion between multiplexing of moving objects and parallax in both eyes.

また、動体が検出される毎に、動体の大きさや動き方向を検出しているため、途中で動体が異なる方向に移動したり、大きさが変形した場合であっても、画像を合成したときに動体が多重化を起こすか否かを正確に判定することができる。   Also, since the size and direction of the moving object are detected each time a moving object is detected, even when the moving object moves in the middle or the size is deformed, Therefore, it is possible to accurately determine whether or not the moving object causes multiplexing.

また、動体立体視化画像を生成する際には、特定の左視点画像をマルチフレーム合成処理した左視点合成画像と、同様にして特定の右視点画像をマルチフレーム合成処理した右視点合成画像とを用いていることから、背景などの動体以外の領域を高感度で低ノイズな画質にすることができる。   In addition, when generating a moving body stereoscopic image, a left viewpoint composite image obtained by performing multiframe composition processing on a specific left viewpoint image, and a right viewpoint composite image obtained by performing multiframe composition processing on a specific right viewpoint image in the same manner Therefore, it is possible to achieve a high-sensitivity and low-noise image quality in areas other than moving objects such as the background.

次に、動体立体視化画像を生成するまでの流れを、図8及び図9のフローチャートに沿って説明する。まず、モード切替スイッチ22によってストロボモードに切り替える。そして、左視点用撮像部12及び右視点用撮像部13を被写体に向けた状態で、シャッタボタン15を全押し操作する(時刻t0)。この全押し操作と同時又は直後に、被写体を動かす。一定時間後に、動く被写体(動体)がモニタ18上からフレームアウトしたら、再度、シャッタボタン15を全押し操作する(時刻tn)。これにより、時刻t0〜時刻tn(nは1以上の自然数)間の左視点画像及び右視点画像が得られる。   Next, the flow until the moving body stereoscopic image is generated will be described with reference to the flowcharts of FIGS. First, the mode is switched to the strobe mode by the mode switch 22. Then, the shutter button 15 is fully pressed with the left-viewpoint imaging unit 12 and the right-viewpoint imaging unit 13 facing the subject (time t0). The subject is moved simultaneously with or immediately after the full-press operation. When a moving subject (moving object) is out of frame from the monitor 18 after a certain time, the shutter button 15 is fully pressed again (time tn). Thereby, a left viewpoint image and a right viewpoint image between time t0 and time tn (n is a natural number of 1 or more) are obtained.

時刻t0〜時刻tn間の左視点画像及び右視点画像が得られたら、動体検出部70によって、全ての左視点画像及び右視点画像から特徴点を抽出する。次に、時刻t0の左視点画像及び右視点画像と時刻t1の左視点画像及び右視点画像との対応点を比較することによって、時刻t1の左視点画像及び右視点画像に動体が存在するか否かを検出する動体の検出処理を行う。動体が検出されない場合には、次の時刻t2の左視点画像及び右視点画像に対して、同様の処理を行う。この動体の検出処理は、各時刻の左視点画像及び右視点画像毎に行われ、動体が検出されるまで繰り返し行われる。   When the left viewpoint image and the right viewpoint image between time t0 and time tn are obtained, the moving object detection unit 70 extracts feature points from all the left viewpoint images and right viewpoint images. Next, by comparing corresponding points of the left viewpoint image and the right viewpoint image at time t0 with the left viewpoint image and the right viewpoint image at time t1, is there a moving object in the left viewpoint image and the right viewpoint image at time t1? A moving object detection process is performed to detect whether or not. If no moving object is detected, the same processing is performed on the left viewpoint image and the right viewpoint image at the next time t2. This moving object detection process is performed for each of the left viewpoint image and the right viewpoint image at each time, and is repeated until a moving object is detected.

そして、時刻tkの左視点画像及び右視点画像から動体が検出されたら、その対応点及びその周辺画素の輝度情報を利用して、動体の大きさと動き方向Xを推定する。また、画像選択部71において、時刻t0における動体の最大位置座標XmaxL0,XmaxR0を基準座標Ls,Rsに設定した上で、基準座標Ls,Rsと時刻tkにおける動体の最小位置座標XminLk,XminRkとを大小比較する。大小比較した結果、XminLk≧LsとXminRk≧Rsの両方を満たさない場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択せず、次の時刻t(k+1)について動体の検出処理を行う。   When a moving object is detected from the left viewpoint image and the right viewpoint image at time tk, the size of the moving object and the moving direction X are estimated using the luminance information of the corresponding points and the surrounding pixels. In addition, in the image selection unit 71, the maximum position coordinates XmaxL0, XmaxR0 of the moving object at time t0 are set to the reference coordinates Ls, Rs, and the reference coordinates Ls, Rs and the minimum position coordinates XminLk, XminRk of the moving object at time tk are set. Compare size. As a result of the size comparison, if both XminLk ≧ Ls and XminRk ≧ Rs are not satisfied, the left viewpoint image and right viewpoint image at time tk are not selected as the specific left viewpoint image and right viewpoint image image, and the next time A moving object detection process is performed for t (k + 1).

一方、XminLk≧LsとXminRk≧Rsの両方を満たす場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択する。そして、基準座標Ls,Rsを時刻tkにおける動体の最大位置座標XmaxLk,XmaxRkに変更する。この基準座標の変更が完了したら、次の時刻t(k+1)について動体の検出処理を行う。   On the other hand, when both XminLk ≧ Ls and XminRk ≧ Rs are satisfied, the left viewpoint image and right viewpoint image at time tk are selected as specific left viewpoint images and right viewpoint image images. Then, the reference coordinates Ls, Rs are changed to the maximum position coordinates XmaxLk, XmaxRk of the moving object at time tk. When the change of the reference coordinates is completed, the moving object detection process is performed at the next time t (k + 1).

全ての左視点画像及び右視点画像について、動体の検出と特定の左視点画像及び右視点画像画像か否かの判定が完了した後は、動体立体視化画像生成部72で動体立体視化画像生成処理を行う。動体立体視化画像生成部72では、特定の左視点画像を合成することによって、左視点合成画像を生成する。また、同様にして、特定の右視点画像を合成することによって、右視点合成画像を生成する。その上で、左視点合成画像と右視点合成画像とを更に合成することによって、動体立体視化画像を生成する。生成された動体立体視化画像は、モニタ18に表示されるとともに、動体立体視化画像データとして、メモリカード20に記録される。   For all the left viewpoint images and right viewpoint images, after the detection of the moving object and the determination as to whether or not it is a specific left viewpoint image and right viewpoint image image, the moving object stereoscopic image generation unit 72 performs the moving object stereoscopic image. Perform the generation process. The moving object stereoscopic image generation unit 72 generates a left viewpoint synthesized image by synthesizing a specific left viewpoint image. Similarly, a right viewpoint synthesized image is generated by synthesizing a specific right viewpoint image. In addition, a moving object stereoscopic image is generated by further combining the left viewpoint composite image and the right viewpoint composite image. The generated moving body stereoscopic image is displayed on the monitor 18 and recorded in the memory card 20 as moving body stereoscopic image data.

なお、第1実施形態では、全ての左視点画像及び右視点画像に対して動体の検出処理をし、動体が検出された左視点画像及び右視点画像の中で、特定の左視点画像及び右視点画像画像に該当するか否かの判定を行ったが、これに限る必要はない。   In the first embodiment, moving object detection processing is performed on all left viewpoint images and right viewpoint images, and among the left viewpoint image and right viewpoint image from which moving objects are detected, a specific left viewpoint image and right viewpoint image are detected. Although it is determined whether or not it corresponds to the viewpoint image, it is not necessary to be limited to this.

例えば、図10に示すように、右視点画像のみ特徴点の抽出を行い、その抽出結果に基づいて、動体の検出処理を行う。検出の結果、時刻tkの右視点画像から動体が検出されたら、時刻tkにおける動体の最小位置座標XminRkと基準座標Rsとを大小比較する。大小比較の結果、XminRk≧Rsを満たす場合には、時刻tkの右視点画像を特定の右視点画像として仮選択する。なお、図10において、特徴点の抽出から基準座標の変更までのフローは、右視点画像のみ処理を行う点以外は、図8と同様であるので、詳細な説明を省略する。   For example, as shown in FIG. 10, feature points are extracted only from the right viewpoint image, and a moving object detection process is performed based on the extraction result. If a moving object is detected from the right viewpoint image at time tk as a result of detection, the minimum position coordinate XminRk of the moving object at time tk and the reference coordinate Rs are compared in size. If XminRk ≧ Rs is satisfied as a result of the size comparison, the right viewpoint image at time tk is provisionally selected as a specific right viewpoint image. In FIG. 10, the flow from feature point extraction to reference coordinate change is the same as that in FIG. 8 except that only the right viewpoint image is processed, and thus detailed description thereof is omitted.

全ての右視点画像について動体の検出処理及び特定の右視点画像か否かの判定が完了したら、図11に示すように、全ての左視点画像の中から、仮選択した特定の右視点画像と同時刻に撮像した左視点画像を選択する。そして、これら選択された左視点画像(以下「選択左視点画像」とする)から特徴点を抽出し、抽出した特徴点を用いて各画像毎に動体の大きさ及び動き方向を推定する。そして、この推定結果を利用して、選択左視点画像の中から、他の時刻の選択左視点画像と合成したときに動体が重なり合わない特定の左視点画像を選択する。特定の左視点画像か否かの判定は、全ての選択左視点画像に対して行われる。   When the moving object detection process and the determination as to whether or not the image is a specific right viewpoint image are completed for all the right viewpoint images, as shown in FIG. 11, the specific right viewpoint image temporarily selected from all the left viewpoint images A left viewpoint image captured at the same time is selected. Then, feature points are extracted from these selected left viewpoint images (hereinafter referred to as “selected left viewpoint images”), and the size and direction of the moving object are estimated for each image using the extracted feature points. Then, using this estimation result, a specific left viewpoint image in which moving objects do not overlap when selected with the selected left viewpoint image at another time is selected from the selected left viewpoint images. The determination of whether or not the image is a specific left viewpoint image is performed on all the selected left viewpoint images.

なお、選択左視点画像の中から選択される特定の左視点画像は、上記実施形態と同様に、動き方向における動体の最小位置座標が基準座標以上である選択左視点画像とされる。また、特定の左視点画像の選択の際に行われる基準座標の設定及び最小位置座標と基準座標の大小比較については、上記実施形態と同様であるため、詳細な説明を省略する。   Note that the specific left viewpoint image selected from the selected left viewpoint images is a selected left viewpoint image in which the minimum position coordinate of the moving object in the movement direction is equal to or greater than the reference coordinate, as in the above embodiment. The setting of the reference coordinates and the comparison of the size of the minimum position coordinates and the reference coordinates performed when selecting a specific left viewpoint image are the same as in the above embodiment, and thus detailed description thereof is omitted.

そして、全ての選択左視点画像について特定の左視点画像か否かの判定が完了すると、仮選択された特定の右視点画像の中から、特定の左視点画像と同時刻に撮像された特定の右視点画像を本選択してから、動体立体視化画像生成処理を行う。   When the determination as to whether or not all the selected left viewpoint images are specific left viewpoint images is completed, a specific image captured at the same time as the specific left viewpoint image is selected from the temporarily selected specific right viewpoint images. After the right viewpoint image is selected, a moving object stereoscopic image generation process is performed.

図12に示すように、動体立体視化画像生成処理では、特定の左視点画像を合成することによって、左視点合成画像を生成する。また、本選択された特定の右視点画像を合成することによって、右視点合成画像を生成する。そして、これら生成された左視点合成画像及び右視点合成画像を更に合成することによって、動体立体視化画像を生成する。   As illustrated in FIG. 12, in the moving object stereoscopic image generation process, a left viewpoint synthesized image is generated by synthesizing a specific left viewpoint image. Further, the right viewpoint synthesized image is generated by synthesizing the selected specific right viewpoint image. Then, a moving object stereoscopic image is generated by further combining the generated left viewpoint composite image and right viewpoint composite image.

以上のように、動体立体視化画像を生成することで、この画像の生成に必要な処理を減らすことができ、また、処理時間を短くすることができる。なお、全ての右視点画像の中から特定の右視点画像を仮選択した上で、その仮選択した特定の右視点画像と同時刻に撮像した左視点画像の中から特定の左視点画像を選択したが、反対に、全ての左視点画像の中から特定の左視点画像を仮選択した上で、その仮選択した特定の左視点画像と同時刻の撮像した右視点画像の中から特定の右視点画像を選択してもよい。   As described above, by generating a moving object stereoscopic image, it is possible to reduce the processing necessary for generating the image and shorten the processing time. A specific right viewpoint image is temporarily selected from all right viewpoint images, and then a specific left viewpoint image is selected from the left viewpoint images captured at the same time as the temporarily selected specific right viewpoint image. However, on the contrary, after temporarily selecting a specific left viewpoint image from all the left viewpoint images, a specific right viewpoint is selected from the right viewpoint images captured at the same time as the temporarily selected specific left viewpoint image. A viewpoint image may be selected.

本発明の第2実施形態では、特定の左視点画像及び特定の右視点画像をマルチフレーム合成する際にいずれの時刻における動体も同等の輝度となるように合成する第1実施形態と異なり、特定の時刻における動体が、他の時刻における動体よりも強調されるように合成を行う。即ち、特定の時刻における動体の合成比率を、他の時刻における動体の合成比率よりも大きくする。第2実施形態では、特徴点の抽出から基準座標の変更まで(図8参照)は、第1実施形態と同様の処理を行う。   The second embodiment of the present invention differs from the first embodiment in which a specific left viewpoint image and a specific right viewpoint image are combined so that moving objects at any time have the same brightness when multi-frame combining is performed. The synthesis is performed so that the moving object at the time is emphasized more than the moving objects at the other times. That is, the composition ratio of moving objects at a specific time is set larger than the composition ratio of moving objects at other times. In the second embodiment, the same processing as in the first embodiment is performed from the extraction of the feature points to the change of the reference coordinates (see FIG. 8).

そして、全ての左視点画像及び右視点画像について動体の検出及び特定の左視点画像及び右視点画像に該当するか否かの判定が完了したら、図13に示すように、動体の合成比率を高くする時刻txを、操作部19によって入力する。そして、図14に示すように、時刻txにおける動体100aの合成比率が他の時刻の動体の合成比率よりも高くなるように、特定の左視点画像をマルチフレーム合成して左視点合成画像100を生成する。また、右視点画像についても同様の処理を行うことによって、時刻txにおける動体101aの合成比率が高い右視点合成画像101を生成する。これら左視点合成画像と右視点合成画像を合成することによって、時刻tの動体102aが他の時刻の動体よりも強調された動体立体視化画像102が得られる。   When the detection of moving objects for all the left viewpoint images and right viewpoint images and the determination of whether or not they correspond to specific left viewpoint images and right viewpoint images are completed, the composition ratio of moving objects is increased as shown in FIG. The time tx to be input is input by the operation unit 19. Then, as shown in FIG. 14, the left viewpoint composite image 100 is obtained by multi-frame combining the specific left viewpoint image so that the composition ratio of the moving object 100 a at time tx is higher than the composition ratio of the moving object at other times. Generate. Further, the same process is performed on the right viewpoint image, thereby generating the right viewpoint composite image 101 having a high composition ratio of the moving object 101a at time tx. By synthesizing the left-viewpoint synthesized image and the right-viewpoint synthesized image, the moving object stereoscopic image 102 in which the moving object 102a at time t is emphasized more than the moving object at other times is obtained.

なお、第2実施形態では、動体立体視化画像において特定の時刻の動体のみを強調したが、これに限られない。例えば、モニタに動体立体視化画像を表示するときには、動体の動きの様子が分かるように、強調する動体を一定時間毎に変えてもよい。   In the second embodiment, only the moving object at a specific time is emphasized in the moving object stereoscopic image, but the present invention is not limited to this. For example, when displaying a moving object stereoscopic image on a monitor, the moving object to be emphasized may be changed at regular intervals so that the movement of the moving object can be understood.

本発明の第3実施形態では、特定の左視点画像及び右視点画像のみ合成し、特定の左視点画像及び右視点画像でない左視点画像及び右視点画像については合成しなかった第1実施形態と異なり、特定の左視点画像及び右視点画像でない左視点画像及び右視点画像であっても、動体立体視化画像内で不自然な立体画像とならなければ、それらの一部を合成してもよい。   In the third embodiment of the present invention, only the specific left viewpoint image and the right viewpoint image are synthesized, and the left viewpoint image and the right viewpoint image that are not the specific left viewpoint image and the right viewpoint image are not synthesized. Unlike the left viewpoint image and the right viewpoint image that are not the specific left viewpoint image and the right viewpoint image, if the stereoscopic image does not become an unnatural stereoscopic image, a part of them may be synthesized. Good.

例えば、図15では、時刻t2の左視点画像及び右視点画像については、特定の左視点画像及び右視点画像であるため、いずれも動体の最小位置座標XminL2,XminR2が基準座標Ls,Rsを超えている。これに対して、時刻t1の左視点画像及び右視点画像については、いずれも動体の最小位置座標XminL1,XminR1が基準座標Ls,Rs未満となっており、時刻t3の右視点画像については動体の最小位置座標XminR3が基準座標Lsを超えているものの、時刻t3の左視点画像については動体の最小位置座標XminL3が基準座標Rs未満となっている。   For example, in FIG. 15, since the left viewpoint image and the right viewpoint image at time t2 are the specific left viewpoint image and right viewpoint image, the minimum position coordinates XminL2, XminR2 of the moving object exceed the reference coordinates Ls, Rs. ing. On the other hand, for the left viewpoint image and the right viewpoint image at time t1, both the minimum position coordinates XminL1 and XminR1 of the moving object are less than the reference coordinates Ls and Rs, and for the right viewpoint image at time t3, the moving object Although the minimum position coordinate XminR3 exceeds the reference coordinate Ls, the minimum position coordinate XminL3 of the moving object is less than the reference coordinate Rs for the left viewpoint image at time t3.

そこで、動体の最小位置座標XminL1,XminR1がいずれも基準座標Ls,Rs未満となっている時刻t1の左視点画像及び右視点画像について、時刻t1の左視点画像のうち動き方向Xに関してLs(XminL0)を超える領域を切り取るとともに、時刻t1の右視点画像のうち動き方向Xに関してRs(XminR0)を超える領域を切り取る。   Therefore, regarding the left viewpoint image and the right viewpoint image at time t1 in which the minimum position coordinates XminL1 and XminR1 of the moving object are both less than the reference coordinates Ls and Rs, Ls (XminL0 ) And a region exceeding Rs (XminR0) with respect to the motion direction X in the right viewpoint image at time t1.

そして、図16に示すように、時刻t0、時刻t2の特定の左視点画像及び特定の右視点画像と、時刻t1の左視点画像及び右視点画像から切り取られた領域部分(Ls(XminL0),Rs(XminR0)を超える領域部分)の画像とを合成することによって、左視点合成画像120が得られる。その際、上記の時刻t1の左視点画像及び右視点画像から切り取られた領域部分の合成比率は、他の画像よりも低くする。右視点画像についても同様の合成処理をすることによって、右視点合成画像121が得られる。そして、得られた左視点合成画像120と右視点合成画像121を更に合成することによって、動体立体視化画像122が得られる。   Then, as shown in FIG. 16, a specific left viewpoint image and a specific right viewpoint image at time t0 and time t2, and an area portion (Ls (XminL0), The left viewpoint synthesized image 120 is obtained by synthesizing the image in the region exceeding Rs (XminR0). At that time, the composition ratio of the region portion cut out from the left viewpoint image and the right viewpoint image at time t1 is set to be lower than that of the other images. The right viewpoint composite image 121 is obtained by performing the same composition process for the right viewpoint image. Then, by further synthesizing the obtained left viewpoint synthesized image 120 and right viewpoint synthesized image 121, a moving body stereoscopic image 122 is obtained.

動体立体視化画像122には、特定の左視点画像及び右視点画像でない画像中の動体の一部が合成されたことで、動体立体視化画像122上で動体のスピード感を表現することができる。また、その動体の一部の合成比率は他の画像よりも低くしているため、動体が見にくくなったりするなどの画質劣化が起こることが無い。   The moving body stereoscopic image 122 can express a sense of speed of the moving body on the moving body stereoscopic image 122 by combining a part of the moving body in an image that is not a specific left viewpoint image and right viewpoint image. it can. In addition, since the composition ratio of a part of the moving object is lower than that of other images, image quality deterioration such as difficulty in seeing the moving object does not occur.

なお、第3実施形態では、時刻t1のように、左視点画像及び右視点画像についていずれも動体の最小位置座標が基準座標未満の場合にのみ、それら画像中の動体の一部を動体立体視化画像に加えたが、時刻t3のように、左視点画像及び右視点画像のうちのいずれか一方のみが動体の最小位置座標が基準座標未満の場合にも、それら画像中の動体の一部を動体立体視化画像に加えてもよい。   Note that in the third embodiment, as in time t1, a part of the moving object in the image is displayed in the moving object stereoscopic view only when the minimum position coordinate of the moving object is less than the reference coordinate for both the left viewpoint image and the right viewpoint image. Even when only one of the left viewpoint image and the right viewpoint image has a minimum position coordinate of the moving object that is less than the reference coordinates as at time t3, a part of the moving object in the image is added to the converted image. May be added to the moving body stereoscopic image.

本発明の第4実施形態では、動体立体視化画像内で1つの動体の様子を立体視可能にした第1実施形態と異なり、2つ以上の動体の様子を1つの画像内で立体視可能にする動体立体視化画像を生成する。動体が2以上の場合であっても、各時刻における左視点画像及び右視点画像において、動体の大きさ及び動き方向を検出するとともに、検出された全ての動体について最小位置座標が基準座標以上か否かを判定する。そして、判定の結果、全ての動体について最小位置座標が基準座標以上のときに、その時刻の左視点画像及び右視点画像を特定の左視点画像及び右視点画像とする。   In the fourth embodiment of the present invention, unlike the first embodiment in which the state of one moving object can be stereoscopically viewed in the moving object stereoscopic image, the state of two or more moving objects can be stereoscopically viewed in one image. A moving object stereoscopic image is generated. Even if there are two or more moving objects, the size and direction of the moving object are detected in the left viewpoint image and the right viewpoint image at each time, and the minimum position coordinates of all the detected moving objects are greater than the reference coordinates. Determine whether or not. As a result of the determination, when the minimum position coordinates are equal to or greater than the reference coordinates for all moving objects, the left viewpoint image and the right viewpoint image at that time are set as a specific left viewpoint image and right viewpoint image.

例えば、図17に示すように、時刻t1の左視点画像及び右視点画像では、時刻t0の左視点画像及び右視点画像との対応点の比較から、右側から左側に向かう動き方向Xで移動する動体Z1と、左側から右側に向かう動き方向Yで移動する動体Z2が検出される。動体Z1については、左視点画像及び右視点画像ともに、最小位置座標XminL1,XminR1が基準座標XLs,XRsを下回っている。また、動体Z2についても、左視点画像及び右視点画像ともに、最小位置座標YminL1,YminR1が基準座標YLs,YRsを下回っている。したがって、いずれの動体Z1及びZ2についても最小位置座標が基準座標を下回っているため、左視点画像及び右視点画像は特定の左視点画像及び右視点画像とされない。なお、図17では、動き方向Yの座標は、左側から右側に向かうほど大きくなる。   For example, as shown in FIG. 17, the left viewpoint image and the right viewpoint image at time t <b> 1 move in the movement direction X from the right side to the left side by comparing corresponding points with the left viewpoint image and the right viewpoint image at time t <b> 0. The moving body Z1 and the moving body Z2 moving in the moving direction Y from the left side to the right side are detected. For the moving object Z1, the minimum position coordinates XminL1, XminR1 are lower than the reference coordinates XLs, XRs in both the left viewpoint image and the right viewpoint image. Also for the moving object Z2, the minimum position coordinates YminL1, YminR1 are lower than the reference coordinates YLs, YRs in both the left viewpoint image and the right viewpoint image. Therefore, since the minimum position coordinate is lower than the reference coordinate for any moving body Z1 and Z2, the left viewpoint image and the right viewpoint image are not a specific left viewpoint image and right viewpoint image. In FIG. 17, the coordinates of the movement direction Y increase from the left side to the right side.

一方、時刻t2の左視点画像及び右視点画像については、動体Z1の最小位置座標XminL2,XminR2が基準座標XLs,XRsを超えており、また動体Z2の最小位置座標YminL2,YminR2が基準座標YLs,YRsを超えているため、左視点画像及び右視点画像は特定の左視点画像及び右視点画像とされる。そして、図18に示すように、時刻t0、時刻t2の特定の左視点画像を合成することにより左視点合成画像130を生成するとともに、初期時刻t0、時刻t2の特定の右視点画像を合成することにより右視点合成画像131を生成する。そして、これら左視点合成画像130と右視点合成画像131を更に合成することにより、2つの動体Z1及びZ2が1つの画像内で立体視可能な動体立体視化画像132が生成される。   On the other hand, for the left viewpoint image and right viewpoint image at time t2, the minimum position coordinates XminL2, XminR2 of the moving object Z1 exceed the reference coordinates XLs, XRs, and the minimum position coordinates YminL2, YminR2 of the moving object Z2 are the reference coordinates YLs, Since YRs is exceeded, the left viewpoint image and the right viewpoint image are a specific left viewpoint image and right viewpoint image. Then, as shown in FIG. 18, the left viewpoint composite image 130 is generated by combining the specific left viewpoint images at time t0 and time t2, and the specific right viewpoint image at initial time t0 and time t2 is combined. Thus, the right viewpoint composite image 131 is generated. Then, by further synthesizing the left viewpoint synthesized image 130 and the right viewpoint synthesized image 131, a moving body stereoscopic image 132 in which the two moving bodies Z1 and Z2 can be stereoscopically viewed in one image is generated.

本発明の第5実施形態では、複眼カメラ10に対して接近する方向または離れる方向(奥行き方向)に動く被写体の動体立体視化画像を生成する。第5実施形態では、各時刻における左視点画像及び右視点画像が特定の左視点画像及び右視点画像に該当するか否かの判定には、各時刻における動体の最小位置座標が基準座標以上となるか否かの判定だけでなく、同時刻における左視点画像と右視点画像とで同一の動体がどの程度離れているかを示す視差量が許容範囲内に収まっているか否かの判定を利用する。   In the fifth embodiment of the present invention, a moving body stereoscopic image of a subject moving in a direction approaching or moving away from the compound eye camera 10 (depth direction) is generated. In the fifth embodiment, in determining whether the left viewpoint image and the right viewpoint image at each time correspond to the specific left viewpoint image and the right viewpoint image, the minimum position coordinate of the moving object at each time is greater than or equal to the reference coordinate. As well as whether or not the amount of parallax indicating how far the same moving object is separated between the left viewpoint image and the right viewpoint image at the same time is within an allowable range. .

例えば、図19に示すように、時刻t0から時刻t3までの間で、動体が複眼カメラ10に接近する方向に移動する場合について説明する。まず、時刻t0の左視点画像から動き方向Yに移動する動体の最大位置座標YmaxL0を基準座標Lsに設定するとともに、時刻t0の右視点画像から動き方向Xに移動する動体の最大位置座標XmaxR0を基準座標Rsに設定する。また、時刻t0の左視点画像及び右視点画像から、動体の視差量D0を求め、この求めた視差量D0から最大限許容される許容値Dmaxを求める。   For example, as illustrated in FIG. 19, a case where the moving object moves in a direction approaching the compound eye camera 10 from time t0 to time t3 will be described. First, the maximum position coordinate YmaxL0 of the moving object moving in the movement direction Y from the left viewpoint image at time t0 is set as the reference coordinate Ls, and the maximum position coordinate XmaxR0 of the moving object moving in the movement direction X from the right viewpoint image at time t0 is set. Set to reference coordinate Rs. Further, the parallax amount D0 of the moving object is obtained from the left viewpoint image and the right viewpoint image at time t0, and the maximum allowable value Dmax is obtained from the obtained parallax amount D0.

次に、各時刻の左視点画像及び右視点画像において、動体の最小位置座標が基準座標以上か否かを判定するとともに、動体の視差量が許容値を超えているか否かを判定する。時刻t1では、視差量D1は許容量Dmax未満である。しかしながら、時刻t1の左視点画像及び右視点画像のいずれも、動体の最小位置座標XminL1,XminR1は基準座標XLs,XRs未満であり、最小位置座標,YminL1,YminR1は基準座標YLs,YRs未満である。したがって、左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択されない。   Next, in the left viewpoint image and the right viewpoint image at each time, it is determined whether or not the minimum position coordinate of the moving object is greater than or equal to the reference coordinate, and whether or not the parallax amount of the moving object exceeds an allowable value. At time t1, the parallax amount D1 is less than the allowable amount Dmax. However, in both the left viewpoint image and the right viewpoint image at time t1, the minimum position coordinates XminL1 and XminR1 of the moving object are less than the reference coordinates XLs and XRs, and the minimum position coordinates YminL1 and YminR1 are less than the reference coordinates YLs and YRs. . Therefore, the left viewpoint image and the right viewpoint image are not selected as the specific left viewpoint image and right viewpoint image.

時刻t2の左視点画像及び右視点画像では、視差量D2は許容量Dmax未満である。また、時刻t2の左視点画像及び右視点画像のいずれも、動体の最小位置座標XminL2,XminR2は基準座標XLs,XRsを超えており、最小位置座標,YminL2,YminR2は基準座標YLs,YRsを超えている。したがって、時刻t2の左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択される。   In the left viewpoint image and the right viewpoint image at time t2, the parallax amount D2 is less than the allowable amount Dmax. In both the left viewpoint image and the right viewpoint image at time t2, the minimum position coordinates XminL2 and XminR2 of the moving object exceed the reference coordinates XLs and XRs, and the minimum position coordinates YminL2 and YminR2 exceed the reference coordinates YLs and YRs. ing. Therefore, the left viewpoint image and the right viewpoint image at time t2 are selected as the specific left viewpoint image and right viewpoint image.

時刻t3左視点画像及び右視点画像については、動体の最小位置座標XminL3,XminR3は基準座標XLs,XRsを超えており、最小位置座標,YminL3,YminR3は基準座標YLs,YRsを超えている。しかしながら、視差量D3が許容量Dmaxを超えている。したがって、時刻t3の左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択されない。   At the time t3 left viewpoint image and right viewpoint image, the minimum position coordinates XminL3, XminR3 of the moving object exceed the reference coordinates XLs, XRs, and the minimum position coordinates YminL3, YminR3 exceed the reference coordinates YLs, YRs. However, the parallax amount D3 exceeds the allowable amount Dmax. Therefore, the left viewpoint image and the right viewpoint image at time t3 are not selected as the specific left viewpoint image and right viewpoint image.

以上から、時刻t0から時刻t3までの左視点画像及び右視点画像の中から、時刻t2の左視点画像及び右視点画像が特定の左視点画像及び右視点画像として、また、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合わない時刻t0の左視点画像及び右視点画像も、特定の左視点画像及び右視点画像として選択される。   From the above, among the left viewpoint image and right viewpoint image from time t0 to time t3, the left viewpoint image and right viewpoint image at time t2 are used as the specific left viewpoint image and right viewpoint image, and left at other times. The left viewpoint image and the right viewpoint image at time t0 at which the moving objects do not overlap when combined with the viewpoint image and the right viewpoint image are also selected as the specific left viewpoint image and right viewpoint image.

そして、図20に示すように、時刻t0、時刻t2の左視点画像を合成することにより左視点合成画像140が生成される。また、時刻t0、時刻t2の右視点画像を合成することにより右視点合成画像141が生成される。そして、これら左視点合成画像140と右視点合成画像141を更に合成することにより、複眼カメラ10に対して奥行き方向に移動する動体の様子を立体視することができる動体立体視化画像142が生成される。このように動体立体視化画像142を生成することで、複眼カメラ10から一定距離離れた平面内を移動する動体ではなく、奥行き方向に移動する動体の場合であっても、その動体の様子を3D画像として確実に把握することができる。   Then, as shown in FIG. 20, the left viewpoint composite image 140 is generated by combining the left viewpoint images at time t0 and time t2. Further, the right viewpoint synthesized image 141 is generated by synthesizing the right viewpoint images at time t0 and time t2. Then, by further synthesizing the left viewpoint synthesized image 140 and the right viewpoint synthesized image 141, a moving body stereoscopic image 142 capable of stereoscopically viewing the moving body moving in the depth direction with respect to the compound eye camera 10 is generated. Is done. By generating the moving body stereoscopic image 142 in this way, even if the moving body moves in the depth direction instead of the moving body moving in a plane that is a fixed distance away from the compound-eye camera 10, the state of the moving body is displayed. It can be reliably grasped as a 3D image.

なお、上記第1〜第5実施形態では、ストロボモード時に取得した左視点画像及び右視点画像を用いて、複眼カメラ10で動体立体視化画像を生成したが、これに代えて、図21に示すように、メモリカード20に記録したストロボモード時の左視点画像及び右視点画像をPC150のカードスロット150aを介して読み込み、その読み込んだ左視点画像及び右視点画像を用いて、PC150内の動体立体視化画像生成部151で動体立体視化画像を生成してもよい。生成された動体立体視化画像は、画像表示部にレンチキュラシート(いずれも図示省略)が設けられたディスプレイ152に表示される。   In the first to fifth embodiments, the moving object stereoscopic image is generated by the compound eye camera 10 using the left viewpoint image and the right viewpoint image acquired in the strobe mode. As shown, the left viewpoint image and the right viewpoint image recorded in the memory card 20 in the strobe mode are read through the card slot 150a of the PC 150, and the moving object in the PC 150 is read using the read left viewpoint image and right viewpoint image. The stereoscopic image generation unit 151 may generate a moving object stereoscopic image. The generated moving body stereoscopic image is displayed on a display 152 provided with a lenticular sheet (all not shown) in the image display unit.

なお、PC内は第2立体画像生成回路61と同様の機能を有する動体立体視化画像生成プログラムが格納された記憶部を備えており、3D画像ストロボ生成回路151はその動体立体視化画像生成プログラムを実行することによって、動体立体視化画像を生成する。   The PC includes a storage unit that stores a moving object stereoscopic image generation program having the same function as the second stereoscopic image generation circuit 61. The 3D image strobe generation circuit 151 generates the moving object stereoscopic image generation program. A moving object stereoscopic image is generated by executing the program.

10 複眼カメラ
12 左視点用撮像部
13 右視点用撮像部
61 第2立体画像生成回路
70 動体検出部
71 画像選択部
72 動体立体視化画像生成部
75,100,120,130,140 左視点合成画像
76,101,121,131,141 右視点合成画像
77,102,122,132,142 動体立体視化画像
DESCRIPTION OF SYMBOLS 10 Compound eye camera 12 Left viewpoint image pick-up part 13 Right viewpoint image pick-up part 61 2nd stereo image generation circuit 70 Moving object detection part 71 Image selection part 72 Moving object stereo image generation part 75,100,120,130,140 Left viewpoint synthesis Images 76, 101, 121, 131, 141 Right viewpoint composite image 77, 102, 122, 132, 142 Moving object stereoscopic image

Claims (10)

互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得ステップと、
前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択ステップと、
選択された特定の第1の視点画像及び特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成ステップとを有することを特徴とする3D画像生成方法。
An image acquisition step of acquiring a plurality of first viewpoint images and second viewpoint images obtained by continuously performing simultaneous imaging for capturing a moving object that is a subject moving from two different viewpoints at the same timing; ,
A specific first viewpoint image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from the plurality of first viewpoint images and second viewpoint images; An image selection step for selecting a specific second viewpoint image in which moving objects do not overlap when the second viewpoint image captured at the same time as the specific first viewpoint image and captured at another timing is synthesized. When,
A stereoscopic image generation step of generating a stereoscopic image in which the state of the moving object can be stereoscopically viewed within one image by combining the selected specific first viewpoint image and the specific second viewpoint image. A 3D image generation method characterized by the above.
前記画像選択ステップは、
各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出するとともに、各撮像タイミングにおける第2の視点画像中の動体の動き方向を検出する第1の動き方向検出ステップと、
前記複数枚の第1の視点画像及び第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす第1の視点画像を前記特定の第1の視点画像として選択し、この特定の第1の視点画像と同時撮像され、且つ、動き方向に関する動体の座標が所定の条件を満たす第2の視点画像を特定の第2の視点画像として選択する第1の選択ステップとを含むことを特徴とする請求項1記載の3D画像生成方法。
The image selection step includes:
A first motion direction detection step for detecting a motion direction of the moving object in the first viewpoint image at each imaging timing and detecting a motion direction of the moving object in the second viewpoint image at each imaging timing;
From among the plurality of first viewpoint images and second viewpoint images, a first viewpoint image in which the coordinates of a moving object relating to a moving direction satisfy a predetermined condition is selected as the specific first viewpoint image, A first selection step of selecting, as a specific second viewpoint image, a second viewpoint image that is simultaneously imaged with the specific first viewpoint image and in which the coordinates of the moving object relating to the movement direction satisfy a predetermined condition. The 3D image generation method according to claim 1.
前記画像選択ステップは、
各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出する第2の動体検出ステップと、
前記複数枚の第1の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第1の視点画像を仮選択するとともに、前記複数枚の第2の視点画像の中から、仮選択された特定の第1の視点画像と同時撮像された第2の視点画像を選択する第2の選択ステップと、
前記第2の選択ステップで選択された第2の視点画像中の動体の動き方向を検出する第3の動体検出ステップと、
前記第2の選択ステップで選択された第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第2の視点画像を選択するとともに、仮選択された特定の第1の視点画像の中から、前記特定の第2の視点画像と同時撮像された特定の第1の視点画像を本選択する第3の選択ステップと、
前記立体画像生成ステップは、
前記第3の選択ステップで本選択された特定の第1の視点画像及び前記第3の選択ステップで選択された特定の第2の視点画像を合成することにより、立体画像を生成することを特徴とする請求項1記載の3D画像生成方法。
The image selection step includes:
A second moving object detection step for detecting a moving direction of the moving object in the first viewpoint image at each imaging timing;
From the plurality of first viewpoint images, a specific first viewpoint image in which the coordinates of the moving object relating to the moving direction satisfy a predetermined condition is temporarily selected and the plurality of second viewpoint images are selected from the plurality of second viewpoint images. A second selection step of selecting a second viewpoint image captured simultaneously with the temporarily selected specific first viewpoint image;
A third moving object detecting step for detecting a moving direction of the moving object in the second viewpoint image selected in the second selecting step;
From the second viewpoint image selected in the second selection step, a specific second viewpoint image in which the coordinates of the moving object regarding the movement direction satisfy a predetermined condition is selected, and the temporarily selected specific second viewpoint image is selected. A third selection step of main-selecting a specific first viewpoint image simultaneously captured with the specific second viewpoint image from one viewpoint image;
The stereoscopic image generation step includes:
A stereoscopic image is generated by combining the specific first viewpoint image selected in the third selection step and the specific second viewpoint image selected in the third selection step. The 3D image generation method according to claim 1.
前記所定の条件は、第1の撮像タイミングにおける動体の最小位置座標が、その第1の撮像タイミングの前の第2の撮像タイミングにおける動体の最大位置座標から設定された基準座標以上であることを特徴とする請求項2または3記載の3D画像生成方法。   The predetermined condition is that the minimum position coordinate of the moving object at the first imaging timing is equal to or greater than a reference coordinate set from the maximum position coordinate of the moving object at the second imaging timing before the first imaging timing. The 3D image generation method according to claim 2, wherein the 3D image is generated. 前記立体画像生成ステップは、特定の撮像タイミングにおける動体が他の撮像タイミングの動体よりも強調されるように、立体画像を生成することを特徴とする請求項1ないし4いずれか1項記載の3D画像生成方法。   5. The 3D image according to claim 1, wherein the stereoscopic image generation step generates a stereoscopic image such that a moving object at a specific imaging timing is emphasized more than a moving object at another imaging timing. Image generation method. 前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像に加えて、前記特定の第1の視点画像として選択されなかった第1の視点画像の一部と、前記特定の第2の視点画像として選択されなかった第2の視点画像の一部とを合成することにより、立体画像を生成することを特徴とする請求項1ないし5いずれか1項記載の3D画像生成方法。   In the stereoscopic image generation step, in addition to the selected specific first viewpoint image and the specific second viewpoint image, the first viewpoint image not selected as the specific first viewpoint image 6. A stereoscopic image is generated by combining a part and a part of a second viewpoint image that is not selected as the specific second viewpoint image. The 3D image generation method according to item. 前記立体画像生成ステップは、複数の動体の様子を1つの画像内で立体視可能な立体画像を生成することを特徴とする請求項1ないし6いずれか1項記載の3D画像生成方法。   7. The 3D image generation method according to claim 1, wherein the stereoscopic image generation step generates a stereoscopic image in which a state of a plurality of moving objects can be stereoscopically viewed in one image. 同時撮像された第1の視点画像及び第2の視点画像において同一の動体がどの程度離れているかを示す視差量が、予め設定された許容値を超えたか否かを判定する視差量判定ステップを有し、
前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像のうち視差量が許容値未満である画像のみを合成することにより、立体画像を生成することを特徴とする請求項1ないし7いずれか1項記載の3D画像生成方法。
A parallax amount determination step of determining whether or not a parallax amount indicating how far the same moving object is separated in the first viewpoint image and the second viewpoint image simultaneously captured exceeds a preset allowable value; Have
The stereoscopic image generation step generates a stereoscopic image by synthesizing only images having a parallax amount less than an allowable value out of the selected specific first viewpoint image and the specific second viewpoint image. The 3D image generation method according to claim 1, wherein
請求項1ないし8いずれか1項記載の3D画像生成方法における各ステップをコンピュータに実行させることを特徴とする3D画像生成プログラム。   9. A 3D image generation program that causes a computer to execute each step in the 3D image generation method according to claim 1. 互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得手段と、
前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択手段と、
選択された特定の第1の視点画像及び前記特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成手段とを備えることを特徴とする3D画像生成装置。
Image acquisition means for acquiring a plurality of first viewpoint images and second viewpoint images obtained by continuously performing simultaneous imaging of moving objects that are moving subjects from two different viewpoints at the same timing; ,
A specific first viewpoint image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from the plurality of first viewpoint images and second viewpoint images; Image selection means for selecting a specific second viewpoint image that does not overlap moving objects when the second viewpoint image captured at the same time as the specific first viewpoint image and at another timing is synthesized. When,
3D image generation means for generating a stereoscopic image in which the state of the moving object can be stereoscopically viewed in one image by synthesizing the selected specific first viewpoint image and the specific second viewpoint image. A 3D image generation apparatus characterized by that.
JP2011075670A 2011-03-30 2011-03-30 3d image generating method, 3d image generating program and 3d image generating apparatus Withdrawn JP2012209872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011075670A JP2012209872A (en) 2011-03-30 2011-03-30 3d image generating method, 3d image generating program and 3d image generating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011075670A JP2012209872A (en) 2011-03-30 2011-03-30 3d image generating method, 3d image generating program and 3d image generating apparatus

Publications (1)

Publication Number Publication Date
JP2012209872A true JP2012209872A (en) 2012-10-25

Family

ID=47189250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011075670A Withdrawn JP2012209872A (en) 2011-03-30 2011-03-30 3d image generating method, 3d image generating program and 3d image generating apparatus

Country Status (1)

Country Link
JP (1) JP2012209872A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106657974A (en) * 2017-02-27 2017-05-10 北京图森未来科技有限公司 Binocular camera control method and device, binocular camera
CN113316804A (en) * 2019-01-16 2021-08-27 索尼集团公司 Image processing apparatus, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106657974A (en) * 2017-02-27 2017-05-10 北京图森未来科技有限公司 Binocular camera control method and device, binocular camera
CN106657974B (en) * 2017-02-27 2024-02-09 北京图森智途科技有限公司 Control method and device of binocular camera and binocular camera
CN113316804A (en) * 2019-01-16 2021-08-27 索尼集团公司 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP4737573B2 (en) 3D image output apparatus and method
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
US7920176B2 (en) Image generating apparatus and image regenerating apparatus
JP5127787B2 (en) Compound eye photographing apparatus and control method thereof
WO2012002106A1 (en) Three-dimensional image display device, three-dimensional image display method, three-dimensional image display program, and recording medium
WO2012086326A1 (en) 3-d panoramic image creating apparatus, 3-d panoramic image creating method, 3-d panoramic image creating program, 3-d panoramic image replay apparatus, 3-d panoramic image replay method, 3-d panoramic image replay program, and recording medium
US20130113875A1 (en) Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method
JP4661824B2 (en) Image processing apparatus, method, and program
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2010041586A (en) Imaging device
JP5874192B2 (en) Image processing apparatus, image processing method, and program
US8072487B2 (en) Picture processing apparatus, picture recording apparatus, method and program thereof
JP6021489B2 (en) Imaging apparatus, image processing apparatus and method thereof
JP4748398B2 (en) Imaging apparatus, imaging method, and program
JP2011035643A (en) Multiple eye photography method and apparatus, and program
US20120314038A1 (en) Stereoscopic image obtaining apparatus
JP2012209872A (en) 3d image generating method, 3d image generating program and 3d image generating apparatus
JP2012216939A (en) Image processing device, image processing method and program
JP5001960B2 (en) 3D image display apparatus and method
JP2013175805A (en) Display device and image pickup device
JP5351878B2 (en) Stereoscopic image display apparatus and method, and program
JP4632060B2 (en) Image recording apparatus, method and program
JP2012028871A (en) Stereoscopic image display device, stereoscopic image photographing device, stereoscopic image display method, and stereoscopic image display program
WO2013136832A1 (en) Stereoscopic image display control device and stereoscopic image display control method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603