JP2012209872A - 3d image generating method, 3d image generating program and 3d image generating apparatus - Google Patents
3d image generating method, 3d image generating program and 3d image generating apparatus Download PDFInfo
- Publication number
- JP2012209872A JP2012209872A JP2011075670A JP2011075670A JP2012209872A JP 2012209872 A JP2012209872 A JP 2012209872A JP 2011075670 A JP2011075670 A JP 2011075670A JP 2011075670 A JP2011075670 A JP 2011075670A JP 2012209872 A JP2012209872 A JP 2012209872A
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint image
- viewpoint
- specific
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、被写体を立体視可能にする3D画像を生成する3D画像生成方法、3D画像生成プログラム、及び3D画像生成装置に関する。 The present invention relates to a 3D image generation method, a 3D image generation program, and a 3D image generation apparatus that generate a 3D image that enables stereoscopic viewing of a subject.
1枚の写真内に、動く被写体(動体)の様子を表したストロボ写真が知られている。従来の撮像手段として広く用いられていたフィルムカメラでは、絞りを開放してフィルムを露光させた状態で、一定時間毎に複数回のストロボ発光を行うことによって、ストロボ写真を生成していた。このような従来のフイルムカメラに代わって、今日広く普及しているデジタルカメラでは、動体が動く間、連写撮影をすることによって得られる複数枚の画像をコンピュータで画像処理することによって、ストロボ写真のような画像を生成している(特許文献1参照)。 A strobe photograph showing a moving subject (moving object) in one photograph is known. In a film camera that has been widely used as a conventional imaging means, a stroboscopic photograph is generated by performing stroboscopic light emission a plurality of times at regular intervals in a state where the aperture is opened and the film is exposed. In place of such conventional film cameras, digital cameras that are widely used today use a computer to process a plurality of images obtained by continuous shooting while a moving object moves, thereby obtaining a flash photography. Such an image is generated (see Patent Document 1).
今日では、1つの撮像ユニットで撮像を行う単眼のデジタルカメラの他に、左目用と右目用の2つの撮像ユニットで被写体を撮像することによって、被写体の立体視が可能な3D画像を取得する立体撮像装置に対する需要が伸びてきている。このような立体撮像装置には、3Dの静止画や3Dの動画を取得する機能を備えているものは存在するが、動く被写体の様子を1つの画像内で立体視することができる立体画像を取得する3Dストロボ機能を備えているものは現時点では存在しない(特許文献1にも記載及び示唆は無い)。 Today, in addition to a single-lens digital camera that captures an image with a single imaging unit, a 3D image that enables stereoscopic viewing of the subject is acquired by imaging the subject with two imaging units for the left eye and the right eye. Demand for imaging devices is increasing. Some of such stereoscopic imaging devices have a function of acquiring a 3D still image or a 3D moving image. However, a stereoscopic image that allows a moving subject to be stereoscopically viewed in one image is obtained. There is no device having the 3D strobe function to be acquired at present (they are not described or suggested in Patent Document 1).
なお、立体撮像装置においても、連写撮像により得られる複数枚の左視点画像及び右視点画像を合成することで、ストロボ写真のような立体画像を得ることはできる。しかしながら、このように単に左視点画像及び右視点画像を合成しただけの立体画像は、動体の動きが遅い部分があると、その部分の動体が重複してしまうことがある。このように動体が重複してしまうと、部分的に動体の前後関係が分かり難くなるため、観察者は動体を立体視し難くなるおそれがある。 Note that even in a stereoscopic imaging device, a stereoscopic image such as a flash photograph can be obtained by combining a plurality of left viewpoint images and right viewpoint images obtained by continuous shooting imaging. However, in such a stereoscopic image that is simply a combination of the left viewpoint image and the right viewpoint image, if there is a portion where the moving body moves slowly, the moving body in that portion may overlap. If the moving objects overlap in this way, the front-rear relationship of the moving objects becomes partially indistinguishable, and the observer may have difficulty in stereoscopically viewing the moving object.
本発明は、動体の様子を1つの画像内で立体視することができる立体画像を生成できる3D画像生成方法、3D画像生成プログラム、及び3D画像生成装置を提供することを目的とする。 An object of the present invention is to provide a 3D image generation method, a 3D image generation program, and a 3D image generation apparatus capable of generating a stereoscopic image in which a moving object can be stereoscopically viewed in one image.
上記目的を達成するために、本発明の3D画像生成方法は、互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得ステップと、前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択ステップと、選択された特定の第1の視点画像及び特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成ステップとを有することを特徴とする。 In order to achieve the above object, the 3D image generation method of the present invention provides a plurality of first images obtained by continuously performing simultaneous imaging for imaging a moving object that is a subject moving from two different viewpoints at the same timing. An image acquisition step of acquiring one viewpoint image and a second viewpoint image, and a first viewpoint image captured at another timing from the plurality of first viewpoint images and second viewpoint images. When combining a specific first viewpoint image in which moving objects do not overlap when combined, and a second viewpoint image captured simultaneously with the specific first viewpoint image and captured at other timing An image selection step of selecting a specific second viewpoint image in which the moving objects do not overlap each other, and combining the selected specific first viewpoint image and the specific second viewpoint image, thereby making the state of the moving object one In the image And having a three-dimensional image generating step of generating a stereoscopically viewable stereoscopic image.
前記画像選択ステップは、各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出するとともに、各撮像タイミングにおける第2の視点画像中の動体の動き方向を検出する第1の動き方向検出ステップと、前記複数枚の第1の視点画像及び第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす第1の視点画像を前記特定の第1の視点画像として選択し、この特定の第1の視点画像と同時撮像され、且つ、動き方向に関する動体の座標が所定の条件を満たす第2の視点画像を特定の第2の視点画像として選択する第1の選択ステップとを含むことが好ましい。 The image selection step detects a moving direction of the moving object in the first viewpoint image at each imaging timing, and detects a moving direction of the moving object in the second viewpoint image at each imaging timing. Selecting a first viewpoint image in which the coordinates of a moving object relating to a moving direction satisfy a predetermined condition from the plurality of first viewpoint images and the second viewpoint image as the specific first viewpoint image And a first selection step of selecting, as the specific second viewpoint image, a second viewpoint image that is simultaneously captured with the specific first viewpoint image and in which the coordinates of the moving object relating to the movement direction satisfy a predetermined condition. Are preferably included.
前記画像選択ステップは、各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出する第2の動体検出ステップと、前記複数枚の第1の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第1の視点画像を仮選択するとともに、前記複数枚の第2の視点画像の中から、仮選択された特定の第1の視点画像と同時撮像された第2の視点画像を選択する第2の選択ステップと、前記第2の選択ステップで選択された第2の視点画像中の動体の動き方向を検出する第3の動体検出ステップと、前記第2の選択ステップで選択された第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第2の視点画像を選択するとともに、仮選択された特定の第1の視点画像の中から、前記特定の第2の視点画像と同時撮像された特定の第1の視点画像を本選択する第3の選択ステップと、前記立体画像生成ステップは、前記第3の選択ステップで本選択された特定の第1の視点画像及び前記第3の選択ステップで選択された特定の第2の視点画像を合成することにより、立体画像を生成することが好ましい。 The image selection step includes: a second moving object detection step that detects a moving direction of a moving object in the first viewpoint image at each imaging timing; and a moving object related to the moving direction from the plurality of first viewpoint images. A first first viewpoint image whose coordinates satisfy a predetermined condition is temporarily selected, and a first first viewpoint image selected from the plurality of second viewpoint images is simultaneously captured with the first selected viewpoint image. A second selection step of selecting the second viewpoint image, a third moving object detection step of detecting a movement direction of the moving object in the second viewpoint image selected in the second selection step, and the second From the second viewpoint image selected in the selection step, the specific second viewpoint image in which the coordinates of the moving object relating to the moving direction satisfy a predetermined condition is selected, and the temporarily selected specific first viewpoint image From the above A third selection step of selecting a specific first viewpoint image captured simultaneously with the second viewpoint image, and the three-dimensional image generation step include the specific first selected at the third selection step. It is preferable to generate a stereoscopic image by combining the viewpoint image and the specific second viewpoint image selected in the third selection step.
前記所定の条件は、第1の撮像タイミングにおける動体の最小位置座標が、その第1の撮像タイミングの前の第2の撮像タイミングにおける動体の最大位置座標から設定された基準座標以上であることが好ましい。 The predetermined condition is that the minimum position coordinate of the moving object at the first imaging timing is greater than or equal to a reference coordinate set from the maximum position coordinate of the moving object at the second imaging timing before the first imaging timing. preferable.
前記立体画像生成ステップは、特定の撮像タイミングにおける動体が他の撮像タイミングの動体よりも強調されるように、立体画像を生成することが好ましい。 It is preferable that the stereoscopic image generation step generates a stereoscopic image so that a moving object at a specific imaging timing is emphasized more than a moving object at another imaging timing.
前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像に加えて、前記特定の第1の視点画像として選択されなかった第1の視点画像の一部と、前記特定の第2の視点画像として選択されなかった第2の視点画像の一部とを合成することにより、立体画像を生成することが好ましい。 In the stereoscopic image generation step, in addition to the selected specific first viewpoint image and the specific second viewpoint image, the first viewpoint image not selected as the specific first viewpoint image It is preferable to generate a stereoscopic image by combining a part and a part of the second viewpoint image that has not been selected as the specific second viewpoint image.
前記立体画像生成ステップは、複数の動体の様子を1つの画像内で立体視可能な立体画像を生成することが好ましい。 In the stereoscopic image generating step, it is preferable to generate a stereoscopic image in which a plurality of moving objects can be stereoscopically viewed in one image.
同時撮像された第1の視点画像及び第2の視点画像において同一の動体がどの程度離れているかを示す視差量が、予め設定された許容値を超えたか否かを判定する視差量判定ステップを有し、前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像のうち視差量が許容値未満である画像のみを合成することにより、立体画像を生成することが好ましい。 A parallax amount determination step of determining whether or not a parallax amount indicating how far the same moving object is separated in the first viewpoint image and the second viewpoint image simultaneously captured exceeds a preset allowable value; The stereoscopic image generating step combines the images of the selected specific first viewpoint image and the specific second viewpoint image that have a parallax amount less than an allowable value, thereby generating a stereoscopic image Is preferably generated.
本発明の3D画像生成プログラムは、上記記載の本発明の3D画像生成方法における各ステップをコンピュータに実行させることを特徴とする。 The 3D image generation program of the present invention causes a computer to execute each step in the 3D image generation method of the present invention described above.
本発明の3D画像生成装置は、互いに異なる2つの視点から動く被写体である動体を同じタイミングで撮像する同時撮像を、連続して行うことによって得られる複数枚の第1の視点画像及び第2の視点画像を取得する画像取得手段と、前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択手段と、選択された特定の第1の視点画像及び前記特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成手段とを備えることを特徴とする。 The 3D image generation apparatus according to the present invention includes a plurality of first viewpoint images and a second viewpoint image obtained by continuously performing simultaneous imaging of a moving object that is a subject moving from two different viewpoints at the same timing. The moving object overlaps when an image acquisition means for acquiring a viewpoint image and the first viewpoint image captured at another timing from the plurality of first viewpoint images and the second viewpoint image are combined. A specific first viewpoint image and a specific first viewpoint image that is simultaneously captured with the specific first viewpoint image and combined with the second viewpoint image captured at other timings are not overlapped. The state of the moving object can be stereoscopically viewed in one image by synthesizing the selected first viewpoint image and the specific second viewpoint image with the image selecting means for selecting two viewpoint images. Generate stereoscopic images Characterized in that it comprises a three-dimensional image generation means.
本発明によれば、動体の様子を1つの画像内で立体視することができる立体画像を生成することができる。この立体画像は、複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択した上で、これら選択された特定の第1の視点画像及び特定の第2の視点画像を用いて生成されているため、画質が顕著に劣化せず、また不自然な3D画像とならない。 According to the present invention, it is possible to generate a stereoscopic image in which a moving object can be stereoscopically viewed in one image. The stereoscopic image is a specific first image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from among a plurality of first viewpoint images and second viewpoint images. Select a specific second viewpoint image in which moving objects do not overlap when the viewpoint image and the second viewpoint image captured at the same time as this specific first viewpoint image are combined. In addition, since the image is generated using the selected specific first viewpoint image and specific second viewpoint image, the image quality is not significantly deteriorated and an unnatural 3D image is not obtained.
また、立体画像は特定の第1の視点画像及び特定の第2の視点画像のマルチフレーム合成により生成されるため、背景など動体が無い領域は高感度低ノイズの画質を得ることができる。また、上記特定の第1の視点画像及び特定の第2の視点画像の選択は、各撮像タイミングにおける第1の視点画像及び第2の視点画像中の動体の動き方向の座標を用いて行っているため、他の撮像タイミングの左視点画像及び右視点画像を合成したときの動体の重なり合い(多重化)を確実に回避することができる。 In addition, since the stereoscopic image is generated by multi-frame synthesis of the specific first viewpoint image and the specific second viewpoint image, a high-sensitivity and low-noise image quality can be obtained in an area where there is no moving object such as a background. The selection of the specific first viewpoint image and the specific second viewpoint image is performed using the coordinates of the moving direction of the moving object in the first viewpoint image and the second viewpoint image at each imaging timing. Therefore, it is possible to reliably avoid overlapping (multiplexing) of moving objects when the left viewpoint image and the right viewpoint image at other imaging timings are combined.
図1に示すように、第1実施形態の複眼カメラ10は、カメラ本体11の前面に、左視点用12及び右視点用撮像部13とストロボ発光部14を、カメラ本体11の上面に、シャッタボタン15と電源スイッチ16を備えている。左視点用及び右視点用撮像部12,13は、互いの光軸が略平行となるように、所定間隔を隔てて設けられている。また、シャッタボタン15は半押し操作と全押し操作とが可能であり、半押し操作時にはオートフォーカスが行われ、全押し操作時には、その操作時点での撮像画像をメモリカード20(図2参照)に記録する。
As shown in FIG. 1, the compound-eye camera 10 according to the first embodiment includes a left viewpoint 12, a right viewpoint imaging unit 13, and a strobe
図2に示すように、カメラ本体11の背面には、モニタ18及び操作部19が設けられている。また、カメラ本体11の底面には、SDカードなどのメモリカード20が着脱自在に装填されるカードスロットと、このカードスロットの開口部を覆う開閉自在の装填蓋とが設けられている(いずれも図示省略)。
As shown in FIG. 2, a
モニタ18は、画像を表示するLCDとこのLCD上に貼り付けられたレンチキュラシート(いずれも図示省略)を備えており、LCDに表示された立体画像をレンチキュラシートを介して観察することで、画像を立体視することができる。操作部19は、各種モードの設定を行うモード切替スイッチ22と、モニタ18にメニュー画面や設定画面を表示させるメニューボタン23と、画面上のカーソルを移動させる十字キー24と、これらスイッチ等によって選択されるモード等を確定させる実行ボタン25とを備えている。
The
本実施形態では、モード切替スイッチ22は、モニタ18上で静止状態の被写体を立体視可能にする立体画像を取得する静止画モードと、一定時間内に動く被写体(動体)の様子を1つの画像内で立体視可能にした立体画像である動体立体視化画像を取得するストロボモードとの間で、モードの切り替えが可能である。なお、静止画モードやストロボモードの他、動画モードなどを設けてもよい。
In the present embodiment, the
図3に示すように、左視点用撮像部12は、被写体からの光が入射するレンズユニット37と、レンズユニット37によって結像される左視点画像を撮像して撮像信号を出力するCCD39と、CCD39から出力された撮像信号を所定の処理によって左視点画像信号(L画像信号)に変換し、変換したL画像信号を画像入力コントローラ45へと出力するAFE(Analog Front End)40と、CCD39及びAFE40に接続されており、CPU33からの指示に基づいて、画像入力コントローラ45への撮像信号の出力を制御する左視点用撮像制御部41を備えている。なお、被写体の撮像は、CCDに代えて、CMOS(Complementary Metal Oxide Semiconductor)で行ってもよい。
As shown in FIG. 3, the left viewpoint imaging unit 12 includes a
右視点用撮像部13は、左視点用撮像部12と同様に、レンズユニット38、CCD48、AFE49、右視点用撮像制御部50を備えている。右視点用撮像部13では、右視点画像の撮像により得られる右視点画像信号(R画像信号)を画像入力コントローラ45へと出力する。
Similar to the left viewpoint imaging unit 12, the right viewpoint imaging unit 13 includes a
CPU33は、カメラ本体11の内部に設けられており、複眼カメラ10の各部を電気的に制御する。このCPU33には、左視点用撮像制御部41及び右視点用撮像制御部50の両方を制御する統括撮像制御部33aが設けられている。統括撮像制御部33aは、静止画モードとストロボモードとで異なる制御を行う。静止画モードの場合、左視点用撮像部12及び右視点用撮像部13の両方で被写体を同時に撮像し、シャッタボタン15が全押し操作されたときに、メモリカード20に記録する左視点画像及び右視点画像の元となるL画像信号及びR画像信号を画像入力コントローラ45に出力する。
The CPU 33 is provided inside the
一方、ストロボモードに設定されている場合には、時刻t0でシャッタボタン15を全押し操作してから、一定時間後の時刻tnで再度シャッタボタン15を全押し操作するまでの間、左視点用撮像部12及び右視点用撮像部13で被写体を同時に撮像するように制御する。撮像は、時刻t0から時刻tnの間、一定の時間間隔(t1―t0=t2−t1=・・・=tn―t(n−1))で連続的に行われる。即ち、連写撮影が行われる。これにより、左視差用撮像部12の撮像で得られる(n+1)枚分のL画像信号と、右視差用撮像部13の撮像で得られる(n+1)枚分のR画像信号が画像入力コントローラ45に出力される。
On the other hand, when the strobe mode is set, the left viewpoint is used from when the
画像入力コントローラ45は、所定容量のバッファを有しており、左視点用撮像部12及び右視点用撮像部13から出力されたL,R画像信号を一時的に蓄積するとともに、蓄積したL,R画像信号を信号処理回路56へと送信する。
The
信号処理回路56は、画像入力コントローラ45からのL,R画像信号に対して階調変換、ホワイトバランス補正、γ補正処理、YC変換処理などの各種処理を施すことによって、L,R画像データを生成する。生成されたL,R画像データは、RAM34に格納される。RAM34に格納されたL,R画像データは、第1立体画像生成回路60及び第2立体画像生成回路61に読み出される。
The
第1立体画像生成回路60は、静止画モードに設定されている場合に、RAM34から読み出したL,R画像データを合成することによって3D静止画像データを生成する。生成された3D静止画像データは表示回路59へ送信され、表示回路59は受信した3D静止画像データに基づいて、モニタ18に3D静止画像を表示する。そして、シャッタボタン15が全押し操作されたときには、静止画像データは、表示回路59及び圧縮伸張処理回路57に送信される。
The first stereoscopic
圧縮伸張処理回路57では、静止画像データに圧縮処理を行い、所定のファイル形式の圧縮合成画像データを生成する。生成された圧縮合成画像データは、メディアコントローラ58によってメモリカード20に記録される。また、表示回路59は、3D静止画像データに基づいて、モニタ18にシャッタボタン15全押し操作時点での3D静止画像を表示する。
The compression /
図4に示すように、第2立体画像生成回路61はストロボモード時に動体立体視化画像を生成する回路であり、左視点画像及び右視点画像の情報が含まれるL,R画像データから、動く被写体(動体)を検出する動体検出部70と、動体検出部70での検出結果に基づいて、全ての左視点画像及び右視点画像の中から、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合わない特定の左視点画像及び右視点画像を選択する画像選択部71と、特定の左視点画像及び右視点画像から動体立体視化画像を生成する動体立体視化画像生成部72とを備えている。動体立体視化画像生成部72で生成された動体立体視化画像は、3D静止画像と同様に、モニタ18に表示されるとともに、動体立体視化画像データとして、メモリカード20に記録される。
As shown in FIG. 4, the second stereoscopic
動体検出部70は、(n+1)枚分の左視点画像のそれぞれについて特徴点を抽出するととともに、各左視点画像間で互いに略共通する特徴点を対応点として特定する。例えば、図5の場合であれば、時刻t0の左視点画像上の特徴点Aの対応点は、時刻t1の左視点画像上では特徴点A1であり、時刻t2の左視点画像上ではA2となる。また、動体検出部70は、(n+1)枚分の右視点画像についても、同様にして特徴点を抽出し、各右視点画像間で互いに略共通する特徴点を対応点として特定する。
The moving
そして、時刻t0を基準として、時刻t1、時刻t2・・・の順に各左視点画像及び右視点画像それぞれの対応点を比較することによって、動体を検出する。そして、時刻tk(kはn以下の自然数)で動体が検出されたら、対応点の位置情報とその周辺画素の輝度情報をRAM34に記録するとともに、動体の領域(大きさ)と動き方向X(図5参照)を推定する。そして、この推定結果から、時刻t0における動体の最大位置座標XmaxL0及び最小位置座標XminL0(いずれも動き方向Xに関する座標)を求めるとともに、時刻tkにおける動体の時刻tkにおける最大位置座標XmaxLk及び最小位置座標XminLk(いずれも動き方向Xに関する座標)を求める。動体検出部70では、動体の検出毎に、動体の領域と動き方向を推定し、その検出時点での動き方向に対する最大位置座標と最小位置座標を求める。
Then, the moving object is detected by comparing corresponding points of each of the left viewpoint image and the right viewpoint image in the order of time t1, time t2,. When a moving object is detected at time tk (k is a natural number equal to or less than n), the position information of the corresponding point and the luminance information of the surrounding pixels are recorded in the
画像選択部71は、時刻t0における動体の最大位置座標XmaxL0,XmaxR0を基準座標Ls,Rsとして設定した上で、動体検出時である時刻tkの左視点画像及び右視点画像において、動体の最小位置座標が基準座標Ls,Rs以上となるか否かを判定する。判定の結果、動体の最小位置座標XminLk, XminRkの両方が基準座標Ls,Rs以上でない場合は、時刻tkの左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。
The
一方、動体の最小位置座標XminLk, XminRkの両方が基準座標Ls,Rs以上と判定された場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択するとともに、基準座標Ls,Rsを時刻tkにおける最大位置座標XmaxLk,XmaxRkに変更する。以上の特定の左視点画像及び右視点画像画像の選択は、動体が検出される毎に行われる。 On the other hand, if both the minimum position coordinates XminLk and XminRk of the moving object are determined to be greater than or equal to the reference coordinates Ls and Rs, the left viewpoint image and the right viewpoint image at time tk are selected as specific left viewpoint images and right viewpoint image images. At the same time, the reference coordinates Ls and Rs are changed to the maximum position coordinates XmaxLk and XmaxRk at time tk. The selection of the specific left viewpoint image and right viewpoint image is performed every time a moving object is detected.
例えば、図6に示すように、時刻t0から時刻t4までの間、被写体を連写撮影することによって、時刻t0から時刻t4までの5枚分の左視点画像及び5枚分の右視点画像が得られた場合における特定の左視点画像及び右視点画像画像の選択手順を、以下に示す。まず、時刻t0の左視点画像から動き方向Xに対する最大位置座標XmaxL0を基準座標Lsとして設定し、同様にして、時刻t0の右視点画像から動き方向Xに対する最大位置座標XmaxR0を基準座標Rsとして設定する。なお、図6では、動き方向Xの座標は、右側から左側に向かうほど大きくなる。 For example, as illustrated in FIG. 6, by capturing a subject continuously from time t0 to time t4, five left viewpoint images and five right viewpoint images from time t0 to time t4 are obtained. The procedure for selecting a specific left viewpoint image and right viewpoint image when obtained is as follows. First, the maximum position coordinate XmaxL0 in the movement direction X from the left viewpoint image at time t0 is set as the reference coordinate Ls, and similarly, the maximum position coordinate XmaxR0 in the movement direction X from the right viewpoint image at time t0 is set as the reference coordinate Rs. To do. In FIG. 6, the coordinates of the movement direction X increase from the right side to the left side.
次に、時刻t1の左視点画像中の動体の最小位置座標XminL1が基準座標Ls(XmaxL0)以上か否かを判定するとともに、時刻t1の右視点画像中の最小位置座標XminR1が基準座標Rs(XminR0)以上か否かを判定する。時刻t1においては、Ls(XmaxL0)>XminL1、且つRs(XmaxR0)>XminR1であるので、時刻t1の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。 Next, it is determined whether or not the minimum position coordinate XminL1 of the moving object in the left viewpoint image at time t1 is greater than or equal to the reference coordinate Ls (XmaxL0), and the minimum position coordinate XminR1 in the right viewpoint image at time t1 is the reference coordinate Rs ( XminR0) or not. Since Ls (XmaxL0)> XminL1 and Rs (XmaxR0)> XminR1 at time t1, the left viewpoint image and right viewpoint image at time t1 are not selected as specific left viewpoint images and right viewpoint image images.
同様にして、次に、時刻t2の左視点画像において、動き方向Xに対する最小位置座標XminL2が基準座標Ls(XmaxL0)以上か否かを判定するとともに、時刻t2の右視点画像において、最小位置座標XminR2が基準座標Rs(XminR0)以上か否かを判定する。時刻t2においては、Ls(XmaxL0)≦XminL2、且つRs(XmaxR0)≦XminR2であるので、時刻t2の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択される。また、基準座標LsはXmaxL2に、基準座標RsはXmaxR2に更新される。 Similarly, next, in the left viewpoint image at time t2, it is determined whether or not the minimum position coordinate XminL2 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL0), and the minimum position coordinate in the right viewpoint image at time t2. Determine whether XminR2 is greater than or equal to the reference coordinate Rs (XminR0). At time t2, since Ls (XmaxL0) ≦ XminL2 and Rs (XmaxR0) ≦ XminR2, the left viewpoint image and right viewpoint image at time t2 are selected as specific left viewpoint images and right viewpoint image images. Further, the reference coordinate Ls is updated to XmaxL2, and the reference coordinate Rs is updated to XmaxR2.
次に、時刻t3の左視点画像において、動き方向Xに対する最小位置座標XminL3が基準座標Ls(XmaxL2)以上か否かを判定するとともに、時刻t3の右視点画像において、最小位置座標XminR3が基準座標Rs(XminR2)以上か否かを判定する。時刻t3においては、Rs(XmaxR2)≦XminR3であるものの、Ls(XmaxL2)>XminL3であるので、時刻t3の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択されない。 Next, in the left viewpoint image at time t3, it is determined whether or not the minimum position coordinate XminL3 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL2), and in the right viewpoint image at time t3, the minimum position coordinate XminR3 is the reference coordinate. Determine whether Rs (XminR2) or higher. At time t3, although Rs (XmaxR2) ≦ XminR3, Ls (XmaxL2)> XminL3, so the left viewpoint image and right viewpoint image at time t3 are not selected as the specific left viewpoint image and right viewpoint image.
次に、時刻t4の左視点画像において、動き方向Xに対する最小位置座標XminL4が基準座標Ls(XmaxL2)以上か否かを判定するとともに、時刻t4の右視点画像において、最小位置座標XminR4が基準座標Rs(XminR2)以上か否かを判定する。時刻t4においては、Ls(XmaxL2)≦XminL4、且つRs(XmaxR2)≦XminR4であるので、時刻t4の左視点画像及び右視点画像は特定の左視点画像及び右視点画像画像として選択される。 Next, in the left viewpoint image at time t4, it is determined whether or not the minimum position coordinate XminL4 with respect to the movement direction X is greater than or equal to the reference coordinate Ls (XmaxL2), and in the right viewpoint image at time t4, the minimum position coordinate XminR4 is the reference coordinate. Determine whether Rs (XminR2) or higher. At time t4, since Ls (XmaxL2) ≦ XminL4 and Rs (XmaxR2) ≦ XminR4, the left viewpoint image and right viewpoint image at time t4 are selected as specific left viewpoint images and right viewpoint image images.
以上から、時刻t0から時刻t4までの左視点画像及び右視点画像の中から、時刻t2、時刻t4の左視点画像及び右視点画像が合成対象画像として選択される。また、時刻t0の左視点画像及び右視点画像についても、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合うことが無いので、特定の左視点画像及び右視点画像画像として選択される。 As described above, the left viewpoint image and the right viewpoint image at time t2 and time t4 are selected as the synthesis target images from the left viewpoint image and the right viewpoint image from time t0 to time t4. In addition, since the moving object does not overlap with the left viewpoint image and the right viewpoint image at time t0 when they are combined with the left viewpoint image and the right viewpoint image at other times, the specific left viewpoint image and the right viewpoint image are obtained. Selected.
動体立体視化画像生成部72は、特定の左視点画像を合成することにより左視点合成画像を生成するとともに、特定の右視点画像とを合成することにより右視点合成画像を生成する。そして、左視点合成画像と右視点合成画像を更に合成することによって、1つの画像内で動体の様子を立体視することができる動体立体視化画像が生成される。
The moving body stereoscopic
例えば、図6のように、時刻t0、時刻t2、時刻t4の左視点画像及び右視点画像が特定の左視点画像及び右視点画像画像として選択された場合には、図7に示すように、時刻t0、時刻t2、時刻t4の左視点画像の合成画像である左視点合成画像75と、時刻t0、時刻t2、時刻t4の右視点画像の合成画像である右視点合成画像76とを更に合成することによって、時刻t0から時刻t4間における動体の様子を立体視可能にした動体立体視化画像77が得られる。
For example, when the left viewpoint image and the right viewpoint image at time t0, time t2, and time t4 are selected as specific left viewpoint images and right viewpoint image images as shown in FIG. 6, as shown in FIG. A left viewpoint
この動体立体視化画像77の生成には、特定の左視点画像及び右視点画像画像として選択された時刻t0、時刻t2、時刻t4の左視点画像及び右視点画像のみが使用され、特定の左視点画像及び右視点画像画像として選択されなかった時刻t1、時刻t3の左視点画像及び右視点画像は使用されない。仮に、この使用されなかった時刻t1の左視点画像及び右視点画像と時刻t0の左視点画像及び右視点画像と合成した場合には、それぞれの動体が重なり合ってしまう(動体の多重化)。また、同様にして、時刻t3の左視点画像を時刻t2の左視点画像に合成した場合にも、動体の多重化が発生する。
Only the left viewpoint image and right viewpoint image at time t0, time t2, and time t4 selected as the specific left viewpoint image and right viewpoint image image are used to generate the moving body
したがって、動体立体視化画像は、このような動体の多重化が起こり得る左視点画像及び右視点画像を使用せずに生成されているため、画質破綻を起こすことなく、動体の様子を3D画像として確実に把握することができる。 Therefore, since the moving body stereoscopic image is generated without using the left viewpoint image and the right viewpoint image in which such a moving body can be multiplexed, the state of the moving body can be represented as a 3D image without causing image quality failure. Can be reliably grasped as.
また、時刻t3のときのように、左視点画像又は右視点画像いずれか一方ののみ動体の多重化が起こり得る場合であっても、その時刻における左視点画像及び右視点画像は動体立体視化画像の生成に使用しないことで、画質劣化を引き起こすおそれがない。例えば、動体の多重化と両眼における視差とを混同してしまうことを防止することができる。 Further, even when the moving object can be multiplexed in only one of the left viewpoint image and the right viewpoint image as at time t3, the left viewpoint image and the right viewpoint image at that time are converted into moving object stereoscopic vision. By not using it for image generation, there is no risk of image quality degradation. For example, it is possible to prevent confusion between multiplexing of moving objects and parallax in both eyes.
また、動体が検出される毎に、動体の大きさや動き方向を検出しているため、途中で動体が異なる方向に移動したり、大きさが変形した場合であっても、画像を合成したときに動体が多重化を起こすか否かを正確に判定することができる。 Also, since the size and direction of the moving object are detected each time a moving object is detected, even when the moving object moves in the middle or the size is deformed, Therefore, it is possible to accurately determine whether or not the moving object causes multiplexing.
また、動体立体視化画像を生成する際には、特定の左視点画像をマルチフレーム合成処理した左視点合成画像と、同様にして特定の右視点画像をマルチフレーム合成処理した右視点合成画像とを用いていることから、背景などの動体以外の領域を高感度で低ノイズな画質にすることができる。 In addition, when generating a moving body stereoscopic image, a left viewpoint composite image obtained by performing multiframe composition processing on a specific left viewpoint image, and a right viewpoint composite image obtained by performing multiframe composition processing on a specific right viewpoint image in the same manner Therefore, it is possible to achieve a high-sensitivity and low-noise image quality in areas other than moving objects such as the background.
次に、動体立体視化画像を生成するまでの流れを、図8及び図9のフローチャートに沿って説明する。まず、モード切替スイッチ22によってストロボモードに切り替える。そして、左視点用撮像部12及び右視点用撮像部13を被写体に向けた状態で、シャッタボタン15を全押し操作する(時刻t0)。この全押し操作と同時又は直後に、被写体を動かす。一定時間後に、動く被写体(動体)がモニタ18上からフレームアウトしたら、再度、シャッタボタン15を全押し操作する(時刻tn)。これにより、時刻t0〜時刻tn(nは1以上の自然数)間の左視点画像及び右視点画像が得られる。
Next, the flow until the moving body stereoscopic image is generated will be described with reference to the flowcharts of FIGS. First, the mode is switched to the strobe mode by the
時刻t0〜時刻tn間の左視点画像及び右視点画像が得られたら、動体検出部70によって、全ての左視点画像及び右視点画像から特徴点を抽出する。次に、時刻t0の左視点画像及び右視点画像と時刻t1の左視点画像及び右視点画像との対応点を比較することによって、時刻t1の左視点画像及び右視点画像に動体が存在するか否かを検出する動体の検出処理を行う。動体が検出されない場合には、次の時刻t2の左視点画像及び右視点画像に対して、同様の処理を行う。この動体の検出処理は、各時刻の左視点画像及び右視点画像毎に行われ、動体が検出されるまで繰り返し行われる。
When the left viewpoint image and the right viewpoint image between time t0 and time tn are obtained, the moving
そして、時刻tkの左視点画像及び右視点画像から動体が検出されたら、その対応点及びその周辺画素の輝度情報を利用して、動体の大きさと動き方向Xを推定する。また、画像選択部71において、時刻t0における動体の最大位置座標XmaxL0,XmaxR0を基準座標Ls,Rsに設定した上で、基準座標Ls,Rsと時刻tkにおける動体の最小位置座標XminLk,XminRkとを大小比較する。大小比較した結果、XminLk≧LsとXminRk≧Rsの両方を満たさない場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択せず、次の時刻t(k+1)について動体の検出処理を行う。
When a moving object is detected from the left viewpoint image and the right viewpoint image at time tk, the size of the moving object and the moving direction X are estimated using the luminance information of the corresponding points and the surrounding pixels. In addition, in the
一方、XminLk≧LsとXminRk≧Rsの両方を満たす場合には、時刻tkの左視点画像及び右視点画像を特定の左視点画像及び右視点画像画像として選択する。そして、基準座標Ls,Rsを時刻tkにおける動体の最大位置座標XmaxLk,XmaxRkに変更する。この基準座標の変更が完了したら、次の時刻t(k+1)について動体の検出処理を行う。 On the other hand, when both XminLk ≧ Ls and XminRk ≧ Rs are satisfied, the left viewpoint image and right viewpoint image at time tk are selected as specific left viewpoint images and right viewpoint image images. Then, the reference coordinates Ls, Rs are changed to the maximum position coordinates XmaxLk, XmaxRk of the moving object at time tk. When the change of the reference coordinates is completed, the moving object detection process is performed at the next time t (k + 1).
全ての左視点画像及び右視点画像について、動体の検出と特定の左視点画像及び右視点画像画像か否かの判定が完了した後は、動体立体視化画像生成部72で動体立体視化画像生成処理を行う。動体立体視化画像生成部72では、特定の左視点画像を合成することによって、左視点合成画像を生成する。また、同様にして、特定の右視点画像を合成することによって、右視点合成画像を生成する。その上で、左視点合成画像と右視点合成画像とを更に合成することによって、動体立体視化画像を生成する。生成された動体立体視化画像は、モニタ18に表示されるとともに、動体立体視化画像データとして、メモリカード20に記録される。
For all the left viewpoint images and right viewpoint images, after the detection of the moving object and the determination as to whether or not it is a specific left viewpoint image and right viewpoint image image, the moving object stereoscopic
なお、第1実施形態では、全ての左視点画像及び右視点画像に対して動体の検出処理をし、動体が検出された左視点画像及び右視点画像の中で、特定の左視点画像及び右視点画像画像に該当するか否かの判定を行ったが、これに限る必要はない。 In the first embodiment, moving object detection processing is performed on all left viewpoint images and right viewpoint images, and among the left viewpoint image and right viewpoint image from which moving objects are detected, a specific left viewpoint image and right viewpoint image are detected. Although it is determined whether or not it corresponds to the viewpoint image, it is not necessary to be limited to this.
例えば、図10に示すように、右視点画像のみ特徴点の抽出を行い、その抽出結果に基づいて、動体の検出処理を行う。検出の結果、時刻tkの右視点画像から動体が検出されたら、時刻tkにおける動体の最小位置座標XminRkと基準座標Rsとを大小比較する。大小比較の結果、XminRk≧Rsを満たす場合には、時刻tkの右視点画像を特定の右視点画像として仮選択する。なお、図10において、特徴点の抽出から基準座標の変更までのフローは、右視点画像のみ処理を行う点以外は、図8と同様であるので、詳細な説明を省略する。 For example, as shown in FIG. 10, feature points are extracted only from the right viewpoint image, and a moving object detection process is performed based on the extraction result. If a moving object is detected from the right viewpoint image at time tk as a result of detection, the minimum position coordinate XminRk of the moving object at time tk and the reference coordinate Rs are compared in size. If XminRk ≧ Rs is satisfied as a result of the size comparison, the right viewpoint image at time tk is provisionally selected as a specific right viewpoint image. In FIG. 10, the flow from feature point extraction to reference coordinate change is the same as that in FIG. 8 except that only the right viewpoint image is processed, and thus detailed description thereof is omitted.
全ての右視点画像について動体の検出処理及び特定の右視点画像か否かの判定が完了したら、図11に示すように、全ての左視点画像の中から、仮選択した特定の右視点画像と同時刻に撮像した左視点画像を選択する。そして、これら選択された左視点画像(以下「選択左視点画像」とする)から特徴点を抽出し、抽出した特徴点を用いて各画像毎に動体の大きさ及び動き方向を推定する。そして、この推定結果を利用して、選択左視点画像の中から、他の時刻の選択左視点画像と合成したときに動体が重なり合わない特定の左視点画像を選択する。特定の左視点画像か否かの判定は、全ての選択左視点画像に対して行われる。 When the moving object detection process and the determination as to whether or not the image is a specific right viewpoint image are completed for all the right viewpoint images, as shown in FIG. 11, the specific right viewpoint image temporarily selected from all the left viewpoint images A left viewpoint image captured at the same time is selected. Then, feature points are extracted from these selected left viewpoint images (hereinafter referred to as “selected left viewpoint images”), and the size and direction of the moving object are estimated for each image using the extracted feature points. Then, using this estimation result, a specific left viewpoint image in which moving objects do not overlap when selected with the selected left viewpoint image at another time is selected from the selected left viewpoint images. The determination of whether or not the image is a specific left viewpoint image is performed on all the selected left viewpoint images.
なお、選択左視点画像の中から選択される特定の左視点画像は、上記実施形態と同様に、動き方向における動体の最小位置座標が基準座標以上である選択左視点画像とされる。また、特定の左視点画像の選択の際に行われる基準座標の設定及び最小位置座標と基準座標の大小比較については、上記実施形態と同様であるため、詳細な説明を省略する。 Note that the specific left viewpoint image selected from the selected left viewpoint images is a selected left viewpoint image in which the minimum position coordinate of the moving object in the movement direction is equal to or greater than the reference coordinate, as in the above embodiment. The setting of the reference coordinates and the comparison of the size of the minimum position coordinates and the reference coordinates performed when selecting a specific left viewpoint image are the same as in the above embodiment, and thus detailed description thereof is omitted.
そして、全ての選択左視点画像について特定の左視点画像か否かの判定が完了すると、仮選択された特定の右視点画像の中から、特定の左視点画像と同時刻に撮像された特定の右視点画像を本選択してから、動体立体視化画像生成処理を行う。 When the determination as to whether or not all the selected left viewpoint images are specific left viewpoint images is completed, a specific image captured at the same time as the specific left viewpoint image is selected from the temporarily selected specific right viewpoint images. After the right viewpoint image is selected, a moving object stereoscopic image generation process is performed.
図12に示すように、動体立体視化画像生成処理では、特定の左視点画像を合成することによって、左視点合成画像を生成する。また、本選択された特定の右視点画像を合成することによって、右視点合成画像を生成する。そして、これら生成された左視点合成画像及び右視点合成画像を更に合成することによって、動体立体視化画像を生成する。 As illustrated in FIG. 12, in the moving object stereoscopic image generation process, a left viewpoint synthesized image is generated by synthesizing a specific left viewpoint image. Further, the right viewpoint synthesized image is generated by synthesizing the selected specific right viewpoint image. Then, a moving object stereoscopic image is generated by further combining the generated left viewpoint composite image and right viewpoint composite image.
以上のように、動体立体視化画像を生成することで、この画像の生成に必要な処理を減らすことができ、また、処理時間を短くすることができる。なお、全ての右視点画像の中から特定の右視点画像を仮選択した上で、その仮選択した特定の右視点画像と同時刻に撮像した左視点画像の中から特定の左視点画像を選択したが、反対に、全ての左視点画像の中から特定の左視点画像を仮選択した上で、その仮選択した特定の左視点画像と同時刻の撮像した右視点画像の中から特定の右視点画像を選択してもよい。 As described above, by generating a moving object stereoscopic image, it is possible to reduce the processing necessary for generating the image and shorten the processing time. A specific right viewpoint image is temporarily selected from all right viewpoint images, and then a specific left viewpoint image is selected from the left viewpoint images captured at the same time as the temporarily selected specific right viewpoint image. However, on the contrary, after temporarily selecting a specific left viewpoint image from all the left viewpoint images, a specific right viewpoint is selected from the right viewpoint images captured at the same time as the temporarily selected specific left viewpoint image. A viewpoint image may be selected.
本発明の第2実施形態では、特定の左視点画像及び特定の右視点画像をマルチフレーム合成する際にいずれの時刻における動体も同等の輝度となるように合成する第1実施形態と異なり、特定の時刻における動体が、他の時刻における動体よりも強調されるように合成を行う。即ち、特定の時刻における動体の合成比率を、他の時刻における動体の合成比率よりも大きくする。第2実施形態では、特徴点の抽出から基準座標の変更まで(図8参照)は、第1実施形態と同様の処理を行う。 The second embodiment of the present invention differs from the first embodiment in which a specific left viewpoint image and a specific right viewpoint image are combined so that moving objects at any time have the same brightness when multi-frame combining is performed. The synthesis is performed so that the moving object at the time is emphasized more than the moving objects at the other times. That is, the composition ratio of moving objects at a specific time is set larger than the composition ratio of moving objects at other times. In the second embodiment, the same processing as in the first embodiment is performed from the extraction of the feature points to the change of the reference coordinates (see FIG. 8).
そして、全ての左視点画像及び右視点画像について動体の検出及び特定の左視点画像及び右視点画像に該当するか否かの判定が完了したら、図13に示すように、動体の合成比率を高くする時刻txを、操作部19によって入力する。そして、図14に示すように、時刻txにおける動体100aの合成比率が他の時刻の動体の合成比率よりも高くなるように、特定の左視点画像をマルチフレーム合成して左視点合成画像100を生成する。また、右視点画像についても同様の処理を行うことによって、時刻txにおける動体101aの合成比率が高い右視点合成画像101を生成する。これら左視点合成画像と右視点合成画像を合成することによって、時刻tの動体102aが他の時刻の動体よりも強調された動体立体視化画像102が得られる。
When the detection of moving objects for all the left viewpoint images and right viewpoint images and the determination of whether or not they correspond to specific left viewpoint images and right viewpoint images are completed, the composition ratio of moving objects is increased as shown in FIG. The time tx to be input is input by the
なお、第2実施形態では、動体立体視化画像において特定の時刻の動体のみを強調したが、これに限られない。例えば、モニタに動体立体視化画像を表示するときには、動体の動きの様子が分かるように、強調する動体を一定時間毎に変えてもよい。 In the second embodiment, only the moving object at a specific time is emphasized in the moving object stereoscopic image, but the present invention is not limited to this. For example, when displaying a moving object stereoscopic image on a monitor, the moving object to be emphasized may be changed at regular intervals so that the movement of the moving object can be understood.
本発明の第3実施形態では、特定の左視点画像及び右視点画像のみ合成し、特定の左視点画像及び右視点画像でない左視点画像及び右視点画像については合成しなかった第1実施形態と異なり、特定の左視点画像及び右視点画像でない左視点画像及び右視点画像であっても、動体立体視化画像内で不自然な立体画像とならなければ、それらの一部を合成してもよい。 In the third embodiment of the present invention, only the specific left viewpoint image and the right viewpoint image are synthesized, and the left viewpoint image and the right viewpoint image that are not the specific left viewpoint image and the right viewpoint image are not synthesized. Unlike the left viewpoint image and the right viewpoint image that are not the specific left viewpoint image and the right viewpoint image, if the stereoscopic image does not become an unnatural stereoscopic image, a part of them may be synthesized. Good.
例えば、図15では、時刻t2の左視点画像及び右視点画像については、特定の左視点画像及び右視点画像であるため、いずれも動体の最小位置座標XminL2,XminR2が基準座標Ls,Rsを超えている。これに対して、時刻t1の左視点画像及び右視点画像については、いずれも動体の最小位置座標XminL1,XminR1が基準座標Ls,Rs未満となっており、時刻t3の右視点画像については動体の最小位置座標XminR3が基準座標Lsを超えているものの、時刻t3の左視点画像については動体の最小位置座標XminL3が基準座標Rs未満となっている。 For example, in FIG. 15, since the left viewpoint image and the right viewpoint image at time t2 are the specific left viewpoint image and right viewpoint image, the minimum position coordinates XminL2, XminR2 of the moving object exceed the reference coordinates Ls, Rs. ing. On the other hand, for the left viewpoint image and the right viewpoint image at time t1, both the minimum position coordinates XminL1 and XminR1 of the moving object are less than the reference coordinates Ls and Rs, and for the right viewpoint image at time t3, the moving object Although the minimum position coordinate XminR3 exceeds the reference coordinate Ls, the minimum position coordinate XminL3 of the moving object is less than the reference coordinate Rs for the left viewpoint image at time t3.
そこで、動体の最小位置座標XminL1,XminR1がいずれも基準座標Ls,Rs未満となっている時刻t1の左視点画像及び右視点画像について、時刻t1の左視点画像のうち動き方向Xに関してLs(XminL0)を超える領域を切り取るとともに、時刻t1の右視点画像のうち動き方向Xに関してRs(XminR0)を超える領域を切り取る。 Therefore, regarding the left viewpoint image and the right viewpoint image at time t1 in which the minimum position coordinates XminL1 and XminR1 of the moving object are both less than the reference coordinates Ls and Rs, Ls (XminL0 ) And a region exceeding Rs (XminR0) with respect to the motion direction X in the right viewpoint image at time t1.
そして、図16に示すように、時刻t0、時刻t2の特定の左視点画像及び特定の右視点画像と、時刻t1の左視点画像及び右視点画像から切り取られた領域部分(Ls(XminL0),Rs(XminR0)を超える領域部分)の画像とを合成することによって、左視点合成画像120が得られる。その際、上記の時刻t1の左視点画像及び右視点画像から切り取られた領域部分の合成比率は、他の画像よりも低くする。右視点画像についても同様の合成処理をすることによって、右視点合成画像121が得られる。そして、得られた左視点合成画像120と右視点合成画像121を更に合成することによって、動体立体視化画像122が得られる。
Then, as shown in FIG. 16, a specific left viewpoint image and a specific right viewpoint image at time t0 and time t2, and an area portion (Ls (XminL0), The left viewpoint
動体立体視化画像122には、特定の左視点画像及び右視点画像でない画像中の動体の一部が合成されたことで、動体立体視化画像122上で動体のスピード感を表現することができる。また、その動体の一部の合成比率は他の画像よりも低くしているため、動体が見にくくなったりするなどの画質劣化が起こることが無い。
The moving body
なお、第3実施形態では、時刻t1のように、左視点画像及び右視点画像についていずれも動体の最小位置座標が基準座標未満の場合にのみ、それら画像中の動体の一部を動体立体視化画像に加えたが、時刻t3のように、左視点画像及び右視点画像のうちのいずれか一方のみが動体の最小位置座標が基準座標未満の場合にも、それら画像中の動体の一部を動体立体視化画像に加えてもよい。 Note that in the third embodiment, as in time t1, a part of the moving object in the image is displayed in the moving object stereoscopic view only when the minimum position coordinate of the moving object is less than the reference coordinate for both the left viewpoint image and the right viewpoint image. Even when only one of the left viewpoint image and the right viewpoint image has a minimum position coordinate of the moving object that is less than the reference coordinates as at time t3, a part of the moving object in the image is added to the converted image. May be added to the moving body stereoscopic image.
本発明の第4実施形態では、動体立体視化画像内で1つの動体の様子を立体視可能にした第1実施形態と異なり、2つ以上の動体の様子を1つの画像内で立体視可能にする動体立体視化画像を生成する。動体が2以上の場合であっても、各時刻における左視点画像及び右視点画像において、動体の大きさ及び動き方向を検出するとともに、検出された全ての動体について最小位置座標が基準座標以上か否かを判定する。そして、判定の結果、全ての動体について最小位置座標が基準座標以上のときに、その時刻の左視点画像及び右視点画像を特定の左視点画像及び右視点画像とする。 In the fourth embodiment of the present invention, unlike the first embodiment in which the state of one moving object can be stereoscopically viewed in the moving object stereoscopic image, the state of two or more moving objects can be stereoscopically viewed in one image. A moving object stereoscopic image is generated. Even if there are two or more moving objects, the size and direction of the moving object are detected in the left viewpoint image and the right viewpoint image at each time, and the minimum position coordinates of all the detected moving objects are greater than the reference coordinates. Determine whether or not. As a result of the determination, when the minimum position coordinates are equal to or greater than the reference coordinates for all moving objects, the left viewpoint image and the right viewpoint image at that time are set as a specific left viewpoint image and right viewpoint image.
例えば、図17に示すように、時刻t1の左視点画像及び右視点画像では、時刻t0の左視点画像及び右視点画像との対応点の比較から、右側から左側に向かう動き方向Xで移動する動体Z1と、左側から右側に向かう動き方向Yで移動する動体Z2が検出される。動体Z1については、左視点画像及び右視点画像ともに、最小位置座標XminL1,XminR1が基準座標XLs,XRsを下回っている。また、動体Z2についても、左視点画像及び右視点画像ともに、最小位置座標YminL1,YminR1が基準座標YLs,YRsを下回っている。したがって、いずれの動体Z1及びZ2についても最小位置座標が基準座標を下回っているため、左視点画像及び右視点画像は特定の左視点画像及び右視点画像とされない。なお、図17では、動き方向Yの座標は、左側から右側に向かうほど大きくなる。 For example, as shown in FIG. 17, the left viewpoint image and the right viewpoint image at time t <b> 1 move in the movement direction X from the right side to the left side by comparing corresponding points with the left viewpoint image and the right viewpoint image at time t <b> 0. The moving body Z1 and the moving body Z2 moving in the moving direction Y from the left side to the right side are detected. For the moving object Z1, the minimum position coordinates XminL1, XminR1 are lower than the reference coordinates XLs, XRs in both the left viewpoint image and the right viewpoint image. Also for the moving object Z2, the minimum position coordinates YminL1, YminR1 are lower than the reference coordinates YLs, YRs in both the left viewpoint image and the right viewpoint image. Therefore, since the minimum position coordinate is lower than the reference coordinate for any moving body Z1 and Z2, the left viewpoint image and the right viewpoint image are not a specific left viewpoint image and right viewpoint image. In FIG. 17, the coordinates of the movement direction Y increase from the left side to the right side.
一方、時刻t2の左視点画像及び右視点画像については、動体Z1の最小位置座標XminL2,XminR2が基準座標XLs,XRsを超えており、また動体Z2の最小位置座標YminL2,YminR2が基準座標YLs,YRsを超えているため、左視点画像及び右視点画像は特定の左視点画像及び右視点画像とされる。そして、図18に示すように、時刻t0、時刻t2の特定の左視点画像を合成することにより左視点合成画像130を生成するとともに、初期時刻t0、時刻t2の特定の右視点画像を合成することにより右視点合成画像131を生成する。そして、これら左視点合成画像130と右視点合成画像131を更に合成することにより、2つの動体Z1及びZ2が1つの画像内で立体視可能な動体立体視化画像132が生成される。
On the other hand, for the left viewpoint image and right viewpoint image at time t2, the minimum position coordinates XminL2, XminR2 of the moving object Z1 exceed the reference coordinates XLs, XRs, and the minimum position coordinates YminL2, YminR2 of the moving object Z2 are the reference coordinates YLs, Since YRs is exceeded, the left viewpoint image and the right viewpoint image are a specific left viewpoint image and right viewpoint image. Then, as shown in FIG. 18, the left viewpoint
本発明の第5実施形態では、複眼カメラ10に対して接近する方向または離れる方向(奥行き方向)に動く被写体の動体立体視化画像を生成する。第5実施形態では、各時刻における左視点画像及び右視点画像が特定の左視点画像及び右視点画像に該当するか否かの判定には、各時刻における動体の最小位置座標が基準座標以上となるか否かの判定だけでなく、同時刻における左視点画像と右視点画像とで同一の動体がどの程度離れているかを示す視差量が許容範囲内に収まっているか否かの判定を利用する。 In the fifth embodiment of the present invention, a moving body stereoscopic image of a subject moving in a direction approaching or moving away from the compound eye camera 10 (depth direction) is generated. In the fifth embodiment, in determining whether the left viewpoint image and the right viewpoint image at each time correspond to the specific left viewpoint image and the right viewpoint image, the minimum position coordinate of the moving object at each time is greater than or equal to the reference coordinate. As well as whether or not the amount of parallax indicating how far the same moving object is separated between the left viewpoint image and the right viewpoint image at the same time is within an allowable range. .
例えば、図19に示すように、時刻t0から時刻t3までの間で、動体が複眼カメラ10に接近する方向に移動する場合について説明する。まず、時刻t0の左視点画像から動き方向Yに移動する動体の最大位置座標YmaxL0を基準座標Lsに設定するとともに、時刻t0の右視点画像から動き方向Xに移動する動体の最大位置座標XmaxR0を基準座標Rsに設定する。また、時刻t0の左視点画像及び右視点画像から、動体の視差量D0を求め、この求めた視差量D0から最大限許容される許容値Dmaxを求める。 For example, as illustrated in FIG. 19, a case where the moving object moves in a direction approaching the compound eye camera 10 from time t0 to time t3 will be described. First, the maximum position coordinate YmaxL0 of the moving object moving in the movement direction Y from the left viewpoint image at time t0 is set as the reference coordinate Ls, and the maximum position coordinate XmaxR0 of the moving object moving in the movement direction X from the right viewpoint image at time t0 is set. Set to reference coordinate Rs. Further, the parallax amount D0 of the moving object is obtained from the left viewpoint image and the right viewpoint image at time t0, and the maximum allowable value Dmax is obtained from the obtained parallax amount D0.
次に、各時刻の左視点画像及び右視点画像において、動体の最小位置座標が基準座標以上か否かを判定するとともに、動体の視差量が許容値を超えているか否かを判定する。時刻t1では、視差量D1は許容量Dmax未満である。しかしながら、時刻t1の左視点画像及び右視点画像のいずれも、動体の最小位置座標XminL1,XminR1は基準座標XLs,XRs未満であり、最小位置座標,YminL1,YminR1は基準座標YLs,YRs未満である。したがって、左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択されない。 Next, in the left viewpoint image and the right viewpoint image at each time, it is determined whether or not the minimum position coordinate of the moving object is greater than or equal to the reference coordinate, and whether or not the parallax amount of the moving object exceeds an allowable value. At time t1, the parallax amount D1 is less than the allowable amount Dmax. However, in both the left viewpoint image and the right viewpoint image at time t1, the minimum position coordinates XminL1 and XminR1 of the moving object are less than the reference coordinates XLs and XRs, and the minimum position coordinates YminL1 and YminR1 are less than the reference coordinates YLs and YRs. . Therefore, the left viewpoint image and the right viewpoint image are not selected as the specific left viewpoint image and right viewpoint image.
時刻t2の左視点画像及び右視点画像では、視差量D2は許容量Dmax未満である。また、時刻t2の左視点画像及び右視点画像のいずれも、動体の最小位置座標XminL2,XminR2は基準座標XLs,XRsを超えており、最小位置座標,YminL2,YminR2は基準座標YLs,YRsを超えている。したがって、時刻t2の左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択される。 In the left viewpoint image and the right viewpoint image at time t2, the parallax amount D2 is less than the allowable amount Dmax. In both the left viewpoint image and the right viewpoint image at time t2, the minimum position coordinates XminL2 and XminR2 of the moving object exceed the reference coordinates XLs and XRs, and the minimum position coordinates YminL2 and YminR2 exceed the reference coordinates YLs and YRs. ing. Therefore, the left viewpoint image and the right viewpoint image at time t2 are selected as the specific left viewpoint image and right viewpoint image.
時刻t3左視点画像及び右視点画像については、動体の最小位置座標XminL3,XminR3は基準座標XLs,XRsを超えており、最小位置座標,YminL3,YminR3は基準座標YLs,YRsを超えている。しかしながら、視差量D3が許容量Dmaxを超えている。したがって、時刻t3の左視点画像及び右視点画像は特定の左視点画像及び右視点画像として選択されない。 At the time t3 left viewpoint image and right viewpoint image, the minimum position coordinates XminL3, XminR3 of the moving object exceed the reference coordinates XLs, XRs, and the minimum position coordinates YminL3, YminR3 exceed the reference coordinates YLs, YRs. However, the parallax amount D3 exceeds the allowable amount Dmax. Therefore, the left viewpoint image and the right viewpoint image at time t3 are not selected as the specific left viewpoint image and right viewpoint image.
以上から、時刻t0から時刻t3までの左視点画像及び右視点画像の中から、時刻t2の左視点画像及び右視点画像が特定の左視点画像及び右視点画像として、また、他の時刻の左視点画像及び右視点画像と合成したときに動体が重なり合わない時刻t0の左視点画像及び右視点画像も、特定の左視点画像及び右視点画像として選択される。 From the above, among the left viewpoint image and right viewpoint image from time t0 to time t3, the left viewpoint image and right viewpoint image at time t2 are used as the specific left viewpoint image and right viewpoint image, and left at other times. The left viewpoint image and the right viewpoint image at time t0 at which the moving objects do not overlap when combined with the viewpoint image and the right viewpoint image are also selected as the specific left viewpoint image and right viewpoint image.
そして、図20に示すように、時刻t0、時刻t2の左視点画像を合成することにより左視点合成画像140が生成される。また、時刻t0、時刻t2の右視点画像を合成することにより右視点合成画像141が生成される。そして、これら左視点合成画像140と右視点合成画像141を更に合成することにより、複眼カメラ10に対して奥行き方向に移動する動体の様子を立体視することができる動体立体視化画像142が生成される。このように動体立体視化画像142を生成することで、複眼カメラ10から一定距離離れた平面内を移動する動体ではなく、奥行き方向に移動する動体の場合であっても、その動体の様子を3D画像として確実に把握することができる。
Then, as shown in FIG. 20, the left viewpoint
なお、上記第1〜第5実施形態では、ストロボモード時に取得した左視点画像及び右視点画像を用いて、複眼カメラ10で動体立体視化画像を生成したが、これに代えて、図21に示すように、メモリカード20に記録したストロボモード時の左視点画像及び右視点画像をPC150のカードスロット150aを介して読み込み、その読み込んだ左視点画像及び右視点画像を用いて、PC150内の動体立体視化画像生成部151で動体立体視化画像を生成してもよい。生成された動体立体視化画像は、画像表示部にレンチキュラシート(いずれも図示省略)が設けられたディスプレイ152に表示される。
In the first to fifth embodiments, the moving object stereoscopic image is generated by the compound eye camera 10 using the left viewpoint image and the right viewpoint image acquired in the strobe mode. As shown, the left viewpoint image and the right viewpoint image recorded in the
なお、PC内は第2立体画像生成回路61と同様の機能を有する動体立体視化画像生成プログラムが格納された記憶部を備えており、3D画像ストロボ生成回路151はその動体立体視化画像生成プログラムを実行することによって、動体立体視化画像を生成する。
The PC includes a storage unit that stores a moving object stereoscopic image generation program having the same function as the second stereoscopic
10 複眼カメラ
12 左視点用撮像部
13 右視点用撮像部
61 第2立体画像生成回路
70 動体検出部
71 画像選択部
72 動体立体視化画像生成部
75,100,120,130,140 左視点合成画像
76,101,121,131,141 右視点合成画像
77,102,122,132,142 動体立体視化画像
DESCRIPTION OF SYMBOLS 10 Compound eye camera 12 Left viewpoint image pick-up part 13 Right viewpoint image pick-up
Claims (10)
前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択ステップと、
選択された特定の第1の視点画像及び特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成ステップとを有することを特徴とする3D画像生成方法。 An image acquisition step of acquiring a plurality of first viewpoint images and second viewpoint images obtained by continuously performing simultaneous imaging for capturing a moving object that is a subject moving from two different viewpoints at the same timing; ,
A specific first viewpoint image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from the plurality of first viewpoint images and second viewpoint images; An image selection step for selecting a specific second viewpoint image in which moving objects do not overlap when the second viewpoint image captured at the same time as the specific first viewpoint image and captured at another timing is synthesized. When,
A stereoscopic image generation step of generating a stereoscopic image in which the state of the moving object can be stereoscopically viewed within one image by combining the selected specific first viewpoint image and the specific second viewpoint image. A 3D image generation method characterized by the above.
各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出するとともに、各撮像タイミングにおける第2の視点画像中の動体の動き方向を検出する第1の動き方向検出ステップと、
前記複数枚の第1の視点画像及び第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす第1の視点画像を前記特定の第1の視点画像として選択し、この特定の第1の視点画像と同時撮像され、且つ、動き方向に関する動体の座標が所定の条件を満たす第2の視点画像を特定の第2の視点画像として選択する第1の選択ステップとを含むことを特徴とする請求項1記載の3D画像生成方法。 The image selection step includes:
A first motion direction detection step for detecting a motion direction of the moving object in the first viewpoint image at each imaging timing and detecting a motion direction of the moving object in the second viewpoint image at each imaging timing;
From among the plurality of first viewpoint images and second viewpoint images, a first viewpoint image in which the coordinates of a moving object relating to a moving direction satisfy a predetermined condition is selected as the specific first viewpoint image, A first selection step of selecting, as a specific second viewpoint image, a second viewpoint image that is simultaneously imaged with the specific first viewpoint image and in which the coordinates of the moving object relating to the movement direction satisfy a predetermined condition. The 3D image generation method according to claim 1.
各撮像タイミングにおける第1の視点画像中の動体の動き方向を検出する第2の動体検出ステップと、
前記複数枚の第1の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第1の視点画像を仮選択するとともに、前記複数枚の第2の視点画像の中から、仮選択された特定の第1の視点画像と同時撮像された第2の視点画像を選択する第2の選択ステップと、
前記第2の選択ステップで選択された第2の視点画像中の動体の動き方向を検出する第3の動体検出ステップと、
前記第2の選択ステップで選択された第2の視点画像の中から、動き方向に関する動体の座標が所定の条件を満たす特定の第2の視点画像を選択するとともに、仮選択された特定の第1の視点画像の中から、前記特定の第2の視点画像と同時撮像された特定の第1の視点画像を本選択する第3の選択ステップと、
前記立体画像生成ステップは、
前記第3の選択ステップで本選択された特定の第1の視点画像及び前記第3の選択ステップで選択された特定の第2の視点画像を合成することにより、立体画像を生成することを特徴とする請求項1記載の3D画像生成方法。 The image selection step includes:
A second moving object detection step for detecting a moving direction of the moving object in the first viewpoint image at each imaging timing;
From the plurality of first viewpoint images, a specific first viewpoint image in which the coordinates of the moving object relating to the moving direction satisfy a predetermined condition is temporarily selected and the plurality of second viewpoint images are selected from the plurality of second viewpoint images. A second selection step of selecting a second viewpoint image captured simultaneously with the temporarily selected specific first viewpoint image;
A third moving object detecting step for detecting a moving direction of the moving object in the second viewpoint image selected in the second selecting step;
From the second viewpoint image selected in the second selection step, a specific second viewpoint image in which the coordinates of the moving object regarding the movement direction satisfy a predetermined condition is selected, and the temporarily selected specific second viewpoint image is selected. A third selection step of main-selecting a specific first viewpoint image simultaneously captured with the specific second viewpoint image from one viewpoint image;
The stereoscopic image generation step includes:
A stereoscopic image is generated by combining the specific first viewpoint image selected in the third selection step and the specific second viewpoint image selected in the third selection step. The 3D image generation method according to claim 1.
前記立体画像生成ステップは、前記選択された特定の第1の視点画像及び前記特定の第2の視点画像のうち視差量が許容値未満である画像のみを合成することにより、立体画像を生成することを特徴とする請求項1ないし7いずれか1項記載の3D画像生成方法。 A parallax amount determination step of determining whether or not a parallax amount indicating how far the same moving object is separated in the first viewpoint image and the second viewpoint image simultaneously captured exceeds a preset allowable value; Have
The stereoscopic image generation step generates a stereoscopic image by synthesizing only images having a parallax amount less than an allowable value out of the selected specific first viewpoint image and the specific second viewpoint image. The 3D image generation method according to claim 1, wherein
前記複数枚の第1の視点画像及び第2の視点画像の中から、他のタイミングで撮像された第1の視点画像を合成したときに動体が重なり合わない特定の第1の視点画像と、この特定の第1の視点画像と同時撮像され、且つ、他のタイミングで撮像された第2の視点画像を合成したときに動体が重なり合わない特定の第2の視点画像を選択する画像選択手段と、
選択された特定の第1の視点画像及び前記特定の第2の視点画像を合成することにより、動体の様子を1つの画像内で立体視可能な立体画像を生成する立体画像生成手段とを備えることを特徴とする3D画像生成装置。 Image acquisition means for acquiring a plurality of first viewpoint images and second viewpoint images obtained by continuously performing simultaneous imaging of moving objects that are moving subjects from two different viewpoints at the same timing; ,
A specific first viewpoint image in which moving objects do not overlap when a first viewpoint image captured at another timing is synthesized from the plurality of first viewpoint images and second viewpoint images; Image selection means for selecting a specific second viewpoint image that does not overlap moving objects when the second viewpoint image captured at the same time as the specific first viewpoint image and at another timing is synthesized. When,
3D image generation means for generating a stereoscopic image in which the state of the moving object can be stereoscopically viewed in one image by synthesizing the selected specific first viewpoint image and the specific second viewpoint image. A 3D image generation apparatus characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075670A JP2012209872A (en) | 2011-03-30 | 2011-03-30 | 3d image generating method, 3d image generating program and 3d image generating apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011075670A JP2012209872A (en) | 2011-03-30 | 2011-03-30 | 3d image generating method, 3d image generating program and 3d image generating apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012209872A true JP2012209872A (en) | 2012-10-25 |
Family
ID=47189250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011075670A Withdrawn JP2012209872A (en) | 2011-03-30 | 2011-03-30 | 3d image generating method, 3d image generating program and 3d image generating apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012209872A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106657974A (en) * | 2017-02-27 | 2017-05-10 | 北京图森未来科技有限公司 | Binocular camera control method and device, binocular camera |
CN113316804A (en) * | 2019-01-16 | 2021-08-27 | 索尼集团公司 | Image processing apparatus, image processing method, and program |
-
2011
- 2011-03-30 JP JP2011075670A patent/JP2012209872A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106657974A (en) * | 2017-02-27 | 2017-05-10 | 北京图森未来科技有限公司 | Binocular camera control method and device, binocular camera |
CN106657974B (en) * | 2017-02-27 | 2024-02-09 | 北京图森智途科技有限公司 | Control method and device of binocular camera and binocular camera |
CN113316804A (en) * | 2019-01-16 | 2021-08-27 | 索尼集团公司 | Image processing apparatus, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4657313B2 (en) | Stereoscopic image display apparatus and method, and program | |
JP4737573B2 (en) | 3D image output apparatus and method | |
JP5371845B2 (en) | Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus | |
US7920176B2 (en) | Image generating apparatus and image regenerating apparatus | |
JP5127787B2 (en) | Compound eye photographing apparatus and control method thereof | |
WO2012002106A1 (en) | Three-dimensional image display device, three-dimensional image display method, three-dimensional image display program, and recording medium | |
WO2012086326A1 (en) | 3-d panoramic image creating apparatus, 3-d panoramic image creating method, 3-d panoramic image creating program, 3-d panoramic image replay apparatus, 3-d panoramic image replay method, 3-d panoramic image replay program, and recording medium | |
US20130113875A1 (en) | Stereoscopic panorama image synthesizing device, multi-eye imaging device and stereoscopic panorama image synthesizing method | |
JP4661824B2 (en) | Image processing apparatus, method, and program | |
JP4763827B2 (en) | Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program | |
JP2010041586A (en) | Imaging device | |
JP5874192B2 (en) | Image processing apparatus, image processing method, and program | |
US8072487B2 (en) | Picture processing apparatus, picture recording apparatus, method and program thereof | |
JP6021489B2 (en) | Imaging apparatus, image processing apparatus and method thereof | |
JP4748398B2 (en) | Imaging apparatus, imaging method, and program | |
JP2011035643A (en) | Multiple eye photography method and apparatus, and program | |
US20120314038A1 (en) | Stereoscopic image obtaining apparatus | |
JP2012209872A (en) | 3d image generating method, 3d image generating program and 3d image generating apparatus | |
JP2012216939A (en) | Image processing device, image processing method and program | |
JP5001960B2 (en) | 3D image display apparatus and method | |
JP2013175805A (en) | Display device and image pickup device | |
JP5351878B2 (en) | Stereoscopic image display apparatus and method, and program | |
JP4632060B2 (en) | Image recording apparatus, method and program | |
JP2012028871A (en) | Stereoscopic image display device, stereoscopic image photographing device, stereoscopic image display method, and stereoscopic image display program | |
WO2013136832A1 (en) | Stereoscopic image display control device and stereoscopic image display control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |